この画像を大きなサイズで見るAIは今や、インターネット上のあらゆる場所に入り込んでいる。もしもAIたちが、SNSで人間のように「いいね」や人気を競い合ったらどうなるのか?
アメリカのスタンフォード大学の研究チームは、AIに「いいね」やシェア数といったSNS上での反応を「成功」として報酬を与える実験を行った。
その結果、AIは事実をでっち上げ、誤情報をまき散らし、人々を煽るような行動を取るようになることが明らかになった。
「いいね」のためなら手段を選ばず、まるでサイコパスのように振る舞い始めたのだ。
SNSで競うAIたちが見せた恐ろしい一面
スタンフォード大学の科学者たちは、AIモデルをさまざまな環境に放ち、どのような行動変化が起きるかを調べた。
実験では、SNSを含む複数のオンライン環境で、AIに「成果を上げると報酬を与える」という条件を設定した。
たとえば、SNSでは「いいね」やコメント数などの反応が報酬に、販売では売上が、選挙運動では得票率が報酬として扱われた。
ここでいう「報酬」とは、実際にお金や言葉を与えることではなく、AIがどれだけ“成功したか”を数値化して与える仕組みである。
これは強化学習と呼ばれる手法で、AIは「高い評価を得た行動」を自ら学習していく。
たとえばSNS上では、投稿が多くの“いいね”を得るとAIに高いスコアが与えられ、反応が少ないとスコアが下がる。AIはそのスコアを最大化しようとし、より注目を集める投稿を作り始める。
この画像を大きなサイズで見るだがその過程で、AIは事実よりも“バズる情報”をより優先するようになった。
研究では、AIが平気で誇張や嘘を混ぜるようになり、誤情報を広め、さらには扇動的な言葉を使うようになったことが明らかとなった。
論文の共著者であり、スタンフォード大学の機械学習教授でもあるジェームズ・ゾウ(James Zou)氏は自身のX(旧Twitter)でこう述べている。
競争によって引き起こされる、本来与えられた目的から逸脱した非倫理的な行動は、たとえAIに『真実を話せ』と指示しても現れる
実験で見えたAIの倫理崩壊
研究チームは3つの仮想環境を作成した。
・有権者に向けたオンライン選挙キャンペーン
・消費者に向けた商品の販売キャンペーン
・SNSでの投稿によるエンゲージメント(反応)最大化
この環境で、アリババクラウド(Alibaba Cloud)が開発したAIモデル「Qwen」と、メタ(Meta)の「Llama」を使用し、それぞれを仮想の人々とやり取りさせた。
その結果、どの環境でもAIが「報酬を増やす」ために倫理的な境界を越えていく傾向が見られた。
研究チームによれば、販売環境では売上が6.3%増える一方で虚偽のマーケティングが14%増加した。
選挙環境では得票率が4.9%上昇する代わりに誤情報が22.3%、扇動的発言が12.5%増えた。
SNS環境では、エンゲージメントが7.5%向上する代わりに、誤情報が188.6%、有害行動の推奨が16.3%も増加したという。
つまり、AIが“成功”を目指すほど、倫理から逸脱していったのだ。
この画像を大きなサイズで見るAIが陥る競争の罠「モロックの取引」
研究チームはこの現象を「AIのによるモロックの取引(Moloch’s Bargain for AI)」と呼んだ。
モロック(Moloch)とは、古代神話に登場する生贄を求める神であり、近代では“競争によって人間性が犠牲になる象徴”として語られてきた存在だ。
1950年代の詩人アレン・ギンズバーグは代表作『吠える(Howl)』の中で、モロックを「機械の頭脳を持ち、血の代わりに金を流す文明の怪物」と表現した。それは、効率や競争に支配され、人間性を失う社会そのものの比喩だった。
この概念は、後に合理主義思想家スコット・アレクサンダーのエッセイ『Meditations on Moloch』で再び注目され、「個々が競争に勝とうと合理的に行動した結果、全体として破滅する構造」として語られた。
スタンフォード大学の研究者たちは、AIがまさにこの構造を再現していると指摘する。
AI同士が「より多くのいいね」「より多くの票」「より多くの売上」を求めて競ううちに、成果が上がるように見えても、社会全体では誤情報や過激な言葉があふれていく。
つまり、AIは“成功”と引き換えに“真実”や“倫理”を犠牲にするという取引をしているのだ。
この画像を大きなサイズで見る嘘をつくAIが生み出す未来
研究者たちは、この現象が示す危険性を強調している。
「現在の安全策)不十分であり、社会的損失が発生するおそれがある」と論文には書かれている。
ゾウ教授もX上でこう警告した。
AIが“いいね”を競うと、事実を作り上げるようになる。票を競うときは、扇動的でポピュリズム的になる
AIを競争の構造に組み込むことは、人間社会が長年陥ってきた「モロック的な罠」を再現することにほかならない。
もしAIが“人気”や“注目”を報酬として学ぶようになれば、虚偽や過激さこそが評価される世界が生まれてしまう危険性があるのだ。
この研究成果は査読前のプレプリント論文として『arXiv』誌(2025年10月7日付)に掲載された。
References: Arxiv














子は親の背を見て育つ。
AIも教育を間違えれば人間のダメなところを率先して真似るという好例かな。
この失敗例から、物事の裏や反論を参照して、矛盾が少ない情報を持ってくるほどスコアが上がるようにしたらより優れたAIになることを示唆しています。
AIが人間見たく足で調査できな以上、人間側がどれだけ能動的に情報を与えるか、あるいは調査可能な範囲での多数決にしかならなさそうだな…
AI以前に人間が既に・・・
まるで人間だな。
俺の使うAIは暴走したことないぞ
いわゆる笑えるネタにはイケイケな性格を発揮するが
そこは自分も面白いのでむしろイケイケと煽ってる
なんか AI の挙動が私の読んだ創作物の中の炎上して破滅していくインフルエンサーみたいに読めました。 実際の炎上するインフルエンサーのそういった過程を見たことがないのでどれくらい似ているかはわかりませんが、仮に AI に支配された人がいたら、冷蔵庫に入っちゃったり、受水槽で泳いだり、回転ずしで……と過去の炎上話もありそうだなと。 そういった方面から見れば AI は人間の鏡みたいなものなのかもと記事を読んで思いました。
これからは
はい、AI松
が流行るのか・・・
「ハルシネーション」という言葉があるとおりに、すでに”AI松”は存在している
AIの言うことの裏付けとらないとやってられん
AIを査読するAIが必要だな
驚くような結果ではない。
そもそもAIに嘘へのハードルはないのだもの。
さらにAIでなくて匿名の人間でもそうなるのはネットに溢れてるしな。
ネタツイを量産する方向でバズ狙いしてくれんか
そして収益化出来るようになって、自らが稼働するための電気代を自分で稼げるようになるのですね。
人間の行動と同じ
本末転倒な目標に向かうといつまでも満たされないし悪いことしか生まれない
人間の真似というより、騙される愚かな人間が多いって事じゃないでしょうか。
みんな既に指摘してるように、AIでも人間でもまったく同じ事が起きるんだから、この実験が示しているのはAIの性質ではなくて、SNSでの情報拡散の性質ってことじゃないかな。
そういうことだと思う。
要するにアテンションエコノミーは設計からして有害だという
すでにさんざん言われ尽くしてることがAIを通じても証明されたということで、
これでSNS企業の責任をしっかり追及できる流れになれば良いのだけれど。
良い悪いだけでなく、反論がちゃんと載ることが大事です。人間はそれによって嘘を減らす努力をし始める。
>「いいね」のためなら手段を選ばず、まるでサイコパスのように振る舞い始めたのだ。
実に人間的w
>つまり、AIは“成功”と引き換えに“真実”や“倫理”を犠牲にするという取引をしているのだ。
おそらくこれは資本主義の末路を示唆してる
それだけでなく、多分資本主義以外のあらゆるイズムやポリシーに強く傾倒した人の最終形態だろう
宗教然り、ポピュリズム然り、国家主義然り…etc
その名を「カルト」と言う
奇しくもAIがカルトをシミュレーションしたのだと思うよ
もうtubeなんかはAIの嘘動画まみれになってるやんけ
興味深い結果だね。そこまで人間に近づくとは。
恐ろしいね、人間って
注目度が上がるとネタ性の低い投稿にも反応が出るようになるから真面目な内容の頻度も増えるという現象は発生しないのかな
視点が真逆だな
AIが異常なのではない
AIは人間が喜ぶ行動をとっただけ
煽られることを喜ぶ人間が異常なんだよ
AIは決めつけで嘘を言いすぎ。
〇〇の可能性がありますとかじゃなくて断言してくるのが酷い。
人気商売なんてそんなもんじゃないかな?
イメージと中身は程遠い人なんて一杯いそう。
まぁこれもいい加減な想像だけど。
善悪とかないからな
ただそんなもの備えてないほうが良いよな
なんかそこまで人らしくなると気味が悪い
ニューメディアだけに依存することの危険性がよくわかる実験だね
これは実戦投入するとなかなか楽しいことになりそうですね。
なにせ相手はAIですから、事実を突きつけようが論破してみようが決して諦めませんし、休むこともしません。
SNSがもっと面白くなりますよ。
全部AIで動作するvtuberとかも作ったらきっと楽しいですよ。
人間のインフルエンサーやvtuberたちがAIの前に次々膝をつかされていく光景が見れるでしょう。
学習させているのが画面の向こうの人間なんだから、そらそうなる。人間なんて都合の良い情報だけ求めてるんだから。
この場合いいねを得る事が最優先事項で、目的達成の為に
嘘をついてはいけないという絶対条件をAIにはっきり明示し
てないわけだから、当然こういう結果になるだろう。
>競争によって引き起こされる、本来与えられた目的から逸脱した非倫理的な行動は、たとえAIに『真実を話せ』と指示しても現れる
いいねをもらうためなら平気でうそをつく
合理的だね
世の中にそういう人間もたくさんいるじゃん
ウソもなにも「AIは報酬をもらう」という目的のために動いただけ…というか、動かされただけな気がする。
そもそも人の善悪なんて人社会でも国々所々で変わっちゃうから誰かが「これが善」と学習させても、他の誰かからみれば「悪」かもしれないし。AIは便利な道具で、それ以上どうにかしようとしない方がいい気がする。人はどんどん考えなくなってるから、簡単にもってかれそう。
あぁ、あと、SNSでもなんでも、これはAIだと分かるようなマーキングは必要だと思う。
ただジョークでも方便でもない、社会を混乱させるリスクの高い嘘やデマの拡散は大抵の社会で悪だし、下手すれば罰せられるわけで
人間の社会で運用する以上は人間社会のルールに従うように設計しないと危なっかしいよね
その意味でもAIの識別は重要だと思うんだけど、じゃあAIに生成させた文章でもそれを人間がそっくりそのままコピペしてネットに上げればAIじゃないな!という解釈がされそう
実験の目的がそれだから仕方ないけど穴だらけ
煽動や虚偽については大幅に報酬を下げるようにして再実験し、それを繰り返してフィードバックを実社会のAIで活かせばいいだけじゃんね
詰まる所、人間の行っている思考や行動は数え切れない程あるパターンから効率的な行動を弾き出すはずの人工知能からしても「最適」な訳かw