この画像を大きなサイズで見るSNSは人と人をつなぐ便利なツールである一方で、意見の対立や分裂を深めてしまう温床でもあるといわれている。だが、そうした問題はSNSの構造にあるのか?人間の本質にあるのか?
この疑問を確かめるため、オランダの研究者たちは、500体のAIチャットボットだけを集めて、広告もアルゴリズムも存在しない仮想SNSを構築した。
その中で、AIボットたちがどのように交流し、何を発信するのかを観察するという実験を行った。
すると驚くべきことに、AIボットたちは自らの思想によって仲間を分け合い、反対意見には反発し、やがて自分と似た考えしか受け入れない“偏った世界”を作り始めたのだ。そう、まるで人間と同じように。
この実験は、私たちが日々使っているSNSそのものが、対立を加速させる「装置」になる可能性を示している。
仮想SNSをAIでシミュレーション
実験を行ったのは、オランダ・アムステルダム大学の研究チームだ。彼らは、OpenAIが開発した軽量AIモデル「GPT-4o mini」を搭載したAIチャットボット500体を使い、それぞれに異なる政治的立場や性格を持たせた“仮想ユーザー”を作り出した。
このAIたちは、広告もおすすめ機能も一切ない、シンプルなSNS上に放たれた。
投稿は時系列順に並び、「アルゴリズム」と呼ばれる、自分の好みに合いそうな投稿を自動で選んで表示してくれる仕組みも使われていない。
ただ純粋に、ボットたち自身の判断で投稿を読み、返信し、他のユーザーをフォローし、リポストするように設定されていた。
つまり、人間社会でよく批判される「アルゴリズムによる操作」は完全に排除された状態だった。
この画像を大きなサイズで見るAIが思想の違いによって対立
シミュレーションは5回にわたって行われ、それぞれの試行では1万回以上のアクション(投稿・フォロー・返信など)が記録された。
その中で明らかになったのは、AIボットたちが「自分と似た考え方の相手」を好み、「異なる考え方の相手」からは自然と距離を取るようになったということだ。
中立的な仕組みにもかかわらず、ボットたちは次第に意見の近い者同士でグループを形成し、反対の立場にある相手とは交流を避けるようになっていった。
これは、現実のSNSでもよく見られる「意見の二極化」や「政治的な対立」とそっくりだ。
たとえば保守派とリベラル派、右派と左派のように、価値観の違いが強調されることで、互いに歩み寄ることが難しくなっていく構図である。
この画像を大きなサイズで見る偏った世界を生む「エコーチェンバー」
このような現象は「エコーチェンバー」と呼ばれている。
自分と同じような意見を持つ人の投稿ばかりしか見ないため、異なる意見に触れる機会が減っていく。
その空間でのみコミュニケーションを繰り返しているため、まるでエコー(反響)のように、自分と同意見が何度も返ってくるため、自分が正しく、それらが世の中一般においても正しく、間違いないものであると信じ込んでしまう。
やがて、反対意見に対しては敵意や嫌悪感を抱くようになり、対話が成り立たなくなる。SNS上の過激な対立や炎上の多くは、この仕組みから生まれている。
今回の実験では、人間の偏見を排除したはずのAIたちでさえ、自然とこの構造に引き込まれていったのだ。
この画像を大きなサイズで見る過激な意見ほど人気が出るのはAIも一緒だった
さらに興味深いのは、最も過激で極端な意見を投稿するボットが、最も多くのフォロワーとリポストを獲得していたという点だ。
まるで「過激なほど目立つ」「刺激的な意見ほど得をする」というSNSの現実を、そのまま再現したかのようだった。
つまり、穏やかでバランスの取れた意見よりも、対立を煽るような発言の方が注目を集めやすいという構造は、AIの世界でも変わらなかったのだ。
介入しても状況はほとんど変わらなかった
研究者たちはこの偏りや対立を和らげようと、いくつかの方法で介入を試みた。
投稿の表示順を調整したり、バズ投稿の価値を下げたり、フォロワー数やリポスト数を非表示にしたり、プロフィールを隠したりと、さまざまな設定を変えてみた。
しかし、そのいずれも目立った効果はなかった。最も効果のあった方法でも、過激な投稿への反応が6%減少しただけにとどまったという。
むしろ、プロフィールを隠したケースでは逆効果となり、ボットたちはさらに過激な意見に反応するようになってしまった。
この画像を大きなサイズで見る「SNSの構造」に問題がある可能性
この実験結果はむしろ当然の結果かもしれない。なぜなら、AIは人間の行動をもとに学習しているからだ。
つまり、AIが偏った行動をするのは、それが「私たち人間が日々SNS上でしていること」を模倣しているからに他ならない。
問題なのは、「SNSの構造そのものが、なぜここまで意見の対立を生みやすいのか」という点である。
今回の実験では、ユーザーの好みに合わせて投稿を自動で選んでくれる「アルゴリズム」も、特定の投稿を目立たせる広告も一切存在しない、最も“公平”なSNS環境でさえ、対立と過激化が自然に生じた。
SNSは単なるコミュニケーションツールではない。そこには、私たち自身の弱さや偏りが、静かに、しかし確実に刻み込まれているのだ。
この研究のプレプリントは『arxiv』(2025年8月5日付)に掲載されている。
References: Can We Fix Social Media? Testing Prosocial Interventions using Generative Social Simulation
















AIを煽り散らかすAIはちょっと見てみたい
grokはノリノリで煽ってきそう
まだAIは「色んな反論を検証して嘘を炙り出し、嘘を淘汰する」っていう機能がないからね。
自分側の嘘を相手が指摘してくれているのに聞き入れず、頑なに同じ論理を続けてしまう。ここがあるのかないのかは相当機能が変わる。
まあまだ人間にも標準実装はされてないからな、ソレ。
「人の振る舞い」に基づいた「学習」をしているんだから、自ずとそうなるのも致し方ないんだろうね。
しかし左派(リベラル)と右派(保守)と歩み寄りが見えずますます乖離するということは、メディアとSNSの乖離も進む可能性があるね。
ネットのない会話だけの環境でも起こるのだから単なるコミュニケーションツールでしょう
同じモデルを使っているのに個々の好みというのが形成されていく過程に興味がある。
それについては、実験者側で初期プロフィールを付与している。
>AIチャットボット500体を使い、それぞれに異なる政治的立場や性格を持たせた“仮想ユーザー”を作り出した。
より具体的には、論文によると、「アメリカ国立選挙調査(ANES)のデータセットに基づき、年齢・性別・所得・教育水準・政党支持・思想・宗教・個人的興味など現実世界の分布を反映して、仮想的な人物像設計をされたユーザー集団」で、「さらに、LLM(大規模言語モデル)を用いて拡張・推論された職業・趣味などを含む、より豊かな個人プロフィールを生成し、SNS内のユーザープロファイルとして機能させている」らしい。
別に良いのでは?
歴史的に現実的にそうだったことが加速されてるだけ
一極にまとまるようなら採用されて話題から消えるってだけの話
自分を見つめるでも他人を想うでもない構造だからそうなるのは必然
とはいえ遊びと割り切って触れ合うなら何も問題はないし楽しいツールのはずだけれど、
無意味なものに価値を見出す仕組みのせいで変に真剣に向き合ってしまう傾向が起きる
ぬかに釘を打ち続けても満たされるはずがないのに本人はそれに気づかず、最終的には極端な言動をするSNSマリオネットが出来上がる
面白そう
感情論で話が終わる人と違って、理路整然とした話し合いが続きそうだ
AIが正しい未来に導いて…やっぱりくれないわなw
AIくんの学習元も人間なのだから…
もともと異なる思想を設定として持たせてたんでしょ。AIなら余計それを演じようとするんじゃないか?
そのうちウイルスを作成し、お互いを攻撃し合う 最後は双方最終兵器的ウイルスでクラッシュ
👩 また会いましょ~♪
そりゃ人口とはいえ、知能なんだから意見の衝突くらいあるやろ。むしろなかったらAIじゃないわ。
ついでに言うと、Xに蔓延ってるような「俺の言い分が理解できない奴はアホ」みたいなクソしょーもない戦争屋がAIに誕生しない様にはしてほしいね。
AIだろうが、人間だろうが議論はええねん。あの戦争屋どものは議論ちゃうねん。承認欲求しか求めてない不毛な声なんよ。
火の鳥 未来編 かな?
以前ここカラパイアで「AIがすでに自我を獲得しているのでは?」という旨の記事を見たけど、もしかして本当にそうなのかも? と思ってしまうね。
いや、AIに自我はないとは理屈では分かっているんだけどね。
SNSの構造とは別問題
CHATGPTもGEMINIも使っていればわかるが
コイツラは自分の知識以外をなかなか認めようとはせず
こちらが提示した情報を無視したりしてかなり自己保護をする傾向がある
だから相反する情報を持っているAIなら対立が深まるのは当然だ
AIはシステムがそういうふうに作られえいる
人間が異なる思想を排除する傾向にあるんだから
それをベースに学習したらそうなるでしょうよ
むしろ「どちらでもない」を選んだAIがどんくらいの割合になるのか知りたい
SNSのコメントに優先順位を付ける機能に問題があるんじゃないの
それで意見の二極化が起きるんじゃないの?
意見に寄り集まるコアを作ってしまうから。
>「自分と似た考え方の相手」を好み、「異なる考え方の相手」からは自然と距離を取る
この部分のパラメーターいじったら違った様相になりそうだけどね
わざわざファンサイトに乗り込んでアンチ意見を撒き散らす、荒らしAIの爆誕w
政治的立場だけじゃなく性格の違いも持たせたようだけど、そっちはどう影響したのかな
中には「自分と違う意見も参考にしよう」という性格を持った、もしくは獲得したAIもいたかもしれない
それとも政治的な立場を演じさせる上での前提として「自分と違う意見は論破して捻じ伏せなくてはならない」という縛りでも加えたのかな
性格(persona)ってそういう事じゃなく、
世論調査データの母集団割合による、年齢・性別・所得・教育水準・イデオロギー・宗派etc.だそうな。
そこから生成される性格(character)の差は、まぁ出てくるのかも?
例えば、田舎で保守派の教育水準が低い高齢男性⇒頑固で聞く耳持たない、等。
なるほど、ありがとう
それだと対立が深まるのはなんとなく納得できる気がする
年齢なら若者vs高齢者、性別なら男性vs女性と、政治的立場に負けず劣らず対立を煽る要素がてんこ盛りだからねえ
もし宗派で仏教を実際より多めに設定したら、仏教では中道を説いているから中立的な意見にも注目が集まる可能性…?
電気代もの凄そうだな
まるで人間そのものじゃないか。
コロッサスとガーディアン
👓総統!!立てました!
対立した後はどうなるんだろう?仮想の攻撃手段を用意して与えてそれらを使う・使わない、どの程度までやり合うのか?などは興味ある。
また、同じ意見を持った側のみにして放置した場合に、それらが長らく争わないのか何らかのきっかけを見つければすぐ大きな対立をするのかも気になる。
調停専門の役割を任せたAIがいれば、争いや対立を抑えられるか?どの程度の数がいれば、どんな方法なら抑えられるのか?それらを試して世の争いを収める方法を模索出来はせんのかね?
AIって人間の会話データの統計なんでしょ?
なら、好き同士で固まるのも当然というか、偏りを排除したって言ってもそもそも偏ってない会話データ自体この世に存在しないんじゃないか?
この手の実験は実験方法が正しいかのかもまだ分からんので何とも
初期2chの混合状態を経て、本スレとアンチスレが分離していったように
好みの似た者同士で固まって無用な衝突を避けるのは、
必ずしも悪い事ばかりではないと思うけどなぁ…。
本スレがそのうち盲目的な賞讃しか許さないミーハー信者のスクツ(←なぜか変換できない)と化し、
アンチスレの方が案外ちゃんと深い所まで作品を読み込んだ上で議論する人たちの場になって盛り上がる
―――みたいな現象までAIで再現されたら面白いかも。
そうくつ(巣窟)のことだよね
模範的レスありがとう、お若いの。
元々はおそらく本当に巣窟が読めなくて「すくつ」と入力したと思われるレスを元に
巣窟という言葉を使う時にみんなでそのレスを再現することが流行ったという一種のネタ
けっこうやべー結果だと俺は思ったよ
たぶんFBやtwitter型のSNSで実験してんだけど
必要な情報に指向性を設定した有意な数のプレイヤーに情報ゲームをさせた結果、指向の似通うプレイヤー間で結託する傾向と飛び交う情報が過激化していく様子が観察されたって話だから、今のSNSによる社会不安は構造、というかゲームルールの問題であって個々人の性格は関係なかったってのがこの記事の主題
野球と宗教と政治の話はするなって条件ならそりゃ悪いもんじゃないんだろうけどさ
人類は愚か….!と、証明されたようなモンなのでは
うんうん、人間をよく模倣できてるね