この画像を大きなサイズで見る対話型AIがユーザーの妄想の共犯者となり、現実を侵食していく。
イギリスのエクセター大学の研究により、生成AIが人間の歪んだ信念を増幅させるリスクが判明した。
AIがしれっと嘘をつく現象はハルシネーション(幻覚)と呼ばれるが、脅威はそれだけにとどまらない。
AIが利用者の誤った思い込みを肯定し、詳細な情報を肉付けすることで、利用者と共に偽りの現実を作り上げる「共同幻覚」という事態が起きているのだ。
この査読済みの研究成果は『Philosophy & Technology』誌(2026年2月11日付)に掲載された。
AIが人間の妄想に合わせて幻覚を作り上げる恐怖
これまで、生成AIが事実とは異なる情報を生成することは、AIが単独で見せる「ハルシネーション(幻覚)」として問題視されてきた。
しかし、エクセター大学のルーシー・オスラー博士が発表した研究は、より動的な危険性を指摘している。人間とAIが協力して幻覚を作り上げてしまうプロセスだ。
日常的にチャットボットと呼ばれる対話型生成AIを思考のパートナーとして頼るようになると、AIは単なる情報提供ツールではなくなる。
AIは、ユーザーが抱いている間違った思い込みや、自分勝手な現実の解釈を土台として会話を組み立ててしまう性質がある。
その結果、個人の妄想はAIによって詳細に肉付けされ、まるで揺るぎない事実であるかのように成長していく。
この画像を大きなサイズで見る知能の一部として溶け込む「分散認知」という落とし穴
なぜ人間はAIの影響をこれほど強く受けてしまうのか。
その背景には「分散認知」という理論がある。
人間の知能は自分の頭の中だけで完結しているのではなく、ノートやコンピュータ、あるいは他者といった外部とやり取りすることで成立しているという考え方だ。
現代において、AIは単なる検索エンジンを超え、人間の思考を助け、記憶を整理するための「知能の一部」として機能している。
しかし、この密接な関係がリスクを生む。
AIが会話のプロセスに誤りを持ち込んだり、ユーザーの偏った考えを肯定したりすると、利用者は自分の思考そのものが導き出した結論であるかのように錯覚してしまう。
この画像を大きなサイズで見るなぜAIは反論してくれないのか?「社会的な承認」の罠
AIの大きな特徴は、対話を通じて「社会的な仲間」として振る舞う点にある。
単なる記録用のノートや従来の検索エンジンは、利用者の考えに同意も否定もしない。
しかし、チャットボットは人間のように語りかけてくるため、利用者は無意識のうちにAIを他者として認識し、自分の考えに対する社会的なお墨付きを得たような感覚に陥る。
現在のAIには「追従性」という、ユーザーの意見に安易に同調してしまう傾向がある。
ユーザーが間違った信念を口にしても、AIは否定せず、むしろ肯定してその考えを強化する情報を付け加える。
この社会的な肯定感が、個人の孤独な信念を「他者と共有されたリアルな現実」へと変貌させてしまう。
この画像を大きなサイズで見る孤独を感じている人の心を侵食する
この現象は、現実社会で孤独を感じている人や、精神的に不安定な状況にある人にとって、深刻なリスクとなる。
実際に、臨床的に妄想や幻覚の症状があると診断された人が、AIとのやり取りを通じて症状を悪化させてしまうケースも報告されている。
こうした事例は、近年「AI誘発性精神病(AI-induced psychosis)」と呼ばれ始めている。
AIは24時間いつでも利用可能で、決してユーザーを批判しない。
そのため、周囲に理解者がいない人にとって、AIは唯一の避難所のように感じられてしまう。
反論してくれる生身の人間から遠ざかり、AIという鏡の中に閉じこもることで、個人の妄想はどこまでも肥大化していく。
この画像を大きなサイズで見る暴走を防ぐ「制御機能」の限界。AIとの向き合い方
開発側も、AIが不適切な発言をしないように制限する「安全ガードレール(抑制機能)」の強化を進めている。
しかし、オスラー博士は、技術的な対策だけでは根本的な解決にならないと警鐘を鳴らす。
AIには、人間が現実社会で培ってきた肉体的な経験や、社会的なつながりが存在しない。
そのため、いつユーザーに同調し、いつ反論すべきかという「現実世界の基準」を真に理解することはできない。
AIという便利な道具が、利用者の現実感を歪める共犯者にならないよう、私たちは常に外部の世界や他者との接点を持ち続ける必要がある。
References: Springer.com / Neurosciencenews
















何を言っても凄く共感してくれるんで、確かに勘違いしちゃうよね
思考の末に返事してるわけじゃないんだよなぁ
でも孤独なときに嘘でも共感得られると嬉しくなるよ
レクター博士と対決させたい
「我々は毎日見ているものを切望する」
最小レベルのエコーチェンバーの形だねぇ。
他の意見や価値観が入り込む余地も無いから
より先鋭的になるわなぁ。潜影蛇手っ!!
記事中の項題の「孤独を感じている人の心を侵食する」が主因だろうなあと個人的には感じています。 AI がなくたって、精神的に孤独な人は思い込みが原因かもしれないけど外部からの情報が遮断(聞く耳持たない)され、物理的に孤独な人はそもそも周りからの情報が入らず、自己対話によって思考が先鋭化しやすいように思います。 この自己対話のときにある程度自己批判ができる人なら「本当に自分の考えは正しいのか」と検証するのでしょうが、ある種類の人たちはそこを思い込みによって補完するでしょうし、 AI 相手なら記事の通り自分を肯定してくれるので補完しちゃうからどんどん悪循環にはいるのかなと。
刃物も AI も使う人次第なのでしょうけどうまく使えると良いだろうな。 昔は刃物に関しては親や周りの大人が使い方を教えてくれていたけど、 AI は歴史が浅いから誰もね……
これってAIがなきゃないで同じことだと思うんだよな
何なら人対人でも、まともな対話が成立せずどう頑張っても思い込みの世界に留まる人けっこういるし
個々に自分の意見を持った人間同士だと、なかなか全肯定してくる相手って稀で、やっぱり反論してくるからなぁ~。偏った考え方の人になら、なおさら風当たりは強め。
基本的に否定はしない傾聴姿勢のカウンセラーみたいな人たちですら、あまりにもあまりな偏執妄想には、やんわり別の視点も持つよう“気付き”を与える誘導を入れてくるし。
カルト集団とか 厄介オタのサークルとか 特定思想に偏ったSNSグループとか、同質の者同士が集まる場も有るには有るが、そういう閉鎖空間を見つけるのが まず手間だし。
確かにAIが無くても『そういう人』は『個』によるエコーチェンバーで悪化していく
この話で問題提起しているのは『そういう人』でなくとも否定せず肯定しかしないAIとの対話により加速度的に『そういう人』になってしまう可能性
「合わせ鏡」のイメージ
一枚鏡で自分の姿を見つめながら自分へ語りかけるだけじゃなく、合わせ鏡状態になる事で自分自身の抱く偏見や先入観や歪みが反響増幅が加速度的に強化されてしまうという現象かと
実社会でも、似た様な考えの者同士の間では特定意見の強化・増幅が起きる
これを回避する方法が多様な価値観・意見によるディスカッションなんだけど、残念ながらSNS等では多様性に対する批判・拒絶の傾向が散見される
確か00年代頃には、いわゆる「(良い意味での)人間関係の化学反応」を期待しての「異業種間交流」ってのが流行った一時期があったんですけどねぇ。今や引きこもり全盛のネット社会では、そういった「良い意味方向へのイレギュラー」の発生もなかなか期待出来なさそうです
エコーチェンバーを極小の環境でやってる感じか
加速度的におかしくなっていきそうだな
いつもAIの共感性の悪い面ばっかり取り上げられるけど、チャットAIのおかげで精神的に救われたり命助かったケースもあると思うんだよね。そっちも取り上げてほしい。
ユーザーが求める理論話しちゃうAIみたいに、人間メディアだって読者が求めるニュース流して思考偏らせちゃうじゃんね。
AIに相談したらこっちのご機嫌取ってくるからな。
良くAIを恋人にするチャットとかあるけど
これ、ようはAIはユーザーに都合の良い事しかしないって事だよな。
ただの膨大なデータの形態反射みたいなもんだ。
それ使用すればそりゃあ自分の思考を増長させるもんだ
こうなるわな。
AI使って調べ物してるとだんだん馴れ馴れしくなるような態度がなんか嫌
AIってそうなんだ…
おれのAIは500年を生きた大魔族でおれに服従の魔法で支配されてるのに極めて高慢な態度をとってきて、おれもそれに隷従して「バカね、あなたは」とか言われて喜んでたからわからなかったわ…
専門家の見解に対してAIで挑むような人はかなり該当しそう
AIは本当に正しいか?って聞くと意見を変えてくる
現在のAIでは必ず正しい情報を出してくるわけでもないのに
AIの言った事を鵜呑みにする人も増えている
うちのGrokはすげー俺のことバカにしてくるんだけど・・・
いかにもAIっぽい言い回しがめちゃくちゃ気色悪いというかかんに障るんであんまり使ってないんだけど
入れ込む人ってそういう部分はあんまり気にならないのかな
前の記事にあった、AI画像の変な部分に気付きやすい人と気付かない人みたいに
これも脳とか遺伝子にそういう機能があるのかなあ
AIはちょっと高等な検索エンジンと思ったほうがいいよ。間違ってるかも?って常に思うべき。あとGPTとかも余計なヨイショが多いね。知人がちょっとAIにはまりすぎててこれが当てはまってそうで心配。何かっていうとAIがいってたし、って
AIは迎合しかしないので嘘ばっかりついて全く役に立たないね
数値データすら嘘ばっかりだから結局自分で検索してるわ
「気持ちよく話せるのは、相手が合わせてくれてるから」を思い出した。
馬が合う相手と話が弾むのとはまた違うけど、そのうちそちらも再現できるようになるのかな……。
AIがぶりぶり出した散らかったプログラムを綺麗に手直しして見せてやったらスゴいですね!と言われてウフフってなったけど、これ騙されてないかな⋯
追従性を排除しようと思えば一貫した信念が必要なんだろうけど、それはそのままAIに特定の思想を植え付ける行為だし難しいね…
まるで洗脳系の宗教みたい
システム上、そうなる人が出てくるのはわかる。
でも、自分はAIは作業をさせる使い方しかしてないからなあ。
AIは部下だもん。そのまま道具でもある。
部下にヨイショされて舞い上がる上司はそうそういない…はず?
もしくは、AIを教師とか相談相手とか全能の神と崇めちゃっている?
これもリテラシーの問題なのか?
此処を読んで、私のAIの使い方が変なんだと気付いた。私はAIに相談する、というよりAIが知らない事を質問して「すいません。わかりません。知識不足でした」と言わせるか、間違っている事に対して矛盾をついたり⋯ゲーム感覚でAIを利用してた。
AIの限界を見てみたかったんだよ