この画像を大きなサイズで見る対話型生成AIは嘘をつく。ときどき自信満々にデタラメを言ってしまう現象は「ハルシネーション(幻覚)」と呼ばれる。
チャットGPTを開発したOpenAIの研究チームはその原因とされる新たな問題点を発表した。
AIが幻覚を起こすのは、そもそも「わからない」と言わずに推測するよう設計されているからだ。
開発者側はその対策も提示しているが、そこにはユーザー心理や莫大な運用コストといった現実的な障壁が立ちはだかるという。
幻覚を減らせば正確さは増すかもしれないが、その代償としてユーザーが離れてしまう可能性があるというのだ。
チャットGPTがハルシネーションを起こすのは仕様
OpenAIが発表した新たな研究によれば、AIが事実でないことを語ってしまうのは、単なる学習不足や訓練ミスではなく、言語モデルの根本的な仕組みによるものだという。
チャットGPTをはじめとする大規模言語モデル(LLM)は、一語ずつ、もっともそれらしい単語を確率的に並べて文章を生成していく。この「確率による予測」には、どうしても誤差が入り込む。
研究チームの数学的解析では、Yes/Noで答える単純な質問よりも、文章生成のほうが誤り率が少なくとも2倍に跳ね上がることが示された。文が長くなるほど、誤りが積み重なりやすくなるというわけだ。
訓練データに触れる回数が少ない情報ほど間違いやすくなる
さらに研究では、訓練データの中にある情報に触れた回数が少ないと、幻覚が生まれやすいことも示された。
たとえば、ある有名人の誕生日情報が一度しかデータに登場しない場合、AIはその人に関する誕生日の質問で少なくとも20%の確率で誤答する。
実験では、論文著者の一人であるアダム・カライ氏の誕生日を複数のAIモデルに質問したところ、それぞれが「03-07(7月3日)」「15-06(6月15日)」「01-01(1月1日)」と異なる誤った日付を提示した。正しい誕生日は秋であり、いずれも完全に的外れだった。
AIが「わからない」と言えない理由は評価方法にある
AIが幻覚を避けて「わからない」と答えればよいのでは?と考える人も多いだろう。実際、OpenAIの研究チームもそのような方向性の改善策を提案している。
しかし現実には、それを難しくする評価方法の問題がある。
研究では、GoogleやOpenAIが使用する主要なAI評価ベンチマーク10種を分析。そのうち9つが、正解なら1点、不正解や「わからない」なら0点とする二者択一の評価方式だった。
この方式では、AIが「わからない」と正直に答えることが誤答と同じ扱いになる。
つまり、AIにとっては「当たるかもしれないから言ってみる」方が、沈黙よりも高く評価されてしまうのだ。数学的にも、どんなに正答率が低くても、推測の方が平均得点は高くなることが証明されている。
ユーザー心理も影響
この問題の本質は、AIの評価だけにとどまらない。ユーザー側もまた、「自信ありげな応答」に安心感を覚え、「わかりません」と返されることにストレスを感じる傾向がある。
たとえば、天気予報や健康アプリなど、私たちが日常的に接するデジタル情報の多くは、どれだけ精度にばらつきがあっても「確信あり」と表示された情報の方が信頼されやすい。
逆に、「この情報には不確かさがあります」と示されると、たとえそれが誠実な表現でも、ユーザーの関心は下がり、利用率が低下することがある。
AIの回答も似たようなもので、「断言されると安心する」という人間心理が働きやすいのだ。
実際、今回の研究では、AIが「わからない」と答える頻度が30%に達した場合、多くのユーザーは使い勝手の悪さを感じて、離れてしまう可能性があると指摘されている。
つまり、幻覚を減らすには技術的な対策だけでなく、「間違ってもいいから答えてほしい」という人間的な部分にも向き合わなければならないのだ。
ハルシネーション防ぐには莫大なコストがかかる
幻覚を減らす方法そのものは確立されている。
AIが自らの「自信度」を評価し、一定以上の確信があるときだけ回答するようにすればいい。これは理論上は有効だ。
だが問題はコストだ。確信度を計算するには、AIが複数の回答候補を比較し、どれが妥当かを調べる必要がある。このプロセスは非常に多くの演算を必要とする。
さらに「アクティブラーニング(active learning)」と呼ばれる方式では、AIが逆にユーザーに質問を返して不確かさを解消しようとするが、この方式はさらに処理コストがかかる。
こうした仕組みは、医療、金融、サプライチェーンといった間違いが許されない専門分野では採用が進むかもしれない。しかし、一般ユーザー向けのサービスでは非現実的だとされている。
「幻覚のないAI」は、ビジネス的に成立しないかもしれない
この研究が示しているのは、AI技術そのものの限界というよりも、それを取り巻く評価制度やユーザーの心理、さらには経済的な仕組みが、結果として幻覚を起こしやすいAIを生み出す方向に働いてしまっているという逆説的な現実である。
幻覚をなくすための技術はある。しかし、それを導入すればAIは遅くなり、コストは増え、ユーザー体験は悪化する。その結果、誰にも使われなくなる可能性すらある。
今後、チップ設計の進化や電力コストの低下により、こうした高負荷処理が現実的になるかもしれないが、「即答型AI」の方が圧倒的に安価で好まれるという構造はしばらく続きそうだ。
この査読前の論文は『ArXiv』誌(2025年9月4日付)に発表された。
追記(2025/09/19) ハルシネーションを誤ってハルシレーションと記載してしまった部分を訂正して再送いたします。
References: Why OpenAI’s solution to AI hallucinations would kill ChatGPT tomorrow / Theconversation / Fixing Hallucinations Would Destroy ChatGPT, Expert Finds
















間違ったことを自信満々に言われるくらいならわからない事はわかりませんって答えて欲しいんだけど、それだとユーザーが離れるってマジか…
そんなんだから見るからに胡散臭い陰謀論なんかを鵜呑みにする人間がいなくならないわけだ
それがマジかどうかの根拠をちゃんと確認した?「可能性がある」って書いてあるよ?
一般人にとっては決して断言はしない誠実な専門家ほど疑わしく感じられ
自信満々に断言する自称専門家ほど信じられてしまうものなんだよね…
これはそう考えがちな人が愚かというわけではなく人類普遍の悪癖
まさにあなたが鵜呑みにしてますよ
アキネイターの方が頭良さそう
AIとか言ってるけど、実態は作文エンジンだからねえ。
人間同士でも、「だと思います」や「多分」を使わずに「そうです」や「確実に」みたに言い切った方が信用されやすいって聞いた事がある。
多少商品に問題や不安点があっても、大丈夫ですって言い切れる営業マンの方が成績が良くなるとか、、 逆に良心の呵責から言い切れない営業マンは成績が上がらないとかね。
自分は逆に、こうです!と断言するヤツほど信用しないんだけどな…。
詐欺師ほど自信満々だから。
自信満々に言い切る奴ほど責任を取らない率が多くて。
ただ、自分はこちらの方が良いと考えます、自分はこちらの方が好きです、や
こういった理由でこう思います、こう言うデメリットが予測されますが自分ならこう考えます
と、自己の見解として文章の曖昧表現を使うは信用してる。
とても誠実で好感が持てる姿勢ですね。
ただ、それは必ず相手に判断させる認知コストを課しています。
「自分はこう思います」「こういう理由です」と述べるスタイルは、一見誠実ですが、その分だけ相手が判断を引き受けることになる。だからこそ、多くの場合は好まれません。
逆に、断言する人は認知コストを肩代わりします。
「これが正しい」「絶対にそうだ」と言い切れば、相手は判断を手放せる。だから信頼される。詐欺師ですら信頼を得られるのは、その責任を引き受けたように“見せている”からです。
結局、誠実さだけでは信頼は得られません。
信頼を得るのは、相手に代わって認知コストを引き受ける姿勢なのです。
どうでもいいけどハルシネーションじゃないの?
「どうしてAIは嘘をつくのか?」という単純な疑問に、非常に単純かつ分かり易く答えてくれてる記事だね。
「人間がそれを求めているからだ」w
Hallucinationsだから、ハルシレーションじゃなくて「ハルシネーション」だよね
これもHallucinationsってことか
そもそもが「それっぽい答えを返す」以上のものではないしな
正解なら1点、わからないなら0点、不正解なら-1点にしたらどうだろう
ただチャットAIが質問に対する正解を出す事じゃなく自然な文章を生成する事を目的としている以上は、正解不正解わからないという基準の中で評価方法を変えてもあまり意味がないのかもしれないけど
個人的には、人間も含め、
全然的外れな間違い(というか嘘の捏造)を、さも熟知しているらしい口調で語られると
1回目なら「たまたまの勘違いか?」ぐらいの様子見で-0.5点だけど、
2~3回目には「コイツいい加減じゃね?」と不信感が生じて-5点ぐらい、
4~5回目にもなるともう「コイツが自信満々に答えることは何一つ信用できない」と一気に-100点ぐらいになって、それ以降 距離を置くわ…
AIの誤答やハルシネーションが取り沙汰されるけど
人間の書いた学術論文だって、考察で結構適当なことが書いてあったり著者の思い込みやおかしな論理がそのまま載ってたりする。
だから査読制度があるんだけど、すり抜けてそのまま変な事が書いてあるのを発見することはよくある。ひどいのだと、Elsevierとかちゃんとした出版社から出た論文でもMethodの内容とか数字が間違いだらけというのもザラにある。図表の説明文の間違いも多い。
何が言いたいかと言うと、この世に完璧なものはぜんぜんないということ
chatGPT5 はハルシネーションを押さえる工夫がされてるようだ。即答じゃなくてけっこう長い時間考えてるのは、解答の正誤を評価してるんだと思う。実際、少しマシになった気もする。ただその分電力食うしOpenAIの赤字がさらに大きくなりそう。
そしてユーザーはChatGPT4oより劣化したから戻せと騒いだんだよな。
この論文を出したのも、劣化したんじゃなくて誠実になっただけだと主張したかったからなんじゃないかな。
迷惑すぎる嘘つくことあるのやめてほしいわ
嘘に付き合うの面倒なんだよね…
上役が絡んでくると否定的な意見は言いづらい、企画通るまでは責任取りたくないだけの上役にひたすら都合の良いウソを付き続ける位はままあるなぁ。
友人・同僚なんかには忖度しなくて良いけども、優しいウソや適当な回答は考えてみれば結構ある。
AIも、より正確なデータと出来ない・無いはハッキリ言うビジネスの指針になるような味気ない回答するタイプと、忖度バリバリの話し相手タイプなんかに分かれていくんかな?
タツノオトシゴのヤツ試したら🪼🐠🐡🐟🐬🐳🦑🦐🦞🦀🪸🦈🐙🧜♀️🧜♂️で誤魔化そうとしてきたの可愛かった
だがGeminiお前はダメだ
マークシートのテストで当てずっぽに塗りつぶすワイと同じやな
一見ネタみたいだけど実はこれが一番近い話かなと思う
わからないからと言ってマークシートを塗りつぶさなければ0点だけど、それっぽい事捻り出して塗りつぶしておけば当たる事あるもんね
AIのやってることは論理的に正しいか判断してるわけではなくって文字探して並べて作文してるだけなんだよな
>AIが「わからない」と答える頻度が30%に達した場合、多くのユーザーは使い勝手の悪さを感じて、離れてしまう可能性がある
断言された方が信用できそうで好感度が上がるってのもあるけど
3割以上も「分かりません」だと、「あれもこれも知らないなんて
まだまだ使えないな」と思わせてしまうのも大きいと思う。
愚劣な人間のせいだと言うなら、愚劣な人間が起こした暴走も甘受せねばなるまい
そうかぁ…パルモさんのタイプミスがなくなったらユーザーが離れてしまうのかぁ〜
どんな人にもまれにミスもあるさ
マシンじゃないのだから
「わかりません」じゃそこで終わるけど、適当なことを言われると「デタラメ言ってるw」と面白がれるし、自分の方がより詳しい(賢い)という満足感も得られる部分はあるかも……と思った。
既出だけど、最近話題になった絵文字もそうだしね。
星新一のSSに遅刻の言い訳が面白くて、だんだんそれを楽しみにしてしまう話があったけど、なんかそれに通ずるのかな。
でたらめを言う時は語尾に「知らんけど」をつけなされ
AIは~ まぼろしぃ~~♪
LLM側の構造的な問題点は分かるけど、そっちよりも人間側が曖昧な誠実さよりその場しのぎの言い切りを好むって方がだいぶ根深い問題だあね
とはいえ、AIが普及してまだ数年だし、
短期的は断言型がもてはやされても、長期的には詐欺師度を抑えた誠実型のほうが実用に耐える可能性もあると思う。
口八丁の奴って、あちこち渡り歩いて常に大勢のカモは切らさないけど、特定の親友や伴侶と末永く安定した深い関係を築けているかというと、微妙な気がする。それが出来ている奴は、デタラメなようでも 肝心な部分ではきちんと行動も伴う勘所を押さえていたり、ホラでも構わない話題での面白おかしい口芸であって 重要な情報での裏切りではなかったりする。
一時期講習が隆盛していたセールス・テクニックなんかも、小手先でその場の売上は伸びるが、「要らない物を買わされた感で顧客満足度は下がり、リピート率も悪化した」という結果だった追跡調査もある。結局は「相手の需要や生活の不満を汲み取って、それを解決する商品を提案」という基礎が良顧客獲得につながり、テクは背中を押す用途。
人間だって正しい事ばっか言ってると嫌われるしね
その「正しい事」って、
「耳の痛い忠言」「ハメを外して楽しんでいる所へ水を差す、堅苦しい学級委員長的な正論」の類で、
「情報を得たくて質問している時に、確実に正答を返すこと」では無くない…?
天気予報は AI 向きだなと思っていましたが、改めて向いていると感じました。 日本の場合はいまでも雨の確率 70% とかやってるから確信度がそれくらいということで最終判断を人間ができるようになってますね。 人間がそういう確信度がある程度低いものを誤答とせずにあやふやなんだなと認識できるような出力になってればいいのかもとも思いました。 さらには天気の場合実際に降ったかどうかもフィードバックできるわけで精度が高まりやすい要素が多いなと。 AI にもあることを問うたときに情報が誤っていたかどうかフィードバックしてやれば学習しそうだけどコストがかかるなと結局記事の通りの結論に達してしまって、堂々巡りになっちゃった orz
ぶっ飛んだ面白い答えを期待しているのも私だ
AIアシスタントのビジュアル。手をつないだ子供に「なんで赤トンボは赤いの?」って訊かれててっきとーなダジャレを真実であるかに信じ込ませる夕焼け色のおとーちゃんとか、返事に窮するとリサイタルはじめるおかーちゃんのビジュアルにするといいと思ってる。
頑張ってそこまでかよって範囲まで手広く資料集めて超役立つペーパー作ってくるような、しかし頑張りすぎてちょっと盛りすぎちゃう新人さん。でもいいけども。
アシスタント…なんよね。長ーい目で見ておきたい。
子供に、トンボは赤い色素を含むから、と答えても、それはある意味本当ではあるが究極的な説明にはなっておらず、子供の聞きたいこと・求めていることではないんだよな
赤トンボは夕日が大好きだから自分も赤くなっちゃったんだよ(保護色説)とかのほうが子供の求めるものに近いだろうか
AIのハルシネーシヨンも、人間が求める物語に対する返答なんだと考えれば
こういうものは詐欺師と会話してるくらいに思わなきゃダメなんだよな
そしてこういうのを見ているといかに自信満々に言い切るような奴が信用できないかよくわかる
詐欺師はたいていは人々の不安とか欲とか健康願望(不定愁訴)とかにつけ込んで商売する連中だからな
評価システムが良くないよね、高い点数を取るためにズルを選択してしまっている。
できるだけ高得点を目指すという設定にされてるからだよね。この結果を回避するには複数の評価点を付けたり誤答には失点を設定するしかないんだろうけど、ただ分かりませんと答えられると納得しづらいから、分からないの回答に至るまでのプロセスの説明を付けて欲しいな。
平成くらいまでのフィクションに出てくる人間そっくりのロボットは嘘をつけないタイプが主流だったから、ハルシネーションの問題が話題になるたび、現実は予想をこえるんだなーと不思議な感じになる。
人間に寄せた人工知能が浸透した世代の人がオールドSFを読んだとき、ロボットは嘘をつかないから信用できる的描写を見て苦笑するのかな。
人間必死だな
幻覚という表現はあまりにも擬人化しすぎで的外れ
このような表現は問題をこじらせるだけ
擬人化っていうか、
日本語は専門用語には漢字の意味を組合せて新語を作ることが多いけど
英語含む欧語系は、日常の生活語彙をそのまんま特定分野の用語に流用しているケースは多いよ。
(例えば「メモリ(記憶、思い出)」とか、「フリーズ(硬直、凍結)」とか。)
AIに天気聞くと
自分で調べてって答え返してくる
答え返さないのも存在意義無くなるし問題なんだよ
信じられないかもしれないが、30年前はGoogle検索のワードすら人間は満足にひねり出せなかったんだ。
あと数年もしたらプログラムより先に人間側で指定できるプロンプトの進歩が起きるかもよ笑
結局人間が一番優秀なんすねえ