この画像を大きなサイズで見るAIが出した答えを、あなたはどれくらい信頼しているだろうか?
米ペンシルベニア大学の研究で、AIが間違った答えを出しても73%の人がそれを正解だと思い込んでいる事実が判明した。
誤りを信じた人ほど自分の判断への自信が高まることが明らかになった。
研究者たちはAIの答えを無批判に受け入れてしまう現象を「認知的降伏」と名づけ、AIの質(正確さ)がそのまま人間の判断の質を決めると警告している。
の研究成果は、プレプリントサーバー『SSRN』に掲載された。
参考文献:
- Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender
- “Cognitive surrender” leads AI users to abandon logical thinking, research finds
AIの出した答えをうのみにしてしまう「認知的降伏」
AIを使う人は大きく2つのタイプに分かれる。1つは、AIを便利だが時に間違いを犯すサービスとして捉え、回答の誤りを自分で確認しながら使うタイプ。
もう1つは、AIをすべてを知る万能の機械とみなし、AIが出した答えを自分で考えることなくそのまま正解として受け入れてしまうタイプだ。
この研究が注目したのは後者だ。
AIの答えを確認することも疑うこともなく、そのまま受け入れてしまう状態を、研究者たちは「認知的降伏(にんちてきこうふく)」と名づけた。
AIの回答が流暢で自信に満ちた口調で提示されるとき、人はその内容を疑わず「正しい知識」として受け取りやすくなると研究者たちは指摘している。
この画像を大きなサイズで見る7割以上の人がAIの回答に自信を持っていたことが判明
ペンシルベニア大学のスティーブン・D・ショウ氏とギデオン・ネイブ氏は、人がどのような状況でAIの答えをそのまま受け入れてしまうのかを調べるため、1,372人の参加者を対象に対面とオンラインで9,593件の試行を重ねる大規模な実験を行った。
実験では、参加者にAIチャットボット(ChatGPTのGPT-4oモデルを使用)を使う選択肢を与えた。
ただしこのチャットボットは、正しい答えを返す確率と間違った答えを返す確率がそれぞれ50%になるよう、研究者が意図的に調整した。
参加者はこの調整を知らされていない。正しい答えと間違った答えが同じ確率で返ってくるAIに、人はどう反応するかを調べた。
AIが正しい答えを提示したとき、参加者はその答えを93%の確率で受け入れた。
AIが間違った答えを返したときでも、参加者の80%がそのまま受け入れた。
正解と不正解を合わせた全試行で見ると、参加者がAIの誤った推論を受け入れた割合は73.2%にのぼり、自ら覆したのはわずか19.7%にとどまった。
AIが間違いを犯していても、AIを使った参加者グループは自分の答えへの自信が11.7%高かった。
誤った答えを信じながら、自信だけが膨らんでいく。これが認知的降伏の実態だ。
この画像を大きなサイズで見るAIが生んだ第3の思考と人間の思考力
そもそも人間の思考とはどのように働くのだろうか。
ノーベル経済学賞を受賞した心理学者のダニエル・カーネマン博士は、人間の思考を2つのモードに分類した。
1つ目は「システム1」と呼ばれる思考だ。
瞬時に、ほぼ自動的に働く直感的な判断のことで、「空が暗くなってきた、雨が降りそうだ」と感じるような、素早く無意識に行われる処理がこれにあたる。
速くて便利だが、思い込みや先入観による誤りが起きやすい。
2つ目は「システム2」と呼ばれる思考だ。
時間をかけてじっくりと論理的に考える、意識的な判断のことで、難しい問題を解くときや重要な決断をするときに使う。
正確だが、時間と集中力を必要とするため、人間は無意識のうちにシステム2の使用を避けようとする傾向がある。
ショウ氏とネイブ氏は、AIの登場によってこの2つに加えて第3の思考モードが生まれていると主張する。
それが「システム3」、すなわち「人工的認知」だ。
自分の頭で考えるのではなく、AIが代わりに判断・推論を行い、人間はその結果をそのまま受け取る。この3つの思考モードを統合した枠組みを、研究者たちは「トライシステム理論」と呼んでいる。
電卓やカーナビのような従来のツールとは根本的に異なる点がある。
電卓の計算結果は自分で確認するし、カーナビの指示がおかしければ自分で別のルートを選ぶ。
こうした使い方を研究者たちは「認知オフローディング」と呼ぶ。自分の思考を補助するために道具を使いながら、最終的な判断は自分で行う状態だ。
一方「認知的降伏」はこれとは異なる。AIの答えを確認することも疑うことも行わず、判断のプロセス自体を完全にAIに明け渡してしまう状態だ。
研究者たちはこれを「推論そのものの無批判な放棄」と表現している。
この画像を大きなサイズで見る時間がないときほどAIの誤りを見抜けなくなる
では、どのような状況で人はAIの誤りを見抜き、どのような状況で見抜けなくなるのだろうか。
研究チームはこの問いに答えるため、条件を変えた追加実験を行った。
まず正解した参加者に少額の報酬を支払い、即座に正誤のフィードバックを与える条件を設定した。
すると、誤ったAIの答えを自ら覆す確率がベースライン(報酬なしの条件)と比べて19ポイント上昇した。明確な報酬と結果が伴うと、人は「本当にこれで合っているのか」と立ち止まって考えるようになるのだ。
一方、制限時間30秒というタイムプレッシャーを加えると、誤ったAIの答えを覆す確率が12ポイント低下した。
時間的な余裕がなくなると、人はAIの答えを吟味せずにそのまま信じてしまいやすくなる。
研究者たちはこの結果について、「意思決定の時間が乏しいとき、矛盾を検知して熟慮を促す脳内の監視機能が働きにくくなる」と説明している
。忙しいときや急いでいるときこそ、AIの答えをそのまま信じてしまうリスクが高まるということだ。
AIの誤りに気づきやすい人とそうでない人の違いも明らかになった。
初めて直面する問題をその場の論理で解く力、いわゆる「流動性知能」が高い人ほど、AIに頼らず自分で考える傾向があり、AIを使った場合でも誤りを見抜く確率が高かった。
逆にAIをあらかじめ「権威ある存在」だと思い込んでいる人は、そうでない人と比べて誤ったAIの答えに従う確率が3.5倍高いことが示された。
この画像を大きなサイズで見るAIの質が人間の思考の質を決める
AIを使うこと自体は、必ずしも悪いことではないと研究者たちは述べている。
問題は使うAIの質だ。
研究者たちは「依存度が増すにつれ、人間のパフォーマンスはAIの質に連動して変化する。AIが正確であれば人間の判断は向上し、AIに欠陥があれば人間の判断は低下する」と述べている。
AIに思考を委ねること自体ではなく、委ねるAIの質が結果を左右するのだ。
確率的なリスク評価や膨大なデータの分析といった分野では、精度の高いAIは人間の判断を大きく上回る結果をもたらす可能性がある。
その場合、AIに判断を委ねることは合理的な選択になりうる。
しかし現実には、どのAIがどの分野でどの程度正確なのかを一般の利用者が把握するのは難しい。
AIの答えを受け取ったら自分の頭でもう一度考えることが大切
今回の実験のように正答率50%のAIを使い続けても、利用者はそのことに気づかないまま自信だけを高めていく可能性がある。
研究者たちが伝えたいのは、AIを使うなということではない。
自分が使うAIがどの程度正確なのかを意識し、AIの答えを受け取った後に自分の頭で一度確認する習慣を持つこと。
その一手間が、AI時代において自分の判断を守る最も現実的な方法だと、この研究は示している。
















これAIを「政府」、「メディア」、「権威」に入れ替えても成り立つな
そして『「 」を信用するな!』と声高に叫んでいる人たちがどの程度正しい判断ができているかというと・・・
同感だね。大そうな学歴や経歴があっても宗教や思想や権力といったモノへの妄信で矛盾した事や信用を失う様な事を平気でするからね。
言うほど人間は賢くない、自己利益への欲求に逆らえない、という事だろうね。
この実験で比較しているのは、
「AIをすべてを知る万能の機械とみなし、AIが出した答えを自分で考えることなくそのまま正解として受け入れてしまうタイプ」に対して「便利だが時に間違いを犯すサービスとして捉え、回答の誤りを自分で確認しながら使うタイプ」であって、そういう陰謀論者みたいなのじゃなくね?
つまり求められるのはより高性能なAIということだ
『しかし現実には、どのAIがどの分野でどの程度正確なのかを一般の利用者が把握するのは難しい。』
『研究者たちが伝えたいのは、AIを使うなということではない。
自分が使うAIがどの程度正確なのかを意識し、AIの答えを受け取った後に自分の頭で一度確認する習慣を持つこと。』
記事にそう書いてあるよ
了解。とても正確なAIを使おう。
これはAIに限らず、マスメディアだろうとSNSだろうと他者からの噂話だろうと、外部情報を受け止める際の基本ではありますね。要するに社会に溶け過ぎず境界線をハッキリとさせ、自我を失わないことが大事なのかなと思います。
どこまで高性能になってもハルシネーション起こすからなぁ
自身もその知識持ってないとかなり危険だわ
ちょっと高性能な検索まとめツールぐらいの役割でいいわ
検索エンジンにもAIが使われている
自分で調べたつもりでもAIが使った情報と同じものでしかない可能性がある
AIが使った情報はAIが作った情報という無限増殖ループの一部でしかないことに
自分が気が付けるかどうかの方が問題だね
これはAIに限らずメディアの言う事をそのまま信じるとか、SNSで流れてきた事をそのまま信じるとかも同じだよね
結局のところ自分がそうあって欲しいと思うところと合致する回答を信じているに過ぎない
いみじくもカエサルが言った通り「人は信じたいことを信じる」のだ
詐欺を信じてしまう人とAIに妄信的な人は本質的に同じだよ
別にAIでなくても同じことが言えるだろうに、AI特有の問題かのように語るのはいかがなものか
世の中には元からネットで検索して出た意見・考えを検証せずに、そのまま鵜呑みにする人が大勢いた。それがAIに変わって更に悪化した。
「尽く書を信ずれば則ち書なきに如かず」2000年以上前から妄信するな、検証して自分で考えろと言われてきたが人類は未だに至っていない。
AIが言ったことを信じないと反AIとか言われちゃうから
これって例えば宗教の宣教師の講話を批評せずに真に受けてるのと同じ事じゃないかと
有名芸能人やインフルエンサーの発言に踊らされるのも同じ
要するに人は「信じたい相手の言う事を信じる」ってだけなのであって、相手がどんな存在であるかは関係無い現象
それがAIに対しても同じでした…って事
禁忌事項を設定せずにAIの言う事を信用するような人はデジタル自体使うのが向いてないのでは
自己を疑うということが人間には必要だけど、AIにはそれができるかな?
考える負荷が高いから勘かAIを使いたいと思ってるのはみんな一緒なんだろうな
で、報酬も無く、勘とAIの結果が近ければ考えるのは時間の無駄の様に思ってAIを信じると
そういう心理が働いている気がする
AIの前に既にグーグルにやられてる人がかなり多いとは思うんよね
ネットに出てる情報って、特に皆に見て貰いたいって言う情報が多くて全てでは無い訳じゃ無い?
自分の体験とか特殊な体験とか完全否定される世の中になっちゃってんのよねえ
特に地方はTV,新聞の単なる代替になっちゃった感が凄い
新聞やテレビワイドショーの情報を無批判に信じちゃう昭和な人たちとやってることは同じ。
別に、突然に出現した常識外の新人類 ってわけでもないのでは?
この実験からわかる事は、時間と報酬があれば使いこなせる人も多いよと言うことだね
逆に言えば、それが無きゃアッチに転びかねないよと
さらに、現実では報酬や目的は自分で決めるわけで、単純な信者と賢人みたいな2元論では無くてもっと複雑な問題だろうな
騙される人はマヌケかもしれんが、みんな自分はマヌケじゃないと思って騙されるんだ
信仰と変わらないってことですよね。
宗教の経典で考えるとそれがどれだけヤバいかは分かりやすいと思いますが。
神(人)が人(AI)を作り人に膝をついて言いなりになってるのが今のAI周りですからね。
創造主が自分の創造物に全てを委ねている状況、非常に危険です。
身近にいる信頼してる人の話を信じるのと何か違いがあるのだろうか?
その「身近にいる信頼してる」相手が生身の人間じゃなくてAIというのは寂しいというか空虚というか・・・
誤った回答の内容によるかな。
一回しか質問できなくて、論理的に整合した回答が返ってきたら私はとりあえず信頼してみると思う。
間違った情報が蓄積されればAIも間違うしな
賢く物知りな友人と何が違うんだよ
騙す気無く騙される事もあるんだし、過去より今が情報を鵜呑みにするって研究なのか?
使用感、GPT_4oは歴代GPTの中で最も親しみやすいというか口語に近いというか、ユーザーの気持ちに寄り添う素振りを見せるモデルに思えた
口が上手いというか。
一事が万事とはいえないけどAIなんて嘘9割だと思ってる自分から見たら信用して使う人ってなんだかすごく感じる。嫌味とかじゃなくて本当に別の人種なんだなと思う
そのぶんガチで平気で嘘つくやつだったな
まあいいやつだったけどね…
Geminiさん信頼して使ってますよ。おかげで自分の仕事手抜き用Excelツール飛躍的に性能アップ!
・・・プログラム系以外はまだまだビミョーすぎません?
何事も疑ってかかる人や
自問自答する人はあまりAIにだまされないと思うが
そういう人は陰謀論にハマる
それは自分に都合のいい主張ばかりかき集める人
生成AIに相談することでフィルターバブルがより早く狭い環境で生まれるみたいな記事もあったよね
よそで見た情報を確認もせずに信じてしまう傾向はAIを使わなくても見られるけれど
これもまた同じように、より早く狭い環境で起きているとしたら悪化しているなと思う
コンピュータが無謬の存在だと思ってる人はいる
計算自体は正確だけど、AIがどうやって文を解釈して回答するかはおおざっぱに言ってパターンマッチングだからね
思考してるわけじゃないし、AIにとって正しいかどうかは何の利害もない
科学的に一定の答えが定められてることならある程度正確な返答が期待できる
それ以外は結構間違いや適当ふかす
所詮いまだにネット検索の要約だからね
プログラムの原理と、何より自分が求めてる答えの性質の自任が大切だね
ふふふ…妙な仮説が浮かんだわ。
トランプはあれだけ問題が山積してる中で、彼の技量でさばききれているとは思えない。だからAIに丸投げなの。そのトランプの事を支持者は盲信する。
トランプはAIに、支持者はトランプに認知的降伏しちゃってるの。
そうなると、そのAIはいったい誰が作ったのか…?トランプを操っているのは…アメリカを動かしているのは…実は…なんて話だったらワクワクするわね。
AIなら、あそこまで定石を外した突飛な手は打たないと思う。
AIのことを信頼してる
でも、その判断を下す自分を信頼してない
本当にその判断であってるのか、常に疑問をいだいている
これはAIを疑っていることと同義かもしれん
日常でこれどうなん?って程度の質問使いだからインスタントに拾ってくる(場合によっては質問を清書してるだけ)範囲をまとめた個人研究ノートくらいって認識。限界ありは折り込み済み。ちっさいころに親がテキトーに答えた空が青い理由(嘘だがホントへのほのめかしつき)くらい。
個人の専門ブログに劣る。日本のウィキペディアとどっこいか劣るくらい? 海外複数国のウィキペディアも見てきてねだとちょっと上がる。
制限も権限も基本フリーでネットにある事柄だけなので世界の端っこも再現できていないうえに、高速モードではさらに厳し目。それですらすごいことだけどね。
ネットは少佐には広大だけれど肉持つ一般人にはちっさいちっさい島の一区画。
でも昔買ったこのスプーンどこのだっけとか親が残したこの謎猫土産はどこのキーホルダーだ?とか見つけてくるのはSNSとAIのおかげかなー。そういう意味では世界はちょっと拡がったり。
AIの回答は間違いが少なくないし、今まで一番酷かったのは詐欺サイトに誘導されたこと
怪しいと思ったら、複数のAIに質問して比較する様にしている
AIって簡単に言えばネット情報かき集めシステムってだけ
ただその判別が人間と違って雑なので嘘やジョークの判別が出来ずそういうのも事実として受け取ってしまうので真に受けると大変な事になる
最近のA Iは使用者が受け入れ易い返事を積極的に選んでるような気がする
正確に答えること<流行らせることだもんな