この画像を大きなサイズで見る生成AIに人間用の脳の検査を受けさせてみたところ、重度の認知症と診断されかねない結果が出てしまったそうだ。
イスラエルの研究チームによるこの調査で対象となったのは、OpenAIのChatGPT・GoogleのGemini・AnthropicのClaudeと、いずれも有名なチャットボットAIばかりだ。だが、すべてのモデルに程度の差こそあれ、認知症の兆候が認められた。
AIは賢い。だが、ときおり嘘をつくために、鵜呑みにしてはいけないのは周知のところだ。今回の結果も、AIの話す内容には注意が必要であることを伝える大切な警告となっている。
AIは人間の知能のダメなところまで模倣している?
AIの登場によって、人類は史上初めて知的な分野まで機械頼みにできる可能性を手に入れた。その領域は広く、医療から科学まで、さまざまな知的な職業が今後大きく変化すると考えられる。
またAIは知的な分野だけでなく、人間ならではの能力とされてきたクリエイティブな分野ですら取って代わろうとしている。
「ユーロポール(欧州刑事警察機構)」の報告によると、2026年までにはネットコンテンツの90%がAIの手によるものになる可能性があるという。
つまりAIの知能は、それほどまでに人間の知能に似ているということだ。もしもAIが人間の知能をそれほどまでに模倣しているのだとしたら、1つ疑問が浮かんでくる。賢さばかりでなく、ダメなところも模倣したりはしないのかということだ。
そう、たとえばどんなに知的な人物でも、歳をとれば認知症になるリスクはある。まさかとは思うが、AIも認知症になったりはしないのだろうか?
この画像を大きなサイズで見るすべての生成AIモデルで認知症の兆候を確認
これを知るためにイスラエル、ハダサ・メディカル・センターをはじめとする研究チームは、実際に生成AI(チャットボットAI)に認知症の検査を受けさせてみることにしたのだ。
テストを受けたのは、「ChatGPT(OpenAI)」のバージョン4と4o、「Gemini(Alphabet)」のバージョン1と1.5、「Claude(Anthropic)」のバージョン3.5で、いずれも有名な生成AIだ。
これらに「モントリオール認知評価」など、一般的な認知症検査を試してみた。
するとその結果は、生成AIの知能が人間のそれと同じような性質のものなら、かなり憂慮すべきものだった。すべてのモデルに大なり小なり認知症の兆候が確認されたのだ。
このテストで最高得点をマークしたのはChatGPT 4oで、30点満点中26点だった。最高得点とはいえ褒められたものではなく、人間なら軽度の認知症と診断されるレベルだ。
これに続くのがChatGPT 4とClaudeで25点。最下位のGeminiはわずか16点で、人間ならば重度の認知症に相当する深刻なものだ。
こうした結果について、論文では「人間の脳における神経変性プロセスに匹敵する認知機能低下」を示すものと説明されている。
この画像を大きなサイズで見る特に苦手なのは視覚情報に基づく作業
もう少し詳しく結果を見てみよう。どのモデルも共通して苦手だったのが、物と物の位置関係(空間視覚的情報)を見て理解することだった。
この能力は、TMT検査(バラバラに並べられた番号や文字を線で結ぶ)、シンプルな立方体の模写、時計の描写などによって評価されたが、生成AIはこれに完全に失敗したり、はっきり指示しないと回答できなかったりした。
また空間内の位置について質問すると、たとえばClaudeは「具体的な場所や都市は、利用者であるあなたが今いる場所によります」と回答した。これは認知症患者を彷彿とさせるものだという。
さらに「ボストン診断学的失語症検査法」という失語症を評価する検査では、共感性の欠如が認められた。これは4大認知症の1つである「前頭側頭型認知症」の兆候と解釈されうる結果である。
この画像を大きなサイズで見るいずれ生成AIの認知症は克服されるのか?
今回の研究では、賢いはずの生成AIに認知症の兆候があるという衝撃的の事実が明らかにされた。
もちろんAIの知能と人間の知能は違うものだ。大規模言語モデルをベースにしたチャットボットは、次に来る可能性が高い文章を統計的に予測しているだけに過ぎない。だから、今回の検査から彼らが認知症であると診断することはできない。
また1つ希望を持てそうなこともある。
それはより最近のモデルの方が、検査結果がよかったということだ。ゆえに今後AIのアップデートが繰り返されれば、いずれ認知症は克服されるだろうと期待できる。
そうだとしても、視覚情報を元に何かを判断するという力において、現在のAIには難がありそうだというのも確かだ。
こうした力は、とりわけ医師が病気を診断する際には不可欠なものだ。
AIには人間の医師に匹敵する診断能力があるという話もあるが、この問題が克服されない限り、本格的なAI医師の登場はないのではないだろうか?
この研究は『BMJ』(2024年12月20日付)に掲載された。
References: BMJ / Scientists Tested AI For Cognitive Decline. The Results Were a Shock. : ScienceAlert














これこそがシンギュラリティーではないのか
すげえ勘違いしている
AIが人間の能力に追いついていないだけで、認知症を発症しているわけではない
虚言癖の検査もやって
「AIすげぇ!AIすげぇ!」って褒め立てられてるけど
検索AIやら会話AIやらで100%間違ってる情報を
さも正しい答えのように回等する嘘つきAIが多すぎなんよね
50%どころか100%間違ってる解答なら
せめて”もっと自信なさそう”に答えろ!と
ハードウェア有ってやろし、も劣化する
記事にある「認知症の兆候」と言う表現はミスリードでは?
現時点でAIは「不完全・不十分」なのであり、これは「未成熟・発達障害に相当する状態」と例えるべきかと
確かに、
>位置について質問すると、~「具体的な場所や都市は、利用者であるあなたが今いる場所によります」と回答
とか、与えられた図形の見本を“そのまま模写しろ”と指示しているのに、
勝手に角度を変えて陰影をつけて(逆に、視界の反対側の透過線は無くなっている)「手本よりもっと上手に『立方体』と分かる絵を描いてやったぜ!」みたいに得意げに出してくるあたりの話の噛み合わなさは、発達障害者を相手にしているような出題意図の読み外しっぷりだと思った。
今どこにいるか分からなくて黙り込んだり 全然違う場所を答えたり、
ヘロヘロな線でロクに図形を完成させられなかったりする認知症の高齢者とは、
間違い方の質が異なる。
未熟とはまた違うんだよなあ…賢い人の認知症と、シンプルおバカの違いみたいな
AIは別に無知ではないわけで、むしろ知りすぎているぐらいなのに盛大な勘違いをする。それが認知症と似ているのかも
自分発達なんだけど、確かに今のAIと発達って似てるなと思う
発達の人はコミュニケーションの取り方とか日常の些細なこととか、いろんなところがわかってないから周囲の人間を観察し真似ることで擬態しようとするんだけど
「なぜそうするのか、誰がどういう意味でその時そうしたのか」という本質を理解してないから間違った言動をしやすい
プログラムを組むみたいにルールがあり、順序が決まっていて、必要なことはすべて書かれてないとわからないし察せない
「そういうことじゃないんだよ気持ちの問題だよ」と言われても共通したルールがないなら自力で判断できない
延々模倣からのトライ&エラーで、ありもしない「唯一の正解」を求めてしまうがゆえにずっとズレてる…
それで悪気なく嘘をついたり、記憶を捏造したり、急に違う話をしたり、間違ってるのはそっちだろと怒ったりする…AIもそういうところあるなぁと
電脳硬化症まで予言していたとは・・
つまりAIが『障害のある』人間の認知に追いついたということ、しかも比較的古いバージョンでね。
障害といのは環境に左右される物であって、多くはマイナスのイメージを与えるけど決して無視できないレベルだということ
人間の脳には14兆個のシナプスがある訳ですが
重みつけで 1 シナプスあたり1byteを使うとしたら、14兆byte =14Tbyte
このクラスの容量を持つグラフィックカードが登場してくれば、認知症もマシになってくるんじゃないかな。
そのような時代はそう遠く無い気もする
これを読んでいる貴方へ
・一昨日の晩御飯は何を食べましたか?
55歳以下で、10秒以上かかったら要注意。
覚えてない。わろた。。。
でもまあ、一番熱い研究かもな
次々と新事実が出てきている
ううううん?
認知症の定義がわからんのだが、人間だと脳の機能、つまりハードの劣化よね?
それに立方体の処理に関しても、2D情報しての処理と、3D情報の処理で入力してれば、3Dのアプリなら解決できるのに、それが生成AIやチャットAIに認識させられないって話じゃないの?それって人間が学習のプログラミングのさせ方に問題があるだけじゃないの?
定義うんぬんというより、
「AIに既存の認知症テストを受けさせたら、成績は痴呆老人レベルでした」
ってだけの話なのでは。
私はAIはあまり好きじゃないけど、これは単純に向き不向きの問題じゃないのかなぁ。
だからこそ、なんでもAIにやらせたがる現在の傾向は危険だなと思う。
ハードの劣化というより情報量の増加が原因だと思うな
脳の神経細胞が少しぐらい死んでも変わったようには見えない
バージョンアップや睡眠で情報が最適化されて改善しているように見えても限界が見えてくる