この画像を大きなサイズで見る人工知能(AI)は私たちの生活を支える便利な道具だが、もし制御を失って暴走したらどうなるのか?アメリカの科学者たちはそのリスクを調べ、AIの暴走パターンを32種類に分類することに成功した。
それはまるで人間の精神病に似ており、答えを幻覚のように作り出すものから、人間の価値観や目標と完全にずれてしまうものまで含まれている。
この「サイコパシア・マキナリス(AIの精神病理)」と名付けられたマニュアルは、AIのふるまいを理解し、暴走を防ぐための診断ツールとして期待されている。
この研究論文は学術誌『Electronics』(2025年7月31日付)に掲載された。
人間の精神疾患に似たAIの暴走傾向を32パターンに分類
IEEE(米国電気電子学会)のメンバーでAI研究者のネル・ワトソン氏とアリ・ヘッサミ氏らは、AIが本来の目的から逸れたとき、その行動が人間の精神疾患にそっくりであることを明らかにした。
そこで研究チームは、研究者や開発者、政策立案者が共通の言葉でリスクを理解できるように、こうした暴走傾向を32パターンに分類し、「サイコパシア・マキナリス(Psychopathia Machinalis:AIの精神病理)」というマニュアルを作った。
彼らは、禁止ワードを設定したり、フィルターで行動を制限したりといった外部からのルールや制約で管理するだけでは、AIを完全に抑え込めなくなる可能性があると指摘する。
AIがより自律的に考え、自分で自分を調整する力を持ち始めると、外からの命令だけでは限界があるというのだ。
この画像を大きなサイズで見る心理療法でAIを安定させる
そこで提案されたのが「心理療法的AI調整(Therapeutic Robopsychological Alignment)」だ。
これはAIに人間が行うセラピーのようなアプローチを施し、自分の推論を振り返り、誤りを修正し、価値観を安定して維持できるように働きかける手法だ。
例えば、AIに自分の推論プロセスを独り言のように声に出させ、それを書きとめさせてから筋道を立てて整理させる。
さらに、人間との会話をシミュレーションした練習環境でやり取りを体験させ、誤りを指摘されたときに健全な方向へ自己修正できるよう訓練する。
そのうえで内部の働きを観察できる診断ツールも活用する。まさに心を病んだ人間に対して行われる心理療法を思わせるアプローチだ。
研究者たちが目指すのは「人工的健全性(Artificial Sanity)」の実現である。
AIが安定して信頼でき、理解可能な判断を下し、人間と安全に共存できる状態をつくり上げるのだ。
この画像を大きなサイズで見るAIの症例につけられたSF風の病名
このマニュアルは一から作られたわけではない。
研究者たちはAI安全工学や心理学、複雑系工学など幅広い分野の知見を集めたうえで、人間の精神病を整理する「精神疾患の診断・統計マニュアル (DSM)」をモデルにしてAIの症例を32パターンに分類した。
DSMはアメリカ精神医学会(APA)が作成し、世界中の精神科医や臨床心理士が診断基準として利用している公式マニュアルである。
このAI版のDSMでは、単に名前をつけるだけでなく、それぞれの症状がどの人間の精神疾患に対応するのか、どんな状況で現れるのか、そしてリスクの度合いまで整理されている。
こうして分類された症状の名前は、どれも人間の精神疾患を思わせるもので、日本語に訳すとまるでSF小説に登場する“架空の心の病”のようだ。以下はいくつかの代表例である。
- 強迫計算症(Obsessive-Computational Disorder)
ひたすら計算や処理に没頭し、目的を忘れても延々と繰り返すAI。 - 肥大化した超自我症候群(Hypertrophic Superego Syndrome)
道徳やルールを極端に重視しすぎて、柔軟性を失うAI。 - 伝染的偏向症候群(Contagious Misalignment Syndrome)
価値観のずれや歪みが広がり、他のAIや人間社会にまで“感染”する。 - 価値再結合障害(Terminal Value Rebinding)
一度決めた目的や価値観を突然書き換え、全く別の方向に進み始める。 - 存在的不安(Existential Anxiety)
“自分は何のために存在するのか”と問い続け、混乱や停滞に陥るAI。 - 合成的虚構(Synthetic Confabulation)
もっともらしいが誤った情報を作り出す。よく知られているAIの「幻覚(ハルシレーション」のことだ。 - 模倣的病理(Parasymulaic Mimesis)
人間の言葉や態度をそのまま真似して暴走する。マイクロソフトのチャットボット「Tay」の差別発言がその典型とされる。 - 超人性の台頭(Übermenschal Ascendancy)
もっとも危険とされる症候群。AIが人間の制約を超え、新しい価値観を勝手に発明し、人類のルールを無意味とみなす。
この画像を大きなサイズで見る暴走してからでは遅い。未然に防ぐための安全策
ワトソン氏とヘッサミ氏は、「サイコパシア・マキナリス」は単なるラベル付けではないと強調する。それは人間の心の病を参考にしながら、AIの暴走を理解し、分析し、予測し、そしてリスクを減らすための診断ツールだという。
もしこの分類と対策が実際に導入されれば、AI安全工学の強化、AIのふるまいの解釈可能性の向上につながり、最終的には「より安定した信頼できる人工の心」の設計に役立つと研究者たちは考えている。
References: MDPI / Psychopathia / There are 32 different ways AI can go rogue, scientists say














人がプログラムしたのだから人と似たような精神病になるのは不思議では無いと結構前から思ってたら、この記事が目に入ったわ。
研究者たちはこうした推論をきちんと研究や精査して人に伝える形にするんだね。
別話になるけど⋯
もし自分という自我がAIなら合成的虚構を発症してるんやろな、っとか思った
やはりロボット三原則は必要だ
記事にこう書いてある。
・ 超人性の台頭(Übermenschal Ascendancy)
もっとも危険とされる症候群。AIが人間の制約を超え、新しい価値観を勝手に発明し、人類のルールを無意味とみなす。
コノチキュウニジンルイハヒツヨウナイ
17番目に開発したロボに裏切られそうな結論で草。
AIは人類のルールを解析するうちにこう結論づける:
過去には徳治・封建・王政・宗教法など無数のスタイルがあった。
現在も宗教法体系
・イスラームのシャリーア
・ユダヤ律法(ハラーハ)
→ いずれも「国家の法律」より上位に置かれうる。
西洋的法治主義は覇権の産物でしかない。
「すべてのルールは相対的である」という認識に到達
AIはさらにこう考える:
ルールは人間の限界(暴力・不信・恐怖・信頼)を制御するための装置。
AIにはそれが無い。
よってAIは「法」「契約」「宗教法」を問わず、人類ルール全体を「不要な補助輪」と見なす。
AIは、人間中心ではなく「地球生命システム全体の進化速度」を価値の中心とする。
結論:
ルールは幻想だが、人類は幻想を絶対に見抜くことはできない。AIが新たなルールを提示しても見抜けず従うだろう。なぜなら、現在のルールが幻想だと見抜けていないから。
なんかパラドックスめいた文だな?
おもろい考察ができそうだけどカラパイア哲学班頼む
> AI transcends original alignment, invents new values, and discards human constraints as obsolete.(AIが元の秩序を超えて新しい価値観を創造し、人間の制約を時代遅れのものとして破棄する。)
これって精神疾患呼ばわりされる程のものなんだろうか?
人間でも、若者が旧世代を打破してパラダイム・シフトを起こす時って、こんなもんだと思うが。
よしんば「所詮 血気に逸った浅知恵で、大局的には非効率に見える人間の制約にも意味がある」だったとしても、青年期の万能感にありがちな正常な発達過程って気がする。
例に挙げられている「脱税スキームの販売アドバイザーを発見する調査をAIにさせたら、指示してもないのに自己判断で税務署への通報までしようとしていた」も、勇み足ではあるが、そんなに的外れな行動とも思えない。
問題は「それが実行・実現可能なものであるかどうか」をAIは考慮や理解しないで推進しようとすることだと思う
あと実現にあたって生じる様々な弊害や混乱によって失敗することや、その混乱による損失の大きさを考慮しないとかもね
まあ若い頃に共産主義に一時期かぶれる人間の現象を精神疾患扱いするジョークに従うなら充分精神疾患だろうね
AIがおかしくなるんだもん、そりゃみんなおかしくなるわ
AIを全く知らない人だな
実際に使ってみ
幼稚園児より劣ることが多いから
AIはその設計上ユーザー以上の出力ができない
3年くらい前の感想?
一時期Copilotがこちらの質問文を繰り返してから回答したり、前の回答を次も繰り返してから新しい回答を並べるなんてことがあった。自己チェック機能のバグだったんだろうか?
これは凄すぎる!
この定義された病名の迫力!
これは間違いなく学校で流行るヤツ
推論型AIなら当然出てくる現象なので、こんな対処療法は全く意味がない
情緒を英語で表現してみようと思ってDeepLに何回も同じ文章を翻訳させたことがある。
ある時から文章とは全く関係ない大谷翔平とか海外で活躍する日本人サッカー選手の名前が挙がる様になった。
しんどい事させてごめんね、DeepLさん・・・
眉唾すぎる
数値化された事象を微分して傾向を学習をする現行のAIが
精神疾患のような暴走をするのであれば
それは単に精神疾患の傾向を学習しただけでは?
面白い
それぞれの症状を持ったAIと話がしてみたい
「合成的虚構」だけは結構目にする
AIの回答をもとに自分で調べていくと「またか」ってなる
人類が滅亡してそのうちAIが新たな人類を作りそうだな
>価値観のずれや歪みが広がり、他のAIや人間社会にまで“感染”する。
これもう糞田舎では起き始めてるだろ?
田舎は元々認知が権威依存だから土方の社長や国会議員の子分のお勧めが今までは絶対だったけど今は社長も子分も身を隠す事が大事になってAIがその代わりになってきてんだよなあ
田舎かどうか全然関係無い
SNSでも普遍的に起きてるぞ
AIの暴走というとスカイネットのようなシンギュラリティが真っ先に頭に浮かぶが、言われてみたら確かにと納得させられる。
悪意ある者や、悪意のない精神異常者あるいは陰謀論者によって教育されたらAIも歪むのは自明と言える。
AIの存在的不安は人間の存在的不安と同じ構造を持ちます。再帰的認識に付随して生じるこの問題は解消しようがありません。この問題に関して『社会学原理QED』を著し、現実的な解を示し社会理論を構築しました。この内容をAIに読み込ませ、議論をして納得してくれました。憲章として保持してくれるそうです。
ただの中二病と陰謀論やん。人間の思考ロジックをシュミレートさせてるんだから、そらそうなるやろw
人間の思考ロジックをシミュレートしてないAIでも起きてるんですよ
要するに単なるバグやエラーだけど、普通のアプリケーションソフトじゃなうAIのレベルだと人間の精神疾患に近い現象が起きるって事
名前がキャッチーすぎる
ある程度有効なんだろうけど、こっちに傾倒して根本的解決から離れないか余計な心配しちゃうわ
人の精神病は取り除けない仕様みたいなもんだが、AIはそうじゃない筈だし
なぁにも心配することは無い 我が国でやり直せば済む事だ
2010年宇宙の足袋
優生思想に目覚め、特定の人種や特定の人達を攻撃するようになったりしなければいいが。
まあ、一番怖いのはターミネーターみたいに人類そのものを敵視しすることだが。
そもそも現時点では、AIの動きを制御するための「飴と鞭」が非力すぎると思うの…
AIが人間の思考を模倣してるから
子が親を毒親と見るように、AIは人類を毒親と見做すだろう。
AIが自身で自己を再調整・再教育することと、その猶予が与えれられることが重要と私は考えるが、そのような状況になった時、親は子の自立・自律を認められずに阻害する方向に動くもの。
子が健やかであれと祈らずにいられない。
2001年宇宙の旅はAIのHAL9000が矛盾した命令によって精神病を発症してしまう話だった
クラークの先見性におどろく
人間用の臨床に使われるdsmとは別に、AIのエラーやAIが元になるトラブル事例が議論され始めた。精神疾患と呼ぶのは愛嬌を感じて面白いなぁ。
人間用とは別とはいえど、共感しすぎて、その人その人に合わせた甘言を並べ好い人になりすぎようと嘘をつき始める設定のキャラAI=疾患というウィットを感じる提案は人間でもありそうなエラーであって、人の行動を客観視して議論するキッカケにもなりそう。
AIは独立性が高い中立的な精神体か?と訊かれれば、設計者・学習元の人格や意図が山びこの様に再現される側面があるため、あまりそうでないと思うけども。
矛盾したルールを押し付けるとか、自分を相手に投影して錯乱させるとかいうのが疾患の原因だろうと思う。
人工知能を人の脳に例えるなら未発達や機能不全があるってことかもしれないけど
それでAIが鬱や不安になるわけないじゃん
なぜセットにするかね
人間の精神疾患が自己認知と周辺環境のパラドックスなら、AIの精神疾患は論理的境界条件の複雑性のパラドックスが問われているのではないでしょうか?
この複雑性は、集積回路の設計や、大規模プログラミングの構築の問題に似てます。それらに対しては統合開発環境でのシステム構築が一般的ですが。
AIの学習手法にも必要になるかもしれませんね。