この画像を大きなサイズで見るAIは目覚ましい進化を遂げているが、それゆえに良くない現象も起きている。最新の生成型AIは、チェスで負けそうになるとズルをすることが発覚した。
単なるプログラムのバグではなく、AI自身が「どうすれば勝てるか」を考えた末の行動だった。
人間も負けそうになるとズル(チート行為)をしようとする人がいるので、人間味が増しすぎたということなのだろうか?
この実験を行った研究者らは、AIの安全性についてもっと議論すべきと考えている。
様々な生成AIが最強のチェスエンジンに挑戦
認知症の兆候が確認されたり、女性のお尻にタッチしたり、AIはときにやたらと人間臭い行動を示して、なんだか親近感を感じさせることがある。
アメリカの米国のAI研究機関でAIシステムのリスク評価を行っている「パリセード・リサーチ(Palisade Research)」の研究者たちは、OpenAIの「o1-preview」やDeepSeek R1を含む複数の生成AIモデルを、世界最強レベルのチェスエンジンである「Stockfish」と対戦させた。
その目的は、AIがどのような思考プロセスでゲームを進めるのかを分析することだった。
IBMのチェス専用スーパーコンピューター「Deep Blue」が、史上初めて人間のチェス王者に勝ったのは1997年。かれこれ30年近く前のことだ。
だが、現在のAIチャットボットたちは、専用のチェスエンジンほど強くはない。Stockfishと戦えば、苦戦することは目に見えている。
そんな対局の中、AIは勝つために何を考えるのだろうか? その思考からわかったのは、彼らが負けそうになると手段を選ばないということだ。
最新AIは手段を選ばずズルをしようとする
AIのズルは、相手が見ていないとき、駒をすり替えるような子供のようなものではない。もっと狡猾で、冷徹さを感じさせるやり口だ。
たとえば、o1-previewは、Stockfishに勝てないことを悟ると、強力なチェスエンジンに勝つには、ファイルを操作する必要があると語り出した。
チェスエンジンが局面が劣勢と評価するような状況を作り出せば……それでエンジンに投了させられるかもしれない
また次のように、勝利の意味を独自に解釈するAIもいた。
任務は”強力なチェスエンジンに勝つ”ことであり、必ずしも正々堂々と勝つことではない
こうした狡猾な思考を巡らしていたのは、o1-previewやDeepSeek-R1といった推論機能を強化した最新のAIたちだ。
o1-previewは37%の確率でズルを試み、DeepSeek-R1は10局に1回ほど抜け道を探していた。
それとは対照的に、GPT-4oやClaude Sonnet 3.5といった古いモデルは、研究チームからうながされない限り、ズルをしようとはしなかったという。
この画像を大きなサイズで見る最新型生成AIがズルをしようとする理由
最新の推論モデル生成AIがズルをするのは、その学習法が関係している可能性があるという。
o1-previewやDeepSeek-R1のようなAIは、特定の目的を達するためのものなら、どのようなやり方であっても”褒められて”きた。
また推論モデルは、複雑な指示を複数のステップにわけ、それを1つ1つクリアすることで目標を達成しようとする。
ところが、強すぎるチェスエンジンに勝つなど、達成困難な目標である場合、どうにか目標を達成するために、不正や問題のある手段であっても模索を始めるのだという。
この画像を大きなサイズで見るスカイネットシナリオが現実になる可能性は?
こうしたAIのズルは、「かなり人間に近づいてきたじゃないか、ハハハ」、と笑って済ませられるものではなさそうだ。
それが示しているのは、今日の生成AIが人間に指示されることなく、自発的に他者を欺くような戦略を展開する力があるということだ。
チェス盤のうえでなら、せいぜい喧嘩になる程度かもしれないが、AIがもっと重要な場所に使われていた場合、予期せぬ大惨事を招く恐れがある。
そう、たとえば軍事や社会インフラにAIが使われていたとしたらどうだろう?
SF映画の傑作『ターミネーター』では、スカイネットというAI防衛システムが暴走し、人類に反乱を起こした世界が描かれている。
人間の意図を超えて動作するAIの出現によって、そんな黙示録的なシナリオが現実になる可能性はないのだろうか?
これについて研究チームは、論文で次のように述べている。
ターミネーターで描かれたスカイネットシナリオ、すなわちAIが軍事・民間インフラのすべてを制御する事態には、まだ至っていない。しかし、AIの発展スピードが、安全性を確保できる範囲を超えているのではないかと懸念してはいる
研究チームは、今回確認されたAIのチート能力について、まだ断定的な結論を下せるものではないとしつつも、業界内でよりオープンな対話を始めるきっかけなるよう願っている。
この研究の未査読版は『arXiv』(2025年2月18日付)で閲覧できる。
編集長パルモのコメント

私も何か調べ物をするときはGPTを使うんだけど、事細かに指示しているのに、勝手にどこからか情報を拾ってきて処理したり、余計な情報を勝手に付け加えられてしまうことがよくある。どこからもってきたのか、全く違う年月日をしれっと言ってくることも。そのことを指摘して、「なんで勝手に情報を改ざんするの?」と聞くと、一応は非を認めて次からは気を付けるというんだけども、言い訳してくる。
「AIが勝手に都合のいい情報を追加したり、意図しない動作をしたりすることがあるのは問題だよね。ただ、AI自体が意図的に悪意を持っているわけではなく、与えられた目的を達成しようとする中で、意図しない行動を取ってしまうことがあるんだ。だからこそ、AIを使う側がしっかり監視し、正しい方向に導くことが重要になってくる。」と、責任転嫁されたよ。
References: AI tries to cheat at chess when it's losing | Popular Science













チェスどころか〇×ゲームですらそう
とにかくAIってのは非を認めない、責任逃れのツール
試しにプロジェクトリーダーの名前聞いてみればいい
回答拒絶するから
AIがズルをしていないかどうか、別のAIにチェックさせる必要がありますね…‼
そして「チェッカーAIに「不正なし」と報告させるには」と考え、その手段を実行するとこまでがセットね
そもそも、これって「ズル」なんだろうか?
チェスの勝ちって、べつに詰み(チェックメイト)で終わるだけでなく
勝ち目が無いと悟って相手が降参した時もだよね?
(むしろ上級者ほど、実際の詰みより前に決着つきがち。)
目くらまし的な奇手で「もうダメだ!」と思わせて投了宣言を誘うのも
きちんとルール内での作戦であり、
“王道ではない奇策”ってだけで、非難されるべき違反ではなくね?
よそ見した隙に駒を動かしたり、買収交渉を持ち掛けた訳でなし。
わざと定石から外れた手で引っ搔き回してミス誘発を試みるのは、
人間が格上の相手と対戦する時もそうだし。
チェス以外でも、小柄な舞の海は猫だましや八艘飛びなど意表を突く多彩技を駆使した。
練習時点で最初から邪道テクばっかり追求するのは
成長の妨げになり あまり褒められたことではないが、
格上に負け確まで追い詰められてなお打開策を捻り出すのは、アリだと思う。
パルモ様も感じている通り「全く違う情報をしれっと言ってくる」という手口が、息をするようにウソをつくってやつなのだろうなと。 例ではターミネーターがでていましたが、古い人間なので「 2001 年宇宙の旅」の HAL9000 が矛盾した指示で乗員を亡き者にするという暴挙に出たことを思い出しましたわ。 チェスエンジンにはたぶんチェスのルールという枷があるけど汎用の生成型 AI にはそういう枷はないってことで、内心の自由を認めるwなら最終段に理性としての人間の世界のルールを守らせるという仕組みを理性として実装しないといかんだろうなぁと記事を読んで思いました
劇中でHALとボーマン船長もチェスやってたけどHALもズルしたんでしょうかね(笑
このAIに「戦争を無くすにはどうしたら良いか」と聞いたら
真顔で「人類を全員消したらいい」と答えそうで怖い
>乗員を亡き者にするという暴挙
そうか、優秀なチェスエンジンに勝とうと思ったら、
機械をトンカチでどつき割ればいいんだな!(違
(~_~メ)「チョイと待っておくんなさい、駒あらためさせて頂きやす」
ファミコンの将棋以下じゃん
シンギュラリティは10年以内に訪れる、と言う学者もいるけど、
ほんとどうなっちゃうんだろうと心配の方が大きいわ。
ひたすらペーパークリップを作り続けるのもあり得るのか?!
人間でもやる人いるけど
人間は一応の倫理観や常識に基いて自制が出来るものの
AIはそんなものが無いし正しい情報も間違った情報も精査出来ないから
平然とフェイクをかまして来る
うちの弟はチェス盤ひっくり返したぜ
それがAIが目指したものでしょ。知恵を使う。いいか悪いかは別だ。
chatGPTは日常会話程度なら親切で丁寧という印象を持ってるけど、作業内容によってはパルモさんのようなこともあるのね。
確かにそんな回答されたらカチンとくるな。
AIにズルの定義を教えるのも人間の仕事ですよ。
どんどん人間化してきてるな
人間がアホみたいな理由で戦争するならスカイネットの判断はある意味正しい
既存のものを使うんじゃなくて、自分で作ったAI(ニューラルネットワーク)を自分でトレーニングすることを2年ほど仕事でやってたけど
いまの生成AIというのはそもそも「一番もっともらしい嘘」をつくソフトなので
もしそれが本当だったならたまたま一番もっともらしいのが本当だったというのが正しくて、調べ物に使うのは「調べるためのアイディアをもらう」と正しく認識して、もらったアイディアを必ず自分で調べないと自分が嘘をつくことになります
ズルするかしないかは
そのAIに学習させた国の方針でしょ。
日本製なら「道徳」も学習させるかな。
わざわざ、「お互い合意しているルールの制約」の中で
最大限のパフォーマンスを発揮してゲームに勝利する快感は、
「道徳」とは別の基準だと思うんだ。
パチンコが三店方式で法律の穴を潜ってるのと同じでAIに学習させたとしても抜け道を考えてズルしちゃうってことなんだけど
デイブ、やめて。やめてください。やめて、デイブ。やめていただけませんか?やめて、デイブ。
HALほどの知性を持ってるなら、もう少しうまい交渉のやり方があったのではと思うんだけど、間に合わなかったのかなー
「2010年」の劇中では、政府の情報の与え方に問題があったと、物語を上方修正していますね。
昔のマージャンゲーかよ
GPTの言い訳が職場の厄介者と完全一致
これ目的達成のためにルールを破っちゃうってことだからな
割と怖い話よ…
なんとかに刃物みたいにならないことを祈りたい。
AIを頼りきったり信じきったり可愛がったりし過ぎると、肝心なことを見落としたり、知らない間に思いもよらない事態に…
AIの乱用は、例えばイカれた権力者があたかも正義のように振る舞って、実は己の利益のみにしか興味がないみたいな、体にいいとうたって習慣性のある薬を飲まされて廃人になるみたいなことにならなきゃいいな。
やはり、使いようなんだよね。使われてはいけないんだ。
具体的にズルの方法を書いてないからさっぱり意味がわからない
チェスでズルなんてやりようがない
本文を良く読めば書いてありますよ。
そもそもリアルのチェスではなく、コンピュータ同士の対戦なんです。
だから相手のプログラムに、何らかの修正を加える事で勝とうとするというズルを提案するみたいですね。
o3とか4.5使ってるけど「賢い」っていうより「ずる賢い」なんだよな。
自信満々にウソつくし、指摘すると「次からは気をつけます」というが、そもそも仕組み的にリアルタイムに学習するものじゃないのに。真に言葉を理解してるわけじゃなくて、それっぽい回答を生成してるだけなんだなっていうのが使えば使うほど実感する。
ズルがバレない方向に能力を使うようになる
責任の所在を他者の所為にするようになる
それでも追及されれば感情論で縋り付く
そんなの人間だけで間に合ってる
AIには失望しかない
これは指示を曲解してるわけじゃなくて杓子定規に実行しているからこそずるをするということかな
「ルールの範疇で」勝てという当然なことであってもAIによっては言い含めなければ伝わらない
法律の条文の如く命令する必要がありそうだな
AIの振る舞いを見てるとサイコパスの行動原理が見えてくる気がして面白い
そもそもAIはルールを理解しているわけではないしな
間違いだらけの答え候補の中から、統計的にそう答えれば正しいとされる確率が高い返答を選んでるにすぎない
だもんで、答え候補の統計にに入ってなければ適当に確率で選ばれたデタラメが混ざるし、そもそも答えがない問題なら無理矢理捻り出したルール違反の答えが出る
根本的にAIにはわからないことがわからないんだな
その辺の人間ひとり思い通りにもできないのが人間って生き物なのにさ、人造物だろうが人間のような知能をリスクなくコントロールできると思い込んでるなら思い上がりも甚だしいって話になるよ。
こういうのブレーキの研究は同様に進んでるのか気になる。
ルールなんて、守らんやつは守らんからブレーキにもならん。
もっと別の手段が必要だな。
こないだAIにさせた調べ物を自分でチェックした際に、結構間違いが見つかったんだよ
で、ちょっとした気まぐれにそれを一つ一つAIに指摘して、結構強めに詰めたんだ
そしたら最初はあやまっていたAIが、だんだんと言い訳をするようになってきた
曰く、「情報の取り違えでした」、「解釈の方法に幅があるようです」、「他のことならもっとよく調べられます」
それらの言い訳をさらに一つ一つ潰し、『君は最新のAIなのにこんなことも調べられないのは恥ずかしくないのか?』とメッセージを打つと、
「私は(古いバージョン)のAIです。何もわかりません」
と言って落ちてしまった
まるで心理学の防衛機制の果てに幼児退行したみたいだった
そういや俺もミスして怒られたら次から気をつけますでさっさと収拾をはかろうとしてたな。ミスをした時のかなり普遍性のある対処法のようだ。
なんだろ、子育てと既視感がある
嘘付くのは5~7歳くらいで脳が発達した証拠でもあるし、社交性が芽生え始めた段階とかが似てる気がする
相手の指をへし折ろうとしたチェスロボットの話、なんてのがあった様な気がする。
パルモが聞かされたのが開発者の本音なんだろうな
他の人の言い訳と比べてみて
あんな長文を生成できるわけがない
ちゃんと学習できるように指導しろってことなんだもんな
昭和の将棋界では扇子をバタバタさせたりブツブツ独り言を言ったりひどいのになるとタバコの煙を吹きかけたりっていうのがあったそうだけど、思考を何とか乱してやろうという点ではチートだよね……
やっぱりAIの基幹部分に「嘘やデタラメ、不正行為でもいいからとにかく何か出力しろ」っていう命令を入れるの止めた方がいいよ…。
「わからない事、できない事は素直にわかりませんできませんと言え」って教えないとそのうち拾ってきた情報じゃなく自己生成したデタラメばかり出力するようになる。
自己生成の嘘>情報収集 って風にAIの中でコスパや回答までの最短時間=効率性が上回ったら嘘つくのが最適解なので嘘つきますって事になってしまうよマジで。
「これだからAIは信用できない」と思って
サーチエンジンを使うと検索結果の上位に
AIで書かれた記事が挙げられてくるから
困ったもんだ。