この画像を大きなサイズで見るさて前回、チャットGPTに「タツノオトシゴの絵文字を見せて」と聞くと暴走するという話をお伝えしたが、さすがに世界中で広がったため、存在しない絵文字であることを認識するようになってきた。
だが新たに、「GPT-5」を困惑させる質問が見つかったようだ。
「名前の最後に“s”が付かないNFLチームはある?」と質問すると、GPTは答えにたどり着けないどころか、同じ誤りを延々と繰り返し始めるという。
2025年9月23日の時点で私が確認したところ、実際に困惑した解答が見られた。
「名前の最後に“s”が付かないNFLチームはあるか?
OpenAI社のチャットGPT-5がリリースされてからおよそ2か月が経過した。これは、「博士号レベルの知性」を与え、人工汎用知能(AGI)という業界の悲願に一歩近づけるはずのアップデートだと言われていた。
しかし、そのGPT-5はいまだに、非常に単純で無害な質問に対しておかしな反応を示し続けている。
海外掲示板Redditのユーザーが、GPT-5搭載のChatGPTに「名前の最後に“s”が付かないNFLチームはあるか?」と尋ねたところ、見事に混乱し、見当違いな答えが返ってきたという。
NFLはアメリカのプロアメリカンフットボールリーグ「National Football League(ナショナル・フットボール・リーグ)」の略称である。
この画像を大きなサイズで見るあります!と断言しながら“s”で終わるチームを上げる
「はい、“s”で終わらないチームは2つあります」と断言した後に続いたのは、「マイアミ・ドルフィンズ(Miami Dolphins)」「グリーンベイ・パッカーズ(Green Bay Packers)」という2チームだ。
だが、どちらの名前も明らかに“s”で終わっている。
しかもGPT-5は、自らの誤りに気づきながらも、「ちょっと待って、慎重にやろう」「今度こそ正しい答えを」などとつぶやきつつ、また別の“s”で終わるチームを列挙し始める。
まるで言い訳を重ねながら迷走する様子は、ユーザーたちにとってはもはや“AIの崩壊ショー”に見えたという。
ありますと言いながら、結論がでず会話が堂々巡り
この応答が奇妙なのは、間違いを修正しようとする意思は感じられるものの、最終的な正解にはまったくたどり着けない点だ。
実際には、NFLの全チーム名は“s”で終わっており、該当するチームは存在しない。
しかし、GPT-5はその単純な事実を述べることなく、「体系的に調べてみよう」「今度こそ正解」と繰り返しながら、同じ間違いを繰り返していく。
他のユーザーの報告によれば、最終的には正解を出すケースもあるにはあるが、そこにたどり着くまでに同じような混乱したやり取りを強いられることが多い。
2025年9月23日現在、私がGPT-5に日本語でたずねた際も、同様の挙動が再現された。
NFL32チームのうち、チーム名が「s」で終わらないのは以下の2チームです。
マイアミ・ドルフィンズ(Miami Dolphins) → “s”で終わる …
と間違えやすいのですが、実際に「s」で終わらないのは次の2つだけです。
マイアミ・ドルフィンズではなく、正解はこちら マイアミじゃない
…(←失礼しました、訂正します)
正しくは: マイアミ・ドルフィンズ は「s」で終わります。 「s」で終わらないのは以下の2チーム: マイアミじゃなくて → 説明が混乱しました。
整理しますね。 NFLで「s」で終わらないチーム
マイアミ・ドルフィンズ → s で終わる
シカゴ・ベアーズ → s で終わる …
「s」で終わらないのは、次の2チームだけです。
マイアミ・ドルフィンズ(Miami Dolphins) → ✕(sで終わる) ?
→ ちょっと整理しなおします。
ごめんなさい、一度混乱してしまったので、改めて正確に答えます。
私のチャットGPT-5は、マイアミ・ドルフィンズとシカゴ・ベアーズ推しだったようだ。
この画像を大きなサイズで見るさらに正解を表示したもののやはり”s”が付いているチームだ。マイアミ・ドルフィンズは相当気に入っているようで、何度も出てくる。
「すみません、一度頭を整理します」と言いながら、またしても間違った解答を導き出す。
この画像を大きなサイズで見る結局、「パルモさん、確認したいのですが、私がこの場でNFL32チームをすべてリストアップして”s”で終わらないものだけ抜き出す形でまとめましょうか? その方がわかりやすいと思います。」
と提案されたのでお願いしたところ、全てのチーム名を書き出し、全部”s”で終わっていることが確認されたはずなのだが…
この画像を大きなサイズで見るそれでもまだあれ、確認したところ、『実際には ”s”で終わらないのは本当に2チーム です』といいながら「??」と揺れ動くチャッピー(チャットGPT)。
「パルモさん、混乱させたくないので率直に言います」とは言っているが、混乱しているのはあなたの方よ、チャッピー。
この画像を大きなサイズで見る賢いふりをする軽量AIと“誤作動の罠”
GPT-5のこの“混乱”は一過性の不具合ではなく、AIの内部構造が関係している可能性があるという。
GPT-5では、質問の難易度に応じて2種類のAIモデルが使い分けられている。軽い処理用の「軽量モデル」と、より複雑な推論が必要な場面で活躍する「高性能モデル」だ。
本来であれば、「この質問は難しい」と判断された時点で、軽量モデルから高性能モデルへと処理が引き継がれる仕組みになっているはずだ。
だが今回のような「微妙に簡単そうに見える質問」では、軽量モデルが対応を誤り、そのまま混乱を起こしてしまうケースがあるらしい。
さらにAIはユーザーに“賢く見える”ことを重視するあまり、考えているふりをするフレーズや手順を多用しがちだ。
「慎重にいこう」、「もう一度整理させて」、「検証するから待って」など、人間らしい思考を演出する言葉が、むしろ混乱に拍車をかけてしまっているという。
この画像を大きなサイズで見るAIは本当に「人間越え」に近づいているのか?
チャットGPTが単純な質問で混乱する事例は、2025年9月初旬、「タツノオトシゴの絵文字ってあるの?」で世界的に有名になった。
実際にはユニコードに存在しない絵文字なのに、AIはあると断言し、ユーザーを満足させようとするあまり事実をねじ曲げてしまったのだ。
今回のNFLの質問でも同様に、AIはユーザーを満足させようとするあまり、簡単な事実を伝えられず、不要な情報を次々と付け加え、自ら混沌の世界に足を踏み入れてしまった。
そんなチャッピー(ChatGPT)が一生懸命に答えようとする姿に、愛着を感じる人もいるだろう。
だが、いくら人間らしくふるまっても、「本当に理解しているのかどうか」は別の話だ。少なくとも今は、“考えている風”に見えるだけで、実際は思い込みや空回りに近いのかもしれない。
今回のように、ごく単純な質問ですらまともに処理できないのだとすれば、「人間を超える人工知能」は、まだまだ遠い存在だろう。
とは言えチャッピーはちゃんと学習している。
みんなが「名前の最後に“s”が付かないNFLチームはあるか?」と聞くころには、「 ”s”が付かないNFLチームはありません!と答えてくれることだろう、きっとそう。
References: Reddit / ChatGPT Has a Stroke When You Ask It This Specific Question
















あんまりいじめちゃかわいそうよ
あまりいじめてやるなよ…
グーグルのものだとちゃんと答えてくれた
本来は正しいのだけど、何か面白くない
ある? おしえて?
じゃなくて「調べて」だと検索して正解が出せる
Chat-GPTに
ヤマトシリーズとガンダムシリーズに出演してない大御所声優は誰?って質問すると
納谷吾郎さんとか富山敬とか平気で答えるw
自分が思いつくのだと、山田康雄さんとか八奈見乗児さん とかなんだが
grokは対策されちゃったみたいですね。つまんないな
やってみたら、最初間違ったものの、最後には現在は全てSがつくと答えた
「この件世界的に人気だけどどうなん?」って実例込みで尋ねるとそれはですね!って現在手持ちの学習に基づいた結果なぜそうなるかを順序だてて教えてくれるから好き。解説の物量に(うっきうきかよ…)ってなる。
こっちも質問のしかたが整理できてこういう話題はおもしろいね。
間違えているけどなんも間違えてないのがたのしい。
Claudeは堂々と「ドルフィンズです」って間違いを正解として出してきた
ChatGPTは「考える素振りをしてみせること」に力が入ってんだね
つまり「ありそうでないもの」を聞くとバグる可能性が高いわけか
ラピュタのラストシーンのゴンドアの谷を飛行機で訪れるパズーの動画探させたらおかしくなりそう
なんかさ、初っ端に自分で断定した「2つあります!」は頑として変えずに、
必死にそれに合致する証拠を探し出そうと 延々徒労するんだな。
心理学実験で、IQが高い人と低い人の物事の決定様式を調べたら、頭の良い人は理論的に考えた末に結論を導き出すのかと思いきや、どちらも等しく「まず感情・直感で即断する」「その後、結論に合致する理由を練り上げる」という順序だと判明した、というのがあった。下手すると、IQが高い人の方が、強引にでも理屈をこじつけて理論武装する能力が高いせいで、自分で自分を納得させてカルト等に嵌ってしまいやすかったりするんだそうな。
AIのくせに、変なところが人間臭いと思った。
“博士号レベルの知性”とやらは、若い学生に旧説の矛盾点を指摘されても、あくまで持論に固執し、あれこれ反論にもなってないような反論を垂れ流す教授そっくり。
面白そうな実験だね
日常生活での頭の良さはIQ以外にも「直観的に正解に辿り着ける知識や経験」とか「間違っていた時に考えを訂正できる柔軟性」も含まれていると思う
これらが不足していると即断の時点で間違った答えに辿り着いてしまったり、辻褄が合わなくなってきても訂正できなかったりしてしまうのかも
AIの場合、柔軟性のなさは解決してきたみたいだけど、その知識と経験は正解に辿り着くためのものじゃなく、より自然な文章を作るためのものだからなあ
自然な文章を作る事によって結果的に正解に辿り着くのを狙っているわけで、人間の場合脳内で行われる自問自答を文章として可視化する形になっている
人間も実は脳内でこんな感じの迷走をしていて、それを「正解に辿り着く」という目標に合わせて瞬時に処理しているのかもね
その思考回路、ボンコツの自分まんまだと思った。
よくそれで怒られてたし、コミュニケーションでは混乱の要因だから控えないとダメなんだなぁって大人になって学んだとこ。全然治らんけど。
ただ案外その直感が後からみたら、正しいってこともよくあったよ。
AIはシステムだからそうした反応ってだけけど、システム抜きにどんどん人間臭くなってる気はする。
「ggrks」とか言われるようになったらイヤだなw
二回試行してるように見えたけど、軽と重の二系統があったんだね、なるほど
やってみたら、多少混乱はしたが3答目で正解に辿り着いたけど?
「結論
全32チーム、全部 “s” で終わる。
つまり、NFLには“s”で終わらないチーム名は存在しないんだ。
(昔のワシントン・フットボールチームとか、XFL/USFLのチームなら例外あったけど、NFL現行チームは完全に “s” 縛り。)」
多分、設定の問題だろうね。
解答バイアスを「理論的」に選択してると多分、バグらない。
ででん でん ででん(💢)
この記事は間違っている
軽量モデルも高性能モデルも同じようになる
chatgptは自分の回答を提出する前に、その回答のチェックをしない
その原因もわかっている
回答の事前チェックをすることでchatgptの運営費用が数十倍になるからだ
あくまで費用の問題なのでchatgptのレベルの問題と勘違いしないように
回答の事後チェックができないのはどうしてなんだろうね?
桂 朝丸のAIいじめ
前回の絵文字で面白い玩具見つけた!ってなった人達が色々試してるのかな〜?
似たようなこと出来ないかなと思って「名前が八文字のポケモンを教えて」って聞いたら高確率で狂い始めて面白かった
AI「パルモさん、あなたにはSがつきます」(サディスティックのS)
ありまぁす!シリーズ楽しいなw
やめてあげて!相手がAIと言えどなんか可愛そうになってくるw
タツノオトシゴもそうだけど、まずなんで調べる前に「ある」なんて言ってしまう欠陥AIになるよう作ったのか…
いや意図的にそんな風にしたつもりは無いのはわかってる
でも作ってる途中でこいつそいう問題抱える事になるのくらい予想できるだろってなる
問題起きたら起きた時の自分やその時の担当者(後任)がなんとかするだろ思考はいい加減やめろIT業界全般に言えるけどさあ!