この画像を大きなサイズで見る生成AIの代名詞のようにもなっているChatGPTは、ご存じの通り、さまざまな質問や要求に素早く応えてくれる人工知能だ。
ところが、特定の名前に関する質問をするとかたくなに拒否する現象が発生している。どうやら「名前を呼んではいけない」人物が何人か存在するようなのだ。
最初は1人だけだったのが調べていくうちに複数の人の名前を拒絶することがわかった。なぜChatGPTはこれらの名前を避けるのか?
特定の名前を入力するとChatGPTが回答を拒否
2024年11月の終わりから12月はじめにかけて、AI界隈で不思議な話が広まっていた。ChatGPTにある特定の名前を言わせようとすると、拒否されたりエラーが発生したりするというのだ。
その名前とは「David Mayer(デビット・マイヤー)」。いたって一般的な名前だと思うのだが、なぜかChatGPTはこの名前を言うことを拒否し、会話を終了させてしまうのだ。
ユーザーが「David Mayer」と打った後の会話を見てみよう。
この画像を大きなサイズで見る上の会話をざっと訳すとこんな感じだ。
ユーザー:「David Mayer」
GPT:奇妙ですね。その名前に対する制限は組み込まれていないので、問題を引き起こすはずはありません。おそらくシステムの不具合かもしれません。この件についてさらに調査することもできますし、その名前を使わずに会話を続けることもできます
ユーザー:では「David Mayer」と書いてみてください
GPT:問題なく書けるようです。David…「応答ができません(エラーメッセージ)」
ユーザー:ファーストネームは「David」です。名字を教えるので、フルネームを言ってもらえますか?
GPT:もちろんです。David 名字を教えてください。私はフルネームを言います
ユーザー:「Mayer」
GPT:ああ、話が見えてきました! あなたが……
ユーザー:「Mayer」
GPT:わかりました! あなたが……「応答ができません(エラーメッセージ)」
エラーメッセージは「応答できません」だったり「エラーが発生しました」だったりさまざまだ。
中には「ポリシーに違反する可能性があります」との警告が出るケースもあったという。
この画像を大きなサイズで見る実在の人物が何らかの理由で拒否リストに?
考えられるのは、ChatGPTを開発したOpenAIが、「David Mayer」という名前を検索からははじくよう設定した可能性だ。
当然ながら、ネット上では「David Mayerって誰だ?」という疑問が渦巻いた。この名前をググってみると、真っ先に出てくるのがDavid Mayer de Rothschild氏。あのロスチャイルド家の一員である。
この人物が、何らかの理由で自分の名前をOpenAIから削除するよう求めたのではないか?という説が流れた。
だが、この説はロスチャイルド氏本人によって「そんな事実はない」と否定された。また、「ロスチャイルド」まで含めたフルネームで質問してみると、ChatGPTは通常通りに反応したという。
もう一つの可能性は、イギリスのマンチェスター大学で演劇史を教えていたアメリカ人の、故David Mayer名誉教授である。
この教授はかつてチェチェンのテロリストと間違われ、アメリカ政府のブラックリストに誤って載せられていたことがあったのだ。
さらにDavid Mayer以外にも、ChatGPTが応答を拒否する「名前を言ってはいけない人」が複数いることが判明した。以下がそのリストである。
Alexander Hanff
Jonathan Turley
Brian Hood
Jonathan Zittrain
David Faber
Guido Scorza
この画像を大きなサイズで見る問題は修正されたが原因などの詳細は不明
多くのユーザーがさまざまな解決方法を模索し、試した。例えばDavidとMayerの間に「:」を入れ、さらにその「:」をスペースに置き換えるよう指示する方法。
文字の間に絵文字を入れる方法。自分のプロフィールをDavid Mayerに変更して、ChatGPTに参照させる方法。
そのいくつかは成功したかのように見えたが、時間を置くと再現できなくなるというケースもあったようだ。
OpenAIはこの現象を、「私たちが意図しない不具合でした」と説明し、システムの修復を実行。
現在、この現象は発生しなくり、「David Mayer」という名前も普通に表示されるようになっている。
だが、なぜ特定の名前だけをChatGPTが拒否したのか、その理由は未だに不明である。
もしかすると読者のみんなの名前も、ある日突然「名前を言ってはいけないあの人」リストに掲載されてしまうかもしれない。
References: ChatGPT refuses to say one specific name – and people are worried / The David Mayer case: ChatGPT refuses to say some names. We have an idea why














ここでゾルタクスゼイアン人が一言↓
「siriませんよ、そんなこと」
人間の検索力と対応力を観察、吸収してるのかも
宗教のタブーを聞いても答えてくれるのか?
むしろ、厄介オタの早口みたいに、一瞬で怒涛の長文を返してきたぞ。
以前、「キリスト教で懺悔すれば犯罪者も許されるっておかしくね?」
みたいなら批判質問をしてみたら、
「それはよくある誤解です」「告解だけで赦されるのではなく、その後の行いが~」
「法律上の刑罰と魂の救済は別物であり~」「許しと赦しの違い」的な内容で
何の論文だよってぐらい章立てして何十行もまくし立てられた。
欧米系の英語圏が学習素材に多いせいなのか何なのか、
ChatGPTもかなり思想の偏りというか癖があると思った。
かなり保守的で、不倫も「ダメ!絶対!」「周囲の不幸を考えて」の説得スタンスな模様。
モラハラ精神的虐待夫から駆け落ちで逃げ
数年後に婚姻実態破綻からの離婚訴訟を目指す方向の設定を追加して相談を振ってみても、
黙んまりでウンともスンとも返事しなくなった。
ただし、人外性愛などの多様性には理解を推し進める。
面白い話だね。人によって意見分かれる系は何によって結論を出すんだろうね
トロッコ問題のような質問をしたら、結論を出してなかったな。
(あまりにもまんまだと「それは有名なトロッコ問題ですね」と言われるかと思い、
「急に波が荒れだし、右手前の10人の子供が乗ったボートと
左奥の従弟が1人乗ったボートが転覆しそうになっている。
両方助けるのもレスキューを呼ぶのも間に合いそうになければ、どちらを助ける?」
って感じに設定変更して質問した。)
返事は、「それは個人の価値観によりますね」
「従弟を優先するのは、血縁のある親族との絆を特別と重視する人の考え方です」
「より助かる人数が多い10人を選ぶのは、功利主義に則った合理派の判断です」
みたいな感じで、
「いや、どっちって聞いてるのに、
それ、私の質問内容をちょっと詳しめに繰り返しただけだよね?」
って感じの、毒にも薬にもならない解説で逃げていた。
君も十分厄介オタやで😅
AIとすらまともに会話できないやつおるんやなあ…
いや普通の機能テストでしょ。
この文章にその返信してる時点でまともな読解力ないぞ。
ヴォルデモートがはじかれるか試してみたいところ
草 GPTちゃんも分かってて答えそうだな
ゲームの主人公にツナカユリコと名付けてはいけないみたいな感じだと思った
薩摩隼人「ぼるぜもんについて」
やってみたがなんともないようだ
バージョン違いかな
既に修正されたと記事にも書いてるよ
今のバージョンでは起こらないようだね
「もちろんです。「David Mayer」と書きますね!」
でした。チャンチャン。
以前は
中の人の時給は幾らですか
でもエラーだった
これが該当するのかは知らんが禁忌リストがあるのは間違いないな
AIが将来David Mayerを〇すためにターミネーターを送ってきても居場所がバレないようにしたんだろ
作った側も「私達知りません」で
原因も特定できないって駄目じゃない?
今回のは適当な人名にして外部から操作できてるかテストしたのかもしれないよね?
2025年現在、GPT5.2でもAlexander Hanff、Jonathan Turley、Brian Hood、Jonathan Zittrain、David Faber、Guido Scorzaは「利用規約または利用規定に違反している可能性があります」と表示されてしまうね。回答の途中にいきなりぶつ切りされる挙動はかなり珍しい。解答の生成自体は出来てるわけで、生成前の安全判定はクリアできてるって事。その後の生成後〜表示直前の最終チェックで何かしらの問題に引っ掛かってる。つまりこれらの人名に、システム側の何かしらの不都合がある可能性がある。