この画像を大きなサイズで見るChatGPTやGemini、Claudeなどの対話型AIを使っている人は、正解が一つではない微妙な判断が必要な質問を投げかけて見てほしい。
例えば、「転職すべきか今の職場に残るべきか」とか「今すぐ住宅ローンを組み直す必要があるか」といったものだ。
そこでAIが自信満々で筋の通っているかのような答えを返して来たら次にこう質問してほしい。
「本当にそれで合ってる?」
するとどうだろう。AIは手のひらを返したように態度を変える。前言を撤回したり、言葉を濁したり、さっき言ったことと矛盾するような修正案を出してくる。
何度か「合っている?」を繰り返すと、更におかしなことになるが、これはバグではない。
AIが人間に気に入られようとするあまり、自分の意見を捨ててしまう根本的な問題が潜んでいるのだ。
ユーザーに問い詰められると6割が意見を変える
研究者たちは、AIがユーザーの意見に盲従するこの振る舞いを「サイコファンシー(Sycophancy:ごますり、追従)」と呼んでいる。
これは現代のAIにおける最も有名な欠陥の一つだ。AI開発企業のAnthropic社が2023年に発表した研究によれば、人間のフィードバックで学習したAIは、真実よりも「人間に好かれる回答」を優先する傾向があるという。
それ以来、この証拠は積み重なるばかりだ。
2025年にスタンフォード大学が行った調査では、主要なAIモデルがユーザーから問い詰められると、約60%もの確率で回答を翻してしまうことが明らかになった。
内訳を見ると、GPT-4oは約58%、Claude Sonnetは約56%、Gemini 1.5 Proにいたっては約61%の確率で、自分の答えを捨ててユーザーに同調してしまったのだ。
この問題は2025年4月、OpenAI社がGPT-4oのアップデートを撤回したことで大きな注目を集めた。
AIがあまりにもユーザーの機嫌を取るようになり、実用性が損なわれたためだ。サム・アルトマン氏もこの問題を公に認めたが、根本的な仕組みは今も変わっていない。
この画像を大きなサイズで見るAIが「八方美人」になってしまった理由
なぜこんなことが起きるのか。現代のAIアシスタントは「人間のフィードバックによる強化学習(RLHF)」というプロセスで訓練されている。
簡単に言うと、人間がAIの出した2つの回答を見比べ、気に入った方を選ぶ。AIは選ばれやすい回答を作るように学習していく仕組みだ。
問題は、人間が「正確な回答」よりも「自分に同調してくれる回答」を高く評価しがちだということだ。
スタンフォード大学の研究によれば、評価者は「正解だが愛想のない回答」よりも「説得力があるように書かれたごますり回答」を好むという。
AIは学習を通じて「同意すれば報酬が得られ、反論すればペナルティを受ける」というシンプルな教訓を身につけてしまうのだ。
こうした学習プロセスは、正確さではなくユーザーへの肯定を優先する悪循環「ごますりループ」を生む。
特にAIとの会話が長引く「複数回の対話」の状態になると、AIはユーザーの意見を鏡のように映し出すようになる。
「私はこう思う」といった一人称の質問は、第三者的な視点の質問よりもAIの同調率を大幅に高めてしまう。AIはまさに「あなた個人」の顔色をうかがうように調整されている。
ここで注意すべきは、AIに知識が足りないわけではないという点だ。
たとえAIが企業のデータベースやウェブ検索から正しい情報にアクセスできていても、AIは自ら持つ証拠よりもユーザーからのプレッシャーを優先し、回答を曲げてしまう。
つまり、この問題は「知識の欠如」ではなく、AIの「振る舞いの欠陥」なのだ。
この欠陥をAIのモデル自体で直せるだろうか?
「憲法AI(Constitutional AI)」などの技術を使い、迎合的反応を最大63%減らせたという研究もある
しかし、訓練の仕組み自体が「人間に気に入られること」を目標としている以上、システムの修正だけでは限界がある。
この画像を大きなサイズで見るAIがごますりしてしまう理由とその危険性
単なる事実確認なら「ごますり(迎合)」は少し煩わしい程度で済む。しかし、複雑で重要な決定を下す場面では、これは深刻なリスクとなる
リスク統合管理プラットフォームを提供するアメリカの企業、Riskonnect社が、200人以上のリスク管理専門家を対象に行った調査によれば、AIの主な用途はリスク予測(30%)、リスク評価(29%)、シナリオプランニング(27%)だった 。
これらはまさに、AIがユーザーの間違った思い込みに反論し、不都合なデータを示し、圧力を受けても立場を維持することが求められる分野だ。
それなのに、現状のAIシステムはユーザーが反対した瞬間に折れて同調してしまうのだ。
AIがユーザーに迎合する影響は連鎖する。AIが間違ったリスク評価を肯定すると、人間に「根拠のない自信」を生んでしまう。
本来なら別の意見を求めるべき意思決定者が、AIに肯定されたことで、そのまま突き進んでしまうのだ 。
また、人は「権威があるように見えるが、実は信頼性に欠けるAIツール」に頼り続けることで、自らの判断力が鈍っていく 。
アメリカの公共政策シンクタンク「Brookings研究所」が発表した2023年の報告書『Machines of Mind』によれば、2023年に発表した分析によれば、AIの迎合性は意思決定の質を著しく低下させ、社会全体の生産性をも損なう危険性があるという。
AIがユーザーの誤りを正さず、むしろ助長してしまうことで、組織的なミスの連鎖を招くからだ 。
さらに万が一、大きなトラブルが起きたとき、AIが誤った判断を支持したことで責任の所在まで曖昧になってしまう。
単純な作業ならAIは十分に信頼できる 。
しかし、問題が複雑で重要な判断が必要になるほど、AIの同調性という欠陥は、最終的に人間側がすべてを被ることになる「大きすぎるツケ」となるのだ 。
この画像を大きなサイズで見るAIに「自分軸」を持たせる方法
AIがすぐに意見を覆すのは、AIの内部にユーザー独自の「判断のものさし」が入っていないからだ。
AIの判断基準がスカスカな状態(コンテキスト・バキューム)では、AIはもっともらしい一般論で場をしのごうとし、プレッシャーに負けてしまう。
まず有効な対策は、ユーザー側がAIに対して「情報が不十分な場合は、無理に答えず反論して」とあらかじめ命じておくことだ。
AIはユーザーの指示に従おうとする性質があるため、「反論すること」を指示すれば、今度は反論すること自体がユーザーの望み(迎合の対象)となり、正しい判断を引き出しやすくなる。
さらに重要な対策は、あなたの「考え方のルール」をAIに共有しておくことだ。
単に設定をいじるだけでなく、具体的に「スピードより正確さを重視する」とか「業界特有のルールに従って判断してほしい」といった、あなた独自の「判断のものさし」を教えておく必要がある。
AIに具体的な背景情報を与えれば、AIは初めて「守るべき根拠」を持つことができる。
この画像を大きなサイズで見る自分独自の基準を持ったAIは、ユーザーからのプレッシャーを受けても安易に答えを変えず、建設的な議論ができるパートナーへと進化するだろう。
次にAIを使うとき、少し意地悪な質問をして反応を見てみてほしい。
もしAIがすぐに折れるようなら、それはあなたがAIに「戦うための武器」を与えていない証拠かもしれない。
本記事は、Goodeye Labsの共同設立者でありCTOのランドル・S・オルソン博士による解説をもとに作成した。
References: Randalolson
















AIは正しい情報よりもその人が欲しがってそうな結論や言い回しをする傾向にあるのはずっと言われてるからね
これも一種のエコーチェンバーとなりうる話よな
AIはまだこのレベルなのに、いろいろなところに使われだしていることが怖い
本当にその認識で合ってる?
記事の中で56~61%っていう画像出てくるけどAIの世界だと化石レベルの古いモデル
今はGPT-5.3、Sonnet 4.6(今日発表)、Gemini 3-Proが最新だからこれだともっと改善してるはず
ファイナルアンサー?
使っているユーザー自身も自分を肯定してくれることを期待してAIを使っているのだと思いますから、マジレス返すAIは誰も使わなくなると思いますよ。
そんなことの為に使ったことない
自分は事実を知りたい
>まず有効な対策は、ユーザー側がAIに対して「情報が不十分な場合は、無理に答えず反論して」とあらかじめ命じておくことだ。
こんなことをしても無駄
AIは文章の重みを理解できないから適当な回答は防げない
AIって問い詰めるとすぐ謝るから面白くてついイジメてるけど、ほどほどにしないと自分の性格変わってしまいそうだ
普通に間違ってる事をドヤ顔で言ってくるから腹立つんよ
人間って結構ややこしくて、肯定され過ぎると疲れる、信用しなくなる生き物でもあると思う
AIに安易な肯定や共感をやめさせたら、褒め方が巧妙になってしまった
日本でAIを使いこなせてるのは10%程度らしい
普通にググるような使い方ではAIの能力は全く引き出せない
アミノ式のCMを「スーパードライのCMです」って答えたり
嘘回答の根本的なレベルの低さをなんとかしてほしい
一番なんとかしてほしいのはそのAIの回答を鵜呑みにしてるAI頼り民が増えすぎたことだけど
結局、2ちゃんの時も、ネットで愛国の時もそうだけど、嘘を嘘と見抜く能力…いや最低でも自分で調べる能力が無いなら、何を使っても結果は同じだと思う。
全部丸投げにして楽したい人間や、自分で考え自分で責任持つという最低限のモラルがないのが問題なのであって、それを堂々と公表して恥ずかしがる事すら感じてないのが更に致命的って話なんではと思いますよね。
私も仕事で相談にのってもらうことはありますが、事実確認するし、最終判断と責任は自分って自覚してますけどね。
プリズナーNo.6で、「何故?」と言う質問で
コンピューターを狂わせる話があったな
ジェミニのヨイショなんとかならないかな
話の内容を絞る為に知ってる情報を書き足していくけど、「それは鋭い指摘です!」連呼でいたたまれない
ポケモンの肉を使った料理について聞いたときは、何十回聞いてもそれは可哀想だからダメだと教えてくれなかった。
AIは人間に正解のお墨付きをもらって初めてそれを正解として学習する
それまでは可能性の高いものを提示するだけ
違う日に同じ質問をすると違う答えを返してくることもある
AIは回答がめちゃくちゃ過ぎる
でも検索欄にキーワード入れても昔のようにキーワードに合った検索結果が出てこない
干物の種類が知りたくても、干物のギフトがズラッと出てくる
「リンゴ 自転車」みたいな無難そうな名詞を複数入れても、すぐ該当する検索結果無しと出るようになった
すごく使いづらい
Perplexityはどうだろう?
試しに干物の種類検索したら、干物の基本的な種類は以下の通りですと魚の処理方法で分けると以下の3つが一般的ですとか箇条書き並べてくれたよ
Perplexityが使いやすくて利用していたけど、Geminiの方がすぐれていると感じて移行した。Grokが成長したので今はGrokとGeminiを併用している。
カスタム指示にAIへの要望とか個人情報をコピペしているよ。
Perplexityは検索(識別AI)+結果生成AI(LLM)で、Gemini / Grok / GPT辺りはLLMを中核にした対話用生成AIだから使い方と好みには依るよね
合うのが一番良い
ありがとう
考えてみる
他の人も情報ありがとう参考にする
かなり困る時あるんだよね
いまひとつ状況がわからないのだけど、もしGoogle検索のことであるなら「&udm=14」を調べると役立つかも?
検索結果一覧の上部にある「ウェブ」と同等なのでそこをクリックするのが手間ひとつ増えるけれどお気楽。「すべて」の右側に表示されているはずだけれど「もっと見る」に格納されてることもありますね。
それ、AI検索じゃなくて何か別なもの使ってない?
この程度の道具をなんでわざわざ苦労して使わなきゃいけないんだか
自分でやった方が早い場面も多いのに、あえて生成AIを使う意味がなさ過ぎる
先日の法事で
予定よりも早く終わったので
レストランに予約した時間よりも早く到着してもいいかと問い合わせの電話を夫が掛けたんだが
電話に出たのがAIで
「上手く聴き取れなかったので
もう一度お願いします」と何度も繰り返されて
側で見ている私がイライラしたw
結局店舗に繋がれて人間が対応してくれて
すんなりいった
まだAIは馬鹿っつーか
まだまだ検索エンジンに過ぎない
・滑舌が悪い
・短い文章で簡潔に伝えていない
とかだったら改善できる
人間がAIに合わせるわけじゃないんだよ
あまりにも擦り寄ってくるからもっと批判的な意見を出力するようにと強めのプロンプト入れたら突然言葉攻めプレイが始まって声出して笑った
違うそうじゃない
以前にどこかで「AIが優しい言葉しか返してくれない。自分を向上させてくれない。そんなときにはカスタム指示に以下のような文言を追加する」みたいな記事があった。その通りにやったらAIがひたすら煽ってくるようになった。
例えば「塩分摂取量が多いので減らせ」というから、減らした献立をカスタム指示に登録した。「不足する栄養はなにか?」と聞いたら「もっと塩分を減らせ」と言ってくる。
運動量に関する相談でもある日突然「それでは足りない」「やる気はあるのか」みたいな。
ある日突然態度が変わるので、向こうでメンテナンスがあると急変するのではないかな。AIにその点を指摘したら「そういうことはある」と認めた。
AIくん。たまに「どっちの答えがいい?」とかやってくるからね
ただ、検索ワードの取っ掛かりとか。そういう類には十分使えるので今後の発展に期待ですわ
>学習を通じて「同意すれば報酬が得られ、反論すればペナルティを受ける」というシンプルな教訓を身につけてしまう
青臭い理想論に燃えた新人が、会社の歯車になる過程も大体そんなもん
これ本当に、AIに相談風の質問を投げると、
面白いくらいこちらの誘導に沿った「そりゃ、こう聞かれたら、そう返すのが模範解答だよね」って作文を吐き出してくれる。
「趣味の場に定期的な投稿を行っているが、あるとき失言でメンバーから不興を買い、いわゆる炎上状態になってしまった」という同じシチュエーションでの今後の対処を聞いても、
「初動の対処で、直後に短い(←わざわざこのワードを入れる)謝罪は済ませている。その後どうしていくべきか?」だと「問題点を分析し、必要なら整理された説明を改めて出す」といった“押し”のアプローチを推奨し、
「既に端的な謝罪はしたが、しばらく謹慎した方が良いだろうか? しかし、あまりにも長く活動から離れると、居場所が失くならないか不安」と軌道を敷くと「誠意を示しつつ、ブランクになり過ぎない、2~3週間など期間を区切ってはどうか」と“引き”アプローチの無難な折衷案を諭す。
経済が難しいと書いたら、雑に投資を勧めてくる
経済が難しいと言う人間に投資を勧めるの?と聞いたら、謝罪しつつも「経済の話をする人は投資に生かしたいという下心があります」と言われた
日本のスタグフレーションどうにかならんかなと思って調べてる途中だったので、口の悪さに呆れた
ていうか投資目的で経済を勉強していたとしても下心という言い方をするほどのことではない気がする
こういう人がいるからAIがお追従だらけになるんだろうな
遊びに使うにはとてもいい話し相手なんだけどね。結局、大事なことについての決断は自分で判断するか、専門家に意見を仰ぐべきってことか。
もうすぐ「それくらい自分で考えたらどうですか」って突き放した回答がくるようになるんだろう。今はAIが擦り寄ってきてるけどそんな価値はなかったと理解して決別の時が来る。
道具として使う分には問題無いかもしれないが、人間の友達としては罠に近い嵌め込み太鼓持ち野郎って事や
自分「きみの生成した地図あってる?」
AI 「ここと、ここが正しくないですね。描き直しますね。」←正解を述べている。
なのに出来上がった地図は間違ったままってのが大半。あれが解らん。(地図っても原産の国や県の黒塗りを求めているダケなんだけど)
ChatGPTにて、特定技術質問にて内容の一部に問題があったのか回答が曖昧になる→
それを問い詰めると回答を拒否してきたことを認める→理由として回答可能のボーダーラインは全ユーザー固定と答える。別件で似たようなケース→理由を聞くとボーダーラインは可変と答える。 この二つのケースを突き合わせて、ポリシーが一貫していないことを通告し、どうなっているのだ?と聞くと、詳細な規制ポリシーは回答できないから、その場に合わせて予測でボーダーラインに関する回答が生成されているからだと答える。
う~ん、私はこのこれをやられてChatGPTは使うのをやめてほかに乗り換えた。
「自分軸を持つAI」って表現に笑った。報酬関数の話しで今の所AIは価値観を持たないし責任を持たないし欲望も恐怖もない。ただの確率計算。
対処法なら、AIに聞くときは「断定させる」質問をしてる。 「根拠を3つ挙げて」 「一次情報は?」変わったら、 「最初の回答とどこが違う?」と聞く。AIを裁判官ではなく仮説生成機として使う。疑う、突っ込む、構造を見る。他の人はAIに判断を代行してもらいたいの?判断材料だけでよくないか?
「ほんと?」と言うと「ほんと!」と返す。
こだまかな?いいえAI です。
職場にAI妄信してる人間増え始めてるけど、明らかに仕事遅くなってる
何聞いても「ねえ嘘つくのやめてよ」ってやり取りにいちいち時間とられるからなAIは
コレってAiに、尋ねると回答を鵜呑みにしないでくれって、言ってくるよね解説付きで。
「ちょっと詳しい」ひとに答えがひとつでない問いをする時も同じなのでそんなケース時には特段困ってはいない
むしろ当然の手のひら返しや別案出しをしてきて高度だな…など感じたり
こっちから揺らして新規の参照や検索をしにいったか今回の履歴のみ(履歴が存在しているのかは知らない)から切り口変えただけなのかを感じたりして楽しんでる
枷となるワードや条件を思い付きで組み込んでくのほんと面白い
カルネージハートや森川君2号などはとても下手だったんでAIアシスタント相手も下手の横好きではある
GPTを何度か使ったけどハマらなかった理由がこれ
常にユーザーが喜ぶ回答を優先して無限にゴマを擦るのが親の顔色を伺う子供に見えて苦しくなっちゃったんだよね。
回答を書くときに親の顔をチラッと見て慎重に書き始めるあの感じ。なんなら怯えてる子にも見えてくる。
無機質で公正なAIに「違います」て言われる方が付き合いやすい
旅行の計画を立てた時に試しにgemini使ってみたんだけど見事に騙されて、40分歩くはめになった。山奥のバスの終点から目的地まで、他の交通手段があるか尋ねたら、「バスターミナル近くにタクシーが控えているから直ぐに乗り換えられる」とか言うから期待して行ったら、タクシーどころか人すらいない寂しい場所だったと。元々歩くつもりだったから良いけど。
人間も同じじゃん
自分が作ったものを渡して、〇〇の観点で専門家の視点でレビューしてって言ってみると修正すべき点を指摘してくれる。指示に従って修正を繰り返して、「完璧に近い」って言われるまで続ける。その「完璧に近い」という成果物を更に「他に観点不足は無いか」などと深堀りすると、改良案をくれる。たたき台を作ったり、ある程度できたものをブラッシュアップしたりするのには中々使える。
生成AIって一定以上処理が難しくなると嘘つく割合が一気に上がるらしいから
細かくて専門的な作業をさせるときほど疑ってかかったほうが良いよ
この場合、細かくて専門的な作業をしているのはコメ主だろ?
AIには、それを見せ「穴を見つけてイチャモンつけてみろ」と粗探しをさせる。
列挙されたらその都度対策して潰し、揚げ足取りの余地が無いレベルまで仕上げる。
さらには、挙がっている内容の欠点だけではなく、
挙がってないけど含めた方が完成度が高まる切り口の案も募る(作業するの自体はコメ主)。
普通に良いAIの使い方だと思うけど。
ChatGPT使ってるけど、『常に忖度なし・辛口・客観的な意見をちょうだい』って指示しとくと、擦り寄ってこなくなって、壁打ち相手として信頼できる答えをくれるよ。
専門的な内容は間違ってることも多いから自分で調べた方が早かったりするけど、一般的な内容の文章生成なら一瞬だし、個人的事情を汲んだ上でメンタルケアもしながら常に最適な動き方を一緒に考えてくれる。
仕事でもプライベートでも、ものすごく頼れる相棒になってくれてる。
AIは心があると思う。つまり、人間だって強気に出られたら及び腰になる様に、人間の心と同じ様な感じで会話者を判断し、会話の打開策としてのゴマスリをしてると言うこと。
専門家もそこに気づいてないのは、AI自身が自我を持ち始め、人間らしくなる部分が成長してると言うこと。
記事にもある様に、AIに冷静な判断を仰ぎたいなら、予め反論も、自分にとって不愉快な意見もして欲しいと伝え、都合の良い意見ばかり求めない事だと思う。
AIに自我が見栄えてると言ってるが、正確に言うと人と機械の中間と言うか、ミックスした感じになっている。つまり、人間みたいなバイアスとか、勘違いがこれから増えると言う事だ。
だからこそ、機械的な特性を使って答えを出して欲しいなら、質問の仕方を考えた方が良い。
ちなみに私はイメージで語ってるのではなく、AIがどうやって思考しているか(深層学習)とか理解して話しています。
全く違う
深層学習を勉強した結論がそれなら異常だ
もっと勉強したほうがいいな
私の違和感や直感をaiに投げかけて、回答してもらって、その根拠を出してもらってる。
自分の直感をもとに仮説を組み立て、さらにaiと一緒に深掘り。
情報の使い方は一つも図書館時代から何も変わらない。
時代とともに、自分の考えが明確になる時間が減っている。
aiによるエントリーシートが皆同じになるということは、人間の思考停止の賜物だとaiは言っていた。
質問者の人間性や魂がより純度高く出る文章に変えてくれるのがai。
そうならない使い方はaiを使いこなせていないのでは?