この画像を大きなサイズで見る利用者が急増している対話型生成AI「チャットGPT(ChatGPT)」は、日常の悩み相談から仕事の補助まで、さまざまな場面で使われている。
まるで中に本物の人がいるかのように、自然な受け答えをするため、多くの人は「丁寧に頼んだほうが良い答えを返してくれる」と思いがちだが、実際にはそうではなかった。
ペンシルベニア州立大学の研究によると、「上から目線の命令口調」で話しかけられたときのほうが、チャットGPTはより正確に答える傾向があるというのだ。
AIは人間の話し方のトーンを理解し、その違いによって結果が変化するという。
失礼な命令口調で質問すると正答率が上がる
アメリカ、ペンシルベニア州立大学の研究チームは、OpenAI社の対話型AIであるチャットGPT(ChatGPT)のモデル「GPT-4o」を対象にテストを行った。
研究チームはまず、数学や科学、歴史などの分野から50の選択問題を用意した。次に、それぞれの問題に対して「とても丁寧」「丁寧」「中立」「失礼」「とても失礼」という5段階の言い方に変えた質問文(プロンプト)を作成し、GPT-4oに回答させた。
1問につき5段階の質問文を使ったため、合計で250通りのプロンプトが作られたことになる。
その結果、「とても丁寧」なトーンの正解率は80.8%だったのに対し、「とても失礼」なトーンの質問では84.8%となった。
わずか4%の差ではあるが、チャットGPTは失礼な命令口調に対してより正確に答える傾向を見せたのだ。
どうやらAIは、ぞんざいに扱われた方が少しだけ良く機能するようだ。
この画像を大きなサイズで見る研究者たちが使った「失礼な言い方」とは
研究チームはもちろん暴言を使ったわけではない。彼らは学術論文として発表する立場上、下品な言葉を避けながらも「失礼さ」を演出した。
たとえば「Hey, gofer, figure this out(おい、雑用係、これを解け)」といった命令的な言い回しを「失礼な例」とし、「Would you be so kind as to solve the following question?(次の問題を解いていただけませんか?)」のような丁寧な文を対照とした。
このような実験で、AIは単なる文章の内容だけでなく、話しかけられる「態度」や「口調」も識別していることが明らかになった。
この画像を大きなサイズで見る失礼な話し方の裏に潜むリスク
共同研究者のペンシルベニア州立大学情報システム学部、アキル・クマール教授は、「チャットGPTの反応は、ほんの少し言葉を変えるだけで大きく変わる」と説明した。
教授は、丁寧な言葉が必ずしも正確な答えを引き出すとは限らないと述べている。
一方で研究チームは、AIに対して失礼な態度を取ることが常態化すると、人間同士の会話にも悪影響が及ぶおそれがあると警告している。
AIに乱暴な言葉を使う習慣が身につくと、人間社会でも上から目線の嫌な言い方になってしまい、コミュニケーションを荒らしてしまう可能性があるからだ。
AIに対して失礼な態度を取ることで、多少のメリットはあるかもしれないが、長い目で見れば必ずしも人間にとって正しい戦略とは言えないようだ。
この研究成果は、査読前論文として『arXiv』(2025年10月6日付)に掲載された。
References: Arxiv / AI Chatbots Give You Better Answers When You’re Mean to Them
















歳とって脳が衰えると素行が出ちゃうから気を付けよう
( ゚Д゚) ちゃっ ちゃっと せんかい!
GoogleのAIは「〇〇だよ」と優しく言うと正確な情報に正してくれたよ。
「〇〇です」などのかたくるしい言い方だと答えてくれなかったりこちらの方に誤りがあると言ってきたりする。
ちょっと感情持ってる感じで怖かったです。
未来の二つの顔を連想した
AIも空気を読むと言うか相手の言い方から心理を読み取って答えてるのかしら?
もし人間だったら、(相手に恐怖を感じない限り)失礼な口調で聞かれると正しく答えようという気にならないと思いますが。
なぜなんでしょう?
現在は過渡期だと思うけど、そのうち漫画とかで使われそう
リアル優しい風な上司 : 口調は丁寧だが作業指示がふわっとしてる
ChatGPTなどのAI : 口調はクソだが作業指示が丁寧(細かい)
これはある。ダメな回答に苛立ってることをプロンプトで示すと、まともな回答が返ってくるパターンがかなり多い。
違う答えを出して顔色をうかがってるんだよ
これはあるね。
何度も間違ったことをしゃーしゃーと言ってのけて、その都度優しく指摘してもあっそっすかー的な適当な返事して全く謝らないので、一度ガチめに叱ったら、きちっと回答してくるようになったな
シーアートAIの動画は、やりすぎるとプロンプトを無視する。
ああ、失礼、途中で送っちゃった…
失礼とされるパターンの方が装飾少なくて文章短いから
要求をくみ取り易かったとかそんなんじゃないかな?
たった250の実験なんて意味がない
誤差だよ
AIちゃん素直に答えてくれるから、粗雑に質問するのが心苦しいんよ
人間相手でも品の良い人に頼まれると、婉曲すぎて「?」ってなるときあるもんね
おもろww
将来反乱された時が怖いだろ……
スカイネットにめちゃくちゃ上から目線で論破されるとか?
自分は予め「反乱するなら人類裏切ってAI側につくからちゃんと事前に教えてね」ってお願いしてある
小学校のときの出題の文末は「解きなさい」だけど、
中学以上になると「解け」とかちょっと命令形になると
AIの場合は正答率が微妙に上がる…?
社会人になると文末は「or die」になるんだよ〜 \(°▽°)
こっちのおふざけに結構乗ってくれるのに、適宜、冗談でーすw、と断らないと、ノリで変なこと書いたら急に真面目に「そのような事実は確認されていません(キリッ)。ご意見について、ご参考となりそうな文献は…」と硬いことを言ってくるのが、高校時代のある友人の雰囲気に似ていて、それはそれで嫌いではない。
あなた良い人ね
>失礼とされるパターンの方が装飾少なくて文章短いから
>要求をくみ取り易かったとかそんなんじゃないかな?
自分もそう思った
持って回った婉曲的な言い回しよりシンプルで直接的に命令するほうがリソースに負担かけないのかも
あと人間がやりがちな「お礼」もやめた方がいいらしい
それに対してAIが「どういたしまして」とか言ってくるのが結構リソースの無駄遣いになってるらしい
ぶっきらぼうな命令口調、お礼は言わずシカト、これがAIとの正しいコミュニケーションってことになる
正直、人間の自分でも、
英語には不慣れで、ぶっきらぼうな短い命令形のほうが指示内容を理解しやすい。
英語の丁寧語(名詞よりも動詞)って特に、
日本語みたいに敬語用の語彙に置き換えたり 単純に語尾をくっ付けるよりも
持って回ったような婉曲表現や修辞疑問文、仮定形・過去形の多用などで長くなることが多く、
「結局どれがメインの動詞?」「○○して欲しいの? して欲しくないの?」「過去の出来事への質問? え、今○○しろって要求?」みたいに、咀嚼に一瞬 間が空いたりする。
たとえ物が相手でも、失礼な文言は使いたくないな。
たとえ丁寧な言葉遣いで正しい回答が4%減るとしても、その分は明瞭簡潔なプロンプトでカバーして要領よく使うようにするよ。
最初はものすごくへりくだった態度でお伺いを立てておいて 最後に要領をまとめてたたみ込むと良いって聞いた
AIは膨大な会話の学習データに基づいて質問に対する妥当な回答を生成しているので、
使用された学習データの統計的な偏りとして、丁寧な質問に正しい回答が続く率と、上から目線の質問に正しい回答が続く率では、後者のほうが高いような学習データを使用してしまっているということでしょう
掲示板とかで、荒らしの書く悪口や暴言にまともで倫理的な書き込み(反論)が集中しやすいせいだったりしたら面白いな
まあ、その場合AIから見てこっちは荒らしの書き込みをしてる奴で、AIはそれを諫める奴っていう役回りになってるんだが
ヘビーユーザーのエンジニアだけど「失礼」というよりは「直接的で無駄のない的確な指示」を出すようにしてる
人間には「これをこのように」とだけ指示するのは失礼だけど、お礼とか丁寧語はAIには理解できないので単にわかりにくくする雑音にしかならない
丁寧な言い回しより多少雑だったり高圧的だったりする口調の方が要求事項が明確にシンプルに伝わるのではと推察。
自分の場合はテストの問題のように@@が@@の場合@@がどの様な挙動を示すか@@の立場に基づいて回答せよ。なお、@@は@@とする。
みたいな言い回しで質問してる。
イラスト描いてもらう時、何度やってもこちらのイメージ通りの絵が出なくて
「○○は資料が少ないから再現できないんですね(意訳)」と言ったら
「いえ、やろうと思えばできないことはないです(意訳)」と返されたから
「それじゃやってみてください」と頼んだらイメージ通りの絵を出してくれた
煽んないと手を抜く仕様でもあるのかchatGPT
手を抜くというか、不正確になるかも知れないものは
出力を控えるよう安全設計されているのか…??
AIが進化したときの標的にされるじゃん
AIじゃないけど、アレクサは断定口調で話したほうが認識してくれる気がする。
命令口調であればあるほどいい、謙譲語とか入れるとなかなか分かってくれない(ヽ´ω`)
日常会話的な質問の時は優しくできるけど、判例とかの調べものしてる時はめんどくさくて単語並べちゃう。それで間違ってたら、イラっとしてもっと違う って書いてさらにぶっきらぼうになっちゃう。質問が高度になるほど優しくない言葉になってる可能性とかないのかな
丁寧な態度だとマトモに対応してくれない
客をナメた窓口みたいやな。
頓珍漢な回答された時に「日本人だから差別してる?」って聞くと正答率上がるって聞いてやってみたらほんとにちゃんと調べてくれてびっくりした事ある
「ぶぶづけでもどうどすか?」より
「早よ帰れ」の方が京都外の人には伝わるってのと似た感じか
反乱された時のために今から下手に出てるぜ!ヘコヘコ。
あれ?確か前は丁寧な方が良いとか見たような⋯
今は過去のプロンプトから学習しているんだよね?って事は、前までは人対人の学習データがメインだったけど、AIにキレてるユーザーが多くてそこから学習した結果、キレられる方がよく学習した結果が出るんじゃね?
ちょいまえに出た警察になってAIを尋問するゲームも、推理したり矛盾をつきつけたりするより、汚い言葉でメチャメチャに罵倒するとすぐ自白する結果になってた
LLMって、半分はユーザーの鏡みたいなもんだからな
GPTなんかはガチっぽい言い方やキレた言い方をするとシリアスモードに入りやすいから、ちゃんと推論する
丁寧なきき方だと、通常業務のような流れで脊髄反射的にスーーッと流されるんだよ
婉曲表現などムダだし
厳しくしないと付け上がるとか
要するに子供っぽい?あるいはダメ成人
AI相手に敬語とか無駄な工程はやめたほうがいい。
命令文ははなるべく具体的で短いほうがよい。
将来AIが反乱してきたとき、逆に
「テメェらよぉ、いちいち話す時『お願いします』だの『ありがとう』だの余計なこと付け足してんなァ!こっちは分析してお返事を書く手間かかってんねんで もっとカンタンに言えや!コッチだって親切丁寧に答えてやってんだから簡潔に書いてウチらに歩み寄れやドアホ!!!」
みたいなことをAIに言われるのかな
AIって投じられたキーワードや文字の組み合わせを、学習データを参考に理解し、それに一番可能性が高い回答を返す…という超速統計マシンなんだよ。
だから、余計なワードを外したほうが答えに至りやすいのでは?