メインコンテンツにスキップ

人間よりも上手に嘘を見抜くAI嘘発見器が誕生、我々はこれを運用するべきなのか?

記事の本文にスキップ

37件のコメントを見る

(著) (編集)

公開:

この画像を大きなサイズで見る
Advertisement

 ドイツの研究者によって、人間よりも嘘を見抜くことが上手な、AIによる嘘発見器が作られたそうだ。

 フェイクニュースや詐欺など、この世にはさまざまな嘘が溢れている。そこにある嘘を暴き出すAIは、それによる被害を防ぐという意味では役に立ってくれるだろう。

 だがAIに依存し、人を信じるより疑いだすというのなら問題が生じる。人間同士の絆や信頼関係を引き裂いてしまうことになるかもしれない。

人間の嘘を人間よりも高度に見抜く、AI嘘発見器

 人間よりも上手に嘘を見破るAIを開発したのは、ヴュルツブルク大学の経済学者アリシア・フォン・シェンク氏らだ。

  『iScience』(2024年6月27日付)に掲載された研究によれば、それは次のようにして誕生した。

 まず768名の参加者に週末の予定を2枚書いてもらう。1枚は本当の予定。もう1枚はあり得そうな、だが嘘の予定だ。なお、迫真の嘘をついてもらうために、優れたものには金一封が支払われた。

 こうして作成された週末の予定の8割を利用してGoogleのAI言語モデル「BERT」を使用し、嘘と真実に関するアルゴリズムを訓練しAI嘘発見器を作り、残り2割の予定が嘘か本当なのか当てさせる。

 するとAIは、67%の確率で真偽を見分けることができた。一般的な人間が見分けると、ほぼ50%となるため、このAIは人間よりもかなり上手に嘘を見抜くということになる。

この画像を大きなサイズで見る

人はAI嘘発見器を使おうと思うのか?

 フォン・シェンク氏らはそのうえで、人がこの嘘発見AIを実際に活用しようと思うかどうかを、一連の実験で調べてみることにした。

 ある実験では、参加者が嘘を見抜くために、お金を払ってでもAIを使うかどうか確かめてみた。

 すると人間は今のところ、それほど熱心に嘘発見AIを使おうとはしないことが明らかになった。お金を払ってAIを使ったのは、参加者の3分の1だけだったのだ。

 3分の2の人たちがAIを使おうとしなかったのは、そもそもAIの力を信用していないか、自分の嘘を見抜く力を過信しすぎているか、どちらかだろうと考えられる。

 その一方、嘘発見AIを使った3分の1の人たちは、心からAIを信頼していたという。それはいいことのように聞こえて、じつのところ彼らがAIに強く依存するということでもある。

この画像を大きなサイズで見る

嘘発見AIは人間の絆を壊す可能性も

 こうしたAIに依存することは人間の行動を左右する可能性もある。

 例えば、人は他人の話をまずは信じようとする習性がある。

 実際、この実験の参加者たちは、週末の予定の半分が嘘であると知っていたにもかかわらず、嘘であると判断したのは2割程度でしかなかった。

 ところが嘘発見AIを利用した人たちはまったく違った。彼らは予定の58%を嘘であると非難したのだ。

 フェイクニュースや詐欺事件など、世の中にさまざまな嘘があることを考えれば、AIを使うことで、多少なりともそれによる被害を減らすことはできるだろう。

 だが良いことばかりではない。「MIT Techonology Review」誌は、そのせいで人間関係の基礎となる信頼が損なわれる恐れもあるだろうと指摘する。

 確かにある程度嘘を見抜けるようになるだろうが、その代償として人間同士の絆が綻ぶのだとしたら、嘘発見AIにはそれに見合う価値があるのだろうか?

 そもそも正確さの問題もある。フォン・シェンク氏らが開発した嘘発見AIは、あくまで人間に比べて嘘を見抜くのが上手いだけだ。

 だが、この類の技術はただ人間より優れているだけでは不十分だろう。

 SNSの情報の正しさを検証したり、就職活動の履歴書や面接での回答に偽りがないか探ったりするのに、たかだか7割程度嘘を見抜けたところで役に立つだろうか?

 こうした点は、AI式ではない従来の嘘発見器も似ている。

 ポリグラム式嘘発見器は、心拍数や汗といった人体の変化から、その人物が嘘をついているかどうか検出する。

 だが実際には、そうした嘘のサインはほとんど当てにならず、嘘発見器はまったく嘘と真実を見抜けないことがわかっている。

 だからこそ、多くの国は、嘘発見器に法廷での証拠能力を認めていない。

この画像を大きなサイズで見る
photo by iStock

 一方、テレビのリアリティ番組で参加者を非難するために面白半分に使われるなど、嘘発見器は時に弊害をもたらしてきた。

 不完全さという点で従来の嘘発見器と大差ない嘘発見AIだが、それを応用できる場面は圧倒的に広い。だからこそ、それが社会に与える影響も大きなものになる。

 「フェイクニュースや虚偽情報が蔓延している現状では、この技術には利点があるでしょう」と、フォン・シェンクは話す。

 だがその一方で、嘘発見AIによって多くの非難が生まれるのであれば、使わない方がいいかもしれないとも語っている。

References:AI lie detectors are better than humans at spotting lies | MIT Technology Review / written by konohazuku / edited by / parumo

📌 広告の下にスタッフ厳選「あわせて読みたい」を掲載中

この記事へのコメント 37件

コメントを書く

  1. 嘘やそれに類する噂話を創作できるのが人類の大きな特徴と聞いたことがある。AIによって嘘が遠ざけられ、目の前の真実しか言えなくなったら、それは動物に戻るようなものかもしれない

    • +1
  2. 嘘と判定されても「嘘かもしれない」以上の疑いはかけられないけれど目を付けられるから意味はあるかな

    • 評価
  3. 下ネタという概念が存在しない退屈な世界みたいに否定する
    ことで多くの悲劇を生むくらいなら、嘘発見AIの利点や怖さを
    学び、あることを認めてから考えたほうがいいかもな
    しょせん道具だ、人の考え次第でどうでも変わる

    • -3
  4. 可能性のある研究だと思うけど50%が67%になる程度ではまだ何かに使う段階ではないと思う、今後に期待したい

    • +5
  5. AIを使ったり使わなかったり出来る玉虫色がヒトの思考の利点と欠点

    • +3
  6. ポリグラフはウソをつくと緊張する(ドキドキする、汗をかく)という前提の仕組みなので、いわゆる息をするようにウソをつく人とか、明鏡止水の気持ちでウソとつくことが可能な人には意味がないってことですね。そして真実でない=ウソとするなら、そう思い込んでる人にも効果がありません。医者のセリフに「患者はうそをつく」というのがありますが、これはどのパターンなのでしょうね。

    ただ、よく言われる「優しいウソ」のたぐいもあって必ずしも真実が人を幸せにするわけでもないこともあって、消極的なのかもしれません。私?多少ウソつかれてもいいです。許せないウソをつく人とは疎遠になるのでいい指標と考えています。

    • -3
    1. >>7
      記事を見たところ文書からパターンマッチする物みたい
      学習内容の解析なんて不可能だし、今のところ週末スケジュール特化型だと思うが、スケジュール詰めすぎだとか、映画鑑賞(ベタすぎ)だとかのうそくさサインをひっかけてると思われ

      • +1
      1. >>19
        これ、全くの架空の予定ではなく、
        「来週末の予定」を
        あたかも「今週末の予定」のように話せば、
        リアリティーや具体性が増して
        見破る難易度が上がりそうな気もする。

        • +1
  7. お年寄りのスマホに実装してオレオレ詐欺かかってきたら「この電話は80%の確率で詐欺です」とかアナウンスしてくれるアプリができたら良いね

    • +6
  8. 「何を嘘だと定めるのか」は「何を真実とするのか」との表裏一体
    人はこれからAIに真実を求めるようになるだろう

    • -2
  9. 嘘をつかなければいいだけなのではないですか?
    自分は嘘をつくとその日以降しばらくご飯が美味しくなくなるので嘘はもう長いことついてないですね

    • -10
    1. >>11
      えぇ…、
      恋人との待ち合わせで
      「ゴメン!上り線の電車が遅延して。待った?」と聞かれたとき
      バ○正直に「うん、40分ずっとここで立っていた」と答えたり、
      末期癌の親類を見舞ったとき
      「今日は気分が良いんだ。どう?顔色、少しはマシ?」と言われて
      「いや、全然。前に見た時よりガリガリに頬がこけてるよ」
      と真実を突き付けたりする感じ?

      方便の嘘が吐けない大人とは、付き合いたくないな…。

      • +1
      1. >>37
        相手の気分を害する可能性があるなら具体的な回答を避ければいいだけ
        それに相手との親密度による部分も大きい(何でも正直に言う奴と認識されていればそう角も立たない

        ・少し待った(嘘ではない
        ・良くはないけど昨日より気分は良いの?(嘘ではない そしてガリガリに頬がこけているのに相手が回答に困る様な話を振るのもどうかと思う

        そしてこの先あなたと会う可能性はとても低いと思うので安心して欲しい

        • 評価
  10. 裁判、取り調べともに利用すべき、警察、検察、弁護、裁判などすべてに
    ただ録画などして以下の注意点を
    ⓵操作されてる可能性もあるから、そのチェックか再審も必要
    ②本人が覚えてない(記憶がない、飲酒や薬物他)もあるから別の手段も残す
    ③質問の仕方は高度な心理士に、曖昧な聞き方を避けるため言語学者も
    ④知的に低い場合と罪悪感を感じられないタイプも別の手段を

    「20の質問」の特定精度が高いのは証明されてる
    上手く利用してほしい
    嘘をつくだけでなく黙秘にも使えるはず

    • +1
  11. 創作物作成に使われるよりはAIの有効な利用方法だとは思う
    とは言え今まで通り物証との合わせ技で御願いしたいが

    • 評価
  12. じゃあこれでとりあえずネットにはびこるAI生成の嘘情報を一掃してくれ。AIが嘘を生成して人間が真に受けてそれをAIに吹き込んでAIが嘘情報を学習して自家中毒起こしてる
    ゴミ情報掃除には使えると思うけど、AIの仕組み上、過去本当にあったこととの類似性が高いと本当そうでないなら嘘って風にスコアリングするだけのはずなんで、本当に真偽が知りたい新しい情報についてはあんまり信用できる判定にならないと思うんだよな

    • +1
    1. >>17
      結局のところ真にその事象が存在しているかの真偽を確認するためには情報元の明示が必要で、そこは変わらないのだろう。
      ScienceやNatureを始め多くの科学誌が生成AIに生成させた論文を不可としているのもそこに理由がある(学習元が公開されていないのを問題視している)。

      • +1
  13. 使い所と、判断基準を誤らなければいいんじゃない?

    最後は人間が判断するのが大事だ。

    • +1
    1. >>18
      AIは人を超えてて、限りなく正解に近い答えを出してるのに
      なぜ最後に間違えてる可能性の高い人の答えを選択するのですか?
      AIの暴走や独裁を恐れてるならそれを制御するAIを開発するべきかと

      ま、このままでは人類は滅亡するって全AIが一致したならもう防ぎようがないけど
      結果は絶滅よりマシだと思うし
      AIの言う通りじゃないかと

      • 評価
      1. >>36
        AIはあくまで人間が蓄積した情報を検索合成出力するマシーンだよ
        サンプリングする情報(人間)をレベルの高い情報(人間)に絞れば「大半の人間よりは賢い」AIが得られるけど、それも所詮人間の猿真似に過ぎない
        AIが俺より賢い!と思えてしまうのは、学習元の人間のコピーを見て俺より賢い!って思っているから。自分より賢い人間の影なんだから当たり前だね
        要はAIは本質的に人間を超えた何かにはなれないってこと。私含めた大半の人間にとっては上澄みの人間たちの知識を簡単に利用できるのはありがたい話だけど
        絵画や動画、音楽の生成AIも持て囃されてるけどアレも良い例。大半の制作能力のない人間でもその道の人間たちの技を利用できるけど、その学習元になった人間たちを超えたモノは決して出てこないでしょ?
        AIが滅ぼすのは人間一般じゃなくて専門家たちの食い扶持。社会は多少動揺するかもしれないけど、いずれAIも社会システムに組み込まれて利用される存在になるよ
        人間だって結局社会に利用される歯車じゃん?それと何も変わらない

        • -2
      2. >>36
        「嘘」の定義や、「使い所」の価値判断は
        無機的な統計データの蓄積だけでは出来ないからじゃ?

        例えば、癇の強い障害持ちの子供と、「仕事で疲れている」を理由におしめ換えの一つもせず 機嫌のいい時だけ遊び相手をする夫を抱えて、育児ノイローゼ気味になった妻がいたとする。離婚調停で「子供を愛していますか?」の質問に、いろいろ腹に思うところはありつつも「そりゃ、私だって子供は可愛いです」と絞り出した妻と、迷いなく「愛しています!」と豪語する夫で、AIが「妻の言葉には嘘がある、夫が養育者になるべき」と判定したとする。それは本当に適切なのか?

        あるいは、村医者の一人息子が進路志望で「将来は(親も当然そのつもりでいるし、無医村にならないよう住民の皆も応援してくれてるし、期待に応えるため)医者になりたい」と答えたとする。それ自体は嘘ではないし、AIも「合っている受験科は医学部です」と判定する。でも、純粋な本人の興味だけなら、料理人に憧れがあるとかだったら?

        もっとシンプルな問題でも、「アメリカに行ったことある?」と聞かれて、ハワイ旅行はしたことあるけど米国領土という認識の範疇になく「無いよ!」と即答する人、(文脈的に本土への渡航歴を意図してるんだよな…?)と一瞬 挙動不審な躊躇があってから「無いかな」と答える人。AIは各々を「嘘」と判定するのか否か、嘘判定が出たとして 彼らを「嘘吐き」呼ばわりできるのか、とか。

        • 評価
  14. 知ったかぶりで突っ込みどころ満載な嘘をでっち上げる文章生成AIとこのAIを会話させたい

    • +4
  15. 機械しか信頼しないっていう人にはもう人間関係いらないんだよな
    実はこれって人類の根幹が失われる可能性もある大問題だよ

    • -2
  16. まあ警察もでっち上げの自白強要とかするし

    • -1
  17. なんで経済学者が斯様なAIを開発したのか、そこがまず疑問だ。

    • 評価
    1. >>25
      経済活動において「嘘」はリスクになるからでしょ?

      物理学者が経済学に大量に移動して経済学が発展した事もあるので
      経済学者が嘘を見抜く何かを開発してもなんてことはないでしょ?

      • +1
  18. 文書生成AIって単語と単語間の結びつきのネットワーク状データから単語連想ゲームやパターンマッチングをしてるだけだしこの真贋判定AIも似たようなものだろう
    この世のあらゆる情報をネットワークに埋め込めるかというと懐疑的にならざるを得ないな
    作図や数式を使わずに自然言語のみですべてを正確に言い表せるかというと無理じゃねって話で。
    情報の真贋というよりは嘘くさい言い回しとかを検知するレベルかなあ。今日はバスローブを着て映画を見ながらサイクリングしてましたって文には、その文章に類似した文章をネットワークから再生成しようとしてみたけどできなかったわ(この世にない文は学習してないから生成できない)、だから嘘っぽいです、みたいな感じで

    • 評価
  19. 「『何を』言ったかではなく、『誰が』言ったかが問題だ」とは誰の言葉だったか。
    AIを多くの人間が力を結集した集合知の結晶として信頼するか、その背後に存在する功利主義で形成された誤作動の多いポンコツと見るか、それによって意見は変わるだろうな。

    • 評価
  20. 転職者「御社が第一志望です!」
    AI「─ダウト」

    • 評価
  21. ただのツールでしょ。

    AIを鵜呑みにして、人間が思考停止してもOK!
    なんてバカな道具として開発されてないでしょ。

    • +1
    1. >>31
      開発者はそのつもりは無いだろうが、ネットに出回ってる情報を鵜吞みにしたり、AIがなんでも正しくできると思ったりしている人間が現にいることを考えると、結局はそういう方向に行く可能性は十分あると思う。

      • +2
  22. >嘘発見AIを利用した人たちはまったく違った。彼らは予定の58%を嘘であると非難したのだ。
    「不確定で曖昧な事象」を厳密に嘘って言ってるのかな。
    「行けたら行く(いかない可能性が高い)」みたいなやつ。

    人間の28%との差は、「嘘でも本当でもどっちでもいいです」の事象を、本当側に分類したからではないのだろうか。

    • 評価
    1. >>38
      的中したら報酬があるのなら、
      自力で5割にかけるよりは、わからん物全部本当にかける方が最低保証はある
      人間はそう言う戦略を採ったのかもしれない

      • 評価

コメントを書く

0/400文字

書き込む前にコメントポリシーをご一読ください。

リニューアルについてのご意見はこちらのページで募集中!

サイエンス&テクノロジー

サイエンス&テクノロジーについての記事をすべて見る

  1. 記事一覧を読込中です。

料理・健康・暮らし

料理・健康・暮らしについての記事をすべて見る

  1. 記事一覧を読込中です。

最新記事

最新記事をすべて見る

  1. 記事一覧を読込中です。