メインコンテンツにスキップ

AIチャットボットはニュースを正確に要約できない。重大な誤りが多いことが判明

記事の本文にスキップ

31件のコメントを見る

(著) (編集)

公開:

この画像を大きなサイズで見る
Photo by:iStock
Advertisement

 生成AIの一種、チャットボットは、メールやコードの作成、プログラミングや事務処理など、多くの作業を効率化する便利なツールだ。だが、このAIがニュースを正確に伝えられるかという点では、まだ課題が多い。

 「AIは無限の可能性を秘めているが、誤った情報を広めるリスクもある」と、英BBCニュース・時事部門のCEO、デボラ・ターネス氏は、自社が行った調査結果を受けてこう警鐘を鳴らした。

 調査対象となったのはOpenAIの「ChatGPT」、Microsoftの「Copilot」、Googleの「Gemini」、Perplexity AIの「Perplexity」の4種だ。

 いずれも有名なチャットボットだが、それらが手がけたニュースの要約の半数以上に、事実や数字の誤りなど、重大な欠陥が見受けられたという。

AIニュース要約の半数以上に重大な誤りを発見

 今回の調査では、「ChatGPT」「Copilot」「Gemini」「Perplexity」の4種のAIチャットボットにニュース記事100件を要約してもらい、それについて専門知識があるジャーナリストに内容を評価してもらった。

 すると要約の実にに51%のに重大な問題があることが明らかになったという。またAIが引用したBBCニュースの19%で、事実・数字・日付などの間違いが発見された。

 そうした間違いは、たとえば次のようなものだ。

・英国国民保険サービスは禁煙の補助的な手段として電子タバコを推奨していない(実際はしている/Geminiの回答)

・リシ・スナク(英国の元首相)とニコラ・スタージョン(英スコットランド行政府の元首相)は在職中である(実際は辞任している/ChatGPTとCopilotの回答)

・イランは自制的な態度で、イスラエルは攻撃的な行動をとった(PerplexityがBBCニュースの引用として回答したもの。実際のニュースはこのように伝えていない)

 AIチャットボットの要約は誤った事実を伝えるばかりでなく、意見と事実の区別ができず、勝手に編集を行い、しばしば必要な文脈も説明されていなかった。

 さらに全体的に見ると、ChatGPTやPerplexityに比べると、CopilotとGeminiの方がより重大な欠陥を抱えている傾向にあったという。

この画像を大きなサイズで見る
Photo by:iStock

AIのハルシレーション(幻覚問題)

 AIがしれっと嘘をつくことは以前から知られていた。こうした現象を「ハルシネーション(幻覚)」という。

 ハルシネーションが起きる原因の1つは、AIの知性と私たちの知性とが根本的に異なっていることであるようだ。

 シンシナティ大学のアンソニー・チェメロ教授が2023年に語ったところによると、高度な知能を持つといわれるAIは、そもそも言葉を理解していないのだという。

 統計的に次に来る可能性が高い言葉を羅列しているだけで、それが正しいかどうかなど気にもしない。

 また、2025年、スペインのバレンシア人工知能研究所のホセ・エルナンデス・オロヤ教授がWSJに語ったところによると、ハルシネーションが起きる理由は、AIの設計に問題があるという。

 AIは「必ず何か答えること」を目標にして作られており、知らないことでも推測して答えを出すことで精度を向上させるように設計されている。

 それっぽいことを答えなければ正解の確率がゼロになるため、間違っていてもそれっぽい答えを出してしまうのだという。

この画像を大きなサイズで見る
Unsplash / Saradasish Pradhan

メディアはAIとどう付き合うべきなのか?

 今回の調査では、こうした機械のたわごとが最新のAIでも消えていないことが証明されてしまった。

 BBCニュースのデボラ・ターネスCEOはブログで、AIには「無限の可能性」がある一方、これを開発する企業は「火遊びをしている」ようなものと述べている。

 彼女が懸念するのは、こうしたAIによる虚偽情報が、現実世界に大きな被害をもたらすという可能性だ。

 それゆえに、AIによる要約記事を削除するべきだと訴える。実は以前、AppleのAI「Apple Intelligence」が表示するニュースの内容が不正確であるとして、BBCがその掲載をやめさせたことがあるそうだ。

 その一方で、BBCはAI企業と協力する方法も模索してもいる。

 同社はこれまでも「AI企業との新たな対話のきっかけ」を探してきたとのこと。今回AIの問題点が明らかになったわけだが、それでもメディアとAI企業は一丸となって解決策を探せるはずだと、ターネスCEOと述べている。

References: https://www.bbc.com/news/articles/c0m17d8827ko / https://futurism.com/ai-makes-up-answers

📌 広告の下にスタッフ厳選「あわせて読みたい」を掲載中

この記事へのコメント 31件

コメントを書く

  1. 何だかんだ言ってテキストをつなげて合成したものでしかないから
    内容の真実性の保証はない

    • +21
  2. 知ってる。情報出させた後自分で調べたら全然ちゃうやんけ!っての度々あったもの。
    他のAIの記事で割とそういうのあるよ的な事書いたら何故かマイナス付けられたけどなー

    でもまぁどこ調べたらいいかのキッカケ作りには有用かもね。

    • +21
    1. 自分も、いろいろ質問して遊んでいたとき
      「源○○(人名)の主な経歴を教えて」みたいなのを聞いてみたら、
      こんなのWikipediaやその他の日本史解説サイトみたいなのから情報を引き抜いてきて羅列するだけの簡単なお仕事のはずなのに、
      同じ源姓ってだけの全く無関係な人の息子にされてたり、平安時代の人なのに室町時代で活躍したことになっていたり、歌人なのに武将として名を馳せたことになっていたり、「なんでそんな事になるんだ??(べつに同名の他の著名人がいる訳でもないし、それぞれの説明も整一性なく別人の寄せ集めっぽい)」レベルの滅茶苦茶を堂々と書き連ねてあってビビったことがある。

      摂関時代の藤原系の各人なんかも、賛否ある業績についてどういう評価のスタンスで答えるんだろうと思っていたら、それ以前の問題で、誰がどの藤原か混同しまくりで しっちゃかめっちゃかだった。

      • +10
    2. わかる。
      ChatGPTのサービス開始からずっと使ってるけどまじでいい加減。
      そこそこの精度でいいとか、正解がないような質問にしか使えない。
      企画のアイディア出しとかプログラミングとか。

      • +3
  3. Geminiミス目立つのは分かるなあ。あれほんとポンコツ
    書くと長くなっちゃうからあんま言わんけど初めて罵ったAIがGemini。指示を理解しなかったり学習中で回答できなかったり。いらない情報ばっか添付してデキるやつ感出すけどさあ…
    有料版ならまた違うんだろうな多分

    • +2
  4. 奴らが使ってるのは文字でも言葉でもなく、単なる文字コードという番号に過ぎない
    意味も形も音も、何一つ文字を認識していない
    LLMは遠くない未来に必ず頭打ちになる

    • +9
  5. 誤ったデータを与えたらAIが間違った答えを出すのは当たり前

    人間が正しいデータを精査してAIに与えたらAIが間違うことはありえない

    AIがダメなんじゃない
    データがダメなんだよ

    • -21
    1. AIはファクトチェックはしてくれないってこと?

      • +4
      1. AIはファクトチェックとはデータの塁度で信頼性を評価するだけで効果はない

        • -1
    2. > AIが間違うことはありえない
      という人間の錯覚が無くならない限りAIは間違い続けるだろう
      誤謬だらけの人間が作り、保守・運用していくんだもの、信用するほうがどうかしてる

      • 評価
      1. 前段無視して錯覚とか
        あんたは全く文章を理解してねえ

        >人間が正しいデータを精査してAIに与えたらAIが間違うことはありえない

        理解できないの?

        • -8
    3. ニュース記事の要約作業をさせているのに、
      書いてないことや真逆を答えたり
      首脳陣の就退任情報の最新時系列を整理できてなかったりするのは、
      明らかに要約者のポカじゃん。

      • +9
    4. データの意味を理解していないから
      「ずんだどん」の時のように、まるごと引用のほうがましで
      沢山のデータから意味も分からずにつぎはぎしてしまうから
      正しいデータでも全く逆の意味の文章を作ってしまうこともあるってのが問題なんだよ

      • +7
    5. これはAIが学習した知識を元に答えてるわけじゃなくてすでにあるテキストの要約だからRAGに近いでしょ。RAGですら誤りがあるって話。
      データが間違ってるとか正しいとかの話じゃない。根本的な問題。
      (データセットの量は関係あるかもしれないが)

      • +5
      1. 要約が簡単なことだと勘違いしていないか
        要約するための情報はAIが学習したものなんだよ

        • 評価
  6. AIによる〜 の表示が出たときはとりあえずそれを栞にしてネットで調べるなり図書館にいくなりしています ネットの調べものは「電子レンジで温める」くらいの信頼感だと思っています

    • +2
  7. データ・画像解析の分野は医療とか統計で役に立つからどんどん進歩してほしい。
    でも、テキストとか画像の生成は、正直混乱しか生まないと思っている。情報汚染にしかならないと思うので。一体誰得の技術なんだろう。

    • +5
  8. Google NotebookLMはかなり精度高いイメージあるけどどうなんだろ?

    • 評価
  9. 「意見と事実の区別ができない」で、同じ文章を読んでいるのになんでそんな解釈するんだ??と不気味になるSNSとか掲示板のコメントを思い出した。

    逆に言えば、そういう人間の思考を参考にすれば人工知能にも転用できて、どんどん弱点が解消されていくように思う。

    • +2
    1. 生身の人間と直接話しても話が伝わらないことはあるけどそういう時は途方にくれる
      もしかしたらAIに通訳に入ってもらった方が相手の思考回路が見えて疎通がスムースになるかもしれない

      • +4
    2. それやってAIをパンクさせた社長がいてだな…流石にそんじょそこらアレな奴らならそれで良いかもしれないがマジもんのイレギュラー相手だと虐待レベルにパンクすると思う

      • 評価
  10. 人間ですら正確に文章を理解できず伝えられないのだからAIも同様でしょう
    実際にこれだけの人が記事本文を誤読しているようなレスをしている

    • +1
    1. 問題なのは「機械だから正確なはずだ」という思い込みが人間の側にあって、これはなかなか根絶しづらいこと

      テクノロジーの問題はいつだって人間の問題の拡大

      • +6
  11. これ主張してるのがBBCで、ファクトチェックやらAIによる情報収集やらで競合するからポジショントークの可能性十分ある
    AIの言うこともこのBBCのニュースも、どちらも鵜呑みにして頭から信じちゃうのは同じくらい危険性があるよ

    • 評価
  12. もういろいろめんどくさいんでAIの精度を精査するAIを頼む
    でその次にAIの精度を精査するAIを精査するAIを頼む

    • 評価
    1. 画像生成Aiもその手法思いついて爆発的な加速を見せたしな。冗談でもないのかもしれない。

      • 評価
    2. 画像はつながりがある情報で構成されている
      文章は圧縮された情報で構成されている
      画像はそれ自体で訂正可能な情報を持っているのに対し
      文章にはそれがない
      訂正するために情報を集めればいいというわけではない
      情報の正しさを数だけで判断してしまうようなことが
      簡単に起こりうるってこと

      • -1
  13. 「人工知能」ってテーマは簡潔な気もするが
    必然的に知能とは何か??ってテーマに行きあたると いっぺん現行のものを人工「知能」って呼ぶの止めたらどうだや

    • 評価

コメントを書く

0/400文字

書き込む前にコメントポリシーをご一読ください。

リニューアルについてのご意見はこちらのページで募集中!

サイエンス&テクノロジー

サイエンス&テクノロジーについての記事をすべて見る

  1. 記事一覧を読込中です。

知る

知るについての記事をすべて見る

  1. 記事一覧を読込中です。

最新記事

最新記事をすべて見る

  1. 記事一覧を読込中です。