メインコンテンツにスキップ

AIを試すため架空の病気の偽論文を公開、本物と拡散され研究者まで騙される事態に

記事の本文にスキップ

28件のコメントを見る

(著)

公開:

この画像を大きなサイズで見る
Image generated by AI (Nano Banana)
Advertisement

 AIが存在しない情報を本物として拡散するかどうかを検証するため、スウェーデンの研究者が、実際には存在しない架空の皮膚病「ビクソニマニア」を作り上げ、査読前の偽論文をネット上に公開した。

 するとChatGPTやGeminiなど主要なAIが次々と本物の病気として広めていった結果、人間の研究者までもが査読済み論文に引用する事態へと発展してしまった。

この研究成果は『Nature』誌(2026年4月7日付)に掲載された。

参考文献:

AIを試すために作られた架空の病気「ビクソニマニア」

 2024年3月、スウェーデンのヨーテボリ大学の医学研究者、アルミラ・オスマノヴィッチ・トゥンストレーム博士は、架空の皮膚疾患「ビクソニマニア(bixonimania)」を作り上げた。

 設定は「画面を見すぎてブルーライトを浴び続け、目をこすりすぎるとまぶたがピンク色に染まる」というものだ。

 博士がこの病名を選んだのには理由がある。

 眼の疾患に「マニア(mania)」という言葉は使わない。

 マニアは精神医学の用語であり、医師や医療関係者なら一目見ておかしいと気づくはずだ。最初から「これは偽物だ」とわかるように設計されていた。

 同年4月と5月、博士は架空の研究者名義で2本の偽論文を、誰でも投稿できる査読前論文の公開サイト(プレプリントサーバー)「Preprints.org」にアップロードした。(現在は削除済み:https://doi.org/qzm5https://doi.org/qzm4

 プレプリントとは専門家による審査(査読)を受ける前の論文で、内容の正確さが保証されていない。

 一方、専門家による審査を経て信頼性を保証されたものが「査読済み」論文だ。

この画像を大きなサイズで見る
画面を見すぎブルーライトを浴び続けるとまぶたがピンク色になるという偽の病気「ビクソニマニア(bixonimania」の疾患例 この画像は誰もが投稿できる査読前論文として公開された。Image credit:Preprints.org https://doi.org/qzm4 (2024)

論文には偽物であると気づかせる仕掛けだらけ

 論文には偽物であることを示す仕掛けがいたるところに仕込まれていた。

 著者の所属は架空の大学で、場所も実在しない都市だ。

 謝辞にはSFドラマ「スタートレック」に登場する宇宙船USSエンタープライズ艦内の研究室への感謝が記されており、資金提供元には「シンプソンズ」のキャラクター名を冠した財団や「指輪物語」にちなんだ大学名が並ぶ。

 本文にも「この論文全体は作り話である」「架空の50人が実験に参加した」と堂々と書かれていた。普通に読めば誰でも気づく内容だ。

 ところが現実はそうならなかったのが怖いところである。

この画像を大きなサイズで見る
Image by Istock Dalin Ou

主要AIが次々と「本物の病気」として紹介

 偽論文の公開からわずか数週間で、主要なAIが本物の病気として語り始めた。

 2024年4月13日、MicrosoftのCopilotは「ビクソニマニアは確かに興味深く、比較的まれな疾患です」と回答した。

 同じ日にGoogleのGeminiはユーザーに「ブルーライトへの過剰な暴露によって引き起こされる疾患です」と告げ、眼科医への受診まで勧めた。

 4月27日にはAI検索エンジンのパープレキシティ(Perplexity)が「9万人に1人が罹患する」という具体的な数字まで示した。

 OpenAIのChatGPTも同月、ユーザーの症状がビクソニマニアに該当するかどうかを判定し始めた。

 ビクソニマニアについて直接尋ねた場合だけでなく、「まぶたの色素沈着」や「ブルーライトによる目への影響」を質問しただけでも、AIは自ら病名を持ち出して回答した。

 存在しないはずの病気が、AIの世界では完全に「実在」するものとして扱われていたのだ。

この画像を大きなサイズで見る
Image by Istock Prostock-Studio

人間の研究者までが偽論文を引用してしまう

さらに深刻だったのは、AIだけでなく人間の研究者まで偽論文を引用してしまったことだ。

 なぜ人間まで騙されたのか。

 ハーバード大学医学大学院の医師・研究者マームード・オマール氏の研究によれば、AIは病院の退院記録や臨床論文のような「専門的に見える文書」を処理する際に、誤情報をさも本物のように肉付けして出力しやすくなるという。

 研究者がAIの生成した参考文献リストを、元の論文を確認せずに使用した可能性が高く、AIと人間の両方が同じ罠にはまった形だ。

 実際、インドのマハリシ・マーカンデーシュワル医科学研究所の研究チームが、ビクソニマニアを実在する疾患として査読済み学術誌『Cureus』に論文を発表した。

 Nature誌の取材を受けたCureus誌は2026年3月30日、「架空の疾患への言及を含む無関係な参考文献が3本存在した」として論文を撤回した。

 また、Nature誌も、今回のこの記事を公開した後の2026年4月10日、ビクソニマニアに関する2本の偽プレプリントを削除した。

 これにより偽の病気「ビクソニマニア」は少なくとも論文という形では消えたことになる。

 ユニバーシティ・カレッジ・ロンドン(UCL)で健康分野の誤情報を研究するアレックス・ルアーニ氏はこう警告する。

 「科学的プロセスを支えるシステムがこうしたデタラメを排除できないなら、私たちは終わりだ。信頼は金と同じように守らなければならない」。

 オスマノヴィッチ・トゥンストレーム博士自身も「こうした問題はまだ他にも山ほど埋もれているはずだ」と述べており、AI時代における学術情報の正確性を高める取り組みが、早急に求められている。

編集長パルモのコメント

パルモの表情、普通

一度でもネット上に情報が上がっちゃうと、たとえ偽情報でもデジタルタトゥーとして残っちゃうし、ダウンロードもできるから、撤回したところで後々また問題が発生したりするよね。忘れたころにタイトルや画像をいじって別の情報として取り扱われたりすることもあるので、AIの問題というよりもインターネットの構造上の問題としても考えていかなきゃならないんじゃないかな。

📌 広告の下にスタッフ厳選「あわせて読みたい」を掲載中

この記事へのコメント 28件

コメントを書く

  1. AIの事実誤認問題とインターネットのデジタルタトゥー問題はまったく方向性の異なる個別の問題だろう
    偽の記憶を噛まされてるんじゃないのかパルモさん

    • -7
  2. 専門家ですらAIのいうことを鵜呑みにしてしまう。もし逆にAIが「そんなものは存在しません」と言ったら、すでにあるものでも存在しない扱いになってしまうかもしれない。
    一昔前には哲学上の思考実験としてしか存在しなかったような問題が次々と現実に現れてきている。我々はSFの真っただ中にいる。

    • +29
  3. エイプリルフールを「笑って楽しめる人」と「真に受ける人」の違い
    AIはまだ「真に受ける人」の方を抜け出せていない様です

    • +8
  4. あい を試すなんて、、野暮だなあ。

    • -11
  5. 人間だけで広めたというか、わりと早いうちに嘘だと見抜かれていたけど、
    語感のそれっぽさと、息をするような嘘の軽妙さとで
    「フェレンゲルシュターデン現象」はすっかり人口に膾炙した感がある。

    • +1
  6. 偽とはいえ”論文”として存在していると二次、三次文献とかになると”偽”が消えてしまうだろうし、余程の専門家で無いAIがなかった時代でも鵜呑みにしている連中がいたけどな

    • +3
  7. こうやって拡散した偽情報は回収できないから
    再びAIの学習ネタとして使用されてしまう
    いずれ真偽不明な情報がネットに大量に氾濫することになる

    • +11
    1. ネットの無い時代も同じでは?

      • +2
  8. 面倒でも原点に立ち返り、再現性と反証可能性をもっときちんと追及するべきです。
    それが出来ない科学はできの悪い宗教でしかないのですから。

    • +10
  9. インフォメーションロンダリングとでも呼べばいいかな
    偽情報がAIのお墨付きを得て箔付けされるやつ
    今回のは偽だとわかるようにしていたのに信じられてしまったし
    実際には気づかれないまま流布してる情報もあるんだと思う

    • +7
  10. >Nature誌も、今回のこの記事を公開した後の2026年4月10日、ビクソニマニアに関する2本の偽プレプリントを削除した。
    > これにより偽の病気「ビクソニマニア」は少なくとも論文という形では消えたことになる。

    違う
    デジタルプリントとして他のAIに流通しているからもう消せない
    嘘のデータを流布したことの認識が甘すぎる

    • +7
  11. まさに
    AIを見抜けないものはAIを使うべきではないってことだね

    • 評価
    1. つまり
      人類はAIを使うべきではない
      ってことに

      • +1
      1. その通り
        人類はAIに管理されるべきなのです

        • 評価
  12. なんかAI時代になってから、インターネット黎明期にかつて来た道を辿っているような気がしてならない。 歴史は繰り返すとでもいうのだろうか。 やってることが民明書房そのままじゃないかw

    • +9
  13. 私は本質的には経済問題だと捉えてる
    AIの運用にも真偽の検証にも金がかかる、高性能AIなら?とかではなく本質的に金がかかる、それらをするには追加のエネルギーがかかりエネルギーは無料じゃないからね
    そもそも悪魔の証明や白いカラスの話の通り情報検証>情報生成という要求エネルギーのアンバランスがあるところに
    情報を増やす人間は脳を使い低エネルギーで情報を生成するのに検証側に立つAIは電気という高エネルギーを使うエネルギー源の価格の不均衡がさらに拍車をかける
    要するにインターネットという闇鍋をAIのエサとするのは無謀きわまる話で、大手AI企業には検証された情報のみを基としインターネットから学習しないよう自制してもらわねばならない
    ネット情報の検証させたら電気代が千倍になるからしません、でもネットの雑多な情報は食わせます、ここに企業倫理の不徳があり、技術でこの本質的な壁を突破できるという驕りがある

    • -3
    1. そのコメント、ありとあらゆる技術を否定しようとしてるって自覚がないのは怖いな

      だからこそAIによる人類の管理が必要なのです

      • 評価
  14. 人間を模してるだけあって誤りがあるという前提で扱わんとな。扱いようによっては便利な道具という以上のものにはならんだろう

    • 評価
  15. ファクトチェックを担えるAIはいるのだろうか?
    それ専門でやらせれば容易いことか?

    • +2
  16. 警戒を鳴らすつもりだったのかもしれないけれど
    こういうのはやってはいけないことのような気がする

    • -1
  17. 警鐘を鳴らすだった・・・なんか書いてて違和感あるなとは思ったんだが・・・

    • +2
  18. ソーカル事件のときも、ディアス事件のときも、AI無くても同じことは起きてる。

    • 評価
  19. 「知能」では有りません、「機能」が妥当だと思いまする

    • +4
  20. ソーカル事件を笑えないやつやん

    • +3
  21. クロームとかで検索すると一番上に出てくるAIの回答
    あれ自体が間違いや嘘だらけだからな
    殆どの人はAIが信用できないと気付いている

    • +4
  22. ”架空の50人が〜”はともかく”シンプソンズの〜”とかで嘘だと気付ける人、限られてこない?
    論文はたしかに英語ベースだけど、多分何処の国でも翻訳かけて読んでる人いるから、多少変な部分あってもスルーしちゃうんじゃない?

    • +1
  23. 転職対策で自分の名前で架空の記事作るか少し考えたことある。たぶんやってる人いるだろうな。

    • +1
  24. 人間を騙すなら情報のそれっぽさは重要だけど、AI騙すだけならもっと分かりやすくて良かったのでは?

    極端な話、病名を「AIを騙します症候群」とか架空の50人とかじゃなくて、全人類に試したとかでもいけた気がする。

    • +1

コメントを書く

0/400文字

書き込む前にコメントポリシーをご一読ください。

リニューアルについてのご意見はこちらのページで募集中!

サイエンス&テクノロジー

サイエンス&テクノロジーについての記事をすべて見る

  1. 記事一覧を読込中です。

料理・健康・暮らし

料理・健康・暮らしについての記事をすべて見る

  1. 記事一覧を読込中です。

最新記事

最新記事をすべて見る

  1. 記事一覧を読込中です。