メインコンテンツにスキップ

2023年は1万本以上の研究論文が撤回され過去最高を記録

記事の本文にスキップ

9件のコメントを見る

(著) (編集)

公開:

この画像を大きなサイズで見る
Advertisement

 2023年、今年は1万本以上の学術研究論文が撤回され、科学出版界にとって最悪の年になったそうだ。

 『Nature』(2023年12月12日付)による最近の調査によると、2023年に撤回された論文の数は過去最高を記録したという。

 とりわけ多かったのが、サウジアラビア、パキスタン、ロシア、中国といった国から発表されたものだ。

 これは正当ではない論文の投稿が増えているということで憂慮すべき事態だ。

 だが一方で、撤回された論文が多いという事は、科学出版界がこの問題をきちんと認識し、その防止のために尽力していると考えることもできる。

研究論文を発行する学術誌の苦悩

 撤回された研究論文の多くは、200年の歴史を持つ老舗出版社ワイリー社の子会社「Hindawi(ヒンダウィ出版社)」が所有する学術誌からのものだ。

 同社は今年、査読プロセス上の問題と考えられる行為を理由に、一度は発表された8000本以上の論文を撤回した。

 こうした調査は、関連性のない参考文献の引用や、支離滅裂な文章などが数多くの論文に見られることに懸念した、社内編集者などによってうながされたものだ。

 これについてヒンダウィ出版社は次のように述べている。

ダイナミックな学術出版の世界において、研究者たちは、論文を発表しなければというプレッシャーと、組織的な操作や不正行為に対する学会の脆弱性との間で苦闘しています。

オープンアクセス環境の中心的存在として、私たちは深刻な混乱に直面しています。論文を大量に撤回しているのは、そのような研究の品位にまつわる課題に対応するためです

 ヒンダウィ出版社の問題のひとつは、特集号に依存していることだ。

 特集号は、外部のゲスト編集者によって監修されることが多い。そのため、フェイク論文を出版するために、ゲスト編集者になりすました詐欺師たちが集まってくるのだ。

 また、こうした問題はヒンダウィ出版社に限ったことではなく、すべての学術出版社が直面することであり、それにどう対応するかは業界全体の課題だ。

この画像を大きなサイズで見る
photo by iStock

撤回率は10年で3倍に、背景に悪質な代筆業者の存在

 今回の分析によれば、撤回率(ある年に発表された論文のうち、撤回された論文の割合)は過去10年間で3倍以上。2022年には0.2%を超えていた。

 国別に見てみると、撤回率がもっとも高いのは、サウジアラビアで、論文1万本あたり30本が撤回されている。

 学会で発表された論文まで含めると、電気電子学会(IEEE)の撤回論文の多さが響き、中国がトップ。撤回率は1万本あたり30本を超える。

 IEEEは、不正論文を発見するために予防策をこうじており、それはおおむね機能していると説明している。実際、IEEEの調査では、60本弱が出版基準に達しておらず、うち39本が撤回されている。

 一方、今回の調査によれば、IEEEで発表された過去数年の論文数百本の中に、「ねじ曲げられた言い回し、引用の不正、盗用」などの問題が見られたという。

 だとするなら、問題が発覚して撤回される論文は、氷山の一角である可能性もある。

 そして、こうしたフェイク論文が大量に増えている背景の一つには、偽の著作物や著者を販売する代筆業者(ペーパーミルという)の存在があるという。

 フェイク論文や怪しい著者が増えているという事態は、憂慮すべきことだ。だがそれは同時に、こうした不正を見つけ出す出版社の役割がきちんと機能しているとも考えられる。

 学術出版社は、不正が起こりうることを認識している。それを調べるためにきちんと検証もするし、基準を満たさないものを却下することも厭わない。

 こうした姿勢は、正直さと誠実さを評価するシステムがまだ存在するという証左だろう。

 AIの登場によって、いくらでも巧妙な文章を生成できるようになった現在、私たちは公開されている情報が必ずしも正しいわけではないということを肝に銘じておくことも必要であるようだ。

この画像を大きなサイズで見る
photo by iStock

AIにもハルシネーション(幻覚)問題が

 そしてまたAIも「ハルシネーション」という問題をはらんでいる。

 ハルシネーション(幻覚)とは、AIがデータや学習経験に基づかない、事実に基づかない情報を自信ありげに堂々と生成することだ。

 これは、AIが訓練中に接したデータの偏りや、データセット内の特定のパターンの誤解によって発生する。

 AIを安全に、そして効果的に活用するためには、AIのハルシネーションの発生を抑制するための対策を講じることが重要となる。

References:More than 10,000 research papers were retracted in 2023 — a new record / 10,000 Research Papers Were Retracted In 2023, Breaking Annual Records | IFLScience / written by hiroching / edited by / parumo

📌 広告の下にスタッフ厳選「あわせて読みたい」を掲載中

この記事へのコメント 9件

コメントを書く

  1. 出世の評価基準が論文数というところが問題点でもあるんじゃないかな
    数を出せば出世できるんだから

    • +16
  2. こう言うのが多い国、なんて知られると丸ごと信用されなくなるのにね
    国が対策しないと何も変わらないぞ

    • +10
  3. AIによって論文も量産されるように成るだろうし、もう論文という形態自体がオワコンになるのかもね
    今後はまた2世紀ほど前のように、公開実験で人の目の前で研究結果を証明できないといけなくなるかも

    • 評価
  4. 論文も書けないような奴が大学に居座ってんじゃねぇよ

    • +1
  5. どうしても自国の手柄にしたい国が大量に論文を出して、網をすり抜けてしまった論文をまた参考文献にして、まことしやかに「我が国が一番」みたいなていを築かれたりして。それをウリにして「このジャンルは我が国が世界に誇れる」みたいな事でビジネスに乗り出し、結果的に大儲けはしても、世界中で不具合が起き信用を失くすかと思いきや、ビックマネーで小国をねじ伏せるみたいな気持ち悪い構図が考えられる。

    あくまで個人的妄想です。

    • +6
  6. Xのコミュノートみたいに関係者すべてが事実に基づいたツッコみを入れられるようにしたら、1万じゃきかないかも。編集者も大変だな。

    • +2
  7. 「偽の著作物や著者を販売」が成り立つ程度にはお金払う研究者がいるってヤベーな。学生なのか学士なのかで変わって来るな。ペーパーミルって言うんだね。覚えておこう。

    • 評価
  8. AIのハルシネーションか…ゲームの攻略法とか解説とか書かせると絶対効かないって情報しか存在しないはずなのに「○○が効く」みたいな大嘘平然と書いてくることがあるってのは知られてたが
    多分「攻略法っぽい文章を生成する」ために「それっぽい文章に組み立てるため辻褄合わせればなんでもいい」みたいな風にAI作ってるのが問題じゃんじゃないかな
    人間でもそうだけど上辺だけそれっぽく見せかけるんじゃなく「理解して文章を作る」んじゃないとAIは次の段階に発展しない
    発展すれば人間が代筆のために利用するんじゃなく、自発的に研究して論文が書けるAIなんてもの、つまり「本当の意味での人工の知性」が実現すると期待してる

    • 評価

コメントを書く

0/400文字

書き込む前にコメントポリシーをご一読ください。

リニューアルについてのご意見はこちらのページで募集中!

サイエンス&テクノロジー

サイエンス&テクノロジーについての記事をすべて見る

  1. 記事一覧を読込中です。

知る

知るについての記事をすべて見る

  1. 記事一覧を読込中です。

最新記事

最新記事をすべて見る

  1. 記事一覧を読込中です。