メインコンテンツにスキップ

もう見抜けない、最先端のAIディープフェイク動画は心臓の鼓動まで再現、判別が困難に

記事の本文にスキップ

12件のコメントを見る

(著) (編集)

公開:

この画像を大きなサイズで見る
Photo by:iStock
Advertisement

 本人そっくりに合成されたディープフェイク動画はますます巧妙となり、最先端のモデルは心臓の動きすらも再現してしまうという。

 心臓の鼓動によって生じる顔色のわずかな変化すら模倣してしまうのだ。

 あまりにもリアルすぎて、ディープフェイクを見破るために開発された専用の検出ツールも騙されてしまうそうだ。

 高度なディープフェイク検出器は、心拍にともなう皮膚下の微細な色の変化を手がかりに真偽を判定する。ところがドイツの研究チームの実験では、先端のディープフェイクモデルはそれすら再現し、検出器の目を欺くことが確認されたのだ。

ディープフェイク技術の進化と恐ろしさ

 「ディープフェイク」とは、悪意を持ってディープラーニング(深層学習)を利用し、偽画像や偽音声を作り出すAI技術の総称で、その名は「ディープラーニング」と「フェイク(偽物)」にちなんでいる。

 写真の偽造などは、ディープフェイクの登場以前から繰り返し行われ、プロパガンダなどに利用されてきた。

 だがディープフェイクは見破りにくさの点でも、簡単に合成できるという点でも、従来の写真加工技術とは一線を画すものだ。

 アプリ1つで偽の発言や映像が容易に作れるために、政治的ななりすましや詐欺、さらには性的被害といった深刻な問題が実際に起こるようになっている。

 くわえて本物の映像や音声ですらディープフェイクと疑われ、証拠としての信頼性が揺らぐ恐れもある。

 真偽を見抜けないほどリアルなディープフェイクは、放置しておけば情報の信憑性を著しく低下させ、社会全体の信頼基盤を崩壊させかねない。

 専門家の中には、ディープフェイクこそAIが人類にもたらす最大の脅威であると考える者もいる。

この画像を大きなサイズで見る

ディープフェイクを見破るための技術

 それでも従来のディープフェイクには、まばたきの不自然さや顔の輪郭の歪み、あるいは横顔を確かめるといった素人にもわかる手がかりがあった。

 さらにディープフェイクであるかどうかを検出するより洗練された方法も登場している。

 その1つが「リモート・フォトプレチスモグラフ(rPPG)」と呼ばれるものだ。

 これは心臓の鼓動によって生じる血管の振動を、ごくわずかな皮膚の色の変化から検出する、本来医療向けの技術だ。

 先端のディープフェイク検出器はこれを利用する。ディープフェイクはそうした皮膚下の繊細な変化まで再現できないとされている。

 そこで、これを手がかりに映像の人間が本物の人間なのか、それとも合成された虚像なのか見破るのだ。

この画像を大きなサイズで見る
Photo by:iStock

最新ディープフェイクは心臓の鼓動まで再現する

 だが今回ドイツ、ベルリン・フンボルト大学のチームが、ますます巧妙になる最新のディープフェイクにもrPPG検出器が通用するのか試したところ、驚愕すべきことが判明した。

 その実験に利用されたrPPG検出器は、従来のディープフェイクならば、ほんの10秒の動画データから嘘であることを正確に見抜くことができる。

 ところが最新の技術で用意された32本のディープフェイク映像は、見事にそれを欺いたのである。rPPG検出器は、まんまと騙されそこに映る人物を本物の人間と判定した。

 研究チームは論文で、この実験で「ディープフェイクがリアルな心拍を表現」していることが実証された述べている。

 論文では、本物の人間の皮膚下に生じる色の変化(シグナルトレースという)と、ディープフェイク動画のものを比較し、両者が非常によく似ていることを伝えている。

 これは最新のディープフェイクツールは、数年前なら不可能だった微細な人体の情報を再現できることを示すものだ。

この画像を大きなサイズで見る
この画像を大きなサイズで見る
image credit:Peter Eisert

欺くAIと見抜くAIのいたちごっこ

 ディープフェイクとそれを見破る技術のイタチごっこは、今この瞬間はディープフェイクに軍配があがっている。だが見破る側が完全に敗北したわけではない。

 たとえば研究チームは、現行の高度なディープフェイクツールがリアルな心拍をシミュレートできる一方、今のところ顔の各部位における血流の空間的・時間的変動を一貫して描写することまでは成功していないと述べている。

 またディープフェイク検出器の中には、人体の生理的特徴のかわりに、ピクセル輝度の変動などより細かいサインから判定するものもある。

 さらにAdobeやGoogleといった大手ハイテク企業は、AIで加工したコンテンツを追跡するために、画像や動画にデジタル透かしを埋め込む技術を開発中だ。

 ディープフェイクとそれを検出する技術の開発競争は今後も続いていく。きっと人間の目にわかる範囲を超えてすらも、いつまでも終わらないことだろう。

 この研究は『Frontiers in Imaging』(2025年4月30日付)に掲載された。

References: High-quality deepfakes have a heart! / Scientists warn deepfakes are about to become undetectable / Deepfakes now come with a realistic heartbeat, making them harder to unmask

📌 広告の下にスタッフ厳選「あわせて読みたい」を掲載中

この記事へのコメント 12件

コメントを書く

  1. AIの危険性はちゃんと認識して、研究して対処法を求め続けるべきだな。
    あれが本当に知性だとしたら、人間同様に嘘もつけば欺くことだってするだろう。
    悪意とか関係なく、そっちの方が都合いいならそう行動起こすのも知性のあり方だし。

    • +14
    1. 現実的に不可能なことは考えるのは無意味
      戦争をなくせと言ってるようなもんだ

      • -12
      1.  本当に不可能なのかはやってみないとわからんと思いますが、どうでしょうかね。 意外なところに突破口があったりとか、人類の英知に期待しすぎかなぁ……
         検出できるってことは、それを模倣することもできるかなと思うといたちごっこは当分続きそうですね。 写真レベルじゃ区別つかないですし、動画でももうダメな世界。 あとは当面は生成コストかなぁ、すぐにカバーできそうですけど。

        • +5
      2. 根拠なく無意味と主張する方が思考停止の無意味だと思うよ

        • +12
        1. すべての情報に電子署名をつけて、
          署名のない情報は捏造とみなす、くらいしかできそうにないね

          • +1
      3. 可能・不可能の二元論で考えるのは愚かやね

        • +5
      4. すぐに無駄とか無意味とか強い言葉使いたがるのやめなよ。

        • +5
  2. アニメ絵に人工音声の日本は平和そのものだな

    • 評価
  3. ウイルスとアンチウイルスとの関係のように相互が影響して複雑なイタチごっこになっていくだろ
    生物の淘汰進化と同じ事がとてつもないスピードで行われてる

    あとは頭脳とのインターフェイスが開発されたらマトリックス電池もすぐに来る未来だな

    • +1
  4. いかがわしいビットコインの広告のディープフェイクは合法をガッポウっていうってるのでまだ愛らしいや…

    • +2
  5. もうやめたらいいのに。
    そもそも何のためにやるのかわからない。

    • +5
  6. 画像生成AIの発達自体が、作成側と評価側のAIに分けて超高速でいたちごっこさせた結果だからね

    • 評価

コメントを書く

0/400文字

書き込む前にコメントポリシーをご一読ください。

リニューアルについてのご意見はこちらのページで募集中!

サイエンス&テクノロジー

サイエンス&テクノロジーについての記事をすべて見る

  1. 記事一覧を読込中です。

料理・健康・暮らし

料理・健康・暮らしについての記事をすべて見る

  1. 記事一覧を読込中です。

最新記事

最新記事をすべて見る

  1. 記事一覧を読込中です。