メインコンテンツにスキップ

AI画像合成技術で自分の顔を使用され、アダルトビデオに出演させられてしまうサイトに専門家が警鐘

記事の本文にスキップ

43件のコメントを見る

(著) (編集)

公開:

この画像を大きなサイズで見る
Advertisement

 人工知能は素晴らしい可能性を示すとともに、人間のダークサイドをも暴き出している。例えば「ディープフェイク(画像合成技術)」は、機械学習を通じて、画像や動画に本来写っていないものを合成することができる。

 これを使えば誰でも簡単にフェイク動画や画像を作成できてしまう。最近このディープフェイクを利用して、懸念すべきサイトが登場したという。

 『MIT Technology Review』によると、そのサイトでは顔写真をアップロードすることで、その人を勝手にアダルトビデオに出演させることができるのだ。

 それがダウンロードされて拡散されれば、とんだ風評被害を作りかねないとして大いに懸念されている。

ディープフェイクを悪用したサイトが登場

 問題のサイトは、事態の拡大を防止するために、ただ「Y」とだけ紹介されている。その存在は、ディープフェイクの研究者であるヘンリー・アジャー氏が発見し、情報提供したことで明らかになった。

 「Y」にアクセスすると、シンプルな白い背景と青いボタンが表示され、顔の画像をアップロードするよううながされる。

 画像をアップすると、その顔を合成することができるアダルトビデオのライブラリが提示され、いずれかを選択するとプレビューが表示される。

 それが気に入ったのなら、あとは料金を支払う。すると完全版をダウンロードできるようになり、顔写真の人物が出演するアダルトビデオを視聴できる。

この画像を大きなサイズで見る
photo by Pixabay

 「Y」の説明によれば、同サイトは「性的な妄想を探究するための安全で責任あるツール」であるという。アップロードする顔写真は自分自身のものにするよう推奨してもいる。

 しかしその気になれば、いくらでも他人の写真を利用することができ、コメント欄を見る限り、実際にそうしているユーザーもいるらしいという。

心の傷だけでは済まされない。風評被害で職を失った人も

 合成した結果は完璧なものではなく、角度によって顔が揺れたり、歪んでいたりと不自然だ。

 それでも勝手に出演させられた女性たちが受けるダメージは甚大だ。それは心の傷ばかりでなく、実生活に影響することもある。

 教師だったある女性は、自分が知らないところでアダルトビデオに出演させられ、それがSNSで拡散されたことが原因で、学校から注意喚起され、ついには失職してしまったという。

 同じく被害に遭ったことで、ネット上で激しい嫌がらせを受けるようになったという女性もいる。彼女は仕事を続けるために、ネットでの活動を控えなければならなくなってしまった。

 厄介なことに、こうした動画が一度ネットに流れてしまえば、デジタルタトゥーとなり、それを完全に削除することは困難だ。1つのサイトで削除したとしても、また別のところで公開されるからだ。

この画像を大きなサイズで見る
photo by iStock

男性もまた危険

 こうした危険は女性だけに限ったものではない。「Y」が扱うアダルトビデオの大半は女性が出演するものだが、中には同性愛の男性が出演するものもある。もしそこに勝手に写真をアップロードされてしまったら?

 ちなみに世界には71か国も同性愛が犯罪である国があり、そのうち11か国では死刑になることもある。自分にまったく身に覚えのないことで処刑される恐れすらあるということだ。

危険なサイト撲滅のために

 アジャー氏が「Y」に何度もコンタクトを取った結果、同サイトはひとまず閉鎖されたという。しかしこれで問題が解決されたわけではない。同じようなことを試みているらしいサイトがすでに出現しているからだ。

 こうしたサイトを撲滅するためには、SNSから追放するだけでなく、その作成や利用を違法とする必要があるだろうとアジャー氏は述べている。

References:A horrifying new AI app swaps women into porn videos with a click | MIT Technology Review / written by hiroching / edited by parumo

📌 広告の下にスタッフ厳選「あわせて読みたい」を掲載中

この記事へのコメント 43件

コメントを書く

  1. 日本でも芸能人の顔を合成して販売してたやつ逮捕されてたな
    映像見たけど違和感しかなかった

    • +10
    1. >>1 私もそれ連想した
      日本も他人事じゃないよね

      • +8
  2. AIの技術を使えば某先輩の出演作品を作りたい放題ってことか。

    • -7
  3. 丁度数日前にナショナルジオグラフィックのツイートでこれに関する書籍が発売されますよってのを見たばっかだからタイムリーな話題だ。
    「ディープフェイク ニセ情報の拡散者たち」ってタイトル。

    • +13
  4. 未完の漫画の続編を自動製作する
    くらい賢くなってくれ。
    ヒロインが大理石のテーブルで
    頭を強打した所で止まっている漫画の
    続きを待っているんだ…。

    • +6
  5. >これを使えば誰でも簡単にフェイク動画や画像を作成できてしまう

    画像から簡単にフェイク動画を作成するのは、今の技術では不可能やで

    莫大な金かけて、映画の3Dセットと同じことせにゃならんからな

    • -5
    1. ※5
      短時間ですがFaceappのような無料アプリがはやってますがかなり高性能なので有料ならできそう

      • 評価
    2. ※5
      今はまだ時間とハードウェアと手間がかかるけど、そう遠くない未来に可能になると思いますよ。オッサンが美女になってる動画とかあるでしょ?
      顔を他人に見られないように ※11 のいうようなことにならんとも限りませんわ。

      ※20
      気持ちはわかるけど「男たち」というような一般化はちょっと広げすぎじゃない?少なくとも私の周りの男たちはそこまでひどくないように思いますけど。

      • 評価
    3. ※5
      そんなことない
      Deep Fakeのコードは公開されてるので知識があれば誰でも利用できる
      実際、YouTubeには個人が作ったDeep Fakeがいくつも公開されているし、
      あまりにもクオリティが高くて元ネタの映画会社からオファーが来た人もいる

      • +3
    4. >>5
      画像からだけじゃなく映像も素材として与えるみたいだよ。

      • +1
  6. こわい話。
    今はポルノだけの直接的なビジネスに繋がっているけど、分野を越えれば間接的なやり方でいろいろと応用できるね。リテラシーが低いと大変。

    • +17
    1. >>6
      政治家がメチャクチャな事言ってるの捏造して扇動に使ったりとかね…
      悪用が怖い

      • +14
      1. ※14
        去年のクリスマス、イギリスで
        フェイク動画に騙されないよう呼びかける啓発のために、
        わざと エリザベス女王が毒舌ブラックユーモアで
        一年の出来事を振り返る演説や、果ては 執務机に登り
        お尻フリフリでキレッキレのダンスを披露するシーンを流す番組が
        ディープフェイクで制作されたりした。

        • +9
      2. >>14
        これについては、既に亡くなられている有名人を使って、特定候補を口撃するCMを作って流してたよな、前回の大統領選挙で

        • +2
      3. >>14
        さらに実際の映像を「あれはディープフェイクの捏造だ」って主張したり…
        情報社会の信頼性にすら関わってくるかも

        • +9
      4. ※14
        前回のアメリカ大統領選挙であったね。
        候補者の顔と声を合成して、過激な発言をさせるやつ。
        スマホのサイズで短い動画だと違和感なて気付きにくい。

        • 評価
      5. ※14
        マサチューセッツ工科大学のAI研究チームが、
        『アポロ11号の月面着陸失敗&アームストロング船長らの死を
        神妙な面持ちで国民に伝えるニクソン大統領』の演説を
        試作公表したりもしていた。

        演説の文面自体は
        失敗した場合に備えて実際に用意されていた原稿だそうで、
        「運命は、(帰還予定だった)男たちの安住の地を 月と定めた」
        「彼らは、家族・友人に悼まれ、祖国に悼まれ、世界に悼まれ、
         未知の地へと 2人の息子達を敢えて送り出した
         母なる地球に悼まれるだろう」
        「古代、人類は星座に英雄の姿を見た。
         今また我々も同じように、夜空に英雄の姿を見上げる。
         その英雄は、生身の血と肉の通った勇敢な男たちだった」
        「犠牲の先に人類の希望があることを、彼らは知っている。
         尊い遺志を受け継ぎ、人類は決して探索の歩みを止めない」
        とか、いちいち言い回しが荘厳かつ美麗で、
        事実を知らなければ本物の歴史的ニュースフィルムっぽい。

        • +1
  7. AI技術は速く進化するだろう。今は違和感のある動画しか作れなくても、1年後には違和感が分からないものになる可能性がある。自撮りをたくさんアップしている人は、それだけディープフェイクの材料をたくさん提供する事になる。人の恨みは買わないようにするしかない。

    • +11
  8. この件だけじゃなく
    技術に法律が追いついてないよな
    ネット上でも悪いことをしたらしっかりと罰を受けるべきだ

    • +16
  9. 10年後‥
    外出の際、男女ともにブルカを切ることが日常となった‥

    となるのか?

    • -2
  10. ただ気持ち悪い
    二次元の同人誌はキャラクターが実在しない分まだいいが
    こっちは確実に被害に合う人がいるわけで全く安全じゃないだろう
    記事には男性も被害に合う可能性があると表記してるようにこれ開発した当人は自分が今晩のおかずにされる可能性を考えたこと無いのかね

    • +18
    1. >>12
      おかずにされるだけでも気持ち悪いのに人間関係、社会生活への影響が害悪過ぎる
      世の中真偽の知れない噂やデマすら信じ込む人がいるんだから、本人が幾ら否定しても裁判起こしても元通りとはいかんだろうし

      • +8
  11. 恐らく映像だけでなく音声もそうなるだろう
    ボカロの技術を応用すれば、自分の話し声を再構成して、
    自分が話した覚えのないウソの発言をでっち上げられたりとか

    • +16
    1. >>13
      もう、ある程度の音声データからその人の声を再現できる技術あるみたいね

      • +4
  12. 電話とかも本人の声に聞こえるけどデジタル音声らしいしな。顔も声も一緒にされたら信用してもらえるのかわからんね

    • 評価
    1. >>16
      らしいも何もアナログの波形をデジタルに変換してんだからw

      • -1
    2. ※16
      固定電話と携帯電話で仕組みが違う。

      固定電話は、実際の音声の波形をそのまま電線に乗せて送るから
      多少粗くはなっても、本人の声に準拠した音が再現される。
      言うなれば、手書き文字を絵としてスキャンし、画像ファイルで
      特殊な癖もそのまま送る感じ? データ容量は大きくなるけど。

      携帯電話は、予め数千種類 用意してある声のカタログの中から
      この人の声は何番に近いな、と判断して当てはめ
      聞き手側のスマホへ「何番の音質で再現して」と指示を送って
      会話の発音内容をそのコードブックの声質で合成して再生する。
      言うなれば、手書き文字をスキャンして「このフォントに近い」
      と判定し、筆記内容も各文字をJISコードとかで判読して、
      受信先で 指定フォントで文字起こしされた文章を表示する感じ?
      こっちの方が、通信データ量の節約になる。

      スマホの「ハイブリッド符号化方式」でも、
      声質のストックは数千種類あるそうだから
      概ね本人の声の印象に近似した再現はできるんだろうけど、
      独特の甲高いキンキン声の知人が普通の高めな通話声になっていて「? これオレオレ詐欺じゃなくて本人?」と思ったことがある。

      • +2
  13. 最近若い子の間で流行ってるface playってアプリ、中国美女(健全な動画)と自分の顔を合成するってやつを思い出して戦慄した。無防備にそういう技術者のテストに協力しているかもしれないんだよね

    • +12
  14. 規制するしかないね。規制するなと騒ぐけど、男たちにモラルないんだから法律で規制するしかない

    • +4
  15. 逮捕されて有罪判決が下りても、執行猶予付きで罰金100万円程度じゃ全然ダメじゃん。
    抑止力として法律が全く機能してないから、被害にあったら個人的に報復するしかないな。

    • +2
  16. この技術がもっと完璧な物に進化していったら・・・

    未来の世界では「証拠映像」って奴が証拠にならなく
    なるかもしれないね・・・

    • +13
  17. 何処かのエ□イザさんみたく、本物の映像までフェイクと言い訳できる。
    UFO映像みたく偽物が出回れば、本物まで偽物扱いされて、存在を誤魔化せる。

    • -3
  18. こんなもん、更に技術が進めば犯罪の偽証拠映像や偽証言が作り放題じゃん
    怖い…
    自撮りとかでネットにアップしてた画像とかが使われたら…

    • +1
  19. 某サイトに一時期、ディープフェイクを使った動画が大量に上がったことがあった。見てみたらなんかマスクしてるみたいで違和感あったけど、この違和感がなくなるのも時間の問題だろうな、って感じの完成度だった。

    既存の流通経路に乗ったポルノの顔を挿げ替えるだけならたぶん、完成度が上がったところで看破する手立てはあるけれど、アングラな映像を使われたら鑑定はものすごく難しくなるし、いずれ「もとの映像」を必要としなくなることも考えられる。

    視覚媒体との付き合い方について真剣に考えたほうがよいと思う。

    • +6
  20. この手のものは一度登場したらなくなることは絶対にないから、拒絶以外のやり方を考えたほうがいい。

    • +2
  21. 金になると認知されれば、必ず出てくる。いずれ日本でも出てくるだろうね。
    日本では男尊女卑がいまだに根強く、女性の搾取がいまだに目立つ。
    こうした問題は販売する側だけの問題でまとめて終わりにしてほしくない、購入する側・視聴する側の問題としても追及してほしい。

    • +4
  22. 丸くて可愛いドラ実は
    よくできているね。

    • 評価
  23. 未来の世界では、誰もが外を出る時に被り物を・・・なんてことは当分なさそうだけど「悪用される危険があるので家族以外と写真を撮るのはやめましょう」みたいになったりね。

    • +2
  24. 悪用されない為には、ネットに顔を晒さない事。これほど単純な常識が守れない奴が多いから困り者で、他の人の撮る写真には写りたくない。

    • +1
  25. SNSで発信してるやつって、まじでアホだと思うわ。

    • 評価

コメントを書く

0/400文字

書き込む前にコメントポリシーをご一読ください。

リニューアルについてのご意見はこちらのページで募集中!

サイエンス&テクノロジー

サイエンス&テクノロジーについての記事をすべて見る

  1. 記事一覧を読込中です。

料理・健康・暮らし

料理・健康・暮らしについての記事をすべて見る

  1. 記事一覧を読込中です。

最新記事

最新記事をすべて見る

  1. 記事一覧を読込中です。