メインコンテンツにスキップ

ついにAIを使った詐欺事件が!娘そっくりの声を合成し身代金請求

記事の本文にスキップ

11件のコメントを見る

(著) (編集)

公開:

この画像を大きなサイズで見る
Advertisement

 いまだにオレオレ詐欺(振り込め詐欺)がはびこっている中、AIを利用することで、より巧妙な犯罪事件が発生している。

 米国アリゾナ州で、AIによる音声合成技術を悪用して、子供の誘拐未遂事件が起きた。危うく騙されかけたその母親によれば、誘拐されたと助けを求める電話の声は、紛れもなく娘のものだったという。

 だが実際はAIが本人の声を合成し、本人そっくりに作り上げたクローン音声だったのだ。

 今、アメリカではこのような音声合成AIを利用した詐欺事件が日常的に起きているという。そんな新手の詐欺から身を守るにはどうすればいいのか?

娘の声をAIで作り上げ、身代金要求する電話

 事件はとある見知らぬ電話番号から始まった。

 アリゾナ州在住のジェニファー・デステファノさんは、普段なら見知らぬ番号は留守電で受けることにしていた。

 ところが、その時は15歳の娘がスキーで留守にしていたので、もしや事故ではと心配になり、電話に出たのだという。

 「電話に出ると、『ママ!』と泣きじゃくる娘の声が聞こえました」と、デステファノさんは事件のことを地元メディアのWKYTに語っている。

 困惑しながら「どうしたの?」とステファノさんが問いかけると、「ママ、どうしよう」と娘が泣きながら伝えてきた。

 すると「頭を後ろに倒して、横になれ」という男の声が聞こえ、デステファノさんからさっと血の気が引いた。

 電話の男はこう告げてきた。

 「いいか。お前の娘は預かった。警察を呼んだら、娘を薬漬けにしてメキシコ送りにしてやるからな」

 震え出したステファノさんの耳元には、受話器越しに「助けて、ママ」という娘の泣き叫ぶ声が聞こえてくる。

 男は、娘を返して欲しければ100万ドル(約1億3000万円)払えと身代金を要求。そんな大金とても払えないとデステファノさんが伝えると、5万ドル(670万円)に額を引き下げてきた。

 幸いにも、このときデステファノさんはもう1人の娘の付き添いでダンススタジオにいた。周囲にはママ友がいて、1人は警察に、1人はデステファノさんの夫に連絡してくれた。

Mom warns of AI voice cloning scam that faked kidnapping l GMA

娘が家にいたことで、AIによる合成音声であることが判明

 男の電話から4分後、娘の無事が確認された。娘ははすでに家に帰宅しており2階の部屋にいたという。

 電話をすると「え?ママ?どうしたの」と、何が起きたのか全く分からない様子だったそうだ。「それでとにかく腹が立ってきました。本当に冗談では済まされません」と、デステファノさんは憤る。

 娘の安否を確認したデステファノさんは電話を切り、この身代金要求は詐欺であることがわかった。

この画像を大きなサイズで見る
photo by iStock

たった3秒の声があればAIが簡単にクローン音声を合成

  デステファノさんは、電話から聞こえてきたその声は紛れもなく娘のものだったと語る。

完全に娘の声でした。話し方のクセはあの子のもので、泣き声も本人のものでした。一瞬たりとも娘の声だと疑いませんでした。だから動揺したんです

 AIの技術革新により本人の声のサンプルがあれば、本人そっくりのクローン音声を合成することが簡単にできるのだ。

 アリゾナ州立大学のAIの専門家スバラオ・カンバンパティ教授は、「耳はもう信用できません」と音声合成AIの急速な進歩について説明する。

 同教授によると、以前ならAIで声をコピーするには、本人の声のサンプルが大量に必要だったが、今ではたった3秒の声があれば十分なのだそうだ。

 「その3秒間で、あなたの声そっくりの合成音声を作れます」とカンバンパティ教授。それはイントネーションや感情までもコピーされているという。

 そうした技術が、ますます簡単に利用できるようになりつつあるのだ。もちろん、道具は使い方次第なので、有益な使い方もあるだろう。

 その一方で、今回のように犯罪に悪用される危険性がある。

この画像を大きなサイズで見る

音声合成AIによる詐欺から身を守るために

 FBI特別捜査官補のダン・メイヨー氏によると、音声合成AIを悪用する詐欺師は、SNSで獲物を物色することが多いそうだ。

 だから、こうした詐欺師から身を守るには、自分のプロフィールを非公開にして、知らない人に個人情報を見られないようにすることが大切だという。

 詐欺師は個人情報がたくさん載っているアカウントを探して、それを元にその人を徹底的に調べ上げる。だからターゲットにされないためにも、まずは個人情報を明かさないことを徹底しなければならない。

 詐欺師は、口座への送金や、暗号通貨の送付、ギフトカードによる支払いなどで身代金を要求してくる。一度支払ってしまえば、取り戻すのはほぼ無理だそうなので、用心が必要だ。

 また見慣れぬ市外局番や海外からかかってきた電話、家族に相談できないよう口止するケースなども、詐欺の可能性を疑っておくといいという。

 そして何より慌てないことが大切だ。相手からギョッとすることを言われても、まずは冷静になること。そのうえで質問するのだ。

 「映画を思い出してください。まずは落ち着いて。そして相手のペースに乗らずに、たくさん質問してください」と、メイヨー氏は言う。

 「あなたは大切な人のことを、詐欺師なんかよりずっとたくさん知っているはずです。その人について、あなたしか知り得ないことを質問すれば、相手が詐欺師ならすぐにボロが出ます」

 今回のようなAI音声合成を悪用した誘拐詐欺がどのくらい起きているのか不明だが、「日常的に起きている」可能性が高いという。

References:‘I’ve got your daughter’: Mom warns of terrifying AI voice cloning scam that faked kidnapping / written by hiroching / edited by / parumo

📌 広告の下にスタッフ厳選「あわせて読みたい」を掲載中

この記事へのコメント 11件

コメントを書く

  1. 「絶対騙す振り込めAI 」vs 「融通が効かなくて人の話をきかない留守電AI」 ファイ!

    • +8
  2. ほぼリアルタイムの合成もできちゃうからなぁ
    日本に上陸したらどうなることやら

    • +3
  3. もうそこまで来てるの? 声優いらないじゃん

    • -5
    1. >>3
      既にボイロによる解説動画なんかは、キャラ同士がすごく滑らかに会話してるのもあるからなぁ・・・

      • +1
  4. 例えば自作の漫画や小説のハイクオリティな音声化も自動でできる時代になるのか

    • +1
  5. もうコナンくんのネクタイも作れそうだね

    • +5
  6. 攻殻機動隊!
    全自動資本主義の再現くるか!

    • -1
  7. 通信デバイスに対AI用のAIを取り入れる日も近いかもね。

    • +1
  8. 好きな人の声をAIに40分くらい学習させてリアルタイムに
    ボイチェンさせる事はもうVRChatの人達がやってるね。
    発話から音声変換までに遅延が1秒くらいあるけど
    すぐ慣れるみたい。
    VRChatなら変身できるよ。
    例えば、姿は 初音ミク で声は 藤田 咲 とか。

    • +1

コメントを書く

0/400文字

書き込む前にコメントポリシーをご一読ください。

リニューアルについてのご意見はこちらのページで募集中!

サイエンス&テクノロジー

サイエンス&テクノロジーについての記事をすべて見る

  1. 記事一覧を読込中です。

人類

人類についての記事をすべて見る

  1. 記事一覧を読込中です。

最新記事

最新記事をすべて見る

  1. 記事一覧を読込中です。