この画像を大きなサイズで見る声で本人確認する電話、顔認証でログインするアプリ。それらがもはや“信用できないもの”になりつつある。
AIの進化によって、他人の声や顔をそっくりそのままコピーできる時代がやってきたのだ。
ChatGPTを開発した企業として知られるOpenAIのCEO、サム・アルトマン氏は、「誰でも他人になりすませるようになる」として、AIが引き起こす新たな「詐欺被害の拡大」に強い懸念を示している。
しかも、それは遠い未来の話ではなく、すでに現実になり始めているという。
音声認証はすでに突破されている
ChatGPTを開発した企業として知られるOpenAIのCEO、サム・アルトマン氏は、2025年7月22日、アメリカ・ワシントンD.C.で開催された「大手銀行向け資本規制枠組み会議」に出席した。
連邦準備制度理事会(FRB)の副議長ミシェル・ボウマン氏との対談の中で、AIによって引き起こされる金融詐欺のリスクに強い不安を表明した。
非常に心配しているのは、一部の金融機関がいまだに音声による本人確認を採用しており、それだけで多額の送金が可能になるということです。本人確認のフレーズを言うだけで処理が完了してしまうのです(アルトマン氏)
この発言は、音声認証だけに頼ったセキュリティが、もはやAIにとって「突破可能な仕組み」であることを示している。
実際、最近のAIは人の声を数秒間聞かせるだけで、ほぼ完璧に模倣することができる。そのため、本人が話していないにもかかわらず、「本人の声に聞こえる音声」で認証が通ってしまうリスクが生まれている。
この画像を大きなサイズで見る映像も偽造可能な時代へ
アルトマン氏は続けて、「現在は音声認証が主ですが、近い将来、ビデオ通話やFaceTime(フェイスタイム)によるなりすましも現実と区別がつかないほどリアルになる」と述べた。
つまり、電話や音声だけでなく、映像に映る“その人の顔”すらもAIが再現し、リアルタイムで通話が可能になるという。
これが実現すれば、友人や上司、政府関係者などになりすまして、相手を信用させたうえで情報を聞き出す、あるいは金銭をだまし取るといった手口がさらに容易になる。
しかも、見た目にも声にも違和感がないため、被害者は偽物と気づくことすらできないかもしれない。
この画像を大きなサイズで見る実際に起きているAI詐欺の被害例
こうした危険性はすでに現実のものとなっている。
近年、詐欺師が被害者の声をAIで模倣し、家族が誘拐されたように偽装して身代金を要求したり、企業の社員になりすまして資金を引き出す事件が報告されている。
アメリカ連邦捜査局(FBI)は2023年、「AIを利用したフィッシング詐欺、ソーシャルエンジニアリング(人の心理をついて情報を盗む手法)、音声・映像のクローン詐欺の脅威が急速に増している」と公式に警告を出した。
さらに、今月には元トランプ政権関係者が驚くべき事例を明らかにした。
AIを使ってアメリカの国務長官、マルコ・ルビオ氏になりすました偽の人物が、3人の外国の外相、1人のアメリカ州知事、そして1人の連邦議会議員に接触し、情報やアカウントへのアクセスを試みたことを、ワシントン誌が報じた。
これは、AIが外交の現場にまで悪用されるようになったことを示す深刻な事例である。
この画像を大きなサイズで見るOpenAIは責任を否定しつつも懸念を共有
このような詐欺が広がる中で、アルトマン氏は「我々はなりすましツールの開発に取り組んでいるわけではない」と明言している。
しかし一方で、彼が支援する生体認証プロジェクト「The Orb」にはプライバシーへの懸念が寄せられており、また同社が開発中の映像生成AI「Sora」も、理論上は人物の外見や表情、動きをリアルに再現できるため、なりすまし詐欺に悪用されるリスクを孕んでいる。
アルトマン氏は、「私たちがその技術を公開していないからといって、他の誰かが作っていないという保証はない」と指摘し、「悪意ある人物が必ず公開する。しかも、それはそれほど難しいことではない。非常に近い未来に実現してしまう」と警告を強めた。
これからの本人確認はどうあるべきか
AI技術は急速に進歩しており、今や一般人の声や顔ですら容易に再現できてしまう。これまで信頼されてきた音声認証や顔認証は、もはや安全とは言えず、認証の仕組みそのものを根本から見直す必要がある。
銀行や企業、行政機関はもちろん、私たち一人ひとりも「声や顔はもう本人確認にならないかもしれない」という意識を持ち、日常のセキュリティを見直す時期が来ている。
編集長パルモのコメント

私も先日、AI生成のアライグマの映像をすっかり本物だと思い込んでしまったわけだし、いろいろ怖い部分もあるが、それでも便利な道具であることは事実。嘘を嘘だと見抜けないと生成AIを使うのは難しい時代になったもんだ。
References: Sam Altman Warns That AI Is About to Cause a Massive "Fraud Crisis" in Which Anyone Can Perfectly Imitate Anyone Else / Sam Altman is terrified about a coming AI fraud crisis
















声紋とか網膜スキャンによる認証が必須になってくるか、あるいはそれすらもAIに模倣されてしまうか・・・
そういえばワシも子供の頃は月光仮面になりすましておったのぉ
これが人類の夢見た未来なのかね。
夢見たものでは無く、単に後先考えず『面白いから』『楽しいから』『便利だから』と開発実用化を進めた結果なだけ
技術開発を否定はしないが予測されていた結果になっているのは「何だかなあ」と思う
ファクシミリと黒電話って意外と
最強なんだよね。不便な道具ほど
いまの未熟なロボには使えない。
操作する姿を中継したらおそらくCGだと
ボロがでる。矢文や手旗信号、
果汁文字のあぶり出しも難しいだろうな。
結局対面でのやり取りが必要となる
T-1000「その通りですね」
あと先考えず作っておいて警鐘とか笑わせる
使い手の問題とか言うけど人間は結局自制出来ないのよ
つまりどんな優秀な技術者や研究者も、「まさか悪用されるとは思わなかった」という心にもないことを言って、挙げ句、使う人のモラルの問題にすり替え、責任転嫁をして、自己満足を満たすために邁進する。
ダイナマイト発明の時代から何も学んでいないし、いつの時代も、人類の為にならないものとわかっていても開発をやめない。かたや平和のため、人類のための技術や声は、金にならず面倒くさいのでかき消される。
人類滅亡はそう遠くないんじゃないかくらいの危機感。
どんな技術も表裏一体であって、善行も悪行も使い方次第なのは当然かと。
逆に軍事技術から便利な製品になったものもごまんとある。
ハナから研究者を恨むのはやはり違うんじゃないかな。そもそも出資する人がいなきゃ研究できないわけだし。
科学の進歩の前にはそんなの些事些事w
デジタルに過度に依存した結果に過ぎない
デジタルに対する最強のセキュリティはアナログにある
基本に戻るしか解決の糸口は無いだろうね
ソーシャルハッキングといって
「アナログ」をハッキングする手口も今は主流だよ。
アナログなら安全みたいな考えは世間知らず過ぎる。
デジタル分野でハッキング手法が色々試されることによって
同じセオリーがアナログに対しても有効であることが今や知れ渡ってしまっている。
技術発展のインパクトは波紋が広がるように後進の分野に向かってもまた波及していくものなので、
先端技術に穴があるからといって昔に戻ればいいとかいう
単純な考えは通用しない。
映像も音声も信じられない時代…
そのうち実物も本物かどうかわからなくなるのかな
だから法規制の話があったんだがそれをやらないうちに一般化させてしまった
こういうテクノロジーが使われるのはまず犯罪
もう取り返しはつかない
アナログ最強。
いつでもそう思ってるよ。
ゼロシステムみたいな精神力が高くないと使いこなすどころか動かすことすらままならないセキュリティが必要になってきてるのだろうな