新手すぎるオレオレ詐欺。
中国でディープフェイクを使った詐欺事件が発生。被害に遭った男性は、8500万円も奪われてしまったそうです。
友人からのビデオ通話のはずが…
中国の福州市に住む男性は、先月、友人からビデオ通話を受けました。
友人は、「入札のために8500万円の補償金が必要だから振り込んでほしい」と言ったそうです。
男性は言われた通りに指定の口座に振り込み、友人に確認の電話をかけました。しかし、友人は「そんな電話はしていない」と言い、詐欺だったと判明したのです。
#AI詐欺が全国に拡大
中国のブログサイトWeibo(微博)には、ディープフェイクを使った詐欺について議論する「#AI詐欺が全国に拡大中」フォーラムが誕生しました。
5月22日の時点で1200万以上も閲覧されており、「写真や音声、動画などすべてが詐欺に使われる可能性があるということでしょう」や「情報セキュリティのルールが詐欺師の技術に追いつくことは可能なの?」といった不安の声が寄せられています。
実はAIを使った詐欺事件は世界中で急増しています。アメリカ合衆国国土安全保障省は、ディープフェイク詐欺について「AIを使った詐欺の脅威は、露出や視点、仕事上の立場などで異なります。懸念する範囲は『緊急』から『パニックにならず事態に準備せよ』まで広がっているのです」と報告しています。
最初の中国の男性が振り込んでしまった金額がやたらと大きいのも、ターゲットにされた人たちがどちらも社会的地位が高く、参考にするデータがたくさんあったからなのかもしれません。
イギリスやアメリカでも被害が
イギリスでは地元エネルギー会社のCEOが、自分の仕入れ先から連絡があったと勘違いして約24万3000ドル(約3400万円)をハンガリーの銀行口座に送金。ところが、この連絡は詐欺師がAI音声技術で仕入れ先の声を生成したものでした。騙されたCEOがWall Street Journal紙に語ったところによると、AIは微妙なドイツ訛りまで再現していたとのこと。
アメリカのウィスコンシン州南部の警察は、「親戚の声に似た人物」による詐欺について住民に注意喚起しています。これに関しては、正式にAIが使われたか確認できていないようですが、「こういった技術があることは認識しておくべき」だとFacebookに投稿しています。
日本では「オレオレ詐欺」が人々の生活を脅かすようになって久しいです。こちらでは主に高齢者を狙っていますが、海外の場合、知名度や社会的地位、露出度の高い人をターゲットにしているのが大胆で驚きました。
そういえばイーロン・マスク氏の弁護団が、マスク氏のテスラの安全性についての発言を「ディープフェイクで作られた可能性あり」なんて主張していますよね。
詐欺もそうですが、例え動画に記録されていたとしても、言った言わないの水掛け論に発展する可能性が出ているなんて、ルールが追いつきません。
とりあえず詐欺の予防策としては、合言葉とか、お金絡みのやり取りが発生したら電話をかけ直すなどのニ重チェックをする、とかがいいのかな?
いや、もう、どうしたらいいんだろう。