UJP - 無言電話で語りかけたら詐欺に遭うかも?!

Life is fun and easy!

不正IP報告数

Okan Sensor
 
メイン
ログイン
ブログ カテゴリ一覧

ブログ - 無言電話で語りかけたら詐欺に遭うかも?!

無言電話で語りかけたら詐欺に遭うかも?!

カテゴリ : 
セキュリティ » ニュース・徒然
ブロガー : 
ujpblog 2026/2/20 12:02
 3年前の米国FTC(FEDERAL TRADE COMMISION)のこの記事.

Scammers use AI to enhance their family emergency schemes
https://consumer.ftc.gov/consumer-alerts/2023/03/scammers-use-ai-enhance-their-family-emergency-schemes

引用:
You get a call. There's a panicked voice on the line. It's your grandson. He says he's in deep trouble — he wrecked the car and landed in jail. But you can help by sending money. You take a deep breath and think. You've heard about grandparent scams. But darn, it sounds just like him. How could it be a scam? Voice cloning, that's how.

 電話がかかってくる。受話器の向こうには慌てた声が。孫だ。大変なトラブルに巻き込まれたと言う――車をぶつけて刑務所に入れられた。でも金を送れば助けてくれる。あなたは深呼吸して考える。祖父母詐欺の話を聞いたことがある。でも、まったく彼らしい話だ。詐欺だなんてありえるのか? 声の複製技術、それが答えだ。

Artificial intelligence is no longer a far-fetched idea out of a sci-fi movie. We're living with it, here and now. A scammer could use AI to clone the voice of your loved one. All he needs is a short audio clip of your family member's voice — which he could get from content posted online — and a voice-cloning program. When the scammer calls you, he’ll sound just like your loved one.

 人工知能はもはやSF映画のような非現実的な概念ではない。私たちは今この瞬間、人工知能と共に生きている。詐欺師はAIを使ってあなたの大切な人の声を複製できる。必要なのは、オンラインに投稿されたコンテンツから入手できる家族の声の短い音声クリップと、音声複製プログラムだけだ。詐欺師が電話をかけてきた時、その声はあなたの大切な人とそっくりになるだろう。
 AIを使った音声複製だけど,この記事だと「オンラインに投稿されたコンテンツから入手できる家族の声の短い音声クリップ」となっていたが,最新の詐欺では,無言電話がかかってきて一言二言喋ると,そのデータで音声合成できるらしい.

 ワンギリに近い電話がかかってきて,とってもすぐ切断される電話がたまにあるけど,「もしもし」とか一言でも喋ったらダメなのかもしれない.

トラックバック


広告スペース
Google