記事の概要
最近、AI音声合成技術を悪用した「無言電話」による詐欺の危険性が指摘されています。
この手法では、電話口での沈黙や短い応答を利用して、相手の音声データを収集し、AIを使ってその声のクローンを作成する可能性があります。
特に、無言電話に対して「もしもし」と返事をすることで、詐欺師がその音声を利用できるリスクが高まります。
詐欺師は、後日、家族や上司を名乗るAI音声で金銭や個人情報を要求する手口を使うことが考えられます。
このような詐欺を防ぐためには、不明番号からの着信には応答しない、応答した場合は発声を控えるなどの対策が重要です。
AI技術の進化により、声の信頼性が低下しているため、個人や企業は注意を怠らず、リテラシーの向上が求められます。
記事のポイント
詳しい記事の内容はこちらから(引用元)
ASCII.jp
AI音声合成を悪用した詐欺で、無言電話を起点とする新たな手口に警鐘が鳴らされている。通話時の短い発声を収集し、後日のなり…
https://ascii.jp/elem/000/004/366/4366762/