「媽,我被綁架了!」AI只需要3秒偽造聲音,成詐騙新招!超真實哭腔你能分辨嗎?|數位時代 BusinessNext
隨著AI應用爆發,AI詐騙也層出不窮。根據專家統計,美國過去一年裡AI詐騙事件,與同期相比增幅足足超過50%。
Transcript
隨著AI應用爆發,AI詐騙也層出不窮。根據專家統計,美國過去一年裡AI詐騙事件,與同期相比增幅足足超過50%。
當AI風潮盛行,電話詐騙更可怕!美國一對父母某天接到兒子電話,要求他們轉帳高額金額協助處理車禍,爸媽雖疑惑但確認是親生兒子聲音,因此核准,沒想到竟是AI合成語音。據美國研究,由於AI技術太普遍,現在只要你在抖音上傳超過30秒的影片,就有可能被利用來合成你的人聲。怎麼防?專家指只能這樣應對。
The content above by Cofacts message reporting chatbot and crowd-sourced fact-checking community is licensed under Creative Commons Attribution-ShareAlike 4.0 (CC BY-SA 4.0), the community name and the provenance link for each item shall be fully cited for further reproduction or redistribution.