新型诈骗震撼美国当局,歹徒使用网路上垂手可得、几可乱真的AI语音复制工具,假冒家庭成员来诈骗亲人。

法新社报导,专家表示,AI最大的危险是模糊了真实和虚幻的界线,让网路罪犯能有廉价又有效的技术来散播假讯息。

以迪斯特法诺(Jennifer DeStefano)为例,当时女儿在外地滑雪,她接到电话「100%」确定那是她15岁的女儿。

迪斯特法诺4月告诉当地电视台:「问题不是那是谁,那就是她的声音…她哭起来就是那样。」「我没有一秒钟怀疑过。」

还好迪斯特法诺几分钟后就连络上真正的女儿,解除虚惊,也把案件通报警方调查,但这个案例充份显示利用AI「复制」真人语音的网路犯罪有多可怕。

 

在美国等9个国家针对7000人的民调中,1/4表示自己遇过AI语音诈骗,或听过别人有类似经验。

这份由美国资安公司迈克菲实验室(McAfee Labs)上月发布的民调显示,70%受访者表示,没有信心能「分辨真假语音」。

加州大学柏克莱分校资讯学院教授法瑞德(Hany Farid)告诉法新社:「因为现在制作高仿真的语音非常容易…网路上几乎无人能幸免。这些诈骗正广为流行。」

 

 Blackbird.AI 人工智慧公司执行长卡利德(Wasim Khaled)指出,目前网路能搜到多款免费应用程式,可用来合成仿真语音,只要有本人短短几秒的讲话声音,就可复制合成,平常在社群平台上传的影音,可能被歹徒偷去用于电话诈骗。

这些「复制」的人声可能传送语音讯息,甚至可以用来在电话中跟人对话。

美国当局警告,最近常见的是「爷奶诈骗」,模仿孙儿、孙女的语音打电话给长辈,谎称亟需用钱,向阿公阿嬷求助,「例如发生车祸、被警察拘留,需要筹措保释金等等。」许多年长民众听到亲人声音,深信不疑,立刻汇款。

芝加哥19岁青年艾迪就有这样亲身经历,他祖父接到诈骗电话,以为他发生车祸要赔大钱,甚至想要拿自家房子去贷款筹钱,还好骗局在他贷款之前就被拆穿。这种「假语音、真诈财」案件正在增加中。

今年初AI新创公司ElevenLabs坦承自家语音合成工具可被用于「恶意用途」,先前就有用户发布透过「深伪技术」(Deepfake)合成的语音,假冒英国女星艾玛华森(Emma Watson)读希特勒自传《我的奋斗》(Mein Kampf)。

创投公司Team 8科技主管塔贺奇堡(Gal Tal-Hochberg)受访指出:「网路上看到的东西你都不能轻易相信,我们已到了这种程度。」「人类需要研发一种技术,能让人分辨跟你对话的对象,是你认识的真人。」(综合外电、中央社报导)

 

壹苹新闻网-投诉爆料

爆料网址:reporting.nextapple.com

爆料信箱:news@nextapple.com

★加入《壹苹》Line,和我们做好友!

★下载《壹苹新闻网》APP

★Facebook 按赞追踪

壹苹娱乐粉专壹苹新闻网粉专


點擊閱讀下一則新聞 點擊閱讀下一則新聞
日本政府拟2/14成立新机构 负责评估AI安全性