AI科技日新月异带给人类许多好处,例如黄文择大师仙逝后,霹雳布袋戏即用AI模拟他的声音进行配音,不但重现「素还真」独特的嗓音,甚至可说重新定义了「音容宛在」四个字。音乐制作人包小柏也用过世爱女的3句话语,制作出拟真的AI声音,多少抚慰他夫妻俩丧女之痛。

霹雳布袋戏利用AI让黄文择大师的生动配音复活。翻摄自facebook.com/dapil
霹雳布袋戏利用AI让黄文择大师的生动配音复活。翻摄自facebook.com/dapil

可惜水能载舟亦能覆舟,AI进步神速也让语音诈骗更难防范,身分盗窃及信评分数观察公司IdentityIQ告诉《福斯新闻台》说,只消在社群媒体或网路上取得你「3秒、10秒」或更久的语音,就能用AI合成极为相似的声音;外媒记者亲自测试,录制10分钟的语音再用AI合成,打电话给自己妈妈,结果就连亲生母亲也难辨真伪,差点上当。记者在电脑上打字,仿真的AI语音就会照念,完全不用开口就能与对方交谈,不但不用担心自己说话露出马脚,任何人也都能轻易操作。

记者实地测试用AI生成语音。翻摄自福斯新闻网
记者实地测试用AI生成语音。翻摄自福斯新闻网

要进行所谓的「声音复制」(Voice Cloning),AI语音模型需要输入大量资料训练,以往犯罪集团偏好从公众人物、网红网美身上下手,因为这些人的公开影音唾手可得,制作AI语音相对容易,不过语气、情绪较难模仿,因此仍可听出破绽。

然而以ChatGPT一炮而红的人工智慧大厂OpenAI,3月底推出「Voice Engine(语音引擎)」AI模型,标榜仅需15秒音档就能生成与本尊声音极为相似的语音,甚至还带有情绪,使辨别声音更加困难,所幸语音引擎尚未全面对外开放使用。

OpenAI推出的语音引擎能生成极为拟真的AI人声。路透
OpenAI推出的语音引擎能生成极为拟真的AI人声。路透

成功大学统计学系教授许志仲说,AI影音犯罪日增,诈团也把目标从名人身上转移到一般民众,利用AI模拟家人声音借钱等案例。艺人王仁甫日前现身说法,透露家人差点遭AI语音诈骗的故事,他说女儿乐乐之前接到市调电话,对方问她「家住哪里」、「那妳多说一点话啊,说一下妳是在做什么事情的人」等,没多久季芹就接到乐乐声音的电话打来问,「妈妈妳现在要去哪里」、「妈妈我现在需要钱,妳可以转钱给我吗?」好在季芹并未上当,不过也让王仁甫直呼「超恐怖」!

王仁甫(右)与季芹夫妇差点被AI生成的女儿声音诈骗。彭欣伟摄
王仁甫(右)与季芹夫妇差点被AI生成的女儿声音诈骗。彭欣伟摄

近来又传出最新AI语音诈骗手法,社群媒体上可见许多「招募配音员」的广告,号称在家也能每案轻松赚进500至3000台币,吸引民众加入,其实是不折不扣的诈骗。通常对方会要求应征者上传一段自己讲话的音档,之后再告知通过测试,要求扫描QR码或点选连结接案,一旦这么做,LINE帐号就会立刻被登出盗用,对方再用先前提供的音档生成AI语音,透过偷来的LINE帐号广发讯息行骗。

许多广告假借招募配音员,骗取声音及LINE帐号行骗。翻摄自脸书网路配音交流社团
许多广告假借招募配音员,骗取声音及LINE帐号行骗。翻摄自脸书网路配音交流社团

AI语音诈骗难防,专家提出几点建议有助民众避免上当:

1. 不接不明来电,不理会对方急需用钱等催促,直接挂断电话。

2. 家人亲友间先约定好「通关密语」,接获可疑来电时要求对方回答,或询问只有本人才知道的问题,借此确认身分。

3. 尽量避免在网路上公开有自己或家人语音的影片

4. 对于对方所提要求谨慎以对,不随之起舞,尽可能回拨电话给本人确认。

艺人包小柏(左)用AI生成过世爱女声音。翻摄粉丝页、IG
艺人包小柏(左)用AI生成过世爱女声音。翻摄粉丝页、IG

OpenAI、Google、微软等7家AI科技巨头,去年签字同意遵守拜登政府的AI保障措施,确保这种新科技不被滥用,然而约束力令人质疑。

欧盟3月13日通过全球首个《人工智慧法案》(Artificial Intelligence Act),规范AI系统道德使用,不过也要等到2026上半年才会生效,且未涵盖全球。各界日益重视AI之际,也正努力完善各层面,不过法律总赶不上科技,距离AI立法周全还有漫漫长路,民众接电话时或许无须过度提防,但却不可不慎。

查核中心呼吁民众对不明电话毋须过度提防。翻摄自台湾事实查核中心
查核中心呼吁民众对不明电话毋须过度提防。翻摄自台湾事实查核中心

點擊閱讀下一則新聞 點擊閱讀下一則新聞
印度德里机场屋顶突崩塌!压烂接送区汽车 至少1死8伤