▲AI技术已能够模拟逼真人声,却被不肖人士用来诈骗。(示意图/CFP)
加拿大一对夫妻接到「儿子」来电表示出车祸急需法律费用,赶紧透过比特币汇款2.1万美元,后来才知道惨遭诈骗,原来熟悉嗓音竟是人工智慧(AI)模拟而成。《商业内幕》指出,诈骗集团可能从当事人在YouTube发布的雪上摩托车影片撷取音轨,进而仿造声音。
《华盛顿邮报》报导,受害夫妻接到第一通电话,从自称「律师」的男子口中得知,儿子班杰明(Benjamin Perkin)在一场车祸中撞死外交官而入狱,话筒还传来「班杰明的声音」开口要钱。后来,他们又接到第二通电话,「律师」宣称班杰明需要2.1万美元法律费用才能出庭。
夫妻俩爱子心切,迅速筹措资金汇款,后来才隐约感觉有些奇怪。不过,直到「真正的」班杰明当天稍晚打电话过来,他们才惊觉被骗。
班杰明受访时说,那个声音「足够接近(我的声音),让我的父母真的相信他们在跟我说话。」尽管一家人赶紧向加拿大当局报案,但「钱不见了,没有保险,拿不回来了。」
▲美国人工智慧公司OpenAI开发的ChatGPT掀起热议。(图/路透)
《商业内幕》报导,更强大的人工智慧兴起之际,冒充身分的诈骗案也持续增多。不过,早在ChatGPT问世之前,涉及AI技术的诈骗就已经出现。
2019年,英国能源公司(British Energy)一名经理把24万多美元汇入一个匈牙利帐户,因为他以为「老板」打电话要求这么做。今年1月,研究AI声音复制及语音合成的美国新创公司ElevenLabs也表示,他们注意到有人「把我们的科技用于恶意目的」,出现「越来越多声音复制的滥用案例」。举例来说,4chan等匿名论坛上就有不肖人士使用AI技术模拟与名人相似的声音,说出种族歧视等不恰当言论。
美国联邦贸易委员会(FTC)去年一共接获240万人通报诈欺案,最常见类型就是冒名顶替者诈骗(Imposter scams),尽管案件数比前一年低,损失金额却更高,达到88亿美元。
FTC已经新成立一间科技办公室,专门调查有发展前景且可能使用AI的公司,是否尝试降低产品可能造成的风险。发言人格伦瓦尔德(Juliana Gruenwald)表示,他们已经发现社群媒体上的诈欺案激增,「产生看似真实影片、相片、音档及文本的AI工具可能加速这个趋势,让骗子更容易接触受害者,速度也更快…我们也关心深伪技术(deepfake)与其他基于人工智慧的合成媒体的风险,它们变得越来越容易创作及散布,将被用于诈骗。」