▲大陆近日传出「AI换脸」诈骗事件,民众需多加注意。(示意图/CFP)
AI技术逐渐融入现代人的生活,不过,诈骗集团也开始利用高科技犯罪,用AI换脸技术假装亲友,再加上预先生成的声音模组,透过视讯通话对被害人实施诈骗,不得不防。大陆近日传出有科技业高管被此类技术诈骗数百万人民币,还有逾90万元仍未追回,让外界对新型态的「AI诈骗」更加关注。
▲AI技术日新月异,连真人说话的声音也可在几日内模拟出来。(示意图/CFP)
《中新经纬》报导,目前,AI换脸随处可见,在短视频(短影音,下同)平台,不少用户都体验过换脸带来的新鲜感。这项技术也越来越成熟,仅需提供一张照片,就可以让你变成视频中人,或直接生成会眨眼、张嘴的视频。
化名「七七」的网路用户主要透过网上接单用AI生成影片营生,他表示,只需提供一张背景干净的正面照,就能生成眼睛嘴巴都会动的影片,「如果提供文字,还可以让视频中的人物口型对上,能连续播放1分钟。」
「七七」指出,制作一套「露脸且说话」的影片成本并不高,用照片生成一段1分钟时长的影片仅需30元人民币左右,「假使影片时长较短、画面解析度要求不高,价格还可以再降,几块钱一段都可以。」
除AI换脸愈发普及,用AI合成或仿制声音也越来越常见。用AI仿制声音的商户透露,只需要提供一段10分钟至30分钟的声音素材,要求没有杂音,就能用2天左右时间生成一个专属模型,「后续输入任何文字,发出的都是这个人的声音,一般来说,提供的素材时间越长,最终相似度越高。」
对于AI诈骗案例逐渐增加,包括「北京反诈」在内的各平台均称,「诈骗成功率接近100%」,同时,官方也提醒大众,一般民众对新科技辨别能力不强,这种新型AI诈骗给中老年人更是带来挑战,「涉及财务往来,务必通过电话、见面等最朴素的途径核实确认,不要未经核实随意转帐汇款,不要轻易透露自己的身份证、银行卡、验证码等信息(资讯)。」
图文摘自 网络