“妈,我被绑架了”、“爸,我发生车祸了”是电话诈骗常用的老梗,十万火急要求家人汇款,让人担忧的是,随着科技进步,现在AI复制声音成为新的诈骗手法,一般民众根本难辨真假。
目前国外已经发生相当多的类似案例,不良分子利用AI复制声音来进行电话诈骗,成为新型态诈骗手法,美国联邦贸易委员会(FTC)近日特别警告消费者,诈骗集团可以利用短短3秒钟本尊声音,加上AI技术,制造模仿本人声音,呼吁民众小心别上当。
近日美国亚利桑那州一位母亲现身说法,她亲身遭遇可怕的电话诈骗案件,涉及AI仿声技术,求救电话那头传出她15岁女儿的本人声音,她遭到勒索否则女儿将性命不保,幸好很快确认了女儿的安全,显示这是一通诈骗电话,但电话中跟女儿几乎相似的声音,让她感到震惊,因此出面向大众提出警告。
外媒9to5mac也提供两招防范关键:AI复制声音技术进步,只须拥有几秒钟声音的样本就能进行复制,诈骗集团会在社群平台上进行搜集,因此不要在社群随意发布有自己声音的影片,或者将影片设为私人权限;另外,避免在社群上公开自己的手机号码等信息。