首页AI 新闻
接到朋友电话?尊嘟假嘟 o.0
113

接到朋友电话?尊嘟假嘟 o.0

麦满分
麦满分
2023-09-05 16:28

当法里达巴德的居民Karan接到一个电话,电话那头自称是他的朋友并且刚刚遭遇了车祸,要求他转账30000卢比作为治疗费用时,他几乎没有理由表示怀疑。打电话给Karan的那个男人的声音与他的朋友完全一样,并表示他正在使用别人的手机,因为他自己的手机在车祸中损坏了。

Karan急切地转账了这笔钱。后来,当他联系到他的朋友时,他才意识到自己已经成为了一起欺诈的AI语音呼叫的受害者。他向NIT网络警察局(NIT Cyber police station)报了案,发现骗子使用了一个AI语音模仿器模仿了他朋友的声音,并欺诈了他的钱。这样的案件在全国范围内屡见不鲜。

犯罪分子已经利用深度伪造(deepfake)技术以虚假的电话和视频欺骗个人。例如,喀拉拉邦的一名男子收到一个朋友声称有医疗紧急情况的深度伪造电话,导致损失了40000卢比(INR 40,000)。AI的日趋普及和进步再次改变了网络犯罪的性质。这个新兴行业似乎正在迅速发展,随着WormGPT和FraudGPT的出现,现在又衍生出了模仿骗局。

一项调查发现,全球25%的成年人都曾是某种AI语音诈骗的受害者。印度以令人震惊的47%的事件数量位居榜首,其次是美国(14%),英国(8%)。这些欺诈活动是通过从社交媒体网站(如Instagram、Facebook、Twitter等)提取您的语音样本来进行的。只需要3秒钟的语音就可以使用语音复制技术来克隆。

大型科技公司的GenAI引发新挑战

微软最近推出了一种名为 VALL-E的开创性文本转语音AI模型。在本月发表的一篇论文中,该公司显示VALL-E可以用仅仅3秒的录音复制一个人的声音,令人印象深刻的是,VALL-E甚至可以捕捉并复现说话者的情感细微差别。

VALL-E是在一个包含60000小时英文语音数据的数据库上进行训练的。此数据库被称为“比现有系统大数百倍”,并在AI驱动的语音合成领域明显优于现有模型。

因此,你的声音的3秒录音,配合像Eleven Labs的多语言v2这样的基础AI模型——可以用于近30种语言,无疑是麻烦的开端。此外,Meta的SeamlessM4T能够翻译为100种语言。

当然,有些人对这些AI工具可能开启的在(市场营销、客户服务、电子学习和娱乐)领域的新机遇感到兴奋,同时也有些人对其可能带来的影响感到警惕——一个行业由利用AI的罪犯用各种各样的犯罪——这是 Jamtara(一部印度犯罪网络电视剧,故事围绕一群小镇年轻人展开,他们经营着一个成功的网络钓鱼诈骗)的新来临吗?

网络犯罪分子也在使用像HeyGen、Murf、Resemble AI、Lyrebird和ReadSpeaker这样的克隆工具来创建完美的声音克隆。这些工具价格更加低廉,仅需0.6美元。由于这些便捷且便宜的AI语音生成器存在,使得进行犯罪的门槛越来越低。

以其人之道还治其人之身

虽然这些骗子正在使用AI语音生成器,执法部门也在用类似的武器对抗他们。网络警察一直在使用AI工具监控那些参与此类诈骗的SIM卡,并最近在哈里亚纳邦的Mewat区封禁了超过14000张SIM卡。

印度电信部门也在使用一种名为ASTR的基于AI的人脸识别工具来对抗诈骗SIM卡的使用。它使用卷积神经网络来对用户图像中的人脸进行编码,以考虑面部角度和图像质量等各种因素。ASTR进行面部比对,将相似的面部分组,能以至少97.5%的准确率识别同样的面部。

ASTR能在不到10秒的时间内,从一个包含一千万张图像的数据库中,识别出与疑似面部相关的所有SIM卡。此外,它还使用“模糊逻辑”来寻找订阅者名字的近似匹配。该工具有助于识别出使用同一张照片以不同的名字获取多个连接或SIM卡的人。这个名单也与银行、支付钱包和社交媒体平台共享,以切断这些号码。WhatsApp与政府合作关闭了欺诈账户,其他社交媒体平台也在进行着类似的努力。

同时,时刻保持警觉也非常关键。你可以确认来电者的身份,向电话那边提出只有朋友才知道答案的问题,以防止陷入Karan那样的困境。

全部讨论

no data来都来了,坐下聊聊