警惕!AI正在偷走你的声音
作者:京法网事
时间:2023-10-11

近日,江苏警方接到一工厂员工报警称,其同事可能遭遇诈骗。民警赶到现场时,被骗女子情绪激动,不愿配合调查。民警一直坚持耐心劝导,终于在女子与骗子通话近3个小时后将其拦下。而刚挂断骗子来电后,女子的哥哥就打来电话询问是否是要向其借钱。

民警立刻识破这是一种利用AI技术进行诈骗的新方式,骗子通过AI合成声音,甚至影像向受害人亲友借钱。


这一新型的诈骗手段引发了对个人信息安全的关注。小安将带您探讨AI合成声音诈骗的特点和应对措施,提醒大家保护个人信息。

AI技术,“偷走”你的声音?

随着 AI 技术的发展,AI 语音技术也在突飞猛进换代升级。研究发现,利用漏洞可以解密窃听 VoIP 电话,并利用少量目标人物的语音素材,基于深度伪造 AI 变声技术,生成目标人物声音进行注入,拨打虚假诈骗电话。


总的来说,这种新型攻击的实现方式分为两个部分,一是 VoIP 电话劫持,二是语音模拟。

01 VoIP 电话劫持

ARP 协议是网络行为中应用广泛的基础数据链路层协议,用于在局域网内完成 IP 到 MAC 地址的转换。在正常的网络通信中,我们在访问一个 IP 地址时首先会在同局域网下发送问询广播包:Who has 10.15.2.1?

当黑客攻击 ARP 协议时会抢先应答 ARP 广播,在后续的网络通信中,数据包均会被发送到黑客的主机中,从而实现电话窃听。

02 语音模拟

语音模拟可以根据源人物的说话内容合成具有目标人物音色特征的音频输出。

在 VoIP 电话劫持中,利用少量被攻击者的声音,就可以合成与被攻击者音色相似的任意内容的语音片段,一旦被恶意利用,攻击者可以轻松拨打虚假电话,与目标人员对话。

防范措施

面对利用AI人工智能等新型手段的诈骗,我们要牢记以下几点:

01 多重验证,确认身份

在涉及到转账交易等行为时,小伙伴们要格外留意,可以通过电话、提问等方式确认对方是否是本人。

在无法确认对方身份时,可以将到账时间设定为“2小时到账”或者“24小时到账”,以预留处理时间。尽量通过电话询问具体信息,确认对方是否为本人。

公检法等相关执法机关不会通过视频语音等方式要求当事人向“安全账户”转账等资金操作,请切勿相信。

 02 保护信息,避免诱惑

保护个人信息的安全至关重要。无论是在互联网上还是社交软件上,避免将个人敏感信息公开或泄露给不信任的第三方,特别是包含语音样本的信息。

对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。

 03 拒绝诱惑,共同预防

这些高科技手段的诈骗方式,迷惑了很多群众。要学会拒绝诱惑,提高警惕。避免占便宜心理,警惕陌生人无端“献殷勤”。要提醒告诫身边的亲人、朋友提高安全意识和应对高科技诈骗的能力,共同预防受骗。

做好家中老人的宣传防范工作。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。

 04 提高警惕,主动维权

个人在遭遇AI合成声音诈骗时,应及时向警方报案。提供详细的案情和相关证据,协助警方进行调查和侦破。及早报案有助于警方及时采取措施,阻止诈骗行为的继续发展,并追究犯罪者的法律责任。

如遭遇被换脸、换声的民事侵权行为,要有主动维权意识,要关注侵权方相关作品发布时间、数量、范围,主动搜集网站/APP截图、音频、视频等作为证据,向侵权方提出严正交涉,积极通过法律途径维护自身合法权益。

随着新一轮AI技术的普及,未来人类面临的反诈防诈挑战可能更严峻。AI合成声音诈骗作为一种新型犯罪手段,给个人的财务安全和个人信息安全带来了威胁。为了保护自身的权益,我们应加强个人信息安全的意识,保持警惕和怀疑心态。

正品保证 优质服务 急速物流 售后无忧