被“熟人”敲诈,AI诈骗能有多逼真?

发布时间:2024-11-25 23:45:27 来源: sp20241125

   中新网 北京11月8日电(张钰惠)近日,有媒体曝光了一起诈骗案件,被诈骗者遭遇AI换脸诈骗,10分钟被“好友”骗走430万元。近年来,AI换脸、换声视频在网络上流行起来,AI合成的技术门槛逐渐降低。随着人工智能技术的广泛应用,一些不法分子开始利用其实施新型网络诈骗。

  AI诈骗能有多逼真?如何识别和预防AI诈骗?

网络上的ai合成教学   网络上的AI合成教学

  从号码到声音,

  AI诈骗能有多逼真?

  在家里午睡时,王欣(化名)突然接到了母亲同事的微信语音电话,对方问她现在在哪里、在做什么。在王欣还不知道发生了什么的时候,她从电话里听到了母亲的声音,声音听起来很着急。虽然王欣之前和母亲说好了下午会去看牙医,母亲也知道她在做什么,但她还是接到了这样一通询问行程的电话。

  母亲告诉她,自己接到了一通号码和王欣手机号一模一样的来电。接通电话后,“王欣”的声音从电话那边传来,母亲听到她的女儿在哭喊。电话那边的人对母亲说,王欣被他们绑架了,让母亲马上给他们转账30万元,不然就“撕票”。母亲吓坏了,立马打算给对方转钱,被旁边的同事拦下,就这样,午睡中的王欣被叫醒。

  据王欣所说,“这个人还挺高明的,一开始我想,难道看不出来不是我的电话吗?我后来看了一下,那个电话号码就是我的手机号,连我自己都辨别不出来”。一模一样的电话号码瞒过了母亲,神似王欣的声音让母亲更加确信,“我妈妈说,那就是我的声音。”母亲还提到,对方一开始先询问她身边有没有人,并要求她走到没有人的地方。幸好通过微信语音电话及时确认了王欣在家,母亲才放下心来。

  “一年之前为了留学办签证,我需要提供30万的存款证明,我第一反应就是这个。”王欣回忆起,曾和母亲有过关于30万元的对话。此外,王欣偶尔会在朋友圈和其它社交媒体上发自己的照片、视频和声音,身边还有朋友喜欢在社交媒体上发类似的内容,曾在社交媒体上被冒充向身边的人索要钱财。

  此后,母亲再一次收到了类似的电话。“现在,我妈妈都不太敢接我打的电话了,如果是微信电话的话还可能会接一下。”王欣说。

  如何识别和预防AI诈骗?

  涉及资金往来应多途径核对

  中国社会科学院大学互联网法治研究中心执行主任刘晓春认为,涉及资金往来等风险场景应多途径核对。上海申伦律师事务所夏海龙律师表示,在AI诈骗中,获取受害人面容及声音素材的途径比较多,一般是从受害人在社交媒体上分享的照片、短视频中获取,的确很难直接识别视频或声音的真假,最好的办法就是在接到可疑电话后直接跟本人核实。

  还有专家表示,在使用互联网服务或者在社会生活中,要求输入人脸等生物特征数据的时候,要看对方收集生物特征数据是不是符合《数据安全法》《个人信息保护法》的要求,是不是合法、正当和必要。

  近年来,国家出台一系列规定防范AI诈骗。2022年11月,网信办、工信部和公安部发布的《互联网信息服务深度合成管理规定》明确,深度合成服务提供者应当落实信息安全主体责任,建立健全用户注册、算法机制机理审核、科技伦理审查、信息发布审核、数据安全、个人信息保护、反电信网络诈骗、应急处置等管理制度,具有安全可控的技术保障措施。

  今年8月开始施行的《生成式人工智能服务管理暂行办法》规定,提供者对使用者的输入信息和使用记录应当依法履行保护义务,不得收集非必要个人信息,不得非法留存能够识别使用者身份的输入信息和使用记录,不得非法向他人提供使用者的输入信息和使用记录。

  针对提供深度合成服务的平台,夏海龙指出,如果侵权、违法行为由用户个人实施,则提供相关服务的平台一般不需要承担责任,但应履行相关法律义务,深度合成服务提供者和技术支持者提供具有生成或者编辑人脸、人声等生物识别信息功能的模型、模板等工具的,应当依法自行或者委托专业机构开展安全评估。提供合成人声、仿声等语音生成或者显著改变个人身份特征的编辑服务可能导致公众混淆或者误认的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。(完)

【编辑:于晓】