近年来,随着人工智能技术的飞速发展,一些不法分子开始利用AI技术融合他人面孔和声音,制造非常逼真的合成图像来实施新型网络诈骗,这类骗局往往会给被害人造成巨大的经济损失。我们应该如何看清这类AI“深度造假”?辨别“AI换脸”有没有什么好方法?让我们先来看看近期发生在陕西西安的一起“AI换脸”诈骗案例。
在陕西西安,一名财务人员张女士与老板进行视频通话时,老板要求她转账186万元到一个指定账号。张女士由于老板的声音和视频图像与他人高度相似,因此她确信这是老板的指令,并直接转账。然而,转账后,张女士将电子凭证发到了公司财务内部群里,老板看到信息后询问这笔资金的来由。意识到被骗的张女士立刻报警求助,警方迅速对接反诈中心、联系相关银行进行紧急止付,最终成功保住了大部分被骗资金156万元。
除了这起案例,香港警方还披露了一起AI“多人换脸”诈骗案,涉案金额高达2亿港元。在这起案件中,一家跨国公司香港分部的职员受邀参加总部首席财务官发起的多人视频会议,并按照要求转账多次,将2亿港元转账到5个本地银行账户内。随后,该职员向总部查询方知受骗。警方调查得知,这起案件中,所谓的视频会议中,只有一名受害者为“真人”,其余均为经过AI换脸后的诈骗人员。
从这两起案例可以看出,AI换脸背后的技术原理是利用深度学习算法精准地识别视频中的人脸图像,并提取出关键面部特征,如眼睛、鼻子、嘴巴等。然后,将这些特征与目标人脸图像进行匹配、替换、融合,并通过背景环境渲染和添加合成后的声音,生成逼真度较高的虚假换脸视频。
除了用于诈骗,AI技术更多地被应用于短视频的二次创作,属于娱乐性质。然而,即使是出于娱乐使用AI换脸、AI换声,也是存在法律风险的。法律专家表示,用AI技术为他人换脸换声甚至翻译成其他语言并发布视频,可能涉嫌侵犯著作权、肖像权和声音权。
那么,我们该如何防范AI换脸诈骗呢?专家表示,可以通过要求对方在视频对话时,在脸部面前通过挥手的方式,进行识别。同时,在点对点的沟通中可以问一些只有对方知道的问题,验证对方的真实性。此外,我们还应该提高防范意识,加强个人生物特征数据的安全防护,不登录来路不明的网站,对可能进行声音、图像甚至视频和定位采集的应用,做好授权管理。
随着AI技术的发展,我们需要多层面监管规范,包括加强公民个人信息保护,尤其是在技术层面加强管理,以及完善人工智能等领域相关法律法规。只有通过这些措施,才能有效防范AI换脸诈骗,保护个人和企业的财产安全。
转载请注明来自奇乐科技,本文标题:《今晚澳门特马开什么,最新数据解读:防范“AI换脸”诈骗 你需要的知识都在这儿了手机光明网》