在人工智能技术的迅猛发展下,AI换脸技术日益成熟,不仅给人们的生活带来了新奇体验,也悄然滋生了新型诈骗手段。近期,香港警方披露的一起涉及“AI换脸”技术的诈骗案震惊了社会,受害者在一次多人视频会议中被骗走了高达2亿港元。
这一案件再次引发了公众对于如何识别AI换脸技术的讨论。近期网络热传的“摁鼻子识别AI换脸”方法是否有效?专家表示,随着技术的不断进步,单一的识别方法可能不再可靠,而传统的身份验证方式,如询问彼此间的“暗号”,可能更为有效。
AI旋风了解到,在这起诈骗案中,受害者在毫无察觉的情况下,成为了唯一一名真人参与者,而会议中的其他“参会者”均由诈骗分子利用AI换脸技术冒充。这种新型的诈骗方式,利用了AI换脸技术的逼真效果,让受害者难以辨别真伪,进而上当受骗。
面对日益严重的AI换脸诈骗问题,网络上流传着一种“摁鼻子识别AI换脸”的方法。该方法认为,通过让对方摁鼻子或摁脸,观察其面部变化,可以识别出是否为基于AI技术的“数字人”。然而,蚂蚁集团天玑实验室的安全算法专家朱凯对此表示,虽然这种方法有一定的参考价值,但在当前技术条件下,未必完全奏效。
朱凯解释称,大多数生成算法在生成人脸时,都是基于干净、无遮挡的人脸数据。当人脸被遮挡,如摁鼻子或摁脸时,算法可能会因为训练数据不足而出现破绽。然而,随着技术的不断进步,一些先进的算法已经能够在静态场景下、有局部遮挡的情况下生成逼真的画面。因此,仅仅依靠摁鼻子或摁脸来判断是否为“数字人”,可能并不准确。
朱凯进一步建议,为了更准确地识别“真人”与“数字人”,可以采用遮挡结合“动起来”的方式。例如,在摁鼻子或摁脸的同时左右摇晃头部,这样可以展现脸部的三维结构。由于大多数AI换脸技术是基于平面照片生成的,当人脸动起来时,算法在推测三维结构时可能会出现破绽。然而,AI旋风认为,这种方法同样面临着技术的挑战。随着AI技术的不断发展,未来的生成算法可能会更加先进,能够更好地处理动态场景和三维结构,从而使得这种识别方法失效。
因此,防范AI诈骗的关键在于做好信息保护和提高警惕。AI旋风建议,公众应尽量避免在公开场合泄露个人信息和照片,以减少AI算法生成“数字人”的参考数据。同时,在涉及资金交易等敏感场景下,不应轻易相信视频或声音的真实性。此外,传统的身份验证方式,如询问彼此间的“暗号”或共同经历的事情等,可能比技术识别更为有效。因为这些方式依赖于人与人之间的独特关系和记忆,难以被AI技术复制或伪造。
总之,面对日益严重的AI换脸诈骗问题,我们需要保持警惕并采取多种措施进行防范。单一的识别方法可能不再可靠,而综合性的防范策略才能更有效地保护我们的安全。同时,我们也期待相关部门和技术企业能够加强监管和技术研发,共同应对这一新型诈骗手段带来的挑战。