全国政协委员靳东在两会期间针对AI换脸导致的诈骗问题发声,呼吁建立更完善的法律法规。靳东指出:“一些喜欢我影视剧的观众,因AI换脸视频遭受了严重的骗局,这个问题非常恶劣,亟需更好的规范措施。”此话题迅速登上微博热搜,引发了公众广泛关注。不少网友表达了对靳东提议的支持,甚至有人分享了自己的家人也被类似的假视频误导的经历。
近年来,随着AI技术的迅猛发展,AI伪造视频事件频繁曝光。不法分子利用AI技术假冒名人进行诈骗、发布虚假广告,甚至伪造视频骗取巨额财产,严重破坏了社会的信任体系和信息安全。除了假冒靳东,网络上还出现了假冒张文宏直播带货、假冒雷军发表言论等情况。
AI伪造视频的技术原理
AI伪造视频所依赖的技术并非近期才出现,早在上世纪九十年代,学术界就已经开始了面部替换和图像生成的研究。2014年,Ian Goodfellow提出了生成对抗网络(GAN),使得计算机可以生成更加逼真且高质量的图像。生成对抗网络由生成器和判别器两部分组成,生成器负责创建内容,而判别器则用于检测生成内容的真实性,并将结果反馈给生成器。两者在训练过程中相互对抗,最终生成器能够生成极为逼真的画面。
2017年,Reddit上一个名为“deepfakes”的账号发布了多段使用生成对抗网络技术制作的名人换脸视频,使得“Deepfake”一词广为人知。随后,FakeApp、Faceswap、DeepFaceLab等工具相继问世,大幅降低了Deepfake的门槛,使普通用户也能轻松生成换脸视频。随着技术进步,今天的Deepfake不仅生成的视频分辨率更高、面部表情更自然,而且所需数据更少、训练时间更短。
Deepfake技术的应用与风险
尽管Deepfake是“伪造”,但在合法授权下,它有着广泛的应用场景。例如,2019年,大卫·贝克汉姆发布了一段使用Deepfake技术生成的多语言反疟疾宣传视频。此外,Deepfake技术在数字人、视频主播、影视制作、教育和培训、心理治疗康复等领域也有积极应用。
然而,这项技术也带来了诸多负面影响。Deepfake被用于假冒名人销售商品,甚至用于更恶劣的欺诈行为。例如,2024年底,BBC报道了一位77岁的老人因Deepfake视频被骗走1.7万英镑的故事。此外,2024年初,香港一家公司的员工因Deepfake视频假冒公司高管而被骗转走了2500万美元。根据德勤2024年的报告,2023年美国的Deepfake欺诈增加了700%,造成了123亿美元的损失,预计2027年这一数字将达到400亿美元。
如何识别和防范Deepfake视频
对于制作不够精细的Deepfake视频,可以通过肉眼观察到异常,如面部表情或眼神不自然、眨眼次数过少、面部边缘模糊、与背景过渡不自然等。但随着技术进步,这些异常特征越来越难以察觉。为了更好地识别Deepfake视频,可以要求对方做出一些特定的动作,如用手指按压鼻翼或脸颊,因为Deepfake技术尚无法完美模拟这些细节。
此外,利用AI技术检测Deepfake也是一个研究热点。例如,通过分析视频帧之间的时序一致性或检测皮肤的细微色彩变化,可以发现Deepfake视频的破绽。但需要注意的是,Deepfake技术本身也包含了生成器和判别器,因此任何检测手段都有可能被进一步优化的Deepfake技术所规避。
法律与监管的重要性
近年来,我国出台了《互联网信息服务深度合成管理规定》和《生成式人工智能服务管理暂行办法》,但这些法规主要约束的是平台方。随着技术发展,Deepfake完全可以在个人电脑上独立完成。因此,应对Deepfake带来的问题需要技术、平台、法律的多元协同治理。假冒名人身份、欺骗他人购买产品的行为不仅可能侵犯他人的肖像权、名誉权,还可能涉及诈骗罪、虚假广告罪等刑事犯罪,必须依法严惩。