本文转自:人民政协报

本报融媒体记者 刘乙潼 宋宝刚

《 人民政协报 》 ( 2024年09月27日   第 11 版)

只要一张照片换脸,随即就能在网络复制“N”个自己,近日,有关“Deepfake”(深度伪造技术)事件的相关话题涌上热搜,利用“AI换脸”侵权的情形层出不穷,带来了较大的网络安全隐患。

记者发现,搜索“AI换脸”等关键词,无论是在手机应用商城还是社交平台、短视频平台,都能看到大量提供“AI换脸”的服务App和小程序,制作成本极低,几分钟内即可完成,并通过社交媒体进行推广。然而,“AI换脸”在为用户提供趣味性的同时,背后也暗藏着法律风险和侵权纠纷。

如果发现自己被“换脸”侵权该怎么办?如何防止“深度伪造”换脸技术被滥用?部分政协委员在接受记者采访时进行了深入解读。

“AI”是一把双刃剑

“‘AI换脸’技术,也被称为人脸深度伪造技术。其本质是一种基于人工智能深度学习技术和计算机视觉技术的新应用,通过神经网络模型生成对抗网络(GANs)来学习和理解人脸的结构和特征。”全国政协委员、360集团创始人周鸿祎介绍,其原理在于通过对数据的预处理,将原始图像去除冗余信息,分类标注目标对象的面部特点,以面部数据的形式进行分类划分。

“简单来说,人脸伪造的过程就是系统通过收集大量的面部图像作为训练数据,通过算法分析这些图像中的模式和特征,当生成新的人脸时,系统会根据输入的特定指令或已有的面部模板,调整和混合不同人脸的特征,创造出看似真实的新面孔。”周鸿祎进一步解释道。

“‘AI’是一把双刃剑,既是科技发展的重要方向,也存在风险隐患。”周鸿祎表示,“其最大的危害是被用于欺诈行为,甚至成为影响国家政治安全、社会安全的武器。对于个人而言,也可能成为敲诈的工具,比如将一条伪造视频发给其家人,要求家人打款转账等。因此,要为‘狂飙’的‘AI’系好‘安全带’,让其成为‘帮手’,而不是‘帮凶’。”

用科技应对科技,用“魔法打败魔法”

目前,“刷脸”支付、认证、办事等已广泛应用在各种生活工作场景中,带来方便快捷的使用体验,但用户的面部信息也随之面临着被泄露的风险。

“人脸信息的滥用将导致隐私泄露、身份盗窃、虚假信息传播等危害。”天津市政协委员、中创时代大数据集团董事长吕鹏辉表示,为规避风险,个人应提高防范意识,不随意提供人脸信息,进一步加强个人账户安全设置。同时,平台作为个人信息的“守门人”,应该大力利用新技术,切实提高管网治网水平,加强对AI技术发布内容的甄别,使其遵守法律“红线”和道德“底线”。

那么,如何识别利用“AI换脸”的诈骗陷阱?吕鹏辉提示,在识别“AI换脸”时,可观察眨眼频率、情绪表达的自然度及声画同步情况,若眨眼不自然或情绪表达僵硬,可能是AI换脸。若发现自己被换脸,应立即收集证据(截图、视频链接等),并向相关平台投诉,要求删除侵权内容。同时,考虑法律途径维权,咨询专业律师并采取适当法律行动。

“在增强个人防范能力的同时,技术防范也同样重要。针对科技手法花样翻新的‘AI换脸’电诈,需要用科技应对科技,用‘魔法打败魔法’。”周鸿祎补充说,“例如,以Sora为例,如何在Sora产生的视频里加入不可更改、不可替换、不可修改的内部‘水印’,根据配合读取‘水印’的程序,一看‘水印’便知它是否为伪造视频。通过合理的监管和有效的防护措施,可以最大限度地发挥其积极作用,同时减少潜在危害。”

安全“玩转”AI

不可否认的是,“AI换脸”技术作为一种新兴的人工智能应用,也在多个领域展现了其独有价值。

周鸿祎介绍,一是影视制作,比如因为某种原因需要对影视作品中的某个角色进行替换,或者希望把某位已故的演员加入作品中,可以利用AI换脸技术快速、低成本实现这一需求,节省时间和经济成本;二是游戏行业,制作方开发的游戏作品希望使用某位知名演员的形象作为主角,也可以与其进行沟通协商,经本人同意后用这种方式快速实现;三是制作数字人,用户可以创建一个拟真的数字替身,再用自己的声音、行为习惯等对其进行设定,放在某些特定场合如展会导览、公司业务介绍等。

“在‘玩转’AI的同时也要保护好个人隐私和数据安全。”吕鹏辉建议,首先应确保人脸信息的合法获取与使用,遵循合法、正当、必要的原则,并取得个人的明示同意。其次加强信息安全管理,采取必要的技术措施保护人脸信息的安全存储和传输,防止信息泄露、丢失或被非法使用。

“此外,企业和机构还应建立完善的个人信息保护机制,加强员工培训,提高信息保护意识。政府和监管机构也应加强监管力度,制定和完善相关法律法规,规范人脸识别技术的使用。”吕鹏辉建议。