针对深度伪造技术 发展主动防御技术
如何在保护数据安全和推动人工智能发展中寻找新的平衡点,实现更广泛的公共利益?与会嘉宾认为,需要从技术管控和相关法律法规完善落实中,进一步筑牢人工智能时代的数据安全防线。
在2025年中国网络文明大会个人信息保护分论坛上,来自中国科技大学的研发团队介绍了针对当前人工智能深度伪造的主动防御技术,如通过对待保护的人脸图片添加特定的扰动噪声,让篡改伪造图片从而生成虚假图片或视频的模型失效。
中国科学技术大学网络空间安全学院执行院长 俞能海:我现在有一种手段,我让人看没有问题,但加上一个不可见的因子,可以理解为“噪声”,到这个图像里去,人看不出来,但是机器可以看出来。如果说把这样的一些照片作为源头进去,别人拿去做实验,想合成一个新的数据,新的一个为他所用的影像,那就不可能实现,或者你实现了我就知道你是假的。
数据安全和隐私保护技术迭代更新也进一步促进个人信息保护相关制度法规的落地见效,与会嘉宾表示,目前我国已出台《个人信息保护合规审计管理办法》《网络数据安全管理条例》《生成式人工智能服务管理暂行办法》等重要法律法规保障数据安全,并着重压实了信息处理相关企业承担保障数据安全的社会责任,如强调相关企业收集个人信息需遵循“最小必要”“告知同意”“合法正当”等原则。
国家信息技术安全研究中心技术研究部部长 杨韬:我举个例子,个人信息处理者需要去仔细研判,比如说我某些字段不采集,我的这项业务是否就真的进行不下去了,同时对于已经采集或者是准备采集的一些信息,应该是需要去考虑有没有替代的方案,既能够完成业务要求,也能够充分减轻降低或者规避可能存在的违法违规收集使用个人信息的安全风险。
北京师范大学法学院博士生导师 吴沈括:在面对新技术新应用的演进过程当中,特别是面对人工智能等一系列新的技术样态和技术应用的时候,我们国家的规则的演进应当说速度其实非常快的。涉及到人工智能语境下的个人信息处理的透明,又比如说关于各项业务的可溯源可审计的问题,我们还需要进一步地去迭代,去更新法律法规,使得规则要求,价值的保障和实际的技术应用之间能够保持一个同步的进展。