随着ChatGPT在行业内外引发越来越多的担忧,监管部门一致认为,指望开发商自我监督是不够的。负责任的人工智能系统可以带来巨大的好处,但前提是我们要解决它们的潜在后果和危害。为了让这些系统发挥全部潜力,公司和消费者需要能够信任它们。
美国国家电信和信息管理局(NTIA)希望了解是否可以采取措施来保证人工智能系统是“合法、有效、合乎道德且安全的,并且在其他方面值得信赖”。欧洲各国政府也正在将人工智能的监管提上议程。法国隐私监管机构CNIL表示,已收到多起关于ChatGPT的投诉,并正在调查这些投诉。西班牙数据保护机构AEPD也表示,已要求欧洲数据保护委员会评估围绕OpenAI的人工智能聊天应用程序ChatGPT的隐私问题。
各种利用生成式人工智能技术的应用和系统大量涌现,但算法背后的安全性、公平性,可信性、隐私保护和风险等方面得引导和规范应该来说是滞后的。4月11日国家网信办发布的一份《生成式人工智能服务管理办法(征求意见稿)》中提出,利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。这是国家首次针对现下爆火的生成式人工智能产业发布规范性政策。
从技术角度看起来这份征求意见稿非常专业,给开发和利用AIGC加上了“护栏”,要求清晰合理,这将有利于引导和规范AIGC技术朝正确的轨道发展。
规范AI生成内容服务 明确责任人
该办法阐明我国对AIGC的态度为积极支持、引导AIGC发展,并使得AIGC可以发挥更大的社会和商业价值。要求AIGC服务及生成内容“符合社会主义的价值观”、防止出现民族、信仰等歧视、尊重商业道德、尊重他人合法权益、“防止生成虚假信息”等。其中,价值观及防止歧视为应有之意,“防止生成虚假信息”判定难度较高,但对于提升AIGC所产生数据资产价值提升具有比较深远的意义。同时,该办法也确认AIGC服务提供者为最主要的责任人,也就是说即使服务提供者是内容的“搬运工”也要承担主要责任。并且,在提供前需根据规定向网信部门进行安全性申报和备案、变更、注销等手续对用户进行实名制验证违规生产内容应在3个月内进行优化、防止再次生成违反本规定按照网络安全法等相关法律和行政规范进行处罚。
我国进入“生成式AI”立法新阶段
《征求意见稿》的出台标志着我国进入“生成式AI”立法新阶段,尽管国内大模型研究和商业应用仍处于发展初期,但监管立法来得很快,对比全球政府的监管行动,中国无疑走在了前面。
在各行业运用AIGC服务的同时要树立安全意识与责任意识,在国防等重要信息部门慎重选择使用“生成式AI”服务,预防数据泄露、数据造假等事件的发生。作为政府层面首次出台生成式AI产业的规范性政策文件,在内容生成、数据来源、下游应用等多方面进行了明确约定,有助于国内“生成式AI”产业中长期健康有序发展。
《征求意见稿》指明未来人工智能的发展方向,为约束“生成式AI”盲目爆发式发展奠定了法律基础。但是意见稿出台时间比较短,内容相对简单,覆盖广度相对较弱,在未来一定还会出台相关的法律法规体系。除了法律、法规的制约以外,相关单位在人才选择和培养方面要更加注重道德约束,为我国生成式人工智能服务未来发展提供良好的外部环境。