翻开流淌中国文明的书卷,我们惊讶的发现,在两千多年前,智者们便以古老的笔触勾勒出惊心动魄的机械化生命,唤醒了人们对机器智慧与生命的原始的遐思。《史记》描绘了机械兽、精巧器械的神奇故事;《庄子》中思辨了人与机器的辨析;《列子》中讨论了制造人造人的可能。《山海经》中描绘了机关兽、神奇造物的奇幻场景。
随着科技的进步和现代文明的发展,中国当代科幻文学也涌现出一批富有想象力和启迪性的作品。在刘慈欣的科幻小说《三体》系列中,虚拟现实游戏“三体”为读者展现了一个充满智能生命和宇宙文明的广袤宇宙。而在王晋康的小说《人工智能时代的公民》中,作者设想了一个未来社会,人工智能已经成为社会的一部分,引发了对于人工智能与人类关系、权益道德和相关风险的讨论和思考。
真实案例,利弊相依
4月20日中午,好友通过微信视频联系郭先生,声称需要430万保证金并请求借用郭先生公司账户进行转账。未核实款项到账,郭先生不加怀疑地转了430万给好友。后来才发现被智能AI换脸和拟声技术诈骗。
10分钟被骗430万,人工智能深度内容合成模糊了真实与虚假的边界。然而,在内容产业上,AI换脸有它的优势和价值,比如在《三千鸦杀》《了不起的儿科医生》《长安十二时辰》等影视作品中,都因为原演员问题,部分角色用到了AI换脸技术,极大地降低了拍摄成本。
首先,从国家层面来说,其算法和数据驱动性质可能导致暴力冲突和意识形态渗透的风险。虚假内容的生成可能误导公众舆论,而恶意使用该技术可能加剧国际关系的紧张和误判。此外,滥用生成式人工智能可能对国家安全造成直接威胁,包括攻击基础设施和进行网络犯罪。
其次,从社会层面来说,数据垄断和道德操纵的风险最大,可能导致创新受阻、市场失衡和社会分裂。在私权利方面,增加犯罪可能性和侵犯用户隐私也是潜在的风险。举例来说,虚假信息生成和个人数据泄露可能导致误导公众、身份盗用和信任破裂。人工智能技术的进步可能引发一场前所未见的错误信息海啸,因为这类工具非常擅长对任何事情做出令人信服的叙述,其标准的语法和完美的逻辑足够迷惑大多事外群体。例如,ChatGPT编造了一个真实教授的性骚扰丑闻,然后以一篇假的《华盛顿邮报》文章的形式为其说法提供证据,并为其创建了引用。
但不可置否的是,人工智能技术的进步产生了革命性意义,其具有跨界、横向、打通的能力。这种能力使得人工智能技术在医疗、金融、制造等领域的应用得到了前所未有的提升。
抽丝剥茧:剖析潜在动因
正如上文所述,目前生成式人工智能损害隐蔽、破坏性大,只有先思考风险背后的动因才能更好的提出相关治理性意见。
(一)现行法律制度不足
法律制度不成熟是导致人工智能风险的一个重要原因。在行政责任方面,政府虽然能对生成式人工智能进行监管,但仅仰赖行政监管无法充分规制。生成式人工智能的算法运作机制难以解释,增加了政府监管的成本。此外,数据流动涉及多个主体,现有机制无法联动不同部门展开数据监管协作,也无法在数据跨境中与其他国家机构进行协作,缺乏协同治理的可能性。在民事责任方面,相关实践和理论研究都还不充分。现有的数据治理范式主要侧重于采用著作权和反不正当竞争等途径保护数据权益,但无法规制生成内容。同时,生成式人工智能的侵权行为隐蔽且后果严重,采用人格权利保护路径也无法消除已产生的影响。此外,生成式人工智能涉及知识产权、反垄断和生成内容归属等新问题,还涉及底层数据和算法问题,且涉及公平公正等价值判断问题。算法黑箱下的举证困难也是现有民法体系难以规制生成式人工智能的原因。在刑事法律方面,虽然存在一些具体条款能够规制,但存在着缺陷。例如,现有的虚假信息罪仅局限于特定情况,无法适用于生成式人工智能的内容生成方式。同时,煽动颠覆国家政权罪的构成要件与生成式人工智能的互动形式不完全吻合。
(二)准入门槛低且统一治理原则缺失
由于其低准入门槛,许多人都可以轻松获取和使用相关工具和算法,而无需深入了解其潜在风险。比如,在日常生活中,不少网友体验过娱乐性的AI换脸。早在2019年,一款名为“ZAO”的AI换脸软件就曾风靡网络,只需上传一张照片就能让普通人成为影视剧的男女主角,出演经典电影片段、甚至跟偶像飙戏,受到众多网友的体验追捧。
另一方面,由于人工智能领域缺乏统一治理原则,相关法律、道德和伦理问题得不到一致解决,增加了风险的复杂性。举例来说,数据隐私和安全问题是人工智能应用中的重要考虑因素。如果缺乏统一的治理原则,个人数据可能被滥用、泄露或未经授权的访问,给用户带来损害。此外,面部识别技术在安全监控、身份验证等领域有广泛应用,但缺乏统一的原则和限制,可能导致滥用和侵犯隐私的行为。
(三)公众对新技术的新鲜感与知识空白
公众常常对人工智能技术的新颖性产生兴奋和好奇,而更关注其带来的创新和便利。然而,这种新鲜感往往使人们忽视了其中潜在的风险和负面影响。例如,人工智能换脸技术能制作逼真的虚拟视频,但也带来了身份伪造、隐私侵犯等潜在风险。公众往往更倾向于关注其在娱乐、社交网络等方面的趣味性,而对其中的伦理和社会问题关注不够。
此外,公众对人工智能技术的知识相对匮乏也是导致风险的因素之一。虽然人工智能技术受到广泛关注,但社会群体对于其具体的工作原理、算法和数据处理过程等方面的了解仍有限,难以准确评估其潜在风险和局限性。
赋技于治:相关保障措施
尽管人工智能的潜力存在很大的不确定性,但它可以降低劳动成本和提高生产率,甚至生成与人类创造成果无法区分的内容,并能打破人机沟通障碍,反映出具有潜在巨大宏观经济影响的重大进步,如何利用人工智能将社会推向新的繁荣是值得每个人思考的问题。
从国际角度来说,国外科学家呼吁暂停对更强大的AI系统的开发,中国出台生成式人工智能服务管理新规,都是在人工智能获得关键突破的关键时点,针对人工智能可能的风险隐患,采取理智的防范措施。人工智能的监管需要国际社会经过评估,划出统一的、清晰的安全底线,供各国共同遵守。
从本国的视角来看,各部门应信息共享,加强监管。去年12月,国家网信办、工信部、公安部联合发布《互联网信息服务深度合成管理规定》,对人脸生成、人脸替换等都有明确约束。国家相关部门应继续联合对各种出现的新情况进行规制。同时,相关部门应去思考如何构建一个既能占领全球技术高地、又能避免垄断的国家级算力基础设施;如何构建一个资源可共享、商业可持续、监管可包容、金融机构和科技公司可受益的金融算力生态圈。
提高准入门槛可以通过完善平台审核机制和加强机制认证这两个角度考虑。平台审核包括对开发者和供应商的背景调查,对算法和数据集的评估,以及对潜在风险和漏洞的审查。而建立人工智能技术的资质认证和许可制度可以确保只有具备必要资质和能力的实体才能开展相关业务。
明确惩治的相关群体是减少相关违法事件的重要一环。首先应责令发布者更改删除相关不当内容;其次应责令MCN机构承担作为内容创作和管理的中介平台的责任,引导其加强对创作者和内容的审核与监督;再次平台方也需要承担部分责任,因为作为提供人工智能技术服务的平台,他们有义务严格管理平台内容,加强违法内容的监测和处理,以保护用户权益和社会公共利益;同时数据提供者和数据供应商也应敲响警钟,确保提供的数据合法可靠,避免违法数据和技术被滥用,以维护其安全和合规性。
如何通过全平台矩阵的方式提升公众的数字素养、自我保护意识和法制意识对于降低人工智能风险至关重要。这需要相关宣传部门在日常生活中加强对于数字知识和安全意识的宣传,同时引导公众群体掌握自己的权益和维权途径,提升维权能力,遇到问题及时向相关执法机构报案。
深度合成的惊艳表现昭示了生成式人工智能带来的技术革新,市场为之沸腾的同时,人工智能的相关风险逐渐显现,人类可以享受人工智能带来的繁荣未来,但不能沉醉于“AI之夏”,毫无准备地陷入秋天。思考如何引导变革性技术远离极端、大规模且各种新型的风险,转向造福生活是我们的必由之路。