其右论坛第二十四期网会于2024年2月1日顺利召开。本期论坛的主题是“生成式人工智能的法律挑战与应对”。来自多所高校的60余名师生参与了本期论坛。
其右论坛的发起单位是:上海交通大学网络空间治理研究中心。
本期论坛的主办单位是:北京师范大学法学院。
寿步教授(上海交通大学网络空间治理研究中心主任、中科大知产院人工智能治理研究中心主任)和薛虹教授(北京师范大学法学院教授)在开幕式上先后致辞。开幕式由张玮琛(北京师范大学法学院博士)主持。
寿步
寿步教授首先对薛虹教授及其团队筹办本期论坛的辛勤付出、对本期论坛各位发言师生的大力支持表示感谢。其次,寿步教授介绍了其右论坛的缘起,提到“其右”对应“none”,用“其右”作为论坛的名称,用以表达论坛的旨趣,寄予对博士后、博士生、硕士生未来远大前程的期待。最后,寿步教授从四个方面分享了自己对于人工智能法律问题研究方法的认识:一是人工智能法律问题研究者要对ai科学技术有尽可能多的了解。二是人工智能法律问题研究者要对ai哲学研究有尽可能多的了解。三是人工智能法律问题研究者要对ai伦理研究有尽可能多的了解。四是人工智能法律问题研究者要对外文的ai法律论著有尽可能多的了解。要重点解决“三关”问题,即“外语关”“技术关和“中文关”。寿步教授提出人工智能法律研究应遵循“科技→哲学→伦理→法律之道”,也希望大家借助其右论坛相互学习,增进友谊,携手共进,进一步推动学术研究。
薛虹
薛虹教授在开幕词中,表达了对论坛的参与者表示衷心的欢迎和感谢,她感谢寿步教授的信任,也感谢参与本次会议筹划的各位同学。就人工智能法律问题研究,薛虹教授从三个方面分享了自己的认识:第一,人工智能技术发展迅速,通用型人工智能技术会对知识生产、知识管理和知识传播带来革命性的变更。因此,她希望青年学者保持对创新性、新锐性和新卫性问题的研究动力,拓展研究潜力。第二,她鼓励学术研究交流能够保持知识的交锋性和辩论性,共同搭建学术知识命运共同体。第三,知识产权法、网络法、科技法等研究要有效实现国际化和全球化。国内外学者要不断加强对话交流合作,以期有更多的成果产出。
主持人张玮琛博士生感谢了两位老师的真诚发言和殷切嘱托,并鼓励大家积极发言,踊跃交流,碰撞出思想的火花。
本期论坛的主题发言环节由杨灵丽(北京师范大学法学院博士生)主持。
杨灵丽博士生感谢了两位老师的大力支持和鼓励信任,感谢其右论坛能够给予大家这个宝贵的交流机会,预祝本期论坛圆满举办,大家都能有所收获。
武佳
分享人武佳(北京师范大学法学院博士生)以《从数据本位到行为本位:生成式人工智能真实性保障模式的选择》作为报告主题。
武佳博士生首先对全球立法背景进行了简单介绍,展示了全世界不同地区在生成式人工智能领域法律监管的程度,重点比较了美国和欧盟相关立法概况。其次,她从四个部分来展开论述。
第一,生成式人工智能的模型幻觉与潜在风险。她首先介绍了生成式人工智能的技术原理,重点分析大型语言模型技术。其次,她介绍了封闭域幻觉和开放域幻觉两种模型幻觉。最后,她从个人、国家和社会三个层面来分析了技术风险,并以虚假信息扩散案例来深入论证。
第二,以数据真实性为中心的规制模式。围绕2023年4月发布的《生成式人工智能服务管理办法(征求意见稿)》,她介绍了该法律规范其中所展现的规制逻辑、规制特征、问题及风险。为了保障数据真实性,“意见稿”采用了事前规制的规制逻辑,输入端是训练数据真实性要求,输出端生成内容真实性要求,技术端是模型优化训练要求。其中隐含的问题及风险主要有真实性与生成式技术“创造性”相悖、监控和执行数据真实性原则面临技术挑战、合规成本过高扼杀产业创造力。
第三,以行为责任为中心的规制模式。围绕2023年7月发布的《生成式人工智能服务管理暂行办法》,她从规制逻辑、规制特征、规制优势三个方面比较分析了以行为责任为中心规制模式的优越性。该法律规范的规制逻辑为工具论,从规制特征上来看,比起“意见稿”,降低了数据真实性要求,加强了对用户不法行为的监管,巩固了风险告知及合法性引导义务。以行为责任为中心的规制模式的优势体现在衔接了用户个体责任与服务提供方的平台责任,切割了虚假有害信息的“生成”和“传播”的责任。在信息传播层面,将焦点转移到使用者的具体行为,而不是执着于生成式技术本身,减轻了生成式人工智能凯发官网入口的技术支持者、服务提供者的连带责任。
第四,发展与安全并重的包容性规制。她指出《生成式人工智能服务管理暂行办法》提出了“发展和安全并重、促进创新和依法治理相结合”的原则,在促进生成内容真实、准确方面,经历了由数据本位到行为本位的规制转向,监管规则更重视具体的高风险应用行为,而非生成式模型本身,适当减轻了凯发官网入口的技术支持者和服务提供者在数据真实性方面的技术合规要求。对于生成式技术本身的潜在风险,在行业起步阶段应保持包容审慎态度,给予企业一定的免责空间以促进技术创新升级。而对于由模型幻觉带来的可靠性缺陷以及模型偏见问题,可以通过提升数据质量、建立数据审核验证流程(建立安全评估数据集,例如cvalues)、优化模型设计和训练方法、引入用户反馈和参与等方法,提高生成内容的准确性和可靠性,但实现绝对的真实性保障仍然是一个持续的研究和发展过程。现阶段以行为责任为中心的规制模式,有助于在信息治理层面兼顾发展与安全,逐步纳入实践中的治理经验,推动生成式人工智能向积极正面方向健康发展。
鲍一鸣
分享人鲍一鸣(西安交通大学法学院博士生)以《生成式人工智能的科技安全风险与防范》作为报告主题,从以下四个方面出发进行了分享。
一是生成式人工智能的出现及其影响。她提到生成式人工智能技术发展迅速,受众广泛,拥有超强的算法和算力。生成式人工智能作为科技变革和产业赋能的重要引擎,凭借其强大的自然语言处理能力而具备广泛的应用前景。
二是生成式人工智能引发的科技安全风险。首先,她将生成式人工智能引发的科技安全风险归为五类:一是数字霸权和科技资源垄断等国家安全风险(数据投喂、政治偏见;博弈论);二是算法黑箱和算法歧视等算法安全风险;三是人机互动过程人的自主决策意识丧失的科技伦理风险;四是跨境流动过程产生的数据和知识产权侵权风险;五是其他风险。其次,她以人机关系、人际关系的核心进一步分析生成式人工智能对社会的整体影响。人际交互、人际协同和人机对抗现象不断涌现。人机关系从简单的“它异关系”逐步演化为“人机耦合”关系,生成式人工智能逐渐从工具属性转变为更加复杂的类人属性,人机协同将广泛渗透于各种应用场景之中。在频繁的人机交往过程中,用户可能逐步对生成式人工智能信息获取产生强依赖心理,但鉴于自身能力有限而无法对信息质量进行有效鉴别,实际构成了人机关系的不平等“交互”。最后,她从科技伦理风险层面上进一步探讨了生成式人工智能对社会的整体影响。一是人机关系层面,随着机器自主决策意识的加深以及人对机器日渐依赖,可能造成人的自主决策能力减退。二是生成式人工智能本身的伦理及感知的匮乏。由于生成式人工智能本身难以实现类人的价值认同和情感表达,过度依赖人机交互可能影响人的价值判断。
三是无论再精进的深度学习技术都难以摆脱算法偏见。(算法黑箱和算法歧视)
三是生成式人工智能引发的科技安全风险产生原因。她将风险类型分为个人信息、内容安全、模型安全和知识产权四种,分别阐释了每种不同类型风险在无监督预训练阶段、有监督微调阶段、强化学习阶段和生成阶段的产生原因。
四是生成式人工智能引发的科技安全风险防范对策。她提出构建生成式人工智能多主体协同治理体系,科技治理具有不确定性,构建敏捷治理机制,解决不确定问题。政府机构需要积极参与敏捷治理,依法监管,定期进行风险备案和安全检查,认可采纳成熟的软法为法律法规和行业标准。科技产业需要进行科技治理和风险管理,严守合规底线。行业协会、科研院所和标准化组织等社会组织需要努力构建软性约束协同共治,运行成熟的软法推荐给政府。社会用户也需要参与敏捷治理,进行舆论监督,并主动接受科技应用的说明解释。
分享结束的尾声,鲍一鸣博士生从利益平衡的角度就艺术家创作过程中与人工智能合作、ai作品、“思想-表达”二分法的解构可能性、实质性相似理论的再解释等问题提出了自己的思考。
辜凌云
分享人辜凌云(北京大学法学院博士生)以《“作者已死”和“作品幻灭”的观念反思——基于产业政策的人工智能生成物的保护逻辑》作为报告主题,他四个方面进行了分享。
第一,问题的提出:纷繁案件的不同态度。首先,他列举了美国凯发官网入口的版权局拒绝将aigc登记为作品的多个案例揭示了美国对于人工智能生成物保护的态度。又通过深圳南山dreamwriter案、北互菲林案和“ai文生图”著作权纠纷案揭示了我国当前的态度。其次,他从“作者已死?”和“作品幻灭?”两个方面列举了拒绝赋权人工智能生成物的观点。“作者已死?”的相关观点有“ai不是人类,不能成为作者”“作者无法控制ai生成内容——控制力薄弱”“ai生成物可以被控制,但不能有作者”。“作品幻灭?”的相关观点有“不符合‘创’要求”“具有不可预测性”“因为ai不是作者,所以生成内容不是作品”。
第二,矫正“作者已死”:真正立场是回归创作空间的可能性。罗兰巴特是结构主义巨匠,结构主义在文学领域的代表非巴特莫属,之后他的思想转向后结构主义,他的思想尤其是作者理论,为文学领域做出杰出贡献。罗兰·巴特从对文本写作语言静态结构的建构转向了动态的、颠覆性的文本解构主义思想,更加关注的是读者在阅读与鉴赏过程中的参与式的、颠覆性的愉悦和享受。首先,“作者之死”有两个维度:一是否定作者权威,批判传统的作者观念;二是否定了作品中心和终极意义的存在。“作者之死”有三个论证逻辑:一是现代语言学为动摇作者的观点提供了珍贵的分析工具;二是在现代文本写作中,作者主体性的丧失导致了作者的死亡;三是读者的诞生预示着作者的死亡。“作者之死”的意义可分为两个方面:积极面是巴特的目的在于要开放本文,让文本从作者所占有的单一意义中解放出来,这种解放被视为反对神学和真正革命的活动,最终便是拒绝上帝和它的替代语,即理智、科学和规则。消极面是在肯定读者作用之时,也彻底否定了文本意义相对稳定性和读者对文本的反应的相对的共通性,这无疑也是一种极端化的倾向。其次,反思“作者已死”。“作者已死”产生于特定历史背景,受到法国哲学家雅克·德里达的解构主义影响。作者之死,强调的并不是将统治文本的权利转移给了读者,而是强调解开了文本的枷锁,让其获得了一个自由的阐释空间,在这个空间里,文本才能拥有多元意义。谁生谁死并不重要,这样的可能性最重要。因此,人工智能时代最有价值的还得包括含有作者身份的作品。
第三,重塑“作品幻灭”:叙事逻辑是重思产业政策的激励性。首先,他展示了当前的观点集合:例如:“没有人类创作就不构成作品,因为ai不是作者”“人不能创造,而只能选择。”“ai只是工具。”因此,未来作品价值的降低,轻而易举就能获得,作品本身可能会丧失定义某种类型商品的功能,取而代之的是某种风格。其次,他认为从规范意义上来看作品的判断最终都会回到独创性的判断上,这本身就是一个特别主观的判断概念,这个概念的主要逻辑预设了不同人的标准本身就不同,但是立法逻辑是不能设置高线。而现有分析主要有可预见性规则(用户是否可以根据提示词的预见跑图结果)、控制力标准(用户简单调试提示词和多次反复调试提示词出现的结果)、“思想和表达”的二分到“思想-风格-表达”的三分模式。最后,他对“可预见性”“控制力”和“风格”三个现有方法提出了自己的见解。对于可预见性,同一个思想产生不同的表达,这当中还涉及着一个重要问题,自然语言和机器语言的映射,正向提示词和反向提示词的选用,现在无法预见最后的结果,存在一个技术障碍,目前技术就是不断往前走弥合或者障碍。对于控制力,作品最后的生成是经过模型开发者和使用者共同反复作用的结果,如果单纯地简单输入输出,那可能构成作品的概率比较低,但是并不影响其进行市场流通。但是经过反复调试的提示词形成对最后结果有自身价值偏向和选择的内容应当受到保护。对于风格,风格是由模型来调整的,最终是由设计者来进行规划,使用者进行调整。风格在著作权法中一直处于很暧昧的状态,被某个具体表达固定下来的风格是否会受到保护。在现有规则下,风格是不受保护的。现在ai在几个小时,甚至几分钟就可以完成对他人风格的学习模仿,原画作者的优势荡然无存。他认为aigc解决的问题是,如何低成本快速地将抽象的风格转化为具体的作品(表达)。著作权法的立法目的就是激励将风格转化为作品的过程。
第四,一揽子问题的释清:产业政策下的ai生成物保护。首先,他从价值本位、治理目标、模型安全、个人信息、算法公平和国际合作六个方面比较了美国《关于人工智能的新行政命令》和我国《全球人工智能治理倡议》。其次,他释明了激励理论间歇性失灵的问题,认为在没有ai生成物创作物的年代,也都存在失灵的情况,激励的是应当受到激励的人,也就是那些流入到市场的作品,激励市场主体,维持其竞争优势,能够在市场上保有竞争优势。然后,他比较分析了不赋权和赋权两种路径下的后果,认为要赋权不仅仅是激励有能力将ai生成物进行产业化的人,更多的是维护下游在作品使用、利用、市场化过程中形成稳定的市场交易秩序和侵权发生时候能够找到对应的责任承担主体。而赋权给谁?是一个产业政策考量的问题。
与谈与互动交流环节,由张玮琛(北京师范大学法学院博士生)主持,有老师、多位博士生参与了评议和讨论。
孙山
孙山副教授(西南政法大学民商法学院副教授)首先感谢其右论坛邀请他作为本期论坛的与谈人。其次他就生成式人工智能法律问题及研究,提出了自己的几点看法:第一,概念使用应该更加谨慎。例如:人工智能生成物是否等同于生成式人工智能生成对象,到底是物还是内容。宽域人工智能和窄域人工智能,并不是技术发展水平的不同,而是应用领域的区分。因此,他激励大家要做更多技术、语言和其他学科知识的储备。第二,人工智能生成内容的底层逻辑不同于人类创作,是否因此就将人工智能生成内容排除于著作权法的保护或者进行区别保护值得考量。第三,人工智能创作成果是否包含高质量的智力结晶。著作权法保护的是智力成果,还是抽象的人性。第四,设计判决性实验来验证选择空间的大小和生成内容的随机性是否合理。独立性的判断是否局限于形式判断,还是应当深入表达背后的思想。在一定条件下,基础逻辑和市场逻辑可以解构法理逻辑。第五,坚守作者权体系的理论预设是否当然且合理,是否意味着需要对所有传统理论的坚守。采用实用主义的思路来解决问题是否意味着结果必然糟糕。孙山副教授总结:人工智能生成内容保护过程中不可避免会面临法律拟制的问题,在该阶段对法律拟制要保持理性态度,肯定其存在的正当性。应当关注生成式人工智能技术本质以及相应技术产生的产业效应,符合产业逻辑,关注产业行为规制。
左梓钰
左梓钰讲师(四川师范大学法学院讲师)首先表示十分感谢受邀参与与谈环节,并肯定了前述分享人的内容展示。她就生成式人工智能法律问题,分享了自己的几点看法:第一,人工智能生成物是否应该受到著作权法保护。独创性最初是美学中的概念,但当它进入法学领域时,就有了法律上的规范意义。意志论是回应这一问题的关键。在相关的法学研究中无论是类人意志论还是有限人格也没有脱离意志论的范畴。第二,以结果论来认定作品的方案应当谨慎。结果论的认定对整个社会的运作方式是一种比较大范围的改造,会传递一种价值导向,所以单纯地通过形式和结果来定义创作容易导致对利益的极端追求和对个体的不公平。第三,从产业政策、利益平衡和法律实用主义角度来解决生成式人工智能问题都是比较可行的。
靳雨露
靳雨露(清华大学法学院博士后)分别对三位分享人的内容进行了评议。她认为三位博士生的选题都极具现实意义和创新精神,后续经过进一步的推敲打磨,会形成学术成果。她建议在论证生成式人工智能的科技安全风险时,可以更聚焦于其中的部分论点。她认为生成式人工智能法律问题研究具有极强的理论穿透力,后续可以继续进行更加全面深入的研究。
黄丽
黄丽(上海交通大学法学院博士生)首先回顾了其右论坛的建立和发展历程,也希望其右论坛能越来越好,感谢会议承办方,呼吁未来有更多青年学者加入进行交流讨论。其次,她认为当前对于生成式人工智能技术的事实性问题还需要进一步深入研究,解决这一制约法学规范讨论的瓶颈问题。最后,她分享了自己关于生成式人工智能输入端-训练数据阶段的研究。她介绍了国内外几起生成式人工智能数据训练凯发官网入口的版权侵犯案例,提出当前研究的紧迫性和现实性。她从《生成式人工智能服务管理暂行办法》简单分析了我国当前对于数据来源合法性的要求,并提出了我国当前面临的数据链合法来源、部分环节不合法、商业性使用、知识产权合规审查成本过高等一系列问题。她简单介绍了美国、欧盟和日本对数据训练合法性的相关规定。
李安阳
李安阳(上海交通大学法学院博士生)首先对三位分享人的内容进行评议。就武佳博士生的相关研究,他重点围绕“机器幻觉”展开。他认为机器幻觉不仅与数据质量问题有关,也与数据数量问题相关。要保障数据真实性和数据来源的公平性、多样性,数据采样的合理性。现实中数据的加工过程(清洗、标注等)是复杂的,有多方主体参与,例如:外包业务,此时的数据加工就是由一线工人负责。这也就导致了具体操作过程责任链比较长,责任认定则具有了相当的复杂性。就鲍一鸣博士生的相关研究,他重点围绕“敏捷治理”展开。她认为这一概念属于管理学引进理念,未来如何在法学领域进行拓深研究,精巧规制,都需要保持一定的灵活性,但也同时意味着不确定性。就辜凌云博士生的研究,他认同不能因为后端的不确定性而否认前端的问题研究。研究人工智能生成物的保护问题,具有作者身份的文本是问题研究的关键。其次,他提出相关测试来判断人类对人工智能的控制力不具有科学性,因为这受到技术设备、指令描述等相关因素的多重影响,结果本身就具有不稳定性。因此,应当探讨生成式人工智能背后的技术机制,即深度学习。通过探究深度学习等相关技术本质来研究主体资格、自由意志的有无。最后,他提到现阶段生成式人工智能技术法律研究应当实现由实体性的主体资格研究专项程序性的客体规制,设置相关主体的权利义务。
在交流疑问环节,李延同学就“如何看待人工智能生成内容影响人的认知和创造?”左梓钰讲师(四川师范大学法学院讲师)从创造和认知层面来进行解答。在创造层面,人工智能生成内容对人的影响可以从作者与作品关系、独创性的认定来阐释。作品概念将许多美学元素作为构成要件,本身就是对创造概念的冲击,例如:创造是只认定结果,还是扩大到过程中。在认知层面,生成式人工智能会导致“算法黑箱”和“信息茧房”,影响人接触知识,导致人的思想和见识变得狭隘,进而影响人的创新。
郝明英
闭幕总结环节由张玮琛(北京师范大学法学院博士生)主持,郝明英讲师(中国政法大学民商经济法学院讲师)作闭幕致辞。郝明英讲师首先鼓励青年学者“无出其右”,肯定各位学者的发言,认为生成式人工智能法律研究涉及到科学技术、哲学、伦理、经济学、政治学问题,需要构建多学科的思维模型。其次,她认为人工智能生成的法律问题要拥有产业思维,而法律要保障产业发展,激发市场活力。最后,她提出知识产权的问题可以从人工智能生成内容过程来研究。在数据输入和训练阶段,数据的获取和使用使用凯发官网入口的版权作品的合理性和合法性、利益平衡问题、是否需要区分作品性使用和非作品性使用、区分通用型人工智能和某一领域的人工智能都需要进行深入研究。在数据输出阶段,生成内容是否属于作品,是否应当获得知识产权法保护以及人工智能生成内容侵权问题都需要引起关注。会议的尾声,郝明英讲师分享了一段chat gpt书写的文字:
面对生成式人工智能迅速发展的一个趋势,今天,我们这样的一个论坛,共同探讨了其所带来的伦理、法律、知识产权的挑战,那么未来法律体系将需适应并塑造一个公正,透明且安全的生成式人工智能应用环境。关于知识产权方面,如何定义人工智能生成内容的独创性、是否及如何保护人工智能创作以及确定其权利归属将成为我们急需解决的问题。我们倡导跨学科的研究与合作,通过理论创新和案例分析,构建一个结实的框架。确保生成式人工智能的可持续发展,并积极应对由此产生的社会、法律及道德问题,让我们共同携手,通过不断的学术交流与法规创新引导生成式人工智能走向更加繁荣与和谐的未来。