专业文章

试论AIGC所涉法律风险及规制方式

2023-10-07


一、AIGC的典型法律风险


生成式人工智能AIGC(Artificial Intelligence Generated Content)是人工智能1.0时代进入2.0时代的重要标志。


如今,AI和区块链等新兴信息技术对知识产权的冲击前所未有,它们不仅影响了权利客体的解释和保护,还直接挑战着权利主体的定义和地位。而目前,各国法律都尚未对那些由新兴技术所引发的知识产权问题进行立法,仍处于由司法实践“摸着石头过河”的探索阶段,其中许多判例对于某些问题的认定并不统一,甚至相反。但是,只有针对一个问题,各方都较为一致:知识产权 (如版权和专利)的创作者和发明者及权利主体是自然人而不是AI。


当前的AIGC的技术原理主要包括了模型训练与应用两个阶段,其结果的输出主要源于模型训练中的数据采集,并未具备深度“思考”的能力,因此也无法获得作者、发明人等权利主体的身份。但在模型训练与模型应用这两个阶段内,AIGC在生成内容过程可能产生不同的法律风险。


(一)知识产权侵权风险


1.模型训练阶段


数据是AIGC的灵魂所在,其所采集的数据来源于包括但不限于公共数据集、公共网站、自有数据、众包数据、合成数据等数据源。而AIGC获取上述数据的主要方式包括数据交易、自行采集和开放数据爬取等方式,但不管使用何种方式生成结果,该生成式人工智能输出的内容仍很大几率包含前述数据来源中他人享有著作权的内容,进而使生成行为被认定为是一种复制行为,并因此侵犯权利人的著作权。此外,如AIGC使用的数据集或文本中存在未经授权使用他人的作品、商标或专利等情形,同样可能导致侵权风险。


以著作权为例,在当前《著作权法》的语境下,在使用主体对受《著作权法》保护的作品进行使用时,必须在获得权利人许可,支付相应的许可使用费后方属于合法使用,而在现行《著作权法》下,AIGC对作品的使用并不能援引法定许可或合理使用条款作为其著作权侵权的例外条款。因此,AIGC未经许可使用作品的行为可能会因为侵犯被使用作品的复制、改编、信息网络传播权等权利而落入到侵权困境当中。


2.模型应用阶段


由于AIGC可以对于数据进行“学习”,在生成内容上,即使不是直接复制数据库中他人享有著作权的作品,也可能会产生与他人作品构成实质性相似的生成内容。有学者总结出“人工智能进行创作时有三种可能的输出结果:一是输出具有独特风格的全新作品;二是输出与原作品构成实质性相似的作品;三是输出带有原作品创作元素等基本表达的新作品。”现有的AIGC技术所生成的内容往往难以达到第一种结果,而在第二、第三种情况下,则可能会侵害到相关权利人的知识产权。具体而言,对于AIGC是否构成对他人知识产权的侵犯,构成对何种著作权具体权能的侵犯,需根据实质相似标准作相应判断。


(二)数据安全风险


2021年底国务院印发的《“十四五”数字经济发展规划》明确强调“数据要素是数字经济深化发展的核心引擎”,数据安全问题的重要性不言而喻。而在AIGC的生成过程中,以ChatGPT为例,其运行是基于蕴含大量数据的语言模型,通过学习以更好地预测对话的下文,并生成合理的内容。在此过程中,其在数据库中所抓取的内容可能包含自然人的个人信息。若开发者取得这些信息时并未获得个人同意,也没有为外界提供检查数据库中是否包含个人信息的途径,该行为很可能违反《个人信息保护法》的告知同意规则。此外,数据的入境与出境作为服务的开端和结尾,都隐藏着法律风险。尤其在数据出境方面,AIGC使用者所提出的问题中极有可能涉及到个人信息、敏感信息甚至有关国家安全、经济运行、社会稳定、公共健康和安全的重要数据。


(三)一般人格权侵权风险


AIGC的应用也极有可能会导致对肖像权、名誉权、隐私权与个人信息权等人格权的侵害行为发生。如个别用户专门使用明星、网红的照片对AI进行训练,并制作基于其肖像的专门模型,这种模型可能本身已经构成对明星、网红的肖像权甚至名誉权的侵犯。特别是个别模型可用于生产成人内容,未经许可使用、传播该模型并用于生产相关内容,可能涉及到刑事责任,对此风险还应予以特别关注。


(四)违法信息传播风险


AIGC的广泛使用可能存在加剧算法歧视与偏见的风险。以ChatGPT为例,根据OpenAI在其官网上的说明,即便其尽力使得ChatGPT拒绝用户不合理的请求,但ChatGPT生成的内容仍有可能存在着包含种族歧视或性别歧视、暴力、血腥、色情等对法律和公序良俗造成挑战的内容。因此,若对因算法歧视产生的可能违背法律法规或公序良俗的内容进行传播,则可能存在着违法信息的传播风险。


二、AIGC的法律规制探索


目前,对于包括AIGC在内的人工智能的法律规制,我国更多是从宏观政策的角度予以规范,尚未进行更为具体细致的立法工作。在监管层面上,对AIGC的法律规制大多散见于电子商务、数据安全和个人信息保护等领域的相关立法中,但还未形成统一、周延的法律规则体系。具体到前文所提及的诸多法律风险中,主要需要明晰的两个问题是:谁来承担侵权责任,以及如何进行归责?


(一)侵权责任承担主体


一般来说,权利人应该是承担法律责任的人,也即侵权责任承担主体。然而在司法实践中,AI生成物是否受《著作权法》保护尚且没有定论,遑论AI生成物权利人或责任主体的确定。这一司法实践中的认定模糊是造成生成式AI场景下侵权风险难以控制的主要原因之一。部分学者认为在人工智能侵权场景下,特定的算法开发人员应对该算法造成的伤害负责,这是传统侵权法视角下的正确做法。但在AIGC技术的应用场景下,不仅存有生成式AI工具自动侵权的情况,也有用户输入相关指令后所生成的内容侵权的情况,如果适用单一责任主体的侵权责任架构而不加区分,则可能会导致责任承担主体识别错误的发生。因此,需要根据AI生成“作品”的不同方式来分别认定侵权主体。


1.如果AI使用者只是给出了简单的指令输入,例如仅单纯使用初级换脸技术对图片进行换脸,这种情况下,AI对于数据库的使用与调动极为有限。虽然AI使用者未必通过AI生成了具有独创性的表达,但如若换脸后的图片侵犯了相关主体的肖像权,则原则上应当追究图片制作者,也即AI使用者的相关责任。不过,在大数据时代下,由于信息不对称等问题,受害人大多难以获知图片制作者的真实身份。在此情形下,人工智能生成内容服务提供者也应适用“通知-删除”规制,在接到通知后应采取删除、屏蔽、断开链接等必要措施,快速制止侵权行为以防止损害结果的不当扩大,并提供相关指令输入者的身份信息,协助受害人展开有效维权。


2.AIGC应用场景下,如生成过程中并不存在足以根本影响生成内容的人工干预,则此种生成过程仍可认定为是由AI本身对其内容的生成进行主导,对于此种人工智能的自主侵权行为,原则上应当由开发者承担最终的侵权责任。这是因为人工智能自主生成行为在本质上还是体现着算法编写者—生成式AI开发者的意志,可以将其自主生成行为视为“代理”开发者从事行为或作出决定。此外,开发者在开发过程中投入了人力、物力和资金,倘若项目失败,则由开发者承担相应的风险,因此也应当由开发者承担包括潜在侵权责任在内的法律后果。


3.最为复杂的情形出现在AI使用者通过反复训练AI、与AI对话,来不断调整AI生成内容,并且最终通过AI生成了体现使用者独特思想情感的具体表达的背景下。有观点基于前述原因认为此种情形仍应由AI开发者承担或有侵权责任,但笔者认为此种情形下应由AI的使用者作为侵权责任承担主体更为适宜。不可否认,开发者在前期算法架构和数据输入的过程中功不可没,但如果AI使用者对AI生成物进行反复调整,并使生成物呈现出体现了AI使用者独特思想感情的个性表达,则最终内容的生成有可能完全超出开发者的预想。在这种背景下,AI所生成的具体内容并不一定能体现出开发者的意志,反而有可能在使用者通过与AI反复的对话、调整过程中,直接产生了体现使用者思想感情的内容。此外,使用者与AI生成物的关系最为密切,如果经过使用者充分介入与调整的内容涉嫌侵害他人权利,由仅提供算法及数据的开发者承担侵权责任可能并不恰当。因此,使用者与这一作品的联系最为密切,更宜作为责任主体。


具体到司法实践中,如参照前述分析,在认定何者将最终对AI生成物导致的侵权承担责任时,难免面临着需要认定使用者的何种干预只是“简单给出了指令”、何种是“足以体现使用者独特思想情感的表达的干预”,但这一认定标准目前仍处于混沌之中,有待于我们在未来的实践中继续探索。


(二)归责原则


归责原则是行为人承担侵权责任的依据和基础,也是处理各类侵权纠纷案件所应遵守的基本准则。现行《民法典》继承了原《侵权责任法》的二元归责体系,即以过错责任为主,无过错责任(严格责任)为补充。无过错责任的适用具有严格的法定性,这就意味着,由于法律没有特别规定,对于AIGC场景下相关主体侵权责任的判定只能采取过错责任的归责原则。但事实上,适用单一的过错责任原则难以解决AIGC技术所带来的诸多侵权难题,一是该场景下受害人的举证难问题,二是该技术潜在的侵权风险与其侵权成本之间的高度不对称问题。


“在人工智能时代,由于算法的复杂性,算法带来的结果可能无法预测,并在更大范围内带来系统性的不利后果。”这类“黑匣子”问题严重影响了相关民事主体之间的法律关系的可预测性与相对稳定性,或许采取无过错原则更符合时下的形势。考虑到AIGC技术应用场景下的风险不对称问题,原则上受害者有权对由此造成的伤害进行追偿,而如果某一行为具有相对于受害人创造风险的活动而言不相称的、过度的伤害风险,那么在损害实际发生时,行为人就应当承担无过错责任,即严格责任。生成式AI在运行过程中具有造成大范围且不可控风险的潜在可能,并且相较于人类个体而言,AI能够以更高效的方式与社会进行互动,这导致AI可能给他人带来更大的侵权风险。在这一背景下,即使AI的开发者事先采取了合理的预防措施,对其课以较重的无过错责任也是适当的。更何况,开发者为了避免生成式AI侵权结果的发生,施加无过错责任在一定程度上能够促进AIGC技术的完善和发展。同时,它还可以节省维权成本。


综上,对于生成式AI自主侵权行为,似乎适用无过错责任的归责原则更为适宜,但即使设置了无过错或过错推定的归责原则,仍然可以参照其他无过错责任类型设置法定免责或减责事由,从而既能保护弱势群体的权益,也能避免过度的偏袒。


当前时代,科技发展一日千里,知识产权法立法可能永远无法追及,更无法超越,实践中只能通过立法或司法解释,以及不断修法或制定新法来应对发展新兴科技的挑战。随着技术的不断成熟,或许有一天,AI可能实现真正的深度“思考”,以至于满足作者或发明人的定义,等到那时,将由未来的立法者决定是否扩大权利人的身份范围及不同侵权模式下的规制路径。



律师简介

兰鹏  律师  合伙人  重庆

业务领域:

知识产权 | 公司业务

兰鹏律师,民盟盟员,清华大学—美国天普大学法律硕士合作项目硕士研究生。兰鹏律师法律功底深厚,沟通及应变能力极强,从事法律行业以来,担任多家政府部门及企业常年或专项法律顾问,并为客户单位成功解决了多起衍生诉讼。兰鹏律师在知识产权保护、知识产权(专利、版权、商标及不正当竞争)诉讼中表现尤为突出。


电话: +86 173 8233 2441

邮箱:lanpeng@hylandslaw.com

刘松慧  律师  深圳

业务领域:

争议解决 | 知识产权 | 互联网

刘松慧律师,九三学社社员,毕业于英国诺丁汉大学国际商法专业,获法学硕士学位。主要从事知识产权、争议解决、公司法律事务等领域的业务。曾为多家互联网头部企业、上市公司、金融机构提供法律服务,在民商事、知识产权等方面有一定的研究与实务经验。


上海至合律师事务所陈静律师参与了本文讨论,重庆办公室实习生杨馨儿对本文亦有贡献。