您的位置:

金州动态

AIGC浪潮下的法律合规风险与防范

作者:超级管理员 时间:2023-11-09 浏览:1427

进入2023年以来,“ChatGPT”及“AI孙燕姿”等人工智能生成内容(Artificial Intelligence Generated Content简称“AIGC”)的火爆均表明生成式人工智能技术的发展已迎来新的浪潮。但在我们积极拥抱生成式人工智能技术给人类生活、工作带来的诸多变化和便利的同时,其也对个人信息保护、算法及数据安全、知识产权保护等领域带来了新的风险。

一、我国对生成式人工智能技术的监管体系及内容

2023年7月10日,为保护我国生成式人工智能技术健康、有序、合规发展,网信办等七部门联合颁布了《生成式人工智能服务管理暂行办法》(以下简称“《暂行办法》”)。《暂行办法》作为我国首部专门针对生成式人工智能的框架性规范,首度明确了生成式人工智能技术的含义,该办法对生成式人工智能服务实行包容审慎和分类分级监管[1],其出台为我国当下生成式人工智能技术发展带来的风险提供了防范依据。除此以外,我国也曾先后出台《互联网信息服务深度合成管理规定》《互联网信息服务算法推荐管理规定》《人工智能 深度合成图像系统技术规范》等相关规范,同时也发布了《信息安全技术 人工智能计算平台安全框架(征求意见稿)》等多项国家标准,并向社会共同征求意见,共同引导人工智能技术合法合规向善发展。

640 (2).png

表一:生成式人工智能技术部分规范表概览


二、生成式人工智能技术的合规风险及防范措施

(一)数据获取与处理

根据《暂行办法》规定,生成式人工智能技术是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。生成式人工智能技术在生成内容的准确度、细节度及内容上下文连贯度中都有着更加优异的表现,这离不开海量数据的投喂与训练,故而也引发了人们对该项技术在数据获取及利用过程中产生的相关风险的担忧。

1.数据获取阶段

《暂行办法》要求生成式人工智能技术提供者[2](以下简称“提供者”)应当使用具有合法来源的数据和基础模型,而非窃取等非法手段获取的数据和模型。

结合OpenAI在其官网发布的数据来源及其他数据采集方的采集方式来看,提供者获取数据方式大致可分为三类:向信息主体采集、通过公开数据采集以及向第三方采集。原则上,除法律法规另有规定外,数据采集过程应当取得数据主体的授权同意。值得注意的是,一方面即使提供者采集的数据系公开数据,但依据我国《个人信息保护法》相关规定,若该数据涉及个人信息,其也仅可在合理的范围内处理个人自行公开或者其他已经合法公开的个人信息,但个人明确拒绝的除外,同时,若该信息属于对个人权益有重大影响的,应当依照规定取得个人同意;另一方面,提供者在采集数据时也应当注意尊重他人知识产权,生成式人工智能技术在通过大量文本数据挖掘、训练过程中逐渐掌握相关规律并复制到自己的数据库中,从而最终进行输出,在这一过程中即使提供者挖掘的是他人已公开的版权作品,但我国大多数观点普遍认为该类行为并不符合“合理使用”的情形,故存在侵犯他人知识产权的相关风险,因此提供者应当尽可能使用不享有著作权的已公开作品或积极取得著作权人授权。同时,提供者还应当注意若其通过爬虫等技术从第三方网站等获取相关数据的,该行为也存在被认定为不正当竞争的风险。[3]

2.其他数据处理阶段

除了数据获取外,提供者在其他处理数据过程中,极有可能因其在相关模型学习训练和应用中,发生数据泄露风险,例如,因ChatGPT客户端开源库出现问题,造成部分用户的相关请求被错误返还至其他用户,内容包括但不限于聊天记录、姓名、支付地址等等隐私信息,引发了大量关注。除此以外,生成式人工智能技术亦难逃安全漏洞,并难以防范因该漏洞或其他网络攻击引发的数据泄露风险。故,提供者应当注意采取相应的安全保护措施以确保其获取的数据安全,防范数据泄露风险。

同时,因部分提供者位于境外,且其使用的服务器等均在境外,在此情况下的数据传输过程可能存在跨境风险。仍以ChatGPT为例,我国用户在使用ChatGPT过程中,其产生的相关数据将会被传输至境外公司[4],若传输数据涉及个人信息、商业秘密、国家安全等,可能会造成数据出境相关风险。故而提供者应当注意按照我国相关法律法规规定履行数据出境安全评估等义务,以此防范数据出境给组织、个人甚至国家带来的风险。

(二)生成内容

1.生成内容准确性风险

OpenAI在其官方网站上声称“ChatGPT有时会给出看似合理但不正确或无意义的答案”,而目前OpenAI官方尚难以完全解决该问题[5],同时OpenAI官方鼓励用户在发现ChatGPT输出错误内容或毫不相干内容时积极向官方反馈,以此促进其对相关模型进行完善并优化,从而提升ChatGPT输出内容的准确度。由此可见,生成式人工智能对自身所产出内容无法检视其正确性,如ChatGPT在回答问题时,错误的将其自己杜撰的案例提供给纽约律师史蒂文·施瓦茨用于撰写案件文件,但最终ChatGPT呈现的内容无从考证、被认定为虚假司法判例,施瓦茨律师也将面临相关处罚,给使用者带来了风险。

其次,依据我国《暂行办法》《互联网信息服务深度合成管理规定》等相关规定,提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德,不得生成虚假有害信息等法律、行政法规禁止的内容。尽管OpenAI在开发过程中尽可能的避免ChatGPT输出带有歧视、偏见、侮辱等虚假或违法及其他不良内容,但当用户有意指令、诱导ChatGPT输出前述不良内容时,ChatGPT最终也可能输出不良信息,如广东深圳某自媒体公司利用ChatGPT编造虚假新闻并散布、传播,且从中赚取流量获利,最终该公司法定代表人也因涉嫌寻衅滋事罪而被立案侦查。

2.生成内容侵权风险

人工智能生成内容可能存在两种不同情形,一是生成与现有作品完全不同、具有独创性的全新内容;二是生成与现有作品构成实质性相似或带有现有作品相关元素的内容。如前所述,在我国现有《著作权法》等相关法律法规体系下,提供者在未获授权情况下对享有著作权内容的相关作品进行抓取并训练、输出的行为,难以被认定为合理使用,故而在前述第二种情形下,若未提前获取相关权利人授权,则存在难以消除生成式人工智能技术在生成内容时的知识产权侵权风险。

中国信通院发布的《人工智能生成内容(AIGC)白皮书(2022年)》列明了AIGC应用的多种场景,包括但不限于虚拟网红、AI换脸、数字复活已故人员、虚拟商城、写稿机器人等场景,并指出当下生成式人工智能技术已在传媒、电商、影视、娱乐等行业取得重大创新发展。近期“AI孙燕姿”在各平台的火爆走红让歌手孙燕姿本人都忍不住出面感叹“人类无法超越它已指日可待”。细细探寻AI孙燕姿背后的技术原理,其利用生成式人工智能技术,通过提取孙燕姿本人的声音并将其作为素材输入相关模型进行训练,最终得到与歌手孙燕姿本人音色相似甚至几乎一致的模型后,再用该模型转换其他任意歌曲,“AI孙燕姿”便能演唱出与歌手孙燕姿声音如出一辙的音乐作品。在这类新兴场景中生成式人工智能技术带来的风险也较为鲜明:其一,如前所述,若未获取音乐作品著作权人同意即进行翻唱很有可能构成著作权侵权;其二,根据我国《民法典》第1023条之规定“对自然人声音的保护,参照适用肖像权保护的有关规定”,若相关使用过程未遵循法律规定,很有可能构成对他人声音权的侵犯;最后,AI歌手的翻唱行为极有可能造成大众混淆等不良后果,也存在被认定不正当竞争的相关法律风险。除此以外,生成式人工智能技术目前也存在被不法分子用于伪造不法视频并进行传播从而从中获利,严重侵犯他人名誉权、肖像权等合法权益的情况。

根据我国《暂行办法》第十四条之规定,其明确了生成式人工智能技术提供者的职责,要求其在发现违法内容或发现用户利用生成式人工智能服务从事违法活动的,应当采取相关措施,并进一步规定了提供者违反办法规定的法律责任,由此可见,《暂行办法》出台后,提供者及相关使用用户也将面临更高的监管要求。对提供者而言,其更应当充分进行自我规制、自律自治,并根据不同应用场景情况确定风险审核义务,主动承担风险防范、内容治理责任。

三、结语

数字经济时代,生成式人工智能技术的蓬勃发展极大的提高了人们的生产力,但与之同时其也引发了包括数据安全等在内一系列亟待解决的问题。有鉴于生成式人工智能技术高速发展之下其风险的复杂性和未知性等特点较为显著,因此解决其带来的问题更加需要政府、社会组织、企业、个人等多主体共同参与并通力合作。



[1]详见http://www.cac.gov.cn/2023-07/13/c_1690898326795531.htm,2023年8月14日访问。


[2] 《生成式人工智能服务管理暂行办法》规定生成式人工智能技术提供者即利用生成式人工智能技术提供生成式人工智能服务(包括通过提供可编程接口等方式提供生成式人工智能服务)的组织、个人。


[3] 毕文轩,《生成式人工智能的风险规制困境及其化解:以ChatGPT的规制为视角》,载于《比较法研究》,2023 年第 3 期。


[4] 张紫薇,《初探AIGC监管现状及合规风险——以ChatGPT为切入点》,2023年4月。


[5] 详见https://openai.com/blog/chatgpt,2023年8月14日访问。