收起左侧
发新帖

陈璐旸|生成式人工智能机器人侵权认定思路探析

时间:2024-9-13 11:04 0 189 | 复制链接 |

马上注册,结交更多好友

您需要 登录 才可以下载或查看,没有账号?立即注册

x
DSC0000.jpg

生成式人工智能机器人通过利用、分析海量数据进行自主学习和训练,并在学习、训练过程中可随时接受用户指令,生成内容物。随着人工智能技术的发展,人形机器人越来越具有自主认知和创造能力,其法律地位若得到全部或部分承认,可通过购买保险、选定监护人解决其责任能力问题。生成式人工智能机器人产生的内容物一旦涉嫌侵害他人知识产权,法院在处理此类纠纷时需要明确各部分责任主体,并适用过错责任原则进行归责,同时对可能导致侵权豁免的事项进行审查。
DSC0001.jpg

2023年8月21日,世界机器人大会发布了《机器人十大前沿热点领域(2023—2024年)》,其中包括多种类型的机器人,人形与四足仿生机器人即在其中。人形机器人(Humanoid Robots)是指模仿人的外在和行为所形成的机器人,也称为“仿生人”,设计目的和实现功能使得其可“在人工作和居住的环境工作,操作为人设计的工具和设备,与人交流”。人形机器人外在与人类似,具有人的基本身体部位,如头、躯干和四肢,并具有一定程度的环境认知能力和应对决策能力。区分不同的应用领域,有工业型人形机器人、医疗型人形机器人、服务型人形机器人、娱乐型人形机器人、教育型人形机器人等,这些人形机器人运作的背后,正是不同类型的人工智能,可以说,这些人工智能是人形机器人不可或缺的“大脑”。生成式人工智能是利用算法、模型从大规模的数据中进行集中学习,以创造新的内容的人工智能技术。通过运用该项技术,机器人可以通过利用、分析海量数据来进行学习,然后形成自己的语言,例如ChatGPT这类智能聊天机器人,可以为用户提供娱乐、教育、咨询等服务,也可以用于生成其他类型的内容,如大段文字、音乐、歌词、图片等;又比如Jukebox这类智能预演机器人,可以通过分析目标的音色、风格甚至个性,来生成模仿演唱、表演等。当然,未来在生成式人工智能的支持下,人形机器人甚至可能会参与产品设计、科研研发等需要创造性、高智慧的领域。在这一波由人工智能技术掀起的革新浪潮下,我国法学理论界对其可能出现的法律问题分析、研究仍处于起步状态,立法层面更是滞后,并无对应的法律对其进行规制。然而,生成式人工智能引起的知识产权侵权纠纷已经在全球范围内产生,并迅速发酵。我们不得不重新审视以人工智能技术为依托的人形机器人当下及未来的法律地位,以及生成内容侵害他人知识产权时该如何明确责任主体、进行归责等问题。
通说认为,法律上的主体需具备权利能力和行为能力,各国普遍承认自然人和法人两类法律主体,但对于人形机器人几乎未承认其法律主体地位。学术界也有相当一部分学者对人形机器人是否具有法律主体地位持否定观点,理由有以下几点:1.人形机器人只相当于人类创造的产品,或者是人类实现自己目的的一件工具,无法达到“人”的高度。然而,人工智能技术的发展日新月异,当人工智能技术能够支撑机器人也能像人一样理性并富有人性地进行思考,脱离操纵者甚至算法本身做出判断,必然会带来变革,该种观点将随之淘汰。2.人形机器人即使再先进,都无法成为和人一样的高等生物体,某种意义上是“电子奴隶”。基于伦理的角度,不能因未来人形机器人具有高智力和独立思考能力而随意赋予除了人以外的个体以主体地位,否则高智商的黑猩猩也可成为法律上的主体。3.人形机器人无法承担法律责任,根据“权责一致”理论,自然也无法成为法律上的主体。持该观点的学者认为人形机器人并无可供支配的财产,无法独立承担其行为所带来的后果,然而也有持相反观点的学者认为,只有先赋予人形机器人法律主体资格,才能使其享有责任能力。
否定说虽然与现行法律法规不冲突,但因其太过保守,缺乏想象力而受到诸多挑战。已有学者建议部分或全部地肯定机器人的法律主体地位。其中一种观点认为应仿照法人的拟制人格,给人形机器人创设一种特殊人格。但反对意见认为,法人、非法人组织能够获得法律上的承认参与民事活动,是因为本质上其是由具有自由意志的自然人个体基于理性或者自然人集体协商后做出的行为,但是人形机器人由人工智能技术支持,背后是算法控制,这种控制模式已经超越了人类现有的控制范围。更多的观点是有限地承认其主体地位,考虑其承担责任的能力有限,与人也无法形成完全平等的关系,其权利主体的人格权利也应被限制。通过人形机器人法律主体地位激烈的思辨,可知:第一,人形机器人无法成为自然人一样生物学意义上的个体。这是由伦理决定的,而这种伦理是出于人类对自身保护的最基本要求。第二,人形机器人若被赋权,则需要解决其权利范围、行为规制、责任承担等一系列问题,需要有相应的监督机制和评估体系。第三,人形机器人的未来发展是一个可控的命题还是不可控的命题,取决于人工智能、仿生运动等科学技术的发展程度。
那么知识产权领域,人形机器人基于生成式人工智能形成的图画、文字、音乐、产品、方法等,人形机器人有无可能享有著作权、专利权?人形机器人能否将标识申请注册商标并享有商标权?现阶段,享有著作权、商标权、专利权的主体并不包括机器人,但在未来却存在该种可能性。人工智能生成的图画、文字、音乐、产品、方法等若被认为具有独创性或者创造性,具备了成为作品或者专利的构成要件,那么只剩下确定权利主体这一个问题。实践中,已经有类似案例,如我国首例人工智能生成的图片著作权侵权案,法院认定使用人工智能技术,输入一系列指令的自然人是该AI图片的著作权人;如美国版权局发布新规,提出人工智能生成物不属于受保护的作品;又如英国法院认定自然人不能以人工智能系统为主体为人工智能系统所创造的发明申请专利,因为根据英国法律,只有自然人才能成为专利的发明人。目前采取“产品说”“工具说”勉强可以解决权利主体认定问题,未来将已经具备自主学习能力,能够提取并分析海量数据,甚至具有自主创造能力的人工智能永久排除在法律主体之外,当现实需要给内容生成物匹配权利主体时,会存在逻辑上的混乱。当人工智能生成的内容物早已具备法律对于作品、专利的构成条件,是否还有必要寻找名义上的权利人,这是一个值得思考的问题。王迁教授、毛克盾博士等认为,人工智能生产的内容物不构成作品,自然也不应对其进行赋权。生成式人工智能在现有的算法、模型演练下,已经能生成具有特异性、非常复杂的内容物,如果无法赋权,将会对生成式人工智能产业发展产生巨大的打击,也与知识产权立法鼓励创新、推动科技和文化发展的本意相悖。对使用人工智能的用户赋权并不能彻底解决这种矛盾,有限、逐步放开人工智能的法律主体认定也许是一个未来可以尝试的方向。
生成式人工智能机器人在运作过程中,由于产生的内容物往往不可预测,给他人在知识产权层面造成损害的可能性大大提高,比如人形机器人将自己画的画、唱的歌通过网络进行传播,有可能侵害他人信息网络传播权,人形机器人制造的工业产品若进入流通领域,有可能侵害他人专利权。在机器人还未成为能够独立承担责任的法律主体之际,谁来为生成式人工智能的侵权行为负责是大众最关心的问题。
如前所述,现阶段的人形机器人运用了多项人工智能技术,生成式人工智能仅是其中之一。人形机器人在诞生过程中,涉及算法设计者、数据收集者、控制与处理者、产品制造者、软件所有人等众多参与者,投入到流通领域,还涉及各级销售者、终端用户。仅以生成式人工智能机器人为例,一旦生成侵权内容,那么必然陷入辨识侵权责任主体的困境。
仅在机器人制造领域,就有很多参与者。除了物理躯体外,人形机器人还有支撑其思考和运作的“大脑”,而“大脑”绝大部分是由多种人工智能技术支持运转。生成式人工智能技术是通过算法、模型对海量的数据进行提取、学习再创造新内容、再学习,如此反复的过程,其中涉及了算法和模型的设计者、数据收集者等等,复杂的技术和运作机制使得找出导致侵权的源头并非易事。再加上一个机器人往往不止运用一项人工智能技术,除了生成式人工智能外,还有其他人工智能,而当人形机器人越来越像真人,所运用的人工智能种类就越多。这样复杂的技术背景下,不仅很难找出根源问题,更无从谈及监管,此即“算法黑箱”。
终端用户对于人形机器人的作用主要有两种,一种是用户对机器人输入指令,机器人输出结果,即传统的“输入指令—输出结果”的运行机制,这种运行机制可以看出用户对侵权损害结果的产生施加直接的作用力,甚至可以计算该作用力的贡献程度;另一种是基于人机交互的模式,机器人不再被动地接受指令,而是通过与人类的交流完成从单向检索到智能交互的转变,这种模式下人工智能不再是一种简单的指令处理工具,而是与人类的语言、行为形成了某种联结,达成人类情感、智力的拓展,机器人根据用户指令输出内容该过程可以看作是机器人和人共同完成一项任务,随之也会带来这种模式下加害行为究竟由谁所致的问题。交互式的人工智能已经逐步取代传统人工智能,成为未来的主要方向,因此在此模式下能否对侵权行为进行拆解,能否区分不同加害者以及各自贡献度来分别评判,是一个值得思考的问题。
这类案件涉及侵权事实查明和技术事实查明两个层面,而技术事实查明往往是案件审理的难点,即使采用多种方式包括利用技术调查官、技术专家参加庭审,发起技术鉴定等方式来辅助法官查明技术事实,也无法替代当事人的举证,而当事人举证能力的强弱直接影响法官对案件责任主体的判断,法官审理经验、习惯、对案件事实的把握程度也会影响法官运用证明责任规则分配各方举证责任,从而推导、还原事实的过程。尽可能真实、完整地还原事实,为确立责任主体提供更为充分、详实的事实依据,当然有利于法官在案件中做出更为准确的判断。但实践中法官为提高效率对举证期限进行限制,有限时间内查明的案件事实是否可以准确还原客观事实,定位至真正的责任主体,是一个值得商榷的问题。
首先是法律层面,民法典并未针对机器人侵权作出特殊规定,根据“产品说”,当机器人作为产品因其存在缺陷给他人造成损害,其承担侵权责任的主体可以是生产者、销售者,甚至可能是有过错的运输者、仓储者等第三人。商标法规定的侵权责任主体为商标侵权行为的直接实施者,如生产者、销售者、侵权信息发布者,或者为侵权行为提供帮助的服务提供商、场地提供者、仓储者、运输者等。著作权法规定的侵权责任主体为针对各项具体著作权权利实施侵权行为的侵权人,或为侵权行为提供帮助的网络服务提供者等。专利法规定的侵权责任主体为直接实施侵权行为的生产者、销售者、许诺销售者,以及为侵权行为提供便利或帮助的自然人、法人和其他组织。反不正当竞争法规定的侵权责任主体为实施了侵权行为的市场经营者,这里的经营者是指从事商品生产、经营或者提供服务的自然人、法人和非法人组织。网络安全法、数据安全法、科技进步法等法律涉及对数据处理的规制和个人信息的保护,但并未涉及对主体责任的规定。其次是规章、法规层面,国家网信办等多部门出台了《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》(以下简称暂行办法)等部门规章;上海、深圳等地颁布了《上海市促进人工智能产业发展条例》《深圳经济特区人工智能产业促进条例》等地方性法规。其中只有暂行办法涉及对主体责任的规制。由于人工智能高速发展,而监管和规制处于缺失的状态,为减少隐患,防范风险而制定该暂行办法。暂行办法着重强调了生成式人工智能服务者需遵守的各项义务,包括不得侵害他人依法享有的知识产权。暂行办法第9条规定了生成式人工智能服务提供者应承担网络信息内容生产者责任,这意味着若依据生成式人工智能技术在网络上生成内容物,其人工智能服务提供者实际上为网络内容提供者,而非网络服务提供者,一旦涉及知识产权侵权应承担直接侵权责任,无法适用平台方的避风港原则豁免侵权。然而暂行办法并未对生成式人工智能涉及知识产权侵权时的服务提供主体进行整合,即这些主体涉及训练素材提供者、数据提供者、模型提供者,算法提供者等,如何将这些主体整合为“生成式人工智能服务提供者”仍是需要突破的难点;也未对责任主体进行划分,即划分哪种情况下责任主体为提供者,哪种情况下使用者或者其他主体也可能成为责任主体。无论如何,暂行办法对生成式人工智能服务领域提出了明确的要求,并为监管措施的落实提供了制度依据,对未来人工智能以及机器人立法起到了指引、借鉴作用。
再次是产业政策、行业标准层面,我国发布了《新一代人工智能发展规划》《新一代人工智能伦理规范》,行业协会发布了《人工智能深度合成图像系统技术规范》,从不同方面对人工智能的伦理性、透明度以及技术标准进行指导和规范,但均未涉及对主体责任的规定。
2024年3月13日,欧洲议会批准通过了人工智能法案,标志着世界上首次全面规范人工智能的法律诞生。人工智能法案明确标出了66类主体及第三方主体,统一称为“Operator”(经营者/运营者),涵盖开发AI系统或通用AI模型的提供商、部署者、产品制造商、授权代表、分销商、进口商等。从人工智能责任链方面,将人工智能的提供者、进口商、分销商、部署者等整个价值链的各自责任分别列举,尤其是对使用人工智能的部署者也规定了遵守使用说明这些详细的义务。细致划分各类主体以及列举各自责任以便于及时进行管控是人工智能法案值得学习和借鉴的地方。
不同于欧盟风险防范置于首位的监管主义,美国立法则遵循促进人工智能发展的鼓励主义。自动程序披露和问责法、2019年国防授权法案、《保持美国在人工智能领域的领导地位》、2020“国家人工智能计划”法案》、生成人工智能网络安全法案、《数据问责和透明度法2020》、2021算法正义和网络透明度法(草案)、2022算法问责法(草案)等一系列法案问世,数量居于首位,但更多侧重于维护网络安全、国土安全层面,条文大都是纲领性、非强制性的规划、建议。值得借鉴的是在算法方面的数据问责和透明度法2020、2021算法正义和网络透明度法(草案)、2022算法问责法(草案)三部法案,将算法自动化决策纳入监管,规定大型互联网平台企业应当评估、消除自动决策算法给信息隐私安全带来的风险及可能因肤色性别等差异带来的歧视,且消费者有权要求平台对算法自动化决策进行审查、解释。这也意味着消费者有权就信息安全隐患问题向平台提起诉讼。
从我国现行规范来看,人工智能是重监管和防范,但产生纠纷时由谁承担责任并未进行非常明确的规定。笔者认为,生成式人工智能机器人涉嫌侵害知识产权时,如何确立责任主体至少有以下几方面需要进一步明确。
首先,现阶段不考虑人工智能本身的认知性,从“产品说”着手,确立人形机器人所运用的生成式人工智能技术是一款产品。不同于人形机器人的物理躯体,机器人所运用的人工智能技术是服务,也是无形的产品,其价值甚至超过了物理躯体本身。其次,借鉴“产品责任”思路,人工智能产品的提供者为生产者,而机器人的售卖方为销售者。如果侵权行为是由于人工智能产品的设计缺陷所导致,那么原则上由生产者承担侵权责任,销售者与生产者承担不真正连带责任。最后,当一款运用人工智能的人形机器人已经具备认知、学习、创造的能力,“产品说”“工具说”显然无法适用,这时候是否需要有限赋予机器人以法律主体地位,并通过强制购买保险或者选定“监护人”等方式来使得机器人具有一定责任承担能力,成为责任主体,或者由“监护人”成为间接的责任主体,笔者认为该做法在将来更为顺应人工智能发展趋势,也能解决实际问题,值得进行可行性研究。
根据暂行办法,确立了生成式人工智能服务提供者,即明确了涉及网络信息内容物知识产权侵权的责任主体。如前所述,生成式人工智能涉及了算法和模型的设计者、数据收集者等,究竟谁才是生成式人工智能服务提供者,需要进一步明确。暂行办法规定生成式人工智能服务提供者是指利用生成式人工智能技术提供生成式人工智能服务(包括通过提供可编程接口等方式提供生成式人工智能服务)的组织、个人,但并未从技术层面明确这些组织、个人的范围,也未明确可以追责主体的数量。笔者认为应对这些收集者、设计者进行整合,确定一个主体来作为人工智能服务提供者。而对于权利方而言,以终端输出方作为服务提供者显然是符合其维权便利性要求,毕竟终端输出方容易被权利方所察觉,更易进行举证。
人机交互性增加了生成式人工智能的产出物具有不可预测性,用户在此过程中扮演何种角色决定了其是否能成为责任主体。首先,用户和人工智能共同协作完成一项输出,无法区分两者在侵害结果产生上所发挥的作用,那么用户应作为责任主体之一来承担侵权责任。其次,用户对于侵害结果的发生发挥了全部的作用,而人工智能在这之中只是服从指令、安排,那么应由用户作为唯一的责任主体承担侵权责任。再次,用户对于侵权结果的发生并未发挥任何作用,只是输入常规的指令或者合法的内容,此时用户不应作为责任主体承担侵权责任。倘若有多个用户参与其中,那么如何区分是否能作为责任主体?可以将多个用户视为一个整体,若整体对于侵害结果的发生发挥了全部或部分的作用,再来评判参与的各个用户。由于用户发出不当指令的行为对于损害结果的发生具有直接性,这时候可以适用“高空抛物规则”来对用户证明责任进行分配。
作为权利方,其只要证明机器人的侵权行为给自己的知识产权造成了侵害,即完成了初步举证责任,权利方可以选择生产者、销售者起诉,也可以选择用户起诉,也可以一并起诉。至于是设计缺陷所致,是技术漏洞所致,还是不当指令所致,权利方均无需举证,举证责任由被控侵权方来承担。当被控侵权方对技术事实进行举证,法院在查明时需要利用多方位的技术查明手段,但仍无法查清技术事实时,这部分的证明责任仍在被控侵权方,举证不能的后果由其承担。这种做法可以促进掌握技术的一方不断自我诊察,查找技术上存在的隐患,从而改进、革新现有技术,并通过签署内部协议方式明确数据收集者、算法设计者、模型设计者的权利、义务,杜绝源头违法,从而减少“算法黑箱”发生。同时,这种做法亦可以最大限度还原案件事实,用户最容易提供侵权行为发生时的证据,而生产者最有能力提供关于技术方面的证据。
在确定知识产权侵权责任时,我们需要讨论构成侵权的要件,是否需要有主观过错,承担责任时是否考虑行为人主观过错,即归责,这也是侵权行为法理论研究的核心领域。适用何种归责机制来对行为人行为进行评判定性,并需承担何种责任,可以更好地弥补侵权行为给权利人造成的损害,也是归责机制运作的意义所在。
不同于传统民法理论中的过错责任原则,知识产权的归责机制较为多元,有观点认为是过错责任;有观点认为在适用过错责任原则的基础上,将过错推定原则作为必要的补充;有观点认为将知识产权侵权行为区分为直接侵权行为和间接侵权行为,前者适用无过错原则,后者适用过错原则;有观点认为知识产权侵权责任构成并不强调主观上的过错,而是将归责的判断重点放置于行为构成上,甚至在侵权认定上主张无过错责任。
笔者认为,知识产权侵权行为构成上确实并不强调主观过错,从商标法、专利法、著作权法相关规定来看,判断是否构成侵权时并未对行为人的主观状态着重考察,而是突出了行为本身的违法性,如未取得授权、许可。在行为责任承担上也并未要求主观上具有过错,例如停止侵害、消除影响。但不能因此认为知识产权侵权承担责任的基础是无过错责任。无过错责任指无论行为人主观上有无过错.都须依照法律特别规定承担责任的一种归责原则。无过错责任在民法中一般运用于高度危险作业致人损害、环境污染致人损害等场合,需要法律进行明确规定。而知识产权保护旨在制裁侵权行为.并通过赔偿等救济手段实现对权利人的补偿,所以将无过错责任搬运至知识产权侵权领域,甚至是赔偿责任领域,实际上是扩大了对权利人的保护,不合理地强化了侵权人的法律责任,从而导致双方利益失衡。可以看出,在知识产权赔偿责任认定领域,还是会考察行为人主观状态是否系明知、应知。作为过错责任其中一种的过错推定原则也被广泛运用于知识产权赔偿责任认定中,如商标法、专利法、著作权法中均存在通过合法来源抗辩构成免责事由,如果销售者、发行者能够证明其提供的产品、侵权复制品是通过合法、正规途径获取,且不具有主观上过错,那么可以免除赔偿责任。生成式人工智能机器人涉嫌侵害他人知识产权时,也应当适用过错责任原则认定是否构成侵权,理由有以下两点:第一,从促成机器人产业、人工智能技术发展的角度,适用过错责任有利于鼓励创新,促进产业进步、技术发展。如果适用无过错责任原则,一旦ChatGPT这类生成式人工智能产品因为固有缺陷致人损害,服务提供者就需承担侵权责任,会导致服务提供者不敢轻易再将生成式人工智能产品投放市场,影响到相关技术的创新和发展。知识产权法立法宗旨是在保护权利人合法权益基础之上鼓励科技创新、文化创作,促进社会的文明进步和科学发展,适用过错责任能更好地引导人工智能服务提供者、销售者、用户预判风险,从而及时采取措施防止侵权行为的发生。
第二,生成式人工智能机器人产生的风险往往可控,不需要过多加以干预,适用过错责任已能满足要求。如前所述,生成式人工智能以产生内容物为其最终目的,该内容物往往以图片、文字、音乐、视频等方式呈现,不会直接作用于人并对人产生损害。而且在生成内容物过程中,可以通过附加标识的方式来降低其损害产生的风险。暂行办法规定,提供者应当按照《互联网信息服务深度合成管理规定》对图片、视频等生成内容进行标识,该标识行为使得生成行为可溯源,可监控,并有效防止侵权内容的快速传播。对于这类规模小、危害低、可控制的行为,适用无过错责任显然“杀鸡焉用牛刀”,适用过错责任已经能够达到制裁、补偿的目的。
知识产权领域,一旦特定行为予以发生,或者特定条件予以满足,有可能产生侵权豁免事由,这也是在认定侵权时需要排除的事项。
生成式人工智能建立在“云计算”“大语言模型”之上,通过自主学习海量数据,再结合用户的指令生成内容物,而这个过程中,学习的数据涵盖了他人作品,将不可避免涉及对他人作品的复制、改编等。这种复制、改编若被认定侵害著作权人对作品享有的著作权,势必会导致学习和训练无法继续,给生成式人工智能技术发展、运用形成阻滞。著作权法为了在著作权人和使用者、社会公众之间进行利益平衡,规定了12种使用他人作品但不构成侵权的情形,并用“法律、行政法规规定的其他情形”进行兜底,学术界称之为“合理使用”,但生成式人工智能在学习过程中的复制、改编行为并未在此之列。
如果生成式人工智能在复制、改编他人作品后并未生成内容物,那么该复制、改编的过程属于在人工智能程序中的临时行为,复制件、改编件也并未在存储器中长久进行保存,随时会被新的文件替换,这种行为和临时复制在本质上一致,不应认定构成侵权。如果生成式人工智能在学习过后确实形成新的内容物,该内容物具有一定独创性,并与在先作品的差别很大,不构成“实质性相似”,那么人工智能的使用行为属于转换性使用。转换性使用是由Leval法官在美国坎贝尔案中确立的。Leval法官认为,“如果二次使用增加了原作的价值—即被引用的部分被用作原材料,被转化为新信息、新美学、新见解和理解的创造……这种使用恰是合理使用为增进社会福祉旨在保护的”。Leval法官将“新作品是否以不同性质或目的添加了新的内容,是否使用新的信息、新的表达及意义”作为认定转换性使用的关键。转换性使用作为著作权合理使用的有益补充,被学术界和实务界逐步认可。需要注意的是,转换性使用和合理使用一样仅限于著作财产权。
如前所述,暂行办法规定提供者承担网络信息内容生产者责任,意味着提供者无法成为网络服务提供者适用避风港原则豁免侵权。但有学者建议生成式人工智能程序虽然不同于网络服务平台,但其运作原理有相似之处,可以适当扩大避风港原则的适用范围,将人工智能服务提供者也作为“平台方”可以参照“通知+删除”规则进行运作,减轻提供者的审查和注意义务。
人工智能本身既是服务,又是产品,故提供者具有双重属性。而现实中生成式人工智能侵权情形比较复杂,有的是由于用户发布不当指令所致,有的是因为设计缺陷或算法漏洞所致,有的则是混合原因,暂行办法将提供者简单划分为网络信息内容生产者,并不能涵盖涉嫌侵权的网络信息内容产生的全部过程。因此,有必要将一部分未直接参与侵权行为的提供者与内容生产者区分开来,参照网络服务提供者来适用避风港原则。但这里的避风港原则适用不仅需要“通知+删除”,还需要审查提供者是否存在“明知或应知”,即是否尽到了合理注意义务,审查的标准应高于一般的网络服务提供者。
当生成式人工智能搭载的模型和运用的算法更为复杂,学习和训练的范本难度更高,其创造性将大为提升,机器人可以通过自主学习、参与科研并反复试验设计、创造出新的产品、方法。但这过程中不可避免会使用他人专利。专利豁免是指为了平衡专利权人和社会公众之间利益,对专利权进行限制,规定特定情形下实施专利的行为不构成侵权的制度。实验例外作为专利豁免的一种,普遍存在于各国专利立法。我国专利法第七十五条第四项规定,专为科学研究和实验而使用有关专利的,不视为侵犯专利权。
实践中,实验例外该豁免制度很难证成从而被法院适用,这是因为很多使用行为并非“专为科学研究和实验而使用”,一旦落入“为生产经营目的”的使用行为,则很难纯粹被认定为“专为科学研究和实验而使用”。而“为生产经营目的”的使用范围很广泛,即使是政府机关、社会团体和其他组织在公共服务、公益事业、慈善事业中实施专利的行为,仍然属于“为生产经营目的”的范围。日本、德国等国家明确非商业目的,在科学研究、实验中的使用行为可以适用实验例外,德国则通过联邦最高法院在Klinische VersucheI案中认为任何获得信息的行为,无论其使用该信息的目的是什么,只要实验与发明的标的有关,就可以适用实验例外,无异于扩大了适用情形。实验例外制度根本目的是促进科技发展和创新,对于不妨碍专利正常获取经济价值的使用行为,应给予一定限度的宽容。专利法规定的实验例外适用范围不应进行限缩,“为生产经营目的”并不能被解释为“专为科学研究和实验而使用”的对立面,两者具有共存的意义和可能性。人工智能为了发明创造而进行的非商业性使用专利的行为,可认为具备了实验例外的适用条件,此时不能因使用行为符合“为生产经营目的”而排除适用。
DSC0002.jpg

汪虹宇 黄宣植|“无人机+AI”模式对环境执法监测的影响——以秸秆禁烧领域的应用为例
杜一诺 蔡颖慧|举证责任分配规则在智能医疗侵权中的适用研究——以实体与程序双重视角为切入点
关春媛|生成式人工智能版权主体拟制路径与规则完善
周澎|生成式人工智能适用我国著作权制度的困境纾解
方芷格|人工智能生成内容的独创性主观标准之建构——以“创作工具说”为中心
周宁静|人工智能时代犯罪参与理论面临的挑战及应对——以ChatGPT为例
上海市法学会官网
http://www.sls.org.cn
特别声明:本文经上观新闻客户端的“上观号”入驻单位授权发布,仅代表该入驻单位观点,“上观新闻”仅为信息发布平台,如您认为发布内容侵犯您的相关权益,请联系删除!
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

扫码添加微信客服
快速回复 返回列表 返回顶部