查看原文
其他

人工智能主体地位的否定与审视

青法平台 青苗法鸣 2023-09-28

编者按:人工智能主体地位有肯定论和否定论之争。就小编个人的阅读面而言,以往看到一些刑法论文,总是对人工智能作出智能程度的划分,并部分承认其主体地位,在此基础上再演绎刑法教义。但这一命题真的正确吗?此时,不妨倾听一下否定论者的观点及理由,或许可以加深我们对该问题的认知。


作者简介

 

齐劲沣,中国科学院大学知识产权学院2019级法学硕士研究生。研究方向:知识产权法。GPA 3.95。曾获研究生国家奖学金、北京市优秀本科毕业生等荣誉。多次入选国内学术会议并发表演讲。


文章篇幅较长,已略去引注,特此告知。

摘要:虽然人工智能产品具备高度智能性,但是其不能被赋予法律人格。一方面,人工智能没有理性和自由意志,另一方面,赋予其主体地位没有任何实际意义。因此,人工智能在法律关系中应当处于客体位置。这不仅有助于人类对人工智能进行法律规制,还能更好地解决科技进步引起的损害赔偿问题,进而实现“人是目的”的法哲学思想。在当前科技发展的环境下,立法和司法机关可以对普通物与特殊物加以区分,要求人工智能产品设计者承担更严格的责任。有关部门应提高质量监管部门对于高质量产品的认证标准,从而更好地体现“科技为人服务”的理念,引导人工智能产品更好地推动人类社会向前发展。


关键词:人工智能;法律地位;法律主体;法律客体


伴随着科学技术的快速发展,人工智能(Artificial Intelligence,AI)逐渐成为理论法学和很多部门法学者关注的焦点,在某种程度上成为当代科技发展的代名词。从人工智能之父阿兰·图灵构建“图灵机”的模型至今,人工智能不仅为人类的生产生活带来了重大的推动作用,不断扩大科学技术的发展边界,更对既有的法律关系也产生了显著影响。人类应当未雨绸缪,谨慎把握人工智能发展的方向。为了规避人工智能的发展中可能带来的隐患,全社会必须思考的首要问题是人工智能的定位与是否赋予其独立的法律人格。换言之,法律是否应当承认人工智能在法律关系中的主体地位。本文首先阐述人工智能与法律地位的概念和人工智能的发展现状,讨论肯定人工智能法律人格的局限与问题,否定其在法律关系中的主体地位。进而分析不赋予主体人格,坚持人工智能法律客体地位的合理性,以期为法律应当如何对人工智能加以规制提出建议。


一、“人工智能”的定义及在我国的发展现状

著名物理学家霍金认为,人工智能技术产生和发展带来的影响,使得对“人工智能的全面发展可能导致人类的灭绝”这一问题的思考愈发紧迫。进入网络时代后,人工智能技术与人工智能算法又发了一系列伦理危机。解决这一问题的前提在于必须先确定人工智能的法律地位,确定其究竟是人还是物,即是否承认并肯定人工智能的主体人格。但是,解决这一问题还需要先明确“人工智能”概念和含义。《现代汉语词典》将“人工智能”一词的字面意思解释为:“计算机科学技术的一个分支,利用计算机模拟人类智力活动。”质言之,“人工智能”的具体内容是人类利用各种电子设备或仪器,推动机器模仿人的智慧。如果机器能够利用自然人赋予的数据和信息进行计算分析,模仿、替代甚至超越人类在特定领域的工作,则相关成果超过了简单的计算机或普通物品的“智能”层次,具备更高的科技水平和更多的技术含量,基本达到了“人工智能”的水平。


换言之,狭义的“人工智能”并非是“机器人”,而是计算机科学的一个分支,通过研究应用计算机来模拟人类的某些智力活动,代替人类的某些脑力劳动。狭义的“人工智能”本身是指一门学科,人工智能实际上与人工智能的产品或人工智能的衍生品均不是同一概念。如果仅将“人工智能”理解为一个类似于语文、数学的科目或者是计算机科学的分支,那么它则不是法律意义上的物,探讨与此相关的法律地位的问题也毫无意义。同时,无论是在一般的生产生活中,还是在理论法或部门法领域的研究中,均已经将人工智能的含义等同于“人工智能产品”,因而,本文论述的“人工智能”概念,均包括人工智能产品和创造物。


宏观层面,我国人工智能的发展大致可分为两个阶段:20世纪70年代末至本世纪初的萌芽与探索阶段和2000年至今的快速发展阶段。据相关数据显示,2019 年中国人工智能核心产业规模就已超过510 亿元,预计在 2025 年将达到 4000 亿元,未来有望发展为全球最大的人工智能市场。在当前发展的黄金期之下,人工智能作为一门新兴学科,集百家之长,在各领域均得到了广泛应用。2017年国务院颁行了《新一代人工智能发展规划》,为抢抓人工智能发展的重大战略机遇,构筑我国人工智能发展的先发优势,加快建设创新型国家和世界科技强国提供了重要的理论支撑和制度保障,这也体现出针对人工智能领域的建设发展,我国已将其提升至国家战略层面。


微观层面,目前人工智能可以分为专用人工智能与通用人工智能两种类型。前者需求简单、明确、应用范围清晰、建模容易等优势。相反,后者存在建模较困难、应用范围模糊等问题,尚需一段时间的发展与完善。人工智能可以实现数据采集、分析预测、方案制定与干预三步走的流程,帮助人类解决很多实际问题。在医疗卫生等特定领域中,人工智能可以结合不同专业的特殊性发挥不同的功能。同时,人工智能技术和产品有效推动了司法实务的发展。天同律师事务所在2016年底成功研发的国内首款智能法律机器人“法小淘”。“法小淘”可以当场通过在无讼案例、无讼名片等数据平台进行匹配,“算”出了几位当事人匹配的律师。人工智能在实务中的应用展现了新科技可以使有限的资源得以高效利用,促进供需匹配,让人类有能力更准确的找到问题解决的路径。然而,伴随而来的问题是,如何对人工智能进行法律上的审视,即是否应承认其作为法律主体的资格,在人工智能发展愈发迅速的当下具有现实意义。


二、人工智能主体地位之否定

“法律地位”是法律人格的一种属性,特别是自然人即有生命之人的人格。法律地位是特定人在法律上的地位,它决定该人在特定情况下的权利和义务。主体与客体之区分即人与物之区分是传统民法理论的基本支柱。主体客体的区分标准在于是否有独立的精神与意识存在。如果有独立意识存在则为主体,如果没有独立的精神则是客体,不存在主体与客体之间的中间状态。人工智能法律主体地位与法律人格均是讨论其能否作为法律意义上的“人”。


(一)法律主体地位的理论基础

首先,现代法律赋予自然人主体资格是基于对人的属性与本质特征的深刻认知,具有扎实的法哲学基础。人工智能不存在这一特性,因此没有法律主体地位。对于“我是什么”或者说“人是什么”的问题人们讨论了上千年。近代西方哲学的代表人物笛卡尔提出从理性主义出发,提出了“我思故我在”的命题。笛卡尔认为即使这个世界上的一切都是应当被怀疑的,那么不能被怀疑的东西只有一样那就是人自己的怀疑,即“我在思考”这一命题是绝对真实的永恒真理。


按照笛卡尔的观点,成为一个人即法律意义上的主体,必须转向自身,否定外在的一切标准,从自己内心找到世界的根基。从此,笛卡尔推动西方近代哲学朝着现代的方向开始转变,从物我合一向着人与物分离转变,强调人必须具有绝对的思考和怀疑能力。然而,人工智能是否思考完全取决于人类作为设计者和开发者的主观想法,人工智能化产品的“思考与怀疑”并不是不可被怀疑的,更不是永恒的真理。


相反,人类完全可以任意决定其是否还具备笛卡尔主张的思考与怀疑一切的能力。此外,人与动物的区别在于是否存在理性,进而能动地认识世界。康德在笛卡尔“我思”观点的基础上做了进一步探索,从多个角度建构起人主体地位的理论根基。康德认为一切知识并非直接来源于经验。人类知识是先天与后天共同作用的结果,而这种先天的形式来源于人的理性。人的自由根本上指意志自由,即人可以趋利避害,独立自主地选择未来的发展方向。


因此,康德认为人有能力,并且也应当为自己立法,人通过意志自律从而遵守自己的立法,自律是人成为理性者的必然要求。人具有自由意志,每时每刻均可以自由选择,因而区别于其他生物。从希腊哲学到笛卡尔与康德,西方思想家都强调一点,即人是万物的尺度。近代以来,理性被提升到了不可替代的地位。因此,人不是他人实现目的的手段。上述哲学基础的体系化和理论化都在德意志法系中得以形成和体现,这也成为了我国民法的理论渊源。


(二)人工智能作为法律主体的局限

一方面,人工智能不存在理性,既不符合笛卡尔主张的可以自主怀疑一切的能力,也不符合康德主张的法律主体应当具有意识与理性的要求。因此,不能取得类似自然人的主体地位。即便一些人工智能产品具有很高技术水平和科技含量,甚至在某些方面毫不逊色于人类,其在法律关系中也只能处于客体而非主体地位。例如,波斯纳法官在审理案件时认为,编程无法让计算机做出判断,而仅仅是执行强制指令。即使近几年机器的深度学习能力已经大幅度提高了其智能性,一些人工智能产品有了很强的自主性,但是究其根源,人工智能产品依然没有理性思考的能力。


换言之,人工智能实际上没有自由意志。“理性是一杆旗帜,它永远在前面。”人工智能技术只能局限于模拟人的显性智慧,主要体现于搜集信息、演绎推理或根据已有的知识进行自主学习。但是,人工智能没有自身存在的目的,学习的目的究其根源依旧是人类赋予的。人类的情感根本上说是天生产生,而非后天依据程序或算法形成的。即使随着科技进一步的发展,人类可能创造出更高技术水平甚至与人类比肩智能性的人工智能产品,但是,这些高端人工智能因为缺乏理性依然只能是法律客体而不是主体。


再如,借鉴商业发展与市场经济的知识也可知,人工智能不具有主体人格,应当仅处于客体地位。美国Dorling Kindersley Ltd(DK)出版社出版的The Business Book强调,一个新企业进入市场需要一个“内在的第一动力”,即Inner urge,这实际上是企业未来的目标和发展规划。在此之后,企业可以选择适合自己的发展路径,争取尽可能大的优势。第一动力选择的方向和动力的大小,在很大程度上将对一个企业在未来的发展产生不可替代的影响。回顾任何一个人工智能产品的产生与发展,不可否认在自动驾驶或学习围棋象棋等方面,人工智能通过深度自主学习,很可能在特定领域内接近甚至超越人类的智力水平。


但是,这个Inner urge始终是人类赋予的,而并非人工智能自出产生的。人类决定这个人工智能产品是学习围棋而非象棋或者跳棋,是自动驾驶汽车而不是驾驶飞机。即使是人工智能发展到了非常高的水平,依然不具备最初的理性和以自由目的选择的第一推动力。换言之,每个法律主体或是有法律人格的个体,均可以有Inner urge,可以自主选择在哪一领域进行生产和发展。然而,人工智能虽然可以在特定领域精耕细作,但是却不具备确定工作范围这一最初的驱动力。因此,人工智能不能处于法律关系的主体地位。


另一方面,赋予人工智能主体地位没有价值和实际益处,不利于解决技术进步带来的潜在问题。作为主体将有显著的实益性基础是成为法律主体的一项重要标准,法律主体应当具备相当的社会价值。以法人制度为例,在罗马法时期商品经济欠发达,因此法人当时并未被授予主体资格。但是,随着15世纪与16世纪世界市场逐步形成和海上康孟达组织的发展,法人发挥的作用与罗马法时期相比不能同日而语,因此逐步被授予主体地位。德国学者认为,法人制度在《德国民法典》的确立在于赋予团体法律主体地位,这有助于推动法人便利地参与交易和责任限制两大经济实益。但是,目前人工智能技术的发展程度和对于社会的影响,与当年的法人组织完全不具备可比性,赋予人工智能主体地位对解决现存问题无任何实际帮助,相反会增加解决现存问题的难度,提高定分止争的时间成本和经济成本。


首先,赋予人工智能产品法律主体地位无助于解决人工智能创作物归属的问题。版权保护其实不是因为作品有一定用途或是较高的审美价值,而是因为作者的个性化元素。这种个性化元素就是人格中包含某种个性的体现,而正是这种个性成为其获得版权的条件,也是其创作成果能被称为著作权法意义上的作品的原因。人工智能生成的内容是通过规则、算法或者重复论证演绎等方式的结果,并没与体现人的独创性和任何个性化的特征,不能被确定为作品。归根到底,知识产权法保护的是人的智力成果,人工智能不能等同于人类,因此无法受到知识产权法的保护。


同时,赋予人工智能创作物以主体资格本身也没有任何现实意义。作品带来的受益和作品可能引发的侵权纠纷等法律后果,均无法由人工智能技术或机器负责,依旧只能是由机器的使用人或所有人享受权利或者承担义务。经济学家保罗·萨缪尔森认为,版权制度自创立之初就是对于人授予版权。机器享有知识产权毫无意义,机器在进行创新时无需靠外部环境的激励,自然也没有必要进行保护。相较于将人工智能作为合作作品的独立作者而言,将其产生的贡献计算在人类身上更具有合理性。


其次,赋予人工智能法律地位也不利于解决赔偿责任的归属问题。将责任分配给人工智能产品承担,实际上只能导致问题更加复杂化。在执行司法判决的过程中,将会导致“法律白条”现象激增,使得判决无法真正发挥法律效力,无法实现通过诉讼帮助当事人挽回损失的效果。侵权行为发生后,因为人工智能产品本身不具备经济条件,不具有偿付侵权人的实际损失的能力,所以受害人也无法实际得到赔偿或补偿。


以无人驾驶汽车侵权为例,如果赋予该高度智能化的汽车以法律主体地位,则该车即成为了一个独立的主体,应当独立承担责任,履行法律义务。那么,汽车所有人则可以据此规定而对车造成的损失不承担任何责任,主张其所驾驶的汽车应独立承担民事赔偿。此时,受害人只能向自动驾驶汽车主张权利,即便要求车辆负全责,汽车也因为没有属于自己的财产而无法向被告人履行赔偿责任。同时,人工智能汽车的制造者、设计者和所有人都可以置身事外,也不用承担任何赔偿责任。最终,受害人既不能得到财产性赔偿,也没有收到任何非财产性的赔偿。既无法向汽车所属的自然人主张权利,更无法要求一个智能化程度高的汽车承担义务。


俄罗斯互联网技术专家格里申发起起草的《格里申法案》第1条设置了“机器人—代理人”的规定。虽然使机器获得一定的权利能力,但是法案在责任承担上明确规定:所有权人或占有人承担人工智能活动产生的责任。如果想化解这两难的尴尬局面,则应当坚定地将人工智能汽车定位为法律客体,汽车的所有人应当承担对被害人的侵权损害赔偿责任。《格里申法案》规定人工智能的所有权人承担法律责任的原因在于:立法者意识到人工智能没有独立的法律人格,不能在法律关系中处于主体地位。只有确认科学技术创作物均处于人类的支配之下,确立人工智能的客体地位,才能够更好地解决科技进步产生的有关问题。


三、人工智能客体地位的合理性

当前,我国人工智能技术呈现市场化程度高、应用范围广和应用程度深等特点,已开始逐步替代或是配合人类进行一系列复杂的工作。在这一背景下,全社会应当将人工智能放置于法律关系中的客体地位。司法机关应当引导人工智能产品和技术辅助人类的生产生活,而非让其直接取代人类实现履行相关法律义务。人工智能本身是一种物,如果其在法律关系中处于主体地位,则会导致很多现行法律规范无法真正实现立法目的,不能对科技发展起约束作用。同时,人工智能的民事权利能力无法判断,也没有现行法律可以进行调整。因此,将人工智能赋予客体地位的观点具有合理性,应当将人工智能产品以一种特殊物进行对待,从而更好的实现人类对于人工智能的引导与规制,推动科技进步更好地为人类服务。


首先,确定人工智能的客体地位有利于解决科技产品致人侵权等问题。人工智能没有理性,不存在自由意志。只能通过人类输入的代码决定自身的运行规律,而非主动遵守法律,更不会有法律意识。在处理与法律的关系时,人工智能产品只能被动接受指令而非主动选择方向,所以人工智能实际则是法律上的“伪主体”。在自动驾驶汽车侵权纠纷中,如果将智能汽车作为客体,则车的设计者、所有者或者使用者将成为主体,需要对自动驾驶造成伤害的受害人承担侵权损害赔偿或者非财产性赔偿责任。


确定人工智能的客体地位,能进一步突出汽车驾驶人或所有者的主体地位,可以更好地对其进行规制,从而让受到技术发展消极影响的被侵权人更加精准有效地维护自身合法权益,进而更好地将人工智能产品置于人类的控制之中。人工智能产品的设计者和研发者应清醒意识到,既然无法从人工智能法律地位上找到免责事由,那么应当以严格的标准检查产品质量,从而让消费者得到更加全方位的保护。


人工智能制品种类繁多,设计理念与产品性能各不相同,其所体现的技术含量及智能性或自主性也有显著差距。因此,在法律保护、侵权责任归责以及损害赔偿责任等法律适用方面都要结合产品智能性的高低而有所区分,坚持具体问题具体分析。欧盟出台的有关规定提议先对人工智能产品进行分类,而后建立基于分类的注册登记制。俄罗斯也将人工智能产品分为两类:智能性较低的类似于动物的产品,以及科技含量较高,能与法律主体的智能性相比的机器人,并根据不同的情况分别进行规制。


其次,赋予人工智能的客体地位可以更好的展现“人是目的”的法哲学理念,有利于更好的实现人工智能的规制目标。康德认为,人有能力并且也应当为自己立法,人是目的不是手段。人工智能根本是一种人类改造世界的工具。人工智能产品作为法律客体,可以更好受到人类的控制,进而实现让科技为人服务的目的,科学技术只是服务于人的全面发展这一目标。几千年来,人类思想发展的历史也就是人与物、人与自然由一体化逐步走向二元对立的过程。自启蒙运动以来,人始终是唯一的主体,也是唯一的目的。确定人工智能的客体地位,有助于更清晰的将二者进行分离,避免再一次陷入人和物,心与物之间不分的局面,能够更好地推动人类文明向前发展。


但是,赋予人工智能客体地位并非将之简单等同于普通的有形物。之所以有学者认为可以赋予“强人工智能”以主体资格,本质上因为这种在自主意识支配下的机器人与有生命的自然人无异。在否认其具有主体资格的前提下,将人工智能赋予特殊物格的法律定位,有利于解决强人工智能技术与法律主体概念的矛盾。特殊物格是指具有特殊法律属性并应以特殊规则加以规范的物的资格,如证券、作品、电子货币、虚拟财产等。将人工智能涵摄于特殊物格之下,既可以不突破现有对法律主体概念的框架,又突出了人工智能的特殊性,将之与一般意义上的普通的物相区分。此种方案不仅有利于对人工智能技术的单独规制和约束,更保证了法律体系的完整性和稳定性。


四、人工智能法律规制的建议

随着人工智能产品逐步智能化,与人类关系的紧密程度不断提高,人类有必要采取多种方法,更好运用法律对人工智能进行约束。


第一,借鉴《德国民法典》对普通物与特殊物的区分。从民法上将人工智能以“特殊物”进行规定,与一般的物区别对待。可以考虑在《民法典》中设置一个特殊物的制度,对人工智能进行特殊规范,突出人工智能产品与一般产品的差异化,进而体现对科技进步的尊重和对人工智能的全面保护的立法理念。从特殊物产品的研发、销售与使用等多方面入手,制定区别于普通物和法律规范或行业标准。在民法不断完善过程中,要坚持人工智能客体地位,全方位考虑人工智能产品的特殊性。


例如,有学者在分析人工智能翻译与翻译权关系时表示,如果机器翻译的作品影响到著作权人权利,则人工智能产品的所有人最好给予后者一定的补偿,可以将之称为“人工智能税”。通过将人工智能视为特殊物,采用补偿金的方式有利于在一定程度上环节模拟复制技术条件下的权利人与使用人的紧张关系。此种方案本质上仍将人工智能处于客体地位,支付补偿金或人工智能税类似于所有物侵权后的赔偿或补偿。如果将赋予人工智能独立的法律人格,则机器的所有权人没有补偿权利人的义务,这明显不利于维护作者的合法权益。


第二,人工智能制造者应当承担更加严格的责任。立法层面,应当突出强调数据控制者的自我规制义务,加强政府、平台和社会三方的合作治理。人工智能产品的设计者、制造者作为数据控制领域的上游主体,应当承担更严格的注意义务。同时,行政机关对相关主体可以提出更高的要求和标准。在全社会共同努力下,力争将具备高智能性的人工智能产品存在的潜在问题消灭于萌芽状态,避免产品流入市场产生侵权责任后导致一系列伦理问题。换言之,建立“政府—平台—商户(消费者) 、公权力—社会权力—私权利的三元结构”,有利于从全方位监督人工智能制造者承担作为主体的法律责任,保护产品使用者与相关人员的合法权益。


执法层面,对于质量优秀的科技产品,国家应予以质量认证。有必要从源头上,在对设计者或制造者的要求上,严格把关人工智能产品质量,提高进入消费市场的门槛。如果因为设计和质量出现缺陷导致出现人工智能致害事件,产品的设计者应当一并承担瑕疵担保责任,并限制免责条款的适用范围。国家质量监管部门最好对符合要求和标准的产品进行质量认证,强制要求行业内生产符合国家标准的人工智能产品。禁止不达标或者存在潜在风险的产品流入市场,从而尽量降低人工智能为人类生产生活带来的不确定性,激励更多企业研发机构逐步提升人工智能产品的质量。


第三,坚持“科技以人为本”和“科技为人服务”的理念,处理好科技进步与生物伦理和生物安全之间的关系。正如有学者认为,人工智能的发展应当遵循社会效用最大化的逻辑,这是一种将技术视为中立手段,以社会为本的一种效用总和的最大化。因此,人工智能与信息技术的发展,应当以推动人类进步和社会繁荣为出发点和落脚点。相反,如果单纯追求片面的数字技术和人工智能的推进,则可能产生因为“数字利维坦”引发的各种社会风险。一旦此类风险具体化和社会化,必定产生较大范围的消极影响,不利于被侵权人主张权益。


具体而言,有关部门可以设立强制性规范和较高的行业准入门槛,明确要求人工智能的制造、生产和使用不得违背公序良俗。将《民法典》中公序良俗原则纳入人工智能立法体系之中,有序地调整人与人工智能的关系。科学技术目的是为了丰富人类的情感世界,而不是淡化人的感情,增加人的隔阂。要树立强有力的科研伦理观念,不能仅片面考虑人的私欲和科学家的物质利益,而将科技系统的价值观念予以绝对化。科研工作者应当以人性的价值为底线,处理好科技进步与人类伦理道德的关系。因此,对人工智能的伦理研究也要给予足够重视,应将其与对人工智能技术的研究置于同等重要,甚至更加突出的位置之上。


青苗法鸣向全体青年学人进行长期征稿和专题征稿


一、长期征稿:

主要推送法学、文学、哲学、政治学、社会学、经济学等人文社会科学学科的学术类、思想类稿件,体裁不限,论文、时评、书评、影评、案例分析、译文等皆可。

以来稿质量为采用之标准,欢迎篇幅适中、论证详实、观点独到的稿件,来稿字数原则上不少于3000字。不对作者身份做要求,鼓励本科生练笔发声、交流进步。

为规范用稿,提高编辑质量和效率,来稿请以Word文档通过附件发至投稿邮箱:qmfmbjb@163.com,并在邮件标题注明“投稿青苗法鸣”,邮件正文中附上150字内的作者简介(内容不限,需包含作者姓名等基本信息,亦可附上照片)。对于所收稿件,我们会尽快安排评审,并在3天内回复审稿结果。


稿酬等详情请点击:稿酬有多好?够买一箱钟薛高!


二、专题征稿

请务必在来信标题中注明“专题征稿+主题”。期限为:2021年10月15日-2021年12月31日,超出期限范围内的投稿仍然可收录,但不享受基础稿酬提高的福利。

本次专题征稿聚焦的选题有:

1.运动员的就业保障问题

2.裁员与劳动争议

3.法学经典著作读书笔记

4.金融科技监管问题研究

5.法治化营商环境问题研究

6.个人信息保护法有关问题研究

7.知假买假适用惩罚性赔偿在实务中的新发展

8.人工智能法学的元问题:AI能否被赋予法律人格


稿酬等详细信息请点击:恋爱减肥都烦恼,忧愁哪有投稿好!


本文责编 ✎ 稻壳豚

本期编辑 ✎ 倩妹儿



推荐阅读

算法权力规制的法律问题研究

人工智能能够犯罪吗?

人工智能该不该拥有刑事主体资格呢?

论人工智能法律主体的法哲学基础

论算法创作物的可版权性与著作权归属

智能机器人法律主体地位探究:以强、弱人工智能对比为视角


联系我们

长期收稿邮箱:qmfmbjb@163.com


社群交流请添加公共微信:

公共微信1:qmfmggwx  

公共微信2:qmfmggwx2


付费咨询与讲座请添加小助手微信:qfxzsggwx


商务合作请添加微信:Fuermodian


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存