查看原文
其他

贾济东 岳艾洁 | 人工智能事故过失犯认定的中国方案: 规范型塑与理论因应 | 河北法学202310

【作者】贾济东(北京师范大学法学院暨刑事法律科学研究院、北京师范大学珠海校区法治发展研究中心教授,博士生导师,法学博士);岳艾洁(北京师范大学法学院暨刑事法律科学研究院博士研究生)

【来源】北大法宝法学期刊库《河北法学》2023年第10期(文末附本期期刊目录)。因篇幅较长,已略去原文注释。


内容提要:数字经济时代,推进以人工智能等数字技术为治理对象的刑事法治建设是中国式法治现代化与国家治理体系和治理能力现代化的重要构成与关键保障。人工智能事故刑事风险客观存在且规模日趋扩大,将人工智能事故纳入我国刑法规制框架具有必要性。当前,人工智能事故中制造商的过失犯认定同时面临着规制罪名阙如的规范困境,以及因果关系、结果预见可能性与注意义务方面的理论困境。我国刑法应当确立过失产品刑事责任,在必要性、类型性与协调性原则的指导下动用立法论增设人工智能产品重大事故罪;运用解释论将人工智能产品制造商的注意义务类型化建构为安全生产义务与安全管理义务,推动过失犯归责模式向规范归责与客观归责转变,并以被允许的危险理论与信赖原则限定过失犯的成立范围,促使我国人工智能刑事治理实现安全与创新双重价值的动态平衡。

关键词:中国式现代化;数字法治;人工智能产品;产品刑事责任;过失犯

目次

一、问题的提出

二、人工智能事故刑法规制的先决问题

三、人工智能事故中制造商的过失犯认定困境

四、人工智能事故中制造商的过失犯认定方案

结语


问题的提出


  党的二十大报告鲜明指出,中国式现代化是全面推进中华民族伟大复兴的必由之路,国家治理体系和治理能力现代化是全面建成社会主义现代化强国的目标与任务。中国式现代化的新征程必然要求在法治轨道上一并推进中国式法治现代化,而中国式法治现代化的迈进也离不开刑事法治的保障。中国式刑事法治现代化是中国式法治现代化在刑事法律领域的具体彰显与重要组成,也为提升我国治理体系与治理能力现代化水平发挥着规范引领与底线支撑的保障作用。中国式刑事法治现代化的推进应当高度关注我国经济社会发展中的重点领域与新兴领域,致力于服务我国现代化经济建设的新需求。对此,党的二十大报告作出了“加快建设‘网络中国’‘数字中国’,推动人工智能等战略性新兴产业发展”的重要指示。数字经济正在成为推动中国式现代化的重要引擎,不仅驱动着全社会生产生活方式的数字化转型,促使国家治理对象与治理环境发生重大转变,更向我国刑事法治现代化建设提出了新任务——构建以人工智能等数字技术为治理对象的数字经济刑事法治保障体系。


  着眼时下,自动驾驶汽车、无人机、智能医疗机器人等专用型人工智能产品逐步落地,为人类社会的各方各面带来前所未有的便捷与福利,但不容忽视的是,“人工智能的初期阶段,仍然存在因技术瑕疵或其他外因导致的法益侵害结果的发生”。据统计,截至2023年5月,仅就特斯拉汽车在自动驾驶模式下发生的致死事故在全球范围内就有30起,已致33人死亡。在一系列致死事故中,值得关注的是美国司法机关对世界首例自动驾驶汽车致死事故的处置:2018年3月,美国亚利桑那州,一辆正在测试中的Uber自动驾驶汽车在自动驾驶模式下撞死了一位横穿马路的妇女,车中的安全驾驶员因观看手机未关注路况而被司法机关以过失致人死亡罪起诉,而作为制造商的Uber则被认定“没有承担刑事责任的依据”;但是,根据美国国家安全运输委员会(NTSB)公布的官方报告,发生事故时,Uber的自动驾驶系统确实存在物体识别与制动功能方面的缺陷,由此引发了美国公众对“制造商免责”这一处理结果的广泛质疑。由此,与日俱增的人工智能事故成为横亘在世界各国面前一个亟待解决的难题:在专用型人工智能产品确有威胁公民人身财产安全乃至社会公共安全的现实背景下,倘若人工智能产品因内生性缺陷引发具有严重社会危害性的重大事故,作为研发者与生产者的制造商应否以及如何承担基于过失的刑事责任?遗憾的是,我国在面对人工智能事故带来的新生问题时,不仅现行刑法规范显得力有未逮,而且刑法理论也尚处于争议不休、难以自圆其说的境地。故此,本文以人工智能事故的过失犯认定为研究场域,针对我国人工智能产品制造商过失归责面临的双重困境予以分析,并从规范型塑与理论因应两方面探求我国人工智能事故刑事治理的有效方案。


人工智能事故刑法规制的先决问题


  在人工智能事故的研究场域下,除了需要搭建关于人工智能事故的基本事实框架以便后文就事论理以外,还必须回应一个前提性问题——刑法为何应当介入对人工智能事故的规制?易言之,人工智能事故的刑法规制应当论证其必要性。


  (一)人工智能产品的本质特性与刑事风险


  在探讨人工智能事故中制造商应否以及如何承担刑事责任的核心问题之前,有必要在描述“人工智能为何”与“人工智能产品有何特性”两个事实性问题的基础上,将人工智能事故置入刑法的规范语境下考察与评价其蕴含的刑事风险。


  1.人工智能概念的争议与共识


  有学者曾批判性地指出,在人工智能领域,计算机科学、哲学、法学等多个学科对很多基础概念都未曾达成共识,致使学界在开展人工智能相关研究时存在泛人工智能化的失当现象。诚然,目前各学科对人工智能的概念界定仍众说纷纭,但不难发现其间的异曲同工之处。正如Ross Intelligence首席执行官安德鲁·阿鲁达(Andrew Arruda)所简明扼要概括的——人工智能的本质是“使机器像人一样去完成某项任务的软硬件技术”。实践中,一种被广为接受的人工智能定义源自欧盟委员会的界定:“通过分析环境和采取行动(具有一定自主权)以实现具体目标而表现出智能行为的系统”。欧盟委员会人工智能高级专家组(AI High-Level Expert Group of the European Commission)进一步指出,在使用人工智能术语时应当有意识地界分作为技术应用的人工智能与作为科学学科的人工智能。我国信息通信研究院发布的《人工智能标准化白皮书(2018)》对“何谓人工智能”也作出了相似的阐释。不难发现,目前对人工智能的界定基本上达成了至少三方面的共识:本质属性上,人工智能是人类利用机器对人类智能的模拟、延伸与扩展;主要能力上,人工智能拥有通过感知、推理、决策、行动以实现指定目标的功能;基本论域上,人工智能既可指作为计算机科学分支的一门交叉学科,也可指作为人工智能技术应用的软硬件系统。


  2.人工智能产品的本质与特性


  目前在全球范围内部署的人工智能产品均系弱人工智能,在实现强人工智能之前还存在许多亟待攻克的科技和伦理难题,更遑论超人工智能时代的来临。诚如有学者所言,“人工智能的发展目前整体上仍处于弱智能阶段,对其界定仍然是以机器——物来定义的。”由于弱人工智能应用场域单一,且智能水平尚在人类之下,因此弱人工智能产品在本质属性上与普通产品并无区别,仍只能被视为一种仅具有工具价值的客体。考虑到人工智能在不远的未来依然会停留在弱人工智能的发展阶段,故本文论及的人工智能产品也仅限于业已出现以及即将面世的弱人工智能产品。


  诚然,人工智能产品与普通产品在本质属性上别无二致,但其动摇了长期以来以投入流通(使用)为分水岭的产品支配力格局。普通产品一旦被投入流通(使用)就完全脱离了生产者的控制,因而完全处于使用者的支配领域。相较之下,弱人工智能范畴下的人工智能产品虽然不具备独立意志与自主意识,但依然拥有一定程度的自主权,即能够根据生产者预先设计与编制的程序,在使用者不加控制的情况下就作出决策与行动,并且在投入流通与使用后也会因程序更新、系统升级等技术因素受到生产者的持续影响。因此,鉴于人工智能的技术特性,生产者在产品使用环节对人工智能产品仍具有事实支配的可能,这相当于反向弱化了使用者对人工智能产品的支配力。概言之,使用者对人工智能产品的支配力不仅被框定在使用阶段,且在使用阶段内发挥的支配力也明显弱于普通产品;而生产者对人工智能产品的支配力则能够在生产阶段的基础上延续至使用阶段,“侵蚀”原本由使用者主导的支配空间。可以说,人工智能产品对“生产者—使用者”以投入流通(使用)为分水岭的支配力格局的撼动必然会带来包括刑法在内的法律规范对“生产者—使用者”义务承担体系的回应性调整,同时生产者对人工智能产品的强支配力昭示着生产者所肩负的注意义务范围与法律责任边界也会随之被拓宽。


  3.人工智能事故的刑事风险


  人工智能事故诱发的刑事风险并非学界主观臆测的建构式产物,而是业已历经“现实化”的客观事实。自动驾驶汽车是人工智能技术应用最为成熟与广泛的领域之一,也首当其冲地成为了见证人工智能事故发生的主要业务场景。事实上,我国已经发生了两起自动驾驶汽车致死事故,并由此引发了国内公众对自动驾驶汽车事故刑事责任分担问题的讨论。2016年1月20日,在京港澳高速的河北邯郸段,一辆特斯拉汽车撞上了位于道路前方的清扫车,不仅导致特斯拉汽车严重毁损,车上的驾驶员也没能幸免于难,最终因抢救无效死亡;无独有偶,2021年8月12日,一辆蔚来ES8汽车启用自动驾驶功能(NOP领航状态)后,在沈海高速涵江段撞击了位于快车道上的一辆高速公路养护车,养护车因此侧翻,轿车上的男性驾驶员不幸逝世。经调查,事发时死者驾驶的车辆均处于自动驾驶状态。倘若致死事故的肇因在于自动驾驶系统,那么自动驾驶系统背后的制造商存在承担刑事责任的可能性。除了自动驾驶汽车事故以外,无人机“炸机”或者“黑飞”致人损伤、危害公共安全的事件在国内也时有报道。种种现实案件的接连发生愈发凸显了人工智能事故刑事风险的防控之于人工智能安全治理的重要性与紧迫性。


  人工智能事故的刑事风险不仅具有客观性与已然性,且在风险规模上呈现出关联性与系统性的特点。人工智能以深度学习和数据训练为手段,以大数据、云计算等数字技术为依赖或者补充,这种技术上的高度融合与彼此联通意味着其内含的刑事风险也会超越简单技术的地域性和局部性,造成“牵一发而动全身”的风险传递与联动效果;同时,人工智能作为一种具有通用目的的技术,应用场景广泛且日趋多元化,亦在智能交通、智慧医疗、智慧城市等多个领域均有丰富的应用成果,因而能够渗透产业发展和社会管理的各方各面,使得政府、企业、公众、专家等各种行业和群体都会以风险为线索被紧密牵合为一个风险系统。故此,随着人工智能应用场景、产业规模、使用频次的日趋增长,人工智能产品刑事风险的影响范围也会逐步扩大,总体上呈现出关联性与系统性的特征,进而导致人工智能事故刑事风险的规模不断膨胀。


  人工智能事故的刑事风险规模存在“泛化”趋势,但仍可以根据其所侵害的法益将其刑事风险予以类型化归纳:一是以公共安全为侵害对象的刑事风险。例如,处于智能驾驶模式的自动驾驶汽车在行驶过程中由于智能程序决策失误而危害道路安全,造成相关人员重伤或死亡的危害后果;二是以公民生命、健康权为侵害对象的刑事风险。例如,医疗机器人由于设计缺陷在实施手术时误伤患者,导致患者重伤或者死亡的危害后果;三是以公私财产为侵害对象的刑事风险。例如,无人机在执行任务时因系统故障坠落炸毁,导致周遭公共设施或者居民住宅严重损毁的危害后果。


  (二)我国人工智能事故刑法规制的必要性


  在人工智能时代,每个人都是受益者,每个人也都可能是受害者。“人工智能刑事法治的目标应当是人类的安全和福祉。”因此在人们充分享受人工智能产品为社会各行各业带来的惠果时,以人工智能事故为表征的社会安全缺口也值得刑法关注并有所作为。将人工智能事故纳入刑法规制框架具有以下三方面必要性。


  1.构建人工智能安全治理制度的必然要求


  国务院于2017年颁布的《新一代人工智能发展规划》对人工智能带来的安全风险挑战予以高度重视,强调应当“最大限度降低风险,确保人工智能安全、可靠、可控发展”。在具体制度安排中,政府提出要建立保障人工智能健康发展的法律法规和伦理道德框架,其中就要求刑法对人工智能应用相关的刑事责任确认的规制需求提供制度性回应。2019年,国家新一代人工智能治理专业委员会又出台了《新一代人工智能治理原则》,并以“发展负责任的人工智能”为主题,要求人工智能发展的相关各方从研发到应用都要遵循包括“安全可控”“共担责任”等在内的八项基本原则。其中,“共担责任”原则的要义是“建立人工智能问责机制,明确研发者、使用者和受用者等的责任”,这也为人工智能事故刑法规制的必要性提供了政策背书。为细化落实《新一代人工智能原则》,2021年国家新一代人工智能治理专业委员会还出台了《新一代人工智能伦理规范》,并提出“确保可控可信”“强化责任担当”等6项基本伦理要求。其中,第15条规定了人工智能产品的供应者应当强化对人工智能产品与服务的质量监测和使用评估,避免因设计和产品缺陷等问题导致的人身安全、财产安全等侵害。不难发现,我国目前出台的一系列有关人工智能的政策性文件全方位展现了对人工智能“控制风险、保障安全”的治理需求,而刑法介入人工智能事故的防治对于筑牢人工智能安全治理的最后屏障而言不可或缺。


  2.管控风险社会技术性风险的必要手段


  随着工业革命的展开,人类的生活方式和社会秩序被现代技术所彻底颠覆。“一方面,技术为人们提供了传统社会所无法想象的物质便利,将人类从自然力的奴役状态中解放出来;另一方面,技术也创造了众多新生的危险源,导致技术性风险日益扩散。”不同于传统工业社会的风险,风险社会中的风险以“人为制造的不确定性”为特征,这种风险的异质性使得基于传统风险而理性构建的旧有科学、政治与法律制度失去了原有的效力。“随着工业化所带来的副作用的日益凸显,风险已经成为政治动员的主要力量。”公众对风险认识与感知的加深进一步加剧了集体在心理层面上的担忧与恐惧情绪,直至催生了国家在政治层面上对安全价值的制度性需求,促使如何保障个人与社会的安全成为公共政策关注的首要问题,进而推动刑法的功能定位转向“不仅是事后的法益保护法,也是事前的风险控制法”。因此,“保护安全”与“管理风险”成为风险社会背景下贯穿刑法始终的价值与目标。人工智能技术的研发、应用与管理无不依赖于人类的决策,同时人工智能技术内生的复杂性与不确定性也给社会带来了难以准确估量的风险。由此观之,人工智能技术风险兼具的“人为性”“不确定性”与风险社会中的风险本质相吻合,因此可以认为“人工智能的出现和发展,正是社会学家乌尔里希·贝克所描绘的风险社会的一个缩影。”是故,人工智能事故作为一种客观实在的刑事风险不仅可以构成刑法规范意义下的危险与危害,具有刑法规制的必要性;同时,作为一种现代技术风险的产物也可以构成风险社会图景中的技术性风险,具有刑法规制的正当性。


  3.弥补产品事故一元规制缺陷的必由之路


  如果审视我国因应产品事故的司法实践,不难发现,大量基于缺陷产品导致的产品事故仍然必须通过民法上的侵权责任而非刑法获得救济,这种现象在过失情形的产品事故中更为突出。主要原因在于,我国刑法并没有关于缺陷产品过失责任的专门规定,而主要是以“生产、销售伪劣商品罪”一节中以主观故意为前提的产品犯罪来追究产品刑事责任,以致司法工作人员对产品刑事责任的理解也易陷于“非故意犯罪不动用刑法”的偏隘思维,而最终仅按照民法追究产品生产者、销售者的侵权责任。不过,这种局限于民事侵权责任的一元规制模式已远不能满足产品事故责任追究的现实需要。对于因人工智能产品缺陷而可能导致的人身伤亡与重大财产损失,在危害后果上并不亚于我国刑法分则规定的基于故意的产品犯罪,甚至可能因为人工智能技术的自主性与不可预测性而对公民的人身、财产权利与公共安全造成更严重的侵害。如果在人工智能事故的场景下继续维持民事侵权责任的一元规制模式,则会面临两大规制不足。其一,以损害赔偿为主要救济方式的民事侵权责任无法对人工智能产品制造商施加道义上的谴责,特别是在人工智能产品制造商存在研发、制造的重大过失,造成诸如使用者伤亡等严重后果的情况下,金钱意义上的赔偿对人工智能产品制造商而言缺乏惩罚的实际效用。其二,通过民事侵权责任向人工智能产品制造商索求金钱赔偿难以实现法规范的一般预防功能。人工智能技术的发展前景广阔,从事人工智能产品的研发与制造活动具有极高的利润回报率,因此不排除个别人工智能产品制造商可能将盈利目的置于产品安全之上,为攫取巨额利润而不惜触犯法律红线。即便被处以金钱赔偿的民事责任,如此轻微的损失对于人工智能产品制造商而言也无关痛痒,甚至可能促使其基于成本效益分析以牺牲产品安全换取更高利益,继而引起整个人工智能行业的不良效仿。因此,对于社会危害性超越一般侵权行为的人工智能事故,民事侵权责任在惩罚与预防功能的发挥上都显得捉襟见肘。


人工智能事故中制造商的过失犯认定困境


  立足于现行刑法以及司法实践,人工智能事故的刑法规制既面临着无罪可制的规范困境,同时又面临着过失归责的理论困境,致使人工智能产品制造商基于产品缺陷的过失刑事责任无从认定。


  (一)无罪可制的规范困境


  通览我国现行刑法规定,暂时没有专门规制人工智能事故的特定罪名,但是不排除通过充分发挥现有罪名体系解释力对人工智能产品制造商予以定罪量刑的可能性,因此可以根据人工智能事故与我国刑法中既有罪名的“亲缘性”,分别从产品犯罪、事故型犯罪、一般过失犯罪三条路径搜寻与检视可供适用的具体罪名。然而,将人工智能产品事故嵌入上述三类犯罪的规范框架无异于方枘圆凿,人工智能事故中制造商刑事责任无从认定的规范困境由此暴露无遗。


  1.与产品犯罪的责任形式存在龃龉


  产品犯罪通常是指我国《刑法》分则第三章破坏社会主义市场经济秩序罪中第一节规定的“生产、销售伪劣商品罪”。从产品犯罪的规制对象上看,第140条生产、销售伪劣产品罪和第146条生产、销售不符合安全标准的产品罪规制的是一般产品,而第141条至第148条其余的8个罪名则涉及了对药品、食品、医用器材与农药、兽药、化肥、种子等农用生产资料,以及化妆品等5类特殊产品的规制。由于人工智能产品无法被上述特殊产品周全评价,因此具有适用可能的罪名只有以一般产品为规制对象的生产、销售伪劣产品罪与生产、销售不符合安全标准的产品罪。相较之下,生产、销售不符合安全标准的产品罪更加侧重对产品安全的保障,并以国家标准、行业标准作为判断产品缺陷是否存在的统一尺度,能够为人工智能产品的研发与生产提供更加直观明确的指引,更适于作为规制人工智能产品制造商的罪名。


  然而不容忽视的是,人工智能事故与生产、销售不符合安全标准的产品罪在主观方面存在不可逾越的鸿沟。人工智能事故的责任形式为过失,即人工智能事故的发生并非行为人意志追求或放任的结果,故人工智能产品制造商应当承担过失的产品刑事责任;但是包括生产、销售不符合安全标准的产品罪在内的10个产品犯罪均系故意犯罪,未对过失犯罪预留适用空间。故此,在我国现行产品犯罪体系中,产品的生产者、销售者只有在故意犯罪的情形下才会为缺陷产品造成的严重后果承担刑事责任。基于当下的立法现状,试图运用既有的产品犯罪追究人工智能产品制造商过失的产品刑事责任无疑是空中楼阁。


  2.与事故型犯罪的规制场域不相契合


  我国刑法规定的事故型犯罪集中于我国《刑法》分则的第二章危害公共安全罪中。我国的事故型犯罪不仅责任形式均为过失,而且在过失种类上均系业务过失,即违反对业务或职务上的注意义务而发生与行为人意志相违背的危害结果的心理态度。由于业务或者职务上的注意义务不尽相同,业务过失犯罪的规制场域亦相对独立,具体表现为在犯罪主体上一般要求是从事特殊职业或业务的技术人员,例如航空人员为主体的重大飞行事故罪等身份犯;还伴随着以违反特定安全管理规定为犯罪构成的前置性规范,例如以违反交通运输管理法规为前提的交通肇事罪等行政犯。据此,主体特殊性与行为违法性的双重限制使得事故型犯罪的适用范围总体上显现为“专而精”的特点,故能够为人工智能事故留有“一席之地”的罪名少之又少。


  与其他限定业务主体的特殊事故型犯罪相比,重大责任事故罪不仅在后果要素、责任要素方面对人工智能事故表现出了较强的适应性,并且在犯罪主体上也未作过多限制,展现出了显著的包容性,故而有学者主张通过重大责任事故罪追究人工智能产品生产者的刑事责任即可,我国司法实践中也确实存在以重大责任事故罪追究缺陷产品过失责任的先例。然则,重大责任事故罪与人工智能事故仍具有不可避免的非契合性,主要体现在两方面:其一,客观方面上,人工智能事故的发生场域与重大责任事故罪中危害后果的发生场域存在时空错位。重大责任事故罪要求重大事故必须发生在生产、作业活动中,具体指在时间维度上发生于生产、作业的过程中,在空间维度上发生于生产、作业的活动场所,且通常为工厂、矿山、建筑等开展初级工业活动的场合;而人工智能事故却发生于产品流通环节,在时空上已经脱离了人工智能产品的生产线,也并非相关主体在生产、作业过程中违反保障安全生产、作业相关的规章制度所导致的后果,所以重大责任事故罪并不适用于人工智能事故的情形。其二,犯罪客体上,即便人工智能事故与重大责任事故罪所侵害的法益均为公共安全,但由于重大责任事故罪所保护的直接客体是生产安全,而人工智能事故所侵害的通常为人工智能产品投入市场后的流通安全,因此两者在直接客体上的差异说明人工智能事故超出了重大责任事故罪的规范保护范围,这也进一步排除了重大责任事故罪对人工智能事故的规制空间。


  3.与一般过失犯罪的犯罪构成难以相容


  既然人工智能事故无法落在既有产品犯罪与事故型犯罪的涵射范围内,那么径直以我国刑法中的过失致人重伤罪、过失致人死亡罪等一般过失犯罪对人工智能事故作“大而全”的兜底式规制又是否合理可行呢?对此,有学者肯定了以上述一般过失犯罪追究缺陷产品过失责任的规制思路,认为缺陷产品过失责任是致人死亡(重伤)过失责任的一种特殊情形;与此同时,更有包括德国、日本在内的大陆法系国家多次践行了以其一般过失犯罪而非专有产品犯罪对缺陷产品致损类案件予以认定的思路。例如,在《德国刑法典》中,由缺陷产品引发的过失刑事责任主要涉及过失杀人罪与过失伤害罪,皮革喷雾剂案(Lederspray-Fall)与木材保护剂案(Holzschutzmittel-Fall)就是德国以过失伤害罪追究缺陷产品过失刑事责任的经典案例;日本在产品缺陷致损案件中则通常以业务过失致死伤罪作为定罪量刑的具体罪名,代表案例有森永奶粉砷中毒案和三菱汽车轮胎脱落致死案。


  诚然,我国一般过失犯罪的致人死亡(重伤)的过失责任与人工智能事故等产品事故的缺陷产品过失责任在责任形式上具有同质性,但二者并非一般与特殊的关系。首先,需要明确的是,我国一般过失犯罪的过失与人工智能事故的过失虽均系犯罪过失,但二者的过失类型分属于普通过失与业务过失,即注意义务的内容并非包含与被包含的种属关系,而是彼此对照、互为对称的矛盾关系。再者,从法益侵害性上看,人工智能事故侵害的法益是公共安全,涉及不特定对象的人身与财产安全,法益侵害性程度更高;而我国一般过失犯罪侵害的法益为特定对象的生命或者健康,且不涵盖对公私财产安全的保护,自然也无法对人工智能事故中财产面向的危害后果予以周全评价。此外,我国一般过失犯罪系自然人犯罪,犯罪主体仅限于具有过失责任的个人,但对于人工智能制造商这一单位主体而言则鞭长莫及。尽管单位犯罪主体的缺位丝毫不影响对相关责任人员的追责,但规范与事实的抵触在于“工业社会经济活动的现代风险,从来就不是个人可以控制及负责的,而是由许多人的共同作用所引起。”人工智能事故无疑是现代工业社会经济活动的副产品之一,诞生于规模化、组织化的专业研发与生产活动,而非个体力量使然。即便是不承认法人犯罪的德国与日本,也无法回避的诘难是:“由企业制造和贩卖的商品所致发生的事故,只处罚末端的从业人员的话,那么期待能够抑制同样事故发生的效果几乎不会存在”,这也是我国在人工智能事故刑法规制上不宜效仿德日模式的重要原因。


  (二)过失归责的理论困境


  “在人工智能时代,刑法适用中成为问题的是过失犯领域,往往会出现归责的间隙”,人工智能事故也概莫能外。这种过失归责间隙的形成既是刑法规范盲区使然,也是过失归责中因果关系、结果预见可能性、注意义务等刑法理论阻滞所致。


  1.因果关系模糊不清


  人工智能事故情景下过失犯罪的成立以发生危害结果为必要条件,同时还需要确立行为与结果之间的因果关系,将人工智能事故的危害后果归于研发者、生产者的过失行为,进而对人工智能产品制造商施以刑事责任。然而,与一般产品事故不同的是,人工智能事故牵涉的相关主体更加繁杂,不仅人工智能产品的研发与制造环节内部分工更趋精细化,而且人工智能产品的自主决策特性通常能够使其作出独立于研发者、生产者、使用者的自决行为。算法是人工智能产品实现自主决策功能的主要依托,但是算法过程的不透明性致使人工智能产品的运行只能呈现“端到端”的外观,因而人们无法窥见人工智能系统内部运算过程的全貌。故此,算法过程的不透明性导致的算法结论的不可解释性模糊了人工智能事故中危害结果与相关主体行为之间的因果关系链条,随之带来的归责困境就是难以按照“结果倒推原因”的逻辑对人工智能事故的肇因展开追本溯源式的准确定位。


  2.结果预见可能性欠缺


  虽然结果预见可能性在旧过失论、新过失论、新新过失论等过失犯理论中的地位和内容不尽相同,但三者都将结果预见可能性视为过失犯罪成立的基础要件。因此,不论遵从何种理论径路,人工智能产品制造商过失犯罪的成立,都应当对人工智能产品引发的危害后果具有预见可能性,即承认结果预见义务的存在。即便人工智能产品的正常工作有赖于研发人员预先编制与设定的智能程序,人工智能产品也往往会在编制与设定的程序范围内实现给定任务,但人工智能技术基于深度学习所固有的自主性与不确定性使得人工智能产品作出的智能活动难以被研发者、生产者在内的相关主体所全面预见,由此削弱了人工智能产品制造商对人工智能事故的预见可能性,动摇了对人工智能产品制造商过失归责的根基。由此,结果预见可能性的缺位阻碍了人工智能事故中制造商过失责任的认定。


  3.注意义务难以辨明


  “为了成立过失,违反法律上认为必要的注意义务是必要的。”当以人工智能事故为过失犯罪的研究场域时,注意义务是判断人工智能产品制造商是否存在过失进而承担刑事责任的重要依据。由于人工智能技术尚处于起步与成长阶段,人工智能技术的监管制度也仍在建立与健全的过程中,因此能够被认定为人工智能产品制造商注意义务来源与内容的一系列技术规范尚未出台抑或亟待完善。与此同时,鉴于人工智能产品是一种新兴技术的应用成果,人工智能产品的研发与生产兼具突出的专业性与前沿性,因此若从经验法则的角度对人工智能产品制造商的注意义务展开基于常识、常理与惯例的推定,则有如刻舟求剑,不甚合理。然而,我国刑法中事故型犯罪的前置性规范一般由特定业务领域的法律法规、行业标准、伦理规范构成,业务过失犯罪的注意义务内容也往往由特定业务领域的法律法规、行业标准、伦理规范为客观依据。由此可见,当下规制人工智能技术的前置法法网总体疏松且粗糙,难以从中辨明与厘清人工智能产品业务活动的注意义务,以致碍于认定人工智能产品制造商的过失责任。


人工智能事故中制造商的过失犯认定方案


  针对我国刑法规制人工智能事故时出现的双重困境,一方面可以从立法论的角度增设人工智能产品重大事故罪,使得人工智能产品制造商的过失责任有罪可惩;另一方面,可以从解释论的角度对过失责任涉及的注意义务与过失归责模式予以建构与调整,同时合理适用被允许的危险理论与信赖原则以限定人工智能产品制造商过失犯的成立范围,以期纾解人工智能产品制造商难以过失归责的理论困境,在人工智能事故的刑事治理中实现安全与创新的兼顾和平衡。


  (一)人工智能产品制造商过失犯认定的规范型塑


  试图唯用刑法教义学将人工智能事故纳入现行刑法框架已是徒劳之举,故而有必要诉诸立法论在刑法规范内设置相应的专有罪名。罪名增设的前提是在我国刑法语境中承认过失产品刑事责任,为人工智能产品等产品事故的需罚性奠定基础,并增设人工智能产品重大事故罪的具体规制罪名,对其展开必要性、类型性与协调性原则的检验。


  1.过失产品刑事责任的确立


  我国刑法将产品犯罪限定为故意犯罪,亦未在产品的生产、销售领域规定相应的过失犯罪,且我国司法实践长期将缺陷产品致重大人身伤亡案件局限于民事侵权责任加以处理,如此以“赔钱了事”为责任承担方式的一元规制模式不足以实现对缺陷产品研发者、生产者的惩戒与教育功能。再者,考虑到包括人工智能产品在内的新型科技产品具有不确定性的风险,且这些科技产品与交通、医疗、家居、公共服务等广阔的应用场景深度融合,对个人的生产生活、社会的稳定运行影响深远,因此一旦发生由缺陷产品引发的损害后果,不仅会严重危及公民的人身安全,还会将公共安全置入异常危险的境地。“前置法对违法行为的管控无效或违法性程度已经超出前置法的管辖,这类行为才有交由刑法接管的资格。”以社会保障法自居的刑法固然应当抱守谦抑性的品格,但是当民法或者其他部门法所设置的“第一道防线”不足以防范某种违法行为的侵害时,那么作为“最后一道防火墙”的刑法予以及时介入也是其职责所在。据此,不论是从民事侵权责任的功能局限性,还是从违法性或者法益侵害性的严重程度来看,造成重大损害后果的产品事故已经超越了一般民事侵权的界限,步入了刑法的管辖领域,满足刑法上的需罚性要求,故而确立过失产品刑事责任具有必要性。


  2.人工智能产品重大事故罪的增设


  明确可供适用的具体罪名是实现对人工智能产品制造商追究过失产品刑事责任的落脚点。但是,现行刑法规定的罪名体系既无规制涉人工智能犯罪的专项罪名,又难以诉诸刑法教义学的路径将人工智能事故涵射于我国刑法中的产品犯罪、事故型犯罪或一般过失犯罪等既有罪名。可见,穷尽现行罪名体系以及解释论方法也无法弥合人工智能事故的刑事归责间隙。那么,在解释论也束手无策、无计可施的情况下,借助立法论增设新罪以实现刑法的法益保护功能确有必要。“虽然刑法不可能禁止一切法益侵害行为,但是只要某种行为严重侵害了法益,或者侵害了重要法益,就应当将这种行为作为犯罪处罚。”正是由于人工智能事故具有危及公民生命健康权与公共安全的严重的法益侵害性,所以通过增设新罪的方式将人工智能事故中制造商的过失行为纳入犯罪圈是刑法履行法益保护职责的应有之义。


  人工智能产品重大事故罪的设立也符合增设新罪的类型性要求:其一,保护的法益具有类型性,即人工智能事故侵害的法益通常是公民的人身权利或者公共安全,但由于危害公共安全犯罪以人身安全为必备要素,同时考虑到人工智能产品的规模化生产特点以及在公共领域应用的广泛性,法益侵害的对象通常不具有特定性,因此人身安全可以被公共安全所包容评价,整体被概括为公共安全的法益。进言之,该罪保护的直接客体是人工智能产品的流通安全,即人工智能产品投入市场流通后的公共安全,不包括处于研发、制造、测试等生产线中的生产安全。其二,规制的行为和后果具有类型性,即该罪调整的是引发人工智能事故的业务过失行为,具体是指人工智能产品制造商在从事研发、生产以及后续运营活动过程中违反人工智能安全管理规定等标有特定注意义务的前置性规范的行为,而且只有造成了重大人身伤亡或者其他严重社会危害后果的,才能构成本罪。其三,规制的主体具有类型性,即从事与研发、生产等人工智能产品相关业务活动的自然人与单位,从而将实践中绝大多数以单位为从业主体的研发者、生产者纳入刑法规制的视野内。


  除此以外,人工智能产品重大事故罪的增设亦能通过协调性原则的检验。之所以将生产安全排除在本罪保护的法益范围外,显然是考虑到人工智能产品的研发、制造、测试等活动的生产安全风险并不具备与重大责任事故罪中生产安全风险相区别的类型化特征,因此刑法无需在重大责任事故罪之外再对生产安全予以画蛇添足地保护,以防立法的叠床架屋招致不必要的法条竞合问题,也使得本罪与重大责任事故罪的规制界限泾渭分明。与此同时,行为仅违反人工智能安全管理规定,但未造成任何危害后果,或者造成的危害后果未达到重大或严重程度,不构成本罪,只能以民事侵权或者行政违法定性。如此一来,本罪非但不会与既有罪名侵扰彼此的规制场域,而且还能够通过空白罪状的立法模式使刑法与作为填充规范的行政法相互衔接,以及通过限定危害后果与民法上的侵权责任相互配合,塑成对人工智能事故的多元规制格局。需要特别说明的是,比起仿效日本直接增设业务过失致死伤罪以实现对人工智能事故的“一揽子式”规制,不如在尊重我国事故型犯罪结构现状的基础上继续按照“分而治之”的立法思路增设特定领域的业务过失罪名,从而更有助于维护我国刑法体系的安定性。


  (二)人工智能产品制造商过失犯认定的理论因应


  新增人工智能产品重大事故罪的立法论路径可以消弭我国刑法规制人工智能事故时罪名阙如的缺憾,但在具体认定人工智能产品制造商是否构成过失犯罪时还需要攻克过失归责的理论困境,因此还应采用解释论对人工智能产品制造商的注意义务与过失归责模式予以建构与调整。


  1.注意义务内容的建构


  “对人工智能产品的设计和制造者设置刑法上的注意义务,是解决设计和制造者成立过失犯罪的范围的关键。”在对人工智能产品制造商建构刑法上的注意义务时,首先需要回答的问题是:注意义务从何而来?亦即人工智能产品制造商承担注意义务的根据为何?对此,可以从两个角度回应:风险管辖的角度上,人工智能产品制造商作为引入人工智能事故刑事风险的风险创设者,应当对其创设的风险及其衍生的危害后果自负其责。风险管辖原则为此归责逻辑提供了理论支撑,即谁创设了风险,谁就应当管辖风险,谁就必须担保其所创设的风险不会转化为现实,而损害他人的利益。据此,风险的创设者、管辖者与担保者应当具有同一性,这意味着人工智能产品制造商在创设风险的那一刻起便应当肩负起为避免人工智能事故风险现实化而谨慎行事的义务。产品支配力的角度上,人工智能产品制造商对人工智能产品的强支配力本就赋予了其在各环节防控人工智能事故风险的有利条件,加之人工智能产品制造商在人工智能行业具备的专业知识与业务经验也使其掌握着远超普通人水准的信息优势,故其注意能力也会相对更强。


  至于人工智能产品制造商负担的注意义务内容,则可以遵循风险管辖的逻辑,根据人工智能事故风险的生成阶段与特征,将注意义务的内容类型化建构为生产阶段的安全生产义务与流通阶段的安全管理义务,将风险识别与防范机制贯穿于人工智能产品的研发、制造与运营的全周期。如果人工智能产品制造商违背上述两类注意义务而致重大人身或者财产损害,则可能承担过失的刑事责任。


  在人工智能产品的生产阶段,产品的研发、制造与测试等环节都可能成为人工智能产品缺陷的风险源头,因此生产阶段的安全生产义务也应当形成对研发、制造与测试等流程的全覆盖。(1)在产品研发活动中,除了产品的硬件与外观设计,由于包括伦理安全、数据与算法安全在内的人工智能系统安全左右着人工智能产品作出决策与行动的智能中枢,故而必须对制造商相应的注意义务予以明确、严格要求;伦理安全方面,为了保障人工智能产品在不触犯道德底线与法律红线的前提下为使用者提供安全可靠的服务,人工智能产品制造商应当将人工智能相关的法律规范与原则标准全面且及时融入人工智能系统的研发阶段,从而在人工智能风险源头防治上同时发挥软法的价值引领作用与硬法的刚性约束作用。例如在无人驾驶汽车、无人机、医疗机器人等人工智能产品的智能程序中不仅应嵌入《道路交通安全法》《民用航空法》以及《医疗器械监督管理条例》等特定应用领域的强制性法律法规,还应当将《新一代人工智能原则》《新一代人工智能伦理规范》等兼具通用性与灵活性的伦理原则、行业标准贯彻至智能程序的研发全程;数据与算法安全方面,由于人工智能技术的驱动离不开数据“燃料”与算法“引擎”的共同支撑,且人工智能产品的研发、制造过程中既存在数据污染、数据滥用、数据泄露等数据安全风险,又存在导致自动化决策结果不公的算法偏见、算法歧视等算法安全风险,故而人工智能产品制造商不仅应当采取在软件中植入数据保护程序等必要防护措施,确保数据的输入、传输与输出的全链路安全,还应当着眼提升算法的可解释性、可靠性、可控性、可检验性,增强人工智能系统的自适应性和抗干扰能力。(2)在产品的制造与测试活动中,由于人工智能产品的制造过程具有链条长、工序繁、节点多的特征,因此制造商应当严格落实人工智能产品的研发方案,只有经过充分的质量检查与测试评估确保人工智能产品质量安全、功能健全,才能将其投入市场。此外,制造商应当显著标识人工智能产品的功能与局限,充分提示与及时告知使用者产品的注意事项,保障用户的知情、同意,防止因不当使用人工智能产品带来的损害。


  人工智能产品投入市场后,制造商对人工智能产品的安全性仍拥有事实上的支配力,因此还应当继续履行安全管理义务:首先,制造商需要持续地运营与维护人工智能产品中的智能系统,实时防范与及时排除系统性缺陷与故障,确保智能系统正常运行;其次,制造商还需要及时更新与升级算法模型以促进人工智能的深度学习,从而为使用者提供更加安全与个性化的服务。此外,基于人工智能技术的不确定性以及算法黑箱的存在,制造商仍有必要对已经投入市场的人工智能产品进行不间断地跟踪监测,及时响应和处理用户反馈的问题与意见,协助用户对人工智能系统进行必要干预。一旦发现任何产品缺陷或者安全隐患,制造商应当在第一时间暂停人工智能产品的生产与流通,并采取警示、召回等补救措施,避免人工智能事故损害的产生与扩大。此外,人工智能产品制造商在产品投入使用环节仍应当继续履行保障数据安全的义务,在产品使用过程中依法收集、储存与处理用户的个人信息,避免因数据安全缺陷引发人工智能事故。


  2.过失归责模式的调整


  “风险的因果作用机理太复杂,以致行为人难以对风险的现实化结果具有预见可能性。”由于人工智能技术的复杂性与算法黑箱的不透明性,即使作为研发者与生产者的人工智能产品制造商也难以认识到人工智能产品的运行机理及其事实因果,进而缺乏对人工智能事故发生的结果预见可能性,也就无法实现对人工智能产品制造商的过失归责。因此,人工智能事故过失归责的理论挑战主要在于结果预见可能性的判断“失灵”。对此,如果暂时无法在人工智能技术层面取得突破性进展,以实现在教义学意义上从过失行为到危害后果之间因果流程的明确化,那么纾解人工智能事故过失归责困境的着力点则可以放在对以结果预见可能性为逻辑起点的过失犯构造的重塑上。


  关于过失犯构造,学界素有旧过失论、新过失论以及新新过失论的争论。旧过失论与新过失论以具体的结果预见可能性作为结果回避义务的前提,新新过失论要求的结果预见可能性则只要达到抽象的“不安感”即可,三者的共性在于均以结果预见可能性作为过失论的建构基础。但是,这种将结果预见可能性作为归责逻辑起点的过失犯归责模式,实质是强行将过失犯嵌入故意犯的理论范式予以不当解读的产物——“意志归责”。原因在于,与对法益侵害结果呈容忍态度的故意不同,过失犯对实害结果的发生持排斥态度,此种主观意志非但不能体现出行为人的主观恶性,恰是其主观善性的表现。因此,过失责任的可谴责性不应当体现于“结果预见可能性”这一主观要素,而是应该彰显于“违反规范的行为客观上给法益带来的不当风险”这一客观要素。这一“规范归责”模式将过失犯的判断重心由“意志归责”关注的主观要素转移至客观要素,因而将过失犯的归责结构从主观归责转变为“客观归责”。


  由此,“规范归责”模式能够跳脱出以结果预见可能性作为逻辑起点的“意志归责”范式,将预见可能性的体系地位从责任判断环节前置到客观归责环节的行为归责层面,使得过失犯的归责结构由“主观归责”转向“客观归责”,预见的内容也被限于行为的注意义务违反性以及行为所蕴含的不容许风险,而不要求实际发生的结果与具体的因果流程。因此,过失犯的判定应当将归责的逻辑起点从行为人是否具有对结果的预见可能性调整为行为人是否制造并实现了法不允许之危险,进而“一旦行为违反了注意义务,就足以认定它产生了法所不容许的危险。”据此,在“规范归责”模式下,对人工智能产品制造商结果预见可能性的判断完全可以按照“对标识注意义务的前置性规范的违反→法不容许危险的制造与实现”的归责思维进行转化,从而有效避免人工智能事故场景下结果预见可能性判定的落空。


  3.过失成立范围的限缩


  将人工智能事故中制造商的过失行为予以犯罪化固然可以实现控制风险、保障安全的刑法目的,但是人工智能产品作为创新型技术产物同样也需要自由发展的空间。如果刑法将一切人工智能事故理所应当地全部归责于人工智能产品制造商,可能会不当扩大过失犯罪的成立范围,抑制人工智能技术发展的积极性,引发技术萎缩的负面效果。因此,刑法也应当肩负起保障国民自由的使命,合理限定过失犯的成立范围。“过失犯罪的传统概念在当代社会面临不断发生的疑问及难题,关于这些疑问和难题的回应及解答总让我们诚挚地怀想起迪特尔·梅勒所持的利益平衡观点”,而被允许的危险理论与信赖原则均为利益平衡原则在过失犯理论中的具体体现,对限定人工智能产品制造商过失犯罪的成立范围具有重要意义。


  被允许的危险理论旨在解决将某种具有社会有用性的危险行为在一定范围内予以合法化的问题,同样可以用于限定人工智能产品制造商的过失责任。由于人工智能产品可能导致人身与财产受到重大损害,因而人工智能产品制造商的研发、制造等业务活动蕴含着法益侵害的危险;但人工智能产品在智能驾驶、智能医疗、智能物流等多个领域的确带来了巨大社会效益,应当认为人工智能产品制造商的业务活动对于社会发展具有显著有益性,且与其危险性相比有过之而无不及。因此,即使人工智能产品造成了法益侵害结果,也应当在一定限度内被接受。“一定限度内”意味着对过失犯罪的排除附有相应条件,即人工智能产品制造商已经践行了通常能够避免人工智能事故发生的安全生产与安全管理的注意义务;否则,出现的法益侵害后果不在允许范围内,人工智能产品制造商仍可能承担过失责任。易言之,被允许的危险只限于人工智能产品制造商已经履行注意义务后的“剩余危险”,如果人工智能事故的发生超越了人工智能产品制造商的注意义务界限,那么人工智能产品制造商无需为此承担过失的刑事责任。例如,基于《产品质量法》第41条规定,人工智能产品制造商的注意义务范围应当与人工智能事故发生时(而非产品投入流通时)的科学技术水平相挂钩,如果引发侵害结果的产品缺陷超出了人工智能行业内专业人士的认知边界,那么规避该产品缺陷的义务不应在人工智能产品制造商的注意义务之列,这种法益侵害后果应当被视为允许的危险,进而否认过失犯罪的成立。


  信赖原则意指在行为人行为之时合理信赖被害人以及第三人将采取适当行为的场合,由于被害人或者第三人采取不适当行为而造成侵害结果,行为人对此不承担刑事责任。信赖原则原本适用于交通肇事案件,旨在减轻驾驶人员的责任负担,晚近以来则发展为对防止危险存在分担协作关系的所有领域都适用的法理。信赖原则在危险分担的意义上以危险分配的法理为内容,用以在加害人与被害人之间分配对危险的注意义务。按照危险分配法理,加害人与被害人的注意义务范围之间呈现为此消彼长的关系,这与信赖原则基于对共同参与人的信任而减轻自身注意义务的底层逻辑基本一致,因此信赖原则也具有界分注意义务范围,阻却过失的机能。在人工智能事故的场合中,除了作为研发者、生产者的人工智能产品制造商以外,使用者、所有者等相关主体也有可能成为共同参与人,对人工智能事故的发生贡献部分甚至全部原因力,在此种情况下,信赖原则的适用也有助于限缩人工智能产品制造商过失犯罪的成立范围。若通过信赖原则否定行为人的过失责任,则应当同时符合两个条件:一是行为人的信赖客观存在,且信赖具有社会合理性;二是存在信赖的具体状况或者条件,以及行为人自身行为不违法。具体至人工智能事故的语境,人工智能产品制造商若没有违背安全生产、安全管理的注意义务,也不存在动摇信赖的例外事由,那么其对人工智能产品的所有者、使用者或者其他相关主体会采取妥善管理、使用等适当行为的信赖应当被认为是合理的,那么其他主体的不适行为导致的损害结果便不能归责于人工智能产品制造商。例如,倘若L4级别的自动驾驶汽车制造商已经采取了必要措施充分提示使用者只能在厂区、码头、港口等限定环境下使用产品,确保产品在按照规定用途使用时是安全的,但使用者仍然超出限定场合滥用或者误用产品,进而导致人身伤亡或者财产损失的,制造商由于合理信赖使用者会尽到产品的安全使用义务而不应当对损害结果负有过失责任。


结 语


  “过失犯罪的实践意义,随着日益增多的技术化和由此产生的危险(尤其在道路交通中,以及在生产和管理中),呈现出跳跃式增长的态势”,人工智能等科技类产品事故正是此种新兴科技发展背景下不断涌现的现代型过失犯罪的典型呈现。毋庸讳言,人工智能这一“新事物”从诞生之时起就蕴含着对社会既定规则有效性与适应性的严峻挑战,但与此同时也充当着一种能够促使立法者和法学理论研究者重新检视并修正现行法律制度和理论体系的“新要素”或“新变量”,助推制度和理论系统走向自我改进与开放,避免在自我封闭中不断僵化直至系统性崩溃。本文亦秉持此种面向未来的开放性立场,以刑法上的缺陷产品过失责任为切口,在我国刑法框架内对人工智能事故带来的制造商过失犯认定困境展开规范与理论的双维审视,并尝试提出契合中国语境的人工智能刑事治理方案。值得强调的是,人工智能的刑事治理是一个复杂且漫长的系统工程,除了对作为研发者、生产者的人工智能产品制造商构筑刑事风险防控体系以外,人工智能产品的使用者、管理者与监管者等利益相关主体的刑事责任承担,以及在过失竞合情形下可能引发的过失共同正犯等问题也亟待刑法学界展开“精耕细作”式的深入研究。尤其是在党的二十大精神引领下,我国刑事法治更应当仁不让地为“数字中国”建设保驾护航,勇担人工智能等新型数字犯罪治理的时代使命,全力推进中国式现代化和中国式法治现代化总目标的实现。




推荐阅读-向上滑动,查看完整目录-
《河北法学》2023年第10期

【专论】

1.法治保障体系的基本构成

江必新、孙珺涛

【专题:算法相关法律问题研究】

2.论自动化决策算法的知识产权保护

——以注册算法专有权的建构为切入点

何怀文、吉日木图

3.公共信用数据开放的逻辑转向与体系形塑

李元华、于立深

4.人工智能事故过失犯认定的中国方案:规范型塑与理论因应

贾济东、岳艾洁

5.算法治税:人工智能时代税收治理的范式优化与架构设计

茅孝军

【青年法学家】

6.网络安全紧急状态制度的建构意义与规制内容研究

王祯军

7.作为国际法渊源权威文本的《国际法院规约》第38条

严阳

【热点问题透视:自动驾驶法律问题研究】

8.角色理论视野下自动驾驶使用者的刑法定性

黄鹏

9.德国自动驾驶立法的逻辑内核与体系构造

丁芝华

【博士生园地】

10.论个人信息保护机构的组织优化

——结合《个人信息保护法》相关规则的解释

倪朝













《河北法学》是法学专业学术期刊,1983年8月创刊,国内外公开发行,月刊,大16开本,内文200页,期定价18元。由中共河北省委政法委主管,河北政法职业学院、河北省法学会主办。本刊为“中文核心期刊”、“CSSCI扩展版来源期刊”、中国人文社会科学核心期刊。《河北法学》读者对象为法学研究人员、政法院校师生及立法与司法实践工作者。目前所设置的栏目有:专论,名家论坛,青年法学家,热点问题透视,博士生园地,司法实践等。

法宝新AI·智能写作

无论是工作汇报,产品介绍,还是法律研究报告、市场宣传文案,法宝智能写作系统都能为您提供高质量写作支持,满足法律工作者日常学习工作中各类领域的写作需求,提供源源不断的创意与灵感,全面助力您的文案写作。您可以在平台上选择不同的写作模型,输入关键词和要点,即可自动生成文档大纲与内容。平台内嵌法宝V6数据库,让您的内容创作有据可依。与此同时,智能写作平台还支持实时对生成文档进行修改和优化,确保文章撰写的准确性。


——  系统亮点  —— 


“一键生成文章大纲”——输入关键词和内容要求,即可自动生成文章大纲,为您提供创作起点和清晰明了的写作思路。

“智能生成文章内容”——GPT模型结合法宝数据库快速生成逻辑自洽、内容丰富的文章。

“法宝V6数据库支持”——查阅生成结果的相关法律法规、学术期刊等信息。可准确理解法律术语,帮助生成符合要求的法律文件;能够自动匹配对应法律法规,实现法理逻辑处理自动化,增强文章权威性与可信度。法宝智能写作能及时跟踪法律法规的最新变化,避免使用已失效或废止的法律条文作为参考。



-END-


责任编辑 | 郭晴晴

审核人员 | 张文硕 李婉秋

本文声明 | 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北大法律信息网(北大法宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。


往期精彩回顾《河北法学》2023年第10期要目
储槐植、唐风玉:刑事一体化视域中专利权保护问题研究 | 河北法学202309
张善斌 余江波:论生存权保障视域下自由财产的范围 | 河北法学202306李晓明 韩冰:纪检监察学的性质及其学科体系 | 河北法学202305张淳:对《海牙信托公约》中信托定义的信托法理论审视 | 河北法学202304
敦宁:高空抛物罪中“情节严重”的教义学诠释 | 河北法学202303
吴宗宪 燕永辉:微罪的概念补正与现实批判 | 河北法学202302

卢勤忠 张宜培:非法使用个人信息行为入刑的立法构思 | 河北法学202301



关注下方公众号,获取更多法律信息

点击「在看」,就是鼓励
继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存