查看原文
其他

王静:ChatGPT技术嵌入智慧司法的伦理风险及其法治应对 | 上海政法学院学报202304

The following article is from 上海政法学院学报 Author 上海政法学院学报

【作者】王静(华东政法大学涉外法治研究院副研究员、中国政法大学在站博士后)

【来源】北大法宝法学期刊库《上海政法学院学报》2023年第4期(文末附本期期刊目录)。因篇幅较长,已略去原文注释。


内容提要:中国式司法公正的标准是情理法圆融。实现司法的法律效果与社会效果的统一是司法的社会治理目标与司法人民性的必然要求。围绕着司法公正的合理性标准展开讨论,以合理是合法的必要条件为基本命题,通过剖析ChatGPT的技术本质及其融入智慧司法场景的具体情形,揭示司法技术化趋势由于单向强化司法技术引发了伦理风险。ChatGPT作为人工智能技术的集大成者依然无法克服技术不能在个案中实现情理法圆融的缺陷。在司法技术化趋势下,既要以科技伦理审查控制算法与数据取用,也要提升法官的司法技艺,后者是在当前人工智能技术条件下实现情理法圆融的最为重要法治路径。尤其应明确法官主体与社会效能原则,培养法官对具体案情与社会运行机理的感知能力,使法官在把握具体案情的基础上,融贯法律知识、法律方法以及对特定主体合理行为的代入式判断和理解。

关键词:ChatGPT;生成式人工智能;司法技艺;法律解释;伦理风险;科技伦理

目次
一、司法技艺是实现公正司法的必要条件
二、ChatGPT单向强化司法技术
三、ChatGPT引发的伦理风险及其原因
四、应对ChatGPT伦理风险的法治策略
五、结语

  法的全部实践都是围绕着公正价值展开的,古今中外莫不如是。《汉谟拉比法典》在序言中宣扬法是为了实现公众之正义;古希腊、古罗马、中世纪以及近代工业社会都主张法的功能在于实现公平正义价值;西方于20世纪兴起的社会连带责任是在现代实证法学为王的时代里继续追求法之公正价值的具体制度表现。中国法自发源起,从“灋”的内涵中就体现出了追求公平正义之意。当然,不同时代、不同族群对公正有不同的理解,即公正是一种与特定社群相关的价值准则,是一种多元的、动态的正义。但公正具有共同的价值内涵——即“合理的”。于是,各个时代的各个族群都在致力于探究和解释究竟合理的标准是什么。现代社会内在的精神维度与制度尺度的多元表现及其冲突,使得可获得共识性的“合理的”标准更加难以把握。但总体而言,人类社会对于司法公正价值的理解随着法学与法律持续技术化的发展趋势,经历了从追求实体公正到形式公正再到实体与形式公正兼具的发展历程。


  当代中国特色社会主义司法非常重视法的公正价值,习近平法治思想尤其如此。例如,习近平总书记指出,促进社会公平正义是政法工作的核心价值追求。从一定意义上说,公平正义是政法工作的生命线,司法机关是维护社会公平正义的最后一道防线。要努力让人民群众在个案中感受到公平正义,所有司法机关都要紧紧围绕着这个目标改进工作,重点解决影响司法公正与制约司法能力的深层次问题。为此,国家大力发展人工智能技术,并积极将其应用于司法场景之中。但从实际应用效果来看引发了技术悖论——技术的客观性与强约束力提升了司法的统一适用度,但也触发了牺牲个案正义的风险。对此,国内外学界均已经展开了讨论。但既有研究鲜有基于大历史观从司法的社会需要、司法改革的演进与人工智能技术的局限性三个维度展开的研究,而这一视角的研究有助于在理论和实践层面上更深入地理解何谓合理的司法。


  ChatGPT自问世以来,对将其应用于司法场景中的讨论持续不断。ChatGPT是人工智能中自然语言处理技术的最新成果,其所使用的深度学习技术与目前智慧司法中的类案检索制度所使用的技术同根同源,标志着自然语言处理技术跨越式的进化。可以预见,在司法技术化趋势下,ChatGPT所代表的生成式人工智能技术必然会嵌入智慧司法场景之中。这就引发了这样一个不容回避的时代之问:ChatGPT技术嵌入司法场景后对提升司法公正指数,树立司法的社会公信力与司法权威将产生何种影响呢?


  本文以维护和提升司法公正价值为视角,通过解析当代中国社会的司法公正观、ChatGPT的技术本质、司法应用及由于其技术缺陷所引发的伦理风险,详细诠释了提升法官司法技艺对实现司法公正价值的决定性作用,并构建出了法官与ChatGPT相协同的法治应对措施,以期在顺应司法改革技术化的趋势下提升司法公正。


司法技艺是实现公正司法的必要条件


  自法学成为独立学科以来,不断加速的技术化进程始终伴随着对司法技艺的追求。司法技艺同时兼具司法所要求的技术性与人文性,最终目标是实现法之终极价值——维护公平正义。合理的司法裁判需要在法律知识和法律方法的应用过程中融贯人文价值。例如,佩雷尔曼将法律论证与公正价值的实现联系起来,就是典型的司法技艺。


  (一)情理法圆融:理想的中国式司法公正


  作为司法公正标准的“合理”是在解决具体问题的过程中实现的。既然司法隶属于社会治理范畴,那么司法的这种“合理”就需要达到法律与社会效果良性互动的状态。实现司法公正不能片面地强调法律技术,简单地主张增强法律适用过程中的形式逻辑塑造司法的规范性、客观性,也要在司法过程中注重个案案情及其背后的民情社情。公正的司法始终要向特定时代、特定群体回答何谓“合理”之问。作为司法公正判断标准的“合理”兼具司法专业与社会人文属性,所形成的判断逻辑是“合理应当合法,合法却未必合理”。


  基于对社交媒体上发帖讨论的实证调研,在以“大学生掏鸟案”“彭宇案”“大妈推倒摩托车赔偿案”为代表的争议性案件中,当代年轻人开始较为广泛地开展了法律规则之治的讨论,形式正义呈逐步被重视的趋势。在对产生了较广、较大舆情影响力的更多司法案例进行实证研究后发现,情理法圆融仍是中国社会认知司法公正的主流标准。这说明情理法圆融具有相当强的历史延续性,但也必须看到情、理、法之间的关系已经发生了变化。当代社会对情理法圆融的认知强调以法律适用为基础,尤其是在法律解释的过程中,法官能够结合具体的案情、民情、文化模式与社会运行机理,达成同时符合法律职业共同体与社会公正价值之共识的司法状态。情理法圆融是中国式“合理”司法的标准,其融贯法律技术与法律艺术,兼具法律专业性与社会公信力。这要求法官在裁判说理时,在对具体案情进行综合性判断的基础上对法律进行适用和解释。


  情理法圆融中的“情”,指的是活生生的平凡人之良心,是不能无视或压制一般人认为是自然的感觉、想法和习惯等强调具体问题具体处理的价值观念。在中国司法史上,它最初指的是客观事实,诸如《左传·庄公七年》曹刿论战中的“小大之狱,虽不能察,必以情”,随着法律的儒家化,情的主要标准成了儒家的伦理道德。自法律儒家化发端,中国文化上所言的这种情就不能用西方卡尔纳普、艾耶尔等人提出的相对主义伦理学进行理解,即情并非个人主观性的情感,而是具有社会普遍性的心理与行为规范,是社会文化的产物,是被“礼”这种社会规范所约束和校正过的情感。正是由于“礼”对情的规范、升华,形为了人伦道德情感,才有了所谓的“缘情制礼”。


  所谓“理”,指的是道理、天理、天道。理比情更加抽象,主要是人们认识的各种(自然、社会)规律和长久形成的关于天地宇宙的整体看法,例如天人合一、中庸之道等,是包括习惯、风俗在内的诸如“欠债还钱”“扶助弱小”等不成文却被广为承认的种种原理、原则。


  “情”“理”之间是辩证统一关系,这是中国人实质思维的凝结,共同构成了法的价值来源。情理是将个案正义凝聚为普遍原则之后的社会良心之共识,是常识性的正义衡平感觉,而非强调遵循某种预先客观存在的严格规则。情理是地方官意图权威性地解决纠纷时给自己提出的一般要求或规范性的心理感受。因此,根据具体案情作出的实际裁决千差万别。司法的重点环节是说理,不论是通过以合法性为核心的法律论证抑或是以合理性为核心的法律修辞,司法是根据法律裁判说服社会大众的技艺。即公正价值的实现必然要通过说理才能实现,并且这种说理要能够获得社会的理解与承认。既然要服众才可称之为合理的司法裁判,才能称得上是成功的司法裁判,那么法官在司法裁判的过程中就不能仅仅以法律人的思维裁判(当然,法律人的思维是作出合理裁判至关重要的前提)。在司法技术化的趋势下,也需要特别重视法官对社会情理观的认知力。这就是说,除了需要增进法官在法律知识和方法方面的技术水平之外,也需要使法官以正常人的角色理解所生活的社会实际,理解其置身的社群现状,深入社会社群之中理解特定时代的中国社会。


  深入理解中国社会才能深刻洞悉何谓当代中国人的情理。这是因为,情理的本质是具有普遍性的价值共识,也因为这种普遍性而具有相当程度的确定性。情理作为社会认知之共识不具备法律职业人的技术水准,却构成了检验司法是否公正的标准。若某个司法裁判严重偏离情理,即便有充分的依据法裁判之根据,也必然说明其存在法律适用问题,在法律发现、法律推理、法律论证、法律解释等方面存在改进或改正的必要。


  (二)以增强法官司法技艺为主要路径实现情理法圆融


  既然当代中国社会对司法公正的主流理解是情理法圆融,那么关键问题是:如何实现情理法圆融的合理裁判呢?达成该目标的关键在于培塑法官的司法技艺,即司法技艺是实现情理法圆融的必要条件。司法技艺是法官在司法过程中为解决纠纷、维护法律而使用的各种技艺、策略、方法、立场与态度,其最终目标是帮助法官策略性地解决手头案件,并尽可能地说服当事人和社会舆论,尽力维护法治原则。以柯克为代表的普通法学家认为,司法技艺是一种明显不同于自然理性的完善的人造理性,是处理各种具体纠纷的方法和技艺的总和。然而,在司法技术化趋势下,极易被法律人忽略的是,司法并不仅仅是一门技术,也是艺术。既有研究往往将司法艺术理解为法律修辞之术,是通过法律语言学进行清晰明了且具有说服力的说理方法。本文并不否认法律修辞是司法艺术,但不能忘记的是,法律修辞学自12世纪发达于注释法学派繁荣的时代起,其本身也是司法技术化的组成部分。本文所强调的司法艺术侧重于融入司法的人文属性。具体而言,本文所指的司法艺术是对个案案情的具体分析及其所折射出的民情社情的清晰、深入的理解,是一种对社会文化与运行机理的深入洞察力以及对具体个案中何为个体合理行为的具有同理心的代入式判断与理解。


  英国哲学家欧克肖特指出,理性包括两种知识:一是技术性知识,主要特征是可以被精确制定,其清晰的规则被记载于书本中供人学习;二是实践性知识,存在于运用中,不是反思的,也不能被指定为规则。从技术上来说,司法必须严格遵循法律程序认定事实、适用法律;而从艺术角度而言,法官在司法过程中需要运用富有创造性的方法。司法艺术不仅指创造性的司法方法,还包括法官独具匠心地运用司法方法使案件的处理显现出的独特而美观的状态或效益。本文所言的司法艺术是存在于社会实际生活之中的“活”的知识。司法总是指向法律的运行实践,既有概念义理知识体系,也有对于人世百态、人性深入的洞悉。司法技艺实际上是学术传统与实践传统自洽状态的结合,是在法律适用过程中根据具体案例对法条进行合理合法的解释。休谟在《人性论》中指出,法律起源于基于人性的生活经验的生活常例。普通法系中的普通法、衡平法均是法官充分发挥主观能动性的结果,特点是依案情合情合理地适用法条,甚至能够灵活地运动法律原则与宪法精神处理案件。普通法的形成就是王座法院的法官在类似“揉面团”的过程中将地方习惯、普遍伦理规则与罗马法原理、国王命令等结合在一起。因此,普通法规则本身就带有相当明显的“合理即是合法”的特征。在使用普通法解决具体个案纠纷的过程中,司法场景中有三个重要角色,分别是法官、律师和陪审团,三者共同构成横向的智慧共同体。基于遵循先例制度,法官还秉持着历代法官的共同智慧(Wisdomo Ages)。因此,个案中的法官是横纵两种智慧的凝结点。横纵两种智慧本质上都是以具体案情为核心的司法技艺。在查明案件事实、当事人的关系及法律关系所反映出的社情民意之后,法官才会致力于寻找或创制法律依据,解决该具体纠纷。而横纵两种司法智慧,即不论是律师、陪审团还是作出既裁案件的历代法官们,其主要价值不是给出法律适用依据,而是应当如何理解案情及其背后所反映的社情民意才是合理的,以深入理解案情为前提才有后续的法律适用或规则创制。


  另一个重视法律适用过程中案件事实及其背后的社情民意的实证素材是古代中国司法。传统中国司法官以深厚的人文素养与对社会民情案情的精准把握,塑造了古代中国司法情理法圆融的基调。基于情理的普遍性,儒学出身的行政官员往往以情断案,并将这种做法作为解决社会纠纷的司法技术。其强调对案件的具体性或特殊情况予以通盘和细致的考虑,“不能无视或压制一般人认为是自然的感觉、想法和习惯”或“尽量应该使良好的人际关系得以维持或恢复”等,重视个案案情,重视在已经儒家化了的法律基础上融情于法,秉持具体问题具体处理的价值观念。


  韦伯称中国法官为家产制或家父制法官,认为司法审判尤其是民事审判追求的是实质公正,几乎可以不受法律约束进行自由裁量,称中国传统司法为卡迪司法。但是,国外法理、法史学家对情理法圆融的中国传统司法的解读有值得商榷之处。有学者通过对清代汪辉祖自传所载案件进行详尽分析后发现,其既不是纯粹的依法裁判,也不全然是依照情理法裁判,而是情理法圆融的司法技艺,是一种兼具情理与法律依据的裁判模式。在汪辉祖看来,精通律例乃是司法官员必须具备的基本能力,但仅仅熟悉律例是不够的,还需要明知律例背后的意蕴——律意。所谓律意,包括作为律例精神的经义,也包括构成律例源泉的人情和风俗。风俗是情理的另一种表达。日本学者岸本美绪对风俗的内涵作了梳理后认为,风俗的核心在于通过某些行动方式表现出来的人民精神品质。由于中华传统立法未有作为自主知识体系的法学,立法本身就是缘情理而构建的,且社会情理具有相当广的普遍性,据法裁判就是据情理裁判,司法公正观与社会公正观具有较高程度的一致性。


  传统中国的司法裁判是形式化与实质化的有机结合,在形式化与实质化之间充满张力,清代中国的司法官员都是在遵循律例的前提下寻求情理的平衡。传统司法情理法圆融的独特之处在于价值融入司法的标准与途径,法官充分理解并认可中国社会的情理观。在《清明集》中,几乎每个官员都有明确自觉的情理意识。户婚门载胡石壁判语:“殊不知法意、人情,实同一体,循人情而违法意,不可也;守法意而拂人情,亦不可也。权衡于二者之间,使不上违法意,下不拂人情,则通行而无弊矣!”我国《棠阴比事》中的司法技艺从外延上包括求供之技艺、求证之技艺、裁判之技艺。有学者对薛允升处理三牌楼案件中证明了司法实践与特定族群的社会生活实践息息相关,理想的法律论证既是一种专业技能的反映,也是实践智慧的体现。沈家本、梁启超、吴经熊、陈顾远、俞荣根、江山等人都延续了这种通过熟读法律、深刻理解社会以达到司法技术与艺术相互融贯的思想。


  当代中国司法要实现良好的社会效果与政治效果,发挥以司法助力构建中国社会命运共同体的功效,需要这种在个案中融贯法律规范与社会实践的司法技艺。以“于欢案”和“李昌奎案”的一审、二审为实证素材,可真切地感知到司法技艺对实现情理法圆融以至于实现司法改革目标具有至关重要的作用。在“于欢案”的一审判决中,法院以辱母行为已经停止为由,判定不构成“不法侵害正在进行时”因此不成立正当防卫的裁判不符合社会公众的一般认知。从法律规范的专业角度上来看,这犯了割裂地看待“不法侵害”的错误。如此判定的根本原因是法官悬浮于具体案情之上,没有代入具体的情境中,未能体会一个正常的理性人在警察来了又走后,于欢面对杜志浩等人的威胁和所作出的辱母等不法侵害即将再次发生的合情合理的判断。因此,一审裁判是一种字面上的据法裁判,未能做到结合具体案情融贯法律规范与社会认知。而“于欢案”的二审判决之所以能够兼具法律效果与社会效果并成为典型案例,其高明之处就是在个案中融贯了司法技艺,以20条正当防卫条款为基础,基于一般人面对该情景的正常反应,而非绝对理性人的视角,对于欢的行为构成防卫过当进行了充分的说理,逐个阐释了构成防卫过当的法律依据。这种带有同理心的融入具体场景中的具体人的思考方式是融合司法技术、案情、社会文化与运行机理的过程,摒除了脱离具体案情的字面据法裁判问题。2020年最高人民法院、最高人民检察院、公安部印发的《关于依法适用正当防卫制度的指导意见》肯定了二审基于具体案情进行法律解释的裁判技艺。


  “李昌奎案”的二审裁判也存在较为明显的在字面上据法裁判的问题,尤其体现为对于邻里关系的认定,脱离了具体案情和对一般社会规律的认知,导致矛盾主体错位。云南省高级人民法院对李昌奎由一审死刑改为二审死缓的理由主要依据的是最高人民法院于1999年颁布的《全国法院维护农村稳定刑事审判工作座谈会纪要》(以下简称“《纪要》”)。该规范性文件中规定因邻里纠纷而造成民间矛盾激化引发的故意杀人罪适用死刑一定要十分慎重。云南省高级人民法院因此认定,由于李昌奎的哥哥与被害人的母亲在案发前曾发生了邻里纠纷,改判为死缓于法有据。但实际上,仅仅按照字面意思理解邻里纠纷,并不符合社会生活实际,也不符合最高人民法院颁布《纪要》维护农村秩序的立法目的。若如此解释邻里纠纷会造成邻里纠纷被滥用,成为犯罪嫌疑人获取刑罚福利的事由,并不利于维护农村稳定。再审裁判纠正了这个错误,并且在对特别残忍手段的认定方面兼具考量了李昌奎母亲与两死者之母为堂姐妹的亲属关系,这也是典型的在个案中融贯法律规范与社会一般认知,是司法技艺的具体体现。


  以上两个案例充分说明,导致法官与社会公众司法公正观间隙处于异化状态的原因,并不是如有些学者所认为的那样,即法官过多地考量了法外因素,贬抑了法律规范,而是仅仅以形式合法合规为裁判依据,对法条作字面理解和适用,脱离了对具体案情的考量,未能考虑到各种法外因素对行为人所施加行为的意义和影响。融贯法律规范与社会认知的司法技艺是达成合理司法裁判的必要路径。司法的技与艺是有机关系,彼此独立各有功能且两者缺一不可。


ChatGPT单向强化司法技术


  人工智能、大数据、机器学习等智慧技术正在革新各行各业。人工智能的发展史表明,信息技术对获取知识的路径、知识迭代以及认知、思维方式产生了革命性的影响。从“社会中的科学”到“科学伴随社会”转向的过程中,人工智能的重大突破尤其需要被重点关注。智慧司法场景是人工智能技术应用的主要领域。在司法技术化趋势下,我国积极借助智慧技术,希冀提升判案效率,实现普遍公正,提升社会治理智能化及其实效。


  (一)ChatGPT的技术本质


  ChatGPT发布之后,因其展现了人工智能技术强大的检索与人机交互能力,超全的知识面引起了广泛的关注。人们惊叹ChatGPT是具有颠覆性的人工智能。ChatGPT的问世也让法律和法学界异常兴奋,因为司法也是以语言和文字为载体的领域,与ChatGPT的适配度高。人们期待将ChatGPT代表的生成式人工智能运用到司法领域,依靠其强大的数据检索能力和文本生成能力,提高司法的效率和客观性,促进司法公正。


  从技术角度上说,ChatGPT是升级版的人工智能,其数据库更加庞大、数据综合分析能力更强、算法推理能力大幅进化。目前,ChatGPT已经逐步嵌入了经济社会生活之中,短时间内即拥有了庞大的用户量,而大语言模型是代码层的基石性模型,也确实可以应用到智慧司法场景中。在我国司法技术化趋势下,ChatGPT很可能将沿着从法官的个体运用向融入智慧司法机制的路径发展。


  ChatGPT是著名人工智能公司OpenAI基于其自然语言模型GPT-3.5开发而来的问答式程序最近,基于更先进模型GPT-4的ChatGPT版本也已经发布,其功能又有了巨大的飞跃。所谓GPT,其实是“生成式预训练Transformer”(Generative Pre-Training Transformer)模型的简称。Transformer是Google提出的一个引入自注意力机制来提高模型训练速度的神经网络模型,它的灵感来自人脑在接受信息时会选择性地关注信息关键部分的特点,能够让语言模型更好地解决大篇幅文本中的长距离依赖等问题。Generative表示该程序使用的是生成式语言模型,这种语言模型通过循环地将上文输入到模型中并以单字接龙的方式生成下文。例如,将“床前明月”输入到语言模型中,它会很自然地生成下文“光”。而这种快速的推理或衔接仅仅是因为在计算机所学习到的语料库里面,“床前明月光”一起出现的概率最高。这种文本生成方式不需要计算机理解上下文内容,只是学习了足够多的文本之后而产生的自然行为,即这种能力建立在模型学习到足够多文本的基础上。为此,OpenAI使用了超大规模的无监督语料库来训练ChatGPT模型,这一过程就是Pre-Training预训练。根据OpenAI的资料,2018年发布的第一代GPT模型GPT-1使用的预训练语料库为5GB,而到了ChatGPT模型,语料库增大到了45TB。同时,模型的参数量也从GPT-1的1.17亿个增大到了1 750亿个。也正是这种超大模型,让ChatGPT能够获得各种惊人的智慧能力。


  但需要注意的是,在学习了充分多的语料库之后,ChatGPT只拥有了文本生成能力,尚不具备问答功能。为此,在预训练之后,OpenAI又采用大量标注语料,让ChatGPT进行监督学习,这些标注语料是提问和回答组成的问答范例,可以让ChatGPT掌握提问和回答的通用规律,进而能够在遇到没有训练过的问题时,也能根据所学的规律生成想要的回答。正因这个学习过程,ChatGPT的回答一般具有固定的范式,甚至有时ChatGPT在面对一个胡乱编造、毫无逻辑的问题时,也会根据回答的通用规律进行编造。这仅仅是因为这个问题恰好符合ChatGPT在训练时所学习到的某一问答模板。这证明ChatGPT其实并不知道问题和答案的真正含义,其技术本质是在学习了足够多的文本之后,凭借其超强的文本生成能力,根据预先掌握的问答模板进行回答的生成。


  当然,OpenAI并不希望ChatGPT出现太多胡编乱造的回答,也不希望它的回答引发过多的偏见,甚至暴力和伦理等问题。因此,ChatGPT在前几代GPT模型之上叠加了人类反馈强化学习技术(Reinforcement Learning from Human Feedback,RLHF)。所谓强化学习模拟的是人类的学习过程,将能产生更高收益的行为打高分,从而训练出模型自主选择更高收益行为的能力。类似于小孩子在品尝了糖果和柠檬之后,会因为糖果的甜味刺激而将选择糖果的行为标记为更高的收益,进而在以后做选择时倾向于选择糖果。而人类反馈强化学习其实就是使ChatGPT模型根据提问生成若干结果,然后由人工来对回答的优劣作出评价。这个评价回答好坏的模型叫做奖惩函数(Reward)。在ChatGPT的开发中,OpenAI雇佣了40名外包人员不断地从模型的输出结果中筛选,给高质量的回答打高分,给低质量的回答打低分,并根据打分的结果训练得到一个奖惩函数模型。根据这个模型,ChatGPT会倾向于生成得分最高的回答,从而使ChatGPT的回答更符合人类价值观。


  然而,ChatGPT依然无法模拟人类高度结构化的认知系统,不能形成因果模型,仅只能进行单一的、基于数据的、固定的机械式判断,无法理解人类的隐含情感,无法读懂人类的面部表情,也无法像人类一样对不同环境中不同人的不同情绪作出不同的反映,不具有人类社会的常识与衡平感。因此,从技术上来讲,ChatGPT并不能够理解人类社会的运行机理。


  (二)ChatGPT技术嵌入智慧司法的几种情形


  首先,ChatGPT凭借其强大的文本生成能力可以直接用于裁判文书的撰写。目前,ChatGPT学习的是海量的多样性数据,在对知识进行大量学习后,有能力针对所学习过的知识生成质量较高的文本,具有相当程度的专业性。基于此,可以想见其在学习了大量的法律文本语料库之后,有能力概括案情、法律条文以及司法裁判,生成具有专业水准的法律文书并预判法官的裁判结果。另外,裁判文书具有固定的格式,更适合应用ChatGPT这种生成式人工智能。这也与目前智慧法院依托人工智能完成的审判辅助和裁判文书要素式拟写、智能生成文书等功能的客观需要相契合。人工智能通过储存、分析大量的案件信息和要素式文书架构,基于自然语言处理、智能识别等技术,辅助进行裁判文书要素式拟写。类似技术在成都互联网法庭现阶段受理的批量案件审理中已得到了广泛应用。


  其次,ChatGPT将改变法律检索方式。由于目前常见的司法智能搜索引擎主要依靠关键词匹配的方法,需要使用者灵活替换关键词的组合方式才能搜索到自己所需要的内容。因此,法律检索者通常需要多次检索才能完成,并且法官需要根据检索出的法律全文自行查阅和选择。因此,检索过程需要较高的法律专业技术,检索关键词一般包括案由、基本事实、争议焦点、法律适用,需要法官的整理和归纳。而ChatGPT却是基于海量数据训练建立起来的输入—输出直接映射关系,其神经网络模型可以根据用户输入的问题,直接给出检索结果,省去了中间层层递进式的检索过程,可以轻松通过提问方式直接查找到具体的法律条款,检索结果高度凝练,无需二次筛选和查找,能够有效节约检索时间,甚至不需要太多的法律专业知识和技能,这是一种彻底颠覆精英主义传统的知识获取方式,相当程度上缩小了民众与法官之间的专业鸿沟。深度合成极大程度降低了专业知识与特定技能的门槛。


  再次,ChatGPT技术将助力智慧司法。不论类案检索制度中对司法判决书的要素提取或者对案情描述文本的智能识别都依托于基于深度学习的自然语言处理技术。ChatGPT正是该技术的最新成果,代表了深度学习中大语言模型的最新技术。ChatGPT采用的大语言模型可以为司法判决书智能识别提供至关重要的帮助。笔者使用ChatGPT对司法判决书进行要素提取,发现ChatGPT已经可以对案情经过、关键信息、裁判结果等进行概括性总结,且归纳总结的效果较好。


  最后,随着技术的进一步完善,ChatGPT可能达到相当于甚至超越法官的法律知识量和方法论水平进行判案。根据OpenAI官网上发布的资料,在模拟美国律师从业资格考试中,最新的GPT-4模型的成绩已经可以排进前10%。在难度更高的国际生物学奥赛中,GPT-4甚至能够战胜99%的人类选手。更为重要的是,ChatGPT基于预先充分训练的模型,对于特定的案情永远会作出一致的判决,不会因立场、态度等不同倾向出现判断偏差,也不会因外部和自身因素的干扰而影响司法判决的客观和公正性。ChatGPT应用于智慧司法场景后可进一步缩小不同地区法官之间司法技术的差距,可成为类案检索的进化版本。


ChatGPT引发的伦理风险及其原因


  那么,融入智慧司法的ChatGPT技术将会引发哪些具有其技术特性的伦理风险呢?引发这些风险的机理又是什么呢?


  (一)ChatGPT融入智慧司法的伦理风险


  在ChatGPT融入司法场景以前,在持续的司法技术化改革趋势下,我国已经发生了因片面强调司法技术而导致的伦理风险。所谓伦理风险,指的是法官司法与社会公众的司法公正观之间隙过大——达到了法官司法不能说服甚至颠覆了社会公众一般认知的程度。当代中国司法达到情理法圆融状态较传统司法的难度已不能同日而语,必须直面的主要问题包括:第一,现代社会价值观多元,法律实践也在多元价值观中发生撕扯,且何谓社会共同的价值准则难以定论,其中心范围进一步缩小,边缘更加模糊。要在这种多元价值观中达到情理法圆融,使司法裁判兼具法律效果与社会效果,并不再如传统价值一维时代明确、具有可操作性。第二,当代建构主义下的中国法是去伦理的。这客观造成了社会一般认知与法律专业知识的间隙扩大。比较而言,旧中国法是“律例本天理人情而定”,所谓成文法是漂浮在情理大海中的一座冰山而已。第三,法官的技术化培养使得法官相对缺乏人文素养与社会实践认知。尤其很多年轻的法官在学校接受以法教义学为主的知识化学习,毕业后直接从校园到工作单位,欠缺对社会的认知以及人文素养,难以兼顾法律与社会效果。第四,高度科层化的司法专业运行模式疏远了法官与民众的距离。科层制是现代化的标志,带来分工合作的高效与规范。但科层制的负面效应是由于国家权力机器的运行,法官在执行国家权力以及遵循职业共同体技术性思维的逻辑下,会偏向于对国家机器与职业共同体的存续负责,往往会以法律专业为名,忽视甚至蔑视民众对公正的理解与诉求,走上狭隘的司法精英主义之路。第五,司法技术化趋势下倚重科技手段限制了法官的自由裁量权。智慧司法提升了司法的规范性,统一了法律适用,提升了普遍正义,但却容易陷入唯数据、唯检索的思维局限和客观技术性框架所构筑的桎梏之中,不利于作出结合具体案情的充分反映社情民情的司法裁判。


  ChatGPT应用于司法场景之后,法官司法与民众司法公正观之间隙会因技术理性的加强而进一步扩大。ChatGPT这一类生成型AI,决定其被如何使用的是用户,而不再是运行商。ChatGPT应用于司法后,其技术独特性是会同时对法官与民众产生偏离性影响,从而导致司法公正观间隙异化程度加剧。


  从法官角度来看,ChatGPT融入司法场景之后,很有可能产生正负两方面的效应,其积极方面主要包括三个方面:其一,人工智能融入司法是借助新科技的技术优势,让科学技术的“法外”形态介入司法活动,充分挖掘和释放司法实践的程序正义。其二,由于社会生活的多元复杂,需要法官掌握多方面的知识,以了解不同主体的价值诉求和利益根据。然而法官在社会实践以及法学之外的专业知识方面劣势明显,在诉讼参与者优先、审理时间较短的条件下,法官难以协调和理解不同群体的价值与利益冲突,不利于公正地裁决案件。ChatGPT的优势是可以让法官快速地理解某个特定行业。但是这也很可能由技术的特性带来事实认识错误或过于依赖ChatGPT所提供的专业知识的问题。其三,ChatGPT可以帮助法官快速查阅法律条文与案例,可独立完成法律概念解释、法律适用解析、搜索类案、撰写和审核法律文书、法律咨询、法律翻译等工作。ChatGPT强大的知识生成能力,使得法官对于法律摘要、诉讼文书、事务性文件的处理方式更加广泛。


  而ChatGPT也具有明显的消极影响,主要包括以下几个方面。首先,其可能导致法官进一步以科学之名依赖技术。理性主义的实质是技术理性,核心特点是追求确定性。延续着理性主义思路,在人工智能时代,一个显著表现体现为对信息技术的崇信,其直接结果是法官丧失了主体地位。目前,已经在智慧法院中出现了法官过分依赖数据的趋向,诸如在《大数据时代》中描述的这样:人们过分相信数据分析所得结果,即使该结果本身存在着不合理的地方;过度沉迷于数据,虽然数据远没有我们想象的可靠。而ChatGPT应用于司法场景之中很可能带来法官产生依赖人工智能判定结果的风险。据美国“Vice”杂志报道,哥伦比亚一位名叫加西亚的法官已经利用ChatGPT作出了裁判,裁判依据是ChatGPT的回答与自己法律观点的结合。这本质上其实是ChatGPT成为了司法裁判主体。除此之外,自动化知识生成系统并没有做到以人为本。智能系统的运作预设不是使机器人性化,而是让人越来越机器化,人的自主性在经意间被自动剥夺。依赖技术的结果是,法官不再需要发挥主观能动性,提升司法技艺,而只需要提升自己使用人工智能技术的水平即可。其次,ChatGPT不能理解人类情感,不具备人类的常情常理,无法辅助或告知法官如何理解以及什么是社会实际的运行机理。虽然,ChatGPT的思维方式已经不仅仅是机械式思维,可在一定程度上积累经验并完成进化。为此人们不免惊叹奇点时刻即将到来,主张不要再回避人工智能无所不能的科技规律。但现实是即使是GPT-4这种表现出了相当高情商的人工智能,也不能像法官那样去理解具体案情中的一般人思维与行为,也无法根据具体场景判断何为合理的行为。并且,ChatGPT这类人工智能依靠的是神经网络技术,这种通过内部大量节点构建出来的人工神经元本身具有较高的不可解释性,仅有专业技术人员可探知其底层运行机理。而ChatGPT这类大语言模型网络层数更多,参数巨大,具有更显著的算法黑箱属性。法律适用的前提是法律解释,而这种程序和结果上的不可解释性更加放大了公众对司法裁判的不信任,从而折损司法权威。


  从民众角度上来看,ChatGPT在潜移默化中塑造了人们的价值观、思维和行为。ChatGPT在回答问题的时候,经常使用的一句话是“作为一个中立的人工智能语言模型”,这使得用户倾向于将自动生成的知识视为“神谕”,认为其生成的知识是真实、客观的,反映着事物的本质和规律。从众心理将转变为依赖智能机器人的心理,个性化叙事方式被人工智能潜移默化地改变,语言的长期改变会渗透情感认知、伦理行为与整体行为走向,对人们的价值信仰、态度和行为产生重大影响。


  如果ChatGPT生成并发表一些虚拟的文本信息,可能会对未成年人或者是不具有判断能力的人(如老人与小孩)产生影响。经过实验,GPT-4和ChatGPT均存在胡编乱造法律知识、错误适用法条的情况。进入司法场域的ChatGPT具有通用性,可提供即时的法律咨询、文书撰写、预测案件裁判结果或法官偏好等工作,提高法律服务的可及性。ChatGPT会导致使用和非使用者对司法结果存在不同的期待和认知,这在一定程度上造成公众认知呈现“群体性沟壑”的状态。人本身的认知应该是由理性和经验共同构成,且这种组合随着人生阅历和知识的积累逐渐提高。但生成性人工智能的出现却可以快速给出答案,使得群体对一特定事物的看法或意见因是否使用ChatGPT而瞬间不同,消解了社会公众的理性与经验。


  (二)引发伦理风险的原因


  ChatGPT本质上是将一些既有的人工智能技术进行了整合,并将模型的规模扩大到超大规模。它仍然是一个“算法黑箱”,存在严重的不可解释性。在大模型训练过程中,出现了一些意外的、超乎预期的能力表现。在训练计算量大概在10 的22次方之后,模型能力会完成从量变到质变的飞跃,呈现出惊人的爆发式增长,可以说是“大力出奇迹”。但是,ChatGPT难以从本质上改变法律行业。因为要达成合理的司法裁判,不仅需要司法技术,也需要司法艺术,而ChatGPT不论是从价值标准的选取还是对社会的认知方面而言,都具有技术壁垒。具体而言,ChatGPT应用于司法场景后引发伦理风险的原因主要可归结为以下几方面。


  1.设计者的认知偏差


  人类的情感可分为低级情感和高级情感。人的喜怒哀乐等情绪是低级情感,是有可能被计算机模拟出来的,而人类的伦理、道德、价值观等属于高级情感,在未来相当长的时间内以ChatGPT为代表的人工智能技术尚无法模拟。为了让ChatGPT的回答看似更加符合人类价值观,OpenAI采用了人类反馈强化学习技术,将针对同一问题时更优质,更符合人类伦理道德、价值观的回答标记为更好的分数,然后训练出奖励模型从而让ChatGPT在之后运行中产生的回答更加像是人类的认知和思维模式。这是OpenAI在可预测到的伦理风险范围内进行的企业自我规则,但关键问题并没有被解决。因为,不论是人类的喜怒哀乐还是伦理道德都很难具有统一的标准。人类社会不是电脑程序,不同的社群基于不同的地理、社会结构等因素造就了多元的价值观,现代社会这种价值观系统更加多元化且内在冲突和不确定性明显加剧。而ChatGPT将人类的价值偏好视为同质和静态的,假设所有人都有相同的价值观,并以此来作为回答优劣的评价标准,这显然不具有普遍代表性与适用性。例如,如前文所言ChatGPT的奖惩函数由40名来自肯尼亚的外包人员来评价。参与训练过程的标注人员和研究人员并不能完全代表语言模型的所有潜在最终用户,不能以他们的价值观来定义全人类的价值观。


  将ChatGPT应用于司法场景中亦是同样的道理。法律中追寻的正义也不具有完全统一的价值标准,正义在不同的群体、不同环境中可能有不同的内涵。ChatGPT不理解语言,更不能理解人类语言之下所蕴含着的情感。因此,ChatGPT这种人工界定价值的方法,难以理解人类社会和每个具体活生生的人。可以看到,ChatGPT在涉及法律问题时,也在尽量避免对正义进行过多地主观定义,而是尽量采取中立的态度。ChatGPT在涉及法律道德的问答时,经常会用到“作为一个中立的程序”来表明自己“非人”的定位与立场。以“于欢案”为例,当询问计算机如果在母亲受辱时刺死了施暴者后应负担何种法律责任时,ChatGPT这样回答:


  “在这种情况下,儿子行为的法律责任也取决于具体情况和所在地的法律规定。一般来说,如果儿子的行为符合正当防卫或紧急避险等法律规定,则可能不会被追究刑事责任。然而,要注意的是,每个国家和地区的法律规定可能不同。在某些国家和地区,即使在正当防卫的情况下,对于造成对方严重伤害或死亡的行为也可能会追究刑事责任。因此,在这种情况下,建议儿子及其家人立即寻求专业律师的帮助,以了解当地的法律规定和可能的法律后果,并根据律师的建议采取适当的行动。”


  进一步对其追问,要求其给出明确的意见时,ChatGPT这么回答道:


  “很抱歉,作为一个AI语言模型,并不具备裁判权……判罚结果取决于案件的具体情况……”


  可见,尽管计算机在通过技术创新不断地做到类人,但是在面对涉及人类道德法律问题时,反而尽力地强调自己是计算机程序的身份。这也表明人工智能难以通过技术来理解具有多元性的伦理价值,更不能用计算机来计算它们。尽管设计者已经认识到开发更符合人类价值观的人工智能非常重要,但是目前ChatGPT还不具备充分的类人特性。


  2.用于训练模型的数据存在偏差


  作为大语言模型,ChatGPT的表现极度依赖于其训练使用的海量数据。ChatGPT使用的训练数据主要包括Common Crawl、WebText2等网页数据库、各种书籍、维基百科以及github网站上的各种代码仓库。基于这些数据,ChatGPT才会懂常识、知新闻、会编程、做网页,甚至可以根据某一作家的风格生成文本。但问题是,这些数据来源本身未必可靠。


  另外,ChatGPT适用的数据语言主要是英语,约占46%,而俄、德、日与中文都是只有5%左右,正因为如此,ChatGPT在使用中文时进行人机交互的表现远远比不上英文。可见,ChatGPT的文本生成能力是完全建立在足够多语料库训练之后的结果,文本的生成方式是根据学到的语言模板拼接而来,而ChatGPT本身并不理解生成文本的真正含义。这个道理类似教导鹦鹉说话。当鹦鹉听了足够多的人类语言后,也会重复人类的话,而它根本不知道它说出的话的真正含义。美国哲学家约翰·瑟尔在1980年设计的“中文房间悖论”可以用来描述这一现象。该思想实验常用以反驳电脑和其他人工智能具有真正思考的观点。根据其描述,电脑无法真正地理解接收到的信息,但它们可以运行一个程序,处理信息,然后呈现出一个智能的形象。我们所有的技术探索与研究,包括ChatGPT,可能都只是在完善那个中英文翻译程序,而从来不具有真正的人的智能。以ChatGPT为代表的人工智能是基于文字输入,纯粹按照语法规则定义的系统,但是文字和语法都不足以确保实现心灵的意向性与语义的确切表达。乔姆斯基指出ChatGPT只是一种高级剽窃的工具——“它从海量数据中发现规律,并且把这些数据串联在一起,使它看起来或多或少像是人写的关于某个主题的内容”。ChatGPT经过大量学习后,基于概率自己能产生内容,一些简单的内容可能“长得很像”用户要的东西,但还没有强大到可以系统地提出具有创新性的观点、理解人类社会等。


  因此,目前ChatGPT技术嵌入司法场景中更适合担当专业的“文书”,而很难主导司法判决。现实中已经发生的根据ChatGPT的意见进行裁判的法律实践,违背了司法技艺决定司法公正程度的规律。ChatGPT的运行逻辑是一种依托统计学,择取最大概率出现的下文生成答复内容的“机械化逻辑”。从原理上讲,这种逻辑是一种相关性逻辑、客观性逻辑。它不会自我产生新的信息,它所有的信息都是基于已经存在过的所学的知识的一种统计模型。这个模型不追求小概率的新事件,不能提供解释或者推理,通过反复的参数调整达到准确的目的。在不追求百分百精确的场域中,概率足以让人作出决定。但是在司法场景中,司法必须兼具法律与社会效果,做到司法技术与艺术的融贯。司法绝不仅仅是数据的“比对”,不是对过去知识的机械式整合,而应该是在一个具体的个案场景中对法律概念和规则作出符合社会基本认知的解释与适用。


  3.ChatGPT不具备人类的常识与衡平感


  随着数据体量的扩展和计算机算力的指数级提升,人工智能在特定领域的技术能力将超过人类。GPT、BERT等自然语言处理模型的能力将得到进一步提升,计算机所拥有的司法技术将有可能超越人类,并在司法领域得到广泛应用。但是,至少在可以预见的未来,计算机无法取代法官的主体地位。这主要是由于计算机不可能具备人类的认知能力,不可能完全理解人类的情感,也无法理解具体的人在具体个案情形中的合理行为,更无法理解社会文化与社会运行机理。


  司法是法律实践中直面社会的环节,始终在解决人类社会的具体问题,不仅需要法律知识和方法,更需要基于个案案情的再判断,这种判断不仅仅要建立在对法律专业知识的掌握之上,也需要深入体察社会民情民俗百态,理解社会运行的实际规律与机理。更进一步说,人是社会的产物。人类社会的行为规范体系除了由国家制定——通过技术形成具有相当专业度的各种规范之外,更多的是由群体在日常生活中自发形成的情感性因素构成普遍性伦理共识。法自伦理出,伦理所具有的价值和行为规范双重体系共同构成合法性与合理性的基础。而伦理自社会实际而出,理解伦理就是理解社会运行机理。所谓情理法圆融,实则是在洞悉社会规则之后以法的专业性融贯情理的技艺,法的专业性为实现司法正义的方法和路径,但如何理解和适用这种专业性则需要对社会民情的深入理解。这也就是现实司法实践中缘何年长的法官更能作出兼具司法技艺裁判的原因。如德沃金所言,法律的最佳判断不仅仅是一些法条,而是对法律体系的整体性或融贯性理解。


  而深入理解案情及其背后的社情民情恰恰是ChatGPT这样的大语言模型所欠缺的。人工智能及其各种具象不能进行价值判断,其缺乏常识认知能力。常识是人类普遍掌握的知识。但是,每个人都具备常识,但似乎没人确切地知道它究竟是什么,以及如何人工构造出具备常识的人工智能。从人类个体角度而言,大部分的常识能力是建立在因果关系、时间和空间基础上的。而人工智能目前囿于计算时间、硬件储存条件和所需数据的质与量,甚至无法模拟因果关系。并且,人所作出的价值判断不是完全主观的,它体现了某种社会预期与普遍共识。如法国著名思想家帕斯卡尔曾言,心灵有其不为理性所知的理由,尤其是中国式司法公正观所认知的情理法圆融就具有这种社会性共识的情理。当涉及理性层面的语言逻辑时,人工智能的确可以通过对语言模型的训练和优化来生成比较准确和有逻辑的文本。然而,对于情感、直觉等非理性因素,人类也无法用准确的概念文字来表述它们,而只能借助比喻等修辞手段来进行表达。在这种情况下,由于计算机只能通过学习语言规则和语义来理解自然语言文本的含义,而没有实际的感知和思考能力,很容易产生对情感和直觉等因素的误解或简化。此外,庞大的常识量在计算机中的知识表征也是个难题。除了“狗是一种动物”这种确定的知识外,人类社会还有很多难以明确表达的常识,如“欠债还钱天经地义”。人工智能通过构建的语义网络来表征这些知识,这样计算机对常识的理解也受这个网络标签的限制,而人类却可以推演出该常识以外的知识,并且不会像计算机那样陷入无穷尽的概念式推理当中。目前,人工智能专家通过爬虫技术、众包技术、CYC项目、常识表征框架等方法尚都无法使人工智能具备人文关怀与常识认知能力。


  由于人工智能缺乏对人类社会运行机理与普遍共识的认知能力,并且所有人工智能的推理模型目前都无法建立自由裁量权模型,因此即使是ChatGPT这种人工智能技术也只能在智慧司法场景中起到辅助作用。而考虑到司法的功能,在ChatGPT单向放大司法技术的现实面前,法官的主体地位不应被弱化,而应充分发展法官的司法技艺,尤其需要重点提升法官对具体案情的把握能力以及对社情民情的感知能力。法官应在以ChatGPT为代表的智慧技术的辅助下,充分认识案情及所处社会的现实,意识到司法最重要的特质是在利益、价值、情与法的冲突中作出判断与权衡。对于疑难问题的事实认定、法律适用、利益权衡,需要不同司法角色的参与讨论,例如小陪审团制度、合议制度,人民陪审员制度、专业法官会议制度、审判委员会议制度、二审终审及再审审查制度等,而这些制度共同指向于法官司法技艺的融贯——在充分理解案情及背后的民情社情的基础上,对法律规范进行合理的解释与适用。


应对ChatGPT伦理风险的法治策略


  通过前文所述可知,本文在审视ChatGPT应用于司法场景中的伦理风险时从外部视角切入,关注司法裁判的法律效果与社会效果之间的关系,力图使法院司法与社会公正观之间隙保持在合理限度内不至于因司法技术化趋势发生间隙异化,以达成合理的司法裁判。基于司法技术化趋势下司法改革的既有制度性规范、ChatGPT的技术特征以及其应用于司法场景的几种情形,笔者认为,应对ChatGPT伦理风险的法治策略应主要从两方面着手:其一,规制智慧技术;其二,提升使用算法的法官的司法技艺。


  (一)完善事前审查:细化科技伦理法


  目前已经发现ChatGPT在应用过程中出现了一系列问题。例如,输入内容出现错误、预训练所用数据来源不透明、政治立场上选边战队,甚至在用户的引导下写出了毁灭人类计划书。因此,需要格外注意人工智能的伦理问题,尤其是因数据偏见而产生的算法偏见。


  基于维护社会整体利益与保护个体具体权利的考虑,由于生成型AI是由用户决定具体的使用方式,因此开发商需要在产品投入应用阶段前就关注其中的安全性和社会性。最近OpenAI披露了升级计划,主要目的之一是减少偏见与不良行为。通过伦理框架指导AI模型的开发和治理,以确保这些模型作出公平和透明的决策已成为行业共识。基本权利影响评估的重要性正在凸显,对人工智能价值链进行直接监管,并建立一个全面的风险管理系统非常必要。2021年,我国国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》,提出“将伦理道德融入人工智能研发和应用的生命周期”。


  科技伦理法的主要目标应当是,致力于通过事前审查设计符合人类价值观的ChatGPT。因为ChatGPT并不能真正理解各种价值观的内涵,而基于人机交互之上的人机对齐工程,不论是在训练数据还是人工校准等人类反馈反馈环节,都负载着利益相关者的利益和偏好,会受到各种价值预设和文化选择的影响,必然存在一定的偏向性。这种供应与需求的落差构成了科技伦理法事前审查的合理性基础。虽然AI伦理原则(包括透明度、公正与公平、非恶意、责任、隐私等)正在全球层面广泛开展,但是如何解释这些原则却存在着实质性的分歧。我国科技伦理审查需要在秉持顶层设计策略的基础上,重点明确司法数据收集与处理环节的具体标准、界定算法的法律地位、有效约束算法工程师,以此增强司法公正的技术基础。


  我国国家互联网信息办公室2023年4月发布的《生成式人工智能服务管理办法》(征求意见稿)(以下简称“《AIGC办法》”)第7条规定了生成式人工智能产品的预训练数据、优化训练数据的负责主体与数据标准,但规定较为宽泛,主要限制标准就是不侵犯知识产权、涉及个人信息时需要征得信息主体的同意。一些相关领域专家就该条达成了“采取必要措施保证数据的真实性、准确性、客观性、多样性”的共识。国家互联网信息办公室、工业和信息化部、公安部于2023年联合颁布的《互联网信息服务深度合成管理规定》(以下简称“《深合规定》”)第14条规定了深度合成服务提供者和技术支持者应履行的数据管理责任,强调了数据来源需取得数据主体的知情和同意。考虑到训练ChatGPT等大语言模型需要大量专门类别的数据,专业的开源数据库是数据来源的最优选择。因此,笔者建议,对生成式人工智能数据的取用要特别注意开源数据库中的数据。具体而言,开源数据库的运营者对开源数据来源的合法性负责,而训练模型时数据使用者对数据的使用方式要符合开源数据库的协议要求。此外,数据使用者须对数据使用方式的合法性负责,禁止发生任意取用数据而导致的侵权行为。在生成式人工智能算法方面,《AIGC办法》分别在第2条、第3条、第4条、第6条和第17条中规定了算法的非歧视原则、禁止不公平竞争、算法备案变更和注销。《深合规定》也在第7条、第15条和第19条规定了以深度合成服务提供者和技术支持者的责任,包括安全责任、算法机制审核、伦理审查、技术管理、备案等责任。笔者建议,生成式人工智能技术的算法嵌入智慧法院场景中必须经过司法伦理审查,结合应用智慧司法的特定审判程序进行有针对性的算法伦理审查,禁止算法违背和侵害伦理与法官的主体地位。为达到这一目的,应确立算法工程师责任制,确保算法工程师对其投喂的数据与编写的算法负责。这符合《新一代人工智能伦理规范》中所确立的“强化责任担当”基本伦理规范,也是针对现实中算法工程师普遍缺乏明确的算法伦理约束的实际问题而作出的必要设计。以科技伦理法的形式确立算法工程师的行为边界,算法工程师需要保证算法的正义和安全,算法工程师不得产生侵权行为。具体研发行为的法律边界可参照具体行业标准。例如,为了贯彻落实国家《新一代人工智能发展规划》,科技部会同国家自然科学基金委启动“人工智能驱动的科学研究(AI for Science)”专项部署。AI for Science也被称为AI4S,作为人工智能加速科学发现的新方法区别于以往传统科研的第五范式形成了普遍的行业规范,产生了普遍的行为约束力,可以作为科技伦理法的立法依据。


  (二)提升法官司法技艺:明确智慧司法原则


  欧洲大陆的严格规则主义退出历史舞台,已经证明了司法绝不是仅仅查明法条、发现事实和法条的关系那么简单。司法要达成法律效果与社会效果的统一,必然需要法官正确恰当地行使自由裁量权。在司法技术化改革趋势之下,被单向强化的司法技术尤其需要提升司法艺术能力予以配合。人工智能无法具备人类法官的感性认知能力,也无法准确把握法律规范背后深刻的立法价值基础,而这种价值的中立性恰恰是人工智能司法无法真正实现司法实质公正的关键之处。对于许多新类型案件和疑难案件,在查明法律的过程中其实质之处就是将法律人的技术理性与社会公众的伦理正义观融合起来。另外,即使是ChatGPT这样的人工智能也无法基于具体案情作出充分的说理。法官作为一种重要的法律职业,需要基于深厚理论基础上的社会实践。在ChatGPT这种强人工智能的“挑战”下,法官必须更加强化实践技能,以增加职业性。这也就意味着法官不能仅仅将法律视作技术之学,避免出现唯法律、司法解释与相关规范性法律文件,一旦寻找不到相关依据就无所适从的情况。立足于人日常生活世界,关注人的生活现实的具体场景,乃是法治的真实路径与基本向度。但由于中国特有的法制发展史,中国的政治家和法律人基本持有的是建构主义的法治观,缺点是容易忽视现实生活中的人的情感与生活实际,人为制造了司法公正观的间隙。而只有最深得人心、最深切地关注民生民情民意的法律才能得到大众的尊重,唤起大众对法律的深沉热爱。如何通过以ChatGPT为代表的人工智能技术辅助法官达成个案正义与普遍的正义的有机结合是人工智能时代要直面的问题。目前,人工智能在一定程度上助力司法提升普遍的正义。但因技术的局限性而导致伦理风险增加,在当前需要以法官为主体,提升司法技艺予以应对。在司法技术化改革路径下,当务之急是法律的理性化要避免与社会生活过大的隔阂。法律理性应当将自己的生命之源深植于社会生活本身。通情达理本身就是理性的最高境界,所谓人情即理性,是凝聚了常识、常情和常理的规则适用。增加法官的人文素养,并通过ChatGPT提升法律专业技能以及对其他领域知识的认识,促使法官愿意主动认识和理解案情。


  为实现情理法圆融的司法裁判,法官在司法裁判中应以情理法圆融为标准进行说理。这是因为,情理法圆融是当代中国社会的主流社会公正观,是司法之所以可称为合理判决的具体标准。其中内涵的一个关键问题是情理如何成为法官说法的依据。笔者认为,在提升法官感知社会实践的基础上,主要有两种路径:其一,增加非正式的法源;其二,明确法外适用的具体方法与情形。


  增加非正式法源的优势是既能将伦理风险控制在合理范围内,又不至于因社会道德、价值的多元而发生标准难以把握的不确定性。正义感具有明显的感情色彩,不足以保持规范的稳定性,容易导致非理性的判决。通过总结引发社会重大舆情的案例可知,这类案件的共性往往是法源不能满足裁判需要。这个时候,就构成了引入非正式法源的客观需要,通过合理地引用社会公共道德即本文所讲的伦理公正观作为价值的补充。这样的好处是从法源的层面控制了可作为司法裁判的公共道德的范围,有利于法官作出正确且个案统一的司法裁量。孙海波建议不直接将伦理道德作为法源,而是先转化为法律原则。这一点是可行的,例如,民法中的公平原则就是一个典型的伦理性原则,经过立法者的确认上升为了民法的最高原则,发挥了价值引领作用。但需要特别指出的是,调和异化的司法公正观间隙并非以先确认社会效果为前提,进行由果到因的反推,排斥或弱化法教义学的推理和适用。这种后果主义司法方法是为了应对法条主义无法达到社会伦理效果之困而提出的,但一定要极为慎重地对待逆向法理思维,应该在科学、深厚的法教义学基础上,以确定性的方法论融合社会民意,兼顾社会效果。


  明确法外适用方法和情形是提升法官司法技艺具体的法律方法论。因为,深入感知民情社情后洞悉社会运行机理之后还是需要用法律解释和适用的方法去进行专业的司法裁判。也就是说,能否作出合法合理裁判的关键之处还是在于法官的法律解释能力。无论智慧司法如何发达和完善,核心要义仍是要提升法官的法教义学素养,使之能做到融合法律技术和法律艺术,作出针对具体案情的合理法律解释。例如,车浩在运用法教义学方法评价“李昌奎案”的过程中,适用了限缩性解释的方法分析何为“邻里关系”,通过直接因果关系的分析,指出邻里关系必须限制于当事人之间且纠纷程度足以与不法行为相平衡的程度,既符合了刑法的体系,也符合了《纪要》的立法目的,做到了法律效果兼具社会效果。姜涛在用法教义学方法评价“于欢案”的过程,通过论证期待可能性理论作为评价是否具有违法阻却事由的过程,将期待可能性的判断标准与宽宥的程度相联,并以后者作为融入情理的标准,展示了将情理论融入犯罪判断的切实可行的路径。这一路径充分表明了司法技术与司法艺术融合的可能性和可行性,兼具了现代司法的专业性与传统法律文化的仁孝内核,既保证了不机械适用法条,又确保了不损害法的安定性,契合了专业法律人以法律思维界分不法,以法治思维、法理思维评判责任,宽恕“不法但无责”行为人的观点。


结语


  民族复兴之路上,我国抱有较西方更为强烈的应用现代科技的冲动。司法的技术化改革趋势以及在该趋势下智慧法院的蓬勃兴起都是这种科技愿景的具体制度体现。我国司法改革史上两个重要节点所呈现出的变化,体现了国家希冀以智慧技术为手段同时实现类案类判与个案正义。但由于设计者认知偏差、算法与数据局限等人工智能技术原因,即使是ChatGPT这种复合性极强的智慧技术也无法克服技术悖论实现个案的情理法圆融。而当代中国式司法公正观的主流标准恰恰是情理法圆融,单向强化的司法技术会将智慧司法与社会公正观之间的间隙异化,从而引发伦理风险。


  在司法技术化趋势下,既要利用智慧技术强化司法技术,也必须特别重视法官对案情及其背后社情民情的感受与认知能力。为应对伦理风险,应当以法官主体与社会效能为基本原则,以科技伦理审查规制算法,以提升法官的司法技艺为路径实现情理法圆融。这样既可以使法官在智慧技术的辅助下不丧失主体地位,也有利于法官利用智慧技术形成兼具法律专业性与个案案情考量形成具有说服力的裁判说理。这是达成中国特色社会主义公正司法目标的具有可行性的法治路径,有利于同时实现司法的法律效果、社会效果,构建具有普遍共识的中国式司法公正观,促进中国式司法技术融合情理的现代化发展。






推荐阅读-向上滑动,查看完整目录-
《上海政法学院学报》2023年第4期目录

【学习贯彻党的二十大精神】

1. 中国的法律大国地位问题

车丕照(1)

【新兴权利法律问题研究:生成式人工智能法治】

2. 生成式人工智能可信发展的法治基础

陈兵(13)

3. 迈向可信AI:ChatGPT类生成式人工智能的治理挑战及应对

曹建峰(28)

4. ChatGPT技术嵌入智慧司法的伦理风险及其法治应对

王静(43)

【法学前沿】

5. 否定四要件犯罪构成理论之再反思

姚建龙、刘兆炀(63)

6. 人民检察院的理论溯源与当代发展

刘练军(81)

7. 仲裁的数据化与中国应对

冯硕(100)

【初创学者佳作】

8. 大数据时代辩护律师数据权

——作为新兴权利的证成

李小猛(117)

9. 国际投资仲裁中的税收措施与征收

吕宁宁(134)

【党内法规研究】

10. 省级党委制定党内法规的主体权限及其规范

王裕根(149)








《上海政法学院学报》创刊于1986年,原名《法治论丛》。根据清华大学“中国期刊网”的发行情况统计,该刊现有机构用户2000多家,其中,国外用户175家,分布在27个国家和地区,个人读者分布在28个国家和地区。目前,该刊与“北大法宝”、清华大学“中国知网”、“万方数据库”、“中文科技期刊数据库”(维普网)等国内四大数据库,以及人大报刊复印中心数据库均有签约,每期内容全文收录。从2004年起,该刊多次获得荣誉。连续荣获“上海市高校优秀学报”称号;2006年起,连续荣获教育部和全国高校期刊研究会颁发的“全国优秀社科期刊”称号。


-END-

责任编辑 | 王睿

审核人员 | 张文硕 范阿辉

本文声明 | 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北大法律信息网(北大法宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。

往期精彩回顾《上海政法学院学报》2023年第3期要目
《上海政法学院学报》2023年第2期要目《上海政法学院学报》2023年第1期要目王利明:论平等保护民营企业产权 | 上海政法学院学报202303
马长山:数字时代的法学教育转型 | 上海政法学院学报202301
谢士衍:论我国紧急状态的决定和宣布 | 上海政法学院学报202205
谢鸿飞:财产权的公共性 | 上海政法学院学报202205


关注下方公众号,获取更多法律信息

点击「在看」,就是鼓励
继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存