查看原文
其他

李飞 | 无人驾驶碰撞算法的伦理立场与法律治理

欢迎关注 法制与社会发展 2021-09-10


点击蓝字关注本公众号,欢迎分享本文




    无人驾驶碰撞算法的伦理立场与法律治理




作者:李飞,华中科技大学法学院博士研究生

来源:《法制与社会发展》2019年第5期。由于篇幅所限,刊物在此推送未加注释版本,请广大读者前往本刊物网站下载全文阅读。(本文责任编辑:乔楠)



摘  要


无人驾驶作为人工智能应用的典型,其碰撞算法的价值选判是法律与伦理共同关注的核心命题。碰撞算法伦理的发展可以被归结为前机器伦理赋予阶段和机器伦理自主实施两个阶段,但机器伦理自主实施阶段有其独特性和自主性。法律治理同样应注意这两个阶段的区分。从信息社会背景和发展人工智能技术出发,碰撞算法伦理应当优先选择规则功利主义,坚持人本主义命题,并通过自下而上的算法学习来实现。法律政策在兼顾算法伦理的基础上,应当支持和引导企业研究和发展碰撞算法伦理。立法应积极介入碰撞算法伦理的建构和塑造,防止自生伦理取代法律公正。就具体策略而言,部门法对碰撞算法应当力争平衡伦理自决与法律强制。此外,发展法律技术是确保碰撞算法法律治理的必要条件。


关键词:人工智能;无人驾驶;碰撞算法;机器伦理;法律治理




引论


人工智能是一种颠覆性技术,不仅会带来社会组织和互动模式的改善,也会冲击社会伦理和法律秩序,甚至可能导致伦理与法律的对立和断裂。伦理与法律作为公正价值的具象和互释,二者的冲突必然损害社会对于公正价值的期待和社会运行。与此同时,AI作为一种新兴的复杂技术,其风险防范和系统治理不仅需要法律,也需要道德的协同,以形成规范合力与价值互助。道德作为一种客观自然法,法律受自然法制约,二者共同维护社会的基础价值,这已成为一种现代通识。无论如何,人工智能的法律伦理研究都是很有必要的。据此,为了初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力,就需要开展跨学科的探索性研究,推动相关基础学科的交叉融合,重视人工智能法律伦理的基础理论问题。

无人驾驶作为人工智能的具体应用,其碰撞算法带来的法律伦理问题尤其值得关注,并能够成为人工智能法律伦理研究的试验场。申言之,在交通事故场景中,无人驾驶的碰撞算法如何构建,更确切地说,算法决策权在市民社会和政治国家之间如何分配,是决定未来交通和城市问题的关键,也是法律和伦理的一般公正难题。一方面,无人驾驶比人工驾驶更专注、精确和可预测,不受情绪和体力的干扰。其借助光探测、测距传感器、摄像机、近程碰撞传感器、GPS导航、雨环境传感器、环境温度传感器等组件,可以实时收集丰富的交通环境数据,并通过智能算法有效减少交通事故和缓解城市拥堵。因此,“无人驾驶技术为建立一个普遍和有效率的公共交通系统,以及通过回收现时专用于停车场和高速公路的公共空间,创造更适合居住的城市空间”。法制与社会发展无人驾驶碰撞算法的伦理立场与法律治理另一方面,在混合交通环境下,要求人工智能准确预测特定时间段内其他车辆的行为以及车辆的接近程度,从而保证高速行驶的绝对安全,是不可能的。即便在完全无人驾驶的智能交通状况下,人工智能能否杜绝交通事故也存在很大疑问。要求人类操作员或监控者始终关注车辆以解决碰撞事故的企图,不管是从无人驾驶技术的初衷上看,还是从人类司机的注意能力和反应时间上说,抑或从复杂交通信息处理的难度而论,都是不切实际的。可是问题在于,谷歌和特斯拉等无人驾驶汽车导致的伤亡事故,不仅引发了技术伦理争议,也已经触发了国家审查。因此,如何对无人驾驶汽车的碰撞算法进行规范设定迫在眉睫。

从问题的紧迫性来看,无人驾驶似乎给人类的价值取舍提供了新的道德抉择,除了“必须决定什么时候信任计算机,什么时候不信任它们”之外,还必须处理保护谁和损害谁,以及由此产生的法律责任分配。实际上,碰撞算法既不单纯属于市民社会的道德自律,也不仅仅隶属于政治国家的法律秩序。碰撞算法的法律与伦理是相辅相成、高度融合的,并影响着整体法治秩序与内部法律结构。在现代法治背景下,在伦理理念追求自在自为的过程中,伦理问题必然会转化成政治压力和民主议题,反映在立法中。法律为了实现社会正义,应当自觉地回应伦理问题,考虑并影响社会伦理立场,以获得自身的合法性和权威性。黑格尔正是据此指出,“法律是自在自为地存在的,它们是从事物本性中产生出来的规定”。总之,碰撞算法事关重大利益决策和重大伦理判断,法律必须对此作出回应。

因此之故,无人驾驶的法律研究无法逃避算法伦理的思考,其回答将会塑造和影响机器伦理和智能法学。就无人驾驶的法律伦理问题而言,与国外研究相比,中国的规范研究目前主要分布于部门法学和法理学领域。尽管伦理学也对“机器人能否成为伦理主体”,以及能否将对“生杀大权”的伦理选择交给机器人的问题展开了研讨,但法律伦理的交叉讨论还没有展开。为了防止法律理性和算法伦理的分裂和对抗,法律丧失应有的人文精神和伦理关怀,以及道德判断自外于法律公正之门,这种交叉研究是很有必要的。正如边沁所言,尽管两者并不彻底相同,但“私人伦理以幸福为本身目的,立法也不可能有任何别的目的”,两者于此是并行不悖的。因此,倘若认为人工智能治理需要法律伦理学的思考才能完整和深化,并且赞同伦理与法律都是自然法或社会法的谱系,那么无人驾驶作为人工智能的具体应用,其法律治理也需要法律伦理的综合关照。

事实上,法律伦理困境一直是法哲学和部门法学研究的经典课题,特别是刑法中的正当防卫和紧急避险。因为在刑事法律场合中,行为人必须在紧迫时间内作出利益权衡和行为选择,道德判断和法律指引往往需要高度协同。因此,现实的伦理选择需要考虑刑法规范,以维护社会秩序和避免利益严重失衡。除此之外,倘若伦理规范能够发挥规制科技风险和道德风险的作用,那么必然有助于节省法律资源,维护公民自由,并为智能法律制度的发展和成熟预留选择时空。

以下,本文首先概述无人驾驶碰撞算法法律伦理的关键问题,继而从伦理主体决策角度出发,分析现代伦理立场的主要争议,并结合信息社会和人工智能原理尝试给出无人驾驶碰撞算法的伦理选择,然后从法律政策视角出发,在兼顾前述伦理立场的基础上给出无人驾驶碰撞算法的初步法律治理策略。


一、无人驾驶碰撞算法的法律伦理问题概述


无人驾驶碰撞算法的法律伦理问题,涉及在交通事故场合中对相互冲突的利益进行道德判断和取舍,以及在此基础上如何调整法律理念、制定法律规范和分配法律责任,从而协同伦理和法律规范力量以维持社会公正等问题。概言之,算法伦理是机器伦理的组成部分,也是智能法学关注的基础规范问题,它们共同以正义价值为旨趣。

一方面,“机器伦理是有关赋予机器以伦理原则,或者赋予其一定程序以发现可能遭遇并需要解决道德困境的方法,使其能够通过自身道德决策,以道德上负责的方式发挥效用”。据此可知,机器伦理实质上存在两个层次:首先是前机器伦理赋予阶段,其关键是以伦理规范约束技术人员;其次是后机器伦理实践阶段,即智能机器在前一阶段的基础上进行自主的道德决策与实践。在弱人工智能阶段,机器不具有法律人格且不承担道义责任,法律对机器违背伦理正义行为的规制和制裁,最终都指向人类。因此,虽然碰撞算法的法律伦理规范直接作用于无人驾驶汽车,但它首先是人的法律伦理问题。另一方面,作为机器伦理的实践,碰撞算法的伦理嵌入有其独特性,法律规制需要因势利导。与人类司机在撞车时的决策相比,尽管碰撞算法能够突破狭隘视野和时间限制,实现损失计算、车辆协同调度,但无人驾驶碰撞需要法律筛选和确认碰撞算法的道德决策,并防止和制裁道德风险与逆向选择。因此,在碰撞事故中,无人驾驶碰撞算法面对的价值选择具有法律与伦理的双重属性和高度重合性。

例如,在紧急状态下,碰撞算法是应当优先保护本车乘客的安全,还是应当优先保护其他人员的安全,如其他汽车的乘客的安全,或佩戴头盔的摩托车骑手的安全,或没有佩戴头盔的摩托车骑手的安全,或多数行人的安全,或少数行人的安全?与简单场景的法律决策相比,真实的交通场景更为复杂。除了无人驾驶汽车的型号、大小和质量外,至少还必须考虑各交通主体是否违反一般交通常识、交通法规,以及违反的严重程度。在规范不足、模糊或矛盾的情况下,算法也无法躲避对多元利益博弈的立场取舍。上述问题既是伦理公正问题,也是法律正义问题。就道德底线而论,两者共同构成了公正问题的两个侧面。从上述分析出发,对碰撞算法的法律伦理研究应当注意以下几个问题。

其一,碰撞算法的法律伦理受制于其人工智能的技术特征,具有自动化特性。虽然人们就人机协调问题给出了解决方法,尝试编写无人驾驶汽车的程序,使其更像人类驾驶员,或者使其机器人驾驶风格与人类驾驶风格相一致。不过,无人驾驶的碰撞算法作为决策中心,是通过交通数据、神经网络、深度学习、强化学习和数学模型实现的。这意味着机器伦理需要遵循既定的技术手段,或者说,需要根据现实技术特点来进行伦理选择。理论上,人工智能应当遵守现有的社会规范,因而应当将人类伦理嵌入智能算法。但是机器伦理有其自身的技术限定,必须借助数据加工、信息处理、语言识别实现伦理行为。抛开既定的技术范式,机器伦理可能无法体现人类道德价值,反而会陷入虚妄。当然,这不是否认法律伦理对技术的规制作用,而是强调机器伦理的选择需要从技术基础出发。

其二,碰撞算法的法律伦理困境,至少包括承受者与决策者这两个层面的问题。概言之,承受者层面的问题大致涉及特定情境中的伦理问题,涉及复杂交通场景中的不同主体的行为规范建构、利益衡量取舍、伦理与法律的衔接等。事实上,损害谁和保护谁的问题,主要是选择利害承受者。

然而,正如许多研究者已经指出的那样,倘若从承受者层面思考会面临很大困境。首先,即便要求制造商优先保护无过错的第三方的利益,但从人性自利的角度出发,一辆不能优先保护本车乘客和司机的无人驾驶汽车,恐怕是没人愿意购买的。而且,无人驾驶汽车的制造商是市场主体,其首要目标是获取利润,因此,即使其能够兼顾社会效益和公共利益,但其动机和目标必然主要倾向于保护本车的司机和乘客。因此,优先保护无过错的第三方,以及轻微过错的弱势方的理想会化为泡影。其次,要求用户或乘客保护交通事故中的弱势者,同样存在选择困境。例如,有论者主张,应当让用户或乘客来设定“伦理按钮”,以决定智能算法在事故场景中应采取何种道德方法,并由制造商、程序员保障使用者的选择。可是,这实际上也无法确保一般的道德底线。尤其是排除了无过错或轻微过错的第三人的话语权,无人驾驶汽车的碰撞恐怕不免会导致社会伦理空间的崩溃和倒退,动摇和冲击基本法律公正。

显然,将政府作为特殊的利害承受者,才可能解决上述困境。首先,作为国家法人,政府虽然没有自身的利益,但其作为公共利益的代理人,应当与利害承受者保持同理心,从而客观公正地引领困境的解决。其次,情境伦理问题倘若不上升到普遍的国家伦理层面,不仅容易使算法规范陷入于单纯的伦理思辨,而且容易产生自由悖论,可能导致碰撞算法陷入相互争斗的状态。所谓情境伦理,就是高度依靠具体情境进行道德决策的伦理立场。它在理想状态下会表现为多元主义的伦理观,但在极端的状况下会蜕变为伦理怀疑主义乃至伦理虚无主义。汽车碰撞由于具有不确定性,因而属于情境伦理适用的范畴。碰撞算法的伦理立场由于强调尊重利害承受者的道德自治,从而陷入行为功利主义的伦理学分析,因而容易与法律秩序脱节。然而,在特定时空内,伦理规范应当具有一般性,而法律规范确认的伦理价值不可能变动不居。就是说,法学思维只有借助普遍情境才能与伦理思维连接起来,共同从社会整体效益出发进行协同性的价值选择。虽然国家作为最高道义主体的见解已经陨落,但重大道德问题往往关系根本利益分配,需要通过法律以权利义务形式来表达和划界,并勘定权力保障的公共服务范围。从该结论出发,政府作为重要决策者来分析碰撞算法伦理,大概更能把握当前碰撞算法伦理的核心问题,促进法律与伦理的协同。

其三,碰撞算法的法律伦理问题,源于智能社会驱动的规范转型。这是智能法学问题和机器伦理问题的共同背景和未来愿景。碰撞算法作为机器伦理的一部分,其背后是理念的交锋。亦即传统交通和智能交通、传统伦理与机器伦理、传统交通法律与智能交通法律之间的对立和调适。就目前的法律规范而言,无论是交通法律规则,还是交通犯罪形态,都是由传统工业社会的汽车、摩托车、司机、乘客、行人以及交通环境等要素所塑造。而无人驾驶技术的出现,不仅解构了传统的交通景观,而且正在重构现代化后期的公共安全经验和认知。无人驾驶技术的目的在于解放人类的双手和注意力,降低人类交通决策的不确定性,并最终实现社会出行的安全和通畅。可以断言,无人驾驶的常规形态必然表现为机器自主决策,而不管无人驾驶汽车是否配备人类司机或人类监控。这必将彻底改变目前的交通法则,重塑交通刑法体系。总之,延续和照搬人工道路交通下的法律伦理模式是行不通的,而理当结合人工智能技术的进步,围绕碰撞算法来建构符合社会发展趋势的社会规范和伦理判断。

尽管智能社会十分可期,但碰撞算法暴露的伦理和法律困境,还隐藏着权力震动和挑战。因为权力的规范框架正在经历从律法到算法的语言转换,以及由此导致的公共权力从政治国家、权威机构向科技企业和知识精英的迁转。权力变更的背后,我们很快要面对一种局面:在一个由数据驱动的世界中,貌似十分客观的数字计算背后隐藏着紊乱与混沌,但我们却很难察觉和探查数字背后的智能风险,从而导致我们可能坠入一个由算法黑箱构筑的甚至不能访问的数字无意识状态,从而轻易地将书面法律变成纸老虎,面临法律的终结。对此,人工智能的伦理思考与法律思考必须结合起来,并且伦理价值和法律价值应当相互牵引,以维护社会秩序跃迁。无论如何,我们不仅需要推动科技创新以扩展平等自由,而且需要通过法律来保障算法的透明和公正,增进智能环境中的行为可预测性。

综上所述,碰撞算法的法律伦理问题,源自智能机器需要通过学习算法来执行伦理决策。这种伦理决策与主体利益和社会秩序密切相关,需要法律制度评价和调整。与其他算法不同,如果说碰撞算法的法律伦理就是碰撞算法之法源,这并无不妥。事实上,法律规范往往是道德原则的身份转换,是真实案例的密切观察和利益考量的整合结果。此外,从上述初步讨论可知,对碰撞算法法律伦理的讨论不能停留在利害承受者层面,因为利己主义的伦理立场可能导致道德行为,但由于“完全的道德自治也意味着可以故意选择不道德行为”,进而可能危及法律维护的道德底线。因此,我们需要从碰撞算法的决策者角度出发,展开和推进对碰撞算法法律伦理问题的研究。

法律伦理属于法律与伦理的合取,而合取的前提是两者的分立。这是价值理念在社会规范中贯彻自身普遍性和客观性的历史逻辑。同理,对碰撞算法的价值选择以及权威法治对策的建构,首先需要展开伦理学的分析。



二、无人驾驶碰撞算法的伦理立场辨析


碰撞算法的伦理立场是无人驾驶汽车在碰撞时采取的伦理立场。如前所述,无人驾驶汽车碰撞时的伦理选择是通过代码,更准确地说是通过算法来实现的,因此不同于人类伦理。不过,无人驾驶碰撞算法的伦理立场也不可能凭空而生,而只能在人类既定的伦理立场中加以比较、选择和嵌入,并据此创新碰撞算法的伦理样态。因此,碰撞算法的伦理立场是立足自身规定之上的对以往伦理选择的扬弃。故此,我们首先需要明确人类伦理与机器伦理立场之间的独特差异,并从既有的伦理立场中加以选择和证成。

(一)碰撞算法伦理透视

就汽车碰撞时的道德决策而言,人类伦理与机器伦理的价值选择既有共同之处,也存在不同之处。相同之处在于,两者都建立在人类主体的选择之上,都是人类价值选择的结果。因为如前所述,即使是机器伦理选择,也首先需要人类赋予算法以伦理立场。此外,由于信息衰变和噪音,人类与机器在紧急决策中都存在随机性,即人类掷硬币与机器随机算法。不过如下所述,人类决策的随意性明显比机器决策的随意性要高,很可能是大概率事件。这主要是由于两者的底层逻辑不同而决定的。

其一,两者基于不同的知识论。前者选择的基础是理性与经验。康德将两者结合起来,并将由此得到的知识称为先天综合判断,即由理性赋予一般形式特征的经验知识和命题。后者选择的基础必须依靠算法,“依赖于机器代码来定义和计算人们需要遵守的规则和违反规则的结果”。算法是通过处理数据、计算信息和自动推理来解决类型化问题时遵守的明确规范,也是一种由计算函数明确定义的形式语言。形式语言可以被视为理论理性的反映,但智能算法的决策模型必须借助训练数据集才能实现。基于此,碰撞算法决策实际上取决于训练数据中的经验和知识,遵循经验主义。人类之所以能够从小数据和有限信息与知识中作出正确决策,主要源于理性对经验知识的加工和总结。机器不具备人类理性,因此只能通过大数据来进行决策,且决策效度随着大数据规模的增长而增长,并具备抵抗错误的鲁棒性。

其二,两者兼容的伦理维度不同。前者选择基于人类的有限理性与经验知识,要么立足于功利主义立场,即基于小数据的局部计算所得到的利害权衡结果,要么采取义务理论立场,即基于善良动机、直觉或情感而遵从可普遍泛化的伦理规范。可是就人类伦理而言,无论是功利主义,还是义务理论,都无法诉诸绝对理性,而只能依赖有限理性获取合法性。因此,人类因个体差异作出的碰撞决策只能是局部信息和个人知识的结果,恐怕很难规则化、重复化和通约化,即便从中能够得出最大公约数,但个体能动性的差异也无法贯彻道德选择的统一。与之相反,后者的伦理选择借助智能算法和训练数据,能够通过反复迭代和递归接近期待的价值选择。因为借助路径规划算法,无人驾驶汽车可以快速确定将要经过路径的输出范围、路径选择的可能性,并基于数据质量和其他因素估算事故概率。更何况,“计算机可以自行识别道德规范的组成部分,而不需要人类准确地阐明为什么一个行为是或不是道德的”。即便碰撞算法处理的数据存在非结构化、生命损耗和质效衰退,因而碰撞决策无法回避随机性,但这依然无法否认一个事实,即碰撞算法的伦理选择是可以通约复制的智能算法,基于大数据的全信息计算之上。因为算法是机器时代的基础设施和搜索引擎,具备映射世界和改写行为规则的力量。换言之,通过人工智能技术,无人驾驶的碰撞算法既可以实现全面的利害计算,也可以从大数据中提取公共知识和建构一般伦理规则。

其三,随机碰撞对于人类和机器可能具有不同的伦理价值。申言之,人类伦理对于碰撞事故中的随机决策可能无法给予评价,因为紧急状态下无法强人所难,只能将悲剧归于意外。人类的信息处理和计算能力无法通过生物进化而实现快速突破,因此,只要存在人类驾驶,则随机决策必然如影随形。但是,机器的随机决策却可能具有伦理意义。这是因为,个别无人驾驶汽车采用随机碰撞的数据和信息,可以通过反复模拟和网络对抗进行道德实验和伦理演算。这种根据个别案例和小数据得出的伦理选择路径,依靠的就是算法迭代和算法演进。算法迭代是当前计算机理论科学研究广泛关注的基本逻辑原理,通常被称为自动算法设计或自动编程,最近被遗传进化算法以及机器学习技术的应用所推动。这意味着,无人驾驶中的随机事件可以用实验方法与数学理论建构相结合的方法来解释。机器发生的随机决策可以发展为一种受控安全实验,通过复杂数学进行模拟。这符合复杂系统的一个基本定理:“秩序存在于混沌之中。”因此不难推断,机器的随机算法可以随着随机碰撞共同演进,亦即随机算法通过算法创新和算法遗传以降低碰撞的随机性,从而达至道德结果,乃至缩短偶然碰撞事件的道德演进周期律。这恐怕是人类驾驶碰撞中随机决策所无法完成的。

另外,值得再次指出的是,碰撞算法的伦理选择是内置于智能交通、智慧城市、智能社会和智能空间中的伦理选择。这是除上述三点之外,我们理性思考碰撞算法的伦理不可忽视的时空维度。在智慧交通场景下,无人驾驶汽车可以比人更快更准确地进行持续效用计算,以确保碰撞风险的降低与可控。在由无人驾驶汽车组成的多智能体交通网络中,碰撞算法可最大程度地打破信息偏差,运用大数据来建构决策模型。正如有论者指出的,碰撞算法能够检测和识别碰撞风险,自动向公共安全应答点发送数据消息,并借此系统检测各个方向的碰撞,并存储所经历的加速时间历史,确定碰撞速度的变化、碰撞力的主要方向、是否发生翻转以及碰撞中可能造成的伤害。如果需要,碰撞系统还提供即时医疗援助,从而大大减少事故伤害的通知和响应时间。因此,无人驾驶可以从人机互动中获取数据以进行社会学习,并从中总结碰撞后果与碰撞规则。当然,就防范算法的伦理风险而言,碰撞算法应当建立长程伦理参数与基本价值要素之间的连接,防控短程伦理参数导致的不合理差异,如身份、教育、财富等一般是与伦理价值无关的要素。

从以上分析来看,就继承和延续以往的人类伦理立场而言,碰撞算法似乎可以采取兼收并蓄的整合姿态。首先,因为无人驾驶可以通过训练数据和测试数据提取和归纳伦理规范与效果权衡,且这两者可以并存。这意味着,碰撞算法大致可以维续与法治精神具有亲和力的规范伦理学,即后述的功利主义和义务理论。其次,即便是采取随机算法,无人驾驶从技术上也可以实现反复模拟、场景泛化和知识萃取。如果将随机视为一种打破固定图式的尝试,其可能提供伦理创新动力。不过,即便碰撞算法可凭借数据和信息优势采取伦理上的多元主义,还需要在碰撞时间决策允许的情况下,构建伦理立场的阶梯或秩序。再次,众所周知,功利主义可能导致人类的工具化,形成理论理性和实践理性分庭抗礼的局面,而义务理论尤其是康德的义务论正是对人本主义的坚守。因此,即便碰撞算法可以兼容多元伦理立场,但价值阶梯或多元伦理秩序的建构,还需要对以往的伦理学说进行回溯和探析,并结合此处的分析进行研习和连接。

关于各种道德理论在机器伦理学中的应用, 目前的研究主要包括阿西莫夫定律、功利主义、义务主义、康德主义、利己主义、德性伦理。显然,这不是严格遵循伦理立场的表述,毋宁说是机器伦理学尝试从伦理史学中寻求可用资源的挖掘。其中,阿西莫夫定律、康德主义属于义务主义。不过,阿西莫夫定律由于存在模糊性,只具有机器伦理史的价值。同时,利己主义是将碰撞算法停留在承受者层面的当然结论,但不具有合理性。德性伦理学建立在个人主义之上,因而具有较大的不确定性。这是规范伦理学以及从语言层面展开伦理研讨在当代盛行的要因。简言之,在碰撞算法伦理的立场选择上,义务主义和功利主义主导着战场,并集中表现为规则功利主义和规则义务主义。

(二)功利主义

众所周知,功利主义又称效益主义、功效主义或后果主义,是从趋利避害、避苦求乐的一般人性出发,根据行为后果来决定行为判断和选择的道德主张。功利主义自诞生以来,已经深刻地影响了道德、经济和社会发展,更被边沁推崇为依靠理性和法律之手建造幸福大厦的制度基础。尽管功利主义迄今遭到了诸多批判,但功利主义的现代形态——行为功利主义(act utilitarianism)和规则功利主义(rule utilitarianism),使其在当代获得了强大的生命力。行为功利主义认为,当且仅当行为能产生最大多数人的最大幸福时,行为本身才具有正当性。与之相反,规则功利主义主张,当且仅当行为由一套高度被接受的规则所决定时,行为才具有正当性。

两者都属于功利主义主张,因为两者都关注行为效用的最大化,但是行为功利主义专注于个体行为的最大效用,而规则功利主义涉及重复实施的行为的最大效用。从根本上来说,两者的立场分歧在于,“人的行动是否是一个独一无二的,不可重复的过程”,以及据此在道德上形成普遍的行为规则或义务。换言之,对于义务或规则,行为功利主义是断然拒绝的,并自诩为古典功利主义的正统继承者。相反,规则功利主义对义务采取了包容调和的立场。总体而言,两者主要形成了如下对立。

其一,两者在行为的类型化与规则化上并不相同。前者认为现实行为都是不可通约的个别行为,因而不可规则化。同时,规则化的行为只反映了粗浅常识,常常夹杂着迷信、混乱与冲突,且会导致规则崇拜和僵化。这必然无法导向最大幸福,因而必须抛弃规则。后者主张,现实行为可以类型化和规则化,因此可以将功利导向的行为转化为义务规则,增进社会功利。即便个别情况下的规则化行动没有效果,也要遵守规则,因为只要大多数情况下规则可取得效果就行了。对于前者的规则崇拜指责,后者认为,首先,根据功利来选择道德规则,这种功利选择和衡量具有社群性,因而道德规则具有多元性。所以,自身不会违反人性。其次,道德规则可以分为一般规则与例外规则,而例外规则优于一般规则。因此,规则功利主义不会导致规则崇拜,不会导向不问理由的“义务论”。

其二,两者关于效果的现实主义和未来主义,以及特殊正义与普遍正义存在差异。一方面,前者认为,因为行为是个别性的,因而效果只能理解为直接的现实效果。行动的长远效果不必考虑,未来不可确定。就特定行为来说,或者不会影响未来世界,或者行为彼此间会相互抵消影响。因此,行为功利主义本质上是现实主义和情境主义。相反,后者提倡,人的行为不仅可以类型化,且可以产生短期效果与长期效果。通过规则来规制行为,就可以协调长期效果与短期效果,将直接效果和间接效果、短期效果和长期效果整合。进一步,还可以通过示范效应等社会心理机制,建立秩序和信任。另一方面,前者奉行现实主义和情境主义,因而倾向于肯定特殊正义。后者相信道德规则在大多数情况下可以将现实效果与长期效果统一,因此倾向于肯定普遍正义,兼顾特殊正义。

其三,前者强调情境主义,似乎具体行为都是独一无二的。因此,即便其承认外界的影响与制约,恐怕更多的采取了非决定论的立场。后者认为行为可以类型化和可重复,因而承认行为的共同性以及行为结构的稳定性和连续性。换言之,类型化的行为必然受制于特定社会框架和人格结构。因此,其至少不会彻底否定决定论。两者对于决定论与非决定论的不同态度,自然决定了基本的道德判断与选择。

问题在于,应当如何看待和解决上述对立,进而在碰撞算法中体现和嵌入相关伦理立场?本文认为,这从根本上取决于两点:功利主义的缺陷与法治主义的价值。简言之,首先,我们应当选择其中更有利于克服古典功利主义缺陷的一方。其次,应当考虑碰撞算法的特征,及其作为法律代码所体现的法治精神和规律。同时,如前所述,智能社会下的碰撞算法具有代码逻辑支撑的知识论和宽幅伦理维度,更具有泛化随机事件的伦理形塑机能。这实际上是从碎片信息中形成大数据和大知识,从而生成一般秩序的伦理潜能。而法治的核心命题,首先在于形式法治,即制定的法律规则得到普遍服从,并且“当我们拥有维护符合整个社会共同利益的法律体系时,我们就具备了法治”。不言而喻,行为功利主义与规则功利主义在无形之中围绕秩序或冲突实现了规范层面的对接,为治理无尺度的数字社会提供了伦理根据。据此,结合碰撞算法背后的人工智能技术,我们可以得出如下论断。

第一,规则功利主义似乎更有利于克服传统功利主义的缺陷。传统功利主义受到的最严厉批判是:它破坏了公正和公平。利科认为,功利主义是由于人类通过理性无法到达彼此的相互理解而采取的一种法则,而这种法则化的过程就是创建一个被害人的过程。在这个过程中,最大群体的平均利益的最大化,是以牺牲小群体为代价的。行为功利主义认为,只存在具体现实的个别行为,不存在“类行为”。按此逻辑,社会最大福利只能基于个体行为实现。然而,这其实是对个人自由的极端强调和放大,以及对主体间交流和理解的否定。这种主张的通常后果是,功利主义往往导致残酷竞争与少数人的不利处境。其实,罗尔斯的正义论试图基于无知之幕建构基于平等的自由和合理区别对待的新契约论,就是对功利主义导致的少数人不正义的一种批判。相对而言,规则功利主义对普适规则的接近,是一种更微妙的功利主义计算形式,也是以义务论来调适古典功利主义的努力。因此,规则功利主义似乎比行为功利主义更能够克服不合理差异和恣意,通过协调行动来助力社会公正的解决。

第二,行为功利主义比规则功利主义更容易导致社会冲突。既然行为功利主义坚持具体行为论和情境主义,如前所述,其哲学依据恐怕就是非决定论与相对主义。诚然,这有利于维护个体地位,促进个体自由,调动主体能动性与责任感,但它无疑会导致行为功利主义作为决策程序的缺陷。因为“如果每个人都试图使效用最大化,将个体策略而不是指导规则用于指引个体行为,那么个体策略的目标可能无法在冲突中有效实现”。换言之,行为人在情境主义之下,必然会不断变换和承担临时性社会角色,而社会秩序中有效行为的互动需要稳定期待的社会角色,以增强团结和稳定。再者,在关于人类尊严的讨论中,康德拒绝了功利主义,并将绝对命令视为评估法律制度的唯一依据。这是因为功利主义潜藏着将人视为手段的奴役与不公,这是社会冲突和动荡的根源。当然,规则功利主义属于规则主义,其最大的问题源于规则僵化与冲突导致的功利失败。其实,与其他治理存在成本一样,这是规则功利主义的必然成本。与缺陷相比,规则功利主义综合考虑了功利主义因素,并使其受制于道义上的附加约束,这些约束凌驾于总体福利的可获得性收益之上。这是对传统功利主义的扬弃,有利于功利与正义的融合,最大限度地克服混乱与冲突。

第三,规则功利主义比行为功利主义更容易实现最大效用。行为功利主义和规则功利主义都可以用实际效用或者期望效用来表述。计算行为或规则的预期效用的方法,是将该行为或规则的每个可能后果的净收益或净损失,乘以该行为或规则发生的概率,再将由此得出的各种数值相加。但问题在于,即便这种功效计算可以被简化为粗略估算,但并非每个人都能在诸多行为选项中,正常地计算每个行为的机会成本,然后决定选择一个预期总效用最大的行为手段。虽然人们经常需要依靠结果计算权衡行为,但我们中的大部分人在大多数情况下是依据习惯和常规行事,以一种与昨天相同的、与周围人相同的方式行动。至少可以说,由诸多结果计算转化的行为规范已经支配着生活世界。尽管社会中存在不同的、竞争性的道德规范,可被大多数人认可的伦理规则是能够产生更好结果的规则。尽管碰撞算法无法回避随机算法,但智能环境或智能空间属于开放性的结构化信息场域,其所实行的碰撞规则应当并且能够规则化和明确化,从而赋予碰撞损害以最大的预测性、透明性和公正性。另外,不可否认,从功效计算的复杂性与明确性上说,行为功利主义也可以通过全信息计算实现最佳功利效果。对于人类全信息计算恐怕是个挑战,但智能算法对此不存在障碍。可是,行为功利主义的原初立足点,是信息不足状况下对规则机械执行的反抗,而一旦特定场景实现了全信息计算,这实际上也就消除了作为区分规则功利主义和行为功利主义之前提的特殊场景和一般场景的差异。果真如此,两种功利主义将会在碰撞算法中实现某种融通。

第四,个体行为在规范意义上可以重复并可以类型化与规则化。“立法者的任务便是在立法过程中,去描述生活事实中反复出现的各种类型,并借助抽象概念作为制定法律建构之外形,将其制定成为法律规范,因此,规范类型乃成为制定法背后的存在基础。”伦理规范作为一种法源,也在塑造行为类型。行为的类型化与规则化的重要基础,被哲学解释学称为前见。“前见就是一种判断,它是在一切对事物具有决定性作用的要素被最后考察前被给予的。”基于此,无论是类行为,还是道德规则,都能形成缓和社会冲突的行为秩序与预测规则。从时空的复杂性与意识的瞬间性出发,具体行为都是独特不可重复的。但这种见解不仅彻底否定了时空稳定性以及意识连续性,也是混淆事实认知与规范判断的谬误而已。因为无论是我们生活的宏观世界,还是神经元支配的人格行为,都具有经验上的相对稳定性和同一性。而社会规范也可以通过意义建构和价值分配,将不同行为赋予差序效果,以塑造类行为和规范忠诚。至于道德和法律选择何种行为加以类型化,则是另外的问题。

综上所述,社会关系的稳定性与秩序规则的普遍性存在紧密关联,是行为自由的保障。倘若无人驾驶碰撞算法采取功利主义立场,那么规则功利主义契合智能算法的形式化,除非存在特殊的场合以及合理解释与证明,否则不必采取行为功利主义。以具体行为一时一景的具体功利效果为衡量标准的“行为功利主义违法观”存在很多不合理之处,而以符合规则的“类行为”的长远积累性功利效果为衡量标准的“规则功利主义违法观”具有相对合理性。碰撞算法作为智能交通事故的治理规则,随着信息的透明与均衡能够实现伦理的规则化。还可以预判,在未来交通和机器符码层面上,无人驾驶汽车必然能够比人类司机更好地把握交通信息和交通环境,通过行为类型参照伦理规则来决策。

(三)义务理论

众所周知,康德的义务论是最具影响力的义务理论。他认为,行动的基本法则是使得关于你的意志的准则在任何时候都能同时被看作一个普遍立法的原则。他还指出,人绝不能被任何人当作工具,而同时又为目的本身。人作为理性存在者,他必定天然地作为道德主体而存在。道德实践作为理性领域,将人仅仅作为工具必然违背理性要求。因此,康德将道德律令视为与头顶上的星空一样,具有意志的普适性,是无条件的定言命令。相反,一旦道德规范偏离定言命令,它必然蜕变成附条件的假言命令。这与善在伦理学上的绝对性相冲突,因为善本身是无条件的绝对目的。在此意义上,康德反对功利主义并指出,虽然渴望或厌恶通常都与快乐或痛苦相联系,但反过来却并不总是如此。因为可能有一种快乐和一个渴望的对象与此并无关系。因此,定言命令的成立不在于功利计算,而在于行为的动机、目的和取向。唯有如此,伦理规范才能抵制任何倾向与冲突,实现意志的自由和自主。

康德的义务论与其复杂哲学体系相关,尤其与“先天综合判断”的哲学命题相关。在根基上,先验自我的理性形象支配和约束着基于偶然经验型构的后天习得性自我。尽管知识源于经验,但康德的立场始终是理性主义的。正因为人有理性与先验知识,故有绝对命令和定言判断。绝对命令无疑有助于维护人的尊严,促进道德自律,维护人的意志自由和命运共同体的形成。进一步,从康德的政治哲学看,其理想必然是民主的,也是伦理自由的。康德的义务论虽然要求伦理规范的普适化,但根据义务论的立场不同,依然可以分为行动者中心和承受者中心。

对于不同主体间的动机和目的冲突,亦即主观动机和客观效果的冲突,行动者与承受者应当遵循同意原则。因为权利的法则是在普遍自由原则的支配下,每个人自由地相互强制。在此意义上,康德的义务论既包含了契约论,也包含了国家立法论。罗尔斯基于无知之幕构建的道德原则,是一种广义的义务论或规则论, 似乎更倾向于普适的伦理主义;诺齐克基于最小政府的设定而提出的伦理见解,也具有社会契约的因素。但他们的见解都属于特殊主义的伦理见解。特殊主义的伦理见解依赖于特殊情境,在该情境中支持特定行动的原因,在其他情况下可能实际上是反对该行为的原因,道德思想的可能性并不取决于普遍适当的道德原则条款,这提醒人们注意规则的有效范围。在理性之上支持规范立场,现代的义务论都是规范的义务论。理论上,规范的义务论既包含情境伦理主张,也包含普适伦理见解,这与前述规则功利主义与行为功利主义的对立颇为类似。但从联结真理论以及主体间性的原则出发,普适伦理是继承康德观点的主流观念。

根据康德的义务论,碰撞算法的伦理立场可分为两种观点。一方面,在将复杂的人类价值转化为计算机代码时,有论者认为义务论的缺陷是, 规则的应用通常需要一些常识, 但计算机只能够进行文字理解,因此,碰撞算法会导致意想不到的行为。另一方面,相反的观点认为,碰撞算法可以决定无人驾驶汽车的一般行动规律,使其成为一个理性的代理人,从而按照康德的伦理进行规划。在本文看来,义务论视角下的碰撞算法需要明确以下几点,才能辨析理清上述对立。

一是,义务论本质上是动机论和目的论,其对伦理规范的确认与维护源于道德情感和理性直觉。机器不具有人类情感,即便是强人工智能,其能否实现情感计算也是很不确定的。不过,能够肯定的是,机器伦理应当延续康德关于“必须将人作为目的,而不得仅仅作为手段”的命题,并通过算法编写来贯彻。算法伦理的理性化,不能简单地诉诸理性直观与内在直觉,还需要论证与检验。二是,现有人工智能建立在大数据之上,借助神经网络、深度学习和模型参数来实现信息决策。因此,首先,碰撞算法采取人本主义目的不仅可能实现,而且机器紊乱也会比人类偏见导致的风险要少。因为机器判断的意义空间更大,其容错性可以比人更好地树立伦理理念。其次,与人类伦理规范整体相比,碰撞算法恐怕无法也不必覆盖和嵌套所有伦理规范。何况,人类伦理在很多方面尚未达成一致,且往往充满模糊性。综合起来,机器伦理是可以实现基础伦理的。三是,无人驾驶汽车的碰撞决策借助数学模型,不但可以计算碰撞行为,还能够处理大量特定的道德后果,并通过功利后果来确定行为秩序。因此,碰撞算法的伦理规则是明确的也是有限的,存在与功利主义重合的部分。总而言之,对前述对立观点,倘若从刑法是道德底线的角度思考,由于刑法中罪刑法定原则的存在,那么通过刑法判例的算法学习似乎可以支持第二种主张。倘若从整体法系统出发,由于民法和行政法的主干不是禁止性规范,那么碰撞算法必然需要以社会常识作为决策前见,或者说,非刑事法的伦理规范实际上内化隐含了更多社会常识。

综上,碰撞算法所体现的机器伦理,或许能更好地实现康德义务论中的核心命题。对于普适规则的追求,该义务论与规则功利主义本质上相同;对于最优化结果的希冀,该义务论与行为功利主义也存在共同之处。不同于功利主义,其不可动摇的理念是对于人的主体地位的坚持,因此拒绝将人仅仅作为工具,以防止人类生存状况的异化。对于碰撞算法而言,在机器伦理的赋予阶段,义务理论依然可以指导算法编程人员的职业精神。换言之,碰撞算法对于功利计算,应当恪守首先尊重生命、身体、健康等价值,其次才是财产、经济和效率。对于没有自我认知的机器而言,其通过机器学习和代码运算所执行的义务理论,依然是人类道德决策的延续。

道德规范具有多元性、不确定性、模糊性,因而义务论的理性主义潜藏着盲信和狂热,恐怕并不适用于普罗大众。不过,从刑法的罪刑法定原则,以及刑法是社会道德底线的认识出发,碰撞算法的基本伦理规范是相对明晰的。这可以通过学习刑事司法数据来实现,进而可以实现刑罚后果与功利主义的对接或重合。据此,可以从刑法学推论,义务理论与功利主义倘若都坚持规范伦理学的立场,原本尖锐的对立在机器伦理学中能够得到缓和。

(四)小结

第一,从上述分析来看,碰撞算法的伦理立场应当首选规则功利主义,这是由机器伦理的特性所决定的,同时也存在行为功利主义和义务理论的适用空间。如前所述,规则功利主义本身就是对义务论的吸收与调和。碰撞算法的这种立场选择,源于机器伦理要为机器人行动提供一般道德指引,因此不得不关注行为路径与后果计算。相比于人类信念,算法伦理受算法规则支配,并表现为算法决策的概率大小,有其自主性和规律性。与人类价值衡量相比,随着人工智能信息加工能力突破现有的社会限制、生物限制和心理限制,不仅自上而下的规范内化具备可能,而且规则功利主义的立场能够获得充分的库存知识支撑。如此,不同伦理立场的对立就可能进一步缓和,并可以一并统筹。

第二,现代人工智能的主流是基于大数据的算法学习,因而,碰撞算法无疑与规则功利主义更具亲和性。如果说功利主义属于经验主义的自下而上的归纳法,那么,义务理论则属于唯理主义的自上而下的演绎法。以自上而下为路径的古典人工智能的能力是很有限的,其已被自下而上的人工智能范式所替代,亦即神经网络、机器学习、数据统计兴起的原因。基于大数据的学习算法能实现快速学习、不断迭代以及系统进化,而生物学和神经科学,以及混合神经计算系统等,是现代人工智能的基础。因此,自然语言的伦理规范才能转化成机器可以识别的数学语言,并借助数学模型对不同的输入信息加以处理。因此,尽管康德的定言命令值得尊崇,但碰撞算法的伦理立场需要条件约束,以及自下而上的方法来具体实现。

第三,人工智能的发展要求道德决策系统适应自动计算,契合智能社会和智慧城市的信息交互流动。碰撞算法的伦理嵌入建立在人工智能技术之上,人工智能技术制约着碰撞算法的伦理选择。这也正是机器伦理学快速崛起,并越发具有学科独立性的原因所在。随着量子计算、区块链以及万物互联,无人驾驶汽车构建的交通体系必然是多智能体的信息统筹网络,能够实现信息均衡的最大化。而且算法黑箱是另一种数字无知之幕,存在强制道德缔约的必要和动力。因此,碰撞算法伦理必然是一种分布式道德,具有伦理规范的透明性、可计算性和可公度性,并主要通过自下而上的司法大数据学习来实现。据此,伦理知识的个体形式和隐秘形态可能会不断地转化为混合智能环境下的集体智慧、公共知识和一般伦理。

回顾第二部分的伦理难题,我们大致可以获取初步解决思路。在即将发生碰撞事故的紧急状态下,首先,算法编程应将人的生命、自由作为中心价值,其次才是财产、效率和秩序等价值。其次,无人驾驶应优先保护遵守交通规则的主体。在智能交通背景下,交通规则建立在对大量事故数据的挖掘之上,通常实体利益与交通规则直接能够相互映射,因而具备社会道德基础或者已经承载了社会普遍的道德期待和伦理忠诚。碰撞算法维护伦理规则效力,也就维护了普遍正义,能够防止道德逆向选择和破窗效应发生。再次,倘若碰撞算法维护规则功利主义得出了不妥当的结果,则应当考察是否符合适用行为功利主义的特殊场景。换言之,特殊场合要么可能是规则没有真正表征和覆盖主体的功利或法益,要么是主体的功利或法益尚未形成普遍规则。对此,应当从碰撞发生时的风险平衡、损害概率、事故几率等角度进行计算。大致而言,维护和调整个体间权利和义务的平衡,是赋予碰撞算法偏离或坚守既定规则的基底。当然,这里只能概述伦理难题的解决方向,而更细致的结论还需要在考虑碰撞算法伦理的基础上,制定详细的法律政策,通过多层法律秩序和法律程序予以解决。


三、无人驾驶碰撞算法的法律治理


算法作为计算机科学的灵魂,代表着公民在信息社会下对效率、精确性、可靠性和执行性的追求,正成为我们日常生活中不可缺少的一部分,似乎注定在未来会变得更加普遍。而且,在人工智能获得自主决策的情况下,算法成为人类获得机器善待的关键。但与指向言谈、举止和仪轨的伦理不同,碰撞算法的伦理选择直接触及社会公正的核心利益。对此,法律制度必须展示出道德或正义的具体一致性,或必须依靠我们服从法律制度的道德义务的信念。直白地说,法律必须防范和打击机器的道德恶行,呵护和宽慰道德善行。

因此之故,碰撞算法的法律治理与伦理规范必须互动整合,通过最大共识来引导、确认和保障彼此。尤其是对现代晚期伦理,或者说后现代伦理状况而言,个人主义基础上的多元道德已经成为社会事实,多元伦理选择在很多领域并非绝对不可接受。但碰撞算法关系社会根本价值,而绝对多元立场潜藏道德虚无主义的危机,这令人不可接受。因为这意味着智能黑箱公然实施歧视和不公,导致无辜者受害,制造商推卸社会责任,交通事故增多和交通犯罪加重。对此,结合规则功利主义的立场以及人本主义义务论,建构统一的碰撞算法似乎是理性选择,而政府天然地具备这种职能。但问题在于,倘若碰撞算法通过法律由政府强制统一,则国家权力构筑的算法帝国又保藏专断和暴政危险,并可能妨害算法进化、算力提升和公共选择。基于整体考虑,本文认为,碰撞算法的法律治理可以尝试以下政策。

第一,从伦理是法律的规范先导出发,法律政策应当鼓励和支持企业研究和发展碰撞算法伦理,建构碰撞算法的伦理自律。

人工智能伦理可以适时转化为法律规范,是法治事业的重要法源。不过,作为人工智能伦理或机器伦理的重要组成部分,碰撞算法伦理目前尚处于初级探索阶段。这意味着,其一,不仅碰撞算法的解题思路还在开发与试错,而且技术规范的优化和竞争还不充分。对于科技发展而言,充分的自由和探索既是科学范式转型的关键,也是不同部门知识深度交换和高度融通的前提。算法伦理不是简单的技术规则,也不是既定伦理的简单延续,而是考虑人机交互的相对独立的机器伦理。人工智能作为高度综合性的领域,算法伦理的建立需要充分借助算法实践、范式交叉与知识交流,或者说长时间的理论争论、算法竞争、伦理证明,从而集聚和沉淀核心理念与专门知识。其二,在一定意义上,碰撞算法伦理作为未来交通和智慧城市的基础伦理,其所实现的公正应当是一般的、普适的、稳定的,其内容应当是伦理理念、原则和规则的条理化。如果说伦理共识的达成需经充分的探讨,那么以恰当的算法来贯彻和实践伦理共识,以及建构相应的监督和制裁制度,同样需要时间。算法伦理的自我生发和社会选择有规律性,法律干预也需要以此为基础。其三,碰撞算法的伦理选择作为一项伦理挑战,是智能社会伦理建构和传统伦理革新的过程。如果说智能社会是对信息社会的辩证否定,其中必然包含对传统伦理关系的扬弃,并需要通过智能社会自身互动与组织来实现。政府应当以此为契机,鼓励不同碰撞算法伦理之间的竞争和合作,从而促进机器伦理的创生和规范的融合。

目前,世界各国都在大力发展人工智能技术,同时也在积极鼓励人工智能伦理的研究,并相继发布了专门或部分论述人工智能伦理的政策文件。无论是联合国教科文组织(UNESCO)、世界科学知识与技术伦理委员会(COMEST)发布的《机器人伦理初步报告草案》,还是欧盟公布的《机器人伦理学路线图》,不管是韩国的《机器人伦理宪章》、日本的《下一代机器人安全问题指引方针》、美国的《国家人工智能研究和发展战略计划》,还是IEEE 的《人工智能设计的伦理准则》,都既是前述法律伦理思想的体现,也为人工智能的法律规范提供了不同的规范思路。在此背景下,就我国的碰撞算法伦理研究而言,一方面,可以积极考察和比较各国伦理范本的优缺利弊,结合我国的伦理状况予以吸收,完善我国的算法伦理;另一方面,政府应当积极制定政策,引导和促进碰撞算法伦理研究细分碰撞场景中的伦理问题,促进技术伦理与人文伦理的交流融合,为碰撞算法伦理的法律化和制度化提供非正式资本。

第二,立法应当积极介入碰撞算法伦理的建构和塑造,以法律公正价值防控和促进碰撞算法的伦理表达和符号成长,避免自生伦理冲击取代法律权威。

不言而喻,鼓励碰撞算法伦理秩序的形成是发展无人驾驶技术所不可或缺的。从道德和伦理的差异性出发,伦理规范一旦超越多元、主观、模糊的道德丛林,其客观、明确和稳定特征就容易通往一种自组织、高认同的自控机制,并为社会主要规范的协同整合奠定基石。从伦理的实践性、民主性和自生性出发,以此为价值基础的法律能够降低规制压力,无疑更具接受性、高效性与权威性。正如韦伯所言,无论在什么时代,包括法规则在内,对行为而言,经验上有效的规则都是无意识中形成的,而不会让参与者感受到是新创造的东西。法律是独立的、能动的理性力量。即便是在碰撞算法伦理萌发阶段,立法的参与依然是必不可少的,甚至是影响或决定算法伦理走向的关键。

一是,碰撞算法的法治理念不可能与过往伦理采取决绝割裂的态度,而是很大程度上需要继承和延续既有的法律规范和伦理共识,尤其是宪法确立的基本权利。这些权利与人的尊严和幸福密不可分,是现代社会的价值基石,在最低程度上也是智能社会的前提。为防范科技风险和价值震荡,法律理当作为价值基石和道德底线的捍卫者和传承者。二是,从伦理是一种自生秩序出发,碰撞算法伦理有其自然竞争与演进选择时期,即便在信息社会受到更多媒介监督和制约,但其社会选择过程也不可避免地存在突破现有法律的可能或必要。而且,机器伦理具有技术性特征,其实现恐怕不可避免地需要修订和突破法律所体现的伦理共识,或以独特形式加以表现。不过,此时违反法律的机器伦理实践,或许有益于智能社会的建构。因而对立法而言,一方面,要防止算法的伦理邪恶行为,打击和矫治算法越轨和失范;另一方面,应当在风险可控和正当程序基础上,允许和宽容算法伦理的探索和实验。因为,即便碰撞算法要贯彻法律所维护的道德底线,机器伦理也可能由于技术特性和系统紊乱而存在失败的可能性。“一些进化程序可以找到最优解,但许多问题不能通过优化来定义。变革式的创造力是有风险的,因为之前被接受的规则被打破了。”然而,由此可进一步得出结论:对于任何可能新出现的混乱,国家立法负有不可推卸的消除责任。

从工业社会到信息社会,再到智能社会,信息和知识的力量在不断增强,并日渐被置于与物质和能量同等的本体地位。这种宏观图式变化映射在微观市民社会中,转录为掌握机器算法的决策者将掌握智能社会的决策权。在此意义上,不仅整个人类社会将被重塑,法律也面临算法的冲击震荡。甚至可以说,主导机器行动的算法实际上将成为社会的法律。这种社会规范和公共权力的隐秘分散转移,一方面表现出市民社会自生秩序的特征,具有民主性和自组织性,有助于推动社会公共服务配置的高效;另一方面也必然表现出经济逻辑的野蛮扩张和社会道德行为的紊乱,从而造成法规效力衰弱和法治压力增大。例如,算法智能推荐已经成功实现了心理画像和精准杀熟,且令用户陷于路径依赖而不自知,足以暴露了算法规制的法律必要性和紧迫性。

此外,碰撞算法的伦理规范需要法律监管,还在于算法在审视他人的同时,容易遗忘自我审视和排斥外部审视。详言之,建立在自然科学思维基础上的实证主义,奉行价值中立和倾向实用主义,因而,以数学语言为载体的算法不仅呈现形式显得客观中立,而且其黑箱效应更是可以作为推脱和掩饰算法偏见歧视,构筑算法帝国的堡垒。可是,即使存在伦理规制,技术官僚和管理者在科学的掩护下完全可能走私可疑的价值判断,对数学模型的建构也可能巧妙地将主观私见重新定义为突出的、可靠的数据。然而,一旦我们借助算法不仅对事物行使权力,而且也对人行使权力时,我们就需要发展一个强大的伦理框架,并用法律来保护道德底线,促进重大伦理的算法内化和行为外化。相比于个人,由国家权力保障的法律力量,似乎是唯一具备合法资格和强大能力解决算法帝国难题,以及制衡科技巨头和利益集团的力量。

第三,就具体策略而言,从碰撞算法伦理与法律价值既有差异又高度重合的角度而论,碰撞算法的法治策略应当力争平衡伦理自决与法律强制。根据对伦理决策的法律强制的程度,似乎可以分为以下法政策类型。

其一,通过司法程序对算法伦理加以检验和审查,以判例或案例形式加以规制。英美法系的判例制度是一种基于一般习惯的、分散的法律创制方式,同时也是一种事后的法律规制举措。虽然判例法由此遭到了法官造法违背民主原则,以及损害法律的可预测性的批判,但判例法与世俗伦理的公正理念保持了一致性,被看作经验主义基础上的自然法。因此,判例法反而赋予了公民较大的自由并得到较好的服从。中国的案例指导制度也是一种事后的法律规制模式。由于法律语言的抽象性,以及法律规范的错综复杂,一般的法律规则需要法官加以具体解释才能适用。在此过程中,庭审中的诉讼对抗同时包含了法律知识、社会知识和默会知识的交流转换,因此,司法决策和法律判决包含了法律规范的社会供给或法官造法的成分。只是这种指导性案例需要最高法院的统一核准才具有援引效力,因而是集中统一的准立法。就碰撞算法而言,采用案例指导制度似乎可以给予算法伦理较大的选择自由和发展空间,避免不成熟法律的过早介入,并为统一立法提供实践保障。

其二,如果说司法是事后的规范方案,企业存在算法封闭与权力独断的危险,那么,行政法对碰撞算法进行事前备案审核就属于相对前置性的规制,有助于防控算法的道德风险。公共管理事务的复杂与剧增催生了现代行政国家,因而,国家权力重心已经从立法权向行政权转移。行政机关不仅取得了行政立法权,还具有庞大的行政组织与强大的行政管理技术手段。与西方国家相比,中国的市民社会依然不够发达,小政府大社会的行政管理模式并没有发展起来。尽管社会自治和社会组织有所发展,但与西方文化所塑造的天生对政府的怀疑与提防相比,在中国,政府不仅具有更强的行政能力,也具有更大的权威,被赋予远超西方国家政府的社会治理期许和信任。因此,如果说碰撞算法的伦理自治不具备成熟理性的市民文化基础,那么,国家权力的深度介入就是必不可少的。当然,这种介入方式必然具有多样性,既可对碰撞算法所体现的伦理价值加以审核备案,也可以行政政策和行政立法的方式推动和影响碰撞算法的伦理研究和制度设定,还可由政府制定发布碰撞算法的伦理指南,以及由政府组织的多元主体、上下互动的算法决策框架机构,发布体现基础伦理的开源算法作为社会选择和优化的基础。

其三,无论是从刑法的谦抑原则来看,还是从碰撞算法的发生阶段来讲,对无人驾驶的刑法规制都需要克制与审慎。因为碰撞算法还处于发展中,算法技术之争导致算法规范的争议,而且碰撞算法对于事故参数还处于初步应用阶段。因此,对于因疏忽而违反内部算法伦理,但尚未造成实际损害后果或已造成轻微后果的行为,克制刑罚无疑有利于算法创新。

首先,对于明知碰撞算法会造成危害社会的结果,却追求或放任这种结果发生的,无论是算法直接编写者,还是同意使用该算法的管理者,都需要适用刑法分则罪名来制裁。其次,与故意犯罪不同,碰撞算法的过失犯罪由于具有无意识性,因而似乎采取限制性解释较为妥当。算法构成了人工智能的底层技术,能够使机器按照事先确定的规则进行数据处理和信息决策,实现机器行动和人机互动的自主化。但是,一方面,我们很难将抽象法律规则转换成机器语言。无人驾驶作为一个开放的信息决策系统,其算法决策规则通常是有漏洞的。因为人们不可能预见到生活中的一切场景,并通过算法将其翻译成行动指令,而且系统在应用过程中会自主学习,因此,基于算法的决策行为并非总是可以预测的。另一方面,特定的技术是很难理解的,即使是那些设计和编程它们的人也是如此,遑论非技术专家想通过研究数据挖掘来理解导致结果的推理。因为除了算法之外,机器决策的建模调参与交通信息的处理,往往超越了人的想象和控制。

从该认知出发,并结合规范责任论的见解,对碰撞算法的犯罪过失的解释与认定恐怕需要采取严格态度,从而限制过失犯罪的成立。同时,为防控算法偏差以及算法过失认定的模糊,也应当有所应对。首先,算法的犯罪过失可以算法的伦理过失作为前提和标准,以利于注意义务的明确。其次,倘若制定和管理算法的行为严格遵守了算法伦理,那么,即使出现碰撞事故造成重大损害,也应当排除犯罪过失的成立,从而不构成犯罪。因为只要审慎遵守了算法伦理规范,那么,即使有过失也是社会相当性行为,并且无期待可能性。再次,算法伦理如果作为客观行为规范,还可以考虑作为违法阻却事由以排除违法性。可以想见,正如汽车事故成为工业社会的常规风险一样,无人驾驶汽车碰撞也会成为智能社会的常规风险。换言之,在一定意义上,若技术专家遵守算法伦理和技术规范,则算法风险就会成为刑法允许的风险而被理解和接受,而且这与社会发展趋势和整体公共福利并不矛盾。

总之,尽管以上法律政策还有待拓展与系统整合,但根据目前无人驾驶的发展阶段以及交通形态,甚至综合考虑无人驾驶汽车的不同自主程度,采取动态配套的法律政策无疑是应当努力的方向。

第四,碰撞算法的法律治理应当充分发展和升级法律技术,从而提高算法的透明性、民主性、安全性和执行性,为法律伦理实施提供技术保障,甚至反向塑造算法法律和伦理。

技术可以推动法律变革,也可以作为法律技术而提升法治质效。与人工智能技术相比,区块链作为下一代智能互联网的底层技术,不仅正在塑造新的信息网络社会形态,影响着诸多行业的发展,而且必将有助于提升交通网络安全,防范黑客网络入侵和算法破坏,保障智能交通秩序。因为“区块链是去中心化、公开透明的记录交易账本的数据库,由所有网络节点共享,由矿工更新,由每个人监视,且任何人都拥有和控制的数据库。它就像一个巨大的交互式电子表格,每个人都可以访问、更新和控制”。由于区块链记录按时间顺序连接,并以分布式数据库存储和复制,信息可以添加,但永远不会删除,所以,每个块都受密码保护,但任何更改都需要验证且随时可供验证。对于算法固定和数据保存而言,推动法律区块链在道路交通事故案件中的应用,无疑可以显著改善无人驾驶的安全性,并将有可能准确地重构纠纷事件的动态(驾驶速度、驾驶员状态、时间线等),快速解决诉讼和减少不正确的司法裁决的风险。当然,包括碰撞算法伦理在内的法律伦理的存在形态与运行范式也孕育其中。

如果说文字的发明打破了信息交换的短暂性和在场性,为人类文明的发展和积累奠定了基础,并以外化和延迟人类思维反应的形式扩展了人类理性思维的能力,那么,区块链则是对以往社会中集中式控制系统的一种根本革新,使得信息、知识和权力的表达成为社会公共记录和民主共识的组成部分。对于无人驾驶而言,无论是碰撞算法的开发,还是庞大数据的存储和保护,不管是防止算法和数据的篡改,还是发现法律知识和进行规范总结,通过发展法律区块链以留存数据都是必然选择。倘若围绕无人驾驶建立算法与数据的法律区块链,那么,一个分散、公开、去中介、没有中央权力的法律证据系统就会生成,能为行政和司法在规制预判、资格备案、数据追溯、线索核查等方面提供基础。




结语


人工智能的治理需要法律与伦理协同并进。科技能够指出什么是可以做的,伦理则能够指出人类行动的应然界限,并用法律来确定和维护其中的道德底线。法律与伦理在某些观点上虽有所不同,但相互间不能分离,并同时以一般规范的形式共生和交互。尤其是对作为社会核心价值的正义而言,伦理与法律一般不是对立的,而是连贯一致的。人工智能伦理属于新兴的机器伦理学,其在维护人类尊严和贯彻人本主义上不应有什么改变。不过,由于人工智能引发机器自主决策,以及人机互动正在改变社会结构和社会意识,伦理正义的观念迁转自不待言,也必然会获得新的表达形式和内容重置。

碰撞算法作为无人驾驶技术的核心组件,其伦理理念应当立足于康德义务论中的人本主义观,并具体采取规则功利主义的立场。这不仅是出于防范无人驾驶产生道德风险,从而保护社会弱势群体的目的,也是出于预防多元主体陷入囚徒困境以及集体行动困境的动机。

其一,对于无人驾驶汽车之间的行动协调,一般的伦理规则比个别功利计算更为可靠和确定。服从共同的伦理规则,有利于判断无人驾驶汽车的行为合规性,并优先选择保护遵守交通道德和法律规范的主体以及财产。碰撞算法是未来交通和智慧城市的一般事故规则,因此,其必然是可重复性的规则。其二,规则功利主义似乎更适合智能交通的信息交互结构。智能交通的信息状况需要透明与共享。在混合交通情况下,碰撞算法的伦理规则也应当具有规范性和透明性。这不仅可以消解碰撞算法的信息失衡与不确定性,从而降低人工驾驶汽车的交通事故,而且必然有助于人工驾驶向无人驾驶过渡。其三,碰撞算法即使存在适用行为功利主义的空间,但这种空间应当是十分有限的。因为算法本身的有穷性和明确性特征,与规则功利主义更具亲和性。倘若行为功利主义下的具体事故行为可以重复,那么这种事故行为也可以转化到规则功利主义框架之下来分析与表述。从语言转换上说,规则化的伦理规范比分散的伦理实践,更易于通过机器语言表达。

因此,人工智能比基于演绎或非单调逻辑的系统更能提供法律规定。算法伦理不仅是重要的自治规范,还是重要的法律渊源。因而,政府和法律既要鼓励和支持算法伦理的产生,又应当有所作为地加以引导和介入。从防止算法道德混乱与防范算法权力帝国的角度出发,碰撞算法应当将算法伦理与算法法治统合起来,从而将促进无人驾驶科技的发展、防控科技伦理异化和实现法律治理结合起来。在未来交通和智慧城市的建构中,无人驾驶扮演的角色越重要,那么科技、伦理和法律就越可能交迭一体化。



《法制与社会发展》2018年总目录

《法制与社会发展》2019年第1期目录摘要

《法制与社会发展》2019年第2期目录摘要

《法制与社会发展》2019年第3期目录摘要

《法制与社会发展》2019年第4期目录摘要

《法制与社会发展》2019年第5期目录摘要

点击二维码关注法制与社会发展微信公众平台

指导老师:苗炎

公号推送编辑:王唯


点击阅读原文进入本刊官方网站获取全文

http://fzyshfz.paperonce.org/

: . Video Mini Program Like ,轻点两下取消赞 Wow ,轻点两下取消在看

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存