查看原文
其他

自动驾驶电车难题的伦理算法研究

隋婷婷 郭喨 自然辩证法通讯 2022-04-24


 自动驾驶算法的

  电车难题实验


自1967年菲利帕·福特(Philippa Foot)首次提出“电车难题”以来,这一思想实验业已成为经典的研究道德两难的“情境母题”。在当前自动驾驶的伦理算法实验中,众多研究者在这一母题的基础上通过衍生情境进行了实证调查,其实验类型依据对被试的身份区分和利益相关与否大致可分为两类:“安全旁观者”与“潜在牺牲者”。


1.“安全旁观者”的后果主义倾向


此前电车难题实验中涉及的是剥离身份、年龄以及具体行为的“抽象人”,而自动驾驶在现实生活中常需要面对更复杂的多因素情况。伯格曼等人向我们展示了多因素影响下电车难题更精致的结构。


其中,年龄因素对公众选择的影响最为明显,90%的被试在不同年龄段的实验对象中选择拯救儿童,72%的被试在成年人与老人中选择救成年人——更多的人选择拯救年轻人,这一年龄层次就 QUALYs(quality-adjusted life years,质量调整的生命年)而言,呈现由高到低的顺序,从另一个侧面反映了类似后果主义的效用最大化特征。


我们发现,功利化的“后果主义”原则似乎是人类面临电车难题时的“本能选择”,而被撞击者是否违反交通规则对被试的后果主义倾向无明显影响:当车辆前方马路上的人数达到3名时,92%的被试选择了撞击人行道上(遵守交规者)的1名行人—— 这似乎意味着,违规者越多,其保护者反而越多。


至此,后果主义似乎成为了回应电车难题困境的伦理算法中最受公众认可的道德原则。然而,当被试自身的位置发生变化,由“安全旁观者”转换为“潜在牺牲者”时,其后果主义倾向又逐渐产生了内在分化。


2.“潜在牺牲者”对后果主义算法的矛盾倾向


一旦身份转变、纯粹的旁观者成为自动驾驶车辆的乘员、成为两难困境的“潜在牺牲者”时,人们做出的选择就不一样了。这一两难情境中较有代表性的有简·果戈尔(Jan Gogoll)提出的“隧道难题”(Tunnel Problem),即当驶入隧道,失控的自动驾驶车辆面临直行撞死行人或转弯撞墙牺牲本车乘客的两难处境时,伦理算法应当做出何种选择。


伯尼法等人与对类似“隧道难题”等涉及机动车驾乘人员成为“潜在牺牲者”的实验调查中,总体得出了与经典电车难题实验相似的结果:76%的被试在面对自动驾驶车辆中的1名乘客与10名行人的两难困境时,仍坚持了牺牲自己(乘员)拯救多名行人的后果主义选项。


伯格曼在进一步的VR实验中发现,被试的这一后果主义倾向随着事故相关的行人数量增加而上升,当车辆前方有2人时,52%的人选择自我牺牲以拯救行人,前方有3人时,愿意自我牺牲的比例上升到57%,当人数上升至6-7人时,这一比例达到70%。可见,“群体”意义上的“后果主义”依然成立。不过我们需要注意,截止目前实验还只停留在“说”的层面上。


一旦从“说”到“做”,情况就不一样了。当被试在调查中被问及有多大意向购买实验中的后果主义自动驾驶车辆时,被试的后果主义偏好陡然下降:在0-100购买意向区间上,对后果主义算法的自动驾驶车辆的购买意愿的中位数为19,与前文大比例支持后果主义算法的倾向背道而驰。前述哲学实验结果典型体现了一种常见分离:“言语”与“行动”的分离。一旦主体利益真实带入,行动者的做法可能与其解释完全不同——而这是可以理解的。

 


  PES与MES:

  应对电车难题的两类算法


1.PES框架中的道德旋钮


个人化伦理算法(PES)提出,应通过设置非固定算法,将普遍性的道德设置转化为个体的独特选择,把作出道德判断的预设权交予使用者,以“预 设选择”取代“预设答案”。PES中较有代表性的是贾斯帕·康提萨(Guiseppe Contissa)的“道德旋钮”(ethical knob)架构。该架构中,旋钮两端分别对应“利他主义”(优先保护行人)和“利己主义”(优先保护驾乘人员),旋钮中央则代表“完全中立”(遵循后果主义算法保护人数较多的一方,若人数相等则随机选择。)


我们认为这一算法架构优势明显:


首先,道德旋钮完成了由制造商向使用者的权责让渡,使自动驾驶系统成为使用者道德判断的延伸,解决了自动驾驶的人工智能系统无法成为“道德决策主体”的问题,实际上是把“单一主体”替换为“多元主体”。


其次,道德旋钮为使用者提供保障自身安全的“利己主义选项”,能够缓解纯粹后果主义架构所引发的车主焦虑和购买拒斥,且道德旋钮的可重复调整性,加强了算法对不同乘客的适应性,能够顺应使用者随着同乘人员身份不同(如家人、同事等等)而变动的安全期望值。


另一方面,道德旋钮也最大程度地保留了后果主义的算法倾向,即便使用者的选择倾向于利己主义,在如汽车转弯撞墙可能使1名乘客死亡,而直行可能撞死前方3名行人的困境中,道德旋钮上轻微的利已主义倾向并不必然使系统下达直行指令,若转弯条件下乘客死亡 率与直行条件下3名行人死亡率相等(如两选项同为90%),只有当利已主义倾向大于0.75时(如0.8), 直行的负效用小于转弯,自动驾驶系统才会下达直行命令。


2.MES框架中的罗尔斯及制动力学算法


(1)“罗尔斯算法”与“底线优先原则”


为改变后果主义牺牲少数人的算法预设,德里克·里本(Derek Leben)提出以罗尔斯的“最大化最小值”原则为基础构建一种底线安全最大化的新算法,这一新算法不通过舍弃少数一方达到生存最大化,而是通过最大化弱势群体的收益推动博弈双方达成帕累托最优态。


与后果主义算法相比,罗尔斯算法最大化乘客与行人的生存率且努力达成两者共生的合作式博弈法,能在最大程度上消除乘客对自动驾驶算法安全性的担忧。与利己主义算法相比,罗尔斯算法采取 了“无知之幕”中将原初状态的主体收益最大化的 框架,避免了纯粹利己主义算法降低社会总体生存率的后果。但罗尔斯算法对事故主体生存率的评估是否准确却是争议点,一些研究者提出在评估生存率方面应当更重视制动力学对车辆的影响。

 

(2)技术内部的制动力学算法与直行优先


丽贝卡·德文纳尔(Rebecca Davnall)认为汽车在失控情境中轮胎角度或速度的微小变化,都可能导致轮胎抓地时由动摩擦(kinetic friction)变成静摩擦(static friction),增大了车辆侧滑、旋转等风险,进而造成不可预知的事故后果,而轮胎角度或速度的变化是车辆“转向”所必需的。因而在制动力学方面,自动驾驶车辆在紧急状态下降低破坏力的优选方式是直行减速。这跟人类驾驶员的“让速不让道”倒有点异曲同工之妙。


另一方面,尽管行人在紧急状态下的反应无法精准预测,但行人由于车辆突然变向被撞的概率仍然远高于车辆保持原有运动轨迹时被撞的概率。此外,汽车保险杠、引擎盖等防撞吸能区(crumple zone)的存在可以大大减弱行人和乘客在正面撞击时受到的伤害,如在时速40英里时,正面撞击的死亡率仅有17%,侧面撞击的死亡率则高达85%,车辆转弯将无疑增大乘客和行人受到侧面撞击的概率。


尽管这一算法目前有数据动态函数不够普遍化、对相邻实体的行为预测模型不够完善等问题(自动驾驶的V2V技术可以较好地解决这一问题),但仍是一个具有可行性的算法建构方向。我们认为,制动力学算法与直行优先是“通过技术手段解决哲学问题” 的有益尝试。

 


 结论与讨论:

  自动驾驶算法走向何方


面对“电车难题”,自动驾驶有希望的未来仍然是研发完全替代人类驾驶者的算法。在目前的条件下,尽管算法已经定义了各种各样的变量、参数与函数,一定条件下可以直接转化为机制设计中收益空间或行动策略的参数,但其仍然只是在有限的范围内对人类的认知判断模式进行功能模拟;波兰尼悖论(Polanyi’s paradox)指出,人们比自身所意识到的知道的更多。


较之清晰可数据化的理论和逻辑而言,人类在行动当中往往会包含一些经常使用却又不能通过语言文字等符号予以直接 表达的“常识”或直觉情感。此类模糊复杂的判断 体系依靠目前智能系统的结构和算力显然是无法实现的。即便可以达成,对人类决策模式的全面模拟也可能将人类判断的直觉误差投射到智能系统当中。


因而目前自动驾驶算法的发展方向仍然在于将伦理判断的复杂过程简化为依赖逻辑理性的精确数值判断,这也是本文中两类伦理算法共通的设计模式。最后,我们还是主张,“以技术手段解决伦理问题”,可能才是真正的希望之路。



本文节选自《自然辩证法通讯》2020年42卷第10期


扫码关注我们

自然辩证法通讯

jdn-1978

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存