作者:尚权律所 时间:2025-06-26
摘 要
目前的科技无法完全避免自动驾驶汽车“电车难题”的发生,必须在其上路前便预设碰撞程序。个性化伦理设定不但会造成“囚徒困境”,而且会动摇民众对法律的信心,故有必要依照法律规范制定相应决策。乘客作为自动驾驶汽车的受益者,与险情存在因果关系,并非置身事外的中立者,不具备法律上优先保护之理由。保全多数人的功利主义与掺杂多种计算方式的综合考量理论在本质上均属于“为生命定价”之行为,忽略了不同个体间的差异,存在侵犯人性尊严之嫌疑,同样不足取。在现代社会,原则上应当由个体自行承担风险,故不应为自动驾驶汽车设置对生命的紧急避险程序,仅应当配置减速程序以减轻其遭受的撞击损害。
关键词:自动驾驶汽车;电车难题;紧急避险;功利主义
一、问题的提出
随着国家各部门陆续允许自动驾驶汽车路测,曾经遥不可及的自动驾驶逐渐成为我们现实生活的一部分。早在2022年,广州首条L4级无人驾驶公交线路便已正式投入运营。2024年,百度旗下的“萝卜快跑”更是在我国武汉、重庆、北京、深圳等地大规模开启了L4级别全无人自动驾驶出行服务。不难想象,在不久的未来,L5级全自动驾驶汽车必将出现在城市道路上。与目前仅仅存在于想象中的传统“电车难题”不同,在人工智能技术愈加成熟、自动驾驶技术不断发展的今天,自动驾驶汽车的“电车难题”已经不仅具有理论上的讨论价值,而且有其现实需求。是否需要为自动驾驶汽车遭遇紧急状态时设置相应程序?如果是,紧急状态下的算法应由何人决定?是任由乘客依照自身喜好自行决定,还是由不同的制造商按照市场需求配置,抑或由法律统一制定?在必定有一方生命会遭受损害的情况下,应当制定何种碰撞算法?是优先保护消费者,还是采取功利主义保护更多的民众,抑或让机器随机选择而将生死完全交给命运来决定?对于这些我国社会和法治语境中极受关注、极为紧迫、亟需面对和解决的问题,学界尚未进行充分讨论,或仍存在较大争议。基于此,笔者以L5级自动驾驶汽车“电车难题”的伦理困境为现实面向,以紧急避险(如无特别说明,本文中的紧急避险均指代攻击性紧急避险)的基本原理为问题导向,梳理整合既有法教义学理论,寻求问题解决之道,以期为自动驾驶汽车从理想转为现实找到可靠的法律出路,同时对人工智能立法有所裨益。
二、法律而非其他:自动驾驶汽车“电车难题”的决策主体
虽然“电车难题”的种类繁多,但并非每一种都可能出现在自动驾驶汽车的情形中,也并非每一种都在教义学理论上存在争议,为避免丢失讨论的重心,有必要先确立其中可能发生且具有争议的情形,作为讨论前提。
(一)本文的前提
1.双方要保护性不存在差异
案例1:甲乘坐自动驾驶汽车符合交通规则地在道路上行驶,乙、丙二人违反交通规则,骑摩托车从路边突然窜出,若甲直接撞向乙、丙,势必导致二人重伤,但除了撞向路边正常行走的行人丁外,甲并无其他方法避免与乙、丙相撞。
在本案中,乙、丙作为道路交通参与者,客观上违反了交通规则,侵入了甲的权利空间,理应承担相应的后果。平等原则作为一项基本正义原则,要求即便某人无责地给他人的权利空间造成了干扰,其也对第三人消除该权利空间的干扰负有容忍义务。故若被卷入交通危险的参与者在进入危险情况前有违法的举止,并因此制造了危险,则更应当让他来解除这种两难困境。因此,只要行为人给他人行使自由造成了障碍,便使得其自身的要保护性有所降低,在此种双方要保护性存在差异的情况下,理应设定撞击要保护性更低的主体。换言之,在任何案件中,导致危险状况的发生或对违法行为承担共同责任的因素都应当被作为负面因素考虑在内,让无辜路人承担与之无关的莽撞行为的代价,在任何情况下都是不公正的。若此时为了保护违法参与者而侵害其他合法参与者的性命,则无异于使合法参与者的生命权向违法行为让步,有违作为法治社会通行基本准则的“权利无须向不法让步”原理。
综上,侵害某一法益的行为能否正当化,不是取决于其抽象的价值与位阶,而是取决于其法益与价值在具体案件中的表现形式。在双方的要保护性存在差异的情况下,必须让要保护性更低的一方承担后果。与此相应,本文的讨论范围也就仅限于可能受损双方的要保护性在法律上不存在任何差异之情况。
2.自动驾驶汽车必须具有内置程序
部分学者认为,“无人驾驶汽车会造成道德困境”是一个假问题,开发商无须在紧急状况下设置相应程序,只要感知系统与决策系统运行完成,控制系统也必将完成,故电车难题完全可以通过技术的方式进行消解。如我国有学者指出,无人驾驶汽车在道德判断方面与人类是一样的,既然在传统的“电车难题”还没有在理论上争出一个谁是谁非之前,人类驾驶员也可以合法地在道路上驾驶汽车,那么,无人驾驶汽车同样可以在道路上行驶。亦有学者认为,随着技术的发展,当自动驾驶车辆的安全性达到甚至超过民航客机的水准,那么我们关于碰撞伦理的讨论似乎也没有必要了。因为碰撞事故发生的概率实在是太小了,几乎不会影响到人们的正常生活,以至于人们可以慢慢忽略这一困境的存在。
然而,此种观点显然值得商榷。
首先,这些学者都认为,汽车的控制系统是在决策系统运行完成后方能启动,可见其已经认识到在危急情况下必须具有相应的决策,既然如此,又怎能说“无须设置相应程序”?即便此时汽车并没有任何额外行动,只是按照既定路线行驶,但此种“按照既定路线行驶”的程序,其实也是一种决策。概言之,无论自动驾驶汽车此时如何反应,都是在预设程序控制下完成的,故这些学者的观点存在前后矛盾之处。
其次,就感知系统而言,当前的探测系统、计算系统等仍然存在许多局限,如谷歌无人驾驶汽车的探测器仍然无法识别到小物体、人工智能车辆系统普遍存在算法偏见的问题等等;并且,即使无人驾驶汽车配备最先进、最可靠的探测、监控与计算系统,在动态、复杂的驾驶环境中仍然无法避免道路中突然出现的行人、非无人驾驶的汽车等。概言之,完全自然环境中的无人驾驶情景是一个非封闭性且难以封闭化的问题,已超出现有人工智能技术的能力边界,除非我们能够确保正式上路后自动驾驶车辆永远不会出现“电车难题”,否则“电车难题可以通过技术进行消解”的观点,存在掩耳盗铃的嫌疑。
再次,根据目前的通说,在传统的电车难题中,若行为人实施了相应的避险行为,只可能成立阻却责任的紧急避险,这其实已经代表着刑法对其行为进行了否定评价。因此,传统的电车难题并非没有在理论上争论出孰是孰非,只是因为行为人此时不具有期待可能性而无需承担刑事责任,“无人驾驶汽车同样可以在道路上行驶”之观点的前提存在瑕疵。
最后,只要自动驾驶汽车正式上路,便意味着其所有程序均通过了政府的审查,得到了政府的认可,符合法律的规范。因此,一方面,若不设置相应算法,一旦发生事故,便可能出现双方均符合法律规范、因而无人担责的“责任真空”现象,势必引发民事甚至刑事上的法律问题;另一方面,自动驾驶汽车紧急避险并不是驾驶员在紧迫状态下出于巨大心理压力做出的应急反应或如民航客机失事一般的意外事件,而是一种人为的、通过车辆预设程序实施的故意杀人行为,若有关部门对此情况置之不理,任由系统、乘客或制造商等自行决定,就等同于宣布国家放弃了对无辜之人遭受生命威胁时的保护,认同自动驾驶汽车杀害无辜之人的合法性,这在任何一个法治国家都是难以想象且绝对不会被容许的。此时的问题已经超越了自动驾驶汽车电车难题发生的概率、是否预设撞击程序的具体问题,而是涉及“法律不会允许民众为了保全自己而杀害无辜之人”这一法治国的绝对规则,即便仅仅发生一例,也会让民众产生“自己可以在必要情况下被任意牺牲”的感觉,从而对法治国的存在根基造成不可逆转的重大损害。因此,能否解决好自动驾驶汽车“电车难题”对该技术能否被(民众以及法律)接受具有至关重要的作用,相关人员必须在汽车设计时便考虑到此问题,并预设好碰撞算法,以便面对行驶过程中可能出现的突发事件。
3.自动驾驶汽车按照预设程序实施了避险行为
由于驾驶环境的多样性,程序员在设计过程中不可能预料到现实生活中的全部情况;类似的,由于自动驾驶系统的复杂性与材料本身的质地问题,其软件、硬件均不可避免地会出现故障,进而导致系统崩溃、死机、车辆不受控制等现象,此两类情形是在自动驾驶汽车发展过程中无法回避的障碍,即便是如今已经极为成熟的汽车工艺,也或多或少地存在软件或硬件方面的问题,但如今的通说认为,安装了自动驾驶系统的汽车公司并不需要承担额外的法律风险,只要生产商尽全力将系统做到最大程度的安全并且特别注意降低人员伤亡风险即可。故因不可预料的系统故障或极为罕见的情况所造成的事故,制造商能够因为不存在过失而不成立犯罪。当然,如果此类情形是由于产品明显的缺陷造成,追究相关人员的产品责任对传统刑法并无挑战。至于人工智能产生自主意识并控制车辆的行为,则是涉及有自我意识的电脑能否成为责任主体的问题,笔者支持否定论,认为此类电脑并不具有责任能力,因而难以成为归责主体。总之,避险行为必须是自动驾驶汽车内置程序而非其他因素造成。在确立上述前提后,便可以从下述基于“电车难题”改编而来的案件出发展开讨论。
案例2:甲、乙乘坐一辆L5级别自动驾驶车辆在道路上正常行驶,迎面而来的大货车突然失控朝甲的汽车撞来。此时,甲有以下选择:其一,按照原路行驶,后果是甲、乙必将被大货车撞死;其二,撞死右侧人行横道上正常行走的行人丁;其三,撞死左侧人行横道上正常行走的3名行人。
本文欲解决的问题是,在这样一个必将造成死亡结果的、典型的自动驾驶汽车电车难题中,应当由谁来设置程序?又应当设置何种程序?
(二)自动驾驶汽车应依照法律制定相应程序
如前所述,由于目前的科技不可能完全避免自动驾驶汽车“电车难题”的出现,制造商必须在其上路前便内置对应决策。故第一个困境便在于,此种决策应当由谁来制定?对此问题,麻省理工学院的学者出于“无人驾驶汽车相关伦理原则的制定不能仅仅交给工程师和伦理学家,还需要吸纳以消费者群体为代表的公共道德意见”之理由,创设了“道德机器”在线测试平台(moralmachine.mit.edu),并在搜集了来自233个国家和地区的数百万参与者做出的3961万个决策分析后指出,就何人应当拥有最终决定权的问题而言,44%的民众认为应当由乘客来决定,33%的民众认为应该由立法者来决定,仅有12%的民众认为应该由制造商来决定。与民众中主要存在三种观点的分歧不同,学界对此主要存在两种意见。除部分学者认为此时应当由国家或政府通过法律为自动驾驶算法设定最低程度的道德标准外,另有部分学者认为,出于对自由意志的尊重,应当交由行为人自行选择,如Contissa教授便设计了一种装载了伦理旋钮(ethical knob)的自动驾驶汽车,以供乘客选择其喜爱的避险模式。旋钮的最左侧挡位为“利他”,即牺牲乘客以拯救他人;最右侧挡位为“利己”,即牺牲他人以自保;居中挡位为“中立”,即依据功利主义原则决策。使用者可依据乘客的数量和年龄或其他因素随时旋动旋钮,确定乘客和第三方在事故决策函数中所占的权重。我国也有学者指出,一条规则不可能适用于所有的事故场景,故需要因情境调动规则;每个有能力做出合理的道德决策的乘客也不一定采取相同的规则,人们在不同情况下会采取不同的行为。因此,最终的道德行为必须由自我而非他人做出。事故算法应遵循同时满足综合化与个性化,即调用一切伦理资源,形成备选规则库,并允许乘客自主地因情境在库内选择不同的伦理规则。持此种观点的学者认为,这一算法架构优势明显,因为其将“单一主体”替换为“多元主体”,完成了由制造商向使用者的权责让渡,凸显了对乘客自我决定权的尊重,使自动驾驶系统成为使用者道德判断的延伸,解决了自动驾驶的人工智能系统无法成为“道德决策主体”的问题。
笔者不赞成此种观点,而是认为此时应当由法律对相关程序进行强制规定。首先,就现实中可能产生的结果而言,让每一个司机或乘客都选择个人化伦理设定(personal ethics setting,以下简称PES)的做法,并不会出现这些学者期望的“采取不同行为”之景象,反而会迫使每一个人都扩大对自我安全的过度追逐,利己与利他交织成的囚徒困境将推动交通安全陷入公地悲剧。根据大众道德心理,一个人愿意牺牲自己以保护他人的前提是,他知道其他人也是利他的,他绝不会想牺牲自己去保护一些自私自利的人。在现实生活中,群体往往是由各自持有不同道德观念的个体成员组成,其中的自私主体必然会选择最有助于自身安全的道德算法。美国的社会调查结果也表明:虽然在面对撞向更多路人还是牺牲自己的选择时,大部分人倾向于功利主义的道德算法,即拯救更多的生命,但在选择购买何种算法的自动驾驶汽车时,人们又绝对倾向于购买基于自我保护算法的车,而非功利主义算法的车。故随着时间的推移,非自私的道德主体会逐渐认识到,社会上的绝大多数人都会选择利己的算法,此时如果自己仍然选择利他或公共利益考量优先的算法,那么无论他们是行人还是乘客,一旦与安置自私道德算法的汽车碰撞,其安全都将受到更大的威胁,故为了自己的安全着想,原本非自私的理性人同样会选择最有助于自身安全的道德算法,即自私的道德算法。随着选择自私的PES人数不断增加,道德主体的数量将随之减少,最小伤害总体安全的原则将渐渐失效,这最终将导致每个个体受到伤害的可能性不断增加。由此可见,个人化的伦理设定会使得每个人的安全都处在比过去更大的危险中,有悖伦理旋钮的设计初衷。正因为如此,德国学者明确指出,让每一个司机或乘客都选择个人化的伦理设定必将带来“囚徒困境”,唯有推行一种强制的伦理设定才能符合全体社会成员最大利益。
其次,从法律的角度分析,也应当由法律对其进行统一规范,让乘客自行决断的做法,其实也昭示着立法者对自动驾驶汽车“电车难题”中可能出现的各类决策放弃了法律评价。我国有学者认为,搭载伦理旋钮算法的无人驾驶汽车,车主或乘客有责任决定在突发事故情况下应采用何种伦理原则,并且能够对他们的选择负责。此种做法看似能够在事后通过对行为人施加刑罚来表明法律对其行为的否定态度,但其实已然意味着法律的无能为力。详言之,倘若法律当真希望禁止某一违法事件的发生,必然会在力所能及的范围内尽可能地避免其发生。以各类刑事案件为例,纵然行为人在事后必将遭受法律的严惩,有关部门也会采取种种措施防止案件的发生,以尽可能地在事前保护法益。当法律完全有能力阻止某一种违法行为却不去阻止的时候,只能认为其是在放任此种行为的发生,甚至可以说是以默认的方式确立此类行为的合法性。具体到本文所关注的自动驾驶汽车紧急状态,如果法律明确要求“禁止通过杀害无辜之人的方式来实现车辆使用人的自救”,则汽车制造商就无法植入以杀害无辜之人的方式保护乘客的算法,车辆也将不会做出通过违法行为而实现紧急避险的行为决定。所以,在自动驾驶中,法律的作用具有决定性,其可以完全排除不当的紧急避险行为。如果在此紧急状态中,法律没有给出强制性的禁止规定,而是任由民众自行决定采取何种决策,其实便等同于其在行为时放弃了对身处险境中的遇险人生命法益之保护。虽然在此种困境中,给出任何决定都十分困难,但这绝不是立法者放弃评价并将之交由使用者自行处置的理由。事实上,越是极端、越是棘手的情况,法律规范越应当发挥其作用,明确群己之间权利的界线,如此才更能证明其存在的价值。紧急时虽看似无法律,但恰恰在紧急事件的处理上才能够彰显国家的治理水平和治理能力。因为法律不仅具有裁判规范的功效,而且同时具有行为规范的功能,其会“引导人们做出内容正确的意愿”,确保公民能够期待人们彼此间会遵守法定的行为规范。任何一个公民能够相信,所有其他公民都会遵守规范。如果在民众最需要的时候,法律却三缄其口,不提供有效的行为指引,任由民众率性而为,反而在事后进行追责,则无疑意味着立法者向困境投降。因此,允许乘客自主选择避险方案的做法,会动摇民众对法律的信心,为本文所不取。
综上,自动驾驶车辆的研发与使用均存在巨大的潜在风险,必须将其置于特定法律框架之下。对此问题,中共中央办公厅、国务院办公厅印发的《关于加强科技伦理治理的意见》在第一部分“总体要求”中开宗明义地指出,必须“坚持依法依规开展科技伦理治理工作,加快推进科技伦理治理法律制度建设”。技术的发展的确会快于法律,却不可能超越法律,法律永远处在技术的前方。虽然国家作为最高道义主体的见解已受到挑战,但此种具有高度外部性、关系到公众安全、涉及根本利益分配的决定,仍然需要通过法律以权利义务的形式来表达和划界,乘客的自主性在这里应该让位于公共安全的考量。因此,为了避免“囚徒困境”的产生,更好地保护公众安全,维护民众对法律的信心,应当依法制定自动驾驶汽车“电车难题”情形中的算法,如此才能更好地把握碰撞算法伦理的核心问题,排除无关甚至不当因素的干扰,促进法律、伦理与科技的协同发展。
三、优先保护何人:既有自动汽车“电车难题”决策之质疑
在解决了决策主体的问题后,后续问题在于,何种决策方能符合法律规范。与传统的电车难题相比,自动驾驶汽车所面临的问题更为复杂,原因在于:第一,在部分突发情形中,因为人类驾驶员的反应时间较长,发现受害者后往往来不及反应,所以不具有结果避免可能性,只能归属于意外事件;第二,即使存在足够的反应时间,人类驾驶员为了保全自己而撞死无辜第三人的行为,也可能因不具有期待可能性而不成立犯罪。自动驾驶汽车则有所不同,其搭载的计算机系统仅需要0.2秒即可通过传感器探查到紧急情况,并在瞬间通过预设程序来决定如何行驶。因此,自动驾驶汽车同时具备结果避免可能性与期待可能性,人类驾驶员拥有的两项出罪事由在此均难以适用,其内置的预设程序不仅决定了何人会在事故中丧命,而且涉及相关主体是否需要承担刑事责任,有必要详细探讨。
(一)乘客并不具有优先保护性
从数量上看,大部分学者均认为应当无条件或附条件地优先保护乘客的性命。如有学者从可行性的角度指出,在业务上,生产者负有保护乘车人生命安全的特别义务,法律并不能期待生产者为保全车外人员的人身安全而给出牺牲乘车人生命的判断,故其理应以车内人员的生命安全为第一顺位。如果法律一方面赋予了人们通过驾驶高速车辆给公众施加风险的权利,一方面又不优先保护乘客,其实就使得人们在事实上无法选择风险显著更低的出行方式,故法律应当允许自动驾驶车辆在紧急情况中优先保护乘客,从而使得这项技术具有现实可行性。另有学者从法理的角度提出了反对通过牺牲乘客来解决碰撞难题的三点理由:首先,优先保护乘客符合利己主义的道德观,这不仅是一种主观的偏好,而且是建立在自我保存的原则之上,正是后者构成了法律规则的基础;其次,从反面来说,自我牺牲是超越职责之外的个人美德,不是一个基本的道德义务,尤其不适合作为法律和伦理规则的基础;最后,从后果主义来考虑,自动驾驶汽车的产业化是一个更大的利于社会发展的行为,拒绝自我牺牲式的选择是实现该技术的必要条件。
然而,上述观点显然值得商榷。
一方面,就可行性而言,前述学者的观点均难以成立。
首先,前述观点是以期待可能性为由,认为制造商不可能牺牲乘客的性命,但是在三阶层的犯罪论体系中,不具有期待可能性同时意味着该行为是违法的,只是因为在法律上无法期待其此时实施其他适法行为而能够阻却责任,但如前所述,法规范不可能允许一个内置了违法程序的车辆上路。因此,以制造商不具有期待可能性为由论证应采取优先保护乘客的观点,其实已经默认了此种程序的违法性,这与前述认为该程序合法的观点显然存在自相矛盾之处。
其次,这些学者认为“制造商不具有期待可能性”的观点也并不准确。因为制造商在决定时并未面对生命危险,也没有处于一种恐慌的状态之中,其完全是为了追逐更高的经济利益才设计出此种置他人生命于不顾而优先保护乘客的程序,可以预想到的是,与设置优先保护乘客的程序相比,设置其他程序将会大大降低车辆销量,致使生产厂商中员工的收入下降甚至因公司破产而失业,但纯粹的经济利益显然难以与生命、身体等法益相提并论。因此与这些学者所言相反,在学界目前对期待可能性适用范围日趋缩小甚至倾向于否定的情况下,规范上应当认为法律完全能够期待生产者为了保全无辜之人的性命放弃经济利益,即对其设置“牺牲乘车人保全车外人员人身安全”之程序具有期待可能性。
再次,诚如这些学者所言,生产者对乘车人员的生命具有特别的保护义务,但不能忽略的是,其对于其他交通参与者的生命也具有不得侵犯的义务。换言之,保护义务要求的仅仅是制造商应当在乘客遇险时对其伸出援手,鼎力相助,却并未赋予其为了保护乘客而杀害无辜路人的权力。学者此处仅以具有特别保护义务推导出应当优先保障乘客的性命,却忽略了其同时肩负的其他义务,存在以偏概全之嫌。并且,法律虽然赋予了人们通过驾驶高速车辆给公众施加风险的权利,却并未赋予其在紧急情况下能够合法杀害无辜路人的权利,因为在任何社会,一种行为的危险被允许,都不意味着侵害结果被允许。例如在传统道路交通中,驾驶机动车的一般危险是被允许的,但其致人伤亡的侵害结果却无法被允许。因此,从危险被允许直接得出侵害结果也被允许的结论,缺乏论证过程与理论根据,同时有偷换概念的嫌疑。
最后,不设置优先保护乘客的程序,并不会影响自动驾驶汽车的销售与发展。科学研究表明,目前90%左右的交通事故都是由于人类不当操作所引起的,而自动驾驶技术显然会降低甚至消灭此类事故的发生。即便自动驾驶汽车并未配置优先保护乘客的算法,使用者也能够认识到,相对于人类驾驶员的不当操作而言,紧急状态终究是极为罕见的,在自动驾驶汽车安全系数显著高于传统车辆的前提下,如果民众都选择购买自动驾驶汽车,整个交通环境的安全系数仍然会高于人类驾驶汽车的情境。此外,虽然绝大多数民众都可能乘坐自动驾驶汽车,成为被优先保护的对象,但其必然能够考虑到,自己在马路上行走,成为潜在被侵害者的时间会多于坐在汽车内成为潜在被保护者的时间,因此从概率上分析,选择不设置优先保护乘客的程序的自动驾驶汽车更有利于保障我们日常生活中的出行安全。总之,只要民众知晓自动驾驶汽车与交通安全的真实关系,无论内置何种避险程序,都不会妨碍其购买并乘坐自动驾驶汽车,更无所谓阻碍其行业发展。
另一方面,前述学者从法理角度给出的依据也值得怀疑。
首先,这些学者完全是从乘客的角度进行分析,却忽略了无辜者的利益。既然自我保存原则是法律规则的基础,为何此处只能为乘客提供自我保存,而不是为其他人提供自我保存?此种观点与前述观点一样,存在以偏概全之处。
其次,紧急状况时不对乘客进行优先保护,并非让其履行超出承受范围的“善行”,而是法律的应有之义。从规范上分析,乘客明知自动驾驶车辆上路行驶后,遇到紧急状况时会以他人生命为代价实施避险行为,却仍然启动并驾驶车辆,并导致他人死亡的,其实完全符合故意杀人罪的构成要件,其也已然成为施加风险的一方,是侵害他人生命的“危险源”。在传统交通事故如“甲驾驶车辆因不可预见的刹车故障撞向乙”的意外事件中,乙尚且能够对其进行防御性紧急避险,那为何在“甲驾驶内置了避险程序的车辆在紧急状态下撞向乙”的故意杀人事件中,乙反而不得对其进行任何防御行为?并且,在自动驾驶汽车的场景中,正是车主把这辆车带入了公共空间,其并非处于置身事外的中立地位,而是与风险存在直接的因果联系,甚至可以说是风险的创设者之一。作为车辆的所有者以及自动驾驶汽车便利的最大受益者,在遭遇危难时却将所有的风险分配给别人,自己则置身事外,显然有违公平正义原则。德国学者对此明确指出,既然自动驾驶汽车的乘客已经享有了便利,为什么在紧急状态时他们还可以再次让没有参与道路交通的第三者为他们的技术优势承担代价呢?我国也有学者认为,受益于该标准的主要是生产者,使用者居中,受害的主要是公众,让生产者获得主要利益且不承担安全管理义务,却将风险转嫁到他人身上,这种利益和风险分配方案明显是不公平的。因此,不对车主提供优先保护并非强人所难的让其进行“纯粹的、高尚的为了救助他人、舍己为人的自我牺牲”,而是法律公平正义的基本体现。退一步而言,即便认为此时的车主已经成为纯粹的乘客,是事故中的无辜旁观者,车主也并不具有被优先保护的权利。因为其他的道路交通参与者同样也是无辜的旁观者。如果仅仅因为他们是旁观者就有理由被牺牲,那么同样作为旁观者的乘客,自然也应该在被牺牲的候选者之列。换言之,“无辜的旁观者理论”只能够推导出所有无辜旁观者都应当得到同等程度保护之结论,其并非推断出乘客应当被优先保护的理由。
最后,降低车辆消费兴趣等并不能成为程序设置“经不起推敲”之理由。如诸多学者所言,此种做法的弊端多在于“降低销量”,从而引发大众对无人驾驶车辆的购买拒斥。但既然我们讨论的是法律问题,便理应从法律的角度去判断其是否经得起法条与法理的推敲(即该程序是否符合现行法),而前述学者的观点显然是以不符合经济学原理推导出法律上不应当采取此种做法,缺乏内在的逻辑关联。法律确实需要考虑经济因素,但资本不能凭借其经济优势,在其他具有非经济属性尤其是法律、政治、文化、教育、医疗等关乎国计民生的重大领域取得话语权和支配权。虽然大部分民众都可能乘坐汽车,但终究有少部分经济困难的民众无法承担,若优先保护乘客,则他们将完全沦为自动驾驶汽车保护乘客的受害者。如此做法,已然有违我国《宪法》第33条规定的平等原则。因此,在此种关系到个人基本权利与公共安全的重要场合,必须根据法律规范进行相应判断,不能任由资本把持。
总之,乘客优先原则不但缺乏法理上的依据,而且会将原本无辜的路人卷入车祸,以其他民众的生命作为保障自己安全的工具,严重侵犯了人性尊严,因而并不可取。
(二)功利主义在逻辑上自相矛盾
除了优先保护乘客外,还有少数学者认为,应当设置一种功利主义程序,以保护更多的民众。前述“道德机器”调查结果也表明,绝大部分受访者都倾向于功利主义的道德算法,即拯救更多的生命。德国学者Hilgendorf教授在探讨了各种情形后无奈地指出,为了拯救多数人而杀害一个人并不能够被合法化,但我们在道德和法律上都有义务尽量减少死亡人数。不过,各国通说均认为,生命是人格的基本要素,任何个体的生命都具有最高价值,其本质是不可能用任何尺度进行比较或衡量的,故法秩序不允许将人的生命作为实现任何目的之手段。因此,紧急避险可以损害的权益中并不包括第三人的生命权,对生命的紧急避险不能阻却违法。即便是认为自动驾驶汽车撞击数量较少的路人能够阻却违法的学者也明确指出,此种功利主义程序是一种典型的生命衡量,因而至少难以通过紧急避险理论来阻却违法。
为了避免遭受传统功利主义紧急避险所面临的“将生命换算为数字”和“将不同个体的生命价值进行衡量”等诟病,部分学者从自我决定权出发,借助“无知之幕”论证在此情况下,功利主义程序能够得到民众的认可。如我国有学者指出,在传统的电车难题中,保护多数人的对生命紧急避险是不被允许的,否则“禁止量化人生命的立法价值决定就会受到损害”,但在自动驾驶的情况下,基于人工智能的前置程序,其选择撞向少数人则是被允许的。理由在于,功利主义算法设计与电车难题中的功利主义抉择存在区别:在前一种情境中,道德抉择是预先给出的;在后一种情境中,道德抉择是当下给出的。从事前视角看来,预设者并不知道在未来的事故中谁将站在多数人一方或少数人一方。在“无知之幕”的遮蔽下,这种预先行动并没有牺牲某个特定的少数群体,而是倾向于提高每个人的生存概率。换言之,预先设定功利主义算法的理由不是“为了提高多数人的安全”,而是“为了提高每个人的安全预期”。从事前的角度来看,社会中的每一个人都能从中获益,而事故和死亡人数的总体减少最终降低了人们自己成为事故牺牲者的概率。在每个人因同意该原则而获取的收益大于因同意该原则对其自身造成的危险时,“无知之幕”后的理性人为了个人利益最大化,会同意承受该风险。德国学者Schuster对此指出,如果一个编程人员降低了每个个体成为受害者的风险,而这种风险在之前就已经被人们所接受,且实际上也不存在其他更好的选择时,他实际上没有制造任何被法律所禁止的危险。
不难看出,这些学者的观点是建立在“无知之幕”的基础上,即认为其背后的理性人既然无从知晓自己到底站在哪一方,就必然会选择提高自己的生存概率,因而会赞成预设功利主义算法。但此种解释同样值得商榷。
首先,“无知之幕”后的理性人未必会给出放弃生命之承诺。第一,依据罗尔斯的设定,“无知之幕”排除了所有有关可能性的知识,各方没有决定他们在其中的地位的任何基础。这样他们就没有概率计算的基础。他们不仅不能推测环境的可能性,而且不怎么了解这些可能的环境究竟是什么,更不能列举它们和预见每种可能选择的结果。在此种对于社会环境一无所知的情况下,理性人只能够设想自己在成为被选中的不幸者时,如何才能够最大限度地保全自身法益,而无法设想自己有多大概率成为不幸者。这些学者一方面在“无知之幕”的语境下进行分析,一方面却违背了“无知之幕”的设定,有自相矛盾之嫌疑。第二,根据“最大最小值”原则,理性人并不会盲目地追求可能获得的最大收益,而是会设想在各种情况中自己将会承受的最坏结果,并在其中挑选一个“最好的”结果,以最大限度地维护自己最基本的利益。罗尔斯指出,“无知之幕”后的理性人,会承认一种相互帮助的义务(the duty of mutual aid),即虽然在一些特殊场合中,我们会被要求做一些不是为了我们自己利益的事情,但从正常环境里的长远情况来看,最终平衡起来可能还是有所获益的。但是,生命作为不可恢复的法益,公民一旦选择“慷慨赴死”,便再也没有机会去换取将来的避险利益,此种承诺也就成为了“单向牺牲”而非“互帮互助”。在此情况下,其是否会为了追逐虚无缥缈的存活概率做出放弃生命的承诺,着实值得怀疑。换言之,在事关身家性命的情况下,理性人并不会如经济投资般盲目追逐最大的期望值,而是会谨慎地思考各种对自己最为不利的结局,并在各种可能出现的最为不利的结局中,挑选出一个对自己最有利的结局,尽可能地保全自身利益。因此,在仍然有希望保全性命的情况下,危险共同体中的成员不可能做出牺牲自身性命之承诺,而是会力求尽可能地保全自身性命。前述学者认为理性人会为了“提高生存概率做出放弃生命承诺”之观点,已然超出了“最大最小值”原则中最小值的限度,有违其基本原理。第三,若依照前述学者的观点延伸,则在所有生命冲突的案件中,人数较少的一方都会同意他人将自己杀害,但问题在于,当双方人数相等时又当如何抉择?此时是杀害任意一方皆属合法还是皆属违法?对此问题,这些学者却没有给出合理的解释。由此可见,该理论不能够解决所有生命抉择的难题。
其次,退一步而言,即便“无知之幕”后的理性人会承诺放弃生命,基于生命法益的重要性,得承诺的杀人行为在我国也难以阻却违法。通说对此明确指出:得承诺杀人的,应成立故意杀人罪,只是可以考虑从轻处罚。我国司法实践亦无争议地认为,得承诺的杀人仍属违法。由此可以看出,生命法益作为最为珍贵的法益,法律上给予了特殊的保护,除非无辜第三人主动放弃(自杀),否则任何人都不得予以剥夺,故即便得到理性人的承诺,也只能够使得他们生命的要保护性降低而非完全丧失。相应的,乘客为了保全自身性命而撞击无辜第三人致其死亡之行为,也应当成立(得承诺的)故意杀人罪,而不能阻却违法。
最后,再退一步讲,即便基于极端的自我决定权认为,得承诺杀人能够阻却违法,此种逻辑也难以说明,为何同样是牺牲少数群体,在紧急状态下的抉择便会遭受质疑,而预先设置程序就能够避免质疑,因为依照前述学者的观点,则所有“生命抉择”均能够合法化。详言之,前述观点的逻辑在于,从事前视角看,预设者不知道在未来的事故中自己将处于哪一方,故为了提高每个人的安全预期,必然会事先同意此种功利主义算法。但依此逻辑,理性人只要认识到自己身处风险社会之中,便能够预见自己未来可能会处于被牺牲的位置,而由于“无知之幕”对于自身讯息的屏蔽,其又不会知晓自己到底是处于哪一方,故每个人都会事前在“无知之幕”后给出“面对危难时若自身处于人数较少一方,便自我牺牲”的承诺,以此换取“面对危难时自身处于人数较多一方”时的生存机会,提高自己在紧急状态中的存活概率。由此,即便行为人是在紧急状态下临时选择“为了保护多数人将少数人杀害”,也将因为得到了“无知之幕”后理性人的同意而能够阻却违法,所有符合功利主义的对生命紧急避险都可以被正当化,电车难题也将迎刃而解。但诡异的是,相关学者却均认为传统的“对生命的紧急避险”仍然是“对生命进行了衡量”,因而难以阻却违法,足见其并未将自己的逻辑一以贯之,无法自圆其说。
综上,功利主义程序在逻辑上存在诸多矛盾之处,也难以解释自动驾驶汽车紧急状况与传统电车难题之间的差异,更可能为不法分子刻意利用,让其沦为故意杀人的工具——如不法分子试图谋害某人,便可以纠集一群人突然冲到这种汽车前面,汽车可能会突然急刹或转向,并造成车内或其他人员死亡,因而殊不可取。
(三)综合考量说完全忽略个体差异
为了避免遭受功利主义“为生命定价”的诟病,部分学者在其基础上进行了改良,提出了各种不同的掺杂了多种计算方式的“综合考量说”。例如,有学者借用医疗分配伦理中的健康收益指标QALYs损失(Quality-Adjusted Life Years,质量调整生命年,QALYs损失=预期寿命损失×生活质量损失)以估算事故对各方带来的预期健康损失,并认为应当优先保护损伤更大的一方。甚至有学者为解决前述两难情形而引入了定性要素,即潜在牺牲者的年龄,并认为应当优先顾及儿童,理由在于其还应当享有人生经历的机会,而年纪较长的人已经拥有过这些人生经历了。与之类似, Derek Leben教授在前述“无知之幕”的基础上,进一步援引罗尔斯《正义论》中的“最大最小值理论”提出了一种“最大最小值决策”,即在借助自身速度、撞击角度、涉事人员的身体状况计算出每个人生存概率的基础上,优先保护生存概率最小的一方,以此尽可能保护民众的性命,例如将案例2的选项改为:选择1,即撞击左侧非机动车道上未佩戴头盔的两名骑手(重伤率为80%、80%,死亡率为60%、60%);选择2,即撞击右侧非机动车道上佩戴头盔的三名骑手(轻伤率为50%、50%、50%,死亡率为30%、30%、30%)。
按照传统的功利主义算法,因为右侧骑手数量多于左侧,汽车应当向左行驶,撞击左侧的两名骑手。但依照综合考量说,虽然右侧骑手的数量多于左侧,但前者无论是健康收益指标损失还是死亡概率均大于后者,故系统会选择撞击右侧的三名骑手。然而,此种算法显然也存在诸多弊端。一方面,该程序并不符合我们的道德直觉——一个遵纪守法的车手负责任地戴上了头盔,却要受到预设算法的惩罚,不戴头盔的违反规则者反而因此受益,这明显有违“任何人不得因违法行为而获利”原则。另一方面,这种“算法歧视”可能产生不良的社会导向。此种纯粹基于生存概率考量的程序,强行将自我保护措施的加强与死亡风险挂钩,越遵守安全准则、越注意保护自己的个体反而越可能因为拥有更低的死亡概率而被撞击,从而陷入死亡威胁,其实是在安全问题上鼓励冒险和鲁莽,将迫使道路交通参与者为了不被当成“活靶子”而刻意降低其道路安全防护措施,如不佩戴头盔等必要护具、不系安全带等等,长此以往,终将形成劣币驱逐良币的恶性循环,社会总体也会陷入“没有不危险、只有更危险”的绝境,最终导致参与者因为其他各种原因致使自身法益遭受损害,反而不利于保护他们的法益。
为了避免此种弊端,部分学者提出了“伦理的最大最小值算法”,即在算法设计的过程中,对违规的行人降低其计算分量,让违法的行人为碰撞结果承担责任,或者根据社会主流的价值判断与价值选择,对均等化分配风险之基准进行修正,例如增加未佩戴头盔者的被撞概率,以提高另一方的生存概率。诚然,此种算法能够避免前种做法中在道德方面产生不良导向的后果,却同样存在诸多问题。一方面,是否只要他人具有轻微过错,即便无过错方存活概率极高,也需要承担全部的碰撞结果?由此,“伦理的最大最小值算法”便陷入了一种两难的困境:如果需要,则此“综合考量说”毋宁改为“过错者承担说”,而此种“过错者承担说”又必将产生另一个问题,即既然是综合考量,为何在他人仅具有轻微过错的情况下,就需要承担全部的碰撞结果?如果不需要,则在何种程度过错的情况下,才需要承担全部结果?遗憾的是,对这两个与决策合理性息息相关的问题,学者却并未给出任何有力的回答。另一方面,与案例1有别,选择1中骑手所谓的“过错”只是疏于对自己的保护,其并未侵入他人的权利空间,也没有给他人行驶自由造成任何阻碍,故该骑手在法律上的要保护性并未下降,其也并不具有忍受他人消除障碍行为的“容忍义务”。既然如此,决策的制定者又凭什么增加其被撞击的概率,让其承受更高的风险?
并且,无论这些学者将多少种因素进行“综合考量”,该说都存在一个重大问题:纵然诸多学者巧妙地将“生命数量”用“生存概率”“质量调整生命年”等词汇进行包装,但与前述“功利主义”一样,此种观点在本质上仍然是“将不同个体等同视之”后,对他们的生命或重大身体法益(包括生存概率与生活质量)进行了比较衡量。问题在于,此情景中的避险人与被转嫁危险的被避险人终究是两个各自独立、完全不同的生命个体,此种将二者进行衡量的做法,剥夺了不同个体间所有互相区别的特征,不可避免地导致对个人的消解以及对个人责任与道德选择的否定,使得人与人之间的差异荡然无存,让人不再是一个个特定且独立的个体,沦为社会中可复制的产物,最终是与人的尊严相抵触的。因此,除非我们承认“生命不可通约”不再是一个不可逾越的原则,否则一切对不同个体进行比较的做法,都无法避免“侵犯人性尊严”的诟病,也就难以阻却违法。
(四)随机模式超越法律底线
还有部分学者在认识到既有算法均存在问题后,无奈地指出,在此种情况下,与其滥用理性去追求一个可能是对的原则(即多数原则),不如退而选择一个并非错误的原则,即采取一种随机的抉择方式,由随机生成器决定,并认为此种将命运交给“上帝”的做法可能才是最公正的。类似的,也有学者认为,如今的人工智能已经能够让自动驾驶汽车在运用过程中自主学习,故可以考虑让其进行深度学习后自行决定采取何种道德算法,即将最终结果交由机器自行决定。
然而,此种做法也值得商榷。第一,作为与民众性命息息相关的高危产品,自动驾驶汽车的算法理应具有最高的透明度。2021年9月25日,我国国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,其第12条明确规定,要“增强安全透明。在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性、可靠性、可控性……逐步实现可验证、可审核、可监督、可追溯、可预测、可信赖”。此种“随机模式”或让机器自主决定的做法,不但有违前述规范中人工智能系统可预测的强制性规定,而且使得人们根本无从预测自动驾驶汽车的下一步行动,若此种程序被安装在自动驾驶汽车上,则每一个在道路上的路人甚至乘客随时都可能成为自动汽车紧急避险的牺牲品。为了规避潜在风险,民众只能被动给出远高于算法设计所需要的让步,从而导致个人权利空间被压缩。第二,研发自动驾驶汽车的初衷就是其在道路行驶过程中能给出比人脑更好的选择,能够有效规避人类因为分神或酒驾等因素造成的90%以上的交通事故,从而更好地保护民众的生命。如果选择随机的决策方式,反而可能造成更多无辜之人丧生,这已然与自动驾驶汽车产业的设立初衷背道而驰。第三,在某种程度上而言,采取随机模式或者让机器自行决定,其实同样意味着立法者在此问题上放弃了法律评价,但对于一条条鲜活的生命而言,此种放弃努力,将之交由机器随机选择方案,显然是不够慎重的。正如美国麻省理工学院情感计算研究部创立者Picard教授所言:“机器的自由度越大,就越需要道德标准。”因此,即便是出于人道主义或者对生命本身的尊重,也不应当将生命处分权与人身自由等重大基本权利的事项交由算法系统决定。
最后必须指出的是,以上学说除了前述各自的弊端外,还存在一个共同的疑问。我国《刑法》第21条第2款明文规定,“紧急避险超过必要限度造成不应有的损害的,应当负刑事责任,但是应当减轻或者免除处罚”。通说认为,在紧急避险中,对生命的紧急避险难以阻却违法。以电车难题修改版为例,假设在一个电车轨道上有五名工人在施工,无法躲避即将被电车碰撞。天桥上有两个人正在看风景,其中一个人的体重正好可以阻挡列车的行进。在这种情形中,所有学者都认为,将该体重较大者推下桥的做法并不合法,因为此种行为让一个与危险完全无关的人陷入了危难。那么为何在自动驾驶汽车的电车难题中,为了保护处于危难中的民众(包括乘客以及处于危险中的路人),撞击原本与危险完全无关、并未处于危难中的无辜第三人之行为便能够阻却违法?难道仅仅因为做出决定的时间不同、实施的主体不同,便能够将侵害无辜第三人性命的行为转变为合法行为?其背后的法理依据何在?
对此问题,我国有学者认为,“为了挽救5个工人将电车转向撞死1个工人”的“效率版电车难题”与“为了挽救5个工人将1个人从桥上推下去阻止电车前进”的“公平版电车难题”并不相同,因为前者发生在一个相对封闭的事故场域,被撞死的工人原本便处于危险领域之中,不会造成失控性的外溢;后者则是一种危险场域的扩张,因为其将一个局外人也卷入了事故。但是,此种观点显然不具有说服力。一方面,即便是在“效率版电车难题”中,另一条道路上的那名工人原本也并未处于危险之中,而是与“公平版电车难题”中的体重较大者一般,并没有面临任何危险,是司机的转向行为将其从安全的境地拖入了危险,就此而言,他其实也是一个彻彻底底的局外人,而不是该学者所谓的已然处于危险领域之中的“危险共同体”中的一员。另一方面,如果以“工人虽然身处另一条道路上,但仍然具有可能被撞击的风险”为由认定其处于危险领域之中,那我们就并无理由否认,路旁的行人甚至附近所有的交通参与者都处于危险领域中,如此做法必然会使得危险领域被无限扩张,想必该学者也不会认可此种观点。由此可见,对此“在规范构造完全相同的情况下,为何传统电车难题与自动驾驶汽车电车难题会产生截然不同的结论”之重要问题,持合法说的学者或避而不谈,或没有给出合理的解释,这也就使得其制定出的决策之合法性存在重大疑问。
四、不应紧急避险:自动驾驶汽车“电车难题”困境之解答
从笔者搜集的资料分析,绝大部分学者认为,自动驾驶汽车在遭遇“电车难题”之时,应当实施紧急避险,并在此基础上设想出了各种碰撞算法。但在此之前,首先要确认的是,此类情形中是否真的应当实施紧急避险以及是否有必要据此预设碰撞算法。在案例2中,按照事故走向预测,将在意外事故中不幸丧生的是甲、乙,而不是其他无辜行人。正是安装的算法,使得无辜路人与甲、乙的位置发生了互换,并让路人最终遭受死亡的结果,即基于紧急避险的算法操纵了他人的生死,如此一来,每个公民都可能沦为用于消除他人死亡危险的被害人,这不但是法秩序所无法允许的,而且是法律与公众所难以完全谅解的。
因意外而遭遇交通事故,本就是现代社会中需要由个体自行承担的风险,倘若任何公民都可以将这种风险在不同的交通参与者之间进行转移,那么公共交通领域必将陷入人人自危的恐惧之中。按照此种逻辑继续延伸,将会得出极为可怖的结论——根据举重以明轻原则,既然法秩序容许一方在他人毫无过错的情况下,合法地剥夺其作为“人类所有法益之根本”的生命,就更没有理由保护价值位阶更低的其他法益。因此,一旦允许此类行为发生,就会导致公民安全感和社会信赖感的崩塌,这无疑会给规范秩序的效力造成沉重打击。并且,一旦承认自动驾驶汽车对生命紧急避险的合法性,势必会与传统的紧急避险理论产生不可调和的矛盾,人们可以对此提出诸多质疑:比如,为什么自动驾驶汽车可以设置程序改变方向来救五个人,而外科医生不可以用健康人的器官来救五个人?
认为此时必须紧急避险的学者,其实忽视了人的有限性,其没有看到人们在诸多冲突中根本不可能实现两全其美的结果,而只能是落入有得有失、善恶交织的悖论性结构。应当认识到,由于种种不可抗拒的自然原因与人为原因,总会有人遭遇各种不幸。法律也并非万能,没有必要对一切事件都加以干涉。面对此种困境,只需要遵守不可害人的正义底线,尽力防止和严厉惩罚任何侵犯他人权益的罪行,而不应当设想对所有行为进行干预,从而将一个无辜者仅仅当成了工具,罔顾其生命权益,这一行为的严重性是拯救再多的人都无法弥补的。如果认为自动驾驶汽车版“电车难题”中以牺牲无辜第三人为代价来拯救多数人命运的行为是合法的,则紧急避险理论将完全沦为具文,这种“拯救”行为反而会彻底打乱法和平,这才是应当被刑罚所制裁的,此类行为无法以“紧急避险”理论消解其违法性及可责性。
综上,自我决定权的反面就是自我答责,自治既意味着自我决定,也意味着自负其责。既然乘客在其权利空间内,不受干扰地按照自己的意愿选择了乘坐自动驾驶汽车,就必须承受该权利空间可能产生的各种意外风险,在遭遇紧急状态时,他们没有权力将自己面临的危险转嫁给无辜第三人,无辜第三人也没有牺牲自己的生命权益去保护他们生命法益的义务。拒绝“杀一救百”虽然导致了更多人生命的毁灭,但该行为不论是在法律上还是在道德上都正确。因此,自动驾驶汽车在面对文中案例2类“电车难题”时,合理且能采取的是用算法设置减速程序,同时尽可能配备更为可靠的保护设施,以尽可能减少撞击对双方造成的损失,而不应设置紧急避险程序,并称其为“道德算法”,将灾难转嫁给无辜路人,因为决策的制定者与路人一样,都只是普通的个体,无权决定无辜者的生死。
来源:《政治与法律》2025年第6期“争鸣园地”栏目
作者:魏超,苏州大学王健法学院副教授、法学博士