作者:尚权律所 时间:2025-10-17
摘要
近年来,以算法、算力和大数据为基础的新一轮人工智能浪潮的兴起为建构更加完善的人工智能量刑系统带来了新契机。人工智能辅助量刑不但能够提升量刑的客观性、高效性、精准性,而且还能够优化量刑的犯罪预防效果。然而,人工智能辅助量刑系统还处于技术探索阶段,面临着一系列技术、法治和伦理上的异化风险等问题。对此,应当明确人工智能辅助量刑的案件适用范围,将轻罪案件交由人工智能辅助量刑系统处理,而复杂的、疑难的、新型的案件由法官量刑。针对人工智能相关算法决策引发的一系列问题,设立算法审查委员会对量刑的算法系统展开审查;建立完善的案例筛选和公开制度;应用相关技术手段,以技术治理技术,有效地提升人工智能量刑算法的公正性和可靠性。保障当事人的诉讼权利,赋予当事人知情权、选择权、算法解释权;发挥审级制度的纠偏作用;为当事人提供专业援助,充分保障当事人的诉讼权利。人工智能辅助量刑导致的偏误,其主要责任法院承担,从而提升担责机制的合理性。
关键词:人工智能;辅助量刑;量刑规律;算法规制
随着大数据、云计算、深度学习等技术取得突破性发展,人工智能开始被应用于教育、医疗、政府治理等领域,从而为这些领域的智能化转型提供了强劲的驱动力。受此影响,人工智能开始介入司法裁判领域,其被视为提升司法裁判高效性、公正性和透明性的技术变革手段。利用人工智能系统展开量刑无疑是人工智能介入司法裁判领域最具代表性和挑战性的改革尝试:一方面,人工智能量刑具有结构化、可计算的特质,其通过量化赋值展开决策的技术特征具有天然的契合性,被认作是司法人工智能技术应用的主要突破领域;另一方面,量刑不但关系到被告人的人身自由、财产等基本权利,还关系到人权保障、社会稳定等与国家长治久安密切相关的重大问题,呈现出高度的专业化和严肃化特质。因而,将人工智能应用于量刑领域也是充分考验人工智能的科学性、稳定性与可信赖性。
我们分析相关研究发现:一方面,绝大多数学者的关注焦点都集中于人工智能在司法领域的运用这一相对宏观问题层面,仅将人工智能辅助量刑问题作为整体分析的简单例证。这样的分析显然无法帮助我们较为深入和精准地把握人工智能辅助量刑的特质及其实际应用中所面临的具体困境。另一方面,少数专门研究人工智能辅助量刑的文章往往关注人工智能辅助量刑在某一具体方面的问题,如违背程序正当性要求、量刑系统应用边界如何设定、与人类法官的主体性冲突等。由于这些研究没能从可信赖角度系统审视人工智能辅助量刑的意义与风险,因而,所提出的应对人工智能辅助量刑风险的方案往往缺乏全面性和可行性。鉴于此,本文从量刑这一典型的司法人工智能决策领域入手,系统研究人工智能辅助量刑可能发挥的空间与发展瓶颈并努力提出具有针对性、系统性和全面性的应对方案,从而希望能够为人工智能辅助量刑的良性发展提供有益的路径引导。
一、人工智能辅助量刑的正向效应
早在2004年左右,我国山东淄博、江苏姜堰等地区法院就开始探索使用电脑辅助量刑以规范法官的量刑活动。彼时的电脑量刑系统通过以代码复刻法律规范中相应量化指标的方式建构量刑模型,并将这一模型用于待决案件,以此实现自动量刑的目的。但是,这种单纯复述规则的量刑系统无法有效应对法律概念、规则和原则的开放性、歧义性、流动性,以及量刑情节的多样性、新颖性、变动性,最终因过于机械化的电脑量刑尝试逐渐走向没落。近年来,以算法、算力和大数据为基础的新一轮人工智能浪潮的兴起为建构更加完善的人工智能量刑系统带来了新契机,人工智能量刑系统建构路径的基本原理是通过神经网络技术和深度学习技术对海量的裁判文书展开深度学习,发掘文书中法官量刑的规律,并以此为基础建构用于对待决案件展开量刑的决策模型。在这一系统建构完成后,设计者还会通过实践调试以及输入新的数据集的方式,不断更新迭代算法的运算逻辑,从而提升人工智能量刑系统量刑结论的准确性和可靠性。实践表明,人工智能量刑系统在提升量刑的中立性、高效性、精准性等方面优于法官量刑,这些优势表现在以下三方面:
其一,人工智能量刑能够有效提升量刑的中立性和客观性。由于个案的具体性和特殊性,无论是刑法条文还是量刑规范,都只能规定一个量刑区间。在这一区间内,法官需依照案件的具体情节展开裁量以确定刑期。由于没有明确的裁量参照,在具体量刑实践中,法官不但容易受到人情、金钱等外部因素的影响,还可能会受到个体的道德观念、知识背景、情感偏向等隐性因素的影响,从而做出具有偏向性的量刑抉择。对此,拉伦茨指出,“对于量刑而言,当遭遇司法裁判不确定的法律概念或评价标准的判断余地时,法学的主要任务之一便是尽量缩小法官决定的空间,也即在此范围内,法官只需做出决定”。
人工智能量刑具有自动化的特质,一旦待决案件信息被输入,便会以一套事先确定的、经过可靠性验证的标准对案件展开自动化量刑。这样的量刑方式能够有效杜绝人为干预司法量刑的可能性,从而以技术理性规制了司法自由裁量,保障了量刑的中立性和客观性。例如,斯凯姆和洛文坎普在对美国用于评估罪犯再次犯罪可能性的人工智能系统(Post Conviction Risk Assessment,PCRA)是否存在歧视现象展开研究后指出,“证据表明,和具有不透明、不一致、不准确的人类法官以及已经被证明会助长种族歧视的量刑指南相比,PCRA程序不会导致对高风险罪犯判处更多的刑罚。并且没有任何证据表明,当前让人类法官抑或通过量刑指南评估再犯风险比应用一种经过充分验证的、不带偏见的风险评估工具更加明智和可取”。
方案其二,人工智能量刑具有高效性和精准性的特质,能够有效提升司法量刑的效率和质量。对于量刑工作,法官不但需要遵循繁琐的量刑程序,还需要投入大量的时间用于重复性、机械性的刑期计算和说明。这不但降低了司法效率,也增加了诉讼参与人员的诉讼负累。人工智能系统凭借数据存储和算力优势,通过机器学习的方式复刻规范化的法官量刑过程,将这一模型应用于待决案件,可以在短时间内自动得出量刑结论,有效提升司法量刑的效率。司法实践中,海南高院运用“量刑规范化智能辅助办案系统”裁判案件和制作法律文书,其数据表明,这一系统将15家试行法院量刑规范化案件的裁判时间缩减了约50%,程序性法律文书的制作时间更是缩短近90%。
人工智能在实现高效性的同时,还凭借其科学化量刑的优势,保障量刑的确定性和精准性。司法实践中,刑期往往不是根据单一的情节确定的,而是多种量刑情节综合考量的结果。限于立法的概括性、简洁性和包容性,其只能列举出单一的量刑情节区间,而不可能对海量的量刑情节组合作出规定。规则的真空决定了法官的量刑多是一种具有模糊性的估堆行为,法官在自由裁量活动过程中充满随意性和偶然性,由此造成具体刑期的不确定。人工智能系统的量刑逻辑是依靠强大的算法和算力,对裁判文书海量数据展开深度学习,并通过多元线性组合模型的建构,全面考量各量刑情节在量刑结果中应当占有的比重。在此逻辑下,人工智能系统能够精确量化被告人犯罪行为和刑期之间的关系,从而有效避免法官估堆量刑的不确定性和非理性化风险。例如,白建军以十四万余份的道路交通肇事案件为样本,利用多元线性回归法建构了法定量刑情节与量刑结果之间关系的统计模型,其结果表明,这一关系模型可以有效预测具有多个法定量刑情节的交通肇事案件的量刑结论,其将量刑的确定性由原来的30.5%大幅提升到了73.4%。
其三,人工智能量刑具有预测性,可以有效发挥量刑在实现一般预防与特殊预防中的作用,从而降低羁押率和犯罪人的再犯风险,减少社会相关犯罪行为发生的概率。对于特殊预防,法官不但需要考察犯罪人犯罪前后的相关表现,还要考虑其人格、知识水平、家庭状况等因素;对于一般预防,法官则需要关注量刑是否能够有效抑制民众对相关犯罪行为的模仿心理、能否实现民众对法律规范的信赖感和对犯罪报应的满足感最大化。司法实践中,由于刑事司法的被动性、司法资源的匮乏性、法官认知的有限性以及司法裁判的时效性,法官往往很难全面发掘、科学评估与犯罪人的人身危险性相关材料,也无法获得和参照“刑期轻重与一般预防效果之间相关关系”的科学模型,因而多数情况下法官只能凭借经验展开模糊量刑,这就容易造成量刑的不确定性,进而削弱量刑的预防效果。
随着信息社会的到来以及人工智能技术的发展,人工智能辅助量刑算法能够对量刑对象展开全面和深入的数据追踪,并依照这些数据科学评估量刑对象的犯罪行为、生活环境等可能影响其人身危险性的数据信息,从而做出综合研判,确定合理的量刑结论。同时,人工智能算法还可以依照大数据建立刑期区间和社会犯罪率之间的关系模型,从而划定不同犯罪的合理量刑区间,最大限度地提升量刑的一般预防效果。当前以再犯风险评估算法为代表的量刑风险精算预测模型已经被应用到许多国家的辅助量刑工作之中,实践表明其对于预防犯罪的发生具有积极效果。例如,伯克、索伦森等人使用一种随机森林算法对28 646起因家庭暴力被指控和保释的罪犯在未来两年内是否可能实施新的家庭暴力犯罪展开预测。结果表明,依照现行做法,在获释的人中,约有20%会在两年内因新的家庭暴力犯罪而被捕。如果使用目标算法,只释放那些预计在两年内不会因家庭暴力被捕的罪犯,那么失败率可以减少近一半,也即可以避免超过2 000起家庭暴力再次犯罪案件。
二、人工智能辅助量刑的异化风险
当前,人工智能相关技术在司法领域的发展和应用还处于探索阶段,其在提升量刑的中立性、高效性、精准性带来变革性契机的同时,也面临着一系列技术、法治和伦理上的异化风险。由于量刑关系到被告人的基本权利以及社会的长治久安等重大问题,因而,我们有必要细致梳理人工智能辅助量刑的相关风险,从而为提出具有针对性和可行性的应对方案奠定基础。
(一)人工智能辅助量刑的技术困境
1.人工智能量刑系统受裁判文书的全面性和优质性影响
作为人工智能量刑系统建构的基础性资料,裁判文书的数量和质量直接关系到量刑系统建构的科学性和可靠性。然而,当前相关裁判文书的全面性和优质性却无法得到有效保障,究其原因有三方面:
首先,人工智能量刑的精准性和所学习的大数据样本数量息息相关,“喂养”人工智能系统的裁判文书越全面,人工智能系统所能提取的量刑要素就越精细,其量刑结果也就越精准。虽然我国裁判文书的公开取得了显著成绩,但是受不同法院的公开意愿、公开能力、公开风险等因素影响,我国裁判文书的公开率总体上并不如意。有学者统计了某省各级法院的裁判文书发现,已公开裁判文书占应公开文书的比率仅为50%左右,且不同级别法院裁判文书公开率有很大的差异,而比率最低的法院仅为26%。
其次,已公开的裁判文书的质量难以得到有效保障。由于裁判文书公开规定不明确、相关考核指标不科学,以及为了减少政治、舆论、追责风险等原因,我国已公开的裁判文书存在着选择性公开、重复公开、简化公开,以及有意隐去对酌定情节考量的相关内容等问题。可供学习的裁判文书的随机性、重复性、片面性、偏向性特质使得人工智能量刑系统不但无法全面掌握法官的量刑经验,还有可能被裁判文书误导而出现选择性偏误的风险。
最后,由于地域之间的经济、政治、文化、习俗等存在差异,为了保障人工智能量刑系统的区域适用性,便需要将可供人工智能量刑系统学习的裁判文书予以限定。但是,这又会引发人工智能量刑系统的适应性与精准性悖论:建构量刑模型的数据来源范围越小,其量刑结果越符合本地实情,这也意味着数据的颗粒化程度越低,偏离同案同判目标的可能性也就越大。反之,用于建构量刑模型的数据来源范围越大,数据要素的颗粒化程度就越高,但量刑结论就越无法兼顾地域差异,便容易造成量刑的系统性偏差。
2.人工智能量刑系统存在量刑不当的风险
由于关涉当事人的重大利益、社会长治久安以及司法整体公信力的建构,民众对于人工智能辅助量刑的结论正确率要求往往高于人工智能系统在其它领域的应用。而与法官基于因果量刑逻辑得出的结论相比,基于相关关系建构的人工智能量刑模型在理论上存在更高的决策偏误风险。维克·托迈尔-舍恩伯格等人指出,由于算法所注重的数据和结论之间的相关关系仅仅是人为建构的一种认知方式,这种认知方式会忽略一些与决策相关的、具有丰富性和偶然性的社会、经济等因素,从而容易造成算法模型片面地以实然推测应然,根据过去而预测将来,最终出现决策疏漏的风险。和人工智能在其它领域的应用不同的是,由于量刑领域涉及被告人的人身自由、生命、财产这些最基本的权利,因而,无论是对被告人还是社会民众来说,该领域的容错空间极低。基于统计学意义上相关性概率而建构的算法量刑模型并不能保障百分之百的正确率,并且由于人工智能量刑系统自动化和黑箱化的决策特质,使其存在大规模量刑不当的风险,而这样的风险显然是社会民众难以接受的。
(二)人工智能辅助量刑的司法难题
1.被告人的程序性权利难以保障
由于算法黑箱的存在,被告人深度参与量刑过程、全面获取量刑解释、及时得到有效救济等程序性权利都会遭受到一定程度的侵害,从而会降低量刑的可接受性。
一方面,人工智能辅助量刑削弱了法官和当事人在司法量刑过程中的亲历性,尤其是对于辩护律师和被告人,他们可能既无法参与相关证据的质证、对相关量刑情节的认定工作,也无法就被告人的主观恶意性、人身危险性,以及相关法律条文的理解等和法官展开有效沟通。研究表明,在对司法程序正当性的认知中,当事人对亲历性、过程控制性以及裁决者是否有耐心倾听的重视程度往往要超越裁决者的中立性。通过人工智能辅助量刑便意味着原有递进式的诉讼程序被阶段化量刑结论取代,进而当事人和法官之间的联系被削弱甚至阻断。失去了对量刑过程的参与感和控制感,当事人对量刑结论的认可性和接受度也将随之降低。
另一方面,由于算法专业壁垒和算法黑箱的存在,甚至是算法开发人员也难以全面和清晰地阐明不断自我迭代和更新的量刑系统的数理结构。这就造成缺乏计算机相关知识的法官往往只能告知当事人量刑系统得出的量刑结论,却无法给出量刑决策的依据、原理、影响量刑的实质因素等信息。而法治是理由之治,不能展开释法说理、缺乏可验证性的量刑结论对于当事人往往也是缺乏可预测性、可信赖性和可接受性的。此外,由于缺乏对量刑结论的解释,被告人也无法认定相关判决在事实认定、法律解释、裁量倾向等方面是否存在问题,进而其通过质疑人工智能在量刑中存在裁量情节认定不当、法律适用畸重而提出上诉、申请再审等获得有效救济的权利也面临被架空的风险。
2.量刑权力的专属性受到挑战
采取技术外包方式建构的人工智能量刑系统存在着引发司法量刑权被技术公司俘获,法官被算法驯服的风险。
一方面,量刑系统的技术专业性可能引发法院无形中将量刑权力移转给技术公司的风险。当前,诸多法院使用的量刑系统都是采取外包或合作的方式由科技公司建构的,如上海刑事审判辅助系统是由上海高院和科大讯飞公司合作开发的,北京“睿法官”是由北京高院和华宇元典合作开发的,被数百家法检机关使用的“小包公”智能定罪与量刑系统则是由广东博维创远科技有限公司联合刑事法官、检察官、人工智能专家等创建的。在创建过程中,科技公司往往会主导量刑变量选取、算法逻辑架构、要素量化标准确定甚至裁量浮动比例调整等工作,并且由于法学知识和人工智能知识的专业性和精细化,这种由于知识体系分野、科技知识渗透以及权力和知识相互勾连所造成的科技公司无形中获取司法量刑权的趋势在短期内将持续加剧,甚至可能造成科技公司无形中主导司法量刑的局面。
另一方面,受“从众心理”“认知吝啬法则”“自动化依赖心理”“责任隔离思维”的影响,法官时常会过度依赖人工智能量刑系统的量刑结论,而丧失批判或质疑人工智能量刑合理性的能力。研究表明,人类很难摆脱习惯性依赖机器决策的心理,“虽然自动化决策系统明确地只被用来作为人类决策的辅助工具,但出于对自动化逻辑的信任、缺乏时间、追求便利以及推卸责任等原因,即便参与者明确认识到自动化决策系统并不完全可靠,但仍更倾向于遵循自动化决策系统的指令”。虽然当前人工智能量刑系统还被定位为量刑辅助的角色,但是这种名义上的“辅助”在实践中时常会异化为实质上的“主导”,人工智能辅助量刑的结论不但可能会对法官的量刑产生“锚定效应”,甚至还可能产生支配风险。然而,司法量刑权是法院和法官通过民众和法律授权获得的专有权力,人工智能量刑系统在未经过正当程序以及法律授权的背景下,攫取专属于法院和法官的量刑权的正当性和合法性都将遭受质疑和挑战。同时,并未实质参与庭审的人工智能及其背后的科技公司决定量刑幅度还将违背量刑中的直接原则和言词原则,其与庭审实质化的改革目标是背道而驰的。
3.责任分配难题
合理的责任制是保障司法量刑公正性的前提和基础,在完善的司法责任追究机制下,法官为了避免因量刑行为违法或不当而被追责的风险,往往会努力确保量刑的公正性。当引入人工智能量刑之后,原有的责任承担机制便面临新的挑战:首先,由于人工智能是否能够成为法律主体就存在极大争议,具体到量刑领域,替代法官展开量刑的人工智能系统是否能够成为量刑违法或不当的担责主体问题将伴随司法人工智能法律主体地位的争议而持续存在。其次,由于顶层设计的粗疏、具体追责规范的缺失等原因,我国现有司法责任机制的建构和实施面临着诸如追责标准模糊、追责程序和追责主体不明确、担责方式繁杂、追责实施机制行政化等诸多难题。在这样的背景下,人工智能对法官量刑的介入无疑进一步加剧了追责机制建构的复杂性和争议性。例如,由于人工智能辅助量刑的专业性、技术性和黑箱化,如何发现并界定人工智能辅助量刑是否存在违法或不当的情形将成为难题。最后,虽然受制于当前人工智能量刑技术的局限性以及原有司法制度的惯性,人工智能只能为法官提供一些量刑建议。正如上文所指出,实践中法官往往会过于依赖人工智能系统提出量刑建议,从而尽量限缩自身的裁量空间以减少量刑出错而担责的风险。当面对这种名实分离的复杂情境时,无论是法官还是人工智能的开发者,都将有充足的免责理由,这无疑进一步加剧了责任界定和分配的模糊性和争议性。
(三)人工智能辅助量刑的伦理挑战
1.算法歧视风险
用于量刑的算法系统在建构和维护的过程中难免会受到数据和算法设计目的的影响而将人类的偏见映射其中,从而造成算法偏离预设的客观中立立场,出现量刑畸轻或畸重的风险。
一方面,由于自身知识结构偏差、个体内在偏见、对司法量刑规律理解不足等原因,算法设计和维护人员在根据法院的委托建构基础函数、对样本判例相关要素打标签、修正和优化量刑算法模型等的过程中,难免会忽视或强化某些可能影响量刑公正性的因素,最终造成人工智能量刑模型存在歧视少数群体、弱势群体等的风险。
另一方面,用于建构量刑系统的数据本身不可避免地内涵人类偏见,受“偏见进,则偏见出(bias in,bi-as out)”定律的影响,人工智能量刑算法难免会学习到内含于数据集中的人类法官的量刑偏见。法律文书是人工智能量刑系统建构的基础性材料。然而,受法官个体的年龄、性别、受教育程度、生活环境,以及被告人的经济水平、律师的辩护能力、地区的法治环境等因素影响,供人工智能量刑系统学习的裁判文书往往会存在一定的歧视倾向,并反映到量刑结果之中。拥有深度挖掘、要素关联联想、数据抽象和概括能力的人工智能量刑系统在对这些裁判文书展开学习时,便难免会习得隐含于裁判文书中的歧视因子,从而做出具有歧视性的量刑决策。例如,参考了数十年相关量刑案例而建构的用来评估被告人再犯风险的COMPAS系统已经被广泛应用于美国亚利桑那州、科罗拉州等地法院,以帮助法官决定是否对被告人判处更轻或更重刑罚。而非盈利机构ProPublica在对COMPAS系统展开测试后发现,这一系统存在对黑人再次犯罪的评估中不当地给出过高分值的风险。
2.价值判断难题
在量刑的过程中,无论是对责任刑中行为人非难可能性的考查,还是对预防刑中行为人的人身危险性的判定,都需要裁决者展开一定的价值判断。因而,价值判断问题是量刑过程中必须要考虑的核心问题之一,而以数字化的方式还原问题情境的人工智能系统往往难以有效应对量刑中的价值判断问题。
一方面,量刑主要是为了通过刑罚制裁的方式以实现惩罚和预防犯罪的目的。无论是对行为人社会危害性的评价,还是对其人身危险性的评价,都会涉及到价值判断问题,量刑结论只有充分考量处罚目的和处罚效果,才能够满足社会对司法裁判的实质正义诉求。但量刑时需要考虑诸如社会环境、情境变迁、文化传统、犯罪背景、价值观念等非规范性价值评价因素具有多元性、流动性、地域性、开放性等特质,往往难以被人工智能量刑系统予以量化和通约,从而会造成人工智能量刑系统难以处理个案中特殊的、具体的、丰富的酌定量刑情节,最终造成其无法满足个案量刑的实质公正性要求。
另一方面,在对犯罪行为的社会危害性以及行为人的人身危险性的相关酌定量刑情节展开筛选、权衡时,难免会涉及到价值选择和排序问题。但是,由于人工智能量刑系统是通过预设价值排序或复制人类价值决断实践经验而开展价值抉择的,这就决定了其只能处理符合预设情境下的价值排序问题,而无法针对个案尤其是新类型个案的具体情境做出具有个性化的价值选择。人工智能量刑系统的这一特质就将其可适用范围限缩在了那些知识结构特定且封闭、是非对错明确、潜在可能单一易辨的刑事案件之中。
三、人工智能辅助量刑异化风险的应对方案
面对人工智能辅助量刑应用中的诸多新挑战,我们应当在其尚未形成“技术锁定效应”之前,积极提出具有针对性、前瞻性、全面性和可行性的风险应对方案,从而在最大限度发挥人工智能辅助量刑正向效应的同时,尽可能减少相关系统落地应用可能引发的危及量刑正义的风险。
(一)明确人工智能辅助量刑案件的适用范围
鉴于人工智能量刑系统在正确率、责任承担和价值判断等方面的不足,有学者提出将其视为法官量刑的辅助性工具:人工智能系统可以凭借自身技术优势提出量刑建议,而是否被采纳还需要断案法官做出最后决定。本文认为,我们应当基于当前人工智能量刑系统的发展现状和改进趋势,为人工智能量刑系统划定合理的案件适用范围以及长期发展的方向,从而最大限度地发挥技术革新在提升刑事量刑质效中的变革性作用。为此,当前我们可以将人工智能辅助量刑适用于那些较为简单的案件,而复杂案件则更多地需要交给法官处理。这是因为:
其一,简单案件往往意味着更少的裁量、更少的价值判断、更完善的案卷材料、更低的量刑偏误风险和更高的民众接受度。在与法官的量刑相比,机器决策在保障简单案件量刑的准确性方面更具优势。对此,文森特指出,“即便法官相较于机器能够做出更加细致入微且经过准确校准的裁决,但并非所有的案件,尤其是在较低级别的犯罪中,法官并不愿意投入大量的时间和注意力以保障决策的准确性,因而,算法决策在刑事司法中最大的优势就在于提高日常案件决策的准确性”。
其二,将存在较大争议、需要展开自由裁量以及价值判断的疑难、复杂、新型案件交由法官处理表明法官的量刑权并未被算法或技术公司俘获。这是因为人工智能量刑系统处理的简单案件仅是重复法官的量刑经验,而那些涉及规则发展、规则创制以及自由裁量的疑难的、复杂的、新型的案件则属于经验的创制活动,由法官主导这些案件的处理说明法官仍然掌握刑事量刑权。
其三,将简单案件交由人工智能量刑系统处理还能够有效提升民众对量刑结论的接受程度。这是由于简单案件往往事实明确、法律清晰,因而发现人工智能系统量刑的误差也较为容易,且纠错成本较低。这会降低民众对人工智能量刑系统黑箱化和大规模错判的担忧,从而提升民众对人工智能量刑系统高效性和公正性的认同感。
在明确了人工智能量刑系统的适用范围之后,还需要解决如何在具体司法实践中区分出简单案件和复杂案件的问题。对此,本文认为将认罪认罚从宽的轻罪案件作为人工智能量刑的主要适用对象是比较合适的,其原因在于:一是从前期试点和当前实践经验来看,认罪认罚从宽案件占刑事案件总量的比重较大。在试点法院中,适用认罪认罚从宽审结的刑事案件占审结刑事案件总数的50%左右,并且适用认罪认罚的案件也以三年以下有期徒刑的轻罪案件为主,占比达到90%。最高人民检察院发布的《刑事检察工作白皮书(2024)》指出,2024年适用认罪认罚从宽制度的人数为1 698 902人,适用达率86.9%。这些数据表明,当前认罪认罚从宽的轻罪案件占刑事案件的比例较大,如若将这些案件应用人工智能予以量刑,将会大幅降低法院量刑的工作量,从而有助于节省司法成本、缓解法院案件多人少的矛盾。二是轻罪案件往往事实清楚,争议不大,从而易于形成结构化、类型化、确定性的裁量数据,符合人工智能决策标准化、模块化、统一化、流程化的特征。三是轻罪案件的刑期具有较强的可预测性。因而,即便出现人工智能量刑偏误的情形时,发现和纠正量刑偏误的成本也更低,这意味着其对司法裁判整体公信力可能产生的潜在危害也更小。此外,由于轻罪案件的刑期较低,和重刑案件相比,民众对于此类案件出现误判的接受度也相对更高。
可以预见,随着人工智能量刑相关技术的迅速发展和完善,以及相关应用实践的不断深化,通过人工智能展开量刑的案件范围将逐步扩展。对于人工智能量刑系统适用案件的扩张前景而言,今后我们还可以考虑进一步将法定量刑情节较多而酌定量刑情节较少、规范性评价较多而道德评价较少的法定犯纳入人工智能辅助量刑的案件适用范围内。
(二)有效应对算法难题
算法是人工智能系统开展量刑的核心,积极应对相关算法决策可能引发算法黑箱、算法歧视、算法漏洞等问题,也是保障人工智能量刑结论可预测性、可接受性和公正性的前提和基础。因此,应当从以下两方面着手有效应对算法难题。
其一,设立算法审查委员会,采取定期和不定期的方式展开事前、事中和事后审查,从而保障人工智能量刑系统的公正性、安全性和稳定性。随着人工智能技术发展和应用的不断深化,设立专业的监管机构对其展开全面审查监管已经是大势所趋。因此,在统一的人工智能审查机构中下设司法人工智能审查机构对用于量刑的人工智能算法展开审查也具有必要性和可行性。在人员的组成上,对人工智能量刑系统展开审查的司法审查机构应当由法官、法学专家、律师、算法工程师、社会公众代表等组成,从而保障机构人员的专业性、代表性、权威性。在职能上,审查机构不但应当对人工智能量刑系统的数据来源是否合理、量刑结论是否存在偏差、量刑算法是否存在安全漏洞等展开技术性审查,还应当就不同量刑要素加权依据、量刑结论是否存在歧视、量刑结论能否适应不同地域实际需求等展开实质性的内容审查。
对于审查的方式和流程,在人工智能量刑系统投入使用前,审查机构应当就算法设计建构过程中样本案例的筛选、知识图谱的设计、特征的选择和样本标注等工作展开审查,从而确定算法设计的科学性和合理性。在人工智能量刑系统建构完成后,审查机构还应当就输出结果展开测试,以确定量刑结果是否符合算法设计目的以及量刑偏差是否在可接受范围内。在量刑算法投入使用后,审查机构可以采取定期抽查、随机抽查、依申请检查等方式,对人工智能量刑系统展开长期和动态监管,从而保障人工智能量刑系统的适应性和可靠性。
其二,建立完善的案例筛选和公开制度,为人工智能量刑系统提供优质且全面的数据学习集。首先,我们可以借助现有的案例指导制度和优秀案例评选制度等机制,选择那些较为优质的案例作为建构和矫正人工智能量刑系统的基础性素材来源,从而保障该系统的科学性和可靠性。其次,为了保障相关案例数据的完整性,我们可以充分利用法院数字化、信息化改革的成果,通过电子化、自动化的方式,实现相关案例从立案到裁决的全过程、全方位信息化,从而为人工智能量刑系统提供司法量刑的全样本数据。最后,还可以通过算法自主清洗、法官在量刑实践中标注以及审查机构定期审查等方式,对相关案例集不断进行优化和更新,从而保障用于建构人工智能量刑系统相关案例的优质性。
其三,我们还应当注重相关技术手段的应用,从而以技术治理技术,以代码规制代码。例如,面对人工智能辅助量刑中可能产生的歧视风险,我们不但可以通过“歧视感知数据挖掘技术”以自动化的方式及时发现人工智能量刑系统中可能存在的歧视风险,还可以通过调整数据特征的方式将歧视因素予以中立化处理,从而保障人工智能量刑系统的中立性。在实践中,克里斯托·杨等学者就通过调整统计方式等技术手段,对其所设计的预测犯罪算法中的种族因素展开了中立化处理,这一算法在纽约市预审系统的实地应用结果表明,其可以得出比一般算法更加契合平等保护条款的计算结论。
(三)积极保障当事人的诉讼权利
刑事诉讼权利旨在确保当事人在刑事诉讼过程中能够受到公正对待,防止其受到不公正的指控和惩罚。因此,运用人工智能辅助量刑系统应当从三方面保障当事人的诉讼权利:
其一,应当保障当事人对于人工智能量刑系统的知情权和选择权。赋予当事人对于法官使用人工智能系统量刑的知情权和选择权是保障当事人诉讼权利的基础和前提。因而,如若法官选择采取或参照人工智能展开量刑时,不但应当事先明确告知当事人相关量刑结论是通过人工智能量刑系统得出的,还需要告知当事人拥有拒绝法官使用这一系统以及提出异议和获得救济的相关权利。当被告知后,当事人便拥有了选择或拒绝人工智能辅助量刑的权利,其一旦拒绝人工智能辅助量刑,相关量刑工作只能由法官承担。
其二,明确被告人拥有要求法院就人工智能的量刑结论做出合理解释的权利。算法代码的公开涉及商业秘密相冲突以及公众缺乏相关专业知识无法理解的问题,因而将以民众可理解的方式对量刑系统的设计目的和运行原理做出解释被认为是更具可行性的公开方案。当前,通过研究人员开发的“概念激活向量测试”(TCVA)算法,可以将不同要素对决策结论的影响程度以一种量化和直观的方式予以显示,从而能够以一种对用户友好的方式解释算法的内部运行状态。由此,我们也可以利用这一算法,将人工智能量刑系统的数据来源、核心变量值、特征权重比值、误差范围、工作原理以及量刑规律等信息以图片、视频等可视化、友好化的方式在法院官网或裁判文书公开网中予以展示。
其三,还应通过审级制度和专业援助的方式为当事人提供有效的救济渠道。首先,由于二审或再审刑事案件往往涉及争议较大、案情也更为复杂,因而不宜在这些案件中应用人工智能辅助量刑,这也就意味着只能将人工智能量刑系统应用于一审案件。同时这也是保障审级制度顺利开展的前提和基础。其次,如若当事人对一审中人工智能辅助量刑的结果有异议而申请二审或再审时,二审或再审便只能由人类法官审理。这是因为,人工智能量刑系统的量化逻辑和经验逻辑具有较高的一致性,如若仍然采取人工智能辅助量刑实质上便意味着当事人的上诉和申诉权利被剥夺。最后,人工智能量刑系统高度的专业性使得和检察官、法官相比,被告人往往会因为相关专业知识的缺乏而在诉讼能力上处于劣势。为了保障被告人获得相对平等的诉讼能力,应当赋予被告人及其律师拥有申请获得专业人员帮助的权利,从而避免人工智能量刑系统应用可能造成的控辩双方在诉讼能力上严重失衡的风险。
(四)探索合理的责任分配机制
对于人工智能辅助量刑出现错判、误判的责任分配方案,本文认为对于那些需要由法官主导量刑的疑难的、复杂的、新型的案件责任仍然由法官承担并不存在较大的争议。而对于人工智能量刑系统处理的简单案件而言,主要存在由建构人工智能量刑系统的企业担责、法官担责、法院担责、设立保险机构担责等方案。本文认为,将法院作为人工智能辅助量刑出现错判、误判的责任承担主体更为合理。这是由于:一是法院作为拥有刑事惩罚决定权的国家机关,其权威性是由国家公权力背书的,人工智能量刑系统得出的量刑结论只有经过法院的认可才能具有相应的法律效力。因而由其承担赔偿责任更加契合我国诉讼权力的构造机制,也更具合法性。二是从遭受错判、误判的受害者的角度来看,由于技术能力、技术认知壁垒的存在,无论是由技术公司还是由人工智能量刑系统担责,都会增加其举证和维权负担,进而增大败诉风险。因此,从维护受害者权利的角度出发,由法院担责也更具合理性。三是相较于企业和个人,法院在赔偿能力上也更具优势。同时,法院作为使用人工智能量刑系统的直接获益者,由其承担量刑出错的成本也更具正当性。
在法院承担相关赔偿责任之后,其可以通过向算法建构和维护平台追偿的方式以合理约束算法建构和维护人员的行为。同时,法院在购买相关人工智能量刑系统时,还可以要求算法建构和维护机构购买一定数额的保险,以保障追偿工作的顺利展开。此外,我们还应当注意到相关刑事责任分配的问题,对于算法建构平台和设计人员,应当查明其是否出于故意或重大过失而致使量刑系统出现错判,对于当事法官,则应当查明法官是否尽到一定的注意义务,从而确定是否追究算法建构平台、设计人员和案件法官的刑事责任。
四、结语
从刑事量刑这一具有较高的结构化、计量化、审慎化的领域入手,全面分析人工智能量刑系统的应用优势、风险,并针对风险提出具有前瞻性和系统性的风险应对方案不但有助于量刑领域的优化改革,而且也将为人工智能在整个司法领域的应用提供参照经验和路径指引。当然,本文在对人工智能辅助量刑相关异化风险及其应对方案的分析中还存在诸多不足:如人工智能辅助量刑算法审查机构在现有司法审查监督体系中的定位问题还不清晰;对于界定人工智能辅助量刑出现违法或不当的标准还有待进一步明确,等等。因而,我们应当认识到对于人工智能量刑系统发展前景的展望并不是一劳永逸的,还需要我们随着实践的探索而不断提出更具场景化、精细化和系统化的调整方案,最终才能不断提升人工智能量刑系统的公正性和可信赖性。
来源:贵州大学学报社会科学版
作者:王文玉,西南大学法学院院聘副教授、西北政法大学博士后流动站在站研究人员