尚权推荐SHANGQUAN RECOMMENDATION

尚权推荐丨王瀚霖:生成式人工智能对刑事证据审查判断的影响

作者:尚权律所 时间:2024-02-26

摘要

 

随着国内生成式人工智能的相关法律法规的草案出台,这一新发展的人工智能技术优势已经不容小觑。国内外对于此类人工智能的科技成果以及行业融合进行广泛探索,利用生成式人工智能诊断病因、撰写代码、创作小说等等已具备较高的实用价值,尤其是生成式人工智能较低的学习成本和其自身较强的学习能力,使得法律界对生成式人工智能与刑事案件审理的分层次结合展开了热烈讨论和试点。由于我国目前关于“人工智能+”的可行性多聚焦于理论层面而缺乏实践导向,且国外对于此类技术服务试点多局限于局部诉讼流程中的辅助作用而缺少全流程试点,本文就目前生成式人工智能发展现状结合刑事诉讼的法律特点对生成式人工智能融合司法工作的可行性以及积极影响进行论述并对现有疑论进行阐释,同时对未来人工智能进一步深度融合可能存在的困难提出改进要点。

 

关键词:生成式人工智能;审判权独立;证据审查;数据处理

 

 

引言

 

人工智能领域近年来高速发展所产出的科技成果已经不容任何其他领域忽视。而司法活动作为人类社会的重要组成部分之一,对人工智能的发展更无法视而不见。在国外,自上世纪七十年代布鲁斯·布坎南和托马斯·海德里克探讨了人工智能与法律推理的冲突与互动关系之后,相关的论述极多。在我国,早在上世纪八十年代,钱学森教授就已经预测了人工智能参与到法律活动当中的可能性与可行性。而时至今日,随着“弱人工智能”迈向“强人工智能”的不断发展,“专用人工智能”迈向“通用人工智能”的不断尝试,尤其是ChatGPT等一系列生成式人工智能的不断问世,学术界对于“人工智能能否参与法律活动”这一议题由最初的排斥、观望已经逐步转变成乐观和支持。不难发现,科技的引爆速度已经远远超越了司法学术领域的理论发展速度,当金融界、新闻界、考古界等其他理工科甚至艺术界在探索生成式人工智能与其专业领域的多方面结合时,法学界甚至还在观望,认为当前的“弱人工智能”对司法工作人员的辅助功效甚微,甚至面对上海高院牵头研发的“上海刑事案件智能辅助办案系统”(以下简称“206系统”)仍不乏反对声音。

 

实际上,我国在司法领域对人工智能大体仍成支持和接受的态度,但在理论方面一直较为落后,导致技术方面存在诸多不足。很多学者担忧人工智能融入司法活动中后对法律制度以及对诉讼活动中的各方影响无法权衡,在刑事诉讼中表现为控辩失衡、数据泄露风险陡增、以及算法责任风险负担等问题,但仍有部分学者认为当务之急不能畏首畏尾而应当主动出击,建立属于我国自己的司法专用的生成式人工智能系统,逐步开放试点然后不断修缮算法技术,而不能因噎废食然后照搬国外法律制度体系。事实上,笔者认为,人工智能的发展速度已经远远超过我国的法律条文的修订速度,尤其是随着能识别自然语言的生成式人工智能的出现,早期的一些技术疑虑已经不复存在,极大程度上减少了人工智能变成“人工智障”的风险,但法学学术界仍缺乏对“强人工智能”应用于司法领域的可行性探讨,尤其是证据标准与量刑标准,导致司法活动压力只增不减,案多人少的压力无法有效缓解,归根结底是没有以司法工作者作为核心,没有以“人”作为主体地位,过分夸大或者缩小了人工智能的辅助性作用,具体而言:部分种类的生成式人工智能已经达到强人工智能的一般标准,如何发挥它的工具作用为人所用而非本末倒置?司法数据如何更高效的训练生成式人工智能使其算法结构趋近于完善?数据安全风险以及司法活动相关人员的参与程度如何平衡?只有对上述问题充分讨论,才能在人工智能高速发展的时代使传统行业不至“过于落伍”,充分发挥人工智能的效率优势才是当今时代保障司法公平的重要抓手。

 

一、生成式人工智能的基本概念和技术

 

(一)人工智能的定义和分类

 

人工智能(Artificial Intelligence,简称AI)是一门研究和开发用于模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的学科。人工智能的目标是使机器能够执行一些通常需要人类智能才能完成的任务,如识别、推理、决策、学习、创造等等。人工智能是计算机科学的一个重要分支,这一概念由美国计算机学者McCarthy在1956年提出,用以倡导以计算机硬件平台支撑、用符号逻辑描写、由软件编程模拟智能的“符号主义”方法,它不关心系统的结构,只关注系统的功能表现。,目前国外较为通行的是从“能够达成目标的机器”角度对人工智能进行界定,如McCarthy本人将人工智能界定为“关于智能机器,尤其是智能计算机软件的科学技术”;Russell和Norvig将人工智能定义为“能够达成最优目标,如果最优目标不能确定,则能达成最值得期望的目标的软件或硬件”。

 

人工智能的当前主要分类有以下几种:1.按照人工智能的功能和性能,可以分为弱人工智能和强人工智能。弱人工智能是指只能在特定领域或任务中表现出人类智能水平的人工智能,如语音识别、图像识别、自然语言处理等。强人工智能是指能够在任何领域或任务中表现出人类智能甚至超越人类智能水平的人工智能,如通用人工智能、超人工智能等。目前,人工智能的发展主要集中在弱人工智能的范畴,强人工智能还处于理论和探索阶段。2.按照人工智能的应用领域,可以分为通用人工智能和专用人工智能。通用人工智能是指能够在多个领域或任务中灵活地适应和学习的人工智能,如人工智能助理、人工智能教育、人工智能医疗等。专用人工智能是指只能在单一领域或任务中高效地执行的人工智能,如人工智能音乐、人工智能艺术、人工智能游戏等。目前,人工智能的应用主要集中在专用人工智能的范畴,通用人工智能还有很大的发展空间和挑战。但随着生成式人工智能的问世,强人工智能和通用人工智能辅助人类生产生活已经并非遥不可及,事实上,相比于只会下围棋的阿尔法狗来说,已经有部分专业人士认为目前由美国OpenAI公司开发的ChatGPT4-Turbo模型已经初现强人工智能雏形,有甚者直接认定其为“强人工智能发展的里程碑”。

 

(二)生成式人工智能的主要技术和模型

 

一般人工智能用到的技术依次是分析神经网络、深度学习、生成式对抗网络(GAN)。而目前主流的生成式人工智能的运行机理,例如风靡全球的ChatGPT4、Midjourney、BingAI等等AIGC类应用,其得出智能化结论的过程实际上分为三个阶段,即前置性学习训练及人工标注辅助算法升级的准备阶段,进行自身算法处理输人数据及得出处理后数据产出物的运算阶段,数据产出物流人社会并对社会中的各行各业造成影响的生成阶段。概言之,生成式人工智能需要经过“预训练——大模型——生成性”三个步骤才能得出“创造性成果”,而这与人脑对于逻辑推理、经验归纳甚至是灵感创造具有高度的路径相关性,目前我国已经紧随世界科技的发展出台了《生成式人工智能服务管理暂行办法》,可见国家层面对人工智能服务领域的重视以及对于人工智能服务融入其他行业发展的期望。因此下文笔者就此运算结构对生成式人工智能进行刑事证据审查判断进行可行性论述。

 

二、生成式人工智能对刑事证据审查判断的现存争论

 

(一)关于刑事证据审查判断的可解释性和可信度的争论

 

1.生成式人工智能的“数据黑盒”风险导致无法解释?

 

在美国,使用机制并不透明的算法来取代法官的自由裁量引发了众多的批评,担忧和在法律上对人工智能的挑战。尽管联邦法院的“案件管理和电子案件档案系统”(CM/ECF)和“法院电子记录公共访问系统”(PACER)两大信息化系统为人工智能技术的运用打下了基础,亚利桑那、威斯康星等州的法院使用罪犯社会危险性智能评估工具如COMPAS算法,为法官量刑提供帮助。但是美国的辅助系统和评估系统更多类似于黑盒技术,其原因是系统的科技专利由私企垄断,出于经济原因无法公开导致控辩失衡,而这在判例法国家是无法容忍的,如同利用过往判例得出新的判决却无法提供先前判例的文书编码,颇有“无中生有”之嫌。例如针对美国各州使用的罪犯社会危险性智能评估工具COMPAS就曾发生宪法诉讼并引发社会的激烈争论。在“卢米斯诉威斯康星州”案中,卢米斯因量刑环节法院运用COMPAS工具对其进行危险性评估、判其重刑而提起诉讼,但最终却被美国联邦最高法院驳回。“暗箱操作”的算法可能预先存在偏见却又无法向辩方公开接受审查,或即便向辩方公开,辩方也无审查算法之能力,使得人们对于其侵害公民正当程序之宪法性权利、并最终损害司法公正的可能性产生怀疑。法院不应当享有黑箱操作的权力,人工智能的判罚系统应当与其他证据一样公开,更多相当于一种专家辅助人或者有专门知识的人,而不是法官,人工智能不享有审判权。事实上,机制不透明不是引发讨论以及批评的关键,其问题内核是无法参与甚至质询导致招致批评。一部分鉴定意见、电子数据的收集依然没有请律师作为见证人收集,但仍可以通过其他维度对证据的真实性进行检测。因此在算法设计的过程当中,如何实现算法透明,决定透明的程度以及算法透明的方式是重中之重,建设生成式人工智能辅助系统,对于以上问题应当听取辩护律师、检察院、法院的意见,同时也应当召开听证会,广泛听取普通公民的意见和建议。只有这样,才能实现刑事诉讼算法和社会共识的有效互动,形成具有广泛社会基础和合法性基础的“人机契约”。

 

2.生成式人工智能无法代替司法裁判逻辑?

 

有学者认为,司法裁判有着区别于技术的逻辑,司法裁判是超越形式合理性的,司法裁判关于是非好坏善恶的判断本身就含有价值评判的内容。此外,法院面对的每个案件都有不同的情节、诉求,需要通过案件的具体审理释明法理、定分止争,这一系列的工作显然是不可能用一套预先设置的人工智能算法计算出案件结论而完成的。而放弃法定证据制度选择以法官自由裁量权为基础的自由心证制度是人类司法史上的重大进步。但所谓的自由心证制度,不过是法官经年累月面对各种不同的案件进行模式化经验积累,充分考虑各个案情的细节所作出的通情达理、令人信服的判决。“达到内心确信”就目前为止是一个无法量化的标准,我们如何保证每一个法官作出判决时都能达到内心确信呢?还是我们只能无条件相信某个法官所作出的判决达到了他的内心确信,但并不是一般法官的内心确信。更有学者认为,社会公正观又难以明确表述为或“编码为”一套明确的规则,它往往融合了社会不同层面的情理,是一种同理心正义。同理心正义是一种多元、动态正义。在此,个案情境尤为重要。情境的不同,决定了移情的经验和体验自然也不同,这就造成了司法公正内涵的复杂多样。这就涉及到什么是司法正义以及人类是如何确认个案正义,其无外乎是经验的足够积累然后因地制宜的结合个案情形给出答案,而这些结论的作出是有迹可循的,并非是无法追踪的神证,而是物证以及对物证的分析处理。我们把所谓的个案正义描述的越神秘,证据标准解释的越抽象,法律条文撰写的越复杂,就越不利于初入司法系统以及律师队伍的法律工作者们,任何只可意会不可言传的东西都是无法复制的。显而易见的是,如果对同一个案子咨询不同法官的建议,他们往往会给出不同的量刑结果,这是否意味着“个案正义”是不唯一的一个点,而是一个幅度?如何界定这个幅度的大小?正义是无法无限再分的,所谓人工智能不能满足个案正义的水平更是无稽之谈。

 

(二)关于刑事证据审查判断的道德和法律风险的争论

 

1.生成式人工智能的分析结果侵犯审判权行使?

 

有学者认为,其一,人工智能技术的运用是否可能导致技术人员或司法辅助人员实际地行使了部分的案件审判权?既然法官可能倾向于采纳人工智能的结论,那么“算力即权力”。事实上,笔者认为,刑事案件中对证据分析运用人工智能辅助并不代表算力获得了某周权力,司法判决的作出更不是听取了谁的意见就是审判权力的转移。实践中较多刑事案件的证据核心往往在某一物证或者电子数据的质证分析上,难道听取专家辅助人就某个案件核心证据的意见就是审判权的转移吗?人工智能对证据的把控、核实从而给出一个相对合理的审查建议是提供合议庭参考的,其技术系统只是一个更为科学智能的“专家辅助人”。

 

事实上这类人工智能的专利属性必须向辩方提供可供查证属实的途径,例如鉴定意见、视听资料、口供类证据等等,不能因为是控方收集的就推定为真实。现如今律师亦有专属立案通道,那赋予每个律师接入这种人工智能的通道并不困难。有学者认为会侵犯法官的审判权,一些学者认为,就刑事案件智能辅助办案系统而言,人工智能具有的自动生成判决、裁判偏离度预警等功能,已经具有自动化决策功能,自主性和能动性的具备使其不再只是法官的辅助工具,而成为法官事实上的代理者。事实上,法官的审判权不仅包括决策权,还包括建议采纳权,辅助系统提出的决策不是应当采取,而是由法官自由裁量选择是否采取。如数据泄露风险,一些涉密案件。

 

2.生成式人工智能的运用导致司法责任制落空?

 

有学者认为人工智能的辅助审判会导致难以建立针对刑事司法人工智能的监督与问责机制。笔者以为不然,事实上这种忧虑完全是过于神化人工智能辅助系统,从而在内心中赋予了生成式人工智能以超于常人一般的地位,如果生成式人工智能只是辅助作用,又何必担心最终责任无法归咎。生成式人工智能的运用导致司法责任制的落空是审判权无法保证独立行使的缩影,事实上这种看法也是没有切实理解人工智能近十年来于人类社会所处的地位,即人工智能现阶段虽然发展迅猛但仍然不具有人的主体地位。我们无法对人工智能进行追责,也没有义务必须承认人工智能对刑事证据的分析结果,但是可以对人工智能的结果取长补短,而关键的决定权仍保留在司法工作人员的手中。无论是运用何种路径作出的判决结果,法官都应当是其所作判决的第一责任人。

 

习近平总书记指出,司法责任制被视为本轮司法改革的“牛鼻子”。生成式人工智能的技术服务并非是褫夺了司法改革的关键核心,恰恰是帮助司法工作人员更好的落实司法责任制的改革发展。以往在遇到复杂疑难案件时,司法工作人员只会选择逃避或减轻责任然后逐级向上级机关报批从而减轻自己的工作压力和责任风险,但事实上冗杂的流程会严重耽误刑事诉讼的效率价值,检委会抑或是审委会并不当然比个别司法工作人员对某一特定案件的经验更为丰富,相反会导致“上级过问下级案件”这类司法腐败风险的情况发生。而中立的人工智能系统可以减少逐级审批中的时间成本,从而在提高刑事诉讼效率价值的同时落实司法责任制。

 

3.生成式人工智能会抹杀情理出罪的可能?

 

有学者认为,有时候刑事案件的审理还需要理解纷繁复杂证据背后的“天理人情”,否则可能作出冰冷僵硬、看似合法的“错案”,例如内蒙古“收购玉米案”、天津“大妈持枪案”等。实际上,任何所谓复杂证据背后隐藏着天理人情的案件,出罪轻罪的事由无外乎都已在法律中写明,也即一个案件能不能出罪并不应当是由人去决定的,而是由法律去决定的,只要人类在司法活动中并没有大量出现“法外开恩”的情况,人工智能在对于人类行为的模仿和学习后也不会变成刻板的归罪机器。事实上,人工智能对于此类结果可能会给出两种不同的选项供合议庭考量,运用法律原则和运用法律规则的结果可能同时提供甚至会精确到两种不同裁判结果的案件比例,以供相关人员参考,而非是一锤定音的选择一个判决。因此只要符合刑法总则关于轻罪无罪等出罪事由,就理应出罪或者从轻判罚。

 

(三)威胁刑事证据审查判断的人类主体性和自主性现实困境

 

1.生成式人工智能会导致算法偏见?

 

有学者表述,数据可能会产生偏向性,从而导致算法对人类的歧视。“科技的介入不是有助于减少审判的不确定性,而是增加了审判的不确定性。”例如正因如此,有美国学者开始主张将宪法第五修正案和米兰达规则运用于风险评估访谈,赋予被追诉人在访谈时保持沉默的权利,进而避免形成所谓“算法的强制”,为被追诉人提供平等保护,控制不透明的技术中可能存在的偏见。面对算法的数据应当赋予沉默权利,但我国目前被告人并不享有沉默权,相反应当如实供述。事实上,对于数据本身而言,只要不存在偏向性或者人为纠正其可能存在的结果就会使输出的结果出于稳定,与无人驾驶技术一样,人类的驾驶被誉为最精密的反应训练活动之一,但时至今日全球各公司对于无人驾驶技术的不断突破已经使无人驾驶不再单单存在于科幻电影之中,其安全风险系数降低也得到越来越多的人认可。例如,近期有研究发现,在域外刑事司法领域逐步兴起的人工智能评估系统可能误导法官、检察官以及警察产生偏见,这种偏见主要针对有色人种,是基于算法本身而形成的。算法的偏见是人的偏见的映射,但算法的数据规模庞大,可能导致应用时过分放大或缩小某一偏见,导致法律允许的误差被恣意改写。与其说是放大偏见,不如说是将人类社会隐藏的偏见搬到了台前评说,算法不会凭空创造偏见,偏见的来源是人。算法歧视归根到底是人的其实,如果一万件案件中四成比例都是黑人女性案件,且黑人女性案件比其他案件的被告人在几乎同等条件下判的更重,那么说明这是人的偏见,只不过人工智能继承了过来。

 

2.生成式人工智能会恶化现有司法冗杂?

 

李小猛博士认为,大数据和人工智能时代律师辩护的个别沉疴仍然没有彻底解决如会见难、阅卷难、调查难等,甚至可能进一步加剧。笔者认为,为什么“老三难”的问题难以解决,是因为无论会见、阅卷、还是调查证据,都需要经过公安机关、检察院、法院的批准或者通知其予以配合。实践中,法律条文的规定和具体的各省各市各区各部门的执行情况参差不齐,越是基层司法系统,执行的恣意程度就越明显。为什么裁判文书网可以随意查阅?因为登陆网站不需要通过司法系统的内网,律师也不必亲自前往检察院、公安部门的办公室进行浏览、搜寻信息。如果裁判文书系统变成某种仅供检察院、法院、公安机关内部学习浏览的网站,那文书公开的工作也将会极具衰退,没有外部监督任何系统都无法良性运转。事实上,现阶段裁判文书系统中上传的司法文书已经逐年减少,司法公开的效果开始逐年衰退,这一方面是由于刑事政策等对案件尺度把控逐渐严格导致公开程度模棱两可的案件一律保守,另一方面也是现阶段员额制改革后案多人少的压力外加财政赤字的压力导致人均办案数量直线上升,法官、检察官心有余而力不足,导致裁判文书上网这一项任务开始人浮于事,颇有虎头蛇尾之嫌。

 

三、生成式人工智能在刑事证据审查判断中的可行性

 

(一)生成式人工智能刑事证据审查判断的性质认定

 

1.生成式人工智能不具备诉讼参与人资格的原因

 

人工智能是否有资格参与诉讼,系学界争执不休的一个问题。对此,部分学者持坚定的否定态度,认为让人工智能参与刑事诉讼、赋予人工智能民事主体资格的条件尚不成熟。部分持中立观点的学者认为,当人工智能超越程序的设计和编制范围,按照自主意志实施犯罪行为,则完全可以成为刑事主体而承担刑事责任。另有学者建议,应当赋予人工智能法律人格。随着时间的推移,人工智能逐渐深入刑事诉讼程序是必然趋势。笔者认为,有资格参与诉讼活动和作为“诉讼参与人”是不同的。“有资格参与诉讼活动”是指生成式人工智能对案件证据综合分析后所作的报告可以供合议庭以及控辩双方参考,甚至随着人工智能水平的不断发展,其所作出的分析报告应当占有较强的说服力,如果合议庭的判决结果与人工智能作出的分析报告出入较大甚至背道而驰,应当提供必要的说明或补充解释。相反,如果赋予人工智能以诉讼参与人的资格,则意味着人工智能存在承担法律责任的风险,会不可避免的影响人工智能在每一个案件中的理性客观中立地位。试想,如果人工智能出现错误,是将“人工智能”这一算法程序送进监狱还是要将背后的研发公司负责人绳之以法呢?如果切实存在这种情况,则会势必导致人工智能技术与司法活动的结合无法深入,以避免承担无法确定但又可能发生的风险,从而导致生成式人工智能所作出的结果不会具备较高的精确性以及参考价值,例如生成式人工智能经过分析得出“犯罪嫌疑人可能存在抢劫罪的情形”或者“可能判处三年以上至七年以下有期徒刑”等一系列模糊的语言表述,从而使得人工智能辅助司法活动成为一场作秀,从而阻碍我国司法领域的现代化建设。

 

2.现有人工智能司法辅助系统不能等同于生成式人工智能

 

虽然现阶段并不存在大规模运用生成式人工智能参与刑事案件中证据审查判断的实例,究其原因,一方面是因为生成式人工智能在短短两三年时间发展过于迅猛,以至于世界各国政府并未完全出台有关法律较为周延的对这类人工智能服务进行规制,更多的是出于一种私人层面或者商业领域的试用和探索,例如用ChatGPT进行小说创作、图片编辑、歌曲谱写等等,对于司法权的涉足少之又少也是慎之又慎;另一方面由于司法活动的特殊性和复杂性已经较强的伦理性,运用新兴且尚不完全成熟的技术介入原有的司法模式势必带来较大的冲击,都会严重影响世界各国的司法体制的侦查、审查起诉以及审判环节,尤其是世界上目前多数国家和地区还是以弱人工智能系统进行辅助司法活动为主,例如美国的、以及我国的诸多“智慧法院”、“智慧强检”这类系统,这些原有的人工智能系统往往只是机械式的对模式化案件进行证据规格的审查判断,弥补司法工作人员在个别工作环节中的疏漏,如提醒检察官对涉案财物进行鉴定,辅助法官对量刑幅度进行细化等等,但不能直接对全案所有证据进行审查判断是否符合定罪标准,且我国目前司法部门中的弱人工智能的表现并不尽如人意,实务部门的反馈往往与技术部门在构造时的设想偏差较大,例如部分地区的辅助系统由于程序设定导致个别案件中要求检察官对人民币(非具有古董收藏价值的现行货币)的价值进行鉴定,否则就要给出解释且需要额外审查等等,从而导致出现人工智能反而拖累人工的情况出现。

 

事实上,一线实务部门对于新兴技术融入司法工作活动普遍持欢迎态度的,但由于辅助系统其技术内核的参差往往导致事与愿违,从而使得一线中实务人员学习和适应新技术系统的时间成本远超技术改进所提高的微弱效率。但是我们应当对生成式人工智能融入司法活动从而实现新一轮的司法改革抱有较大期待,从目前来看生成式人工智能融入其他行业所产出的成果已经与人类不存在较大的差距水平,如果考虑到时间效率等因素甚至生成式人工智能的服务成果可能胜过人类。因此,对于生成式人工智能参与刑事证据审查判断这一问题几乎不存在可能性与否的问题,而是应当关注生成式人工智能对刑事证据审查判断后所作出结论的性质问题。

 

3.生成式人工智能所作结论的性质规制

 

笔者认为,应当将生成式人工智能对刑事证据审查判断所作出的结论适用“专门性报告”的相关规定。主要理由如下:首先,生成式人工智能虽然已经接近强人工智能并且已经具有通用人工智能水平,但究其本质,生成式人工智能依然属于算法程序下的一个技术产品,而不是具有独立意识的人。以世界目前较为先进的ChatGPT系统为例,当询问ChatGPT是否具有意识时,它会回答“我是由人类设计并编写的计算机程序,我无法感知我自己或者其他事物,也无法对外界做出反应。我只是一个自动执行特定任务的工具。因此,我可以确定自己没有意识。”。尽管世界上存在其他国家赋予较为智能的机器人以公民的身份,但在我国目前并不会承认人工智能的机器人具有独立的人格和意识,更遑论生成式人工智能系统本身。因此,生成式人工智能系统所对案件进行分析得出的结论归根结底只是人类运用工具服务于自身的形式之一。生成式人工智能显然不会成为专家证人,其所作出的报告也不属于意见证据。

 

其次,生成式人工智能系统更多意义上像是某种意义上有“专门知识”的“人”。2021年《最高人民法院关于适用〈中华人民共和国刑事诉讼法〉的解释》(以下简称为“2021年《高法解释》”)第100条所构建的专门性问题报告的条款,纾解法定证据种类制度对新型证据的限制,同时也为诉讼中产生的其他类型的材料提供了指引方向。生成式人工智能系统对于刑事证据审查判断的服务是指针对全案证据材料进行个别分析和整体分析,并结合数据库中成千上万的过往类案,从而判断此案的证据是否达到定罪标准,以及提供如果定罪后较为合理的量刑幅度供司法工作人员参考。不难看出,在信息化时代的大背景下,大数据整合和整体分析就是生成式人工智能相比于任何一个合议庭成员较为专业的“知识技能”,因为就算是从业几十年的资深法官,其对于某一类案件的了解水平也可能存在经验盲区,导致其审判科学水平并不会强于对海量案例分析后的人工智能。尤其是对于一些现存证据模棱两可的案件,受制于地方司法系统中相关判例可接触的种类较少,如果生成式人工智能可以吸收全国绝大部分司法数据,从而可以高效筛选出具有一定相关性的过往判例供司法工作人员参考定夺。准确来说,生成式人工智能是有“专门知识”的技术系统,其所作出的结论不具有终局性,对于其所作出的结论可以适用专门性报告的相关规定审查,但不意味着当作证据使用。

 

(二)生成式人工智能在刑事证据审查判断中的原则

 

1.辅助性原则

 

顾名思义,辅助性原则是指生成式人工智能对于司法活动的技术服务局限于帮助作用而不占据主导地位。无论人工智能在今后发展的智慧水平如何,人工智能始终保持其工具地位而不具有独立地位。但随着生成式人工智能系统性能不断提升,所作出的结论合理性和高效性远超法官现有经验水平时,法官是否还能保证其独立地位不受侵蚀?法官拒绝采纳人工智能做出的结论,是否需承受来自自我内心和上级施加的巨大压力、是否可能导致不利的后果?法官若接受人工智能做出的结论,一旦发生错案,是否可将责任推给人工智能,即人工智能是否可能成为追究错案责任的挡箭牌?

 

笔者认为,厘清这个问题应当回归辅助性原则本身。我们的法官不应是“墙头草”,我们的控辩双方也不是罗列人工智能服务结果的机器。我们应当赋予法官拒绝采纳人工智能作出结论的权利,如同拒绝专家辅助人对案件中某一特定问题作出的意见报告一样,但应当提供充分的说理去驳斥。归根结底,人工智能,尤其是在生成式人工智能已经逐步达到强人工智能的运算水平下,刑事案件中一些特殊证据的质证上人工智能的质证效果完全不逊于某些专业领域的专家,尤其是实物证据方面比如DNA检测,电子数据领域几乎完全依赖人工智能的帮助(主要是弱人工智能)。在归纳推理这种思维模式下,一个几十年工作经验的某领域的专家不一定超过通过海量数据训练出来的人工智能更专业。但司法改革的目标不是要求人工智能取代人类,而是人工智能更好的服务于人类,人工智能与人类的选择不是非此即彼的关系,相反,探索结合人工智能和专家的共同结论的可行性会使案件更接近因此人工智能的结论往往更具有科学性和系统性,这也辅助性原则的宗智。我国最高司法机关是有较为准确的理解的,例如前最高人民法院院长周强就曾指出“要立足于发挥人工智能的辅助办案功能”。因此人工智能技术的运用不得侵犯审理者的独立审判权,不能使人工智能成为实际的案件裁判者,以致形成“程序员、软件工程师、数据处理商、信息技术公司与法官共同作出决定的局面”。

 

2.可反驳性原则

 

如前所述,人工智能所作的分析处理结果在人类的生产生活中仅作辅助作用,无论人工智能的发展水平如何,也无关任何领域,人工智能亦不能侵犯人的意识和主要地位。因此即使是在刑事证据审查的过程中,生成式人工智能的技术服务结果也并非无法推翻的。

 

笔者认为,对于生成式人工智能对于刑事证据的审查结果以及对全案证据综合分析的处理结果,应当比照各级法院发布的权威案例进行处理,即生成式人工智能的分析判断在最初运行阶段并不能完全达到超越一般司法工作人员的水平,但不可否认的是,其自我纠错和自我学习能力是极其强大的。如果司法工作人员在适用人工智能辅助相关工作的过程中认为生成式人工智能的判断结果有误,和本案实际情况存在较大出入时,应当严格论证生成式人工智能的错误之处并加以反驳,而非直接不予适用人工智能,从而不断提高生成式人工智能的准确率并丰富其样本数据库,达到人类与人工智能相互帮助相互学习的良性循环。可反驳性原则的确立意味着人工智能即使无限接近人类智能甚至在部分领域超越人类水平也保证了人类在最后审查适用与否时享有“一票否决权”。

 

四、生成式人工智能对刑事证据审查判断的影响

 

(一)提高刑事证据审查判断的效率和质量

 

在以往的刑事诉讼工作中,通常都要从假设的角度出发去推理刑事案件中存在的因果关系,那么证明假设成立的过程实际上就是得出法律决策的过程。而人工智能和大数据技术的运用则改变了传统因果关系的推理模式,其更注重从宏观角度分析不同刑事案件之中的相互关系,并在具体个案中在对案件的情节和结果进行深入研究后科学地预判审判结果,显然证明这种相关关系的时间成本要更低。事实上,司法实践中约有七成以上案件均为不存在疑难情节的常规案件,但却消耗了绝大多数的司法工作人员的精力,尤其是基层相关办案人员。虽然现阶段难以论证生成式人工智能系统对刑事案件的冤假错案率有所改善,但对于刑事诉讼中程序回转和办案效率有明显提高,尤其是对于高度类型化的高发案件如醉酒驾驶和盗窃案件具有较为成熟的判定模式,可以极大的解放一线实务部门人员,利用有限的司法资源去解决较为少见的疑难案件。同时,大量的类案使得样本数据不断丰富,从而生成式人工智能的运算效果也会显著提升,最直接的影响就是办案人员的结案压力减轻,被追诉人的刑事强制措施适用时间缩短,从而减少过度羁押现象的发生。另一方面,人工智能对刑事证据审查也会附随性考虑犯罪嫌疑人的社会危险性评估,从而多角度减少超期羁押等现象的发生,避免案件侦而不诉、审而不决的现象发生,从而避免贝卡里亚所言的“法官懒懒散散,而犯人却凄苦不堪”现象的出现。

 

(二)促进刑事证据审查判断的公正和透明,减少司法腐败

 

司法腐败的现象亦是本轮司法责任制改革的重点疑难。从员额制改革到终身责任制,我国目前对司法的顶层设计逐步推进“由事向人”过度。具体而言,以往错案推翻既有判决后往往着重在于被冤屈的人的平反和补偿,从而解决冤假错案的关注热度,由于员额制改革和责任终身倒查的落实,导致审判权力被扩张但享有审判权力的人员在减少,案多人少的直观反应就是忙中易出错,也无法做到对每个案件细致入微。并且从过往历史中“严打”时期以及“扫黑除恶”专项任务中不难发现,如果近一段时间的刑事政策对某一类刑事案件的把控尺度有所改变就会产生蝴蝶效应,呈现在一线司法工作人员上的就是捕与不捕、罪与非罪以及量刑轻重的问题,而落在每一个犯罪嫌疑人头上的就是命运的天差地别。另一方面,司法工作人员在办案过程中受到同级领导及上级机关的指示和干扰导致案件“加速处理”或者“疑罪从挂”的现象屡见不鲜。近期热议的“迁西马树山”案更是彻底将这一隐形司法腐败现象浮出水面,从刑事拘留到提起公诉,被告人不认罪的案件共用时25天时间,其中夹杂的司法腐败现象已不容任何一个司法工作人员忽视。综上所述,司法腐败现象主要聚集于以上两类:其一,案多人少的压力导致有审判权力的法官无法面面俱到导致尽可能利用诉讼流程合理合法推诿司法责任,可以归结为“过失的司法腐败”或是“瑕疵的司法腐败”,一线办案人员的工作压力使得做到每个案件审理结果都细致入微往往有心无力;其二,司法系统外的行政干预、司法系统内部的领导批示使得案件在合法的框架内辜罪,如果侦查、起诉、审判三种权力如何相互制约都离不开行政权的统一调度的话,那么司法腐败的风险只会愈演愈烈,这也是一线实务工作人员“故意的司法腐败”。

 

事实上,从“迁西马树山”案的结果不难看出,试图构建司法系统内或权力体系内部监督永远存在漏洞,本案恰恰由于媒体及时曝光引发社会舆论才使得案件有了转机。而确立一个无法轻易为人的主观意志所影响的人工智能辅助系统在存在司法腐败风险时及时纠正成为推动司法改革以及剔除司法腐败的重要举措。以裁判文书网公开判决文书为例,如果某法院合议庭试图枉法裁判,或者检察院给予合议庭压力以图强行定罪,辩方即可援引最高人民法院公布的指导性案例或者上级人民法院的相关判例来进行有力论证,法官在最终判决时无法回避辩方的辩护观点;而取消裁判文书网公开或者将裁判文书变成司法机关内网公开就会导致法庭审理变成流水线式的“一言堂”,从而合理合法的产生司法腐败。建立一个客观中立的生成式人工智能系统辅助司法工作人员,不仅可以提高查证分析效率,减轻一线实务人员的结案压力,还能够给予合理理由拒绝办案过程中遇到的不合理甚至违法要求,从而减轻办案人员来自办案以外的其他压力;而且有效保障了被追诉人不会因为行政权力干扰司法活动导致无辜定罪侵犯其合法权益,从而保证控辩审三方聚焦于案件本身而不是担心“裁判结果于法外法决定”的现象发生。

 

(三)推动庭审实质化的实现

 

有学者认为,由于案件的事实和证据有固定的模式进行采集和记录,可能导致审判扁平化。审判者可以在审前对系统中的要素进行了解,系统也会自动校对,这很容易让庭审质证流于形式。庭审形式化是指辩方无法有效在庭审中提出自己的辩护主张,加之案卷移送主义的影响,从而导致审理结果往往在庭前已经形成从而导致合议庭受到控方的影响偏高。而人工智能辅助系统是对过往案件的审理裁判进行归纳总结分析,其运算能力、经验分析能力远超合议庭所有人之和,只要提供给人工智能辅助系统的裁判数据是公正客观的,都是切实庭审实质化的裁判文书,那么人工智能即会继续沿着庭审实质化的公正结果给出参考意见。相反,如果提供给人工智能的都是书面审理且辩方发表意见过少的,甚至是冤假错案的裁判文书,则会加剧庭审流于形式导致审判扁平化。

 

归根结底,不是人工智能导致了庭审形式化,而是过往庭审形式化产出的裁判文书在提供给人工智能进行分析处理后进一步输出的结果恶化了人工智能的辅助效果,如同新冠疫情期间,线上立案、线上开庭并不会导致“控辩双方没有亲临法庭有损法律的庄严和权威使得裁判结果不够严肃”的荒谬情况发生。事实上,人工智能辅助系统不会创造庭审形式化,相反会减少庭审形式化,因为无论是控方还是辩方,都可以通过声称是人工智能辅助系统以较低的成本对某些无法肉眼观察的证据进行质证,例如对被追诉人适用人脸识别对比技术,其分析结果不可能仅凭控辩双方在法庭用肉眼对照片像素点进行观察。同时,由于时代的不断发展,证据种类也在不断丰富,以往的物证、书证、视听资料等等限缩的证据分类可能无法满足司法实践的需求,生成式人工智能的技术辅助为司法解释以及未来立法修改指引了方向。随着人工智能技术的不断发展以及控辩双方对数据系统的参与程度不断提高,会进一步推动有效辩护的实现,从而实现真正意义上的庭审实质化。

 

五、生成式人工智能对刑事证据审查判断的规范和建议

 

(一)应当赋予辩护律师数据权

 

司法制度与其他领域的交互自然会产生新的社会关系,从而导致权利义务的再次分配,恰如语音识别、人脸识别技术发展成熟之后,控辩双方对刑事案件中此类证据材料的审查就愈发重视。以生成式人工智能进一步的发展为例,假使人工智能的技术服务成果大面积应用,最直观的冲击就是算法技术对一般人具有较高的解释门槛,且生成式人工智能技术的应用可能存在公权力技术垄断等情况发生。因此在目前控辩平衡岌岌可危甚至部分类型案件中辩方无法有效抗衡公权力垄断时,应当强化诉讼中的信息开示制度,将刑事诉讼中的阅卷权改造为“数据访问权”。刑事诉讼和行政诉讼中均有证据开示的相关制度,例如行政诉讼中的庭前证据交换制度、刑事诉讼中辩方享有阅卷权等。辩护律师查询生成式人工智能的数据运算路径应当和会见权、阅卷权的行使一样,具有较为明确的流程规范,其查询结果应当和登陆裁判文书网查询司法判例一样清晰明了。

 

郑曦教授表示,仅依靠当事人本人或其辩护人、诉讼代理人的能力,是不足以应对人工智能技术运用于司法裁判后带来的诉讼变革的。特别是当检察法院或行政机关等公权力机构运用人工智能技术获得大量与诉讼相关的数据后,很可能有意或无意地向当事人进行“文件倾倒”。公权力机关因人工智能技术的运用可能在控诉能力上有重大的提升,有学者甚至认为可能因此导致诉讼结构失衡而引发“新的不平等”。笔者深以为然,文件倾倒现象不容忽视,如同案件卷宗开示制度一样,一些涉及互联网犯罪和跨国犯罪的案件往往含有纷乱冗杂的数据类证据,使一般律师在无专业机构的帮助下无法分辨,从而难以开展辩护工作。而公权力机构往往在新兴技术出现时具有明显的优势地位,辩护律师无法利用社会上的私人机构对公权力提供的数据类证据以及人工智能分析结果进行查证。

 

(二)保护被追诉人在生成式人工系统中的数据安全

 

张新宝教授认为,应当赋予当事人个人信息保护方面的权利,特别是被遗忘权。在人工智能时代,大数据算法使个体的人逐渐变成代码时,保护每个个体的数据不被滥用是平稳运行生成式人工智能系统的重要问题。由于部分案件涉及国家秘密、社会利益以及公民个人隐私不公开,导致此类案件作为数据样本时应当谨防数据泄露风险。对于生成式人工智能系统操作不当导致被追诉人信息泄露的,应当有权向有关机关和违法个人要求赔偿。同时,笔者认为,数据被遗忘权更应当是一种隐私保护权,一些不应公开审理的案件并不代表不能作为裁判数据提供给人工智能模型,所谓不能公开的案件是只能允许特定的人在经申请批准情况下予以查阅,而非任何人都不得知晓,因此重要的是保护隐私性数据不被泄露,而非涉及隐私的案件一律一刀切不予适用生成式人工智能系统,如此只会导致部分特定类型高发案件的数据样本产生偏颇,从而影响生成式人工智能系统对刑事证据审查的判断结果。其次,应当扩展数据样本,从判决书等文书出发,扩大到合议庭笔录、审理报告等内部文书,成为研发生成式人工智能的底层数据,但不能公开查阅,只做数据分析处理。由于算法黑箱的存在,外界无从知晓刑事司法人工智能应用在具体场景中到底发挥多大作用,这会加剧外界对刑事司法人工智能的不信任。现阶段的合议庭笔录也如算法黑箱中的描述一样,所以算法的偏见还是人的偏见并不是唯一缺点,但算法的效率是人无法达到的。不公开不是原因,更不是借口,应当顺应建设人工智能辅助系统的举措推进司法公开,从而提高司法效率,实现正向循环。

 

(三)完善生成式人工智能相关法律法规

 

司法制度出现新的改革必然引发新的法律制定。虽然我国目前制定了《生成式人工智能服务管理暂行办法》,较好的应对了现阶段生成式人工智能发展产生的一系列社会变革,但该法规内容多为原则性规定,颇有宪法序言的意味,与境外其他国家对于人工智能的伦理性规定较为相似,如欧盟的《人工智能伦理准则》要求人工智能技术运用遵循七项原则:人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制。且该行政法规更多聚焦于生成式人工智能发展本身,对其AIGC并无严格规定,例如对人工智能生成的图片、小说等著作品是否享有版权无详细规定。基于此,现阶段生成式人工智能与生产生活的融合度逐渐提高,在不宜直接草拟相关法律时,应当进一步详实《生成式人工智能服务管理暂行办法》,对人工智能与其他领域的结合衍生作出详细规定,例如生成式人工智能的应用渠道、伦理道德、法律风险、智力成果权属、技术有效性等问题,为生成式人工智能接入刑事诉讼提供法律铺垫。同理,人工智能仍是工具,只是比一般的工具更加智能,正如医院检测仪器一样,不同的医生可能看出不同的结果,但随着仪器发展的不断精密,种类不断丰富,所诊断的结果也更加合理,更好的发挥了科技对人的工具价值。

 

(四)建设全国性的生成式人工智能司法辅助系统

 

在上海建设“206系统之后”,其他地方法院也开发了各自的人工智能工具,例如北京的“睿法官”、江苏的“法务云”、河北的“智审”、重庆的“法治云”等。但各地的辅助系统主要存在布局较为分散、人工智能水平较低、不同层级法院无法互联的情况。因此,如何在各地探索建立人工智能辅助系统后串联建设全国性人工智能辅助系统是由量到质的跨越。同时,各地人工智能进行统一联网是实现公正司法、司法透明的重要举措,避免案件一地一判,从而实现同案同判的司法均衡。另一方面,我国的法律体系不同于境外一些联邦制国家,使得我国各地法律差异化程度较小,为全国建设统一司法辅助系统减少了阻碍。并且,由党和国家统一领导建设一方面可以有效解决各地区的时间成本和协调问题,从而提高行政效率;另一方面,由国家领导统一建设还可以避免民间科技企业通过人工智能技术在司法裁判中的运用,将其观念、利益诉求等“嵌入”智能化工具以影响司法裁判,甚至影响法官独立行使审判权。事实上,由于我国的政治体制与世界上其他国家有明显的差异,这导致在司法体制上表现得差别更加明显,域外国家的人工智能系统往往只能依靠私有企业,而我国可以发挥集中力量办大事的特质,充分发挥国企与部分前端科技私企的力量去开发完善一个生成式人工智能辅助系统,如铁道部开发“12306线上购票APP”一样,从而实现全国范围的由法律制定到法律实施的统一。

 

结语

 

在我国,人工智能技术运用于司法裁判是司法体制改革内容的一部分。人工智能介入刑事司法的初衷是“推进以审判为中心的诉讼制度改革”,这也是十八届四中全会以来我国刑事司法改革所遵循的基本脉络,如何统一证据标准以及如何防范冤假错案,是生成式人工智能服务亟需解决的难点。既然要“把深化司法体制改革和现代科技应用结合起来”,那么建立我国特有的生成式人工智能辅助系统是未来司法降本增效的主要路径。人工智能运用于司法裁判是大势所趋,现在固步自封只会导致新时代法律发展落后于人,届时再照猫画虎只会延缓法治进步,阻碍法治建设。毫无疑问,技术的进步是提高工作效率的任何抓手,而效率的提升会反馈公平、正义等其他刑事诉讼价值。诚如裁判文书网公开裁判文书之始,仍不乏反对声音,认为此举会导致相关国家秘密或公民个人隐私泄露,甚至遭到网络攻击的可能。但如今裁判文书网设立已十年有余,没有人可以反对司法文书上网是司法公开最高效的途径。相信随着科技的不断进步,人工智能的发展一定会使传统的诉讼模式产生新的变革,从而解决长期以来效率与公平难以平衡的问题。

 

参考文献及注释:

[1]Bruce G.Buchanan and Thomas E.Head rick,“Some Speculation about Artificial Intelligence and Legal Reasoning”, Stanford Law Review, Vol.23, No.1,1970, p.40.

[2] 钱学森:《现代科学技术与法学研究和法制建设》,《政法论坛》1985年第3期,第1页。

[3] 上海高院研发“刑事案件智能辅助办案系统”避免冤错案[EB/OL].http://www.legaldaily.com.cn/zt/content/2018-01/25/content_7458140.htm?node=90866. 

[4] 谢澍:《人工智能如何“无偏见”地助力刑事司法——由“证据指引”转向“证明辅助”》,载《法律科学(西北政法大学学报)》2020年第5期。

[5] 钟义信:《人工智能理论:从分立到统一的奥秘》,载《北京邮电大学学报》2006年第1期。

[6]Matthew U. Scherer. Regulating Artificial Intelligence Systems:Risks, Challenges, Competencies, and Strategies〔J〕.Harvard Journal of Law&Technology,2016,(2):353-400.

[7] 刘艳红:《生成式人工智能的三大安全风险及法律规制——以ChatGPT为例》,载《东方法学》2023年第4期。

[8] 李本:《美国司法实践中的人工智能:问题与挑战》,载《中国法律评论》2018年第2期。

[9] 方莹馨:《欧盟发布人工智能伦理准则》,载《人民日报》2019年4月11日,第17版。

[10]Loomisv.Wisconsin,881N.W.2d749(2016).

[11] 李本:《美国司法实践中的人工智能:问题与挑战》,载《中国法律评论》2018年第2期,第55-56页。

[12]SeeIyad Rahwan,“Society in the loop:Programming the Algorithmic Social Contrast,”20EhicandInformationTecnology, 5, 14, (2018).

[13] 郑曦:《人工智能技术在司法裁判中的运用及规制》,载《中外法学》2020年第3期。

[14] 陈小平:《人工智能的历史进步、目标定位和思维演化》,载《开放时代》2018年第6期。

[15] 郑戈:《算法的法律与法律的算法》,载《中国法律评论》2018年第2期,第69页。

[16] 李训虎:《刑事司法人工智能的包容性规制》,载《中国社会科学》2021年第2期。

[17] 习近平:《习近平谈治国理政》第2卷,北京,外文出版社,2017年,第131页。

[18] 张新宝:《从隐私到个人信息:利益再衡量的理论与制度安排》,载《中国法学》2015年第3期,第39页。

[19]Niklas Luhmann,“Legal Argumentation:An Analysis of its Form”,The Modern Law Review,Vol.58,No.3,1995,p.294

[20]Natalie Ram.Innovating Criminal Justice〔J〕.Northwestern University Law Review,Vol.112,2018:659-724.

[21]Sandra G.Mayson.BiasIn,Biasout〔J〕.Yale Law Journal,Vol.128,2019:2218-2300.

[22] 李小猛:《大数据、人工智能介入刑事诉讼的风险及应对——以控辩平等为视角》,载《南海法学》2020年第3期。

[23] 史晓前、于阳:《人工智能与刑事诉讼的结合与续造》,载《中国发展》2019年第3期。

[24] 卫晨曙:《论刑事审判中大数据证据的审查》,载《安徽大学学报(哲学社会科学版)》2022年第2期,第79-80页。

[25] 李小猛:《大数据时代辩护律师数据权——作为新兴权利的证成》,载《上海法学院学报(法治论丛)》2023年第4期。

[26] 范忠信:《人工智能法理困惑的保守主义思考》,载《探索与争鸣》2018年第9期,第79页。

[27] 吴习彧:《裁判人工智能化的实践需求及其中国式任务》,载《东方法学》2018第2期。

[28] 宁杰:“周强在浙江调研时强调为高质量发展提供优质的司法服务”,载《人民法院报》2018年11月2日,第1版。

[29] 季卫东:“人工智能时代的司法权之变”,《东方法学》2018年第1期,第132页。

[30] 张迪:《算法证据的独立:法理反思与制度方案》,载《中国刑事法杂志》2023年第5期。

[31] 马东丽:《人工智能在我国刑事诉讼领域的应用现状与规制路径》,载《湖北警官学院学报》2022年第5期。

[32] (意)贝卡里亚:《论犯罪与刑罚》,黄风译,中国法制出版社2005年版,第69页。

 


 

来源:证据与刑辩论坛 

作者:王瀚霖,西南政法大学刑事诉讼法学硕士研究生