当前位置: 中外法学 > “预测正义”能否预测正义?
“预测正义”能否预测正义?
戎静,华东政法大学中国法治战略研究院{助理研究员}

引言

“预测正义”(La justice prédictive)是为分析司法大数据而开发的一套工具,该工具“通过数据分析,特别是从概率计算中,尽可能多地预测诉讼的结果”。[1]预测正义的概念和实践探索均发源于美国。1949年美国人里·洛文杰(Lee Loevinger)首次提出“将科学方法应用于法律研究”以“计算司法判决的可预测性”,[2]预测正义概念随之诞生。[3]此后,不断有研究人员尝试构建数学模型,基于概率或相关性预测司法裁判。随着近年大数据和人工智能的应用,预测正义实现了方法上的飞跃。司法大数据的预测应用也随之在英美逐渐展开,并带动了欧洲大陆的实践。“预测正义”一词虽然是美国的舶来品,但在法国却获得了更为广泛的使用,法国学术界和实务界普遍用“预测正义”来指代通过对已经发生法律效力的既往裁判作大数据分析来预测诉讼结果的应用。[4]法国所称之预测正义包含两个维度:数据维度和算法维度。大量的司法基础数据(既往裁判)是进行预测的基础,而算法则是预测的方法和路径。其中,“数据”维度上,法国在欧洲对个人信息强保护的立场下,在文书公开环节较多关注裁判文书信息的处理、个人信息保护以及司法官信息屏蔽等;而“算法”维度上,预测正义的范围又较为狭窄,主要指预测诉讼结果的算法。

法国“预测正义”与我国司法语境下的“司法大数据应用”“司法智能决策”等概念类似,但略有差别。我国“司法大数据应用”“智慧司法”的概念范围更广,不仅限于辅助裁判领域,还包括线索发现、证据碰撞、侦查方向研判等;而我国在“司法智能决策”的探讨中,则主要侧重对“算法”维度的分析,鲜少探讨判决公开和判决书信息处理问题。预测正义与我国“司法智能决策”另一显著区别还在于,司法智能决策主要以辅助司法官为视角,而法国的预测正义除了辅助司法官,更包含有帮助潜在的当事人和相关法律从业者预测司法判决的意涵,其角度与单方向的司法辅助决策并不完全相同。也正是因为这样,谈及预测正义,法国首先关注的是法官作为被分析和预测的对象,其次才是被辅助的主体。这也是“法官画像”禁令首先出台在法国的原因之一。

法国司法历来因效率低、周期长和成本高备受诟病,司法数字化浪潮下法国期望通过发展预测正义达到以下目标:[5]一是减少法官的工作量并维持诉讼的合理周期;二是通过提高司法的确定性和透明度提高司法质量,增进司法公正,增强公民对司法的信心;三是通过预测正义纠正潜在诉讼当事人的“乐观偏见”,使其根据诉讼成本和结果的预期概率来衡量诉诸法院的利弊,从而减少不必要的诉讼。四是促进预测正义的新应用或服务出现,带动司法数字化产业不落人后。基于上述初衷,以2016年10月7日颁布的《数字共和国法》为标志,法国开始通过一系列法案及司法实践,推进裁判文书的开放,鼓励司法预测算法的研究和应用。然而欧洲大陆针对数字技术的应用素来秉持较为保守的态度,在预测正义推进的过程中,法国学术界和实务界争论不断。预测正义被看作是数字、算法和统计在法律领域的“势力扩张”,[6]在法律、经济、社会、心理、政治和哲学等各个层面均存在争论和质疑。在此背景下,法国预测正义呈现出一种挤牙膏式缓慢推进的状态。

相比之下,我国通过顶层设计来支持司法领域大规模运用人工智能技术,推进过程比较顺畅,并没有伴随太多的争议和阻力,与法国相比呈现出“起步早、推进快”的特征。司法数据公开方面,2014年后,两高相继推出裁判文书网、庭审直播网、检察信息公开网、检察听证网等司法信息公开网站,为算法预测工具提供了充沛的数据源。算法应用方面,在2016年第三届世界互联网大会智慧法院暨网络法治论坛上,时任最高人民法院院长周强指出“将积极推动人工智能在司法领域的应用”。随后,科技公司开始不断与各地法院联手合作,大力推进司法领域的人工智能应用。例如,科大讯飞与江浙沪皖高级人民法院签署了《推进长三角地区三省一市“人工智能+法院”深度战略合作协议》,共同推进“人工智能+法院”在长三角地区的应用。在预测性司法工具方面,由上海市高级人民法院研发的“上海刑事案件智能辅助办案系统”(即206系统)成为一项标志性工程。[7]顶层设计顺利推行的背后,个人和公共信息安全风险、算法分析法官等问题亦凸显,导致裁判文书公开的步伐放缓。2020年全国各地法院受理案件3080.5万件,审结、执结2870.5万件,裁判文书网显示2020年公开裁判文书共2339.6106万份,公开占审结81.5%。而2021年全国各地法院受理案件3351.6万件,审结、执结3010.4万件,公开裁判文书共1667.7973万份,公开占审结仅为55.4%。[8]在2021年全国法院案件数量增长情况下,裁判文书网上公开量却由八成降至五成,说明我国推进裁判文书公开的力度放缓,司法数据的公开经历了一个“大力推进—收缩调整”的过程。而上游数据维度的收缩也必然会对下游的算法维度产生影响。

总的来看,中法两种做法各有利弊,我国先推进、在实践中遇到问题再调整的做法更高效务实,但容易面对预先准备和反思不足的问题。法国的做法貌似事先准备充分,但畏首畏尾、推进缓慢,且一些“真问题”依然需要实践磨合才能凸显,冗长的事先争论会花费过多精力从而牺牲效率。事实上,在司法数据公开和算法辅助决策问题上,各个国家面对的挑战是相似的,法国更加充分的争论及其专门立法,在我国目前进入修整阶段时,恰好具有比较分析价值。本文拟从司法大数据公开和算法辅助决策两个维度考察法国预测正义的实践和理论争议,从比较研究的基础上,提出有利于我国司法智能决策发展的完善建议。

一、实践考察:法国预测正义的演进与现状

(一)数据维度:强保护立场下司法裁判自上而下逐步公开

开放数据是数字化转型的前提条件。在2016年以前,法国司法判例在线公布呈现出零碎和不完整的状态,仅有不到1%的一审法院和上诉法院判决可在Légifrance等官方网站上在线获取。[9]2016年《数字共和国法》的出台吹响了法国司法裁判全面公开的号角,该法第20条和第21条分别对《行政司法法》和《司法组织法》进行了修订,要求在尊重有关人员隐私和评估再识别风险的基础上向公众免费提供所有行政法院和司法法院的裁判。法案制定者认为判决公开是法院公开审判原则的一种变体,是司法运作的基本原则。该法案旨在通过公布有关判决数据,使诉讼当事人和公民更好地了解司法,并促进裁判的二次利用。此后,法国又通过一系列法案,细化了司法数据公开过程中个人隐私和个人信息保护的相关规定。可以说,法国的司法数据公开采取的是法律和法案先行“铺路”,实践逐渐放开的方式。2019年3月23日法国颁布2019-222号《司法改革法》中第33条,对《司法组织法》第111-13条第2款相关内容进行了修改,明确规定“不得为了评估、分析、比较或预测司法官及书记员真实或假定的职业行为的目的或效果,而二次利用司法官和书记员的身份数据”,违反该禁令将按刑法中“以欺诈、不正当或非法手段收集个人信息数据罪”论处,对涉罪自然人可判处最高5年监禁并科最高30万欧元的罚金,而对涉罪法人则最高按照自然人罚金5倍科处,同时可附加永久或在5年内从业禁止、关闭企业、强制司法监督、排除参与公共工程、禁止公开募集资金等制裁。《司法改革法》还进一步明确裁判文书在公开的基础上对特定自然人和司法人员姓名和身份信息进行必要处理。这就是法国轰动一时的“法官画像”禁令,该法令是立法机关对司法大数据应用与法官隐私、司法独立、司法权威、司法公正之间法理冲突的回应。[10]2021年9月30日法国又颁布第2021-1276号法令涉及司法裁判中个人信息数据的自动处理,规定了公布判决前两种自动处理个人信息数据的操作方法。

立法明确原则和方式后,法国的裁判公开采取分类分批逐步实施的路径。法院区分存量判决和增量判决,在线免费提供的法院裁判暂时仅限于公开法令颁布后作出的增量判决,并且根据审级和诉讼类型不同,自上而下分步骤实施裁判公开:[11]短期内,公开最高法院的增量判决;中期内,提供上诉法院的增量判决,包括行政、民事、社会和商事上诉法院的司法裁判;中长期公开全部符合条件的新增一审判决;长期将公开一审和二审既往存量判决。从数量和比例来看,到2021年为止,每年约有15000份法院裁判在官网上发布,短期目标是每年公布150万份裁判,即增加到目前公开量的100倍,但事实上目前每年公布的数量仍不到作出裁决总数的一半。[12]可见,法国的司法数据公开,在强保护立场下呈现着一种极度缓慢和审慎的状态。

(二)算法维度:鼓励基于定量预测分析的算法工具

促进预测正义工具的开发和司法数字技术的发展本身就是法国推进裁判文书公开的动因之一。故《数字共和国法》之后,法国官方采取了一些举措促进预测正义算法工具的发展。如法律和行政信息部于2016年11月4日发布命令,为司法人工智能项目设立奖项,目的是为了“欧洲判例的统一”及“判例的开放及附随服务的发展”。[13]从算法路径来看,预测正义数学模型的构建依赖于案件前提事实、争议类型相近的既往判决,及以词汇组相关性为分析路径的算法。如婚姻家庭案件中,根据婚姻的持续时间、当事人职业、经济状况差距、年龄和当事人健康状况等要素进行类案搜索,归纳分析出财产分配和补偿金额。从涉及的领域来看,预测正义专注于可量化的诉讼结果,主要集中在离婚、民事侵权、合同违约等案件的赔偿金预测,领域较为狭窄,刑事事项更是被有意排除在这个“现代版水晶球”之外。[14]从预测正义工具的应用范围来看,尚未形成全国推广的服务于司法主体的预测正义工具,离“由不同的行为主体以及司法和非司法决策机构共享,提供司法通用语言和协作方式”的目标仍然相去甚远。[15]从算法成熟度来看,法国的预测正义迄今为止仅限于对处理司法裁判大数据软件进行实验和初级应用开发,其稳定性和准确性尚不能满足司法需求。有学者甚至尖锐地指出,预测正义提供的预测结果较为准确的部分,通常也只是实践中较为稳定适用、缺乏争议的部分,如果算法可以准确预测大部分结果,通常也是因为法官在此类案件中的法律适用本来就是趋同的。[16]总之,目前法国的预测算法还停留在通过统计原理进行定量预测的阶段,尚未发展出模拟人工推理的认知预测。在预测正义领域和许多其他人工智能领域一样,数据处理技术和人工智能的发展并没有免除对所处理对象的先验知识,也没有免除对观察的解释变量的假设,遑论从理论框架来理解数据。·

二、理论质疑:“预测正义”的功能局限与价值冲突

法国学术界和司法实务界从功能到价值层面均对“预测正义”提出诸多质疑。总结来看,集中围绕两个问题:功能层面,“预测正义”是否真的能够预测正义?价值层面,“预测正义”应用导致的结果是否正义?这些质疑伴随着预测正义的酝酿、启动和推进的全过程,其积极作用是促使法国不断出台法令试图对冲预测正义带来的负面效应,但同时也使得预测正义在争议声中推进缓慢、踯躅前行。

(一)功能质疑:以统计分析为基础的“预测正义”无法预测正义

首先,“原材料”可靠性存疑——司法大数据样本偏差排除不能。一是既往判决法律适用及推理的正确性无法检验。既往判例中存在推理质量不高、适用法律不准确的裁判是客观事实,算法无法辨识已生效裁判推理的偏差。这使得“问题裁判”不可避免成为“大数据”的组成部分,对概率结果产生或多或少的影响。二是既往判决的历史性与未决案件的现实性冲突无法避免。法官在不同年代对于相同类型案件的裁判观念、倾向、尺度存在的明显不同难以公式化,算法也难以进行区分和矫正。因此,仅仅将司法大数据作为“原材料”进行统计和概率计算的预测正义可靠性堪忧。且此种做法也会产生一个逻辑悖论:不加区分的以标准不一、年代不同的既往裁判作为样本提炼统一的司法标准,以期改变裁判不统一的现状、促进司法一致性,无异于“揪着头发自提自身”,出现了目的与方法的矛盾。

其次,算法路径局限——不能穷尽司法决策依据的所有要素。“预测正义”是对既往判例的事后抽象化叙述而不是严格描述。算法须对既往裁判文书进行类型化处理,从中提取关键词汇,而这一过程要对既往裁判中的信息予以“取舍”。世界上没有两片相同的树叶,个案是具体的,其中复杂繁多的裁量要素无法先验地全部形式化、类型化处理。从这个层面上看,判决的整体一致性只能趋近却无法真正达到和测量。

再次,归因逻辑单一——仅凭统计相关性无法科学预测法官决策。解释人类的决策行为,需要事先构建一个由社会科学不同学科理论和观点构成的复杂解释框架。对司法决策原因的可靠解释需要对每个案件的信息进行精细的分析。而除了前述算法的抽象化处理无法穷尽全部裁量要素外,影响法官决策的要素也并非都会在裁判文书中找到答案。例如,家事法官在统计上更多地将其司法辖区内的儿童住址归为其母亲居住地,这一事实并不一定反映了法官对女性的偏见或偏袒,而需从社会经济因素和其管辖范围内特定的人口文化等因素去解释法官的行为动因。而将统计相关性得出的所谓决策倾向推认为某一辖区司法机构整体的倾向就更加站不住脚。因此法国学者质疑,应用于裁判参考的内容需要极其严格,当前“预测正义”程序中关键词相关性远不能以无可辩驳的方式解释为因果关系,根据单一概率相关性对既往判决做出虚假解释的风险非常高。[17]因此,“预测正义”从功能上被批评为一种短视的、片面的司法工具,缺乏对法律决策真正因果要素的详细分析。当前模式是期待“预测正义”通过简单的相关性归因提供一个未必可靠的“由数字产生的规范”,而法官却被迫“重新努力解释”与平均值的偏差,基于对产生“司法平均值”的技术理解,这种期待值得被反思。

(二)价值冲突:“预测正义”影响和重塑司法活动导致不正义

1.司法公正的消解:预测正义结论本身的不正义

一是“预测正义”的算法歧视或加深偏见。建立在数据统计分析基础上的“预测正义”不仅不能如法律技术人员声称的那样识别特定法官存在的偏见,反而可能会滋生司法偏见。如通过对法国巴黎的“郊区青年”、非裔法国人群体既往犯罪情况的统计分析得出的犯罪率和再犯可能性均显著高于居住在市中心的法国白人群体。[18]法国学者认为,将个人的命运归结为他所属的群体统计特征是决定论刑法学说的复苏,由于法国刑法中对“新社会防卫论”根深蒂固的坚持,决定论与法国的刑罚理论和实务并不兼容。[19]这也成为了法国“讨伐”预测正义进入刑事领域的关键理由。在无法有效控制预期数据范围和算法“黑箱效应”的情况下,不仅刑事领域,民事、行政领域所获得结果的唯一统计值亦遭到质疑。此外,预测正义工具的设计者还可能进行数据窥探,即对上游数据进行选择以使其对预定的分析网格具有重要意义。例如,从样本中回避不适合语言序列相关性的决策,而这也将导致样本不具有全面性,结论价值愈加贬损。总之,建立在数据统计分析基础上的预测正义得出的结论不仅不能如法律技术人员声称的那样识别特定法官存在的偏见,反而可能会滋生司法偏见。

二是数据分析带来的信息侵害风险。一方面,个人隐私和个人信息泄露风险。法院判决所包含的数据种类繁多,且部分数据特别敏感,揭示了种族、政治观点、宗教信仰等,甚至涉及生物识别数据、健康数据或有关性生活、性取向的数据,严重关涉个人隐私和信息安全。加之算法通过技术手段增加了在数据和元数据之间建立交叉引用的可能性,从而使得重新识别裁判中涉及的个人及其身份的风险大大增加,建立有效的个人隐私和个人信息数据保护机制是一项重大挑战。[20]另一方面,司法人员的信息数据被不当分析的风险。法官、检察官、书记员等司法人员的信息在裁判文书中是一类特殊数据,其公开不但会因大数据分析而给对司法人员带来信息安全风险,更加会引发“法官画像”现象。法国宪法委员会第2019-778号决定中明确提及法官大数据画像的应用可能会加剧策略性的管辖选择行为,即“择地诉讼”和“挑选法官”的诉讼投机行为。法国一项利用机器学习算法对法国行政上诉法院的判决进行分析的实验表明,算法已经自主找到了二审驳回率特别高的法官,并将其用于预测。[21]同时法官信息的泄露更可能产生法官本人被舆论谴责的风险,这些现象都一定程度上会影响司法公正。

三是算法决策逻辑对正当程序原则的内在排斥。司法官作出司法判断的过程是经典的三段论推理,以法律为大前提,案件事实为小前提,通过司法官专业的判断得出结论。但预测正义工具基于统计分析得出结论的逻辑却完全不同,这相当于用既往案例的统计作为标尺,来衡量和影响法官对于当前个案的司法判断,削弱了法官传统的三段论式的推理过程。而当前司法程序恰是围绕如何保证司法三段论式推理的公正进行而设计的。以刑事诉讼为例,侦查、起诉、审判一整套诉讼流程,以及控辩两方对峙的程序设计,均服务于增加司法判断的确定性和公正性,形成司法官的内心确信。一方面,建立在统计算法上的预测正义得出结论的过程未经司法程序检验。“在任何情况下都不应将预测正义算法给出的解决方案与判断行为混淆,因为该结果并非来自司法程序。”[22]另一方面,针对将来有可能出现的、类似Chat GPT模仿人类决策“思考”过程的、基于三段论式推理的预测正义工具,法国学者依然持否定态度,认为“司法活动远比机器能够理解的三段论复杂,司法判断行为中不可还原的人为部分恰恰具有不可预测性”,且“人的错误总是比数字自动化的错误更可取”。[23]因此,不论基于统计算法还是模仿三段论式的算法,均无法真正复刻司法判断的推理逻辑,而在当前的诉讼规范体系内,对司法判断逻辑的改变本身就是不正当的。

2.司法独立的消解:“预测正义”异化为“二级规范”对法官决策自由的侵蚀

法官的独立性,在法国被规定于《宪法》第6条,同时也是《欧洲人权公约》第6条第1款的重要内容,“是指在不承受任何直接或间接压力的情况下进行判断的义务”,这尤其意味着法官相对于地位相近的其他人的自主裁量权。[24]但“预测正义”却通过突出其他法官的做法对法官自由决策施加无法忽视的压力,产生了“绵羊效应”:即预测正义鼓励法官从众,并更加孤立想要“逆流而上”的法官。这本质削弱了法官的独立性,注定会减少裁判的多样性和个别化。法国学者认为预测正义提供的司法决策方案异化为了一个标准,该标准在法律和法官之间形成一道屏障,有可能成为取代法律规范本身的二级规范。计算机代码成为法律,法律则被简化为必须从中推断出决定的数字信息。法官将不再是“法律的代言人”,而是“算法的代言人”。[25]预测正义作为指示性参考的应然定位无法消除其事实上异化的可能,故“不应作为结论存在的唯一事实来取代法律本身,特别是以此减少法律提供给法官的解释余地”。[26]

3.司法权威的消解:自上而下解释性判例体系的嬗变

法国与其他民法法系国家一样,法律由立法权主导制定,判例构成“解释性先例”,而不是普通法系国家的“判例法”。有参照效力的判例确定权,仅归属于最高法院,[27]形成了一种自上而下的垂直解释性判例体系。在这个模式中,下级法院数以百万计的判决没有规范地位,只有当其揭示法律适用中的“新问题”“新阻力”或“新分歧”而参与法律统一解释时才有意义。甚至在法国立法中对既往判例过度影响法官是明确排斥的。如果当事人在法庭上抗辩有权类比既往裁判而获得有利判决,则会被引用《法国民法典》第5条进行反对,该条规定“法官对于审理的案件,不得用确立一般规则的方式进行判决”,以及援引《法国民事诉讼法典》第455条“根据审判的具体情况作出决定,而不是参考已经判决的案件”的规定。故在裁判依据上,判例参考机制受到严格限定。诚然,绝大多数法官基于从目的、系统等角度对法律进行阐释的需要,注重学说和判例的参考,但这种参考在垂直模式的解释性判例体系框架之内,极为重视上级法院的判决,特别是最高法院认可的典型判例。而以司法大数据为基础的预测正义对法官决策的影响,事实上使得普通判例对未决案件产生的影响大大增强。由于构成司法大数据的判例中,一审裁判比重大,且同级法院的类似裁判往往更具可比性,预测正义使得一审法院、同级法院甚至下级法院的裁判更具参考性。原本下级法院遵照上级法院解释的“垂直模式”,在预测正义的冲击下向“水平模式”转变,最高法院和下级法院面临着在“解释性判例”体系中各自角色的重新分配和调整。

三、调适创新:“预测正义”负面效应平衡路径评析

(一)提升预测正义的算法透明度以保障算法可靠性

在法国司法部长委托专家团队对裁判大数据公开风险进行评估后,所得的官方报告建议从三个方面增加算法的可靠性:一是规定算法透明义务。二是社会和公共当局对算法实施控制和监督,允许经济和社会参与者分析相关工具的操作原理并找出弱点,公共当局也可介入进行灵活的控制。最后,建议基于独立机构的质量认证机制来考察预测正义工具,如ISO标准等。[28]这三项措施总结来看,就是对算法进行公开,并接受社会、官方以及专业人士的监督和定期评估。但从实际情况看,法国仅在《公众与行政关系法》中规定了,在执行行政任务中,主管部门有义务在线发布在其执法中使用的主要算法的处理规则,但这却并不适用于司法领域。虽然有学者建议比照上述规定建立司法领域的算法透明制度,[29]但将预测正义算法向社会公开背后依然藏有诸多顾虑:诉讼秩序方面,公开算法可能会导致案件当事方原本基于法律层面的辩论迁移至算法技术层面;监督机制方面,算法的专业壁垒可能导致即便透露给包括法官在内的用户,也不确定他是否能够破译算法的操作并了解其限制,故对算法进行监督必然要走专业监督的路线,而专业监督尚未建立相对健全的机制;监督效果方面,因算法既不可能完全中立也不可能完全透明,算法透明化会自动生成对受算法决策影响的参与者行为的适应,类似害虫免疫系统不断迭代增加抗药性一样,最终依然使得监督无效。故法国对算法透明化的呼吁尚停留在争论阶段,立法乃至实践机制的建构并未启动。

(二)强化裁判中个人信息与司法人员信息保护

一是对司法裁判中个人信息进行“不可识别”化处理。相较于算法透明化的犹豫,法国在公开裁判信息保护方面的立场则更为坚决,亦进行了实质性的机制建构。法律对裁判文书中的个人信息确立了两个级别的屏蔽:基本屏蔽和补充屏蔽。基本屏蔽是强制性且无需评估的,即对裁判中提到的自然人、当事人或第三方的姓氏和名字。补充屏蔽则是针对“任何披露后可能识别当事人、第三方、司法官和书记员,进而可能破坏信息主体及其周围人安全或隐私的要素”。可见,补充屏蔽内容的确定需要裁量。在审查该法令草案之际,法国国家信息自由委员会就提出“必须制定一个标准,以便协调需要进行的补充屏蔽,否则不同审级之间以及不同法院之间在决定补充屏蔽方面存在产生重大差异风险”。[30]法国最高法院随后在此框架内设立了工作组,任务是发布建议以协调法官实施的补充屏蔽,保护出现在法院判决中大量敏感又颇具差异性的个人信息。对实现信息屏蔽的方法,法国法院最初选择对判决进行隐名化处理,然而很快发现判决的隐名化不具有可行性。一方面,根据欧盟《通用数据保护条例》的规则,屏蔽信息后的裁判需达到不可识别特定人的程度,这对屏蔽提出了极高的要求;另一方面,屏蔽还要考虑到未来技术发展可能使用的手段,一旦裁判公开,要以不可逆转的方式防止个人信息被直接或间接识别。为达到以上目标而采用敏感信息隐去的方案,则会将法院判决的内容“本质清空”,使裁判丧失可读性和二次利用价值。为了在裁判公开信息的可用性和个人信息权利保护之间取得平衡,法国法院的屏蔽方式从“隐名化”转为“假名化”。假名化是对个人信息的虚假化处理而非个人信息的直接隐匿。根据欧盟《通用数据保护条例》,假名化的执行目标是“若不使用附加信息,个人信息将不再与一个特定数据主体相连,且附加信息被分别保存并使用技术和组织措施保障个人信息不被与已识别或可识别的自然人相连”。为应对法院大量判决需进行假名化处理的挑战,法国最高法院专门与科技公司合作,利用人工智能技术开发了“假名化引擎”,该应用于2019年12月投入生产,可高效自动检测需要进行假名化处理的信息,包括自然人的姓名、地址、出生日期、死亡日期、结婚日期、法人名称、法人的法定代表人、车牌、银行帐号、识别号码字符串(社会安全号码、电话号码等)、专业人士的姓名等。

二是司法人员信息的有限屏蔽及“法官画像”禁令。经公开审判获得的裁判保留司法人员的身份信息是程序正义的要求之一。但现实中,“法官画像”现象带来的选择性诉讼、管辖寻租进而影响司法公正的风险也不得不防。法国对此采取了以下两项处理举措:其一,以法庭工作人员信息公开为原则,以屏蔽为例外。即当“披露后可能识别信息主体,进而会破坏信息主体及其周围人安全或隐私”的情况下,司法官、书记员等人员的信息才予以屏蔽。该信息屏蔽由法院院长决定,对于司法工作人员信息屏蔽存在争议的,可上诉至最高法院院长处予以裁决。其二,出台“法官画像”禁令。上文提到,《司法改革法》第33条确立了分析司法官和书记员的禁令,违者将触犯刑律。分析法官入刑旨在避免“可能改变司法运作的司法选择压力或策略”。[31]除了禁令的威慑作用,法国的司法官普遍异地交流任职制度,使得司法官在职业生涯中长期服务于同一地区、同一法院的可能性极小,也在制度上大大缓解了基于分析法官而进行司法选择的风险。

(三)倡导“异议裁判”支持机制以保障法官决策的独立性

预测正义会削弱法官独立性恐怕是所有发展司法决策智能化的国家均需面临的难题。法国学者提出在客观化的决策环境中,“异议裁判”要以新的激励方案为代价才能生存,在适当的情况下,要允许甚至激励法官对同案不同判作出解释。[32]在法国最高法院于2018年1月15日复会期间,法国总统也提出希望“异议意见”出现在判决中。然而这种“异议裁判”鼓励机制的呼吁更多停留在应然层面上,而实然层面法国并未形成一种有效的制度性设计。更何况,对异议裁判进行合理并充分的解释,这本身就是极具挑战性甚至是开拓性的,当预测正义不仅仅只由法官使用,律师甚至当事人均可以通过各类预测正义工具来衡量法官的裁判时,需要何种力度、何种内容的激励机制才能对冲法官及合议庭作出“异议裁判”的压力和阻力,恐怕依然是未解的难题。

(四)以“等距法”理论寻求司法范式的更新和转换

应对预测正义对解释性判例法体系的冲击,法国学者认为需要超越技术层面,转而寻求理论和制度的自我更新以满足新需求,[33]并提出司法大数据及预测算法深刻影响判例法体系,使两大法系趋同于一种新的法律范式——等距法(Le droit isométrique)。[34]等距法体系强调通过预测正义等应用程序来平等地衡量司法判决,最终由算法程序合成具有事实上规范力的标准。“等距法”范式的合理性论证从以下方面展开:

一是算法分析既往判决的客观性是其规范力来源。等距法体系的核心在于承认预测正义具有规范力,[35]而规范力则来源于不经筛选的普通判例总体,与原有的判例法理论有巨大差别。既往不论是普通法系通过先例规则而确定的特定判例,还是民法法系中由最高法或上级法院确定的具有典型性的解释性判例,均需通过筛选规则确认后才具有规范力。而法律的智能化和信息化,进化出了通过技术分析事实与裁判的能力,构成法律适用灵活的、进化的和事实的尺度,改变了传统只有上级法院对法律解释的掌控,而形成另一个对法律的解释具有规范力的判例法系统,即基于案件事实相似性对法律适用的控制。从观察事实中引发的规范力具有相对的客观性,故等距法范式也被认为有利于逃避政治权力的控制,使司法变得更加民主。

二是等距法体系带来法律适用预测性的增强将促进司法公正。无论是秉持规范判例法的普通法系还是坚持解释判例法的民法法系,寻求法律的可预测性是二者的共同点,成文法与先例规则都致力于构建一个预先存在的规则框架,从而可以在问题出现之前预测问题的解决方案,但这种对可预测性的渴望显然无法承受世界的复杂性。预测正义使法律适用的可预测性大大加强了。法国最高法院院长贝特朗·卢维尔(Bertrand Louvel)认为,开放数据将通过允许法官与其他法官的分析论证进行比较,使其作出的裁判成为更广泛合议的一部分。法官孤独感的下降将促进司法判决的一致性及其可预测性,而这会促进司法公正。以赔偿案件为例,预测正义提供了法院裁决的每项索赔的量表,该量表报告了所有地方法官的判断,并随着数据库的更新而更新。这会导致既往判例史无前例的整合,不仅在司法官的决策过程中,而且在律师的请求构建中。以往,类似案例的赔偿数额差距从一倍到五倍不等,预测正义被寄希望于缩小这种差距。裁判的同质化可增强公民对正义的信心,等距法体系也将成为提高司法质量的保证。

三是判例参考的“垂直+水平”模式可避免垂直模式的弊端。等距法体系中,最高法对法律解释进行自上而下控制的“垂直模式”与基于既往判决的算法分析而产生的“水平模式”是互补的。等距法体系强调法官活动具有核心价值的部分是解释法律以适用法律,为解释法学注入新的活力。《法国民法典》第4条禁止法官“以沉默、晦涩或法律不充分为由”拒绝审判,使每位法官都成为授权的法律解释者。但以往这种解释仍然在最高法院的控制之下,而垂直解释性判例体系存在明显弊端。在没有上诉或诉诸异议程序的情况,下级法院之间以及上下级法院之间的解释差异处于潜在且不可观察的状态。而预测正义对此恰恰起到了补充作用,对平衡法律适用差异效能更强。“垂直+水平”模式从整体上推进了等距法范式所追求的司法同质化的目标。而有法国学者也将这种“垂直+水平”模式描述为“横向—定量”的判例法和“纵向—定性”的判例法结合,前者是定量的、易于访问的,后者则是定性的、更具教学性和可读性的。[36]“垂直+水平”模式事实上是判例法学对预测正义带来新趋势的适应性改变,而新的范式将使每个法院的每个法官都充分发挥解释法律的作用,从而加强其在法律秩序中的地位。[37]但事实上,新的理论范式和实践模式转变需要过程,法国为了保持原有垂直的解释性判例秩序,对裁判文书采取自上而下逐步公开的顺序。可见,“垂直模式”向“垂直+水平”模式的转变还需要复杂的磨合过程。

四、中国视角:法国预测正义争论与实践的启示

(一)算法控制层面:对司法智能决策算法进行专业监督

目前我国各地法、检与科技公司合作,探索不同版本的司法智能决策系统,对司法科技产业的发展具有积极的推动作用,但其背后运用的算法规则和计算过程却缺乏统一的标准和监督,良莠不齐。法国司法部官方委托出具的司法大数据公开评估报告提出的对预测正义进行专业算法监督的建议具有一定的可借鉴性,建议对司法智能决策算法建立专门监督机制:一是建立司法智能工具备案机制。建议最高人民法院牵头组成工作组甚至是专门委员会,聘请精通法律、人工智能和伦理学的专家作为成员,对各地的司法智能决策辅助工具开展专项监督。在要求各地开发的司法智能决策工具进行常规备案的基础上,对算法的科学性、合法性、合伦理性进行评估。积累经验成熟后,可以对司法智能决策产品总结出相对客观和科学的标准,作为我国开发司法智能决策产品的通行入门标准,总体上提升司法智能产业竞争力,更提升司法智能辅助决策的可靠性和科学性,从根本上促进司法公正。二是构建以算法审计为核心的过程控制机制。这种过程控制不能仅仅是技术源代码的公开。由于存在技术门槛,普通诉讼参与人无法对复杂的数字代码进行实质性的监督,应由可控的、非特定专家小组来进行算法审计监督,对不当的运算程序、决策规则进行干预和纠正,同时也可保证不向公众公开披露源代码和其他专有信息。推动将数字权益设定为算法程式,结合诉讼监督实际,有针对性地设置算法矫正模型,聚焦“解释算法的算法”和“监督算法的算法”,[38]进而发挥技术正当程序的风险控制功能。时机成熟时也应引入对软件开发者、系统架构师、应用维护人员的数据安全和算法问责机制。

(二)信息保护层面:强化司法大数据中信息权的保护

当前,我国从立法到实践均存在裁判文书中个人信息安全风险的隐忧:

第一,规范层面,裁判文书公开的范围与《个人信息保护法》的规定存在抵牾。根据2016年修订的《最高人民法院关于人民法院在互联网公布裁判文书的规定》(以下简称《规定》)第8条,互联网公布裁判文书时对姓名隐名处理的范围包括:①婚姻家庭、继承纠纷案件中的当事人及其法定代理人;②刑事案件被害人及其法定代理人、附带民事诉讼原告人及其法定代理人、证人、鉴定人;③未成年人及其法定代理人。除上述三类情况外,裁判文书中的个人姓名均实名公开。同时《规定》第10条规定了在公开裁判文书中,需将部分敏感信息予以删除,包括自然人的家庭住址、通讯方式、身份证号码、银行账号、健康状况、车牌号码、动产或不动产权属证书编号等个人信息,法人以及其他组织的银行账号、车牌号码、动产或不动产权属证书编号等信息,涉及商业秘密的信息,家事、人格权等纠纷中涉及个人隐私的信息,涉及技术侦查措施的信息等。在我国这种“普遍实名+有限隐名+敏感信息删除”模式下,信息公开的范围显然较为宽泛。2020年和2021年,《民法典》《个人信息保护法》相继出台。根据《民法典》第999条以及《个人信息保护法》第13条第5项的规定,司法机关应为公共利益在合理范围内处理个人信息。裁判文书公开无疑具有公共利益属性。根据《民法典》第1035条以及《个人信息保护》第6条,处理个人信息应采取对个人权益影响最小的方式,不得过度处理。公共利益的实现应以最小化牺牲个人利益为原则,这也是《个人信息保护法》确立的信息处理必要性原则的内在要求。而我国如此宽泛的实名公开范围中,恐有部分个人信息的公开违背必要性原则。如三年以下有期徒刑、拘役、管制、免刑等轻刑犯罪人的个人信息,隐名或假名处理并不会丧失文书的可读性,反而有助于犯罪人复归,促进社会和谐稳定,既有利于“公益”亦有利于“私益”, 而目前这类案件并不在信息处理范围之内。这表明当前裁判文书的处理模式及范围,亟需根据《民法典》和《个人信息保护法》的规定,以合法、正当和必要为原则进行重新评估和调整。

第二,实践层面,公开的裁判文书并未执行统一标准,对个人信息的处理程度各异。虽然《规定》中明确了处理标准,但各地在执行上偏差较大。有的已公开的裁判文书会列明详细的个人基本资料与身份信息。如“刘文超袭警案”的裁判文书详细载明了以下信息:被告人的姓名、性别、出生日期、居民身份证号码、民族、文化程度和户籍所在地。[39]有的已公开的裁判文书虽对个人信息进行了去标识化处理,但进行简单的附加数据比对便可识别出特定自然人。较为常见的信息组合为姓氏与工作地点,如“巩冬生故意伤害案”中的证人姜某系北京市西城区陶然花园酒店员工,凡掌握该工作单位内部人员名单或实地探访的积极侵权人,极易辨识出上述个人信息主体,甚至可以对其实施精准打击报复。[40]有的已公开裁判文书则对个人信息处理得并不彻底,一是体现为检索页标题保留当事人全名,而文书内容隐去当事人姓名;[41]二是体现为对裁判文书内容中同一信息的处理不统一,有时隐去而有时则完整显示。[42]

第三,维权层面,对涉裁判文书个人信息权保护以事后救济为主,“亡羊补牢”难以避免保护不周。比较来看,法国裁判文书中个人信息保护以公开前的不可识别化处理为主要手段,而我国在公开环节把关较宽,对裁判文书中公开信息的二次传播侵权,依据《个人信息保护法》和《民法典》等相关法律的规定予以事后救济就成为了个人信息权保护的主要途径。[43]然而根据《民法典》第1036条,合理处理已经合法公开的自然人信息不构成侵权,但“该自然人明确拒绝或者处理该信息侵害其重大利益的除外”。此处规定的“自然人明确拒绝”表面上是“告知—同意”规则,但法律并没有给二次传播人设定提前告知的义务,根据《个人信息保护法》第13条的规定,合理处理公开的信息并不需提前告知。加之对裁判文书中已经公开的个人信息进行二次传播具有不可预知性和不可控性,权利人在传播前明确拒绝实不具有可操作性。如此一来,构成侵权必须要“侵害其重大利益”,而何为自然人“重大利益”并无明确标准。有学者指出,侵害自然人重大利益的情形应指处理信息将有害于自然人的生命、身体、自由、财产或其他重大利益。[44]依此标准,二次传播通常关涉的名誉权、隐私权恐难以当然认定为“重大利益”。因此,从规范层面上,对裁判文书中已公开个人信息的二次传播认定侵权门槛较高。而实践中,已出现因裁判文书的二次传播,起诉造成名誉权、隐私权侵害的案件,而由于没有法律规范层面的支撑,原告的诉请也并未得到法院的支持。[45]同时,我国大量实名公开的裁判文书中载明的个人信息,处于随时可被不特定第三人获取的状态,起诉个人信息维权的案件却寥寥,概因提起侵权之诉毕竟属于事后救济,需要权利人付出较高的诉讼成本、时间成本和风险成本,维权难度系数较大,对信息权的恢复杯水车薪。故从裁判文书公开的前端进行个人信息风险防范措施的完善迫在眉睫。

优化裁判文书公开前的信息处理机制,建议强化信息保护的理念,从以下几个方面采取措施:

一是扩大裁判文书信息处理的范围。从法国的做法中汲取经验,在裁判文书公开的“源头”上采取降低可识别程度的处理,对于个人信息权的保护是十分必要的。我国虽不应采取法国那种个人信息的强保护立场,但亦应适度扩大隐名公开的文书范围,在批量处理裁判文书技术逐渐成熟后,可以对公开的文书进行普遍的隐名或假名处理。现阶段,根据《民法典》和《个人信息保护法》确立的信息处理合法、正当和必要原则以及相关侵权规则,建议至少将以下几类案件进行隐名或假名处理:①被判处三年有期徒刑以下刑罚或免予刑事处罚、且不属于累犯或者惯犯的被告人个人信息,以有利于其重返社会;②高额赔偿案件中的当事人信息,以避免因文书的二次传播,使当事人成为财产犯罪的对象而侵害自然人“重大利益”;③当事人积极修补的轻微民事违法案件。此外,从公开程序上,欧洲大陆对信息利用需征得当事人同意的严苛规定虽不足取,但由于公开信息的二次传播不可控,我国可适度在公开前赋予案件当事人信息隐匿申请权,对于尚不处于法定信息隐匿范围的当事人,可在诉讼程序中告知其有权以“二次传播”将会损害其“重大利益”为由申请隐匿裁判文书中的个人信息,由合议庭或审判长根据《民法典》第1036条的规定,审核公开是否会给当事人个人的“重大利益”带来不成比例的损害,以决定是否对文书中的个人信息进行处理。

二是以“显著降低可识别程度”作为信息处理标准。由于包括法国在内的整个欧洲对于个人信息的保护极为严格,对裁判文书的处理要求达到不可识别的程度,在个人信息保护与裁判数据的二次利用之间,显然优先保护个人信息。而这一立场在当前信息化和智能司法发展的时代大势下,并不利于通过发展司法智能决策提高司法质量及发展司法科技产业,实不足取。且事实上,公开的文书即便依规定进行处理,只要保留其可读性和二次利用价值,就难免存在可识别的风险,特别是针对信息主体的“熟人圈”,进行完全不可识别的处理是不现实的目标。笔者认为,“显著降低可识别程度”是一个在权利保护和促进司法公开间取得价值平衡的适当目标,也能够较好地体现个人信息处理的必要性原则。具体来说,在裁判文书的个人信息处理后,其对关涉自然人的可识别程度降至以下标准:通过文书载明信息对自然人进行识别需要数据附加、碰撞、比对等较高的技术门槛,陌生人通过对裁判文书中载明个人信息的直接、简单利用将无法识别到具体权利主体,以此从源头上加强对裁判文书中的个人信息的适度保护而非过度保护。

三是建议采取假名取代隐名的处理方式,并开发智能处理工具保证处理质量及数量。当前隐名的处理方式,是保留真实的姓氏、名字首字,其余内容以“某”替代。处理后的信息依然保留名字的真实部分,使得信息的可识别性大大增加,且保留姓氏对于裁判文书的二次利用也并无助益,此举无论是从信息保护还是从促进裁判可读性、可利用性来考察,均无正向价值,反而还会增加信息识别风险。故建议采取假名化的处理方式,可选择毫无真实信息也不容易与真实的自然人重名的特殊符号组合来代替,或者直接采用化名,并在名字后面用括号标注“化名”,以避免与其他自然人重名后带来不必要误解。而面对目前我国公开的裁判文书呈现出隐匿处理标准不一、处理程度不一、绝大部分文书中包含的个人信息依然具有被分析、识别和定位风险的问题,在实操层面,建议两高更新并细化统一的公开裁判文书的信息保护处理标准,研发判决书处理的人工智能软件对裁判文书的信息进行批量自动化处理。同时对已经公开的判决书进行智能批量核查,不符合信息保护标准的,予以处理后重新“上架”。并对公开的在线文书进行智能常态化筛查,对公开的不符合信息隐匿、处理标准的文书的进行预警和提示。

四是对裁判文书中司法人员信息有限隐匿处理。我国已公开的裁判文书中,司法官和书记员的信息均未处理。而司法市场中已经有一些律师培训机构、司法应用开发公司在尝试进行“法官画像”。特别是民商事领域中,上诉至最高人民法院的案件,对二审改判率、维持率、法官个人审判倾向、司法观点等统计分析已不在少数。如前述分析,“法官画像”无疑会对司法公正、司法独立带来消极影响。法国司法官普遍交流机制一定程度上消解了“法官画像”带来的管辖投机现象。但即便是这样,法国还是出台了“法官画像”禁令予以控制。与法国相比,我国的司法官职业流动性不强,同一法院部门间流动比较常见,而跨地区、跨机关流动是极少数。这种情况下,“法官画像”对管辖投机的影响将更为严重,采取措施应对分析法官现象必要且紧迫。然而笔者认为,我国效仿法国出台“法官画像”禁令并不可取。一方面,当前大量公开的裁判文书信息已经具备了分析法官的基数条件,对公开司法数据的分析在民间已大量存在。在对这种多发的、分散的、隐蔽的法官分析难以真正监管的情况下,“法官画像”禁令容易沦为“一纸空文”。另一方面,将分析法官行为入刑与我国司法为民、接受人民监督的司法人民性本质并不兼容。故为了对冲分析法官带来的消极影响,建议在前端的裁判文书公开环节,对审判人员、公诉人、书记员等司法人员信息进行有限度的隐名处理,即对于案件较为重大、涉案标的较大、社会影响较广的大要案件,原则上隐去网上公开的裁判文书中司法人员的姓名信息,对于隐匿范围的具体标准,可由最高法统一进行指导性规定。

(三)决策独立性层面:司法智能决策有限参考原则与异议裁判保护机制

以法律面前人人平等为价值内核的司法统一性,需要与以司法个别化为内核的自由裁量求得平衡。在司法智能化决策对法官独立性的影响中,需要警惕的是自由裁量权标准化目标的绝对化,以及实现这个目标的手段僵化。故建议我国在以下方面采取措施平衡司法统一性与独立性的关系:

一是建立以垂直的指导性案例为主、水平的基于既往判例智能决策为辅的判例参考模式。法国所谓的司法同质化与我国倡导的同案同判具有相同的价值内核,共同说明了促进司法均衡和法律适用的统一性,是司法的应然目标。但前文已分析,以既往判例为基础的司法智能决策工具有较大的局限性。我国应坚持以垂直解释性判例模式为主,指导性案例即为代表。而算法进行的统合分析,一方面可在两高制定司法解释及发布指导性案例时作为参考之一,弥补原有垂直模式对下级院裁判缺乏观察的弊端;另一方面,在个案的法官决策时,可起到有限的参考作用,在法官考量法律、司法解释和指导性案例之后,作为较低顺位的辅助参考。

二是确立司法智能决策有限参考原则。不同司法领域对于司法智能决策的参考应有区别,对于涉及到自由、财产乃至生命制裁的刑事领域,智能决策的推行应保持谨慎。法国对在刑事领域使用预测正义工具较为排斥,原因主要在于法国刑法中对新社会防卫论的接受以及对刑罚个别化的着重强调。刑罚个别化原则在法国具有宪法原则的地位,法国学者认为刑罚本身是拒绝“系统化”的,犯罪人的人格和动机在刑罚裁量中发挥重要作用。刑法的特殊性限制了精准建模的可能性,强行在刑罚领域适用预测正义将导致“不考虑区域、文化观念等差异,在整个犯罪领域内对刑罚进行标准化适用的偏见”。[46]因此,刑罚适用中的“人性”考量不可简化。与法国情况不同,我国在量刑领域开发司法智能辅助工具较为积极,甚至成为司法智能辅助的主要领域。与法国相比,我国刑罚裁量依然主要依据易于类型化的犯罪事实和情节,绝大多数刑事案件不需要对犯罪人的人格提供专门的证据和调查报告予以证明。且法国为了刑罚个别化已经发展出“五花八门”的监禁替代措施,而我国的刑罚依然以监禁刑为主,对刑期的衡量是一个相对直接且易于对比、量化的指标,这些都使得在我国对刑罚裁量进行“系统化”相对容易,为司法智能辅助工具在该领域的适用提供了合适的土壤。但司法智能辅助在我国量刑领域发展的“顺利”与法国的“遇冷”相对比,值得我们去重新审视算法歧视、算法僵化在量刑领域带来的风险。由于刑罚的严厉性和剥夺性,这些风险的现实化会带来比其他领域更大的危害。特别是在我国进行刑罚轻缓化、刑罚措施多元化、刑罚社会化等多种刑事制裁领域改革的当下,刑罚体系会愈来愈与法国的刑罚体系类似,逐渐变得不适合由算法进行“体系化”。同时,基于既往重刑结构、监禁刑为主的判例分析统计而得出的智能决策结果,难免会有“因循守旧”而与当前刑罚结构的发展趋势步调不协调甚至是反向做功的隐忧。因此,笔者建议,根据制裁的轻重以及对公民权利影响程度大小,民事、行政、刑事司法领域对于智能决策的应用和依赖应递减。并且各个司法领域中,越是高度复杂、案件关键情节较多,需要司法官基于复杂的案件事实和法律规定,进行专业的法律推理和判断的案件,越需要明确智能决策的有限参考作用。建议将司法智能决策有限参考原则作为一个普遍的司法原则通过立法的形式确定下来,并建议在智能决策应用界面强制要求弹出提示对话框,“决策结果不能代替司法官专业判断,仅供参考”字样。

三是探索中国的“异议裁判”保护机制。在智能决策有限参考原则的同时,建议实践中可从以下方面增强异议裁判的支持机制:①允许法官秉持智能决策有限参考原则,对合议庭的决策在裁判文书中进行充分的说理和论证。②建立异议裁判上报备案垂直通道,将异议裁判连同详尽的审理报告及时报送上级法院,上级法院审核后将其中具有典型意义的案例及时报送最高法,最高法对涉及法律问题具有典型性、拓展性的异议裁判,作为指导性案例发布,以支持和推广异议裁判的审判观点。对异议裁判中确有不当的裁判,也可以通过上诉、上级法院提审、再审等方式予以纠错。③实行异议裁判备案免责制度,优化内部考核机制,对裁判文书进行充分论证的异议裁判不予认定为“偏差裁判”而使法官承担不利的考核负担,以减轻法官决策的从众、求稳心理,且备案审查本身就是一种监督,也可以一定程度上避免法官滥用“异议裁判”而导致的司法随意性。

五、结语

“预测正义”在法国被寄予厚望,最高法院院长曾说开放数据打开了“意想不到的视野,能够深刻改变司法官和律师的职业”;但“预测正义”在法国更遭受否定,甚至有人尖锐地指出“认为预测正义具有解释法庭判决的能力是推广人工智能工具话语传达的一个神话”。[47]被寄希望于提高司法效率、提升司法质量、增加司法可预测性、并带动司法科技企业发展的“预测正义”,在法国深陷争论的泥潭,争议集中在预测正义侵犯个人信息和个人隐私、消解法官的主体性和决策的独立性、难以摆脱算法黑箱和算法歧视、给原有判例体系和审级制度的秩序带来冲击等方面,而众多争议集中起来指向一个根本性的价值选择题——保护和发展孰轻孰重。法国在信息权保护与司法智能化、司法科技产业发展之间过度倾向于前者,无异于捆住了“预测正义”的“手脚”,牺牲了发展效率,压缩了发展空间。而我国的个人信息保护则奉行利益均衡原则,在立法时强调保护与发展并重,在实践中关注信息主体与信息业者的平等保护。[48]这也使得我国需要更好地“走钢丝”,既要发展司法智能产业提升国际竞争力和司法整体水平,又要对公民的个人权利进行合理的保护。“既要又要”是更高的标准和追求,当然不能一蹴而就。考察法国“预测正义”机制发展的动因、现状、方向、效果,以及给其原有司法理论和实践伦理带来的冲击和转变,重新审视我国高速发展的司法智能决策机制,能够更加清楚地看到应予坚持的优势,以及应予改进的短板。建议从强化司法大数据中信息权的保护、确立司法智能决策有限参考原则、对司法智能辅助工具的算法进行专业的监督等方面完善和发展我国人工智能辅助司法决策机制,促进司法智能化切实推进司法质量的提升。

(责任编辑:吴洪淇)

【注释】
  [1]L. Cadiet, L’Open data des décisions de justice, Mission d’étude et de préfiguration sur l’ouverture au public des décisions de justice, La documentation française, 2018, p.14.
  [2]See Lee Loevinger, “Jurimetrics: The Methodology of Legal Inquiry, ” Law and Contemporary Problems, Vol.28, No.1, 1963, pp.5-35.
  [3]Sylvie Lebreton-Derrien, La justice prédictive. Introduction à une justice simplement virtuelle, Archives de philosophie du droit, vol.60, n°1, 2018, pp.3-21.
  [4]Pascale Deumier, La justice prédictive et les sources du droit: la jurisprudence du fond, Archives de philosophie du droit, vol.60, n°1, 2018, pp.49-66.
  [5]Thibault Douville, Open data des décisions de justice, cinq ans après: état des lieux et perspective, Légipresse, vol.65, n° HS1, 2021, pp.49-61.
  [6]Sylvie Lebreton-Derrien, La justice prédictive. Introduction à une justice simplement virtuelle, op.cit., pp.3-21.
  [7]参见左卫民:“热与冷:中国法律人工智能的再思考”,《环球法律评论》2019年第2期,第53—64页。
  [8]数据来源于历年最高人民法院工作报告及裁判文书网。
  [9]Thibault Douville, Open data des décisions de justice, cinq ans après: état des lieux et perspective, op.cit., pp.49-61.
  [10]参见王禄生:“司法大数据应用的法理冲突与价值平衡——从法国司法大数据禁令展开”,《比较法研究》2020年第2期,第133—146页。
  [11]Gaëlle Marraud des Grottes, Open data: plus de questions que de réponses?, le 1 Juillet 2020, [En ligne: https://www.actualitesdudroit.fr/browse/tech-droit/donnees/28086/open-data-plus-de-questionsque-de-reponses]. Se connecter 20 Août 2023.
  [12]Raphaël Déchaux, L’évolution du service public par l’open data. Retour sur l’exigence de publication des décisions de justice, Revue française de droit constitutionnel, vol.125, n°1, 2021, pp.1-43.
  [13]Évelyne Serverin, De l’informatique juridique aux services de justice prédictive, la longue route de l’accès du public aux décisions de justice dématérialisées, Archives de philosophie du droit, vol.60, n°1, 2018, pp.23-47.
  [14]Frédéric Rouvière, La justice prédictive, version moderne de la boule de cristal, RTDCiv: Revue trimestrielle de droit civil, n°2, 2017, p.527.
  [15]Isabelle Sayn, Les barèmes dans le fonctionnement du droit et de la justice, Le droit mis en barèmes?, Dalloz, 2014, pp.1-17.
  [16]Pascale Deumier, La justice prédictive et les sources du droit: la jurisprudence du fond, op.cit., pp.49-66.
  [17]Yannick Meneceur et Clementina Barbaro, Intelligence artificielle et mémoire de la justice: le grand malentendu, Les Cahiers de la Justice, vol.2, n°2, 2019, pp.277-289.
  [18]Frédéric Rouvière, La justice prédictive, version moderne de la boule de cristal, op.cit., p.527.
  [19]Yannick Meneceur et Clementina Barbaro, Intelligence artificielle et mémoire de la justice: le grand malentendu, op.cit., pp.277-289.
  [20]L. Cadiet, L’Open data des décisions de justice, Mission d’étude et de préfiguration sur l’ouverture au public des décisions de justice, op.cit., p.14.
  [21]Michael Benesty, L’open data et l’open source, des soutiens nécessaires a une justice prédictive fiable, Journal of Open Access to Law, vol.5, n°1, 2017, pp.1-11.
  [22]Pascale Deumier, La justice prédictive et les sources du droit: la jurisprudence du fond, op.cit., pp.49-66.
  [23]Jean-Marie Brigant, Les risques accentués d’une justice pénale prédictive, Archives de philosophie du droit, vol.60, n°1, 2018, pp.237-251.
  [24]Scarlett May Ferrié, Les algorithmes à l’épreuve du droit au procès équitable, La semaine juridique: édition générale, n°11, 2018, pp.498-505.
  [25]Denis Salas, Les défis de la justice numérique. Data, écrans, prévisions, Les Cahiers de la Justice, vol.2, n°2, 2019, pp.201-203.
  [26]Yannick Meneceur et Clementina Barbaro, Intelligence artificielle et mémoire de la justice: le grand malentendu, op.cit., pp.277-289.
  [27]Évelyne Serverin, De l’informatique juridique aux services de justice prédictive, la longue route de l’accès du public aux décisions de justice dématérialisées, op.cit., pp.23-47.
  [28]L. Cadiet, L’Open data des décisions de justice, Mission d’étude et de préfiguration sur l’ouverture au public des décisions de justice, op.cit., p.14.
  [29]Élise Mouriesse, Quelle transparence pour les algorithmes de justice prédictive, Archives de philosophie du droit, vol.60, n°1, 2018, pp.125-145.
  [30]Estelle Jond-Necand, Conciliation de l’ouverture des données et de la protection de la vie privée: la mise en œuvre de l’open data, Légipresse, vol.65, n° HS1, 2021, pp.63-69.
  [31]Estelle Jond-Necand, Conciliation de l’ouverture des données et de la protection de la vie privée: la mise en œuvre de l’open data, op.cit., pp.63-69.
  [32]Éloi Buat-Ménard, La justice dite prédictive: prérequis, risques et attentes-l’expérience française, Les Cahiers de la Justice, vol.2, n°2, 2019, pp.269-276.
  [33]Évelyne Serverin, De l’informatique juridique aux services de justice prédictive, la longue route de l’accès du public aux décisions de justice dématérialisées, op.cit., pp.23-47.
  [34]Louis Larret-Chahine, Le droit isométrique: un nouveau paradigme juridique né de la justice prédictive, Archives de philosophie du droit, vol.60, n°1, 2018, pp.287-295.
  [35]Louis Larret-Chahine, Le droit isométrique: un nouveau paradigme juridique né de la justice prédictive, op.cit., pp.287-295.
  [36]Éloi Buat-Ménard, La justice dite prédictive: prérequis, risques et attentes-l’expérience française, op.cit., pp.269-276.
  [37]Évelyne Serverin, De l’informatique juridique aux services de justice prédictive, la longue route de l’accès du public aux décisions de justice dématérialisées, op.cit., pp.23-47.
  [38]参见高景峰:“数字检察的价值目标与实践路径”,《中国法律评论》2022年第6期,第35—48页。
  [39]参见北京市朝阳区人民法院刑事判决书,(2021)京0105刑初3012号。
  [40]参见北京市西城区人民法院刑事判决书,(2020)京0102刑初685号。
  [41]参见张树海等人故意伤害案,北京市海淀区人民法院刑事判决书,(2011)海刑初字第3517号。
  [42]参见黄代勇故意伤害案,广东省高级人民法院刑事判决书,(2020)粤刑终1003号。
  [43]参见张新宝、昌雨莎:“已公开裁判文书中个人信息的保护与合理利用”,《华东政法大学学报》2022年第3期,第6—21页。
  [44]参见程啸:“论我国民法典中的个人信息合理使用制度”,《中外法学》2020年第4期,第1016页。
  [45]参见赵某某诉曹某人格权纠纷案,上海市宝山区人民法院民事判决书,(2020)沪0113民初24396号;上海市第二中级人民法院民事判决书,(2021)沪02民终574号。
  [46]Jean-Marie Brigant, Les risques accentués d’une justice pénale prédictive, op.cit , pp.237251.
  [47]Yannick Meneceur et Clementina Barbaro, Intelligence artificielle et mémoire de la justice: le grand malentendu, op.cit., pp.277-289.
  [48]参见张新宝:“从隐私到个人信息:利益再衡量的理论与制度安排”,《中国法学》2015年第3期,第44—49页。