查看原文
其他

【智能与法】王延川:算法在司法审判中的应用与局限

王延川 大数据和人工智能法律研究 2023-01-13

B D A I L C 

欢 迎 关 注 


Robert Lewis Reid


算法在司法审判

中的应用与局限 


文 / 西北工业大学人文与经法学院教授 王延川 


算法并不神秘。从性质上来说,算法是一种技术规则,具体表现为一组指令;从功能上来说,算法是一个结构化的决策过程,在用户输入相关参数后自动生成并输出结果。近年来,算法在司法审判领域得到广泛应用。而在有效提高审判效率的同时,算法也存在一定的局限性。


理解算法 基于大数据的决策过程

算法与人脑具有相似之处,即都具有决策功能。同时,两者之间也存在重要区别:算法决策只能遵循确定的程序,人脑决策可以处理模糊的指令。因为,人类可以根据经验来填补模糊指令的漏洞,或者以其他方式猜测接收指令的具体过程。算法不具有这样的自由裁量能力,其从输入到输出的过程,都应遵循明确的指令,且整个运行过程都应遵循具体的步骤。与此同时,算法基于大数据技术,算法软件可以储存海量数据,所有的算法决策都建立在数据的基础之上。

具体来说,算法分为专家系统和学习算法。其中,“专家系统”是指在对环境作出回应的情况下,执行预先定义的程序,近似于将某类知识体系编写成计算机软件,从而代替人类的工作。例如,税收筹划算法是典型的专家系统。这一算法将税收条款的内容和逻辑转换成一套计算机可以处理的规则,提交者输入自己的收入后,自动得出适当的法定税率。专家系统主要涉及两个关键点:第一,算法决策时需要考虑外部条件,即由人类输入具体的运行参数;第二,严格遵循开发人员预先设定的静态程序指令。

学习算法主要借助大数据进行学习,并自行设计行动模式。学习算法决策可能会出现两种风险:一是“黑箱”,即算法的决策过程不透明,无法解释;二是“突变”,即决策结果有时会超出设计人员的预期,无法预测。学习算法与专家系统在运行逻辑方面的区别在于,学习算法并不需要由人类输入具体的运行参数。学习算法,尤其是深度学习算法,可以根据人类为其植入的神经网络进行决策,不需要人类为其开发程序指令。


算法+审判辅助与局限并存

算法可以根据人类为其设置或其自动检测到的模式,对某些复杂的事物作出有效的决策。这种能力被应用于审判实践的各个环节之中,可以辅助法官办案。

以法律数据库检索为例,法官在办案过程中,经常需要了解同类案件的裁判现状。借助大数据和算法,法官可以根据办案需求,进行全方位类案检索。同时,智能语音算法可以代替书记员记录原、被告双方在法庭上的陈述,实现即时制作笔录。算法还可以辅助法官进行裁判决策或预测,为法官提供数据参考。例如,一款名为“美国公共安全评估”的软件是一项预审风险评估工具,用以帮助法官判断是否在审判前拘留或释放被告。

算法作为一种决策系统,在某些方面已经达到了强人工智能的程度,有效提高了司法审判效率。但是,算法也存在诸多问题,使得其在审判实践中的应用具有一定的局限性。算法在审判实践中的应用,主要受限于以下两个因素:第一,由于有效的机器学习通常依赖于大量高质量、结构化、可由机器处理的数据,所以机器学习在数据量较少或数据质量较差的环境中,往往难以达到理想的效果。在辅助裁判过程中,如果机器学习获得的裁判案例过少且不全面,则难以发挥积极作用。第二,目前的算法技术尚无法与法官的抽象分析和高阶认知能力相匹配,亟待出现重大的技术进步。

具体而言,算法在审判实践中的局限性主要表现在以下几个方面:

算法适用范围有限。算法适合应用于存在潜在模式、规则、确定答案及构成流程的领域。相比之下,算法在以下领域的应用往往表现不佳,甚至根本无法发挥作用:概念抽象性、价值取向性、内容开放性、政策导向性的领域,以及需要常识或直觉进行判断、具有人文意义的领域,如社会规范、社会结构或社会机构等。例如,在民事合同纠纷中,当事人是否尽到“合理性”或“善意”义务。这些概念或想法涉及词语的潜在含义,且较为抽象,没有确定性答案,因此算法在这一场景下无法有效发挥作用。

算法决策带有“偏见”。法官在借助算法进行裁判时,要确定潜在的算法系统是否公平、平等地对待当事人。从大数据和学习过程中构建起来的算法模式,可能会基于数据中早已存在的判断,对某些特定群体或特定事件产生某种微妙的“偏见”。

算法的客观性难以体现裁量弹性。关于算法决策,外界一直存在一个疑问:算法决策是否比人脑决策更加中立、客观、准确?事实上,机器学习算法本身具有局限性,在进行决策时难以综合考虑各种主观因素及不确定因素。

算法“黑箱”决定了算法决策只能作为裁判参考。关于算法,透明度是一个基本问题。许多人认为,参与决策的算法系统应该是可解释的;还有一些人认为,算法系统本身需要产生自动解释,从而说明其作出某种决策的原因。专家系统算法具有可解释性,但机器学习算法则是一种“黑箱”。机器学习算法缺乏必要的透明度,无论对普通使用者还是对创建算法的程序员而言,均无法解释其底层机制。这导致人们可以看到算法的输入和输出,却无法看到决策的过程。司法审判不仅需要输入和输出,还需要在输入和输出之间产生关联性,即从输入产生输出的过程和原因。由于机器学习算法缺乏必要的透明度和推理过程,因此只能作为司法审判的一种参考。



原载于《中国审判》总第236期

仅作学习交流之用


Robert Lewis Reid


往期荐读



编辑:韩雨硕

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存