导言
2018年4月25日,由北京大学法学院主办的主题讲座“人工智能的问题及挑战”在北京大学法学院凯原楼307会议室举行。讲座由哥伦比亚大学法学院中国法研究中心主任Benjamin L. Liebman教授主讲,北京大学法学院副院长杨晓雷主持。北京大学法学院张平教授、王成教授、易继明教授,中国人民大学法学院副教授张吉豫,华宇元典副总经理黄琳娜作为嘉宾参与了讨论。本次讲座主要围绕美国司法实践中人工智能应用的争议、算法的可信度与可解释性、中美人工智能司法应用的对比三个问题展开了讨论。本文系根据讲座录音整理而成。
* 本侧记已经得到主讲人授权公开,但是记录内容未经主讲人审核,如有错讹由记录人负责
主讲人:Benjamin L. Liebman(哥伦比亚大学法学院中国法研究中心主任)
记录人:王惠一(北京大学法学院硕士研究生)
图片来源:Bing images
一、美国司法实践中人工智能应用的争议
在美国的司法实践领域,人工智能主要用于风险评估,为法官提出量刑和假释建议。将算法用于风险评估明显减少了美国的监禁率,其对犯罪概率的预测使美国在重点监控区域投放警力成为了可能,大大提高了犯罪的预测率。但这一应用也引发了三个方面的争议。首先,人工智能带来了对正当程序的质疑。这一质疑主要来源于算法的可解释性,由于有些商业软件不是开源软件,人们并不能看到算法是如何运行的,这与程序正当这一重要的法律原则相违背。算法歧视是人工智能的风险评估引发的第二个争议。在设计算法时,贫困、家庭状况、人口数据统计、亲友的犯罪记录以及教育水平都是评估风险的因素,被警察询问的次数甚至也成为了评估因素,这便导致黑人、穷人的风险评估结果大大上升。但实际上,传统判决中也存在偏见和歧视。算法的正确率是人工智能在司法实践中应用引发的第三个争议。有研究指出,算法方法并不存在任何规则和标准,其正确率并不比简单的评估模型正确率高。此外,实际问题中应当考虑的因素远比设计算法时的参考因素复杂得多,算法并不能根据具体问题进行分析。
二、算法的可信度与可解释性
在司法审判领域应用人工智能是否能更好地促进公平正义是人们在审视这一技术应用时最关心的话题,而算法的可解释性是其是否能促进公平正义的关键。在对算法的可信度与可解释性进行讨论时,首先应当区分不同的算法应用场景,在用于提升人工决策效率的辅助性应用场景中,没有必要对算法的可解释性进行要求。但如果算法(如类案判决的推送及提供量刑建议)在司法判决的场景中应用,则应当对其可解释性提出要求。除此之外,还应当请专家对算法的可解释性进行评估。其次,由于中国的法律还处于飞速发展的阶段,在不同的历史阶段,很多类案的判决并不相同,因此,在讨论算法的可信度及可解释性时,还应当对算法使用的数据进行审查、分类。
对于算法的可信度与可解释性问题,实务届人士认为应当研究具体的问题,而不是讨论抽象的主义。因为在讨论宏观问题时,分歧可能是绝对的,在讨论法律AI的时候,可以更加关注实际应用的问题,进行降维的讨论。比如对于实际应用场景的算法可信度及可解释性问题,让法律人去解释算法的可信度是十分困难的,但在产品设计时完全可以回避这一问题。以量刑建议的推送为例,有只推送历史数据不进行量刑建议、将量刑建议作为可选按钮以及直接推送量刑建议三种模式,如果选择第一种或第二种方式,则判断的主动权仍然掌握在法官的手中,算法的可信度问题在产品中也就不那么凸显,也即价值只有在面对具体用户的时候才有意义。在讨论法律AI时,首要目的还是要促进公平正义。
但应当注意的是,目前法律人工智能产品主要还是由商业力量进行开发,商业的逻辑是逐利而不是促进公平正义,由商业力量主导进行人工智能开发带来的问题可能是法律私有化,因此,对商业力量开发的法律人工智能产品持保守态度是较为谨慎的做法。
三、中美人工智能司法应用的对比
2016年,我国开始了智慧法院的建设,2018年,我国最高人民法院发布的《智慧法院建设评价报告(2017)》显示我国智慧法院已经初步建成。但目前在中国,人工智能在司法领域的应用效果主要体现在提升司法效率上,还远不能达到辅助法官进行判决的高度。但是否应当加快人工智能的司法应用进程呢?可以从中美两国人工智能应用的对比中寻找答案。纵观中美两国的人工智能司法应用,可以发现两国在对待人工智能的司法应用问题上持两种截然不同的态度,美国的态度比较保守,而中国则较为激进。除此之外,美国的人工智能司法应用是自然发生的,是市场需求的结果,而中国则是政策导向型发展。
算法歧视和算法的可解释性问题是人工智能司法实践的“通病”,而算法带来的一致性问题可能会成为“中国特色问题”,这与司法独立和司法公信力联系紧密。在中国,人工智能引起的法官失业焦虑远比美国严重。美国的法律是人民为争取自由权利而斗争的产物,法官拥有较高的社会威望,人民对于法官的信任是很难被人工智能轻易取代的。但是中国法律主要来源于移植,法官在判决时往往要考虑更多法律与事实之外的因素,人民对于法官的信任远没有美国高,社会影响与政治影响很可能是法官在判决时考虑更多的因素,但算法是不会考虑这一问题的。此外,中国社会与法律处于飞速发展的阶段,是否有必要保证判决的一致性是一个值得讨论的话题,这些都会对人工智能在中国司法实践领域的应用造成障碍。由于算法是由人设计的,算法的中立性便很难被保障,这就导致算法可能沦为法官迎合考评标准的工具,这也是一个值得关注和思考的问题。
对人工智能的讨论不能如同盲人摸象,应当分类型、分阶段地进行。人工智能的发展分为弱人工智能和强人工智能两个阶段,这两个阶段分别对应着人工智能的辅助性应用和决策性应用。总体而言,本次讲座主要从人工智能在刑事领域的应用展开,围绕人工智能的辅助性应用带来的问题进行讨论。人工智能应用产生的民事责任问题、人工智能的法律人格等问题并没有在本次讲座中得到回应,强人工智能阶段的问题还需要进行进一步的探讨。
「 支持!」
您的打赏将用于网站日常运行与维护。
帮助我们办好网站,宣传红色文化!