人工智能在行政司法中的伦理考量
李勇坚
中国社会科学院财经战略研究院研究员、互联网经济研究室主任、博士生导师,研究方向为服务经济、互联网经济理论、互联网金融。在国家核心期刊发表论文50余篇,曾参与国家“十一五”、“十二五”、“十三五”服务业发展规划的研究编制工作,参与《国务院办公厅关于加快发展高技术服务业的指导意见》(国办发〔〕58号)、《关于促进分享经济发展的指导性意见》()、《服务业创新发展大纲(—年)》()等文件的起草或研讨作,并承担多项与数字经济相关的课题。
桂宁
百度公共政策研究院高级研究员,中国公路学会自动驾驶工作委员会常务委员、信息系统项目管理师。毕业于北京理工大学车辆学院交通工程专业,获得中国社会科学院MBA、北京工业大学交通运输工程双硕士学位。负责百度自动驾驶领域政策及行业研究,深度参与北京、雄安新区、长沙等地自动驾驶政策的制定。
随着人工智能对社会各个领域的深入,人工智能进入行政司法领域也将成为一种现实。在行政司法领域中,人工智能的应用能够提高决策效率,并减少犯错误的概率。由于人工智能决策更多地依赖于数据输入,受到决策者个人情感因素的影响较小,也减少了行政司法领域中腐败的机会。然而,行政司法领域凝聚了更多的道德、情感,乃至人类地位等因素。如果以人工智能作为其中的主宰,则将对人类长期以来的人类中心地位带来很大的挑战,人类如何接受机器的裁判将成为一道难关。人们需要对其所带来的问题进行预先研究,并采取相应的预防措施。
人工智能对社会各个领域的渗透越来越深入,人工智能技术在行政司法领域的应用前景也非常广阔。人类社会发展至今,社会领域的管理仍是人类主导的。在人类主导的社会管理中,所有的感知、决策、管理、控制全部都是局部信息,都是由一个局部的单位完成的。这种分割式的决策模式使行政司法领域的决策效率较低,而且因为取决于决策个体的能力,犯错误的概率较大。将人工智能引入行政司法领域之后,一个重要的特征就是可以利用全局的信息,利用快速的分析能力,实现社会管理决策的数字化与智能化,从而提高决策效率,并减少犯错误的概率。此外,由于人工智能决策更多地依赖于数据输入,受到决策者个人情感因素的影响较小,也减少了行政司法领域中腐败的机会。尤其是在争议较大的行政审批、司法等领域,引入人工智能之后,可以最大限度地减少因为决策主体或司法主体的腐败行为而带来的不公正、不公平的问题,有利于社会稳定。
早在一个世纪之前,马克斯·韦伯也曾指出,法官的工作被限定为单纯地解释法律和契约,就像是法律的自动售货机,人们在机器上投入事实(加上费用),机器下面就会吐出判决(及其理由)[1]。按照韦伯的构想,以智能机器替代执法工作者的工作具有天然的合理性。到21世纪初,有研究者指出:“人工智能已经被认为具有在许多领域,包括法律领域中,能够替代人类专家的潜在可能性。”[2]尤瓦尔·赫拉利(YuvalHarari)在其著作《未来简史》中提出[3],如果人工智能发展到一定的水平,人工智能将获得统治地位,法律将以数字化的方式呈现。在这种数字化的法律体系下,算法将取代人类法官,成为司法领域的裁决者。相比于人为判案具有的主观性以及法官自身能力的局限性,算法系统作为一种精细化、具体化和绝对刚性的规则,将最大限度地保持案件判决的公平性。算法即法律将成为一种现实。
在中国,为了解决腐败、司法效率等多个方面的问题,将人工智能引入行政司法领域的实践发展得较快。年7月,国务院印发的《新一代人工智能发展规划》中,对人工智能在社会治理领域的应用作了重点安排。《规划》提出,将围绕包括司法管理在内的社会治理的热点难点问题,促进人工智能技术应用,推动社会治理现代化。年11月17日,在第三届世界互联网大会智慧法院暨网络法治论坛上,中国首席大法官、最高人民法院院长周强指出:“将积极推动人工智能在司法领域的应用。”年4月20日,最高人民法院印发《最高人民法院关于加快建设智慧法院的意见》,对将法院管理信息系统智慧化,形成智能平台等相关事宜提出要求。年7月,中央政法委书记孟建柱出席在贵阳召开的全国司法体制改革推进会时强调,要“更加积极主动拥抱大数据、人工智能新时代,把理念思路提升、体制机制创新、现代科技应用和法律制度完善结合起来,全面落实司法责任制及相关配套改革”。中国司法行政领域正在从工业时代、信息时代中信息管理系统的应用过渡到智能时代中人工智能的深入应用。
因此,无论是从理论上看,还是从实践上看,人工智能进入人类的行政司法领域都将成为现实。然而,人类行政司法领域具有特殊性,该领域被认为凝聚了更多的人类道德、情感乃至人类的地位等因素,如果以人工智能来作为其中的主宰,对人类长期以来的人类中心地位是一种很大的挑战,即人类如何接受机器的裁判。对于法学家与伦理学家而言,他们对人工智能介入到行政司法领域持不同的看法。DanielleKeatsCitron和FrankA.Pasquale(于年)认为,如果人工智能能够对人类进行“评分”(Scoring),那么程序正当性(DueProcess)将非常重要[4]。美国马里兰大学法学教授丹尼尔·西特伦(DanielleCitron)在其论文《技术正当程序》中指出:“人们应该在规则设立之初就考虑其公平性与准确性问题,而这种公平性与准确性问题仅仅依靠技术人员是无法达成的。”高奇琦(于年)认为,人类应防止算法独裁[5]。丽莎·A·谢伊、伍德锣·哈特佐伊、约翰·尼尔森、多米尼克·拉金和格雷戈瑞·康蒂(于年)认为,在引入自动化执法系统时,建立对其监控的法律制度体系尤其重要[6]。克里斯汀·汤姆森(于年)则认为,应对机器人审讯进行合宪性审查[7]。人工智能在行政司法领域的应用是不可避免的,因此需要对其所带来的问题进行预先研究,并采取相应的预防措施。
一
行政司法领域引进人工智能的可能性及实践
行政司法领域引进人工智能有其独特之处。一方面,像所有的其他领域一样,行政司法领域也可以通过人工智能技术的应用提高其运行效率。这种应用模式,可被称为技术型应用。另一方面,由于行政司法领域的特殊性,人工智能还可以用于这些领域的裁决阶段,即对人类行为做出价值评判。也就是说,人工智能利用人类赋予的权力对人类的行为做出裁决。在这个领域将产生大量与人类伦理规则相关的问题。强调逻辑性与理性的人工智能如何与现有的社会裁决模式相匹配,是一个值得深入思考与研究的问题。
人工智能在行政司法领域的技术型应用
对于行政司法领域而言,如何利用先进技术一直是一个重要的命题。早在19世纪,杰里米·边沁(JeremyBentham)就曾构想过一种全景式监狱(或称作圆形监狱,panopticon),这种监狱对管理者而言是全透明的,因此,管理者能够非常便利地监督每一个被囚禁者的一举一动,从而使这些行为能够得到更好地矫正。利用人工智能和大数据手段,能够对社会公共场所进行更加全面的监控,从而能够更好地预防犯罪行为。利用人工智能手段识别性犯罪并进行预防,已成为很多城市管理中的一种重要手段。朗伯·鲁亚科斯和瑞尼·凡·伊斯特费图尔斯(于年)认为,无人机的广泛应用使人类社会正在成为“机器人空中圆形监狱”[8]。在我国的行政管理领域,很多政府机关在实施电子政务的过程中也引进了人工智能系统,这种系统能够对各种审批材料进行初步的审核,从而提高了审批的效率与准确性。
人工智能在司法领域的应用变得更为广泛,这对于中国而言有着非常现实的意义。中国已进入各类案件诉讼的高发期。以刑事案件为例,全国各级法院审结一审刑事案件数量分别为.9万件和.6万件,比上年增加了7.5%和1.5%;基层法院刑事法官人均年结案数量为件以上。巨大的案件数量使法官无法对每个案件的证据识别、法律适用等诸多问题进行全面、深入的考量,从而导致了很多错案的产生。同时,由于法官素质等方面的问题,也产生了不少涉及徇私枉法等方面的案件。
在此背景下,将人工智能应用到证据认定、法律适用等方面,不但能够提高法官的效率,还能减少错案率,并预防司法腐败。因此,人工智能在司法行政方面的应用受到了重视。在理论上,PamelaS.Katz(于年)指出[9],法律界并不排斥信息技术的应用,他们能够接受使用信息技术处理案例管理、法律条文检索、与审判相关的远程通讯等事务,但是对于应用各种智能技术对实体权利与义务作出处置或者只是协助处理,法律界仍心存疑虑。目前能够得到法律界认同的就是,在复杂的诉讼案件中,可以由人工智能系统参与对证据的认定;在法庭审理过程中,可以应用智能系统在复杂的案情中理清焦点,找到问题的关键,这是提高裁决效率的一种必需(derigueur)。进一步说,这些先进的技术在专家证言的可采性方面仍有很大的空间。例如,在Daubertv.MerrellDowPharmaceuticals,Inc.一案中,法官扮演一位“守门人”的角色,仅将与案件事实有关联性的、可采性的证据作为认定案件事实的证据。在很多时候,法官需要对专家意见、案件所涉及的复杂性科学问题等进行评判。然而,法官往往会缺乏此方面的经验,因为这不属于法律专业领域。而人工智能的应用能够协助法官在这些与复杂性科学相关的证据方面作出决策,使法官能够就这些问题作出评判。人工智能应用到法律领域将使法官能够作出更加全面的判断。
在中国,要更加积极主动拥抱大数据、人工智能新时代,把理念思路提升、体制机制创新、现代科技应用和法律制度完善结合起来,全面深化司法体制改革,努力创造更高水平的社会主义司法文明。部分法院尝试开发了人工智能办案系统,在公检法共享办案平台上初步实现了证据标准和证据规则统一、单一证据合法性校验、证据链逻辑性判断和比对、类案推送、量刑参考和文书自动生成等方面的智能化(潘庸鲁于年提出)[10]。例如,上海法院系统上线了“上海刑事案件辅助智能办案系统”,该系统能够为法官提供证据认定、法律适用、辅助生成裁判文书等多方面的功能。
在美国等发达国家,人工智能也正在渗透到司法领域中。年4月11日,美国首席大法官罗伯茨在与纽约伦斯勒理工学院校长的一场对话中被后者问道:“你能否预见将来有一天,由人工智能驱动的智能机器将协助法庭认定事实,甚至颇具有争议地介入司法裁决程序?”罗伯茨回答道:“这一天其实已经到来,而且这已经让司法实务的运作方式面临着巨大的压力。”人工智能对人类的是非曲直或者实体权利义务的评判,正在悄然成为现实。美国司法及相关部门广泛应用的COMPAS风险评估系统实质上是一个人工智能系统,这个系统能够利用数据与算法对被告的“风险程度”进行评估。这些评估包括,如果此人获得自由,是否会实施下一次犯罪;如果此人被保释,其出庭时间是否能得到保证;此人犯罪应受到的刑罚等。COMPAS是由Northpointe公司设计的一款风险需求评估工具。COMPAS风险评估所依据的信息从被告的犯罪档案和与被告的访谈中采集。通过这种信息采集行为,系统对被告存在的可能的危害性进行评估,并据此做出量刑建议。尽管引起了巨大的争议,COMPAS风险评估系统仍在各州运行。
行政管理领域的人工智能已渗透到政府的各个方面。这里的问题本质是人工智能能否对人进行管理,或者更深入地考虑,是人工智能与人类中心主义之间的张力。自从人类建立起社会组织开始,人类的管理行为都是由人完成的,人类自认为是“万物的灵长”。因此,对人类行为的管理或者评判只有人类自身才能完成,对人类采取各种管理措施也同样是人类基于某些规则做出的判断。在人工智能时代,人工智能开始介入到对人类管制的过程中,这是关乎到人类主体性的根本性问题(何哲于年提出)[11],是一个全人类面临的根本性的伦理问题,这个问题值得全面、深入地进行思考。
人工智能应用于行政司法裁决的实践
从目前来看,还并没有与完全由人工智能自主进行司法裁决相应的案例。然而,以中国为代表的很多国家正在此方面进行积极的探索。
年7月28日,在杭州举办的“法律+科技”领军者国际峰会上,最高人民法院司法改革领导小组办公室规划处处长何帆表示,最高人民法院一直在努力地把人工智能引入办案系统。他认为:“人工智能对法院未来的模式会有很多的改变。比如,它改变了法官的判断和决策的模式。过去法官根据自己在庭上的所看所想,以及他对法律的理解就可以做判断,但是现在可能需要用人工智能软件进行推演。此外,人工智能对我们的诉讼流程产生一些改变。随着人工智能的推进,未来可能要制定一部互联网的诉讼法。”[12]从现有的很多办案系统来看,其实已具备了自动生成裁判文书的功能,只是因为各种原因,该功能未能生效。据学者研究,以刑事案件为例,相关法院的办案系统智能化主要表现为以下五个方面:一是公检法建立互联互通共享的办案统一平台;二是打破侦查中心主义,制定统一的证据规则和证据标准指引,并明确不同诉讼阶段的证据要求,引导办案人员依法、全面和规范地收集证据;三是具备单一证据校验功能,系统对证据自动校验收集程序、形式要件和内容要素是否合规和合法;四是具备证据链逻辑分析和判断功能,办案系统以贴标签的方式自动抓取证据核心要素,并依据一定规则进行逻辑比对,还可以发现证据之间是否存在矛盾,并提示办案人员需做出合理解释;五是案件类推和量刑参考功能,系统依托大数据、云计算等技术,解构分析裁判文书,抓取影响裁判结果的量刑要素,同步为法官推送案情统计分析、匹配数据库中全国相似的案例,为承办法官提供量刑参考,并自动生成司法文书。此外,办案系统还具有逮捕条件审查、社会危险性评估、证据链和全案证据审查判断等多项功能,同时还将图文识别、语音识别、算法等技术融入该系统。综上,办案系统具有了识别区分、校验判断、逻辑比对、矛盾排除、自动推送和生成等强大的智能性(潘庸鲁于年提出)。
在行政管理方面,由人工智能自动生成处罚单据等功能很早就在运行中。例如,在交通违法处理方面,人工智能事实上已经承担了大部分的任务。在安检、城市治安管理等方面,以人脸识别、监控录像等为数据收集来源,结合后台的数据库,正在发挥巨大的作用。但是,这些方面的问题仍只是问题的表面,即人工智能或者其他信息技术作为人类的助手或工具,为人类社会管理提升效率做出贡献。随着人工智能越来越强大,它将以更高的效率和更加使人信服的方式对人类的行为做出评判。而人类在很多行政管理方面的主观性、低效率性、盲目性等问题都将被人工智能纠正,这将使人类进一步依赖人工智能的行为。因此,有学者指出,只允许弱人工智能参与到人类管理活动,而严禁强人工智能的参与,是一种不可能实现的理想状态。因为强人工智能与弱人工智能并不像自然生物个体一样容易分辨,所以强人工智能不断参与核心的管理与决策并逐渐替代人类,将成为一种必然(何哲于年提出)。
二
行政司法领域引进人工智能的意义
尽管很多人对将人类的行为是否符合法律或者行政管理方面的规定交由人工智能进行判断心存疑虑,但是人工智能在行政司法领域应用过程中所带来的诸多好处不容忽视。
行政司法领域引入人工智能能够更好地进行违法犯罪等方面的证据判断,以更好地预防违法行为,更加精准地处罚违规行为。引进人工智能之后,借助大数据,能够对当事人的陈述等进行更为精准的判断,从而能够对预防犯罪以及防控人们的行为等方面起到更大的作用。在科幻或魔幻影片中经常会出现“读心人”,而这在未来可能会变成现实。例如,人的语音信息中包括了非常多的情感因素,人在紧张状态下的语音和自信状态下的语音是完全不同的。而语音识别软件不仅能识别语音信息,还能分析语音背后人的情感变化,这就是测谎仪所希望实现的基本功能。随着此类识别技术的发展,在未来,测谎可能会成为手机的一种功能。可以想象这样一种场景,未来的你和某人对话时,可以打开软件来实时测试此人所说话的真假。与此相关,人们也可以通过摄像头采集的数据来分析人的微表情,从而判断出这个人背后的一些想法。实验证明,人类的大部分行为都受制于规律、模型以及原理法则,而且它们的可重现性和可预测性与自然科学是不相上下的。因此,未来的技术发展会让说谎的人变得越来越没有市场。当然,这种理想的情况并不是一蹴而就的,在这些技术的应用初期,人们可能因此与身边的亲友产生纠纷,甚至断绝关系。但正如囚徒困境中博弈模型的结果,当人们反复多次进行博弈之后,合作可能是最好的结果。在囚徒困境中,囚徒的烦恼在于彼此信息隔阂导致其不能商量,但是技术的发展将使这一问题得到很好的解决。如果这种情况成为现实,那么在未来犯罪率的降低也是可以预期的一件事情。
阳光是最好的防腐剂,充分的监督可以极大地降低犯罪率,这一点在工业时代就已经得到证明。近期,为了与智能城市的发展相配套,杭州在城市公共空间中安装了更多的摄像头和传感器,对改善杭州的公共秩序和降低犯罪率有很好的辅助效果。在这种技术条件充分发展的条件下,几乎所有的行为过程都可以被还原出来,极大限度地压缩了犯罪分子活动的隐性空间。因此,如今的许多重要案件都是通过分析摄像头捕捉的信息而破案的。福柯曾经从批判的角度来看待监视对人类自由的约束,但从另一个角度来讲,这种监视也极大地限制了人们的不良行为,特别是犯罪行为的发生(高奇琦和张鹏于年提出)。
人工智能还能够避免各种行政决策或者司法裁决等受到人类情感或者思维的影响。从社会公众的视角来看,在现代政治学的传统中,一个基础的假定是政府或者人类管理者具有天生的不可信任性。因此,很多现代政治制度的设计都是为了防止政府权力被滥用,而人工智能系统天然具有无偏性。因此,很多人对人工智能系统参与社会管理有着期待,尤其是在社会公众对政府的公平性心有疑虑的国家或社会,人们期待着人工智能能够更为公平合理地处理社会治理事务(何哲于年提出)。国外的调查也证明了这一点。在对英国公众的调查之中,25%的受调查者认为,人工智能在管理社会事务方面比现有的政客更具优势,包括在公平性方面[13]。
人工智能在审判过程中能够发现证据链之间的矛盾,预防错案的发生。人工智能系统能够对与案件相关的各个证据之间的逻辑联系进行分析,并对证据的采信采用统一的规则,避免了人类在采信证据时的主观性问题。在辅助办案方面,人工智能系统能够建立更加统一的由系统识别的证据规则,包括在案件的具体阶段所需要的证据,以及这些证据的认定标准等,为案件参与人员收集与审查证据提供了规范和指引,从而避免人为因素对证据认识的偏差。尤其是在一些重大刑事案件中,例如在命案中,系统能够对案件进行分类解析,从而提炼出证据的重点(包括关键性证据的收集、基本证据要求),并对具有瑕疵的证据进行自动分析,能够对可能的错案或其他错漏因素进行提前预警,并能够从源头上杜绝非法证据进入到下一个环节。人工智能系统还能对所涉及的证据之间的逻辑关系进行全面的分析,避免了证据之间的逻辑矛盾,从而帮助办案人员抓住案件的关键要领。在程序规则方面,一旦人工智能系统对证据建立了统一的规则,其建立的证据体系将是自洽的,避免了人类在逻辑方面出现的疏忽。同时,在应用系统的过程中,还能够对证据及判决建立一个统一的标准,避免了因主观判断而导致的案件审判误差。
人工智能对提升司法效率具有非常重要的作用。从现有的案件来看,大量的工作是程序性的。人工智能系统可以完全胜任这些程序性工作,并使办案人员能够将其有限的精力投入到一些需要人类感觉进行判断的复杂的疑难案件之中。司法效率的提升本身就是社会公正的一个重要方面。在任何司法争议之中,迟到的正义总会使人对司法公正产生怀疑。人工智能系统在阅卷、分析案情、提炼要点,甚至做出案件的预先判决等各个方面,都具有无与伦比的优势。将这些优势应用到司法实践中,将使司法效率成倍提升。以贵阳政法大数据办案系统在部分地区为期5个月的试运行为例,办理同类案件的时间同比缩短了30%;因证据不足而导致的退回补充侦查率同比下降了25.7%;因证据不足而导致的不批准逮捕率同比下降了28.8%;服判率同比上升了8.6%;因证据不足而做出无罪判决的案件“零发生”。最重要的是,人工智能在提高司法效率的同时,还能够解决案件质量瑕疵的问题。这使人类司法过程中所面临的司法效率与司法公正之间的矛盾有了得到解决的希望。
人工智能系统为解决司法腐败问题提供了新的思路。司法腐败对社会正义的影响是破坏性的。由于司法的专业性,预防司法腐败的发生比在其他领域中更为困难。但是人工智能能够有效地避免司法人员利用法律或制度的漏洞对司法问题进行选择性裁决,从而实现其个人目的。人工智能参与到案件的审理过程中,能够建立基本的证据采信规则,并建立案件流程的动态监测,及时发现案件办理过程中的问题,从而避免因办案人员主观因素而产生的随意办案,也能够对权力寻租等现象进行遏制。年12月14日,北京市高级人民法院就正式上线了“睿法官”系统。减少司法任意性,防止人工疏失而导致的冤假错案也是司法引入人工智能的动因之一[14]。
将人工智能引进行政司法领域,还能解决司法领域中存在的因某些个人主观因素而导致的不公正或者不公平现象。律师们经常开玩笑说:“正义取决于法官早餐吃什么”。9年的一项关于以色列法官的著名研究表明,法官在休息之后更有可能宽大处理。事实上,调查发现,法官在早晨做出宽大判决的可能性有65%,之后到午饭时这一概率不断下降,在午饭后又升至65%[15]。因此,为了避免法官在饥肠辘辘的时候做出决定,用人工智能代替人类法官是非常有必要的。美国国家经济研究局的一项研究显示,即使是在决定是否给予保释的最简单的情况下,一个人工智能法官可以帮助减少42%的监狱人口,并将犯罪率减少24%。新泽西州已开始使用人工智能法官,如果被告符合一定的标准,他们不用支付保释金就能被保释。这不仅能为国家节省一大笔钱,还使被告可以继续工作[16]。
三
行政司法领域引入人工智能所带来的伦理问题
从人类本身来看,其道德规范及具体行为具有对世界运行的指导性作用。人类相信自己所带来的问题只能由其本身来处理,尤其是对人类的惩罚,不能交由其他非人类产品执行。但是人工智能渗透到司法行政领域,对人类的这种中心地位带来了巨大的冲击。人类一直将自我作为世界的中心,以万物的灵长自居。而将人工智能引入人类社会管理及行政司法领域,使人类的行为接受人工智能的审判,这是对人之所以为人的一种冲击,带来了人类对这种模式的深入思考。而人工智能的引入也带来了不透明性、社会歧视、算法独裁、责任体系构建等诸多方面涉及伦理的问题。
对自动化的迷思导致人的中心地位丧失
德国社会学家马克斯·韦伯曾设想过一种理想的裁判模式,即标准的“三段论”模式:以法律根据作为大前提,以从生活事实中分离出的法律事实作为小前提,法官针对法律事实寻找法律根据,继而做出法律决定。大卫·休谟认为:“在设计任何政府体制和确定体制中的若干制约、监控机制时,必须把每个成员都设想为无赖之徒,并设想他的一切作为都是为了谋求私利,别无其他目标。”[17]这是一种“人性恶”的基本假设。休谟认为,在现实生活中,大多数人都是好人,但我们无法将少数的坏人识别出来,因此在制度设计时必须把每个人都当作无赖。从现有的制度设计来看,核心问题是人与人之间的信息不对称,无法相互完全了解,以建立信任关系。这也是人类的本性。也就是说,人类之间习惯于相互隐瞒信息,并依赖信息不对称,从而获得相应的利益。人类的行政司法制度就是要对这种人类本性的一个限制,避免人类利用信息不对称而使其机会主义行为无限放大。
引入人工智能将对人类的中心地位造成巨大的冲击。人类之所以成为万物的灵长、世界的中心,很重要的一点就是因为人类掌握着规则的制订权。行政司法的自动化极大限度地将规则的执行权交付给机器,而执行法律本身存在着对法律的解读,在某种意义上是法律创设的过程。人工智能参与到这个过程中,会不会导致机器凌驾于人类之上,对人类本身的地位构成威胁?更为重要的是,这种过程将使人性丧失。丽莎·A·谢伊、伍德罗·哈特佐伊、约翰·尼尔森、多米尼克·拉金和格雷戈瑞·康蒂(于年)[18]认为,自动化执法系统还将不断蚕食公民生活中的公共和私人领域,具有削弱公民与国家间神圣信任的风险,而且会导致监管程序丧失人性。
从人工智能的本性来看,其非常强的理性化能力虽然确保了法律的刚性,但却也是丧失人性的开始。法律本身的特点决定了其具有滞后性和刻板性的特点,为了使这些滞后、刻板的法律能够适应鲜活的现实生活,任何一种法律体系都会在某种程度上赋予法官一定的自由裁量权,这种自由裁量的权利的存在能够“确保判决符合生活智慧”。美国大法官霍姆斯在《普通法》开篇提出:“法律的生命不在于逻辑,而在于经验。对时代需要的感知、流行的道德和政治理论、对公共政策的直觉,甚至法官和他的同胞所共有的偏见,不管你承认与否,对人们决定是否遵守规则所起的作用都远远大于‘三段论’。”拉伦茨在《法学方法论》中指出:“只要法律仍以口语撰写,仍须解释,那么将其转译成电脑语言时就须对电脑提供适当的解释。然而,因为不能预见所有事件的情况,规定的解释仍然可能发生新的疑义,因此仍须对电脑给予新的指示。解释的任务不会消灭,只会转移到他处。”[19]
再完善的法律也不可能预见到社会经济发展的所有情况,保持法律的柔性[20]是社会治理不断进步的重要方式,也是人类本性的重要方面。而人工智能参与司法过程将人类的这种特性予以抹杀。随着人工智能的进一步演化,人工智能在司法裁判等方面将体现出无与伦比的优势,将进一步强化人工智能的权威。这样一来,人类的裁决权将最终落入人工智能之手。高奇琦在《人工智能:驯服赛维坦》一书中指出,如果未来的法律机器人因其功能强大而大行其道,法官的必要性就会降低,甚至变得没有必要。人们之所以提起诉讼,是因为诉讼的不确定性,人们总希望通过诉讼获得那个对自己最有利的可能结果。由人工智能处理的法律案件的审判结果实际上是由算法做出的而在算法决策的过程中,计算机会把相关信息无差别地提供给争议双方。这就导致争议的双方预先知道自己在案件中所处的位置以及审判的结果,以至于更愿意通过协商来解决争议。从这个意义上讲,审判的作用就会大为减少。这对于人类的伦理观念,即人类自己主导自己的命运这一观念而言,是一个巨大的挑战。
不透明性带来伦理问题
在司法行政领域,透明性是非常重要的。人工智能的透明性体现在人与人工智能的相互理解,这需要有一个交互的过程。在这个过程中,行政司法的透明性是难以保证的。目前在国内外法律领域采取的人工智能技术普遍应用深度学习技术(DeepLearning),而这一技术本身的特点就是决策过程难以具体解释,有所谓“黑箱”的特点。就像AlphaGo先后战胜了世界冠军李世石和柯洁,但其每一步棋后的具体判断连其设计者也无法预测和解释。高奇琦在《人工智能:驯服赛维坦》一书中指出,由于算法系统以大数据为基础,审判的决策实际上是根据数据得出的一个运算结果。一种可以想见的情况是,我们只能看到输入的数据以及得出的结果,而对中间的运算过程则一概不知,由此就会导致算法“黑箱”或算法独裁的出现。也就是说,人类将难以理解判决的逻辑,而只能服从于机器的判决。
人工智能司法行政可能带来新的社会歧视
人工智能主导的司法行政系统能够基于全样本与全数据(即关于个体的全部数据及与之相关的数据)产生一个理想的状态(即完美预防犯罪)。但是“完美预防可能会违反正当程序提供的大量保障措施”。在EricLoomis案件[21]中,Northpointe公司生产的COMPAS软件对嫌疑犯进行了评估,并得出了司法建议。但是我们不知道算法对哪些方面进行了评估。知情人士指出:“尽管Loomis报告的具体细节仍被密封,但这份文件可能会包含许多图表,以量化Loomis的生活、行为和再犯的可能性。其中可能还包括他的年龄、种族、性别认同、浏览习惯,以及……我也不太明白……他的头骨尺寸。关键是我们什么都不了解。”案件的检察官告诉法官,根据现有的数据系统,Loomis显示出了“高风险的暴力,高风险的再犯——真的是太高的风险了。”法官同意了这份报告的结果并告知Loomis说他已经“通过公司的评估,确认是一个对社会来说高风险的人”。问题的关键在于,即使软件对EricLoomis的评估是正确的,也不能避免未来的算法歧视问题。随着算法积累了越来越多的数据,算法可能会根据大数据进行推理,从而形成越来越多的歧视。
ProPublica公司通过对犯罪大数据进行了分析,并明确指出,在美国佛罗里达州布劳德县,如果被告是黑人,那么“更有可能比白人被告被误判为再犯率偏高”[22]。英国巴斯大学的JoannaBryson教授通过研究发现,由于人工智能系统基于人类给出的决策规则与数据,因此,即使是最复杂的人工智能系统或者最先进的算法,也不可避免地会受到人类关于种族和性别的偏见的影响,尤其是当这些系统的创造者有着此类偏见时。英国下议院科学技术委员会呼吁,基于人工智能发展的趋势,应该成立一个专门的人工智能委员会,对人工智能当前以及未来发展中的社会、伦理和法律影响进行研究。这里的基本问题就在于,“由于技术和社会发展的条件限制,人工智能在相当程度上会具有某种歧视性因素以及潜在的导致不公平结果的可能性”。因此,对人工智能的技术内核和输入数据进行伦理检视是非常必要的,而且应在此基础上通过设计出验证、证实、知情同意、透明性、可责性、救济、责任等方面的完善机制,避免算法对弱势群体的歧视以及不平等结果的产生。
从技术原理上看,人工智能主要由数据和算法两部分组成,通过用海量数据不断地训练算法而提高决策的效果(当然也有部分技术可以不依赖于数据)。不论是在数据中已经存在的不公平的结果(例如少数族裔或弱势群体被歧视对待),还是算法在设计中的考虑不周,都有可能导致整体效率提升而个体利益受损的结果发生。人工智能只能在我们所提供的信息上做判断。许多案件都带有来自人类的偏见,所以人工智能也会带有这种偏见。显然,人工智能法官可以免受Twitter等外部因素的影响,但它只能基于过去的判断来学习,可能会受到固有偏见的影响。糟糕的人类判断可能会在机器学习程序中造成蝴蝶效应,从而在现实世界中呈现出荒谬的结论。
算法独裁与人工智能司法的局限
丽莎·A·谢伊等人(于年)认为[23],自动化执法系统集监视、分析、聚合和惩罚功能于一身。因此,自动执法可能会威胁到程序正当性(DueProcess)这一基本权利,即通知与陈词的机会。美国马里兰大学法学教授丹尼尔·西特伦(DanielleCitron)在其论文《技术正当程序》中指出:“人们应该在规则设立之初就考虑其公平性与准确性问题,而这种公平性与准确性问题仅仅依靠技术人员是无法达成的。”自动执法的取证规则、证据采信规则、裁判逻辑等诸多方面都是基于机器的逻辑规则,而非人类的情感与理智。
因此,这些裁决难以对人类多年来赖以存在的规则或者处世方法有充分的体现。从本质上看,人工智能没有人类的情感。它进行计算过程,就是从一个固定的原点出发,根据一系列推理规则进行运算,最终得到裁决的结果。在这个过程中,人工智能的纠错机制很少。而人类的文明、道德以及心理模式是经过数万年形成的。因此,人类对于可能存在的错误有着警惕以及校正机制,这使人类在法律、道德等固有秩序面前能够保持敬畏之心。但是,人工智能缺乏这类敬畏之心,当人工智能被有不良用心的人利用时,他会对这种偏见进行放大,从而使人工智能可能以算法的名义进行独裁。而且在与人类的比较过程中,人工智能的优势将被放大,人类处于劣势之中,这会进一步促使人类对算法的依赖,这种依赖也会使算法的独裁权力无限增加。
四
结论及建议
人工智能在行政司法领域具有极广阔的应用前景。然而,我们也应该看到人工智能司法行政将使人类伦理面临全新的挑战,即人机关系问题。应用人工智能进行司法裁决全面挑战了数万年以来的人类中心主义预设。因此,必须深入、全面地考虑由此带来的伦理问题。
第一,在对人工智能司法行政系统进行研发的过程中,必须确保人工智能的判断及决策能够符合人类的伦理准则。这需要在人工智能发展过程中将技术研发与伦理准则进行深度融合。系统的研发不但需要技术专家、法律专家、行政管理专家等方面的参与,也需要人类学家、社会学家、伦理学家等方面的深度参与。
第二,确保算法与数据的透明度。人工智能行政司法极大限度地强化了算法的权力。然而,算法复杂度的不断提高和数据量的飞速增加使透明性问题难以保证,这容易导致社会歧视与社会不公平,并形成累积性效应。因此,在人工智能行政司法的应用过程中,应对透明度给予足够的重视。
第三,将人工智能与人类裁决进行深度融合。尽管人工智能进行司法行政时具有非常高的效率,并能够在很大程度上强化基于现有管理规则的公平,但是我们应该看到,人工智能也有可能放大现有法律或管理制度等方面的缺陷。因此,在司法行政领域引进人工智能,不能对其盲目依赖,而是应该将人类的智慧与人工智能的分析能力进行深度融合,保持人类对人工智能的监控,以确保其在进行司法行政领域做出更有利于人类社会发展的裁决。
参考文献
[1]马克斯·韦伯.支配社会学[M].桂林:广西师范大学出版社,4:52.
[2]ECONOMIST.AIamtheLaw[EB/OL].
转载请注明:http://www.abuoumao.com/hykh/4701.html