山东电价平均每度上调3.28分 居民生活电不调
科特雷尔所说的工具型共同体实际上就是指以形式理性为特征的现代社会。
很多时候,不同层级、不同区域甚至同一法院的不同法官对于同一法律问题往往有着不同的看法与见解。需要着重指出的是,除了对外公布的法律裁判文书,法律决策过程中的关键行为如形成决策的内部讨论往往是高度非文字化、非数据化的。
其二,人类法官优秀经验的归纳尚待时日,更不要说超越了。因此,它适宜作为法官裁判的助手而非完全替代法官。但正如前文所指出的那样,我们目前既没有人工,更没有好人工,又怎么会生产出好的人工智能呢?特别是当机器学习者被要求对新知数据进行分类时,分类设计必然会引入一些归纳偏见,即机器学习者在清洗数据时,设计何种假设及验证都不可避免地存在偏差。也就是说,我们通过机器学习发现的司法规律可能比法律专家所熟悉的规则更为复杂,它们将包含不同的元素,它们的相关性可能不会立即显现出来。不久前,人类选手在信息不充分的星际争霸游戏中以四比零的比分横扫人工智能的事例,[50]也从侧面证明信息不充分的场合可能并不适合人工智能施展拳脚。
[34]所谓监督,是指对于同判度较高的类案,基于预测性判断,对法官制作的裁判文书判决结果与之发生的重大偏离,系统自动预警,从而防止裁判尺度出现重大偏离。许多从高校毕业的人工智能人才,被BAT等互联网企业的高薪酬所吸引,投身其中。就司法领域而言,这种表象性是指,外界所能掌握的信息是用以证明法律决策正确而按照一定标准制造出来的信息,其可能无法充分、真实地反映法院、法官在决策时所真正采用的实质信息。
[45] 从实践来看,很多法律人和法律科技公司都在似懂非懂地使用知识图谱的话语来构建法律人工智能,并将其作为主流算法,即通过知识图谱实现知识的可视化,描摹出案件的主要构成要件和证据构成。在研究中,人工智能程序分析所有信息,并提出自己的司法判决。遗憾的是,目前中国法律领域的信息存在着突出的表象性特征,即信息是公开的,但却在某种程度上并不一定是真实的。从算法层面看,法律人工智能所使用的算法隐秘且低效。
然而,现实是我们的法律人对于是否以及如何应用算法来处理法律大数据,整体上属于外行,更遑论建构出成功的算法模型,甚至没有真正大规模地实际使用算法来构建裁判模式。对过去有偏见的数据进行未经仔细考虑的算法系统本来就有可能重新创造甚至加剧过去决策过程中出现的歧视。
这一局面或许短期内都无法改变。[5]有国外学者甚至认为,人工智能在预测案件判决结果上已经超越了人类专家。笔者的这一判断可以从以下三个方面论析:第一,法律领域并不拥有优质且海量的法律数据资源。[37]由于类似办案系统的目的在于规范司法行为,似乎还不能算是完全的法律人工智能。
因为即使公布深度学习的所有代码与程式,也无法预知算法如何以及为何得出相应的结果,因此,未来需要在对现有算法进一步开源的基础上,探索与使用更为契合中国实践需要的新的算法。在只有当下数据而没有历史数据,只有近期数据而没有长期数据的情况下,即便基于官方全数据也很难以充分发现和总结规律性的决策模式,更无法展开有效的信息分析与建模。[47] 恰恰在此关键问题上,法律界似乎并未做好充分投入法律人工的准备,人工智能界尤其是科技企业界也没有做好这方面的准备。其次,公权力的行使要求一定透明性,而法律人工智能的算法却具有相当的黑箱性,其或者因为深度学习算法的运用而无法言明计算的过程与内容,或者由于算法商业机密与知识产权的考虑而不对外公开,这天然地与公权力行使的透明性与规则的公开性相悖。
【中文关键词】 法律人工智能。[29] 公安部部长郭声琨在全国公安科技信息化工作会议上表示要积极适应大数据时代信息化发展新趋势,大力实施警务大数据战略,大力加强科技成果运用,强化顶层设计,避免重复建设,不断提高公安工作信息化、智能化、现代化水平,为公安事业发展进步提供有力的科技引领和信息支撑,要主动拥抱大数据、人工智能新时代,树立前瞻性的思维与眼光。
因此,当下的法律人工智能严重依赖人类事先构建的知识图谱。司法部在2017年8月联合财政部印发了《十三五全国司法行政科技创新规划》,对十三五时期司法行政科技创新作出部署。
[21]值得注意的是,郑戈还展望了人工智能与法律的未来,认为‘现代法律体系能否成功应对人工智能所带来的新的风险和不确定性,能否在人工智能时代继续维持秩序与变革、守护与创新、价值与事实之间的动态平衡,这是今天的法律人所必须面对的紧迫问题。具体来说,知识图谱是用可视化的图谱形象地把复杂的知识领域通过数据挖掘、信息处理、知识计量和图形绘制而显示出来。[27]最高人民法院与最高人民检察院提出了智慧法院与智慧检务建设的行动规划。这就意味着,在法律领域使用人工智能,也许在相当长的一段时间内,我们不可能也不应该像对Alphago那样抱以巨大希望与信心。2.法律数据不真实 法律人工智能所掌握的公开信息是否真实决定了其得出的结论是否可靠,正所谓rubbish in, rubbish out。[10]在一般的法律服务与活动领域,人工智能更是显示出了自身的巨大优势。
[23] 参见胡凌:人工智能的法律想象,《文化纵横》2017年第2期,第108~116页。[9] 值得注意的是,目前法律界对人工智能的运用已不再局限于对裁判的预测,在其他领域也能看见其活跃的身影。
全国公安科技信息化工作会议在京召开孟建柱提出要求郭声琨讲话,载《人民日报》2017年6月21日,第4版。这种工作量用浩如烟海来形容一点也不为过,每一点法律知识图谱的构建完成、每一步法律人工智能的前进都需要付出难以想象的艰辛。
正是因为如此,人们常常将其形容成一个黑箱,即只能获知机器给出的答案,却无法了解答案得出的过程。当大数据进一步结合自然语言分析能力、机器学习技术之后,所谓的法律人工智能呼之欲出。
如J.C Smith指出,电脑可以/应该更换法官的见解是基于笛卡尔的灵体二元论和莱布尼茨的谬误,二者犯了智力可以独立于人体而存在和所有的人类思想都可以通过一种通用的语言来表达的错误。此外,深度学习算法还存在非透明性与不可解释性的缺陷。但是,尽管机器学习由算法驱动,但没有人的参与、输入和假设,机器学习是不会发生的。[4] See Katz DM, Bommarito MJ II, Blackman J (2017) A general approach for predicting the behavior of the Supreme Court of the United States. PLoS ONE 12(4): e0174698.载https://doi.org/10.1371/journal.pone.0174698,最后访问时间:2018年3月3日。
[12] 参见〔美〕凯西•欧尼尔:《大数据的傲慢与偏见:一个圈内数学家对演算法霸权的警告与揭发》,许瑞宋译,(台湾地区)大写出版社2017年版,第104页。[52]因此,应当注意和算法中可能存在的偏见及其潜在危害。
然而,他们可能并未注意到,知识图谱对数据、模型的颗粒化程度要求较高,模型越精细,数据越详细,知识图谱的效果才越好。部分法律人甚至不关心人工智能,在与人工智能领域的专家对话时,或将人工智能所能做的预测与人类的推理划上等号,或认为人工智能将会彻底颠覆人类社会,人类会成为机器人的奴隶。
很多时候,机器归纳的裁判模式可能连操控主体也难以理解,就如人类时常无法理解阿尔法狗的围棋招式一样。如同alphago主要收集与分析顶级围棋高手的棋谱而非所有棋谱,是否收集、如何收集、归纳、建模千千万万的各种裁判信息,也值得深思。
[43] 参见〔美〕佩德罗•多明戈斯:《终极算法机器学习和人工智能如何重塑世界》,黄芳萍译,中信出版集团2017年版,第66页。例如,胡凌对法律(主权权力)是否以及如何介入人工智能算法的运作,特别是在广泛影响大众利益的情形中,如何设计信息披露等监管机制、干预某类代码化规则的系统性歧视等展开了讨论。李彦宏称互联网是前菜,人工智能才是主菜,百度公司将不再是互联网公司,而是一家人工智能公司。另一方面,中国象棋只有残局棋谱,未有全局棋谱,Alphago不能获取充分的信息和数据。
即使不考虑这一点,深度学习算法仍然不能完美地适用于法律领域的任何场合,因为深度学习是一个端到端(end to end)的过程。例如,吴习彧认为,人工智能难以胜任知识覆盖面大、技术含量高的司法工作,更可行的做法应是一种人机结合的司法裁判智能化辅助系统。
这既是由人类(包括法律人与公众)对法律职业的认知所决定,也是由人工智能自身的不足所决定。在传统意义上文科培养模式下训练出来的法律人更习惯从定性而非定量的视角看待法律问题。
【期刊名称】《清华法学》【期刊年份】 2018年 【期号】 2 进入专题: 法律人工智能 法律数据 。[22] 郑戈:人工智能与法律的未来,《探索与争鸣》2017年第10期,第78~84页。