张吉豫副教授做客法学院财经法前沿论坛 讲授“司法领域人工智能算法可解释性的促进”

[发表时间]:2017-12-26 [来源]:法学院  [浏览次数]:

    12月21日下午,中国人民大学法学院未来法治研究院执行院长张吉豫副教授做客法学院“财经法前沿论坛”,带来一场题为“司法领域人工智能算法可解释性的促进”的学术讲座。我校法学院院长尹飞教授、党委书记吴韬教授、副院长李伟副教授等,部分博士生、研究生参加了讲座。讲座由杜颖教授主持。

    讲座伊始,尹飞院长首先向与会师生介绍了张吉豫副教授的学术履历。他还介绍了法学院在网络法学方面的进展,如吴韬教授对大数据产业的研究、黄震教授对科技金融的思考、杜颖教授在互联网知识产权的成果等。尹飞院长表示,为落实习近平总书记“五三讲话”精神,法学院将着力交叉学科的研究,重视未来语境下法治建设的需要,探讨信息技术发展对法学教育和法学学科发展的影响。

    张吉豫副教授首先对人工智能算法问题提出的背景和讨论范围进行解释,指出人工智能目前值得参考的概念是,人工智能是致力于让机器变得智能的活动,而智能就是使一个实体能够在其环境中有预见性地、适当地运作的能力。在法律领域,如果不加监督地使用人工智能算法,可能会导致三方面的负面影响:一是决策信息不完整;二是决策依据不足;三是决策适应性问题。因此,在应用算法时要区分适用领域,避免可能发生的人工智能失控。同时,通过对美国计算机协会公共政策委员会《算法透明性和可问责性的声明》和IEEE《人工智能设计的伦理准则》的解读,以及对State v. Loomis,881 N.W.2d.749(Wis.2016)一案的分析,结合潘云鹤院士的大数据驱动观点,张吉豫副教授从辅助法官审判决策的算法、其他对法官决策可能产生影响的算法、对法官本人可能产生影响的算法三方面对人工智能算法进行深入分析,并强调人工智能技术在我国司法领域应用时应贯彻落实习近平总书记对司法体制改革作出的重要指示。

    随后,张吉豫副教授分别从司法审判、社会文化、产业创新的视角对促进司法领域算法可解释性的意义进行阐述。一是司法审判中应要求旨在辅助法官的直接审判决策类算法必须提供决策解释,鼓励其他影响法官决策的算法尽可能提高可解释性;二是社会文化影响中应考量社会的包容度与文化的适应度;三是产业创新发展中应建立算法的评价机制,推动算法的自身进化。

    之后,张吉豫副教授对促进司法领域人工智能算法可解释性的可能性提出三点迷思:深度学习算法带有“黑盒子”属性;深度学习算法完全不能被解释;一定要使用“最先进”的算法,而目前最先进的算法就是“黑盒子”。基于三点迷思,他提出解决进路应坚持“公开”的原则,涵括公开的对象与公开的层次。

    最后,关于司法领域人工智能算法可解释性的促进,张吉豫副教授提出三点倡议:开放审查、开放创新、共享共建。在此基础上,应建立面向法律人的开放审查和意见反馈机制与社会协作共建机制,在人类可控范围内利用人工智能。

    杜颖教授在评议中首先表达了对张吉豫副教授的感谢,并提出讲座主题是一个十分深刻的未来法治问题。杜颖教授指出,张吉豫副教授从司法领域的视角切入对算法问题进行剖析,拓宽了我们的知识面,使我们发现算法不仅限于机器与程序,而是涉及社会生活中的各行各业与方方面面。有鉴于此,在司法领域设计人工智能算法前,应着重考量该算法意欲解决何种问题。

    讲座结束后,法学院领导班子、部分师生与张吉豫副教授就法学研究、法学教育、法治人才培养如何回应大数据时代、如何应对信息技术发展进行了深入交流。

编辑: 孙颖
分享到:
主办单位:中央财经大学新闻中心
Copyright 2013 news.cufe.edu.cn All rights reserved 投稿信箱:xwzx@cufe.edu.cn