请选择 进入手机版 | 继续访问电脑版

中国卧龙网

 找回密码
 立即注册
中国卧龙网 首页 奇闻奇观 查看内容

AI走进司法,比人类更公正?

2018-9-17 10:38| 发布者: 鸿涛| 查看: 152| 评论: 0

摘要: AI走入司法你能想象AI进入司法领域,影响司法决策吗?事实上,美国许多州已经开始接受AI介入司法决策程序并对AI程序大加赞赏。不仅在美国,AI走入司法是全球未来的趋势。AI的高效、不会疲惫是它的一大优点。据报道,2 ...
AI走进司法,比人类更公正?

AI走入司法

你能想象AI进入司法领域,影响司法决策吗?事实上,美国许多州已经开始接受AI介入司法决策程序并对AI程序大加赞赏。不仅在美国,AI走入司法是全球未来的趋势。

AI的高效、不会疲惫是它的一大优点。据报道,2016年上半年,我国法院受案1002.9万,比2015年同期增长了18.94%,截至2017年6月20日,地方各级人民法院受理案件已经突破1428万件,比2016同期高出12.84%。可以看出,需受理的案件在逐年增长。大量的案件,有限的人手,处理这些案件的过程必然十分漫长。因此,司法系统引入高效的AI只是时间问题。

AI可以涉及司法的方方面面,从案件的受理、审查到判决过程都将会有AI的影子。

2017年重庆江北区人民法院引入AI帮助受理金融案件,人们不必亲自到法院,只需要在指定平台录入相关信息及材料,就能自动生成标准的起诉状,在线提交法院。之后,相关电子数据材料通过安全可靠的数据交换系统,实时提交法院业务系统审核办理。对于符合立案条件的案件,智能一键生成案件受理通知书、应诉通知书、举证通知书和送达回证等文书材料,并自动生成打印邮政专递的填录信息,省时省事。

调查方面,英国警方已经运用了名为VALCRI的智能系统协助调查,VALCRI通过扫描数百万份警局的记录、问讯、照片、录像等资料,迅速找出相关证据之间的联系,对作案手段、作案时间、作案动机和犯罪嫌疑人做出一个合理的推测,帮助警方迅速锁定嫌疑人。无独有偶,比利时警方同样运用了AI协助警方。

在美国,案件的判决过程就有AI的参与。一款名为Compas的系统在威斯康辛州的法院就十分受欢迎。Compas由一家私人公司Nortpointe生产并向法院销售,对被告进行风险评估,若判定被告具有高风险性,代表他对社会存在高威胁,将很有可能再次犯罪。如果判定风险等级低,那么这个人再次犯罪的可能性不大。法院会根据Compas的评估结果对被告量刑。从某种程度上来说,是AI决定了被告的判刑结果,它才是真正的法官。

AI进入司法似乎是大势所趋,那么AI司法真的那么完美吗?并不是。AI司法仍存在问题。

AI走进司法,比人类更公正?

黑箱里的判决

AI参与的司法过程并非完全透明化、公开化。

美国威斯康辛州的一位被告,埃里克·卢米斯,就法院借助AI程序做的判决结果提起上诉。

事情要从2013年2月11日说起。这天,威斯康辛州的拉克罗斯市发生了枪击案,有人目击了犯罪嫌疑人开车犯罪的过程,立即报了警,为警察提供了车辆信息。警方根据信息,强行截停了正在行进的那辆车,抓捕了当时开车的埃里克,并在车上搜出了枪支,人赃俱获。

然而,经过多方调查发现,他根本不是枪击案的犯罪嫌疑人,而是偷车贼,他只不过偷了枪击案犯罪嫌疑人的犯罪车辆而已。但最后,当地法院还是以拒捕罪和盗窃罪起诉了埃里克。

本来这只是一件寻常的案件,但AI的介入让它变得不寻常。在量刑过程中,埃里克接受了Compas提问。Compas综合了他的回答及之前的犯罪记录,根据自身的算法,判定埃里克对社会有高风险性。于是,法官按Compas的结果判处埃里克6年有期徒刑。在法院看来,既然埃里克社会危险性高,不如将他多关在监狱一段时间改造,免得早早放出去危害社会。

埃里克对判决结果表示不服,本来他犯了拒捕罪和盗窃罪,依法不应判处这么长的时间,而任凭一款AI程序的分析,就给他加重了刑罚。AI程序凭什么就认定他“高风险”?

按照美国第六修正案,被告有权利知道自己被控告的理由。但是,在本案中,埃里克无法知道。因为Compas属于私人公司,它的计算程序是商业机密,不能泄露。埃里克就判决结果向威斯康辛州最高法院上诉,结果最高法院判定原判决有效,并补充认为Compas的报告是有极大价值的,为司法判决提供了直观的数据信息,有助于司法的公正。

AI的判决过程就像是一个黑箱子,输入数据,得出结果,但过程未知。尽管创造它的公司告诉我们,它很公平;法院也告诉我们,它很公平,但它如何公平,我们不知道。以牺牲知情权换来的“公平”,你愿意接受吗?

AI是否公平公正?

不论你是否愿意接受以牺牲知情权换来的公平,首先,它真的公平吗?

美国一项报告指出,Compas 算法所评估的黑人犯罪风险明显比白人要高得多。例如,一位黑人女孩与一位白人男子都因为犯了盗窃罪被捕,两人所盗物品价值相同。这位女孩有过4次不当行为,从未入狱,而这位男子则有过两次持枪抢劫的记录,曾入狱5年。Compas对这两人的风险评估结果如何呢?它判定白人男子风险等级为一般危险,而黑人女孩为高危。还有许多类似的例子。报告认为,该算法有种族歧视的嫌疑。

的确,从表面上看AI铁面无私,然而设计计算程序的是人类,只要是人,就难免存在偏见,如何能够保证在设计算法的过程中不掺杂任何偏见呢?这几乎不可能。而运用这些带有偏见的算法进行司法判定,还会是公平的吗?

未来的AI司法

为了保证人们的知情权,一个可查看的程序也许会是未来的发展趋势。

如果这些参与司法的AI计算过程可以随时获取,如果有人质疑司法判决的公正性,就可以查看AI是如何得出这种结论的。这样的AI判决就不再是黑箱里的秘密了,同时也有利于对整个司法过程的监督。这是各个开发公司所要解决的难点。

当然,在发展AI的同时,我们更要完善法律系统,只有向AI输入更完善的法律知识,才能保证AI做出的判决更加公正合理。

AI法官已经逐渐向我们走来,在此之前,我们还需要好好准备准备。

,

鲜花

握手

雷人

路过

鸡蛋
上一篇:河口闪电之谜
下一篇:当睡梦被剥夺
返回顶部