分享好友 看资讯首页 频道列表
争议不断 在当前司法系统中引入人工智能是把双刃剑
2024-05-13 11:39    7178 来源:凤凰网

【cnmo新闻】在上周末举行的data for black lives会议上,技术专家、法律专家

【cnmo新闻】在上周末举行的data for black lives会议上,技术专家、法律专家和社区活动家讨论了美国的刑事司法系统,并提出了一些看法。

美国监禁的人数超过世界上任何其他国家。截至2016年底,有近220万成年人被关押在监狱中,还有450万人在其他惩教设施中。换句话说,每38名成年美国人中就有1人受到某种形式的惩教监督。

在司法系统中引入人工智能

在不增加犯罪风险且减少监狱数量的巨大压力下,美国各地的法庭已经求助于自动化工具。警察部门使用预测算法来制定策略,执法机构使用人脸识别系统来识别嫌疑人。这些做法经受了各种审查,以确定它们是否真正提高了安全性,还是只是使现有的不公平现象长期存在。例如,研究人员和民权倡导者一再证明,人脸识别系统可能会失败,特别是对于皮肤黝黑的人,该系统甚至曾将国会议员误认为是罪犯。

但迄今为止最具争议的工具是在警方逮捕嫌疑人之后使用的犯罪风险评估算法。

风险评估工具旨在做一件事:收集被告的详细信息并给出一个累犯分数,一个表示他或她再次犯罪可能性的数字。然后,法官将这个分数用于各项考量之中,包括决定被告应该接受哪种类型的判决、是否应该在审判前将他们关在监狱中以及对他们进行什么程度的判决等。

使用这种算法工具的逻辑是,如果你能准确预测犯罪行为,就可以相应地分配资源,无论是恢复还是监禁。理论上,它还减少了一定的偏见,因为法官根据数据做出决策而不是他们的直觉。

但现代风险评估工具通常使用的都是历史犯罪数据。机器学习算法使用统计数据来查找数据中的模式。因此,如果你提供历史犯罪数据,它将挑选出与犯罪相关的模式。但这些模式是统计相关性而非因果关系。例如,如果算法发现低收入与高累犯相关,那么在低收入是否真的是导致犯罪的原因,这一点人工智能无法进行分析。

现在,一直被执法人员定位成高累犯风险的人群中包括低收入和少数族裔群体,由此可见,该算法有可能会产生偏见,并生成更多受偏见污染的数据,从而导致恶性循环。

来源:凤凰网

以上是网络信息转载,信息真实性自行斟酌。

版权/免责声明:
一、本文图片及内容来自网络,不代表本站的观点和立场,如涉及各类版权问题请联系及时删除。
二、凡注明稿件来源的内容均为转载稿或由企业用户注册发布,本网转载出于传递更多信息的目的;如转载稿涉及版权问题,请作者联系我们,同时对于用户评论等信息,本网并不意味着赞同其观点或证实其内容的真实性。
三、转载本站原创文章请注明来源:中华厨具网

免责声明:

本站所有页面所展现的企业/商品/服务内容、商标、费用、流程、详情等信息内容均由免费注册用户自行发布或由企业经营者自行提供,可能存在所发布的信息并未获得企业所有人授权、或信息不准确、不完整的情况;本网站仅为免费注册用户提供信息发布渠道,虽严格审核把关,但无法完全排除差错或疏漏,因此,本网站不对其发布信息的真实性、准确性和合法性负责。 本网站郑重声明:对网站展现内容(信息的真实性、准确性、合法性)不承担任何法律责任。

温馨提醒:中华厨具网提醒您部分企业可能不开放加盟/投资开店,请您在加盟/投资前直接与该企业核实、确认,并以企业最终确认的为准。对于您从本网站或本网站的任何有关服务所获得的资讯、内容或广告,以及您接受或信赖任何信息所产生之风险,本网站不承担任何责任,您应自行审核风险并谨防受骗。

中华厨具网对任何使用或提供本网站信息的商业活动及其风险不承担任何责任。

中华厨具网存在海量企业及店铺入驻,本网站虽严格审核把关,但无法完全排除差错或疏漏。如您发现页面有任何违法/侵权、错误信息或任何其他问题,请立即向中华厨具网举报并提供有效线索,我们将根据提供举报证据的材料及时处理或移除侵权或违法信息。