分享好友 看资讯首页 频道列表
科技的白人男性劳动力如何向人工智能提供偏见
2024-05-12 20:02    8647 来源:中国产业经济信息网

大约80%的人工智能教授都是男性,而女性在facebook的人工智能研究人员中占15%,在谷歌则占10%。

对于主要科技公司的黑人员工,这一比例甚至更低,谷歌只有2.5%,facebook和微软只有4%。

一项新研究表明,当人工智能项目由大多数白人男性工作者构建时,偏见渗透,他们强调“对'正常'人的狭隘观念”。

根据纽约大学ai now研究所的一份新报告,科技行业大多数白人男性编码人员正在制造“多元化危机”,其偏见渗透到面部识别程序和聊天机器人等产品中。该报告重点介绍了google,facebook和微软等主要科技公司的劳动力性别失衡如何帮助人工智能中的偏见。

>

ai用于从面部识别到聊天机器人的各种产品。但该报告指出,在facebook上只有15%的人工智能研究人员是女性,而对谷歌来说,它甚至更低,为10%。

这强调了该研究的作者所说的反映多元化社会的多元化劳动力的重要性。他们认为,科技行业的大多数白人男性人工智能编码器与技术产品中的偏见有关。他们表示,对问题进行补救将需要更广泛的多样性方法,包括从精英校园以外的大学招聘,以及提高ai产品的透明度。

“到目前为止,人工智能行业的多样性问题以及它所构建的系统中的偏见问题都倾向于单独考虑,”作者sarah myers west,meredith whittaker和kate crawford写道。“但我们认为这些是同一问题的两个版本:劳动力和制度建设中的歧视问题深深地交织在一起。”

“'正常'人的狭隘观念”

研究人员写道,不仅人工智能可能会歧视某些类型的人,而且它“对他人有利,加强了对'正常'人的狭隘观念”。

该报告强调了人工智能计划为已经遭受偏见的群体创造有害环境的几种方式。其中包括:

亚马逊人工智能招聘工具扫描申请人的简历依赖于之前的招聘简历,为理想的招聘设定标准。然而,人工智能开始降低参加女子学院的申请人的评级,或者在简历中加入“女性”一词。

亚马逊的rekognition面部分析计划难以识别黑皮肤的女性。根据一份报告,该计划误认为他们是男性,虽然该计划没有任何问题识别男性的任何肤色。

“深切关注”

对于人工智能内部的偏见问题,纽约大学并不是第一个发出警告的人。诸如麻省理工学院技术评论和aclu等团体已经记录了影响招聘和刑事判决等问题的问题结果。

麻省理工学院技术评论指出,问题源于深度学习阶段,当编码员通过培训数据“教授”一个项目时。程序员可以依靠不能准确反映世界的数据集来向系统添加偏见,例如依赖包含极少数黑人的面部图像。

程序员还可以通过确定哪些属性很重要来增加偏见 - 例如性别。如果一家公司以前的雇员大多是男性,该计划可能会学习排除女性,如亚马逊的招聘计划,加强了招聘的偏见模式。

来源:中国产业经济信息网

以上是网络信息转载,信息真实性自行斟酌。

版权/免责声明:
一、本文图片及内容来自网络,不代表本站的观点和立场,如涉及各类版权问题请联系及时删除。
二、凡注明稿件来源的内容均为转载稿或由企业用户注册发布,本网转载出于传递更多信息的目的;如转载稿涉及版权问题,请作者联系我们,同时对于用户评论等信息,本网并不意味着赞同其观点或证实其内容的真实性。
三、转载本站原创文章请注明来源:中华厨具网

免责声明:

本站所有页面所展现的企业/商品/服务内容、商标、费用、流程、详情等信息内容均由免费注册用户自行发布或由企业经营者自行提供,可能存在所发布的信息并未获得企业所有人授权、或信息不准确、不完整的情况;本网站仅为免费注册用户提供信息发布渠道,虽严格审核把关,但无法完全排除差错或疏漏,因此,本网站不对其发布信息的真实性、准确性和合法性负责。 本网站郑重声明:对网站展现内容(信息的真实性、准确性、合法性)不承担任何法律责任。

温馨提醒:中华厨具网提醒您部分企业可能不开放加盟/投资开店,请您在加盟/投资前直接与该企业核实、确认,并以企业最终确认的为准。对于您从本网站或本网站的任何有关服务所获得的资讯、内容或广告,以及您接受或信赖任何信息所产生之风险,本网站不承担任何责任,您应自行审核风险并谨防受骗。

中华厨具网对任何使用或提供本网站信息的商业活动及其风险不承担任何责任。

中华厨具网存在海量企业及店铺入驻,本网站虽严格审核把关,但无法完全排除差错或疏漏。如您发现页面有任何违法/侵权、错误信息或任何其他问题,请立即向中华厨具网举报并提供有效线索,我们将根据提供举报证据的材料及时处理或移除侵权或违法信息。