首页 » 商业新闻 » 正文

AI研究“重男轻女”要不得!亚马逊被迫解散研究团队

发表时间:2018-10-15    
导读:自2014年以来,美国亚马逊公司的机器学习团队一向在隐秘研制和运用一款核算机程序,用于检查求职者的简历,期望能将寻觅顶尖人才
 自2014年以来,美国亚马逊公司的机器学习团队一向在隐秘研制和运用一款核算机程序,用于检查求职者的简历,期望能将寻觅顶尖人才的作业智能化。但在专家发现新招聘引擎不喜欢女人后,亚马逊终究在上一年年头解散了该研讨团队。

  功率提高需求推进机器学习使用

  无论是在仓库内部仍是在推进定价决议计划方面,自动化是亚马逊电子商务主导地位的要害。由于低成本核算才能的激增,机器学习在技能领域越来越受欢迎。亚马逊的智能化招聘试验就始于这家全球最大在线零售商的要害时刻。

  监管机构的文件显现,自2015年6月以来,亚马逊的全球职工人数增加了两倍多,到达57万多名。为缓解人力资源部分剧增的作业压力,提高其作业功率,亚马逊爱丁堡工程中心建立了一支研制团队,方针是开发人工智能技能,快速抓取网络信息并发现值得招募的提名人。

  该公司的试验性招聘工具运用人工智能为求职者供给一星到五星的评分,类似于购物者对亚马逊所售产品的评分。研讨人员期望这个招聘软件能到达“给软件输入100份简历,它会吐出前5名,然后公司就可优先招聘他们”的方针。

  人工智能招聘软件“重男轻女”

  经过培训,亚马逊的核算机模型学习了过去10年内提交给公司的简历,找出了其固有形式,并据此来检查请求人。但从2015年开端,亚马逊意识到在鉴定软件开发和其他技能职位的请求人时,该招聘体系并非性别中立。由于大多数请求者都是男性,这反映了整个科技作业男性主导地位的实际。

  研讨团队创建了500个专心于特定作业职能和职位的核算机模型。他们教会每个模型辨认过去提名人简历中呈现的约5万个术语。这些算法对IT使用程序中常见的技能几乎没有重要意义,例如编写各种核算机代码的才能等。相反,这项技能有利于那些用男性工程师简历中比如“履行”“捕获”等常见动词来描绘自己的提名人。

  事实上,亚马逊的体系经过自学得出了男性提名人更可取的定论。体系对包括“女人”这个词的简历进行了处分,如“女子国际象棋沙龙队长”等。体系还降低了两所全女子大学毕业生的评级。

  亚马逊曾测验对程序进行更新,力求使其对特定术语保持中立。但这并不能保证机器不会根据其他方法来对或许具有歧视性的提名人进行分类。

  性别成见也不是唯一的问题。支撑模型判断的数据也有问题,这意味着不合格的提名人经常被引荐到各种作业岗位。亚马逊终究在上一年年头解散了该团队,由于高管们对这个项目已失去决心。

 

  算法公正之路任重道远

  根据人才软件公司“作业创造者”2017年的一项查询显现,约55%的美国人力资源经理表明,未来5年内,人工智能将成为他们作业的惯例部分。

  长时间以来,雇主一向梦想使用技能扩展招聘网络,削减对招聘人员主观定见的依靠。但亚马逊的失利事例,为越来越多正在寻求自动化招聘流程的大型公司供给了一个经验。

  卡内基梅隆大学机器学习专家表明,怎么保证算法公正、真实可理解和可解释的道路还适当悠远。

  《麻省理工技能评论》在此次事情的报导中指出,咱们不能将人工智能视为内涵的无成见。在有成见的数据上训练体系,意味着算法也会变得有成见。假如这样不公正的人工智能招聘计划在施行之前没有被发现,将使长时间存在于商业中的多样性问题延续下去,而不是处理它们。

 
关键词:

海北文明网版权说明:

      1.本网内的署名作者和来源“海北文明网”作品,版权均属于海北文明网,未经本网授权不得转载、摘编或利用其它方式使用上述作品。凡经本网授权使用的作品,应在授权范围内使用,并注明“来源:海北文明网”和作者姓名。违反上述声明者,本网将追究其相关法律责任。
      2.本网注明“来源:×××”(非海北文明网)的作品,均转载自其它媒体,其目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责,本网不承担此类稿件侵权行为的连带责任。

 
主办单位: 中共海北州委宣传部 海北州文明办
备案号:青ICP备10200010号-1
邮箱:tougao@hbwmw.cn
海 北 文 明 网 版 权 所 有 ,未 经 书 面 授 权 禁 止 使 用 
Copyright 2018 by hbwmw.cn all rights reserved