秘密程序惩罚包含女性一词的应用程序
即使对于像亚马逊这样拥有丰富人工智能经验的公司来说,机器学习中的偏见也可能是一个问题根据从报告路透社,电子商务巨头放弃了这个试图用AI来审核申请工作后的软件始终降级的女候选人的内部项目
因为人工智能系统通过查看历史数据来学习做出决策,所以它们通常会延续现有的偏见在这种情况下,这种偏见是科技界男性主导的工作环境据路透社报道,亚马逊的计划会惩罚参加全女子大学的申请者,以及任何包含女子一词的简历
据报道,该项目背后的团队打算加快招聘过程一位熟悉这项工作的匿名消息人士告诉路透社: 他们真的希望它成为一个引擎,我会给你 100 份简历,它会吐出前五名,我们会雇用这些人 当公司意识到该软件没有产生性别中立的结果时,它进行了调整以消除这种偏见可是,相关人员无法确定该计划是否存在其他偏见,因此该计划于去年被完全取消
该计划于去年年初被取消
亚马逊的一位消息人士在接受The Verge 采访时表示,该程序仅用于试验,从未独立使用或推广到更大的群体该消息人士还指出,该项目被放弃的原因有很多,而不仅仅是性别偏见问题,该问题最终得到了解决亚马逊发言人在一份声明中证实,该程序从未以官方身份使用,并告诉The Verge,亚马逊招聘人员从未使用该程序来评估候选人
在过去的几年里,伴随着人工智能在越来越多的环境中得到应用,研究人员对偏见的危险越来越直言不讳关于性别和种族的偏见很容易渗透到一系列人工智能程序中——从面部识别算法到法院和医院使用的算法
在大多数情况下,这些计划只是在延续现有的偏见例如,使用亚马逊的简历扫描仪,招聘人员可能会在潜意识的基础上对女性候选人产生同样的偏见但是,通过将这些偏见传递给计算机程序,我们使它们变得不那么明显并且更不容易被纠正这是因为我们倾向于相信机器的决定,而且人工智能程序无法解释他们的想法
尽管如此,许多致力于人工智能招聘工具的初创公司都明确出售他们的服务,以此作为避免偏见的一种方式,因为比如说,对某些候选人的偏好可以被编码亚马逊显然也在沿着这些思路思考,正如路透社报道的那样,该公司正在尝试构建一个人工智能招聘工具,这次是专注于多样性
智能算法是AI的基石,横向开源平台与纵向深耕行业并行。AI算法的底层技术相对公开,领先企业需要构建开放平台,将技术优势转化为生态优势。同时,随着传统行业智能化转型的推进,通用型算法难以满足多样化场景需求,算法企业需要深耕行业以沉淀专业知识及业务模型。我们认为触达行业优质数据,针对行业痛点提供高效算法是AI算法企业的核心竞争力。
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。