道客优

1234
简历打分,AI也存在性别歧视,女性求职遭受偏见
2019-09-12 来源:中国科技传播志愿者 阅读:795

自从2014年开始,来自亚马逊的科技团队,一直都致力于一款计算机程序的秘密研发,据了解,这款程序用来对求职者的简历进行审查,从而帮助企业寻找出顶尖人才。但是,后来专家在招聘过程中,发现这款新招聘引擎对女性存在偏见,最终亚马逊解散了该研究团队。今天就让中国科技传播志愿者带你来了解一下吧!

一、 需求推动机器学习的发展

对于亚马逊而言,自动化是其占据主导地位的关键,无论是仓库内部还是决策方面,亚马逊的作用都是非常关键的。现如今,低成本计算能力慢慢提升,这就使得机器学习的受欢迎程度越来越高。而亚马逊的智能招聘实验,就开始于此。

据监管机构的统计,自2015年6月以来,亚马逊的全球员工人数达到了57万,增加了两倍。为了缓解人力资源部门的工作压力,提升工作效率,亚马逊特意在爱丁堡工程中心建立了一支研发团队,目的就是通过AI技术,对网络应聘信息进行精确筛选,从而找到领域人才。

该公司的招聘工具,能够利用AI为求职者提供星级等级评分,就相当于消费者在亚马逊购物之后,对商品进行评分。研究人员的目标是:将100份简历输入到软件中,然后软件自动筛选出前五名简历,达到优先录用的目的。

二、 AI竟然出现“重男轻女”的情况

在海量数据的支持下,这个计算机模型对过去十年中公司得到了求职简历进行了学习,通过训练掌握了固定的模式,并对申请人进行审查。但是,问题在2015年出现了,亚马逊发现,该模型在对软件开发和其他技术职位的应聘者进行评定时,在性别上存在不公平的现象。因为大多数申请者都是男性,这也说明了在科技行业,男性的地位要高于女性。

事实上,该系统在训练过程中,自动得出了男性申请人更占优势的结论,从而在筛选过程中自动对“女性”这两个字进行了处罚。

除了性别偏见,用于模型训练的数据也有问题,这也就意味着被淘汰的申请人被推荐到其他各种岗位。最终,亚马逊解散了该研究团队。

三、 算法公平非易事

2017年,“职业创造者”公司进行了一项调查,结果显示美国大约有55%的HR表示,未来十年,AI将成为他们工作中很重要的助手。一直以来,很多公司想要通过AI技术,来扩大其招聘优势,不断减少人为主观因素。但是,亚马逊的失败给这些试图通过自动化完成招聘的公司敲响了一个警钟。

来自卡内基梅隆大学的专家表示,算法公平必然是未来很重要的研究方向,但是要想让算法真正实现公平,还需要经过很长的路。我们不能单方面认为AI内部没有偏见。事实上,通过存在偏见的数据训练出来的算法,必然也会存在偏见。如果这种偏见不能被及时发现,那么将会带来很多棘手的问题。

偏见其实一直存在,只是我们还没有发现。看完了本期文章,你有什么看法呢?欢迎评论区留言,我们一起探讨吧。

道客优(www.daokeyou.top)提醒:本网站转载【简历打分,AI也存在性别歧视,女性求职遭受偏见】文章仅为流传信息,交流学习之目的,其版权均归原作者所有;凡呈此道客优的信息,仅供参考,本网站将尽力确保转载信息的完整性,如原作者对道客优转载文章有疑问,请及时联系道客优,道客优将积极维护著作权人的合法权益。
推荐阅读: