什么是给予指南针?
我们将捐助者与学习资源和方法联系起来,以支持社区主导的解决方案。更多了解我们.
给出指南针的建议:
•珍妮·r·杨(Jenny R. Yang)为城市研究所(Urban Institute)撰文,解释了人工智能招聘技术如何从过去的决定中重现种族偏见,并为如何纠正这一问题提供了建议。
•人工智能招聘技术本身并不是种族主义。它的行为如何反映其设计者和用户的偏见?我们能做些什么来推动人工智能招聘技术的公平,以减少几代人的种族主义做法?
•了解更多关于人工智能招聘技术中的歧视,以及我们如何纠正它。
随着企业在经历了数月的大幅裁员后开始重新招聘,人工智能(AI)驱动的招聘筛选对雇主来说越来越有吸引力,在COVID-19大流行期间,它可以替代面对面的互动。为了有效地从大量的在线求职申请中筛选出来,大雇主们正在使用预测性招聘工具来筛选和排名简历,通过在线游戏评估候选人,并进行视频面试,分析申请人的面部表情。
主观的简历审查和非结构化的面试等做法被广泛使用,会让刻板的观点和不准确的假设影响招聘决定。尽管几十年的研究表明,名字听起来像非洲裔、拉丁裔或亚洲人的简历收到面试邀请的几率比名字听起来像白人的简历低24% - 36%,但这种做法是许多雇主招聘流程的基础。
招聘评估技术可以通过衡量能力来帮助扩大申请人库,而不是依赖于人才的代理,如大学学位、员工推荐或从竞争对手那里招聘,所有这些都可能排除那些历史上代表性不足的合格员工。通过摆脱传统的标准,雇主可以从更多样化的优秀候选人中招聘人才。然而,单纯地用技术颠覆现有体系并不能促进公平。招聘评估技术系统反映了开发人员的选择,他们可能不会发现数据中的偏见——考虑到人工智能领域缺乏多样性,这是一个特别严重的问题。
为了实现新技术的承诺,我们必须确保系统经过精心设计,以防止偏见,并记录和解释评估其可靠性和有效性所需的决策。如果没有足够的保障措施,算法评估可能会使劳动力中已经存在的系统性歧视模式永久化。
阅读全文人工智能招聘技术作者是城市研究所的珍妮·r·杨。