给出指南针的建议:
- Jenny R. Yang讨论了偏见可能进入人工智能系统并导致歧视的三种方式,以及防止这种情况发生的三种方法。
- 人工智能驱动的工具正在改变美国工人的生活,对民权产生深远影响。捐助者如何帮助确保人工智能朝着正确的方向发展?
- 这里有一篇关于来自先进人工智能的潜在风险.
什么是给予指南针?
我们将捐助者与学习资源和方法联系起来,以支持社区主导的解决方案。更多了解我们.
2012年,大学工程系学生凯尔·贝姆申请了一些零售店的小时工。Behm曾做过类似的工作,但他申请的工作需要性格评估。凯尔被诊断患有躁郁症,所以关于他是否有情绪变化的问题导致许多零售商拒绝接受他,尽管他很有资格。
Behm的故事说明了由人工智能(AI)驱动的新一代工具所带来的风险,这些工具正在改变美国工人的生活,并对民权产生深远影响。
上周,我在众议院教育和劳工委员会民权和人类服务小组委员会作证,讨论了技术如何改变工作,以及政策制定者如何应对算法雇佣工具、工人监视和技术驱动的商业模式带来的新的民权挑战,这些模式破坏了传统的雇主-雇员关系。
许多新的科技驱动的招聘系统使用人工智能来更快地过滤越来越多的在线申请人。雇主们使用聊天机器人、résumé-screening工具、在线评估、网页游戏和视频面试来自动化招聘过程的各个阶段。
一些雇主的目标是更快地招聘,评估“文化契合度”,或减少人员流动率。还有一些公司的目标是做出更好的与工作相关的决策,雇佣更多样化的候选人,通过衡量能力来扩大申请人的人才库,而不是依靠传统的人才指标,比如从精英大学毕业、员工推荐或从竞争对手那里招聘。人工智能或许能够帮助雇主识别出那些被排除在传统成功途径之外、但拥有成功所需技能的员工。
但有了人工智能,机器可以复制人类的决策。人工智能系统的偏差通常是它所模仿的人类行为。当雇主试图简单地自动化和复制他们过去的招聘决策,而不是基于对工作相关标准的严格分析来招聘时,这可能会使历史偏见永久存在。歧视性标准可以被纳入算法模型,然后迅速扩展。
阅读全文人工智能区分的三种方式以及如何向前发展作者是城市研究所的珍妮·r·杨。