给罗盘”:
- Caitlin Chin和Mishaela Robison报道了日益流行的语音命令机器人所反映的性别偏见和社会不平等。
- 语音指令机器人的行为模式如何表明其创造者的刻板印象和偏见?这些是如何使歧视和剥削永续下去的?
- 阅读更多关于语音指令机器人的固有偏见.
什么是给予指南针?
我们将捐助者与学习资源和方式联系起来,以支持社区主导的解决方案。更多了解我们.
世界上语音助手的数量可能很快就会超过人类——这是人工智能(AI)在许多领域迅速大规模应用的又一标志。人工智能的好处是显著的:它可以在劳动力和日常生活中推动效率、创新和成本节约。尽管如此,人工智能对偏见、自动化和人类安全提出了担忧,这可能会加剧历史上的社会和经济不平等。
一个特别值得关注的领域是人工智能机器人和语音助手促进不公平的性别刻板印象的方式。在世界各地,各种面向客户的服务机器人,如自动化酒店员工、服务员、调酒师、保安和儿童看护提供者,都具有性别化的名字、声音或外观。在美国,Siri、Alexa、Cortana和谷歌Assistant传统上都以女性声音为特色。
随着人工机器人和语音助手越来越流行,评估它们如何描述和强化现有的性别-工作刻板印象,以及开发团队的组成如何影响这些描述是至关重要的。人工智能伦理学家乔西·杨(Josie Young)最近表示,“当我们(为技术)添加一个人的名字、面孔或声音时,它反映了开发它的团队的观点偏见。”这反映出学术界和民间对这一话题的评论越来越多。展望未来,随着人工机器人数量的增加和技术的进步,对其性别描述的更明确的社会和道德标准的需求只会增加。
鉴于语音助手在大众消费市场的早期应用,美国语音助手提供了一个实际的例子,说明人工智能机器人如何引发对性别代表的根本性批评,以及科技公司如何应对这些挑战。在这份报告中,我们回顾了语音助手的历史、性别偏见、技术劳动力的多样性,以及语音助手中性别描述的最新发展。
阅读全文语音命令机器人作者是布鲁金斯学会的凯特琳·秦和米沙拉·罗宾逊。