给罗盘”:
- Genevieve Smith和Ishita Rustagi强调了人工智能领域性别平等的重要性,并解释了社会变革领导者和机器学习开发者如何对抗人工智能领域的不平等。
- 你能在促进科技领域的性别平等方面发挥什么作用?
- 学习为什么有偏见的人工智能对健康有害.
什么是给予指南针?
我们将捐助者与学习资源和方式联系起来,以支持社区主导的解决方案。更多了解我们.
2019年,吉纳维芙(本文的合著者)和她的丈夫申请了同一张信用卡。尽管她的信用评分略好,收入、支出和债务与丈夫相同,但信用卡公司将她的信用额度设置为几乎一半。这个经历与这成为头条新闻那一年晚些时候:一对夫妇比较了他们Apple Card的消费限额,发现丈夫的信用额度是后者的20倍。客服人员无法解释为什么算法认为妻子的信用明显较低。
许多机构基于人工智能(AI)系统进行决策,使用机器学习(ML),通过一系列算法从大量数据中获取和学习,找到模式并做出预测。这些系统可以提供金融机构向不同客户提供的信贷额度、医疗系统优先向谁提供COVID-19疫苗、公司邀请哪些候选人参加面试等信息。然而,这些系统中的性别偏见普遍存在,并对妇女的短期和长期心理、经济和健康安全产生深远影响。它还会加强和放大现有的有害的性别陈规定型观念和偏见。
在我们结束妇女历史月之际,社会变革领袖——包括研究人员和具有性别专业知识的专业人士——以及ML系统开发人员都需要问:我们如何构建性别智能AI来促进性别平等,而不是嵌入和扩大性别偏见?
将性别平等和正义作为ML系统的首要目标,可以对设计和管理决策产生下游影响。我们必须承认毫升系统是不客观的。即使是为良好目的而设计的ML系统(例如,一个用于进行信用评估或更公平地招聘的系统)也可能容易出现与偏见相关的问题,就像它们的人类创造者一样。社会变革领导者以及开发ML系统的组织领导者都可以发挥作用,以实现性别智能ML和促进性别平等。
社会变革领袖可以:
- 利用女权主义数据实践来帮助填补数据空白。
- 向性别平等的人工智能领域提供专业知识,倡导人工智能扫盲培训,并加入对话。
- 在考虑或使用人工智能系统解决性别差距时,要批判性地思考
ML开发人员可以做什么:
- 在开发和管理AI系统的团队中嵌入和促进性别多样性、公平和包容。
- 认识到数据和算法不是中立的,然后做些什么。
- 在AI系统的开发中,关注边缘化社区成员的声音,包括妇女和非二元个体。
- 为负责任的人工智能建立性别敏感的治理方法。
阅读全文人工智能中的性别偏见《斯坦福社会创新评论》的Genevieve Smith和Ishita Rustagi