2019年,吉纳维芙(本文的合著者)和她的丈夫申请了同一张信用卡。尽管她的信用评分略好,收入、支出和债务与丈夫相同,但信用卡公司将她的信用额度设置为几乎一半。这个经历与这成为头条新闻那一年晚些时候:一对夫妇比较了他们Apple Card的消费限额,发现丈夫的信用额度是后者的20倍。客服人员无法解释为什么算法认为妻子的信用明显较低。

许多机构基于人工智能(AI)系统进行决策,使用机器学习(ML),通过一系列算法从大量数据中获取和学习,找到模式并做出预测。这些系统可以提供金融机构向不同客户提供的信贷额度、医疗系统优先向谁提供COVID-19疫苗、公司邀请哪些候选人参加面试等信息。然而,这些系统中的性别偏见普遍存在,并对妇女的短期和长期心理、经济和健康安全产生深远影响。它还会加强和放大现有的有害的性别陈规定型观念和偏见。

在我们结束妇女历史月之际,社会变革领袖——包括研究人员和具有性别专业知识的专业人士——以及ML系统开发人员都需要问:我们如何构建性别智能AI来促进性别平等,而不是嵌入和扩大性别偏见?

将性别平等和正义作为ML系统的首要目标,可以对设计和管理决策产生下游影响。我们必须承认毫升系统是不客观的。即使是为良好目的而设计的ML系统(例如,一个用于进行信用评估或更公平地招聘的系统)也可能容易出现与偏见相关的问题,就像它们的人类创造者一样。社会变革领导者以及开发ML系统的组织领导者都可以发挥作用,以实现性别智能ML和促进性别平等。

社会变革领袖可以:
  1. 利用女权主义数据实践来帮助填补数据空白。
  2. 向性别平等的人工智能领域提供专业知识,倡导人工智能扫盲培训,并加入对话。
  3. 在考虑或使用人工智能系统解决性别差距时,要批判性地思考
ML开发人员可以做什么:
  1. 在开发和管理AI系统的团队中嵌入和促进性别多样性、公平和包容。
  2. 认识到数据和算法不是中立的,然后做些什么。
  3. 在AI系统的开发中,关注边缘化社区成员的声音,包括妇女和非二元个体。
  4. 为负责任的人工智能建立性别敏感的治理方法。

阅读全文人工智能中的性别偏见《斯坦福社会创新评论》的Genevieve Smith和Ishita Rustagi