给出指南针的建议:
- 沙尔曼(Javeria Salman)解释说,种族偏见通常嵌入在教育技术中,因此教育技术最终加剧了学校的种族不平等。
- 在有意建立公平的教育工具方面,你能发挥什么作用?
- 读到教育技术企业家必须如何适应新的教育体系.
什么是给予指南针?
我们将捐助者与学习资源和方法联系起来,以支持社区主导的解决方案。更多了解我们.
在过去的几个月里,像ChatGPT和BingAI这样的人工智能技术因其改变我们生活许多方面的潜力而受到了广泛关注。这将在多大程度上实现仍有待观察。
但对话中似乎遗漏了一个问题,即如果我们不小心,技术——尤其是由人工智能和机器学习驱动的技术——会如何加剧种族不平等。
在教育方面,黑人和西班牙裔学生每天都面临着学校的不平等,无论是通过教育纪律行动、课程设置或与文化无关的内容。专家警告说,将科技工具鲁莽地扩展到课堂上,可能会加剧黑人和西班牙裔学生已经面临的歧视。
在其他领域,带有种族偏见的科技工具的风险正变得相对众所周知。以面部识别技术为例。研究面部分析算法和数据集表现不佳在检查女性、黑人和棕色人种、老人和儿童的面部时。当警察用于监控目的时,这项技术可能会导致错误逮捕甚至致命暴力。在住房方面行业在美国,抵押贷款机构通过算法审查借款人,这些算法有时会对黑人和拉丁裔申请人收取不公平的费用提高利率.
专家表示,这些技术可能存在种族偏见,部分原因是它们反映了它们的设计者的偏见和弱点。即使开发者不打算这样做,他们的固有的偏见可以编码到产品中,无论是通过有缺陷的算法,历史上有偏见的数据集还是开发人员自己的偏见。
在the Hechinger Report上阅读Javeria Salman关于教育科技的完整文章。