作为公共伦理和社会影响的担忧越来越多的人工智能,但似乎是时候慢下来。但在科技公司自己,情绪恰恰相反。大型科技股的AI种族升温,这将是一个“绝对致命错误在这一刻担心东西可以固定后,“微软高管对生成人工智能在内部邮件中写道,《纽约时报》报道

换句话说,是时候“快速行动,破坏东西。”引用马克扎克伯格旧的座右铭。当然,当你打破的东西,你可能需要解决这些问题之后,在一个成本。

在软件开发中,术语“技术债务”是指隐含成本的未来修复由于选择更快、更仔细的解决方案。急于市场可能意味着释放软件,还没有准备好,知道一旦上市,你会发现错误是什么然后希望能解决这些问题。

然而,负面新闻故事生成AI往往不会对这些类型的错误。相反,关注的是关于人工智能系统放大有害的偏见和刻板印象学生使用人工智能看似。我们听到隐私问题,人们被错误信息所愚弄,劳动剥削和速度的担忧可能取代人类工作,仅举几例。这些问题不是软件故障。意识到一种技术强化压迫或偏见非常不同于网站上了解到一个按钮不起作用。

作为技术伦理教育工作者和研究人员,我想了很多关于这些类型的”错误。“这里积累的不仅仅是技术债务,但是道德的债务。正如技术债务可以从有限的测试结果在发展过程中,道德债务的结果不考虑可能的负面影响或社会危害。尤其是道德债务,导致它的人很少的人付钱。

去比赛

一旦OpenAI ChatGPT2022年11月被释放starter手枪AI对于今天的比赛,我想象着债务分类帐开始填补。

几个月后,谷歌和微软发布自己的人工智能程序生成,似乎跑市场,以跟上。谷歌的股票价格下跌chatbot巴德自信提供了一个错误的答案在公司自己的演示。有人可能认为微软聊天机器人时特别谨慎,考虑茶,那是基于机器人平台在2016年几乎立即关闭后喷射厌恶女人的人,白人优越主义的谈话要点。然而,早期与AI-powered必应让一些用户感到不安,它又已知的错误信息

当这些冲版本的社会债务到期,我希望我们会听到提及意想不到的或未预料到的后果。毕竟,即使伦理指南,它不是好像OpenAI,微软或谷歌可以看到未来。有人知道如何社会问题甚至可能出现在技术发达吗?

这一困境的根源在于不确定性,这是一种常见的许多技术革命的副作用,但是放大的人工智能。毕竟,部分的人工智能是其行动事先是未知的。AI可能不是用来产生负面影响,但它的目的是产生不可预见的。

然而,虚伪的建议技术人员不能准确地推测许多这样的后果会是什么。到目前为止,已经有无数的例子AI如何繁殖偏见和加剧社会的不公平,但这些问题很少公开被科技公司。这是外部研究人员发现种族偏见在广泛使用的商业面部分析系统例如,在一个医疗风险预测算法被应用于大约2亿美国人。学者和宣传或研究组织等算法正义联盟分布式人工智能研究所在做这些工作:确定危害后的事实。和这种模式不可能改变公司保持解雇伦理学家

投机——负责任

我有时形容自己技术乐观主义者他认为,准备像一个悲观主义者。伦理债务减少的唯一方法就是提前花时间去想事情可能会出错——但这不是技术人员是必然的教做

科学家和标志性的科幻作家艾萨克·阿西莫夫曾经说过,科幻作者“预见不可避免,尽管问题和灾难可能是不可避免的,解决方案。“当然,科幻作家不倾向于负责开发这些解决方案——但现在,技术人员开发人工智能。

所以AI设计师学会思考如何更像是科幻小说作家吗?我目前的研究项目之一专注于开发方式来支持这一过程的伦理投机。我不是指设计与遥远的机器人战争;我的意思是考虑未来的后果的能力,包括在不久的将来。

这是一个话题我一直在探索在我的教学,鼓励学生思考科幻技术的伦理问题为了准备他们的技术可能会创建。一个锻炼我叫开发的黑镜子作家的房间,学生推测可能的负面影响社交媒体技术算法和自动驾驶汽车。通常这些讨论是基于模式从过去或潜在的糟糕的演员

博士生Shamika克拉森我评价这个教学练习研究,发现有教学好处鼓励计算学生想象在未来可能会出错,然后头脑风暴对我们如何避免未来放在第一位。

然而,目的不是培养学生对于那些遥远的未来;它是教投机技巧,立即可以应用。这对于帮助学生技能尤为重要想象的伤害别人,因为技术危害的边缘化群体往往不成比例的影响计算代表职业。我的研究的下一个步骤是将这些道德投机策略实际的技术设计团队。

时间暂停吗?

2023年3月,一封公开信成千上万的签名主张暂停训练比GPT-4 AI系统更强大。不加以控制,人工智能发展”可能最终超过,比,淘汰和替换,“甚至导致“失去控制我们的文明”,其作者警告说。

作为批评的信指出,这种关注假设今天忽略了实际损害发生的风险。然而,我认为几乎没有分歧AI人工智能发展的伦理学家需要慢下来,开发人员举着双手援引“意想不到的后果”不会削减它。

我们仅仅几个月到“人工智能竞赛”捡重要的速度,而且我认为我们已经清楚伦理性考量被远远地甩在后面。但是债务最终将到期,历史表明,大型科技股高管和投资者可能不会付钱的。

凯西Fiesler信息科学副教授,科罗拉多大学博尔德

这篇文章是转载的谈话基于知识共享许可协议。读了原文。谈话是一个非营利性新闻来源,致力于传播思想和专业知识从学术界到公共话语。

阅读全文的伦理凯西Fiesler AI的谈话。