2023年3月22日,成千上万的研究人员和技术领导人——包括Elon Musk和苹果联合创始人史蒂夫·沃兹尼亚克——发表了公开信打电话来减缓人工智能比赛。具体地说,这封信建议实验室暂停训练技术比OpenAI GPT-4,最先进的一代今天的language-generating AI系统,至少六个月。

上敲响了警钟人工智能带来的风险并不是什么新鲜事,学者对风险发出警告吗有超常智慧的机器几十年来。仍然没有达成共识创造的可能性人工总体智能、自主匹配或人工智能系统超过人类在大多数经济价值的任务。然而,很明显,当前人工智能系统已经带来很多危险,从种族偏见面部识别技术错误信息和威胁的增加学生作弊

虽然这封信呼吁行业和政策制定者合作,目前还没有机制来执行这样的停顿。作为一个哲学家研究技术伦理我注意到,人工智能研究充分体现了“搭便车问题”。我认为这应该引导社会如何应对风险,良好的愿望是不够的。

免费乘坐

投机取巧的结果是一种常见的哲学家所说的“集体行动的问题。“这些的情况下,作为一个团体,每个人都将受益于一个特定的行动,但作为个人,每个成员受益于不做它

这类问题通常涉及公共物品。例如,假设一个城市的居民有一个集体利益的资金地铁系统,这将要求他们每个人支付少量通过税收或票价。每个人都将受益,但在每个人的最佳利益为了省钱,避免支付其公平份额。毕竟,他们还是可以享受地铁如果大多数人支付。

因此“搭便车”问题:有些人不会有但仍将获得“免费”——字面意思,在地铁。如果每个人都未能支付,没有人会从中受益。

哲学家们倾向于认为它是不道德的”免费乘车”,因为搭便车者无法报答他人支付其公平份额。许多哲学家还认为搭便车者失败的责任的一部分社会契约共同商定的合作原则,治理社会。换句话说,他们不能坚持他们的责任造成的社会成员。

暂停,或获得成功?

像地铁一样,人工智能是公共利益,鉴于其潜在完成任务远比人类操作员:更有效地从诊断患者通过分析医学数据来接管高风险的工作在军队改善矿山安全

但它的好处和危害都将影响每个人,甚至那些不亲自使用人工智能。减少艾未未的风险,每个人都感兴趣的行业进行仔细的研究,安全、适当的监督和透明度。例如,错误信息和假新闻已经构成严重威胁的民主国家,但AI有潜力加剧问题通过传播“假新闻”比人们可以更快、更有效。

即使一些科技公司自愿停止实验,然而,其他公司会有一个货币继续自己的人工智能研究的兴趣,让他们获得成功的AI军备竞赛。更重要的是,自愿暂停AI实验将允许其他公司得到一个免费的最终收获的好处更安全、更透明的人工智能的发展,并与其他社会。

首席执行官Sam Altman OpenAI,已经承认,该公司是害怕风险聊天机器人系统,造成ChatGPT。“我们必须小心,”他在接受ABC新闻的采访时,提到潜在的人工智能产生错误信息。“我认为人们应该高兴,我们有点害怕。”

在4月5日发表的一封信中,2023年,OpenAI表示,该公司认为强大的人工智能系统需要监管,以确保彻底的安全评估,并将“积极参与政府这样的监管可能采取的最佳形式。“不过,OpenAI继续逐步推出GPT-4,其他行业也继续发展和培训高级AIs。

成熟的监管

几十年的社会科学研究在集体行动问题表明,信任和善意是不够的为了避免搭便车者、监管往往是唯一的选择。自愿遵从性的关键因素是创建和搭便车的场景政府采取行动有时把它消灭在萌芽状态。

此外,这些规定必须执行。毕竟,未来地铁乘客可能不会付了车费,除非有一个惩罚的威胁。

取一个当今世界上最具戏剧性的搭便车问题:气候变化。作为一个地球上,我们都有一个高风险的兴趣保持居住环境。在一个系统,允许搭便车者,任何一个国家真正的激励遵循绿色指南很小。

巴黎协定,目前最包括全球气候变化协议,是自愿的,和联合国没有追索权执行它。即使欧盟和中国自愿限制排放量,例如,美国和印度可以“免费”却继续排放二氧化碳的减少。

全球性挑战

同样,搭便车问题为由参数调节人工智能发展。事实上,气候变化是一个特别接近平行,因为人工智能带来的风险和温室气体排放限制程序的原产地。

此外,开发更先进的人工智能是一个国际比赛。即使美国联邦监管引入人工智能的研究和发展,中国和日本能骑免费并继续自己的国内人工智能程序

有效的监管和执法的AI需要全球集体行动与合作,就像气候变化问题。在美国,严格执行将要求联邦监管的研究和征收巨额罚款或关闭不合规的人工智能实验,确保负责任的发展——不管是通过监管董事会,告密者保护,或者在极端情况下,实验室或研究锁定和刑事指控。

没有执行,会有搭便车者,搭便车者意味着AI的威胁不会很快减弱。

蒂姆Juvshik访问助理教授哲学,克莱姆森大学

这篇文章是转载的谈话基于知识共享许可协议。读了原文。谈话是一个非营利性新闻来源,致力于传播思想和专业知识从学术界到公共话语。

读完整篇关于调节蒂姆Juvshik AI的谈话。