ChatGPT和类似的人工智能系统的崛起伴随着一把锋利的增加人工智能的担忧。在过去的几个月里,高管和人工智能安全研究人员一直在提供预测,被称为“P(毁灭),“关于人工智能的概率将带来大规模的灾难。

担心在2023年5月达到顶峰时,非营利组织研究和倡导组织人工智能安全中心发布一句话的声明从人工智能:“减轻灭绝的风险应该是一个全球优先与其他societal-scale风险,如流行病和核战争。”声明签署了很多关键球员,包括OpenAI的领导人,谷歌和人为,以及两个所谓的“教父”的人工智能:杰弗里•辛顿Yoshua Bengio

你可能会问这样生存的恐惧应该。一个著名的场景是“回形针达到极大“思想实验的由牛津哲学家尼克·博斯特罗姆。想法是一个人工智能系统负责生产尽可能多的纸夹去非凡的长度可能发现原材料,如破坏工厂,造成车祸。

一个少资源密集型的变化有一个AI负责采购预订一个受欢迎的餐厅关闭蜂窝网络和交通信号灯,以防止其他顾客获得一个表。

办公用品或晚餐,基本思想是一样的:人工智能正迅速成为一个外星智慧,善于完成目标但危险,因为它不一定与道德价值观一致的创造者。在其最极端,这个论点变成了AIs的显式的焦虑奴役或摧毁人类

一篇论文clip-making AI胡作非为是AI灾难场景的一种变体。

实际伤害

在过去的几年里,我和我的同事波士顿马塞诸斯州大学的应用伦理中心一直在研究与人工智能的影响对人们的了解自己,我相信这些灾难性的焦虑吗过分夸大和误导

是的,AI创建令人信服的能力deep-fake视频和音频是可怕的,它可以被有不良意图的人。事实上,这已经发生了:俄罗斯特工可能试图让克里姆林宫批评家比尔·布劳德对话里,令他说实话乌克兰前总统秘书波罗申科的化身。网络犯罪已经使用人工智能语音克隆——从各种各样的罪行高科技抢劫普通的诈骗

人工智能决策系统提供贷款批准和招聘的建议携带的风险算法偏差,由于训练数据和决策模型运行在反映长期的社会偏见。

这些都是大问题,他们需要政策制定者的关注。但是他们已经存在了一段时间,他们几乎是灾难性的。

不是在同一个联赛

声明的AI人工智能安全中心集中在大流行和核武器作为文明的主要风险。有问题的比较。COVID-19导致几乎全世界700万人死亡,在一个巨大的和持续的心理健康危机并创建了经济挑战供应链,包括慢性短缺和通货膨胀失控。

核武器可能死亡超过200000人1945年在广岛和长崎,声称许多更多的生命在接下来的几年里,从癌症产生数十年的深远的焦虑在冷战期间,把世界毁灭的边缘,在1962年的古巴导弹危机。他们也改变了国家领导人的计算在如何应对国际侵略,目前打乌克兰与俄罗斯入侵。

AI只是远远没有获得做这种伤害的能力。回形针的场景以及其它类似的设施是科幻小说。现有的人工智能应用程序执行特定任务而不是使广泛的判断。这项技术是远离能够决定,然后计划关闭交通所需的目标和下级目标为了让你坐在餐厅,或炸毁一辆汽车工厂为了满足你的渴望回形针。

不仅技术缺乏参与的复杂多层的判断能力在这些场景中,它也没有自主访问足够我们关键基础设施的一部分开始造成这样的伤害。

什么是人类

实际上,有一个使用人工智能中固有存在的危险,但这风险是存在主义哲学而不是启示意义。人工智能目前的形式可以改变人们看待自己的方式。它可以降解的能力和经验,人们认为人类必不可少。

例如,人类是judgment-making生物。人们理性地权衡细节,使日常判断在工作和休闲时间对雇佣谁,谁应该获得贷款,手表等等。但是越来越多的判断自动化和外包给算法。当这一切发生时,世界不会终结。但人们会逐渐失去自己做出这些判断的能力。越少的人,他们在使他们可能会变得更糟糕。

或者考虑机会的作用在人们的生活中。人类价值偶然遇到:穿过一个地方,人偶然或活动,卷入事故中所扮演的角色,回顾欣赏这些有意义的发现。但算法推荐引擎的作用减少这种意外的惊喜,代之以规划和预测。

最后,考虑ChatGPT的写作能力。技术的过程中消除高等教育写作作业的作用。如果是这样,教师教学生将失去一个关键工具如何批判性地思考

没有死,但减少

所以,不,AI不会炸毁世界。但越来越不加批判的接受,在各种狭窄的情况下,意味着逐渐侵蚀人类的一些最重要的技巧。算法已经破坏了人们做出判断的能力,享受偶然遇到,磨练批判性思维。

人类物种生存这样的损失。但我们的现有方式将贫困的过程中。周围的奇妙的焦虑未来人工智能灾难,奇点,天网,然而你可能认为,掩盖这些更微妙的成本。想起艾略特著名的关闭行”空心人”:“这是世界结束的方式,”他写道,“不是砰地一声呜咽。”

近红外光谱Eisikovits哲学教授,应用伦理学中心,马塞诸斯州大学波士顿

这篇文章是转载的谈话基于知识共享许可协议。读了原文。谈话是一个非营利性新闻来源,致力于传播思想和专业知识从学术界到公共话语。