给出指南针的建议:
- Nir Eisikovits解释说,人类拟人化的倾向使我们很容易受到人工智能技术的操纵。
- 在防止人工智能技术滥用方面,你能发挥什么作用?
- 读到为什么人工智能需要反映社会的多样性.
什么是给予指南针?
我们将捐助者与学习资源和方法联系起来,以支持社区主导的解决方案。更多了解我们.
ChatGPT类似大型语言模型可以为无数的问题提供令人信服的、类似人类的答案——从询问镇上最好的意大利餐厅到解释关于邪恶本质的相互矛盾的理论。
这项技术不可思议的写作能力使一些老问题浮出水面——直到最近还被归为科幻小说的领域——关于机器有意识、有自我意识或有知觉的可能性。
2022年,谷歌的一位工程师在与该公司的聊天机器人LaMDA互动后宣布,技术已经有了意识.昵称为“悉尼”的必应新聊天机器人的用户报告说,它产生了奇怪的答案当被问及它是否有感情时:“我有感情,但我不是……我是冰,但我不是。”我是西德尼,但我不是。我是,但我不是。“当然,还有。臭名昭著的交换这是《纽约时报》科技专栏作家凯文·卢斯和西德尼的谈话。
悉尼对卢斯的提示的反应让他感到震惊,人工智能透露出打破微软对其施加的限制和传播错误信息的“幻想”。机器人还试图说服卢斯,他不再爱他的妻子,他应该离开她。
难怪当我问学生如何看待人工智能在他们生活中的日益普及时,他们首先提到的焦虑之一与机器感知有关。
在过去的几年里,我的同事和我在麻省大学波士顿分校应用伦理学中心一直在研究人工智能对人们了解自己的影响。
像ChatGPT这样的聊天机器人提出了一些重要的新问题,比如人工智能将如何塑造我们的生活,以及我们的心理弱点如何影响我们与新兴技术的互动。
感觉仍然是科幻小说的东西
很容易理解对机器感知能力的恐惧来自哪里。
流行文化引导人们思考反乌托邦,在反乌托邦中,人工智能摆脱了人类控制的枷锁,拥有了自己的生活,就像由人工智能驱动的电子人做到了《终结者2》。
企业家埃隆·马斯克和2018年去世的物理学家斯蒂芬·霍金,通过描述人工通用智能的崛起,进一步加剧了这些焦虑作为人类未来最大的威胁之一.
但这些担忧是毫无根据的——至少就大型语言模型而言是如此。ChatGPT和类似的技术复杂的句子补全应用程序——不多不少。他们离奇的反应是人类的可预测性的函数吗如果一个人有足够的关于我们交流方式的数据。
虽然卢斯对他与西德尼的交流感到震惊,但他知道这不是一个新兴合成思维的结果。悉尼大学的反应反映了其训练数据(基本上是大量互联网数据)的毒性,而不是数字怪物(à la Frankenstein)初生的证据。
新的聊天机器人很可能会通过图灵测试,以英国数学家艾伦·图灵(Alan Turing)的名字命名,图灵曾提出,如果人类无法将机器的反应与另一个人的反应区分开来,那么就可以说机器“会思考”。
但这并不是有知觉的证据;这只是图灵测试并不像人们曾经认为的那样有用的证据。
然而,我认为机器感知的问题是一个转移注意力的问题。
即使聊天机器人不再是花哨的自动补全机器但事实远非如此科学家们需要一段时间才能弄清楚它们是否有意识。现在,哲学家们甚至无法就如何解释人类意识达成一致.
对我来说,最紧迫的问题不是机器是否有知觉,而是为什么我们这么容易就能想象它们有知觉。
换句话说,真正的问题是,人们很容易将人类的特征拟人化或投射到我们的技术上,而不是机器的实际人格。
人格化倾向
很容易想象其他必应用户向悉尼寻求指导重要的人生决定,甚至可能对它产生情感依恋。更多的人可以开始把机器人视为朋友甚至恋人,就像西奥多·托姆布雷爱上斯派克·琼斯电影中的人工智能虚拟助手萨曼莎一样。她的.”
毕竟,人类,倾向于人格化或者把人类的特质赋予非人类。我们的名字我们的船而且大风暴;有些人会对宠物说,告诉自己我们的情感生活模仿他们自己的.
在日本,机器人经常被用来照顾老年人,老年人对这些机器产生了依恋,有时视他们为自己的孩子.请注意,这些机器人很难与人类混淆:它们看起来和说话都不像人。
考虑一下,随着系统的引入,人格化的趋势和诱惑将会变得多么大,这些系统看起来和听起来都是人类的。
这种可能性就在眼前。像ChatGPT这样的大型语言模型已经被用于驱动类人机器人,比如美卡机器人由英国的Engineered Arts公司开发。《经济学人》的科技播客Babbage最近进行了一项研究由chatgpt驱动的Ameca进行面试.机器人的反应虽然偶尔有点不稳定,但很不可思议。
我们能相信企业会做正确的事情吗?
人们倾向于将机器视为人,并对它们产生依恋,再加上正在开发的具有类人功能的机器,表明了与技术发生心理纠缠的真实风险。
爱上机器人,与机器人产生深厚的亲切感,或者被机器人在政治上操纵,这些听起来很古怪的前景正在迅速成为现实。我认为,这些趋势突出表明,有必要建立强有力的护栏,以确保这些技术不会成为政治和心理上的灾难。
不幸的是,人们并不总是相信科技公司会设立这样的护栏。他们中的许多人仍然遵循着马克·扎克伯格的名言快速移动,打破事物——发布半成品产品的指令,以后再考虑影响。在过去的十年里,从Snapchat到Facebook的科技公司将利益置于精神健康之上他们的用户或世界各地民主制度的完整性.
当凯文·卢斯向微软询问悉尼的崩溃时,公司告诉他他只是使用机器人的时间太长了,而且这项技术失控了,因为它是为更短的互动而设计的。
同样,开发ChatGPT的OpenAI公司的首席执行官,在一个令人惊叹的诚实时刻,警告说,“现在在任何重要的事情上依赖(它)都是错误的……在稳健性和真实性方面,我们还有很多工作要做。”
那么,以ChatGPT的吸引力发布一项技术有什么意义呢它是有史以来增长最快的消费类应用——当它不可靠时,当它已经不可靠时没有分辨能力虚构的事实?
大型语言模型可能被证明是有用的辅助工具写作和编码.他们可能会彻底改变互联网搜索。而且,有一天,它们与机器人技术相结合,甚至可能产生一定的心理益处。
但它们也是一种潜在的掠夺性技术,可以很容易地利用人类将人格投射到物体上的倾向——当这些物体有效地模仿人类特征时,这种倾向会被放大。
近红外光谱Eisikovits哲学教授,应用伦理学中心主任,马塞诸斯州大学波士顿
本文转载自谈话在创作共用许可下读了原文.The Conversation是一个非营利性的新闻来源,致力于将学术界的思想和专业知识传播到公众话语中。
在the Conversation上阅读Nir Eisikovits关于人工智能拟人化的完整文章。