给罗盘”:
- 丹尼斯·赫希和皮尔斯·诺里斯Turner解释说,公司将需要解决具有挑战性的问题的道德为了创建“道德AI”没有任何法律或法规的要求采取这样的行动。
- 你能扮演何种角色在帮助指导创建道德人工智能吗?
- 找出原因人工智能是准备监管。
给罗盘是什么?
我们连接捐助者学习资源和支持社区解决方案的方法。了解更多关于我们。
急于部署强大的新生成的人工智能技术,如ChatGPT,敲响了警钟潜在危害和滥用。法律的冰川应对这种威胁提示的要求公司发展这些技术实现人工智能“道德”。
但是,这意味着什么?
直截了当的回答将使业务与一个或多个操作数十套AI伦理原则政府、多方参与团体和学者产生了。但这是说起来容易做起来难。
我们和我们的同事花了两年采访和调查AI道德专业人士在一系列领域,试图了解他们试图实现道德AI,他们可能会错过什么。我们知道追求AI伦理在地上与其说是道德原则映射到企业行动比实现组织管理结构和流程,使识别和减轻威胁。
这可能是令人失望的新闻组织寻找明确的指导,避免了灰色地带,和对消费者希望明确和防护标准。但它指出,更好的理解企业如何追求道德AI。
面对道德的不确定性
我们的研究的基础即将出版的书,集中在那些负责管理在大公司使用人工智能AI伦理问题。从2017年底到2019年初,我们采访了23这样的经理。他们的标题包括隐私官和隐私顾问,当时新但今天越来越普遍:数据伦理官员。我们的谈话与这些AI伦理经理产生的四个主要外卖。
首先,随着它的许多好处,业务使用AI会带来风险,和公司知道。AI伦理经理表示担心隐私,操纵、偏见、不透明、不平等和劳动位移。在一个著名的例子,亚马逊开发一种人工智能工具简历和训练它找到类似的候选人在过去已聘请。在男性主宰的科技行业意味着亚马逊的员工大部分都是男性。因此学会了拒绝女性候选人的工具。无法解决问题,亚马逊最终不得不放弃这个项目。
生成AI引发了更多的担忧错误信息,在大规模的仇恨言论和挪用知识产权。
第二,公司追求伦理AI战略原因很大程度上这样做。他们想要维持客户之间的信任、业务合作伙伴和雇员。和他们想要抢占,或准备,新兴的规定。的Facebook-Cambridge丑闻——剑桥,使用Facebook的用户数据,未经同意共享,推断出用户的心理类型和目标操纵政治广告,表明,不道德的使用先进的分析剔骨一个公司的声誉吗甚至,在剑桥的情况下分析本身,把它放下。公司与希望而不是被视为负责任的人的数据。
AI伦理管理人员面临的挑战是找出如何最好地实现“道德AI。“他们看起来第一个AI伦理原则,尤其是植根于生物伦理学或人权原则,但他们发现不足。不只是有许多竞争的原则。是正义、公平、善行、自治等原则是竞争和交流,可以互相冲突。
这导致了我们的第三个导读:经理需要的不仅仅是高级人工智能原理在特定情况下决定要做什么。一个AI伦理管理器试图将人权原则转化为描述一组开发人员可以问自己的问题产生更多道德的人工智能软件系统。“我们停止后34页的问题,”经理说。
第四,专业人员应对伦理转向组织结构不确定性和程序到达判断该做什么。这些显然是不够的。但其他人,而很大程度上仍然在开发中,更有帮助,如:
- 雇佣一个AI伦理官员建立和监督程序。
- 建立一个内部AI伦理委员会努力权衡,决定问题。
- 制定伦理清单和要求一线数据科学家来填补。
- 接触学者、前监管者和倡导另类观点。
- 进行算法的影响评估的类型已经在使用在环境治理和隐私。
道德作为负责任的决策
摆脱的关键理念我们的研究是这样的:公司寻求使用AI道德不应该期望发现一组简单的原则,提供正确的答案从一个无所不知的,神眼视角。相反,他们应该关注的人工任务,试图做出负责任的决定在一个有限的世界了解和不断变化的环境,即使一些决策是不完美的。
在缺乏明确的法律规定,公司,像个人一样,只能尽自己最大的努力让自己意识到人工智能如何影响人们和环境保持同步的公共问题和最新的研究和专家的想法。他们还可以寻求输入从一个庞大而多样化的利益相关者和认真参与高层次的道德原则。
这个简单的想法改变谈话的重要方面。它鼓励AI伦理专业人员集中精力减少对识别和应用人工智能原理- - -虽然他们保持故事的一部分,更多的采用决策结构和过程,以确保他们认为影响,观点和公众预期,应该告知他们的商业决策。
最终,我们相信法律法规需要提供实质性的基准为组织的目标。但负责决策的结构和过程是一个起点,应该随着时间的推移,帮助构建工艺所需的知识保护和可行的实质性的法律标准。
事实上,人工智能的新兴法律和政策关注的过程。纽约通过了一项法律要求公司审计的AI系统有害的偏见在使用这些系统做出聘用决定。的成员国会已经立法之前,要求企业进行算法的影响评估使用AI贷款、就业、保险等重要决策。这些法律强调过程,提前解决艾未未的许多威胁。
AI的一些开发人员生成了一个非常不同的方法。的CEO Sam Altman OpenAI最初解释说,在向公众发布ChatGPT,公司寻求给聊天机器人”足够接触真实的世界你找到一些滥用的情况下,你不会想到,这样您就可以构建更好的工具。“对我们来说,这并不是负责任的人工智能。把人类当作豚鼠在一个危险的实验。
奥特曼的2023年5月在参议院听证会上呼吁政府监管人工智能显示更大的问题的意识。但我们相信他走得太远转向政府责任生成人工智能的开发人员也必须承担。维护公众信任,避免危害社会,需要公司更充分地面对自己的责任。
丹尼斯·赫希教授法律和计算机科学;总监,项目数据和治理;核心教师TDAI,美国俄亥俄州立大学和皮尔斯·诺里斯特纳副教授,哲学与PPE协调人;人类道德和价值观,中心主任美国俄亥俄州立大学
这篇文章是转载的谈话基于知识共享许可协议。读了原文。谈话是一个非营利性新闻来源,致力于传播思想和专业知识从学术界到公共话语。
读完整篇关于道德AI丹尼斯·赫希和皮尔斯·诺里斯特纳交谈。