人工智能治理和道德是需要 治理与道德在人 我们关注的重要话题。在 Insurance Unplugged 播客中,主持人 Lisa Wardlaw 与 Jeff Saviano 深入探讨了这些紧迫问题,Jeff 除了在安永担任新兴技术战略咨询和治理负责人 33 年之外,还在哈佛大学 Edmond & Lily Safra 伦理中心任职,他是麻省理工学院的研究员,也是波士顿大学法学院的讲师。
这次富有洞察力的对话涵盖了人工智能治理的现状、组织在从原则转向实际应用过程中面临的挑战,以及公司董事会在应对复杂的人工智能道德环境方面的重要作用。
对于那些对人工智能、道德和公司治理的交叉领域感兴趣的人而言,完整的对话是必听的。以下是摘录。
人工智能治理现状
丽莎·沃德洛:
当谈到治理伦理时,人们如何看待人工智能?
杰夫·萨维亚诺
我先从一年前和现在全球人工智能治理框 治理与道德在人 架的现状开始讲起。许多组织采取的方法是命名和背诵负责任的人工智能原则。美国商务部、国家标准与技术研究所 (NIST)、经济合作与发展办公室 (OECD) 等组织在阐明负责任的人工智能原则方面做了大量工作,例如遵守数据隐私、确保模型中没有偏见或歧视、公平和问责。我们已经 电子邮件列表 看到了这些,许多组织在负责任的人工智能方面也引用了这些原则。我们看到组织普遍采用它并说,我们坚持这些原则。2020 年,只有 80 个组织公开宣布“我们相信这些负责任的人工智能原则”。今天,这个数字已经达到数百甚至数千。每家公司都这样做了。
问题是,它们往往只是纸面上的文字。它们不一致,相互冲突。因此,一个组织可能会说,我完全支持数据隐私,我也支持透明度。有时,这两者并不齐头并进。我们看到许多组织宣布他们相信这些原则,但事情到此结束。
我们试图做的是创建
一个可执行的框架和实际行动。哈佛团队称之为“应用人工智能伦理倡议”。有些人称之为实践伦理,有些人称之为应用伦理。它们的意思几乎是一样的,即不讨论哲学元素,这不是我们的意图。我们的目的是找到一种联系机制。我们需要一种从哲学到实践的联系机制,这就是我们正在努力做的。
丽莎:
就我们可以写在纸上并使其看起来不错而言,我们很 演讲的整个开场白中都面 容易想出学术框架和哲学。但以可执行、实用、务实的方式应用它似乎是我们在技术本身以及治理和框架方面都遇到的难题。如何将两者联系起来?人们在努力解决什么问题,他们如何超越学术问题?
杰夫:
我们经常听到董事会、高层管理人员和 C 级企业领导说,他们首先要问的是“告诉我法律要求我做什么。什么是法律合规?”公司非常了解这一点。他们有首席法律官、首席合规官、风险官,他们知道如何遵守现有法律。
我们将其分为两类。第一类是现有的非人工智能特定法律,如 GDPR,仍将适用于您的人工智能系统。1964 年的《民权法案》适用于您的人工智能系统,并确保不存在歧视。因此,现有法律变得非常非常重要。
下一层是记录在案的针对人
工智能的特定法律。我认为我们永远不会看到全球人工智 最新群发短信 能监管的严厉手法。它不会是一致的。它将是一个拼凑起来的。有很多例子,1997 年美国总统克林顿在谈到电子商务时说,我们将把监管权留给行业。我们希望行业对新兴技术进行自我监管。我们将置身事外。我们不想给州际贸易带来负担。1998 年,他又一次这样做了,签署了《互联网税收自由法案》。他说,我们不会让你对互联网征税。因此,政府长期以来一直表示,这是一项强大的技术,可以产生令人难以置信的商业和 GDP 价值。我们不想过度监管它,并因此扼杀创新。我们认为道德越来越重要。