欧盟发布人工智能伦理指南:AI系统要负责任且无偏见

  • 2019-04-09 10:40:13
  • 1,609 次阅读
  • 稿源:天马行空

欧盟本周一发布了一系列关于发展人工智能(AI)伦理的新指南,作为企业和政府开发人工智能伦理应用的指导方针。这些规则不同于美国科幻小说作家艾萨克·阿西莫夫(Isaac Asimov)的“机器人三定律”,没有直截了当地提供一个道德框架来帮助人类控制凶残的机器人。相反,当人工智能整合至医疗、教育和消费技术等领域时,它们可澄清一些影响社会的模糊而分散的问题。

欧盟发布人工智能伦理指南:AI系统要负责任且无偏见

因此,举例来说,如果一套AI系统在未来某个时候诊断出你患有癌症,欧盟的指导方针将确保下列事情的发生:软件不会因种族或性别而产生偏见;不会推翻人类医生的反对意见;患者有权选择听取AI诊断意见。

这些指导方针有助于阻止人工智能胡作非为,并保证在行政和官僚主义的层面上,不会制造出阿西莫夫式的谋杀谜团。

为了帮助实现这一目标,欧盟召集了52名专家组成的小组,提出了他们认为未来AI系统应该满足的七项要求。具体如下:

– 人类作用和监督:人工智能不应该践踏人类的自主性。人们不应该被AI系统操纵或胁迫,而且,人类应该能够干预或监督软件做出的每一个决定。

– 技术的稳健性和安全性:人工智能应该是安全的、准确的。它不应该易于受到外部攻击(例如对抗性实例)的影响,而且,应该是相当可靠的。

– 隐私和数据管理:人工智能系统收集的个人数据应该是安全的、私有的。它不应该让任何人接触,也不应该轻易被盗。

– 透明性:用于创建人工智能系统的数据和算法应该是可访问的,软件所做的决定应“由人类理解和跟踪”。换句话说,操作员应该能够解释AI系统所做的决定。

– 多样性、非歧视和公平性:人工智能提供的服务应面向所有人,无论年龄、性别、种族或其他特征。同样地,系统不应该在这些方面存在偏见。

– 环境和社会福祉:人工智能系统应该是可持续的(即它们应该对生态负责)并“促进积极的社会变革”。

– 问责制:人工智能系统应该是可审计的,并被纳入企业可举报范畴,以便受到现有规则的保护。应事先告知和报告系统可能产生的负面影响。

人们会注意到上述一些需求非常抽象,很难从客观的角度进行评估。(例如,“积极的社会变革”的定义因人而异,因国而异),但其他定义内容更为直截了当,可以通过政府监督进行检验。例如,用于训练政府AI系统的数据实行共享,可能是对抗偏见性算法的好方法。

这些指导方针不具有法律约束力,但它们可能对欧盟未来起草的所有法律造成影响。欧盟一再表示,希望成为AI伦理领域的领导者,并通过《通用数据保护条例》(GDPR)表明,愿意制定影响深远的法律,以保护公众的数字权利。

不过在一定程度上,欧盟是由于环境因素而迫不得已充当这一角色的。在投资和前沿研究方面,欧盟无法与美国和中国——AI领域的世界领先者——一争高下,因此,它选择了伦理作为塑造技术未来的最佳选择。

作为这项工作的一部分,本周一的报告包括了一份所谓的“值得信赖的AI评估列表”,以便帮助专家找出AI软件中存在的潜在弱点或危险。此列表中的问题包括“是否对系统在意外情况和环境中的行为进行了验证?”和“是否对数据集内的数据类型和范围进行了评估?”

这些评估清单只是初步措施,欧盟将在未来几年收集企业反馈,并在2020年期限内提供一份最终报告。

范尼·希德韦吉(Fanny Hidvegi)现在是数字版权集团Access Now的政策经理,也是参与撰写这份指南的专家之一,他说评估列表是报告中最重要的部分。希德韦吉向The Verge透露,“它提供了一个实用的、前瞻性的视角”,来缓解人工智能的潜在危害。

“在我们看来,欧盟有能力、有责任站在这项工作的最前线,”希德韦吉说,“但我们认为,欧盟不应停留在伦理指南水平……而应该上升到法律层面。”

另有一些人怀疑,欧盟试图通过影响巨大的伦理研究来规范全球人工智能的发展方式。

智库机构数据创新中心(Center for Data Innovation)的高级政策分析师艾琳·奇沃特(Eline Chivot)在接受The Verge采访时说:“通过为AI伦理创建黄金标准来确认欧盟在全球AI发展中的地位,我们对正在采取的这种方法持怀疑态度。要成为AI伦理的领导者,首先你必须在人工智能领域遥遥领先。”

稿源:cnBeta.COM

喜欢 0

文章评论 (0)

表情

大眼 可爱 大笑 坏笑 害羞 发怒 折磨 快哭了 大哭 白眼 晕 流汗 困 腼腆 惊讶 憨笑 色 得意 骷髅 囧 睡觉 眨眼 亲亲 疑问 闭嘴 难过 淡定 抗议 鄙视 猪头