人工智能伦理领域正在蓬勃发展。根据欧洲委员会(Council of Europe)的说法,有现在有超过300项人工智能政策倡议在全球范围内。专业社团,如ACM和IEEE起草了框架,私人公司和国家政府也起草了框架。这些指导方针中有许多制定了类似的目标:以人为中心的政策、公平、透明和问责制。但几乎没有人努力评估各国政府是否已采取措施实施人工智能政策。
的人工智能和数字政策中心对国家人工智能政策进行了首次比较审查。我们的目标是了解各国政府作出的承诺,它们发起的人工智能倡议,以及它们为保护基本权利和维护公众而制定的政策。制定这样一项调查的方法论并不是一件简单的任务。一个国家可以像许多国家那样承诺在人工智能决策中实现“公平”,但要确定它们是否在实施这种做法,则是一项困难得多的任务。
我们从广泛认可的人工智能和人权框架开始。为什么人权?我们假设政府和企业有动机跟踪研究投资和出版物数量。已经有很多关于这些主题的报告。我们希望探讨公众关注的问题和政治权利。的《世界人权宣言》例如,它提供了最知名(并被广泛翻译)的基本权利声明。
另一个起点将是《经合组织/G20人工智能原则》,这是首个全球人工智能政策框架。50多个国家政府已批准了这一框架,其中包括人们熟悉的公平、问责和透明目标。但经合组织/G20的人工智能框架也不完整。所以我们关注其他有影响力的人工智能框架,比如人工智能通用指南和人工智能时代的社会契约论,看看各国是否愿意限制有争议的应用,或者正在为人工智能时代追求更广泛的政策目标。
经合组织本身最近发现许多G20国家正在“迅速行动,建立可信赖的人工智能生态系统”,但很少有国家政策强调稳健性、安全性和问责性的原则。所以我们看看最近的决议全球隐私组装由隐私专家和官员组成的领先协会,就人工智能和问责制进行了讨论。
我们还对过程问题感兴趣,例如各国是否建立了公众参与人工智能政策制定的机制,以及报告是否公开。透明度不仅是算法的关键目标,也是决策制定的关键目标。
在我们对政府的初步调查中,我们发现一些政府将人工智能决策集中在一个部门或科学机构,而其他政府则有多个具有人工智能决策权力的机构。单一机构模式可能更有效,但一个包括数据保护机构或人权委员会等在内的政府结构,可能会产生一项更好地反映公众关切的国家政策。我们的方法倾向于第二种方法。
在人工智能政策领域,“算法透明度”是一个有争议的话题。一些人喜欢简单的可解释性,认为在机器学习环境中基本上不可能证明结果。其他人则表示,自动化决策,尤其是招聘、信贷和刑事司法等关键决策,应该完全透明。我们正在研究各国应对这一挑战的情况。法庭可以依靠“黑匣子”来进行刑事判决吗?一些国家说“不”。
我们还想看看各国是否准备好围绕某些人工智能应用划定“红线”。例如,面部识别因为数据集的偏见而受到广泛批评,也增加了大规模监控的危险。一些国家已经开始给公民打分,以确定他们的爱国主义水平,而其他国家则秘密地给旅行者打分。各国会限制这些做法吗?
人工智能政策在许多领域产生了共鸣。我们不打算研究人工智能对劳动力市场的影响,但我们对致命自主武器系统的风险很感兴趣。一些国家已经提出了一项禁止此类人工智能驱动武器的国际条约。
我们预计,2020年人工智能社会契约指数将为未来的工作提供一个基线。我们计划每年更新该报告,以评估总体趋势以及各国政策之间的趋同和分歧。在一个类似的调查中全球密码政策我们在多年前就开始了这项工作,我们发现政府开始采取更多的隐私保护政策,因为他们开始认识到需要强大的加密技术来保护个人数据和确保网络安全。在另一个比较研究我们观察到,在商业互联网的早期,美国和欧盟在网络隐私问题上的分歧越来越大,尽管这种分歧是存在的现在减少.
现在预测人工智能政策的未来还为时过早,但重要的是现在就开始。创建人工智能伦理框架是一项重要的任务,但更重要的是检查这些框架对实际实践的影响。这项工作非常紧迫。如果我们要维持以人为中心的人工智能政策,我们需要人类来实际评估这些政策。
Marc Rotenberg他是迈克尔·杜卡基斯研究所新成立的人工智能和数字政策中心的创始人。他是《泰晤士报》的编辑AI政策原始资料并在经合组织AI专家小组任职。
没有发现记录