在许多方面,我们正生活在一个人工智能相当奇妙的时代,每周都有一些令人敬畏的壮举出现隐性知识我们确信计算机在相当长的一段时间内都无法完成这项任务。最近特别感兴趣的是基于变压器架构的大型学习系统,这些系统在大规模网络规模的多模态语料库上使用数十亿个参数进行训练。著名的例子包括大型语言模型比如GPT3和PALM,它们可以响应自由形式的文本提示,还有DALL-E和Imagen这样的语言/图像模型,它们可以将文本提示映射到逼真的图像(甚至包括那些声称具有一般行为的,如GATO)。
这些大型学习模型的出现也从根本上改变了人工智能研究的性质。就在前几天,一些研究人员玩起了DALL-E,认为它似乎有发明了一种自己的秘密语言如果我们能掌握它,就能更好地与之互动。其他研究人员发现,GPT3对推理问题的反应可以通过以下方式得到改善在提示符中添加一些看似神奇的咒语,其中最突出的是“让我们一步一步地思考。”就好像像GPT3和DALL-E这样的大型学习模型是外星生物,我们试图破译它们的行为。
对于人工智能来说,这无疑是一个奇怪的转折。AI自诞生之日起,就一直存在于工程学(旨在为特定功能设计系统)和科学(旨在发现自然现象中的规律)之间的无人区。人工智能的科学部分来自于它最初对(人类)智能本质的洞察,而工程部分则来自于对智能功能的关注(让计算机展示智能行为),而不是对自然智能的洞察。
这种情况正在迅速改变——特别是当人工智能成为大型学习模型的代名词时。其中一些系统已经到了这样的地步:我们不仅不知道我们训练的模型如何能够显示特定的能力,我们甚至不知道它们可能具有什么能力(PALM所谓的能力“解释的笑话是一个恰当的例子)。通常情况下,即使是它们的创造者也会被这些系统看似能够做到的事情打个措手不及。事实上,通过探索这些系统来了解其“紧急行为”的范围已经成为最近AI研究的一个趋势。
考虑到这种情况,越来越明显的是,至少有一部分人工智能正在坚定地偏离其“工程”根源。人们越来越难以将大型学术系统视为传统意义上的“设计”,心中有特定的目的。毕竟,我们不会到处说我们在“设计”我们的孩子(尽管有开创性的工作和妊娠)。此外,工程学科通常不会花时间庆祝设计的文物的突发属性(你永远不会看到一个土木工程师高兴地跳起来,因为他们设计的能够抵御五级飓风的桥梁被发现在每个周六都能悬浮起来!)
对这些训练有素(但没有设计)的大型系统的研究似乎越来越注定要成为一种自然科学,即使是一种替代科学:观察它们似乎拥有的能力,在这里和那里做一些烧蚀性的研究,并试图至少从定性上理解让它们表现良好的最佳实践。
Modulo的事实是,这些将是体外而不是体内伪物的研究,它们类似于生物学的宏伟目标,即“弄清楚”,同时满足于在没有证据或保证的情况下过关。事实上,机器学习充斥着更多的研究工作,重点是系统为什么会做它正在做的事情(如果你愿意的话,有点像大型学习系统的“功能磁共振成像研究”),而不是证明我们设计的系统是这样做的。我们从这些研究中收集到的知识可能会让我们对系统的行为稍加干预(就像医学那样)。当然,与体内环境相比,体外部分确实允许更有针对性的干预。
人工智能转向自然科学也对计算机科学产生了巨大的影响,因为人工智能似乎对几乎所有计算领域都产生了巨大的影响。计算机科学的“science”后缀有有时被质疑和讽刺;也许现在不会了,因为人工智能已经变成了一种研究大型人工制品的人工自然科学。当然,这种转变在方法论上可能会有很大的阻力和保留。毕竟,CS长期以来一直习惯于“通过构建而正确”的圣杯,从那时起,它就开始习惯于生活在一种被激励(“狗训练”)的系统中——就像我们人类一样!事实上,在2003年的一次演讲中,图灵奖得主莱斯利·兰波特(Leslie Lamport)对未来计算属于生物学而不是逻辑的可能性发出了警告,他说这将引导我们走向生活在一个顺势疗法和信仰治疗的世界里!想想看,他最担心的还是那些仍然由人类编码的复杂软件系统,而不是那些更神秘的大型学习模型!
当我们从主要关注有意设计的工件和“通过构建保证来纠正”的领域转向尝试探索/理解一些现有的(未设计的)工件时,也许值得大声思考它将带来的方法转变。毕竟,与(主要)研究野外生物的生物学不同,人工智能将研究我们创造的人工制品(尽管不是“设计”的),而且肯定会有关于我们应该愿意创造和部署哪些不了解的生物的伦理问题。首先,大型的学习模型不太可能支持可证明的能力——相关的保证——就这一点而言准确、透明或公平.这就带来了关于部署这些系统的最佳实践的关键问题。虽然人类也不能提供铁证来证明他们的决定和行为的正确性,但我们确实有适当的法律系统来让我们遵守惩罚——罚款、谴责甚至监禁。对于大型学习系统,什么是等价的?
毫无疑问,计算研究的美学也将发生改变。我的一位亲爱的同事曾经得意地说,他对论文(包括他自己的论文)的评分标准是定理与定义的比率。随着我们的目标变得越来越像自然科学,如生物学,我们肯定需要发展新的方法论美学(因为零定理零定义的比率将不会是所有的区别!)已经有迹象表明计算复杂度分析在人工智能研究中已经退居次要地位!
苏巴拉奥Kambhampati是亚利桑那州立大学计算与人工智能学院的教授,也是人工智能促进协会的前主席。他研究规划和决策方面的基本问题,主要是受人类感知AI系统挑战的推动。人们可以在推特上关注他@rao2z。
饶,
我很喜欢这篇文章,除了观点我都同意
将我们的人工智能结构视为自然系统是一种新趋势。
我在早期的两篇文章中指出了它对机器学习的重要性:
兰利,p(1988)。机器学习是一门实验科学。
机器学习,3,5 -8。
https://link.springer.com/content/pdf/10.1023/A:1022623814640.pdf
(1996年10月)。实验中的相关性和洞察力
研究。IEEE专家,11 - 12。
http://www.isle.org/~langley/papers/exp.expert96.pdf
两篇论文都提到西蒙将人工智能视为“人工科学”,
他的术语是指那些建造并研究复杂文物的领域
经验。机器学习一直都有这个特点。
我猜你的视角已经被人工智能规划所塑造
社区早期对形式分析的强调已经变得越来越少
但近年来仍出现在许多论文中。
形式分析在人工智能研究中仍然发挥着重要作用,
但这绝不是理解我们系统的唯一方法
这个领域从一开始就有强大的实验力量。
帕特兰勒
ISLE和斯坦福大学
http://www.isle.org/~langley/
显示1评论