目前,人工智能(AI)受到的关注与上世纪90年代有很大的不同。20年前,人们关注的是基于逻辑的人工智能,通常在知识表示(KR)的标题下,而今天的重点是机器学习和统计算法。这种转变很好地帮助了AI,因为机器学习和统计为某些类型的问题(如图像识别)提供了有效的算法解决方案,而KR从未做到这一点。然而,我认为钟摆摆得太远了,一些有价值的东西失去了。
知识表示不是一件单一的事情。虽然我认为可以把KR作为一个整体来讨论,但我将重点放在它的“应用哲学”方面,即常识概念的逻辑表征,强调明确的语义基础。
我将通过一个个人故事来阐述我的观点。故事要从我2009年发表的一篇论文说起哲学逻辑杂志他继续在斯坦福大学和杜克大学进行研究项目,后来与Timeful公司合作,并在2015年被谷歌收购。这个故事的重点是,在原始期刊论文和公司的最终成功之间有一个直接的联系。
这篇期刊论文名为《意图的逻辑与数据库视角》(logic of Intention and The Database Perspective)。6这篇论文是在Cohen和Levesque的开创性论文“意图是选择+承诺”(intention is Choice + Commitment)之后发表的。4这种文学反过来又受到哲学中关于理性代理的非正式文学的启发,如布拉特曼的《意图、计划和实践理性》。3.我自己的论文从科恩和莱韦斯克的论文中获得了灵感,但对其基础提出了质疑,并提出了另一种方法。虽然我的方法是出于计算动机(正如标题所示),但这些争论本质上是理论性和哲学性的。
写完那篇期刊论文后,我像教授们通常做的那样,寻求一些资金来继续研究。正如资助者所做的那样,我的潜在资助者要求我把这项工作的一些潜在应用包括进来。然后我想到了几件事。首先,我一直在处理我个人日程表上的意图。第二,这些都是非常具体的类似事件和会议的意图。第三个原因是我的个人日历和我已故祖父的日历没有太大区别,考虑到人们对时间的要求已经发生了变化,以及技术的进步,这很奇怪。这就引出了一个明显的问题:如果我用更丰富、更灵活的意图类型来增强日历,并且日历有智能来帮助处理由此产生的复杂性,会发生什么?
为了更好地理解这一点,值得进一步讨论期刊论文中的观点。所提出的数据库视角被封装在附图中,它可以被认为是AGM方案的信念修正,2后者被限制在画面的“信仰”部分。在AGM框架中,智能数据库不仅负责存储计划者的信念,还负责确保其一致性。在这个丰富的框架中,有两个数据库,一个是信念数据库,一个是意图数据库,它们不仅负责保持个体的一致性,而且还负责相互的一致性。在期刊论文中,我列出了主要的一致性条件,在随后与Icard和Pacuit的一篇论文中也是如此5我们给出了它的逻辑形式化,这是AGM框架的保守扩展。在这个观点中讨论更多的技术细节是不合适的,事实上,许多技术细节在这里并不相关。重要的是要去掉意图数据库的视图,意图数据库执行代理部分的智能功能。
回到故事线,资助者被说服了,我们开始了一个小项目来探索这些想法。接下来的两年很有趣,但没有太多与这个故事相关的内容,除了:这个项目很快由一个新的博士生雅各布·班克(Jacob Bank)领导;我的老朋友兼同事、著名行为经济学家丹·艾瑞里也参加了会议;到了2013年初,我们决定成立一家公司,后来更名为Timeful。在那之前,我们不是被我们联合研究的细节所驱使,而是意识到社会上的时间管理问题是多么尖锐,而当前的工具是多么不适合处理它。
当《Timeful 1.0》于2014年7月问世时,用户和媒体的反应都非常积极。在第一个月里,大约有2000封用户的电子邮件涌入,其中很多都很情绪化。Timeful显然触动了人们的神经,尽管该产品还有一段路要走。很快,该公司引起了主要参与者的兴趣,最终被谷歌收购。如果没有KR,这一切都不会发生。这是为什么。
Timeful提出了个人时间助理(PTA)的概念,其作用是帮助管理时间,这是最稀缺和最难管理的资源。该方法基于三个主要支柱。第一个是允许用户在系统中自然地表示为他们争取时间的一切。第二个是将机器学习和其他算法应用于本质上难以解决的优化问题。第三个支柱是行为科学,这意味着创造一个环境,巧妙地帮助纠正我们所有人都会犯的自然时间管理错误(如拖延、高估自己未来的可用性)。其中,它是我想重点讨论的第一个支柱;它是三者中最基本的,也是直接基于KR的。
想想所有占用我们时间的事情:会议、活动、差事、项目、爱好、家庭、健康维护、运动,或者只是思考和充电的时间。它们表面上都是不同的,历史上存在于不同的应用程序中(日历中的会议和事件,待办事项列表中的差事,项目管理系统中的项目),或者只是停留在我们的头脑中。但它们都在争夺相同的资源时间,如果你要做出明智的权衡,它们应该居住在同一个地方。事实上,它们都是意图,尽管属性不同。按照智能意图数据库的设想,第一个基本的决定是开发一个足够丰富的数据模型,以包含所有这些意图类型。其结果是一个名为意图对象(IO)的数据模型。IO是一个特征向量,包括文本描述、时间属性(何时可以执行,何时应该执行,其持续时间都可以以不同的精度级别指定)、执行意图的条件(如位置或所需的工具),以及其他属性类型。
意图对象成为系统的基础,包括算法调度和行为推送都依赖于意图对象。当然,用户并没有得到一个特征向量,而是得到了几个预先打包好的意图类别。截至2015年4月,共有四类:活动(如会议);任务(比如打电话);习惯(如每周慢跑三次);还有项目(比如写一篇长篇报告)。但在系统内部,它们都被分解成特征向量。
知识表示不仅是Timeful的原始动力,也是Timeful数据模型的灵感来源。在做出具体的产品决策时,团队反复从哲学文献中寻求指导。很难完全表达这一点,但这里有两个具体的例子。
第一个例子与适当的复选标记有关。每个待办事项清单都可以让你检查完成的任务。Timeful也有这个功能,但让我们感到困扰的是,任务有复选标记,而事件没有,尽管它们都是IOs版本。这与其说是美学上的不对称,不如说是潜在原则,以及该原则如何应用于其他IOs,如习惯和项目。然后我们回到我们的根源,意识到它与追踪一个人的承诺有关。如果说有一个哲学文献所认同的原则,那就是意图涉及承诺(正如科恩和莱韦斯克文章的标题所反映的那样)。当我打算做某件事时,我不仅仅是把它记下来;我致力于追踪并实现它。从这个角度来看,我们意识到事件不需要跟踪;会议是通过计划来完成的(也有例外情况,比如会议有一个目标可能无法实现,但通过指定与会议相关的单独任务来处理这些目标)。 All other intention types require explicit monitoring, and so we ended up attaching checkmarks to all IOs except events.
当你创建一个产品时,你希望它的内部是美丽的。
第二个例子与意图的时间范围有关。大多数的待办事项系统都是“羞耻清单”,你写下来却从不去做。我们希望避免这种情况,并通过严格的时间范围来实现。这个早期的决定可以追溯到文献中的一场小型辩论。在科恩和莱韦斯克的形式主义中,诸如“我打算读这本书”之类的陈述是基本概念。但在我的期刊论文中,我认为这是有问题的,这又回到了承诺的问题。如果我致力于一个没有被时间锚定的意图,我究竟致力于什么,它实际上是如何驱动行动的?(如果你家里有一个十几岁的孩子,你就会明白我的意思。)相反,我认为,基本结构应该是这样的陈述:“我打算在周六下午2点到4点阅读这本书。”然后,你可以通过存在主义量化来放松这些情绪,说一些诸如“我打算在这个周末的某个时候花两三个小时读这本书。” But you are always explicit about the time scope. Timeful adopted this philosophy; the implicit contract with the user was that she should be serious about her intentions, and in return the system would help her accomplish those by placing them on her calendar and prodding her to get them done (the tagline when the app launched was "get it scheduled, get it done"). Thus every task required either a specific "do on" or "do by" date. The task then appeared on the time grid, alongside the events. (In the case of "do by," the system selected a time before the due date, which the user then could change if needed. Indeed, if an event later displaced the task, the system would move the task automatically.) The same logic applied to habits and projects, in more involved ways.
《Timeful》的故事是一个快乐的故事,大部分的功劳要归功于KR。如果没有KR或哲学,一个人能得到同样的见解吗?有可能,但事实是没有人这样做,我不认为这是一个意外。当你创建一个产品时,你希望它的内部是美丽的。我的意思是,当你打算设计一个很棒的用户体验时,你往往没有足够的概念词汇来做好它,或者更糟糕的是,你正在与现有的概念框架和数据模型作斗争。如果内部结构不正确,你将永远无法获得真正美丽的用户体验。哲学和KR鼓励您严格思考您的概念架构,并在设计特定功能时提供指导。
这并没有降低机器学习或统计学的重要性。但是机器学习需要一个特征空间,统计需要一个事件空间。即使是最狂热的深度学习爱好者,也不会认为它们总是会在不借助人类洞察力的情况下出现(除非你为谷歌工作,而且只对猫感兴趣一个).
这是否意味着每个哲学难题和逻辑难题都有直接的实际含义?当然不是。但如果你正在设计一辆车,你确实需要轮子,所以你最好不要重新发明轮子,尤其是如果你的轮子最后不是很圆的话。
我们有理由保持乐观。有迹象表明,研究人员对“机器学习和统计将解决一切”的观点越来越怀疑,并试图将机器学习(美妙的)成就整合到更广泛的AI方法中。例如,最近的AAAI研讨会1汇集了来自知识表示、机器学习、语言学和神经科学的领先研究人员,讨论这些领域之间的相互作用。我的感觉是钟摆开始轻微地摆动,如果我们作为一个社区鼓励这一趋势,人工智能将会更好。
1.美国科学促进会(AAAI)春季KRR研讨会:符号与神经方法的整合,斯坦福大学(2015年3月);https://sites.google.com/site/krr2015/
2.Alchourròn, c.e., Gärdenfors, P.和梅金森,D.论理论变化的逻辑:部分满足收缩和修正功能。《符号逻辑学报(1995), 510530。
3.,结束。意图、计划和实际原因。哈佛大学出版社,1987年。
4.Cohen, P.和Levesque, H.意图是选择+承诺。J.人工智能42(1990), 213261。
5.Icard, T., Pacuit, E.和Shoham, Y.共同修正信念和意图。在12th知识表示与推理原理国际会议(KR), 2010年。
数字图书馆是由计算机协会出版的。版权所有©2016 ACM股份有限公司
很有趣的文章。
为了让机器产生意识,它可能需要机器以类似于我们的大脑允许意识出现的方式与物质进行物理交互。(我承认我在这里处于“观点的领域”,没有证据可以提供,除了人类意识当然是以这种方式产生的这一事实)。在这种观点中,我们的“意识”来自于我们的内部处理以及我们与物质世界的互动。我对任何认为意识(或智力)可以仅仅作为符号操作的结果而产生的论点持怀疑态度——对情境/具身认知的研究在这里似乎是相关的(如无理由的智力,Rod Brooks,第12次IJCAI),尽管我不会声称自己是专家。
此外,几乎没有证据表明,那些将人类定义为“智能”的任务,如语言的习得和使用,是基于某种知识表征的。事实上,语言学中定义一套规则来解析和理解一种自然语言的努力从来没有“相当”有效,而更多的统计方法似乎令人印象深刻地成功(例如机器翻译领域的谷歌Translate)。相反,一些“专家”任务,如医疗诊断,*确实*似乎承认通过一套明确的规则进行表征,也许这些是“传统”知识表示可以贡献最多的领域。
我猜想,逻辑也将永远保留作为概念分析工具的角色——在某种意义上,试图将我们在事实之后创造的东西正式化。
显示1评论