上个月,一个自动文档扫描程序在遇到“Blog@CACM”这个文本时,拒绝了我的简历——是的,这正是你喜欢的出版物的名称——因为那串字符“不是一个有效的电子邮件地址”。你和我,读者,作为有文化的人类,不会对这一特性感到窒息,但会认识到使用“@”符号是为了一个新的目的。这样一个陈腐的例子……它的陈腐恰恰说明了问题所在。据我所知,这种事情一直在发生,但自动文档扫描和其他人工智能系统被认为是即将到来的事情,而且是一件好事。
当然,这种转向人工智能处理文书工作的做法引发了担忧,与此同时,预测和推荐系统等专业任务对人工智能的依赖也引发了更严重的担忧。然而,大众媒体的主流论调仍然是,只要我们搞清楚了这个问题,一切都会好起来:人工智能就在我们面前,我们会过得更好。
仔细观察一下就会发现,许多人会用当前和未来的科技影响力来随意地证明科技的影响力。这看起来可疑吗?哲学可以解释其中的原因。在伦理学的研究中自然fallacY是取什么的倾向是是什么应该。这种谬论的公开表述如“男人有攻击性是可以接受的,因为男性在本质上更有攻击性”,与隐秘表述如“这就是世界的方式”、“你的标准是一厢情愿的”、“你不能妨碍进步”一样受欢迎,它们认为现状是正确的和适当的,并暗示它在道德上是正确的和伦理上是适当的。这种推理有时表现为两个步骤,(1)表明进步的事情是不可避免的,(2)不可避免的事情是合理的。(这个假设与另一个随意的假设呈现出一种有趣的张力,即改变,不合格的“改变”是好的。)
的研究从"是"推导出"应该"这是哲学中的简略描述,是一个令人尊敬的多方面的课题。并发症比比皆是;读者可查阅斯坦福哲学百科全书[2018年9月NonNat,因为我们在这里将忽略它们。我只是反对用“事情是怎样的”来证明事情是怎样的(也反对用“事情不是怎样的”来证明事情不是怎样的)。在他的出版, G.E.摩尔写了一篇关于这一谬论的著名论述,特别从进化论的角度阐述这一谬论:“这是一种观点,认为我们应该简单地朝着进化的方向前进因为这是进化的方向”[摩尔1903,强调他的]。
这里讨论的自然主义谬误的味道是针对技术及其对进步的普遍认可,并舒适地建立在“进步”的模糊内涵上。在人工智能的背景下,我们可以称之为Artificialistic谬论:人工智能系统是进步,所以它们是好的.因为大多数人一发现这个谬论,就马上意识到它,很难找到关于它的直接表述;间接陈述,没那么难。来自Wolfram公司网站:“在过去的50年里,计算的崛起一直是一个主要的世界主题。我们的目标是提供一个框架,让计算在未来几十年实现它的全部潜力:使计算成为可能,无论何时何地都可以计算,并使计算宇宙的整个边界可访问。”[沃尔夫勒姆计算的五十年的存在构成了“是”。使更多的计算成为可能的动力构成了“应该”。这种说法在公共话语中以及在科技学院的大厅里激增。我最近听到连续几位计算机科学教师候选人介绍他们的工作是某种技术进步,因此是明显的社会公益。
让我们承认,人们可以自由地从自然(或诡计)中获得道德,但他们必须以这种方式作为前提,以避免谬误。可以说,这不是自然而然的;说明性不能由逻辑从描述性中推导出来。让我们承认,许多关于科技的讨论,赞赏和批评,并没有显示出任何这样的谬误。许多善意的AI开发者只是认为AI将被证明对社会有巨大的好处,值得去追求和改进。这可能不是真的,但是,作为一个简单的断言,这不是一个谬误。尽管如此,让我们承认许多人工智能系统是非常有用和建设性的。但是,让我们直截了当地拒绝自动化的文档扫描器、累犯预测器和安全评估器。让我们简单地放弃弊大于利的AI系统。
人为的谬误往往是由于遗漏,忽略或拖延整个问题。如果我没记错的话,在接下来的AI Now报道中-2016,2017,2018-作者对此越来越警觉,他们的建议从开放研究到监测AI系统,再到监管和治理[AI Now]。如果我们不能直接拒绝“是”选项,质疑“是”是否可以被称为“好”就没有多大意义。
伦理研究所的诞生是为了完善人工智能,而不是评估人工智能。参见,例如,负责任的计算机科学挑战[ResponsCS 2018它呼吁在发展中加强道德规范,但没有提到任何对商业的限制。这一点是由Greene、Hoffman和Stark在一项关于人工智能机构发表的价值观声明的研究中提出的,这些机构包括非营利、企业和学术成员。他们指出,重点在于修复人工智能,以便能够毫无阻力地获得其全部优势:“……做新事情的法令被框定为道德上的命令,而不做某事的可能性只是一个建议,如果被提及的话。格林2019年]。
在上述任何一种情况下,拒绝人工智能系统的说法都是罕见的,我相信,尽管邪恶的意图或故意的贪婪可能起到了一定的作用,但人为的谬误依然突出。对“@”的误读是一个沉重的负担,这应该被视为摩尔的一个警告,以否定“……大自然的力量在那一边起作用,这被认为是一个假设,它是正确的一边”[摩尔1903,第34节]。
参考文献
[AI Now] AI Now出版物。人工智能现在研究所。2019年3月23日访问。
[Greene 2019] Greene, D., Hoffmann, a.l., & Stark, L. 2019。更好、更好、更清晰、更公平:道德人工智能和机器学习运动的批判性评估。夏威夷系统科学国际会议.毛伊岛,嗨。2019
[摩尔1903]G. E.摩尔。出版.1903.剑桥大学出版社。修订版1993年出版。
[responses 2018] Mozilla. 2018。负责任的计算机科学挑战。Mozilla的博客.2018年10月10日。
[SEP NonNat 2018] Michael Ridge。道德Non-Naturalism。斯坦福哲学百科全书.2018年春季版。爱德华·n·扎尔塔,编辑。
[Wolfram]关于Wolfram Research。没有作者。Wolfram公司.2019年3月26日访问。
罗宾·k·希尔他是计算机科学系的讲师,也是哲学和宗教研究系以及怀俄明大学人文研究所的附属机构。她自1978年以来一直是ACM的成员。
没有发现记录