科技能影响人类道德吗?
这不是大学哲学课上深奥的考题,而是领先的技术专家和思想家日益关注的现实问题。社交媒体、智能手机和人工智能等技术会大规模地引发道德问题,而技术专家和社会普遍都在努力解决这些问题。
一方面,技术可以让我们获得关于我们行为后果的更好信息,比如当我们使用互联网研究如何减少我们的环境足迹时。在过去,这样的信息可能无法获得或不可能获得,但今天我们可以轻松地用数据武装自己,帮助我们做出我们认为更道德的选择。
另一方面,科技也会让我们表现出最糟糕的行为。社交媒体平台可以为我们提供激怒或沮丧的内容,使我们更(或更少)有可能根据我们的感觉做出不道德的行为。不良行为者也可以利用这些平台更容易做出不道德的行为。
更不用说,科技公司本身可能会有意或无意地使用他们的发明,造成真正的伤害。
技术如何影响道德的一个突出例子是Facebook。该公司的社交媒体平台使我们更容易与我们关心的人和问题联系起来,这使我们能够采取道德行动,比如支持一个有困难的朋友或为一个重要的事业筹集资金。
然而,正如Facebook告密者弗朗西斯·豪根在美国国会上所说,允许道德选择的功能也会导致不道德的选择。豪根在2021年10月作证说,脸书故意向用户提供包含仇恨言论和错误信息的内容,因为这增加了用户参与度。一些收到这些内容的用户随后决定以仇恨的方式说话和行动,这对他人造成了精神和身体伤害。豪根说,在一种情况下,该公司的技术甚至被用来煽动缅甸的种族灭绝,真的造成了生命的损失。
没有道德的技术是野蛮的;没有技术的道德是无能的。freeman Dyson
豪根对国会说:“结果是更多的分裂、更多的伤害、更多的谎言、更多的威胁和更多的战斗。”“在某些情况下,这种危险的网络言论导致了实际的暴力,伤害甚至杀死了人。”
像Facebook这样的例子让专家们越来越担心我们的技术和我们的道德行为之间的联系(或缺乏道德行为)。
事实上,现在的问题不应该是“可以技术影响我们的道德?如何科技影响我们的道德?”
道德行为始于大脑,始于我们如何思考。
科技可以影响我们的神经化学。美国国立卫生研究院(National Institutes of Health)支持的一项研究发现,当高中生发布的照片被点赞时,Instagram会刺激大脑的奖励中心,从而直接影响他们的神经化学。
“用技术改变我们神经化学的某些方面必然会影响我们的道德行为,”哈佛大学肯尼迪政府学院阿什中心的访问学者若昂·法比亚诺(Joao Fabiano)说,他研究新技术的道德影响。这些影响可以激励我们做出积极的道德决定,也可以激励我们做出错误的决定。
这并不意味着科技侵入了我们的大脑,我们的行为就无可指责。这意味着技术对我们的思维和行为方式产生了深远的影响,而我们才刚刚开始理解这种影响。
首先,不道德的行为者可能会在知情的情况下以有害的方式使用技术,要么对伤害视而不见,要么故意利用一个平台来制造负面结果。
法国图卢兹经济学院研究道德心理学和人工智能(AI)的研究主任Jean-François Bonnefon说:“如果我想做一些不道德的事情,技术可以为我提供更好的信息和更好的工具来实现我的不良目标,给我机会,如果没有技术的帮助,我是不会去追求的。”
Bonnefon说,技术也可以用来推卸道德决策的责任。他说:“例如,我可能决定买一辆总是把我的安全放在第一位的自动驾驶汽车,即使它不成比例地增加了其他道路使用者的风险。”“我自己开车走那条路可能会感到内疚,但如果有一台机器代替我开车,我就不会感到内疚。”
当你考虑到当技术放大了我们自身的道德缺陷时会发生什么时,关于技术对道德影响的争论就变得更加模糊了。
加州帕洛阿尔托半岛圣经教堂(Peninsula Bible Church)的牧师保罗·泰勒(Paul Taylor)说:“像任何技术一样,社交媒体只是让我们在更大程度上做我们已经做过的事情。”泰勒对技术带来的道德困境并不陌生;在成为牧师之前,他在旧金山从事软件开发工作,曾一度担任科技巨头甲骨文公司的产品经理。
泰勒说,人类倾向于以某种方式呈现自己,暴露一些信息,同时掩盖其他细节。“但我们对披露哪些信息所做的选择,最终会在很大程度上塑造我们。社交媒体技术的设计激励了某些信息,而抑制了其他信息。”
这些技术性的决定最终决定了我们如何表现自己,进而决定了我们如何看待自己和他人。
当机器自己告诉我们应该如何行动时会发生什么?
“我们应该更加关注(人工智能)如何塑造我们的道德行为,”马克斯·普朗克人类发展研究所(Max Planck Institute for Human Development)研究伦理和人工智能的博士后尼尔斯·Köbis说。
以亚马逊的Alexa语音助手为例。根据Köbis的研究,亚马逊首席科学家罗希特·普拉萨德表示,该公司设想Alexa的角色将从语音助手转变为值得信赖的顾问。Köbis网站说:“很快,人们可能不仅会要求人工智能播放他们最喜欢的音乐或开灯,还会在做出有道德后果的决定前咨询人工智能。”
泰勒说:“如果技术创造者对人类的意义有一个基本的理解,他们的努力就会更负责任。”
Köbis和其他研究人员“进行了一项大规模的、有经济激励的、预先注册的实验”,通过测试人工智能生成的建议是否会使人腐败,来判断机器如何影响我们的道德。他们让研究参与者玩一个游戏,在游戏中,他们得到了关于如何作弊和获得成功的不诚实建议,这些建议有时是由人类提供的,有时是由人工智能提供的。研究参与者接受了不诚实的建议,并通过撒谎来赢得游戏。
根据这项研究,“人工智能生成的建议的效果与人类书面建议的效果没有区别。”该研究得出的结论是,人工智能系统对人类的腐蚀程度可能和其他人类一样严重。
技术导致模糊的道德困境的一个原因是,它的创造者并不总是考虑它的后果。
“对于许多人工智能工具来说,存在一种‘先创新,后求饶’的心态,”Köbis说。“压力测试技术是否以及如何影响人们的道德行为是重要的一步。”其中一种方法是让研究人员和民间社会组织审计主要技术参与者发布的代码,但这说起来容易做起来难,Köbis说。
许多公司使用他们小心保护的专有数据和代码。这使得人们很难理解他们的技术是如何工作的,也很难确定它可能造成的道德陷阱。这一点在豪根向国会的证词中表现得很明显,她在证词中主张对Facebook的算法进行监管。然而,监管机构需要前所未有地访问Facebook的算法、代码和数据,才能制定这样的政策。
Algorithm-Watch开发的DataSkop等项目试图绕过这些限制。通过DataSkop,用户可以从他们的台式机或笔记本电脑中捐赠数据,帮助研究人员了解算法决策系统是如何工作的。在2021年秋季的一个项目中,DataSkop被用于分析用户贡献的数据,以发现德国大选期间YouTube推荐和搜索结果算法中的模式,以及个性化所发挥的作用。
另一种解决技术如何影响道德问题的方法是提出更好的问题之前技术得到了发展。
法比亚诺说:“哲学已经开发出解决创新者应该提出的宏观问题的工具。”这些工具包括一些基本问题,比如什么对子孙后代是最好的,以及技术造成的伤害应由谁负责。
泰勒说,这也意味着要考虑作为人类意味着什么。他说:“如果技术创造者对人类的意义有一个基本的理解,他们的努力就会更负责任。”
这意味着要问这样的问题:我们人性的哪些方面正受到科技的威胁?哪些方面太重要而不能牺牲?我们要培养什么样的理想?我们要避免什么样的诱惑?
“对这些问题有一些答案将为设计技术对我们的行为产生积极影响提供基础。”
如果我们做到了,我们可能会看到道德是技术的一个特征,而不是一个缺陷。
进一步的阅读
阿林,B。
以下是脸书举报人在国会作证时的4个要点:美国国家公共电台2021年10月5日,https://www.npr.org/2021/10/05/1043377310/facebook-whistleblower-frances-haugen-congress
莱布,等人。
人工智能建议的腐败力量,康奈尔大学2021年2月15日,https://arxiv.org/abs/2102.07536
塞缪尔·S。
做一个有道德的人很难。科技的发展让这变得更加困难。Vox2021年8月3日,https://www.vox.com/the-highlight/22585287/technology-smartphones-gmail-attention-morality
谢尔曼等人。
通过Instagram的同伴影响:对青少年和青年期大脑和行为的影响,儿童发展1月/ 2月。2018,https://srcd.onlinelibrary.wiley.com/doi/10.1111/cdev.12838
©2022 acm 0001-0782/22/4
本论文部分或全部的电子版或硬拷贝供个人或课堂使用的许可是免费的,前提是副本不是为了盈利或商业利益而制作或分发的,并且副本的第一页上必须有本通知和完整的引用。除ACM外,本作品的其他组件的版权必须受到尊重。允许有署名的摘要。以其他方式复制,重新发布,在服务器上发布,或重新分发到列表,需要事先特定的许可和/或费用。请求发布权限permissions@acm.org或传真(212)869-0481。
数字图书馆是由计算机协会出版的。版权所有©2022 ACM, Inc.
没有找到条目