应用于战争的伦理学总是要面对这样一个问题,尽管有些人不太清楚什么是战争只是在战争中,大多数人都同意什么是战争不公正的在战争中。国际人道主义法,简称IHL [红十字国际委员会尽管它显然面临着执法方面的挑战,但它在全世界都具有道德份量。本刊的评论员已经解决了这些最棘手的技术问题;参见Wendell Wallach最近关于致命自主武器的观点[Wallach]。的伦理+新兴科学组加州州立理工大学(加州理工学院)研究了其中一些问题,以及新道德困境的其他方面。
Keith Abney,加州理工学院伦理+新兴科学小组的高级研究员提供了他们在这一领域的工作概述。
我们在加州理工学院的团队,与来自西密歇根大学和海军研究生院的学者一起,正在完成一项NSF资助的网络冲突伦理研究。以下是我们试图提出的几个主要问题;就像建立一个关于网络战争威胁的常见问题解答。
关于网络战的最基本问题始于定义:如果我们按照牛津词典的定义,将“网络”定义为“与计算机、信息技术和虚拟现实文化有关或具有其特征的”,并注意其通常用作前缀;那么,继陆地、海洋、空中和太空之后,网络真的是战争的第五个领域吗?它真的不同吗?经济学家] ?虽然网络攻击(利用计算机和IT攻击其他计算机和连接系统,例如Stuxnet病毒)显然存在,但这种攻击什么时候会上升到战争的水平?这被称为“红线”问题。
对于政策制定者来说,无论我们如何回答“红线”问题,似乎很明显,有关政策和可能的监管的讨论将从现有的国际法开始。国际人道主义法必须完全重写以适应网络攻击,还是可以扩展现有框架来应对网络攻击?如果需要全新的国际人道主义法,可能的新网络规范的例子有哪些?的塔林手册让我们对即将发生的事情有所了解,但塔林并不具有法律效力。例如,战争法(在LOAC博客中总结)LOAC)坚持区分(或歧视)的原则,即合法攻击试图将战斗人员与非战斗人员区分开来,并且只打算攻击前者。在一场正义的战争中,“附带损害”应该是无意的,而且必须遵守比例原则。那么,如果网络战争真的存在,这是否意味着私人工程师或IT员工会成为合法的攻击目标,或者容易受到伤害呢?
在伦理+新兴科学小组,我们审查了私人公司关于网络攻击的伦理问题(见http://ethics.calpoly.edu/hackingback.htm);特别是在没有解决这种攻击的国际法的情况下,有罪不罚的问题。考虑到私营企业和网络攻击的“狂野西部”情况,私营企业是否可以对对手进行“反击”?在什么条件下?我们是否需要一项国际条约,或者更改为IHL来确定这一点?
网络冲突与其他涉及IT(尤其是机器人)的冲突之间的重叠也值得仔细研究。我们之前发布了一个主要报告关于自主武器系统的伦理问题,这一问题在过去十年里催生了大量迅速增长的文献。这场辩论的焦点之一是要求有意义的人工控制,如组阻止机器人杀手的运动坚持禁止不由人类直接遥控的致命机器人(即没有人参与的机器人)。但网络冲突没有引起类似的担忧。为什么?如果有意义的人工控制在机器人杀手的辩论中是一个大问题,为什么它不应该是一个关于网络攻击道德的严肃问题呢?机器人的存在是否会在道德上对人类的控制产生重大影响?
当然,有意义的人类控制的问题最好是有意义的,如果人们可以确定谁在控制攻击。这就给我们带来了网络冲突中一个棘手的问题——归因,攻击者的身份识别。如果归因在道德上是网络战的一个至关重要的要求,那么我们是否必须(作为一种政策)要求一种技术解决方案,使归因可靠?如果这涉及到普遍的后门,这是否意味着归因和隐私必然是不一致的?我们国家科学基金会的研究伙伴,NPS的尼尔·罗[罗,已经建议在网络攻击中增加数字签名以加强归因,就像士兵被要求穿军装一样。这是解决这个问题的完整方案吗?如果不是,还需要什么?即使它能解决问题,它真的可行吗?
定义的另一个问题是对各种网络攻击进行分类。一种常见的方法被称为CIA:所有试图破坏用户的网络攻击保密,完整性,或可用性.但是,什么样的网络攻击条件在道德上能够支持宣战,从而构成开战原因呢?中央情报局的问题有直接的相关性:区分网络战争和单纯的网络攻击的“红线”会在实质上取决于攻击的类型吗?也就是说,对于机密性攻击和那些损害完整性或可用性的攻击,红线是否相同?黑客攻击机器人或无人机,尤其是致命的自主武器系统(LAWS),以将网络攻击转化为动能攻击,是否涉及特殊问题?这将如何改变网络攻击何时转变为网络战争的红线分析?
“物联网”(Internet of things)和/或身体植入(cyborgization)的兴起是否会让僵尸网络变得更加普遍和难以阻止?僵尸网络包括我们日常生活活动所依赖的设备(冰箱、冰柜、恒温器、心脏起搏器等医疗设备),而这些设备在关闭笔记本电脑时不会出现问题吗?一场正义的战争会不会涉及入侵平民的住宅或私人的民用企业,从而对日常生活活动产生不利影响?在未来的网络攻击中,那些住在自己家里的个人,而不是国家或非国家组织,会成为最重要的担忧吗?相同的策略和反应是否适用于每个人,或者我们需要完全不同的战术,不仅取决于攻击的性质,还取决于攻击者的性质?
新形式的网络技术带来了新的伦理问题,但当现有技术在新的环境中使用时,也会产生新的问题。那么,太空中的网络攻击引起了哪些特别的关注?他们是否会进一步质疑接受和使用航天两用技术,这些技术可能被用来发动网络攻击,变成源自太空的动能攻击?
回到地球上,社交媒体和虚拟身份的兴起引发了新的担忧。针对个人和名誉的网络攻击会变得更容易防御和修复吗?他们会发动战争吗?“虚拟角色”的地位是什么?黑客攻击一个虚拟人是否会像攻击一个实体人一样成为一种犯罪行为?网络攻击又会带来哪些新的责任、过失等问题?他们是否需要进一步限制言论自由,并对诽谤和诽谤有新的理解?与此相关,网络攻击需要哪些新的限制或隐私保障?政府无处不在的监控可以接受吗?如果有大量的监视,通过微型数字技术从下面监视,会是这样吗?bolly] ?网上匿名应该被允许吗?
网络冲突也可能导致对适当的公私分歧的全面理解发生变化,挑战传统的经济和社会模式。也许网络安全问题是“市场失灵”的例子,需要国家解决(结果可能导致国家之间的战争);另一方面,也许自由市场会产生解决方案。而且,鉴于美国在互联网架构和运营方面的主导地位,国际条约是否应该加强这种主导地位(比如联合国安理会的永久否决权)?或者我们应该转向一个更具有全球代表性的体系?
最后,人工通用智能(AGI)会不会吸取错误的教训,产生潜在的灾难性后果,比如创造一个超级恶棍?想象一下微软的Tay [佩雷斯控制世界!即使网络攻击不会通过AGI对人类造成道德上甚至存在上的威胁,接受它们是否会以不道德的、不可接受的方式贬低我们的性格和文化,或者这个问题是否会招致那种毫无意义的勒德主义者的争论?
随着我们进入一个美丽的新世界,我们的相互联系和相互依赖让我们变得脆弱,这是以前的法律学者和政策制定者无法预见的,这些问题以及更多的问题都需要答案。在网络空间这个新的领域,我们需要知道哪些战斗是值得战斗的,以及我们应该如何战斗。
谢谢你,Abney先生,感谢你与我们分享你的想法,也感谢你帮助主办了国际计算与哲学协会2017年的会议。
一些战争问题跨越了网络或常规领域,例如确定干扰或间谍活动何时成为开战原因(战争行为)。有些问题看起来非常类似,比如软件工程师和技术人员在何种情况下才会被恰当地称为战争中的战斗人员,而弹药工厂的工人则是类似的问题。这些问题仍在常规战争领域寻求答案,更不用说在网络战领域了。他们与这里所描述的问题相结合,由伦理+新兴科学小组认真研究。
[Bollier] David Bollier, 2013。soussurveillance作为对Surveillance的回应。在线http://www.bollier.org/blog/sousveillance-response-surveillance, 11/24/2013。
(经济学家)作者未知。2010.第五维度的战争.经济学人集团有限公司2010年7月1日。
红十字国际委员会国际人道主义法咨询服务处,2004年。什么是国际人道主义法?
[林]林,Patrick, Bekey, George,和Abney, Keith. 2008。自主军事机器人:风险、伦理和设计.这份报告是为美国海军研究办公室准备的。
[Perez] Sarah Perez, 2016。推特用户教它种族歧视,微软让它的新人工智能机器人Tay静音[更新].TechCrunch。
尼尔·罗,2009。战争中的网络武器伦理。来自信息安全中心的报告。
[瓦拉赫]温德尔,瓦拉赫,2017。迈向禁止致命自主武器:跨越障碍.CACM 60:5。2017年5月。DOI: 10.1145.2998579。
罗宾·k·希尔怀俄明大学哲学系和怀俄明人文研究所的兼职教授。她自1978年以来一直是ACM的成员。
没有发现记录