在最近的一次通信列,9Moshe Vardi询问了如何规范社交媒体平台上的言论。瓦尔迪提醒我们,Facebook的5万名员工需要算法来实现内容审核,因为该平台拥有大量用户和贡献。尽管挑战显而易见,但单靠算法可能无法解决问题。我们正面临着一个大规模的集体问题,它不仅需要技术解决主义,而且需要对一些社会最基本的价值观进行深入的思考。其中一项价值,即言论自由,需要对如何在数字世界中保障它进行深思熟虑的讨论——包括它的限制应该在哪里,谁来界定这些限制,以及如何执行这些限制。这包括内容审核的技术方法问题,有害内容的定义,更重要的是,从网络公共话语中期待什么?
在线社交媒体平台已经成为我们社会的重要组成部分,成为意见的塑造者。小型区域论坛和大型社交网络都为数字公共领域的公共话语提供了关键的基础设施。8有些公司,比如Facebook,拥有相当大的影响力,覆盖了超过20亿人,甚至达到了某些国家总人口的90%。一个网络在很大程度上可以行使自由裁量权来管理话语,例如,通过选择或优先排序评论。尽管一些国家已经颁布了监管规定,但主要局限于激励平台删除非法内容,最近则是为了回应投诉而删除内容。b通常,这些法律并没有直接规定内容删除,也没有规定应该如何删除,而是鼓励平台对非法内容进行潜在处罚。c大多数规定都是负面的,也就是说,几乎没有规定授予在社交媒体上发布的权利。除此之外,例如,Facebook对地球使用了一套单一的社区指南。
考虑到数字的绝对优势,塑造在线话语需要IT协助,以及针对不同目的的一整套算法。9它们可以用来删除不需要的内容,或帮助对显示给用户的消息进行优先排序。它们根据用户的历史在线行为来帮助评估用户的可信度或可信度。他们甚至可以评估产生严肃讨论或情绪反应的可能性。小型区域网络和大型国际网络都使用了算法。事实上,对于较小的媒体来说,在没有大量员工的情况下管理内容是至关重要的。
一个重要的新兴问题是,算法应该在多大程度上,以什么样的目标监督数字公共领域?一种多管齐下的方法是,使用算法来保持讨论的真实性和友好性,删除非法和有害内容,支持那些可能被忽视的人,并保持每个人的兴趣。对一些人来说,算法调节的话语有望带来一种勇敢的新世界对话和高质量的讨论。在这样一个世界里,每个人都力求举止得体,完全基于事实进行辩论,谨慎而深思熟虑地表达意见,从不使用任何辱骂或仇恨的语言。不幸的是,这种由算法监管的在线话语的愿景是不明智的,不现实的,和不公平的。让我来解释一下原因:
这个愿景是不现实的,因为现在使用的人工智能通常都很简单,而且实际上很多都很糟糕。以一个著名的例子为例,一个白噪音视频在上传到YouTube时产生了五个错误的版权声明。1,9尽管谷歌可以构建一些出色的语言处理工具,因为它收集了各种语言的在线文本,但用于内容审核的许多算法都是简单的模式匹配器,只对句子进行操作。许多公司使用关键字来检测仇恨言论,或使用大型数据库和文件哈希比较来删除受保护的知识产权。9如今,在语境识别方面,人们已经很少再去追溯长期对话中的争论,也很少再去努力消除语言中微妙含义的歧义,比如幽默或更糟糕的讽刺——后者是出了名的难以识别(比如华莱士)13).据报道,商业工具只能提供大约70%到80%的准确性,这意味着五分之一的评论会被错误分类。5此外,当涉及到超越基于人工智能的内容审核时,人们是聪明的。他们创造了“k!”或使用图形文本模式等等。虽然某些过滤器对这些结构的检测达到了惊人的水平,但这似乎只会助长网上喷子的创造力。
在线社交媒体平台已经成为我们社会的重要组成部分,成为意见的塑造者。
使用AI算法在内容上也可以适度不公平的。语言技术具有很强的语言依赖性。统计算法只适用于最常见的语言。这个问题可能是罗兴亚丑闻背后的根本原因——这是缅甸历史上一个悲惨的事件,部分是由网络仇恨言论推动的。10,11虽然在一个只讲英语的国家,优先过滤英语可能是可以接受的,但在少数语言中,糟糕的算法可能会加剧现有的歧视和不公平的内容审核,无论这意味着或多或少地删除内容。
虽然人工智能和自然语言处理已经取得了很大的进步,但这些应用技术是否真正掌握了语言的意义还存在争议。理解语言是一个非常困难的问题,即使对人类来说也是如此。关于我们的意思的争论(更多的是关于我们的意思)可能会导致国内讨论和法庭程序。人类语言反映了生活的所有复杂性,是一种通用的工具,我们用它来描述计划、追求伴侣、点餐、结束关系、祈祷、玩耍、唱歌、希望等等,借用维特根斯坦的一些著名例子。完全理解所有这些不同的语言实践是可能的AI-hard,这意味着我们需要类似人类的人工智能来解决它。因此,算法在两方面都可能出错:它们错过了一些参与者希望删除的内容,也删除了无害的内容。后者的证据是,越来越多的用户投诉,希望看到他们被删除的内容恢复正常。4这一流行病使情况更加恶化,因为减少的工作人员被迫处理越来越多的内容;一些网络媒体未能管理好由此产生的大量关于错误监管内容的投诉。
考虑到这些挑战,有一点很重要:承认人工智能的缺点;为决策者提供相应的信息;确保获得有关现行做法的数据;并预见适当的上诉机制和程序。作为计算机科学家,我们有责任告知潜在的技术缺陷,就像告知算法明显的成功一样。尽管存在这些缺点,但一些政策制定者可能希望平台能做得更远,而不仅仅是删除非法内容。最近,英国的网络安全法案被强烈批评为“审查制度”。7因为它要求平台删除有害(但合法)的内容。虽然他们通常不规定使用算法工具,但他们显然知道这些工具;但政策制定者有高估算法效能和精确度的危险。在最近与欧洲议会的一位议员的讨论中,我指出了人工智能在在线内容审核方面的缺点。这位政客的回答是:“我们知道。但我们必须做点什么。”这听起来很绝望,但可能是真的。那么问题就来了,算法是否是唯一的答案,我们应该在多大程度上真正寻求自动删除有害内容。
让人工智能删除有害内容也可能是不明智的。关于“有害”内容的一个问题是,谁来定义它?如果我们要求平台通过算法移除它们的主人或人工智能专家认为有害的东西,那我们就如履薄冰。今天,当Facebook删除了我们城市公共场所的裸体雕像时,我们已经开始嘲笑它了。另一个更有原则性的问题是,我们是否应该以算法监管内容为目标,让在线话语失去尖锐的棱角。韩德哲学家韩炳哲(Byung-Chul Han)指出,数字世界的目的是不抵抗我们的意图,因此趋向于完全的平滑。3.在网络话语中,我们当然还没有达到这样的状态,但抵制和一些粗暴可能是一个好的和富有成效的话语的必要成分。如果言论从来都是无害的,那么言论自由权就没有什么必要了。揭发腐败政客的抗议者和揭发反民主阴谋的举报人都要求言论自由。这同样适用于在独裁统治下为自由而战的民权活动家。这样的言论可能会对目标群体造成伤害,尤其是对当权者。言论自由作为一项人权的发明是为了使自由民主国家和民主话语成为可能。这可能包括“冒犯、震惊或扰乱的信息。”意见可能需要“与官方当局或很大一部分公众舆论所捍卫的观点背道而驰。”d此外,话语可能需要从根本上动摇社会基础。
请注意,言论自由并不是无限的。许多宪法都规定为立法者创造空间来规范这种自由,并合法地禁止恐怖主义宣传。这种明确界定的限制显然是必要的。但是,在不明确谁认为它是有害的情况下,以可能是“有害的”为由删除内容是完全不同的游戏。今天,我们可能甚至不知道移除了什么,以及为什么要移除。4,14我担心的是,我们正在把不应该在当前技术状态下下放给人工智能的责任下放给人工智能,因为它可能会导致不公平对待人们,可能会建立不切实际的期望,可能会改变规模,有利于压制意见。更重要的是,它可能会给那些删除的人带来潜在的非民主力量。
已经讨论了算法的替代方案。一个想法是废除匿名。至少在人权得到适当保护的民主社会,这可以产生积极的影响。但是,这并不能完全解决问题。教育,例如媒体素养,经常被提出,但一些研究表明,在评估内容时,很少甚至没有影响,甚至是有害的过度自信。2一些在线媒体对可信的在线贡献者使用排名系统,但它们可能会因为社交评分而受到攻击。此外,还有审计或治理委员会,这是社交媒体目前的趋势,需要民主监督,可能有助于改善这种情况。最后,还有大量关于平台监管的讨论,包括对在线内容的规则。6对这些建议的改进、进一步研究和新方法仍有很大的空间。我们需要更多聪明的头脑来研究这些技术选择,这是我们在数字人文主义倡议中试图鼓励的事情。e但首先,在拥抱人工智能控制内容的“美丽新世界”之前,我们必须更好地理解我们对网络话语的期待。话语服务于许多不同的目的,因此可能需要比今天使用的更有区别的算法缓和方法。
1.Baraniuk, C. YouTube上的白噪音视频被五次版权索赔击中。BBC新闻(2018年1月5日);https://bbc.in/3eiGQlL
2.巴尔杰,M.和戴维森,P.媒体素养的承诺、挑战和未来。数据与社会研究所。(2018);https://bit.ly/3q6xu1J
3.Byung-Chul汉Im Schwarm。中文:在蜂群:数字前景。麻省理工学院出版社,剑桥,马萨诸塞州,2017。
4.Cowls, J.等。数码公共领域的言论自由〔政策摘要〕。AI与内容审核的研究冲刺(2020年)https://bit.ly/3IZ5INn
5.Duarte, N., Llanso, E.和Loup A.混合信息?自动社交媒体内容分析的局限性,民主与技术中心。(2017);https://bit.ly/3mdXFCB
6.even T.和Donders K.调节数字平台功率。数字媒体与政策杂志, 3(2020), 235-239。
7.活动人士称,网络安全法案是“审查的配方”。《卫报》。(2021年5月12日);https://bit.ly/32cOnzJ
8.Mazzoleni G.等。数字公共领域。在国际政治传播百科全书, Wiley Blackwell, 2015, 322。
9.裁缝,G。在线内容过滤或审核算法的影响。公民权利和宪法事务政策部,总干事内部政策,2020;https://bit.ly/32gvYle
10.梭伦,O。Facebook在缅甸的失败是一个浮躁的蹒跚学步的孩子造成的。《卫报》(2018年8月16日);https://bit.ly/3ISXrup
11.为什么Facebook在缅甸的仇恨言论战争中失败了。路透社特别报道(2018);https://reut.rs/3GSaElo
12.对于社交媒体,我们应该做些什么?Commun。ACM 63, 11(2020年11月),5;DOI: 10.1145 / 3424762。
13.计算反讽:一个调查和新视角。Artif。智能。启43(2015), 467 - 483;https://doi.org/10.1007/s10462-012-9392-5
b.例如,欧洲议会和理事会关于防止恐怖主义内容在网上传播的拟议法规或《2019年数字单一市场指令》中的版权第17条。
d.《欧洲人权公约》第10条指南。欧洲人权法院;https://bit.ly/33u1RaG
数字图书馆是由计算机协会出版的。版权所有©2022 ACM股份有限公司
没有发现记录