假设AI伦理学家发现了与AI使用增加相关的不良影响。他们应该怎么做呢?一种选择是寻求与大型科技公司结盟,以“借用”它们的力量,让事情变得更好。另一种选择是寻求变革的机会,积极避免依赖大型科技公司。
这两种策略之间的选择导致了道德困境。例如,如果伦理学家的研究强调Twitter和Facebook的严重和不幸的后果,他们是否应该通过在这些网络上建立社区来促进这项研究?他们是否应该从大科技公司那里获得资金来推动大科技公司的改革?如果他们非常担心大规模语言模型的负面影响,他们应该在谷歌或OpenAI寻找机会吗?
这是一篇好文章,我赞扬作者对这个主题的深入研究。我想建议,在科技行业的许多方面追求职业生涯时,还有另一种方法可以考虑解决道德困境——专业许可。
许多人认为我们许可了太多的职业。但是,在能力和/或道德行为问题有可能对广大公众或特定客户造成重大伤害的领域,通常会遵循两种行动方针。首先,专业协会或某些标准或监管机构已经制定了包括道德标准在内的专业标准守则。然后,要么是与政府合作的专业协会,要么是政府自己行动,建立了一个许可制度。ACM已经完成了第一步。也许是时候迈出第二步了,由美国计算机协会带头,而不是等待政府带头。
人们不禁想起魁北克大桥建造过程中发生的两起悲剧,正是这两起悲剧促使专业工程师获得了执照。第一次坍塌发生在1907年8月29日,有33人或35人丧生。然而,直到1916年9月11日的第二次坍塌,又造成13人死亡,第一次悲剧中提出的建议才获得了足够的吸引力,可以真正采取一些行动。多年以后,作为对新注册工程师的表彰仪式的一部分,他们会被授予一枚别针,这种别针是用从倒塌的桥梁废料中提取的一点钢材制成的。
我们已经可以指出一些重大的公共危害灾难,这些灾难直接归因于自动化系统设计的能力问题(例如波音737坠机事件)或其操作(例如许多记录在案的由社交媒体广告定位造成的儿童和社会稳定损害的案例)。因此,我们面临着一个有趣的问题。我们的“专业人士”手上还会累积多少鲜血和伤害,然后我们才会迈出下一步,进入一个具有有效道德标准的许可制度?
显示1评论