“在计算机软件开发中,模仿人类行为是一个不能跨越的明确边界。”艾米丽·本德
来源:盖蒂图片社
谷歌的工程师Blake Lemoine对LaMDA聊天机器人的感知能力的误解表明,如果设计的系统让人类相信他们在程序中看到了真实的、独立的智能,那么就会有风险。如果我们相信文本生成机器是有知觉的,我们可以根据它们生成的文本采取什么行动?
这就是为什么我们必须要求透明度,尤其是在使用诸如语言等类人界面的技术方面。对于任何自动化系统,我们需要知道它被训练来做什么,使用了什么训练数据,谁选择了这些数据,以及为了什么目的。
从《卫报》查看全文
没有发现记录