文/唐·门罗
ACM通讯,2021年6月,第64卷第6期,第15-16页
10.1145 / 3460218
评论
在过去的十年里,深度学习系统在图像分类、语言翻译和执行其他曾经被认为是人类独有的任务方面表现出了惊人的能力。然而,这些系统工作不透明,有时会犯基本的错误,这种脆弱性可能被故意利用来威胁安全或安全。
例如,2018年,麻省理工学院(MIT)的一群本科生3D打印了一只玩具乌龟,谷歌的云视觉系统始终将其归类为步枪,即使从不同方向观察也是如此。其他研究人员调整了一段普通的语音片段,将智能扬声器引导到恶意网站。这些错误分类听起来很有趣,但它们也可能代表着一个严重的漏洞,因为机器学习广泛应用于医疗、法律和金融系统。
没有找到条目
登录阅读全文
需要访问吗?
请选择以下其中一个选项以访问优质内容和功能。
创建一个网络帐户
如果您已经是ACM会员,通信订阅用户,或数码图书馆订阅用户,请设立网上帐户,以便阅览本网站的优质内容。
加入ACM
成为ACM会员可以充分利用ACM卓越的计算信息资源、网络机会和其他优势。
订阅ACM杂志通讯
获得完全访问超过50年的CACM内容,并每月收到印刷版杂志。
购买物品
非会员可以购买这篇文章或它出现的杂志的副本。