acm-header
登录

ACM通信

最近的意见


bg-corner

在机器和思想的边界
来自ACM的意见

在机器和思想的边界

这是对研究员莱纳斯·李的采访。

密集视觉表示,nerf和机器人的llm
来自ACM的意见

密集视觉表示,nerf和机器人的llm

谷歌研究科学家Pete Florence讨论了机器人如何从密集的视觉表示、神经辐射场和大型语言模型中受益....

人工智能和演示的未来
来自ACM的意见

人工智能和演示的未来

研究人工智能和民主之间关系的一种方法是将注意力转向所有形式的民主所共有的最基本单位:人民。

通过大型模型的开放性和演化
来自ACM的意见

通过大型模型的开放性和演化

这是与Joel Lehman的对话,他是OpenAI和Uber AI实验室的机器学习科学家。

语言学与自然语言处理的发展
来自ACM的意见

语言学与自然语言处理的发展

采访斯坦福大学人工智能实验室主任、斯坦福大学以人为本人工智能副主任克里斯托弗·曼宁……

可解释机器学习
来自ACM的意见

可解释机器学习

这是谷歌Brain的研究人员宾·金的对话。

人工智能正在引领一场新的科学革命
来自ACM的意见

人工智能正在引领一场新的科学革命

人工智能正在改变科学过程,自动化并增加人们使用它可以完成的任务。

教机器人在日常生活中帮助人们
来自ACM的意见

教机器人在日常生活中帮助人们

采访《每日机器人》的麦克斯·布劳恩。

自然语言处理中的缺失语音
来自ACM的意见

自然语言处理中的缺失语音

在NLP模型的数据和开发中代表了谁和什么?

AI在游戏中的未来
来自ACM的意见

AI在游戏中的未来

让人工智能成为每个人自由和创造力的工具。

机器学习的稳健性、基础模型和再现性
来自ACM的意见

机器学习的稳健性、基础模型和再现性

采访斯坦福大学计算机科学副教授Percy Liang

谷歌的机器人学习与语言泛化
来自ACM的意见

谷歌的机器人学习与语言泛化

机器人研究科学家Eric Jang谈论机器人操作和自我监督机器人学习

以人为本的可解释人工智能和社会透明度
来自ACM的意见

以人为本的可解释人工智能和社会透明度

对研究以人为本的可解释AI的博士候选人Upol Ehsan的采访

中国的人工智能梦与人工智能“军备竞赛”
来自ACM的意见

中国的人工智能梦与人工智能“军备竞赛”

斯坦福大学博士后讨论人工智能在可能的美中权力过渡中的影响的研究

RL基准测试,人工智能的气候影响和法律人工智能
来自ACM的意见

RL基准测试,人工智能的气候影响和法律人工智能

斯坦福大学法学博士候选人Peter Henderson谈到了创建有益于社会的强大决策系统和机器学习方法

强AI需要自主构建可组合模型
来自ACM的意见

强AI需要自主构建可组合模型

人工智能构建的模型必须编码经验的基本模式

元学习和基于模型的强化学习
来自ACM的意见

元学习和基于模型的强化学习

斯坦福大学教授切尔西·芬恩谈论机器人和元学习研究

Yann LeCun谈研究开端和最新进展
来自ACM的意见

Yann LeCun谈研究开端和最新进展

深度学习先驱讨论图像处理的早期阶段和计算机视觉自监督学习的发展

谁在构建未来的基础模型?
来自ACM的意见

谁在构建未来的基础模型?

所谓的“基础模型”的管理、审计和评估不应该留给科技行业。

可持续人工智能系统的必要性
来自ACM的意见

可持续人工智能系统的必要性

人工智能巨大的碳足迹的影响是社会的,而不仅仅是环境的
登录全面存取
忘记密码? »创建ACM Web帐户
Baidu
map