1968年12月7日,道格拉斯·恩格尔巴特献上了一场传奇示范这表明新兴的计算技术可以帮助人们一起工作。更一般地说,恩格尔巴特把他的职业生涯都用来阐明他对计算机在解决社会问题中的作用的观点。他强调了技术的潜力增加人类的智慧。从那时起,许多人发展了智能增强(IA)的概念。
例如,医疗保健领域将内部审计师视为更符合道德的框架。一个报告IA定义为“…另一种概念化关注人工智能的辅助作用,强调一种增强而不是取代人类智能的设计方法和实现。”该报告认为,“医疗保健人工智能应该被理解为增强专业临床判断的工具。”
在教育领域,人工智能的应用正在迅速扩大。不仅仅是创新者在发展智能辅导系统帮助学习如何解决复杂的代数问题。人工智能应用还包括自动评分论文或家庭作业,以及早期预警系统提醒管理员注意潜在的辍学生。我们也看到在线科学实验室的人工智能产品可以给老师和学生反馈。其他产品可以收听课堂讨论,并突出课堂谈话的特点,教师可能会在学龄前儿童的视频中寻求改进或观察教学质量。一位最近的专家报告关于人工智能和教育的所有研究都揭示了人工智能的愿景,它将支持教师组织课堂活动,扩展可测量的学生学习成果的范围,支持残疾学习者,等等。
在口语中,AI一词让人联想到独立行动的类人类代理的形象,它们常常取代人类的工作,因为人类的工作变得不那么重要。人工智能通常更快,基于更多的数据,但它更聪明吗?此外,还有隐私和安全方面的难题——社会有义务保护儿童的数据。还有更棘手的偏见、公平、透明和问责等问题。我们担心的是:关注人工智能提供了一种错觉,即只要我们找到解决坏的方法(伦理和公平),我们就可以获得好的(超级人类替代智能)。我们相信这是海市蜃楼。无论技术代理变得多快、多聪明、多精通数据,人们总是天生喜欢学习。人就是代理存在的原因。我们认为,重要的是要让员工始终参与其中,了解事情是否有效,如果无效,了解原因,并为改变制定创造性的计划。
今天,学生和教师在大流行期间的教学挑战面前不知所措。我们在教育中面临的问题是整个孩子的问题。为什么家长们吵着要送孩子回学校?这不仅仅是为了让他们完成一些工作!学习从根本上讲是社会和文化的;让下一代能够构建他们成长所需的知识、技能和实践,需要人们在一个学习社区中共同努力。学校还提供必要的社会和情感支持。我们同时处于一个关键时刻,迫切需要解决伦理和公平问题。在评估人工智能或任何技术时,除了信任和安全方面的考虑外,分清影响的优先次序、理解它如何改变互动以及对学生和教师的影响是至关重要的。
因此,我们建议关注教育中的IA,将教育者的专业判断和学习者的声音置于创新设计和特色的中心。内审系统可以节省教育工作者的行政时间(例如,批改论文),并支持他们关注学生的奋斗和需求。IA系统可以帮助教育工作者注意到学生什么时候参与较少,并提出参与的策略,甚至可能是基于让学生参与到相关的课堂情境中的方法。在这个Zoom时代,我们也看到了有前途的语音识别技术,可以检测学生在课堂讨论中对大量在线语言话语样本的不平等。在一些有远见的学区,教师有教学教练。在这种情况下,教练和老师可以利用IA工具来检查他们教学中的说话模式,并制定计划来解决不平等问题。此外,IA工具可能允许教练和老师向老师指定智能警报——例如,对于未来课堂讨论中预期的模式,这将标志着尝试新的和不同的教学动作的好时机。之后,IA工具可能会制作一个“亮点卷轴”,教练和老师可以通过查看它来决定是否继续使用那个新的教学动作,还是尝试另一个。
AI和IA之间的重要区别可能是当教育者的专业判断和学生的声音都在循环中。AI视角通常在技术被采用之前或在对其进行评估时为人类提供判断的机会;IA的视角将人的判断放在整个教学和学习的最前面,应该改变技术的设计方式.我们担心,人工智能的视角可能会鼓励创新者将道德和公平视为他们必须跨越一次的障碍,然后他们的产品就能够为学生自主做出决定。唉,当事情出了问题,教育者们可能会用强烈的反应来回应,把好的和坏的都带走。我们认为内部审计师的观点是承认在教与学中的伦理和公平问题是持续的和具有挑战性的。
从假设人类的判断将始终需要在循环中开始,我们希望教育的IA将关注人类和计算智能如何结合在一起,为学习者的利益。有了IA,设计中就内置了约束,如果没有各种各样的人参与,技术就不能完全做出决定。我们希望教育的IA将道德和公平建立在持续改进的循环中,而不是在高风险的披露/同意/采纳决定中,计算智能的新力量被教育者和学生的智慧平衡。
杰里米Roschelle他是Digital Promise学习科学研究的执行董事,也是国际学习科学学会的会员。Pati鲁伊斯(pruiz@digitalpromise.org)是非营利组织“数字承诺”的计算机科学教育研究员。朱迪褐(jfusco@digitalpromise.org)是Digital Promise专注于STEM教学的高级研究员。
没有找到条目