EDUCAUSE快速调查结果:ChatGPT写了这份报告吗?

分钟阅读

生成式人工智能正在进入高等教育领域,但利益相关者不确定其潜在的机遇和挑战。有一件事是明确的:有工作要做,没有时间可以浪费。

放大镜上的图形数据点
图片来源:Erta©2023

EDUCAUSE正在通过共享现有数据和从高等教育界收集新数据,帮助机构领导人、技术专业人员和其他工作人员解决他们面临的紧迫挑战。本报告基于EDUCAUSE快速民意调查。QuickPolls使我们能够快速收集、分析和分享来自社区的关于特定新兴主题的输入。脚注1

所面临的挑战

在教学领域,很少有技术能像生成人工智能(AI)工具那样迅速而响亮地引起人们的关注,这些工具使用人工智能来创建文本、图像和声音等内容。具体来说,文本生成工具ChatGPT已经成为头条新闻,尽管GPT模型已经存在了几年。最近的关注无疑是由于GPT 3的重大进步,它允许人们轻松地生成相对复杂的内容,并且越来越难以识别是由计算机编写的。人们用这些工具做各种事情,从协商有线电视账单到写情歌。作为一个社会,我们仍在试图弄清楚我们想如何使用生成式人工智能,这种不确定性在高等教育利益相关者之间造成了一些紧张关系。教职员工似乎分歧严重;一些人对在课堂上利用生成式人工智能感到兴奋,而另一些人则禁止使用它。管理人员正急于制定管理生成式人工智能使用的制度政策。

这个挑战?我们询问ChatGPT,得到的结果如图1所示。

图1。ChatGPT响应截图(2023年2月2日生成)
在这张ChatGPT网站的截图中,Jenay问道:“在高等教育中使用生成式人工智能最大的挑战是什么?”ChatGPT回复:偏见和公平:人工智能模型可能会延续和放大它们训练过的数据中的现有偏见,这可能会导致歧视性的结果。2.有限的数据可用性:训练数据的质量和数量是生成式人工智能模型成功的关键因素。在教育领域,相关和多样化数据的可用性可能是一个挑战。3.可解释性和透明度:生成式人工智能模型可能难以理解和解释,这可能会使解释它们所做的决定及其背后的推理具有挑战性。4.技术专长:实现和使用生成式人工智能模型可能需要大量的技术专长和资源,这可能是许多机构的障碍。 5. Integration and scalability: Integrating generative Al models into existing systems and processes can be challenging, as can scaling the use of these models to large populations of students. 6. Alignment with pedagogy: It is important to ensure that the use of generative Al aligns with pedagogical goals and objectives, and does not compromise the quality of education.

底线

这些QuickPoll数据揭示了多种正在出现的紧张局势和观点。机构利益相关者远未达成共识,他们仍在形成对生成式人工智能的看法。学生们已经开始在课程作业中使用这项技术,教职员工也在工作中使用它。然而,生成式人工智能是如此的紧急,以至于大多数机构都没有关于其使用的政策。生成式人工智能对道德、公平和包容、可访问性、数据隐私和安全等方面产生了严重影响。面对如此高的风险,机构领导人面临着做出正确决策的压力,但随着用户迅速在生活和工作中采用生成式人工智能,时间是至关重要的。利益相关者可以立即采取的最有成效的行动是弥合制度隔阂,集中讨论生成式人工智能对其社区的影响。

数据:总体情绪

几乎所有人都听说过生成式人工智能。只有21名受访者表示,他们根本不熟悉生成式人工智能,而这次的QuickPoll是他们第一次听说这项技术。脚注2近一半(46%)的受访者表示,他们非常或极其熟悉生成式人工智能(见图2)。领导者对该技术的熟悉程度最高。大约一半的经理(50%)和c级领导(53%)称自己非常或极其熟悉技术,相比之下,45%的员工和38%的教师这样认为。

图2。熟悉生成式AI
受访者对生成式人工智能的熟悉程度的堆叠柱状图,表示为总受访者池,然后按专业角色分类。按非常熟悉或极其熟悉的降序排列,这些角色是c级、经理、职员和教师。

说到对生成式人工智能的看法,也不全是吃不到葡萄说葡萄酸。超过一半(54%)的受访者表示,他们总体上对生成式AI持乐观或非常乐观的态度,只有12%的人认为自己悲观或非常悲观(见图3)。脚注3.当被问及对人工智能的看法时,一小部分受访者(3%)选择了“其他”。这些受访者普遍认为自己是谨慎或担忧的。

图3。生成式AI的一般倾向
受访者对生成式人工智能的一般倾向的堆叠柱状图,表示为总受访者池,然后按专业角色分类。在整个调查池中,12%的人悲观或非常悲观,28%的人中立,54%的人乐观或非常乐观。悲观程度从高到低依次为:教师、职员、主任和c级。

一些受访者描述了一种复杂的感觉,一位受访者恰如其分地总结为“遍布地图”。脚注4

谨慎,因为它可能会被滥用。

不是很感兴趣。只是一个闪亮的新玩具。

关键:看到与之相关的好处和挑战。

这是高度乐观和一些不安的结合。

很好奇它会如何影响高等教育的未来。

我对这项技术本身持乐观态度,但对它在教育和社会中的应用持悲观态度。

教师受访者对生成式人工智能最为悲观。超过四分之一(28%)的教师受访者表示,他们对这项技术感到悲观或非常悲观,而只有9%和10%的c级领导和经理表示他们感到悲观或非常悲观。这些差异可能与领导者报告更熟悉生成式人工智能有关。熟悉这个工具可能会让人更加乐观。相反,对一项技术更乐观的人可能更倾向于寻求相关的知识和经验。总的来说,教师和其他利益相关者之间的差异表明,有必要就这种新兴技术对高等教育当前和未来的影响进行更多的合作讨论。

领导者们正在与其他领导者讨论生成式人工智能。我们询问了机构领导人,他们在多大程度上参与了与机构其他领导人关于生成式人工智能的对话。领导者们显然在相互讨论如何使用、支持和规划生成式人工智能。绝大多数(90%)的经理和c级领导者表示,他们至少会与其他领导者讨论生成式人工智能,四分之三(75%)的经理和c级领导者表示,他们正在进行一些、相当多或大量的讨论(见图4)。

图4。领导者在多大程度上参与到与其他领导者的讨论中?
堆叠柱状图,表示领导者与其他领导者讨论生成式AI的程度。回答完全没有(10%)、很少(15%)、有些(40%)、相当多(27%)和很多(9%)。

数据:当前状态

生成式人工智能已经开始影响教学。问13机构地区目前正在或可能影响生殖AI, 54%的受访者表示,这些领域的一个或多个被影响了,而令人惊讶的是,46%的没有看到当前影响这些区域(参见图5)。事实上,几乎一半的受访者没有报告任何当前的影响可能是由于生殖AI的速度赢得了关注,除了许多机构仍在早反应模式。在那些确定当前影响领域的人中,最常选择的是与教学和教学支持相关的:本科教学(37%),教学和学习中心(32%),教学技术(31%)和研究生教学(30%)。

图5。目前正在受到或可能受到生成式人工智能影响的制度领域
目前或可能会受到生成式人工智能影响的机构领域列表。按降序排列,这些领域分别是本科教学、教学技术、教学与学习中心、信息技术、研究生教学、教师发展、教师研究、学术事务、学生事务、机构研究、招生、机构运营和财政援助。

每个人都想知道更多。受访者被要求描述这些领域目前如何受到生成式人工智能的影响。大多数受访者表示,最近对生成式AI的关注激增,导致了大量问题和持续的讨论。教师们想知道在他们的课程中实施什么政策,以及有什么支持。在整个学院,领导、教职员工和IT部门都在询问有关课程和评估设计、剽窃检测和学生不当行为的问题,以及对教学之外的更广泛影响:

我试着想一个简洁的陈述,把所有的东西都捕捉在一个镜头里,但我不能……每个人都在试图弄清楚如何应对生成、检测、成本、(学生和教师的)培训以及奖学金……所有这些都是同时发生的。

学生们,也许还有大学社区内外的其他人都在使用它,教师和行政部门也在积极地和批判性地对它做出反应。如果“没有”其他的话,整个社区的人们花费了大量的时间来探索和讨论它,以至于它已经分散了教学和学习的注意力。

目前,校园里正在讨论如何最好地将生成式AI融入教学、学习和研究环境。教师们希望从像我这样从事教学和新兴技术工作的人那里学到更多东西。

教学技术正在关注我们机构中广泛受众的影响,以及评估对当前实践的影响。

在LMS或支持的教育技术中,对抄袭检测的要求越来越多。教师对如何利用生成式人工智能进行教学越来越感兴趣(即,在与学生交流/反馈课程材料/评估时生成常见问题)。对于如何将频繁的通信自动化(例如,推送电子邮件/文本/聊天)以供部门使用,人们的兴趣越来越大。

现在,它需要大量的注意力和专注。我所在的IT部门带头举办了全校范围内的讨论会议,一个合作单位(教学中心)围绕政策语言创建了资源,特别是教学大纲。

有些人积极主动,伺机而动。已经采取措施解决生成式人工智能使用问题的机构在方法和反应上各不相同。一些人正在拥抱生成式人工智能的机会,将其纳入课程或利用它来提高工作效率:

(我所在的大学)开展了六项关于将人工智能和生成式人工智能整合到所有领域的研究。我们教学生如何负责任地使用AI艺术生成器和ChatGPT-3,并为他们在未来的成功做好准备。

我们目前正在使用ChatGPT作为计算机科学本科教学的一部分。我们的教学中心已经在收集信息和生成资源,以帮助教师做出明智的决定。

我们一直在使用(一个商业人工智能程序)来帮助我们的学生通过探究式学习写出“更好的问题”,我们正在采用他们的写作工具来帮助学生掌握机制,并协助教师评分。我正在使用各种人工智能来协助完成多项任务。

我们的课程管理系统正在考虑实施/整合ChatGPT。

我们的远程教育正在使用聊天机器人来帮助远程学生解决行政问题。我希望我们的IT服务台可以利用聊天机器人来帮助解决IT问题。

人工智能已经被用于减少警惕疲劳。我认为这是一件好事。

作为教师,我已经在使用它来帮助开发课程主题。我用它来帮助设置服务器技术,并编写代码来帮助开发课程资源,这比我必须依赖传统方法要快得多。

现在要了解学生、教职员工如何使用生成式人工智能的一切还为时过早。受访者被问及,据他们所知,学生是如何使用生成式人工智能的。大多数人表示他们不知道(55%)(见图6)。对于那些确定了学生使用的领域的人来说,最常见的用途是在编辑后提交生成的材料(29%),构思(27%),娱乐(27%),以及未经编辑提交生成的材料(23%)。

图6。学生如何使用生成式AI?
学生使用生成式人工智能的活动列表。按降序排列,活动是不知道(55%)、编辑后提交生成的材料(29%)、构思(27%)、用于娱乐(27%)、未经编辑提交生成的材料(23%)、完成为生成式人工智能使用设计的作业(19%)、进行评估(15%)、回答多项选择题(13%)和其他(6%)。

我们还询问了受访者,据他们所知,教职员工正在使用或计划使用生成式人工智能。同样,大多数人表示他们不知道。对于学生的学习活动,53%的人选择了“不知道”,对于教职员工的活动,52%的人选择了“不知道”(见图7)。那些知道在学生学习活动中使用生成式人工智能工具的人表示了课堂活动(24%)、讨论提示(22%)、家庭作业和课程作业(22%)。对于教职员工的活动,一些受访者表示,教职员工已经或正在计划将这些工具应用到编写电子邮件(24%)、代码(23%)以及报告、手稿和提案(21%)等活动中。

图7。教职员工如何在学生学习活动和教职员工活动中使用生成式人工智能?
教师和员工使用生成式人工智能的活动列表,分为学生学习活动和教师/员工活动。按降序排列,学生的学习活动是不知道(53%)、课堂教学活动(24%)、讨论提示(22%)、家庭作业和课程作业(22%)、评估(13%)、学习指南(11%)、无(9%)和其他(5%)。按降序排列,非教学活动是:不知道(52%)、写电子邮件(24%)、写代码(23%)、创建教学内容(21%)、写报告、手稿和提案(21%)、编辑人工创建的内容(19%)、专业学习(19%)、写作以外的研究活动(16%)、生成非文本内容(16%)、语言间翻译(11%)和其他(6%)。

当谈到人工智能如何生成以及应该如何使用时,它是一个混合的包。受访者描述了学生、教师和工作人员使用生成式人工智能的各种其他方式。正如一位受访者解释的那样,“没有限制。”

学生

  • 住宿和交通便利
  • 辅导或课程内容理解
  • 进行研究
  • Résumé写作和职业发展
  • 改进现有工具,如导师机器人

教职员及职员

  • 评估其他人工智能工具
  • 包括在学习目标中“明智地使用”人工智能工具
  • 制度研究
  • 学生支持服务(例如,建议)
  • 网站内容
  • 营销材料
  • 推荐信
  • 恶意软件分析

在如此多的不确定性中,有一点是明确的,即机构利益相关者仍在努力应对生成式人工智能,尚未就如何使用它甚至达成共识是否它应该被使用。然而,尽管有一些担忧,这些数据表明,使用这些工具的人是在投机取巧,以各种创造性的方式使用它们:

一些教师让学生接触(生成式人工智能),而另一些教师则告诉学生,他们使用这种技术将得到零分,(将)被推荐给(院长)。

一些教职员工可能会使用它,但人们对它保持沉默,因为许多人害怕它,认为它是作弊。这种声音淹没了那些认为使用它有助于提高数字素养的声音。

据我所知,我们没有计划这些,因为我们有深刻的道德担忧,因为我们是技术的同谋,而这些技术的发布却不考虑它们对社会的影响。

数据:规划未来

在未来,影响将超越学术诚信。尽管受访者表示,目前受到生成式人工智能影响的大多数领域都与教学有关,尤其是学术诚信问题,但他们总体上认为,我们询问的13个机构领域未来都会受到更强烈的影响。虽然只有54%的人认为这些领域中的一个或多个目前正在受到影响,但85%的人表示,这些领域中的一个或多个未来将受到影响(见图5)。近一半的受访者表示,信息技术(IT)(52%)、教师研究(51%)、教学技术(49%)、学生事务(47%)、机构研究(46%)、招生(46%)、教学和学习中心(46%)、以及教师发展中心(41%)未来可能会受到生成式人工智能的影响。

受访者还被要求描述他们的机构领域或单位在未来将如何受到生成式人工智能的影响。虽然许多人指出,教学问题仍将是最重要的,但他们也认为生成式人工智能将融入并影响该机构的其他领域,这表明每个人都需要做好准备:

人工智能不会去任何地方。我们必须适应它,越早适应,它造成的损害就越小。

很难想象某种形式的生成式人工智能不会触及机构的每一个领域。从数据挖掘到决策预测、假设分析、营销材料等……所有人都可以而且应该准备灵活和创新,而不是盲目地退缩。

随着ChatGPT功能进入[常用软件],所有行政领域都将受到影响。无论他们是否有意识,行政人员都将使用人工智能功能。研究人员将开始使用人工智能来帮助他们分析和探索数据集。IT专业人员将遇到自我监控和更新硬件和软件工具。教师们将开始使用人工智能来减少生成问题和作业的时间,并创建更多个性化的提示。

任何需要个人就定义明确的主题撰写回应或评估的领域都会受到影响。

政策计划正在制定中,但广泛的变化(目前)还不明显。受访者被要求描述他们的机构正在开发哪些类型的生成式人工智能政策(如果有的话)。许多人说,他们不知道,或者目前没有制定相关政策。对于那些意识到可能的政策变化的人来说,许多人表示他们的机构目前正处于讨论和规划的早期阶段,作为其中的一部分,正在审查现有的政策和规划,或者已经实施了一些使用生成式人工智能的一般指导方针和最佳实践,特别是在与学生使用生成式人工智能完成课程相关的领域:

似乎现在大家都在关注作弊。非常失望。我们失去了培养批判性思维技能的机会,因为教师们担心他们10年前的考试会受到影响。

关于如何在我们的学术诚信政策中使用这些工具,我们还处于非常早期的讨论阶段。

审查学校目录、学校网站、LMS中现有的学术诚信声明等(确保“无授权协助”的概念不只是“人力”协助,也包括人工智能或技术协助)。

我们还没有制定政策,只是就最佳使用提出建议(以及在必要时避免使用的方法)。

我们的教学中心已经起草了样本语言,供教师根据他们对人工智能工具的接受/拒绝,将其纳入教学大纲。

(我们)首先致力于荣誉代码集成,这是必要的,但主要是转移注意力。关于如何使用该工具的附加指导方针,而不是否认它的使用,将是关键。

最佳实践落在教师和学生的肩上。一些受访者表示,关于生成式人工智能的政策被留给了教师,让他们把这些政策融入到他们的课程中,然后鼓励学生遵循这些政策:

没有一个;这是由个别教师制定他们自己的课程政策。

据我所知,相关政策尚处于起步阶段。基本上,我们现在告诉学生,不要在提交的作业中使用人工智能。

学院执行委员会决定,不需要制定整体政策,但每个教职员工都应该考虑到人工智能问题,并在教学大纲中提及他们的方法。

由于机会与风险交织在一起,这就交给了教师。然而,有教师发展资源来支持教师的发现和选择。

共同的挑战

调查显示,生成式人工智能最令人担忧的是……等等……作弊。我们要求受访者从一份关于生成式AI的担忧领域列表中进行选择。绝大多数人(87%)关心至少四个方面。与受访者对生成式人工智能当前影响的评论一致,最受关注的领域是学术诚信(75%)(见图8)。大多数受访者还表示,他们担心生成式人工智能的产出,包括过度依赖或信任产出(68%),不准确的产出(68%),以及人工智能生成的内容与人类生成的内容变得难以区分并取代人类生成的内容(60%)。许多受访者还对政策(58%)和数据隐私和安全(58%)缺乏最佳实践感到担忧。少数受访者(5%)指出了其他挑战,包括:

过分强调执行和惩罚

恐惧压倒政策,而不是将其视为积极的挑战

错位的担忧,两极的过度反应(接受或拒绝)

参与其中的每个人都需要提高他们的数字灵活性,以便有效和安全地使用这些工具。

图8。与生成式AI使用相关的最大担忧
受访者对生成式人工智能的担忧从高到低依次为:学术诚信(75%)、过度依赖或信任产出(68%)、产出不准确(68%)、人工智能生成的内容与人类生成的内容难以区分并取代人类生成的内容(60%)、缺乏最佳实践或政策(58%)、数据隐私和安全(58%)、法律问题(55%)、多样性、公平性和包容性(53%)、对学生学习的负面影响(52%)、缺乏培训或支持(44%)、培训数据的道德采购(44%),失业(15%),现有工作角色的不受欢迎或不受欢迎的变化(15%),其他(5%),不知道(1%),没有(1%)。

展望政策和支持。虽然学术诚信是目前最紧迫的问题,但许多受访者表示,生成式人工智能的影响将在未来被机构的大多数领域感受到,并且在多样性、公平和包容(DEI)、对学生学习的整体影响、围绕数据的道德问题、法律问题以及缺乏培训、支持和政策等领域将面临广泛的挑战。很难知道人工智能的生成能力会有多强。为了做好准备,对话需要集中在生成式人工智能的更广泛影响和潜在用途上,领导者需要确保每个人都有发言权。如果生成式人工智能继续存在,高等教育利益相关者将需要集体参与政策问题,并为使用这些工具的人提供支持和方法。重要的是要记住,这仍然是非常早期的——学生们是ChatGPT的早期采用者,在学生们开始使用它之前,教师们几乎没有时间调整他们的教学策略。战略规划需要时间,而且可能是一个反复的过程。一位与会者指出:

制定政策和帮助教师对这项技术做出反应需要大量的时间。人们总是把它和计算器作比较——但是计算器并不是在学期的最后一篇论文中,在其他人有机会参与和回应它之前,才被交到学生手中的。

有前途的实践

生成式人工智能为高等教育的未来带来了真正的潜力。我们要求受访者从与生成式人工智能相关的机会列表中进行选择。大多数人(81%)从列表中选择了两个或两个以上的项目,超过四分之三(77%)的人确定了提高人类工作效率的潜力(见图9)。受访者还认为,生成式人工智能可以用于开发或改进个性化和自适应教学工具(59%),并提高人类工作质量(51%)。总体而言,受访者对未来的机会相对乐观:不到1%的人认为生成式AI不提供任何机会。4%的受访者还指出了其他领域的机会。其中,许多人认为生成式人工智能可以用来帮助激发好奇心,促进创造性的努力和学习过程:

我希望它能把人们的求知欲从默默无闻中拉回来(在这个从教学到考试的时代)

学生有机会分析技术的输出,以加强他们的学习。

又一次将我们的教育模式转变为基于过程、真实、反思和有意义的教育模式的机会。

让人们专注于其他更人性化和/或创造性的努力。

激发创造力和摆脱困境的新方法。

图9。与生成式AI使用相关的最大机会
与生成式人工智能相关的机会从高到低依次为:提高人类工作效率(77%)、改进或新的个性化和适应性教学工具(59%)、提高人类工作质量(51%)、改进或新的通用或终身学习资源(45%)、改进或新的职业培训或专业学习机会(44%)、新形式的艺术或娱乐(37%)、劳动力扩张(29%)、不知道(6%)、其他(4%)和没有(1%)。

进一步了解并与社区进行讨论。也许我们所拥有的最有希望的做法是与我们的同事进行协作讨论。齐心协力,我们就能把握新的机遇。EDUCAUSE一如既往地为您提供支持。我们在下面整理了一份资源列表,我们鼓励所有社区成员通过我们的网站跟上这个快速发展的话题连接社区团体,例如:教学技术,教学设计,混合在线学习,而且CIO。

EDUCAUSE资源

社区资源

我们从生成式AI中的紧急工作中策划了这个列表。我们很高兴能分享我们社区的集体智慧。请注意,这些资源中的许多都是实时的共享文档,我们不能保证它们的持久性。

所有的快速投票结果都可以在EDUCAUSE QuickPolls网页。有关高等教育信息技术研究和数据的更多信息和分析,请访问EDUCAUSEEDUCAUSE研究笔记专题频道,以及EDUCAUSE研究网页。

笔记

  1. QuickPolls没有EDUCAUSE调查研究那么正式。它们在一天内收集数据,而不是几周,并允许及时报告当前问题。这项调查于2023年2月6日至7日进行,由15个问题组成,共有1070份完整回复。调查由EDUCAUSE工作人员分发给相关人员EDUCAUSE社区团体而不是通过我们的企业调查基础设施,我们无法将响应与特定的机构联系起来。我们的样本代表了一系列机构类型和FTE规模。跳到正文中的脚注1。
  2. 那些表示从未听说过生成式人工智能的受访者不被允许回答任何其他问题,也不包括在最终的受访者人数中。跳到正文中的脚注2。
  3. 请注意,百分比已经四舍五入到最接近的整数,有时会导致总和略高于或低于100%。跳到正文中的脚注3。
  4. 为了可读性和保密性,开放式回答被略加编辑。跳到正文中的脚注4。

妮可Muscanell是EDUCAUSE的研究员。

Jenay罗伯特是EDUCAUSE的研究员。

©2023 Nicole Muscanell和Jenay Robert。本作品的文本是根据a授权的创作共用BY-NC-ND 4.0国际许可协议。