微软研究院与剑桥大学合作,研究了AI对批判性思维的影响,发现过度依赖生成式工具会减少人们使用自己的批判性思维。
研究聚焦于生成式AI和知识工作者,即经常使用大模型工具进行案头工作的人群,共有319名知识工作者参与,他们每周至少使用一次AI工具,如ChatGPT、微软的Copilot和Google的Gemini,总用例达到936个。
当前的GenAI工具特别擅长处理文书类任务,研究人员将这些任务分为三大类和九小类,基本覆盖了大多数场景,如润色邮件、总结内容、提取要点和精准查询等。
使用AI的目的是提高效率,减少繁琐工作的时间,例如,程序员用Claude写代码,外汇交易员用ChatGPT生成交易策略,老师用Dall-E制作学校洗手教程的图片,用户的工作从“零帧起手”转变为“监督学习”,AI负责生成内容,用户负责修改和提出意见,直到满意为止。
AI在处理事务型任务时表现优异,容易让人掉以轻心,除非结果特别离谱,否则很多人会放心将任务交给AI,这种对AI的信任和认可,使用户不愿意反思和复盘工具的使用。
研究人员提出了一个问题:在与AI合作完成任务时,是否会调用自己的批判性思维?这里的“批判性”来源于英文的“critical thinking”,指对事实、证据、观察和论据进行分析的过程,研究中的“批判性”有更明确的定义:
1,审视自己的需求和意图,确定需要AI参与的地方。
2,设定明确的目标。
3,通过主观标准验证信息和验收质量。
这三点对应了批判性思维的三个核心构件:意识、动机和能力,当缺乏这些时,依赖AI可能导致认知思维退化。
研究最重要的发现是,影响调用批判性思维的决定因素不是任务类型或模型的强大程度,而是人对AI的信任程度,在强大的模型面前,人们容易产生自我怀疑,认为自己的知识和反应速度不如AI,这种对AI的认可,使人们将重要任务交给AI,不再过问。
依赖工具可能使人变蠢,类似的说法并不新鲜,最著名的研究是关于出租车司机使用导航后大脑海马体的变化,上世纪60年代,人们发现海马体与空间记忆密切相关,英国神经学家研究发现,新手司机在熟悉伦敦空间后,海马体明显变大,而退休司机的海马体则在缩小,后来的研究发现,使用GPS时,海马体不会活跃,只有自己思考路线时才会被激活。
需要注意的是,出租车司机的海马体本身异于常人,退化只是回到普通人的均值,并非恶性萎缩或损伤,这些研究强调了锻炼大脑的必要性,越依赖工具,越少调用自己的判断和认知,认知退化后,更难发现错漏,只能越来越依赖工具。
但这并不意味着要与AI工具一刀两断,在工具普及的今天,完全避开AI是不可能的,回到“意识”“动机”和“能力”方面,只要建立不完全依赖AI的意识,不过分放手,“3R原则”是一个值得尝试的日常练习:
1,Review 强制复查:对AI返回的答案、代码、方案进行至少两次修改,拒绝复制粘贴。
2,Reverse 逆向训练:每周完成一次“0生成纯天然”的基础任务,如提炼摘要、读书总结、播客总结,即使AI做得更好,也坚持自己做一遍,并与AI的版本对照,观察自己的思路是否需要增补,以及AI容易在哪些地方出错。
3,Reconstruct 重构输出:将AI生成的内容重新解构,用工具生成思维导图是常见用法,但思维导图是高度提炼的内容,许多信息被“折叠”了,Reconstruct的要点在于拆解AI的长篇大论,建立独一无二的思维导图。
“变蠢”可能是一个简单的说法,但背后隐藏着一个朴素的道理:用进退废,批判性思维的减少与对AI的信任有关,提高批判性思维,不如从更相信自己开始。