将认知负荷卸载给大型语言模型(LLMs)所带来的即时舒适感,从长远来看,可能对我们并非全然是好事。认知负荷本应存在,如果过度削减,甚至停止思考,我们实际上可能会逐渐丧失独立思考和解决问题的能力。
这种情况在日常生活中屡见不鲜。例如,那些总是选择捷径、抄袭作业的学生,最终往往会对学校所学一无所知。又如,一个习惯将所有账单和银行事务交给配偶处理的人,有朝一日可能连简单的支付都无法独立完成。而一个从不费心记住街道名称或路线的人,一旦手机没电,便会感到迷失,甚至不知如何回家。
这与纳西姆·塔勒布(Nassim Taleb)在其富有洞见的著作《反脆弱》(Antifragile)中探讨的“顺应性”(hormesis)理论不谋而合。该理论的核心思想是,适量的压力或不适,反而能使我们变得更强大、更有韧性。
- 肌肉通过举重训练而增长。
- 免疫力通过适度暴露于病原体而建立。
- 自信通过承担风险而增强。
- 技能通过反复练习而磨砺。
- 创造力通过解决难题而拓展。
心智的运作机制亦是如此。思考过程中遇到的摩擦,寻找恰当词语时的笨拙挣扎,这正是我们进行“精神举重”的方式。这种认知努力对于大脑的成长和维持至关重要。
或许可以引入一个稍有不同但精神内核相似的例子——“破窗理论”。该理论指出,可见的混乱迹象,如涂鸦、垃圾或破损的窗户,会传递出一种被忽视和容忍的信号,从而削弱非正式的社会控制,并进一步诱发不当行为乃至严重的犯罪。换言之,小裂缝若不及时修补,最终可能演变为巨大的断层。对大型语言模型的持续依赖,有可能将我们推向更深的深渊,直到我们把所有的思考都外包出去,最终沦为徒有其表的生物傀儡。
近期的一项研究为此提供了实证支持。在这项实验中,参与者被分为三组:
- 纯脑力组:不借助任何辅助,独立撰写文章。
- 搜索引擎组:使用谷歌搜索引擎辅助写作。
- 大型语言模型(LLM)组:完全依赖ChatGPT撰写文章。
研究结果引人深思:
- 在LLM组中,高达83%的参与者在写作后不久无法引用自己文章中的任何内容,而其他两组的参与者几乎都能做到这一点,显示出记忆保持能力的显著差异。
- 那些从LLM辅助写作转向独立写作的参与者,其大脑的神经活动显著减少,并持续处于低度参与状态,表明长期依赖可能改变大脑的工作模式。
- 相比之下,从纯脑力组转向使用LLM的参与者,却保持了强大的记忆回溯能力,并表现出与搜索引擎组相似的神经激活模式,这暗示着先前的独立思考习惯对认知功能有保护作用。
研究者们为此创造了“认知负债”(cognitive debt)一词来描述这种权衡:人工智能辅助带来的即时便利,可能以牺牲长期认知能力为代价,例如批判性思维、记忆力和创造性自主权。这就像你从机器借用了精神能量,但需要支付利息——当你的自身思考能力削弱时,这种代价就会在日后悄然显现。
我常常告诫我的孩子们:大型语言模型固然是强大的工具,但务必明智使用。不要让它直接为你解决数学问题;相反,先给出你自己的解决方案,然后让它解释你可能出错的地方。从独立思考开始,再结合人工智能进行验证和完善,将更有益于认知发展。这就像核能一样——你可以将其用于大规模杀伤,也可以作为清洁的动力来源。关键在于如何运用。
持续依赖AI工具可能会削弱我们的学习、记忆和创造力。不适感绝非仅仅是烦恼,它更是一个磨砺心智、提升能力的训练场。
因此,我们应当主动寻求不适,拥抱挑战,并鼓励自己在面对认知摩擦时坚持下去。