AI 时代,学习没有过时,只是重心变了
约 3249 字大约 11 分钟
2026-03-12
这段时间,我几乎每天都在用 AI 处理工作里的问题。有些事情以前我并不熟,现在往往只要把需求描述清楚,AI 就能很快给出一个起点。它大幅缩短了从“不会”到“先做出来”之间的距离,这种体验很容易让人觉得,很多旧有的门槛正在迅速失去意义。
但用得越多,我越感觉到另一层东西并没有被一起补上。事情能更快开始,不代表人对事情的理解也同步加深了;结果能先出来,不代表人因此就更知道该怎么判断它。也正是从这些具体体验里,我才慢慢意识到,AI 真正改变的也许不是“人还要不要学习”,而是“人到底应该学什么”。而这个问题,恰恰要从它压低门槛、却没有替我们建立判断力这件事说起。
AI把门槛压低了,但没有替我们建立判断力
我反复碰到的问题,并不是 AI 能不能把事情做出来,而是它把事情推到一定程度之后,人还能不能跟得上。任务比较浅的时候,AI 给出的结果往往已经足够像样,很多差异也不会立刻暴露出来。可一旦项目往深处走,事情变复杂,里面开始出现一连串需要取舍的细节,你就会发现,自己到底懂不懂,区别其实很大。
因为很多决定看起来只是一个参数、一个方案、一个实现路径,背后却对应着完全不同的后果。你如果不知道它们为什么成立,也不知道它们各自牺牲了什么,就只能把决定权继续交给 AI。它当然还能继续往下做,但那个过程已经不再是你在使用工具,而更像是你在跟着一个自己并不真正理解的答案往前走。
真正让人不安的地方就在这里。不是 AI 做不出来,而是你没有办法确认它做得对不对。它给出一个方向,你只能接受;它一旦偏了,你也很难把它拉回来。因为你自己对这件事并不熟悉,不知道应该盯住哪里,不知道哪些地方是关键,也不知道哪一种偏差会在后面放大成真正的阻碍。项目越大,这种失控感越明显。
看起来更强,不等于真的更强
AI 让很多人第一次拥有了“我也能做”的感觉。这种感觉并不虚假。一个原本不会写代码的人,的确可以借助 AI 搭出一个产品原型;一个不熟悉某项技术的人,也可能在 AI 的帮助下完成一次像样的尝试。从结果看,人的行动半径像是被一下子拉大了。
但这种“变强”有两种完全不同的含义。一种是,你拿到了一个更强的外部执行器,于是从前做不到的事情,现在可以做出一个轮廓。另一种是,你对这件事本身有足够扎实的理解,所以 AI 成了你手边的一台放大器。前一种力量很容易得到,后一种力量才真正稳固。它们看起来都叫“效率提升”,实际却不是一回事。
一个不理解细节的人,也可以用 AI 做出像模像样的东西;只是当事情继续往前推进,他会越来越依赖 AI 给出的默认方案。一个真正懂原理的人,处境正好相反。AI 不会替他思考,但会帮他把很多本来耗时的试错、实现和整理工作大幅压缩。于是他的能力不是被替代,而是被放大了。两个人都在用同一个工具,最后得到的却不是同一种自由度。
项目做得越深,提示词背后的功夫越重要
我这段时间陆续做过一些项目,越做越能感到一个很现实的事实:项目越大,越需要精确的引导。很多人把这件事理解成“提示词要写得巧”,但我后来越来越觉得,提示词并不是一种独立存在的技巧,它其实暴露的是你对问题理解到了什么程度。
在自己熟悉的领域里,这种差异非常明显。因为我知道问题真正难在哪里,也知道哪些约束不能碰,哪些地方可以放开,哪些建议听上去不错、但放到当前项目里会出问题,所以我能把要求提得很具体,也能一眼看出 AI 给出的方案值不值得继续推进。那种时候,AI 的确很好用,甚至有一种它在顺着你的思路加速奔跑的感觉。
可一旦换到自己没那么熟悉的领域,局面就会迅速反过来。你提出的问题本身可能就是模糊的,给出的上下文也不够关键,于是 AI 很自然地沿着最常见的路径往下走。它给的建议未必差,甚至经常比普通人的随手判断高出一截,但它不一定适合你的具体目标。问题在于,当你自己对那块内容缺少理解时,你往往连“不适合”都很难及时察觉。等项目推进一段时间,阻力才慢慢露出来。
这也是为什么我越来越不相信“只要会提问,就可以跳过学习”这种说法。会提问当然重要,但好的提问从来不是凭空出现的。你能问到哪里,取决于你已经理解了多少;你能把 AI 用到什么深度,也取决于你能不能为它划出边界。很多所谓高质量提示词,表面上是语言组织能力,背后其实是专业判断。
为什么 AI 往往先给出“均值答案”
这件事并不神秘。今天的大模型是从大量人类数据里训练出来的,它在默认状态下,更容易给出常见、稳妥、可被多数场景接受的答案。对于很多日常任务,这恰恰是它的优点。它可以迅速补齐入门门槛,让一个人不至于因为基础不足就完全卡住。
但如果你想做的不是“先做出来”,而是“做得贴合、做得深入、做出区别”,默认答案就不够了。因为均值答案天然倾向于熟路,倾向于已经被反复验证过的表达和方案。它很少主动替你承担那些需要基于具体场景做出的激进判断,也不会替你辨认一条少有人走的路是否值得尝试。那部分工作,还是要靠人来完成。
于是差别就出来了。不懂底层原理的人,更容易停留在对默认答案的接收上。他可以借助 AI 做出完整、顺滑、表面上没有明显问题的结果,但也很容易做出许多互相相似的东西。真正懂数学、计算机原理,或者更广泛地说,真正懂自己所做之事的人,会在很多细小的地方主动改写默认值:哪里该优化,哪里该取舍,哪里该保守,哪里值得冒险。AI 在这时才像是一件真正锋利的工具。
所以,AI 时代还要不要认真学习
绕了一圈,最后还是会回到学习这个问题上。AI 出现之后,人还需不需要学习那些基础知识,尤其是计算机和数学这类看上去“费时费力”的东西?我的答案是,需要,而且这种需要并没有因为工具变强而减少,只是学习的重心开始变化了。
有些过去必须靠反复记忆才能完成的事情,现在确实没有必要再用同样的方式投入精力。复杂的 API 调用格式、容易遗忘的语法细节、冗长而重复的计算过程,AI 都可以帮你快速补上。它在这方面带来的便利是真实的。既然工具已经能替我们承担一部分机械负担,人就不必还把大量时间耗在纯粹的死记硬背上。
但另一部分东西反而变得更重要了。你对原理有没有感觉,对一件事的来龙去脉能不能说清楚,面对一个方案时能不能判断它为什么成立、又会在哪里出问题,这些能力没有因为 AI 的到来而退场,反而更容易直接决定你和工具之间的关系。你是把 AI 当作一个给答案的外包者,还是把它当作一个能被你调动、约束、校正的助手,差别常常就在这里。
如果说过去的学习,很多时候是在积累“我会不会做”;那么现在的学习,更像是在建立“我看不看得懂”“我能不能判断”“我知不知道下一步该逼问什么”。表面上少背了一些东西,实际上对理解力和判断力的要求并没有降低。
连“怎么学”这件事,也会一起改变
再往前走一步,学习方式本身也在变。起初我以为,AI 对学习的帮助主要是在陪练层面。比如面对一个陌生主题时,它可以帮我先把问题摊开,帮我列出几个值得追下去的方向,或者在我卡住的时候,给出一个更容易理解的解释。这些能力都很有用,直到现在我也还在用。
可用得越多,我越觉得它的局限同样明显。AI 的解释通常很顺,很照顾理解门槛,也愿意把知识拆解得像是可以立刻吸收的样子。但顺和浅,很多时候是同时出现的。它给出的答案常常能帮助人快速入门,却不一定能把问题讲到真正严密的位置。你如果只停留在这种“听懂了”的满足感里,很容易误以为自己已经学会了,实际上只是接受了一版被处理过的、较为平整的说明。
以前我们学习,会去找好书,会去找水平高的老师。到了今天,这两个东西并没有失效。通用大模型本身并不会自动成为一个高水平老师,它输出什么,很大程度上取决于你给了它什么上下文,也取决于你怎样追问。它当然可以承担讲解者的角色,但前提是,你得给它足够好的材料,让它站在好的内容上说话,而不是让它凭借默认记忆去即兴发挥。
好书不会过时,只是它的用法变了
所以回到最后,我现在更愿意把 AI 看成一种新的学习接口,而不是知识本身的替代品。好书还是要读,扎实的参考资料还是要找,只是我们未必还需要像过去那样,从头到尾、逐字逐句地消化所有内容。很多时候,我们可以把一本真正好的书、一篇真正扎实的论文、或者一套高质量的课程材料,转化成 AI 的上下文,让它基于这些材料来讲解、比较、提炼和回答。
这样做的意义,不是偷懒,而是换一种组织学习的方式。人仍然要对材料本身负责,仍然要判断哪些内容值得相信,哪些解释只是说得顺口,哪些地方需要回到原文去看;只是 AI 可以把那种原本高度依赖个人耐心和整理能力的过程,变得更灵活一些。它未必能直接把你教会,但它有可能帮你把一位好作者、一套好教材,转成一种更贴近你当前理解阶段的讲述。
如果真要说 AI 时代的学习带来了什么变化,我觉得不是“人终于可以不学了”,而是“人得学得更像自己在掌舵”。工具把很多执行环节接过去了,于是理解这件事反而更不能交出去。你可以让 AI 帮你做很多事,但最后决定你能走多远的,还是你到底理解了多少,以及你能不能在关键的时候,自己做判断。
