Skip to content

工具的使用上限,取决于认知结构

约 3032 字大约 10 分钟

2025-12-11

最近为了准备一些关于生成模型的分享,我尝试让 AI 帮我写讲稿。本来以为这会是一件轻松的事情——毕竟它写文章、写代码、写报告似乎无所不能。结果却完全不是这样。

我希望讲稿既要有数学味道,又不能太晦涩;逻辑要连贯,同时内容要收放得当。AI 给出的版本看似内容丰富,但不是数学不够严谨,就是数学堆得让人窒息;不是结构松散,就是逻辑跳跃。调提示词、改要求、换风格,我试了很多次,效果依然差强人意。

可是,奇怪的事情发生在另外的场景中:当我让 AI 辅助我熟悉的科研问题,或写我熟悉的代码时,它却表现得像是“最懂我的那个人”。我只要给一句话、一个方向,它就能补全推导、填充结构,甚至在代码部分,常常只需要几分钟,我就能得到一个可以直接跑起来的完整示例。

同一个模型,为什么会在不同场景下呈现出完全不同的能力?

我后来反复琢磨,才真正意识到背后的关键: 工具的使用上限,受限于使用者的认知结构。


当我在一个熟悉的领域里工作时,我知道问题的边界在哪里,也知道合理的思路是什么样子的。在科研推导中,我能判断一个假设是否站得住脚,也能知道哪一步需要验证、而哪一步可以略过。因此,AI 给出的结果我改几下、引一引,它就能迅速贴合我的意图。

写代码更是如此。只要我熟悉某个技术栈,AI 就像一个配合极其默契的搭档——我知道想要的结构、知道哪些 API 合理、知道风险在哪里,于是在简单的几句引导下,它写出来的代码自然不会偏离太远。我甚至可以边聊天边让它生成一个小工具、一个 demo,用起来非常顺手。

但一旦换到我不熟悉的技术栈情况就完全不同了。面对我还没掌握的领域,比如某些后端系统的开发,我发现自己连最基本的问题拆解都做不到位。我给 AI 的需求常常模糊不清;它写出的代码我无法立即判断对错;当我让我它修改时,也常常不知道应该从哪里下手。最后的结果往往是一个结构混乱、不能运行的“伪代码集合”。

看似是 AI 不够强,其实恰恰相反:它正在严格地“复刻”我在这个领域的认知结构——混乱在哪里,它的产出就混乱到哪里;缺口在哪里,它的内容就断裂在哪里。

AI 永远无法超过提问者的结构性认知边界。

这也让我更清楚地理解了,为什么 AI 辅助学习通常非常有效,而 AI 辅助教学却容易让人失望。

学习的时候,你只需要判断“我懂不懂”。AI 给出一个解释,你能辨别它有没有帮助;你能跟着它的思路逐渐补齐理解;如果哪里不对,你能及时进行修正。

但教学完全不同。教学要求你建立一套别人能懂的结构,而不是给你自己看的结构。你必须知道先讲什么、后讲什么;知道什么可以略过、什么必须讲清楚;知道听众的水平大概在哪里;知道数学应该到什么深度才恰到好处……这些判断依赖的是你对整个知识树的把握。

换句话说,如果你自己的框架还没搭建完整,AI 是无法替你搭建的。它甚至不知道你的框架应该是什么样子。最终的内容当然只能在你的“半成品结构”里来回碰壁。

这样的例子其实生活中处处可见。

不会画画的人,即便使用最强的绘图软件,也无法在屏幕上画出令人惊艳的作品。不是软件不够强,而是你不知道什么是好的构图,也不了解光影、风格和色彩的关系。

不会摄影的人,即便拿着最贵的相机,也拍不出好照片。真正决定成片质量的是你是否理解光线、是否具备观察能力,而不是你按下快门的那台设备。

不会做演示的人,即便使用最高级的 PPT 模板,最终做出来的也只是一个“好看的混乱”。因为逻辑的层级、信息组织的顺序、表达的动线,这些都是结构性能力,是模板所无法提供的。

甚至在编程上也是同样的道理。不会编程的人,就算有 Copilot,它也只能生成看似正确但完全不可维护的代码。模型不会替你做模块拆解,不会帮你搭架构,也不会教你如何抽象问题。

无论是绘画、摄影、PPT 还是编程,工具本身都极其强大。但如果缺乏结构,工具只能忠实地反映你的混乱。

回头看这段经历,我越来越确信:工具不是替代者,是放大器。

它能放大你的理解,也能放大你的盲点; 能放大你的清晰,也能放大你的混乱; 能放大你的结构,也能放大你的缺陷。

要想真正用好工具,关键从来不是写更巧妙的提示词,也不是追求更先进的插件,而是构建更稳定的认知结构。当你的结构成熟以后,工具才会真正发挥出它的全部价值;而当结构尚未成型时,工具也只能困在你的边界之内。

结语

所以最终我明白:AI 的表现从来不是模型本身的上限,而是我能提供的结构的上限。

与其期待“AI 帮我更好地教学”,不如把“教学”本身当作构建结构的过程。当结构逐渐清晰,工具自然会变成你的倍增器,而不是你的阻碍。

这也是我最近这段学习旅程中,最深刻的一次感悟。