一、核心悖论:效率越高,负担越重
AI确实让单个任务变快了——3小时的工作缩短到45分钟。但日子并没有变得更轻松,反而更难过了。
原因很简单:当每件事都花更少时间时,你不会做更少的事,你会做更多的事。
你的产出能力提升了,工作量就会膨胀来填满它。领导看到你干得更快,期望值就会调整;你自己看到自己干得更快,对自己的期望也会调整。基准线在悄悄移动。
以前,你可能花一整天思考一个设计问题——画画、散步、洗澡时想想,回来就有了清晰思路。节奏慢,但认知负担可控。
现在呢?你可能一天要处理六个不同的问题,每个只需一小时(因为有AI帮忙)。但在六个问题之间来回切换,对人脑来说代价极高。AI切换问题不会累,但人会累。
这就是那个悖论:AI降低了生产成本,却提高了协调、审核和决策的成本。而这些成本,全都落在人身上。
二、角色异化:从创造者变成审核员
工作性质的转变
过去:思考问题 → 写代码 → 测试 → 发布
- 你是创造者、建造者
- 这是大多数人选择这一行的原因——亲手把东西做出来的感觉
现在:写提示词 → 等待 → 阅读输出 → 评估输出 → 判断是否正确/安全/符合架构 → 修复 → 重新提示 → 循环往复
- 你变成了审核员、流水线上的质检员
- 这条流水线永远不会停
创造 vs 审核的心理差异
- 生成性工作:让人进入心流状态,充满兴奋感
- 评估性工作:只会带来决策疲劳
一位工程师在大量使用AI写微服务的一周里,到周三时发现自己连最简单的决定都做不了了——函数叫什么名字?无所谓。配置放哪里?无所谓。大脑满了。
不是因为写了太多代码,而是因为判断了太多代码。每天成百上千个小判断。
AI代码需要更严格的审查
同事写的代码:你知道他的习惯、强项、盲点,可以略读信任的部分,专注不信任的部分。
AI生成的代码:每一行都值得怀疑。代码看起来很自信,能编译,能通过测试,但可能以微妙的方式出错——只有在生产环境、高负载下、凌晨三点才会暴露。
你得逐行阅读那些你没写的、由一个不了解你代码库历史的系统生成的代码,这是非常累人的工作。
三、确定性的消失:与概率系统共存的焦虑
工程师在确定性中成长:相同的输入 → 相同的输出。这是契约,是调试的基础,是推理系统的前提。
AI打破了这个契约。
同样的提示词,周一用完美无缺,周二用输出结构完全不同——不同的错误处理模式,还引入了一个没要求的依赖。
为什么?没有原因。或者说,没有你能看到的原因。没有堆栈跟踪,没有日志说明模型为什么走了不同的路。它就是发生了。
对于一个整个职业生涯都建立在“如果坏了就能找出原因”之上的人来说,这是非常令人不安的——不是戏剧性的不安,而是一种缓慢的、磨人的、背景噪音式的焦虑。你永远无法完全信任输出,永远无法完全放松,每一次交互都需要警惕。
你是在和一个概率系统合作,而你的大脑是为确定性系统准备的。这种错配是一种持续的、低级别的压力来源。
适应的方式
那些最能适应的人,把AI输出当作一个聪明但不可靠的实习生写的初稿:
- 预期要重写30%
- 为重写预留时间
- 当输出是错的时候不会沮丧,因为从来没期望它是对的
- 期望的是它有用——这是不一样的
四、工具的狂飙:永远追不上的焦虑
过去几个月的变化节奏:
- Claude发布子代理、技能系统、Agent SDK、Claude Cowork
- OpenAI发布Codex CLI、GPT-5.3-Codex
- 新的编程代理宣布后台模式,可同时运行数百个自主会话
- Google发布Gemini CLI
- GitHub添加MCP注册表
- 收购每周都在发生
- 代理框架:CrewAI、AutoGen、LangGraph、MetaGPT……每周都有新的
- Google宣布A2A协议与Anthropic的MCP竞争
- OpenAI发布Swarm框架
- Kimi K2.5推出能编排100个并行代理的架构
这只是几个月的内容。
陷阱:追逐工具的代价
很多工程师陷入这个陷阱:周末评估新工具,阅读更新日志,观看演示,试图站在前沿,害怕落后。
结果:
- 周六下午设置一个新工具
- 周日有了基本工作流
- 下周三,有人发帖说另一个工具好多了
- 一阵焦虑袭来
- 下个周末,又在设置新东西,旧东西被闲置
一个编程助手换到下一个,再换到下一个,然后又回到第一个。每次迁移花掉一个周末,带来的改进可能只有5%,还没法准确测量。
你得到的是一个永远在学习新工具、从未在任何工具上深入的人。
知识的贬值
最糟糕的是知识的贬值。2025年初花两周构建的复杂提示词工程工作流——精心设计的系统提示、少样本示例、思维链模板——效果很好。三个月后模型更新,提示词最佳实践变了,一半的模板效果反而不如简单的一行提示词。
那两周就这么没了。不是投资,是消费。
更好的策略
与其追逐每一个新工具,不如深入工具下面的基础设施层。工具来来去去,但它们要解决的问题不会变:上下文效率、代理授权、审计追踪、运行时安全——这些是持久的问题。
建立在不会剧烈变化的层上,才是明智之举。
五、提示词螺旋:投入产出的陷阱
你想让AI生成一个特定的东西:
- 第一次输出70%正确 → 优化提示词
- 第二次75%正确,但打破了第一次正确的东西
- 第三次80%正确,但结构变了
- 第四次,已经花了45分钟,而你本可以20分钟从头写完
这叫提示词螺旋。
开始时你有清晰的目标。三十分钟后,你在调试提示词而不是调试代码,在优化给语言模型的指令而不是解决实际问题。
提示词螺旋特别危险,因为它感觉很有生产力——你在迭代,在接近目标。但边际收益递减得很快,而目标从来不是让AI产生完美的输出,而是把功能发布出去。
一条硬性规则
三次尝试:如果AI在三次提示词内不能让你得到70%可用的东西,就自己写。没有例外。
这条规则比任何提示词技巧都节省更多时间。
六、完美主义者的噩梦
工程师倾向于完美主义:喜欢干净的代码,能通过的测试,行为可预测的系统。这是优点,是让我们擅长构建可靠软件的原因。
AI输出永远不完美。
永远是差不多,七八成的样子:变量名有点不对,错误处理不完整,边缘情况被忽略,抽象对你的代码库来说是错的。它能用,但不对。
对完美主义者来说,这是折磨。因为差一点比完全错还糟糕——完全错了就扔掉重来,差一点却要花一小时去调整。而调整AI输出特别令人沮丧,因为你在修复别人的设计决策,而这些决策是由一个不分享你的品味、上下文、标准的系统做出的。
心态转变
作者学会了放手——不是放弃质量,而是放弃对AI会产出高质量内容的期望。
把每一个AI输出都当作草稿、起点、原材料。 这种心态转变让挫败感减少了一半。
在AI面前挣扎最多的工程师,往往是最好的工程师——那些标准最高的人,那些注意到每一个缺陷的人。AI奖励的是另一种技能:快速从不完美的输出中提取价值的能力,而不会在让它完美这件事上投入太多情感。
七、大脑退化:被外包的能力
这是最让人害怕的一点。
在一次设计评审会议上,有人让作者在白板上推导一个并发问题。没有笔记本,没有AI,就他和一支马克笔。他挣扎了——不是不懂概念,而是好几个月没有锻炼那块肌肉了。把初步思考外包给AI太久了,从头思考的能力已经退化。
就像GPS和导航:
- 有GPS之前,你会建立心理地图,了解你的城市,能推理路线
- 用了几年GPS之后,没有它你就不会导航了——技能退化了,因为你不再使用它
同样的事情正在AI和工程思维上发生。当你总是先问AI,你就停止了建立那些来自自己与问题搏斗的神经通路。挣扎是学习发生的地方,困惑是理解形成的地方。 跳过这些,你得到更快的输出,但更浅的理解。
补救措施
现在刻意让每天的第一个小时不用AI:
- 在纸上思考
- 用手画架构
- 用慢方法推理问题
感觉效率低,确实效率低。但它让思维保持敏锐,而这种敏锐在后面使用AI时会产生回报——当自己的推理热身好了,就能更好地评估AI的输出。
八、社交媒体的幻象:比较的陷阱
社交媒体上到处都是那些似乎已经搞定AI的人:分享工作流、生产力数据、“我用AI两小时就做了整个应用”的帖子。
然后你看看自己的经历:失败的提示词,浪费的时间,不得不重写的代码。你会想:我是不是有什么问题?
你没有问题。
那些帖子是精选集锦。没人发帖说:
- “我花了3小时试图让Claude理解我的数据库结构,最后放弃了自己手写了迁移脚本”
- “AI生成的代码导致了生产事故,因为它悄悄吞掉了一个错误”
- “我累了”
比较陷阱被放大
AI技能很难衡量。传统工程,你可以看看别人的代码,大致判断能力。用AI的话,输出取决于模型、提示词、上下文、温度、月相。别人令人印象深刻的演示,在你的机器上用你的代码库可能根本复现不了。
应对策略
作者从消费每个人的热门观点,转向专注于那些真正在构建和发布的人,而不是只在演示的人。
信号和焦虑的比例很重要。如果一个信息流让你感到落后而不是获得信息,它就没有在服务你。
九、真正有用的方法
1. 给AI会话设置时间限制
不再开放式使用AI。设定计时器——这个任务用AI做,30分钟。计时器响了,要么发布现有的,要么切换到自己写。同时防止提示词螺旋和完美主义陷阱。
2. 把AI时间和思考时间分开
上午用来思考,下午用来AI辅助执行。有默认结构意味着大脑能以正确的比例得到锻炼和协助。
3. 接受AI给70%就够了
不再试图得到完美输出。70%可用就是标准,剩下的自己修。这种接受是减少AI相关挫败感最大的单一因素。
4. 对炒作周期保持战略眼光
不再在每个新工具发布的那一周就采用。用一个主要的编程助手,深入了解它。当新工具经过几个月而不是几天的验证后,才评估。
保持信息灵通和保持反应式是不同的事情。
5. 记录AI在哪里有帮助,在哪里没有
保持两周的简单日志:任务,是否用了AI,花了多少时间,对结果的满意度。
数据很有启发性:
- 有帮助:样板代码、文档和测试生成
- 反而花费更多时间:架构决策、复杂调试和任何需要深入了解代码库上下文的事情
6. 不审核AI产出的每一行
如果你用AI生成大量代码,在物理上不可能以同样的严格程度审核每一行。
把审核精力集中在最重要的部分:安全边界、数据处理、错误路径。 其余依靠自动化测试和静态分析。非关键代码中的一些粗糙是可以接受的。
十、可持续性:当调节器消失
科技行业在AI之前就有倦怠问题。AI正在让它变得更糟,不是因为AI不好,而是因为AI移除了过去保护我们的自然速度限制。
在AI之前,你一天能产出多少有一个天花板——由打字速度、思考速度、查东西需要的时间设定。有时令人沮丧,但它也是一个调节器。你不能把自己累死,因为工作本身施加了限制。
AI移除了调节器。现在唯一的限制是你的认知耐力。而大多数人不知道自己的认知极限在哪里,直到已经冲过去了。
作者在2025年底倦怠了——不是戏剧性的辞职或崩溃,而是不再在意了。代码审查变成橡皮图章,设计决策变成AI建议什么就是什么。他在走过场,产出比以往任何时候都多,感受比以往任何时候都少。
花了一个月才意识到发生了什么,又花了一个月才恢复。
恢复不是关于少用AI,而是关于以不同的方式使用AI——有边界,有意图,有一种理解:
我不是机器,我不需要跟上机器的节奏。
十一、AI时代真正的技能
AI时代真正的技能是什么?
不是提示词工程,不是知道用哪个模型,不是有完美的工作流。
是知道什么时候停下来:
- 知道什么时候AI输出足够好了
- 知道什么时候该自己写
- 知道什么时候该合上笔记本电脑
- 知道边际改进不值得认知成本
- 知道你的大脑是有限的资源,保护它不是懒惰,是工程
我们为系统优化可持续性——添加熔断器,实现背压,设计优雅降级。
我们也应该为自己这样做。
结语
AI是作者用过的最强大的工具,也是最消耗人的。两件事都是真的。
在这个时代蓬勃发展的工程师,不会是用AI最多的人,而是用得最明智的人。
如果你累了,不是因为你做错了什么。而是因为这确实很难。工具是新的,模式还在形成,而行业在假装更多产出等于更多价值。
不是这样的。可持续的产出才是。
照顾好你的大脑。它是你唯一拥有的,没有任何AI能替代它。
评论
发表评论