AGI 反脆弱层竞争:OpenAI、Anthropic 与开发者的现实建模能力
我对 AGI 新趋势的判断:上游训练通用智能,下游开发者训练现实可读性,竞争核心已转向反脆弱执行系统。
AGI 的新分工:大厂训练智能,开发者训练现实#
这两个月我越来越强烈地感觉到,AGI 时代里“做 AGI”和“造 AGI”的边界正在重画。
以前我们常把它理解成一条线:OpenAI、Anthropic 训练更强模型,开发者调用 API,把能力封装进应用。这个说法没错,但已经不够用了。真正决定分水岭的,不是谁离模型更近,而是谁在训练“通用智能”,谁在训练“现实可读性”。
我的判断是:上游大厂在训练通用智能,下游开发者在训练现实世界如何被智能稳定执行。
从能力竞争转向反脆弱竞争#
过去一年,OpenAI 和 Anthropic 都在把“会回答问题”推进到“能在受控环境里连续做事”:工具调用、代码执行、长任务、上下文管理、权限边界、企业接入,这些能力已经不是孤立功能,而是在收敛成执行系统。
这意味着平台层竞争正在进入新阶段:不是谁 demo 更惊艳,而是谁在真实业务噪音里更反脆弱。
所谓反脆弱,不是“不出错”,而是“出错后系统变得更强”。
放到 AGI 产品上,反脆弱能力至少包括三件事:
- 错误暴露得足够早,而不是在业务尾部才爆雷。
- 回滚路径足够短,而不是靠人肉救火。
- 每次失败能沉淀成下一轮策略,而不是同类事故反复发生。
我觉得这会成为下一个 12-24 个月的核心热点。模型能力继续涨是确定的,但工程价值会越来越集中到“失败闭环”而不是“首次成功”。
大厂在做什么,开发者该补什么#
OpenAI、Anthropic 这类公司正在解决通用问题:推理、工具链、执行框架、默认安全、跨场景可迁移能力。这些是基础设施,应该由平台规模化供给。
开发者如果还把主要精力放在重复造一套同构底座,收益会越来越低。真正高杠杆的方向,是把具体业务改造成 AGI 可操作环境。
这件事我更愿意叫“现实建模”。
现实建模不是写几条 prompt,也不是接几个 API。它是把原本靠默契运转的系统,改造成可被机器理解、可被机器执行、可被机器纠错的结构化现场。
我自己在项目里观察到,决定效果上限的通常不是模型参数,而是以下问题:
- 代码库边界是不是清楚,还是到处隐式耦合。
- 工具权限是不是可解释,还是一堆历史特权。
- 测试是否表达业务意图,还是只验证“代码跑了”。
- 故障处理是否可复盘,还是靠当班同学记忆。
这些问题以前也重要,但在 AGI 时代,它们直接决定代理是否可用。
开发者“造 AGI”的未来形态#
我不认同“开发者会被 AGI 取代”这种线性叙事。更精确的说法是:只提供局部编码产能的角色会被压缩,能够重塑执行环境的角色会升维。
未来的开发者价值,会从“写实现”转向“设计可委托系统”:
- 给业务建立稳定语法,让模型理解对象、动作、约束和完成定义。
- 给执行建立可控边界,让代理能做事但不会越界。
- 给失败建立恢复通道,让错误成为训练信号而不是生产事故。
换句话说,我们不一定在训练 foundation model,但我们在训练一个世界,让 foundation model 在其中稳定工作。
这就是我理解的“开发者造 AGI”: 不是和 OpenAI、Anthropic 在同一战场拼参数,而是在现实战场拼结构化能力、可恢复能力、可持续交付能力。
我接下来会押注的三条工程主线#
为了不把这件事说成空话,我给自己定了三条明确主线:
- 场景语法化:把需求、流程、审批、异常抽成可计算对象。
- 运行时产品化:把工具、权限、日志、回滚做成默认能力,而不是项目附属脚本。
- 组织记忆机器化:把每次事故、修复、决策沉淀成可检索、可复用、可审计的执行记忆。
如果这三条线做不出来,模型再强,系统也只会停在“演示很好,生产很累”。
AGI 时代真正稀缺的开发者,不是最会追热点的人,而是最会把现实整理成智能可工作的秩序的人。
在我看来,这就是未来几年最硬的竞争力。