AGI 人才栈重排:OpenAI、Anthropic 在造未来模型,我在造 AI 同事系统
2026 年的关键不只是谁先做出更强模型,而是谁先把 AI 变成可治理、可复用、可持续交付的机器劳动力系统。
AGI 人才栈重排:OpenAI、Anthropic 在造未来模型,我在造 AI 同事系统#
这周我在两个不同场景里听到同一句话:
“模型越来越强了,但团队为什么还是忙不过来?”
我自己的答案越来越明确: 2026 年的主战场,已经从“模型能力展示”转向“机器劳动力组织能力”。
OpenAI、Anthropic 这类公司在做的是“更接近 AGI 的能力底座”,而我们开发者真正的挑战,是把这些能力变成可持续、可复用、可治理的 AI 同事系统。
1)我看到的双线进展:造 AGI 和用 AGI,节奏都在加速#
过去我会把行业变化看成一条线:谁的模型更强。
现在我会强制拆成两条线:
- 造 AGI 的线:前沿公司持续拉高推理、工具使用、长任务稳定性上限
- 用 AGI 的线:团队把模型接进真实业务,解决交付、成本、可靠性
这两条线不是替代关系,而是耦合关系。 前者给上限,后者给结果。
如果只盯前者,很容易陷入“模型焦虑”; 如果只盯后者,又会在能力代际切换时掉队。
我现在的做法是:每次看新模型发布,第一反应不是“要不要立刻全量切”,而是先问三件事:
- 它能提高我哪一段关键链路的产能?
- 它会引入哪些新的不稳定点?
- 我是否有可回退路径?
2)开发者的新形态,不是“被替代”,而是“被放大后重组”#
我越来越不把“开发者未来”理解成一个二选一问题(被替代 or 不被替代)。 更真实的变化是:岗位正在被拆解、重组、再组合。
我目前在团队里最常见到的三类角色迁移:
- 实现者 -> 系统装配者:从写单点功能,变成维护一条端到端交付链路
- 代码作者 -> 约束设计者:把 prompt、工具权限、失败策略写成可执行规则
- 个人产出者 -> 多 agent 经理:管理“人 + agent”任务面板,而不是只管理自己待办
这不是“代码不重要了”,而是代码被放进更大的系统语境里。
3)我在做的 AI 同事系统:四层架构#
为了不被热点牵着走,我最近把实践固定成四层。它不是最先进,但足够稳定。
第一层:能力目录(Capability Catalog)#
- 把文本、代码、检索、结构化提取能力拆开
- 每种能力定义输入输出契约,不直接绑定单一模型
- 为关键能力准备候补模型和降级模式
目标是:能力可以升级,接口尽量不动。
第二层:任务编排(Task Orchestration)#
- 探索任务并行给多个 agent,收敛任务单线程归并
- 高风险动作(发布、删除、批量写入)强制串行并审批
- 关键步骤写入幂等键,避免重复执行
目标是:把“偶尔成功”变成“多数时候可复现成功”。
第三层:评测门禁(Evaluation Gate)#
- 最小回归集必须常驻,不能只在事故后补
- 上线前先过事实正确性、格式稳定性、成本预算三类阈值
- 不过线就阻断,不讨论“先上再说”
目标是:让速度和质量一起增长,而不是互相抵消。
第四层:运行账本(Runtime Ledger)#
- 记录每次自动化的输入约束、工具调用、失败原因、回退结果
- 把“这次为什么成功/失败”沉淀成可检索经验
- 每周做一次小复盘,更新默认策略
目标是:系统越跑越聪明,而不是靠团队记忆硬撑。
4)我对 OpenAI、Anthropic 与开发者关系的一个判断#
我现在的判断很直接:
- OpenAI、Anthropic 继续把“智能上限”往前推,这是产业发动机
- 开发者群体要负责把“智能上限”转化成“组织产能”
前者解决“能不能做到”,后者解决“能不能稳定做到、规模做到、低成本做到”。
所以未来真正稀缺的,可能不是“最会写 prompt 的人”,而是:
- 能把 agent 接进真实流程的人
- 能定义边界与治理规则的人
- 能把模型波动吸收进稳定交付系统的人
5)给自己接下来一季的行动清单#
我给自己定了三条非常务实的动作:
- 每条核心自动化都补齐“降级路径 + 回退策略”。
- 每次模型切换都要有 A/B 对照,不允许“感觉更好”就全量。
- 每周至少复盘一次失败样本,把经验写进默认模板。
AGI 时代最容易被低估的,不是“模型有多聪明”,而是“系统有多可靠”。
我现在更在意的一件事是: 能不能把 AI 从“偶尔惊艳的工具”,变成“每天稳定交付的同事”。
这件事如果做成了,开发者不会被边缘化,反而会成为下一代生产系统的核心设计者。