HaoLiu's blog

别再吹你的模型多聪明了,接不上本地代码库的 Agent 都是残废

2026 03 27 mcp cover.png
Published on
/
6 mins read
/
––– views

cover

别再吹你的模型多聪明了,接不上本地代码库的 Agent 都是残废

大模型的底层战争,其实已经降温了。

各家发个新模型,跑个分,发个 PR 稿,然后水军互踩。

(现在那些注水的 benchmark 我连扫一眼的耐心都没有)。

因为现在的核心战场,已经悄悄转移到了 Agent 的“接线”工作上。

光有个聪明的脑子没用。

AI 得长出手脚,得摸到你本地的文件,得读懂你公司的数据库。

要想在真实的业务里跑通一套标准的 SOP,Agent 必须得跟现有的软件生态接轨。

怎么接?这就是目前巨头们互相捅刀子最狠的地方。

1. “集成层”就是新的“锁定层”

科技评论员 @aakashgupta 最近把这层窗户纸捅破了。

他认为,在代码 AI 的世界里,“集成层(Integration layer)就是锁定层(Lock-in layer)”

这话什么意思?

意思就是,如果你习惯了在 OpenAI 的环境里调用各种 Plugins,你以后想换去用 Claude 或者 Gemini,那个迁移成本能让你当场劝退。

因为你的工具链、你的数据接口、你的工作流全是按 OpenAI 的规矩写的。

OpenAI 现在的阳谋很明显:他们想复刻苹果的 App Store 模式。

所有的工具调用、数据流转都必须经过他们的服务器。

(这也是为什么很多 SaaS 厂商现在对接入 OpenAI 充满警惕,生怕哪天自己沦为一个无情的 API 管道,连最终用户长什么样都不知道)。

2. Anthropic 的“USB-C”式反击

面对这种“封闭花园”,Anthropic 祭出了极其阴险(也极其高明)的一招:MCP(Model Context Protocol)

如果说 OpenAI 的 Plugins 是苹果独家的 Lightning 接口,那 MCP 就是全员通用的 USB-C。

Anthropic 并不寻求在协议上收税,他们是在“修路”。

路修得越宽,跑在上面的 Claude 模型调用量就越大。

开发者不用把数据强行上贡给大公司的云端。

你只要在本地用 CLI 敲两行命令起个服务,Agent 就能通过统一标准直接来你的地盘干活。

比如让它直接读你本地代码仓库的 worktrees。

或者让它自己手写一段前端的 HTML,然后直接通过 MCP 渲染到本地编辑器里让你审阅。

一旦 Auto Mode 开启,Agent 就能顺着 MCP 提供的标准上下文,自己在你的电脑里找工具、跑测试、修 Bug。

(这种“全自动”的爽感,才是真正把 AI 从一个“聊天机器人”变成“数字员工”的分水岭)。

3. 独立 Agent 的“寒武纪”爆发

这种开放协议的威力,在独立开发者圈子里已经炸开了。

YC 的掌门人 @garrytan 最近疯狂力挺一个叫 GStack 的项目。

他的评价很毒辣:“有时与其去和用户访谈,不如在他们提出需求的当晚就把功能做出来。”

GStack 这种工具,就是典型的“接线员”。

它能自动通过工作树进行并行化处理,实现从设计稿到代码的自动生成和审查。

还有那个现象级项目 Cline。

作者 @cline 刚刚发布了 Cline Kanban,一个支持多 Agent 编排的怪兽级工具。

最关键的一点是:它同时兼容 Claude 和 Codex。

当这些工具宣称自己是“模型无关(agnostic)”的时候,其实已经宣判了纯靠底层模型性能建立垄断的破产。

4. 谁在建墙,谁在修桥?

这场暗战的交锋点在于:你到底相不相信一个万物互联的开放协议?

@danshipper 最近搞了个叫“Plus One”的东西,直接驻留在 Slack 里。

只需一键设置,就能调用邮件管理和专业写作等原生 Agent 工具链。

这种无缝感,是靠 Plugins 那种“层层审批、数据上云”的模式给不了的。

开发者都是极其务实也极其懒惰的。

一旦 MCP 这种协议跑通了阻力最小的路径,生态的倾斜只是一瞬间的事。

OpenAI 还在试图把所有人都关在墙里收税。

而 Anthropic 正在联合全网的开发者,发起一场轰轰烈烈的“去中心化”运动。

至于接下来的风到底会往哪边吹。