很多开发者在使用AI助手时,其工作流仍然停留在2023年的模式,效率低下且操作繁琐。以调试生产环境问题为例,常见的工作流是:切换到AI聊天工具,粘贴错误信息;阅读AI回复;切换到Sentry等监控工具,复制堆栈跟踪;切回AI聊天,粘贴堆栈跟踪;再切到代码库,复制相关函数;再次粘贴到AI聊天。这个过程反复循环,直到咖啡变凉,而无论使用ChatGPT、Claude、Codex还是Gemini,流程都大同小异。
这种体验就像在2010年使用手机一样——功能尚可,但速度缓慢,明显落后于现有技术一代。而这正是当前AI工具领域正在发生的“协议转变”所要解决的问题,遗憾的是,多数开发者对此仍然缺乏认知。
不妨想想家里的“数据线抽屉”。如果你年龄超过三十,抽屉里大概率是一座小型博物馆:Mini USB、Micro USB、老式苹果30针接口、Lightning、某个不知名的三星数据线,以及2014年就淘汰的路由器电源线。过去,每根线都只能与特定设备通信,互相之间毫无用处。USB-C的出现并非一蹴而就地解决了所有问题,而是逐渐成为通用标准,无论是笔记本电脑、手机、耳机、显示器,甚至一些智能牙刷和电子阅读器,都能用一根线搞定。从此,杂乱的数据线抽屉成为了历史。
AI工具生态系统目前正处于类似的关键时刻。过去几年,每一个AI集成都是一条“定制数据线”。你想让AI助手读取Notion内容?没问题,但需要一个运行在该供应商插件系统上的定制插件,自带独立的认证、数据模式和各种怪癖。想用不同的模型查询数据库?又是另一套系统。想与Slack互动?你得手动编写函数调用封装器、定义数据模式、自行托管并处理认证。如果你想从ChatGPT换到Claude,或从Claude换到本地模型,则意味着所有集成可能都要推倒重来。
每一个“AI集成”都是量身定制的,开发者不得不反复从零开始解决五个相同的问题:认证、数据模式、传输协议、工具描述和错误处理。当数百个SaaS工具和多个模型供应商都面临这些重复问题时,其导致的复杂性不言而喻。直到一个名为“模型上下文协议”(Model Context Protocol,MCP)的小东西出现,它提出:“如果这些都能统一成一种标准形态呢?”
简单来说,MCP是一个协议。它旨在标准化AI客户端(如Claude、ChatGPT、Codex、Gemini、Cursor等)与外部工具和数据交互的方式,从而消除定制化集成的复杂性,开启一个无缝、通用AI工具兼容的时代。