本报记者 李玉洋 上海报道
如果要问AI开发者或技术爱好者近期的热点有哪些,那么MCP(Model Context Protocol,模型上下文协议)必是话题之一。
近日,支付宝联合魔搭社区率先在国内推出“支付MCP Server”服务,据测试AI开发者可以使用自然语言接入支付宝支付服务,快速实现AI智能体内的支付。而此前,大模型明星初创公司MiniMax也官宣,MiniMax MCP Server正式上线。
那么,MCP是什么?热度是怎么上来的?《中国经营报》记者了解到,MCP被称为“AI界的USB-C接口”,能让大语言模型“操作”其他软件,其由国外大模型公司Anthropic开发,并于2024年11月正式发布,在今年3月受到了包括微软、OpenAI、谷歌等巨头的认可。
“人们喜欢MCP,我们很高兴能在我们的产品中添加支持。”OpenAI首席执行官山姆·奥特曼发文称。随着MCP概念的火爆,开发者社区中对该技术的讨论也逐渐增多,这股风也迅速吹向了国内。
“首先,MCP解决了MxN的集成难题。”和OpenAPI、LangChain工具链等类似协议相比,MiniMax开发者社区负责人蔡佳人认为MCP具备以上优势。通过标准化协议,MCP将这一问题转化为M+N的模式,即开发者只需为每个AI应用实现一次MCP客户端,为每个外部系统实现一次MCP服务器,所有兼容的客户端和服务器即可互联互通。
同时,蔡佳人也表示,目前的MCP生态还有一些提升空间,比如缺乏统一的命名空间管理机制,可能导致不同服务器上工具名称的冲突。
把集成复杂度从MxN转化为M+N
近期,MCP在社交媒体上的出现频率很高,以至于用户在B站、小红书、抖音等平台上时不时刷到关于MCP的科普和教程。
来自Xsignal Trend X(奇异风口)数据库的数据显示,MCP的声量(网络上提到该概念的帖子数,包含图文、视频等)从2024年11月开始出现,在2025年2月末陡然上升。
根据Anthropic的定义,MCP是一个将AI助手连接到数据所在系统(包括内容存储库、业务工具和开发环境)的新标准。具体而言,MCP是一项开放标准,使开发者能够在其数据源和AI驱动的工具之间建立安全的双向连接。其架构简单易懂:开发者可以通过MCP服务器公开数据,也可以构建连接到这些服务器的AI应用程序(MCP客户端)。
据了解,MCP遵循互联网常见的C/S架构,即客户端(Client)—服务器(Server)架构,还引入了主机(Host)的概念,组成了基本的主机—客户端—服务器架构。
根据腾讯、微信前高级工程师“idoubi”的科普,MCP里的主机就是大模型应用,类似Claude桌面客户端、Cursor编辑器这种应用,可在主机内调度客户端进程,发起到服务器的连接;客户端可以理解为主机内的一个业务进程,能与服务器进程进行连接,实现数据交互,帮助主机应用获取外部资源;服务器则是在主机外运行的、用于提供特定资源和能力的外部程序。
他举例称,在Claude客户端输入:“我想从广州开车去武汉看樱花,请帮我规划一下路线,把行程计划保存到我的笔记。”由于在Claude的MCP服务器配置文件中写入了高德地图和浮墨笔记两个MCP服务器,所以Claude在响应过程中调用了amap-maps服务器提供的四个工具,查询位置和天气信息,最后调用flomo服务器的write_note工具,把行程计划直接保存到了浮墨笔记里。
简单来说,MCP是给多智能体系统使用的上下文协议,让不同Al Agent听得懂彼此的“工作语言”。过去,大模型想调用导航、订酒店等功能,需要程序员一个个写代码对接,现在只要符合MCP标准,所有工具都能即插即用。
“传统的集成方式需要为每个AI应用与每个外部系统建立单独的连接,导致MxN的集成复杂。MCP通过标准化协议,将这一问题转化为M+N的模式。”蔡佳人表示,MCP极大地降低了集成成本和维护难度。
阿里云智能集团资深副总裁、公共云事业部总裁刘伟光也表示,MCP是今天公认的业界标准,有望加速AI应用爆发的“最后一公里”的连接。“今天MCP通过统一标准接口,类似于电脑、手机当中看到的USB-C、Type-C接口,这一标准接口降低了大模型和外部系统的集成门槛。”
巨头纷纷入局但仍处于发展早期
与传统协议(如HTTP、gRPC、ONNX Runtime)相比,MCP有什么区别?
在蔡佳人看来,MCP强调的是语义层协议,而HTTP/gRPC是传输层协议,ONNX Runtime则是推理执行层协议。
“从擅长的领域来说,MCP专注于模型上下文管理,能解决上下文的动态扩展、跨领域兼容性等问题。HTTP、gRPC在通用通信方面起到关键作用,ONNX Runtime协议则专注在模型推理,更多关注数据传输、模型执行,缺乏对上下文的精细化管理。所以,MCP更适用于需要复杂上下文管理的场景,比如多模型协作、跨领域任务,传统协议更适用于通用通信或单一模型推理。”他表示。
如上所述的“MCP专注于模型上下文管理”,那我们该如何理解MCP的“上下文”(Context)?
蔡佳人表示,简单来说,MCP中“上下文”是指LLM(大语言模型)在执行任务时所需的所有外部信息和工具,例如外部数据源,数据库、API、文档库等;以及计算工具、搜索引擎以及第三方服务等扩展LLM的功能;此外,还有对话的历史和状态,动态维护LLM的对话上下文,确保连贯性和一致性。
“这些上下文信息通过MCP进行标准化管理,使LLM在需要时能动态获取相关信息,提升其响应的准确性和相关性。”蔡佳人表示。
中信建投认为,在AI Agent中,MCP相较于传统Function Calling外部工具的调用方式,通过主机、服务器和客户端的解耦,大幅降低重复开发成本,同时提升了各类AI工具的互联互通能力,亦为全球复现Manus的关键技术。随着头部公司的加速支持,MCP生态边界有望进一步拓展,加速AI产业发展。
今年3月下旬以来,OpenAI、谷歌、微软和亚马逊四大顶级AI科技公司陆续宣布支持MCP。3月27日,OpenAI官宣Agents SDK加入MCP服务协议,后续ChatGPT桌面应用和Responses API也将快速支持。
4月,谷歌DeepMind CEO哈萨比斯在X表示,谷歌将在Gemini和SDK中添加对MCP的支持。哈萨比斯写道:“MCP是一个很好的协议,它正在迅速成为AI代理时代的开放标准。期待与MCP团队以及其他业内人士一起进一步开发它。”
同时,谷歌和思科也各自推出了MCP的“补充”:Agent2Agent(A2A)协议和Agent Connect(ACP)协议。这些迹象显示,MCP正加速成为下一代智能体系统的基础设施标准。
“MCP的风”也吹到了国内。3月21日,百度地图官宣,其核心API全面兼容MCP协议,成为国内首家兼容MCP协议的地图服务商。4月9日,阿里云百炼宣布全面支持MCP服务部署与调用,首批上线了高德、无影、Fetch、Notion等50多款阿里巴巴集团和三方MCP服务。
随后,腾讯云也宣布支持MCP。有数据显示,截至2025年3月,已有超过1000个基于MCP协议构建的社区服务器和数千个集成MCP协议的应用。GitHub上MCP相关代码库星标数超3.5万,半年内增长超10倍。
虽然国内外巨头的入局为MCP注入了动力,但其仍处于发展早期阶段。“目前的MCP生态不是百分百完美的,也还有一些提升空间。”蔡佳人表示,从产业上来说,MCP仍有一定的部署和使用门槛,未来可以提供更友好的开发工具和接口,以便更多开发者能够轻松构建和部署MCP应用;当前MCP缺乏统一的命名空间管理机制,可能导致不同服务器上工具名称的冲突,增加了模型调用错误工具的风险,未来也需要有更规范、统一的工具质量标准。
(编辑:吴清 审核:李正豪 校对:颜京宁)