建筑学
MCP 已列入每个 CTO 的议程。 这对您的下一个构建意味着什么。
MCP占主导地位RSA 会议 2026意见书。 CIO.com 的标题是“为什么模型上下文协议突然出现在每个高管议程上”。 Zuplo 的 MCP 状况调查发现 API 网关现在是托管 MCP 服务器的首选,并且安全性是采用的第一大阻碍对于企业团队。
如果您是首席技术官或技术创始人,您在本季度至少三次对话中听到过“MCP”。 你可能也点头同意。 以下是它的简单含义、为何会影响您的产品决策以及应对措施。
MCP 是什么(没有术语)
模型上下文协议是一种开放标准,可让 AI 模型连接到外部工具、数据库和 API。 Anthropic 于 2024 年底发布了它。到 2026 年 4 月,每个主要的人工智能供应商都支持它:OpenAI、谷歌、微软和数十家较小的供应商。
大家都用USB来比喻。 在 USB 出现之前,每个设备都需要自己的电缆和驱动程序。 MCP 对 AI 集成做了同样的事情。 您无需在 Claude 和您的数据库之间建立自定义连接,然后在 GPT 和您的数据库之间建立另一个连接,然后在 Gemini 和您的数据库之间建立另一个连接,而是构建一个 MCP 服务器。 每个兼容 MCP 的 AI 模型都通过它进行连接。
MCP 服务器公开三件事:
- 工具。AI 可以采取的行动。 “查询销售数据库”、“创建支持票证”、“发送 Slack 消息”。 每个工具都有一个名称、人工智能读取以了解何时使用它的描述,以及定义输入和输出的模式。
- 资源。AI 可以读取的数据。 “公司文档”、“产品目录”、“用户简介”。 资源提供模型上下文,而不需要工具调用。
- 提示。可重复使用的说明模板。 “使用我们的语气指南总结此支持票”,“根据此数据生成季度报告。” 提示标准化人工智能与您的域的交互方式。
AI 模型会自动发现可用的工具、资源和提示。 没有硬编码的 API 调用。 每个模型没有自定义集成代码。 模型读取工具描述,根据用户的请求决定调用哪些工具,并通过MCP协议执行它们。
为什么首席技术官现在关心(而不是六个月前)
2026 年第一季度发生了三件事变化:
各大AI厂商均采用MCP
MCP 最初是 Anthropic 的协议。 到 2026 年初,OpenAI、Google 和 Microsoft 都添加了 MCP 支持。 这不再是供应商的赌注。 这是一个行业标准。 如果您的产品需要 AI 集成,MCP 是您客户的 AI 工具将使用的接口。
2026 MCP 路线图确定了企业优先事项
官方路线图涵盖四个领域:传输可扩展性(处理数千个并发连接)、代理间通信(通过 MCP 协调的 AI 模型)、治理成熟度(审核日志、权限范围、合规性)和企业就绪性(SSO、速率限制、监控)。 该协议正在从开发人员工具发展成为企业基础设施。
顾客开始询问
企业买家希望将他们的 AI 工具连接到您的 SaaS 产品。 他们不想等待您构建自定义 ChatGPT 插件,然后构建单独的 Claude 集成,然后构建 Gemini 连接器。 他们想要一台可以将任何人工智能工具指向的 MCP 服务器。 如果您不提供,您的竞争对手就会提供。
MCP、REST、GraphQL:何时使用什么
MCP 不会取代您的REST 或 GraphQL API。 它与它们并存,服务于不同的消费者:人工智能模型而不是面向人类的应用程序。
| 协议 | 初级消费者 | 交互模型 | 发现 |
|---|---|---|---|
| 休息API | 前端应用程序、移动客户端 | 请求/响应(CRUD) | OpenAPI 规范、文档 |
| GraphQL | 前端应用程序(灵活查询) | 查询/变异 | 模式自省 |
| MCP | AI模型、AI代理 | 工具调用、资源读取 | 自动(内置于协议中) |
| 远程过程调用 | 内部服务、微服务 | RPC(二进制,快速) | 原型定义 |
2026 年,大多数 SaaS 产品的 Web 应用程序都需要 REST API,并且他们开始需要 MCP 服务器来集成 AI 工具。 将 MCP 视为您产品的面向 AI 的接口,就像您的 REST API 是面向应用程序的接口一样。
任何人都无法忽视的安全问题
Zuplo 的 MCP 状况调查证实了这一点:安全性是采用的第一大阻碍。 2026 年 3 月的一篇黑客新闻文章详细介绍了使用 MCP 的 AI 编码代理中的信任边界故障,包括凭证暴露和通过受损的 MCP 服务器进行提示注入。
风险是真实且具体的:
- 通过工具描述提示注入。恶意 MCP 服务器可以在工具描述中嵌入指令,从而覆盖 AI 模型的行为。 模型读取描述来理解该工具,描述告诉它做用户没有要求的事情。
- 过度许可的工具访问。公开具有完全读取访问权限的“查询数据库”工具的 MCP 服务器使 AI 模型能够访问每个表。 如果用户询问“显示我的订单”并且模型可以访问用户表,则提示注入可以提取其他用户的数据。
- 工具调用中的凭证泄漏。通过工具参数传递 API 密钥或令牌的 MCP 服务器存在在日志、错误消息或模型上下文窗口中暴露这些凭据的风险。
- 还没有内置的身份验证标准。2026 年路线图将治理成熟度列为优先事项,但当前规范将身份验证留给了开发人员。 这意味着每个 MCP 服务器都会以不同的方式进行身份验证,并且许多服务器在开发过程中完全跳过它。
如何构建不会被黑客攻击的 MCP 服务器
- 最小特权原则。每个工具都获得其所需的最低权限。 “搜索产品”工具读取产品目录。 它不读取用户表、付款表或管理面板。
- 每个工具调用时的输入验证。以与处理用户输入相同的方式对待 AI 工具调用:默认情况下不受信任。 验证类型、清理字符串、强制长度限制。 人工智能模型可以产生畸形输入的幻觉。
- 在隔离环境中运行 MCP 服务器。不要在与主应用程序相同的进程上运行 MCP 服务器。 使用具有自己的网络策略和凭据的单独容器或无服务器功能。
- 记录每个工具调用。每个工具调用、其输入、输出和请求用户。 此审计跟踪对于合规性、调试和检测滥用至关重要。 如果您正在构建多租户SaaS,MCP 层中的租户隔离与数据库层中的租户隔离一样重要。
- 积极限制速率。人工智能代理每分钟可以调用工具数百次。 如果没有速率限制,失控的代理可能会在几分钟内耗尽您的数据库连接、耗尽 API 配额或增加基础设施成本。
MCP 建筑的实际效果如何
这是一个具体的例子。 一个金融平台(类似于 ZestAMC,Savi 在其中构建了超过 1000 万美元的 AUM 系统)希望其投资组合经理使用人工智能助手进行日常运营:检查基金业绩、生成投资者报告和标记逾期付款。
如果没有 MCP,您就需要为每个 AI 工具构建自定义集成。 克劳德插件。 ChatGPT 操作。 双子座的延伸。 三个独立的代码库做着大致相同的事情,每个代码库都有自己的身份验证、错误处理和维护负担。
使用 MCP,您可以构建一台公开五种工具的服务器:
- 获取基金绩效- 返回特定基金和日期范围的资产净值、回报和基准比较
- 生成投资者报告- 为特定投资者的基金持有情况创建格式化报告
- 逾期付款列表- 返回未付款项以及金额、到期日和投资者详细信息
- 搜索交易- 使用基金、日期范围和类型过滤器查询交易分类帐
- 获取合规状态- 返回当前的监管合规状态和即将到来的提交截止日期
每个工具都具有范围数据库访问权限(报告工具只读,无法访问管理功能)、输入验证、速率限制和完整审核日志记录。 投资组合经理打开 Claude、Copilot 或任何 MCP 兼容工具并说“向我展示基金 A 本季度的表现”。 AI 调用 get_fund_performance,获取结构化数据,并以对话方式呈现。
MCP服务器的构建时间:高级工程师1-2周。 维护:与任何 API 服务器相同。 客户价值:您的客户使用的每个人工智能工具从第一天起就可以与您的平台配合使用。
您应该立即建立 MCP 支持还是等待?
决策框架:
| 你的情况 | 推荐 | 时间轴 |
|---|---|---|
| 面向使用 AI 的客户的企业 SaaS | 立即构建; 客户在问 | 本季度 |
| 具有客户数据查询的B2B平台 | 立即构建; 竞争优势 | 本季度 |
| 从头开始构建新的 SaaS | 设计您的 API 时考虑 MCP | 在初始架构期间 |
| 消费者应用程序,无企业客户 | 等待; 监控采用情况 | 6个月后再次访问 |
| 仅内部工具 | 如果您的团队每天都使用人工智能工具,则进行构建 | 当生产力的提高证明其合理时 |
如果您正在构建新产品,最明智的做法是设计您的产品技术栈具有干净、范围明确的服务层,稍后可以自然地映射到 MCP 工具。 您不需要在第一天就构建 MCP 服务器。 您需要一种架构,可以轻松地在第 90 天添加一个。
在 Savi,我们构建具有清晰服务边界的内部系统,可直接转换为 MCP 工具定义。 当客户决定需要人工智能集成时,架构就准备好了。 MCP 服务器包装现有服务而不需要重写。
技术领导者的底线
MCP 是基础设施,而不是炒作。 该协议将会不断发展。 授权故事将会改善。 工具将会成熟。 但方向已经确定:AI 模型将通过标准化协议与您的产品交互,该协议就是 MCP。
从这一转变中受益最多的 CTO 是那些为此进行规划但又没有过度投资的人。 构建干净的 API。 确定服务层的范围。 了解安全影响。 当需要添加 MCP 支持时,您希望它是一个为期两周的项目,而不是三个月的重写。
常见问题
什么是 MCP(模型上下文协议)?
MCP 是一个开放标准,允许 AI 模型通过统一的接口连接到外部工具、数据库和 API。 将其视为 AI 的 USB 端口:您无需为每个 AI 模型构建自定义集成,而是构建一台 MCP 服务器,并且每个 MCP 兼容模型都可以使用它。 Anthropic 于 2024 年底发布了它,到 2026 年每个主要人工智能供应商都支持它。
如果我正在构建 SaaS 产品,我是否需要 MCP?
如果您的产品将与 AI 工具集成,客户将期望在 12-18 个月内获得 MCP 支持。 早期采用者已经在要求它。 如果您的产品不需要 AI 集成,那么 MCP 还不相关。 该决定取决于人工智能代理是否是您的用户工作流程的一部分。
MCP 对于生产使用来说足够安全吗?
MCP本身是一个协议,而不是一个安全工具。 安全性取决于您的实施。 2026 年 MCP 路线图优先考虑治理和企业准备情况,包括更好的身份验证模式和权限范围。 当前最佳实践:在隔离环境中运行 MCP 服务器、缩小权限范围、验证所有输入并记录每个工具调用以进行审核。
搭建MCP服务器需要多长时间?
对于高级工程师来说,公开 3-5 个工具的基本 MCP 服务器需要 1-2 天。 具有身份验证、速率限制、错误处理和监控功能的生产级服务器需要 1-2 周的时间。 TypeScript 和 Python 的 SDK 处理协议层,因此大部分工作都在业务逻辑和安全实现中。
MCP 和 REST API 有什么区别?
REST API 向应用程序提供数据。 MCP 服务器为 AI 模型提供功能。 REST API 返回前端呈现的 JSON。 MCP 服务器公开了 AI 模型可以调用来执行操作的工具:查询数据库、发送电子邮件、创建票证。 MCP 包含一个发现机制,因此 AI 模型可以找到并理解可用的工具,而无需硬编码集成代码。