当前位置:数智频道首页 > 人工智能 > 正文

谷歌推出托管 MCP 服务器,让 AI 智能体可直接接入其工具

人工智能智能体被宣传为解决旅行规划、商业问题解答以及各类任务的万能方案,但让这些智能体与聊天界面之外的工具和数据协同工作一直颇具挑战。开发者不得不拼凑各种连接器并维持其运行,这种做法不仅不稳定、难以扩展,还会引发治理难题。

谷歌推出托管 MCP 服务器,让 AI 智能体可直接接入其工具

谷歌正试图通过推出自家完全托管的远程 MCP 服务器来解决这一问题,使 AI 智能体能够更轻松地接入谷歌及其云服务,例如地图和 BigQuery。此举紧随谷歌最新 Gemini 3 模型的发布,公司希望将更强的推理能力与更可靠的现实世界工具及数据连接相结合。

谷歌云产品管理总监 Steren Giannini 表示,谷歌正在从设计上让平台“智能体就绪”。过去开发者可能需要花费一到两周时间搭建连接器,如今只需简单粘贴一个托管端点的 URL 即可完成集成。在首发阶段,谷歌推出了面向 Maps、BigQuery、Compute Engine 和 Kubernetes Engine 的 MCP 服务器。实际应用场景可能包括:一个分析助手直接查询 BigQuery,或一个运维智能体与基础设施服务交互。

以 Maps 为例,Giannanni 解释说,若没有 MCP,开发者只能依赖模型内置的知识。但当智能体配备像 Google Maps MCP 服务器这样的工具时,它就能基于真实、最新的地点或行程信息进行决策。虽然 MCP 服务器最终将覆盖谷歌全部工具,但目前仅以公开预览形式推出,这意味着它们尚不完全受谷歌云服务条款的保障。不过,对于已付费使用谷歌服务的企业客户,这些 MCP 服务器将免费提供。预计将在明年年初全面发布,并且未来每周都会有更多 MCP 服务器陆续上线。

MCP 是 Anthropic 大约一年前开发的一种开源标准,用于连接 AI 系统与外部数据和工具。该协议已在 AI 智能体工具生态中被广泛采用。就在本周早些时候,Anthropic 已将 MCP 捐赠给新成立的 Linux 基金会专项基金,旨在推动 AI 智能体基础设施的开源与标准化。Giannini 说道,由于 MCP 是一个标准,只要谷歌提供一个服务器,任何客户端都能与之连接。他非常期待看到更多客户端涌现。

可以将 MCP 客户端理解为位于通信链路另一端的 AI 应用,它们与 MCP 服务器通信并调用其所提供的工具。对谷歌而言,这包括 Gemini CLI 和 AI Studio。Giannini 还表示,他已尝试将 Anthropic 的 Claude 和 OpenAI 的 ChatGPT 作为客户端使用,它们都能直接运行。

谷歌强调,这项举措的意义不仅限于将其服务与 AI 智能体连接。更关键的企业级布局在于其 API 管理产品 Apigee,许多企业已使用 Apigee 来分发 API 密钥、设置配额并监控流量。Apigee 本质上可以将一个标准 API 转换为 MCP 服务器,从而将诸如商品目录 API 之类的端点转化为 AI 智能体可自动发现和使用的工具,并在其上叠加现有的安全与治理控制机制。换言之,企业当前用于人工开发应用程序的 API 治理策略,如今也可同样适用于 AI 智能体。

谷歌的新 MCP 服务器受到名为 Google Cloud IAM 的权限机制保护,明确限定智能体可对该服务器执行的操作。此外,它们还受到 Google Cloud Model Armor 的防护,这是一种专为智能体工作负载设计的防火墙,可防御提示词注入、数据泄露等高级智能体威胁。管理员还可借助审计日志实现更全面的可观测性。谷歌计划在未来几个月内将 MCP 支持扩展至更多服务领域,包括存储、数据库、日志与监控、安全等。Giannini 总结道,谷歌已经搭建好了底层管道,开发者无需再自己动手。

热点推送

本周关注

MORE