Google adopte la norme MCP d’Anthropic pour convertir ses services en outils destinés aux agents d’intelligence artificielle.

L’intelligence artificielle franchit un cap vers une autonomie accrue. Google Cloud a officialisé l’intégration du Model Context Protocol (MCP) dans une large gamme de ses services, tels que Google Maps, BigQuery et Google Kubernetes Engine (GKE). Comparé souvent à un « USB-C pour l’IA », ce protocole universel permet désormais aux développeurs de connecter leurs agents intelligents à l’infrastructure de Google sans nécessiter de gestion de serveurs locaux complexes. Cette avancée promet d’accroître le potentiel des agents autonomes au sein des entreprises.

Points clés à retenir :

  • Standardisation étendue : Google incorpore le protocole MCP à ses API existantes, offrant un accès unifié et entièrement géré à ses services, évitant ainsi l’utilisation de serveurs locaux fragiles.
  • Interaction avec les données réelles : Les agents peuvent interagir de manière native avec Google Maps (données géospatiales), BigQuery (analyses de données d’entreprise) et l’infrastructure cloud (GCE, GKE) pour réaliser des tâches complexes.
  • Sécurité et gouvernance : L’intégration comprend des mesures de sécurité robustes via Google Cloud IAM et Model Armor pour contrer les menaces telles que les injections de prompt indirectes.
  • Extension aux entreprises : Grâce à Apigee, les entreprises peuvent exposer leurs propres API internes en tant qu' »outils » accessibles aux agents IA.

La fin des solutions d’intégration temporaires

Connecter un agent IA, tel que Gemini ou Claude, à des données ou outils externes nécessitait jusqu’ici un travail d’ingénierie conséquent. Les développeurs devaient construire, héberger et maintenir leurs propres serveurs intermédiaires pour faire le lien entre le modèle et l’outil, ce qui était coûteux et techniquement fragile.

Avec cette annonce du 11 décembre 2025, Google bouleverse cet état de fait. Désormais, au lieu de demander aux développeurs de créer ces liens, Google a mis à jour son infrastructure API pour qu’elle communique nativement via le langage MCP. En pratique, cela signifie qu’un développeur peut orienter son agent IA (qu’il utilise Gemini 3 ou un autre client MCP) directement vers un endpoint Google sécurisé et fiable.

Michael Bachman et Anna Berenberg de Google Cloud soulignent que pour qu’une IA soit vraiment un « agent », elle doit non seulement être intelligente, mais aussi utiliser des outils et des données de manière fiable.

Premiers services compatibles : de la carte au cloud

Google déploie ce support par phases, mais les premiers services intégrés couvrent déjà des besoins essentiels :

1. Ancrage dans le monde réel avec Google Maps
Avec Maps Grounding Lite, les agents IA accèdent à des données géospatiales actualisées. Fini les erreurs sur les temps de trajet ou l’existence de lieux fermés. Un agent peut désormais répondre précisément à des questions logistiques complexes comme « Quelle est la distance entre le parc le plus proche et cette location ? » ou planifier des itinéraires en tenant compte de la météo, le tout via une connexion standardisée.

2. Analyse de données avec BigQuery
C’est un atout majeur pour les entreprises. Le serveur MCP pour BigQuery permet aux agents de comprendre la structure des bases de données (schémas) et d’exécuter des requêtes SQL directement. L’avantage est double : on évite de copier des données sensibles dans la fenêtre contextuelle du modèle (ce qui est risqué et coûteux) et on permet à l’agent d’utiliser des fonctions avancées de BigQuery, comme les prévisions (forecasting).

3. Gestion d’infrastructure (GCE et GKE)
L’IA devient un administrateur système autonome.

  • Sur Google Compute Engine (GCE), les agents peuvent provisionner ou redimensionner des machines virtuelles en fonction de la demande.
  • Sur Google Kubernetes Engine (GKE), l’interface MCP structure les interactions avec les clusters, permettant aux agents d’interagir proprement avec l’API Kubernetes pour diagnostiquer des pannes ou optimiser les coûts, sous supervision humaine ou de manière autonome.
Exemple MCP

Apigee : votre passerelle vers vos propres données

L’annonce de Google va au-delà de ses propres services. En intégrant MCP à Apigee, Google permet aux entreprises de transformer leur propre infrastructure technique en outils pour l’IA.

Les API internes, qu’elles gèrent vos stocks, vos clients ou des processus métiers spécifiques, peuvent être exposées et gérées comme des outils MCP. Elles deviennent accessibles aux agents, permettant de créer des workflows hybrides qui combinent la puissance de calcul de Google et la logique métier de votre entreprise.

Sécurité et avenir de l’écosystème

L’un des principaux obstacles à l’adoption des agents autonomes reste la sécurité. Google répond à cette préoccupation en enveloppant ces serveurs MCP de ses couches de sécurité habituelles. L’accès est géré par Cloud IAM (gestion des identités), l’observabilité est assurée par des journaux d’audit (audit logging), et Model Armor protège contre les nouvelles menaces, telles que les injections via des données tierces.

L’objectif est clair : créer un écosystème où les modèles comme Gemini 3, entre autres, peuvent prospérer. Google prévoit déjà la suite. Dans les mois à venir, le support MCP s’étendra à Cloud Run, Cloud Storage, Spanner, Cloud SQL et même aux outils de sécurité (SecOps).

En tant que membre fondateur de l’Agentic AI Foundation avec Anthropic, Google réaffirme ici son ambition de fournir non seulement les modèles les plus avancés, mais surtout l’infrastructure la plus robuste pour les faire fonctionner.

À lire en complément :

Panier
Retour en haut