Face aux pressions des régulateurs américains et britanniques qui s’inquiètent de la domination de Google sur la recherche en ligne, il apparait que l’entreprise a sciemment empêché les éditeurs d’avoir un contrôle véritable sur l’exploitation de leurs contenus par l’intelligence artificielle.
Points Essentiels :
- Google a envisagé, puis rejeté, l’idée de permettre aux éditeurs de refuser l’utilisation de leurs contenus pour l’IA.
- Les outils de contrôle existants (comme la balise « no-snippet ») limitent l’affichage mais n’empêchent pas l’entraînement des IA ni leur utilisation dans les résumés.
- Pour éviter totalement l’utilisation de leurs contenus, les éditeurs doivent se retirer complètement des résultats de recherche.
- La justice américaine pourrait imposer à Google des sanctions sévères, telles que la vente de Chrome ou la partage de données.
Google, l’IA et les Éditeurs : Une Relation Déséquilibrée
À l’occasion du procès antitrust aux États-Unis contre Google, des documents ont révélé que l’entreprise avait évalué, sans le mettre en œuvre, un système qui aurait permis aux éditeurs de refuser l’utilisation de leurs contenus pour alimenter les réponses générées par l’IA. Ces contenus servent aujourd’hui de base aux résumés générés par l’IA (AI Overviews) qui apparaissent en haut des résultats de recherche, notamment aux États-Unis.
Cette option interne, désignée par « hard red line », aurait donné aux éditeurs le pouvoir de refuser l’utilisation de leurs données dans le cadre du grounding (ancrage), c’est-à-dire l’utilisation de leur contenu pour augmenter la fiabilité des réponses générées par l’IA, sans les exclure de la recherche classique. Cependant, Google n’a pas adopté cette approche.
Le Faux Choix des Éditeurs
Les éditeurs sont aujourd’hui confrontés à un choix limité : autoriser Google à indexer et réutiliser leurs contenus, y compris dans les résumés IA, ou se retirer complètement des moteurs de recherche en bloquant Googlebot, ce qui les rend invisibles à la majorité des internautes.
Selon Matt Rogerson, directeur des politiques publiques au Financial Times, il s’agit d’un « choix impossible ». En effet, bloquer l’indexation signifie perdre une audience massive (plus de 90 % du trafic de recherche au Royaume-Uni), alors qu’autoriser la réutilisation revient à céder une ressource précieuse, leur propriété intellectuelle, sans réelle compensation.
Une Transparence Partielle
Les documents présentés au tribunal montrent également que Google a choisi de ne pas rendre publiques les implications des balises telles que « no-snippet ». Officiellement, ces balises empêchent l’affichage de courts extraits dans les résultats. En réalité, elles permettent aussi de limiter l’usage pour le grounding, bien que les contenus soient toujours disponibles pour l’entraînement des IA.
Google recommande ainsi d’éviter toute mention de cet usage caché. Un extrait de présentation interne précise : « Recommander de ne pas dire que cela permet de se retirer du grounding, car cela évolue vers un espace de monétisation. »
La Limite Floue entre IA et Moteur de Recherche
Un des aspects les plus critiques du procès est l’aveu d’un vice-président de DeepMind, la branche IA de Google : même si un éditeur a explicitement refusé l’utilisation de ses contenus pour l’entraînement des IA de Google, ces mêmes contenus peuvent quand même être exploités par les modèles intégrés à la recherche.
En d’autres termes, une fois que Gemini est intégré dans la recherche, il bénéficie automatiquement de l’accès aux données des sites web, même si ceux-ci avaient opté pour un refus explicite. Cette fusion des fonctions IA et recherche soulève de sérieuses questions sur le respect du consentement des éditeurs.
Conséquences Économiques Tangibles
Ce n’est pas la première fois que Google tente de réduire la visibilité des éditeurs pour renforcer son contrôle. En 2019, des essais de suppression d’extraits avaient conduit à une baisse drastique du trafic vers les sites d’information, atteignant jusqu’à -45 %. Cette diminution de trafic profite indirectement aux plateformes sociales et vidéo, moins touchées par ces restrictions.
Dans un contexte de transformation radicale de son moteur de recherche par l’IA, Google met les éditeurs dans une position difficile : leurs contenus deviennent des matières premières gratuites pour les modèles génératifs, sans que des règles claires ou équitables ne soient mises en place.
En refusant de mettre en place des mécanismes de contrôle robustes pour les éditeurs tout en intégrant l’IA dans ses modèles de recherche, Google continue sa transition vers une plateforme d’affichage automatisé de l’information, au détriment de la souveraineté des producteurs de contenus.
L’article original « Pourquoi refuser l’IA de Google revient à disparaître du Web » a été publié sur le site Abondance.
