Les agents IA débarquent sur Chrome : Google mise sur la sécurité pour éviter les dérives

Les agents IA débarquent sur Chrome : Google mise sur la sécurité pour éviter les dérives

Google Chrome s’apprête à accueillir des agents d’IA capables d’agir pour l’utilisateur – réserver un restaurant, organiser un trajet ou commander des courses. Pour éviter les risques liés à ces automatismes, Google a mis en place une nouvelle couche de sécurité, baptisée User Alignment Critic.

Temps de lecture estimé : 4 minutes

Pourquoi Chrome intègre des agents IA

Une étape annoncée pour 2025

Le 19 septembre 2025, Google a officialisé l’intégration de son modèle d’IA Gemini dans Chrome, avec l’objectif de rendre le navigateur capable de comprendre, de générer ou d’expliquer du contenu sans quitter l’onglet – pratique pour résumer des pages web, expliquer des concepts ou rédiger du texte.
À terme, Google prévoit d’aller plus loin : ces agents IA devraient pouvoir agir de façon autonome, pour des tâches comme réserver un rendez-vous, commander des courses, etc.

Un usage prometteur… mais risqué

Ces agents d’IA – définis comme des systèmes capables de planifier, agir, observer et s’adapter – offrent un gain de productivité notable. Google Cloud
Mais en confier l’accès au navigateur, un outil central dans l’usage du Web, pose des risques : injection de code, détournement d’actions, fuite de données, etc.

User Alignment Critic : le garde-fou de Google

Qu’est-ce que c’est ?

User Alignment Critic est un système de filtrage, lui aussi basé sur Gemini, qui intervient après que l’agent d’IA a élaboré un plan d’action. Ce « modèle critique » vérifie que chaque action proposée correspond bien à la demande de l’utilisateur avant de l’exécuter.

Comment ça fonctionne ?

  • L’agent principal lit le contenu de la page, planifie les actions nécessaires, puis soumet ce plan (et non la page brute) au modèle critique.
  • Si l’action est jugée conforme, elle est exécutée. Sinon, elle est bloquée, l’agent doit reformuler ou l’utilisateur doit reprendre la main.
  • Le modèle critique ne voit pas le contenu complet (texte HTML, etc.), seulement une description structurée de l’action – ce qui réduit les risques de « piège » par un contenu manipulé.

Menaces ciblées : les « injections indirectes »

Le principal danger visé est l’« injection indirecte de prompt ». Cela correspond à l’idée de planquer dans une page web ou un document des instructions malveillantes : un texte invisible, un style html ou CSS trompeur, un code dissimulé… L’agent IA pourrait alors exécuter des actions non souhaitées : paiement, envoi de données sensibles, etc.
User Alignment Critic vise précisément à bloquer ces scénarios.

Limites et questionnements

Sur le papier, mais la réalité ?

Tout l’enjeu sera de savoir si cette sécurité est réellement efficace, notamment face à des attaques sophistiquées où le plan d’action paraît initialement « légitime » mais dissimule un détournement. L’outil agit comme un filtre – ce qui implique qu’il ne peut être efficace que si les critères sont bien définis.

Le débat autour des navigateurs IA

D’autres navigateurs intégrant l’IA (comme Comet de Perplexity ou Atlas de OpenAI) ont provoqué de fortes réticences en matière de cybersécurité.
Début décembre 2025, le cabinet de conseil Gartner a même recommandé de bloquer tous les navigateurs IA jusqu’à « durée indéterminée ».

Ce qu’il faut surveiller

  • La qualité du « filtre » : un faux négatif pourrait laisser passer une action malveillante.
  • La transparence vis-à-vis des utilisateurs : journal d’activité, consentements explicites pour actions sensibles (achats, données bancaires, mots de passe). Google indique prévoir ces garde-fous. KultureGeek
  • L’évolution des menaces : les attaques peuvent devenir plus subtiles, exploitant des biais de compréhension ou des prompts déguisés.

Conclusion

L’arrivée d’agents IA autonomes dans Chrome marque un tournant majeur : le navigateur devient plus qu’un simple outil de consultation, il peut agir – pour nous. Mais cette promesse s’accompagne de risques majeurs. Avec User Alignment Critic, Google tente de bâtir un pare-feu : c’est un début, mais la vigilance reste essentielle. L’efficacité de cette protection ne pourra se juger qu’à l’usage, face aux tentatives de détournement d’une IA « trompeuse ».