Les navigateurs IA présentent des risques majeurs pour la sécurité des organisations
Séraphine Clairlune
Selon une étude récente de Gartner publiée en décembre 2025, les navigateurs intelligents représentent une menace significative pour la sécurité des entreprises. Cette analyse approfondie révèle que ces outils innovants sont “trop risqués pour une adoption généralisée par la plupart des organisations”. Les experts de Gartner mettent en lumière les vulnérabilités inhérentes à ces technologies émergentes qui pourraient compromettre la confidentialité des données sensibles et exposer les entreprises à des cyberattaques sophistiquées.
Dans un contexte où l’IA transforme radicalement notre façon d’interagir avec le numérique, cette alerte sonne comme un rappel nécessaire : l’innovation technologique doit aller de pair avec une approche rigoureuse de la sécurité. Les navigateurs IA, avec leurs capacités d’interaction avancées et leurs fonctionnalités autonomes, représentent un défi majeur pour les équipes en charge de la cybersécurité dans les entreprises françaises.
Ce que disent les experts de Gartner
Le document de 13 pages rédigé par les analystes Dennis Xu, Evgeny Mirolyubov et John Watts de Gartner constitue un véritable avertissement pour les décideurs en matière de sécurité informatique. Les experts soulignent que la capacité des navigateurs IA à naviguer automatiquement sur le web et à effectuer des transactions “peut contourner les contrôles traditionnels et créer de nouveaux risques tels que les fuites de données sensibles, les transactions erronées automatisées et l’abus d’identifiants”.
“Les paramètres par défaut des navigateurs IA, qui privilégient l’expérience utilisateur, peuvent également compromettre la sécurité. Les données sensibles des utilisateurs - telles que le contenu web actif, l’historique de navigation et les onglets ouverts - sont souvent envoyées vers le backend cloud de l’IA, augmentant le risque d’exposition des données à moins que les paramètres de sécurité et de confidentialité ne soient renforcés et gérés de manière centralisée et délibérée.”
Cette analyse soulève une question fondamentale : comment concilier innovation technologique et protection des données dans un environnement réglementaire de plus en plus strict comme celui imposé par le RGPD en France ?
Les fonctionnalités “agentic” : un nouveau danger
Les chercheurs se sont largement concentrés sur les risques posés par les capacités agentic et les transactions autonomes des navigateurs IA, plutôt que sur les barres latérales AI intégrées. Selon Gartner, ces fonctionnalités représentent une distinction fondamentale par rapport aux barres de conversation tierces et à l’automatisation de base basée sur des scripts.
Les risques spécifiques incluent :
- Les actions d’agents malveillants induites par des injections de prompt indirectes
- Les actions d’agents erronées dues à un raisonnement inexact
- Une perte et un abus supplémentaires d’identifiants si le navigateur IA est trompé pour naviguer automatiquement vers un site de phishing
- La fuite de données sensibles que les utilisateurs consultent actuellement vers leur service backend cloud
L’aspect le plus préoccupant est que ces navigateurs peuvent agir de manière autonome sans intervention humaine explicite, ouvrant la porte à des scénarios d’attaques particulièrement sophistiqués.
Le cas de Perplexity Comet : analyse des risques
Parmi les navigateurs IA, Perplexity Comet et OpenAI’s ChatGPT Atlas se distinguent par leur capacité à effectuer des transactions agentic. Les analystes de Gartner ont effectué “un nombre limité de tests utilisant Perplexity Comet”, faisant de ce navigateur leur principal point d’analyse, tout en notant que “ChatGPT Atlas et autres navigateurs IA fonctionnent de manière similaire, et les considérations de cybersécurité sont également similaires”.
Selon la documentation de Comet, le navigateur “peut traiter certaines données locales à l’aide des serveurs de Perplexity pour répondre à vos requêtes. Cela signifie que Comet lit le contexte de la page demandée (tel que le texte et les e-mails) afin d’accomplir la tâche demandée.”
Cette fonctionnalité crée un risque significatif de fuite de données, car les utilisateurs sont susceptibles de consulter des données plus sensibles dans un navigateur qu’ils ne le feraient généralement dans une invite de GenAI.
Les implications pour les entreprises françaises
En France, où la protection des données est une priorité absolue, ces considérations prennent une dimension particulière. La Commission Nationale de l’Informatique et des Libertés (CNIL) maintient une surveillance stricte du traitement des données personnelles, et les navigateurs IA pourraient facilement entrer en conflit avec ces réglementations.
Même si un navigateur IA est approuvé, les utilisateurs doivent être formés pour comprendre que “tout ce qu’ils consultent pourrait potentiellement être envoyé au backend du service IA”. Cette sensibilisation est cruciale pour s’assurer qu’ils n’ont pas de données hautement sensibles actives dans l’onglet du navigateur lors de l’utilisation de la barre latérale de l’IA pour résumer ou effectuer d’autres actions autonomes.
Comprendre les menaces spécifiques des navigateurs IA
Les fuites de données involontaires
L’un des risques les plus significatifs associés aux navigateurs IA est la transmission involontaire de données sensibles vers les services cloud. Contrairement aux interactions traditionnelles avec les assistants IA où les utilisateurs consciemment saisissent des informations, les navigateurs IA peuvent potentiellement collecter et envoyer des données simplement en raison des pages consultées.
Ce phénomène de collecte de données sans consentement explicite représente une violation fondamentale des principes de protection des données tels que définis par le RGPD. Les entreprises françaises, en particulier, doivent être particulièrement vigilantes à cet égard, car la non-conformité peut entraîner des sanctions financières considérables.
Les attaques par injection de prompt
Bien que les chercheurs aient largement ignoré les risques posés par les barres latérales AI intégrées, ils notent que les fonctions de recherche et de résumé alimentées par LLM “seront toujours susceptibles aux attaques par injection de prompt indirectes, étant donné que les LLM actuels sont intrinsèquement vulnérables à de telles attaques”.
Cette vulnérabilité technique ouvre la porte à des scénarios d’attaques particulièrement insidieux où des acteurs malveillants pourraient manipuler le comportement du navigateur IA en injectant des instructions malveillantes à travers le contenu web consulté.
Les transactions erronées automatisées
Les employés pourraient être tentés d’utiliser des navigateurs IA pour automatiser des tâches, ce qui pourrait entraîner “des transactions agentic erronées contre les ressources internes résultant du raisonnement inexact ou du contenu de sortie du LLM”. Ce scénario est particulièrement préoccupant pour les entreprises car il pourrait conduire à des actions irréversibles comme des transferts financiers non autorisés ou des suppressions accidentelles de données critiques.
Dans un environnement professionnel français, où les processus métiers sont souvent complexes et hautement réglementés, l’automatisation incontrôlée pourrait avoir des conséquences désastreuses sur la continuité des opérations et la conformité réglementaire.
Mise en œuvre : comment protéger votre organisation
Étapes immédiates de sécurisation
Gartner recommande fermement que les employés soient empêchés d’accéder, de télécharger et d’installer des navigateurs IA via des contrôles de sécurité réseau et de point de terminaison. Cette mesure constitue la première ligne de défense contre l’adoption non autorisée de ces technologies potentiellement dangereuses.
Pour les organisations avec une tolérance aux risques faible, le blocage complet des installations de navigateurs IA est fortement recommandé. Pour celles avec une tolérance aux risques plus élevée, des expérimentations avec des cas d’utilisation d’automatisation à faible risque, contrôlés étroitement, peuvent être envisagées, en s’assurant que les garde-fous robustes et l’exposition minimale aux données sensibles sont en place.
Stratégies de déploiement contrôlé
Pour les cas d’utilisation pilotes, les analystes recommandent de désactiver le paramètre “rétention des données IA” de Comet afin que Perplexity ne puisse pas utiliser les recherches des employés pour améliorer ses modèles IA. Les utilisateurs devraient également être instruits pour effectuer périodiquement la fonction “supprimer tous les souvenirs” dans Comet afin de minimiser le risque de fuite de données sensibles.
Une approche graduelle et contrôlée de l’adoption des navigateurs IA est essentielle. Cela inclut :
- Évaluation rigoureuse des besoins métiers
- Identification des cas d’utilisation à faible risque
- Mise en place de politiques d’utilisation strictes
- Surveillance continue des activités
- Formation approfondie des utilisateurs
Formation et sensibilisation des équipes
La sensibilisation constitue un élément crucial de la stratégie de sécurité des navigateurs IA. Les équipes doivent comprendre non seulement les risques potentiels, mais aussi les protocoles appropriés pour minimiser ces risques. Cela inclut la formation sur :
- La nature des données qui ne devraient pas être consultées lors de l’utilisation de navigateurs IA
- Les signes d’attaques potentielles par injection de prompt
- Les procédures à suivre en cas d’activité suspecte
- L’importance de la gestion proactive des données
Dans le contexte français, cette formation doit également intégrer les spécificités du cadre réglementaire local, notamment les obligations liées au RGPD et aux autres réglementations sectorielles applicables.
Tableau comparatif des risques des navigateurs IA
| Type de risque | Niveau de gravité | Probabilité d’occurrence | Mesures de mitigation recommandées |
|---|---|---|---|
| Fuite de données sensibles | Élevée | Moyenne à élevée | Chiffrement des données, restriction des accès, surveillance des activités |
| Transactions erronées automatisées | Critique | Faible à moyenne | Validation humaine des actions sensibles, limites strictes des autorisations |
| Attaques par injection de prompt | Élevée | Élevée | Mise à jour constante des systèmes, détection d’anomalies, segmentation des réseaux |
| Abus d’identifiants | Élevée | Moyenne | Gestion robuste des mots de passe, authentification multi-facteurs |
| Non-conformité réglementaire | Critique | Élevée | Audit régulier, conseil juridique spécialisé, documentation exhaustive |
Conclusion : une adoption prudente est essentielle
Face à l’essor rapide des navigateurs IA, les organisations françaises doivent adopter une approche prudente et équilibrée. Bien que ces technologies offrent des promesses d’innovation et d’efficacité, les risques associés à leur adoption généralisée sont trop importants pour être ignorés.
La recommandation de Gartner de bloquer tous les navigateurs IA pour l’avenir prévisible reflète une compréhension approfondie des vulnérabilités inhérentes à ces technologies émergentes. Pour les entreprises françaises op dans un environnement réglementaire strict, cette approche prudente n’est pas seulement une question de sécurité, mais aussi de conformité légale.
Comme le soulignent les experts de Gartner, l’adoption de ces technologies doit être accompagnée de “garde-fous robustes et d’exposition minimale aux données sensibles”. Dans le paysage cyberactuel de 2025, cette approche prudente n’est pas une option, mais une nécessité pour protéger les informations critiques et maintenant la confiance des clients et partenaires.