Trois ans se sont écoulés depuis le lancement de ChatGPT, qui a donné le coup d'envoi à une nouvelle course technologique, mais tous les regards sont désormais tournés vers l'IA agentive. Ses partisans affirment qu'elle surpassera l'IA générative (GenAI) en travaillant de manière autonome pour accomplir des tâches pour ses utilisateurs humains. Près des deux tiers (62 %) des organisations expérimentent déjà, au moins partiellement, les agents d'IA, les plus grandes entreprises passant à l'échelle supérieure, selon [référence manquante]. McKinsey.
Mais l'autonomie comporte des risques. Le mois dernier encore, Anthropique révélé Ce qu'elle prétendait être la première « campagne de cyberespionnage orchestrée par l'IA », utilisant son chatbot Claude pour cibler des dizaines d'organisations, est une menace dont la communauté des analystes met également en garde.
Forrester's principales prédictions en matière de cybersécurité Pour 2026, on prévoit qu'un déploiement d'IA agentielle entraînera une violation de données rendue publique, pouvant mener au licenciement d'employés. La question est de savoir si les organisations disposent des outils, des cadres et du savoir-faire nécessaires pour gérer de tels risques, tout en tirant parti des importants avantages commerciaux que cette technologie offre.
Comment fonctionne l'IA agentique
Alors que l'IA générique se contente de résumer et de créer du contenu à partir des requêtes des utilisateurs, les systèmes d'IA agentiques sont conçus pour fonctionner sans supervision humaine constante afin d'accomplir des tâches. Pour ce faire, ils collectent des informations provenant de bases de données, de capteurs, d'utilisateurs et d'API. Ils traitent ensuite ces données pour en extraire des informations pertinentes et le contexte. L'IA se fixe ensuite des objectifs en fonction de buts prédéfinis ou des entrées de l'utilisateur, détermine comment les atteindre et utilise le raisonnement pour choisir la meilleure action parmi plusieurs possibilités.
Vient ensuite l'exécution de cette action, généralement par interaction avec des systèmes et des données tiers. Puis l'évaluation du résultat, suivie d'un perfectionnement et d'un apprentissage continus. C'est la capacité de l'IA à accomplir des tâches complexes et multi-étapes de cette manière – en s'adaptant potentiellement de façon dynamique à mesure que de nouvelles informations apparaissent – qui la rend si utile. Les cas d'utilisation sont quasi illimités. Cette technologie pourrait alimenter aussi bien les flux de travail de maintenance prédictive dans les environnements industriels que la gestion du parcours client pour les acteurs du e-commerce.
Utilisée à bon escient, l'IA agentielle pourrait éliminer les erreurs humaines dans les tâches manuelles, libérant ainsi le personnel pour des missions à plus forte valeur ajoutée et améliorant considérablement l'efficacité opérationnelle et la productivité. Ces gains d'efficacité devraient permettre de réduire les coûts. De plus, les agents IA pourraient considérablement améliorer l'expérience client dans certains secteurs.
Comment une violation de données pourrait se produire
Cependant, le manque de surveillance de l'IA accroît le risque de manipulation malveillante ou de fuite accidentelle de données, avant même que les équipes de sécurité ne détectent un problème. Plus les décisions qu'un agent est habilité à prendre sont importantes, plus le risque potentiel est élevé. L'injection d'instructions malveillantes est une préoccupation majeure. En intégrant des instructions malveillantes dans un élément que l'agent est amené à traiter (document, page web ou commentaire en ligne, par exemple), un acteur malveillant pourrait le tromper et obtenir la fuite de données sensibles.
Des fuites peuvent aussi survenir accidentellement, si les garde-fous ne sont pas correctement mis en place. Des agents aux privilèges excessifs et une prolifération d'agents augmentent la probabilité d'incidents.
Forrester met en garde contre le risque de violations de sécurité dues à une « cascade de défaillances ». L’analyste principal Paddy Harrington présente trois scénarios à ISMS.online :
Trop d'accès aux données : « Dans leur empressement à déployer une IA agentielle, les services et les équipes risquent d'ignorer les directives d'accès Zero Trust. Et comme il s'agit d'un "programme" et non d'une personne, ils pourraient supposer qu'il suffit de lui autoriser l'accès à certains ensembles de données pour en limiter la portée », explique-t-il. « Malheureusement, comme l'ont montré les conséquences d'une segmentation insuffisante des utilisateurs et des appareils, tout agent ayant accès aux données peut être manipulé. Si l'on ajoute à cela le vol d'un jeton d'authentification, la quantité de données pouvant être dérobée peut paralyser une entreprise. »
Mauvaise hygiène d'authentification : « Les agents doivent être autorisés à accéder aux données, ce qui implique une authentification. Si les méthodes d'authentification sont trop simplistes (jetons statiques mal stockés, par exemple) ou trop permissives, ces agents peuvent être manipulés par des personnes malveillantes », explique Harrington. « Si un utilisateur crée un flux de travail automatisé sans aucune directive, il risque d'envoyer des données vers des référentiels externes ou d'accéder à des données sensibles via ces flux de travail autonomes. En l'absence de garde-fous, cela pourrait exposer des informations RH, financières, voire même des données d'authentification. »
Se fier à des informations peu précises : « La précision de nombreux modèles probabilistes peut varier de 60 % à 10 %. Dans le contexte des alertes informatiques ou de sécurité, un modèle développé à la hâte pourrait générer une multitude de faux positifs, voire pire, de faux négatifs », explique Harrington. « Cela pourrait détourner l'attention des équipes des problèmes réels, voire les empêcher de les identifier. Quant à l'effet domino, dans un flux de travail où les agents collaborent, un mensonge commis par l'un d'eux pourrait inciter les agents suivants à s'en inspirer, à générer leurs propres mensonges, et ainsi de suite. Le résultat final serait alors un véritable cauchemar en matière de sécurité et d'informatique. »
Garde-fous et politiques
Forrester recommande de suivre ses garde-fous d'IA agentique pour la sécurité de l'information (AEGIS). cadreIl s'articule autour de six « domaines » :
- Gouvernance, risque et conformité (GRC)
- Gestion des identités et des accès (IAM)
- Sécurité et confidentialité des données
- Sécurité de l'application
- Gestion des menaces
- Architecture Zero Trust
L'analyste recommande de commencer par la GRC (Gouvernance, Risque et Conformité) : mise en place d'une gouvernance, création de systèmes d'inventaire des agents et définition des usages acceptables. Il encourage ensuite les équipes de sécurité à développer la gestion des identités et des accès (IAM) et la sécurité des données, en considérant les agents comme une « nouvelle catégorie d'identité ». Viennent ensuite les améliorations apportées au DevSecOps pour sécuriser le cycle de vie des agents et détecter les comportements anormaux. Enfin, l'optimisation via le principe de confiance zéro (Zero Trust) permet de garantir le minimum d'autonomie, de surveiller les comportements imprévus et d'isoler les agents malveillants.
Les normes de bonnes pratiques telles que l'ISO 42001 peuvent également s'avérer utiles, compte tenu des nombreuses similitudes avec l'approche AEGIS, explique Harrington. Quelle que soit la méthode retenue, il insiste sur l'importance pour les organisations d'intégrer la sécurité dès la conception de leurs projets d'IA agentielle.
« Tout le monde va trop vite pour que les protections adéquates puissent être mises en place. Les dirigeants d'entreprise considèrent que la mise en œuvre d'agents d'IA et de flux de travail automatisés permettra de réaliser d'importantes économies et d'accroître l'efficacité », conclut-il.
« La sécurité, ce service qui dit “non”, est souvent perçue comme un frein à la rapidité, car on demande aux gens de prendre le temps de suivre les consignes de sécurité. Et ces obstacles sont vus comme des obstacles. Mais presque à chaque fois qu’on ignore la sécurité, cela finit par avoir des conséquences fâcheuses. »










