Vous vous souvenez du Shadow IT ? Il a un nouveau parent disruptif : l'IA fantôme. À mesure que les employés s'habituent aux gains de temps des modèles d'IA générative, ils s'y tournent en masse au travail. Le problème, c'est qu'ils n'ont pas toujours l'autorisation.

L'IA fantôme n'est pas seulement un problème théorique, selon Rapport 2025 de Check Point Research sur la sécurité de l'IA; c'est désormais possible. Les services d'IA sont désormais actifs dans au moins la moitié des réseaux d'entreprise chaque mois, selon l'étude. Parallèlement, un autre rapport Une étude menée par Cyberhaven Labs l'an dernier a révélé que le partage de données avec des outils d'IA a presque quintuplé en un an, entre mars 2023 et mars 2024. Ce serait acceptable si l'utilisation était entièrement autorisée. Cependant, les trois quarts de l'utilisation de ChatGPT sur le lieu de travail se font via des comptes personnels, non soumis aux contrôles de sécurité de l'entreprise, a déclaré Cyberhaven.

Les employés ne sont pas toujours discrets sur ce qu'ils partagent avec ces outils : près d'un sur quatre admet avoir partagé des informations professionnelles sensibles avec eux à l'insu de leur supérieur. Check Point Research a constaté que 1.25 % des messages présentaient un risque élevé de fuite de données sensibles, et que 7.5 % contenaient des données potentiellement sensibles.

Le type d'informations qui parviennent à ces systèmes va des informations sur le support client (16.3 %) au code source, aux documents de R&D et aux documents financiers, a déclaré Cyberhaven.

Des incidents réels illustrent les enjeux. En avril 2023, Samsung confronté à un embarras majeur lorsque les ingénieurs partageaient le code source des semi-conducteurs et les notes de réunion propriétaires.

Mes données sont-elles vraiment en danger ?

On pourrait pardonner aux entreprises de penser que leurs données sont protégées si elles parviennent à une session d'IA, mais ce n'est pas toujours le cas. Il existe plusieurs vecteurs de fuite. Par exemple, de nombreux services d'IA utilisent explicitement les données d'entrée pour l'entraînement des modèles. C'est le cas notamment de la version gratuite de ChatGPT d'OpenAI et de la version gratuite de Microsoft Copilot sur laquelle elle repose. Cela pourrait exposer des fragments des données de votre entreprise à d'autres utilisateurs via les réponses de l'IA.

Les attaques par injection rapide peuvent inciter les systèmes d'IA à révéler des conversations antérieures ou des données d'entraînement, retournant ainsi l'IA contre elle-même pour extraire des informations qu'elle ne devrait pas partager. Ces attaques sont désormais classées comme le risque de sécurité n° 1 de l'OWASP pour l'IA, en raison de leur impact potentiel. Elles permettent aux attaquants de manipuler les systèmes d'IA en créant des invites soigneusement optimisées qui extraient des données d'entraînement sensibles ou contournent les mesures de sécurité.

Les violations de données chez les fournisseurs d'IA eux-mêmes créent des risques d'exposition. Lorsque ces entreprises sont piratées, vos messages sensibles sont intégrés aux données volées. OpenAI a été contraint d'avertir ses utilisateurs en 2023 suite à un bug dans sa base de données Redis. exposé Les conversations de certains utilisateurs avec d'autres. OpenAI étant désormais sous contrôle ne pas supprimer les requêtes des utilisateurs Dans le cadre d'une affaire judiciaire du New York Times, il conserve désormais des conversations privées qui pourraient être vulnérables à un piratage réussi.

La provenance et la sécurité de ces modèles sont parfois également sujettes à caution. Avec la multiplication des modèles chinois désormais disponibles et profondes inquiétudes Concernant la sécurité du modèle chinois DeepSeek, l'IA fantôme constitue une menace claire et présente.

La surveillance de l'IA fantôme est difficile

L'IA fantôme peut facilement passer inaperçue, d'autant plus que ces services sont lancés plus vite que les services informatiques ne peuvent les évaluer. Les capacités d'IA intégrées aux applications approuvées seront invisibles pour les systèmes de détection conventionnels, et il pourrait être difficile de bloquer les sessions basées sur un navigateur. Les listes de blocage peuvent ne pas connaître tous les services d'IA et, dans tous les cas, certains employés peuvent être autorisés à les utiliser, tandis que d'autres ne le peuvent pas. Il faut également prendre en compte les interactions basées sur les API et les communications chiffrées.

Apprivoiser la bête IA

Compte tenu de la promesse de l'IA en matière d'augmentation de la productivité, son interdiction pure et simple semble contre-intuitive. Il est plus réaliste d'adopter une approche prudente de l'IA en élaborant des politiques d'utilisation, notamment compte tenu de l'engouement des employés pour ces services. Une étude de Software AG publiée en octobre dernier trouvé que près de la moitié des employés continueraient à utiliser des outils d’IA personnels même si leur employeur les interdisait.

Des outils comme le Cadre de gestion des risques liés à l'IA du NIST offrent aux organisations la possibilité d'exploiter les avantages de l'IA tout en atténuant ses risques. Ce cadre, basé sur une approche « gouverner, cartographier, mesurer et gérer », intègre des mesures pour chaque élément afin de permettre aux organisations d'adopter une approche stratégique de gestion de l'utilisation de l'IA par leurs employés. Le cadre ISO 42001:2023 propose également des solutions pour créer et maintenir des systèmes de gestion de l'IA de manière responsable au sein des organisations.

Bon nombre des principes utilisés pour lutter contre le shadow IT traditionnel s'appliquent. La création de boutiques d'applications d'IA internes avec des catalogues d'outils approuvés peut offrir aux utilisateurs un plus grand choix tout en maintenant des garde-fous raisonnables. Cela vous donne également plus de poids lors de l'élaboration de politiques d'utilisation acceptables de l'IA, qui indiquent aux employés les types de requêtes acceptables (et non acceptables). Des programmes de formation pour les employés contribueront à consolider ces politiques et à les rendre plus productifs en les informant sur des cas d'utilisation intelligents de l'IA.

Pour certaines organisations, la transition vers des systèmes d'IA privés utilisant des modèles de langage volumineux auto-hébergés contribuera à minimiser le risque lié aux applications d'IA externes. Cependant, pour beaucoup, cela représentera encore un défi de taille, nécessitant une expertise et un budget importants.

Dès qu'une nouvelle technologie devient courante, les employés ont forcément envie de l'expérimenter. On l'a vu avec les appareils mobiles, puis avec le cloud. L'IA ne sera pas la dernière. L'essentiel est d'adopter une attitude positive et responsable envers l'utilisation des technologies et de les réintégrer.