Un incident récent a soulevé des inquiétudes quant à la gestion des données par les outils GenAI. Est-il temps de vous assurer que vos données ne finissent pas dans leurs LLM ? Dan Raywood examine les options.

Un sage a dit un jour que ce que l'on publie sur Internet y reste. Cela faisait référence aux réseaux sociaux, et plus particulièrement à Facebook.

Au cours de cette décennie, le défi consiste moins à révéler du contenu sur les réseaux sociaux qu'à ce que vous avez mis dans l'IA générative et les grands modèles linguistiques (LLM), qui conservent, traitent et conservent ensuite ces données pour fournir de meilleurs détails dans les requêtes et les résultats de recherche.

Cependant, toute confiance dans la sécurité de GenAI a été ébranlée cet été lorsque des milliers de personnes ont été touchées. des transcriptions du chat Grok ont été révélées, soulignant la rapidité avec laquelle les conversations privées de l'IA peuvent devenir publiques. Pour les particuliers, cela peut être gênant. Pour les entreprises, les risques sont bien plus élevés : données clients, propriété intellectuelle ou stratégies juridiques exposées, avec des conséquences allant de l'atteinte à la réputation à des amendes réglementaires.

Du chatbot au moteur de recherche

D’après les rapports des médiasÀ chaque fois qu'une conversation était partagée avec le bot Grok, une URL unique était générée et mise à disposition des moteurs de recherche. La plupart des utilisateurs ignoraient que ces liens étaient automatiquement indexés, permettant ainsi à tout le monde de les trouver en ligne.

Damian Chung, responsable de la sécurité des informations commerciales chez Netskope, explique à IO qu'il pense que dans ce cas, seul l'historique des conversations a été exposé, mais c'est « assez inquiétant car on ne pense pas que lorsque l'on partage ces interactions avec l'IA, elles pourraient être rendues publiques ».

Cependant, il estime que cet incident permet au moins de sensibiliser à ce type de risque, car « nous ne regardons pas quels sont les contrôles de sécurité autour de ces LLM, vous ne devriez donc pas simplement permettre aveuglément à n'importe quelle information d'y entrer. »

Pour les entreprises, la leçon est claire : une fois que les données quittent votre environnement, vous en perdez le contrôle. Même des téléchargements apparemment inoffensifs peuvent refaire surface de manière inattendue.

L'intelligence artificielle fantôme et le risque de fuite

Grok, un produit de la société xAI d'Elon Musk, couramment utilisé sur X, fait désormais partie des centaines de services GenAI disponibles. Si l'on peut divulguer des conversations que le participant croyait privées, ou du moins non divulguées, quelles informations les autres détiennent-ils et qui pourraient être divulguées ou piratées ?

Chung dit que nous sommes au début de l'évolution de GenAI, et il est bon d'être conscient des risques, mais aussi de ne pas effrayer les utilisateurs de l'utiliser.

Matt Beard, directeur de la cybersécurité et de l'innovation en IA chez AllPoints Fibre Networks, l'exprime sans détour : « Qu'il s'agisse de données sensibles ou générales, les menaces sont certainement réelles à cet égard, de la divulgation accidentelle d'informations sur les clients à la fuite de documents de stratégie interne, les conséquences peuvent aller d'une atteinte à la réputation à des amendes réglementaires. »

Ce risque est amplifié par l'IA fantôme. Les employés qui recourent à des outils non autorisés pour gagner en productivité risquent d'exposer des informations confidentielles sans s'en rendre compte. Une fois indexées en ligne, les informations peuvent persister longtemps après la suppression de la conversation initiale.

Des politiques, pas des interdictions

Une approche consiste à bloquer complètement l'accès aux outils d'IA, mais les responsables de la sécurité mettent en garde contre son inefficacité. Comme le souligne Chung : « Si vous faites cela, l'utilisateur trouvera un autre moyen de l'utiliser. En le bloquant, nous n'obtenons pas nécessairement le niveau de sécurité escompté. »

Les experts suggèrent plutôt de permettre l'utilisation de l'IA dans le cadre de règles et de garanties claires. Beard affirme que l'équilibre réside dans la « mise en place d'un cadre de contrôles techniques et comportementaux » pour protéger les données organisationnelles. Il s'agit de « montrer aux employés les avantages d'une utilisation sécurisée de ces outils et de s'assurer qu'ils disposent de systèmes acceptables pour l'entreprise, car ils finiront par chercher une solution de contournement dans le cas contraire. »

Angelo Rysbrack, spécialiste de la défense numérique chez Pronidus Cybersecurity, convient que les récentes failles de sécurité mettent en évidence le principal risque pour les entreprises : la manière dont les employés interagissent avec ces outils d'IA. Le téléchargement de données sensibles, même apparemment inoffensives, peut rapidement entraîner une exposition. Une fois que les données quittent votre environnement, vous en perdez le contrôle.

Solutions pratiques

Que peuvent donc faire concrètement les organisations pour réduire le risque d'exposition ? Les SMSI interrogés s'accordent à dire que la solution réside dans la mise en place de défenses structurées et multicouches.

Rysbrack souligne que la plupart des organisations disposent déjà de politiques d'utilisation acceptable ou de politiques informatiques, qui constituent un point de départ naturel. « Si les bases existent, construisez dessus » plutôt que de partir de zéro. Il prévient toutefois que les politiques sur papier ne suffisent pas et que les employés doivent être informés des règles dès le départ et se voir rappeler régulièrement leurs responsabilités.

Beard souligne la nécessité de se concentrer sur une utilisation sûre, dans le respect de garde-fous définis : « Nous devons adopter l'IA pour les gains d'efficacité qu'elle nous apporte, mais cela ne signifie pas une adoption aveugle. Il s'agit de mettre en place un cadre de contrôles techniques et comportementaux pour protéger nos données et nos collaborateurs. »

Pour Rysbrack, ces contrôles doivent inclure des garanties pratiquesUtiliser le filtrage de contenu, les politiques de protection des applications et la prévention des pertes de données pour empêcher la fuite d'informations sensibles de l'organisation. Dans certains cas, il peut être judicieux de bloquer les applications à risque, mais, dans la mesure du possible, de proposer au personnel des alternatives sûres.

Beard souligne l'importance de faire la distinction entre les outils d'IA autorisés et non autorisés et de définir des attentes claires pour les employés : « Par-dessus tout, les politiques d'utilisation acceptables devraient clairement interdire le partage de toute information au-dessus de la classification « publique » avec des services non autorisés. »

Ces mesures peuvent être renforcées en les ancrant dans des cadres reconnus tels que les normes ISO 27001 pour la sécurité de l'information et ISO 42001 pour la gouvernance de l'IA. Cela permet de garantir la cohérence des politiques, du suivi et de la gestion des risques, ainsi que leur vérifiabilité et leur capacité à se défendre face aux contrôles réglementaires.

Prises ensemble, cette combinaison de cadres, de garanties techniques et de sensibilisation continue des utilisateurs crée une culture dans laquelle les employés comprennent à la fois les avantages des outils d’IA et les limites d’une utilisation sûre.

Agissez maintenant, n'attendez pas

Beard est clair : le temps des hésitations est révolu et les organisations ne doivent pas attendre une faille, mais agir dès maintenant. « Établissez des politiques claires et distinctes pour l'utilisation et le développement de l'IA ; assurez-vous qu'elles sont surveillées de manière transparente et formez vos équipes. Surtout, considérez l'IA comme une capacité à maîtriser et non à craindre. »

Chung reconnaît qu'il n'est pas réaliste de bloquer chaque nouvelle application d'IA. Avec des centaines d'applications déjà disponibles et l'apparition constante de nouvelles, il suggère aux organisations d'envisager des interventions plus légères, comme un message de « coaching » avant l'accès à un site web GenAI, rappelant aux employés de bien réfléchir à ce qu'ils partagent.

Rysbrack souligne que le défi consiste à trouver un équilibre entre la protection des données et l'innovation. Les meilleurs résultats sont obtenus en combinant des règles claires, la sensibilisation des utilisateurs, la formation et des mesures de protection techniques. « De cette façon, les employés connaissent les limites, disposent des bons outils et l'organisation évite de faire la une des journaux. »

La vraie leçon de Grok

La fuite de Grok n'est pas le premier exemple de conversations générées par l'IA consultables en ligne, et ce ne sera pas le dernier. Pour les entreprises, la véritable leçon est qu'il ne faut jamais présumer de la confiance accordée à GenAI.

En mettant en place dès maintenant des politiques, des mesures de protection techniques et une sensibilisation du personnel, les organisations peuvent exploiter la productivité de l'IA tout en protégeant leurs données les plus précieuses. Attendre la prochaine faille n'est pas une option.