Depuis plus d'une décennie, le Royaume-Uni est en difficulté économique. Depuis la crise financière de 2008-9, la productivité n'a pratiquement pas augmenté, ce qui a accru l'exposition du pays aux chocs économiques, attisé le mécontentement populaire et conduit à une détérioration des services publics. Le nouveau gouvernement pense avoir une solution : l'IA. Un nouveau plan d'action majeur pour les opportunités de l'IA dévoilé en janvier est conçu pour offrir une « décennie de renouveau national » en « intégrant l’IA dans les veines de cette nation entreprenante ».

Mais comme l’ont prévenu les experts, ce plan ouvre également de nouvelles possibilités pour les acteurs malveillants de voler, saboter, extorquer et perturber les systèmes. La clé sera de s’assurer que les organisations qui s’engagent à concrétiser ce plan conçoivent leur infrastructure et leurs systèmes d’IA en tenant compte de la sécurité dès le départ.

Qu'y a-t-il dans le plan ?

Le plan lui-même, que le gouvernement affirme vouloir adopter dans son intégralité, ne manque certainement pas d'ambition. Elle comporte huit éléments clés :

Poser les bases de l'infrastructure de l'IA

Cela comprend la création d’une ressource de recherche en IA dédiée (AIRR) composée d’ordinateurs avancés capables d’utiliser l’IA et l’établissement de « zones de croissance de l’IA » pour accélérer la construction de centres de données du secteur privé.

Déverrouillage des ressources de données

Développer une bibliothèque nationale de données (NDL), qui mettra à disposition des chercheurs et innovateurs en IA des ensembles de données publics « de manière sûre et éthique ». Ces plans comprendront également la construction d’infrastructures de collecte de données du secteur public, le financement de la création de nouveaux ensembles de données à forte valeur ajoutée et l’incitation de l’industrie à « organiser et à exploiter des ensembles de données privées ».

Formation et compétences

Évaluer le déficit de compétences en IA, améliorer la diversité du vivier de talents, soutenir l’enseignement supérieur pour augmenter le nombre de diplômés en IA et attirer des travailleurs qualifiés de l’étranger.

Réglementation, sécurité et assurance

Développer l’Institut de sécurité de l’IA, rendre le « régime britannique d’exploration de textes et de données » plus compétitif, financer « d’urgence » les régulateurs pour améliorer leur expertise en IA et veiller à ce que tous les ministères sponsors accordent la priorité à « l’innovation en matière d’IA sûre ». Le plan cite également des initiatives en faveur de l’innovation telles que les bacs à sable réglementaires et la création d’« outils d’assurance de haute qualité » soutenus par le gouvernement pour évaluer la sécurité de l’IA.

Adopter une approche « Scan > Pilot > Scale »

Anticiper les évolutions futures de l'IA, piloter et prototyper de manière cohérente et rapide, et se concentrer sur la mise à l'échelle de dizaines ou de centaines de millions d'interactions citoyennes à travers le Royaume-Uni. Cette étape fait également référence au besoin d'interopérabilité des infrastructures, de réutilisabilité du code et d'open source.

Renforcement des secteurs public et privé

Le gouvernement prévoit d’utiliser son poids et sa nouvelle infrastructure numérique pour créer de nouvelles opportunités pour les innovateurs, créer un pôle de connaissances en IA et susciter l’intérêt du secteur privé pour l’approche Scan > Pilot > Scale pour des gains rapides.

Surmonter les obstacles à l’adoption par les utilisateurs

Améliorer l’adoption par les secteurs public et privé via des champions de l’IA sectoriels et une nouvelle stratégie industrielle.

IA avancée

Créer une nouvelle unité gouvernementale dotée du pouvoir de s’associer au secteur privé pour maximiser la participation du Royaume-Uni dans l’IA de pointe.

Plus que des paroles en l’air ?

Comme c’est souvent le cas avec les annonces gouvernementales majeures, de nombreux détails restent à régler. Ainsi, si la « sécurité » est mentionnée 14 fois dans le plan, c’est seulement dans des termes très vagues, comme le fait que le gouvernement « s’engage à construire une infrastructure d’IA de pointe, sûre et durable » ou qu’il « exploitera de manière responsable, sûre et éthique la valeur des actifs de données du secteur public ».

Il y a pourtant de bonnes raisons de s'inquiéter des conséquences de cette situation. Selon le rapport du Forum économique mondial (WEF), Rapport sur les risques mondiaux 2025, Les « conséquences néfastes des technologies d’IA » ont été classées par les chefs d’entreprise et les experts comme le sixième risque le plus grave pour la prochaine décennie. Ces conséquences pourraient provenir de modèles mal conçus ou d’actions malveillantes telles que l’empoisonnement des données/modèles. Dans ce dernier scénario, les acteurs malveillants accèdent aux systèmes d’IA pour corrompre les données d’entraînement ou manipuler les paramètres du modèle afin de saboter ou de provoquer des résultats spécifiques et indésirables.

Ils pourraient utiliser le même accès à l'infrastructure de l'IA pour voler des données sensibles de formation des entreprises et des clients, ou même un grand modèle linguistique (LLM) lui-même, s'il a été finement peaufiné par une organisation dans un but spécifique et représente donc une propriété intellectuelle précieuse à part entière.

Malheureusement, les recherches révèlent que les composants clés des approches d’IA de nouvelle génération, comme la génération augmentée de récupération (RAG) et l’« IA agentique » autonome, sont criblés de failles de sécurité. Un rapport affirme L'équipe de sécurité a découvert de nombreuses vulnérabilités dans les outils et plateformes d'hébergement LLM comme llama.cpp et Ollama, ainsi que dans les bases de données vectorielles comme ChromaDB. Elle révèle également des dizaines de serveurs et d'instances exposés publiquement associés à ces outils, dont beaucoup ne nécessitent aucune authentification. Sans parler du risque posé par les informations d'identification compromises.

« Un pourcentage élevé de cyberattaques utilisent des identifiants volés, ce qui permet aux attaquants de se connecter plutôt que de pirater », explique Andrew Rose, directeur de la sécurité de SoSafe, à ISMS.online. « De nombreuses entreprises créent des chatbots IA pour aider leur personnel, mais peu d’entre elles ont envisagé le scénario où leur chatbot deviendrait complice d’une attaque en aidant l’attaquant à collecter des données sensibles, à identifier des personnes clés et à obtenir des informations utiles sur l’entreprise. »

Les experts tirent la sonnette d'alarme

D’autres experts en sécurité ont également tiré la sonnette d’alarme concernant les projets du gouvernement. Michael Adjei, directeur de l’ingénierie des systèmes chez Illumio, met en garde contre une « couche cachée » de technologie d’IA exclusive et insuffisamment contrôlée que les acteurs malveillants pourraient cibler via les attaques d’empoisonnement de données contradictoires expliquées ci-dessus.

« Le problème est que les couches cachées de l’IA fonctionnent via des « représentations apprises », ce qui est difficile à interpréter et à surveiller pour les vulnérabilités pour les équipes de sécurité. Cela rend plus difficile la détection des modèles d’IA falsifiés, en particulier dans les systèmes qui fonctionnent de manière autonome ou en temps réel », explique-t-il à ISMS.online.

« La chaîne d’approvisionnement de l’IA présente d’autres risques. Les données tierces, les environnements de formation, les logiciels ou le matériel compromis peuvent mettre en péril des systèmes d’IA entiers. Par exemple, les attaquants pourraient injecter des données malveillantes dans des ensembles de données de formation, créant ainsi des biais ou des vulnérabilités dans les modèles d’IA. »

Le plan du gouvernement fait référence aux logiciels open source, une préoccupation particulière de la chaîne d'approvisionnement étant donné la Les défis de sécurité bien documentés de l'industrie.

Martin Riley, directeur technique de Bridewell, a une expérience dans la conception et l’exploitation de centres de données. Il prévient que « le marché des centres de données n’est pas bien réglementé et que la maturité de la cybersécurité autour de ces installations est quelque peu insuffisante ». Il tire également la sonnette d’alarme concernant la NDL.

« La NDL visera principalement à garantir que le secteur privé puisse innover pour soutenir le secteur public. La rigueur autour des données, de l’anonymisation et de la protection des individus va donc créer plusieurs défis en matière de cybersécurité », explique Riley. « Quelles seront les exigences en matière de cybersécurité pour ceux qui souhaitent accéder à la NDL et utiliser ses données ? »

Rose, de SoSafe, souhaite voir une plus grande attention portée à la gouvernance.

« J’espère que le gouvernement réaffirmera que l’IA doit se conformer aux réglementations existantes, notamment aux normes de confidentialité des données. Il serait judicieux d’insister sur la qualité et le contrôle des données d’entrée afin de garantir un résultat de qualité et exempt de biais, mais cela devient un défi lorsque les ensembles de données deviennent vastes et variés, provenant de nombreux endroits », explique-t-il.

« L’essentiel est d’insister auprès des entreprises qui adoptent l’IA pour qu’elles mettent en place un comité de gouvernance et de surveillance. Ce comité devrait exiger un inventaire des domaines dans lesquels l’IA est utilisée et de l’étendue de ses responsabilités, étayé par des évaluations des risques liés aux dommages potentiels causés par des résultats erronés ou des pannes, ainsi que des voies de récupération en cas de panne ou de violation. »

La norme ISO 42001 à la rescousse

Les régulateurs joueront un rôle important pour garantir que les ambitions du gouvernement soient réalisées de manière sûre, sécurisée et éthique. L'Institut de sécurité de l'IA deviendra un organisme statutaire, les ministères parrains recevront un financement pour « accroître leurs capacités en matière d'IA » et « l'innovation en matière d'IA sûre » sera mise en avant dans les directives données à ces régulateurs.

Cependant, même s’il reste à voir quelles nouvelles règles pourront être mises en œuvre en conséquence, il existe déjà des normes de bonnes pratiques qui peuvent aider les développeurs et les utilisateurs d’IA à s’orienter dans tous les cadres réglementaires qui se présenteront à eux. ISO 42001, par exemple, est conçu pour favoriser une utilisation et une gestion responsables des systèmes de gestion de l’IA.

« Il fournit des lignes directrices pour une utilisation sécurisée de l'IA, aidant les développeurs à mettre en œuvre des mécanismes pour détecter les comportements inhabituels ou les résultats inattendus, réduisant ainsi la susceptibilité à la manipulation », explique Adjei d'Illumio.

Rose de SoSafe est du même avis.

« La norme ISO 42001 est une méthodologie efficace pour aider les organisations à adopter l’IA de manière réfléchie. Elle encourage une approche prudente de l’évaluation et du contrôle de la mise en œuvre de l’IA, garantissant une connaissance et une surveillance suffisantes des risques associés », conclut-il.

« Comme la norme ISO 27001, elle ne garantit pas la sécurité. Cependant, elle ouvre la voie à une évaluation et une amélioration continues, ce qui augmente la probabilité de créer une solution résiliente. »

Nous en saurons davantage sur les projets du gouvernement au printemps, même si, compte tenu de la mauvaise santé de l'économie britannique, il reste à voir si le Trésor bloquera ou diluera nombre de ces initiatives. Quoi qu'il arrive, espérons que la sécurité intégrée et la gouvernance renforcée de l'IA ne seront pas négociables.