réglementation ai au royaume-uni

Le Royaume-Uni adopte-t-il la bonne approche en matière de réglementation de l’IA ?

À la mi-mars, le Parlement européen a finalement , la loi sur l’intelligence artificielle, dans le but de garantir une utilisation sûre et conforme de l’IA, tout en stimulant l’innovation. Cette mesure est largement considérée comme une première mondiale en matière de réglementation de l'IA et contraste fortement avec l'approche plus non interventionniste du Royaume-Uni. Mais quelle approche est susceptible de bénéficier le plus aux entreprises et à la société ? Et le Royaume-Uni finira-t-il par changer d’avis ?

Le premier du genre

Approuvée par 523 membres du Parlement européen – avec seulement 46 voix contre – la loi sur l’IA vise à :

  • Améliorer la compétitivité de l'UE dans les secteurs stratégiques
  • Créer une société sûre et digne de confiance pour lutter contre la désinformation
  • Promouvoir l’innovation numérique
  • Garantir une surveillance humaine et une utilisation fiable et responsable de l’IA
  • Établissez des garde-fous et garantissez la transparence lors de l’utilisation de l’IA

 

Brando Benifei, député européen et co-rapporteur de la commission du marché intérieur, décrit la législation comme « la première loi contraignante au monde sur l'intelligence artificielle, pour réduire les risques, créer des opportunités, lutter contre la discrimination et apporter de la transparence ».

Bien qu’il s’agisse du premier règlement directement lié à l’IA, un nombre d'actions avaient déjà été prises dans le cadre du RGPD dans ce domaine, notamment interdire les chatbots, et une suspension temporaire de l'outil Bard AI de Google dans l'UE après intervention du chien de garde irlandais des données.

Jonathan Armstrong, avocat et éducateur chez L-EV8, qualifie la loi européenne sur l'IA de « assez complète », affirmant qu'elle établira en fin de compte la norme mondiale pour d'autres réglementations. Même si le Royaume-Uni ne l’adoptera pas, car il a été introduit bien après le Brexit, il pourrait néanmoins avoir un impact sur les développeurs du pays, affirme-t-il.

"Il est important de comprendre qu'il existe des lois britanniques qui s'appliquent déjà à l'IA, y compris la loi sur la protection des données qui a déjà été utilisée par les régulateurs", a-t-il déclaré à ISMS.online. "Il est également important de se rappeler que, comme l'IA est principalement transfrontalière, les développeurs et les utilisateurs britanniques d'IA devront probablement également se conformer au régime de l'UE une fois qu'il sera en vigueur."

Que fait le Royaume-Uni ?

En ce qui concerne l'approche du Royaume-Uni en matière de réglementation de l'IA, Armstrong estime que le gouvernement rattrape son retard, même s'il existe une opportunité dans certains domaines pour le Royaume-Uni d'introduire un régime réglementaire différent.

"Cependant, je ne suis pas sûr que le gouvernement actuel soit suffisamment agile pour le faire et qu'il ait clairement déjà mis en place son objectif d'autorégulation à court terme", affirme-t-il.

Le gouvernement britannique Livre blanc sur l'IA a été lancé l’année dernière et vise « à guider l’utilisation de l’intelligence artificielle au Royaume-Uni, à stimuler l’innovation responsable et à maintenir la confiance du public dans cette technologie révolutionnaire ». Ses instructions sont destinées aux régulateurs existants « à interpréter et à appliquer dans le cadre de leurs compétences afin de favoriser une innovation en matière d’IA sûre et responsable ». Plus tôt cette année, un réponse du gouvernement à la loi de l’UE sur l’IA affirmait que les régulateurs mettaient en œuvre ces principes de manière indépendante.

« Nous restons attachés à une approche contextuelle qui évite les règles générales inutiles qui s'appliquent à toutes les technologies d'IA, quelle que soit la manière dont elles sont utilisées », note-t-il, ajoutant « c'est le meilleur moyen de garantir une approche agile qui résiste à l'épreuve des normes ». temps."

L’idée ici est de proposer une « approche pro-innovation de la réglementation de l’IA » qui englobera les opportunités qu’offre l’IA, tout en encourageant « l’innovation sûre et responsable », en étant « pro-sécurité » et en garantissant que l’IA est une force pour le bien public. Cependant, Armstrong affirme que le gouvernement actuel ne comprend peut-être pas l’IA aussi bien qu’il le devrait.

Plus ou moins de réglementation ?

L’approche britannique est-elle donc meilleure pour les entreprises ? Ou bien davantage de réglementation est-elle positive pour les organisations ? Neil Thacker, RSSI chez Netskope, dit qu'il aime la façon dont le Royaume-Uni a procédé dans ce domaine.

« Je sais qu’il existe actuellement un léger contraste entre le Royaume-Uni et l’UE », a-t-il déclaré à ISMS.online. « L'UE met donc en place une réglementation prévoyant des sanctions pour garantir que les organisations appliquent une forme de contrôle de sûreté et de sécurité à l'IA, alors que le Royaume-Uni est presque « nous allons prendre position sur ce sujet avec un cadre, mais c'est » non statutaire ».

Il affirme qu’il y aura probablement une sorte de législation britannique sur l’IA à terme, « mais il s’agit de déterminer quel est le bon moment ». En attendant, Thacker affirme que les RSSI « s’autorégulent » pour s’assurer qu’ils disposent de contrôles en place, tandis que la société essaie de comprendre les implications de la technologie.

« L'un des plus grands défis est que les compagnons et les assistants sont intégrés à chaque logiciel », dit-il. Ce dont les RSSI ont donc besoin, c’est d’une visibilité sur les endroits où l’IA est présente et utilisée. Et ils pourraient également bénéficier du type d’approche rigoureuse approuvée par l’UE pour garantir que les systèmes sont sûrs et efficaces.

« Il s'agit de rechercher les fournisseurs, les déployeurs, les importateurs, les distributeurs de ces services, les fabricants de systèmes d'IA », conclut-il. "Il s'agit de s'assurer qu'ils sont responsables de garantir que bon nombre des principes fondamentaux de la loi européenne sur l'IA sont appliqués à leurs systèmes."

Attend et regarde

Entre-temps, l'approche du gouvernement semble être « attentiste ». Bien que le National Cyber ​​Security Center (NCSC) ait développé ce qu’il prétend être une « première mondiale » lignes directrices Pour le développement sécurisé de l’IA, il existe peu de signes d’un pouvoir réglementaire permettant d’appliquer de telles bonnes pratiques. Le gouvernement semble se contenter de titres sans grande substance pour les étayer.

Un projet très médiatisé événement mondial, organisée par le gouvernement à Bletchley Park en novembre 2023, a été chargée d'examiner les risques de l'IA, en particulier à la frontière du développement, et de discuter de la manière dont ils peuvent être atténués grâce à une action coordonnée au niveau international. Cependant, Armstrong de L-EV8 le décrit « comme une sorte de grande passion pour la technologie plutôt que comme une vision réfléchie de la réglementation ».

En attendant, les entreprises britanniques attendront avec intérêt de voir ce que la prochaine administration leur réserve.

ISMS.online prend désormais en charge ISO 42001 – le premier système de gestion de l'IA au monde. Cliquez pour en découvrir davantage