L’intelligence artificielle (IA) va radicalement transformer nos vies et notre travail dans les années à venir. Mais fortement dépendante de la collecte et de l’analyse d’ensembles de données volumineux, cette technologie présente également des risques majeurs en matière de confidentialité. 

D’après Une étude Selon Cisco, 60 % des consommateurs s'inquiètent de la manière dont les organisations utilisent les systèmes d'IA. Et 65 % font moins confiance aux entreprises qui utilisent cette technologie dans leurs produits et services.

Ces craintes ont conduit de nombreux organismes gouvernementaux et grandes institutions à élaborer des cadres pour tenter de réglementer l’utilisation de la technologie de l’IA. En juin, l'UE annoncé prévoit une loi révolutionnaire sur l’IA pour garantir que cette technologie est « sûre, transparente, traçable, non discriminatoire et respectueuse de l’environnement ».

Même le Vatican, avec l'aide du Centre Markkula d'éthique appliquée de l'Université de Santa Clara, a en réponse un manuel décrivant les implications éthiques de la technologie de l’IA. Ils espèrent « promouvoir une réflexion plus approfondie sur l'impact de la technologie sur l'humanité ». L'Institut national des normes et de la technologie a également élaboré un Cadre de gestion des risques liés à l’IA. 

À mesure que la technologie de l’IA évolue, de nouvelles lois régissant son développement et son utilisation apparaîtront sans aucun doute. Dans le même temps, la pression augmentera sur les entreprises et les utilisateurs d’IA pour qu’ils comprennent et respectent les nouvelles lois. Mais comment peuvent-ils réellement y parvenir ? Et y a-t-il autre chose qu’ils doivent savoir ? Nous avons demandé conseil à plusieurs experts du secteur. 

Les réglementations sur l’IA ne sont pas une mauvaise chose pour l’industrie 

Même si l’introduction de réglementations sur l’IA peut sembler une perspective intimidante pour les organisations développant et utilisant cette technologie, elle pourrait en réalité être une bonne chose pour l’industrie. Aleksandr Gornostal, architecte logiciel et expert en IA chez Étoile estime que les règles de l’IA « créeront un terrain de jeu plus juste et plus équitable à long terme ».

Gornostal s'attend à ce que les nouvelles réglementations nuisent aux efforts de recherche et de développement en IA à court terme. Mais cela ne durera pas éternellement ; il est convaincu qu'il y aura éventuellement une opportunité pour les entreprises technologiques de développer des produits qui résoudront certains des plus gros problèmes de l'IA, notamment en matière de surveillance humaine, de confidentialité et de non-discrimination. 

Bien entendu, les entreprises devront veiller à ce que leurs systèmes d’IA respectent les lois nouvelles et émergentes si elles veulent réussir à long terme. Gornostal conseille aux entreprises de commencer par mener des évaluations d'impact régulières et d'assurer une transparence constante avec les parties prenantes. Ils doivent également prévoir des budgets et des ressources importants pour se conformer à ces règles. 

« Le respect de la réglementation sur l’IA deviendra une condition préalable à l’entrée sur le marché européen, et toute entreprise souhaitant commercer ou faire des affaires dans l’UE devra adhérer aux normes », dit-il. 

Outre les problèmes de confidentialité, Gornostal affirme que l'IA générative présente des risques en termes de diversité, de représentation et d'inclusivité. « Les modèles ont tendance à renforcer l’opinion la plus dominante sans porter de jugement sur son équité ou son exactitude. Nous devons être conscients de ces lacunes et éviter que l’IA ne crée des chambres d’écho.

Adopter un principe de conception 

Les entreprises qui cherchent à bénéficier de la révolution de l’IA n’auront d’autre choix que de se préparer aux nouvelles réglementations sectorielles en constante évolution. Cependant, comme Immuta Sophie Stalla-Bourdillon, conseillère principale en matière de protection de la vie privée et ingénieure juridique, a souligné que beaucoup sont déjà habitués à traiter avec des lois comme le règlement général sur la protection des données. Elle suggère également que le respect des nouvelles règles en matière d’IA sera similaire. 

« La meilleure façon d’anticiper les nouvelles lois et réglementations est d’opérationnaliser le plus tôt possible l’approche fondée sur des principes introduite par des réglementations telles que GDPR; en d’autres termes, poursuivre une approche de conformité dès la conception », dit-elle. 

Cela implique de concevoir des environnements contrôlés dans lesquels les organisations recherchent régulièrement « des incidents potentiels et des pratiques indésirables », selon Stalla-Bourdillon. Elle conseille également aux entreprises de les tester par rapport à des paramètres tels que la confidentialité et l'équité. 

Elle poursuit en expliquant que les entreprises peuvent choisir entre deux stratégies de conception pour « montrer que la confidentialité et la sécurité convergent réellement ». La première utilise des principes de protection des données tels que la minimisation et le besoin de connaître.  

« Une fois opérationnalisé, cela devrait conduire à des politiques de contrôle d’accès plus précises. Ces politiques sont pertinentes pour les données de formation, les paramètres du modèle, les requêtes ou les invites, les résultats ou les réponses », dit-elle.

La deuxième stratégie de conception fournit aux entreprises des mesures, des KPI et des journaux d'audit pour améliorer la transparence et l'observabilité lors de la confirmation du système, de la formation, des tests, du déploiement et de nombreuses autres périodes. Elle ajoute : « Avoir une visibilité sur l’ensemble du cycle de vie des données augmente le contrôle et simplifie la participation aux évaluations régulières. »

Tout le monde doit comprendre les risques de l’IA

Même si les réglementations sur l’IA sont « désespérément nécessaires », ESET Le conseiller mondial en cybersécurité, Jake Moore, admet que les entreprises auront probablement du mal à se tenir au courant de leurs exigences en constante évolution. 

« Les réglementations peuvent donner du pouvoir aux entreprises et leur permettre de se sentir protégées, mais elles ne signifient rien pour les développeurs de logiciels malveillants sophistiqués. La réglementation britannique est notoirement en retard, mais cela semble déjà plus prometteur », poursuit-il. 

Il qualifie de « vitale » l’intervention du gouvernement sur les risques liés à l’IA, mais exhorte les régulateurs à définir des attentes réalistes. « Contrôler la bête [IA] sera presque impossible avec une technologie de pointe en constante amélioration », dit-il. « De plus, le maintien de l’ordre est rendu plus difficile, comme toujours avec les juridictions internationales. »

En plus de se conformer aux nouvelles réglementations en matière d'IA, il avertit les organisations de ne pas ignorer la menace posée par les cyberattaques basées sur l'IA. Il s’attend à ce que ces mesures deviennent de plus en plus complexes et étendues, ciblant les entreprises et les particuliers au cours des années à venir. 

Il ajoute : « Il est important d'enseigner au personnel et au grand public que voir n'est pas toujours croire et que nous devons plus que jamais faire preuve de prudence, car l'élément humain [de l'IA] est encore largement abusé. »

Aviv Raff, directeur informatique de portée de floraison, reconnaît l’importance d’éduquer les individus sur les risques associés à l’IA et sur les mesures qu’ils peuvent prendre pour utiliser cette technologie en toute sécurité.

Il conseille : « Pour les entreprises, il est important qu'elles introduisent des politiques et des normes qui traitent de l'utilisation acceptable de l'IA, organisent la formation des employés sur l'utilisation appropriée de l'IA, s'assurent qu'elles n'utilisent que des instances privées d'IA qui sont contractuellement liées, se désengagent du modèle. formation et emploient le principe du moindre privilège pour empêcher tout accès non autorisé. "

L’IA offre d’immenses opportunités à la société dans son ensemble, mais elle présente également d’importants risques éthiques. Encourager la compréhension mondiale de ces risques et les contrer est essentiel pour réaliser l’énorme potentiel offert par la technologie de l’IA. 

La réglementation jouera un rôle essentiel dans ce processus, mais il est clair que s’y conformer constituera une tâche difficile pour les entreprises. De plus, à mesure que la technologie de l’IA évolue et que de nouveaux risques apparaissent, les organismes gouvernementaux doivent adapter leurs réglementations en conséquence pour garantir qu’elles restent pertinentes.