Nous sommes en 2023 et l’IA semble être partout. ChatGPT, l'IA produite par l'institut OpenAI fondé par Elon Musk, est rédiger des essais d'étudiants, produire des livres, Et même amendes de stationnement difficiles. Lors d'un incident qui prouve que nous vivons dans un épisode de Black Mirror, un employé universitaire particulièrement sans âme a même l'a utilisé pour consoler les étudiants après une fusillade de masse.

Comment fonctionne ChatGPT

Les experts en matière de confidentialité et de sécurité se demandent peut-être comment l’IA pourrait également les aider. Pourrait-il, par exemple, rédiger votre politique de confidentialité ? La réponse est oui – en quelque sorte.

Pour aborder la question de manière plus approfondie, il convient de comprendre comment fonctionne la nouvelle marque d'IA de ChatGPT. Il est basé sur ce qu'on appelle un grand modèle de langage (LLM). Il s'agit d'un modèle d'IA entraîné à l'aide d'un vaste corpus de texte, généralement extrait d'Internet. Le processus de formation décompose ce texte en jetons, qui peuvent être des parties de mots. Ensuite, il utilise une grande quantité de puissance de calcul pour trouver des modèles dans le langage qui l’aident à comprendre la relation entre ces jetons.

Lorsque quelqu’un demande à l’IA (par exemple « expliquer la fusion froide à la manière de Sherlock Holmes »), l’IA utilise son vaste modèle de formation pour prendre des morceaux de mots et prédire lesquels viendront probablement ensuite. C’est ainsi qu’il peut produire un langage convaincant qui semble suivre les concepts décrits dans l’invite.

Confiant et stupide : une mauvaise combinaison

Le problème avec cette approche est que l’IA ne sait pas de quoi elle parle. Les chercheurs l'ont comparé à un « perroquet stochastique », qui enchaîne des mots aléatoires sans les comprendre. Un article décrivant cela, Sur les dangers des perroquets stochastiques, souligne que « les langues sont des systèmes de signes, c’est-à-dire des couples de forme et de sens ». Quand quelqu'un dit « lapin », vous comprenez le concept de lapin et son rapport avec diverses autres choses (Pâques, printemps, animaux de compagnie, ragoût savoureux, etc.). "Mais les données de formation pour les LM ne sont qu'une forme", affirment les chercheurs. "Ils n'ont pas accès au sens."

Cela crée des problèmes pour les LLM sur lesquels vous comptez pour le contenu factuel. Parce qu'ils recherchent des mots en fonction de probabilités statistiques plutôt que de connaissances, ils ont tendance à écrire des choses qui ne sont pas vraies. Dans le jargon de l'IA, cela s'appelle « halluciner », et c'est un problème si vous voulez vous fier à eux pour un contenu factuel.

Personnes avoir expérimenté avec l'utilisation de ChatGPT pour rédiger une politique de confidentialité, avec des résultats discutables. Ils ont constaté, comme on pouvait s’y attendre, que les résultats étaient moins bons lorsque le LLM devait remplir davantage de blancs.

Une simple IA renvoie des politiques qui n'étaient pas basées sur des lois spécifiques sur la confidentialité et qui n'étaient pas liées à des pratiques commerciales spécifiques. La politique de confidentialité s'est améliorée à mesure que les testeurs ajoutaient plus d'informations, au point où elle a produit un résultat impressionnant. Cependant, à ce stade, « vous devrez d'abord passer des heures, des jours, voire des semaines, à déterminer quelles lois sur la confidentialité s'appliquent à vous, à analyser les exigences de divulgation de ces lois, puis à fournir ces informations à ChatGPT, ainsi que vos pratiques commerciales spécifiques. " elle dit. Ce qui soulève la question suivante : pourquoi ne pas tout faire vous-même en premier lieu ?

D'autres ont décrit ChatGPT et des LLM similaires comme des « calculatrices de mots ». Ils ne sont vraiment utiles pour écrire que si vous faites vous-même beaucoup de travail et vérifiez soigneusement les résultats.

L’utilisation de l’IA par les gens est souvent à la fois confiante et stupide

Nous ne pouvons pas faire confiance aux outils d’IA, mais nous pouvons faire confiance aux gens pour les utiliser à mauvais escient. Nous avons déjà constaté les conséquences d’une IA mal conçue et appliquée de manière inappropriée, entraînant des conséquences importantes qui affectent la vie réelle.

Les autorités ont utilisé des systèmes basés sur l’IA qui se sont révélés biaisés lorsqu’elles ont recommandé des peines judiciaires. Par exemple, l’utilisation abusive par l’administration fiscale néerlandaise d’un logiciel d’IA a conduit l’agence à accuser injustement les parents de fraude– une croyance aveugle dans les algorithmes défectueux de reconnaissance faciale alimentés par l’IA a conduit à la arrestation injustifiée de personnes innocentes. Des biais sont également apparus dans le système de recrutement d'Amazon, basé sur l'IA, qui a été supprimé après avoir été conservé. ne pas recommander des femmes qualifiées pour les emplois technologiques.

Comment pouvons-nous aborder ce problème ? Certains experts ont déjà appeler pour un moratoire de six mois sur le développement de l’IA pour comprendre tout ce désastre avant que les choses ne deviennent encore plus incontrôlables.

Les lignes directrices ne manquent pas

Nous avons déjà de nombreuses lignes directrices sur l’IA responsable parmi lesquelles choisir, et elles disent des choses similaires. Le groupe de défense Algorithm Watch tient un inventaire des lignes directrices sur l'IA de diverses institutions, y compris l'Union européenne Lignes directrices d'éthique pour une IA digne de confiance. Celui qui n'était pas inclus au moment de la rédaction était le National Institute of Standards and Technology (NIST). Cadre de gestion des risques liés à l'IA, sorti en janvier de cette année. Comme la plupart des autres lignes directrices, le cadre du NIST vise à fournir des pistes pour le développement et l’application de l’IA. Il fait également écho à plusieurs principes communs à d’autres lignes directrices éthiques, tels que la transparence, la responsabilité, la confidentialité, la sécurité et la résilience.

Par le OCDE, il existe plus de 800 initiatives politiques en matière d'IA dans près de 70 pays au moment de la rédaction de cet article, mais il existe une grande différence entre une politique contraignante et non contraignante. Le respect de la plupart des initiatives, y compris celles du NIST, est volontaire.

Un regard sur des entreprises comme Clearview AI montre l’importance d’appliquer légalement des politiques d’IA responsables plutôt que de simplement demander gentiment. La startup, qui vend des services de reconnaissance faciale aux forces de l'ordre, les alimente via des millions de photographies volé des réseaux sociaux sans le consentement des gens.

Pas assez de réglementation

Les pays sont divisés dans leur approche quant à la réglementation stricte de leurs politiques. Tous sont confrontés au même défi : trop peu de réglementation, et ils risquent d’utiliser la technologie de manière imprévisible et irresponsable. Trop, et ils pourraient forcer les innovateurs potentiellement lucratifs en IA à s’éloigner.

Les États-Unis n’ont pas encore réglementé l’IA. Congrès proposé la loi sur la responsabilité algorithmique en 2022, mais elle est morte sans vote. La FTC a promis d’utiliser ses pouvoirs existants pour protéger les résidents américains de l’utilisation flagrante de l’IA. Il a également publié un préavis de l'élaboration de règles proposées cela pourrait annoncer de nouvelles règles commerciales radicales pour faire face aux systèmes automatisés de prise de décision et de surveillance.

L'UE s'est montrée plus agressive, proposant le Loi sur l'IA, qui prône l'espoir passera cette année. Il couvrirait tous les produits et services d’IA, en les classant en fonction de leur niveau de risque perçu et en appliquant des évaluations rigoureuses et des règles de conformité des données à ceux qui présentent un risque plus élevé. Les contrevenants s’exposeraient à de lourdes amendes.

Le Royaume-Uni a utilisée ce qu’il appelle par euphémisme un «approche pro-innovation« . Au lieu de nommer un nouveau régulateur unique de l’IA, il divisera la responsabilité de la réglementation de l’IA entre les régulateurs existants et ne leur donnera pas initialement de nouveaux pouvoirs juridiques pour le faire.

Alors que les politiciens marchent sur la corde raide entre éthique et bénéfice économique, l’avenir de l’IA est en jeu. Une chose est sûre : laisser aux seules entreprises technologiques le soin d’agir de manière responsable serait… irresponsable.