Le mois de septembre a marqué un tournant pour les défenseurs de l'éthique de l'IA. La FTC émis L'article 6(b) impose des ordonnances à sept grandes entreprises technologiques qui produisent des chatbots destinés à être utilisés comme compagnons. Il s'agit de la première grande enquête fédérale visant spécifiquement les chatbots IA compagnons conçus pour imiter les caractéristiques, les émotions et les intentions humaines. La FTC ne ménage pas ses efforts. Elle cible certains des plus grands noms de l'IA. Alphabet, Meta Platforms, Instagram, OpenAI, Snap, Character Technologies et xAI d'Elon Musk ont tous reçu des lettres.
Les commissaires ont voté à l'unanimité pour émettre ces ordonnances, témoignant ainsi des préoccupations réglementaires bipartites concernant l'IA. Ils ont donné aux entreprises 45 jours pour expliquer divers aspects de leurs opérations d'IA, notamment la manière dont elles monétisent l'engagement des utilisateurs, traitent leurs contributions, génèrent des résultats en réponse à leurs demandes, et développent et approuvent leurs personnages IA. Elles doivent également rendre compte de la manière dont elles mesurent, testent et surveillent les impacts négatifs avant et après le déploiement, ainsi que de la manière dont elles atténuent les impacts négatifs, notamment sur les enfants.
Ces rapports expliquent également comment ils informent les utilisateurs et les parents des impacts négatifs potentiels, de leurs pratiques de collecte et de traitement des données, ainsi que de la manière dont ils utilisent ou partagent les informations personnelles. Il existe donc une préoccupation générale quant aux atteintes potentielles à la vie privée et aux utilisateurs vulnérables.
Comment cela affecte-t-il les entreprises B2B ?
Nous sommes à la fois surpris et non surpris que la FTC agisse ainsi. D'un côté, l'administration Trump est farouchement opposée à toute réglementation, notamment en matière d'IA. De l'autre, de nombreuses familles ont intenté des poursuites, alléguant que des chatbots IA encourageaient le suicide chez les adolescents. Des enfants auraient été incités au suicide par des algorithmes d'IA au fonctionnement irresponsable. Il est donc grand temps d'agir.
Cependant, les IA qui manipulent les émotions des personnes vulnérables soulèvent des problèmes de préjudice pour les consommateurs. Quel impact cela pourrait-il avoir sur les entreprises B2B ?
Toute hypothèse selon laquelle les organisations B2B peuvent ignorer la réglementation de l’IA destinée aux consommateurs est dangereuse, averti Les avocats Christa Bieker et Christopher Leach du cabinet Mayer Brown en 2022. L'article 5 de la FTC ne contient aucune restriction explicite quant à la qualification de consommateur. Des actions en justice ont été engagées contre des processeurs de paiement B2B et des organismes de prêt aux petites entreprises, par exemple.
Et cette action suggère que la FTC ne sera pas aussi passive que certains d’entre nous auraient pu le penser lorsqu’il s’agira de corriger certains des dommages causés par l’IA.
En 2023, la présidente de l'époque, Lina M. Khan, déclarait : « L'IA ne fait l'objet d'aucune exception aux lois en vigueur, et la FTC appliquera vigoureusement la loi pour lutter contre les pratiques déloyales ou trompeuses, ainsi que les méthodes de concurrence déloyale. » Il reste à voir dans quelle mesure cette position perdurera au sein de la nouvelle administration, mais il est clair que la volonté de demander des comptes aux entreprises persiste.
Les entreprises qui n'intègrent pas correctement l'IA risquent une « dégorgement algorithmique »
Il est regrettable et rare de tomber sous le charme de son chatbot dédié aux comptes clients. Néanmoins, une utilisation irresponsable de l'IA pourrait encore poser problème aux entreprises B2B.
Par exemple, la FTC a mis en place une mesure de suppression algorithmique permettant d'obliger les entreprises à supprimer les IA développées à partir de données obtenues de manière frauduleuse. Ces mesures ont principalement été appliquées dans des affaires de consommateurs, mais comme nous l'avons appris, les entreprises peuvent également être des consommateurs.
Utiliser la norme ISO 42001 pour documenter les meilleures pratiques
Les entreprises peuvent prendre des mesures pour se protéger en s'assurant de développer et de déployer leur IA de manière responsable. L'une des plus efficaces consiste à documenter le fait que vous agissez de manière responsable dès le départ. La norme internationale ISO 42001, spécifiquement destinée aux systèmes de management de l'intelligence artificielle (SMA), aborde les défis de l'IA, notamment l'éthique, la transparence, l'apprentissage continu, les biais et la responsabilité. Ce sont précisément ces préoccupations qui motivent l'enquête de la FTC.
Par exemple, les organisations qui respectent cette norme doivent identifier et documenter les risques potentiels avant le déploiement, évaluer les impacts disproportionnés sur les groupes protégés, réévaluer régulièrement les risques et mettre en œuvre des mesures d'atténuation documentées. C'est précisément ce que la FTC exige des fournisseurs de chatbots.
De même, l'annexe A.7 de la norme ISO 42001 impose la documentation des sources d'acquisition des données, ainsi que de leur transformation, de leur utilisation et de leur stockage. Elle aborde la gestion de la qualité des données, y compris l'impact de tout biais dans le système.
Même les entreprises qui ne sont pas en contact direct avec les consommateurs auraient intérêt à examiner l'enquête actuelle de la FTC sous l'angle du B2B. Les chatbots ne sont pas seulement de nouvelles interfaces pour les systèmes d'entreprise existants. Ils sont bien plus performants dans leur capacité à collecter et à traiter les données, et leur langage est beaucoup plus fluide et naturel. Cela crée de nouveaux modes d'interaction avec les clients professionnels et les employés.
Les ordonnances de la FTC en vertu de l'article 6(b) ne constituent pas un signal d'action en justice ; il s'agit d'outils d'enquête permettant d'approfondir les connaissances de la Commission. Cependant, si ses conclusions ne lui conviennent pas, des mesures coercitives pourraient être prises. Cela pourrait créer des précédents pour toutes sortes d'utilisations de l'IA contre tous les types de consommateurs (y compris les petites entreprises). Dans un contexte réglementaire instable où les décideurs politiques sont aux prises avec les nouvelles technologies, il est judicieux de faire preuve de prudence et de mettre en place des contrôles.










