Même si nous perdons nos données personnelles, nous pouvons toujours compter sur au moins un secret : si nous avons suffisamment de maîtrise de soi, les gens ne pourront jamais lire dans nos pensées. Maintenant, préparez-vous à ce que cela change.

Pour de nombreux technologues, la dernière frontière dans la quête d'informations personnelles réside dans nos émotions. Pour un spécialiste du marketing ou un homme politique, la capacité à lire nos émotions pourrait être la chose la plus puissante de toutes.

Les fournisseurs se sont empressés de développer des produits capables de faire exactement cela. Certains proposent d'utiliser une technologie qui exploite les données cérébrales (un domaine connu sous le nom de neurotechnologie). Apple, par exemple, a lecture du cerveau brevetée AirPods. Plus tôt cette année, des chercheurs de l'Institut national des sciences et technologies d'Ulsan (UNIST) en Corée du Sud créé un masque facial Ils prétendent pouvoir analyser les changements imperceptibles du visage du porteur pour lire les émotions humaines en temps réel.

Certains ne nécessitent pas de nouveaux gadgets pour lire les émotions ; ils utilisent les données de nos gadgets existants ; dès 2018, l'Institut national de la santé des États-Unis constaté que Les données des montres connectées ont permis aux chercheurs de déterminer les émotions des porteurs avec un degré de précision décent. Aujourd'hui, l'hôpital pour enfants Holland Bloorview houx Le système utilise les données cardiaques recueillies à partir de montres intelligentes et de trackers d'activité pour déterminer les émotions des enfants, qu'il affiche ensuite sur une application destinée aux soignants.

Les objets connectés qui détectent les émotions ont un côté positif. Le projet de recherche de l'Université de West Scotland Usages un mélange d’analyse faciale et de données d’appareils portables pour aider à comprendre les émotions des personnes autistes. Ressentez la thérapeutique propose un système d'analyse de données portable et back-end pour analyser les émotions pour les traitements médicaux, y compris la thérapie en santé mentale.

Certaines initiatives de lecture des émotions se concentrent sur le bien-être des employés, en particulier dans les professions à haut stress. Le programme Oscar Kilo de la police britannique a éprouvé des dispositifs portables permettant de surveiller l’état émotionnel des agents dans des situations particulièrement stressantes, notamment lors d’enquêtes sur l’utilisation d’armes à feu et l’exploitation d’enfants.

Politique

Parallèlement à ces utilisations positives, Nita Farahany, professeure distinguée de droit et de philosophie Robinson O. Everett à la Duke Law School, voit également un côté potentiellement sombre.

« Les données cérébrales que ces appareils collecteront ne seront pas collectées dans des environnements de laboratoire traditionnels ni dans des études de recherche clinique menées par des médecins et des scientifiques », a-t-elle déclaré. dit, s'exprimant lors d'un événement Ted.

« Ce seront plutôt les vendeurs de ces nouveaux appareils qui s'en prendront à eux. Ces mêmes entreprises qui ont transformé nos données en marchandises depuis des années », a-t-elle ajouté. Selon elle, ces données seront plus personnelles que celles que nous avons partagées par le passé, car elles représentent la part de nous-mêmes que nous gardons habituellement pour nous.

La Fondation Neurorights, un groupe à but non lucratif originaire de l'Université de Columbia, se concentre sur la protection des droits de l'homme contre les abus ou l'utilisation abusive potentielle de la neurotechnologie. En avril 2024, elle a publié un rapport intitulé Protection des données cérébrales : évaluation des pratiques de confidentialité des entreprises de neurotechnologie grand public. L'étude a évalué 30 entreprises proposant des appareils grand public non certifiés médicalement qui recueillaient des données neuronales et a constaté que 29 d'entre elles « semblent avoir accès aux données neuronales du consommateur et ne fournissent aucune limitation significative à cet accès ». Elle a ajouté que les politiques de ces entreprises leur permettaient de partager des données avec des tiers.

De l'analyse des données au contrôle à distance

Quelles sont les possibilités offertes par l'amélioration de l'aptitude des entreprises à lire et à enregistrer les émotions ? À l'extrémité la plus banale du spectre, comprendre ce qui excite ou ennuie les gens pourrait dynamiser des tâches telles que le test fractionné de différentes conceptions de sites Web. Plus intéressante encore est sa capacité à aider à construire une image profondément personnelle des intérêts d'une personne qui va bien au-delà du suivi de ce qu'elle consulte en ligne.

Les entreprises peuvent essayer d'utiliser les données pour prendre des décisions commerciales. Par exemple, une compagnie d'assurance santé ou vie peut prendre en compte votre état émotionnel pour évaluer votre admissibilité à une police d'assurance.

L'un des scénarios les plus effrayants est peut-être celui des boucles de rétroaction émotionnelle. Si vous pensiez qu'une entreprise qui vous fournit des publications sur les réseaux sociaux en fonction de ce sur quoi vous cliquez était effrayante, imaginez qu'elle vous fournisse du contenu au compte-gouttes en fonction de ce qu'elle sait de vous. déjà expérimenté en manipulant délibérément les émotions des gens via les réseaux sociaux il y a plus de dix ans.

Ces boucles émotionnelles peuvent être dévastatrices. À mesure que la technologie évolue pour paraître plus personnelle, sa capacité à influencer les émotions devient aussi puissante que sa capacité à les détecter. Nous l'avons déjà vu accusations des produits d’IA génératifs contribuant aux suicides.

Protections légales

Certaines lois pourraient être invoquées par les régulateurs pour empêcher les dépassements. Bien que peu d'entreprises analysées dans le rapport de la Fondation Neurorights aient explicitement reconnu les données cérébrales comme des informations personnelles, les avocats suggérer que cela relèverait carrément de cette catégorie en vertu de certaines réglementations sur la protection de la vie privée des consommateurs, telles que le RGPD. La loi sur l'IA de l'UE réglemente également explicitement l'utilisation de systèmes alimentés par l'IA qui utilisent des données biométriques pour la reconnaissance émotionnelle, les interdisant purement et simplement dans certains environnements et classant ceux qui sont autorisés comme des systèmes à haut risque avec des exigences réglementaires strictes.

La protection de la vie privée au niveau fédéral aux États-Unis, qui est lamentable, n’apportera pas aux défenseurs de la vie privée le même réconfort, mais les États intensifient leurs efforts. Certains pourraient être en mesure de s’attaquer aux objets connectés qui lisent les émotions dans le cadre des lois existantes sur la protection de la vie privée des consommateurs, tandis que d’autres s’orientent vers les données basées sur le cerveau. En février, le Colorado a adopté une loi sur la protection de la vie privée. L'objectif du projet de loi protégeant explicitement les données neuronales. La Californie a adopté sa propre L'objectif du projet de loi en octobre. Une autre solution pourrait être de classer les données émotionnelles comme biométriques.

Les travaux sur les dispositifs portables de détection des émotions se poursuivent à un rythme soutenu et le marché connaît une croissance rapide. Technologie de reconnaissance émotionnelle valait 23.5 milliards de dollars Le marché des données devrait atteindre 2022 milliards de dollars d'ici 42.9, soit un TCAC de 2027 % sur cinq ans. Les enjeux sont considérables. À l'inverse, les travaux juridiques et éthiques dans ce domaine sont encore embryonnaires. Traiter les données neuronales et émotionnelles comme des données personnelles, voire comme des données de catégorie spéciale bénéficiant de protections supplémentaires, est une décision intelligente à court terme, que les régulateurs aient testé la question ou non. Avec un outil aussi puissant, plus il y a de précautions, mieux c'est.