La technologie deepfake basée sur l’intelligence artificielle (IA) n’est pas un phénomène nouveau. Le terme « deepfake » est utilisé pour décrire les médias synthétiques depuis 2017, et de nombreux exemples de deepfakes ont été largement médiatisés. Les exemples viraux incluent une vidéo générée par l'IA de Mark Zuckerberg parlant du pouvoir infâme de Facebook, un compte TikTok dédié au partage de vidéos deepfake de l'acteur Keanu Reeves, et même une vidéo de la présidente de la Chambre des représentants des États-Unis, Nancy Pelosi, trafiquée pour la faire paraître ivre. 

La technologie Deepfake continue de progresser à un rythme soutenu, et il est plus compliqué que jamais de déterminer ce qui est réel et ce qui ne l'est pas. Alors que les élections générales au Royaume-Uni sont en cours, les deepfakes ont-ils façonné la façon dont les électeurs perçoivent les candidats politiques – et ont-ils même eu un impact sur leur façon de voter ?

Deepfakes lors des élections générales britanniques

Le mois dernier, une vidéo falsifiée du politicien du Parti travailliste Wes Streeting a été publiée sur X (anciennement Twitter), le montrant prétendument qualifier sa collègue députée travailliste Diane Abbott de « femme idiote ». La BBC a rapporté que la vidéo et de nombreux commentaires en réponse sur X provenaient d'un réseau de comptes qui créent et partagent des clips de politiciens, puis publient des commentaires trompeurs pour renforcer l'impression qu'ils sont réels. 

Le réseau vise-t-il à saper et à discréditer les hommes politiques ciblés, que ce soit à des fins politiques ou simplement à des fins de divertissement ? Le rapport de la BBC a révélé que les mêmes comptes ont publié de faux clips de Luke Akehurst du Labour ainsi que de Nigel Farage du Reform UK, couvrant tout le spectre politique du Royaume-Uni. Lors d’un événement sans rapport, des vidéos satiriques et deepfakes du Premier ministre britannique Rishi Sunak sont également devenues virales récemment après l’annonce de ses propositions de service national. 

L'impact de l'IA ne se limite pas non plus aux médias sociaux : il existe même un Le candidat indépendant d’AI appelé AI Steve, un avatar du vrai homme d'affaires Steven Endacott. 

Une étude de YouGov a constaté que 43 % des Britanniques s'informent pendant les élections générales sur les réseaux sociaux, juste derrière la télévision (58 %). Au total, 77 % s'informent en ligne. Ainsi, même si de nombreuses applications de la technologie deepfake peuvent être inoffensives et divertissantes, les conséquences de vidéos telles que le clip de Wes Streeting pourraient être politiquement préjudiciables. Alors que les Britanniques votent, pour certains, les deepfakes auront probablement un impact sur leurs choix de vote.

GenAI continue également d’avoir un impact sur les entreprises

Les acteurs menaçants continuent également de cibler les entreprises et leurs clients. La semaine dernière, la chaîne d'information australienne 7News a découvert que son site YouTube avait été piraté par des acteurs malveillants, qui l'avaient utilisé pour diffuser en direct une vidéo générée par l'IA d'Elon Musk vantant une arnaque à la cryptomonnaie. Le Sydney Morning Herald a rapporté que le deepfake encourageait les téléspectateurs à scanner un code QR de marque Tesla et à déposer de l'argent dans le système de crypto-monnaie pour « doubler leurs actifs cryptographiques ». 

Le piratage montre que les auteurs de menaces sont de plus en plus avisés dans leur approche pour compromettre les entreprises afin d'accéder aux données critiques – et aux clients. La chaîne YouTube de 7News compte plus d'un million d'abonnés, ce qui permet aux escrocs à l'origine de l'attaque d'atteindre l'audience importante de 7News : CryptoNews a rapporté que la diffusion en direct avait été regardée par environ 60,000 45,000 téléspectateurs et qu'une autre diffusion simultanée avait été vue par environ XNUMX XNUMX personnes. 

Les deepfakes permettent également aux auteurs de menaces de lancer des attaques de type BEC (Business Email Compromise) contre les organisations, en utilisant l'audio, l'imagerie et la vidéo générées par l'IA pour se faire passer pour des membres du personnel de direction. En avril, LastPass a partagé qu'un l'acteur menaçant s'était fait passer pour le PDG Karim Toubba en utilisant WhatsApp, en envoyant à un employé des appels, des SMS et des messages vocaux contenant un deepfake audio. Dans ce cas, l’employé a signalé l’incident et la menace a été atténuée par LastPass. Pourtant, il existe de nombreux incidents récents dans lesquels ce mode d’attaque a été couronné de succès, entraînant des pertes financières.

Les progrès de la technologie de l’IA entraînent une augmentation des cybermenaces

L’IA devient une technologie de plus en plus accessible aux auteurs de menaces, ce qui entraîne une recrudescence des attaques contre les particuliers et les entreprises. Notre Rapport sur l'état de la sécurité de l'information a interrogé plus de 1,500 30 professionnels de la sécurité de l'information et a découvert que près d'un tiers (12 %) des entreprises ont subi une attaque deepfake au cours des XNUMX derniers mois. 

Cependant, la majorité des personnes interrogées (76 %) conviennent également que les technologies d’IA et d’apprentissage automatique (ML) améliorent la sécurité des informations, en offrant de nouvelles façons d’automatiser, d’analyser et d’améliorer les mesures de sécurité. 62 % prévoient d’augmenter leurs dépenses en applications de sécurité IA et ML au cours des 12 prochains mois. 

Alors que la technologie basée sur l’IA offre aux entreprises à la fois des défis et des opportunités incroyables, comment pouvons-nous traiter et prévenir les incidents de deepfake ?

Réduire le risque d’incidents Deepfake

Pour les entreprises, la formation et la sensibilisation des employés seront essentielles pour réduire le risque d’incidents de deepfake. Des normes comme ISO 27001, la norme internationale sur la sécurité de l'information, fournissent un cadre pour la création, la maintenance et l'amélioration continue d'un système de gestion de la sécurité de l'information (ISMS). Cela inclut la mise en œuvre d'une politique de sécurité des informations, qui guidera vos employés dans le signalement d'un incident suspecté, tel qu'une attaque BEC, par e-mail ou sous la forme d'un deepfake. 

Lors des élections générales au Royaume-Uni, le grand public doit être vigilant lorsqu’il s’agit de déterminer si les vidéos et les extraits audio publiés sur les plateformes de médias sociaux sont réels ou manipulés. Plusieurs indices visuels et sonores peuvent aider à identifier un deepfake. 

Les indices visuels comprennent : 

  • Mouvements oculaires non naturels (ou manque de mouvements oculaires)
  • Expressions faciales incohérentes
  • Mouvements corporels disjoints ou saccadés
  • Des dents qui ne semblent pas réelles ou une absence de contour des dents individuelles
  • Visuels flous ou mal alignés. 

Les indices auditifs comprennent :

  • Des bruits robotiques
  • Problèmes audio 
  • Son incohérent
  • Prononciations étranges de mots
  • Erreurs de synchronisation labiale avec divergences entre les mots prononcés et les mouvements des lèvres.

Combattre l’influence des médias synthétiques

Il sera difficile de mesurer l’impact des deepfakes générés par l’IA sur les élections générales britanniques. Avec 43 % des Britanniques qui s'informent sur les réseaux sociaux, de nombreux électeurs auront probablement vu une forme de média synthétique lié à un parti politique – qu'ils en soient conscients ou non. 

Cependant, les utilisateurs de X identifient régulièrement les deepfakes potentiels et alertent les autres utilisateurs via la fonctionnalité de notes de la communauté. La plate-forme X elle-même a désormais une politique relative aux médias manipulés stipulant que « vous ne pouvez pas partager de médias synthétiques, manipulés ou hors contexte qui pourraient tromper ou confondre les gens et causer du tort ». Le compte qui avait initialement publié la vidéo manipulée de Wes Streeting a désormais été suspendu, mais son impact reste à voir.

Face à l’augmentation des incidents de deepfake, les entreprises devraient également réfléchir à la manière dont leur sécurité peut être améliorée. Le développement d'un SMSI robuste aligné sur la norme ISO 27001:2022 aide les organisations à renforcer leurs défenses contre les cybermenaces, à réduire le risque d'attaques réussies et à garantir que les employés sont conscients de leurs rôles et responsabilités en matière de sécurité des informations.