Combattre la désinformation générée par l’IA en ligne est un défi de taille pour les législateurs, les organisations de vérification des faits et certaines entreprises technologiques. Cependant, les experts affirment que ces efforts sont compromis par la méfiance du public envers les institutions et par un manque général de compétences pour repérer les fausses images, vidéos et clips audio en ligne.
Hany Farid, expert en analyse des deepfakes et professeur à l’Université de Californie à Berkeley, explique que même lorsque des vérifications sont effectuées et que la fausseté d’une information est démontrée, les gens refusent souvent de l’accepter car cela contredit leur vision du monde. Selon lui, cette situation est due à la méfiance alimentée par les politiciens, les médias et Internet.
Les experts mettent en garde depuis des années contre le potentiel de l’intelligence artificielle pour accélérer la propagation de la désinformation. Cependant, la pression pour agir s’est intensifiée cette année avec l’apparition de nouveaux outils d’IA générateurs puissants, rendant la production de contenus visuels et textuels bon marché et facile. Aux États-Unis, on craint que la désinformation générée par l’IA puisse avoir un impact sur l’élection présidentielle de 2024. En Europe, les plus grandes plateformes de médias sociaux sont tenues par une nouvelle loi de lutter contre la propagation de la désinformation sur leurs plateformes.
Jusqu’à présent, l’ampleur et l’influence de la désinformation générée par l’IA restent floues, mais il y a de quoi s’inquiéter. Bloomberg a rapporté la semaine dernière que des voix deepfake trompeuses de politiciens circulaient en ligne quelques jours avant un vote très disputé en Slovaquie. Certains politiciens aux États-Unis et en Allemagne ont également partagé des images générées par l’IA.
Rumman Chowdhury, chercheuse au Berkman Klein Center for Internet & Society de l’Université Harvard et ancienne directrice de X (anciennement connu sous le nom de Twitter), estime que la faillibilité humaine est en partie responsable de la difficulté à lutter contre la désinformation. Selon elle, une grande partie des informations fausses en ligne sont partagées par des personnes qui ne savent pas mieux faire.
Chowdhury explique que les utilisateurs d’Internet sont généralement plus habiles à repérer les faux textes grâce à des années de confrontation avec des courriels et des publications sur les réseaux sociaux suspects. Cependant, à mesure que l’IA rend possible la création d’images, de sons et de vidéos fausses plus réalistes, il est nécessaire de sensibiliser davantage les gens.
En conclusion, il est plus facile de douter d’un texte que de remettre en question une vidéo ou une image qui semble réelle. Il est donc essentiel de renforcer l’éducation des utilisateurs d’Internet pour qu’ils puissent mieux repérer la désinformation générée par l’IA.




