Les experts affirment que les personnes sont le plus grand problème de la désinformation, pas l’IA.

Les experts affirment que les personnes sont le plus grand problème de la désinformation, pas l’IA.

Combattre⁣ la ‍désinformation générée par l’IA en ⁣ligne est un défi de taille pour les législateurs, les organisations‍ de vérification des faits‌ et‍ certaines entreprises technologiques. Cependant, les experts affirment que ces efforts sont compromis par la méfiance du public envers les institutions et ⁣par​ un manque général de‍ compétences pour repérer les fausses ⁣images, vidéos et clips audio en ligne.

Hany Farid, expert ⁢en analyse des deepfakes et professeur à l’Université de Californie à⁣ Berkeley, explique que ‌même ​lorsque des vérifications sont ⁤effectuées ⁤et que la fausseté d’une information est démontrée, les gens refusent souvent de l’accepter car cela contredit leur⁢ vision du monde. Selon ‍lui, cette situation⁤ est due ‌à la​ méfiance alimentée par les ‌politiciens, ‍les médias et Internet.

Les experts mettent en⁤ garde​ depuis des‌ années contre​ le potentiel‌ de l’intelligence artificielle pour accélérer la propagation de la désinformation. Cependant, la⁤ pression​ pour agir s’est intensifiée cette année avec ‍l’apparition de⁣ nouveaux ‍outils ⁤d’IA générateurs puissants, rendant la production⁢ de contenus visuels et textuels bon marché et facile. Aux ⁢États-Unis, on⁣ craint ⁣que⁣ la désinformation générée par⁣ l’IA puisse avoir un impact sur⁣ l’élection présidentielle de‍ 2024. En Europe, les ‍plus grandes plateformes de médias sociaux sont tenues par une nouvelle loi de lutter ⁤contre la propagation de la désinformation sur leurs plateformes.

Jusqu’à présent, l’ampleur et l’influence de la désinformation ⁣générée par ⁤l’IA restent floues,‌ mais il⁣ y a de quoi s’inquiéter. Bloomberg ⁢a rapporté la semaine dernière⁢ que des voix deepfake trompeuses de politiciens circulaient ‍en ‍ligne quelques jours avant ​un vote ‌très disputé en Slovaquie. Certains politiciens aux États-Unis et en Allemagne‍ ont⁢ également⁤ partagé ​des⁤ images générées par l’IA.

Rumman Chowdhury, chercheuse⁤ au Berkman⁢ Klein​ Center for⁤ Internet & Society de⁤ l’Université Harvard et ancienne directrice de X ​(anciennement connu sous le nom de Twitter), ​estime⁣ que la faillibilité humaine est ⁢en partie ‌responsable de la difficulté⁣ à lutter ‍contre la​ désinformation. Selon elle, une grande ‍partie des informations⁢ fausses⁣ en ligne sont partagées ⁢par des personnes qui ne savent pas mieux faire.

Chowdhury explique que ‌les utilisateurs d’Internet sont généralement plus habiles à repérer les faux textes grâce à des années de confrontation​ avec des courriels et des publications sur les réseaux sociaux suspects. Cependant, à mesure⁣ que l’IA rend⁤ possible la création d’images, de sons et de vidéos fausses plus réalistes, ‌il est nécessaire de sensibiliser davantage les gens.

En⁣ conclusion, il est‌ plus facile de⁢ douter d’un texte que de remettre‍ en ‌question une⁣ vidéo ou une image qui semble réelle. Il⁢ est donc essentiel de renforcer l’éducation des utilisateurs d’Internet pour qu’ils puissent mieux repérer la désinformation générée par ⁢l’IA.

Share this post :

Facebook
Twitter
LinkedIn
Pinterest

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Create a new perspective on life

Your Ads Here (365 x 270 area)
Latest News
Categories

    Subscribe our newsletter

    Purus ut praesent facilisi dictumst sollicitudin cubilia ridiculus.