Le maire de New York, Eric Adams, utilise l’intelligence artificielle pour réaliser des appels automatisés dans plusieurs langues qu’il ne parle pas réellement, soulevant ainsi de nouvelles questions éthiques sur l’utilisation de cette technologie en constante évolution par le gouvernement. Les appels ont été effectués en mandarin et en yiddish pour promouvoir des événements de recrutement dans la ville, sans mentionner que le maire ne parle qu’anglais et que les appels ont été générés par une IA. Adams a déclaré : « Les gens me croisent dans la rue et me disent : ’Je ne savais pas que vous parliez mandarin, vous savez ?’ Les appels automatisés que nous utilisons nous permettent de parler directement à la diversité des New-Yorkais. »
Alors que les régulateurs peinent à trouver la meilleure façon de naviguer éthiquement et légalement dans l’utilisation de l’intelligence artificielle, les deepfakes, vidéos ou audios truqués, peuvent donner l’impression que n’importe qui, n’importe où, fait n’importe quoi selon les désirs d’une personne de l’autre côté de l’écran d’ordinateur. À New York, le groupe de surveillance Surveillance Technology Oversight Project a critiqué les appels automatisés d’Adams, les qualifiant d’utilisation non éthique de l’intelligence artificielle qui trompe les résidents de la ville. Albert Fox Cahn, directeur exécutif de l’organisation, a déclaré : « Le maire se fait des deepfakes de lui-même. C’est profondément immoral, surtout aux frais des contribuables. Utiliser l’IA pour convaincre les New-Yorkais qu’il parle des langues qu’il ne parle pas est purement orwellien. Oui, nous avons besoin d’annonces dans toutes les langues maternelles des New-Yorkais, mais les deepfakes ne sont qu’un projet de vanité effrayant. »
L’utilisation croissante de l’intelligence artificielle et des deepfakes, en particulier dans la politique et la désinformation électorale, a incité les gouvernements et les grandes entreprises médiatiques à réclamer une réglementation plus stricte. Google a été la première grande entreprise technologique à annoncer qu’elle apposerait de nouvelles étiquettes sur les publicités politiques trompeuses générées par l’IA, pouvant falsifier la voix ou les actions d’un candidat pour de la désinformation électorale. Facebook et Meta, la société mère d’Instagram, n’ont pas de règle spécifique concernant les publicités politiques générées par l’IA, mais elles ont une politique restreignant les contenus audio et visuels »falsifiés, manipulés ou transformés » utilisés pour la désinformation. Un projet de loi bipartite au Sénat américain interdirait les deepfakes »matériellement trompeurs » concernant les candidats fédéraux, avec des exceptions pour la parodie et la satire. Ce mois-ci, deux membres démocrates du Congrès ont envoyé une lettre aux dirigeants de Meta et de Twitter pour exprimer leurs inquiétudes concernant les publicités politiques générées par l’IA sur leurs plateformes de médias sociaux.
Ces dernières semaines, plusieurs entreprises technologiques ont présenté des outils d’IA capables de doubler synthétiquement la parole d’une personne dans une autre langue, donnant l’impression que cette personne parle cette langue. En septembre, le service de streaming musical Spotify a introduit une fonctionnalité d’IA permettant de traduire un podcast dans plusieurs langues avec la voix du podcasteur. Plus récemment, la start-up ElevenLabs a lancé en octobre un outil de traduction vocale qui, selon elle, « peut convertir un contenu oral dans une autre langue en quelques minutes ».




