Le monde du jeu vidéo n’est pas étranger à l’innovation en matière de technologie. Cette fois-ci, la technologie concerne non pas le jeu lui-même, mais plutôt le jeu en ligne - pour le lancement de Call Of Duty: Modern Warfare III, Activision a annoncé l’introduction d’un système de modération qui utilise l’intelligence artificielle pour détecter tout discours haineux lors des discussions vocales en temps réel.
Le 10 novembre, en plus de découvrir le dernier jeu vidéo Call Of Duty, les joueurs seront également confrontés à un autre “joueur” : la modération des discussions vocales alimentée par l’intelligence artificielle.
“Le nouveau système de modération des discussions vocales de Call Of Duty utilise ToxMod, la technologie de modération des discussions vocales alimentée par l’intelligence artificielle de Modulate, pour identifier en temps réel et lutter contre les discours toxiques – y compris les discours haineux, le langage discriminatoire, le harcèlement, etc.”, précise le blog officiel.
Lancé en collaboration avec Modulate, le système vise à offrir une “modération mondiale en temps réel des discussions vocales à grande échelle”.
Un premier test bêta a eu lieu en Amérique du Nord le 30 août, dans les jeux Call Of Duty: Modern Warfare II et Call Of Duty: Warzone. Le reste du monde devra attendre le 10 novembre. Les modérateurs pourront analyser les discussions vocales initialement en anglais. D’autres langues seront ajoutées, mais Activision n’a pas précisé quand. L’Asie ne sera pas incluse dans ce déploiement.
Actuellement, la modération vérifie la conformité aux règles anti-toxicité dans 14 langues, tant dans les discussions que dans les noms d’utilisateur. Les joueurs peuvent également signaler d’autres joueurs en jeu. Une stratégie dont les résultats n’ont pas encore porté leurs fruits, puisque seuls 20% des joueurs n’ont pas récidivé après avoir reçu un avertissement initial, selon les données de Call Of Duty, qui précise néanmoins : “Ceux qui ont récidivé ont été sanctionnés, ce qui inclut, entre autres, des restrictions de fonctionnalités (comme les interdictions de discussion vocale et textuelle) et des restrictions temporaires de compte”.
La plupart des plateformes utilisent l’intelligence artificielle pour modérer les commentaires et autres contenus en bloquant certains mots choisis par l’utilisateur. Mais certains internautes deviennent de plus en plus inventifs dans leurs tentatives de contourner ce système. – AFP Relaxnews




