Quelles sont les réglementations phares de l’IA en Europe ?

L’Union européenne a conclu un accord vendredi sur le premier ensemble complet de règles régissant l’utilisation de l’intelligence artificielle (IA) dans des outils tels que ChatGPT et la surveillance biométrique. Les détails de la législation finale, qui devrait entrer en vigueur début de l’année prochaine et s’appliquer en 2026, seront discutés dans les semaines à venir. D’ici là, les entreprises sont encouragées à adhérer à un Pacte IA volontaire pour mettre en œuvre les principales obligations des règles.

Voici les points clés qui ont été convenus :

Systèmes à haut risque : Les systèmes d’IA dits à haut risque – ceux considérés comme ayant un potentiel significatif de nuire à la santé, à la sécurité, aux droits fondamentaux, à l’environnement, à la démocratie, aux élections et à l’État de droit – devront respecter un ensemble d’exigences, telles qu’une évaluation de l’impact sur les droits fondamentaux et des obligations pour accéder au marché de l’UE. Les systèmes d’IA considérés comme présentant des risques limités seront soumis à des obligations de transparence très légères, telles que des étiquettes de divulgation indiquant que le contenu a été généré par l’IA pour permettre aux utilisateurs de décider de son utilisation.

Utilisation de l’IA dans l’application de la loi : L’utilisation de systèmes d’identification biométrique en temps réel dans les espaces publics par les forces de l’ordre ne sera autorisée que pour aider à identifier les victimes d’enlèvement, de traite des êtres humains, d’exploitation sexuelle et pour prévenir une menace terroriste spécifique et actuelle. Ils seront également autorisés dans les efforts visant à retrouver des personnes soupçonnées d’infractions terroristes, de trafic, d’exploitation sexuelle, de meurtre, d’enlèvement, de viol, de vol à main armée, de participation à une organisation criminelle et de crime environnemental.

Systèmes d’IA à usage général (GPAI) et modèles de base : Les GPAI et les modèles de base seront soumis à des exigences de transparence telles que l’élaboration de documentation technique, la conformité à la législation sur le droit d’auteur de l’UE et la diffusion de résumés détaillés sur le contenu utilisé pour la formation des algorithmes. Les modèles de base classés comme présentant un risque systémique et les GPAI à impact élevé devront effectuer des évaluations de modèle, évaluer et atténuer les risques, effectuer des tests adversaires, rendre compte à la Commission européenne des incidents graves, garantir la cybersécurité et rendre compte de leur efficacité énergétique. Jusqu’à ce que des normes harmonisées de l’UE soient publiées, les GPAI présentant un risque systémique peuvent se fier à des codes de pratique pour se conformer à la réglementation.

IA interdite : Les réglementations interdisent ce qui suit : les systèmes de catégorisation biométrique utilisant des caractéristiques sensibles telles que les croyances politiques, religieuses, philosophiques, l’orientation sexuelle, la race ; le grattage non ciblé d’images faciales sur Internet ou les images de vidéosurveillance pour créer des bases de données de reconnaissance faciale ; la reconnaissance des émotions sur le lieu de travail et dans les établissements d’enseignement ; le score social basé sur le comportement social ou les caractéristiques personnelles ; les systèmes d’IA qui manipulent le comportement humain pour contourner leur libre arbitre ; l’IA utilisée pour exploiter les vulnérabilités des personnes en raison de leur âge, de leur handicap, de leur situation sociale ou économique.

Sanctions en cas de violation : Selon l’infraction et la taille de l’entreprise concernée, des sanctions seront appliquées.

Share this post :

Facebook
Twitter
LinkedIn
Pinterest

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Create a new perspective on life

Your Ads Here (365 x 270 area)
Latest News
Categories

    Subscribe our newsletter

    Purus ut praesent facilisi dictumst sollicitudin cubilia ridiculus.