Les chercheurs de l’Université de Stanford affirment que les praticiens de l’éthique de l’IA signalent un manque de soutien institutionnel au sein de leurs entreprises.
Selon un nouveau rapport des chercheurs de l’Université de Stanford, les entreprises technologiques qui ont promis de soutenir le développement éthique de l’intelligence artificielle (IA) ne tiennent pas leurs engagements, car la sécurité passe au second plan par rapport aux indicateurs de performance et aux lancements de produits.
Malgré la publication de principes d’IA et l’emploi de scientifiques sociaux et d’ingénieurs pour mener des recherches et développer des solutions techniques liées à l’éthique de l’IA, de nombreuses entreprises privées n’ont pas encore donné la priorité à l’adoption de mesures de sauvegarde éthiques, a déclaré l’Institut de l’IA centrée sur l’humain de Stanford dans le rapport publié jeudi.
“Les entreprises parlent souvent de l’éthique de l’IA, mais elles ne la mettent que rarement en pratique en fournissant les ressources et l’autonomie nécessaires aux équipes travaillant sur une IA responsable”, ont déclaré les chercheurs Sanna J Ali, Angele Christin, Andrew Smart et Riitta Katila dans le rapport intitulé “Marcher dans les pas de l’éthique de l’IA dans les entreprises technologiques”.
S’appuyant sur les expériences de 25 “praticiens de l’éthique de l’IA”, le rapport indique que les travailleurs impliqués dans la promotion de l’éthique de l’IA se plaignent d’un manque de soutien institutionnel et d’une mise à l’écart des autres équipes au sein des grandes organisations, malgré les promesses contraires.
Les employés ont signalé une culture d’indifférence ou d’hostilité de la part des responsables de produits qui considèrent leur travail comme nuisible à la productivité, aux revenus ou aux délais de lancement des produits de l’entreprise, indique le rapport.
“Le fait de mettre davantage de freins au développement de l’IA était risqué”, a déclaré une personne interrogée pour le rapport. “Ce n’était pas intégré dans le processus.”
Le rapport ne mentionne pas les entreprises où travaillent les employés interrogés.
Les gouvernements et les universitaires ont exprimé des préoccupations concernant la rapidité du développement de l’IA, les questions éthiques touchant à tout, de l’utilisation de données privées à la discrimination raciale et à la violation des droits d’auteur.
Ces préoccupations se sont intensifiées depuis la sortie de ChatGPT par OpenAI l’année dernière et le développement ultérieur de plates-formes concurrentes telles que Gemini de Google.
Les employés ont déclaré aux chercheurs de Stanford que les questions éthiques ne sont souvent prises en compte que très tard dans le processus, ce qui rend difficile les ajustements des nouvelles applications ou logiciels, et que les considérations éthiques sont souvent perturbées par les réorganisations fréquentes des équipes.
“Les mesures d’engagement ou de performance des modèles d’IA sont tellement prioritaires que les recommandations liées à l’éthique qui pourraient avoir un impact négatif sur ces mesures nécessitent des preuves quantitatives irréfutables”, indique le rapport.
“Pourtant, les mesures quantitatives de l’éthique ou de l’équité sont difficiles à obtenir et difficiles à définir, étant donné que les infrastructures de données existantes des entreprises ne sont pas adaptées à de telles mesures.”