Défaillance des entreprises technologiques sur l’éthique de l’IA, selon un rapport

Défaillance des entreprises technologiques sur l’éthique de l’IA, selon un rapport

Les chercheurs de l’Université de Stanford affirment que les praticiens⁣ de⁣ l’éthique de l’IA‍ signalent un⁢ manque de soutien institutionnel au sein ‍de leurs entreprises.

Selon un nouveau rapport des chercheurs de l’Université ‌de Stanford, les⁢ entreprises technologiques qui ont promis de soutenir le développement éthique‌ de l’intelligence artificielle (IA) ne tiennent pas leurs engagements, car la sécurité passe ‌au second plan par rapport aux indicateurs de performance et aux lancements de produits.

Malgré la publication de ⁤principes d’IA et l’emploi de scientifiques sociaux‍ et d’ingénieurs pour ⁤mener des recherches et développer des solutions techniques liées à l’éthique de l’IA, de nombreuses entreprises privées n’ont pas encore donné la⁢ priorité à l’adoption de mesures de sauvegarde éthiques, a déclaré l’Institut ​de ‍l’IA centrée sur ​l’humain ⁣de Stanford dans le rapport publié jeudi.

“Les entreprises parlent‍ souvent de l’éthique‍ de l’IA, mais⁢ elles ne la ‌mettent que rarement en pratique en fournissant les ressources et ⁣l’autonomie nécessaires aux équipes travaillant sur ​une IA responsable”, ont déclaré les chercheurs Sanna J Ali, Angele Christin, Andrew Smart et Riitta Katila dans le rapport intitulé “Marcher ⁢dans⁢ les pas ‌de ⁣l’éthique‌ de l’IA dans les entreprises technologiques”.

S’appuyant sur les expériences de 25‌ “praticiens ‍de l’éthique de l’IA”,⁣ le rapport ⁣indique que les travailleurs impliqués dans la promotion de l’éthique de l’IA se plaignent d’un manque de soutien institutionnel et d’une mise‍ à l’écart des autres​ équipes au sein⁣ des grandes organisations, malgré les promesses contraires.

Les employés ont signalé une​ culture d’indifférence ou d’hostilité ⁣de la part des responsables de produits ‌qui considèrent leur travail comme nuisible à la productivité, aux revenus‍ ou aux délais de lancement des produits de l’entreprise, indique le ‌rapport.

“Le fait​ de‍ mettre davantage⁤ de freins au développement de l’IA était risqué”, a déclaré ​une personne interrogée ⁤pour le rapport. “Ce n’était pas ‌intégré dans le ​processus.”

Le ‌rapport ne mentionne‌ pas les entreprises où travaillent les employés interrogés.

Les⁢ gouvernements et ‍les universitaires ont exprimé des préoccupations concernant ‌la rapidité du ‌développement de​ l’IA, les questions éthiques‌ touchant à tout, de l’utilisation de données privées ⁢à la ⁤discrimination raciale et à la violation des droits d’auteur.

Ces préoccupations se sont intensifiées⁢ depuis la sortie de ChatGPT par⁤ OpenAI l’année dernière ⁣et le développement ultérieur ‌de plates-formes concurrentes ⁣telles que Gemini de Google.

Les ‍employés ont déclaré aux chercheurs​ de Stanford que les questions éthiques ne sont ​souvent⁤ prises en compte que très tard dans le​ processus, ce qui rend difficile ‌les ajustements des nouvelles ​applications ou logiciels, et que les considérations éthiques sont souvent perturbées par ⁢les réorganisations fréquentes des équipes.

“Les mesures d’engagement ou de performance des modèles d’IA sont tellement ⁤prioritaires que les recommandations liées à l’éthique qui pourraient ​avoir un ⁤impact négatif⁤ sur ces ‌mesures nécessitent des preuves ‌quantitatives‍ irréfutables”,​ indique le‌ rapport.

“Pourtant, les‍ mesures ‌quantitatives ⁣de l’éthique ou de l’équité⁤ sont difficiles à ‍obtenir et difficiles ⁢à définir, étant donné que les infrastructures de⁣ données existantes des entreprises‍ ne sont pas adaptées à de‍ telles mesures.”

Share this post :

Facebook
Twitter
LinkedIn
Pinterest

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Create a new perspective on life

Your Ads Here (365 x 270 area)
Latest News
Categories

    Subscribe our newsletter

    Purus ut praesent facilisi dictumst sollicitudin cubilia ridiculus.