La nécessité de règles strictes en matière d’intelligence artificielle (IA) est de plus en plus évidente, alors que l’Union européenne se rapproche de l’adoption d’un ensemble de lois régissant ce domaine. Le licenciement soudain de Sam Altman, PDG d’OpenAI, a été perçu comme un signal fort de la nécessité de réglementations strictes. Altman, cofondateur de la start-up qui a lancé l’essor de l’IA générative l’année dernière, a été licencié abruptement par le conseil d’administration d’OpenAI la semaine dernière, provoquant des remous dans le monde de la technologie et incitant les employés à menacer de démissionner en masse de l’entreprise.
En Europe, la Commission européenne, le Parlement européen et le Conseil de l’UE ont travaillé sur les détails de l’AI Act, un ensemble de lois qui imposerait à certaines entreprises de réaliser des évaluations approfondies des risques et de mettre leurs données à la disposition des régulateurs. Ces dernières semaines, les discussions ont rencontré des obstacles concernant la mesure dans laquelle les entreprises devraient être autorisées à s’autoréguler.
Un accord sur la réglementation de l’IA a été conclu entre la France, l’Allemagne et l’Italie, ce qui devrait accélérer les négociations au niveau européen. Les trois gouvernements soutiennent la “régulation obligatoire par le biais de codes de conduite” pour ceux qui utilisent des modèles d’IA générative, mais certains experts estiment que cela ne suffit pas. Alexandra van Huffelen, ministre néerlandaise de la digitalisation, a déclaré que l’affaire OpenAI soulignait la nécessité de règles strictes.
Pendant ce temps, Gary Marcus, expert en IA à l’Université de New York, a écrit sur la plateforme de médias sociaux X : “Nous ne pouvons pas vraiment faire confiance aux entreprises pour s’autoréguler en matière d’IA, même leur propre gouvernance interne peut être profondément en conflit. S’il vous plaît, ne videz pas l’AI Act de l’UE ; nous en avons plus que jamais besoin.”