Snapchat a été averti par l’autorité britannique de protection des données pour avoir potentiellement négligé l’évaluation des risques de confidentialité de son chatbot à intelligence artificielle générative, notamment pour les utilisateurs adolescents. Cette décision fait suite à une enquête menée par l’autorité de protection des données sur les pratiques de confidentialité de Snapchat.
Le chatbot à intelligence artificielle générative de Snapchat permet aux utilisateurs de discuter avec une intelligence artificielle qui génère des réponses en fonction des messages reçus. Cependant, l’autorité de protection des données a émis des préoccupations quant à la manière dont Snapchat a évalué les risques de confidentialité associés à cette fonctionnalité, en particulier pour les utilisateurs adolescents.
Cette décision de l’autorité de protection des données souligne l’importance de prendre en compte les risques de confidentialité lors du développement de nouvelles fonctionnalités. Les entreprises doivent s’assurer qu’elles évaluent correctement les risques potentiels pour les utilisateurs, en particulier les groupes vulnérables tels que les adolescents.
Il est essentiel que les entreprises technologiques prennent des mesures pour protéger la vie privée de leurs utilisateurs et garantir que les risques de confidentialité sont correctement évalués et atténués. Les utilisateurs doivent pouvoir faire confiance aux entreprises pour protéger leurs données personnelles et leur vie privée lorsqu’ils utilisent des services en ligne.
En conclusion, Snapchat a été averti par l’autorité britannique de protection des données pour avoir potentiellement négligé l’évaluation des risques de confidentialité de son chatbot à intelligence artificielle générative. Cette décision souligne l’importance de prendre en compte les risques de confidentialité lors du développement de nouvelles fonctionnalités et de protéger la vie privée des utilisateurs.




