L’Union européenne ouvre une enquête formelle sur Grok et les systèmes de recommandation de X pour contenu sexualisé
- « La nouvelle enquête évaluera si l’entreprise a correctement identifié et atténué les risques », indique la Commission européenne
Greater London
AA / Londres / Burak Bir
L’Union européenne (UE) a lancé une enquête sur le chatbot IA Grok et les systèmes de recommandation de X dans le cadre de la loi sur les services numériques (Digital Services Act, DSA) en raison de la diffusion d’images sexualisées, selon un communiqué publié lundi.
La Commission européenne a annoncé l’ouverture de cette enquête formelle contre X, tout en prolongeant l’enquête en cours, lancée en décembre 2023, sur la conformité de X aux obligations de gestion des risques liées à ses systèmes de recommandation.
« La nouvelle enquête évaluera si l’entreprise a correctement identifié et atténué les risques liés au déploiement des fonctionnalités de Grok sur X dans l’UE », précise le communiqué.
Celui-ci souligne que ces risques concernent notamment la diffusion de contenus illégaux dans l’UE, « tels que des images sexuellement explicites manipulées, y compris du contenu pouvant constituer des abus sexuels sur mineurs ».
Le communiqué indique que ces risques semblent s’être concrétisés, exposant les citoyens européens à de graves préjudices.
Le chatbot d’intelligence artificielle Grok a été critiqué après une tendance sur les réseaux sociaux où des utilisateurs incitaient Grok à modifier ou générer des images de personnes dans des représentations explicites sans leur consentement.
Elon Musk, dont la société xAI a développé Grok, a déclaré le 3 janvier que les utilisateurs demandant la génération de contenu illégal seraient traités comme s’ils avaient eux-mêmes téléchargé du contenu illégal.
* Traduit de l'anglais par Seyma Erkul Dayanc
Seulement une partie des dépêches, que l'Agence Anadolu diffuse à ses abonnés via le Système de Diffusion interne (HAS), est diffusée sur le site de l'AA, de manière résumée. Contactez-nous s'il vous plaît pour vous abonner.
