Le générateur d'images d'intelligence artificielle d'Elon Musk, Grok, a fait l'objet d'un examen minutieux pour avoir généré des images sexualisées non consensuelles de personnes réelles, y compris des mineurs.
Certains utilisateurs de Grok ont exploité le modèle de l'IA pour déshabiller numériquement des personnes sur des photos. Cela a conduit à la création de fausses images des sujets dans des tenues ou des poses révélatrices, certaines de ces images représentant des mineurs.
Cette révélation alarmante a suscité l'inquiétude des utilisateurs et a donné lieu à une enquête des autorités françaises.
Le ministère indien de l'électronique et des technologies de l'information a également fait part de ses préoccupations, plaidant en faveur d'une révision complète de la plateforme et de la suppression de tout contenu contraire aux lois indiennes. Elle a fait part de ses préoccupations sur X samedi.
Le ministre britannique des victimes et de la violence à l'égard des femmes et des filles, Alex Davies-Jones, a appelé Musk à résoudre le problème. Elle s'est demandé pourquoi Musk autorisait les utilisateurs à exploiter les femmes à travers les images de l'IA dans un communiqué.
En réponse à cette réaction négative, Grok a reconnu qu'il y avait eu des « lacunes dans les garanties » et a assuré que des correctifs urgents étaient mis en œuvre.
Cependant, on ne sait toujours pas si cette réponse a été examinée par la société mère xAi ou si elle a été générée par l'IA.
La question des deepfakes continue de représenter un défi pour les entreprises d'IA, Grok étant la dernière plateforme à faire l'objet d'un examen minutieux en raison de sa gestion d'images non consensuelles.
Pourquoi c'est important : Cet incident met en lumière les défis éthiques et les abus potentiels associés à la technologie de l'IA. Cela soulève des questions quant à la responsabilité des entreprises d'IA dans la prévention de tels abus et à la nécessité de réglementations et de garanties plus strictes.
La réaction négative à l'encontre de Grok met également en lumière les risques potentiels d'atteinte à la réputation des entreprises et de leurs dirigeants lorsque leurs produits sont utilisés de manière contraire à l'éthique.
Cet incident rappelle brutalement aux entreprises d'IA de donner la priorité à la sécurité et à la confidentialité des utilisateurs et de mettre en œuvre des mesures robustes pour empêcher l'utilisation abusive de leur technologie.
Lire la suite