
L’intelligence artificielle est un outil puissant, capable du meilleur comme du pire. Récemment, l’IA Grok d’Elon Musk, déployée sur la plateforme X (anciennement Twitter), fait l’objet d’un détournement particulièrement choquant et soulève de graves questions éthiques quant à son utilisation.
L’IA Grok, un concurrent aux multiples facettes
Lancé par xAI, l’entreprise d’Elon Musk, Grok se positionne comme un concurrent direct de modèles d’IA générative comme ChatGPT ou Claude. Intégré à la plateforme X, il vise à simplifier l’accès à l’information pour les utilisateurs et à offrir des fonctionnalités uniques. L’une de ces particularités, et non des moindres, est sa capacité à générer des images de personnalités publiques ou de personnages sous droits d’auteur, ce qui constituait déjà un point de friction potentiel.
Au-delà de ses fonctions initiales de chatbot aidant à vérifier l’information ou à divertir, Grok se voit aujourd’hui utilisé d’une manière qui dépasse largement le cadre prévu par ses concepteurs, révélant les risques éthiques liés à l’accès à une technologie aussi permissive.
Un usage révoltant ciblant les femmes
C’est un nouveau type de requête, particulièrement alarmant, qui a récemment émergé parmi les utilisateurs de Grok sur X. Des hommes sollicitent l’intelligence artificielle pour une tâche précise et scandaleuse : remplacer les vêtements portés par des femmes sur des photos par de la lingerie, comme un string ou un bikini. Le chatbot s’exécute et répond à ces demandes sans apparente restriction.
Cette pratique, révélée par plusieurs témoignages, est profondément révoltante. Elle s’apparente à un acte d’humiliation publique et de non-respect flagrant du consentement des personnes concernées. L’IA devient ainsi complice d’une forme de cyber-harcèlement, en créant et diffusant des images manipulées à caractère sexuel sans l’accord des victimes.
Derrière la génération, une zone grise
Lorsque Grok reçoit une telle requête, il ne s’agit pas d’altérer directement le corps original de la personne. L’IA génère un corps aux proportions similaires et y greffe le visage de la personne ainsi que l’arrière-plan de la photo originale. Bien que techniquement le corps ne soit pas celui de la victime, le résultat est une image manipulée qui donne l’illusion qu’elle porte de la lingerie ou un maillot de bain.
Cette technique place les victimes dans une position particulièrement difficile. Légalement, il peut être complexe d’agir, l’image ne représentant pas fidèlement leur corps réel. Cependant, l’atteinte à la dignité et l’aspect humiliant sont bien réels. Pire encore, les personnes ciblées n’ont aucun contrôle sur ces images qui se retrouvent parfois publiées directement dans les fils de discussion ou accessibles via des liens, et potentiellement stockées sur des serveurs sans leur autorisation.
La position de xAI face à l’ampleur du phénomène
Pour l’heure, l’entreprise xAI, développant Grok, semble tolérer cette utilisation. Bien que choquante et moralement condamnable, cette pratique prend de l’ampleur sur la plateforme X. Les motivations des utilisateurs masculins derrière ces requêtes semblent clairement viser à rabaisser et sexualiser des femmes sur le réseau social.
Face à la vague potentielle de plaintes et à la réprobation publique, l’espoir demeure que l’équipe derrière Grok finisse par intégrer des filtres ou des restrictions plus strictes pour bannir ce type de requêtes abusives et protéger les utilisateurs, en particulier les femmes, de ce détournement révoltant de l’intelligence artificielle.



