Des vidéos racistes générées par l’intelligence artificielle Veo 3 de Google, cumulant des millions de vues sur TikTok, propagent des stéréotypes haineux, selon un rapport de Media Matters. Ces contenus, montrant des scènes comme des policiers pourchassant des personnes noires, des juifs orthodoxes courant après des pièces, ou des Asiatiques cuisinant du chien, exploitent l’IA pour diffuser des discours de haine. Créées en 8 secondes maximum, ces vidéos se propagent aussi sur YouTube et Instagram, défiant les mécanismes de modération. Les autorités françaises encouragent les signalements sur cybermalveillance.gouv.fr pour limiter leur impact. Voici les enjeux et les mesures pour contrer ce phénomène.
Des vidéos haineuses générées par une IA sophistiquée
Lancée par Google en mai 2025, l’IA Veo 3 permet de créer des vidéos réalistes en quelques secondes. Ces vidéos, identifiables par le filigrane « Veo » ou des hashtags liés à l’IA, s’appuient sur des stéréotypes racistes pour attirer l’attention, certaines atteignant 14,2 millions de vues sur TikTok, selon Media Matters. Leur diffusion s’étend à YouTube et Instagram, amplifiant les discours de haine. En France, produire ou diffuser de tels contenus est illégal
L’article 225-1 du Code pénal prévoit jusqu’à un an de prison et 5 369 928 FCFP d’amende pour discrimination raciale.
comme l’explique Antoine Chéron, avocat spécialisé du numérique. Ces vidéos menacent la cohésion sociale, particulièrement dans des contextes sensibles aux discriminations.
Les limites de la modération des réseaux sociaux
TikTok interdit les discours de haine dans ses politiques, mais ces vidéos continuent de circuler, souvent via des comptes secondaires. La plateforme a supprimé des comptes et modère les contenus signalés, selon The Verge. Cependant, la sophistication de Veo 3 dépasse les capacités actuelles des outils de détection automatique, rendant la modération difficile. Ce problème affecte également YouTube et Instagram, où des contenus similaires ont été repérés. La Commission européenne, via le Règlement sur les services numériques, presse les plateformes de renforcer leurs mécanismes de modération, comme l’indique un porte-parole dans les médias. Les failles actuelles exposent les utilisateurs à des contenus toxiques à grande échelle.
Renforcer la lutte contre les contenus illicites
Les autorités françaises incitent les citoyens à signaler les contenus illicites sur cybermalveillance.gouv.fr, une plateforme dédiée aux dérives numériques. « Les plateformes doivent assumer leur responsabilité face à ces contenus toxiques », déclare un porte-parole de la Commission européenne. Les utilisateurs sont invités à repérer les filigranes IA ou les hashtags suspects pour identifier ces vidéos. Les efforts de modération doivent s’intensifier pour contrer la propagation rapide de ces contenus, facilitée par la viralité des réseaux sociaux. Une régulation plus stricte et une vigilance accrue des utilisateurs sont essentielles pour protéger la société des discours de haine amplifiés par l’IA.