Aller au contenu

On voit de plus en plus de « déchets d’IA » partout. Un expert explique les enjeux.

Jeune homme regardant un ordinateur portable sur une table avec des documents et une loupe.

Vous avez sans doute déjà vu, dans vos fils sur les réseaux sociaux, des images qui ressemblent à un mélange de photographie et de graphisme généré par ordinateur. Certaines sont ouvertement fantaisistes - comme « Shrimp Jesus » - et d’autres paraissent crédibles au premier coup d’œil - vous vous souvenez peut-être de cette petite fille serrant un chiot dans un bateau pendant une inondation.

Ces contenus sont des exemples de boue IA : des productions de qualité faible à moyenne - vidéos, images, sons, textes, ou combinaisons - fabriquées avec des outils d’intelligence artificielle, souvent sans réel souci d’exactitude.

Ce type de contenu se crée vite, sans effort particulier et à faible coût. Les producteurs de boue IA la publient généralement sur les réseaux sociaux afin de tirer parti de l’économie de l’attention sur internet, au détriment de contenus de meilleure facture, potentiellement plus utiles.

La boue IA s’est multipliée ces dernières années. Et comme le suggère le terme « boue », c’est rarement une bonne nouvelle pour les personnes qui utilisent internet.

Les multiples formes de la boue IA

En juillet 2025, The Guardian a publié une analyse sur la manière dont la boue IA est en train de prendre le contrôle des chaînes à la croissance la plus rapide sur YouTube. Les journalistes ont constaté que neuf des 100 chaînes connaissant la progression la plus forte proposent des contenus générés par IA, comme du football zombie et des feuilletons pour chats.

Vous écoutez Spotify ? Mieux vaut se méfier de ce nouveau groupe, The Velvet Sundown, apparu sur la plateforme avec une histoire de création bien ficelée et des morceaux très dérivatifs : c’est de l’IA.

Souvent, les internautes publient une boue IA juste assez travaillée pour capter et retenir l’attention. Cela leur permet ensuite de gagner de l’argent via des plateformes qui rémunèrent les contenus en fonction de la diffusion en continu et du nombre de vues.

La facilité avec laquelle l’IA permet de produire du contenu ouvre aussi la porte à des dépôts d’articles médiocres dans des médias. Clarkesworld, un magazine en ligne de science-fiction qui accepte des textes envoyés par le public et rémunère les contributeurs, a cessé d’accepter de nouvelles soumissions en 2024 à cause du déluge de textes générés par IA qu’il recevait.

Et le phénomène ne s’arrête pas là : même Wikipédia doit composer avec des ajouts de faible qualité produits par IA, qui mettent sous tension l’ensemble de son système de modération communautaire. Si l’organisation n’arrive pas à les retirer, une ressource d’information essentielle, sur laquelle beaucoup de personnes s’appuient, se retrouve menacée.

Les dommages causés par la boue IA

La boue IA « remonte » aussi dans l’alimentation médiatique des gens, en s’invitant dans des contenus plus visibles. Lors de l’ouragan Helene, des opposants au président Joe Biden ont brandi des images générées par IA d’un enfant déplacé tenant un chiot dans ses bras, en les présentant comme une preuve de la prétendue mauvaise gestion de la réponse aux secours par l’administration.

Même quand il est évident qu’un contenu a été généré par IA, il peut malgré tout servir à diffuser de la désinformation : il suffit qu’il trompe quelques personnes qui ne font que le survoler.

La boue IA nuit également aux artistes, en provoquant des pertes d’emplois et de revenus, et en saturant l’espace au détriment de contenus produits par de vrais créateurs. Les algorithmes qui structurent la consommation sur les réseaux sociaux ne différencient pas toujours ces productions de moindre qualité, ce qui écarte des pans entiers de créateurs qui vivaient auparavant de contenus en ligne.

Quand la plateforme le permet, vous pouvez signaler les contenus nuisibles ou problématiques. Sur certains services, il est possible d’ajouter des notes communautaires pour apporter du contexte. Pour les contenus dangereux, vous pouvez tenter de les signaler.

En plus de nous obliger à rester sur nos gardes face aux hypertrucages et aux comptes de réseaux sociaux « inauthentiques », l’IA entraîne désormais des tas de contenus médiocres qui dégradent notre environnement médiatique. Au moins, il existe un nom accrocheur pour désigner ça.

Adam Nemeroff, vice-recteur adjoint chargé des innovations en apprentissage, enseignement et technologies, Quinnipiac University

Cet article est republié depuis The Conversation sous licence Creative Commons. Lisez l’article d’origine.

Commentaires

Aucun commentaire pour le moment. Soyez le premier!

Laisser un commentaire