2024, l’année de la slopification

33 minutes

On parle souvent de ce phénomène qui est le "slop", cette année. Mais qu'est-ce que c'est exactement ? Et est-ce que ça va plus loin que l'IA ?

Le 13 décembre 2024, aux Game Award, est sorti un trailer qui a réussi à créer beaucoup d'énervement mérité dans le monde entier, et dont le trailer réussi à avoir entre 5 et 10 fois plus de dislike que de like. Quel est ce jeu ? Catly, qui se présente comme un "MMO AAA de chats". Le trailer ne présente rien, n'apprend rien, ne nous dit pas ce que sera le jeu. Juste des images de chats avec ce visuel de truc généré par IA. Pas de passion, pas de vraie indication de ce que sera le jeu, juste des vagues déclarations sur ce que ça sera trop bien. Mais derrière, le vide.

L’année dernière, ce qui a été très mis en avant était l’enshittification, où comment les plateformes deviennent progressivement plus merdiques à cause du modèle commercial du Venture Capitalism. Si cette année a été riche en merdification de services, cette année, y’a eut un autre phénomène à mettre en avant (même si y’a eut de l’enshittification) : le slop, et cette accusation a été à juste titre fortement employée pour parler de Catly, provoquant de la colère chez pas mal de joueur. Si ce n'est sans doute pas une haine des chats qui joue, partons plus sur cette accusation : qu'est-ce que du slop ? Et pourquoi cette notion parle bien de cette année.

Dans cet article, je ne vais pas parler de toute la dimension “droit d’auteurs” de l’IA, même si elle est super importante, mais je vais plus me concentrer sur cette notion de “slop”. Cet article est un peu une suite de l’article “L’internet vivant et l’internet mort”, et de celui “2023, l’année de l’enshittification”.

C’est quoi cette « slopification » ?

Le slop, c’est la création en masse de contenu facile à faire, dans le but d’avoir des petits rendements, et par IA. Le terme a été utilisé notamment par le développeur Simon Willison, et est construit sur le modèle du mot “spam”.

De l’anglais slop qui définit toute sorte de substance semi-solide ou liquide qui a une texture indéfinissable ou déplaisante.

– Etymologie de slop selon le Wiktionnaire

Le slop, ce sont ces résultats de recherche générés par IA qui pourrissent les recherches, qui rendent les résultats dans la plupars des plateformes plus mauvais. Ce sont aussi ces mauvaises réponses IA qu’on retrouvait sur Bing, Google, etc. De la génération automatique de mauvaise qualité, faite pour envahir le contenu. J’ai déjà un peu parlé du sujet dans L’internet vivant et l’internet mort, mais j’aimerais un peu ici rappeler les exemples classiques et ceux nouveaux depuis mon article précédant :

Je ne vais pas m’étendre sur les origines du phénomène, ni sur le fait que c’est déjà un problème, parce que j’en ai justement déjà parlé dans mon article précédant, que je vais résumer en deux points :

  • C’est un phénomène qui provient fortement de la culture du scam et des “revenus passifs” qu’on a aussi très fortement retrouvés dans la crypto.
  • C’est un problème parce que ça rend plus difficile de trouver des trucs pertinents, et c’est du coup important de le combattre avec des outils de blocage, en faisant de la curation ou utilisant des flux RSS pour s’abonner directement aux sites qui nous intéressent.

Le souci que cela pose se retrouve notamment au niveau de la notion de vérité, pas qu'à cause de leur utilisation pour produire des discours mensongers, mais pour le nombre qui aura juste plus du “discours imprudent”, inexact, pleins de petite erreur ou manquant de subtilité. Même si les IA s’amélioraient et hallucinaient moins, elles resteraient prônes au biais, et souvent ce seraient des discours copiés-collés à la va-vite.

Comme le dit cet article du Reuters Institute for the Study of Journalism :

C’est différent de la désinformation, dit [Sandra] Watcher (note: Professeure de Régulation et Technolgoie à l’Institut d’Internet d’Oxford). Le but n’est pas de mener en erreur mais de convaincre et de paraître confiant. C’est similaire au concept de bullshit du professeur Harry G. Franfurt, où un orateur ne s’inquiète pas de s’iel dit la vérité - c’est non-pertinent puisque leur but est la persuasion. “Comme Franfork le dit, la chose la plus dangereuse pour une société démocratique n’est pas le menteur, c’est le bullshitter”, dit Watcher. – AI-generated slop is quietly conquering the internet. Is it a threat to journalism or a problem that will fix itself?, article du Reuters Institute for the Study of Journalism

S’il est difficile (comme le dit l’article cité plus haut) de prédire l’effet sur le long terme, cela cause déjà du tors en diffusant des contre-vérités, que ce soit dans les domaines de l’information, mais aussi du domaine de la science, etc. Dans ces domaines, c'est particulièrement grave, parce que cela provoque cette dilution de la vérité, qui est déjà particulièrement un souci dans l’ère “post-vérité” où on est.

Et ici, j’aimerais cependant revenir sur les deux coupables à mes yeux d’avoir permis ça, d’avoir créé l’environnement technologique qui permet tous ces problèmes.

Comment ça marche

Le principe est souvent le même : créer en masse du contenu par IA, et abuser du SEO (Search Engine Optimisation) pour tenter de le rendre le plus visible possible. Et je pense que c’est vraiment cette conjonction de ces deux phénomènes qui fait la “slopification d’internet” :

  • La possibilité de créer massivement par IA du contenu (visuel, vidéo, son, texte) pas forcément de bonne qualité, mais créé rapidement permet d’envahir rapidement les espaces et de saturer.
  • L’abus du Search Engine Optimisation ou des algorithmes en général. La manière dont sur chaque système ayant un moteur de recherche intégré, ou un algorithme présentant le contenu, des méthodes ont été mises en point pour game le système et apparaître le plus possible.

Et si dans mon article précédant, j'avais dit en quoi les gens tentaient ça, les grosses plateformes à algorithme ont créé l’environnement idéal pour cette slopification d’internet. Ils ont créé un terrain de jeux idéal qui a favorisé le spam (petit rappel que sur YouTube, l’algorithme préfère qu’on spamme les vidéos). C’est en partie lié à l’économie de l’attention : le but est de faire voir le plus de contenus possible aux gens et de les faire rester le plus longtemps. Donc ces plateformes encouragent d’avoir constamment des nouveaux contenus.

C’est pour cela que les livres généré par IA sur Amazon ont des noms à rallonges, et certaines vidéos YouTube visant l’algorithme de youtube kid des noms qui semble fait pour des ordinateurs : c’est parce que c’est précisément le cas. Pour réussir à être haut dans l’algorithme, en visant le plus de mot clefs possibles. Le SEO rendait déjà des articles moins bons pour tenter d’être le plus haut possible dans les résultats Google, mais avec la génération par IA, c’est possible d’en faire en grande quantité pour ça. La plateformisation d’internet est en grande partie ce qui est permis tout ça, combiné à cette culture du “revenu passif” qui a créé toute la motivation pour ça.

L’évolution du phénomène

La dernière fois que j’avais écrit sur le sujet, le mot de “slop” n’existait pas, et j’ai l’impression que c’est un truc qui a pas mal changé depuis : le souci est devenu de plus en plus visible dans les milieux mainstreams, de plus en plus de gens se plaignent du phénomène (même si encore pas mal de gens se font avoir).

De plus en plus de moyens de lutter se sont fait, et des plateformes maintenant disent “vos contenus ne seront pas utilisés par l’IA” comme argument comme Bluesky et d’autre qu’il n’y aura pas de truc par IA sur le site comme Cara et Sheezy.

De même, on en est au point ou même parfois l’accusation d’IA est balancé de manière un peu hasardeuse quand quelque chose est étrange, ce qui montre que y’a un rejet qui a un peu monté (même si pas partout, et qu’à mon avis l’industrie attend pour pouvoir en lancer plus). Et ce mot revêt bien ça : il façonne ce problème précis qui est le “spam de contenu par IA” avec le “slop”. Il y a un mot pour décrire le phénomène, pour décrire l’invasion par tous ces contenus.

Attention, tout cela ne veut pas dire que le problème diminue, où même que tout le monde se met à dire que c’est un problème. Si le mot gagne en popularité, c'est aussi que le problème s’amplifie : de plus en plus de gens critiquent justement Google pour être devenu moins bon à cause de ça, parlent des comptes twitter, etc. Et l’article mis en lien sur LinkedIn indique bien que le phénomène n’est pas parti pour disparaître, et restera tant qu'il y aura cette volonté de juste générer du contenu facilement, à la chaine. Surtout qu’en plus, maintenant les prompts même sont générés par IA, souvent via ChatGPT, pour ensuite être utilisé dans MidJourney pour de la génération d’IA. Intelligencer, nous donne cette méthode de la part de quelqu’un qui modère 170 pages facebook, et cinq chaines youtube, montrant que cela permet de produire beaucoup de slop en peu de temps.

L’un des gros soucis, c'est qu’en fait, ce n'est pas forcément facile d’avoir exactement des métriques. Un nombre qui revient souvent, et qui est potentiellement un peu sensationnaliste est qu’on se retrouverait en 2025 avec 90% du contenu d’internet généré par IA, mais ça semble pas mal venir de gens dits comme des “AI thought leader”, donc à titre personnel ouais, je suis un peu plus méfiant de leurs discours. D’autres sortent le même chiffre pour 2026.

Un chiffre de 57% est fréquemment utilisé aujourd’hui, sortant de cette étude, mais c’est un poil plus compliqué, parce que cela compte aussi ce qui a été traduit par IA (ce qui est aussi un type de contenu causant des soucis), donc ce chiffre est avec des pincettes, même si je pense qu’une grosse partie doit bien être du slop, parce qu’il y a aussi beaucoup de slop à base de traduction IA de site comme StackOverflow, etc. Bref, avec des chiffres comme 50% sur linkedin, le nombre de résultats google, etc, on peut se dire que c’est beaucoup, mais cela semble bien difficile à quantifier. Un détecteur d’IA lui dit des chiffres qui me paraissent bas : parlant en juin de presque 14%. Le souci, c'est qu’eux aussi sont biaisés : s’ils disent que le phénomène est fort, ils font plus de ventes.

Une théorie souvent dite est que dû à l’effondrement des modèles, quand il y a trop de contenu pour IA, l’IA se tuera toute-seule, comme dans cet article de Forbes. De mon côté, je pense que c’est un truc auquel faire attention, parce que l’IA a déjà un fort pouvoir de création de slop et de nuisance. Même si l’amélioration des IA s’effondre via un effondrement des modèles, je doute que cela suffise à arrêter le slop. C’est plus un phénomène massif qu’il faudra, parce que des modèles resteront qui seront “good enough” pour le slop qui est par définition de mauvaise qualité.

Je pense également que les détecteurs d’IA ne seront pas suffisants, puisqu’ils passent fréquemment par les mêmes mécanismes que l’IA et sont voués au même genre d’erreur. De plus, cela donnera le même genre de jeu du chat et de la souris que le SEO a eu, donc je ne suis pas 100% sur du résultat.

Je pense que pour lutter contre la slopification, il faudrait plus agir du point de vue législatif, forcer les plateformes à modérer, et à notre niveau faire de la curation et cultiver une culture internet de l’humain. Un des points positifs dans l'histoire de Catly indiqué plus haut est de voir que le "jeu" se fait défoncer en termes de dislike.

Cela va plus loin que l’IA

A noter que si le terme vient des critiques sur l’utilisation de l’IA, il est utilisé un peu en dehors du domaine de l’IA, pour parler de contenus fait à la chaine, produit pour produire du contenu. Aussi bien donc ces contenus fait par IA, que juste les contenus lisant avec une voix automatique des threads reddits. C’est souvent ce qu’on appelle les fermes à contenus, qui font des contenus à la chaine, avec une vitesse de production impossible à tenir sans prendre des raccourcis. C’est comme les articles de tops, etc.

Cela a déjà été parlé par plusieurs vidéastes, tel que LS Mark dans ses vidéos The Illusion of Internet Fame et The New TERRIFYING YouTube Meta, ou Kyle Hill dans sa vidéo YouTube’s Science Scam Crisis. Dans le premier cas, il parle de comment des vendeurs d’huile de serpent vendent des “méthodes de devenirs riches avec l’IA”, et le second parle des vidéos sur l’animation (généralement avec des miniatures blanches avec juste un texte et un personnage) qui faisaient que des résumés d’épisodes par IA. On retrouve ici tout ce dont on a parlé plus haut :

  • Manipulation de l’algorithme en allant sur des sujets qui auront du clic
  • Poster en masse en gérant pleins de chaines youtubes pour que les petits gains sur chaque vidéo deviennent une grosse somme.

Mais si je parle de ces exemples, c’est aussi pour indiquer que l’IA n’est au fond qu’une des méthodes de ce phénomène plus grand. Dans le premier cas, on retrouve les bonnes vieilles méthodes des scam artistes, juste cette fois appliqué sur l’IA. Et dans la seconde, on retrouve du contenu qui ne sert qu'à reprendre des tops facile à faire, et en plus on génère par IA pour aller plus vite. Et cela s’ajoute du coup à d’autres “méthodes”.

Une première d’entre elle est le plagiat, tel qu’indiqué dans la vidéo assez connue Plagiarism and You(tube) d’Hbomberguy de l’année dernière. Les personnes le faisant copiaient-collaient des bouts d’articles pour former une vidéo, ce qui permettait d’accélérer tout le travail “d’écriture” pour ne pas avoir de vraies recherches à faire. Et une seconde, pour les parties où c’est pas possible de voler, souvent, c'est simplement de l’exploitation. Des monteurs vidéos sont exploités et sous-payés. Et l’IA permet de faire encore plus de marge en remplaçant le premier, et si possible le deuxième un jour. Et au final, l’IA n’est qu’une automatisation de ces deux processus :

  • L’IA est basée sur le plagiat et vol massif de contenus (oui j’avais mentis au début, j’en ai parlé du coup), qui sont ensuite régurgités. Tout ce travail de reprendre le taff d’autrui est automatisé, puisque les grosses entreprises d’IA l’ont fait avant.
  • Les entreprises produisant les IA exploitent massivement des travailleurs sous-payés pour pouvoir faire ce qu’elle fait notamment pour la catégorisation des contenus.

À noter que pour le premier, un youtubeur, Johnny 2 Cellos a parlé de justement des vidéos plagiat avec l’IA de son canal. Parce que ce n’est pas l’un ou l’autre, mais souvent tout en même temps, et cela montre comment l’IA et le plagiat peuvent s’assembler dans le processus : ils vont le mettre dans la moulinette IA pour que ce ne soit pas reconnu par de la comparaison de texte.

Le rythme de production du slop n’est pas possible sans passer par de l’exploitation. Que ce soit le plagiat, l’exploitation directe des travailleurs, ou l’utilisation de l’IA qui les exploite indirectement, dans tout les cas on se retrouve face à une diminution des coups via l’exploitation humaine. (Ne pas s’intéresser à la qualité est l’autre facette, mais je la trouve moins grave que l’exploitation, et je trouve qu’on a déjà bien parlé de cet aspect).

Cependant, la notion de slop n’est pas utilisée que dans nos petites vidéos sur internet, mais aussi dans celui de l’entertainement en général.

Le Slop dans l’entertainement ?

Le terme est aussi utilisé pour parler en partie de l’entertainement. Dans tous les cas, l’idée est de viser le phénomène de média qui sont faits pour être consommés à la chaîne, remplaçable et remplacé par le suivant. C’est pour cela notamment qu’a été critiquée la stratégie de créer des séries second screen-friendly qui selon l’article du télégraphe en lien serait des séries plus faites pour pouvoir être regardé tout en ayant son téléphone à côté. On retrouve cela dans la vidéo Slop Economics de Pillar of Garbage, analysant le phénomène pour le film Damsel (qui se fait aussi critiqué par l’ED parce que visant à retourner le concept de demoiselle en détresse). Du côté de Netflix, on semble surtout parler de faire participer le second écran au visionnage, donnant accès à plus d’info dessus, ce qui est un peu différent, mais risqué aussi sur certains aspects.

Je pense que y’a une pertinence en effet à appeler une partie de ces vidéos YouTube, films visant à être fait-regardé-oublié… aussi comme du “slop”. Pour moi, tout comme le slop IA, y’a pour but de faire du “remplissage” pour que vous tombiez dessus et le regardiez, qu’ils grappillent des revenus, puisque vous passez à autre chose (si possible un autre où ils grappillent).

Un de mes soucis avec ces critiques, c’est pas mal présenté par certains sous la forme un peu prétentieuse intellectuellement du “ils veulent rendre leur film plus stupide alala idiocracy alala”, mais je pense que le souci est plus insidieux que du “bête vs intelligent”. Ce sont plus des contenus fait pour être remplaçable, et en vrai, même sur ce côté… ce type de slop n’est pas nouveau. Le but des contenus est de remplir les plateformes, pour que les gens les mettent quand ils font autre chose, comme c’est dit dans Slop Economics. Et je pense que sur ce point, on est proche du système de nombreux direct-to-dvd plus ou moins bon, servant à remplir les bacs à 1€, des mockbusters servant à surfer sur la hype d’un film, etc. C’est juste que c’est adapté ici à un usecase très présent aujourd’hui : mettre quelque chose en fond pendant qu’on fait autre chose, ou pouvoir être suivi en même temps qu’on est sur le téléphone (éviter qu’on arrête, puis ne le reprend pas, notamment).

Ici, on revient un peu dans ce que je disais sur “l’internet mort et l’internet vivant” dans mon dernier article (et que je suis loin d’être le premier à dire mdr) : tout cela n’est pas nouveau, c’est plus que l’IA et la technologie à rajouter une échelle différente à tout ça. Surtout que les studios cherchent toujours à avoir aussi leur “chefs-d'œuvre” aux côtés de leurs produits de “remplissages”. Dune visait à cela, par exemple, et chaque année des films tentent de se hyper toujours comme des “gros évenements” ou quelque chose d’important. Cependant, il y a quand même une slopification du cinéma, puisque cette même niche que pour le contenu slop par IA semble plus visé qu’avant : produire du contenu qui sera remplacé vite par d’autres.

À noter que tout cela n’est pas un “c’était mieux avant”. Nous avons eu des tonnes de productions de très bonnes qualités ces dernières années, et l’animation indépendante à vécu un boom qui augure du très intéressant. Et je pense que ces “grandes réussites” ne sont pas menacées, mais plus tout ce qui sera emporté par la vague de slop, invisibilisé.

Et c’est notamment un des risques qu’il y avait (et a toujours) autour de l’utilisation de l’IA dans les séries, les films et tout. Ce n’est pas qu’un super robot écrivain, face les histoires les plus émouvantes et puissantes jamais réalisées, et mettent à la retraite tous les artistes (ce qui serait aussi une catastrophe, mais c'est pas ce qu'atteindra l'IA). Non, c’est que pour une partie des contenus, l’IA soit utilisée pour générer tout le “bruit de fond” de la création, toutes ces séries qui sont là un peu pour avoir du contenu de présent et qui sont aussi nécessaires. Ma peur, c'est plus qu’une production industrielle à la chaine, la plus automatisée possible, invisibilise des tas de créateurices, en tablant les algorithmes des plateformes, pour prendre le plus de place possible.

Et j’ai peur que du coup, bah cet état d’esprit de produire en continu, souvent en se basant le plus possible sur ce qui marche déjà, se combine à l’utilisation d’IA pour amplifier encore plus cela (et ça commence déjà).

Mais le second risque rejoint celui dit plus haut : l’exploitation. Pour avoir un rythme de production et les faire les moins chères possibles, l’exploitation est partout. L’utilisation à outrance des VFX informatique n’est pas parce que ce serait “mieux” où pour la technologie, c’est en grande partie pour l’exploitation. Les artistes VFX ont longtemps été moins syndiqués, et plus exploitables. Beaucoup de studio de VFX sont en concurrence pour qui fournira le plus pour moins cher, et c’est toujours en épuisants leurs artistes. Ces problèmes ont notamment été critiqués pour Marvel par plusieurs professionnels du VFX. Évidemment, il est à noter que cela arrive aussi pour les films très beaux, avec des auteurs derrière, que l’on ne considérerait pas comme du “slop”, du remplissage. Je n’irai pas dire “ouais tout le MCU c’est du slop de toute façon”, non loin de là. Cependant, cela fait partie du souci, et Marvel vise à avoir de nombreux films par ans pour avoir une forte présence, Disney aussi, etc.

Et beaucoup de séries, pour augmenter leur production et leur présence, passent par des deadlines impossibles à tenir pour les artistes VFX.

Dans le jeu vidéo, cela arrive aussi. Le slop dans le jeu vidéo est très lié à un autre phénomène, les assets flip, qui consistent à prendre un moteur pré-existant et souvent des exemples en libre-service, modifier des assets (souvent avec des assets achetés sur des places de marché), bâcler des environnements et déclarer ça comme un jeu. Si ce n'est pas un souci d'acheter des assets ou d'utiliser des moteurs, le souci est plus dans l'utilisation de cela pour créer en masse des jeux faciles à produire, sans efforts. Et le slop par IA est au final qu'un moyen de s'affranchir des achats d'assets. Cela se produit beaucoup dans des milieux orientés crypto/NFT comme l'indiqué les vidéos du youtubeur Jauwn, et ce n'est pas étonnant au vu de la proximité des milieux crypto et IA de voir cela arriver (d'ailleurs, dans le cas de Catly, le créateur aurait trempé dans la crypto et les NFTs avant). Encore une fois, on est ici dans une continuation : les shovelwares, la forme historique du slop, ont toujours existés (et on en trouve de nombreux exemples dans les "angry reviews" sur youtube). Sur les stores d'applications mobiles, c'est les centaines de milliers de jeux qui tentent de rip-off une marque connue en faisant un jeu baclé y ressemblant pour générer de l'argent sur les pubs ou microtransactions. Ce qui a vraiment évolué c'est l'immense facilité qu'il y a aujourd'hui à en produire, et l'utilisation de l'IA et tout.

Les barrages à slop

On revient un peu aux solutions dont je parlais plus haut et dans mon article précédant sur le sujet : il nous faut des espaces de contenus humains. Ce ne sera pas suffisant (il faut un effort législatif et d’éducation), mais cela peut nous aider. Et cet “internet de l’humain” existe déjà ! Un internet vivant, plus jeune qu’on pourrait le penser, qui n’obéit pas aux règles du Venture Capitalism.

J’en ai parlé un peu tout au long de cet article, et je vais le récapituler ici avec quelques exemples sous forme d’une liste :

  • Sheezy.art et Cara sont deux sites visant à ne pas avoir d’art généré par IA dedans. Sheezy est mon préféré, mais qu’il montre vraiment cette idée d’avoir un internet très humain, chaleureux.
  • Tout le Web Revival (dont je parlerais plus en détail pour présenter le sujet à un public francophone) est une contre-slopification puissante, amenant un web fait par des personnes face au slop d’IA trop présent.
  • Les espaces comme le fedivers (même si à titre perso, c'est une forme de web revival, qui combine l’esprit du web avec l’idée d’une plateforme de réseau social, ce qui se voit par l’une de ses feature unique : les emoji custom)
  • uBlacklist dont j’avais déjà parlé dans mon article précédant, qui permet de faire disparaitre des résultats de recherche des sites, parfait pour bloquer le slop. Une sorte d’antispam pour internet, qui IMO devrait se généraliser.
  • Les listes de curation, comme These videos are good : Here is why créé dans le subreddit de Hbomberguy, mais aussi celles de site web comme Nekoweb Districts, les blogrolls comme blogroll.fr créé par Alex Sirac, ou notre tramweb (#Autopromo).
  • Les veilles informationnelles comme la veille de sebsauvage ou celle de Louis Derrac.

Cela ne résoudra pas le souci de fond, mais ça peut être un bon moyen de naviguer sur le web sans se faire emporter par les torrents de slop.

Conclusion

Le slop est la culmination des phénomènes de la génération par IA et du SEO spam, et une amplification de phénomène qui ont toujours existé dû à ces moyens. C’est le moyen de produire le plus petit dénominateur commun du “contenu”, en usant de tous les raccourcis possibles. J’ai brassé pas mal de sujets dans cet article, et j’aimerais les résumés en quelques points ici :

  • Le slop par IA ou non abuse des algorithmes des plateformes pour faire le plus de contenus le plus vu possible.
  • Le slop abuse de l’exploitation pour fonctionner, que ce soit de manière directe ou indirecte par l’IA.
  • Il est au mieux je-m'en-foutiste avec la vérité, la qualité, parce que ce n’est qu’une logique de production (au pire, il ment exprès)
  • S’il ne peut être vaincu vraiment sans législation, on peut au moins développer des moyens de s’en préserver.

Je pense que ce phénomène à d’autres éléments dont je n’ai pas parlé, tel que les créateurs d’extrême-droite faisant des centaines de contenus sur le dernier drama où ils pourront hurler “LE MÉCHANT WOKISME” comme les disques rayés qu’ils sont. Leur stratégie de traire le dernier “drama” (souvent exagéré) ne sert qu’à produire pleins de contenus pour faire cliquer des gens qui veulent s’énerver contre les personnes LGBTQ+, de couleurs et les femmes. Et si y’a un but de diffuser leur haine (et le slop est aussi beaucoup utilisé à fin politique, surtout par l’extrême-droite), leur but est de se faire de la thune sur ça.

Dans tous les cas, je pense que c’est sans doute un des gros soucis d’internet, et dès le début. Si c’est l’endroit où des tas de créatifs et de personnes qui ont des choses à partager partagent, c’est aussi un espace que des gens ne voient que comme un moyen de se faire de la thune. La logique d’entrepreneuriat à outrance, du “get rich quick” fait du mal à internet, mais tous les médias en général.

Si au final, tout cela n’est pas nouveau, le changement d’échelle cause pas mal de soucis. Mais nous pouvons nous battre, améliorer des choses. Je pense que le slop à l’avenir va former une sorte de vase au fond d’internet. Mais c’est à nous de faire que ce qui remonte ne soit pas les contenus générés par IA, mais les contenus faits par des vraies personnes, qui ont des choses à partager.

Pour plus de vidéo sur le sujet, je vous conseille :

  • I Was Tricked by A.I. (And It’s Big Tech’s Fault) de Pillar of Garbage, où il parle de l'invasion des contenus IA dans les plateformes de stock footage, et explique l'état d'esprit de création de l'IA.
  • How AI is Destroying our Dreams de Jessie Gender, où elle explique exactement notre ressenti face à l'IA, face à son effet destructeur sur l'art. C'est une belle vidéo sur le bonheur qu'apporte l'art, une vidéo pleine de colère, sur la volonté de remplacer les artistes par de l'IA et de la technologie. Une vidéo de quelqu'un qui aime l'art, et aime faire de l'art.
  • The Terrifying Return of Shovelware de ZackLillipad, où il revient sur l'histoire des Shovelware et comment le phénomène revient sous la forme justement de jeux généré par IA.

Source de la miniature : Footsteps in mud.jpeg