Les IA, les cryptos et la hype

13 minutes

Après le métaverse et les cryptomonnaies, les IA sont le grand sujet du moment supposée transformer à jamais le monde tel qu’on le connait. On nous parle de ceux qui utilisent ChatGPT pour rédiger un mail (sans doute l’une des rares utilisation logique de ça), on nous parle de ceux qui utilisent ChatGPT pour répondre à des questions délicates, faire leurs devoirs, etc. Dans un article alarmiste, Musk et autres « spécialistes » demandent à OpenAI de faire une « pause de 6 mois » pour s’assurer des conditions éthiques et pour éviter que le monde sois floodé de mensonges créé par IA.

Dans cet article, ils présentent l’IA comme capable de bien plus qu’elle ne l’est, et c’est là ou j’ai envie de traiter un sujet : les « craintes de science fiction », ou le « on va tout remplacer ».

Le piège de turing : faire paraitre les IA plus impressionnante.

Une erreur que l’on fait couramment en parlant d’IA, est de parler comme si elles avaient eut l’intention de faire quelque chose. Comme dit dans l’intro, on parle des IA qui « mentiraient » ou des choses du genre. Cependant, c’est une mécompréhension totale de ce que sont les IA et la technologie sur laquelle elles reposent : les modèles de langage, et le Machine Learning. Un sénateur américain à expliqué comment ChatGPT s’était « entrainé à apprendre la chimie alors que ce n’était pas dans son modèle ».

Pour moi, cette impression fait partie du véritable danger de ChatGPT et des IA générative : ce sont des produits sur-hypé dans le but d’être vendu et d’entretenir le cycle de la hype dans les grandes enterprises du web. Cela ne veut pas dire qu’il n’y a pas d’utilité au Machine Learning et au modèle de langages, mais quel la présentation des IA comme cette « personne virtuelle qui peut répondre à des tas de questions et faire nos devoir à notre place » est erronée et néfaste.

En effet, les IA possède de nombreux soucis pour remplir ce genre de rôle, venant de la manière même dont elles fonctionnent :

  • Les IA traitaient une quantité de données extraordinaire pour construire leurs entrainement, prise de différents d’endroit sur internet. Hors, ces données ne sont pas forcément vérifiée et correcte, ce qui entraine la présence de nombreuses erreurs et incidents dans les données. Les biais de jeux de données peuvent être catastrophique, amplifiant des biais racistes, sexistes, validistes, etc.
  • Les modèles de langages sont construit pour être des représentations du langages avec des rôles des mots, et des liés sémantiques entre les mots, mais sans avoir la partie « réelle » (au sens, encrée dans notre monde physique) du sens. En cela, ça fait que l’IA construit une réponse qui *ressemble* à une réponse qui pourrait suivre la question (un peu comme un autocorrect prédit le mot suivant à base de machine learning). L’IA créé donc un semblant de réponse, et pas une réponse. Du coup, même si les données du point précédant étaient correct, l’IA peut remixer des éléments pour donner une réponse qui n’a pas de sens (tel que des liens « inventés », des éléments précis mélangés, etc).
  • Pour finir, il faut également savoir que les IA sont construites sur l’exploitation humaine, à deux niveaux. Tout d’abord, pour « purifier » les données, des travailleurs Kenyens ont été exploités afin de review les données et d’étiqueter tout els contenus choquants de différentes IA. Iels ont été soumis de ce fait à des conditions de travails et des contenus horribles. A un second niveau, les concepteurs d’IA en reprenant des données de tout internet exploite notre travail à tous, le tout sans rénumération. Ces entreprises construisent un outil qui ne serait simplement pas possible sans l’utilisation non rémunérée et non consenties massive de travail d’autrui. C’est encore plus vrai lorsqu’on parle des IA artistiques

Ces différents éléments sont d’autant plus dangereux quand on sait à quel point les gens peuvent faire confiance aux IA, et qui sont ce que j’appelle ici le piège de Turing. Les IA paraissent tellement bien parler, ce que beaucoup de gens leur font plus facilement confiance.

Comme le test de Turing, qui déterminait qu’un jour on pourrait ne pas savoir dire si nous nous trouvons face à une machine ou une vrai personne en tentant de poser une série de question simple, ces IA ont tout misés sur le fait qu’on soit bluffé par les réponses. Et les modèles de langages et les IA à la ChatGPT répondent à cela d’une manière simpliste : ces IA tentent de créer un langage qui *fait humain*. Et cela nous produit tout un tas de biais. Tout d’abord, et comme vu plus haut, le faire de prêter une intention. Lorsque l’on lit « je veux » « je pense », ou que quelqu’un dit « le ciel est bleu », on voit naturellement ce qu’on lit comme l’émanation d’un locuteur qui porte ces propos. Cependant, les IA produisent les locutions sans véritable « locuteur » dans le sens ou l’IA ne peut penser ses propos. De même, les IA ne peuvent véritablement « créer » : au lieu de produire quelque chose de nouveau, elles ne font que remixer le passé, et au fond n’ont aucune véritable volonté dans leur création, aucun but, rien a dire.

Utiliser un modèle de langage pour répondre à des questions privilégie la forme sous le fond. D’où le soucis : Faire paraitre plus humain, faire des jolis texte semble plus vouloir se dire « wow on a réussi la loi de Turing » plus que créer des outils qui répondent à des besoins précis.

Les deux combinés font que pour un public non-averti, cela peut produire une tendance à plus facilement penser que l’IA a raison. Et ce encore plus quand s’y additionne toute la pub qui lui est fait aux IAà la fois par les entreprises qui font ça, et les articles disant à quel point cela va révolutionner le monde (et d’une certaine manière aussi par les articles alarmistes disant que cela va détruire le monde et est le début de Skynet), cela peut produire une tendance à plus facilement penser que l’IA a raison.

Les entreprises commercialisant ces produits construisent donc de la hype, sur le rêve d’être « à la pointe du futur ». En partie, les limites de l’IA sont souvent nié au profit du « ce que ça fera plus tard ».

Il faut vendre le futur

On peut le voir depuis ces dernières années, il y a dans les grandes entreprises deux phénomènes qui semblent aller à contre-courant :

  • Constamment des grandes annonces sur la nouvelle technologies qui révolutionnera le futur (les voitures se conduisant toutes seules, les cryptomonnaies, les NFTs, le metavers et désormais les IA)
  • Des renvois massifs de salariés, ainsi que ce qui semble être un peu la fin d’une époque de rêve pour pas mal de grande entreprises

Je pense que les deux sont liés. Je pense qu’on arrive dans une période ou la production technologique produit des rendements décroissants : on doit mettre de plus en plus pour obtenir des améliorations marginales. Un bon exemple à cela sont les consoles de jeu : entre chaque génération de console de jeu, l’amélioration devient de plus en plus marginale, et d’autres points augmentes (le prix de la gen actuelle est plus grande que la précédente, idem pour la consommation d’énergie).

Cela ne veut pas dire qu’il y a des avancées impressionnantes : les nouvelles mini-machines peuvent désormais émuler plus loin, et les augmentations de performances de puces « typé mobiles » ont jamais été aussi forte. Mais dans la globalité : il faut faire de plus en plus pour gagner moins. Et c’est vrai aussi dans l’industrie des sites web : plus des idées ont été faites et éprouvées, plus il est difficile de faire le « wow » incroyable qui va tout changer (cela devient plus une histoire d’être là au bon moment), et on peut avoir l’impression que le numérique stagne. Et bien des améliorations sont vu comme « ennuyante » par rapport au « futur » vendu précédemment.

Et je pense que les grandes annonces – même si elles ont toujours existées – vise aussi un peu à cela. A créer de la hype pour tenter d’attirer toujours plus les annonceurs. On prend des buzzwords pour tenter de dire qu’on a là de l’or, la révolution qui va tout changer, alors qu’il s’agit au mieux de technologies « utiles » voir « très utiles » (le Machine Learning, la Raytracing, ), ou au pire de technologie néfaste ( les cryptomonnaies, ou les AI « génératives » qui en fait ne font que prédire statistiquement quelle a le plus de chance d’être la suite d’un texte, ou une image correspondant à des critères). Tout doit toujours être la révolution, dans un espoir toujours présent d’émuler la grande révolution internet des années 90-2000. Cependant, le monde ne peut pas avoir des révolutions technologiques constantes. A la fois parce qu’on peut pas toujours avoir le grand changement qui transforme tout, et en plus parce que c’est dans une logique de « croissance constante », et l’idée qu’il faut toujours plus, toujours plus d’énergie consommée, etc. C’est notamment comme cela qu’on peut hyper tout ces systèmes extrêmement consommateurs d’énergies.

Mais c’est mis de côté, parce qu’il faut que les gens soient hypé.

Conclusion : Que peut-on faire ?

Je pense qu’il est important d’offrir une parole moins centré sur la hype ou la peur dans le domaine des IA. Une parole qui discute du sujet en parlant à la fois de ce qu’est le Machine Learning en terme simplifié, et des soucis autour des IA générative pour dissiper l’idée que ces IA réussiront à conquérir le monde et le détruire. Voir les défauts du modèle, parler des soucis éthique, parler du danger de croire les réponses des IA, notamment des soucis.

Cependant, je pense qu’il faut aussi éviter la pédanterie quand on utilise des termes anthropomorphique. S’il est important de faire comprendre qu’une IA « ne pense pas », et ne fait que « répondre statistiquement ce à que le texte à le plus de chance de ressembler », il ne faut pas perdre trop de temps à corriger toute personne qui dirait que l’IA « ment », « dit n’importe quoi », etc.

Ce n’est qu’avec un discours serein qu’on pourra luter contre celui centré sur l’urgence, que ce soit la Fear of Missing Out utilisée pour hyper les entreprises et actionnaire, ou d’un autre côté l’idée que les IA seraient ce grand danger qui envahira l’humanité et le contrôlera, discours qui permet à des vendeur d’huile de serpent de nous vendre des « solutions pour nous sauver ». C’est pour cela que Musk a dévoilé après ses grandes déclaration anxiogène sa « TruthGPT », son IA qu’il déclare vouloir « chercher la vérité maximale et comprendre le monde », annonçant qu’une IA « qui se soucie de comprendre l’univers ne risque pas d’anéantir les humains, parce que nous sommes une partie intéressante de l’univers ».

Amplifier ou inventer un problème pour s’en poser en héros est toujours un des modes de fonctionnements des arnaqueurs.