Quelques textes un peu trop longs pour mastodon (garanti 0% de matière IAsse)

Florence Maraninchi

image

Mlle Beaumaine, Théâtre des Variétés — about 1900 — Paul Nadar (French, 1856 – 1939)

Dans les recommandations habituelles qui fleurissent depuis quelque temps pour encadrer l'usage des IA génératives, on lit systématiquement quelque chose qui ressemble à : “ne faites jamais confiance à une IAg, contrôlez soigneusement avec d'autres sources”.

Faisons un détour par les systèmes critiques avant d'examiner les moyens de suivre ces recommandations. Nous ne traiterons pas ici de la question mais alors, pourquoi utiliser l'IAg ?, qui mériterait en soi un long développement.

Systèmes critiques : redondance de capteurs, identification des sources, probabilités de défaillance

Dans les systèmes embarqués critiques on assure la sûreté par de la redondance, en particulier la redondance matérielle des dispositifs qui permettent d'acquérir des informations sur l'environnement physique. Par exemple, si une fonction critique utilise les données d'un capteur (l'altitude ou la vitesse d'un avion, la température d'un processus chimique en cours, l'état d'un réacteur nucléaire...), il est de bon goût de prévoir au moins 2 capteurs (pas forcément du même modèle), au cas où l'un d'eux serait en panne. Un problème est détecté dès que les deux capteurs diffèrent suffisamment pendant suffisamment longtemps. Pour pouvoir déterminer quel capteur est en panne, on en met même plutôt 3, pour pouvoir voter, en faisant l'hypothèse que si deux capteurs donnent des valeurs cohérentes entre elles, mais différentes de la valeur du troisième, la probabilité est forte que le troisième soit défaillant. Parfois on met même 4 capteurs. Quoiqu'il en soit, la sûreté repose sur des sources d'informations redondantes, avec possibilité d'identifier la provenance des informations (capteur 1, capteur 2, ...) pour comparer. Par ailleurs la sûreté déclarée des systèmes qui utilisent ces capteurs repose sur une analyse des défaillances possibles. La probabilité qu'un capteur tombe en panne est trop grande pour qu'on fasse dépendre la sûreté de tout le système de cette unique source d'information. La probabilité de deux pannes simultanées est déjà plus faible, pour 4 pannes simultanées on considère que la probabilité est tombée suffisamment bas pour que le risque (qui n'est jamais nul) soit tolérable.

Comment contrôler la production des IA génératives ?

Cette analogie permet-elle de comprendre comment appliquer la recommandation “ne faites jamais confiance à une IA, contrôlez soigneusement avec d'autres sources” ? Imaginons une situation où la production de l'IAg va servir dans un processus de décision important, par exemple. Comment contrôler ? Sommes-nous vraiment dans la situation de la redondance de sources d'information, avec identification de la provenance et estimation des probabilités de défaillances simultanées ?

Si on fait une photo de l'état actuel de l'information en ligne — ou peut-être qu'il aurait fallu faire cela il y a 3 ans — on peut encore se convaincre que les productions des IA génératives peuvent être confrontées à ce qu'on trouve dans un espace informationnel non pollué, et que l'identification de provenance est encore possible.

Mais les productions des IA génératives et les informations authentiques cohabitent dans un même espace. Avec cet effet de pollution informationnelle à grande échelle engendré par un usage répandu et inconsidéré des IA génératives elles-mêmes, comment la situation évolue-t-elle ? va-t-on pouvoir encore distinguer l'authentique du généré, pour continuer à “contrôler” les productions des IAg ? Tout porte à croire que la redondance et la connaissance des sources, indispensables à la garantie de qualité de l'information sur laquelle on se base pour la suite du travail, sont menacées.

Comment contrôler ce que dit une IA générative sur un sujet, si les moteurs de recherche fournissent également des résumés faits par des IAg, qui plus est de sources elles-mêmes générées par IA ? On s'inquiète parfois de dégradation intrinsèque de la qualité due au fait que les IAg se nourrissent des productions d'autres IAg. Mais le risque principal pour l'utilisateur est de ne plus pouvoir distinguer les sources, et d'être donc dans l'incapacité d'appliquer la fameuse injonction de contrôler les productions des IAg.

#resistIAGen

@flomaraninchi@pouet.chapril.org

Il y a un an j'écrivais ça.

Depuis j'ai eu de multiples occasions d'argumenter contre des gens qui trouvent toujours un usage à ces objets.

Parler d'impacts environnementaux ?

Depuis quelque temps je me dis que les arguments sur les impacts environnementaux des IAg ne marchent pas. On nous répond souvent que c'est tout le numérique qui a des impacts environnementaux désastreux (sous-entendu : on n'est plus à ça près).

A quoi je réponds : raison de plus pour ne pas en remettre une couche alors que justement il s'agirait de réduire le numérique.

Ou alors on entend que ce n'est pas grand chose par rapport à l'aviation, l'industrie, l'agriculture, … ou autre secteur.

Argument classique, encore une fois il faut réduire de partout ; et de plus le numérique est un accélérateur de tout le reste. D'ailleurs c'est vendu comme ça. Les IAg vont paraît-il booster la productivité et donc la croissance.

On entend aussi qu'une requête ChatGPT ça ne coûte vraiment “rien” (en électricité, en eau, en CO2 ...).

Oui, c'est vrai, un mail non plus. Mais il faut regarder l'infrastructure dessous. Et il y doit bien y avoir une raison à la frénésie de construction de datacenters et au rallumage de vieilles centrales nucléaires. Et aux gains de Nvidia.

On ne peut pas se permettre l'aggravation des impacts envt du numérique due aux IAg. Point.

Les bigtech qui imposent un narratif sur le calcul des coûts à la requête, c'est un peu comme si l'industrie du tabac avait dit que tirer une bouffée d'une cigarette n'augmente le risque de maladie que de 0.00001% pour les enfants, bien moins que la junk food ou le patin à roulettes.

Parler du micro-travail abrutissant derrière l'IA

Après avoir mis les arguments sur les impacts environnementaux un peu de côté, j'ai cru un moment que le travail humain d'annotation caché derrière ces prétendues intelligences artificielles était susceptible de frapper les esprits. Mais il semblerait que non.

Savoir que des gens se sont farci des heures de contenus les plus pourris du web (au point d'être atteints de TSPT) pour entraîner un garde-fou et qu'on puisse demander à ChatGPT un résumé ou une recette de nouilles au fromage sans être soi-même confronté à ces horreurs, visiblement ça ne suffit pas à détourner du bidule. (oui, je sais, le smartphone, les mines, etc. Encore une fois : justement, arrêtons au moins d'en rajouter).

Montrer que ça ne marche même pas (ou même que ça ne peut pas marcher)

Ensuite je me suis dit : à force de parler des impacts désastreux, on en oublie de dire que ça ne marche même pas. Que fondamentalement ça ne peut pas faire ce pour quoi c'est vendu.

Les délires autour du vibe-coding ou des agents montrent que la croyance dans les capacités d'autonomie du numérique est très ancrée dans l'imaginaire. Même chez les informaticiens qui devraient quand même savoir que ces capacités sont totalement illusoires et que le numérique ça se surveille comme le lait sur le feu.

Ça rejoint un autre billet : L'imaginaire d'une infrastructure numérique auto-entretenue immuable.

Le but des IAg est ce qu'elles font

Et puis j'en suis venue à me dire que la qualité des résultats n'est pas la question centrale, qu'en fait ça marche parfaitement bien pour les gens qui les fabriquent ou les promeuvent.

J'ai lu ce matin Deflating “Hype” Won’t Save Us et c'est une argumentation impeccable de cet aspect.

Pour résumer (mais lisez tout) : “The purpose of a system is what it does” + “this is not a bug, this is a feature”.

Des alternatives éthiques/sobres/ouvertes/... ??

Reste la question de la possibilité d'existence de variantes sobres, éthiques, souveraines, ouvertes, nourries à la bonne herbe de nos prés bien français, avec autorisation des propriétaires.

Mais soyons sérieux : – Où sont les petites mains derrière les produits des IAg “éthiques” – Par quel miracle serait-il rentable de vendre une IAg sans avoir pillé la terre entière pour la construire, alors qu'OpenAI n'est toujours pas rentable ? – Pourquoi donc dans les mêmes conditions sociales et économiques ces IAg éthiques seraient-elles bonnes pour les travailleurs, alors que les autres sont un désastre ? – Pourquoi ne contribueraient-elles pas aux phénomènes de pollution informationnelle galopante déjà installés ?

Pour un usage frugal et responsable des IA génératives, vraiment ?.

Et à la fin on a droit à la tyrannie du retard, à la croyance en un mouvement autonome du “progrès” auquel il faut s'adapter…

#resistIAGen

@flomaraninchi@pouet.chapril.org

image

Walker Evans (American, 1903 – 1975), photographer — Roadside Sandwich Shop. Ponchatoula, Louisiana, 1936

Hier j'ai lu le IA génératives : le contre et le pour. Ça vaut vraiment le coup de lire cet article de Julien Falgas avant ou après pour y repérer les clichés : Comment le discours médiatique sur l’IA empêche d’envisager d’autres possibles.

Dans l'article du Blog Binaire on trouve bien sûr le désormais traditionnel argument d'inévitabilité, ici sous la forme : “Ne nous faisons pas trop d’illusions : le train est lancé et, du fait de la compétition internationale, il ne semble pas qu’on puisse l’arrêter. Mais on pourrait au moins le ralentir et en focaliser les usages sur les usages positifs.”.

Mais c'est un autre argument qui mérite qu'on y revienne : l'usage positif au service d'une prétendue démocratisation de l'expression écrite. On la trouve ici sous la forme :

“il faut rappeler que de nombreuses personnes n’arrivent pas à exprimer leurs idées, leurs sentiments, leur colère … parce qu’elles ne maîtrisent pas suffisamment la langue. Les IA génératives leur redonnent la parole. L’utilisation de ces outils pour quelqu’un d’instruit est de l’économie d’effort, voire de la paresse. Pour ceux qui n’ont pas eu la grande chance de longues études, c’est une libération.”

Que dire ? Le rappel est utile, et je suis bien d'accord. Mais qu'on puisse affirmer “Les IA génératives leur redonnent la parole”, ça me sidère.

Si l'usage de ChatGPT avait effectivement des effets de nivellement par le haut de l'usage de la langue, j'en serais vraiment ravie (en oubliant momentanément les impacts socio-environnementaux et les patrons des BigTech politiquement infréquentables).

Mais c'est une fausse promesse.

Je ne crois pas cinq minutes à cette fameuse démocratisation de la créativité, qui permettrait à des personnes peu à l'aise avec l'écriture d'en maîtriser complètement les effets grâce aux IAg. Imbriquer sa pensée et l'écriture, c'est compliqué. Maîtriser suffisamment l'écriture pour que ce soit un outil au service de la pensée et pas un obstacle en soi, c'est compliqué.

Mais on n'apprend pas à faire la cuisine en promptant son sandwich chez Subway.

Le faire croire est détestable. Quand je vois quelqu'un qui ne sait pas écrire suffisamment bien pour transmettre ce qu'il pense, précisément, profondément, j'ai envie d'essayer de le lui apprendre, pas de lui donner ChatGPT, ce qui selon moi est un excellent moyen d'assurer qu'il ne saura plus jamais comment exprimer fidèlement ce qu'il pense.

Autres arguments

A la suite du thread sur mastodon que j'ai repris ci-dessus, il y a eu plusieurs remarques qui apportent des arguments complémentaires, et des hasards de pouet-line qui résonnent très fort avec certains aspects des remarques ci-dessus.

Illettrisme

Grâce à Vincent-Xavier j'ai lu La dignité retrouvée des mots : plongée dans la France de l'illettrisme juste après avoir commenté l'article du Blog Binaire. Le paragraphe suivant m'a paru particulièrement bienvenu pour revenir sur terre face aux promesses technosolutionnistes :

“Dans une société de plus en plus numérisée, dématérialisée, automatisée, l’illettrisme devient une prison. Sans guichet. Sans humain. Souvent sans traduction possible”

L'idée que ChatGPT puisse apporter une solution à cet état de fait serait risible si ce n'était pas si triste.

Dépendance à l'outil

Corse_pia fait remarquer que l'usage de ChatGPT pour “rendre la parole” à quelqu'un qui ne maîtrise pas l'écrit supposerait que cette personne ait les moyens matériels et financiers d'accéder à ChatGPT, qui “serait toujours là quand il y en a besoin” et toujours “gratuit”. Bref, une erreur sur ce qu'est l'éducation et une discrimination sur toute la ligne.

Effectivement, même si ça marchait très bien pour “rendre la parole”, on installerait une telle dépendance, y compris financière, que ça vaudrait le coup de se demander s'il n'y a pas une autre solution (remettre des moyens dans l'éducation nationale, par exemple).

#resistIAGen

@flomaraninchi@pouet.chapril.org

Je crois qu'il serait intéressant de faire une lecture comparée de ce genre de guide et du manifeste d'objection de conscience :

Dans le guide, il est “amusant” de noter quelques petites choses, par ci par là. Par ex au paragraphe 1.1/ Recherche d’informations (cas général) on voit : “Mistral AI société FR, hébergement US”.

Mais ce qui me laisse pantoise, c'est l'affirmation absolument gratuite, sans aucune source qui permette de l'appuyer (page 12) :

“Les assistants IAG sont capables de rechercher et synthétiser des informations, à partir de requêtes formulées en langage naturel, sans que l’utilisateur ait besoin de maîtriserle vocabulaire du domaine. (...) ces outils innovants peuvent générer des réponses synthétiques et personnalisées, plutôt que de simples listes de liens. “

Pour un usage en recherche.

Depuis quand est-il normal de ne pas maîtriser le vocabulaire de son domaine de recherche ? Et si c'est pour des gens hors domaine, comment vont-ils ensuite pouvoir appliquer la recommandation de la même page :“il est indispensable de croiser les sources et vérifier les informations obtenues” ?

Où est la source qui permet d'affirmer de manière aussi péremptoire qu'une machine à faire des phrases permet de “synthétiser des informations” ?

A quel moment est-il devenu acceptable de déléguer à cette même machine à faire des phrases le travail d'examen minutieux des “simples listes de liens”, pour s'approprier à la fois leur contenu et le graphe de connexion entre les sources, qui donne une idée des frontières raisonnables d'un domaine ?

En quoi une réponse “personnalisée” a-t-elle un intérêt en recherche ? Et qu'est-ce que ça veut dire, d'ailleurs ? On n'est pas en train de choisir un carrelage pour la cuisine, là.

L'accumulation des messages de mise en garde (p 6) :

“Notez bien que l’utilisateur est seul responsable devant la loi des contenus qu’il produit à l’aide de l’IAG et du respect de la réglementation relative à ses usages.”

suivi de :

“Qualité et pertinence des résultats : les résultats générés dépendent de la performance de l’IAG et de ses données d’entrée (quantité, qualité, fraicheur, etc.). Des résultats biaisés, incomplets ou même erronés peuvent être obtenus.”

laisse perplexe.

Je crois que c'est la 1ère fois qu'on nous fait à répétition une telle pub pour des outils intrinsèquement non fiables, en nous rappelant en permanence que si une erreur en découle ce sera notre faute.

Et en faisant semblant de croire qu'un usage responsable et conscient des enjeux va permettre d'infléchir l'exponentielle des impacts environnementaux du numérique. Voir aussi Pour un usage frugal et responsable des IA génératives.

N'importe qui d'un peu conscient des enjeux et effectivement responsable ne voit qu'une solution : ne surtout pas mettre le doigt dans cet engrenage.

Un jour on complétera le manifeste d'objection de conscience par un argumentaire sur le non-sens total des arguments publicitaires dans l'#ESR et l'EN (et à plein d'autres endroits aussi).

#resistIAGen

@flomaraninchi@pouet.chapril.org

image

Les impacts environnementaux du numérique au court du temps

ALT: un diagramme des impacts environnementaux divers du numérique (ordonnée) en fonction du temps (abscisse). La courbe monte régulièrement. En 2022 elle se redresse brutalement à l'arrivée des IA génératives. Une montgolfière rouge décorée de $ y est accrochée et la tire vers le haut. A côté on voit une courbe de croissance de la demande en électricité, avec la légende “Dans le monde, la consommation d'électricité des datacenters va doubler d'ici 2026, en TWh” (note : elle doublerait aussi même si elle était exprimée dans une autre unité :–)). Sur la droite en haut on voit une image d'énorme datacenter bleu comme posé sur Manhattan, pour donner l'échelle. Cette image vient d'une communication officielle de META sur les réseaux sociaux. Sur la droite tout en bas on voit un petit bonhomme tout frêle, dessiné en vert, arc-bouté pour tenir une corde accrochée quelque part en haut de la courbe des impacts redressée, un peu en dessous de son point d'accroche à la Mongolfière. La courbe a l'air très légèrement déformée par cette traction vers le bas. Mais vraiment très légèrement. A droite de l'image, en vert aussi, on lit : Chartes pour usages responsables.

Il manque encore à cette image l'idée que le développement tous azimuts de chartes d'usages responsables, éthiques, sobres, raisonnables, etc., contribue aux courants d'air qui font monter la montgolfière.

#resistIAGen

(Image évidemment faite à la main avec minutie – ou presque – par un être humain certifié authentique).

@flomaraninchi@pouet.chapril.org

#resistIAGen

image

Louis Fleckenstein (American, 1866 – 1943), photographer Sculpture of Thinking Woman, 1895–1943 The J. Paul Getty Museum, Los Angeles, 85.XM.28.1065

Il y a quelque temps déjà que je grince des dents en voyant passer ici ou là un article, une tribune ou une pétition qui, tout en dénonçant une oppression, une injustice ou un manque d'égalité d'une manière qui me touche et me convainc, détruit son propre message en choisissant une illustration générée par IA. Parfois ce n'est même pas signalé, mais soit les artistes se sont donné le mot pour représenter des personnages à 6 doigts partout, soit ce critère reste un bon détecteur.

Cela aurait pu arriver à une autre occasion, un peu plus tôt, un peu plus tard[^1] mais il se trouve que mon énervement croissant déclenche aujourd'hui l'écriture de ce billet, à l'occasion d'une tribune de l'association Femmes&Sciences : Cessez de parler « d’autocensure ». Admirez la main à 6 doigts, un pouce de chaque côté. Je n'arrive pas à imaginer quel prompt il faut donner à une IA générative d'image (laquelle, d'ailleurs ?) pour obtenir ce visuel particulièrement inepte. Pour avoir une idée de mon état d'esprit relatif au déferlement des IA génératives partout et au forcing des bigtech pour nous en faire manger à tous les repas, dites-vous que c'est environ cent fois plus énervé qu'en février dernier.

Dans le cas précis de la tribune publiée sur le site de Femmes&Sciences, à ceux (et celles) qui ne comprennent pas mon énervement croissant, j'essaie d'expliquer qu'entre autres dégâts socio-environnementaux avérés, les IA génératives ont un énorme problème de justification et de reproduction des biais et des discriminations. Comme l'écrivent Emily Bender et Alex Hanna dans leur excellent livre The AI Con, how to fight big tech's hype and create the future we want (page 36) : “General intelligence is not something that can be measured, but the force of such a promise has been used to justify racial, gender, and class inequality for more than a century” (“l'intelligence générale n'est pas mesurable, mais la force de la promesse a servi à justifier les inégalités raciales, de genre et de classe depuis plus d'un siècle”). Dans l'article précurseur “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”, on lit : “Biases can be encoded in ways (...) subtle patterns like referring to women doctors as if doctor itself entails not-woman (...)” (“les biais peuvent être codés (...) schémas subtils dont le fait de parler de “femmes docteurs”, comme si “docteur” seul impliquait nécessairement non femme (...)“. Notons qu'en français on tombe ici dans le problème de la féminisation des noms de métiers).

Nous avons donc une association “Femmes&sciences”, qui milite en particulier pour la place des femmes dans les disciplines scientifiques peu féminisées, publiant une tribune très bienvenue pour combattre l'idée que le problème vient de l'autocensure des femmes. Même si on est d'accord avec le diagnostic de la tribune, comment ne pas voir une énorme incohérence entre le fond et la forme ? Comment ne pas grincer des dents en découvrant une image produite par une famille d'outils qui, lorsqu'il s'agit de textes, génèrent l'expression “female doctors” comme s'il était totalement inimaginable que “doctors” désigne des femmes ? Une famille d'outils qui génère des histoires pleines de médecins nécessairement masculins et d'infirmières nécessairement féminines (Cf. Gender Representation of Health Care Professionals in Large Language Model–Generated Stories) ?

Complétons le titre de la tribune “Cessez de parler « d’autocensure » : ce ne sont pas les femmes qui se taisent, ce sont les structures qui les réduisent au silence” en ajoutant : “Et les outils qui reproduisent les biais de ces structures”.

Chères luttes contre toutes les discriminations et injustices, prises une par une ou dans une perspective intersectionnelle, merci de ne pas utiliser des outils qui reproduisent et amplifient ces mêmes discriminations et injustices que vous dénoncez à juste titre, outils qui sont aussi les derniers avatars d'une longue suite de promesses sur une prétendue intelligence artificielle ayant servi à justifier toutes ces oppressions et injustices depuis plus d'un siècle.

[^1]: Les autres luttes contre les discriminations qui affichent leur incohérence en utilisant des images générées par IA se reconnaîtront sans peine dans la critique ci-dessous.

Édit le 8 février 2026 : on me signale un autre cas tout à fait digne de celui que je racontais ci-dessus. Jugez vous-même : Programme Femmes et filles de sciences : l'ENS s'engage pour la mixité dans les sciences.

@flomaraninchi@pouet.chapril.org

#resistIAGen

image

B. L. Singley (American, 1864 – 1938), photographer “Sew on your own buttons, I'm going for a ride.”, 1896 The J. Paul Getty Museum, Los Angeles

En informatique on parle d'intégration “seamless” ou “sans couture” en français, pour qualifier des situations où plusieurs services sont intégrés de manière à ce que le passage de l'un à l'autre soit extrêmement fluide, et idéalement invisible pour un utilisateur.

Considérons un environnement de gestion d'images qui propose des outils de manipulation simples des images individuelles. Si l'on a un répertoire plein de photos, on peut lancer séparément (1) cet outil de visualisation pour répérer des photos à monter en panorama (on note les numéros sur un bout de papier) ; (2) un autre outil de création de panorama dans lequel on importe les photos choisies (en se référant au bout de papier). Si l'environnement de gestion d'images propose lui-même de sélectionner les photos, de lancer la création de panorama pour nous, et de ré-importer l'image produite, on court-circuite le bout de papier d'échange d'informations entre outils.

Une application pour usager des transports en commun peut intégrer des outils de type cartographie de lignes, recherche d'itinéraires, paiement, etc. L'intégration va au-delà du point d'entrée unique : on peut avoir des liens entre fonctions, comme un bouton “acheter un billet” qui apparaît dans les résultats de recherche d'itinéraire, pour qu'on ne soit pas obligé de remonter au point d'entrée de l'application pour repartir dans une branche différente (en ayant besoin de se souvenir de ce qu'on a trouvé dans la recherche d'itinéraire, ou en l'ayant noté sur un bout de papier).

Les outils parfaitement intégrés facilitent la vie des utilisateurs, bien sûr, et font “gagner du temps”. Ils font aussi gagner de l'argent aux sites commerciaux. Amazon est le champion toutes catégories de la navigation fluide et des interfaces dans lesquelles aucun obstacle n'apparaît jamais à une décision d'achat intempestive et souvent fugace. SNCF Connect est un exemple à l'autre extrémité du spectre. Comprendre les liens entre l'appli SNCF Connect, l'appli de suivi du trafic, TGV pro qui existe encore sur certaines plateformes, etc., demande de longues études et une concentration sans faille.

L'intégration sans couture a aussi un effet sur la compréhension des choses. Quand on saute d'un outil à un autre sans se rendre compte des frontières grâce à cette absence de coutures, on perd la notion des flux d'informations sous-jacents, et la frontière entre retouche simple et création de panorama s'estompe. Cette perte de compréhension n'est pas nécessairement un mal en soi. Il est normal que l'on puisse se servir d'une voiture sans connaître le principe des moteurs à explosion. Le numérique est un outil comme un autre, il n'y a pas de raison particulière d'exiger que les utilisateurs le comprennent mieux que d'autres outils.

L'arrivée des IA génératives, en particulier pour le texte, s'inscrit pleinement dans cette situation de gommage des frontières, de masquage des flux d'informations, et de perte de compréhension des choses. Si le même outil, avec le même point d'entrée unique, permet de réaliser à la fois la correction orthographique ou grammaticale plus ou moins contextuelle, et des tâches de réécriture, on perd la notion de frontière entre correction et écriture à notre place. De même dans les outils d'édition courants pour la programmation (les “IDE” pour integrated Development Environment), la frontière devient floue entre proposition de complétion des noms de fonctions disponibles, corrections locales contextuelles, et carrément suggestion de forme de code ou même d'algorithme.

Rendez-nous les coutures ! Parfois il serait plus sain de choisir soi-même le bon outil au bon moment. En tout cas on aimerait avoir le choix.

Si l'on utilise un outil de type IA générative pour tout, y compris de la simple correction orthographique, c'est bien cher (en impacts socio-environnementaux, et peut-être bientôt en tarif d'abonnement) pour une fonction qui existe déjà dans des outils dédiés, certains même libres et gratuits. Avoir un correcteur intégré dans son outil d'édition de texte est déjà une forme d'intégration sans couture bien pratique. Mais s'il s'agit de générer des textes à partir de pas grand chose, forçons-nous[^1] à sortir de cet environnement et à lancer sciemment un autre outil, pour être bien conscients qu'il s'agit d'autre chose, entièrement.

Dans l'enseignement de l'algorithmique et de la programmation, le gommage des frontières entre correction locale et suggestion de code est particulièrement néfaste. Pour un étudiant, aller récupérer sans trop réfléchir des bouts de code directement sur StackOverflow pour les coller dans son projet, ça avait l'avantage de permettre de rester conscient de ces “emprunts” et du fait qu'on n'avait pas vraiment fait le travail demandé. Si l'équivalent de ces emprunts vient tout seul à soi, dans son outil d'édition de code, comme prolongation naturelle des fonctions de suggestion et correction locale, il va devenir difficile de savoir quand on a fait le travail nécessaire à l'apprentissage.

Encore une fois, rendez-nous les coutures ! S'il est normal de pouvoir conduire sans comprendre le principe du moteur à explosion, on aimerait quand même que la voiture ne passe pas en mode auto-pilot sans prévenir. Surtout si l'auto-pilot conduit mal.

[^1]: Je dis “forçons-nous” en m'incluant dans cette injonction, mais je n'utilise toujours pas ChatGPT.

@flomaraninchi@pouet.chapril.org

#resistIAGen

Dans le dernier billet de l'excellent David Gerard Generative AI runs on gambling addiction — just one more prompt, bro!, on lit l'histoire de ce programmeur qui essaie tant bien que mal de faire produire par une IA générative le code qu'il veut :

“For a good 12 hours, over the course of 1 ½ days, I tried to prompt it such that it yields what we needed. Eventually, I noticed that my prompts converged more and more to be almost the code I wanted. After still not getting a working result, I ended up implementing it myself in less than 30 minutes.”

Ça me fait irrésistiblement penser à ces moments où l'on passe l'aspirateur, et il y a un bout de papier à moitié coincé entre les lattes du parquet, qui résiste obstinément à l'aspiration. On se baisse pour le détacher et le présenter correctement devant le tuyau, on se relève et on essaie de l'aspirer, mais il se dérobe de nouveau. On se rebaisse pour le poser autrement et puis on se relève et on approche subrepticement le tuyau mais, las! décidément, il ne se laisse pas aspirer ! En désespoir de cause on se baisse une dernière fois, et puisqu'on a ce damné papier dans la main, on pense enfin à le mettre directement à la poubelle.

@flomaraninchi@pouet.chapril.org

Image

Le marathon fut inventé pour les Jeux Olympiques de 1896, nous dit wikipedia, “pour commémorer la légende du messager grec Philippidès, qui aurait parcouru la distance de Marathon à Athènes pour annoncer la victoire des Grecs contre les Perses en 490 av. J.-C. En ces temps-là le marathon était donc un moyen de transmission d'information, et nul doute que le messager Philippidès aurait préféré gagner 2h30, tout en s'épargnant une grande fatigue, en envoyant simplement un message sur Signal (qui n'aurait même pas nécessairement atterri dans la messagerie d'un journaliste international, qui plus est d'Amérique du Nord, puisque, d'une part ce continent n'était pas encore “découvert”, et d'autre part la presse internationale n'avait pas encore été inventée.)

A l'époque actuelle, le marathon n'est évidemment plus un moyen de transmission d'information. Ce n'est pas non plus un moyen de transport humain. Faire 42km à vélo n'est pas nécessairement beaucoup plus rapide, mais c'est beaucoup moins fatigant. Une automobile vous mènera 42km plus loin sans le moindre effort, à part le travail préalable nécessaire pour pouvoir vous l'offrir. Le marathon s'est transformé en dépassement de soi, en démonstration d'excellente condition physique, en exercice quasi mystique si l'on en croit certains coureurs. Toutes choses qui ne sauraient être remplacées, ni par un message Signal (puisqu'il n'y a pas d'information à transmettre), ni même par un moyen de transport humain moins fatigant ou plus rapide. Il est clair dans l'esprit de tout un chacun que l'objectif du marathon n'est pas d'aller le plus vite possible d'un point A à un point B, mais bien plutôt de tenir le coup tout le long du chemin. Eventuellement pour ceux qui ont l'esprit décidément compétitif, d'arriver en premier. Il y a bien sûr, comme dans toute compétition sportive, des cas de dopage^1. Mais l'exercice est considéré par le public des compétitions sportives comme un accomplissement impressionnant.

Quand Rosie Ruiz “gagna” le marathon de Boston en prenant le métro, toute la sphère sportive s'en émut donc naturellement, et la sanction fut impitoyable.

Ce qui nous amène tout naturellement à la question : pourquoi écrire avec ChatGPT est-il valorisé comme la marque certaine d'une adhésion à la modernité triomphante et technophile, alors que gagner un marathon urbain en prenant le métro est considéré comme un dévoiement honteux de l'exercice, une tricherie passible des pires sanctions ?

Quand je demande à mes étudiant.es d'écrire un résumé d'article, scientifique ou pas, ce n'est pas parce que j'ai besoin d'un résumé. Premièrement j'en ai déjà environ 500 exemplaires des années précédentes, deuxièmement je sais faire moi-même, sans doute bien plus vite, l'expérience aidant. Mais surtout, si je demande un résumé c'est parce que je cherche à les pousser à comprendre suffisamment l'article pour être capable d'en concevoir et écrire un résumé personnel. Résumé qu'à la fin on pourrait aussi bien mettre à la corbeille sans remords, sa valeur ne résidant que dans l'exercice qui l'a produit.

Quand on m'explique que les IAs génératives peuvent m'aider à faire une revue de liitérature, en choisissant à ma place les articles pertinents, en produisant à ma place leurs résumés, et pourquoi pas en écrivant à ma place le paragraphe “Related Work” de mon prochain article, je me sens comme un coureur marathonien^2 à qui on conseillerait de prendre le métro, sous prétexte qu'on n'est plus au temps des coureurs-messagers de la Grèce antique, que ça lui fera gagner du temps, et qu'enfin délivré de cet exercice répétitif et essentiellement pénible il pourra se consacrer à des choses plus intéressantes, et “courir” plus de marathons.


^1 : puisque toute compétition s'accompagne de dopage, je trouve personnellement beaucoup plus sain de prendre le métro ou de cacher un moteur dans son cadre de vélo que de s'abimer la santé en absorbant des substances diverses et prohibées.

^2 : c'est une image. Je ne cours pas le marathon, ni même 100m pour attraper le bus.

@flomaraninchi@pouet.chapril.org

Photo de Scott Evans sur Unsplash

Photo de Scott Evans sur Unsplash

Nous allons ici nous intéresser à un ensemble de productions de l'esprit que, faute de mieux, nous regrouperons sous le nom de “objets V” : textes, images, vidéos, musiques, etc. Ces objets V sont “produits” et “consommés” (ici aussi nous utiliserons ces termes faute de mieux) par des êtres humains à des fins de divertissement, d'expression artistique, de communication personnelle ou professionnelle, de résultats ou questionnements de recherche, … Les objets V sont virtuels. Ils ne couvrent pas, par exemple, toute l'étendue de l'expression artistique : la sculpture ou le spectacle vivant en sont exclus (mais voir commentaires finaux).

Depuis toujours les objets V ont été “produits” et “consommés” à un rythme humain. On sent bien un dérapage récent, par exemple dans l'usage de la photo numérique, où le rythme de production excède rapidement le rythme potentiel de consommation. D'où l'accumulation quelque part “dans le cloud” de millions d'images sauvegardées automatiquement et que plus personne ne regardera jamais. Dans le cadre professionnel on sent aussi un dérapage dans l'utilisation du mail, le décalage entre le rythme de production et le rythme maximum possible de consommation venant ici de l'effet démultiplicateur des envois multiples. Mais, globalement, tout ça se fait encore à des rythmes humains.

Entrent en scène les IAs génératives. Elles sont conçues et vantées comme outils de production d'objets V. Le fait que cela n'est possible qu'en consommant (par pillage) de grandes quantités d'objets V est moins mis en avant par leurs promoteurs, mais c'est néanmoins un fait avéré. Une autre catégorie de consommation d'objet V par une IA générative est illustrée par les outils de génération de résumé. Il s'agit là de réaliser des tâches humaines de traitement d'objets V, désagréables ou pensées comme telles, automatiquement et plus vite. Qu'elles soient vantées pour gagner du temps sur la production et la consommation d'objets V du domaine professionnel, ou pour démocratiser la créativité dans le domaine personnel ou artistique, les IAs génératives existent désormais comme des machines à produire et consommer des objets V, en parallèle des activités humaines.

Laissons de côté ici la question de la qualité ou de l'originalité des objets V produits par les IAs génératives, ainsi que les questions liées aux apprentissages humains ainsi court-circuités. Concentrons-nous sur la question des rythmes. La puissance de calcul considérable dédiée aux IAs génératives rend possible un rythme de production et consommation d'objets V sans aucune commune mesure avec un rythme humain. Dans un espace informationnel jusque là occupé par des êtres humains, produisant et consommant à un rythme humain, on a brutalement introduit des machines qui produisent et consomment à un rythme très supérieur.

Puisqu'il est impossible d'établir une ségrégation efficace entre les objets V produits et consommés par des humains, et ceux produits et consommés par les IAs génératives, les deux catégories se retrouvent mélangées dans une grande lessiveuse qui tourne de plus en plus vite. Les humains, trop lents, en sont naturellement ejectés par simple force centrifuge. Ce qui nous laisse avec une question de fond : pour qui ces machines ont-elles un intérêt (autre que l'intérêt économique de leurs vendeurs) ?

Dans le domaine professionnel qui est le mien, la recherche, le principe publish-or-perish conduit facilement à la tentation d'un productivisme effréné, contre lequel le mouvement Slow Science s'est déjà insurgé. On lit maintenant par exemple que les IAs génératives peuvent accélérer la phase d'étude bibliographique. Même en laissant de côté la question de la qualité intrinsèque des résultats produits, l'idée me semble une parfaite négation de ce qui fait le travail de recherche, dans sa phase d'appropriation d'un existant. La raison pour laquelle on étudie la littérature, ce n'est pas de devoir produire une revue de littérature. C'est pour l'exercice intellectuel de lecture, de rangement personnel, de digestion des concepts, sans lequel il est impossible d'ajouter une brique un peu nouvelle à l'édifice. Si on saute directement à la revue de littérature faite par ChatGPT, sans avoir digéré les articles et fait la synthèse soi-même, je considère qu'on est passé complètement à côté de la raison de cet exercice. Quant à gagner du temps... bientôt on nous proposera d'écrire nos articles avec ChatGPT, de faire des revues de littérature avec ChatGPT, de réaliser nos évaluations d'articles avec ChatGPT. Si par le plus grand des hasards les outils automatiques parlant aux outils automatiques font émerger quelque chose d'intéressant dans ce processus, plus personne ne s'en rendra compte.

[ Edit 7 mai : je viens de voir passer cet article Écrire à l’université à l’heure des IA génératives : trouble dans l’auctorialité, et si la question de l'éthique et la remise en question de la notion d'auteur me semblent importantes en elles-mêmes, je suis encore plus frappée par l'accélération globale que cette démarche provoquera inévitablement dans le cadre de la recherche. Mais à quoi pourrait bien servir de générer très vite beaucoup de travaux et d'articles de recherche ? Même si l'on fait confiance à ces outils pour générer effectivement des choses qui ont un intérêt, que faire de beaucoup de “résultats” ? Par exemple s'il s'agit de résultats liés à la santé — puisqu'on nous donne systématiquement cette “excuse” pour justifier les impacts des IAs génératives —– les résultats de recherche sont nécessairement suivis d'essais, dont le rythme est évidemment beaucoup plus lent. Si au contraire il s'agit d'articles dans des domaines théoriques sans besoin d'essais, à quoi peut bien servir d'accumuler des résultats si plus personne n'a le temps de les lire et de s'en émerveiller ? Bref, la question de la vitesse à laquelle tourne la lessiveuse me paraît centrale. ]

Sur la non inclusion de la sculpture dans le champ des “objets V” : Il ne devrait pas s'écouler beaucoup de temps avant qu'un promoteur d'IA ou un autre s'attaque au sujet, en proposant de générer automatiquement des plans pour imprimante 3D ou machine à extrusion. Les scanners 3D existent déjà (mon dentiste s'en sert pour faire un moulage virtuel de ma machoire). Il reviendrait sans doute un peu cher de scanner toutes les sculptures du monde et pourquoi pas tous les objets fabriqués artisanalement, mais rien d'impossible pratiquement. Ensuite il suffirait d'augmenter la base de données en ajoutant tous les plans déjà numériques de fabrication d'objets industriels. Il resterait à appliquer les modèles de diffusion en 3D, pour être capable de générer un plan d'une sculpture de “chevalier très grand perché sur une otarie bondissante et en train de lancer son dentier dans la foule”. Ça n'aurait qu'un intérêt fort limité vu le coût global ? Certes. Un peu comme pour les starter packs. Il nous restera le spectacle vivant.

[ Edit 12 mai : sur la créativité en 3D, voilà donc LegoGPT, capable de générer des plans de constructions en Lego (de taille modeste pour l'instant) à partir d'une spécification textuelle, et de les faire monter par des bras robotisés. Aussi impressionnant que puisse sembler le résultat, j'espère que ce ne sera pas vendu par Lego comme un aspect du jeu. Déjà en tant qu'authentique enfant des années 60 élevée aux Lego standard, je pense que les sets Lego destinés à un seul objet, contenant un grand nombre de pièces très particulières peu réutilisables, sont totalement dénués d'intérêt créatif. Alors si en plus un outil automatique fait les plans à notre place, c'est un appauvrissement du jeu assez draconien. Les Lego c'est l'apprentissage “par les doigts” de la 3D et de certains principes mécaniques. Si une construction se casse la figure, on y apprend quelque chose. ]

@flomaraninchi@pouet.chapril.org