Quelques textes un peu trop longs pour mastodon (garanti 0% de matière IAsse)

Florence Maraninchi

#resistIAGen

image

Louis Fleckenstein (American, 1866 – 1943), photographer Sculpture of Thinking Woman, 1895–1943 The J. Paul Getty Museum, Los Angeles, 85.XM.28.1065

Il y a quelque temps déjà que je grince des dents en voyant passer ici ou là un article, une tribune ou une pétition qui, tout en dénonçant une oppression, une injustice ou un manque d'égalité d'une manière qui me touche et me convainc, détruit son propre message en choisissant une illustration générée par IA. Parfois ce n'est même pas signalé, mais soit les artistes se sont donné le mot pour représenter des personnages à 6 doigts partout, soit ce critère reste un bon détecteur.

Cela aurait pu arriver à une autre occasion, un peu plus tôt, un peu plus tard[^1] mais il se trouve que mon énervement croissant déclenche aujourd'hui l'écriture de ce billet, à l'occasion d'une tribune de l'association Femmes&Sciences : Cessez de parler « d’autocensure ». Admirez la main à 6 doigts, un pouce de chaque côté. Je n'arrive pas à imaginer quel prompt il faut donner à une IA générative d'image (laquelle, d'ailleurs ?) pour obtenir ce visuel particulièrement inepte. Pour avoir une idée de mon état d'esprit relatif au déferlement des IA génératives partout et au forcing des bigtech pour nous en faire manger à tous les repas, dites-vous que c'est environ cent fois plus énervé qu'en février dernier.

Dans le cas précis de la tribune publiée sur le site de Femmes&Sciences, à ceux (et celles) qui ne comprennent pas mon énervement croissant, j'essaie d'expliquer qu'entre autres dégâts socio-environnementaux avérés, les IA génératives ont un énorme problème de justification et de reproduction des biais et des discriminations. Comme l'écrivent Emily Bender et Alex Hanna dans leur excellent livre The AI Con, how to fight big tech's hype and create the future we want (page 36) : “General intelligence is not something that can be measured, but the force of such a promise has been used to justify racial, gender, and class inequality for more than a century” (“l'intelligence générale n'est pas mesurable, mais la force de la promesse a servi à justifier les inégalités raciales, de genre et de classe depuis plus d'un siècle”). Dans l'article précurseur “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”, on lit : “Biases can be encoded in ways (...) subtle patterns like referring to women doctors as if doctor itself entails not-woman (...)” (“les biais peuvent être codés (...) schémas subtils dont le fait de parler de “femmes docteurs”, comme si “docteur” seul impliquait nécessairement non femme (...)“. Notons qu'en français on tombe ici dans le problème de la féminisation des noms de métiers).

Nous avons donc une association “Femmes&sciences”, qui milite en particulier pour la place des femmes dans les disciplines scientifiques peu féminisées, publiant une tribune très bienvenue pour combattre l'idée que le problème vient de l'autocensure des femmes. Même si on est d'accord avec le diagnostic de la tribune, comment ne pas voir une énorme incohérence entre le fond et la forme ? Comment ne pas grincer des dents en découvrant une image produite par une famille d'outils qui, lorsqu'il s'agit de textes, génèrent l'expression “female doctors” comme s'il était totalement inimaginable que “doctors” désigne des femmes ? Une famille d'outils qui génère des histoires pleines de médecins nécessairement masculins et d'infirmières nécessairement féminines (Cf. Gender Representation of Health Care Professionals in Large Language Model–Generated Stories) ?

Complétons le titre de la tribune “Cessez de parler « d’autocensure » : ce ne sont pas les femmes qui se taisent, ce sont les structures qui les réduisent au silence” en ajoutant : “Et les outils qui reproduisent les biais de ces structures”.

Chères luttes contre toutes les discriminations et injustices, prises une par une ou dans une perspective intersectionnelle, merci de ne pas utiliser des outils qui reproduisent et amplifient ces mêmes discriminations et injustices que vous dénoncez à juste titre, outils qui sont aussi les derniers avatars d'une longue suite de promesses sur une prétendue intelligence artificielle ayant servi à justifier toutes ces oppressions et injustices depuis plus d'un siècle.

[^1]: Les autres luttes contre les discriminations qui affichent leur incohérence en utilisant des images générées par IA se reconnaîtront sans peine dans la critique ci-dessous.

@flomaraninchi@pouet.chapril.org

#resistIAGen

image

B. L. Singley (American, 1864 – 1938), photographer “Sew on your own buttons, I'm going for a ride.”, 1896 The J. Paul Getty Museum, Los Angeles

En informatique on parle d'intégration “seamless” ou “sans couture” en français, pour qualifier des situations où plusieurs services sont intégrés de manière à ce que le passage de l'un à l'autre soit extrêmement fluide, et idéalement invisible pour un utilisateur.

Considérons un environnement de gestion d'images qui propose des outils de manipulation simples des images individuelles. Si l'on a un répertoire plein de photos, on peut lancer séparément (1) cet outil de visualisation pour répérer des photos à monter en panorama (on note les numéros sur un bout de papier) ; (2) un autre outil de création de panorama dans lequel on importe les photos choisies (en se référant au bout de papier). Si l'environnement de gestion d'images propose lui-même de sélectionner les photos, de lancer la création de panorama pour nous, et de ré-importer l'image produite, on court-circuite le bout de papier d'échange d'informations entre outils.

Une application pour usager des transports en commun peut intégrer des outils de type cartographie de lignes, recherche d'itinéraires, paiement, etc. L'intégration va au-delà du point d'entrée unique : on peut avoir des liens entre fonctions, comme un bouton “acheter un billet” qui apparaît dans les résultats de recherche d'itinéraire, pour qu'on ne soit pas obligé de remonter au point d'entrée de l'application pour repartir dans une branche différente (en ayant besoin de se souvenir de ce qu'on a trouvé dans la recherche d'itinéraire, ou en l'ayant noté sur un bout de papier).

Les outils parfaitement intégrés facilitent la vie des utilisateurs, bien sûr, et font “gagner du temps”. Ils font aussi gagner de l'argent aux sites commerciaux. Amazon est le champion toutes catégories de la navigation fluide et des interfaces dans lesquelles aucun obstacle n'apparaît jamais à une décision d'achat intempestive et souvent fugace. SNCF Connect est un exemple à l'autre extrémité du spectre. Comprendre les liens entre l'appli SNCF Connect, l'appli de suivi du trafic, TGV pro qui existe encore sur certaines plateformes, etc., demande de longues études et une concentration sans faille.

L'intégration sans couture a aussi un effet sur la compréhension des choses. Quand on saute d'un outil à un autre sans se rendre compte des frontières grâce à cette absence de coutures, on perd la notion des flux d'informations sous-jacents, et la frontière entre retouche simple et création de panorama s'estompe. Cette perte de compréhension n'est pas nécessairement un mal en soi. Il est normal que l'on puisse se servir d'une voiture sans connaître le principe des moteurs à explosion. Le numérique est un outil comme un autre, il n'y a pas de raison particulière d'exiger que les utilisateurs le comprennent mieux que d'autres outils.

L'arrivée des IA génératives, en particulier pour le texte, s'inscrit pleinement dans cette situation de gommage des frontières, de masquage des flux d'informations, et de perte de compréhension des choses. Si le même outil, avec le même point d'entrée unique, permet de réaliser à la fois la correction orthographique ou grammaticale plus ou moins contextuelle, et des tâches de réécriture, on perd la notion de frontière entre correction et écriture à notre place. De même dans les outils d'édition courants pour la programmation (les “IDE” pour integrated Development Environment), la frontière devient floue entre proposition de complétion des noms de fonctions disponibles, corrections locales contextuelles, et carrément suggestion de forme de code ou même d'algorithme.

Rendez-nous les coutures ! Parfois il serait plus sain de choisir soi-même le bon outil au bon moment. En tout cas on aimerait avoir le choix.

Si l'on utilise un outil de type IA générative pour tout, y compris de la simple correction orthographique, c'est bien cher (en impacts socio-environnementaux, et peut-être bientôt en tarif d'abonnement) pour une fonction qui existe déjà dans des outils dédiés, certains même libres et gratuits. Avoir un correcteur intégré dans son outil d'édition de texte est déjà une forme d'intégration sans couture bien pratique. Mais s'il s'agit de générer des textes à partir de pas grand chose, forçons-nous[^1] à sortir de cet environnement et à lancer sciemment un autre outil, pour être bien conscients qu'il s'agit d'autre chose, entièrement.

Dans l'enseignement de l'algorithmique et de la programmation, le gommage des frontières entre correction locale et suggestion de code est particulièrement néfaste. Pour un étudiant, aller récupérer sans trop réfléchir des bouts de code directement sur StackOverflow pour les coller dans son projet, ça avait l'avantage de permettre de rester conscient de ces “emprunts” et du fait qu'on n'avait pas vraiment fait le travail demandé. Si l'équivalent de ces emprunts vient tout seul à soi, dans son outil d'édition de code, comme prolongation naturelle des fonctions de suggestion et correction locale, il va devenir difficile de savoir quand on a fait le travail nécessaire à l'apprentissage.

Encore une fois, rendez-nous les coutures ! S'il est normal de pouvoir conduire sans comprendre le principe du moteur à explosion, on aimerait quand même que la voiture ne passe pas en mode auto-pilot sans prévenir. Surtout si l'auto-pilot conduit mal.

[^1]: Je dis “forçons-nous” en m'incluant dans cette injonction, mais je n'utilise toujours pas ChatGPT.

@flomaraninchi@pouet.chapril.org

#resistIAGen

Dans le dernier billet de l'excellent David Gerard Generative AI runs on gambling addiction — just one more prompt, bro!, on lit l'histoire de ce programmeur qui essaie tant bien que mal de faire produire par une IA générative le code qu'il veut :

“For a good 12 hours, over the course of 1 ½ days, I tried to prompt it such that it yields what we needed. Eventually, I noticed that my prompts converged more and more to be almost the code I wanted. After still not getting a working result, I ended up implementing it myself in less than 30 minutes.”

Ça me fait irrésistiblement penser à ces moments où l'on passe l'aspirateur, et il y a un bout de papier à moitié coincé entre les lattes du parquet, qui résiste obstinément à l'aspiration. On se baisse pour le détacher et le présenter correctement devant le tuyau, on se relève et on essaie de l'aspirer, mais il se dérobe de nouveau. On se rebaisse pour le poser autrement et puis on se relève et on approche subrepticement le tuyau mais, las! décidément, il ne se laisse pas aspirer ! En désespoir de cause on se baisse une dernière fois, et puisqu'on a ce damné papier dans la main, on pense enfin à le mettre directement à la poubelle.

@flomaraninchi@pouet.chapril.org

Image

Le marathon fut inventé pour les Jeux Olympiques de 1896, nous dit wikipedia, “pour commémorer la légende du messager grec Philippidès, qui aurait parcouru la distance de Marathon à Athènes pour annoncer la victoire des Grecs contre les Perses en 490 av. J.-C. En ces temps-là le marathon était donc un moyen de transmission d'information, et nul doute que le messager Philippidès aurait préféré gagner 2h30, tout en s'épargnant une grande fatigue, en envoyant simplement un message sur Signal (qui n'aurait même pas nécessairement atterri dans la messagerie d'un journaliste international, qui plus est d'Amérique du Nord, puisque, d'une part ce continent n'était pas encore “découvert”, et d'autre part la presse internationale n'avait pas encore été inventée.)

A l'époque actuelle, le marathon n'est évidemment plus un moyen de transmission d'information. Ce n'est pas non plus un moyen de transport humain. Faire 42km à vélo n'est pas nécessairement beaucoup plus rapide, mais c'est beaucoup moins fatigant. Une automobile vous mènera 42km plus loin sans le moindre effort, à part le travail préalable nécessaire pour pouvoir vous l'offrir. Le marathon s'est transformé en dépassement de soi, en démonstration d'excellente condition physique, en exercice quasi mystique si l'on en croit certains coureurs. Toutes choses qui ne sauraient être remplacées, ni par un message Signal (puisqu'il n'y a pas d'information à transmettre), ni même par un moyen de transport humain moins fatigant ou plus rapide. Il est clair dans l'esprit de tout un chacun que l'objectif du marathon n'est pas d'aller le plus vite possible d'un point A à un point B, mais bien plutôt de tenir le coup tout le long du chemin. Eventuellement pour ceux qui ont l'esprit décidément compétitif, d'arriver en premier. Il y a bien sûr, comme dans toute compétition sportive, des cas de dopage^1. Mais l'exercice est considéré par le public des compétitions sportives comme un accomplissement impressionnant.

Quand Rosie Ruiz “gagna” le marathon de Boston en prenant le métro, toute la sphère sportive s'en émut donc naturellement, et la sanction fut impitoyable.

Ce qui nous amène tout naturellement à la question : pourquoi écrire avec ChatGPT est-il valorisé comme la marque certaine d'une adhésion à la modernité triomphante et technophile, alors que gagner un marathon urbain en prenant le métro est considéré comme un dévoiement honteux de l'exercice, une tricherie passible des pires sanctions ?

Quand je demande à mes étudiant.es d'écrire un résumé d'article, scientifique ou pas, ce n'est pas parce que j'ai besoin d'un résumé. Premièrement j'en ai déjà environ 500 exemplaires des années précédentes, deuxièmement je sais faire moi-même, sans doute bien plus vite, l'expérience aidant. Mais surtout, si je demande un résumé c'est parce que je cherche à les pousser à comprendre suffisamment l'article pour être capable d'en concevoir et écrire un résumé personnel. Résumé qu'à la fin on pourrait aussi bien mettre à la corbeille sans remords, sa valeur ne résidant que dans l'exercice qui l'a produit.

Quand on m'explique que les IAs génératives peuvent m'aider à faire une revue de liitérature, en choisissant à ma place les articles pertinents, en produisant à ma place leurs résumés, et pourquoi pas en écrivant à ma place le paragraphe “Related Work” de mon prochain article, je me sens comme un coureur marathonien^2 à qui on conseillerait de prendre le métro, sous prétexte qu'on n'est plus au temps des coureurs-messagers de la Grèce antique, que ça lui fera gagner du temps, et qu'enfin délivré de cet exercice répétitif et essentiellement pénible il pourra se consacrer à des choses plus intéressantes, et “courir” plus de marathons.


^1 : puisque toute compétition s'accompagne de dopage, je trouve personnellement beaucoup plus sain de prendre le métro ou de cacher un moteur dans son cadre de vélo que de s'abimer la santé en absorbant des substances diverses et prohibées.

^2 : c'est une image. Je ne cours pas le marathon, ni même 100m pour attraper le bus.

@flomaraninchi@pouet.chapril.org

Photo de Scott Evans sur Unsplash

Photo de Scott Evans sur Unsplash

Nous allons ici nous intéresser à un ensemble de productions de l'esprit que, faute de mieux, nous regrouperons sous le nom de “objets V” : textes, images, vidéos, musiques, etc. Ces objets V sont “produits” et “consommés” (ici aussi nous utiliserons ces termes faute de mieux) par des êtres humains à des fins de divertissement, d'expression artistique, de communication personnelle ou professionnelle, de résultats ou questionnements de recherche, … Les objets V sont virtuels. Ils ne couvrent pas, par exemple, toute l'étendue de l'expression artistique : la sculpture ou le spectacle vivant en sont exclus (mais voir commentaires finaux).

Depuis toujours les objets V ont été “produits” et “consommés” à un rythme humain. On sent bien un dérapage récent, par exemple dans l'usage de la photo numérique, où le rythme de production excède rapidement le rythme potentiel de consommation. D'où l'accumulation quelque part “dans le cloud” de millions d'images sauvegardées automatiquement et que plus personne ne regardera jamais. Dans le cadre professionnel on sent aussi un dérapage dans l'utilisation du mail, le décalage entre le rythme de production et le rythme maximum possible de consommation venant ici de l'effet démultiplicateur des envois multiples. Mais, globalement, tout ça se fait encore à des rythmes humains.

Entrent en scène les IAs génératives. Elles sont conçues et vantées comme outils de production d'objets V. Le fait que cela n'est possible qu'en consommant (par pillage) de grandes quantités d'objets V est moins mis en avant par leurs promoteurs, mais c'est néanmoins un fait avéré. Une autre catégorie de consommation d'objet V par une IA générative est illustrée par les outils de génération de résumé. Il s'agit là de réaliser des tâches humaines de traitement d'objets V, désagréables ou pensées comme telles, automatiquement et plus vite. Qu'elles soient vantées pour gagner du temps sur la production et la consommation d'objets V du domaine professionnel, ou pour démocratiser la créativité dans le domaine personnel ou artistique, les IAs génératives existent désormais comme des machines à produire et consommer des objets V, en parallèle des activités humaines.

Laissons de côté ici la question de la qualité ou de l'originalité des objets V produits par les IAs génératives, ainsi que les questions liées aux apprentissages humains ainsi court-circuités. Concentrons-nous sur la question des rythmes. La puissance de calcul considérable dédiée aux IAs génératives rend possible un rythme de production et consommation d'objets V sans aucune commune mesure avec un rythme humain. Dans un espace informationnel jusque là occupé par des êtres humains, produisant et consommant à un rythme humain, on a brutalement introduit des machines qui produisent et consomment à un rythme très supérieur.

Puisqu'il est impossible d'établir une ségrégation efficace entre les objets V produits et consommés par des humains, et ceux produits et consommés par les IAs génératives, les deux catégories se retrouvent mélangées dans une grande lessiveuse qui tourne de plus en plus vite. Les humains, trop lents, en sont naturellement ejectés par simple force centrifuge. Ce qui nous laisse avec une question de fond : pour qui ces machines ont-elles un intérêt (autre que l'intérêt économique de leurs vendeurs) ?

Dans le domaine professionnel qui est le mien, la recherche, le principe publish-or-perish conduit facilement à la tentation d'un productivisme effréné, contre lequel le mouvement Slow Science s'est déjà insurgé. On lit maintenant par exemple que les IAs génératives peuvent accélérer la phase d'étude bibliographique. Même en laissant de côté la question de la qualité intrinsèque des résultats produits, l'idée me semble une parfaite négation de ce qui fait le travail de recherche, dans sa phase d'appropriation d'un existant. La raison pour laquelle on étudie la littérature, ce n'est pas de devoir produire une revue de littérature. C'est pour l'exercice intellectuel de lecture, de rangement personnel, de digestion des concepts, sans lequel il est impossible d'ajouter une brique un peu nouvelle à l'édifice. Si on saute directement à la revue de littérature faite par ChatGPT, sans avoir digéré les articles et fait la synthèse soi-même, je considère qu'on est passé complètement à côté de la raison de cet exercice. Quant à gagner du temps... bientôt on nous proposera d'écrire nos articles avec ChatGPT, de faire des revues de littérature avec ChatGPT, de réaliser nos évaluations d'articles avec ChatGPT. Si par le plus grand des hasards les outils automatiques parlant aux outils automatiques font émerger quelque chose d'intéressant dans ce processus, plus personne ne s'en rendra compte.

[ Edit 7 mai : je viens de voir passer cet article Écrire à l’université à l’heure des IA génératives : trouble dans l’auctorialité, et si la question de l'éthique et la remise en question de la notion d'auteur me semblent importantes en elles-mêmes, je suis encore plus frappée par l'accélération globale que cette démarche provoquera inévitablement dans le cadre de la recherche. Mais à quoi pourrait bien servir de générer très vite beaucoup de travaux et d'articles de recherche ? Même si l'on fait confiance à ces outils pour générer effectivement des choses qui ont un intérêt, que faire de beaucoup de “résultats” ? Par exemple s'il s'agit de résultats liés à la santé — puisqu'on nous donne systématiquement cette “excuse” pour justifier les impacts des IAs génératives —– les résultats de recherche sont nécessairement suivis d'essais, dont le rythme est évidemment beaucoup plus lent. Si au contraire il s'agit d'articles dans des domaines théoriques sans besoin d'essais, à quoi peut bien servir d'accumuler des résultats si plus personne n'a le temps de les lire et de s'en émerveiller ? Bref, la question de la vitesse à laquelle tourne la lessiveuse me paraît centrale. ]

Sur la non inclusion de la sculpture dans le champ des “objets V” : Il ne devrait pas s'écouler beaucoup de temps avant qu'un promoteur d'IA ou un autre s'attaque au sujet, en proposant de générer automatiquement des plans pour imprimante 3D ou machine à extrusion. Les scanners 3D existent déjà (mon dentiste s'en sert pour faire un moulage virtuel de ma machoire). Il reviendrait sans doute un peu cher de scanner toutes les sculptures du monde et pourquoi pas tous les objets fabriqués artisanalement, mais rien d'impossible pratiquement. Ensuite il suffirait d'augmenter la base de données en ajoutant tous les plans déjà numériques de fabrication d'objets industriels. Il resterait à appliquer les modèles de diffusion en 3D, pour être capable de générer un plan d'une sculpture de “chevalier très grand perché sur une otarie bondissante et en train de lancer son dentier dans la foule”. Ça n'aurait qu'un intérêt fort limité vu le coût global ? Certes. Un peu comme pour les starter packs. Il nous restera le spectacle vivant.

[ Edit 12 mai : sur la créativité en 3D, voilà donc LegoGPT, capable de générer des plans de constructions en Lego (de taille modeste pour l'instant) à partir d'une spécification textuelle, et de les faire monter par des bras robotisés. Aussi impressionnant que puisse sembler le résultat, j'espère que ce ne sera pas vendu par Lego comme un aspect du jeu. Déjà en tant qu'authentique enfant des années 60 élevée aux Lego standard, je pense que les sets Lego destinés à un seul objet, contenant un grand nombre de pièces très particulières peu réutilisables, sont totalement dénués d'intérêt créatif. Alors si en plus un outil automatique fait les plans à notre place, c'est un appauvrissement du jeu assez draconien. Les Lego c'est l'apprentissage “par les doigts” de la 3D et de certains principes mécaniques. Si une construction se casse la figure, on y apprend quelque chose. ]

@flomaraninchi@pouet.chapril.org

Writing a Letter
1904–1910
Herbert G. Ponting (British, 1870 - 1935)

Writing a Letter 1904–1910 – Herbert G. Ponting (British, 1870 – 1935) — https://www.getty.edu/art/collection/object/1043VF

Il y a quelque chose que je pense fondamental dans mon activité de programmation (quand j'ai le temps, ce qui est de moins en moins le cas, mais j'aime toujours autant ça) : quand on est lancé, on se sent porté par quelque chose qui n'est pas vraiment conscient, une espèce de flot de pensées qui s'enchaînent toutes seules, et d'une certaine manière le programme s'écrit tout seul aussi. On ne voit pas passer le temps. Au début, bien sûr, quand on maîtrise mal un langage de programmation, on doit “traduire” un besoin qu'on se formule en langage plus ou moins naturel dans la tête, en utilisation correcte des constructions disponibles dans le dit langage. Parfois on pense encore dans un autre langage de programmation, et on a tendance à essayer de “traduire” de l'un dans l'autre, ce qui n'est pas très efficace, et conduit souvent à mal utiliser les concepts du nouveau langage à apprendre. Par exemple pour passer d'un langage fonctionnel à un langage objet, il faut accepter de penser différemment. Au début on s'interrompt pour lire la doc, regarder des exemples, etc., et c'est un peu laborieux. Mais ensuite c'est comme avec une langue étrangère qu'on parle bien : on pense directement dans cette langue, on ne traduit pas. Dans l'apprentissage d'un nouveau langage de programmation, le moment où l'on réalise qu'on pense directement avec les concepts de ce langage, c'est très gratifiant.

En lisant récemment l'article Can you translate a book with DeepL? d'une traductrice professionnelle, je suis tombée sur un paragraphe qui colle exactement à la notion de flot de pensées ci-dessus : “Authors know the feeling, when they’re writing their book and the rest of the world seems to fall away: they’re in a rhythm where their full concentration is focused on one task. They can see the action and plot of their story in front of them, and the words seem to type themselves into the computer.”. Par ailleurs je comprends cet article comme expliquant que l'activité de traduction n'est pas une activité mécanique de passage d'une forme à une autre. On lit et on digère le texte original, et en quelque sorte on le “repense” dans la langue d'arrivée. Traduire (bien), c'est écrire. Et pour écrire bien, il faut être dans ce flot de pensées décrit dans la citation. L'autrice décrit l'activité de traduction qui s'appuie sur un premier jet produit automatiquement par DeepL comme pénible, parce qu'elle empêche d'atteindre cet état de “flot de pensées” où le texte s'écrit tout seul. C'est perdre ce flot qui rend l'activité pénible, qu'on y “gagne” du temps ou pas. L'article est d'ailleurs intéressant aussi pour la mesure de temps nécessaire, qu'on utilise un outil comme DeepL ou pas. Et finalement la question qu'on peut se poser à la fin, c'est : entre 1h agréable et 45mn pénibles pour la même tâche, que choisiriez-vous ? Ou même pire (vues les conclusions de l'article sur les cas étudiés) : entre 1h agréable et 1h15 pénibles pour la même tâche, que choisiriez-vous ? La question est vite répondue, n'est-ce pas ?

En retombant encore une fois sur cet article de Edsger W.Dijkstra On the foolishness of “natural language programming”, je me suis rappelée les grandes discussions à l'époque où tout un domaine de recherche en informatique travaillait sur la “synthèse” de programme à partir de spécifications en langage plus ou moins naturel. A l'époque je me disais : soit le langage de spécification est suffisamment précis pour que la traduction n'ait pas le choix, et alors on appelle ça un langage de haut-niveau avec son compilateur ; soit le langage de spécification n'est pas assez précis, et alors il reste du travail humain pour aller vers du code, on ne peut pas faire de “synthèse” automatique. On s'amusait de la direction suivie, en se disant que le langage ultime serait réduit à une seule instruction “Do What I Mean”.
Edsger W. Dijkstra argumente ici pour dire que compter sur un outil automatique pour “traduire” en code une pensée en langage naturel est totalement illusoire. La pensée est essentiellement ambiguë (heureusement), alors que le code pas du tout, tout aussi heureusement.

Bref, en reliant ces deux articles et ce à quoi ça me fait penser, je me dis qu'utiliser une IA générative pour programmer, ça a précisément les 2 défauts : – ça s'apparente à traduire avec DeepL, c'est-à-dire que ça remplace un travail d'écriture gratifiant en soi par un travail d'inspecteur des travaux finis essentiellement pénible, et avec lequel on ne gagne même pas forcément de temps – c'est le dernier avatar du rêve de la programmation en langage naturel, qui ne tient pas debout. Au lieu de penser directement dans le langage d'arrivée, on pense dans un langage de départ, et en plus on laisse faire la traduction par des outils très imparfaits.

@flomaraninchi@pouet.chapril.org

Group at Junction, Kansas - 1867 - Alexander Gardner (American, born Scotland, 1821 - 1882) - Digital image courtesy of Getty’s Open Content Program - https://www.getty.edu/art/collection/object/104GZT

Group at Junction, Kansas – 1867 – Alexander Gardner (American, born Scotland, 1821 – 1882) – Digital image courtesy of Getty’s Open Content Program – https://www.getty.edu/art/collection/object/104GZT

Du rythme effréné de la recherche au 21ème siècle

En approximativement 20 ans, la recherche est passée d'un mode de fonctionnement d'allure raisonnable, avec des financements récurrents des laboratoires, des appels à communication en nombre également raisonnable, à une frénésie permanente de sollicitations en tout genre. Il paraît tous les 3 ou 4 mois un nouvel appel à projets, grand programme national, défi, challenge, constitution de “task force”, etc. Les instances universitaires se comportent à chaque fois comme si ce train qui passe était le dernier, comme si ne pas sauter à bord condamnait à la relégation à perpétuité. L'ensemble des instances et un nombre déraisonnable de collègues seniors s'attèlent à la tâche, toutes affaires cessantes, organisent dans l'urgence des groupes de travail et des visio-conférences, afin de délivrer dans des délais proprement intenables des documents de synthèse et des grands programmes de recherche, des cartographies des forces en place et des projections à 10 ans, des promesses de réalisations innovantes et de publications prestigieuses, des avancées marquantes capables de faire de la France un champion du sujet X ou Y, en 18 mois, départ arrêté ou presque.

Une fois ce travail réalisé (bien souvent avec l'aide dans une urgence absolue des services financiers et juridiques de l'université qui croûlent sous les demandes), le projet est lancé avec inauguration politique en grande pompe et force petits fours. Le démarrage officiel, dans ses aspects les plus terre à terre (qui embauche, sur quel statut, qui loge, qui gère les financements, comment concilier les ZRR et les embauches internationales prestigieuses, comment trouver un vivier de doctorant.e.s, comment aider un chercheur étranger perdu dans la jungle administrative française, etc.), peut prendre jusqu'à 12 ou 18 mois supplémentaires. Au moment du démarrage effectif, les personnes impliquées dans le montage initial peuvent avoir accédé à la retraite, avoir été promues dans un autre établissement, avoir accepté d'autres charges, etc. Une reconfiguration avec les forces disponibles a donc lieu comme première étape.

Pendant ce temps-là, le lecteur attentif aura compris qu'il est passé 2 ou 3 autres trains. Chacun également ultime, menaçant de relégation à perpétuité les universités qui ne sauraient pas se mettre en ordre de bataille pour sauter à bord tant qu'il est encore temps. Adieu donc les promesses grandioses affichées comme réponse au passage du train précédent. L'ensemble des instances et un nombre déraisonnable de collègues seniors s'attèlent à la tâche, toutes affaires cessantes, etc.

Il semblerait parfois que la communauté de recherche ne soit plus capable de s'organiser que pour rédiger des promesses. Mais le temps long de la recherche, nécessaire à produire les contenus qui pourraient ensuite figurer dans la vitrine, est totalement perdu. Cela a des effets parfaitement délétères sur les collectifs humains, sur la production et la transmission de connaissances, et à terme sur la réputation de la recherche française. Il n'est pas rare d'entendre les collègues expliquer qu'ils ont réussi à travailler sur un sujet, non pas grâce à un appel à projets, mais malgré lui. Ce mode de management de la recherche, pourtant si évidemment inefficace et contre-productif, écarte parfois durablement les chercheurs et enseignants-chercheurs de toute activité de pensée critique. Pour les politiques inquiets de la liberté académique, c'est probablement le point le plus positif. Il n'est pourtant pas exclu que seule leur grande méconnaissance du fonctionnement de la recherche soit à blâmer.

Pour les chercheurs et plus encore les enseignants-chercheurs, cela peut conduire au burn-out ou à un cynisme désabusé. Les promesses qu'on a faites au passage du train numéro n n'engagent évidemment à rien, puisque le fait de sauter dans le train n+1 est prioritaire sur le fait de simplement travailler sur les sujets qu'on avait mis en avant pour le train n.

Creusement des inégalités

Le système des appels à projet incessants est profondément toxique, à tous les points de vue. Il est aussi une source supplémentaire d'inégalités, en particulier entre les hommes et les femmes, dans un cercle vicieux implacable. En effet, quand passe le train n, les personnes déjà les plus chargées (dont les femmes) sont plus susceptibles de jeter l'éponge que les autres. Les personnes qui ont encore le temps et l'énergie nécessaires à la course effrénée des réunions et des montages de projets constatent que toutes leurs demandes visant à établir un peu de diversité se heurtent à une réponse de la forme “Je n'ai pas le temps, je suis déjà trop chargé.e”. Parfois elles anticipent cette réaction et décident elles-mêmes de ne pas sur-solliciter leurs collègues déjà chargé.e.s. Quand ces mêmes collègues s'émeuvent de ne figurer nulle part dans les instances décisionnaires des grands programmes lancés en grande pompe, il est alors facile de leur répondre qu'ils ou elles avaient refusé de participer aux étapes de montage. En revanche ils ou elles apparaissent souvent parmi les exécutant.e.s (rôle ingrat puisqu'en général les marges de manoeuvre sur les contours du projet sont très limitées une fois le projet lancé) qu'il a fallu trouver en catastophe une fois le projet réellement lancé, les porteurs des projets du train n ayant déjà lâché leurs engagements pour se ruer sur le train n+1. La situation est même encore pire : ne pas participer à l'assaut du train n signifie aussi pour les plus jeunes collègues manquer d'entraînement le jour où passera le train n+1. Le piège se referme.

Vers une prise de conscience et des actions collectives ?

Tant que les collègues moins chargé.e.s et bien entraîné.e.s accepteront de se plier à l'exercice de ces courses effrénées, et même plusieurs fois d'affilée, cette situation ne pourra que se dégrader. Recevoir l'expression de la profonde compréhension de la part de collègues ayant monté un projet en urgence — parfois même les félicitations — quand on démissionne de ces courses au montage de projets (ou qu'on refuse a priori d'y participer), ne suffit pas. Encore une fois la raison du manque de diversité dans ce fonctionnement de la recherche n'est pas à chercher dans le manque de confiance en elles des personnes qui ne participent pas. Ralentir exige une prise de conscience et une action collectives. Continuer à accepter ce rythme effréné creuse l'écart et condamme les plus chargé.e.s.

@flomaraninchi@pouet.chapril.org

Doughnut

https://commons.wikimedia.org/wiki/File:Illustration_th%C3%A9orie_du_donut.svg

La théorie du donut

Le concept de donut de Kate Raworth est une image puissante à laquelle confronter ses propres visions du futur.

Le donut illustre la notion de soutenabilité par deux cercles concentriques qui délimitent une zone intermédiaire. Le cercle intérieur représente un plancher minimal qui garantit une vie décente pour toute la population mondiale. Le cercle extérieur représente les limites planétaires : si elles restent en deçà de ce cercle les activités humaines sont soutenables. La zone intermédiaire du donut doit être partagée entre les diverses activités humaines, et les arbitrages sont éminemment politiques. Même s'il est légitime de s'interroger sur la pertinence de la mesure du dépassement des limites, ou sur le choix des limites elles-mêmes, il n'en reste pas moins que l'image est frappante : il faut penser toute activité humaine entre un plancher et un plafond, et donc considérer ce et ceux qui sont à côté de nous, ainsi que ce qui est déjà là et dont nous sommes responsables sans avoir aucun moyen de l'éjecter en dehors de la figure (les communs négatifs de A. Monnin).

S’interroger sur le lien entre impacts environnementaux du numérique et soutenabilité consiste donc à se demander quelle portion de la zone intermédiaire du donut peut être consacrée au numérique, et comment arbitrer le partage de cette zone avec d'autres activités. L'hypothèse qu'il faille réduire la place occupée par le numérique ne peut pas être exclue a priori.

L'image du donut permet ainsi de reconsidérer les discours usuels qui parlent de numérique et d'environnement :

  • Le green-IT consiste à optimiser le fonctionnement du numérique pour réduire les impacts des objets individuels. C'est un espoir de contraction du numérique, mais cet imaginaire se heurte à deux obstacles. D'une part le secteur du numérique est particulièrement prompt à générer des effets rebond, donc les gains sur des objets individuels sont souvent immédiatement effacés par une augmentation des usages. D'autre part il s'agit encore d'un imaginaire tourné vers un futur à l'extérieur du donut, sans tenir compte du plafond et du stock : on parle par exemple de construire un numérique plus durable. Mais cela n'a pas de sens si l'on ne s'interroge pas sur l'état actuel. Même s'il était possible de construire effectivement un numérique “durable”, que faire de tout le numérique déjà là ? On ne peut pas tous les 6 mois faire table rase du passé pour construire un nouveau numérique, fût-il durable. Cette fuite en avant est clairement incompatible avec l'image du donut.
  • Le green-by-IT consiste à réduire les impacts d'un autre secteur d'activités grâce au numérique. Là encore c'est un espoir de contraction, mais qui dédouane en quelque sorte le numérique. Si vraiment on était capable de contracter très significativement les impacts du secteur des transports (par exemple) grâce au numérique, cela autoriserait effectivement une place plus conséquente au numérique dans le donut. Mais ces promesses attendent toujours d'être réalisées. Et cette vision partage le travers de la précédente : il s'agit de construire pour un demain qui s'éloigne au fur et à mesure qu'on avance, sans tenir compte de tout ce qu'on a déjà construit et qu'on abandonne sur la route derrière nous sans plus s'en préoccuper, comme si la route était infinie et le passé oubliable.

Changer de point de vue

Pour penser réellement le numérique dans les limites planétaires, il s'agit de changer de point de vue. Au lieu de s'imaginer quelque part dans le donut, posé sur le plancher et, soit ignorant de sa propre trajectoire inexorable vers le dépassement du plafond (comme le green-IT), soit pensant pouvoir s'étendre “en largeur” grâce à la contraction d'une autre activité (comme le green-by-IT), il faut s'imaginer collé dos au plafond, regardant vers le bas les activités aux impacts croissants qui se rapprochent de nous comme des cumulus en formation, les stocks des générations successives de numérique toujours plus vertes que les précédentes qui s'accumulent au sol et réduisent d'autant plus l'espace disponible comme dans une pièce fermée qui se remplirait d'eau. Il faut s'imaginer écarter les bras et tenter de contenir cette croissance en cherchant quoi contracter ou arrêter, tout en prenant garde à ne pas pousser certaines activités ou populations sous le plancher, et en s'assurant qu'on tire au-dessus du plancher celles qui sont encore en-dessous.

C'est un retournement complet de la perspective qu'on devrait appliquer à toute innovation dans le secteur du numérique ou dans d'autres secteurs technologiques.

Application à la cartographie numérique

Il y a peu je disais sur mastodon :

Je vois passer des tas de messages enthousiastes sur Panoramax, le nouveau commun numérique alternative de StreetView. Et quel que soit mon fond résiduel de technophilie enthousiaste devant toute cette énergie bien coordonnée qui permet d'atteindre le niveau de qualité que google a atteint avec des moyens énormes, j'ai quand même de + en + de réticences devant cette frénésie de cartographier/photographier tout au ¼ de poil. En dehors de l'espace de stockage nécessaire, où cela va-t-il s'arrêter ? Quelle est cette obsession de la précision et de la connaissance des moindres détails d'un lieu, à distance ? Quelle est la limite entre ça et la dinguerie du concept de jumeau numérique total de la terre (avec les gens dessus) défendue par les techno-solutionnistes ++ ?

Un peu plus tard, je demandais :

Mais qui se sert de StreetView ? Et pour quoi faire ? (Vraie question)

J'ai eu de nombreuses et très intéressantes réponses. Mais aucune (sauf une) ne revient vraiment sur ma question initiale : où est la limite ? Je ne doute pas un instant que StreetView, ou mieux encore ses alternatives libres et collaboratives, ait de nombreuses applications. On est en plein dans le green-by-IT pour la plupart, et il y a effectivement des arguments de type green-IT sur les avantages de l'approche collaborative et ouverte (mais sans garantie d'échapper aux effets rebond, peut-être même avec plus de risques). Mais quand on travaille à une cartographie lidar précise à 50cm selon ce document (voir page 18), quand on collabore aux informations d'OpenStreetMap en mode micro-mapping, quelle vision du futur a-t-on ?

Penser les limites de la cartographie numérique, ce serait décider à l'avance qu'une précision de 50cm est déjà largement suffisante. Que même s'il apparaît une technologie révolutionnaire qui permettrait d'établir des cartes au cm près, on ne s'en servira pas. Qu'il n'est peut-être pas absolument indispensable au bien-être de l'humanité de répertorier toutes les boîtes à livres de France et de Navarre, quelqu'intérêt que cela puisse avoir pour les lecteurs boulimiques —– dont je suis d'ailleurs. (J'attends le moment où l'on pourra également inclure leur contenu, grâce à une armée de citoyens allant scanner les codes barres des livres présents. Cela vous paraît moqueur ? je prends les paris... ). Et enfin que l'espoir des archivistes de conserver pour toujours les informations sur le territoire est vain et totalement incompatible avec quelque notion de limite que ce soit dans le stockage d'informations.

Autres aspects liés à la cartographie numérique

Je laisse de côté pour ce billet le rêve implicite d'atteindre la carte du monde à l'échelle 1x1, je renvoie comme toujours à l'indépassable texte à la fois poétique et percutant de Borges : Del Rigor en la Ciencia. Ce rêve de maîtrise totale du territoire, à distance, risque fort de dériver vers un rêve de perception en temps-réel. Il y a pourtant déjà bien assez comme ça de caméras installées dans l'espace public.

Je laisse de côté également les usages de surveillance et de contrôle qui ont toujours été associés au développement des cartes, et la nature politique de ce qu'on inclut ou exclut dans une carte. On m'a signalé l'ouvrage Cartographie radicale. Explorations. de Nephtys Zwer et Philippe Rekacewicz à la Découverte, 2021. C'est dans ma pile à lire.

Je ne commente pas plus les effets pervers de la mise à disposition de cartes précises et mises à jour régulièrement aux individus, (trop) largement. Waze en est un très bon exemple.

Et enfin je m'interroge sur cette frénésie de prévision parfaite qui pousse à repérer les sites et les itinéraires à l'avance dans leurs moindres détails, pour n'avoir aucune surprise sur les lieux ensuite. L'argument de sécurité des itinéraires, en particulier à vélo, est sérieux, mais que dit-il sur notre vision d'un monde où c'est l'individu qui doit se prémunir contre une puissance publique qui laisse l'aménagement du territoire partir à vau-l'eau ? L'argument de gain de temps sur place est évident, mais que dit-il de notre soumission à la grande accélération due au numérique ? L'argument d'accessibilité est plus convaincant, mais que dit-il de notre acceptation résignée de l'individualisme ambiant, qui fait juger totalement utopique des aménagements et une information appropriés sur place ? Enfin, plus trivialement, l'information de localisation des toilettes est certainement utile, mais l'idée que dans une ville inconnue on trouvera des toilettes quand nécessaire grâce à une signalisation appropriée sur place (voire en demandant aux gens) est-elle devenue si utopique que l'on veuille s'assurer de n'en pas manquer à l'avance, grâce à la cartographie numérique ?

@flomaraninchi@pouet.chapril.org

Maison en ruine

Edit 1er avril 2024, après le désastre évité de xz – voir par exemple ce post, juste pour qu'on se rende compte à quel point on est dépendants de choses assez compliquées.

A chaque fois qu'on discute blockchain/NFT/web 3/... et maintenant IA avec des informaticiens ou non, j'ai envie d'ajouter un argument qui me vient de mon passé de recherche sur les systèmes critiques. Pour une analyse approfondie de la famille blockchain je conseille comme toujours Promesses et (dés)illusions. Une introduction technocritique aux blockchains de Pablo Rauzy.

Tous les discours techniquement infondés sur ces objets reposent sur un non-dit, un sous-entendu constant, un imaginaire d'infrastructures numériques auto-entretenues, autonomes, immuables pour le reste des temps, et donc par nature plus fiables que les organisations humaines (et moins coûteuses). Cela peut venir de la science-fiction, mais c'est aussi l'expression profonde d'une position politique qui tend à la défiance envers toute organisation humaine. Promouvoir le numérique partout a évidemment des motivations économiques (qu'on pense à la destruction systématique des services publics sous prétexte de “dématérialisation” qui s'accompagne systématiquement de désintermédiation), mais au fond il y a aussi cet élément de défiance. Et pour finir sur ces imaginaires, c'est assez cocasse que des gens qui n'ont que l'innovation à la bouche défendent aussi fermement l'immuabilité prétendue de solutions à base de blockchains.

Je ne discuterai pas plus politique ici. Pour un regard décidément critique et politique voir No Crypto. Comment Bitcoin a envoûté la planète. de Nastasia Hadjadji.

Voilà quelques arguments techniques sur la (non) possibilité de telles infrastructures auto-entretenues immuables. TL;DR : Cela n'existera jamais.

Développement initial, bugs, sécurité

Le premier argument non technique que j'oppose en général aux adeptes du bitcoin comme système bancaire qui permet de s'affranchir des banques, c'est qu'on déplace sa confiance dans les banques et les états vers une confiance aveugle en des développeurs de code que par ailleurs on ne maîtrisera jamais soi-même. Même sans les soupçonner de malversations délibérées, ils feront comme tous les développeurs de tous les temps : des bugs. En particulier des bugs qui se traduisent par des trous de sécurité. Voir à quelle fréquence les systèmes de ce type sont attaqués avec succès : Web3 is going just great de Molly White.

La mode des smart contracts qui se doivent d'être turing-complets (sinon c'est petit joueur) emmène le domaine à de nouvelles altitudes. Dans mon expérience de validation de systèmes critiques, quand un domaine permet des retours en arrière on saute à pieds joints et avec grand soulagement sur cette possibilité. C'est la différence entre un système bancaire (quand ça se plante c'est très ennuyeux et coûteux mais on peut revenir à un état antérieur correct) et un système de contrôle dans une fusée (quand le bug est détecté c'est trop tard. Voir le vol initial de Ariane 5 pour ceux qui s'en souviennent). L'idée de s'attacher sciemment les mains derrière le dos en inventant un système “bancaire” immuable, c'est... disons curieux.

Et la maintenance ?

Mais il ne s'agit pas que de devoir faire confiance aux développeurs initiaux. Le numérique ne fonctionne que parce qu'on le surveille comme le lait sur le feu, alors même que la maintenance est totalement invisibilisée. Sur ce sujet je conseille l'article The care of things (and Gephi) de Mathieu Jacomy ainsi que le livre qui y est commenté : Le soin des choses – Politiques de la maintenance. De Jérôme Denis et David Pontille. Comment les “solutions” à base de blockchains pourraient-elles échapper à cette règle générale sur le besoin de maintenance ? Et qui s'en occupe ?

[Edit 1er avril 2024 ] : quand on pense que la sécurité des échanges sur internet tient à une brindille quelque part, et à tous les aspects sociaux de l'écosystème du logiciel, l'idée de faire confiance “à du logiciel”, plutôt qu'à des êtres humains, apparaît pour ce qu'elle est : une grosse bêtise totalement dénuée de sens.

Durée de vie effective des solutions numériques

Pensez à tous les logiciels qui vous viennent à l'esprit, en cherchant lequel marche quasiment sans intervention, depuis le plus longtemps. Sur quel matériel tourne-t-il ? Quelle est sa durée de vie ? 30, 20, 10, 5, 1 an ?

Comme exemple récent, les grandes envolées sur la science reproductible avec des articles “exécutables”, tout ça basé sur du Python : As of 2024, this project is archived and unmaintained. While is has achieved its mission of demonstrating that unifying computational reproducibility and provenance tracking is doable and useful, it has also demonstrated that Python is not a suitable platform to build on for reproducible research.

Inversement il existe du code qui tourne depuis longtemps (~ 30 ans), mais dans des contextes très critiques (comme des centrales nucléaires). Ce sont des systèmes fermés, conçus à l'origine avec des méthodes très contraignantes et des contraintes matérielles très fortes, sans prétention à l'extensibilité. Leur durée de vie s'accompagne de la nécessité de stocker des pièces “détachées”, c'est-à-dire les processeurs pour lesquels elles avaient été développées et validées. Je mentionnais récemment ces exemples dans une remise en cause de l'extensibilité ici : Revisiting “Good” Software Design Principles To Shape Undone Computer Science Topics.

La simple obsolescence du matériel nécessaire aux “mineurs” de la blockchain suffit à démonter les arguments d'immuabilité.

@flomaraninchi@pouet.chapril.org

1ère version 2022, édité le 5 septembre 2023 avec des apports dus à des discussions avec mes collègues.

image Fresco Fragment – 1st century A.D. – Unknown artist/maker

Nous sommes nombreux et nombreuses maintenant à avoir fait des fresques du climat, et même pour certain.e.s à avoir subi la formation qui permet de devenir “fresqueur” à son tour. C'est mon cas, mais je ne suis pas répertoriée, ayant décidé immédiatement de ne pas propager cette vision des choses. Je l'ai ensuite refaite plusieurs fois, dont une avec des collègues anthropologues et climatologues. Les discussions sur le fond abordent cet objet sous différents angles. J'ai déjà expliqué sur mastodon pourquoi je refuse de la faire en tant qu'animatrice dans mon rôle d'enseignante-chercheuse. Le souci principal, indépendamment du fond, est que les supports doivent être utilisés tel que, sans modification. Ça ne rentre pas (du tout) dans la conception que j'ai du travail d'enseignant-chercheur, où le partage de supports sans contrainte et la réutilisation avec modifications sont la norme. Par ailleurs l'activité elle-même ne laisse aucune place à l'improvisation pour s'adapter aux réactions du public. Bref, encadrer une fresque, ça n'a rien à voir avec mon métier.

Dans ce petit billet je vais parler du fond et essayer de résumer pourquoi j'aurais bien voulu pouvoir au moins modifier le choix des images : je trouve ce “jeu” tel qu'il est à la fois raciste, sexiste, caricaturalement occidentalo-centré, et de nature à n'induire que des réactions technosolutionnistes (ou pire).

La fresque terminée

La fresque terminée (et les fresqueurs veillent au respect de la pensée du concepteur qui détermine aussi la forme de la “solution”) se présente un peu comme un schéma flot de données avec des rétroactions, orienté globalement de gauche à droite. Dans un tel schéma on a des boites qui représentent des traitements, et des fils orientés entre les boîtes qui représentent des flux de données, donc. Chaque boîte a des fils entrants (les données à traiter) et des fils sortants (les résultats produits). Il est d'usage courant de placer les entrées globales à gauche, et les sorties à droite. Globalement les données coulent donc de la gauche vers la droite, dans le sens de lecture usuel... en occident. Les boucles de rétroaction sont des sorties de boîtes qui retournent en arrière comme entrées d'autres boîtes, fromant ainsi des cycles au sens des graphes. C'est un outil classique de plusieurs domaines de l'ingénierie, on en trouve partout en informatique, en automatique et théorie du contrôle, etc.

Dans la fresque, le gros de l'exercice consiste à organiser les fiches selon un ordre partiel de causalité. Ce n'est donc pas à strictement parler un schéma flot de données, mais le résultat y ressemble beaucoup. Le schéma solution de la fresque se présente comme suit :

  • sur la gauche on trouve les activités humaines, qui sont des entrées de...

  • la grosse machine climatique centrale, qui présente des boucles de rétroaction internes (comme par exemple : plus le climat se réchauffe, plus le permafrost fond en dégageant du méthane, plus l'atmosphère se réchauffe), et qui a comme sorties...

  • les impacts néfastes sur le climat et par conséquent sur les populations, représentés sur la droite.

  • Il est important de noter qu'il n'y a pas de boucle de rétroaction globale, et que le diagramme se lit clairement de gauche à droite.

Interprétations

Sexisme

C'est extrêmement caricatural, on dirait un extrait de Pépite Sexiste. Parmi les activités humaines à placer en entrée on trouve :

  • un homme (blanc, voir plus bas) portant grosse montre et costume, au volant d'une voiture haut de gamme ; une image de sérieux et de respectabilité, donc.

  • une femme en dos-nu portant négligemment sur l'épaule un bouquet de sacs de courses, qu'on devine plutôt de boutique de mode que de chez Lidl ; bref, une image de frivolité et d'insouciance.

Pas plus de commentaire.

Racisme

Les activités humaines en entrée sur la gauche sont représentées par l'activité de pays riches (avions, grosses voitures, usines bien propres, agriculture avec tracteurs, nourriture de restaurant haut de gamme avec jolis verres de vin), et par des individus blancs pris en photo de dos. Les impacts néfastes en sortie sur la droite sont représentés par des enfants noirs de pays pauvres marchant dans l'eau d'une crue, pris en photo de face, comme dans les pires vidéos de “charity porn” (voir aussi les cartes “famine”, ou “santé humaine” ou encore “réfugiés climatiques”).

Exception notable : les canicules sont représentées par des touristes blancs mais bronzés, peu vêtus et s'aspergeant d'eau (il y a encore de l'eau, donc, ce n'est pas si grave, on s'adaptera en vivant comme en vacances). Les conditions de vie en cas de combinaisons température/humidité létales ne sont pas représentées. En juin 2023 des ouvriers réparant les réseaux électriques au Texas sont morts au travail, pendant que le reste de l'état mettait la grille électrique à rude épreuve en branchant la climatisation à fond partout.

Alors bien sûr quand je fais ces remarques sur l'inégalité flagrante de représentation des populations, la réponse standard c'est : mais c'est vrai ! Ce sont les pays riches qui sont responsables des dégâts sur les pays pauvres. Oui, certes. Mais il y a des activités à préserver à droite aussi. Pas seulement des populations à “sauver”.

Le choix des cartes véhicule une image de sujets/objets extrêmement gênante. En gros, nous admettons être responsables, mais nous nous posons comme producteurs (exclusifs) de solutions. A gauche des sujets, à droite des objets. Il ne suffit pas de reconnaître que les pays riches ont plus d'impact que les autres. Encore faudrait-il commencer à accepter l'idée qu'on pourrait demander leur avis aux habitants desdits pays pauvres sur leur manière de voir l'ensemble du problème. Peut-être pourraient-il nous apprendre des choses en matière de mode de vie plus sobre ? Je rêverais de faire la fresque à l'envers, c'est-à-dire de regarder le schéma de la droite vers la gauche, en posant comme objectif de revenir à une vie normale dans les pays où les dégâts se font déjà sentir, et de retraverser la machine climatique à l'envers pour arriver à des “conséquences” (des exigences) sur le changement des modes de vie et des activités des pays riches, et plus généralement de leur organisation du monde.

Technosolutionnisme

Contrôler la machine climatique

Une interprétation évidente du schéma complet est induite par la vision d'ingénierie de la fresque finale : il s'agit de préserver les entrées et de minimiser les sorties, en “tournant” les boutons et manettes de la grosse machine centrale. Les acteurs agissants sont ceux de gauche, les non acteurs subissant sont ceux de droite. Le climat est une machine comme une autre. On comprend bien d'où peuvent venir les idées de géoingénierie. La focalisation sur une seule “variable”, le climat, masque complètement les effets d'interaction avec d'autres variables au moins aussi importantes.

Vision linéaire

Un des gros soucis c'est que le schéma final ne reboucle pas : on a un raisonnement qui va des entrées à gauche aux sorties à droite. Les allers-retours éventuels sont concentrés dans la partie centrale, pour illustrer les rétro-actions entre phénomènes physiques. Mais on ne remet jamais l'humain dans la boucle. Cela donne une vision très linéaire qu'on n'a pas tendance à remettre en cause.

Par exemple le “jeu” n'est pas fait du tout pour qu'on puisse faire un raisonnement d’enchaînement de conséquences en regardant par exemple ce que ça donnerait de baisser les activités humaines représentées sur la gauche. Si j'enlève complètement l'avion, quelles conséquences “négatives” ça a (sur le tourisme, les déplacements professionnels, le transport international, ...) et pour quelles conséquences positives (baisse des émissions de CO2) ? Si je prétends faire des avions “0 carbone”, qu'est-ce que ça implique sur le partage de l'énergie entre cette activité et d'autres plus vitales ? Voir par exemple cette tribune Le zéro carbone et l’infinie voracité du transport aérien.

Invisibilisation des inégalités

Un autre gros souci, c'est le contournement de la notion d'inégalités de répartition des consommations. En posant comme standard d'illustration des activités humaines le mode de vie des occidentaux relativement riches (grosses voitures, mode, avions, ...) on n'est pas conduit à questionner leur nécessité, ou à raisonner en prenant comme standard les activités beaucoup plus réduites d'autres populations.

Absence de limites

Enfin la fresque finie n'est pas une image appropriée pour représenter les limites planétaires, ou l'espace disponible du donut. L'ensemble du schéma flotte dans un espace conceptuel sans limites, ce qui renforce l'idée (fausse) qu'il y a une marge de manoeuvre infinie pour essayer de “régler” le fonctionnement de la machine climatique.

Absence des infrastuctures numériques et de communication

Dans les activités humaines, rien sur le monde numérique. C'est une curieuse impasse. Le discours public est saturé de promesses de la dématérialisation, de numérique optimisant et autres solutions de type Green-by-IT, d'IA pour optimiser l'allocation mondiale de ressources, etc. Dans ces conditions, ne pas inclure le numérique dans les activités humaines (ses infrastructures, ses usines de microélectronique, sa dépendance aux mines, etc.) risque de conduire à des idées nettement technosolutionnistes.

Critiques générales sur la forme “fresque”

Globalement je crois que j'ai un problème de fond avec ces activités de type fresque, où on finit toujours par s'interroger sur la notion de “relation” entre les cartes qui doit gouverner leur placement relatif, avec un animateur qui vérifie que c'est comme dans la “solution”. On finit par perdre de vue le fond des idées qu'on manipule, pour s'empailler sur la manière de les organiser les unes par rapport aux autres de manière plus ou moins logique (faire ça avec des informaticiens est particulièrement caricatural, puisque nous ne supportons pas de voir une flèche ou un graphe dont la sémantique n'est pas clairement définie). Certaines relations sont déjà écrites dans les textes explicatifs au dos des cartes (ce qui est d'ailleurs franchement infantilisant, ça ne laisse pas plus de place à la réflexion que s'il était écrit directement “carte à placer à droite de la carte X”).

Dans la fresque du climat on peut passer pas mal de temps à organiser les relations entre les phénomènes physiques, et c'est intéressant d'un point de vue physique. Mais d'une certaine manière ça reste un peu “le nez dans le guidon” et on n'arrive pas à la conclusion globale : le réchauffement est réel, et clairement d'origine anthropique. La trajectoire actuelle est catastrophique. Il y a un grand saut entre les considérations physico-chimiques qui permettent d'organiser les cartes de la machine climatique, et ensuite les réflexions nécessaires pour placer les autres cartes. Imposer des modes de pensée des sciences dures aux sciences humaines et sociales qui entrent en jeu autour de la machine climatique, c'est soit naïf, soit très politiquement orienté.

Le faux argument de la “créativité”

La fresque n'est pas un jeu à proprement parler, et la créativité qu'on est censés laisser aux “joueurs” une fois les cartes disposées se limite à inventer un titre et à produire des fioritures dans le style des flèches, à la rigueur des patates de groupement. C'est bien pauvre.

@flomaraninchi@pouet.chapril.org