Chères luttes contre les inégalités, merci de ne pas utiliser d'IA génératives

Il y a quelque temps déjà que je grince des dents en voyant passer ici ou là un article, une tribune ou une pétition qui, tout en dénonçant une oppression, une injustice ou un manque d'égalité d'une manière qui me touche et me convainc, détruit son propre message en choisissant une illustration générée par IA. Parfois ce n'est même pas signalé, mais soit les artistes se sont donné le mot pour représenter des personnages à 6 doigts partout, soit ce critère reste un bon détecteur.
Cela aurait pu arriver à une autre occasion, un peu plus tôt, un peu plus tard[^1] mais il se trouve que mon énervement croissant déclenche aujourd'hui l'écriture de ce billet, à l'occasion d'une tribune de l'association Femmes&Sciences : Cessez de parler « d’autocensure ». Admirez la main à 6 doigts, un pouce de chaque côté. Je n'arrive pas à imaginer quel prompt il faut donner à une IA générative d'image (laquelle, d'ailleurs ?) pour obtenir ce visuel particulièrement inepte. Pour avoir une idée de mon état d'esprit relatif au déferlement des IA génératives partout et au forcing des bigtech pour nous en faire manger à tous les repas, dites-vous que c'est environ cent fois plus énervé qu'en février dernier.
Dans le cas précis de la tribune publiée sur le site de Femmes&Sciences, à ceux (et celles) qui ne comprennent pas mon énervement croissant, j'essaie d'expliquer qu'entre autres dégâts socio-environnementaux avérés, les IA génératives ont un énorme problème de justification et de reproduction des biais et des discriminations. Comme l'écrivent Emily Bender et Alex Hanna dans leur excellent livre The AI Con, how to fight big tech's hype and create the future we want (page 36) : “General intelligence is not something that can be measured, but the force of such a promise has been used to justify racial, gender, and class inequality for more than a century” (“l'intelligence générale n'est pas mesurable, mais la force de la promesse a servi à justifier les inégalités raciales, de genre et de classe depuis plus d'un siècle”). Dans l'article précurseur “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”, on lit : “Biases can be encoded in ways (...) subtle patterns like referring to women doctors as if doctor itself entails not-woman (...)” (“les biais peuvent être codés (...) schémas subtils dont le fait de parler de “femmes docteurs”, comme si “docteur” seul impliquait nécessairement non femme (...)“. Notons qu'en français on tombe ici dans le problème de la féminisation des noms de métiers).
Nous avons donc une association “Femmes&sciences”, qui milite en particulier pour la place des femmes dans les disciplines scientifiques peu féminisées, publiant une tribune très bienvenue pour combattre l'idée que le problème vient de l'autocensure des femmes. Même si on est d'accord avec le diagnostic de la tribune, comment ne pas voir une énorme incohérence entre le fond et la forme ? Comment ne pas grincer des dents en découvrant une image produite par une famille d'outils qui, lorsqu'il s'agit de textes, génèrent l'expression “female doctors” comme s'il était totalement inimaginable que “doctors” désigne des femmes ? Une famille d'outils qui génère des histoires pleines de médecins nécessairement masculins et d'infirmières nécessairement féminines (Cf. Gender Representation of Health Care Professionals in Large Language Model–Generated Stories) ?
Complétons le titre de la tribune “Cessez de parler « d’autocensure » : ce ne sont pas les femmes qui se taisent, ce sont les structures qui les réduisent au silence” en ajoutant : “Et les outils qui reproduisent les biais de ces structures”.
Chères luttes contre toutes les discriminations et injustices, prises une par une ou dans une perspective intersectionnelle, merci de ne pas utiliser des outils qui reproduisent et amplifient ces mêmes discriminations et injustices que vous dénoncez à juste titre, outils qui sont aussi les derniers avatars d'une longue suite de promesses sur une prétendue intelligence artificielle ayant servi à justifier toutes ces oppressions et injustices depuis plus d'un siècle.
[^1]: Les autres luttes contre les discriminations qui affichent leur incohérence en utilisant des images générées par IA se reconnaîtront sans peine dans la critique ci-dessous.
