L’intelligence artificielle : l’édification d’un monde de substitution post-humain

Compte rendu d’un livre de François Rastier

Dans L’I.A. m’a tué. Comprendre un monde post-humain (Paris, Éditions Intervalles, 2024), François Rastier analyse le fonctionnement des intelligences artificielles génératives (IA) du type ChatGPT. Contrairement aux comparaisons rassurantes (notamment avec l’écriture et l’imprimerie) qui tentent de sauver la place surplombante d’un utilisateur-sujet face à une technologie qu’il s’agirait simplement d’apprendre et de contrôler, il montre que la génération automatique de textes et d’images conduit à édifier un monde de substitution post-humain exerçant une emprise sur ledit sujet. Simulant la symbolisation alors qu’il n’est fait que de codes de signaux, ce monde ignore les notions de vérité, de réalité, d’authenticité, et le statut de sujet en tant qu’agent critique réflexif, y est constitutivement impensable.

Une immense accumulation de data, d’erreurs et de fakes

Le livre commence par une anecdote significative, remontant au lancement en France de ChatGPT en 2022 ; l’I.A. a déclaré François Rastier mort en 2021. À l’époque, loin de reconnaître son erreur lorsqu’on lui demande des justifications, la machine s’obstine à citer des nécrologies du Monde et du CNRS dont l’une aurait été publiée en 2020… et finit par reculer la date du décès en 2019. Tout cela avec l’exquise courtoisie et la faussement humble autorité qu’on lui connaît, citant de multiples et imaginaires sources en ligne, et ne cessant par la suite de modifier la date.

Bien entendu, aujourd’hui, ChatGPT « sait » que François Rastier est vivant. Et bien sûr ChatGPT ne se démonte pas lorsqu’on fait état de cet épisode. Je l’ai interrogé à ce sujet et on trouvera en annexe téléchargeable ci-dessous de larges extraits de notre échange (23 février 2025), lequel confirme les analyses que François Rastier développe dans son livre.

On ne peut pas avancer, comme on l’entend parfois, que l’IA s’améliorerait du fait de l’énorme quantité des données disponibles et de la masse d’utilisateurs susceptibles de corriger erreurs et absurdités, masse sans cesse croissante qui permettrait d’affiner les résultats selon, par exemple, le modèle dont se réclament certaines encyclopédies en ligne ouvertes à l’intervention publique. En effet, l’IA générative puise dans une gigantesque quantité données accessibles en ligne mais, loin d’éliminer les fakes et les erreurs par l’épreuve d’un réel extérieur permettant de les récuser,

« ces prétendus corpus n’offrent aucune garantie scientifique : moissonnés par des logiciels comme Common Crawl, ils mêlent des textes divers, des encyclopédies comme Wikipédia, des livres et articles en ligne, sous droits ou non, des pages web, des posts de réseaux sociaux, des textes générés par diverses IA, des masses de mots clés cachés qui servent à attirer les moteurs de recherche. » (p. 34-35)

Mieux, ou plutôt pire :

« plus les données sont étendues, plus le nombre des corrélations oiseuses s’accroît. […] si bien que l’information disponible se traduit paradoxalement par une raréfaction de l’information pertinente. En d’autres termes, passée une certaine taille de la masse de données, les corrélations oiseuses deviennent majoritaires. » (p. 38)

Au lieu de contribuer à l’authenticité et à la vérité, le gigantisme est un puissant accélérateur de « post vérité ». En outre, les propos élaborés par IA ont pour source un pseudo-énonciateur indiscernable, ou plutôt une absence d’énonciateur, d’où leur irresponsabilité : si je suis déclaré mort par une IA, contre qui pourrai-je porter plainte ? Du reste, ma position de sujet-agent se dissout : ne suis-je pas réductible à un profil ?

Quelques préjugés au sujet de l’IA

Le livre démonte, ou aide à démonter, plusieurs préjugés qui circulent couramment au sujet de l’IA .

Un modèle auto-correcteur ?

L’IA observerait un modèle auto-correcteur qui peut faire penser à celui, aveugle et énoncé a posteriori par la recherche biologique, de l’évolution vivante, produisant et transmettant continuellement un texte sans auteur (le code génétique) qu’un correcteur inconscient aurait affiné durant des millions d’années1. Or ce parallèle n’est aucunement valide2. Car l’évolution du vivant ne retient que les succès, sanctionnés à l’aune de la capacité de reproduction des espèces, le mécanisme de sélection éliminant et « oubliant » toutes les « erreurs ». Au contraire, l’IA retient tout et ne rencontre par son propre fonctionnement aucune sanction extérieure – puisqu’elle ne connaît pas d’extérieur -, c’est dire que le rapport à la vérité en est par définition exclu. La notion même de « succès » n’y est présente que de manière prescriptive, par les « prompts » qu’on lui adresse et non par une épreuve qui apprécierait ses résultats. Or on peut « réussir » à répondre, et même brillamment, à une injonction en avançant des âneries :

« par exemple, dressé à l’inclusivité, le générateur d’images de Google, Gemini, affichera volontiers des papesses, des Pères fondateurs féminins, et même des SS afros bien assortis à leurs uniformes » (p. 39).

« En l’absence de tout humour, de toute ironie, de tout second degré, [le discours des IA génératives] peut combiner le pédantisme et le délire sans autre limite que de complaire au client roi. » (p. 139).

Une machine-outil contrôlable par un agent-sujet ?

L’IA serait, au bout du compte, contrôlable par son utilisateur, sujet conscient occupant une position surplombante et pouvant toujours se tenir en retrait en face de productions (en particulier de « textes ») générées par des automatismes . « Écrits pour quiconque et par personne, les textes artificiels devraient donc tomber des mains de tout le monde, mais la foi crédule en l’IA est telle qu’il n’en est rien. » (p. 44)

Or ces « textes » sont l’objet d’une double méprise anthropomorphique.

Alors qu’ils ne sont que des chaînes de caractères, « ils sont lisibles et se présentent sous des dehors ordinaires […] nous pouvons projeter sur eux nos routines et les lire comme s’ils étaient des textes interprétables. » Il s’agit de « simulations de discours sans énonciateur réel »3, de sorte que « un système IA revêt alors l’apparence d’un interlocuteur capable d’empathie apparente et d’emprise réelle. » (p.45)

Ce leurre atteint l’utilisateur lui-même (c’est la deuxième méprise), qui se trouve inclus dans le champ de l’emprise et dépossédé subrepticement de son statut de sujet : la perte d’identité se traduit par sa réduction à un profil customisable par ce qui est dit de lui – toute personne étant schématisée (et bientôt définie?) par ses traces numériques.

Ainsi la déshumanisation accompagne l’humanisation des logiciels (p. 68).

« Plus banalement, un effet-miroir se diffuse dans l’ensemble de la société : des CV rédigés par IA sont choisis par l’IA qui assiste les directeurs de ressources humaines. […] Quand les IA parlent aux IA, pourquoi toutefois se soucier de ce qu’elles disent ? » (p. 70) D’autant plus que, programmées en fonction d’un politiquement correct, elles deviennent des machines idéologiques.

L’IA n’invente rien ?

L’IA n’inventerait rien. C’est faux ! Il ne faut pas confondre créer et inventer. L’IA innove considérablement en établissant des relations (le terme « intelligence », pourvu qu’on le prenne au sens strict, n’est nullement usurpé). Elle combine des fragments glanés sur le web d’une manière hautement acceptable par un locuteur dans une langue donnée (et souvent avec un bien meilleur niveau de langue que celui pratiqué par ledit locuteur), mais cette cohérence séjourne dans une bulle gigantesque qui fonctionne, par définition, sans aucun rapport à une extériorité (le réel, les tests de falsifiabilité, l’authenticité). De sorte qu’« elle crée des combinaisons qu’elle aligne sur un mode affirmatif comparable au discours délirant » (p. 116).

On a donc affaire, à strictement parler, à un délire artificiel ; la différence avec le délire clinique est qu’il n’y a aucun dédoublement du sujet puisqu’il n’y a pas de sujet : « les textes issus de l’IA générative relèvent donc d’une idéologie pure » (p. 117)

Ainsi s’édifie un monde de substitution.

Pas plus alarmant que l’écriture ou l’imprimerie ?

Du fait qu’il s’agit d’un mode de production automatique de chaînes de caractères, les inquiétudes que l’IA soulève sont du même ordre que celles qui accompagnent la mise en œuvre de l’écriture alphabétique, elles seraient donc la reprise d’une crainte technophobe archaïque. Et de rappeler, à l’appui4, la critique que Platon propose de l’écriture dans le mythe de Teuth5 .

En effet, l’écriture alphabétique est formée de mécanismes où seule la matérialité est articulée6. Sauf qu’il faut y regarder d’un peu plus près avant d’esquisser un parallèle avec l’IA. L’écriture alphabétique n’est pas une machine à produire des textes, mais un moyen purement mécanique de transcrire par des phonogrammes des textes produits en dehors d’elle, textes eux-mêmes interprétables issus d’énonciateurs réels et identifiables. L’alphabet ne produit aucun texte, son usage n’entraîne aucune désymbolisation (bien au contraire : se contentant de noter les sons de la chaîne parlée en les analysant, l’usage de l’alphabet renvoie aux symboles) alors que l’IA simule cette production, rabattant tout système de symboles sur des séries de codes de signaux. Alors que l’alphabet est une machine libératrice qui promeut et autonomise le lecteur en tant que sujet7, l’IA est une machine substitutive qui leurre le sujet en simulant ses productions.

Les analyses de François Rastier conduisent à décrire et à caractériser l’édification d’un monde de substitution formé de faits alternatifs qui disqualifie le réel et qui n’a pas d’extérieur : la notion même d’absence, de manque, lui est par définition étrangère. Ce monde sans extérieur, sans temporalité, sans responsabilité, sans espace de recul, sans différenciation entre réel et fictif, est aussi celui du discours transhumaniste. L’augmentation de l’homme n’y est pas celle que fournissent les prothèses (et encore moins celle des orthèses) qu’il faut apprendre à utiliser et/ou à tolérer et qui n’abolissent pas l’écart, l’espace de retrait propre au sujet. C’est celle, sans recul réflexif, d’une désymbolisation où tout n’est plus qu’une immense archive dans laquelle « les données prennent la place des faits », et dont la position critique du sujet est constitutivement évacuée.

François Rastier, L’I.A. m’a tué. Comprendre un monde post-humain, Paris, Éditions Intervalles, 2024.

Notes

1 – On se reportera à l’admirable livre de François Jacob La Logique du vivant, une histoire de l’hérédité, Paris, Gallimard, 1970.

2 – J’ai posé la question à ChatGPT (voir l’annexe ci-dessous) : l’IA confirme !

3 – Là encore, ChatGPT décrit impeccablement ses propres productions comme des simulations lorsqu’on l’interroge avec un peu de précision sur la question : voir l’annexe téléchargeable ci-dessous.

4 – Voir par exemple cet article « L’IA dans l’enseignement supérieur : les leçons de Platon et du mythe de Theuth » par Pascal Lardellier et Emmanuel Carré https://theconversation.com/lia-dans-lenseignement-superieur-les-lecons-de-platon-et-du-mythe-de-theuth-244894

5 – Platon, Phèdre, 274b et suiv.

6 – Au sujet de l’écriture alphabétique en ce qui la distingue de tous les autres systèmes d’écriture, je me permets de renvoyer à mon article « L’alphabet, machine libératrice » https://www.mezetulle.fr/lalphabet-machine-liberatrice/ .

7 – Voir référence  note précédente.

Annexe

Mon échange avec ChatGPT du 23 février 2025. Lien de téléchargement

1 thoughts on “L’intelligence artificielle : l’édification d’un monde de substitution post-humain

  1. JIDEUX

    Merci pour ce billet Mme Kintzler.
    Et merci de nous faire part de votre conversation avec l’IA.
    Sa lecture est assez effrayante. De mon point de vue, l’IA conversationnelle confirme ce que l’on peut ressentir avec Wikipédia parfois : ce n’est pas la pertinence d’une idée qui fait foi c’est sa persistance et le nombre de ses occurrences…
    Finalement, l’IA est la descendante (non darwinienne) de Protagoras.

    Répondre

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.