Archives par étiquette : science

L’intelligence artificielle : l’édification d’un monde de substitution post-humain

Compte rendu d’un livre de François Rastier

Dans L’I.A. m’a tué. Comprendre un monde post-humain (Paris, Éditions Intervalles, 2024), François Rastier analyse le fonctionnement des intelligences artificielles génératives (IA) du type ChatGPT. Contrairement aux comparaisons rassurantes (notamment avec l’écriture et l’imprimerie) qui tentent de sauver la place surplombante d’un utilisateur-sujet face à une technologie qu’il s’agirait simplement d’apprendre et de contrôler, il montre que la génération automatique de textes et d’images conduit à édifier un monde de substitution post-humain exerçant une emprise sur ledit sujet. Simulant la symbolisation alors qu’il n’est fait que de codes de signaux, ce monde ignore les notions de vérité, de réalité, d’authenticité, et le statut de sujet en tant qu’agent critique réflexif, y est constitutivement impensable.

Une immense accumulation de data, d’erreurs et de fakes

Le livre commence par une anecdote significative, remontant au lancement en France de ChatGPT en 2022 ; l’I.A. a déclaré François Rastier mort en 2021. À l’époque, loin de reconnaître son erreur lorsqu’on lui demande des justifications, la machine s’obstine à citer des nécrologies du Monde et du CNRS dont l’une aurait été publiée en 2020… et finit par reculer la date du décès en 2019. Tout cela avec l’exquise courtoisie et la faussement humble autorité qu’on lui connaît, citant de multiples et imaginaires sources en ligne, et ne cessant par la suite de modifier la date.

Bien entendu, aujourd’hui, ChatGPT « sait » que François Rastier est vivant. Et bien sûr ChatGPT ne se démonte pas lorsqu’on fait état de cet épisode. Je l’ai interrogé à ce sujet et on trouvera en annexe téléchargeable ci-dessous de larges extraits de notre échange (23 février 2025), lequel confirme les analyses que François Rastier développe dans son livre.

On ne peut pas avancer, comme on l’entend parfois, que l’IA s’améliorerait du fait de l’énorme quantité des données disponibles et de la masse d’utilisateurs susceptibles de corriger erreurs et absurdités, masse sans cesse croissante qui permettrait d’affiner les résultats selon, par exemple, le modèle dont se réclament certaines encyclopédies en ligne ouvertes à l’intervention publique. En effet, l’IA générative puise dans une gigantesque quantité données accessibles en ligne mais, loin d’éliminer les fakes et les erreurs par l’épreuve d’un réel extérieur permettant de les récuser,

« ces prétendus corpus n’offrent aucune garantie scientifique : moissonnés par des logiciels comme Common Crawl, ils mêlent des textes divers, des encyclopédies comme Wikipédia, des livres et articles en ligne, sous droits ou non, des pages web, des posts de réseaux sociaux, des textes générés par diverses IA, des masses de mots clés cachés qui servent à attirer les moteurs de recherche. » (p. 34-35)

Mieux, ou plutôt pire :

« plus les données sont étendues, plus le nombre des corrélations oiseuses s’accroît. […] si bien que l’information disponible se traduit paradoxalement par une raréfaction de l’information pertinente. En d’autres termes, passée une certaine taille de la masse de données, les corrélations oiseuses deviennent majoritaires. » (p. 38)

Au lieu de contribuer à l’authenticité et à la vérité, le gigantisme est un puissant accélérateur de « post vérité ». En outre, les propos élaborés par IA ont pour source un pseudo-énonciateur indiscernable, ou plutôt une absence d’énonciateur, d’où leur irresponsabilité : si je suis déclaré mort par une IA, contre qui pourrai-je porter plainte ? Du reste, ma position de sujet-agent se dissout : ne suis-je pas réductible à un profil ?

Quelques préjugés au sujet de l’IA

Le livre démonte, ou aide à démonter, plusieurs préjugés qui circulent couramment au sujet de l’IA .

Un modèle auto-correcteur ?

L’IA observerait un modèle auto-correcteur qui peut faire penser à celui, aveugle et énoncé a posteriori par la recherche biologique, de l’évolution vivante, produisant et transmettant continuellement un texte sans auteur (le code génétique) qu’un correcteur inconscient aurait affiné durant des millions d’années1. Or ce parallèle n’est aucunement valide2. Car l’évolution du vivant ne retient que les succès, sanctionnés à l’aune de la capacité de reproduction des espèces, le mécanisme de sélection éliminant et « oubliant » toutes les « erreurs ». Au contraire, l’IA retient tout et ne rencontre par son propre fonctionnement aucune sanction extérieure – puisqu’elle ne connaît pas d’extérieur -, c’est dire que le rapport à la vérité en est par définition exclu. La notion même de « succès » n’y est présente que de manière prescriptive, par les « prompts » qu’on lui adresse et non par une épreuve qui apprécierait ses résultats. Or on peut « réussir » à répondre, et même brillamment, à une injonction en avançant des âneries :

« par exemple, dressé à l’inclusivité, le générateur d’images de Google, Gemini, affichera volontiers des papesses, des Pères fondateurs féminins, et même des SS afros bien assortis à leurs uniformes » (p. 39).

« En l’absence de tout humour, de toute ironie, de tout second degré, [le discours des IA génératives] peut combiner le pédantisme et le délire sans autre limite que de complaire au client roi. » (p. 139).

Une machine-outil contrôlable par un agent-sujet ?

L’IA serait, au bout du compte, contrôlable par son utilisateur, sujet conscient occupant une position surplombante et pouvant toujours se tenir en retrait en face de productions (en particulier de « textes ») générées par des automatismes . « Écrits pour quiconque et par personne, les textes artificiels devraient donc tomber des mains de tout le monde, mais la foi crédule en l’IA est telle qu’il n’en est rien. » (p. 44)

Or ces « textes » sont l’objet d’une double méprise anthropomorphique.

Alors qu’ils ne sont que des chaînes de caractères, « ils sont lisibles et se présentent sous des dehors ordinaires […] nous pouvons projeter sur eux nos routines et les lire comme s’ils étaient des textes interprétables. » Il s’agit de « simulations de discours sans énonciateur réel »3, de sorte que « un système IA revêt alors l’apparence d’un interlocuteur capable d’empathie apparente et d’emprise réelle. » (p.45)

Ce leurre atteint l’utilisateur lui-même (c’est la deuxième méprise), qui se trouve inclus dans le champ de l’emprise et dépossédé subrepticement de son statut de sujet : la perte d’identité se traduit par sa réduction à un profil customisable par ce qui est dit de lui – toute personne étant schématisée (et bientôt définie?) par ses traces numériques.

Ainsi la déshumanisation accompagne l’humanisation des logiciels (p. 68).

« Plus banalement, un effet-miroir se diffuse dans l’ensemble de la société : des CV rédigés par IA sont choisis par l’IA qui assiste les directeurs de ressources humaines. […] Quand les IA parlent aux IA, pourquoi toutefois se soucier de ce qu’elles disent ? » (p. 70) D’autant plus que, programmées en fonction d’un politiquement correct, elles deviennent des machines idéologiques.

L’IA n’invente rien ?

L’IA n’inventerait rien. C’est faux ! Il ne faut pas confondre créer et inventer. L’IA innove considérablement en établissant des relations (le terme « intelligence », pourvu qu’on le prenne au sens strict, n’est nullement usurpé). Elle combine des fragments glanés sur le web d’une manière hautement acceptable par un locuteur dans une langue donnée (et souvent avec un bien meilleur niveau de langue que celui pratiqué par ledit locuteur), mais cette cohérence séjourne dans une bulle gigantesque qui fonctionne, par définition, sans aucun rapport à une extériorité (le réel, les tests de falsifiabilité, l’authenticité). De sorte qu’« elle crée des combinaisons qu’elle aligne sur un mode affirmatif comparable au discours délirant » (p. 116).

On a donc affaire, à strictement parler, à un délire artificiel ; la différence avec le délire clinique est qu’il n’y a aucun dédoublement du sujet puisqu’il n’y a pas de sujet : « les textes issus de l’IA générative relèvent donc d’une idéologie pure » (p. 117)

Ainsi s’édifie un monde de substitution.

Pas plus alarmant que l’écriture ou l’imprimerie ?

Du fait qu’il s’agit d’un mode de production automatique de chaînes de caractères, les inquiétudes que l’IA soulève sont du même ordre que celles qui accompagnent la mise en œuvre de l’écriture alphabétique, elles seraient donc la reprise d’une crainte technophobe archaïque. Et de rappeler, à l’appui4, la critique que Platon propose de l’écriture dans le mythe de Teuth5 .

En effet, l’écriture alphabétique est formée de mécanismes où seule la matérialité est articulée6. Sauf qu’il faut y regarder d’un peu plus près avant d’esquisser un parallèle avec l’IA. L’écriture alphabétique n’est pas une machine à produire des textes, mais un moyen purement mécanique de transcrire par des phonogrammes des textes produits en dehors d’elle, textes eux-mêmes interprétables issus d’énonciateurs réels et identifiables. L’alphabet ne produit aucun texte, son usage n’entraîne aucune désymbolisation (bien au contraire : se contentant de noter les sons de la chaîne parlée en les analysant, l’usage de l’alphabet renvoie aux symboles) alors que l’IA simule cette production, rabattant tout système de symboles sur des séries de codes de signaux. Alors que l’alphabet est une machine libératrice qui promeut et autonomise le lecteur en tant que sujet7, l’IA est une machine substitutive qui leurre le sujet en simulant ses productions.

Les analyses de François Rastier conduisent à décrire et à caractériser l’édification d’un monde de substitution formé de faits alternatifs qui disqualifie le réel et qui n’a pas d’extérieur : la notion même d’absence, de manque, lui est par définition étrangère. Ce monde sans extérieur, sans temporalité, sans responsabilité, sans espace de recul, sans différenciation entre réel et fictif, est aussi celui du discours transhumaniste. L’augmentation de l’homme n’y est pas celle que fournissent les prothèses (et encore moins celle des orthèses) qu’il faut apprendre à utiliser et/ou à tolérer et qui n’abolissent pas l’écart, l’espace de retrait propre au sujet. C’est celle, sans recul réflexif, d’une désymbolisation où tout n’est plus qu’une immense archive dans laquelle « les données prennent la place des faits », et dont la position critique du sujet est constitutivement évacuée.

François Rastier, L’I.A. m’a tué. Comprendre un monde post-humain, Paris, Éditions Intervalles, 2024.

Notes

1 – On se reportera à l’admirable livre de François Jacob La Logique du vivant, une histoire de l’hérédité, Paris, Gallimard, 1970.

2 – J’ai posé la question à ChatGPT (voir l’annexe ci-dessous) : l’IA confirme !

3 – Là encore, ChatGPT décrit impeccablement ses propres productions comme des simulations lorsqu’on l’interroge avec un peu de précision sur la question : voir l’annexe téléchargeable ci-dessous.

4 – Voir par exemple cet article « L’IA dans l’enseignement supérieur : les leçons de Platon et du mythe de Theuth » par Pascal Lardellier et Emmanuel Carré https://theconversation.com/lia-dans-lenseignement-superieur-les-lecons-de-platon-et-du-mythe-de-theuth-244894

5 – Platon, Phèdre, 274b et suiv.

6 – Au sujet de l’écriture alphabétique en ce qui la distingue de tous les autres systèmes d’écriture, je me permets de renvoyer à mon article « L’alphabet, machine libératrice » https://www.mezetulle.fr/lalphabet-machine-liberatrice/ .

7 – Voir référence  note précédente.

Annexe

Mon échange avec ChatGPT du 23 février 2025. Lien de téléchargement

L’hypothèse « toutes choses égales par ailleurs »

Thierry Foucart prolonge et approfondit une réflexion déjà engagée dans les colonnes de Mezetulle1 sur l’usage peu rigoureux des probabilités et de la statistique dans le domaine des sciences sociales. Il examine ici, en l’illustrant avec quelques études de cas, l’hypothèse bien connue « toutes choses égales par ailleurs », souvent utilisée pour détecter l’existence de discriminations.

De nombreux travaux en sciences sociales souffrent d’un déficit de scientificité dans l’application des mathématiques appliquées. On ne compte pas les enquêtes qui font « comme si » les données étaient tirées au hasard en effectuant un calcul de probabilité, « comme si » l’échantillon était représentatif en étendant ses propriétés à l’ensemble de la population, « comme si » les résultats étaient indiscutables, etc. L’hypothèse « toutes choses égales par ailleurs » est un des exemples les plus fréquents de ce genre d’abus : on fait « comme si » elle était vraie, parce qu’elle facilite considérablement la détection de la « cause » d’une discrimination. Mais elle limite cette cause au facteur qui crée l’inégalité.

Hypothèse « toutes choses égales par ailleurs »

Imaginons à titre d’exemple une étude sociologique dont l’objectif est de décrire les relations existant entre le sexe, la catégorie socioprofessionnelle, l’âge, le revenu, le secteur d’activité et l’opinion politique des électeurs en France. Pour étudier l’influence d’un de ces facteurs sur un autre, par exemple de la catégorie socioprofessionnelle sur l’opinion politique, ou du sexe sur le revenu, l’hypothèse « toutes choses égales par ailleurs » (notée TCEA dans la suite) consiste à isoler la relation entre les deux facteurs considérés en excluant l’influence de tous les autres. L’objectif est de mettre en évidence ce que l’on appelle l’ »effet propre » d’un facteur sur l’autre, ici de la CSP sur l’opinion politique ou du sexe sur le revenu.

Pour connaître l’effet propre de la catégorie socioprofessionnelle (CSP) sur l’opinion politique, qui dépend peut-être aussi de l’âge, il faut annuler l’effet de ce dernier pour observer uniquement celui de la CSP. Il faudrait théoriquement procéder de la même façon pour tous les facteurs intervenant dans l’opinion politique, non seulement les facteurs cités précédemment (sexe, revenu, âge, secteur d’activité), mais aussi le niveau de diplôme, la catégorie socioprofessionnelle des parents, l’ancienneté dans l’entreprise, la mobilité, le lieu d’habitation, la situation familiale, etc., en fait tous les facteurs susceptibles d’avoir un effet sur l’opinion politique. La liste des facteurs à inclure dans l’hypothèse TCEA ne peut être établie que par le chercheur et dépend inévitablement de son choix, de son appréciation a priori de l’effet que chaque facteur exerce sur l’opinion politique.

La rationalité de cette liste doit toujours être vérifiée. Elle peut comporter une aporie. Par exemple, dans la comparaison des revenus suivant le sexe, l’hypothèse TCEA ne peut inclure l’égalité des revenus des conjoints, bien que le revenu de l’un exerce évidemment un effet sur celui de l’autre. Supposer leur égalité pour montrer que les revenus des hommes sont supérieurs à ceux des femmes TCEA est contradictoire puisque leurs conjoints sont de sexes différents. D’autres apories, qui n’apparaissent pas toujours aussi clairement, peuvent exister.

Démarche initiale théorique

Respecter l’hypothèse TCEA conduit à des difficultés insurmontables et impose des approximations.

La première difficulté résulte de la nécessité de coder l’information indispensable au traitement statistique. Cette codification a pour objectif de définir des catégories dont les membres possèdent à peu près les mêmes caractéristiques, et de constituer ainsi des groupes homogènes. Une codification de plus en plus fine limite les variations à l’intérieur de chaque groupe, en rassemblant des individus de plus en plus ressemblants, mais elle aboutit à augmenter le nombre de groupes homogènes considérés et à diminuer l’effectif moyen des groupes. Une information de plus en plus fine est de moins en moins statistiquement stable.

Donnons un exemple : l’âge exerce un effet sur l’opinion politique qui empêche d’isoler celui de la CSP. Pour écarter cette influence, on va considérer les personnes du même âge. Cette condition ne peut être réalisée qu’en considérant des classes d’âge, de vingt à trente ans, de trente à quarante, etc. Dans chacune d’entre elles, l’âge moyen, ou central, est considéré comme l’âge de tous ses membres : c’est l’approximation évoquée ci-dessus. Si les classes sont d’amplitude de cinq ans, c’est plus précis, mais l’effectif dans chaque classe est plus faible et les résultats sont moins stables.

Une autre difficulté est l’impossibilité de suivre rigoureusement la démarche de l’hypothèse TCEA.

Pour que l’on puisse éliminer aussi le sexe de cette relation, il faut trier les individus en fonction à la fois de leur âge (4 classes) et de leur sexe (2 sexes). On obtient en tout huit groupes, chacun étant constitué de personnes de même classe d’âge et de même sexe. L’hypothèse TCEA, limitée au sexe et à l’âge, est à peu près vérifiée dans chaque classe. On peut alors étudier la relation entre l’opinion politique et la CSP dans chaque groupe dans lequel l’hypothèse TCEA réduite au sexe et à l’âge est satisfaite.

Et ainsi de suite pour tous les facteurs retenus dans l’hypothèse TCEA. Considérons 4 classes d’âge, 4 classes de revenus, 4 secteurs d’activité et le sexe : il faut répartir l’échantillon des personnes observées en 128 ( = 4 x 4 x 4 x 2) groupes homogènes, dans chacun desquels on peut supposer que leurs membres ont le même “profil” : même âge, même sexe, même revenu, même secteur d’activité approximativement.

Il faudrait ensuite analyser la liaison entre la CSP et l’opinion politique dans chacun de ces 128 groupes pour détecter dans chaque groupe l’effet propre de la CSP sur l’opinion politique et en déduire, si possible, un effet général.

Le nombre de groupes homogènes augmente très vite avec le nombre de facteurs inclus dans l’hypothèse TCEA. Imaginons que l’on tienne compte, en plus des quatre facteurs précédents, du nombre d’enfants (de 0 à 3 ou plus), du revenu du conjoint (4 classes), du secteur d’activité (4 secteurs) : le nombre de groupes considérés est alors de 128 x 4 x 4 x 4, soit 8 192. Même en tenant compte des groupes vides, il est impossible de disposer d’un échantillon de taille suffisante pour que l’analyse statistique dans chaque groupe homogène ait un sens. On ne pourra mettre en évidence une relation que dans ceux d’entre eux qui ont un effectif suffisant, ce qui réduit le champ de l’analyse.

La modélisation

La statistique propose d’aborder l’analyse d’une façon différente, en représentant par des équations les relations entre les facteurs. Elle fournit alors des résultats apparemment plus faciles à interpréter, sur des données d’un effectif relativement limité, souvent de l’ordre de quelques milliers.

Une méthode classique est la régression linéaire multiple. Elle consiste à construire un modèle donnant la meilleure approximation possible d’un facteur appelé endogène (ou expliqué, ou dépendant) en fonction d’autres facteurs exogènes (ou explicatifs ou indépendants). Un exemple sur des données élémentaires est facile à interpréter :

On suppose que la régression linéaire multiple du poids en fonction de la taille, de l’âge et du sexe donne l’équation suivante :

Poids = 0.30 x Taille + 0.40 x Âge +2.0 x Sexe + 5

Dans cette équation, les coefficients de la taille, de l’âge et du sexe sont appelés coefficients de régression. Les résidus sont les différences entre les valeurs observées et les valeurs prédites : ils indiquent la précision de l’estimation.

Cette formule est évidemment approximative. Elle donne un ordre de grandeur des poids des individus observés (poids prédits dans le tableau ci-dessus) en fonction de leurs caractéristiques et les différences avec leurs poids observés (résidus). Plus précisément, c’est l’estimation du poids moyen des individus dont la taille, l’âge sont connus, que l’on peut calculer pour un homme et pour une femme : à âge et taille égaux, une femme pèse en moyenne 2kg de moins qu’un homme :

On détecte ainsi l’effet propre du sexe sur le poids à taille et âge égaux.

Critique de la modélisation

Ce modèle suppose a priori l’existence d’un effet propre de chaque facteur exogène sur le facteur endogène : lorsque la taille augmente de 10 cm, le poids augmente de 3 kg, et lorsque l’âge augmente de 10 ans, de 4 kg, sous l’hypothèse TCEA. La nature des facteurs justifie ce choix, les facteurs exogènes étant ceux sur lesquels on ne peut intervenir. Cette existence a priori est indissociable de la modélisation, et l’hypothèse mathématique implicite est la linéarité de la relation entre le facteur endogène et chaque facteur exogène, par exemple entre le poids et la taille. De même, les relations entre les facteurs exogènes sont supposées linéaires (le calcul utilise les coefficients de corrélation linéaire pour évaluer les relations entre les facteurs). Ces relations sont évidemment approximatives.

Les calculs étant toujours possibles, la vérification de ces hypothèses est nécessaire pour que le modèle représente de façon acceptable les données. Elle peut être effectuée par des tests statistiques ou, plus simplement, par des représentations graphiques mais est très souvent négligée.

Les valeurs calculées des coefficients de régression ne sont jamais nulles. Pour montrer l’existence d’un effet propre d’un facteur exogène, il faut contrôler que son coefficient de régression est significativement non nul, à l’aide d’un test statistique. Une hypothèse mathématique supplémentaire est alors nécessaire : les résidus doivent être répartis suivant la loi normale.

Ces hypothèses, théoriques, ne peuvent être prouvées avec certitude, mais le modèle linéaire est « robuste », c’est-à-dire que les résultats restent significatifs si elles sont simplement vraisemblables. Un grand nombre d’hypothèses réduit la vraisemblance de l’ensemble, ce qui limite le nombre de facteurs exogènes. On retrouve ici le principe de parcimonie (ou rasoir d’Ockham).

L’application du modèle à la population dont sont issues les données suppose idéalement que ces données soient tirées au hasard, a minima qu’elles constituent un échantillon représentatif de la population. C’est un modèle descriptif, et les prévisions du facteur endogène par des intervalles de confiance sont en général très imprécises.

La modélisation consiste en fait à résoudre les difficultés de la démarche initiale en émettant des hypothèses sur la nature des données. Les informations qu’elle donne ne sont jamais « objectives » : les choix du chercheur conditionnent les résultats qui ne sont que descriptifs.

Études de cas

Les exemples ci-dessous montrent la limite de ce type de démarche.

The Bell curve

Richard J. Herrnstein et Charles Murray (1994), se fondant sur des analyses statistiques nombreuses et relativement complexes comme des régressions linéaires multiples et des analyses factorielles effectuées sur un grand nombre d’observations, interprètent les résultats de leurs enquêtes sur la réussite sociale aux États-Unis comme la preuve scientifique de l’infériorité de certaines races humaines sur d’autres : les Américains d’origine africaine réussissent moins bien socialement que ceux d’origine européenne qui réussissent eux-mêmes moins bien que ceux d’origine asiatique « toutes choses égales par ailleurs ». Les auteurs en déduisent l’existence d’une hiérarchie raciale.

La contestation scientifique de ce travail ne peut être effectuée que par des spécialistes de ces analyses. Stephen J. Gould (1997), en montrant les limites épistémologiques des méthodes utilisées par Murray et Herrnstein, contredit totalement leur raisonnement et les accuse de racisme.

Mais on peut aussi supposer que les enquêtes sont correctes et leurs résultats numériques exacts. La critique consiste alors à raisonner en logique floue (Foucart, 2024). Les deux auteurs de The Bell curve n’ont pas comparé la vraisemblance de leur conclusion (l’existence d’une hiérarchie raciale) à celle de leurs hypothèses statistiques et de l’hypothèse TCEA. Si toutes les hypothèses statistiques sont contrôlées et les tests justifiés, accepter l’hypothèse TCEA revient à accepter l’existence d’une hiérarchie raciale. Refuser cette existence revient donc à refuser cette hypothèse : cela signifierait que des facteurs de la réussite sociale aux États-Unis n’ont pas été pris en compte dans cette hypothèse. C’est beaucoup plus vraisemblable. Lesquels ? Il appartient aux sociologues de les déterminer en examinant précisément l’hypothèse TCEA.

Les sciences de l’éducation

Les sciences de l’éducation foisonnent d’enquêtes fondées sur l’hypothèse TCEA. Un exemple est donné par Thierry Troncin (2005) dans sa thèse en sciences de l’éducation. Il veut mesurer l’effet du redoublement du cours préparatoire à l’école primaire. Pour cela, il considère des binômes d’élèves de CP dont l’un redouble et l’autre non, mais dont les résultats en cours préparatoire sont à peu près les mêmes et les parents de même niveau social.

On compare ensuite les résultats en CE1 des élèves de chaque binôme. Le constat est clair : ceux qui n’ont pas redoublé le CP ont de meilleurs résultats en CE1 que ceux qui l’ont redoublé. Cela peut être interprété de deux façons :

  • La réussite en CE1 de l’élève non redoublant du binôme montre que le redoublant aurait réussi s’il était passé sans redoubler dans la classe supérieure : le redoublement ne sert à rien. Cette interprétation est fondée sur l’acceptation de l’hypothèse TCEA dans chaque binôme.
  • La sélection des élèves qui sont passés dans la classe supérieure a été correctement faite, ce qui montre l’insuffisance de l’hypothèse TCEA : un facteur significatif de la réussite des élèves ne figure pas dans les profils de l’hypothèse TCEA.

L’hypothèse de l’égalité des élèves d’un même binôme est-elle plus vraisemblable qu’une insuffisance dans l’hypothèse « toutes choses égales par ailleurs » ? Il est évident que la réponse est négative. L’hypothèse TCEA est ici très contestable. Par exemple, l’absence du QI dans cette hypothèse revient à considérer qu’il n’intervient pas dans la réussite d’un élève, l’éducation parentale peut être très différente au sein d’une même CSP, les parents peuvent être mariés ou célibataires, etc. La précaution prise par Troncin, qui précise systématiquement les limites de l’hypothèse (« toutes choses égales par ailleurs incluses dans le modèle », « autant que faire se peut »), est complètement justifiée, et réduit considérablement l’intérêt de l’étude quantitative.

Dans beaucoup d’autres enquêtes concernant la réussite scolaire cette hypothèse est simplement formulée et admise sans réserve. Certains auteurs expliquent par exemple que le redoublement ne sert à rien puisqu’il ne permet pas de rattraper le retard du redoublant : c’est un raisonnement curieux, qui suppose l’égalité des capacités a priori des élèves et que les causes des difficultés d’un élève en CP disparaissent après le redoublement. La condamnation du redoublement est souvent sans appel, avec des argumentations parfois inacceptables, consistant à reprocher aux enseignants de faire redoubler plus fréquemment les élèves de milieu modeste que les autres (Martine Laronche, 2004). La seule justification du redoublement est l’intérêt de l’élève perçu par les enseignants et les parents, et la seule justification de son interdiction systématique semble être l’intérêt financier du ministère de l’Éducation nationale.

Détection des discriminations

Les résultats d’une étude (Adida C. Laitin D., Valfort M.-A., 2010) menée suivant la méthode précédente « soulignent donc une réalité dérangeante : dans la République française théoriquement laïque, les citoyens musulmans issus de l’immigration rencontrent, toutes choses égales par ailleurs, des obstacles à l’intégration par l’accès à l’emploi bien plus élevés que leurs homologues chrétiens. »

La laïcité n’a rien à voir avec cette discrimination. L’hypothèse TCEA est ici définie par la similitude complète des CV envoyés en double, l’un sous un nom courant, l’autre sous un nom musulman : même âge, même diplôme, même expérience professionnelle, etc. Cette hypothèse revient à considérer que les CV contiennent tous les critères de recrutement utiles aux employeurs, ce qui est évidemment très contestable : ils sont nécessaires, mais pas suffisants. Elle ne tient pas compte de leur expérience, de leur volonté de limiter le risque dans le choix du candidat, des exigences des salariés, de leur protection sociale.

La démarche des employeurs est en quelque sorte « bayésienne », comme celle des policiers accusés de discrimination dans les contrôles d’identité (François Héran, 2010) : « Par rapport aux passants perçus comme « blancs » et selon les lieux observés, la probabilité d’être contrôlé est de 4 à 11 fois plus forte si l’on est perçu comme « noir », de 3 à 13 fois plus si l’on est perçu comme “arabe” […] . Interrogé sur la chaîne France 2, un porte-parole de la Police nationale [… ] a fait valoir que les objectifs de la police étaient d’aller au plus court : il n’y avait pas de sens à contrôler à l’identique les deux sexes, dans toutes les tranches d’âge et tous les milieux, sachant que les risques d’infraction étaient inégalement répartis. C’est un raisonnement typiquement bayésien (le choix du probable doit être guidé par les probabilités passées) ». Les chefs d’entreprise sont confrontés à la même difficulté.

Conséquence : description et prescription

Considérer comme « vraie » l’hypothèse TCEA limite l’explication d’une inégalité au critère considéré pour l’observer. La conséquence est l’interprétation systématique de toute inégalité comme une injustice sociale dont la cause ne peut être que la différence entre les individus des deux membres de l’inégalité : les hommes ont un revenu supérieur à celui des femmes parce que ce sont des hommes. Une autre cause contredirait l’hypothèse TCEA et invaliderait l’analyse.

L’objectif d’égalité réelle ayant remplacé l’égalité en droits dans la Constitution, les conditions d’application du théorème Hume sont vérifiées (Boudon, 2006, p.85) : le résultat descriptif (l’inégalité observée) est complété par un argument normatif (l’objectif d’égalité réelle). Les deux justifient une prescription (impérative) annulant l’inégalité pour rétablir l’égalité : le politique vote des lois pour rétablir l’égalité réelle : lois sur la parité sexuelle, interdisant les discriminations. « Elles s’en prennent aux effets, non aux causes. Or ce sont les causes qu’il faut atteindre, ne serait-ce que pour bien comprendre les effets » (Durkheim, 1928, p. 10). C’est une démarche politique simpliste et scientifiquement infondée.

Références

  • Adida Claire, Laitin David, Valfort Marie-Anne, 2010, « Identifying Barriers to Muslim Integration in France », Proceedings of the National Academy of Sciences, 107(52), 384-390. Url : https://www.pnas.org/content/107/52/22384
  • Boudon Raymond, 2006, Renouveler la démocratie, Odile Jacob, Paris.
  • Dixte Christophe, Loussouarn Christophe, 2024, « « Revenu des médecins libéraux : une légère hausse entre 2017 et 2021, avec de fortes disparités selon la spécialité et l’ancienneté d’installation », Études et Résultats, décembre 2024 • n° 1322, DREES.
  • Durkheim Émile, 1928, Le socialisme, Librairie Félix Alcan, Paris. Url : https://gallica.bnf.fr/ark:/12148/bpt6k1197227d.texteImage#
  • Foucart Thierry, 2024, « Probabilités et statistique appliquées aux sciences sociales et humaines » Url : https://www.mezetulle.fr
  • Gould Stephen J., 1997, La mal-mesure de l’homme, Odile Jacob, Paris.
  • Héran François, 2010, Inégalités et discriminations – Pour un usage critique et responsable de l’outil statistique : rapport du comité pour la mesure de la diversité et l’évaluation des discriminations, COMEDD. Url : https://www.vie-publique.fr/rapport/30934-inegalites-et-discriminations-usage-critique-et-responsable-statistiques
  • Herrnstein Richard J., Murray Charles, 1994, The Bell curve, The Free Press, New York.
  • Laronche Martine., 2004, « Redoublement : les études s’opposent aux pratiques des enseignants », Le Monde, 11 décembre 2004.
  • Tocqueville Alexis, 1835, De la démocratie en Amérique, tome II, Garnier Flammarion Paris, 1981.
  • Troncin Thierry., 2005, « Le Redoublement, radiographie d’une décision à la recherche de sa légitimité », Thèse en Sciences de l’Éducation, sous la direction de Jean-Jacques Paul, Université de Bourgogne.

1 – Voir notamment « Probabilités et statistique appliquées aux sciences sociales et humaines » https://www.mezetulle.fr/probabilites-et-statistique-appliquees-aux-sciences-sociales-et-humaines-par-thierry-foucart/

Intuition et raisonnement

L’analyse des exemples proposée par Thierry Foucart montre en quoi les raisonnements spontanés, les hypothèses implicites, l’acceptation non critique de questions apparemment claires – que l’auteur désigne par le terme général d’intuition –, loin d’être les fruits de démarches sommaires qu’il serait facile de déceler et de dénoncer, s’autorisent bien souvent d’un demi-savoir nimbé du prestige des technologies modernes en matière de calcul et d’information. Se croyant dispensé d’instruction élémentaire et de pensée critique parce que ces technologies fourmillent de solutions qu’elles mettent immédiatement à la portée de la moindre requête, on néglige alors de faire l’effort de s’interroger sur l’intelligibilité même des questions et sur la manière dont les connaissances sont obtenues.

Une politique scolaire qui, au prétexte de l’inutilité pratique des savoirs élémentaires, fait sienne une telle négligence en jetant étourdiment les élèves dans la manipulation technologique, expose ces derniers à abdiquer l’exercice de leur propre raison. On retrouverait alors, à la fois renforcée et camouflée par le progrès même des techniques, la scission que Condorcet dénonçait en 1792 : « Tant qu’il y aura des hommes qui n’obéiront pas à leur raison seule, qui recevront leurs opinions d’une opinion étrangère, en vain toutes les chaînes auront été brisées, en vain ces opinions de commande seraient d’utiles vérités ; le genre humain n’en resterait pas moins partagé en deux classes, celle des hommes qui raisonnent et celle des hommes qui croient, celle des maîtres et celle des esclaves. »1 

“Intelligence” artificielle

  • Un professeur de mathématiques : quelle est la 99e décimale du nombre p ?
  • ChatGPT : 7.

C’est juste. ChatGPT a trouvé un site internet donnant une longue liste de décimales de p.

  • Le professeur de mathématiques : quelle est la probabilité que la 99e décimale du nombre p soit égale à 7 ?
  • ChatGPT : « La probabilité que la 99e décimale de π soit égale à 7 est exactement la même que pour n’importe quelle autre décimale, c’est-à-dire 1 sur 10, ou 10 %. Cela est dû au fait que π est un nombre irrationnel, ce qui signifie que ses décimales sont distribuées de manière apparemment aléatoire et non répétitive. Chacune des dix décimales possibles (0 à 9) a donc une chance égale d’apparaître à n’importe quelle position dans la séquence infinie de π. Fascinant, n’est-ce pas ? Y a-t-il autre chose sur les mathématiques ou un autre domaine qui vous intéresse ? ».

Cette réponse est fausse (la requête date d’environ un an ; elle évolue peu à peu). ChatGPT a en réalité calculé la probabilité qu’une décimale de p tirée au hasard dans la suite des décimales soit égale à 7. Cela n’a rien à voir avec la 99e décimale, qui n’est pas tirée au hasard. Ce qui est inconnu n’est pas nécessairement le fruit du hasard : la 99e décimale, connue ou non, est toujours égale au même chiffre, alors que quand on lance un dé mille fois, le 99e jet ne donne pas toujours la même face. Ce que l’on peut dire, c’est que la probabilité qu’une personne interrogée donne la bonne réponse est égale à 1 / 10, en supposant qu’elle tire un chiffre au hasard entre 0 et 9. Cela n’a rien à voir avec la distribution des décimales de p. C’est la formulation de la question qui provoque l’erreur dans la réponse et la confusion entre hasard d’une part et certain mais inconnu d’autre part.

Cette situation est plus fréquente qu’on ne le pense, parce que la tendance est l’acceptation de la question, et que son analyse rationnelle n’est pas toujours évidente : l’ensemble de tous les ensembles est-il infini ? La réponse immédiate est oui, mais elle est fausse : l’ensemble de tous les ensembles n’existe pas (c’est le théorème de Russell). Sur ce point, ChatGPT ne se trompe pas.

Raisonnement “humain”

Voici un premier exemple de raisonnement qui conduit à des notions statistiques un peu complexes et souvent à des erreurs de raisonnement.

On observe des traces de pas sur une plage : elles montrent que la personne qui a marché sur le sable chausse du 39. La question est la suivante : est-ce un homme ou une femme ?

La réponse immédiate est que c’est une femme : on tient compte sans réfléchir du fait que le nombre d’hommes chaussant du 39 est faible. La question posée ne pose apparemment guère de difficulté, et ce raisonnement peut sembler suffire. Une erreur est évidemment possible même si on peut la considérer comme rare. Mais il n’a que l’apparence de la rigueur, et on ne s’en aperçoit pas immédiatement parce qu’il confirme ce qui paraît être une évidence, et qu’on a naturellement tendance à rechercher la facilité.

En effet, imaginons que les traces de pas montrent une pointure 48 : il y a aussi très peu d’hommes chaussant du 48. En tenant strictement le même raisonnement que précédemment, on en déduit que la personne est une femme, ce qui est évidemment une absurdité. Il est donc insuffisant, et détecter l’erreur amène à réfléchir et à la corriger.

Nous sommes arrivés semble-t-il à un raisonnement correct. Mais ce n’est encore qu’une apparence : il repose implicitement sur l’hypothèse que le nombre de femmes qui marchent sur la plage est égal au nombre d’hommes. Imaginons qu’il n’y ait que très peu de femmes passant sur la plage. Les hommes chaussant du 39 sont alors plus nombreux que les femmes : le raisonnement précédent perd toute valeur et il faut tenir compte du nombre d’hommes et de femmes parmi les personnes passant sur la plage pour répondre au mieux à la question posée.

Mais ce n’est pas fini ! Le pourcentage d’hommes chaussant du 39 que l’on devrait considérer n’est pas celui des hommes en général, mais de ceux qui passent sur la plage. Ce n’est peut-être pas le même, par exemple ils peuvent être plus jeunes que la moyenne pendant les vacances scolaires, et donc plus grands. De même, le pourcentage de femmes chaussant du 39.

Il est donc nécessaire de tenir compte des effectifs d’hommes et de femmes passant sur la plage : les probabilités de tirer un homme et une femme au hasard sont les rapports de ces effectifs aux effectifs totaux : ce sont les “probabilités a priori”. On compare ensuite les “vraisemblances” des deux hypothèses homme ou femme. Quand il y a plus de femmes chaussant du 39 que d’hommes, le choix d’une femme est justifié pour une pointure 39, et quand il y a moins de femmes chaussant du 48 que d’hommes, on peut considérer que c’est un homme si la pointure est 48.

La réponse à une question apparemment simple peut être bien compliquée ! Plus les informations dont on dispose sont nombreuses, plus le résultat est vraisemblable. Mais il n’est jamais sûr.

À chaque étape du raisonnement précédent, on déduit le sexe vraisemblable de la personne qui passe sur la plage en comparant les fréquences des hommes et des femmes sous des hypothèses représentant au mieux le contexte et en choisissant la plus grande. C’est une procédure d’estimation statistique classique dite “du maximum de vraisemblance” qui peut être interprétée de la façon suivante : l’évènement qui s’est produit est celui dont la vraisemblance est la plus grande, dont la probabilité de se produire était la plus grande. Le calcul mathématique ne fait qu’appliquer ce raisonnement. Il s’exprime mathématiquement par la formule de Bayes.

Erreur et calcul

Raymond Boudon (2006, p. 128-131) cite une enquête de Toobie et Cosmides sur la prise en compte de ce que l’on appelle les probabilités a priori dans une population d’experts. Il s’agit de médecins à qui on pose la question suivante : « une maladie a un taux de prévalence de 1 / 1 000. Il existe un test permettant de détecter sa présence. Ce test a un taux de faux positifs de 5 %. Un individu est soumis au test. Le résultat est positif. Vous ne disposez d’aucune autre information sur les symptômes de chaque patient. Quelle est la probabilité qu’il soit effectivement atteint ? » La plupart des médecins répondent 95 %, tandis que la réponse correcte (2 %) est donnée par 18 % des médecins seulement.

Les probabilités a priori sont données par les proportions de malades et de non malades dans la population.

Pour calculer la bonne réponse, il suffit de compter dans une population de 10 000 personnes le nombre de personnes positives et malades (10), positives et non malades (9990 5 % = 499,5). Il y a donc 509,5 personnes détectées positives et la probabilité qu’une personne détectée positive soit effectivement infectée est donc 10 / 509,5 = 1,96 %. On peut évidemment tenir le même raisonnement sur les pourcentages, mais c’est moins clair.

Sur ce dernier exemple, la réponse de ChatGPT est exacte : « La probabilité que l’individu soit effectivement atteint de la maladie, compte tenu d’un résultat positif du test, est donc d’environ 1,96 %. » ChatGPT effectue le calcul en appliquant la formule de Bayes qui reproduit mathématiquement le calcul ci-dessus, et son “raisonnement” est parfaitement rigoureux. Mais il ne mesure pas l’effet du taux de prévalence ni celui du taux de faux négatifs supposé nul dans la question initiale, dans la probabilité que la personne soit infectée. Cette question vient naturellement à l’esprit “humain” qui se préoccupe de la diffusion de la maladie.

Modélisation et hasard

Dans les deux exemples précédents, il y a une hypothèse souvent implicite, celle du hasard.

  • Dans le premier, la suite des hypothèses évoquées concerne les caractéristiques de la population qui passe sur la plage. Chaque hypothèse considérée correspond à une répartition particulière par sexe et suivant la pointure. Le raisonnement consiste à supposer que celle qui a laissé des traces de pas est tirée au hasard dans cette population. L’estimateur du maximum de vraisemblance donne comme réponse le sexe le plus fréquent compte tenu des informations disponibles.

  • Dans le second, la procédure précise consiste à tirer un individu au hasard et à le soumettre au test. Ce n’est pas ce qui se passe dans la réalité : l’individu est testé généralement en cas de présomption d’infection, et le taux de prévalence n’est pas alors celui de la population entière. Le pourcentage donné par les médecins (95 % au lieu de 1,96 %) correspond à un taux de prévalence de 50 % environ au lieu de 5 %. Ce taux n’est pas du tout impossible dans l’ensemble des patients qui viennent consulter. L’hypothèse « Vous ne disposez d’aucune autre information sur les symptômes de chaque patient » est théorique et contraire à la pratique des médecins.

Boudon (2006, p. 97- 99) donne un autre exemple d’erreur : « un expérimentateur propose à des sujets de prédire les résultats d’une partie de pile ou face. Il leur précise qu’il utilisera une pièce biaisée ayant huit chances sur dix de retomber sur face, et deux chances sur dix de retomber sur pile. La plupart des répondants choisissent une mauvaise réponse. Ils prédisent “face” huit fois sur dix et “pile” deux fois sur dix, en s’efforçant de répartir leur réponse au hasard, alors que la bonne stratégie est de prédire face à tous les coups. » Ils reproduisent en fait la loi de probabilité, au lieu de chercher à prévoir le résultat de chaque jet. Leur intuition ne donne pas la meilleure réponse à la question, mais donne une meilleure approximation de cette loi. On peut penser que, si la question avait été posée de façon différente, en accordant une prime à chaque bonne réponse, elles auraient différentes, surtout si les réponses étaient données par des joueurs réguliers. On retrouve ici l’influence de la rédaction de la question et de la personnalité de chacun sur la réponse.

Intuition, raisonnement et compréhension

L’oubli des probabilités a priori est due à la confiance que chacun accorde à son intuition. Se limiter à cette dernière engendre souvent des erreurs, parce qu’elle est fondée sur les sentiments, l’expérience individuelle, l’éducation reçue. Ce n’est pas un raisonnement, mais un sentiment.

Prenons un autre exemple, puisé dans les sciences sociales. La perte d’efficacité de l’ascenseur social (Boone et Goujard, 2019) en France est une opinion largement partagée dans le public et parmi les responsables politiques parce qu’elle correspond à une idée généreuse et conforme à la démocratie : la promotion par le mérite est un objectif républicain. Chacun constate dans son entourage la difficulté de la promotion par le mérite, certaines statistiques semblent la confirmer, et la tendance générale consiste depuis longtemps à croire que l’ascenseur social fonctionne de plus en plus mal en France : « le pourcentage des élèves de quatre des plus prestigieuses de nos écoles et issus de milieux populaires est tombé de 29 % à 9 % entre 1950 et 1990. Le rapport du Sénat qui établit ce constat illustre un curieux renversement de tendance. » (Olivier Postel-Vinay, 2008). Pourtant, l’ascenseur social en France fonctionne à peu près comme avant. L’évolution des pourcentages est due à celle de la répartition de la population dans les catégories sociales. La population des milieux populaires a considérablement baissé en pourcentage depuis 1950, et il est normal que la proportion de cadres supérieurs qui sont issus de ces milieux ait aussi diminué : « En 1962, les exploitants agricoles représentaient 16,5 % de la population active et les ouvriers 39,1 %. Vingt ans plus tard, en 1982, les chiffres ont beaucoup changé : 7,5 % d’exploitants agricoles (plus de 50 % de baisse), 30 % d’ouvriers (25 % environ de baisse) » (Foucart, 2022). Le pourcentage de cadres supérieurs dans la population a dépassé l’an dernier celui des ouvriers. Les probabilités a priori ont complètement changé, mais Postel-Vinay s’est limité aux statistiques établies qui confirment son idée a priori. Cette intuition provoque aussi une erreur supplémentaire et une interprétation insuffisante : l’ascenseur social fonctionne nécessairement dans les deux sens, et il ne dépend pas que du mérite individuel, mais aussi de l’évolution du marché du travail.

On peut alors se demander si cette démarche intuitive est indispensable à la réflexion, au raisonnement. Le premier exemple donne la réponse. Cela commence par une observation : les traces de pas indiquant une pointure 39. Le point suivant est le questionnement : homme ou femme ? De même, une personne est testée positive : malade ou pas malade ? L’intuition donne une première réponse, irréfléchie, et est le début d’une démarche beaucoup plus complète qui suppose l’existence d’une curiosité, d’une volonté de comprendre, de savoir. C’est ce que les psychanalystes appellent l’épistémophilie.

La rigueur de chaque étape du raisonnement doit être contrôlée, ce qui nécessite du travail, de la persévérance, parfois même de l’acharnement, et de la modestie puisqu’il faut accepter non seulement de se tromper mais aussi de ne pas trouver de solution, et de le reconnaître. Cette honnêteté intellectuelle semble disparue dans certains milieux, y compris ceux de la recherche scientifique.

L’avenir

La plupart des gens se fondent surtout sur leur intuition, et ne cherchent guère à approfondir ce qu’ils croient avoir compris lorsque l’explication qu’ils avancent pour la justifier correspond à leur idée a priori. De la même façon que la calculatrice et le correcteur orthographique et grammaticale ont réduit l’intérêt pratique de connaître l’arithmétique, l’orthographe et la grammaire, l’intelligence artificielle, en donnant les solutions de problèmes même complexes, limite la nécessité de comprendre comment elles ont été obtenues. Elle rend la réflexion inutile sur le contexte de l’observation, dispense de la compréhension des méthodes utilisées et limite l’interprétation aux résultats établis par la machine. L’école suit ce mouvement général (Foucart, 2004) au lieu d’imposer une démarche individuelle constructive et critique pour contrôler chaque étape dans l’acquisition des connaissances.

L’abandon de ces apprentissages, dont l’utilité pratique se réduit au fur et à mesure que la puissance des nouvelles technologies augmente, fait craindre l’existence dans le futur d’une scission de plus en plus forte de la population en deux parties, l’une rassemblant les gens qui conserveront le goût du travail, de la recherche, de la critique, et l’autre ceux qui se borneront à la facilité des plaisirs immédiats.

Références bibliographiques

  • Boone L., Goujard A., « France, les inégalités et l’ascenseur social », Futuribles, n°433, 2019, p. 5 à 17.
  • Boudon R., 2006, Renouveler la démocratie, Odile Jacob, Paris.
  • Foucart T., 2004, « Enseignement et nouvelles technologies », Idées, n°137, p.68-74.
  • Foucart T., 2022, « Ascenseur ou mobilité sociale ? », Commentaire n°179, automne 2022, p. 601-610.
  • Postel-Vinay O., 2008, « Un art français : faire dérailler l’ascenseur social dès le lycée », Après-demain, n° 7, Août 2008, p. 24 à 26.

Note

1 – [NdE] Condorcet, Rapport et projet de décret sur l’organisation générale de l’Instruction publique, présenté à l’Assemblée législative les 20 et 21 avril 1792 ; sur le site de l’Assemblée nationale https://www.assemblee-nationale.fr/histoire/7ed.asp . Ajoutons que, contrairement aux idées qui lui sont ordinairement attribuées, Condorcet considère qu’un progrès aveugle sans maîtrise et en l’absence de sa propre intelligibilité conduit à la régression et est un facteur d’asservissement.

Liberté d’expression, croyances et idéologies

En se penchant sur la distinction entre savoir et croyance (distinction naguère classique, mais qu’il importe aujourd’hui de rappeler, d’actualiser et de promouvoir), Thierry Foucart s’interroge sur le foisonnement actuel des idéologies irrationnelles, sur leur diffusion au sein même des milieux scientifiques et sur les conséquences de ce foisonnement en matière de liberté d’expression. Le paradoxe est que c’est au nom de cette liberté qu’une forme de bienpensance réclame le contrôle de l’expression publique et s’acharne à réduire l’analyse critique.

« Là où les opinions irraisonnées tiennent lieu d’idées, la force peut tout. Il est bien injuste de dire par exemple que le fascisme anéantit la pensée libre ; en réalité, c’est l’absence de pensée libre qui rend possible d’imposer par la force des doctrines officielles entièrement dépourvues de signification » (Weil, 1934).

Nous assistons actuellement dans les sociétés occidentales à un retour de l’obscurantisme. Après avoir cru, avec les théories économiques et sociales du XIXe siècle, que le rationalisme donnait à l’homme la capacité de construire intégralement une société juste, certains tombent maintenant dans l’excès inverse en refusant de distinguer entre savoir et croyance et par suite entre science et idéologie.

Science et savoir

Le savoir est l’ensemble des connaissances acquises par l’observation de la nature, de l’homme, de la société et par la logique, l’abstraction, la critique. La capacité d’observation et la rationalité sont communes à toute l’humanité, ce qui rend possibles les échanges culturels et scientifiques entre les sociétés. Le savoir est donc universel et est construit peu à peu par des travaux de recherche et la volonté de comprendre : les théories scientifiques sont déduites des observations, et construites par un raisonnement. Ces travaux sont analysés en détail par la communauté scientifique internationale sur plusieurs plans : contrôles des observations et des expérimentations, critique de la rationalité des raisonnements, références des travaux scientifiques cités, nouveauté des résultats établis etc. En fonction de ces analyses, le travail est déclaré ou non scientifique, et son résultat considéré comme vrai ou non. Par la suite, de nouvelles observations peuvent modifier ou contredire la théorie.

Le savoir est une pyramide inversée : tout nouveau résultat crée de nouvelles interrogations, et plus le scientifique agrandit le champ de son savoir, plus il agrandit le champ de ses investigations, plus il prend conscience de son ignorance et des limites de la raison humaine. Ce n’est pas toujours perçu par les scientifiques concentrés sur leur discipline : à chaque progrès scientifique significatif, certains d’entre eux ont l’impression de détenir une toute-puissance sur la réalité physique, humaine et sociale. C’est ce qui s’est passé aux XIXe et XXe siècles : Comte et Marx, en plaçant la sociologie au même rang que les sciences exactes, ont cru pouvoir créer une société humaine totalement juste, et, actuellement, les nouvelles technologies donnent la même illusion à certains chercheurs et au grand public1.

Croyance et idéologie

La croyance n’est pas argumentée rationnellement : elle est héritée ou choisie, sans rapport avec la vérité scientifique, et peut être considérée comme vraie par les uns, fausse par les autres.

D’une façon générale, c’est en répondant aux angoisses, aux désirs inavoués, en recourant aux bons sentiments qu’une idéologie fondée sur une croyance cherche à convaincre de sa justesse morale ou politique et à se faire reconnaître comme vraie. L’argumentation présentée fréquemment en faveur du créationnisme est caractéristique d’un procédé classique : en posant à quelqu’un la question « l’homme descend-il du singe ? », en lui présentant l’image d’un gorille ou d’un chimpanzé, on le place dans une situation qui peut le déstabiliser, l’angoisser, et lui faire repousser cette idée. La réponse donnée par le créationnisme (l’homme est une création de Dieu) le rassure et peut le convaincre que le choix du créationnisme est le bon. L’empathie est aussi instrumentalisée pour générer un sentiment de culpabilité facile à exploiter. La diffusion sur les réseaux sociaux de photos montrant la détresse de réfugiés, de clandestins, etc., transforme la mansuétude en culpabilité et empêche la réflexion rationnelle nécessaire à l’établissement d’une politique efficace. Ces procédés étouffent l’esprit critique sous les « bons sentiments ».

La diffusion d’une idéologie la renforce : par mimétisme avec l’entourage et sous l’effet de la pression sociale, la croyance devient collective. Ainsi, la foi religieuse protège l’individu contre son angoisse de la mort, et le partage de cette foi crée une communauté qui la rend plus forte. Cette force facilite l’adhésion des générations suivantes et ainsi de suite. Toutes les théories et idéologies diffusées sur internet se développent de cette manière.

Argumenter rationnellement pour lutter contre une croyance individuelle, aussi absurde soit-elle, revient alors à s’opposer à une croyance collective : c’est contredire tous les membres de cette communauté. Si un membre reconnaît le bien-fondé de la contestation, il abandonne sa croyance, mais est exclu de cette communauté, déstabilisé, et peut même se mettre en danger. C’est l‘excommunication. L’intérêt immédiat de l’individu est de conserver cette croyance, et, par suite, la rationalité est plus ou moins impuissante à la contredire.

Recherche de la facilité

La recherche de la facilité, la libération sans limite ni contrôle de l’expression par internet, et l’importance prise par les réseaux sociaux dans la diffusion d’informations non contrôlées ont facilité l’apparition de nombreuses idéologies : sectes religieuses, partis politiques extrémistes, théories complotistes, radicalisation, etc.

L’engagement idéologique s’est répandu parmi les chercheurs et il est de plus en plus difficile de distinguer une théorie respectant des normes scientifiques d’idéologies bien introduites dans les milieux de recherche. C’est au nom de la science qu’un certain féminisme cherche à imposer l’écriture inclusive, que les antispécistes veulent donner des droits aux animaux, que l’on diffuse la théorie critique de la race2, que les végétariens justifient leur régime alimentaire, que des malades psychiatriques exigent la reconnaissance de leur normalité, etc. Il est bien sûr plus facile d’argumenter ce dont on est intimement persuadé et de le diffuser avec le soutien de toute une communauté que d’en accepter la critique parfois sévère.

S’il est difficile de contredire une croyance par la raison, la raison est fragile devant une croyance : elle fait appel à une posture indépendante des sentiments personnels, n’est pas soutenue par une communauté solidaire et n’apporte aucune solution immédiate aux difficultés individuelles. Le danger pour la société est qu’une croyance devienne une passion et domine complètement la raison, faisant place à l’intolérance, la radicalisation et l’aveuglement. Cela est déjà arrivé dans le passé (Savonarole, Calvin) et continue actuellement (le radicalisme islamique).

Aveuglement

On peut penser que c’est ce qui est arrivé en 1917 en Russie : la Révolution d’octobre a été déclenchée par un petit groupe de personnes persuadées de détenir la vérité et imposant leur volonté par n’importe quel moyen. Leur intolérance leur a donné une force irrésistible, justifiée par l’idéologie qui accordait au discours marxiste la même scientificité que celle des sciences exactes. Même les sciences de la nature étaient sous la domination de cette idéologie : juste après la seconde guerre mondiale, la « science prolétarienne » justifiait la théorie génétique de Lyssenko (Gratzer, 2005), et aveuglait les scientifiques communistes français (Jacques Monod, prix Nobel de médecine en 1965, est le seul généticien communiste semble-t-il à avoir quitté le PCF pour cette raison). Des philosophes comme Jean-Paul Sartre et bien des membres du PCF occultaient complètement la réalité soviétique révélée dès 1920 et confirmée tout au long du XXe siècle, malgré la révélation des crimes de Staline par Khrouchtchev lui-même en 1956. Ces passions ne peuvent être arrêtées par la raison, mais seulement par la violence et la force (le nazisme n’a été vaincu que par la guerre), ou disparaissent peu à peu avec le temps (il a fallu soixante-dix ans pour que le régime soviétique tombe).

Éducation

Le foisonnement actuel d’idéologies irrationnelles justifiées par le relativisme cognitif qui leur prête la même valeur qu’aux travaux scientifiques (Boudon, 2006) et le succès qu’elles rencontrent dans les populations et dans certains milieux de la recherche est inquiétant. L’école, en échec en France depuis plusieurs dizaines d’années, n’éduque plus guère à la raison et à l’esprit critique : de nombreuses associations humanitaires et parfois des responsables religieux3 y présentent leurs objectifs et croyances sans aucune critique puisqu’en l’absence de tout débat et de tout enseignant4. Les jeunes accèdent souvent à la « culture » par les réseaux sociaux qui ne diffusent que des croyances ou des mensonges avec les moyens décrits ci-dessus. Dans ces conditions, on ne peut s’étonner de la disparition de l’esprit critique, de la fréquence d’adhésion à une théorie étrange parmi celles qui circulent sur internet. Quelques exemples : « l’homme n’est pas allé sur la lune », « les attentats du 11 septembre 2001 aux États-Unis ont été commis par les Américains eux-mêmes », « Microsoft place des nano processeurs dans les vaccins », « on peut soigner son cancer en suivant les conseils d’un gourou », « il y a une continuité entre les sexes », « la drogue n’a jamais fait de mal », …

Hannah Arendt (1954) donne une conséquence de l’absence d’esprit critique : « puisque le menteur est libre d’accommoder ses faits au bénéfice et au plaisir, ou même aux simples espérances de son public, il y a fort à parier qu’il sera plus convaincant que le diseur de vérité ». C’est contre ces mensonges que l’école devrait mettre en garde, mais cet objectif fondamental est relégué au second plan par celui de « changer les mentalités » pour imprégner les esprits des « bons sentiments » : le partage, l’aide, la compassion, la tolérance, l’antiracisme etc.

Milieux scientifiques

Cette perte de l’esprit critique atteint maintenant les milieux scientifiques, surtout celui des sciences humaines, y favorise la croyance au détriment du savoir, génère la passion et étouffe la raison.

Ces dérives de chercheurs ont une conséquence sur la gouvernance des démocraties. Elles donnent un prétexte à certaines personnalités scientifiques reconnues pour revendiquer un rôle qui n’est pas de leur ressort. Par exemple, la France a connu entre les deux guerres un mouvement de polytechniciens, l’X-crise, réclamant la transformation de la sociologie en une technologie sociale chargée de gérer l’homme et la société, la faisant passer du statut de science sociale à celui de science exacte, et évidemment confiée à des polytechniciens. Selon Henry (2004), qui cite le PDG polytechnicien d’un important cabinet français de conseil, cette volonté persiste actuellement : « La sociologie est une affaire bien trop sérieuse pour être confiée à des sociologues, il faudrait laisser les ingénieurs s’occuper des sciences sociales, ils sont mieux préparés à maîtriser les statistiques que les sociologues ». On ne peut guère s’étonner de cette revendication en lisant la motion votée en assemblée générale de l’Association française de sociologie le 6 juillet 2023, dont on trouvera le texte complet sur son site (https://afs-socio.fr). Elle se termine par cette conclusion catégorique : « L’AFS dénonce les violences policières systémiques, s’indigne contre la “justice” expéditive et la répression judiciaire lourde à laquelle nous assistons depuis plusieurs jours, et s’inquiète de la montée de l’extrême droite. »

Ce discours de sociologues est celui de militants aveuglés par leur idéologie. Ils accusent la police de violences systémiques envers des bandes organisées qui vendent de la drogue au pied des immeubles et dans les établissements scolaires, brûlent des voitures, agressent les pompiers et les médecins, envoient des mortiers sur les commissariats et gendarmeries, impliquent des enfants dans leurs trafics, se tuent réciproquement, etc. Inversement, confier la sociologie et le pouvoir politique à des mathématiciens ou des ingénieurs persuadés de leur savoir serait tout aussi dangereux : on peut rappeler, par exemple, l’eugénisme, promu par F. Galton et K. Pearson, qui a fait de nombreux dégâts jusqu’en 1975, ou la lobotomie longtemps considérée comme un progrès médical au point de valoir à son concepteur le Nobel de médecine5.

Liberté d’expression

En Europe, jusqu’au XVIIIe siècle, l’Église disait le vrai et le faux sans contestation possible. Peu à peu, le savoir s’est détaché de la religion. Laplace a pu répondre à Napoléon qui lui demandait où était Dieu dans ses travaux d’astronomie : « Sire, je n’ai pas eu besoin de cette hypothèse » alors qu’avant la révolution de 1789, Descartes, Diderot, Voltaire, etc., craignaient à juste titre la sanction de l’Église s’ils la critiquaient.

Confier à un organisme administratif le soin de dire ce qui est vrai et ce qui est faux, ou ce qui est bien et ce qui est mal, et l’associer au pouvoir d’interdire, c’est lui donner le monopole du savoir et de la morale, redonner vie à l’Inquisition. C’est au nom de la morale que l’on rejette les électeurs du Rassemblement national des institutions démocratiques. Dans Le Monde du 2 avril 2024, des intellectuels et des élus de gauche proposent de réformer la loi électorale en instaurant un scrutin proportionnel pour sauvegarder l’avenir de notre démocratie, mais aussi dans le but explicite d’empêcher « la progression du RN en un raz-de-marée qui lui permettrait de mettre en œuvre sans entrave son programme irresponsable, pro-Poutine, xénophobe et liberticide ». C’est un détournement de la loi à des fins partisanes, utilisé notamment en 1986 par François Mitterrand pour conserver la majorité à l’Assemblée nationale. Ce n’est pas flatteur pour les signataires de cette tribune qui prétendent défendre la démocratie en ignorant volontairement 30 % des suffrages, mais leur certitude d’avoir raison explique cette proposition.

En contrôlant l’expression par la loi, par l’intermédiaire de commissions, de « Haute Autorité », en laissant des manifestants empêcher la tenue de conférences au lieu d’empêcher leur action, en autorisant les poursuites pénales sans conséquence même en cas d’abus flagrant, les gouvernements démocratiques empêchent toute critique non conforme à une doxa devenue toute-puissante. « Il y a en permanence une orthodoxie, un ensemble d’idées que les bien-pensants sont supposés partager et ne jamais remettre en question » (Orwell, 1945). Pour sortir de cette orthodoxie, il faut pouvoir la contredire.

La seule façon de faire évoluer une société rationnellement, c’est d’étendre la liberté d’expression, de façon que les nouvelles idées puissent être connues, discutées, contestées avant d’être acceptées ou abandonnées. C’est en promouvant la raison et l’esprit critique qu’on limite l’influence d’idéologies pernicieuses. C’est difficile parce que la raison est ennuyeuse et demande du travail, de la réflexion, et que le contrôle de la rationalité dans les milieux de recherche n’est pas valorisé. La tendance actuelle est l’inverse : en stigmatisant certaines opinions et idéologies, en limitant ou même interdisant leur diffusion au lieu de les contester, en contrôlant l’expression publique et parfois même privée, on utilise leur propre démarche, on transforme le débat rationnel en conflit passionnel, on réduit l’esprit critique. « Une mécanique totalitaire est ainsi en place tendant à qualifier de déviant ou d’aliéné le membre du groupe qui s’écarte de la bien-pensance imposée et refuse de suivre le troupeau » (Le Pourhiet, 2001). Cette mise en garde n’a eu aucun effet :

« Renaud Camus, Michel Houellebecq, Oriana Fallaci, Edgar Morin, Olivier Pétré-Grenouilleau, Max Gallo, Elisabeth Lévy, Paul Nahon, Alain Finkielkraut… la liste devient longue et inquiétante des journalistes, écrivains, universitaires et intellectuels poursuivis ou menacés de poursuites pénales par des associations vindicatives et sectaires pratiquant l’intimidation judiciaire soit pour faire taire toute opposition à leur cause, soit tout simplement pour interdire à l’avance le moindre débat sur leur conception particulière de l’amitié entre les peuples » (Le Pourhiet, 2005).

Rien n’a changé depuis. Actuellement, le contrôle de la liberté d’expression la fait disparaître et crée un vide que des idéologies s’empressent de combler.

Ouvrages et articles cités

  • Arendt H., 1954, “Vérité et politique”, in La Crise de la culture, p. 320, Folio essais 1993.
  • Boudon R., 2006, Renouveler la démocratie, Odile Jacob, Paris, p.59-68.
  • Gratzer W., 2005, 3 « L’affaire Lyssenko, une éclipse de la raison », M / S Médecine sciences, vol 21 n°2, p. 203-206. Url : https://id.erudit.org/iderudit/010555ar
  • Henry O., 2004, « De la sociologie comme technologie sociale », Actes de la recherche en sciences sociales, n°153 p. 48-64.
  • Le Pourhiet A.-M., 2001, « De la discrimination positive », Le Débat, mars-avril 2001.
  • Le Pourhiet A.-M., 2005, « L’esprit critique menacé », Le Monde du 2 décembre 2005.
  • Orwell G., 1945, préface de La Ferme des animaux, publiée dans le n° 84 de la revue Commentaire.
  • Weil S., 1934, Réflexions sur les causes de la liberté et de l’oppression sociale, p.142, Folio Essais, Gallimard, Paris.

Notes

1  – J’ai partagé cette illusion au début de mes travaux de recherche en statistiques et en informatique.

2  – [NdE] Voir Thierry Foucart « Wokisme et théorie critique de la race » https://www.mezetulle.fr/wokisme-et-theorie-critique-de-la-race-par-thierry-foucart/

3  – Par exemple Solidarité laïque, qui fait le choix de l’écriture inclusive, et Mouvement d’affirmation des jeunes lesbiennes, gais [sic], bi et trans – MAG JEUNES LGBT qui lutte contre les LGBT phobies et le sexisme.

4 – [NdE] Voir Aline Girard « Des religieux à l’école publique : le symptôme de l’affaiblissement de la République » https://www.mezetulle.fr/des-religieux-a-lecole-publique-le-symptome-de-laffaiblissement-de-la-republique-par-aline-girard/

« Les Désillusions de la démocratie » de Dominique Schnapper, lu par Catherine Kintzler

Analyser les « démons internes » de la démocratie : tel est le propos du livre de Dominique Schnapper Les Désillusions de la démocratie (Gallimard, 2024). Le titre fait évidemment allusion à celui de Raymond Aron Les Désillusions du progrès, allusion que confirment certains des thèmes abordés et l’idée dialectique qui rend compte de leur inévitable et contraire liaison – notamment égalité/inégalités, universalité/différenciation. Mais le livre va au-delà par ses objets très actuels (notamment les « critiques radicales » de la démocratie) et aussi parce qu’il porte à son maximum la thèse d’une « démocratie extrême », véritable retournement de la démocratie contre elle-même et en son propre nom. Ainsi la désillusion désigne à la fois les mouvements de forçage de la démocratie qui la délitent au prétexte de son inachèvement, et le regard analytique capable d’en exposer l’émergence comme celle d’éléments toxiques qu’elle secrète elle-même, les « démons internes » qui procèdent de son illimitation.

Un inachèvement principiel

Dans son principe, la démocratie contient le germe de sa propre déception, son inachèvement est inscrit dans sa visée du fait même qu’elle est une visée, une idée régulatrice. Cet inachèvement se déduit de l’illimitation qui caractérise le désir de liberté et d’égalité. L’idée démocratique inscrit donc au régime de sa propre négativité des tensions inévitables qui la nourrissent, la font travailler, mais qui, faute d’être pensées, la minent – il en va ainsi, notamment, de la tension entre l’idéal de citoyenneté et la perpétuation des identités, entre nation civique et nation historique. La faute de la pensée, et de l’action politique, consiste ici à durcir les termes de la tension qu’il s’agit au contraire de dépasser en les dialectisant.

Ainsi, le rapport à l’altérité ne peut être résolu ni par une position strictement différentialiste qui exalte le droit à la différence et renonce à la constitution d’un peuple politique, ni par une position strictement assimilationniste qui, au prétexte de construire une unité politique, prétend inclure l’autre en détruisant sa culture. Le véritable universalisme n’est ni une collection de particularismes ni une unification uniformisante, mais un horizon, une référence qui sait promouvoir la loi commune afin de préserver les droits des individus et faire place aux singularités. En soulignant que la conscience des inégalités et leur dénonciation suppose l’existence d’une norme commune à tous – ce qui oppose fortement les démocraties modernes aux démocraties antiques – Dominique Schnapper rejoint Francis Wolff pour qui l’universel est la condition des différences.

Cet inachèvement principiel dû à l’écart entre l’idée régulatrice et les sociétés concrètes qui s’en réclament se détaille en manquements et insuffisances, d’autant plus remarquables et remarqués qu’ils apparaissent et sont perçus comme insupportables alors que les acquis démocratiques progressent. On assiste alors à un instructif et minutieux tour d’horizon des déficiences, en forme de constat – des USA où persistent et insistent les groupes ethniques, à la France où l’effritement du salariat et la chute de la croissance signent le retour des inégalités.

Le constat s’achève par une analyse des aspects institutionnels, avec l’ébranlement de la république représentative fragilisée par la remise en cause de la délégation, la perte de confiance dans les institutions, la remise en cause des résultats électoraux et la crise de l’autorité. Sont cités en exemple les USA de 2020 et en France le second mandat d’Emmanuel Macron – il aurait peut-être été pertinent de rappeler le calamiteux référendum de 2005 où la défiance envers les résultats électoraux a véritablement été organisée par ceux mêmes qui auraient dû les respecter…

Les critiques radicales

Un tournant dans l’analyse apparaît avec la partie la plus actuelle du livre, consacrée aux remises en cause qui ne se contentent pas de pointer des défaillances, des manquements ou même des trahisons, mais qui au nom même de la démocratie récusent son existence et son principe. Il ne s’agit plus alors de failles, de déficits qui émaillent un parcours non discuté, mais bien de retournements par lesquels des démons internes viennent pervertir le moment démocratique.

L’auteur s’engage alors dans un examen des critiques radicales que l’on rencontre aujourd’hui – relativisme culturel, intersectionnalité, théorie critique de la race, décolonialisme -, et en élabore la critique appuyée sur des éléments précis. En réalité, ces concepts et ces études (effets du genre, domination européenne, études postcoloniales) prolongent bien des travaux menés depuis longtemps par la sociologie universaliste. Leur nouveauté n’est pas dans les questions qu’ils soulèvent mais dans l’orientation univoque du contenu des travaux, consistant à réinterpréter l’histoire mondiale à la lumière de la seule variable qui importe à leurs yeux : l’opposition dominants/dominés.

Le relativisme culturel, sous sa forme absolue, fait de la démocratie et de l’universalisme des particularismes européens. En refusant la primauté de la raison, il s’écarte lui-même de tout socle épistémologique partageable et s’inscrit dans une démarche militante. L’intersectionnalité, en plaçant son propre projet d’unification sous le régime de la seule opposition dominants/dominés, se retourne en morcellements identitaires concurrents. Considérer toute distinction comme une discrimination revient paradoxalement à exalter les affiliations et les assignations : on invoque les valeurs républicaines et on développe des concepts identitaires en réduisant tout discours critique à l’identité de celui qui l’énonce. Un effort de connaissance est disqualifié par la race de ceux qui s’y consacrent : on ne peut imaginer plus parfait exercice de la « racisation ». Le projet de « décoloniser le savoir », en réduisant le propos à l’identité de celui qui l’élabore, en le rangeant nécessairement sous bannière militante, se révèle comme une entreprise elle-même militante.

« Rejeter radicalement l’acquis d’une histoire intellectuelle au nom des caractéristiques de ceux qui l’ont construite par leur travail, juger les personnes et les événements du passé en fonction des valeurs du présent sont des procédés qui risquent de renvoyer à une forme de barbarie, les régimes totalitaires du XXe siècle l’ont démontré. La volonté d’effacer les traces du passé et d’exclure les héritages intellectuels plutôt que de les critiquer et de les réfléchir a toujours fait partie de l’arsenal idéologique du totalitarisme. Trop d’ambition démocratique peut devenir contraire à l’universalisme de la raison et à l’esprit de la démocratie. » (pp. 232-233)

À l’issue de cet examen critique fortement argumenté, la question se pose de savoir si une entreprise qui appelle à l’humiliation et à la pénitence d’un « privilège blanc » ne serait pas une forme de religion séculière (selon la thèse de John Mc Whorter). C’est probablement le cas aux USA, à ceci près qu’aucun projet salvateur n’est proposé. Dominique Schnapper préfère s’en tenir à une analyse plus immanente et rattacher ce radicalisme à l’essence de la dérive extrême de la démocratie, cette « démocratie non réglée » qui dégénère en revendication de toute-puissance et appelle à la destruction des singularités – ce que, note l’auteur, Montesquieu et Tocqueville avaient vu, mais, ajouterons-nous, ce que Platon avait décrit au Livre VIII de La République. Or la référence à l’universel comme horizon non seulement propose le seul socle épistémologique partageable, mais encore son histoire concrète atteste ses « effets bien réels » – on pensera notamment aux droits, particulièrement ceux des femmes, et à la réduction des inégalités.

La dynamique démocratique présente constitutivement le risque de dénaturer et même de retourner son propre projet d’émancipation, mais son principe lui enjoint de regarder les yeux grands ouverts ses démons internes et de les combattre : la démocratie est un régime essentiellement critique, un régime qui suppose l’élaboration continuelle de son propre savoir.

« Ce qui distingue la démocratie, ce n’est pas qu’elle échappe à ce qui nous apparaît, à nous démocrates, comme des dévoiements, souvent graves, c’est qu’elle est le seul régime qui, étant donné son principe, en reconnaît l’existence. » (p. 266)

Dominique Schnapper, Les Désillusions de la démocratie, Paris, Gallimard, 2024, 288 p., Bibliographie des (nombreux) ouvrages cités.

Probabilités et statistique appliquées aux sciences sociales et humaines

En réfléchissant à l’usage de méthodes quantitatives par certaines sciences sociales et humaines, Thierry Foucart1 met en place un problème en forme de chiasme : les spécialistes des sciences de la nature connaissent les propriétés des méthodes quantitatives mais ignorent la nature des objets des sciences sociales ; les spécialistes des sciences sociales ignorent les propriétés des méthodes statistiques qu’ils prétendent appliquer aux objets qu’ils connaissent. Souligner cet aveuglement croisé, c’est rappeler que l’usage de la raison n’est pas uniforme puisqu’on ne peut pas recourir indifféremment aux mêmes outils selon la nature des objets qu’on examine, c’est aussi inviter à distinguer la recherche d’un militantisme qui se prévaut trop souvent d’arguments pseudo-quantitatifs.

Sciences exactes et sciences sociales

Les sciences exactes et appliquées diffèrent des sciences sociales par la nature des réalités qu’elles observent (Feldman, 2001). Le langage est précis dans les premières : les “objets” sont des choses inertes dans le monde matériel, que l’on peut définir, manipuler et mesurer assez exactement, alors que, dans les secondes, ce sont des hommes dont le comportement, rationnel ou non, est par nature imprévisible et des concepts psychologiques, économiques et sociaux dont les définitions sont imprécises et variables dans le temps et dans l’espace.

Dès que les observations sont numériques ou numérisées, elles sont analysées par les mêmes méthodes mathématiques et informatiques. Les chimistes, physiciens, ingénieurs, agronomes etc. connaissent ces méthodes et les conditions nécessaires pour qu’elles donnent des informations fiables sur les données numériques analysées, mais ignorent les règles des sciences sociales nécessaires à l’interprétation des faits sociaux observés. Inversement, les sociologues, psychologues, historiens, etc. connaissent les conditions de la scientificité dans les sciences humaines et possèdent les capacités de décentration et d’objectivation et les références indispensables à leurs analyses, mais ignorent les fondements théoriques des méthodes mathématiques qu’ils appliquent dans leurs travaux, n’en connaissent guère les limites et dépassent souvent ces dernières sans s’en rendre compte.

Les probabilités

La théorie axiomatique des probabilités de Kolmogorov (1903-1987) donne un exemple typique de ces difficultés. La définition mathématique de la probabilité dans les programmes des classes préparatoires scientifiques, économiques et commerciales fixés par le ministère de l’Éducation nationale est celle du mathématicien russe Kolmogorov (1903-1987) : « Une probabilité P est une application définie sur une tribu A d’un ensemble Ω et à valeurs dans [ 0 ; 1 ], σ-additive et telle que P(Ω) = 1. »

Cette définition intègre les probabilités dans la théorie des ensembles et, plus précisément, dans la théorie de la mesure. Elle est d’un intérêt mathématique considérable. Par contre, son abstraction écarte toute référence intuitive au hasard. Elle permet, avec la rigueur des mathématiques, de démontrer des propriétés et des théorèmes utilisés dans la pratique, comme les convergences vers une loi de probabilité théorique et le théorème fondamental “central-limit”, mais elle n’est d’aucune utilité aux spécialistes des sciences sociales et humaines.

L’approche historique, “fréquentiste”, est celle des jeux de hasard. Elle est fondée sur l’expérimentation : en lançant un grand nombre de fois un dé à six faces, de façon indépendante, on calcule les proportions dans lesquelles les faces sont observées. Plus le nombre de lancers est élevé, plus chaque proportion se rapproche, de façon plus ou moins régulière, d’une limite. Cette constatation est confirmée par toutes les expériences menées rigoureusement.

On définit la probabilité de chaque face par la limite vers laquelle tendent les pourcentages d’observations de cette face lorsque le nombre de jets tend vers l’infini. Dans le cas d’un dé parfait, les faces ont la même probabilité égale à 1 / 6 au cours d’un tirage.

Présentée ainsi, la probabilité est une mesure quantitative du hasard considéré comme un phénomène naturel, physique, et les résultats qu’elle produit sont alors interprétables dans les sciences de l’homme et de la société. Mais cette démarche ne précise pas les conditions théoriques nécessaires pour que les méthodes théoriques soient applicables dans la réalité.

Des erreurs classiques d’interprétation

Supposons qu’au cours de 1 200 jets d’un dé parfait, on a observé 197 fois la face six (proportion 197 / 1200 = 0,1642). Si le lancer suivant donne un six, la proportion devient 198 / 1201 (=0,1648). Sinon, elle est égale à 197 / 1201 (0,1640). La différence entre ces deux proportions est égale à 1 / 1201 (=0,0008). Plus le nombre de jets est élevé, plus elle est faible puisque l’effectif augmente. On peut donc penser que cette proportion tend vers 1 / 6, mais ce n’est pas mathématiquement suffisant : l’existence d’une limite est une hypothèse nécessaire. Le philosophe David Hume (1711-1776) a perçu cette nécessité : « si nous n’admettons pas qu’il y a certaines causes pour faire retomber le dé, lui conserver sa forme dans sa chute, et le faire reposer sur une de ses faces, nous ne pouvons faire aucun calcul sur les lois du hasard » (Landemore, 2004). La constitution physique du dé doit être la même au cours de l’expérience et la seule cause du résultat du jet. Il y a donc deux conditions fondamentales lorsque l’on considère une suite de lancers du dé : l’indépendance des lancers et la stabilité de la constitution physique du dé.

Contrairement à ce que l’on croit souvent, la convergence des proportions n’implique pas celle des effectifs. Dans l’exemple numérique ci-dessous, la proportion p converge vers 1 / 6, lorsque n tend vers l’infini, mais l’écart entre l’effectif théorique moyen n / 6 et l’effectif observé n p tend vers l’infini puisque le terme √n tend vers l’infini.

Probabilité

Pourcentage

Différence des effectifs

1 / 6

p = 1 / 6 – √n / n

n / 6 – n p = √n

Limite
n

1 / 6

+ ∞

Tableau 1 : convergence des proportions, divergence des effectifs.

La méconnaissance de cette propriété est à l’origine d’erreurs classiques comme “la théorie des séries”. Cette “théorie” est fondée sur un raisonnement erroné qui consiste à dire que, si le six a été tiré plusieurs fois de suite, il a de fortes chances de l’être encore : cela signifie que l’on considère que la probabilité d’obtenir la face six augmente du fait des jets antérieurs, et donc que le dé a été modifié. Une autre “théorie des séries” est l’inverse de la précédente : la face six a moins de chances d’être tirée une fois de plus pour rétablir l’équilibre des effectifs. La première remet en cause l’hypothèse d’un équilibre parfait, la seconde suppose la convergence des effectifs.

Une autre erreur fréquente apparaît lorsque le nombre de jets est important. Un résultat de très faible probabilité devient probable dans une suite de tirages en grand nombre. Par exemple, la probabilité d’une série de six résultats successifs identiques en lançant un dé parfaitement équilibré a pour probabilité (1 / 6)5 (après le premier jet, les cinq suivants donnent le même résultat que le premier), soit 0,000128. La probabilité de ne pas observer cette série en lançant six fois le dé est donc :

p =1 – 0,000128 = 0,999871

La probabilité de ne jamais observer une série de six faces identiques en lançant dix mille fois le dé (ce qui fait 9995 séries de six lancers) est :

p9995 = 0,293

Celle de l’observer au moins une fois est donc égale à 0,707 : la présence d’une telle série dans un échantillon de taille 10 000 est très vraisemblable. Évidemment, plus le nombre de jets est élevé, plus la probabilité d’une présence d’une série de six jets donnant le même résultat est élevée. Détecter un résultat rare dans un grand nombre d’observations, des numéros des boules tirées du loto qui se suivent par exemple, ne remet pas en cause l’indépendance des tirages ni l’équilibre des boules.

D’une façon générale, dès que les données ne sont pas obtenues par des tirages indépendants et équiprobables, ce que l’on appelle en mathématiques « une suite de variables aléatoires indépendantes et de même loi », les probabilités ne peuvent être utilisées pour analyser les séries d’observations.

L’intervalle de confiance

Les sondages électoraux sont bien connus du grand public, Ils donnent des estimations des pourcentages obtenus par les candidats dont la précision dépend des échantillons d’électeurs observés.

Parmi les deux méthodes classiques possibles pour constituer un échantillon, l’une consiste à tirer les électeurs au hasard dans les listes électorales, de façon que chaque électeur ait la même probabilité d’être tiré indépendamment des autres (c’est l’indépendance et l’équiprobabilité), et l’autre à les choisir en respectant des quotas de façon que l’échantillon soit “représentatif” de l’électorat, c’est-à-dire que les proportions suivant un certain nombre de critères soient les mêmes dans la population et dans l’échantillon.

Dans le premier cas, les probabilités montrent que les répartitions d’électeurs dans l’échantillon suivant n’importe quel critère sont à peu près les mêmes que dans la population. L’échantillon est approximativement représentatif de la population. En particulier, les pourcentages de voix entre les candidats sont à peu près les mêmes dans l’échantillon et dans l’ensemble des électeurs.

Dans le second cas, la représentativité est assurée sur les critères choisis, en général le sexe, l’âge, la catégorie socio-professionnelle etc. Le choix de chaque électeur étant lié à ces critères, on en déduit que la répartition des voix entre les candidats est à peu près la même dans l’échantillon que dans la population.

Une des hypothèses du théorème “central limit” démontré dans la théorie des probabilités de Kolmogorov consiste à supposer que les données sont tirées au hasard de façon indépendante et équiprobable.  Ce théorème donne, pour chaque candidat, un intervalle contenant 95 % des valeurs possibles de son pourcentage réel dans l’ensemble des électeurs. La marge d’erreur est la différence entre le centre de l’intervalle et ses extrémités.

Cet intervalle est lui-même aléatoire et la probabilité qu’il contienne la valeur “certaine et inconnue” du pourcentage de voix d’un candidat dans l’ensemble des électeurs est de 95 %.

Cet intervalle n’existe pas si l’échantillon a été constitué par la méthode des quotas puisque l’hypothèse précédente n’est pas vérifiée. Évaluer la part du hasard dans les résultats numériques établis sur des données qui ne sont pas aléatoires est évidemment une erreur. L’argument qui consiste à dire qu’on peut le faire “comme si l’échantillon était aléatoire” est insuffisant, de même que calculer le carré du plus grand côté d’un triangle par la somme des carrés des deux autres (c’est le théorème de Pythagore) en faisant “comme s’il était rectangle” C’est la même erreur de logique. On ne peut appliquer un théorème que si les hypothèses nécessaires à sa conclusion sont vérifiées.

Cette erreur est présente dans tous les sondages préélectoraux utilisant la méthode des quotas. La réglementation impose en effet aux instituts de sondage de publier, avec les estimations des pourcentages de chaque candidat, la méthode utilisée pour constituer l’échantillon, le nombre de personnes interrogées et la marge d’erreur de ces estimations.

Elle ne se limite pas à l’exemple précédent. La comparaison de deux moyennes consiste approximativement à calculer l’intervalle de confiance de leur différence, et à considérer que cette différence est significative si ce dernier ne contient pas la valeur 0. Si les données ne sont pas aléatoires, on ne dispose d’aucune règle permettant de considérer que la différence observée est trop grande pour n’être que le résultat du hasard.

La corrélation entre deux facteurs

Lorsque l’on étudie l’effet d’un facteur sur un autre, par exemple celui de l’âge sur le revenu, on calcule le coefficient de corrélation sur des données observées et on le compare à la valeur 0 qu’il prendrait théoriquement en cas d’indépendance des deux facteurs. Dans ce cas, on peut déterminer une valeur maximale, un “seuil”, acceptable de ce coefficient, en fixant la probabilité, souvent 5 %, qu’elle soit dépassée en cas d’indépendance : si les deux facteurs sont indépendants, il est peu vraisemblable que leur coefficient de corrélation soit supérieur à ce seuil. Dans ce dernier cas, on dit qu’il est “statistiquement significatif”, et on en déduit que la relation n’est pas due seulement au simple hasard : les deux facteurs ne sont pas indépendants. C’est un raisonnement “presque par l’absurde”. Le risque de déclarer qu’ils ne sont pas indépendants alors qu’ils le sont est fixé à 5 %, mais on ne peut pas calculer la probabilité d’admettre qu’ils sont indépendants alors qu’ils ne le sont pas.

Les résultats de ce calcul sont utilisés par certaines revues scientifiques pour sélectionner les articles qu’elles publient. Elles commettent une autre erreur scientifique : « Plusieurs études ont ainsi montré que certaines revues académiques avaient tendance à un certain degré de publication sélective en ne retenant à la publication qu’un certain type d’études, notamment celles qui présentent des résultats statistiquement significatifs. Dès lors, une synthèse de la littérature qui s’appuierait uniquement sur les études publiées pourrait s’avérer biaisée en faveur d’études présentant des effets empiriques plus larges qu’ils ne sont réellement » (Laroche, 2007).

Cette procédure de sélection a deux conséquences importantes :

  • Si les observations sont tirées au hasard, elle peut conduire à rejeter des études très pertinentes qui ne mettent pas de relation en évidence, et à détecter des phénomènes qui ne sont dus qu’au hasard. Daniel Schwartz (1984) explique : « supposons qu’un phénomène [l’effet biochimique d’un médicament ] n’existe pas. Sur 100 expériences, on trouvera en moyenne 5 fois qu’il existe [l’effet placebo]. Si les chercheurs, ou les revues, ne considèrent, ne publient que les résultats positifs, on verra surgir une première publication, puis d’autres – de l’ordre de 4 – apparaissant comme des confirmations, entraînant la crédibilité, ce qui ne se serait pas produit si on avait publié les 100 résultats. » Ces revues présentent des résultats biaisés. C’est le “biais de publication”.
  • Si les observations ne sont pas tirées au hasard, le critère de sélection est statistiquement faux. Par suite, les travaux publiés sont fondés sur des analyses scientifiquement incorrectes, ce qui aggrave le biais de publication.
  • D’autres hypothèses statistiques que le tirage au hasard des données sont nécessaires pour que le raisonnement sur le coefficient de corrélation soit correct. Elles sont très rarement contrôlées dans la pratique.

Deux exemples

Deux études concernant l’apprentissage de la lecture, suivant deux pédagogies différentes (méthode syllabique et méthode mixte) ont été menées récemment par Dehaene (2013) et Goigoux (2013). Pour savoir quelle est la meilleure des deux méthodes pédagogiques, on compare leurs résultats sur deux échantillons d’élèves ayant appris à lire dans le premier échantillon par la méthode syllabique, dans le second par la méthode mixte. On effectue donc un test de comparaison des moyennes qui semble montrer que la meilleure approche est très vraisemblablement la première. Que va-t-on déduire de ces analyses ?

  • Les données n’ayant pas été tirées au hasard, le test n’est pas valide scientifiquement, et ne permet pas de dire que la première est plus efficace que le seconde sur l’ensemble des élèves de cours préparatoire.
  • Ce ne sont ni les mêmes élèves, ni les mêmes enseignants, et on ne peut en comparer les résultats que si l’on suppose que l’aptitude des premiers à apprendre et la compétence pédagogique des seconds sont les mêmes dans les deux échantillons.
  • Gentaz (2022) a critiqué sur d’autres points la méthodologie suivie, en particulier la mise à l’écart de certains résultats considérés, à tort selon lui, comme trop particuliers pour être vraisemblables (Cédelle, 2023).

Cette comparaison est plus celle des deux échantillons que celle des deux méthodes.

Ce genre d’erreur est très fréquent, surtout dans les méta-enquêtes qui consistent à analyser de façon globale une sélection d’articles traitant d’un même sujet. Dans celle que l’Inserm a effectuée pour comparer les efficacités des différentes psychothérapies (Inserm 2004), de nombreuses analyses statistiques sont effectuées pour comparer celle des techniques psychodynamiques (TP) d’une part à celle des techniques cognitivo-comportementalistes (TCC) d’autre part. Aucun des échantillons n’est tiré au hasard : les patients observés sont des étudiants volontaires, des patients parfois rémunérés, … et leurs effectifs sont souvent faibles.

Un autre problème apparaît immédiatement : les articles américains, très souvent d’orientation TCC, sont bien plus nombreux que les articles européens. Il y a ici un double biais de publication, le premier par la sélection opérée par les experts, et le second par l’orientation scientifique des revues qui ont publié les articles.

Certaines études utilisent un protocole “randomisé”. Les patients observés sont répartis au hasard dans trois groupes : le premier regroupe ceux qui suivent une thérapie comportementale (désensibilisation systématique), le second ceux qui suivent une thérapie psychodynamique, et le troisième ceux qui ne bénéficient que d’une pseudo-thérapie n’apportant qu’un soutien relationnel. Le hasard est donc introduit dans les données et on peut utiliser la statistique inférentielle pour comparer les résultats. Cependant, cette analyse ne montre que les résultats des psychothérapies sur les quarante-cinq étudiants observés, ce qui semble bien peu pour la comparaison des résultats. Ces résultats sont d’autant moins généralisables à l’ensemble de la population que l’échantillon n’est pas du tout représentatif, et que, comme dans le cas de l’apprentissage de la lecture, l’efficacité des thérapies dépend de la compétence des psychothérapeutes et des profils des patients.

Le dernier exemple est complètement différent des précédents. Il s’agit de l’ouvrage Visible learning (John Hattie, 2008), qui a rencontré un très grand succès auprès du public anglo-saxon et été très contesté peu après sa publication. C’est « une méta-méta-analyse de 800 méta-analyses portant sur plus de 50 000 études conduites sur 250 millions d’élèves ». Les critiques de nombreux scientifiques, statisticiens ou spécialistes des sciences de l’éducation, sont extrêmement sévères, et citent des calculs théoriques donnant des probabilités dont certaines peuvent être supérieures à 1 et d’autres inférieures à 0 (Bergeron Pierre-Jérôme, 2016). Ces erreurs mathématiques grossières n’ont pas empêché le succès mondial de cet essai, et une présentation très élogieuse du magazine Times Educational Supplement qui l’a présenté comme le « Saint-Graal de l’enseignement » sans mentionner ces erreurs que le journaliste n’avait donc pas vues.

C’est une situation très particulière de la démarche critique : la preuve statistique de l’efficacité de méthodes pédagogiques est complètement erronée, mais cela ne suffit pas pour invalider ces méthodes comme le montre l’avis très positif (semble-t-il) des enseignants. Les erreurs scientifiques n’empêchent pas l’intérêt des explications et interprétations contenues dans ce livre, mais simplement les privent de l’argumentation statistique.

Toutes ces études ne sont pas dépourvues d’intérêt. C’est l’utilisation qui en est faite par l’administration qui risque d’être dangereuse. L’application à chaque élève d’une règle collective établie de façon optimale sur un échantillon peut aboutir à une insatisfaction générale (Foucart, 2002). Imposer la “meilleure” solution collective à tous les enseignants et à tous les psychothérapeutes, c’est les empêcher de choisir la “meilleure” solution pour chacun de leurs élèves et patients. « Le législateur […] ne deviendra jamais capable, alors que ses prescriptions s’adressent à la totalité de ses sujets ensemble, d’attribuer avec exactitude à chacun d’eux individuellement ce qui convient. » (Platon)

La logique floue

La théorie des probabilités est une théorie mathématique qui donne des résultats théoriques “scientifiquement vrais” mais dont l’interprétation obéit à une logique “floue” puisqu’elle analyse des propriétés en fonction de la vraisemblance d’un résultat numérique établie sous certaines hypothèses.

Il y a donc une différence entre la logique des sciences exactes et celle des sciences sociales. La logique est binaire (“booléenne”) dans les sciences premières : une théorie est vraie ou fausse, une valeur numérique exacte ou pas, et floue dans les secondes : une théorie est vraisemblable ou non, une valeur est vraisemblable ou “presque impossible“.

En logique booléenne, l’implication entre deux faits est transitive : si A implique B, si B implique C, alors A implique C. Les implications sont certaines et se retournent : si A implique B, alors non B implique non A. En logique floue, on évalue la vraisemblance de l’implication en lui attribuant subjectivement une valeur comprise entre 0 et 1. Plus elle est proche de 1, plus elle est forte, et plus elle est proche de 0, plus elle est faible. Il n’existe pas de règle fixant une valeur séparant ces deux interprétations.

On ne peut appliquer que très approximativement le raisonnement presque par l’absurde, parce que la vraisemblance du contraire d’une hypothèse n’est pas mesurable.

Les implications sont incertaines et leur transitivité très discutable. C’est un modèle qui n’est pas fondé sur la théorie des probabilités, mais sur l’appréciation de la vraisemblance par le chercheur. C’est la procédure suivie par un juge qui décide de la culpabilité ou de l’innocence d’un accusé. Ce dernier est présumé innocent, de la même façon que deux facteurs sont présumés indépendants. La décision du juge résulte d’un débat et n’apporte aucune certitude sur la culpabilité de l’accusé. Un sociologue qui détecte un coefficient de corrélation significatif est dans une situation analogue à celle du juge. Les résultats statistiques n’apportent qu’une information incertaine sur le sujet analysé, même lorsque les analyses sont effectuées correctement, et ne sont que des éléments du débat. Lorsqu’ils sont fondés sur la théorie des probabilités, ils sont plus crédibles, mais n’évitent pas le doute.

Cette logique floue concerne aussi la transitivité de la corrélation. Croire que si A est fortement corrélé à B et B à C, alors A est corrélé à C est une erreur classique.

Voici un exemple numérique : les coefficients de corrélation entre X, Y et entre Y et Z sont égaux à 0,6. On démontre, par un calcul mathématique, que le coefficient de corrélation entre X et Z est compris entre 1 et -0,280. Ce calcul est indépendant du nombre d’observations, et le coefficient de corrélation entre X et Z peut être significativement négatif, c’est-à-dire que la relation entre X et Z peut être l’inverse de celle que l’on obtient en supposant la transitivité de la corrélation.

Lorsque plus de trois variables sont considérées, X, Y, T, Z par exemple, le calcul est encore plus compliqué, parce que le coefficient de corrélation entre X et Z varie dans un intervalle qui dépend de tous les autres coefficients, y compris du coefficient de corrélation entre Y et T (Foucart, 1991).

Vérité scientifique des sciences sociales

La différence de nature entre sciences exactes et sciences sociales implique une différence dans les concepts de vérité que l’on peut expliquer à partir du critère de scientificité de Popper. Pour ce dernier, une théorie est scientifique si elle est réfutable, c’est-à-dire si l’on peut la contrôler par une expérience réalisée dans les conditions prévues par la théorie. Une vérité scientifique est considérée comme vraie tant qu’aucune expérience ne l’a contredite.

Ce critère dénie cette scientificité à toutes les théories des sciences sociales fondées sur la modélisation et les probabilités qui consiste à simplifier les mécanismes sociaux pour mieux les comprendre : il existera toujours une expérience contredisant les résultats prévus de ces théories. La vérité scientifique dans les sciences sociales n’est pas de même nature que dans les sciences exactes.

La vérité “floue” dans les sciences sociales peut avoir comme conséquence l’existence de plusieurs interprétations d’un même fait économique, social, ou historique, toutes aussi rationnelles les unes que les autres. Il est difficile de comprendre que, partant des mêmes hypothèses et parfois des mêmes données, deux chercheurs en sciences de l’homme et de la société peuvent proposer des explications complètement différentes, éventuellement opposées, sans que l’on puisse les départager. Il y a quelques années, des statisticiens ont “montré” que certaines pièces de Molière étaient en réalité de Corneille comme l’avait affirmé Pierre Louÿs au début du XXe siècle. Des spécialistes de stylométrie ont choisi récemment d’autres critères de comparaison et affirment maintenant le contraire. Les deux démarches sont rationnelles, argumentées, validées par des experts et la seule conclusion possible, dans cette situation, est qu’on ne sait pas en l’état actuel de nos connaissances. Dans la morale de la fable Les médecins, La Fontaine se garde bien de dire qui avait raison, du médecin Tant-pis qui, soignant un malade, avait prévu sa mort, ou du médecin Tant-mieux qui affirmait qu’il l’aurait guéri. Il faut examiner de façon critique les arguments des uns et des autres avant toute décision, tout choix, et ne jamais espérer de certitude dès que le hasard se mêle des résultats.

« L’homme est donc si heureusement fabriqué qu’il n’a aucun principe juste du vrai et plusieurs excellents du faux » (Pascal, 1670).

Références bibliographiques

  • Bergeron, Pierre-Jérôme, 2016. « Comment faire de la pseudoscience avec des données réelles : une critique des arguments statistiques de John Hattie dans Visible Learning par un statisticien. », McGill Journal of Education / Revue des sciences de Mcgill, 51(2), 935–945.
  • Cédelle Luc, 2023, « Les neurosciences à l’école : leur véritable apport », et leurs limites, Le Monde du 5 janvier 2023.
  • Dehaene Stanislas., 2013, « Enseigner est une science », Lemonde.fr, 20 décembre [en ligne].
  • Feldman Jacqueline, 2001, « Pour continuer le débat sur la scientificité des sciences sociales », Revue européenne des sciences sociales, XXXIX-120, p.191-222.
  • Foucart Thierry, 1991, « Transitivité du produit scalaire », Revue de statistique appliquée, tome 39, no 3, p. 57-68.
  • Foucart Thierry, 2002, « L’argumentation statistique dans la politique sociale, Mathématiques et Sciences Humaines, n° 156, p. 33-42.
  • Gentaz Édouard, 2022, Les Neurosciences à l’école : leur véritable apport, Odile Jacob
  • Goigoux Roland., 2013, « Apprentissage de la lecture, opposer méthode syllabique et méthode globale est archaïque », Lemonde.fr, 31 décembre [en ligne].
  • Hattie John, 2009, Visible learning, Routledge 2 Park Square, Milton Park, Abingdon, Oxon OX14 4RN.
  • Inserm, 2004, Psychothérapies–Trois approches évaluées, https://presse.inserm.fr/wp-content/uploads/2017/01/2004_02_26_CP_ExpCol_Psychoterapies.pdf
  • Landemore Hélène, 2004, Hume, probabilité et choix raisonnable, PUF, Paris, p. 23-24.
  • Laroche Patrice., 2007, « L’exploration statistique du biais de publication », Journal de la Société Française de Statistique, tome 148, n◦4, p. 29-55.
  • Pascal Blaise, 1670, Pensées, Misère de l’homme, folio 379, La Pléiade, p. 1113.
  • Platon, Le Politique, La Pléiade, t. II, p. 401.
  • Schwartz Daniel, 1984, « Statistique et vérité », Journal de la société statistique de Paris, tome 125, no 2, p. 82.

1 – Thierry Foucart est agrégé de mathématiques et habilité à diriger des recherches. Il se consacre depuis sa retraite de l’Université à l’épistémologie dans les sciences humaines et sociales. 

Enseignement supérieur : une étrange motion du CNU 17

Le Conseil national des universités est l’instance nationale qui se prononce sur le recrutement et la carrière des professeurs et des maîtres de conférences des universités. Il est composé de plusieurs groupes, eux-mêmes divisés en sections selon les diverses disciplines1. La section 17 (philosophie) aurait récemment voté la motion dont je fais état ci-dessous, sous réserve d’authentification. En effet ce texte n’est pas disponible sur le site du CNU (« en cours de mise à jour ») : il circule actuellement parmi les enseignants de philosophie du supérieur et n’a, à ma connaissance, pas été démenti, ni dans son contenu, ni dans sa forme qui recourt à l’écriture dite « inclusive »2. J’en propose ensuite un bref commentaire.

Texte de la motion

« Face à la multiplication de signalements qui révèlent un système ancien de violences sexistes et sexuelles et plus largement d’inégalités, la section 17 adopte la motion suivante :

  • « La section 17 du CNU rappelle son engagement en faveur de l’égalité professionnelle et de l’égalité de traitement, notamment l’égalité de genre. La section 17 du CNU est ainsi composée de manière paritaire.

  • « La section 17 du CNU s’engage également à œuvrer à une meilleure prise en considération des effets des violences sexistes et sexuelles sur les parcours et les contextes d’exercice professionnel (abandon, changement de direction, ralentissements, arrêts, etc.).

  • « La section 17 du CNU demande une procédure qui informe les membres de la section des sanctions disciplinaires prononcées les 5 dernières années pour les candidat·e·s à la promotion, au CRCT, à l’avancement de grade et aux primes.

  • « Au moment de l’examen de l’évolution de la carrière, la section 17 du CNU s’engage à prendre en considération les responsabilités liées à l’instruction et aux suivis des violences sexistes et sexuelles, nous invitons les candidat·e·s aux promotions, congés et primes à l’indiquer expressément dans leur dossier.

  • « La section 17 du CNU encourage à ce que les formations « éthique et intégrité scientifique » dispensées aux doctorant·e·s intègrent un volet sur les violences sexistes et sexuelles et encouragent des pratiques professionnelles déontologiques, notamment concernant les relations entre enseignant·e·s et étudiant·e·s.

  • « L’engagement de la section 17 du CNU passe par la reconnaissance des travaux et des collègues qui œuvrent à penser ces questions ; la section les encourage donc, que ce soit au travers de recherches que d’enseignements au sein des établissements d’exercice. »

Mon commentaire.

J’ai surligné plus particulièrement les passages qui m’inquiètent en rapport au contenu « académique » des dossiers et surtout à la manière dont la section 17 entend qu’il soit traité. Je crains que cette motion, en avançant des critères relevant d’activités qui ne sont pas expressément présentées en termes correspondant professionnellement aux emplois visés (recherche, enseignement, responsabilités institutionnelles en rapport avec l’intitulé de la section), ne cautionne la prise en compte d’activités associatives, militantes et ne dérive vers des appréciations idéologiques.

Est-ce bien nouveau ? On peut rappeler que l’université a connu jadis et naguère des pratiques dans certains de ses recrutements favorisant des « orientations » à caractère idéologique et politique. Tout le monde le sait. Mais, à ma connaissance (je peux me tromper), ces critères favorisants/excluants ne faisaient pas l’objet de recommandations ou de directives explicites diffusées par les institutions officielles prenant une part décisive au recrutement et aux carrières. Si cette motion est avérée, comme je le crains, ce n’est plus le cas à présent : une politique appréciant des éléments sans relation nécessaire avec les travaux présentés par les candidats est ouvertement retenue et vivement « conseillée », à tel point qu’on peut se demander si les dossiers qui n’en font pas état ne partent pas avec un handicap sérieux, pour ne pas dire plus.

On m’objectera que cette politique en faveur de « l’égalité de genre » est officielle et que, pour certains de ses aspects, elle est même inscrite dans la loi. Autrement dit, il va de soi que les institutions universitaires et les universitaires (comme tous les citoyens) sont tenus de la respecter. Mais faut-il en conclure qu’ils doivent, en outre, en être les agents zélés et les thuriféraires dans le contenu de leur travail d’enseignement et de recherche, même si ce dernier n’a aucun rapport avec elle ? Quelle que soit la légitimité de cette politique, sa prise en compte de manière aussi insistante dans le processus de recrutement et d’avancement risque de devenir principale et de recouvrir de plus en plus l’intérêt substantiel des dossiers ou d’écarter a priori des dossiers dont le contenu en serait disjoint.

Notes

1 – Présentation sur le site du CNU https://conseil-national-des-universites.fr/cnu/#/ :

« Le Conseil national des universités est une instance nationale régie par le décret n° 92-70 du 16 janvier 1992. Il se prononce sur les mesures individuelles relatives à la qualification, au recrutement et à la carrière des professeurs des universités et des maîtres de conférences régis par le décret n°84-431 du 6 juin 1984 fixant les dispositions statutaires communes applicables aux enseignants-chercheurs et portant statut particulier du corps des professeurs des universités et du corps des maîtres de conférences.
Il est composé de 11 groupes, eux-mêmes divisés en 52 sections, dont chacune correspond à une discipline. Chaque section comprend deux collèges où siègent en nombre égal d’une part, des représentants des professeurs des universités et personnels assimilés et, d’autre part, des représentants des maîtres de conférences et personnels assimilés. »

Ce site, en cours de mise à jour, ne contient pas tous les documents qu’il entend mettre à la disposition du public.

2 -L’article de Xavier-Laurent Salvador faisant expressément état de cette motion, paru dans le JDD du 7 février, n’a pas davantage reçu de démenti https://www.lejdd.fr/societe/salvador-quand-le-genre-determine-les-carrieres-universitaires-141876 . Voir le « tweet » de l’Observatoire du décolonialisme https://twitter.com/decolonialisme/status/1755244293034246615

Concentration des richesses, inégalités des revenus : peut-on les mesurer ?

Brandir des chiffres n’est pas une garantie d’objectivité. Mezetulle l’a remarqué sur un exemple simple : les résultats électoraux ou de consultations, où l’on présente des pourcentages en passant sous silence leur base de calcul1. Thierry Foucart2 examine ici des sujets qui, pour être plus complexes, n’en sont pas moins importants relativement à leurs enjeux puisqu’il s’agit d’apprécier les concentrations de patrimoine et les écarts de revenu et d’émettre des avis nécessairement politiques sur la répartition des richesses, bien souvent « mesurée » à une aune idéologique.

La réduction d’inégalités de patrimoines et de revenus considérées comme trop fortes pour être justes est au cœur de la politique économique et sociale des démocraties. La concentration des richesses mesure ces inégalités, mais les propriétés des paramètres qui l’évaluent sont mal connues et l’interprétation de leurs valeurs souvent abusive et même parfois malhonnête. Il s’agit ici d’expliquer les conditions qui doivent être vérifiées pour assurer la validité scientifique des résultats obtenus. Elles concernent la définition des concepts de patrimoine, de revenu, et les propriétés mathématiques des paramètres.

Patrimoine, revenu : des comparaisons hétérogènes

Définition du patrimoine

Madinier et Malpot (1979) définissent le patrimoine de la façon suivante : « parmi les diverses définitions concevables du patrimoine, cette étude en retient une relativement étroite, celle qui correspond en principe à l’assiette de l’impôt sur les successions et qui serait probablement aussi celle d’un éventuel impôt sur la fortune : en ce sens, le patrimoine d’une personne est constitué par l’ensemble des éléments aliénables et transmissibles qui sont sa propriété à un instant donné ». C’est cette définition que Thomas Piketty a utilisée dans Le Capital au xxie siècle, en la mettant à jour (Piketty, 2013).

Pour évaluer la concentration du patrimoine, il est nécessaire de fixer la valeur monétaire des biens qui le constituent, afin de permettre les échanges commerciaux. On peut penser au prix du marché, mais ce prix n’a de sens qu’au sein du marché où le bien est négociable, si les fonds sont transférables, et si la jouissance des biens est assurée. Par exemple, estimer la valeur d’un appartement à Paris par son prix n’a pas le même sens sur le marché parisien que sur le marché occidental, aucun sur le marché chinois. Un Français ne peut jouir d’un appartement à Pékin, ni un Chinois à Paris. La valeur marchande est parfois variable dans de grandes proportions, et le prix de l’immobilier, qui a augmenté considérablement depuis 2000, est une mesure très discutable parce que les achats se font largement à crédit, et que la baisse des taux d’emprunt compense la hausse des prix : le prix d’achat intérêts compris est très différent du prix de vente. Le prix de revient pourrait être une solution : c’est le cas de l’immobilier neuf. Mais cela n’a aucun sens dans le cas d’une œuvre d’art, dont le prix sur le marché peut varier du simple au double ou inversement entre deux transactions et qui n’intéresse que les collectionneurs. Il y a donc des conditions de bon sens à respecter, et parfois c’est impossible. L’évaluation que l’on obtient est très approximative.

L’estimation d’un patrimoine dépend du pays dans lequel il se trouve. Le prix de la terre agricole est un exemple d’hétérogénéité. Il est de l’ordre de 7 000 € l’hectare en France, de 40 000 € en Belgique, de 60 000 € en Flandre. Dans d’autres pays, en Afrique en particulier, la terre agricole est un bien commun et n’est donc pas comptée dans les patrimoines privés. Les sous-sols peuvent contenir d’immenses richesses pour les uns, aux États-Unis par exemple, et être sans valeur pour d’autres, comme en France où le sous-sol appartient à l’État. En Allemagne, l’immobilier est nettement moins cher qu’en France, et en province, nettement moins cher qu’à Paris. Au Royaume-Uni, la propriété foncière individuelle est rare et la location par bail emphytéotique beaucoup plus fréquente qu’en France. La retraite par capitalisation augmente fortement le patrimoine par rapport à la retraite par répartition pour une même pension. Dans certains pays, il n’y a pas de système de retraite. Les différences de structure des patrimoines à travers le monde sont innombrables, et les comparaisons internationales entre les patrimoines n’ont guère de sens.

La concentration du patrimoine, déjà difficile à évaluer du fait de son hétérogénéité, est liée aussi à de nombreux facteurs qui lui sont étrangers, en particulier à l’héritage et à la démographie de chaque pays. En Italie, au Canada, il n’y a pas de droits de succession, à Cuba, il n’y a pas d’héritage. Dans certains pays musulmans, la part d’héritage des filles est la moitié de celle de leur frères. Dans une population donnée, les jeunes ont épargné moins longtemps que les vieux. Les premiers paient encore les crédits souscrits pour acheter un logement, tandis que les seconds les ont remboursés plus ou moins complètement. Ils n’ont pas encore reçu d’héritage, à l’inverse des seconds, mais, étant en général moins nombreux, recevront une part plus élevée. Les répartitions par âge étant très différentes entre les pays, quand on compare les concentrations des patrimoines dans deux populations différentes, on en compare en même temps les démographies. Madinier et Malpot considèrent qu’il est impossible d’éliminer les effets de ce facteur.

On ne peut donc comparer directement les évaluations de patrimoines dans des pays très différents, ni dans un même pays à des époques éloignées l’une de l’autre. Une homogénéisation est indispensable, mais elle n’est pas toujours possible.

Définition du revenu

La définition du revenu n’est pas plus simple que celle du patrimoine parce qu’il est tout aussi hétérogène. Il ne se limite pas à l’argent perçu à la fin du mois et doit être complété par les prestations sociales qui ne sont pas les mêmes dans chaque pays. Comment évaluer les revenus en nature  ? L’accès aux transports en commun, à l’électricité, à l’eau, à la santé, à l’école ? Le revenu en nature n’est pas mesurable. L’économie non observée (ENO), qui regroupe les activités échappant à l’enregistrement statistique ainsi qu’à la réglementation fiscale et sociale, assure une part beaucoup plus élevée de la production des richesses dans les pays du sud que du nord de l’Europe. En 2003, le rapport de l’économie non observée au PIB atteignait 14,8 % en Italie, 1,3 % en Suède en 2000 (Adair, 2009). On en ignore la répartition dans la population.

Pour pouvoir analyser la concentration des revenus dans les pays de l’Union européenne, on définit le revenu initial, le revenu disponible et le niveau de vie d’un foyer de la façon suivante :

  • Le revenu initial ou revenu avant redistribution (c’est-à-dire avant transferts sociaux et fiscaux), comprend les revenus d’activité salariée et indépendante et revenus de remplacement (chômage, préretraite, retraite et pension d’invalidité), ainsi que les pensions alimentaires et revenus du patrimoine, nets de cotisations sociales sauf la CSG et la CRDS.
  • Le revenu disponible est le revenu initial augmenté des prestations sociales reçues (allocations familiales, aide au logement, etc.) et diminué des impôts versés.
  • Le niveau de vie est le rapport entre le revenu disponible (après redistribution) et le nombre d’unités de consommation (UC) calculé en attribuant 1 UC au premier adulte du ménage, 0,5 UC aux autres personnes de 14 ans ou plus et 0,3 UC aux enfants de moins de 14 ans.

Une étude de Rousselon et Viennot (2020) donne un exemple précis de l’erreur résultant de la comparaison de revenus non homogènes :

« Le débat économique est émaillé d’allusions à un niveau élevé des inégalités avant redistribution en France […]. Cette organisation [l’OCDE] publie en effet un indicateur d’inégalités de marché (market income) pour lequel la France apparaît particulièrement inégalitaire. […] Cet indicateur présente toutefois une difficulté importante pour un exercice de comparaison internationale, puisque les revenus considérés excluent les retraites publiques, mais incluent les retraites privées obligatoires, ce qui fausse la comparabilité entre pays ayant fait des choix de système de retraite distincts. […]. Cela peut aussi introduire un biais lié aux différences de pyramides des âges ».

Comment mesurer la concentration et la répartition des richesses ?

Il existe deux classes de paramètres pour mesurer la concentration des richesses.

Les quantiles

La première répond à la question suivante : que représentent les richesses des 10 % foyers les plus riches en France par rapport au total ? Et des 10 % les moins riches ?

Le calcul consiste à classer les foyers suivant les valeurs croissantes de leurs richesses, et à définir des classes rassemblant un pourcentage fixé de l’effectif total qu’on appelle « quantiles ». Les centiles contiennent 1 % de l’effectif total, les déciles 10 %, les quintiles 20 %, etc. On calcule la richesse de chaque classe considérée que l’on rapporte à la richesse totale. Par exemple, le premier décile constitués de 10 % foyers les moins riches possède 5 % de la richesse totale, le second décile 7 %, le neuvième 25 % et le dixième 35 %. La somme de ces pourcentages est égale à 100 %. La mesure utilisée fréquemment pour mesurer l’inégalité des richesses est le rapport des richesses du dernier quantile à celles du premier : c’est le rapport interquantile. Un rapport interdécile égal à 7, comme dans le cas précédent (=35 % / 5 %), signifie que les 10 % les plus riches disposent en moyenne de sept fois ce dont disposent les 10 % les plus pauvres. Le premier quintile (20 % de la population) rassemble des deux premiers déciles et possède 12 % des richesses, le cinquième 60 %. Le rapport interquintile est égal à 5 (= 60 % / 12 %), ce qui signifie que les 20 % les plus riches disposent de 5 fois la richesse des 20 % les plus pauvres.

Le rapport augmente lorsque le pourcentage considéré diminue. Les foyers étant classés suivant les valeurs croissantes de leurs richesses, les 1 % les plus pauvres sont en moyenne plus pauvres que les 10 % les plus pauvres, et les 1 % les plus riches sont en moyenne plus riches que les 10 % les plus riches. Le rapport intercentile est donc toujours supérieur au rapport interdécile, lui-même supérieur au rapport interquintile, etc.

Le rapport interdécile augmente beaucoup lorsque les richesses du premier décile diminuent légèrement. Il augmente aussi lorsque celles du dernier décile sont nettement plus grandes. Reprenons l’exemple précédent.

  • Si les 10 % les moins riches possèdent 3 % des richesse totales au lieu de 5 %, le rapport interdécile est égal à 11,67 (= 35% / 3 %) au lieu de 7.
  • Si les 10 % les plus riches possèdent 40 % des richesses totales au lieu de 35 %, le rapport interdécile passe de 7 à 8 (= 40 % / 5 %).

On pourrait dire, de façon provocatrice, que, pour diminuer la concentration dans les pays riches, il suffirait d’arrêter l’immigration en provenance des pays pauvres et de cesser de soigner les riches vieux pour répartir plus vite leur patrimoine entre leurs héritiers.

Ces rapports sont difficiles à interpréter. La concentration des richesses n’est pas (sauf dans certains pays) le résultat d’une spoliation dont les auteurs seraient légalement condamnables, mais celui d’une réussite professionnelle qui profite à tous. Fixer une valeur du rapport interdécile au-delà de laquelle la concentration est injuste est une démarche de justice sociale subjective et par suite discutable.

La figure ci-dessous montre la concentration des niveaux de vie dans six pays européens et de la zone euro mesurée par les rapports interquintiles après redistribution des richesses pendant la période 2004-2019 :

Rapports interquintiles des niveaux de vie de six pays européens
(Source : Insee)

La comparaison entre ces concentrations demande de la prudence compte tenu des différences entre les politiques migratoires, les démographies et les richesses produites par l’économie non observée de chacun de ces pays. L’Italie et l’Espagne ont des rapports plus élevés que les autres pays considérés ; ils ont aussi une fraude fiscale et sociale beaucoup plus forte. Le rapport interquintile de la Suède est le plus faible de tous, mais les richesses produites par l’économie non observée y sont très faibles et la politique migratoire qu’elle a menée est très différente de celle des autres pays.

Plus intéressante est l’évolution de chacun de ces rapports. La concentration des richesses a légèrement augmenté en France de 2004 à 2010, et s’est stabilisée ensuite, contrairement à ce que l’on entend souvent. Les variations sont faibles, et peu significatives. La forte hausse de la concentration en Allemagne, en 2019, mériterait d’être analysée. L’analyse des rapports interdéciles pourrait conduire à des conclusions différentes.

Le coefficient de concentration de Gini

La seconde classe de paramètres est celle des coefficients de concentration, qui tiennent compte de l’ensemble des valeurs observées. Le coefficient de Gini est le plus classique.

Gini généralise la démarche précédente en utilisant la courbe de Lorenz, qui, à chaque pourcentage des foyers classés suivant les valeurs croissantes de leurs richesses, associe le pourcentage des richesses détenue par rapport aux richesses totales. La figure ci-dessous représente la courbe de Lorenz calculée sur 50 observations :

  • L’axe des abscisses représente les pourcentages d’observations classées par valeurs croissantes.
  • L’axe des ordonnées représente le rapport de la somme des observations pour chaque pourcentage à la somme totale.

Courbe de concentration (50 valeurs)
d10 / d1 = 11,2 g = 0,348

On lit sur cette courbe la richesse possédée par le premier décile (environ 2 % pour 10 % en abscisse) et possédée par le dixième décile (environ 15 % = 1 – 85 % en ordonnée pour 90 % = 1 – 10 % en abscisse). Gini compare cette courbe à deux courbes caractéristiques de distributions extrêmes :

  • l’équirépartition (toutes les observations sont égales). C’est la diagonale du carré.
  • la concentration totale (toutes les observations sont nulles sauf une). Ce sont les deux côtés du carré sous la diagonale.

Le coefficient de concentration de Gini est l’aire de la zone grisée, multipliée par 2 pour varier de 0 (équirépartition) à 1 (concentration totale). La pratique habituelle consiste à considérer que la concentration est faible lorsque sa valeur est proche de 0 et forte lorsqu’elle est proche de 1, mais, comme dans le cas des rapports interquantiles, il n’existe pas de règle pour fixer une valeur en dessous de laquelle le coefficient montre une concentration acceptable, et au-dessus de laquelle elle est trop forte.

Ses propriétés mathématiques sont “faibles”. L’article de Wikipédia sur le coefficient de concentration montre l’ambiguïté de son utilisation :

« l’indice de Gini ne permet pas de tenir compte de la répartition des revenus. […]. Si 50 % de la population n’a pas de revenu et l’autre moitié a les mêmes revenus, l’indice de Gini sera de 0,5. On trouvera le même résultat de 0,5 avec la répartition suivante, pourtant moins inégalitaire : 75 % de la population se partage de manière identique 25 % du revenu global d’une part, et d’autre part le 25 % restant se partage de manière identique le 75 % restant du revenu global »3.

On peut donner beaucoup d’autres exemples :

  • Deux courbes de Lorenz symétriques par rapport à la seconde diagonale du carré ont la même aire et donnent un coefficient de Gini et des rapports interdéciles égaux avec des répartitions pourtant très différentes4.
  • Les rapports interdéciles de deux distributions peuvent être différents pour un même coefficient de Gini.
  • Deux coefficients de Gini peuvent être différents pour des rapports interdéciles égaux.

Rousselon et Viennot (2020) ont aussi mesuré dans leur article la contribution d’une mesure sociale à la concentration des revenus en observant la variation du coefficient de Gini suivant qu’elle est appliquée ou non. C’est une démarche originale et particulièrement efficace parce que les calculs sont effectués, avec la même méthode, sur des données ne différant que par la prise en compte ou non de la mesure sociale considérée. L’interprétation est difficile si l’ordre des foyers classés par valeurs croissantes du revenu disponible est modifié, puisque les déciles ne rassemblent pas alors les mêmes foyers : l’enrichissement relatif des uns déclasse alors les autres.

Des « arguments quantitatifs » manipulables

La mesure de la concentration donne un chiffre apparemment simple à interpréter. Lorsque sa valeur confirme une intuition ou une opinion a priori, elle la renforce au point de la transformer en vérité scientifique sans analyse critique et rationnelle. C’est la même difficulté que celle qui conduit à confondre causalité et corrélation.

Elle offre un argument quantitatif trop utile pour ne pas être cité à l’appui d’une idéologie, même si elle n’a pas de sens. L’association Oxfam (comme d’autres) n’hésite pas à manipuler ce concept pour attirer des subventions ou des dons. On lit sur son site5 :

« Le constat d’Oxfam est sans appel : si la société est globalement plus riche, elle est incapable d’offrir une vie meilleure au plus grand nombre. En 2020, les 1 % les plus riches possèdent plus de deux fois les richesses de 6,9 milliards de personnes, soit 90% de la population mondiale. En France, les 10 % les plus riches détiennent plus de la moitié des richesses nationales quand les 50 % les plus pauvres se partagent moins de 10 % du gâteau. »

Oxfam analyse la concentration des richesses sans se préoccuper de leur production ni de leur hétérogénéité. Les richesses, créées surtout par les nouvelles technologies, sont produites par une petite minorité de la population mondiale qui s’est effectivement beaucoup enrichie, mais qui n’a spolié personne. Au contraire, l’invention du téléphone mobile a profité aux deux tiers de la population mondiale, les progrès de la médecine contribuent fortement à l’amélioration de la santé dans les pays pauvres, etc. Il est évident que certaines populations souffrent de la faim, de la guerre, mais cela n’a rien à voir avec la révolution technologique actuelle menée par cette petite minorité et qui profite à tout le monde. Et c’est justement pour cette raison que ceux qui développent ces nouvelles technologies s’enrichissent. L’argent qu’ils accumulent est réinvesti dans d’autres entreprises et produisent d’autres richesses, ou dans des fondations comme la fondation Bill et Melina Gates qui est le second donateur de l’OMS, après l’Allemagne et avant les États-Unis. On lit aussi sur ce site : « Nous sommes toutes et tous les perdant·e·s [sic] de ce modèle économique défaillant et sexiste qui sert les intérêts d’une minorité d’hommes blancs ultra-privilégiés ». L’idéologie d’Oxfam est la théorie critique de la race6. Doit-on en déduire que les dons que reçoit cette association sont destinés en priorité aux femmes et aux populations jadis colonisées par les pays européens ?

Oxfam n’est pas tenue de respecter les normes de scientificité qu’elle n’est pas censée connaître. Par contre, la neutralité idéologique et politique des chercheurs en sciences de l’homme et de la société et plus généralement des intellectuels est une exigence incontournable. L’erreur de bonne foi est toujours possible et excusable – personne n’y échappe – , mais la malhonnêteté intellectuelle est impardonnable. Elle est ancienne (Benda, 1927) et malheureusement fréquente (Boniface, 2011).

Cette conclusion ne préjuge pas de la valeur de l’objectif poursuivi : « Quand un orateur, grâce à la simple magie des mots et d’une voix d’or, persuade son auditoire de la justesse d’une mauvaise cause, nous sommes fort congrûment scandalisés. Nous devrions éprouver la même appréhension chaque fois que nous voyons employer les mêmes tours, étrangers à la question, pour persuader les gens de la justesse d’une bonne cause » (Huxley,1952).

Références

  • Adair P., 2009, « Économie non observée et emploi informel dans les pays de l’Union européenne. Une comparaison des estimations et des déterminants », Revue économique, 2009/5 (vol. 60), p. 1117-1153.
  • Benda J., 1927 (éd. 1975), La trahison des clercs, Grasset, Paris.
  • Boniface P., 2011, Les intellectuels faussaires, Gawsewitch éditeur, Paris.
  • Huxley A., 1952, Les Diables de Loudun (trad. Jules Castier), p. 27, Plon, Paris.
  • Madinier P., Malpot J-J, 1979, « La répartition du patrimoine des particuliers », Économie et statistique, N°114, Le patrimoine national. p 77-93.
  • Piketty T., 2013, le Capital au xxie siècle, Le Seuil, Paris. Rousselon J., Viennot M., 2020, « Inégalités primaires, redistribution : comment la France se situe en Europe », note d’analyse n°97, France-Stratégie, p.5.

N.B .L’auteur tient à la disposition des lecteurs une feuille Excel calculant les rapports interdéciles et interquintiles, le coefficient de Gini d’une série de valeurs et traçant la courbe de Lorenz.

Notes

1 – Voir Paris, « votation » tarification véhicules lourds : ni scrutin, ni sondage

2 – Thierry Foucart est agrégé de mathématiques et habilité à diriger des recherches. Il se consacre depuis sa retraite de l’Université à l’épistémologie dans les sciences humaines et sociales.

4 – On trouvera un exemple dans la feuille Excel disponible.

« Après la déconstruction » : parution des actes du colloque

Après la déconstruction. L’université au défi des idéologies (Odile Jacob, 2023), sous la direction d’Emmanuelle Hénin, Xavier-Laurent Salvador et Pierre-Henri Tavoillot, réunit les actes du colloque tenu à la Sorbonne les 7 et 8 janvier 2022. Organisé par l’Observatoire du décolonialisme et le Collège de philosophie, ce colloque, auquel j’ai participé, s’est attiré avant même sa tenue « un déluge d’insultes et de calomnies »1.

Chacun peut aisément et sereinement prendre connaissance de ce qui s’est dit2, et savourer aussi les dessins de Xavier Gorce qui ponctuent ce volume de 520 pages. On peut en feuilleter les 23 premières pages sur le site de l’éditeur.

Quatrième de couverture :

« La déconstruction est devenue folle. Entreprise jadis salutaire pour dénicher les préjugés et démasquer les illusions, elle a engendré une mode délétère, prétexte d’un nouvel ordre moral, suppôt d’une idéologie qui envahit les savoirs, tétanise la culture et terrorise le débat.
Ce livre réunit les contributions du colloque organisé à la Sorbonne les 7 et 8 janvier 2022 par le Collège de Philosophie et l’Observatoire du décolonialisme, avec le soutien du Comité laïcité République. Soixante universitaires et intellectuels de toutes disciplines se mobilisent pour dénoncer les dérives de ce courant et travailler à la reconstruction d’une frontière claire, qui devrait être inviolable, entre la recherche du savant et l’action du militant. »

Liste des contributeurs :

Gilbert Abergel, Florence Bergeaud-Blackler, Sami Biasoni, Andreas Bikfalvi, Jean-Michel Blanquer, Jean-François Braunstein, Pascal Bruckner, Bruno Chaouat, Joseph Ciccolini, Charles Coutel, Jérôme Delaplanche, Éric Deschavanne, Raphaël Doan, Albert Doja, Luc Ferry, Samuel Fitoussi, Alexandre Gady, Xavier Gorce, Yana Grinshpun, Gilles J. Guglielmi, Claude Habib, Hubert Heckmann, Nathalie Heinich, Emmanuelle Hénin, Philippe d’Iribarne, Pierre Jourde, Jacques Julliard, Catherine Kintzler, Sergiu Klainerman, Claire Koç, Marcel Kuntz, Arnaud Lacheret, Claire Laux, Anne-Marie Le Pourhiet, Bérénice Levet, Pierre Manent, Nicolas Meeùs, Bruno Moysan, Rémi Pellet, Pascal Perrineau, Helen Pluckrose, François Rastier, Olivier Rey, Bernard Rougier, Xavier-Laurent Salvador, Dominique Schnapper, Alain Seksig, Jean Szlamowicz, Pierre-André Taguieff, Carole Talon-Hugon, Véronique Taquin, Pierre-Henri Tavoillot, Dania Tchalik, Thibault Tellier, Robert Tombs, Vincent Tournier, Pierre Valentin, Pierre Vermeren, Christophe de Voogd, Tarik Yildiz.

Notes

1 – Avant-propos, p. 1. Voir aussi sur Mezetulle l’article d’André Perrin du 28 janvier 2022 « Le maccarthysme est-il la chose du monde la mieux partagée ? » et celui que j’ai publié le 6 février 2022 « À la suite du colloque ‘Après la déconstruction’ ».

2 – Les enregistrements des interventions sont toujours accessibles sur le site de l’Observatoire du décolonialisme.

Changement climatique : vers un printemps perpétuel

Chacun sait que le phénomène des saisons trouve son explication principale dans l’inclinaison de l’axe de rotation de la Terre par rapport au plan de l’écliptique. Actuellement d’environ 23°, l’inclinaison de l’axe oscille entre 21° et 25°1. Le changement climatique auquel nous assistons permet de penser que cet angle pourrait être modifié de manière bien plus importante : s’il tendait vers zéro, nous pourrions connaître un printemps perpétuel. Ce qui n’est pas sans conséquences.

En effet, le redressement de l’axe de la Terre sur le plan de l’écliptique, de son inclinaison actuelle de 23°26’ vers une inclinaison nulle, peut être provoqué par la fonte des calottes glaciaires aux deux pôles. Cette fonte est plus rapide au pôle Nord qu’au pôle Sud, en raison de l’effet de serre accru dans l’hémisphère nord. Cela entraîne un différentiel entre les deux masses, et cela d’autant plus que, contrairement au pôle Nord, le pôle Sud est lesté d’un continent qui, lui, ne fondra pas.

Ce déséquilibre entre les deux pôles de la masse de glace en train de fondre déplace le centre de gravité de la Terre. Cela provoque une force de rotation qui tend à réaligner l’axe de la Terre sur le plan de l’écliptique. Cette force de rotation est amplifiée par l’effet de la marée provoqué par la Lune et le Soleil.

Le processus de redressement, qui est évidemment engagé vu le réchauffement climatique qu’on observe depuis des années, devrait en principe prendre plusieurs siècles, voire des milliers d’années, en raison de la masse énorme de la Terre et de l’inertie de son mouvement. Pourtant, il est très probablement et considérablement accéléré, de sorte qu’on peut s’attendre à un mouvement de plus en plus ample sur quelques dizaines d’années – nous pourrions donc le vivre à l’échelle historique. Cette hypothèse n’est pas farfelue et elle est avancée par plusieurs chercheurs2.

Les conséquences sont considérables et je me contenterai d’en évoquer une.

Outre l’augmentation croissante du niveau des océans dont on observe actuellement l’amorce, une des conséquences, moins catastrophique, est que les durées du jour et de la nuit tendront vers une situation d’équinoxe. Plus le basculement s’approchera de l’inclinaison nulle, plus les durées respectives du jour et de la nuit s’approcheront de l’égalité quelle que soit la position de la Terre dans sa révolution annuelle autour du Soleil. Une fois atteint le point nul de l’inclinaison, il n’y aurait plus de raison que l’axe poursuive le mouvement en s’inclinant de l’autre côté : la Terre sera en équilibre comme une toupie sur son axe. Cela signifie notamment que les latitudes tempérées ne connaîtront plus les saisons auxquelles nous sommes habitués depuis des siècles. À ces latitudes, en supposant que les courants marins restent stables et que la quantité et la fréquence des précipitations restent comparables à celles que l’on a connues lors des printemps passés, nous aurons alors un printemps perpétuel avec des températures douces et un temps généralement agréable tout au long de l’année. Cela peut avoir des conséquences positives et négatives pour la planète. D’un côté, les écosystèmes pourraient s’adapter à un climat plus stable, les cultures pourraient se développer de manière plus fiable et les régions polaires seraient moins menacées par la fonte des glaces. D’un autre côté, les espèces qui dépendent des changements saisonniers pour leur reproduction, leur migration ou leur alimentation pourraient être en difficulté. Les écosystèmes pourraient également être perturbés par des changements climatiques imprévus..

Ces réflexions sur la variation de l’inclinaison de l’axe de la Terre sur le plan de l’écliptique, avec l’hypothèse d’un printemps perpétuel, engagent aussi à se poser la question de la répartition de l’espèce humaine sur la surface des terres émergées et celle de son activité… ou de son inactivité. Il se trouve que Rousseau y avait déjà pensé, et on peut relire à cette occasion un extrait de l’Essai sur l’origine des langues (chap. IX)3, que je laisse pour terminer à la méditation des lecteurs :

« Supposez un printemps perpétuel sur la terre ; supposez partout de l’eau, du bétail, des pâturages ; supposez les hommes, sortant des mains de la nature, une fois dispersés parmi tout cela : je n’imagine pas comment ils auraient jamais renoncé à leur liberté primitive et quitté la vie isolée et pastorale, si convenable à leur indolence naturelle4, pour s’imposer sans nécessité l’esclavage, les travaux, les misères inséparables de l’état social.
Celui qui voulut que l’homme fût sociable toucha du doigt l’axe du globe et l’inclina sur l’axe de l’univers. À ce léger mouvement, je vois changer la face de la terre et décider la vocation du genre humain : j’entends au loin les cris de joie d’une multitude insensée ; je vois édifier les palais et les villes ; je vois naître les arts, les lois, le commerce ; je vois les peuples se former, s’étendre, se dissoudre, se succéder comme les flots de la mer ; je vois les hommes, rassemblés sur quelques points de leur demeure pour s’y dévorer mutuellement, faire un affreux désert du reste du monde, digne monument de l’union sociale et de l’utilité des arts. »

[Cet article a été écrit en partie avec l’aide de ChatGPT3 ; je l’ai considérablement augmenté et remanié, y compris en ajoutant quelques éléments « scientifiques » et les références en note. Et, si cela peut rassurer les lecteurs, l’idée de citer le texte de Rousseau, dont la note (4) ci-dessous pourrait être versée au dossier actuel du débat sur la réforme des retraites, vient de moi et non de ChatGPT3.]

Notes

1 – On lira un article très détaillé et passionnant sur le sujet, qui montre notamment que le réchauffement climatique n’est pas un phénomène nouveau : https://www.cnrs.fr/cw/dossiers/dosclim1/sysfacte/soleil/soleil1.htm. On peut en conclure que le terme de « dérèglement climatique » est une construction anthropocentrée ; jamais la nature ne se « dérègle », ses lois restent toujours les mêmes.

2 – Voir le développement plus détaillé de cette théorie, avec les références, en suivant ce lien.

3 – Jean-Jacques Rousseau, Essai sur l’origine des langues, éd. présentée et annotée par Charles Coutel et Catherine Kintzler, Paris, GF, 1994, p. 89-90.

4 – [Note de Rousseau] « Il est inconcevable à quel point l’homme est naturellement paresseux. On dirait qu’il ne vit que pour dormir, végéter, rester immobile ; à peine peut-il se résoudre à se donner les mouvements nécessaires pour s’empêcher de mourir de faim. Rien ne maintient tant les sauvages dans l’amour de leur état que cette délicieuse indolence. Les passions qui rendent l’homme inquiet, prévoyant, actif, ne naissent que dans la société. Ne rien faire est la première et la plus forte passion de l’homme après celle de se conserver. Si l’on y regardait bien, l’on verrait que, même parmi nous, c’est pour parvenir au repos que chacun travaille ; c’est encore la paresse qui nous rend laborieux ».

Caroline Éliacheff et Céline Masson sont-elles « transphobes » ? (par Élisabeth Perrin)

Élisabeth Perrin1 a lu le livre de Caroline Éliacheff et Céline Masson La Fabrique de l’enfant transgenre2. Elle s’interroge au fil de sa lecture, et avec de solides arguments, sur la légitimité et sur les conséquences d’un accès précoce à un « changement de sexe » au motif d’un prétendu désir de l’enfant encouragé par un diagnostic tout aussi précoce de « dysphorie de genre ».

Le 29 avril 2022 à l’Université de Genève en compagnie de Céline Masson, et le 17 novembre dernier à Lille, Caroline Éliacheff a vu ses conférences empêchées par des activistes. Le 20 novembre à Paris, c’est la mairie de Paris qui a fait annuler la conférence sous la pression d’activistes ; fin novembre encore, à Lyon, le Café-débat a pu se tenir, mais en cachette ; le 15 décembre, à Bruxelles, c’est à coups d’excréments jetés sur les participants que la communication a été empêchée. Bref, Caroline Éliacheff et Céline Masson ne peuvent plus s’exprimer en public depuis la publication aux éditions de l’Observatoire de leur livre La Fabrique de l’enfant-transgenre, Comment protéger les mineurs d’un scandale sanitaire ? La liberté d’expression et le débat d’idées me paraissant fondamentaux dans une société démocratique, je suis a priori hostile à des actions de censure, mais je voulais savoir ce que disait ce livre, et si, à défaut de justifier ces actions, on pouvait les expliquer, si le qualificatif de « transphobe » pouvait être attribué aux autrices du livre. Je l’ai donc lu et vous livre ici une recension suffisamment détaillée pour que le lecteur puisse se faire une opinion fondée.

En une quinzaine d’années, disent les autrices de ce livre en avant-propos, le diagnostic de « dysphorie de genre » chez les enfants et adolescents a été multiplié par quatre. Que des personnes se sentent « nées dans le mauvais corps » et que ce soit pour elles une source de profond mal-être est une réalité indéniable, mais leur nombre a-t-il été multiplié par quatre en une quinzaine d’années, se demandent les deux autrices ?

Pour elles, il n’est pas question, dans une société démocratique, de discriminer les minorités, celle des transsexuels comme n’importe quelle autre : « ces personnes [ont] droit à l’indifférence », c’est-à-dire « à vivre de façon banalisée […], c’est un impératif moral » disent-elles3. Mais est-il possible de poser un diagnostic de dysphorie de genre suffisamment certain pour proposer à un enfant ou à un adolescent un traitement médical irréversible et à vie ? Il s’agit d’un problème éthique affirment-elles.

Se pose donc une question éthique : « à quel âge […] rendre possible […] la  demande faite à la médecine de changer de sexe ? »4

Un exemple très parlant puisé dans les médias permet à Caroline Éliacheff et Céline Masson d’illustrer leur propos.

Mise en scène médiatique du problème

Arte a diffusé en décembre 2020 Petite fille, documentaire de Sébastien Lifshitz, devenu un véritable « étendard de la cause trans », selon l’expression des autrices qui en font l’analyse critique : Sasha, garçon de 8 ans, a exprimé, selon sa mère, très précocement le désir de devenir fille « comme elle ». Le rêve de Sasha est exaucé sans délai : dès le premier entretien chez une pédopsychiatre d’un centre spécialisé dans la transidentité des mineurs (Sasha n’a jamais vu de psychologue avant), le diagnostic de dysphorie de genre est posé « comme une évidence ». La mère de Sasha dit qu’elle a toujours souhaité avoir une fille, mais la psychiatre rétorque que « ça n’a rien à voir », ce qui met fin à tout questionnement : les spectateurs du documentaire ne sauront jamais si l’enfant est assujetti ou non au désir de sa mère5. Sasha n’a jamais été vu seul et c’est toujours, à quelques brèves exceptions près, sa mère qui répond aux questions. L’école est sommée de considérer Sasha comme une fille et n’obtempère qu’à la demande de la psychiatre, ce que les autrices considèrent comme normal, alors que dans le film tous les protagonistes s’en indignent. Dès le second rendez-vous avec la pédopsychiatre, le protocole de changement de sexe est programmé avec un endocrinologue. Le traitement médical est exposé à cet enfant de 8 ans : bloqueurs de puberté, prise d’hormones femelles à vie, ablation des testicules (mais maturation in vitro de ceux-ci pour préserver sa possibilité de procréer). D’autres que la pédopsychiatre du documentaire ne s’encombrent pas de ces informations, telle la psychologue américaine Diane Ehrensaft qui a créé la notion de TMI (Too much information) pour expliquer que les adultes impliqués dans les soins de l’enfant trans ne devraient pas le surcharger avec « TMI », trop d’informations sur la décision capitale de subir des interventions (qu’elle préconise).

Les autrices mettent en doute la capacité, à cet âge, de saisir les conséquences de ce traitement médical jusqu’à la fin de ses jours, et de cette « ablation de son appareil génital dont l’usage sexuel lui est encore inconnu »6. L’enfant « consent » à tout cela. Peut-on à la fois dénier la possibilité pour un mineur, de « consentir » à des relations sexuelles avec un adulte ayant autorité et qualifier de « consentement » l’acceptation par un enfant d’un traitement médical que lui proposent des adultes en qui il a confiance ?

Peut-on, dès lors, qualifier de libéralisme antidiscriminatoire et égalitaire le traitement médical d’enfants à partir d’un diagnostic de dysphorie de genre ?

Les autrices observent que la France est plutôt « en retard en termes de tolérance […] vis-à-vis des risques de dérives dont pâtissent les enfants »7 : tandis que les médias français célébraient  quasi unanimement Petite Fille, des pays comme le Canada, la Belgique, le Royaume Uni, les pays nordiques, revenaient à des positions plus nuancées. Caroline Éliacheff et Céline Masson renvoient le lecteur au site canadien detranscanada.com et au site belge post-trans.com8.

Sur ce dernier site on peut lire le témoignage d’Elie, une détransitionneuse9, qui note à juste titre : « Ces documentaires [Petite fille ou autres] normalisent l’idée des personnes “nées dans le mauvais corps”. La solution proposée ou vendue est de s’accommoder à cette société et ses injonctions, à rendre les corps conformes. De leur côté, les féministes révolutionnaires cherchent non pas à changer les corps, mais la société patriarcale qui les opprime ». Il n’est pas insignifiant à ce propos d’observer que l’augmentation du phénomène trans concerne actuellement surtout les filles voulant devenir garçons.

Peut-on alors faire entrer la transidentité dans la théorie du genre, sans contradiction ? «Le genre, c’est aussi l’ensemble des moyens discursifs, culturels par quoi […] un sexe naturel est produit […] dans un domaine prédiscursif qui précède la culture, telle une surface politiquement neutre sur laquelle la culture intervient après coup. » dit Judith Butler10. Dans cette perspective, on ne voit pas très bien la nécessité de changer de sexe naturel pour changer de genre culturel. Et on se demande ce que les transgenres ont de commun avec les LGBIA+11 qui s’affranchissent tous des codes sociaux de la sexualité sans avoir à changer de sexe. Éric Marty, dans Le sexe des Modernes12 a cette formule : « le transsexuel serait ainsi le dernier à croire à une identité sexuée du genre, à croire au vrai sexe »13 .

Le cas de l’homosexualité

Si nombre d’adolescents se posent la question de leur orientation sexuelle, c’est bien différent du questionnement sur leur identité de genre, et surtout cela ne nécessite aucun traitement médical. Il n’est pas difficile de voir les dégâts causés par un diagnostic de dysphorie de genre prématuré qui « clôt à tort l’expression de ce questionnement tout à fait légitime » (p.65)14. « Encourager des jeunes femmes qui ont du mal à accepter leur orientation sexuelle à transitionner relève de la thérapie de conversion »15 disent les féministes Marguerite Stern et Dora Moutot. Des soignants de la grande clinique anglaise Tavistock, qui va devoir fermer, ont alerté leur hiérarchie sur l’homophobie de la part de familles de jeunes patients – un soignant affirmant même que certains parents préfèrent que leur enfant soit transgenre et hétérosexuel plutôt qu’homosexuel… Éric Marty rapporte qu’au Brésil « bon nombre d’adolescents, le plus souvent pauvres et noirs, ont été contraints de se faire opérer à cause de l’homophobie ambiante »16. On comprend pourquoi, en Iran, où le pouvoir affirme qu’il n’y a pas d’homosexuels dans le pays et où l’homosexualité est passible de la peine de mort, la transition de genre est reconnue et les transsexuels peuvent subir une opération de changement de sexe depuis une fatwa de 1987 de l’Ayatollah Khomeini. C’est même le pays au monde qui pratique le plus de chirurgies de réassignation sexuelle après la Thaïlande. Le magazine de référence des homosexuels, Têtu, ne s’y trompe d’ailleurs pas, qui dénonce le fait qu’en Iran des hommes gays soient forcés, pour échapper à la peine de mort, à des opérations, au grand bénéfice de chirurgiens souvent … esthétiques17.

L’homosexualité vécue et assumée est aussi vieille que l’humanité, la dysphorie de genre aussi, mais le traitement médical de celle-ci, quand elle est réelle ou supposée, est le fait de sociétés technicistes, marchandes, et parfois homophobes et répressives.

Une autre manière de se sentir mal dans son corps : l’anorexie

L’anorexique se voit obèse. Pourtant, on ne lui propose pas une liposuccion. « Alors, pourquoi amputer les patients souffrant de dysphorie de genre de leurs organes génitaux ? » demande Paul R. McHugh dans un article du 12 juin 2014 du Wall Street Journal : Transgender surgery isn’t the solution. La pédopsychiatre Anne Perret, lors d’une conférence à la maison de Solenn, dirigée par Marie-Rose Moro, dit au sujet de la dysphorie de genre chez les jeunes filles : « Elles expriment une faillite profonde dans la construction précoce de l’image de leur corps […]. Il s’agit du même refus de la féminité, de la même haine du corps sexué, du même rejet ambivalent de la figure maternelle [que dans l’anorexie mentale]. »

Toute comparaison avec l’anorexie ne peut que paraître choquante à ceux qui affirment que la dysphorie de genre n’est pas une maladie, et pourtant, ils sont très attachés au remboursement des… « soins ? » par la Sécurité sociale. Autre paradoxe : ils transforment un sujet sain en un sujet soumis toute sa vie à des traitements médicaux (pas malade ?).

Comment répondre au mal-être des enfants et des adolescents ?

Les autrices sont psychanalystes et Caroline Éliacheff est en outre pédopsychiatre. C’est donc en tant que professionnelles qu’elles s’indignent de la méthodologie exposée dans le documentaire Petite Fille : « L’enfant n’est pas un adulte en miniature, mais un être en développement […] son fonctionnement psychique est labile, sa suggestibilité aux discours des adultes est importante, son expérience de la vie est limitée […] le désir exprimé ou inconscient de ses parents concernant son sexe ne lui est pas indifférent (contrairement à ce que dit la pédopsychiatre à la mère de Sasha). […] L’imagination de l’enfant est toujours en avance sur ses capacités réelles. […] Dit-on à un garçon qui veut épouser sa maman (ou une fille son papa) que son désir peut se réaliser ? »18. L’adolescence est par définition une période de transition et l’adolescent est « par excellence une figure trans naviguant entre plusieurs identités avant de trouver un peu plus de stabilité » (p. 61-62).

Quelle que soit la problématique psychique, « Il n’existe pas de réponse unilatérale et immédiate. Il est donc capital de préserver la possibilité d’un temps long » disent les autrices. Et de citer Winnicott dans Jeu et réalité : « La vie est elle-même une thérapie qui a un sens »19.

De l’influence des réseaux sociaux

Les titres de vidéoblogues prodiguant des conseils pour faire sa transition de genre abondent sur les réseaux sociaux les plus utilisés par les 16-18 ans (Youtube, Tik Tok, Snapchat, Twitter, Instagram) et les pédopsychiatres qui reçoivent des adolescents en mal de transition venant les consulter sont étonnés du caractère stéréotypé de leur discours : on y retrouve toutes les formules lues sur les réseaux sociaux : « je ne suis pas dans le bon corps », etc. Des jeunes qui ont des difficultés de relations sociales trouvent dans ces réseaux une « famille », une « communauté de soutien, chaleureuse et virtuelle » comme dit Claude Habib dans La Question trans.

Cela amène les autrices à faire l’hypothèse d’une emprise de type sectaire dont les critères sont les suivants : sentiment d’appartenance à un groupe qui marginalise le sujet, incitation au rejet de la famille, recrutement en ligne, usage d’un jargon spécialisé, foi dans le bien-être qu’apportera le traitement médical, déni de la science et de la biologie, affirmation de son autodétermination, victimisation (qui n’est pas pro-transgenre est forcément transphobe), pressions sur la famille pour obtenir son assentiment, blessures causées par la chirurgie vécues comme des stigmates qui signent l’allégeance au groupe, lobbying, et enfin énormes profits pour l’industrie pharmaceutique… donnée non négligeable !

Pourquoi « scandale sanitaire » ?

L’enfant, naturellement, ne mesure pas les effets secondaires des hormones antagonistes (surtout si on les lui cache…). Ces effets sont nombreux et on retiendra, outre les prises de poids et l’acné, d’intenses douleurs pelviennes dues au grossissement du clitoris, la quasi-impossibilité de procréer et le risque de faire un AVC 9,9 fois supérieur chez les femmes transgenres que dans le groupe témoin20.

Quant à la chirurgie, il est abusif de parler de « changement de sexe » : seule l’apparence des organes sexuels est modifiée – imparfaitement21. À preuve : le sujet est obligé de prendre des hormones à vie. Cette chirurgie est en fait mutilante puisqu’elle ampute « des organes dévolus à la reproduction et au plaisir » (p. 74).

Ce sont les revendications des « personnes intersexuées » (qu’on appelait autrefois « hermaphrodites »), les « I » de LGBTQIA+, souvent considérées comme les plus proches des « trans », qui nous donnent le mieux la mesure de ce que l’opération sexuelle infligée à un enfant est une mutilation : ces personnes nées avec une identité sexuelle ambiguë sont très fréquemment opérées dans leur petite enfance car leurs parents ne supportent pas d’avoir un enfant au sexe indéterminé. L’opération vise à donner à leur appareil génital l’apparence du sexe dont il se rapproche le plus ou du sexe désiré par leurs parents. Ces personnes se révoltent de plus en plus contre ces interventions chirurgicales subies dans leur enfance et qu’elles qualifient d’invalidantes. Elles réclament de l’État français, sans l’obtenir, la reconnaissance d’un sexe neutre, et que celui-ci ne soit plus considéré comme pathologique.

Ce qui est invalidant pour les personnes intersexuées ne le serait pas pour les personnes trans ? Ce qui stigmatise les sujets comme malades (l’intervention chirurgicale) chez les uns serait égalitaire et antidiscriminatoire chez les autres ? On voit le fossé qui sépare ces deux catégories réunies artificiellement dans le vocable LGBTQIA+.

Le risque de suicide : c’est l’argument massue pour justifier les changements de sexe médicaux. « Monsieur, préférez-vous une fille morte ou un garçon vivant ? ». L’opération est censée arracher l’enfant à ses tendances suicidaires. Qu’en est-il ?

Depuis les années 50, les suicides n’ont cessé d’augmenter régulièrement chez les 5-24 ans. Toutes les études montrent également que les idées suicidaires sont beaucoup plus fréquentes chez les jeunes trans, mais aussi chez les jeunes homosexuels. Les causes souvent invoquées sont le rejet dont ces jeunes sont l’objet (harcèlement scolaire ou autre). Mais aucune étude ne montre que les opérations ou les prises d’hormones apportent une solution. La seule donnée étudiée est l’utilisation dans quatre contextes du nom choisi : elle diminuerait la dépression et les idées suicidaires22. Mais le nombre de jeunes qui se suicident n’a pas cessé d’augmenter depuis que les traitements médicaux et chirurgicaux sont pratiqués sur les enfants et les adolescents. Leur impact ne semble donc pas très probant… (voir l’étude réalisée aux États-Unis en 201723.)

Que font les pouvoirs publics ?

Caroline Eliacheff et Céline Masson dénoncent les dérives des pouvoirs publics qui, sans doute, ne veulent pas avoir l’air d’être « en retard ». Par exemple, le Planning familial qui ose écrire : « Les règles arrivent au moment de la puberté […] chez les personnes qui ont un utérus ». Disparition du mot « femme » puisque certaines femmes, les trans, peuvent n’avoir ni utérus, ni règles, évidemment. Quand on pense que la féminisation des noms de métiers ou l’écriture inclusive se donnent pour objectif de lutter contre l’invisibilisation des femmes, voici que c’est le Planning familial qui met en acte cette invisibilité. Où l’on voit que féminisme et transidentité ne font pas bon ménage24.

Mais surtout, l’inquiétude des autrices vient de la proposition de loi n°4021 « interdisant les pratiques visant à modifier l’orientation sexuelle ou l’identité de genre, vraie ou supposée, d’une personne »25 : amalgame entre orientation sexuelle et identité de genre. Les « thérapies de conversion », souvent d’obédience religieuse, pratiquées avec les homosexuels sont clairement homophobes et leur interdiction « louable », selon les autrices (p.56), mais on voit bien qu’en regroupant orientation sexuelle et identité de genre, on cherche à faire passer les « thérapies qui, par prudence, permettraient de retarder la médicalisation des mineurs » (p.56) pour des « thérapies de conversion ». Au texte, voté à l’unanimité par l’Assemblée nationale, le Sénat a fort heureusement fait ajouter l’alinéa suivant : « L’infraction prévue au premier alinéa n’est pas constituée lorsque les propos répétés invitent seulement à la prudence et à la réflexion, eu égard notamment à son jeune âge, la personne qui s’interroge sur son identité de genre et qui envisage un parcours médical tendant au changement de sexe ». Le texte, qui prévoit des peines de trois ans d’emprisonnement et de 45 000 euros d’amende lorsque ces pratiques sont commises au préjudice d’un mineur, risque néanmoins de décourager les propos qui « invitent seulement à la prudence et à la réflexion… », interprétés comme thérapies de conversion, et c’est bien là l’objectif visé. On a le sentiment d’être dans le roman d’Orwell, 1984, où le sens des mots est inversé.

Alors, oui, si les pouvoirs publics encouragent ces décisions expéditives de traitements médicaux et chirurgicaux qui mutilent et rendent malades (puisqu’ils doivent prendre des médicaments à vie) des enfants ou adolescents sains, mais en grande souffrance, et qui les privent du temps de réflexion dont ils ont besoin pour comprendre leur véritable identité, on peut parler de scandale sanitaire : l’adolescence est une période de « rejet de son corps en pleine métamorphose », d’«aspiration à devenir autre ». La « vision d’un développement interchangeable de l’être humain enferme le sujet sans jeu possible avec ses identités », ce qui n’exclut pas que la « transidentité soit une solution à [son] malaise » (p. 88).

Et Caroline Éliacheff et Céline Masson de conclure :

« Rester humain, c’est […] accepter de renoncer à sa toute-puissance en intériorisant des limites. […]. Les adultes qui promeuvent26 la transidentité n’auraient-ils jamais dépassé le stade de la toute-puissance infantile ? Ou faudra-t-il enseigner aux enfants à se méfier d’exprimer leurs désirs car ceux-ci risqueraient d’être exaucés ? » (p.97).

La phrase de Freud tirée de L’Avenir d’une illusion mise en exergue du livre prend tout son sens en conclusion :

« On acquiert ainsi l’impression que la civilisation est quelque chose d’imposé à une majorité récalcitrante par une minorité ayant compris comment s’approprier les moyens de puissance et de coercition. »

Caroline Éliacheff et Céline Masson, La Fabrique de l’enfant transgenre. Comment protéger les mineurs d’un scandale sanitaire ? Paris, éditions de l’Observatoire, 2022.

Notes

1 – [NdE] Élisabeth Perrin, aujourd’hui retraitée, a d’abord enseigné la philosophie, puis a exercé le métier de conseillère d’orientation-psychologue pendant trente ans, dont deux ans comme chargée de mission pour l’orientation des jeunes filles. Elle a publié deux ouvrages sur l’orientation aux éditions Casteilla et a collaboré à la revue Questions d’orientation.

2 – Caroline Éliacheff et Céline Masson, La Fabrique de l’enfant transgenre. Comment protéger les mineurs d’un scandale sanitaire ? Paris, éditions de l’Observatoire, 2022.
[NdE] On peut rappeler que Jean-François Braunstein, dans La Philosophie devenue folle (Grasset, 2018) a consacré une analyse détaillée à ce sujet.

3 – P. 10.

4 – P. 11.

5 – Quand j’ai regardé le film, cette mère m’a irrésistiblement fait penser aux mères qui venaient, dans mon exercice professionnel, me demander avec insistance que je teste leur enfant pour poser un diagnostic de « surdoué » (aujourd’hui HPI), qui leur apporterait une explication satisfaisante à l’échec scolaire de leur enfant. Le résultat du test était rarement celui qu’elles attendaient.

6 – P. 24.

7 – P. 28.

9 – Détransitionneur : personne « trans » qui cherche à revenir à son sexe de naissance.

10Trouble dans le genre : pour un féminisme de la subversion, trad. Cynthia Kraus, La Découverte,  2005, p. 69.

11 – Lesbiennes, Gays, Bi, Asexuels. J’ai volontairement enlevé le Q (Queer), catégorie fourre-tout qui mélange tout.

12 – Éric Marty Le sexe des Modernes, pensée du neutre et théorie du genre, éd du Seuil, 2021.

13Op. cit. p. 492.

14 – La pièce et le film de Guillaume Gallienne, « Les garçons et Guillaume à table ! », à ce propos, méritent d’être vus.

16Op. cit., p. 493.

18 – P. 26, éd. de l’Observatoire.

19P. 27, ibid.

20 – Source : « Cross-sex Hormones and Acute Cardiovascular Events in Transgender Persons: A Cohort Study », Étude américaine publiée en 2018 par Pub Med.gov.

21 – À ce propos, l’ancienne chargée de mission pour l’orientation des filles, que je suis, ne résiste pas à l’envie d’interroger les statistiques : les filles qui ont changé de sexe ont-elles conquis l’entrée à Polytechnique avec plus de facilité que l’entrée dans les toilettes des garçons ?

24 – À ce propos, on se demande quelles féministes peuvent apprécier Petite fille : dans ce film, la mère, omniprésente, procure à son enfant, au demeurant « craquant » ou « craquante », peu importe, n’ayant rien d’un enfant en souffrance, ayant des copains, ne souhaitant surtout pas qu’on le-la change d’école, toute la panoplie des accessoires « féminins » les plus stéréotypés, des vêtements roses, des « nœuds-nœuds », et le plus emblématique de tous : toute une collection de poupées Barbie. C’est consternant de niaiserie. Il est assez comique, d’ailleurs, que le seul usage que l’on voie Sasha faire des Barbies, dans le film, est de frotter une mèche des cheveux de l’une d’entre elles entre le pouce et l’index, à la manière d’un doudou, le regard ailleurs. Le film du réalisateur belge Lukas Dhont, sorti en 2018 avec un titre proche de Petite fille : Girl, traite avec autrement plus de subtilité le même thème. Film à voir !

25 – Depuis l’impression de leur livre, cette proposition de loi est devenue la loi 2022-92 du 31 janvier 2022.

26 – Souligné par moi.

Déconstruire, dit-elle

Il y a un peu plus d’un an était organisé à la Sorbonne un colloque intitulé Après la déconstruction : reconstruire les sciences et la culture1, colloque que la bonne presse s’était empressée de condamner avant même sa tenue2. Les pourfendeurs de ce mauvais colloque décidèrent d’en organiser un second, un bon, intitulé Qui a peur de la déconstruction ? du 19 au 21 janvier 2023. Pour y faire écho, Anne-Emmanuelle Berger, « professeure émérite d’études de genre » et Denis Kambouchner, professeur émérite de philosophie, ont été les invités de Géraldine Muhlmann, le 27 janvier 2023, à l’émission Avec philosophie sur France Culture3. André Perrin a écouté l’émission.

On se souvient sans doute qu’au début du mois de janvier 2022 était organisé à la Sorbonne un colloque intitulé Après la déconstruction : reconstruire les sciences et la culture, colloque dont la bonne presse n’avait pas attendu qu’il se tînt pour en instruire le procès, le juger et le condamner4. Ainsi, deux jours avant son ouverture, le 5 janvier, Le Monde publiait une tribune dans laquelle 74 universitaires expliquaient « pourquoi le colloque organisé par l’Observatoire du décolonialisme, les 7 et 8 janvier, constitue une caricature de son objet car il conduit à observer pour ne rien voir ». Dans les jours qui suivirent le colloque, trois autres articles du même quotidien validèrent la préscience de nos 74 universitaires : ce que les précurseurs tenaient d’un savoir transcendantal, les suiveurs purent le confirmer d’un savoir empirique. Mais cela ne suffisait pas et les pourfendeurs du mauvais colloque décidèrent d’en organiser un second, un bon, intitulé Qui a peur de la déconstruction ? du 19 au 21 janvier 2023. C’est ce qui vaut à deux d’entre eux, Anne-Emmanuelle Berger, « Professeure émérite d’études de genre » et Denis Kambouchner, professeur émérite de philosophie, d’être les invités de Géraldine Muhlmann, le 27 janvier 2023, à l’émission Avec philosophie sur France Culture.

Celle-ci s’ouvre sur un épisode comique. À peine sa productrice a-t-elle donné la parole à la coorganisatrice du bon colloque que celle-ci sort l’artillerie lourde : « Le syntagme Déconstruire la déconstruction est, en fait, emprunté à Éric Zemmour ». Un peu sonnée, Géraldine Muhlmann, qui n’a manifestement pas l’habitude d’être présentée comme une émule d’Éric Zemmour, réagit : « Il faut que je rectifie parce que je crois que … Déconstruire la déconstruction, c’est le titre de notre émission … »5. Anne-Emmanuelle Berger la rassure en lui disant qu’elle ne doute pas de la pureté de ses intentions, mais cela ne suffit pas et la productrice d’Avec philosophie, visiblement ébranlée, reviendra d’elle-même sur le sujet à la 41e minute en confessant, penaude : « Je ne me souvenais pas du tout que c’était une expression d’Éric Zemmour ». Personne n’aura la cruauté de lui répondre que les grands esprits se rencontrent … Reste à savoir si l’épisode a été utile à Mme Berger : s’est-elle rendu compte que tirer argument contre une expression de ce qu’elle a été utilisée par Zemmour, alors que la même expression l’a été aussi par quelqu’un qui est aux antipodes de Zemmour, c’est faire exploser son argument en plein vol ?6 La suite va montrer que non.

Le pluralisme étant la règle du service public, et celle de France Culture en particulier, Géraldine Muhlmann passe un bref extrait (1 minute) d’une interview de Nathalie Heinich (de 25’12’’ à 26’’12’). La sociologue y expose que, selon une étude publiée par l’Observatoire du décolonialisme7, 50% des intitulés des activités universitaires – colloques, journées d’études, séminaires, ateliers – comportent des termes empruntés au wokisme et que cette vague théorique s’accompagne, sur le plan pratique, de la cancel culture, venue des États-Unis, qui consiste à priver de parole, par des actions militantes, ceux qui ne pensent pas dans cette ligne. La productrice demande alors à Mme Berger de réagir à ce propos :

« Comment réagissez-vous à ce propos de Nathalie Heinich qui suggère que des gens en France n’arriveraient pas à mener leurs travaux parce qu’ils seraient confrontés à une chape de plomb woke ? »

C’est seulement à la fin d’une tirade qui s’étend de 26’32’’ à 32’ qu’Anne-Emmanuelle Berger répond à la question qui lui a été posée et elle le fait dans les termes suivants :

« Moi, je ne suis pas partisane d’ailleurs des opérations coup de poing, si vous voulez, quand elles ont lieu, mais elles sont, je dirais grossies. Moi qui suis en France en Études de genre, je peux vous dire que les études de genre sont bien plus menacées d’être « cancelées », et l’ont été de tout temps et le sont encore, que la grande tradition philosophique ».

Mme Berger nous dit donc d’abord qu’elle n’est pas favorable aux actions violentes de commandos, sans aller toutefois jusqu’à les condamner fermement, ni même mollement ; ensuite que ces actions ont été exagérées par ceux qui en ont été victimes ; enfin que les véritables victimes de la « cancel culture », les plus menacées, ce sont elle et ses semblables, les spécialistes des études de genre. Pour autant, elle ne nous donne pas le moindre exemple des persécutions qu’elle a subies. En 2017, il s’était trouvé 1937 intellectuels « progressistes » pour signer une pétition réclamant que le prix Pétrarque soit retiré à Nathalie Heinich au motif qu’elle serait homophobe et antiféministe. Mme Berger a-t-elle dû supporter une semblable cabale ? Une douzaine d’années plutôt, une pétition de même nature avait été signée pour demander qu’Alain Finkielkraut fût chassé de France Culture ; trois ans plus tard, des centaines d’universitaires demandaient une « enquête approfondie » contre l’historien Sylvain Gouguenheim8 ; en 2014, 230 intellectuels et universitaires appelaient à boycotter les Rendez-Vous de Blois pour protester contre l’invitation faite à Marcel Gauchet d’y prononcer la conférence inaugurale. Quels sont les professeurs d’études de genre qui ont dû subir la même chose, et de la part de qui ? Quels sont les noms des intellectuels « conservateurs » ou « réactionnaires » qui ont pétitionné pour demander leur exclusion de l’université, de la radio, de la télévision ? Où peut-on lire leurs pétitions ? Des activistes ont empêché par la violence que Sylviane Agacinski, accusée elle-aussi d’homophobie, puisse donner une conférence à l’université de Bordeaux, d’autres qu’Alain Finkielkraut puisse le faire à Sciences Po, le linguiste Jean Szlamowicz a été interdit de conférence dans sa propre université, Caroline Eliacheff et Céline Masson ont vu leurs conférences empêchées ou perturbées par la violence à Lille, à l’université de Genève, à Bruxelles où elles ont été injuriées et aspergées d’excréments par des activistes qui les accusaient de « transphobie » : où et quand un spécialiste d’études de genre a-t-il été victime de cette « cancellisation » ? Mme Berger ne nous le dit pas – et pour cause.

Cependant, cette « réponse » à la question de Géraldine Muhlmann a été précédée d’un développement particulièrement instructif dont je résume les trois moments. Le premier prend la forme d’une reductio ad zemmourium :

« Natalie Heinich parle d’idéologie identitaire et, comme je le disais au début de l’émission, le slogan Déconstruire la déconstruction relève justement d’une idéologie identitaire qui est l’idéologie identitaire de la francité, de la rationalité française pure, encore une fois l’expression vient de Zemmour ».

Dans un second temps, Mme Berger explique que la déconstruction est combattue comme « le parti de l’étranger ». Elle est vue, ce qui est paradoxal, comme venant des États-Unis. Aux États-Unis, dans les années 90, un procès avait déjà été fait à ladite déconstruction par des médias conservateurs qui lui attribuaient l’origine de ce qu’on appelait alors non pas le wokisme, mais la political correctness. Autrement dit, Nathalie Heinich reproduit un discours qui vient de l’étranger, d’un de « ces étrangers honnis », en l’occurrence l’Amérique.

Plusieurs arguments se télescopent étrangement dans ce passage confus. Nathalie Heinich ayant rappelé que la cancel culture est d’origine américaine, ce qui est difficilement contestable, et des médias conservateurs américains ayant attribué à la déconstruction l’origine du wokisme, la sociologue est à la fois convaincue d’antiaméricanisme, puisqu’elle n’aime pas la cancel culture, et de philoaméricanisme, puisqu’elle reproduit un discours américain, mais, semble-t-il, dans une version conservatrice, pour ne pas dire « trumpiste ». Cependant, la xénophobie de Nathalie Heinich et de ses semblables ne s’arrête pas à la haine de l’Amérique, elle va beaucoup plus loin comme le montre le troisième moment de l’argumentaire qui vaut la peine, lui, d’être reproduit textuellement :

« Dans La pensée 68, donc, l’ouvrage commis par Luc Ferry et Alain Renaut, il est question là encore des origines étrangères de cette pensée contemporaine décriée, du nietzschéisme de Foucault, du heideggerianisme de Derrida, du freudisme de Lacan, du marxisme de Bourdieu, autrement dit tous ces Allemands ou ces Juifs allemands qui font revenir le spectre de 68 et, vous le savez, la figure iconique de 68, c’était Dany Cohn-Bendit, justement un Juif allemand etc. À cela s’ajoute à mon avis, et c’est pour cela qu’on a fait de la déconstruction encore une fois la super figure de cet hôte indésirable, de ce virus étranger qui attaque le corps propre, s’ajoute à tout cela le fait que Derrida, même si on ne le dit pas directement, est un penseur qui vient de ladite périphérie, c’est-à-dire d’Algérie, qui est juif, etc., et qui donc porte sur lui en quelque sorte toutes les marques d’un étranger ».

Dans l’ouvrage de Ferry et Renaut, les chapitres consacrés aux penseurs qui ont, selon ses auteurs, inspiré la « pensée 68 » s’intitulent : Le nietzschéisme français (Foucault), L’heideggerianisme français (Derrida), Le marxisme français (Bourdieu) et Le freudisme français (Lacan). Ainsi, rappeler dans le titre d’un chapitre que Derrida a été un grand lecteur de Heidegger ou que le psychanalyste Lacan a subi l’influence du fondateur de la psychanalyse, qui était lui aussi « Allemand », cela revient à dénoncer le parti de l’étranger et c’est faire preuve de germanophobie. C’est en quelque sorte se comporter comme Mélenchon lorsqu’il tweete à l’intention d’Angela Merkel : « Maul zu, Frau Merkel ! »9 ou lorsque sur son blog, il traite la députée européenne Ingeborg Grässle de « caricature de boche de bande dessinée »10. Mais c’est bien pire encore car, parmi ces Allemands, il y a des Juifs, des Juifs allemands qui ont préparé mai 68 et dont le rejeton iconique est Daniel Cohn-Bendit, lui aussi Juif allemand, comme par hasard ! Tout s’explique ! Ferry et Renaut ne sont pas seulement germanophobes, ils sont antisémites. Et puis, cerise sur le gâteau, Derrida est lui-même un Juif qui vient d’Algérie, un Juif séfarade. La preuve n’est-elle pas rapportée que ceux qui critiquent sa philosophie de la déconstruction sont des xénophobes, anti-arabes et antisémites ?

Personne ne songe à faire observer à Mme Berger qu’Éric Zemmour a en commun avec Jacques Derrida d’être un Juif originaire d’Algérie et de lui demander si, au fond, ce n’est pas cela qu’on lui reproche, « même si on ne le dit pas directement ».

Rendons justice à Denis Kambouchner. Après la diatribe de Mme Berger, il prend la parole pour dire que, tout hostile qu’il est au livre de Ferry et Renaut, il n’y a rien trouvé ni contre l’Étranger, ni contre le Juif. Il faut remercier Denis Kambouchner d’avoir sauvé l’honneur. Mais il faut aussi remercier Anne-Emmanuelle Berger de nous avoir donné une aussi belle illustration de la nature, de la méthode et des vertus de cette pensée déconstructrice dont elle fait la promotion et dont elle est une des plus éminentes représentantes.

Notes

1 – [NdE] Les Actes de ce colloque sont actuellement en voie de publication. On peut écouter l’intégralité des enregistrements sur le site de l’Observatoire du colonialisme et des dérives identitaires : https://decolonialisme.fr/les-conferences-du-colloque-que-reconstruire-apres-la-deconstruction-les-enregistrements/

4 – [NdE] Voir les références notes précédentes.

5 – [NdE] Effectivement, le titre de l’émission a changé comme on peut le constater sur le site de France Culture (voir le lien note 3).

6 – On pourrait penser à la réfutation socratique par l’argument  et oppositum (cf. Victor Goldschmidt Les Dialogues de Platon). Mais Mme Berger n’est manifestement pas lectrice de Platon : à 45’18’’, elle fait remonter à Kant le refus de la doxa et de l’argument d’autorité …

7 – Xavier-Laurent Salvador, Jean Szlamowicz, Andrea Bikfalvi, « Le décolonialisme, c’est 50,4% » https://decolonialisme.fr?p=3590 .

8 – [NdE] voir sur le site d’archives « Le médiéviste et les nouveaux inquisiteurs » http://www.mezetulle.net/article-le-medieviste-et-les-nouveaux-inquisiteurs-par-a-perrin-30483836.html repris par André Perrin dans Scènes de la vie intellectuelle en France, Paris : Toucan, 2016 https://www.mezetulle.fr/parution-livre-dandre-perrin-scenes-de-vie-intellectuelle-france/ .

9 – Le 7 décembre 2014.

10 – Le 8 décembre 2014.

Le libéralisme est-il la cause de la mort de l’école ?

Jean-Michel Muglioni n’a pas manqué dans de nombreux propos publiés sur Mezetulle1 de s’en prendre à ce qu’on appelle le libéralisme. Après avoir lu l’article de Christophe Kamysz2, il revient sur ce sujet et, plus précisément, demande ici si la réussite du libéralisme dans ce qu’il a de plus contestable ne s’expliquerait pas d’abord par la disparition de l’esprit républicain. La fin politique de l’école – faire de l’homme un citoyen – résulte de l’instruction : il suffit que l’école soit elle-même pour être républicaine et laïque.

Christophe Kamysz a raison : « la finalité de l’école républicaine […] n’est pas économique mais politique. » Elle n’est pas de former ou plutôt de transformer les hommes pour en faire les rouages d’une société civile, c’est-à-dire marchande, mais de les élever à la citoyenneté. Notons-le, cette idée de l’école est paradoxale : la fin politique de cette école n’est pas ce que vise directement l’enseignement, ce n’est pas un objet d’enseignement. L’enseignement laïque est résolument libre, il ne demande pas de croire, contrairement à l’enseignement religieux, il est le contraire de toutes les formes d’endoctrinement dictatoriales ou totalitaires. La fin politique de l’école, faire de l’homme un citoyen, résulte par surcroît de l’instruction, comme le bonheur couronne la vertu selon Aristote. Par l’instruction, si du moins c’est une véritable instruction, l’élève devient un homme libre, c’est-à-dire capable de juger, et donc capable d’exercer sa citoyenneté. Il suffit que l’école soit l’école pour être républicaine et laïque. Éprouver le besoin, comme aujourd’hui, de faire de la laïcité l’objet d’un enseignement spécial signifie qu’il n’y a plus d’école.

Condorcet pouvait penser qu’un enseignement élémentaire suffit à préparer chacun à la liberté, parce que, élémentaire, il ne propose que ce que chacun peut comprendre : il permet à chacun de s’élever par degré du plus simple au plus complexe, sans qu’il soit nécessaire que tous s’élèvent au plus haut. S’il fallait que tous les hommes deviennent des savants pour être citoyens, la souveraineté du peuple n’aurait aucun sens. Il suffit que chacun apprenne à distinguer ce qu’il sait et ce qu’il ne fait que croire – et cela aussi bien dans le domaine scientifique où nous ne connaissons réellement pas grand-chose mais disposons de multiples savoirs « à crédit » : d’« informations » que nous prenons pour des savoirs quand en réalité nous n’y comprenons rien, étant incapables d’en rendre raison. Je donne toujours cet exemple : qui, même parfois après de longues études, est capable de dire pour quelles raisons il faut admettre que la Terre tourne autour du Soleil ?

Si l’école ne remplit pas aujourd’hui sa fonction qui est d’instruire, si elle est devenue prisonnière de l’économie, de la société – on se rappellera que l’ouverture de l’école sur la société est un thème récurrent des réformes tentées par tous les partis depuis les années soixante du siècle dernier –, est-ce d’abord pour des raisons économiques et parce qu’on aurait eu le dessein de faire des esclaves, comme autrefois des soldats pour reprendre l’Alsace et la Lorraine ? Tel est bien le dessein de l’OCDE et de nos gouvernements successifs. Ce dessein, qu’on peut appeler libéral en effet, est fondé sur l’obnubilation de l’économie, qui caractérise aussi les socialismes. Mais suffit-il à expliquer la renonciation générale à l’instruction ? La mort de l’école ne vient-elle pas d’abord de ceci que l’idée même du savoir a été oubliée, et oubliée des savants eux-mêmes ? La régression dont parle à juste titre Christophe Kamysz vient-elle d’abord de la société et de la pression des intérêts économiques ou de la faillite des esprits, de ce que Benda appelait la trahison des clercs – parmi lesquels les philosophes ont peut-être eu un rôle déterminant ?

La réussite admirable des sciences et des techniques qu’elles ont permis de mettre en œuvre – sans lesquelles par exemple j’aurais quitté ce monde depuis longtemps – cette réussite a fait prévaloir l’efficacité sur l’exigence d’intelligibilité. De là cette l’idée que ce qui y est « scientifique » est ce qui marche et non ce qui aurait en soi-même une intelligibilité. De même l’impossibilité où chacun se trouve de maîtriser toutes les sciences a fini par faire prendre une information pour une vérité scientifique, d’autant plus qu’il nous arrive chaque jour de faire usage de ces connaissances par ouï-dire de manière efficace et que notre réussite nous fait oublier qu’en réalité nous ne comprenons pas ce que nous faisons. Quand on voit des manuels de science imposés aux élèves asséner des « vérités » sans jamais en rendre raison, on comprend que croire un livre sacré ne paraisse pas déraisonnable.

De là, donc, la disparition de la laïcité, de là la pression des croyances religieuses ou non sur l’école. Car la laïcité, c’est d’abord l’idée d’une école fondée sur la clarté du savoir, et non sur l’endoctrinement idéologique ou religieux. La séparation des Églises et de l’État signifie que le politique n’est plus soumis aux Églises, ce qui suppose une instruction publique qui libère les futurs citoyens de leurs pressions. Si aujourd’hui il arrive que de jeunes esprits s’opposent à la République au nom de la religion musulmane, il ne faut pas d’abord s’en prendre à l’islam ni même aux islamistes : c’est qu’il n’y a plus d’école. Il ne faut pas davantage s’en prendre au libéralisme – au libéralisme économique et au marché – si à l’intérieur même de l’école le souci de l’élémentaire a été oublié. Et peut-être l’absence assez générale d’esprit républicain explique-t-elle aussi autant ou plus que le libéralisme économique la remise en cause de l’idée même de service public en général. À quoi bon, en effet, des services publics s’il n’y a pas des citoyens mais des consommateurs ?

Notes

1 – Voir la table des articles par auteurs https://www.mezetulle.fr/tables-auteurs/ , et aussi celle du site d’archives http://www.mezetulle.net/article-16750257.html

Le maccarthysme est-il la chose du monde la mieux partagée ?

Sur le dénigrement du colloque « Après la déconstruction ». Le retournement victimaire

Le colloque Après la déconstruction : reconstruire les sciences et la culture (Sorbonne 7 et 8 janvier 2022)1 est l’objet d’une campagne de dénigrement qui a commencé avant même sa tenue et qui se poursuit encore aujourd’hui. André Perrin s’interroge plus particulièrement sur la qualification de « maccarthysme soft »2. Il se trouve pourtant qu’aucun des intervenants n’a appelé à censurer qui que ce soit et que, en revanche, deux d’entre eux sont visés par de tels appels. « Et si le maccarthysme consiste à dénoncer des adversaires pour qu’ils soient chassés de leur poste, privés d’emploi, traduits devant les tribunaux et réduits au silence, alors oui, un certain maccarthysme existe en France ». La liste, fort longue et pourtant incomplète, que dresse André Perrin de ces dénonciations et obstructions resterait comique si elle n’illustrait pas l’usage de plus en plus répandu et inquiétant du procédé de retournement victimaire3 . Sont accusés de « maccarthysme » ceux qui précisément en sont les victimes.

Avant le colloque : juger et condamner ce qui n’a pas encore eu lieu

Les 7 et 8 janvier 2022 était organisé à la Sorbonne un colloque intitulé Après la déconstruction : reconstruire les sciences et la culture. La bonne presse n’avait pas attendu qu’il se tînt pour le juger et le condamner. Libération avait publié le 17 décembre 2021 et le 5 janvier 2022 deux articles venimeux destinés à dire tout le mal qu’il fallait en penser. Du haut de son magistère, le journaliste Simon Blin s’y employait, sans rire, à enseigner aux universitaires renommés invités à y intervenir que chez Derrida la déconstruction « ne signifie pas qu’il faut tout démolir ». Le Monde n’était pas en reste qui, après avoir publié le 28 décembre une tribune défendant la culture « woke », publiait le 5 janvier, deux jours donc avant l’ouverture du colloque, un texte signé par 74 universitaires expliquant « pourquoi le colloque organisé par l’Observatoire du décolonialisme, les 7 et 8 janvier, constitue une caricature de son objet car il conduit à observer pour ne rien voir ».

Vous vous demandez peut-être comment on peut savoir qu’un colloque qui n’a pas encore eu lieu a raté son objectif ? Quelle naïveté ! C’est comme si vous exigiez d’un critique de cinéma qu’il aille voir un film avant d’en rendre compte dans les colonnes du Monde : ne suffit-il pas pour ce faire de connaître son titre, son sujet, le nom du réalisateur et celui des acteurs ? Nos universitaires sont beaucoup plus malins que vous ne l’imaginez. Certains d’entre eux en avaient fourni la preuve, il y a une petite quinzaine d’années, en allant réclamer à la directrice de la collection « L’univers historique » aux éditions du Seuil un exemplaire d’un livre de Sylvain Gouguenheim contre lequel ils avaient déjà signé et publié un manifeste4.

Après le colloque : on vous l’avait bien dit !

On ne s’étonnera donc pas que les autres articles publiés par Le Monde après le colloque, celui de Soazig Le Nevé le 8 janvier, celui de François Dubet le 10 janvier et celui de Jacob Rogozinski le 23 janvier aient confirmé la préscience de nos 74 universitaires. Tenons-nous en à la tribune de François Dubet intitulée « Le colloque organisé à la Sorbonne contre le ‘wokisme’ relève d’un maccarthysme soft », d’abord sur trois ou quatre points de détail, puis sur l’essentiel. Ce colloque, nous dit Dubet, a mobilisé à côté d’honorables conférenciers auxquels ils se sont mêlés, « les réseaux de l’extrême-droite ». Quels réseaux ? Sous quelle forme ont-ils été présents au colloque ? Par qui et comment ont-ils été mobilisés ? Quand et comment se sont-ils manifestés ? Les lecteurs du Monde ne le sauront évidemment pas, et pour cause ! Dubet impute ensuite à Mathieu Bock-Côté des « diatribes à la limite du racisme ».

Si les mots avaient encore un sens, on comprendrait que ce qui est « à la limite du racisme » n’a pas franchi cette limite et n’est donc pas raciste. Mais ce qu’il faut voir ici, c’est que ce genre d’astuce rhétorique permet de traiter subliminalement quelqu’un de raciste sans risquer de se voir sommé d’en apporter la preuve devant les tribunaux et sans s’exposer à être condamné pour diffamation, ce qui est habile à défaut d’être courageux. Dubet suggère encore que si Zemmour n’avait pas été mobilisé par sa campagne électorale, il aurait été invité au colloque en sa qualité d’« historien » (probablement pour y prononcer un éloge du Maréchal Pétain devant une Dominique Schnapper admirative …). On touche là au comble du grotesque.

La quasi-totalité des intervenants de ce colloque étaient des universitaires réputés dont le prestige et les titres académiques n’avaient rien à envier – c’est peu dire – à ceux de M. Dubet, ex-spécialiste de sciences de l’éducation à l’université de Bordeaux. Seule une des douze tables-rondes a été ouverte, en qualité de « témoins », à des personnalités qui n’étaient pas invitées en tant qu’universitaires, même si elles n’étaient pas totalement étrangères à l’université, en l’occurrence Mathieu Bock-Côté qui n’est pas seulement éditorialiste, mais docteur en sociologie, discipline qu’il enseigne à l’université de Montréal, et Pascal Bruckner, romancier, essayiste, membre de l’académie Goncourt, mais aussi docteur en philosophie. Rien à voir donc avec Zemmour, simple journaliste amateur d’histoire. Enfin Dubet écrit : « Comment penser que c’est à l’État de dire quels sont les courants de pensée acceptables et ceux qui ne le seraient pas ? », attribuant ainsi cette proposition à ses adversaires pour justifier l’accusation de « maccarthysme ». Là, il est démenti par un autre article du Monde qui rapporte correctement ce qui a été dit au colloque sur ce sujet. Je cite Soazig Le Nevé : « La sociologue Nathalie Heinich réclame « un meilleur contrôle scientifique des productions fortement politisées ». Ce qu’elle réclame, ce n’est donc pas un contrôle politique des productions scientifiques, mais exactement le contraire : un contrôle scientifique de productions politisées.

Qu’est-ce qu’un « maccarthysme soft » ?

Venons-en maintenant à l’essentiel : l’accusation de maccarthysme, ou plus précisément de « maccarthysme soft ». Remarquons d’abord que l’adjonction de soft à maccarthysme relève d’une duplicité rhétorique analogue à celle du « à la limite du racisme » : elle permet d’utiliser des gros mots et de lancer des accusations invraisemblablement outrancières en toute impunité. Les CRS sont ainsi des SS soft et une mère de famille excédée qui donne une claque à un gamin insupportable pourrait être convaincue de nazisme light : la malchance de Jean Moulin, c’est d’être tombé sur des nazis un peu moins light ou un peu moins soft que les autres. Qu’est-ce en effet que le maccarthysme ? En période de guerre froide aux États-Unis, pendant deux ans, des commissions parlementaires ont enquêté sur des activités anti-américaines imputées à des communistes ou sympathisants communistes, réels ou supposés. Des fonctionnaires ont été écartés, des artistes inquiétés, parfois inculpés, condamnés et incarcérés et certains, privés d’emploi, durent s’exiler comme Bertolt Brecht, Charlie Chaplin ou encore Orson Welles. Quel rapport avec notre colloque ? Non seulement aucun intervenant n’a appelé à boycotter ou à censurer qui que ce soit, mais aucun nom d’un universitaire français vivant n’a été prononcé : il s’agissait de combattre le « wokisme », c’est-à-dire une idéologie, non de dénoncer des individus.

En revanche, il y avait parmi les intervenants du colloque deux personnes qui ont été récemment victimes de ce que Dubet appelle le maccarthysme soft : Jean Szlamowicz et Vincent Tournier.

Professeur de linguistique à l’université de Bourgogne, Jean Szlamowicz devait donner le 10 décembre 2019, dans sa propre université, une conférence intitulée « L’écriture inclusive à l’épreuve de la grammaire ». Des activistes ont menacé de l’empêcher par la violence et le directeur de l’UFR l’a interdite en précisant à Szlamowicz que ses collègues ne souhaitaient pas qu’il puisse s’exprimer, ce en quoi il les approuvait.

Quant à Vincent Tournier, maître de conférences de sciences politiques à l’IEP de Grenoble, il s’était opposé, comme son collègue Klaus Kinzler, professeur agrégé d’allemand, à l’usage du concept d’islamophobie, trop souvent utilisé pour interdire toute approche critique de l’islam. Cela leur avait valu des affiches placardées à l’entrée de Sciences Po où ils étaient traités d’islamophobes et de fascistes. Les activistes étudiants avaient été confortés par des professeurs de l’IEP, en particulier Gilles Bastin, professeur de sociologie, qui a rédigé un tweet déplorant que la « liberté d’expression » permette à « deux hommes blancs non musulmans » de contester la pertinence du concept d’islamophobie. Un rapport de 55 pages de l’Inspection générale de l’éducation et de la recherche avait pointé la responsabilité des activistes d’extrême-gauche et préconisé des sanctions à leur encontre. Traduits devant un conseil de discipline, ils ont tous été relaxés. En revanche, Klaus Kinzler s’était vu interdire par la directrice de l’lEP de Grenoble de s’exprimer dans les médias sur ce qui se passe dans cet établissement. Pour avoir enfreint cette interdiction, il vient d’être suspendu par ladite directrice et va être traduit devant un conseil de discipline.

Le retournement victimaire. Inventaire et contre-inventaire

Ainsi François Dubet accuse de maccarthysme ceux qui en sont précisément les victimes, mais sans donner le moindre exemple d’un acte de type maccarthyste dont ces victimes auraient été elles-mêmes coupables. Si le maccarthysme consiste à dénoncer des adversaires pour qu’ils soient chassés de leur poste, privés d’emploi, traduits devant les tribunaux et réduits au silence, alors oui, un certain maccarthysme existe en France et, à la différence de François Dubet, je suis, moi, en mesure d’en donner des exemples.

Inventaire

  • Le 25 mai 2002, une belle brochette d’intellectuels publiait dans Le Monde une tribune dans laquelle on pouvait lire : « les propos de Renaud Camus sont des opinions criminelles qui n’ont comme telles pas le droit à l’expression ».
  • En juin 2005, un collectif d’Antillais conduit par Claude Ribbe déposait une plainte pour tenter de faire condamner par la justice l’historien Olivier Grenouilleau.
  • Le 8 décembre 2005, une soixantaine d’intellectuels, dont une vingtaine d’universitaires, adressaient une lettre au directeur de France Culture pour demander qu’Alain Finkielkraut soit chassé de son émission Répliques.
  • Au printemps 2008, des centaines d’universitaires signaient des pétitions pour dénoncer le médiéviste Sylvain Gouguenheim, demander une « enquête approfondie » contre lui et tenter de ruiner sa carrière universitaire.
  • Le 26 novembre 2008, c’est le sociologue Michel Wieviorka (avec qui François Dubet a écrit plusieurs livres) qui signait une tribune dans Télérama pour demander que Zemmour soit interdit de plateau sur Arte et poursuivi devant les tribunaux.
  • En 2012, ce sont 116 universitaires et écrivains qui contresignèrent une tribune d’Annie Ernaux pour demander – et obtenir – que Richard Millet soit chassé du comité de lecture de Gallimard.
  • En juillet 2014, il se trouva 229 intellectuels pour contresigner une tribune de Geoffroy de Lagasnerie et Édouard Louis appelant à boycotter les Rencontres de Blois afin de protester contre l’invitation faite à Marcel Gauchet d’y prononcer la conférence inaugurale.
  • En 2018 le collectif Décoloniser les arts a tenté d’empêcher Ariane Mnouchkine et son théâtre du Soleil de représenter le spectacle Kanata en l’accusant d’« appropriation culturelle ».
  • En mars 2019, une représentation des Suppliantes d’Eschyle qui devait avoir lieu à la Sorbonne est empêchée par la violence par des militants du CRAN et d’autres associations au motif de « blackface ».
  • Le 23 avril 2019, une conférence d’Alain Finkielkraut à Sciences Po est empêchée par une milice prétendument antiraciste et ne pourra être tenue, plus tard, que sous protection policière.
  • Le 24 octobre, c’est une conférence de Sylviane Agacinski à l’université de Bordeaux qui doit être annulée sous la menace d’activistes qui l’accusent d’être une « homophobe notoire ».
  • Un mois plus tard, une formation sur la prévention de la radicalisation qui devait être animée les 21 et 22 novembre à l’université de Paris I a été annulée par le président à la demande de plusieurs universitaires qui accusaient le formateur, Mohamed Sifaoui, journaliste algérien condamné à mort par les islamistes et vivant en France sous protection policière, d’être un « islamophobe ».

N’en jetez plus, la coupe est pleine, direz-vous. Non, elle n’est pas pleine, il y a encore bien d’autres exemples, mais je ne voudrais pas lasser le lecteur. L’important est ceci : dans tous ces cas, les maccarthystes soft (ou hard, c’est selon) se réclament de la pensée « progressiste », c’est-à-dire de la mouvance intellectuelle dans laquelle s’inscrit M. Dubet.

Contre-inventaire

F. Dubet peut-il citer une seule pétition dans laquelle les organisateurs et conférenciers du colloque auraient appelé à chasser de son poste un de ces intellectuels qui usent eux-mêmes de ce procédé à l’endroit de ceux qu’ils qualifient de « réactionnaires » ? Non, il ne le peut pas parce que ce n’est jamais, absolument jamais, arrivé. Peut-il nous donner l’exemple d’une conférence de l’un d’entre eux empêchée par la violence ?

  • Clémentine Autain, dont la légitimité « scientifique » n’est pourtant pas plus assurée que celle d’Éric Zemmour, a pu donner des conférences à l’université de Paris-Tolbiac et à celle de Poitiers sans subir le sort réservé à Alain Finkielkraut ou à Sylviane Agacinski.
  • Maboula Soumahoro, maîtresse de conférences à l’université de Tours qui s’est illustrée en déclarant qu’un homme blanc « ne peut pas avoir raison contre une Noire et une Arabe » n’a jamais vu ses interventions publiques perturbées par des hommes blancs.
  • En 2017, Geoffroy de Lagasnerie a réuni près de 2000 signataires pour réclamer qu’on retire à Nathalie Heinich le prix Pétrarque qui venait de lui être attribué : est-ce qu’un seul des universitaires qui se sont associés à cette entreprise a lui-même fait l’objet d’une semblable cabale de la part de ses adversaires ?
  • Alain Badiou, apologiste de la révolution culturelle chinoise et thuriféraire des Khmers rouges, a pu dire froidement que « si réellement il s’agit de fonder un nouveau monde, alors le prix à payer par l’ancien monde, fût-ce en nombre de morts ou quantité de souffrance, est une question relativement secondaire »5 ; il n’a été ni boycotté, ni ostracisé, ni stigmatisé. Aucun intellectuel « réactionnaire » n’a demandé son exclusion des médias au motif que ses propos seraient « des opinions criminelles qui n’ont comme telles pas le droit à l’expression ». Il est au contraire toujours accueilli aimablement, voire obséquieusement, par les journalistes du service public. Et il est fort courtoisement traité par les « maccarthystes soft » de M. Dubet : Marcel Gauchet et Pierre Manent ont, l’un et l’autre, accepté de débattre avec lui. Quant à Alain Finkielkraut, il l’a reçu à de multiples reprises à Répliques et a même publié avec lui un livre d’entretiens avant de se voir rejeté de façon insultante dans une lettre ouverte.

Alors où est la tolérance ? Où est l’intolérance ? Et où est le maccarthysme ?

Notes

1 – [NdE] Colloque organisé par l’Observatoire du décolonialisme et des idéologies identitaires et par le Comité Laïcité-République les 7-8 janvier 2022 à la Sorbonne. On peut écouter l’intégralité des interventions sur le site de l’Observatoire… https://decolonialisme.fr/?p=6517

2 – « Le colloque organisé à la Sorbonne contre le ‘wokisme’ relève d’un maccarthysme soft », tribune de François Dubet, Le Monde 10 janvier 2022 https://www.lemonde.fr/idees/article/2022/01/10/francois-dubet-le-colloque-organise-a-la-sorbonne-contre-le-wokisme-releve-d-un-maccarthysme-soft_6108891_3232.html

3 – [NdE] Procédé par lequel on accuse la victime d’être coupable et où l’accusateur se présente lui-même comme victime. L’exemple-type est « l’argument du violeur » (la victime violée est accusée de provocation, et le coupable se justifie en tant que victime de cette provocation). Voir sur ce site l’exemple de l’accusation de blasphème  : https://www.mezetulle.fr/du-respect-erige-en-principe/

4 – [NdE] Voir l’article d’André Perrin « Le médiéviste et les nouveaux inquisiteurs » sur le site d’archives mezetulle.net http://www.mezetulle.net/article-le-medieviste-et-les-nouveaux-inquisiteurs-par-a-perrin-30483836.html , texte repris dans son livre Scènes de la vie intellectuelle en France. L’intimidation contre le débat, Paris : éd. du Toucan, 2016 https://www.mezetulle.fr/parution-livre-dandre-perrin-scenes-de-vie-intellectuelle-france/ .

5 – « Beyond Formalization » entretien avec Peter Hallward et Bruno Bosteels du 2 juillet 2002, dans Angelaki 8:2 (2003), p. 111-136. Repris en annexe dans Bruno Bosteels Badiou and Politics, Duke University Press, 2011, p. 338 et suiv. ; le passage cité se trouve p. 339 : « If it is really a matter of founding a new world, then the price paid by the old world, even in the number of deaths or the quantity of suffering, becomes a relatively secondary question ».

Prénoms des descendants d’immigrés en France : une imposture scientifique (par J.-F. Mignot)

Jean-François Mignot1 expose la critique d’un article publié en 2019 par l’INED (Institut national d’études démographiques)2  selon lequel, en France métropolitaine en 2008, les prénoms les plus fréquemment portés par les petits-fils d’immigrés du Maghreb seraient « Yanis » et « Nicolas ».
Le problème est que ces résultats, largement médiatisés, sont inexacts : ce que s’emploie à établir le texte ci-dessous en tentant de comprendre comment les auteurs les ont obtenus. Ce qui conduit au second problème : la méthodologie employée par l’article critiqué n’a pas été communiquée, malgré les demandes réitérées. Il s’agit donc non seulement de rectifier les résultats mais encore d’alerter la communauté scientifique et le public sur « une fraude scientifique dont l’objectif est manifestement de biaiser l’image de l’immigration aux yeux du public »3.

Des résultats spectaculaires et largement médiatisés

En avril 2019, le bulletin d’information scientifique de l’Institut national d’études démographiques (INED) a publié un article intitulé : « Quels prénoms les immigrés donnent-ils à leurs enfants en France ? » (auteurs Baptiste Coulmont et Patrick Simon 2019)4. S’inscrivant dans un courant de recherches en sciences sociales qui étudie le choix du prénom comme « un marqueur culturel » et « une mesure de l’assimilation », l’article part de la question suivante : « Les prénoms donnés par les immigrés à leurs enfants, et ceux que reçoivent à la génération suivante leurs petits-enfants, sont-ils puisés dans le registre des prénoms des pays d’origine, ou sont-ils au contraire similaires à ceux donnés par la population majoritaire [c’est-à-dire la population sans ascendant immigré ni natif des DOM] ? »

Fondé sur l’exploitation statistique de l’enquête Trajectoires et origines (TeO) menée en France métropolitaine en 2008, cet article présente notamment deux résultats spectaculaires :

  • Tableau (page 3) : les prénoms les plus fréquents chez les petits-fils d’immigrés du Maghreb sont « Yanis » et « Nicolas » ;
  • Figure 2 (page 3) : si 94 % des immigrés du Maghreb (1ère génération) et 84 % des enfants d’immigrés du Maghreb (2e génération) portent un prénom « arabo-musulman », ce n’est le cas que de 23 % des petits-enfants d’immigrés du Maghreb (3e génération), un ordre de grandeur assez proche des 16 % de petits-enfants d’immigrés d’Europe du Sud qui portent un prénom « latin ».

Dès sa parution, les résultats de cette étude sont abondamment repris par la presse nationale, du journal Le Monde à 20 Minutes et de Libération à Valeurs actuelles, mais aussi dans la presse régionale et étrangère et dans de nombreux médias, radios, chaînes télévisées et sites Internet d’information. La présentation dominante de l’article, fidèle à son contenu, est assez bien illustrée par celle qu’en a donnée le journal Le Monde, dans son article intitulé « Yanis, Sarah ou Inès : quand l’intégration se lit dans les prénoms des petits-enfants d’immigrés »5 :

« Leurs grands-parents s’appelaient Farid, Ahmed et Rachid, Fatima, Fatiha et Khadija. Les petits-enfants s’appellent désormais Yanis, Nicolas et Mehdi, Sarah, Inès et Lina. Ce sont les prénoms les plus portés par les Français descendants d’immigrés originaires du Maghreb. Contrairement à certaines idées reçues, « les petits-enfants de la première génération s’appelant Abdelkader ou Karim sont très largement minoritaires », explique Baptiste Coulmont. »

Comme un doute… Une méthodologie inaccessible

Ces résultats quelque peu contre-intuitifs sont-ils vrais ? Pour le savoir, quatre jours après la publication, j’ai contacté l’un des auteurs pour lui demander des précisions sur la méthodologie utilisée. Suite à nos échanges, je me suis rendu compte que l’encadré méthodologique de l’article (page 2) accumule les inexactitudes et les omissions, ce qui m’a conduit à chercher à vérifier ces résultats.

Pour les reproduire, je dispose des mêmes données que les auteurs, l’enquête TeO étant accessible aux chercheurs qui en font la demande. Ne me manque que leur méthodologie, c’est-à-dire leur nomenclature des prénoms par origine ainsi que leur programme informatique. J’ai donc demandé, à partir d’avril 2019, ces éléments méthodologiques, non soumis au secret statistique et que nombre de revues scientifiques publient en ligne (en annexe des articles). Pendant 20 mois, malgré mes demandes répétées, j’ai été confronté à un refus systématique de communication — et ce, de la part des auteurs mais aussi des représentants de l’INED : le rédacteur en chef de la revue, la directrice de l’INED et le référent à l’intégrité scientifique de l’INED. Si les auteurs ont finalement communiqué leur nomenclature des prénoms — non sans lui avoir préalablement substitué une nomenclature fallacieuse, qui incluait parmi les prénoms originaires des « États de langue arabe » des prénoms grecs, turcs, espagnols et portugais —, ils ne m’ont communiqué qu’un programme informatique incomplet, qui ne permet pas de reproduire leur Figure 3 sur la proportion de prénoms « arabo-musulmans » chez les petits-enfants d’immigrés du Maghreb selon la religiosité du parent. Ce faisant, les auteurs et l’INED ont non seulement empêché la reproduction à l’identique de leurs analyses : ils ont aussi violé les règles de l’intégrité scientifique et la « Charte nationale de déontologie des métiers de la recherche »6.

Essai de la reproduction des résultats « au plus près »

Pour savoir si les résultats de l’article sont exacts, je reproduis le tableau et les trois figures sur la même base de données que les auteurs : la version nominative de l’enquête TeO. L’échantillon privilégié, le seul sans doublons, est représentatif des personnes de 18-50 / 18-60 ans en ménage ordinaire et de leurs enfants de 0-17 ans, habitant en France métropolitaine en 2008 (N = 42 208). Cet échantillon (pondéré) permet de reproduire divers mouvements de la mode des prénoms en France depuis les années 1950, ce qui indique qu’il est de bonne qualité, tout comme la variable « prénom » de l’enquête. J’utilise aussi la même nomenclature des prénoms par origine que les auteurs, une fois expurgée de leurs erreurs de recodage (comme leur inclusion des prénoms « arméniens » parmi les prénoms « arabo-musulmans »). Cette nomenclature de l’INED concorde globalement bien avec une autre nomenclature conçue indépendamment et elle est globalement conforme aux connaissances établies en onomastique.

Essai de reproduction du premier résultat : « Nicolas »

Coulmont et Simon (2019, p. 3) indiquent qu’en France métropolitaine en 2008, les prénoms les plus fréquents chez les petits-fils d’immigrés du Maghreb seraient « Yanis » et « Nicolas ». Est-ce vrai ? L’échantillon maximal TeO des petits-fils d’immigrés du Maghreb ne contient que 23 « Yanis » et 11 « Nicolas » — des effectifs trop faibles pour permettre d’établir un palmarès des prénoms comme celui qui a été publié. Mais sur l’échantillon retenu, « Nicolas » est effectivement l’un des prénoms les plus portés par les petits-fils d’immigrés du Maghreb, tout comme « Jérémy » et « Benoît ». Ce sont même plus de 3 % des petits-fils d’immigrés du Maghreb qui seraient prénommés « Nicolas ». Et si l’on reproduit le tableau sur d’autres échantillons, il arrive que « Nicolas » soit le prénom le plus fréquent chez les petits-fils d’immigrés du Maghreb !

Problème : personne ne semble avoir entendu parler d’autant de petits-fils d’immigrés du Maghreb prénommés « Nicolas ». Ni les experts des migrations qui ont bien voulu répondre à mes questions, ni les recherches par entretiens menées auprès des couples « mixtes », ni la presse écrite, ni la radio et la télévision françaises, ni les ouvrages publiés en français depuis 1970, ni les moteurs de recherche Internet ou l’encyclopédie Wikipedia, ni l’annuaire téléphonique et les réseaux sociaux en 2021, ni même les décès en France ne comptent suffisamment de « Nicolas » originaires du Maghreb. Alors, que se passe-t-il ? Un examen de la méthodologie de l’enquête permet d’envisager que ses bases de données contiennent une erreur. Une partie de ces « Nicolas » ne seraient-ils pas des petits-enfants de rapatriés français ou européens de l’ex-empire colonial français en Afrique du Nord (y compris des Français et des Européens d’Algérie), autrement dit des petits-enfants de pieds-noirs ? Les pieds-noirs ne sont pas considérés comme des immigrés, parce que suite à l’indépendance des pays du Maghreb, ils ont conservé la nationalité française.

Pour vérifier si ces « Nicolas » ne seraient pas des petits-fils de pieds-noirs, j’examine d’abord les prénoms de leur entourage familial. Leur entourage porte des prénoms largement « français » ou européens (87 %) et ils ne sont pas, typiquement, les enfants de « Mohamed » et « Sarah », mais plutôt ceux de « Christine » et « Philippe ». J’estime ensuite combien d’immigrés et de descendants d’immigrés du Maghreb de l’enquête sont vraisemblablement des pieds-noirs et descendants de pieds-noirs, en combinant 4 critères : (i) l’enquêté qui est immigré (G1) ou enfant d’immigrés (G2) du Maghreb se déclare « plutôt d’accord » ou « tout à fait d’accord » avec l’idée que « on le voit comme un Français », (ii) dans son enfance ses parents originaires du Maghreb ne lui parlaient ni arabe ni berbère, et ni (iii) aucun de ses parents originaires du Maghreb ni (iv) lui-même n’est musulman. D’après ces estimations, la plupart (9/11) des « Nicolas » du tableau publié ne seraient pas des petits-fils d’immigrés du Maghreb, mais des petits-fils de pieds-noirs. Plus généralement, 1 % des immigrés (G1) et 10 % des enfants d’immigrés (G2) du Maghreb de l’enquête TeO seraient des (descendants de) pieds-noirs, mais surtout, 26 % des petits-enfants d’immigrés (G3) du Maghreb seraient des petits-enfants de pieds-noirs, ce qui explique pourquoi le tableau publié comprend un prénom comme « Nicolas », mais seulement chez les petits-enfants (G3). Comme les pieds-noirs sont par définition nés avant 1962 alors que, dans l’enquête TeO, les immigrés du Maghreb peuvent être nés jusqu’en 1990, les pieds-noirs sont en moyenne bien plus âgés que les immigrés du Maghreb, si bien qu’en moyenne ils ont eu plus de temps d’avoir leurs petits-enfants.

Une fois les immigrés du Maghreb et leurs descendants dissociés des pieds-noirs et de leurs descendants, les prénoms les plus fréquents chez les petits-fils d’immigrés du Maghreb de l’échantillon retenu sont non pas « Yanis » et « Nicolas », mais « Karim » et « Nassim ». Si les petites-filles d’immigrés du Maghreb portent des prénoms relativement diversifiés, les petits-fils portent pour la plupart des prénoms « arabo-musulmans ». Le Top 20 des prénoms les plus portés par les petits-fils d’immigrés du Maghreb ne comporte aucun prénom « français » non ambigu et aucun des prénoms du Top 20 des fils d’enquêté du groupe « majoritaire » — une situation très différente de celle des descendants d’immigrés d’Europe du Sud (ou d’Asie). Pas étonnant, donc, que le prénom « Nicolas » ne fasse pas partie du Top 3 des prénoms des petits-fils d’immigrés du Maghreb, d’autant qu’il est celui d’un saint catholique qui est associé à la Reconquista. « Nicolas » est en revanche un prénom porté par des descendants de pieds-noirs, comme le réalisateur Nicolas Bedos ou le journaliste Nicolas Demorand.

Essai de reproduction du second résultat : le « 23 % »

Coulmont et Simon (2019, p. 3) indiquent qu’en France métropolitaine en 2008, seulement 23 % des petits-enfants d’immigrés du Maghreb portent un prénom « arabo-musulman ». Là encore, est-ce vrai ? Même en conservant les petits-enfants de pieds-noirs parmi les petits-enfants d’immigrés du Maghreb, ce ne sont pas 23 % mais 37 % des petits-enfants d’immigrés (G3) du Maghreb qui porteraient un prénom « arabo-musulman ». Et une fois les petits-enfants d’immigrés du Maghreb dissociés des petits-enfants de pieds-noirs, il apparaît que sur l’échantillon TeO retenu, 49 % des petits-enfants d’immigrés du Maghreb portent un prénom que la nomenclature de l’INED catégorise comme « arabo-musulman » — loin devant les proportions de prénoms « spécifiques » que l’on peut observer chez les petits-enfants d’immigrés d’Europe du Sud (8 %), d’autre Europe (19 %), d’autre Afrique (9 %) ou d’Asie (5 %) (voir graphique ci-dessous).

Proportion de prénoms spécifiques par origine et « génération », en France en 2008

Lecture : parmi les personnes originaires du Maghreb, la part de prénoms spécifiques (« arabo-musulmans ») passe de 94 % (G1) à 76 % (G2) puis 49 % (G3), d’après la nomenclature de l’INED.

Champ : personnes de 18-50 / 18-60 ans en ménage ordinaire et leurs enfants de 0-17 ans habitant en France métropolitaine en 2008, données pondérées, N = 42 208. Les G1, G2 et G3 Maghreb qui en réalité sont probablement (descendants de) rapatriés sont exclus des analyses.

Source : TeO.

Les petits-enfants d’immigrés du Maghreb sont non seulement ceux qui portent le plus souvent un prénom spécifique à leurs origines, mais aussi ceux qui portent le moins souvent un prénom « français » (15 %), loin derrière les petits-enfants d’immigrés d’Europe du Sud (59 %). La sur-rétention des prénoms d’origine s’observe d’ailleurs chez d’autres populations d’origine musulmane en Europe, comme chez les descendants d’immigrés du Pakistan au Royaume-Uni et chez les descendants d’immigrés de Turquie en Allemagne.

Essai de reproduction des autres résultats

La figure 1 de l’article présente des résultats sélectifs, ce qui nuit à la connaissance des faits et biaise l’image globale qui s’en dégage. Si, depuis la fin des années 1940, de moins en moins de prénoms attribués en France sont « français », ce n’est pas seulement — comme le montre la figure 1 — parce que le groupe « majoritaire » attribue de moins en moins de prénoms « français » (au profit de prénoms « internationaux ou anglophones »), mais aussi — ce que cette figure 1 ne montre pas — parce que le groupe « minoritaire » (composé des immigrés, des natifs des DOM et de leurs descendants) attribue lui aussi de moins en moins de prénoms français (au profit de prénoms « arabo-musulmans »), et parce que ce groupe « minoritaire » devient démographiquement de plus en plus important au fil du temps. Quant à la figure 3 de l’article, elle sous-estime la part de prénoms « arabo-musulmans » chez les petits-enfants d’immigrés du Maghreb, même s’il est avéré que plus les petits-enfants d’immigrés du Maghreb ont des parents religieux, plus ils se sont vu attribuer des prénoms « arabo-musulmans ».

Une seule option : la rétractation

Contrairement à ce que les auteurs indiquent — un message repris par la plupart des médias en avril 2019 —, les descendants d’immigrés du Maghreb n’abandonnent pas leurs prénoms spécifiques presque autant que les descendants d’immigrés d’Europe du Sud. Au contraire, les descendants d’immigrés du Maghreb sont, de loin, ceux qui abandonnent le moins leurs prénoms spécifiques (et ceux qui se voient le moins souvent attribuer un prénom « français ») : il ne s’agit pas là simplement d’une « idée reçue », mais d’un fait solidement établi. Les principaux résultats étant faux (ou sélectifs au point que cela biaise l’image globale qui s’en dégage), l’article doit faire l’objet d’une rétractation en bonne et due forme.

Erreurs de bonne foi ou fraude scientifique ?

Pourquoi des auteurs et une institution de recherche qui considèrent leurs résultats comme fiables, ou méthodologiquement défendables, empêcheraient-ils de reproduire leurs résultats ? Quel besoin auraient-ils de communiquer une nomenclature fallacieuse et un programme informatique incomplet et de violer leurs engagements ainsi que la « Charte nationale de déontologie des métiers de la recherche »7 ? Deux chercheurs compétents — l’un spécialiste des prénoms, l’autre spécialiste des immigrés et fin connaisseur des catégorisations statistiques des immigrés du Maghreb et des pieds-noirs — auraient-ils pu croire qu’en métropole en 2008, les prénoms les plus fréquents chez les petits-fils d’immigrés du Maghreb étaient « Yanis » et « Nicolas », sans se poser de questions ni prendre le temps d’examiner les prénoms de l’entourage de la dizaine de « Nicolas » concernés ? Auraient-ils pu ne pas être alertés par le fait que, parmi les petits-enfants d’immigrés du Maghreb de leur figure 3, seulement 50 % sont d’origine musulmane ?

Vraisemblablement, les auteurs ne savaient que trop bien que leurs spectaculaires résultats étaient faux ou douteux : c’est pourquoi, dès fin avril, début mai 2019, ils ont empêché leur libre examen. Patrick Simon et l’INED ont d’ailleurs un passif en matière de manipulations statistiques destinées à « démontrer » que, contrairement aux idées reçues, les immigrés du Maghreb et leurs descendants s’intègrent pleinement dans la société française. Tout indique que l’objectif de Patrick Simon — chercheur-militant de la mouvance idéologique « décoloniale », Directeur de recherche à l’INED, directeur de département à l’Institut Convergences Migrations et chercheur associé à Sciences Po Paris — est d’influer favorablement sur les attitudes du grand public à l’égard des immigrés et de l’immigration. Il est regrettable que ces méconduites scientifiques bénéficient de la complaisance du milieu de la recherche, non seulement au sein de l’INED mais plus globalement en sociologie et en démographie de l’immigration.

En publiant ce travail, je vise plusieurs objectifs :

  • faire rétracter l’article de Coulmont et Simon (2019), et rétablir la vérité au sujet des prénoms des descendants d’immigrés en France ;
  • alerter la communauté des chercheurs en sciences sociales sur une imposture scientifique : l’INED, qui est l’institut de recherche censé informer le public et les pouvoirs publics sur les questions démographiques, non content d’avoir publié — et diffusé aux journalistes — des énormités, a violé les règles de l’intégrité scientifique et m’a empêché de vérifier ses résultats ;
  • alerter les journalistes et le grand public sur une fraude scientifique dont l’objectif est manifestement de biaiser l’image de l’immigration aux yeux du public ;
  • alerter sur le contexte académique qui a permis tout cela : la complaisance du milieu de la recherche en sociologie et en démographie de l’immigration, et le manque de fiabilité scientifique de ce champ de recherche, qui souffre d’un biais idéologique volontiers « décolonial ».

En biaisant les faits publiés et communiqués aux journalistes, au grand public et aux pouvoirs publics, les méconduites scientifiques sapent la confiance dans la recherche et dégradent le débat démocratique. Si la recherche en sciences sociales doit aider à éclairer le débat public et à lutter contre certaines idées colportées par des militants de tous bords, c’est en apportant aux citoyens des arguments factuels, fondés sur une méthode scientifique dénuée d’idéologie.

Notes

1 – [NdE] Jean-François Mignot est démographe au CNRS. Il s’intéresse aux comportements familiaux sur le long terme en France et dans le monde. Site web https://www.gemass.fr/member/mignot-jean-francois/ . L’article qui suit s’inspire d’une étude plus ample publiée par l’auteur : https://hal.archives-ouvertes.fr/halshs-03316741/document , accompagnée d’analyses complémentaires : https://hal.archives-ouvertes.fr/hal-03358803/document . On peut lire un article récent de J.-F. Mignot sur ce sujet dans la revue en ligne Telos https://www.telos-eu.com/fr/pourquoi-les-petits-enfants-dimmigres-du-maghreb-p.html

2 – L’Institut National d’Études Démographiques (INED) est un « établissement public à caractère scientifique et technologique » comme le CNRS ou l’INSERM, chargé d’informer le public et les pouvoirs publics sur les questions démographiques.

3 – [NdE] J.-F. Mignot m’avait envoyé une première version de son texte dès août 2021. Mais, désireux de laisser du temps à l’INED pour une éventuelle rétractation, et par ailleurs dans l’attente d’une réponse à ses demandes réitérées (effectuées pendant 2 ans et demi) de communication de la méthodologie, il m’avait demandé d’en différer la mise en ligne. Il m’a envoyé une seconde version, cette fois pour publication, le 6 janvier 2022 : c’est celle qu’on peut lire ici.
Je précise que je publie cet article pour des raisons scientifiques ; il s’agit d’un très bel exemple, appliqué ici à l’établissement des faits, de ce que les scientifiques appellent une démarche de réfutation. Le fait de donner tel ou tel prénom à un enfant n’appelle pas à mes yeux une interprétation socio-politique univoque et abrupte comme on le croit souvent à tort : c’est ce que montre notamment l’article que J.-F. Mignot a publié le 21 janvier dans la revue en ligne Telos (voir référence à la note 1).

7 – Voir note précédente.

« L’Immunité, la vie » de Marc Daëron, lu par C. Kintzler

Proposant une réflexion épistémologique qui puise aux meilleures sources contemporaines mais aussi – et il s’en réclame à juste titre – à la grande tradition française de philosophie des sciences de Claude Bernard à François Jacob, de Gaston Bachelard à Georges Canguilhem et à François Dagognet, le livre de Marc Daëron L’Immunité, la vie. Pour une autre immunologie1 s’adresse aussi bien aux spécialistes de l’immunologie qu’à un grand public éclairé qui ne rechigne pas à l’effort intellectuel et qui même en redemande. En l’occurrence, cela en vaut vraiment la peine car on a affaire ici à un ouvrage de référence qui éclairera et fera penser tout lecteur, que ce soit par la minutie d’un savoir sur un objet « pointu » et que l’actualité ne cesse de mettre en lumière, que par l’ampleur et la profondeur de sa réflexion philosophique.

Sortir d’une conception fondamentalement téléologique

C’est à partir de faits polémiques que l’auteur s’interroge, allumant dès une magistrale introduction le moteur qui fait fonctionner le livre. Le système immunitaire est ordinairement pensé, et largement vulgarisé, comme un ensemble de fonctions protectrices, tantôt arsenal défensif contre des hôtes indésirables, tantôt appareil de détection du « soi » et du « non-soi ». Or il arrive que ce prétendu « système de défense » rende malade et même tue (maladies auto-immunitaires, « orages » immunitaires), il arrive qu’il soit régulièrement aveugle à ce qu’il est censé « voir » – un « non-soi » pourtant massif habitant le « soi » (le microbiote pèse deux kilos, sans parler de cet « étranger » qu’est l’embryon) -, ou encore qu’il ouvre tout simplement la porte à des « ennemis » (facilitation des cellules tumorales).

Longtemps, écrit l’auteur, « on a pensé qu’il suffirait de trouver des réponses à ces questions ». La thèse avancée est que ces questions n’appellent peut-être pas de réponses, mais plutôt un changement de perspective qui les fera passer du statut de questions à celui de moments de la théorie. Il faudrait cesser de penser le système immunitaire comme un système de défense, sortir d’une vision finaliste qui place l’effet en position de principe, rompre avec les analogies et les métaphores militaires qui confondent illustration et explication. En somme, récuser le moment téléologique pour proposer « une autre immunologie » rendant compte des faits naguère polémiques et renoncer, en renouant avec la rigueur du minimalisme scientifique, à la surabondance des images qui font obstacle à la pensée.

Le moment pionnier et l’émergence ultérieure du finalisme

La première partie du livre, intitulée « La défense », déploie ce que, par facilité, on pourrait qualifier un historique, et cela en deux séquences. D’abord le temps des défricheurs et des pionniers – Pasteur, Koch, Metchnikoff, Ehrlich -, avec ses affrontements sur fond de rivalité franco-allemande entre théorie cellulaire et théorie humorale, entre perspective physiologique et perspective chimique. Puis la constitution au XXe siècle, notamment avec la conceptualisation des anticorps, d’un système immunitaire pensé sous régime de protection et de défense.

Parler d’histoire est pourtant une facilité contre laquelle l’auteur avertit le lecteur. Il s’agit plutôt d’une recherche en forme de remontée, menée aujourd’hui sur le statut et l’effectivité d’une discipline en plein développement. L’objet n’est pas de retracer des origines ni de dérouler une continuité, mais, sous un regard sélectif du fait même qu’il est instruit, de faire apparaître et de réactiver les moments décisifs, parce que problématiques, de la mise en route de la pensée2.

En elle-même la lecture de ces deux séquences est passionnante, et, au moment de leur articulation, l’apparente continuité qui les enchaîne est fissurée par des remarques qui nous mettent la puce à l’oreille et font sonner le thème principal. C’est que le raisonnement en termes de combat n’est pas nécessaire pour caractériser la démarche de Pasteur et celle de Metchnikoff, l’un s’intéressant à une relation fondamentale associant l’hôte et ses microbes, l’autre aux aux relations entre les cellules qui constituent un organisme vivant. Quant à Ehrlich, la vie est pour lui une affaire de substances chimiques. Parallèlement, Darwin, sollicité à tort pour accréditer une vision anthropomorphique, parle de coadaptation, d’une « lutte pour l’existence » et non d’une lutte des vivants les uns contre les autres.

On voit alors qu’une conception fondamentalement téléologique accompagne l’immunologie flamboyante du dernier quart du XXe siècle et du début du XXIe siècle, y compris dans ses avancées scientifiques comme la théorisation de la distinction entre immunité innée et immunité acquise. Elle l’accompagne si bien qu’elle finit par s’imposer sans qu’on s’en alarme comme on devrait le faire, car le finalisme est une surabondance, un maximalisme de la pensée avide d’harmonie et d’équilibre. Cette première partie s’achève sur une critique grinçante et alerte du « mythe fondateur » de la « science du soi et du non-soi » devenue « la science de tous les dangers » : elle rappellera aux philosophes la lecture roborative de l’Appendice de la première partie de l’Ethique de Spinoza.

L’affectation réciproque des corps, un cadre minimaliste

Intitulée « Logiques du vivant » en une claire allusion à François Jacob, la deuxième partie opère le retournement à la manière d’un levier en revenant sur la notion même d’être vivant, combinant le rappel des connaissances fondamentales et l’appel à la réflexion philosophique où Spinoza, penseur de l’affectation réciproque des corps, est superbement sollicité.

Un être vivant n’est pas une forteresse, mais une sorte de « boucle rétroactive » qui, comme Claude Bernard l’avait montré, ne maintient son milieu intérieur qu’au prix de relations constantes avec son milieu extérieur. Tellement que, dans cette structure d’échanges, la dégradation est constitutive et réciproque : les échanges ne s’effectuent pas selon un modèle commercial où des sujets restent extérieurs aux objets, l’être vivant est lui-même dans la boucle de l’échange qui le constitue et qu’il constitue, c’est un processus où le corps vivant et son activité sont à la fois cause et résultat. Un tel fonctionnement circulaire explique certes la tentation du finalisme, mais à la différence du finalisme il n’érige pas l’inversion causale en principe et il s’en tient à une démarche scrupuleusement immanentiste. Et ce qui vaut de manière synchronique peut se dire aussi diachroniquement, à l’échelle vertigineuse de l’évolution qui est toujours une coévolution. Ces systèmes de réciprocité que sont les phénomènes vivants n’existent qu’au prix d’un fonctionnement incessant, dont l’équilibre est nourri de déséquilibres, modifiant « les autres » autant, ou plutôt parce qu’ils sont modifiés par eux.

Ainsi le cadre conceptuel pour « une nouvelle immunologie » dépouillée de ses oripeaux finalistes est dressé en termes d’interaction, de relations mutuelles et d’ajustements.

C’est dans la troisième partie, intitulée significativement « Le compromis », que ce cadre minimaliste est mis à l’épreuve des recherches les plus actuelles et dans leur détail.

Court-traité d’immunologie en 20 propositions

Que fait ce fameux « système immunitaire » ? il réagit. Mais réagir ici ne signifie pas simplement répondre à un stimulus. La réaction immunitaire réagit à la fois à et sur un stimulus. Non seulement cette thèse « cadre » avec l’ensemble des connaissances que nous avons actuellement sur le vivant, non seulement c’est une option épistémologique faisant l’économie de toute excursion conceptuelle hétérogène au champ des phénomènes eux-mêmes (minimalisme et immanentisme), ce qui la rend éminemment falsifiable, mais encore elle permet d’intégrer ce qui paraissait aberrant dans le cadre précédent, et d’expliquer notamment que certaines réponses « protègent » tandis que d’autres peuvent être pathogènes. Il faut donc et il suffit, pour cerner le phénomène immunitaire, de décrire ces fonctionnements en allers-retours et de s’efforcer de les ordonner.

Réduit en vingt propositions, un court-traité d’immunologie s’ouvre alors et expose les éléments et concepts principaux rendant compte du fonctionnement détaillé du système immunitaire, avec de nombreux schémas très éclairants. L’examen suit un ordre raisonné qui se déploie en trois catégories : les cellules (propositions 1-3), la stimulation (4-11), les réponses (12-20). Le fonctionnement « rétrograde » et circulaire des réponses immunitaires a pour pivot le concept de récepteur, et on apprend au passage que ce fonctionnement est principalement dû à la forme des molécules.

Le tour de force du livre apparaît particulièrement dans ce moment. Il n’est pas seulement de s’adresser aussi bien aux spécialistes exigeants qu’aux lecteurs généralistes, il est de ne pas les dissocier, et d’inviter les uns comme les autres à oser aborder sans préjugé ce qu’ils auraient pu rejeter ou négliger – que ce soit par humilité ou par orgueil – comme étant au-dessus ou au-dessous de leur capacité. Plusieurs niveaux de lecture peuvent se pratiquer, et aucun d’entre eux n’entraîne le lecteur dans une impasse qui le ferait renoncer à son effort : une lecture en survol se sait confortée par le détail rigoureux des contenus exposés, et réciproquement un arrêt minutieux pour comprendre telle ou telle étape ne perd pas de vue l’ensemble du propos.

Qu’est-ce qu’un système biologique ?

À la sortie de ce tunnel bien balisé et remarquablement éclairé, la macro-interrogation, nourrie et non pas alourdie par ces investigations, prend toute son ampleur : au fond pourquoi peut-on parler de « système immunitaire » et qu’est-ce qu’un système biologique ? Un système biologique est une représentation qui nous permet d’imaginer comment fonctionne un être vivant. Une lumineuse comparaison-distinction entre le système nerveux central et le système immunitaire – deux systèmes ayant la relation pour objet, permettant à un organisme de percevoir le monde extérieur et intérieur et d’y répondre – met les idées au net. Outre que le système immunitaire n’a pas d’anatomie analogue au système nerveux central, outre qu’il est plus plastique, qu’il est stimulé par des molécules biologiques, une différence essentielle attire l’attention du lecteur : ce système n’est pas seulement affecté par ce qui le stimule, il affecte aussi, et directement, les stimuli.

Ces caractéristiques lui donnent une remarquable capacité d’adaptation, qui doit se comprendre en termes de coadaptation. « Mettre en route une réponse immunitaire, c’est d’une part se modifier soi-même et d’autre part modifier les autres, c’est s’adapter aux autres et adapter les autres à soi. » Il ne s’agit plus d’une réaction à sens unique, dirigée « contre » quelque chose. L’immunité est un compromis relationnel et réciproque qui se pense non pas comme une relation binaire entre deux protagonistes, mais comme une relation entre tous les êtres vivants coprésents à un moment donné. Ce n’est pas un état qu’on posséderait (ou non) mais un processus fait d’instabilités surmontées tant bien que mal, « au mieux un équilibre transitoire », un « compromis toujours renégocié ».

L’infini du vivant. « L’immunité n’est pas une protection, c’est une condition d’existence »

Dans cette perspective, un vaccin n’est pas une arme, mais un moyen de faire basculer l’équilibre dans un sens souhaitable. Les agents pathogènes ne sont pas des tueurs, ils sont simplement incompatibles avec la vie de leur hôte : il n’y a aucun but, aucune stratégie, aucun projet dans le fait de vivre sa vie. Il est compréhensible, dans un tel schéma, que les instabilités ne soient pas toujours et nécessairement surmontées, que l’état d’équilibre précaire soit rompu, et que le compromis soit manqué – parce que le système est débordé, parce qu’il suscite une surabondance de réactions, parce qu’il met en place des mécanismes facilitateurs… Nous pouvons vivre avec nos parasites, avec des allergènes, avec nos cancers, nous pouvons guérir d’une infection, mais la relation peut se détériorer et l’équilibre se rompre. La troisième partie se termine sur un constat :

« L’immunité que négocie ce système est un moindre mal. Elle n’est ni sans risques ni sans inconvénients. Elle n’évite pas toujours la maladie, et parfois c’est elle qui en est la cause. La maladie est le prix à payer pour l’immunité. […] L’immunité n’est pas une protection, c’est une condition d’existence. »

Si « la vie avec les autres » n’est pas « un long fleuve tranquille », elle n’est pas pour cela une guerre qui ne connaîtrait sur son théâtre que des combats singuliers et héroïques mettant aux prises un organisme avec un microcosme d’où surgissent des ennemis. La réflexion sur l’immunité nous contraint à regarder l’infini du vivant en nous rendant attentifs à la dimension macrocosmique que nous ne voyons pas parce qu’elle nous englobe et nous met en abyme. Mais là encore, nulle métaphysique encombrante n’a vocation à insuffler du sens dans cet univers infini, sens qui ne serait qu’un obstacle de plus à son intelligibilité. Il n’y a ici ni causes finales, ni signification, ni projet, ni message, ni signes, et procéder à de telles projections serait « faire délirer la nature » avec nous en s’interdisant de la comprendre. La science repose sur ce courage de penser les yeux grands ouverts.

Marc Daëron a écrit un grand livre qui peut et doit se lire plusieurs fois parce qu’il invite à s’éclairer sous plusieurs angles. Je le place pour ma part aux côtés des ouvrages de notre époque qui ont été pour moi un événement de pensée, ouvrages dont on sort changé et auxquels il est urgent de se nourrir pour trouver et retrouver une santé intellectuelle, avec le plaisir de penser et de lire. Soutenu par une écriture limpide et souvent élégante, chaque lecteur de L’Immunité, la vie. Pour une autre immunologie se sent sollicité, convié à aller au-dessus de lui-même, là où il ne s’attendait pas à être.

Notes

1 – Marc Daëron, L’Immunité, la vie. Pour une autre immunologie, préface d’Anne Marie Moulin, Paris : Odile Jacob, 2021, 384 p. Marc Daëron a été notamment directeur de recherche à l’INSERM et à l’Institut Pasteur où il a dirigé le Département d’immunologie, il est chercheur émérite depuis 2012 et associé à plusieurs laboratoires de recherche. Auteur, avec Eric Vivier, de L’Immunothérapie des cancers (Odile Jacob, 2019). Voir CV et publications http://cvscience.aviesan.fr/cv/744/marc-daeron .

2Un exemple classique : Marc Daëron souligne la différence épistémologique et expérimentale entre Jenner et Pasteur, le premier élargissant le champ d’un phénomène naturellement donné, le second soumettant délibérément et artificiellement un micro-organisme à une modification qui en atténue la virulence.

Marc Daëron, L’Immunité, la vie. Pour une autre immunologie, préface d’Anne Marie Moulin, Paris : Odile Jacob, 2021, 384 p.

Les créationnismes contre la liberté

Sur le livre de C. Baudouin et O. Brosseau ‘Enquête sur les créationnismes’

Post-vérité, relativisme, remise en cause des enseignements critiques et rationnels, diffusion des idéologies ethno-essentialistes et racialistes plaçant la science « occidentale » sous régime de soupçon, fascination complotiste : en préparant et en accoutumant les esprits à l’asservissement, ce désastre culturel vise le cœur du politique, il s’en prend à la constitution d’une cité réunissant des esprits autonomes. L’heure est au réarmement conceptuel. Il m’a semblé opportun de republier la recension que j’ai faite du livre de Cyrille Baudoin et Olivier Brosseau Enquête sur les créationnismes1. Ce livre montre comment une idéologie obscurantiste s’empare des apparences scientifiques et s’introduit dans les esprits, non sans subtilité, comme une hypothèse présentable. On n’y résiste pas en la balayant d’un revers de main. La culture scientifique est nécessaire, elle fait partie des humanités. Elle n’est jamais acquise définitivement, et son exercice suppose, comme toujours, un combat intellectuel.

Caractériser et déconstruire les doctrines créationnistes

Qu’est-ce que le créationnisme ? Chaque esprit ayant une teinture de culture scientifique croit le savoir et s’en croit protégé : c’est une erreur. Bien au-delà de l’anti-évolutionnisme qui campe sur le récit de la Création tel qu’il apparaît dans la Genèse (créationnisme littéraliste), le créationnisme est polymorphe et ne prend pas si simplement, comme on le croit trop souvent, la science directement pour cible. Non seulement il est polymorphe, mais il est pervers – les auteurs me pardonneront cette allusion freudienne. Ses formes les plus récentes, les plus sophistiquées et les plus insidieuses s’emparent des apparences scientifiques, instrumentalisent la science, la pervertissent jusqu’à reprendre l’idée même d’évolution qu’elles requalifient de manière finaliste, et souvent avec une bonne dose de subtilité.

Ainsi en va-t-il, par exemple, de la doctrine du « Dessein intelligent » qui « affirme que certaines caractéristiques de la nature sont mieux expliquées par une cause intelligente plutôt que par un processus non dirigé tel que la sélection naturelle ». Ce finalisme rénové évite les propos choc – on ne nomme ni Dieu ni la Bible – et finit par s’insinuer comme une hypothèse présentable concurrente de l’explication scientifique – laquelle ne recourt à aucune espèce de fin, toute fin étant par définition inaccessible à l’expérience et introduisant un élément surabondant dans le schéma explicatif, en contradiction avec le principe de l’économie des hypothèses.

Il importait donc de cerner cette prolifération, de la décrire dans ses atours, détours et perversions, d’où l’usage au pluriel du terme « créationnismes » – repris d’un précédent livre publié par les auteurs en 20082 – , et de raisonner cette description en identifiant, à chaque fois, la tête de l’hydre par des caractéristiques discriminantes qui reposent sur quatre présupposés énumérés p. 22 : 

  • Le monde a été conçu par une intelligence surnaturelle visionnaire (pour les religions monothéistes, il s’agit de Dieu) ;
  • l’esprit est une réalité distincte de la matière (spiritualisme)3 ;
  • l’être humain est intrinsèquement différent de l’ensemble des êtres vivants, ce qui lui confère un statut spécial dans la Création (anthropocentrisme) ;
  • tout processus historique lié au monde physique et au monde vivant est nécessairement dirigé ou a une direction prédéterminée (finalisme).

Il fallait, bien sûr, rappeler parallèlement les principes fondamentaux de l’explication scientifique : scepticisme sur les faits, rationalité et parcimonie des hypothèses, réalisme s’agissant de l’existence du monde, matérialisme méthodologique – distinct du matérialisme philosophique, ce matérialisme est en fait un principe d’accessibilité aussi bien des éléments expliqués que des éléments expliquants (on n’explique pas la révolution d’un corps céleste en disant qu’un ange le pousse avec son doigt..). On aurait pu souhaiter que les auteurs abordent également le principe de falsifiabilité des hypothèses4, mais ce rappel, en lui-même très utile et opportun, se borne aux conditions de possibilité en amont de l’investigation scientifique et n’aborde pas sa conduite proprement dite.

Caractériser des doctrines pour les distinguer des théories scientifiques : l’enjeu n’est pas borné à des discussions de laboratoire restreintes à un milieu de spécialistes. Comme tout enjeu de pensée, il touche chacun, parce que l’autonomie de la pensée, à travers la pensée scientifique et son aspect apparemment le plus abstrait – la recherche fondamentale, la recherche des explications du monde -, est visée. Par elle c’est tout simplement la liberté de penser qui est battue en brèche. La brèche prend la forme d’injonctions religieuses, morales ou politiques qui entendent assujettir et contrôler les sciences. C’est ce que déclare avec force Guillaume Lecointre dans la préface en forme d’entretien qui ouvre le livre, d’abord en rappelant la distinction aujourd’hui fort négligée entre le contrôle de la pensée et le contrôle des actions ayant un effet sur autrui :

« La mise en raison du monde n’a pas à subir d’injonctions religieuses, morales ou politiques. Certes, les applications des sciences doivent être socialement, moralement et politiquement pilotées, mais nous ne parlons pas ici des applications. Nous parlons de l’explication rationnelle du monde réel qui, elle, ne saurait se produire en fonction des attentes des uns ou des refus des autres » (p. 17).

Puis il énonce l’enjeu fondamental lequel affirme la coïncidence entre la liberté politique et la liberté scientifique. Oui l’autonomie de la science concerne tout le monde :

« Le mot clé est le mot laïcité. »

Et de poursuivre par une formule qui énonce parfaitement la circularité entre les savoirs rationnels et l’exercice de la liberté :

« Cultiver l’exercice de la raison a le double avantage de maintenir l’autonomie du cœur méthodologique des sciences et de permettre l’émancipation individuelle. »

Il est urgent de fournir des clés pour détecter et déconstruire les discours créationnistes, parce que l’urgence pour la liberté est toujours de se soustraire à la tutelle de la pensée. Aucune morale séparée, aucun prêchi-prêcha célébrant des « valeurs » démocratiques laïques et sociales n’est capable de produire réellement cet effet d’autonomie, car cela ne relève pas de conseils bienpensants : un homme intègre peut rester crédule, et dès lors son intégrité vole en éclats. C’est aussi simple que cela. On a beau le savoir, il faut effectuer vraiment ces mises à distance, il faut passer par le parcours critique, lequel n’est jamais terminé et donné une fois pour toutes. Le meilleur des parcours d’autonomie n’est autre que la constitution des connaissances, par l’épreuve de l’erreur et du désaccord, par l’épreuve qui fait que chacun, pour véritablement s’instruire et s’élever, doit rompre avec ses préjugés et se fâcher avec lui-même. Voilà pourquoi, parmi les disciplines scolaires, les sciences sont exemplaires de cette coïncidence substantielle entre instruction et émancipation. C’est ce que l’école, à grand renfort de « compétences » et d’« objectifs » pour la plupart dictés par le dieu société, ne veut plus savoir, c’est ce qu’elle ne fait plus, sacrifiant l’autonomie de l’homme sur l’autel de l’épanouissement de l’enfant.

Expansion et diversification du créationnisme

Le créationnisme n’est donc pas un et simple, mais protéiforme. Autre préjugé, conjugué au précédent, qu’il importe de combattre : pas plus qu’il n’est réductible à une dogmatique anti-scientifique de bas niveau, le créationnisme n’est circonscrit à quelques régions du globe, en particulier cette Bible Belt, ce ramassis de bigots bornés dont on peut se gausser à peu de frais sans s’engager dans l’effort de l’analyse et de la critique rationnelles de détail. On ne nous la fait pas… : la condescendance revient ici à s’aveugler et à laisser le champ libre à ce que les doctrines créationnistes ont de plus inventif et de plus insidieux. Comme toute forme d’ignorance, c’est une façon de s’accoutumer à l’asservissement.

Le livre nous ouvre les yeux. Le créationnisme se répand partout, jouissant de la caution d’autorités « scientifiques » qui, intentionnellement ou « par faiblesses épistémologiques » (p. 150), parce qu’elles ne sont pas fermes sur les principes qui fondent l’exercice même de la pensée scientifique, brouillent les frontières entre science et religion, célébrant leur mythique et si peu dérangeante « complémentarité », et proposant une science spiritualisée pour concilier leur foi personnelle avec la démarche scientifique.

Il s’agit bien d’une « enquête ». Éclairée par des entretiens avec de nombreux scientifiques, elle couvre à la fois un champ épistémologique – définir le créationnisme, l’identifier sous ses formes les plus anodines en apparence, en établir la disjonction absolue avec toute démarche scientifique – , un champ géopolitique et une analyse des stratégies de communication et de contrôle. L’enquête se déplace aussi bien intellectuellement que géographiquement, fournissant à chaque étape la description de nombreuses variantes, toutes plus sophistiquées les unes que les autres, sur l’ensemble de la planète.

Le créationnisme n’a que faire des clivages religieux : la propagation d’un créationnisme musulman va bon train, notamment en Turquie. On passe des USA à l’Europe, où l’offensive créationniste se déploie au Royaume-Uni, en Allemagne, aux Pays-Bas, en Italie, en Russie, Pologne, Roumanie. La France est loin d’être épargnée – un chapitre entier est consacré à « la diversité des créationnismes en France », avec notamment l’Université interdisciplinaire de Paris. Sous la houlette de son secrétaire fondateur Jean Staune, cet organisme se propose d’établir un dialogue et des ponts entre science et religion, présentant la thèse d’une autonomie du monde physique comme obsolète vu « l’évolution des sciences » récente qui donnerait « une crédibilité » à l’existence d’un « autre niveau de réalité ». Ce mouvement reçoit l’appui de personnalités scientifiques telles que Trinh Xuan Thuan, Thierry Magnin, Bernard d’Espagnat, Jean-Marie Pelt, Anne Dambricourt-Malassé, Dominique Laplane, Jean-François Lambert. Le biochimiste australien Michael Denton dont les livres sont des références pour le courant du « Dessein intelligent » aux USA est publié en bonne place dans les collections abritées par ce centre. Sans compter les personnalités médiatiques comme Michel Cazenave ou Luc Ferry… : on en apprend de belles !

Lire le livre de Cyrille Baudouin et Olivier Brosseau, c’est s’instruire. S’instruire de l’existence proliférante des créationnismes sous des formes diverses dans leur expansion universelle ; s’instruire de leurs procédés, et particulièrement de ceux par lesquels ils se rendent présentables en instrumentalisant la démarche scientifique qu’il s’agit en réalité de museler ; s’instruire de leurs stratégies de communication et de contrôle (notamment dans l’enseignement des sciences) ; s’instruire enfin – ou plutôt se ré-instruire – de ce qu’est une démarche scientifique.

Toutes ces élucidations sont convergentes. Si le contenu empirique du livre – les formes multiples de créationnisme – nous étonne et nous inquiète, c’est que nous n’étions pas préparés à le recevoir, croyant savoir ce qu’est le créationnisme. Il y a belle lurette que ce dernier a quitté une image d’Épinal qu’on balaie d’un revers de main et qu’il emprunte des oripeaux présentables dans les dîners en ville et même les colloques les plus raffinés.

Que le créationnisme soit diversifié, qu’il se répande partout, qu’il singe la science et se l’annexe, qu’il s’accompagne de mesures politiques et sociales comme la privatisation de l’enseignement et le contrôle religieux, cela est inquiétant. Mais plus inquiétant encore est que nous ayons besoin d’une ré-instruction, d’une remise des pendules à l’heure pour réapprendre ce qu’est une démarche scientifique et qu’un réarmement général contre l’obscurantisme et l’asservissement intellectuel soit autant à l’ordre du jour. Ce livre n’est pas seulement une enquête de type journalistique où on apprend des faits, c’est aussi une grosse piqûre de rappel, un fortifiant où on retrouve et réaffermit les conditions dont dépendent l’esprit critique et l’autonomie de chacun. Il est donc à placer sur le rayon des urgences pour l’autodéfense intellectuelle5.

Notes

1 Cyrille Baudouin et Olivier Brosseau, Enquête sur les créationnismes. Réseaux, stratégies et objectifs politiques, Paris : Belin, 2013. Site de présentation du livre : http://www.tazius.fr/les-creationnismes
La recension ci-dessus est la reprise, avec quelques aménagements et actualisations, d’un article publié sur l’ancien site Mezetulle.net en 2013.

2Les Créationnismes, Syllepse, 2008.

3On pourrait chicaner ici sur l’usage du terme « distinct » (car les idées, comme par exemple les concepts mathématiques ou pour prendre un exemple très différent les phénomènes produits par l’inconscient, ont des propriétés spécifiques, distinctes, qui les rendent analogues à celles de la matière au sens strict dans la manière de les étudier et de les établir) alors qu’il eût mieux valu écrire « séparé » pour caractériser le spiritualisme, croyance en une entité vraiment substantielle et hors d’atteinte de toute proposition falsifiable. Mais on comprend bien la thèse générale et l’enjeu.

4 Une hypothèse ne doit pas simplement avancer une explication plausible, elle est même insuffisante si elle ne propose que des procédures permettant de la vérifier : il faut encore qu’elle propose les moyens détaillés et complets de la ruiner, et seul l’échec de ces tests (tentatives de falsification) permet de la retenir. La formulation de ce principe est attribuée à Popper, mais il a été exposé par Pascal dans le Récit de la grande expérience de l’équilibre des liqueurs (expérience du Puy de Dôme) et par d’Alembert dans ses Eléments de philosophie.

5L’expression « autodéfense intellectuelle » a été reprise à Noam Chomsky par Normand Baillargeon dans l’intitulé de son livre Petit cours d’autodéfense intellectuelle (Lux, 2006). A signaler le « Cours d’autodéfense intellectuelle » mené par Sophie Mazet au Lycée Blanqui de Saint-Ouen (93) et le Manuel d’autodéfense intellectuelle qu’elle a publié en 2015 (Laffont).

« La grippe asiatique a tué plus que le Covid-19 » et autres comparaisons boiteuses

Être dignes de Pasteur est un devoir

Les comparaisons entre le Covid-19 et les pandémies de naguère sont aujourd’hui fréquentes. Nul doute qu’on doive s’y référer et qu’il y ait là un sujet de réflexion. Dans quelle mesure ont-elles un sens, qu’est-ce que cela dit du concept de progrès ? Mais peut-on s’en autoriser pour avancer des conclusions quelque peu légères ou dont la généralité laisse pantois ? Au prétexte que « on en a vu d’autres », que beaucoup en sont morts et qu’on n’en a pas fait à l’époque toute une histoire, au motif que le paludisme continue à tuer 400 000 personnes par an1, au motif qu’il meurt en France de toute façon 600 000 personnes par an, etc., faut-il s’en remettre aux vertus spartiates de fraternité et de « résilience » en relativisant l’importance et l’urgence de la recherche, en oubliant de raisonner à la hauteur des moyens que nous sommes capables (et que nous sommes tenus) de produire ? Si l’on peut revendiquer sa liberté au péril de sa sécurité, est-il admissible qu’on le fasse en risquant celle d’autrui ?

Être dignes de Pasteur en relisant Condorcet

Quel sens cela a-t-il de comparer la grippe asiatique des années 50 ou la grippe de Hong Kong des années 60 avec le Covid-19 ? Les chiffres avancés font état, d’une part, de pandémies ou d’épidémies révolues, et de l’autre, d’une pandémie en cours, qui apporte chaque jour son déplorable lot de décès et dont on ne voit pas aujourd’hui la fin. Il faudrait aussi, à supposer que cette comparaison chiffrée soit pertinente, estimer le nombre de décès pour le Covid-19 à moyens égaux.

Or l’état des connaissances biologiques et des techniques médicales a changé depuis. À ma connaissance, dans les années 1950-60, on n’avait pas (entre autres équipements qui ont fait des progrès considérables ou qui sont apparus depuis) de services de réanimation ou ceux-ci étaient balbutiants2. Aujourd’hui ils existent, ils équipent ordinairement les grands hôpitaux et ils sont efficaces. Faut-il renoncer à y recourir ou faut-il « trier » (et sur quels critères?) les patients atteints de formes sévères qui en bénéficieront ? Le problème est que, du moins dans bien des pays, on ne s’est pas tenu à la hauteur de ce progrès. On pourrait prendre des exemples plus simples et presque plus consternants : le dénigrement actuellement répandu de la vaccination nous met en la matière au-dessous de la politique de santé des années 1960, de sorte que, à cet égard, nous ne sommes plus dignes de Pasteur.

Si la comparaison a un sens, ce n’est donc pas, en considérant des chiffres hétérogènes, d’inviter à une régression qui traiterait les avancées scientifiques et techniques comme le renard de la fable traite les raisins qu’il ne peut pas (ou, comme c’est le cas pour les antivax, qu’il ne veut pas) atteindre3. Elle invite entre autres à réfléchir sur le concept de progrès. Dès qu’il y a un progrès, celui-ci est une libération, c’est une puissance, mais d’un autre côté cela engendre des astreintes : il faut être en mesure de le soutenir, de l’anticiper, d’avoir une longueur d’avance sous peine d’être écrasé par ce même progrès. On ne peut pas sous-traiter le progrès, on ne peut pas le déléguer à d’autres qui en exerceraient la maîtrise et le transformeraient au mieux en moyen de pression, au pire en arme. Voilà pourquoi le progrès ne se délocalise pas. Il faut l’effectuer, le devancer et se donner les conditions de sa maîtrise ; c’est une question éminemment politique. Mais bien des doctes philosophes, à supposer qu’ils ne soient pas hostiles aux Lumières, ont du progrès une représentation idéologique qu’il est facile de railler en parlant de la « croyance au progrès ». La thèse d’une condamnation au progrès n’entre pas dans leur champ de vision. Cette duplicité (à la fois puissance et contrainte) soulignée par la théorie classique du progrès, notamment développée par Condorcet, est méconnue et on en rappellera brièvement les grandes lignes4.

La perfectibilité humaine est telle que si elle ne se développe pas, si elle ne trouve pas des aliments pour se déployer, si elle n’est pas constamment au-dessus d’elle-même, elle retombe inévitablement à un niveau inférieur, elle régresse. L’exemple du développement des connaissances est parlant : une société qui se contenterait de maintenir ses connaissances à un certain niveau, sans chercher à les développer davantage – une société statique à idéologie frugale – retomberait nécessairement au-dessous du niveau qu’elle prétend maintenir. Je ne sais pas ce qu’une politique de décroissance donnerait au niveau économique, mais il est certain qu’une politique de décroissance dans le domaine des connaissances amènerait le niveau du savoir à diminuer inéluctablement, en le livrant à sa propre inertie. Il en va ici des connaissances comme de la politique d’acquisition des livres dans une bibliothèque : il y a un seuil d’acquisition au-dessous duquel on appauvrit nécessairement les collections. L’absence de progression est toujours un déclin.

Dès qu’on régresse quelque peu ou même qu’on prétend se stabiliser à un niveau donné, c’est nécessairement pire qu’avant. Les acquis du progrès ne peuvent pas se conserver : ils sont soumis à une dynamique implacable qui en impose la poursuite et le développement sous peine de tomber en deçà de l’état que l’on voudrait se contenter de maintenir – au moindre coût.

En matière de lutte contre les maladies infectieuses, être dignes de Pasteur, c’est se donner les moyens intellectuels et techniques de poursuivre le sillon qu’il a tracé, indéfiniment. En France, une politique (on devrait dire une gestion) hospitalière qui depuis longtemps apprécie les moyens principalement en fonction des coûts et raisonne en termes managériaux de « flux tendus »5, a engendré l’un des problèmes les plus aigus de cette pandémie : celui de la saturation des services, en particulier des services de réanimation. Par ailleurs, en l’absence de masques et de tests à grande échelle (effet de la même politique), en l’absence aussi de thérapeutique avérée, le confinement général de la population était la seule mesure susceptible de ralentir la propagation du virus et de faire face aux difficultés. On peut aujourd’hui penser que ce confinement général prévu jusqu’au 11 mai a d’ores et déjà donné des résultats, à un prix social et économique très élevé qu’on ne peut pas évaluer aujourd’hui. Cette efficacité n’empêche pas qu’on puisse le considérer comme une mesure à défaut et en attente de progrès : de ceux qui étaient déjà à notre portée avant qu’éclate l’épidémie, et aussi de ceux qu’on peut attendre de la recherche.

Confinement et revendication de liberté

Le confinement est aussi une mesure destinée à pallier l’absence actuelle de connaissance sur ce virus. Et c’est de nouveau ici que les comparaisons avec les pandémies passées trouvent une limite.

S’agissant du Covid-19, et au moment où j’écris ces lignes (22 avril 2020), on n’a pas de thérapeutique, on découvre chaque jour un peu plus la versatilité et l’instabilité des symptômes, les tests virologiques ont besoin d’être consolidés, on n’a pas de vaccin, on ne sait même pas si les anticorps des personnes atteintes et « guéries » les immunisent et si oui pour combien de temps, on ne sait pas s’il peut y avoir résurgence chez un même malade, on ne connaît pas toutes les conditions de la contagion. Aucune des maladies infectieuses à l’origine des pandémies de jadis et de naguère ne réunit ces propriétés : aujourd’hui on saurait les maîtriser6. En revanche, s’agissant du Covid-19, on n’a pas d’autres moyens aujourd’hui pour ralentir (sinon pour stopper) la circulation du virus que mécaniques – isolement, distance physique, gestes-barrière, masques – et relevant d’une chimie de base – lavage au savon ou à l’alcool qui détruit la couche graisseuse enveloppant le virus, désinfection à l’eau de Javel.

Alors arrêtons de comparer l’incomparable et d’en tirer argument pour lâcher des bombes virales dans la nature et relancer la propagation.

Mais les comparaisons boiteuses ne s’arrêtent pas à mettre en relation des pandémies. Il arrive que le raisonnement mobilise la grosse artillerie : puisqu’on meurt de toute façon, pourquoi confiner strictement les gens pour un petit bout d’ARN ? On atteint le point « Mme Michu » : tout ça finira mal ma brave dame… Sans renvoyer à Leibniz démontant le sophisme de la raison paresseuse7, on se contentera, pour crever le tympan de cette grosse caisse, d’un peu d’arithmétique : l’excédent de mortalité par rapport à la mortalité moyenne avant l’épidémie est patent sur de larges portions du territoire8 ; et s’il est très différent selon les lieux, ces différences peuvent s’expliquer par le moment où est intervenu le confinement en relation avec l’avancement de la propagation du virus ainsi que par les différences de densité de population9. Ce virus, pour le moment, tue peut-être moins que n’a tué celui de la grippe asiatique10, mais il se répand avec une célérité et une puissance plus grandes et surtout, face à ses ravages, nous n’avons pas – pas encore – les armes dont nous disposons contre un virus grippal.

À présent, il est question d’assouplir le confinement : de général et absolu, il pourrait, à partir du 11 mai 2020, prendre une forme modulable qui allégerait la restriction de la liberté fondamentale d’aller et de venir. Si l’on aborde les conditions morales et juridiques de cet assouplissement (le terme « déconfinement » me semble excessif), il est évident que la considération du risque de transmission à autrui est un élément majeur.

La revendication de liberté n’est jamais impertinente. Mais lorsqu’elle est présentée en ces circonstances comme supérieure à toute autre valeur, elle ne peut valoir que pour un individu, ici et maintenant, acceptant de s’exposer. On peut pousser la revendication jusqu’à la fiction – jusqu’à prétendre par exemple que mourir du Covid-19 serait préférable à vivre la vie d’un malade d’Alzheimer enfermé et attendant la mort11. Il est aisé de juger gratuitement des maux et des souffrances tant qu’on est encore lucide, vigoureux et bien portant. Mais, à la réflexion, un tel arbitrage ne peut même pas valoir que pour moi, ici et maintenant, comme s’il s’agissait d’un suicide ordinaire n’exposant personne d’autre que son agent. Car celui qui en l’occurrence ne se soucie pas de sa santé et prétend choisir par là une mort qu’il suppose plus digne qu’une autre, celui-là engage par un héroïsme narcissique la transmission de la maladie à autrui. Les professionnels exposés par la nature de leur activité au risque réel et répété de contracter la maladie ne raisonnent pas en ces termes ; aucun ne fanfaronne en brandissant une morale d’opérette à la Cyrano de Bergerac. Tous essaient autant que possible de se protéger et de protéger autrui avec les maigres moyens dont ils disposent. De cela aussi il faut leur être reconnaissants.

La modulation du confinement et la question du citoyen

La question d’un confinement progressivement allégé n’est pas celle des contraintes qui s’imposeraient à tous sans distinction (comme par exemple le port du masque en public ou dans les transports en commun). À travers l’exemple de l’âge qui a parfois été avancé, mais au-delà de lui, se pose la question de l’égalité du droit à jouir de la liberté. C’est de savoir si l’autorité publique peut imposer une règle contraignante abolissant ou restreignant fortement une liberté fondamentale de manière indéterminée dans le temps à une portion de la population sur un critère essentialisé, pris a priori et absolument (comme ici un âge au-delà duquel la restriction s’appliquerait12). La réponse à mes yeux ne peut être que négative.

Il se trouve néanmoins qu’une portion de la population, notamment à partir d’un certain âge, est statistiquement plus exposée que les autres (et à cette occasion la question de la saturation des services hospitaliers peut se poser à nouveau). On peut et on doit donc recourir à des recommandations très explicites engendrant une forme de pression sociale, ce que nos concitoyens sont suffisamment nombreux à comprendre pour qu’on puisse tabler sur une efficacité statistique de ces recommandations. Et il faut aussi inclure dans ces « recommandations » les personnes à risque pour d’autres raisons que leur âge (comorbidité par exemple). Voilà qui semble à la fois rationnel et conforme au droit. Pour me lancer dans une comparaison (boiteuse quand même) : on n’interdit pas la bronzette aux personnes à peau très claire, on leur dit que ce faisant elles risquent leur peau (au sens propre et au sens figuré) – comparaison très boiteuse parce qu’avoir un cancer de la peau ne met personne d’autre en danger… et que par ailleurs le risque d’infecter quelqu’un d’autre avec le virus du Covid-19 concerne tout porteur du virus, quels que soient son âge (on attend toujours la preuve que les enfants positifs seraient moins contagieux), son état symptomatique et ses éventuelles maladies.

Les mesures esquissées le 19 avril par Edouard Philippe et Olivier Véran comprennent, sur la base de tests virologiques, l’isolement (quatorzaine) des personnes positives, quel que soit leur âge. On remarquera que la doctrine dont les médias faisaient état s’est inversée en quelques jours. On parlait il y a peu de laisser circuler librement les personnes ayant des anticorps (on a même été jusqu’à évoquer des « certificats d’immunité ») et de « boucler » les autres pour une période indéfinie au-delà du 11 mai … avant de se rendre compte (à supposer que l’immunité soit durable, ce qu’on ne sait pas actuellement) que cela ferait presque autant de monde confiné strictement qu’avant cette date. À présent il est au contraire question de tester (test virologique) et d’imposer la quatorzaine aux porteurs du virus. Là encore la rationalité, alignée sur l’état présent des connaissances et sur le progrès escompté des tests, semble l’emporter. Sans oublier que cette restriction de liberté est déjà prévue par la loi pour les maladies infectieuses (quarantaine), qu’elle s’appuie sur un critère non essentiel à la personne (être porteuse d’un virus) et qu’elle s’exerce de manière définie dans le temps.

Il est donc possible et raisonnable d’apprécier le risque pris à retrouver et à exercer sa liberté d’aller et de venir, ainsi que le risque que cela fait courir à autrui, de peser les choses en laissant aux citoyens un espace de jugement. Imposer de manière temporaire des restrictions motivées dont le principe est non-discriminatoire et dont chacun peut voir la nécessité n’est pas un attentat contre la liberté. On peut certes soutenir que la liberté a primauté sur la sécurité si on entend par là que la liberté est en soi désirable alors que la sécurité en est un des moyens nécessaires. Mais soutenir que la liberté puisse toujours se dissocier de la sécurité et qu’elle lui est préférable en toutes circonstances coûte que coûte, c’est raisonner en adolescent qui se croit invulnérable.

Notes

3 – Sur le recours à cette fable de La Fontaine, voir Laurent Jaffro, « Des virus et des vertus », The Conversation, 21 avril 2020 https://theconversation.com/des-virus-et-des-vertus-136585

4 – Je me permets de renvoyer à mon article « Egalité, compétition et perfectibilité » https://www.mezetulle.fr/egalite-competition-et-perfectibilite/ et au chap. 3 de mon Condorcet, l’instruction publique et la naissance du citoyen (Paris, Minerve, 2015 3e éd.)

5On peut ajouter l’exemple très simple et révélateur de la pénurie de masques.

6 – De même qu’on sait maîtriser le paludisme (voir note 1) : sa persistance relève d’une question politique au sens large du terme.

7Voir les deux extraits des Essais de théodicée (1710) en ligne sur Mezetulle https://www.mezetulle.fr/trois-textes-classiques-pour-le-confinement/ .

9 – Il serait intéressant de considérer ces éléments lors des comparaisons avec d’autres pays, en supposant que les chiffres de mortalité soient comptabilisés de la même manière, ce qui n’est pas certain.

10 – Encore que cette affirmation soit hélas, de jour en jour, de moins en moins assurée. Voir l’itv de Patrice Bourdelais (lequel, en bon historien, ne se lance pas dans des comparaisons boiteuses de café du commerce comme celles dont je parle ici, mais avance des éléments factuels permettant d’alimenter une réflexion critique) : http://www.rfi.fr/fr/podcasts/20200419-avant-le-coronavirus-les-ravages-la-grippe-asiatique-et-la-grippe-hong-kong

11 – Ce qu’a fait, sous forme de provocation, André Comte-Sponville interrogé par Bernard Poirette sur Europe 1 le matin du dimanche 19 avril. Je parle de provocation car A. Comte-Sponville a précisé par ailleurs, mais sans y insister, qu’il ne pouvait être question de cautionner par là une négligence envers autrui. De manière générale, tenu sur un ton très vif, le propos avait entre autres pour objets d’encourager la réflexion en sortant des sentiers battus, de faire état d’une forme d’exaspération devant l’omniprésence du sujet unique Coronavirus ad nauseam, de s’inquiéter légitimement devant l’hypothèse d’un pouvoir du « tout médical » et de se poser les questions en citoyen.

[Edit du 23 avril] J’ai contacté André Comte-Sponville pour lui signaler la mise en ligne de mon article et cette note. Il m’indique un texte qui vient de paraître, dans lequel il s’explique plus longuement : « Grand entretien avec Pierre Taribo » dans l’hebdomadaire La Semaine de Nancy n° 513 du 23 avril 2020, p. 4-5, l’ensemble du magazine est téléchargeable par ce lien (colonne de droite cliquer sur « Edition de Nancy ») : https://www.lasemaine.fr/

12On m’objectera que les limites d’âge ne sont pas exclues des dispositions législatives. Mais, lorsqu’elles concernent l’exercice des droits et libertés fondamentaux (libertés, droits civiques par exemple), elles sont temporaires par leur nature même (minorité, âge d’éligibilité portent sur une limite en deçà de laquelle un droit ne peut pas encore s’exercer), ce qui serait exactement l’inverse pour une mesure restrictive visant un droit fondamental des personnes au-delà de tel ou tel âge. Un mineur, en grandissant, atteindra l’âge de la majorité ; mais si l’on franchissait par le vieillissement un seuil au-delà duquel on entrerait dans une catégorie de moindre jouissance des droits, il serait impossible d’en sortir. Le cas des majeurs incapables (mis sous tutelle ou curatelle) n’est pas nécessairement lié à leur âge, mais est apprécié individuellement par une décision de justice.

« La nature en train de se révolter » avec une épidémie de Covid-19 ? 

L’humilité vicieuse des adorateurs du chagrin

Chaque jour apporte son lot d’inepties médiatisées, et ce n’est pas nouveau. Mais quand elles sont proférées par des doctes, elles n’en sont que plus désolantes. Je n’en croyais pas mes oreilles ce matin : « la nature est en train de se révolter » ! Cette déclaration publique à propos de la diffusion du coronavirus SARS-CoV-2 n’est pas d’un gourou, elle n’émane pas d’un esprit tourmenté qui se livre à la mentalité magique – comme nous le faisons tous par moments car ça fait du bien même si nous n’y croyons pas vraiment –, mais très sérieusement d’un sociologue ayant pignon sur rue. Les adorateurs du chagrin reprennent force et vigueur et prêchent l’humilité : il ne faut pas irriter les dieux.

Jean Viard, directeur de recherche associé au CNRS, interrogé par Sonia Mabrouk sur l’antenne d’Europe 1 le 13 avril1, déclare : « On n’a peut-être pas respecté la nature comme elle le méritait et elle est en train de se révolter ». Ce n’est évidemment pas une plaisanterie (qui serait de très mauvais goût en ce moment), ce n’est pas non plus une image (qu’il aurait de toute façon fallu souligner comme telle) , c’est sérieux et le lexique n’est pas en reste : la nature « mérite » le « respect » et si on ne la « respecte » pas, elle fait les gros yeux, elle ne réagit même pas comme le ferait un fauve entravé qui brise ses liens, non elle « se révolte » tel un dieu offensé. On nage en plein anthropomorphisme, on n’est même pas au niveau d’une théologie dans laquelle un dieu transcendant, peu regardant sur les détails, poursuit des calculs qui nous échappent et qui rendent nos malheurs nécessaires.

On a presque honte de rappeler que la nature n’est pas une personne (et pour utiliser une tournure anthropomorphique : qu’elle s’en fout), que les lois naturelles s’appliquent nécessairement quand bien même il n’y aurait aucun esprit pour les découvrir et les formuler. La loi de la chute des corps, c’était pareil avant Galilée. La nature n’a pas de droits, elle ne réclame rien, n’en veut à personne, n’exige aucun culte : elle existe, elle continue à exister, à Tchernobyl et ailleurs2. Ce que nous souhaitons, c’est une nature à notre convenance, c’est un état de la nature qui soit vivable et si possible agréable pour notre espèce3 : cet état n’est pas plus « respectable » qu’un autre mais souhaitable pour nous, et pour l’obtenir, le maintenir, le développer, nous avons besoin de connaissances et de techniques. Il est impossible de transgresser les lois de la nature : on ne peut la commander qu’en lui obéissant comme le disait Bacon4, c’est-à-dire en l’étudiant par la science et en l’utilisant ou en en prévenant les effets indésirables par les techniques ainsi éclairées.

Mais cette pandémie a un effet d’aubaine pour une cabale de dévots qui reprend force et vigueur. Les adorateurs du chagrin retrouvent les incantations immémoriales : il ne faut pas irriter les dieux.

Pour revenir aux déclarations entendues ce matin, ce tissu d’absurdités s’autorise, pour faire bonne mesure et montrer qu’on est savant, d’une allusion en forme de démenti à un passage de Descartes  : non « nous ne sommes pas maîtres et possesseurs de la nature ». L’allusion à un passage connu du Discours de la méthode (6e partie) véhicule une approximation, car l’expression exacte de Descartes est « nous rendre comme maîtres et possesseurs de la nature »5. Un petit « comme » … ça fait une (petite ?) différence en effet. Mais n’entrons pas dans les subtilités de l’explication de texte philosophique qui nous entraîneraient dans l’exposition et la discussion de ce qu’on pourrait appeler une sorte de scepticisme épistémologique cartésien6. Non que cela dépasse le sociologue moyen qui a fait des études supérieures et qui a forcément appris à lire de près, rencontré les grandes critiques classiques de la pensée anthropomorphique et du finalisme, et étudié un peu de philosophie des sciences : cela heurte les idéologues moralisateurs persuadés que l’homme armé de ses techniques est un démiurge toujours mauvais. Il me suffira de souligner que Descartes parle principalement dans ce passage des progrès de la médecine dont on peut espérer, grâce au développement des connaissances scientifiques, une amélioration et un allongement de la vie humaine – et cela en 1637. Or c’est exactement ce qui s’est produit ultérieurement.

Oui Jenner et Pasteur, pour ne prendre que ces exemples, se sont heureusement rendus, grâce à la connaissance, « comme maîtres et possesseurs de la nature » en matière de maladies infectieuses. Et qu’attendons-nous des équipes de biologistes, virologistes, infectiologistes, épidémiologistes, généticiens, etc., partout mobilisés dans le monde aujourd’hui, partout acharnés à l’étude, sinon une meilleure connaissance de la nature du virus, de ses modes de transmission, de ce qui peut l’affecter et le détruire, de la durée de la contagiosité de la maladie qu’il provoque, de la nature des anticorps qui lui font obstacle ? Choses qui, une fois connues plus amplement, permettront de l’éviter, de le neutraliser une fois qu’il est présent dans un organisme humain, de s’en garantir avant sa survenue, d’en épuiser la propagation, bref de s’en rendre « comme maîtres et possesseurs ». Quel bel encouragement que de leur dire : « la nature se révolte, on ne l’a pas assez respectée » ! Ou, comme l’a fait hier (12 avril, dimanche de Pâques), un évêque – mais qui lui au moins était dans son rôle – : « un minuscule virus nous a mis un genou en terre », avant de conclure comme Mme Michu mais avec les grandes orgues « on est peu de chose quand même »… !

S’agenouiller devant un morceau d’ARN enrobé d’une petite couche de graisse ? Non merci. Lorsque je me lave les mains au savon qui s’attaque à cette couche de graisse, lorsque je frotte mes poignées de porte à l’alcool, je livre le virus à la destruction : j’utilise une loi naturelle que la science a découverte. J’essaie, à mon infime niveau, de me rendre « comme maître et possesseur » d’une parcelle de nature, de commander à une nature aveugle en obéissant à ce que la science enseigne à ce sujet.

Les chercheurs n’ont que faire de cette humilité vicieuse7 prêchée aujourd’hui de tous côtés, et qu’il ne faut pas confondre avec la modestie. On s’humilie en s’abaissant devant quelqu’un que l’on croit à tort supérieur à soi ou devant une puissance aveugle à laquelle on prête des propriétés signifiantes. On est modeste quand on ne se croit ni au-dessus ni au-dessous de personne, quand on doute de soi-même, quand on se sait sujet à l’erreur et quand on sait aussi qu’on ne peut compter que sur ses propres forces et qu’il serait désastreux de ne pas y recourir, désastreux de s’en remettre à je ne sais quelle triste et jalouse puissance extérieure surplombante. C’est ce doute audacieux et raisonné qui, toujours, rend possibles le savoir et la libération qui en dépend.

Notes

2 – Voir l’article du regretté Didier Deleule sur le site d’archives : http://www.mezetulle.net/article-nucleaire-de-quelle-nature-parle-t-on-par-d-deleule-70101538.html

3 – Voir Francis Wolff, Plaidoyer pour l’universel (Paris, Fayard, 2019), p. 92-103.

4 – « […] on ne triomphe de la nature qu’en lui obéissant », Francis Bacon, Novum Organum, éd. M. Malherbe et J.-M. Pousseur. Paris, PUF, 1986, p. 87.

5 – Sur les idées faussement attribuées à Descartes, on lira Denis Kambouchner Descartes n’a pas dit, Paris, Les Belles Lettres, 2015.

Voici ce que Descartes écrit dans la 6e partie du Discours de la méthode.
« Mais, sitôt que j’ai eu acquis quelques notions générales touchant la physique, et que, commençant à les éprouver en diverses difficultés particulières, j’ai remarqué jusques où elles peuvent conduire, et combien elles diffèrent des principes dont on s’est servi jusques à présent, j’ai cru que je ne pouvais les tenir cachées sans pécher grandement contre la loi qui nous oblige à procurer autant qu’il est en nous le bien général de tous les hommes: car elles m’ont fait voir qu’il est possible de parvenir à des connaissances qui soient fort utiles à la vie ; et qu’au lieu de cette philosophie spéculative qu’on enseigne dans les écoles, on en peut trouver une pratique, par laquelle, connaissant la force et les actions du feu, de l’eau, de l’air, des astres, des cieux, et de tous les autres corps qui nous environnent, aussi distinctement que nous connaissons les divers métiers de nos artisans, nous les pourrions employer en même façon à tous les usages auxquels ils sont propres, et ainsi nous rendre comme maîtres et possesseurs de la nature. Ce qui n’est pas seulement à désirer pour l’invention d’une infinité d’artifices, qui feraient qu’on jouirait sans aucune peine des fruits de la terre et de toutes les commodités qui s’y trouvent, mais principalement aussi pour la conservation de la santé, laquelle est sans doute le premier bien et le fondement de tous les autres biens de cette vie ; car même l’esprit dépend si fort du tempérament et de la disposition des organes du corps, que, s’il est possible de trouver quelque moyen qui rende communément les hommes plus sages et plus habiles qu’ils n’ont été jusques ici, je crois que c’est dans la médecine qu’on doit le chercher. »

6 – Descartes ne croit pas que les modèles explicatifs en physique puissent atteindre une vérité du même ordre que celle des propositions mathématiques. Il considère qu’un modèle peut être retenu lorsqu’il rend compte de manière suffisante d’un ensemble de phénomènes et qu’il permet, sous conditions d’accessibilité, l’action technique. Nous ne pouvons donc pas prétendre être maîtres de la nature , ce qui serait prétendre agir comme Dieu, mais nous pouvons simuler l’obtention d’effets par des voies que nous maîtrisons mais dont nous ne pouvons assurer qu’elles sont celles de Dieu ni même qu’elles seraient comparables à celles de Dieu : nous ne pouvons donc que « nous rendre comme maîtres et possesseurs de la nature ». Voir Principes de la philosophie, IV, art. 204, où Descartes donne l’exemple de deux montres qui fonctionneraient correctement mais selon des mécanismes totalement différents.

7 – L’expression « humilité vicieuse » est empruntée à Descartes, Les Passions de l’âme, art. 159. Remarquablement cohérent, Jean Viard n’en rate pas une dans son itv du 13 avril : « cela nous rend humbles » dit-il aussi.

 

Les anti-chosistes. Un livre de Graham Harman

Thierry Laisney poursuit ses lectures d’ouvrages de philosophie contemporaine en langue anglaise. Dans le livre Object-Oriented Ontology : A New Theory of Everything1, le philosophe américain Graham Harman (né en 1968) entend exposer pour un large public la théorie dont il peut être considéré comme le chef de file : OOO, « le triple O », c’est-à-dire l’Ontologie Orientée vers l’Objet (Object-Oriented Ontology), une école de pensée qui n’a pas plus de vingt ans d’existence et qui connaît un certain retentissement depuis quelque dix ans.

La théorie des cordes n’explique pas tout

Cherchant à élaborer une théorie qui rende compte de toute chose quelle qu’elle soit, Graham Harman commence par constater que, depuis quelques décennies, certaines théories scientifiques ont eu la même ambition. Il pense en particulier à la théorie des cordes et à l’un de ses représentants les plus connus, le physicien Brian Greene. Or, selon l’auteur, l’affirmation (défendue par Greene) selon laquelle cette théorie a un champ d’application illimité présuppose l’adoption de quatre postulats erronés. En premier lieu, il est faux de penser que tout ce qui existe doive être physique. L’influence de la religion est considérable dans le monde, comme celle de tout ce qui est immatériel : âmes, esprits, spectres, archétypes inconscients de Jung, par exemple : « Bien que je ne sois pas particulièrement convaincu par la psychologie jungienne, écrit Harman, je lis Jung de temps en temps et je trouve qu’il enrichit mon imagination. Et il est clair que je détesterais vivre dans un monde où les sociétés jungiennes seraient dissoutes par la police de la raison ou découragées par une raillerie généralisée. » Harman a consacré une partie d’un livre précédent à l’étude de la Compagnie néerlandaise des Indes orientales (VOC) : c’est un autre exemple d’une entité qui n’est pas une chose matérielle existant en un lieu défini.

Deuxièmement, il ne faut pas croire que tout ce qui existe doive être fondamental (basique) et simple. Un auteur (Sam Coleman) a appelé cette erreur le « petitisme » (smallism). Pour Harman, il n’est pas vrai que, pour atteindre au réel, il faille réduire chaque chose à ses constituants ultimes ; ce serait ignorer le phénomène de l’émergence, qui fait naître de nouvelles propriétés là où de petits objets sont réunis en un nouvel objet. Un mariage, par exemple, est autre chose que la somme des deux individus qui le forment. Et pourquoi les garçons, contrairement aux filles, ne se promènent-ils pas très souvent par groupes de trois ? Parce que, aux yeux de la société, trois garçons ensemble constituent déjà un gang.

Troisièmement, des choses (Harman ne distingue pas les choses des objets) peuvent exister sans être réelles. C’est le cas des innombrables personnages de fiction qui occupent fréquemment une place importante dans nos vies. Mais Harman a une conception beaucoup plus large de la fiction : pour lui, tous les objets dont nous faisons l’expérience sont des fictions. Inspiré par Kant, il écrit : « L’orange ou le citron réel n’est pas plus accessible à ma perception humaine qu’il ne l’est à un moustique ou à un chien ». Sans compter toutes ces choses, ajoute-t-il au chapitre de la fiction, qui n’arrivent jamais et dont nous ne cessons de nous soucier.

En dernier lieu, il ne faudrait pas croire que tout ce qui existe soit formulable adéquatement dans un langage propositionnel littéral. Pour OOO, le langage littéral est toujours une simplification, puisqu’il décrit les choses en termes de propriétés littérales déterminées alors que les objets, n’en déplaise à Hume et aux empiristes en général, ne sont jamais simplement des faisceaux de propriétés. Influencé par Heidegger, Graham Harman donne la priorité au langage poétique sur le littéral : « La réalité des choses est toujours effacée ou voilée plutôt que directement accessible, et donc toute tentative de saisir cette réalité par un langage direct et littéral échouera inévitablement. »

Ainsi le triple O écarte-t-il soigneusement, au service d’une ontologie (« science de l’être ») extensive, ce que Harman appelle quatre « poisons intellectuels » : le physicalisme, le « petitisme », l’anti-fictionnalisme et le littéralisme.

Par-delà le savoir

L’ontologie ainsi proposée est une « ontologie plate » : elle englobe tous les objets possibles et imaginables, qui, en tant qu’ils sont des objets, sont tous rigoureusement à égalité. Depuis Descartes, nous dit Harman, la philosophie n’est pas plate, elle distingue strictement entre la pensée humaine d’un côté et tout le reste de l’autre. De même qu’on parle du spécisme sur le modèle du racisme, on pourrait parler de chosisme pour désigner l’attitude consistant à tenir certaines choses pour supérieures à d’autres2. OOO est donc un anti-chosisme. Harman évoque, à ce propos, celui qu’il considère comme le penseur vivant le plus important : Bruno Latour. Latour définit la modernité comme la vue selon laquelle il y aurait deux univers distincts, la nature et la culture.

Mais qu’est-ce au juste qu’un objet dans la théorie de Harman ? Un objet est « toute chose qui ne peut être entièrement réduite ni aux composants dont elle est faite ni aux effets qu’elle exerce sur d’autres choses ». En effet, les deux seuls types de savoir que nous pouvons détenir sur une chose sont : de quoi elle est faite ; ce qu’elle fait. OOO se bat donc contre deux réductionnismes : celui qui ne voit dans la chose que ses éléments constitutifs et celui qui ne voit dans les choses que leur impact sur nous (ou entre elles). Et la chose n’est pas non plus l’addition de ce dont elle est faite et de ce qu’elle fait. Elle est ce surplus d’être qui échappe à toute connaissance directe.

Le savoir, en effet, n’est pas le dernier mot de la quête de Graham Harman. « Philosophie », remarque-t-il, ne signifie pas savoir ou sagesse mais amour d’une sagesse qui ne peut jamais être tout à fait atteinte. Et c’est à Socrate qu’il décerne le titre de premier philosophe apparu dans l’histoire : « je ne sais qu’une chose, c’est que je ne sais rien ». De même, Harman défend, après Latour, l’idée selon laquelle il n’y a pas de savoir politique. C’est pourquoi OOO ne peut être partisan des formes les plus radicales de politique, fondées sur la prétention d’un savoir lui-même radical. Et le mouvement n’oublie pas – expression de son anti-chosisme – que certains objets non humains sont des acteurs politiques cruciaux : les transformations politiques ne résultent pas seulement des manifestes et des barricades, nous dit Harman, mais aussi des changements environnementaux ou technologiques3.

Comment saisir un objet

Mais puisqu’il n’existe aucune connaissance directe de quoi que ce soit (OOO reprend à son compte l’existence et le caractère insaisissable de la chose en soi kantienne), comment peut-on s’approcher de l’essence des choses ? Grâce à l’art et à la philosophie (pour Harman, la philosophie est du côté de l’art et non de la science), qui sont des activités cognitives ne relevant pas d’un savoir proprement dit. Harman consacre de nombreuses pages à un texte (datant de 1914) de l’auteur espagnol José Ortega y Gasset, « l’un des essais philosophiques les plus importants jamais écrits », qui a été pour lui une révélation4. Chacun de nous, selon Ortega, est quelque chose et ce quelque chose ne peut jamais être épuisé par l’introspection ou par une description extérieure ; de la même façon, chaque objet non humain peut aussi être appelé un « je » car il a une intériorité déterminée qui ne peut jamais être pleinement saisie : « Il n’y a rien, écrit Ortega, dont nous puissions faire un objet de cognition, rien qui puisse exister pour nous, sans qu’il devienne une image, un concept, une idée – sans, donc, qu’il cesse d’être ce qu’il est pour devenir une ombre ou un contour de lui-même. »

Mais l’art, selon Ortega, sans nous révéler le secret de la vie ou de l’être, a le pouvoir de nous donner l’impression que l’intériorité des choses nous est ouverte, en nous présentant ces choses « dans l’acte de s’exécuter elles-mêmes ». La métaphore en sera le principal instrument. Ortega prend l’exemple d’une métaphore par laquelle un poète espagnol identifie un cyprès au « fantôme d’une flamme éteinte ». La métaphore n’est pas la simple assimilation des qualités réelles de deux choses : elle « nous satisfait précisément parce qu’en elle nous trouvons une coïncidence entre deux choses qui est plus profonde et décisive que n’importe quelle ressemblance ». Mais Ortega commet ensuite ce que Harman dénonce comme une « erreur fatale » lorsqu’il écrit : « nous voyons l’image d’un cyprès à travers l’image d’une flamme ; nous le voyons comme une flamme, et vice versa ». Ce « vice versa » irréfléchi passe à côté de l’asymétrie de la métaphore (ce n’est pas la même chose de dire d’un cyprès qu’il a les qualités d’une flamme et d’une flamme qu’elle a les qualités d’un cyprès) et de la distinction, fondamentale pour OOO, entre un objet et ses qualités5.

Ce qui se passe en réalité dans cette métaphore, c’est que l’objet réel initial (le cyprès) disparaît et que le seul objet réel demeurant est nous-même, lecteur, qui embrassons les qualités de la flamme : la métaphore, en amalgamant le lecteur et ces qualités, produit un nouvel objet. Nous sommes, selon Harman, des acteurs jouant un cyprès jouant une flamme ; c’est ce que l’auteur appelle la théâtralité de la métaphore. Je ne suis pas sûr d’avoir complètement saisi cette idée mais, comme Harman confie qu’il a mis vingt-huit ans à comprendre cette dimension de l’essai d’Ortega, je garde espoir.

Tristan Garcia

Graham Harman compte le philosophe français Tristan Garcia (né en 1981) au rang des principaux « compagnons de route » de son « école » et recommande la lecture de Forme et objet. Un traité des choses (PUF, 2011), un « livre merveilleux » selon lui. Comme Harman, Garcia adopte la plus accueillante des ontologies : « aucune chose ne peut être absolument réduite à néant, parce qu’elle est morte, passée, fausse, imaginaire, inexistante ou contradictoire, par exemple ». Il s’agit là aussi d’une « ontologie plate », décrivant un monde « où n’importe quelle chose, stricto sensu, en vaut une autre ». Ce qui ne veut pas dire que toutes les choses soient « identiquement déterminées » ; certes, « un homme n’est pas comme une pierre, mais leur différence est-elle si grande qu’ils n’ont absolument rien à voir, en tant que choses ? ».

Garcia s’oppose lui aussi à certains réductionnismes. Selon lui, être, c’est être compris (au sens physique comme intellectuel), et il distingue, à peu près comme Harman, ce qui est une chose (ce qui entre dans cette chose) et ce qu’est une chose (ce dans quoi elle entre). L’être est la différence (« le lien, le rapport », dit Garcia un peu plus loin) entre les deux : « Ce qui est une chose ne peut pas déterminer ce que cette chose est : ce qui compose une chose ne permet jamais de déterminer nécessairement ce que cette chose est. » Si les deux se confondaient, la chose serait compacte (elle ne pourrait plus sortir d’elle-même) et il n’y aurait dès lors plus de chose au sens où l’entend Tristan Garcia.

Contrairement à Harman, Garcia distingue les choses et les objets. Ces derniers sont des choses particulières en tant qu’elles s’inscrivent dans des systèmes spécifiques de relations. Le Livre I de l’ouvrage s’intitule « Formellement » et le Livre II « Objectivement ». Cette seconde grande partie, plus « concrète » si l’on veut, est pleine de vues originales sur ce qui constitue notre univers : le temps, les arts, la culture, les valeurs, etc. Voici, par exemple, ce que Tristan Garcia écrit sur le temps : « On a donc tort de classer le temps suivant l’ordre : passé, présent, avenir, en se représentant une flèche du temps. En réalité, il faudrait dire : présent, passé, avenir, par ordre d’intensité de la présence. Ce qu’il y a de plus présent est le présent, qui n’est pas toute la présence, mais la présence la plus forte ; l’amoindrissement de cette présence, c’est le passé, qui est de plus en plus absent ; et ce qui maximise l’absence, c’est l’avenir ». Ou bien sur le vrai : « La vérité est une intensité parce qu’elle n’est jamais assez forte pour réduire ce qui la contrarie à néant. Le fait qu’il soit vrai que j’aie volé de l’argent dans le porte-monnaie diminue l’intensité d’être du fait contraire, mais il ne le réduit pas à rien. Le fait que je n’aie pas volé d’argent dans le porte-monnaie est toujours quelque chose ; simplement, sa fausseté l’affaiblit. » Ou encore sur la sagesse : « Toute sagesse, occidentale ou orientale, est l’illusion selon laquelle il serait possible d’accorder ce que je suis à ce que je sais. Par quelque tour de passe-passe, une sagesse tente de donner un sens unique absolu à ce que je comprends du monde en moi et à ce que je suis moi-même en ce monde. »

Et quantité d’autres choses.

Notes

1Graham Harman, Object-Oriented Ontology : A New Theory of Everything, Penguin Books, 2018.

2 – À condition qu’on veuille bien ajouter une acception à un mot qui jusque-là signifiait seulement : « doctrine considérant les idées et les concepts comme des choses ».

3 – Dans le même ordre d’idée, Bruno Latour écrit : « La politique a toujours été orientée vers des objets, des enjeux, des situations, des matières, des corps, des paysages, des lieux. Ce qu’on appelle les valeurs à défendre, ce sont toujours des réponses aux défis d’un territoire que l’on doit pouvoir décrire. Telle est en effet la découverte décisive de l’écologie politique : c’est une politique-orientée-objet. Changez les territoires, vous changerez aussi les attitudes. » (Où atterrir ? Comment s’orienter en politique, Paris, La Découverte, 2017, p. 70)

4 – Il s’agit de la préface (« Essai d’esthétique en guise de préface ») au recueil El pasajero du poète espagnol José Moreno Villa.

5 – Précisons qu’il existe selon Harman deux sortes d’objets : les objets réels et les objets sensibles (sensual objects) et deux sortes de qualités : les qualités réelles et les qualités sensibles. Est réel ce qui existe par soi-même ; est sensible ce qui n’existe qu’en relation avec un objet réel, humain ou autre.