Vos avis sur ‘X’ est-il bien rationnel ?

Plongeons dans des expériences dérangeantes dont les résultats pourtant publiés n’ont jamais vraiment été apportés à la connaissance du public. Il faut dire qu’ils nous racontent une histoire qui ne colle pas du tout avec nos intuitions sur ce qu’est la conscience et le libre arbitre.

Il est encore temps pour vous de renoncer à écouter ce que je vais vous raconter. Ou peut-être n’en avez-vous pas vraiment e pouvoir : la décision a déjà été prise, quelque part dans votre cortex.

Les neurosciences s’intéressent à d’innombrables questions sur le fonctionnement du cerveau. Parmi elles : qu’est-ce qui en nous est le véritable acteur de nos décisions ? Y a-t-il un centre de gravité neurologique qui arbitre, délibère et serait la source de nos actes ? Nous imaginons facilement une sorte de petit pilote aux commandes de notre esprit, un modèle réduit de nous-même… Mais si lui-même n’a pas de cerveau et qu’il est une partie de notre cerveau, comment fonctionne-t-il ? Cette énigme récalcitrante est explorée par des neurophysiologistes depuis plus de soixante ans. Les connaissances progressent, et elles ne sont pas tendres avec nos idées reçues.

 

Du signal cérébral à la question du vouloir

Au milieu des années 1960, les neurophysiologistes Hans Helmut Kornhuber et Lüder Deecke, de l’université de Fribourg, cherchent à comprendre comment le cerveau se prépare à une action volontaire.

Leur protocole est simple : ils demandent à des sujets immobiles d’exécuter, à intervalles irréguliers, un mouvement du doigt « quand ils en ont envie ». Pendant ce temps, un électroencéphalogramme enregistre les variations du potentiel électrique cortical.

En superposant des centaines de ces enregistrements, ils observent un phénomène étonnant : environ une seconde avant chaque mouvement, le signal moyen montre une lente montée d’activité dans la région motrice du cerveau. Ce n’est pas un artefact, ni une anticipation consciente : c’est un potentiel de préparation — en allemand Bereitschaftspotential —, autrement dit une activation neuronale qui précède toute décision déclarée.
Leur découverte, publiée en 1965, marque une étape clé, le premier indice que l’initiative motrice du geste prend forme avant que le sujet n’en ait conscience (Kornhuber & Deecke, 1965).

Vingt ans plus tard, le physiologiste américain Benjamin Libet reprend le fil de cette énigme.
Plutôt que de se contenter du signal moteur, il veut savoir à quel moment précis le sentiment de “vouloir agir” apparaît dans l’esprit. Son dispositif, devenu emblématique, associe trois mesures :

  1. L’électroencéphalogramme (EEG), qui détecte le début du potentiel de préparation — cette pente ascendante repérée par Kornhuber et Deecke.
  2. L’électromyogramme (EMG), qui indique le moment exact où le muscle se contracte.
  3. Et un repère subjectif : la fameuse  (pour will, la volonté), que le participant signale en observant une horloge dont l’aiguille tourne rapidement et en notant sa position quand il a ressenti l’intention d’agir.

 

Les résultats sont saisissants. En moyenne, le potentiel de préparation commence environ 550 millisecondes avant le mouvement, tandis que le sentiment conscient d’intention — le W — n’apparaît que 200 millisecondes avant la contraction musculaire (Libet et al., 1983).
Autrement dit, le cerveau initie la séquence motrice bien avant que la conscience ne se déclare volontaire.

 

La volonté sous observation : quand la conscience perd son trône

L’expérience de Libet fut d’abord reçue comme une curiosité méthodologique, avant de provoquer un séisme conceptuel. Car derrière ses chiffres se cache une idée vertigineuse : notre impression d’être à l’origine de nos gestes ne correspond pas à la chronologie réelle.

Le cerveau s’active, la décision émerge, puis seulement vient le sentiment subjectif du vouloir — comme si la conscience arrivait après l’acte, mais se l’attribuait tout de même.

Cette inversion du temps apparent, Daniel Wegner en fera le cœur d’une théorie entière. Dans The Illusion of Conscious Will (2002), il soutient que le « sentiment de volonté » n’est pas la cause de l’action, mais un effet secondaire, une construction a posteriori qui nous donne l’illusion d’être les auteurs de nos choix.

L’expérience quotidienne nous fait confondre corrélation et causalité : parce que nous pensons à un geste avant qu’il ne se produise, nous en concluons que notre pensée l’a provoqué. En réalité, écrit Wegner, l’action et l’intention consciente ont des causes communes, mais l’une n’engendre pas nécessairement l’autre. Nous sommes les narrateurs de notre conduite, presque des spectateurs, des enfants sur le siège passager qui imaginent tout contrôler.

Ce soupçon d’auto-illusion n’est pas né avec la neurophysiologie, de nombreux travaux ont mis en évidence que nous nous abusons sur les causes d e nos choix et décisions.

 

Par exemple, en 2005, Petter Johansson et ses collègues ont montré à des volontaires deux visages et leur ont demandé lequel ils trouvaient le plus attirant. Après le choix, les chercheurs intervertissaient secrètement les photos et présentaient aux participants celle qu’ils n’avaient pas sélectionnée, en leur demandant d’expliquer leur préférence. Dans la majorité des cas, personne ne remarquait la supercherie, et chacun développait un raisonnement cohérent pour justifier un choix qui n’était pas le sien (Johansson et al., 2005).

Si nous pouvons justifier sans aucun problème d’avoir fait un choix qui n’a pas eu lieu, alors peut-être est-ce le mode de fonctionnement par défaut de la conscience : une narration rétrospective de ce que le cerveau a déjà produit. La neuropsychologie des cerveaux divisés (split-brain) porte plus loin encore cette découverte.

 

L’expérience des cerveaux fendus

Chez certains patients épileptiques, on sectionnait autrefois le corps calleux, le faisceau qui relie les deux hémisphères. Après cette opération, l’hémisphère droit et l’hémisphère gauche ne communiquent plus (ou très peu). Or, en vision, chaque hémichamp visuel projette vers l’hémisphère controlatéral : ce qui est présenté à gauche est traité par l’hémisphère droit ; ce qui est présenté à droite par l’hémisphère gauche. Chez la plupart des droitiers, le langage explicite est surtout pris en charge par l’hémisphère gauche.

Des situations expérimentales permettent alors d’interroger ce qui se passe dans chaque hémisphère. On affiche deux images simultanées, séparées au centre de l’écran pour que chacune tombe dans un hémichamp distinct :

  • à droite (donc vers l’hémisphère gauche, “parleur”) : une patte de poulet ;
  • à gauche (donc vers l’hémisphère droit, muet) : un paysage enneigé.

On demande aussitôt au patient de pointer avec chaque main l’objet qui « va avec » l’image vue :

  • la main droite (contrôlée par l’hémisphère gauche) pointe naturellement une poule (ou un poulet) — cohérent avec la patte de poulet ;
  • la main gauche (contrôlée par l’hémisphère droit) pointe une pelle — cohérente avec la neige (on dégage la neige avec une pelle).

On questionne oralement le sujet : « Pourquoi avez-vous choisi la pelle ? » — Évidemment, le problème est que la raison du choix de la pelle (la neige) n’a été perçue que par l’hémisphère droit, qui ne parle pas.

Résultat : l’hémisphère gauche, qui parle mais n’a pas vu la neige, invente une justification plausible : « Pour nettoyer le poulailler. » Il fabrique un lien poule → pelle qui sauve la cohérence de l’ensemble, tout en ignorant la véritable cause (la neige) à laquelle il n’a pas eu accès.

Cette expérience célèbre de Michael Gazzaniga démontre que la sélection d’une action (la pelle) peut être déclenchée par des informations inaccessibles au système verbal conscient. Interrogée après coup, la partie « narrative » du cerveau (hémisphère gauche) fournit une explication qui n’est pas la cause réelle, mais une rationalisation. Gazzaniga a nommé ce mécanisme l’« interprète » : un module qui relie, raconte et justifie, afin de maintenir une histoire cohérente du moi (Gazzaniga, 2005).

 

La chronologie de la volonté

Dans l’expérience de Libet, l’EEG révèle qu’une préparation motrice précède le sentiment d’intention ; dans le split-brain, une action peut être déterminée par des signaux non accessibles à la conscience verbale, qui reconstruit ensuite un motif crédible. Dans les deux cas, la chronologie réelle de la décision et la chronologie ressentie se désaccordent : la conscience n’initie pas nécessairement l’acte ; elle le commente et le légitime après coup.

Les expériences de Libet n’étaient qu’une ébauche : un électroencéphalogramme et un doigt qui bougeaient à quelques centaines de millisecondes d’écart. Mais qu’arrive-t-il lorsqu’on regarde plus profondément dans le cerveau ?

Au début des années 2000, la neuroimagerie fonctionnelle permet enfin d’explorer, en temps réel, les zones qui s’activent avant une décision. C’est dans ce contexte que Chun Siong Soon, John-Dylan Haynes et leurs collègues à Berlin mettent au point un protocole devenu célèbre (Soon et al., 2008).

Ils demandent à des volontaires d’appuyer, quand ils le souhaitent, sur un bouton gauche ou droit, pendant que leur cerveau est scruté par IRMf. Leur objectif : déterminer si un algorithme peut prédire le choix avant que le participant n’en prenne conscience. Et les résultats sont frappants.

L’analyse révèle que certaines zones du cortex préfrontal et pariétal portent la trace du futur choix jusqu’à sept secondes avant que le sujet ne rapporte son intention consciente. Sept secondes !

Certes, la précision de la prédiction ne dépasse pas 60 % — mais cela suffit à démontrer que des motifs neuronaux préfigurent la décision bien avant que la conscience n’entre en scène.
L’esprit conscient, ici, ne commande pas : il hérite d’un mouvement déjà lancé. Ces travaux prolongent l’intuition de Libet : la volonté est post-datée. Loin d’être le point de départ de la chaîne causale, elle en occupe les derniers étages.

 

Les travaux de Patrick Haggard, poursuivis en collaboration avec Angela Sirigu, ont permis de décomposer finement ce que nous appelons une décision volontaire. Ils ont montré qu’elle ne constitue pas un événement unique, mais une séquence à plusieurs niveaux, que l’on peut étudier séparément :

1- Le “quand” agir (when) : il s’agit du moment précis où l’impulsion motrice est déclenchée.
Cette phase est largement préparée de manière inconsciente : le cerveau accumule silencieusement de l’activité jusqu’à franchir un seuil qui enclenche le geste, souvent sans qu’aucun signal conscient ne l’annonce.

2- Le “quoi” faire (what) : c’est le contenu de l’action — lever la main, appuyer sur un bouton, saisir un objet. Là encore, la planification motrice s’élabore avant la prise de conscience du choix ; les régions prémotrices configurent le mouvement tandis que la conscience n’en perçoit qu’un résumé.

3- Le “si” agir (whether) : c’est la seule composante où l’intervention consciente reste tangible. Le sujet peut encore, dans une courte fenêtre temporelle, inhiber l’action qui s’apprête à se produire — l’équivalent du « veto » de Libet. Mais cette inhibition, elle aussi, repose sur des circuits automatiques, et son efficacité se limite à une fraction de seconde.

Ainsi, la conscience ne préside pas à la genèse du geste : elle s’invite à la fin, non comme une instance de commandement, mais comme un contrôle de qualité, une approbation symbolique d’un processus déjà en marche. Ce n’est pas elle qui appuie sur la gâchette ; c’est elle qui assume le tir après coup.

 

Pour suivre mon travail plus facilement :


inscrivez-vous à la NEWS’Zet

Le veto, dernière ligne de défense

Face à l’accumulation des données suggérant que le cerveau prépare nos gestes avant que nous en ayons conscience, certains philosophes ont voulu sauver une parcelle de liberté : si nous ne décidons pas d’agir, pouvons-nous au moins décider de ne pas agir ?

Benjamin Libet lui-même avait proposé cette échappatoire : peut-être la conscience n’est-elle pas l’instigatrice du geste, mais elle disposerait d’un droit de veto, d’une brève fenêtre lui permettant d’interrompre un acte déjà amorcé (Libet, 1985). La volonté ne serait plus l’étincelle première, mais un filtre final, un dernier garde-fou entre l’élan neuronal et l’action accomplie.  Et là se trouverait le véritable degré de liberté de notre conscience. « Un homme ça s’empêche » disait déjà Camus.

 

En 2016, Matthias Schultze-Kraft et ses collègues ont mis cette hypothèse à l’épreuve avec une ingéniosité remarquable. Leur dispositif reposait sur un neurofeedback en temps réel : pendant que les participants attendaient pour bouger un doigt, un ordinateur analysait en continu leur activité cérébrale. Dès que le logiciel détectait la signature neuronale annonçant un mouvement imminent — ce fameux potentiel de préparation —, il affichait un signal visuel d’alerte : « Stop ! ».

Les résultats furent sans appel. Lorsque l’avertissement survenait plus de 200 millisecondes avant la contraction musculaire, le participant pouvait encore suspendre le geste. Mais au-delà de ce délai, plus aucune inhibition n’était possible : le mouvement se déroulait quoi qu’il en soit.

En dessous de cette frontière temporelle, les mécanismes moteurs deviennent autonomes, comme si la décision avait déjà quitté la sphère du contrôle conscient. Le « veto » existe donc, mais il est étroit, tardif et dépendant de circuits d’inhibition eux-mêmes en grande partie automatiques.

Ces travaux ont quelque chose de perturbant. La conscience ne règne plus sur nos actions comme une souveraine, mais elle est tout au plus un frein d’urgence, une sorte d’ultime système de vérification et d’authentification de la décision.

Le libre arbitre, dans cette perspective, ne serait pas la capacité de choisir librement une action, mais celle — plus modeste — d’empêcher ce que le cerveau s’apprête à faire.

 

La liberté à hauteur de cerveau

L’expérience de Libet, et toutes celles qui ont suivi, ont détruit la fiction d’un esprit souverain trônant au-dessus du cerveau, dépositaire d’un vouloir pur, capable de trancher hors de toute causalité. Alors, bien sûr, le libre arbitre n’a pas vraiment été aboli par ces travaux, notamment parce qu’il n’existe pas de définition consensuelle définitive de cette notion. En revanche, certaines conceptions métaphysiques sur la nature de l’esprit ont pris du plomb dans l’aile : la chronologie observée — activité neuronale d’abord, intention consciente ensuite — est difficile à concilier avec le dualisme.

Si une âme indépendante gouvernait nos gestes, alors le contenu de notre conscience et de notre volonté devrait se mouvoir en amont des ondes cérébrales : or c’est toujours l’inverse. La conscience est à la traîne du cerveau agissant. Elle émerge comme une fonction de contrôle, de cohérence et d’apprentissage : un système intégré qui surveille, évalue et ajuste les automatismes produits par d’autres circuits.

Autrement dit, ce que nous appelons volonté est un processus distribué : des réseaux sensorimoteurs déclenchent, le cortex préfrontal cadre, et la conscience raconte après coup afin de maintenir la continuité narrative du moi. La philosophie classique voyait dans cette continuité la marque de notre autonomie ; la neuroscience moderne y voit la signature d’un système d’interprétation, fruit de l’évolution, utile pour la mémoire, la planification et la responsabilité sociale.

La liberté n’est plus un décret métaphysique : elle devient une compétence biologique, fragile, partielle, mais, tout de même, encore irréductible.

 

Le recul sur la conscience ?

Les expériences que nous venons de parcourir n’ont pas résolu le mystère de la conscience. Mais elles dénotent indéniablement des progrès en ce sens.

En quelques décennies, la science a appris à chronométrer une intention, à la prédire avant qu’elle n’émerge, à la dissocier d’un geste, à la perturber par une électrode, à l’interrompre — parfois — par un signal d’alerte. Là où régnaient des certitudes philosophiques et des intuitions tenaces, elle a introduit des protocoles, des délais mesurables, des résultats reproductibles.

Et ce qui s’est passé, nous devons l’accepter : les faits déplacent les frontières de ce que nous croyions évident. Ces travaux audacieux et ingénieux rendent de plus en plus coûteuse l’idée que la conscience serait une entité souveraine, indépendante, à l’abri de toute investigation. À mesure que les données s’accumulent, certaines conceptions du libre arbitre cessent d’être des hypothèses fécondes et deviennent des postulats périmés.

Si tout cela nous indique une seule chose, c’est que rien n’indique que la conscience soit un mystère destiné à rester éternellement hors de portée. Rien ne garantit non plus que ce que nous découvrirons nous plaira.

Libre à nous de décider de nous plonger dans les nouvelles questions que ces travaux font émerger, ou au contraire de nous détourner des résultats qui contredisent nos certitudes.  C’est peut-être notre libre arbitre qui se rebiffe pour exister comme si 1983 n’avait pas eu lieu.

 

Acermendax

Références

  • Banks, W. P., & Isham, E. A. (2009). We infer rather than perceive the moment we decided to act. Psychological Science, 20(1), 17–21. https://doi.org/10.1111/j.1467-9280.2008.02254.x
  • Brass, M., & Haggard, P. (2007). To do or not to do: The neural signature of self-control. Journal of Neuroscience, 27(34), 9141–9145. https://doi.org/10.1523/JNEUROSCI.0924-07.2007
  • Kornhuber, H. H., & Deecke, L. (1965). Hirnpotentialänderungen bei Willkürbewegungen und passiven Bewegungen des Menschen: Bereitschaftspotential und reafferente Potentiale. Pflügers Archiv, 284, 1–17. https://doi.org/10.1007/BF00412364
  • Gazzaniga, M. S. (2005). Forty-five years of split-brain research and still going strong. Nature Reviews Neuroscience, 6(8), 653–659. https://doi.org/10.1038/nrn1723
  • Libet, B., Gleason, C. A., Wright, E. W., & Pearl, D. K. (1983). Time of conscious intention to act in relation to onset of cerebral activity (readiness-potential): The unconscious initiation of a freely voluntary act. Brain, 106(3), 623–642. https://doi.org/10.1093/brain/106.3.623
  • Libet, B. (1985). Unconscious cerebral initiative and the role of conscious will in voluntary action. Behavioral and Brain Sciences, 8(4), 529–566. https://doi.org/10.1017/S0140525X00044903
  • Matsuhashi, M., & Hallett, M. (2008). The timing of the conscious intention to move. European Journal of Neuroscience, 28(11), 2344–2351. https://doi.org/10.1111/j.1460-9568.2008.06525.x
  • Schultze-Kraft, M., Birman, D., Rusconi, M., Allefeld, C., Görgen, K., Dähne, S., Blankertz, B., Haynes, J.-D., & Kühn, S. (2016). The point of no return in vetoing self-initiated movements. Proceedings of the National Academy of Sciences, 113(4), 1080–1085. https://doi.org/10.1073/pnas.1513569112
  • Schurger, A., Sitt, J. D., & Dehaene, S. (2012). An accumulator model for spontaneous neural activity prior to self-initiated movement. Proceedings of the National Academy of Sciences, 109(42), E2904–E2913. https://doi.org/10.1073/pnas.1210467109
  • Soon, C. S., Brass, M., Heinze, H.-J., & Haynes, J.-D. (2008). Unconscious determinants of free decisions in the human brain. Nature Neuroscience, 11(5), 543–545. https://doi.org/10.1038/nn.2112

Aujourd’hui nous allons parler d’une révolution scientifique qui n’a eu absolument aucun effet sur la question qu’elle était censée trancher. Malgré cet échec complet, la méthode est restée parce qu’elle permet de distinguer un vrai traitement d’un produit sans efficacité.

 

Une taverne, cent fioles, et le doute en personne

Dans une taverne de Nuremberg, devant plus de 120 curieux, cinquante-quatre volontaires font tourner entre leurs doigts des fioles d’eau limpide. À l’intérieur ? Peut-être « Sel 30 CH », peut-être rien d’autre que de l’eau ordinaire. Personne – pas même l’expérimentateur – ne sait qui boira quoi. C’est ici que démarre l’un des tout premiers essais randomisés en double aveugle de l’histoire : l’homéopathie va devoir montrer qu’elle agit au-delà du hasard.

Au tournant du XIXᵉ siècle, la médecine saigne encore plus qu’elle ne soigne. Dans ce marasme, le médecin Samuel Hahnemann lance l’homéopathie : « semblables soignés par les semblables » en administrant des préparations hautement diluées à une clientèle plutôt fortunée prise en charge dans de bonnes conditions d’hygiène.

Et il y a de quoi être satisfait : au moins, personne ne meurt d’intoxication au mercure. Très vite, pourtant, certains praticiens soupçonnent que l’effet supposé n’est qu’imagination. Parmi eux : Friedrich Wilhelm von Hoven, médecin-chef des hôpitaux de la ville, et critique acharné de l’engouement hahnemannien. Sous le pseudonyme E. F. Wahrhold il publiait l’année précédente une dénonciation cinglante de l’homéopathie (Stolberg, 2006).

Le dernier médecin homéopathe de Nuremberg, Johann Jacob Reuter, bien implanté chez les familles notables, réplique : « Qu’il ose avaler du sel 30 CH, il sentira bien quelque chose ! ». La presse locale se régale, le débat dérape : la Société des hommes épris de vérité propose une épreuve publique où le hasard tranchera.

 

Naissance (improvisée) d’un essai randomisé

Le 12 mars 1835, à l’auberge du « Coq rouge », devant 120 curieux, deux pharmaciens installent le matériel de l’expérience qui va départager les deux adversaires à l’aide d’une préparation de Natrum muriaticum… Tout bêtement du sel de table diluée à la 30e centésimale (30CH), dilution que Reuter exige en se réclamant des principes de Hahnemann utilisés depuis 1833 pour réaliser les « pathogénésies » : les tests de substance à la recherche de leurs vertus médicales.

Selon Hahnemann et ses disciples, cette préparation était censée provoquer, chez un sujet sain, une vaste constellation de symptômes physiques et psychiques. Aujourd’hui encore on recommande ce remède contre les migraines pulsatiles, la vision brouillée, les poussées d’herpès labial, les éternuements avec écoulement clair abondant, les tiraillements gastriques, l’alternance de fringale et de manque d’appétit, les palpitations, les bouffées de chaleur, la mélancolie avec besoin de solitude, tendance aux larmes quand on le console, hypersensibilité aux petites contrariétés. Et cetera.

Si le remède est administré à un sujet sain, la théorie prévoit que cela provoque les symptômes en question. Et Reuter en atteste : « Je parie dix contre un que quiconque avalera du sel 30 CH ressentira des symptômes manifestes »

  • On prépare 100 fioles : 50 remplies d’eau distillée, 50 de sel marin dilué à la 30ᵉ centésimale (30 CH). Je vous rappelle qu’au-delà de 12CH la préparation ne contient plus un seul atome de la substance de départ. Pour mieux comprendre, je vous renvoie vers la série dédiée à l’homéopathie que j’ai réalisée quand j’étais jeune et fringuant.
  • Chaque fiole reçoit un numéro tiré au hasard. Les pharmaciens dressent alors une liste qui indique quel numéro correspond à l’eau pure ou à la dilution. Cette feuille est aussitôt glissée dans une enveloppe qu’on cachette devant tout le monde : personne ne pourra savoir, avant la fin, le contenu des fioles.
  • Cinquante-quatre volontaires — médecins, pharmaciens, juristes — choisissent chacun une fiole et s’engagent à noter le moindre signe étrange, le moindre picotement, durant les trois semaines suivantes.

Les sept étapes du protocole décrites dans le rapport Löhner (randomisation, double aveugle, placebo, publication annoncée) anticipent de près d’un siècle les canons de l’essai clinique moderne. Mais avant de voir les résultats, faisons un détour en 1747 à bord d’un navire de la marine britannique

 

La solution était dans le citron

Le chirurgien écossais James Lind affronte l’ennemi numéro un des marins : le scorbut. Les gencives pourrissent, les dents tombent, les équipages agonisent, ce serait formidable de trouver un remède. Lind aligne douze matelots déjà mal en point et, dans la même cabine, leur attribue six traitements différents : cidre, élixir d’orge, esprit de vitriol… et, pour deux d’entre eux seulement, oranges et citrons. Les règles sont simples : même régime de base, mêmes hamacs, seul le « médicament » varie. Au bout de six jours, les deux « agrumés » retrouvent force et couleurs ; les autres déclinent. Lind, qui vient de réaliser le premier essai contrôlé de l’histoire, publie son résultat : le scorbut se traite avec les produits frais de la terre.

Hélas, l’Amirauté met près de quarante ans à prendre en considération les données de cette expérience de terrain. Quand enfin le jus de citron devient ration officielle, la Royal Navy cesse de perdre ses marins à cause du scorbut. Et les chimistes nommeront acide ascorbique la substance responsable de cet effet providentiel, notre vitamine C.

On peut tirer de cela une première leçon de science appliquée : un protocole clair peut sauver des vies, mais seulement si l’on accepte d’écouter ce qu’il dit.

Pour suivre mon travail plus facilement :


inscrivez-vous à la NEWS’Zet

Verdict : le grand calme moléculaire

Revenons en 1835. Trois semaines ont passé et 50 des 54 sujets rendent leur rapport. Huit d’entre eux déclarent un malaise dans ce laps de temps. Lorsque l’enveloppe est ouverte, on découvre que cinq avaient reçu le sel dilué, trois l’eau pure, une répartition autorisée par le hasard. L’important est que la grande majorité des volontaires ayant reçu le remède n’a ressenti aucun effet. Voici la théorie homéopathique réfutée par des données factuelles.

Plutôt que d’en tirer la conclusion évidente, Reuter et les partisans de l’homéopathie contestèrent la validité méthodique d’un protocole qu’ils avaient pourtant approuvé en arguant diverses raisons pour lesquelles ils se sentaient justifié à continuer de croire ce que déjà ils croyaient. On retrouve cette posture dans tous les conflits autour des pseudomédecines.

En mars 1835, Georg Löhner, journaliste et éditeur de l’Allgemeine Zeitung von und für Bayern, est le compilateur du compte rendu officiel du « Nürnberger Kochsalzversuch » (l’Expérience du sel de cuisine de Nuremberg). Son papier fait du bruit…

 

Impact (limité) du test de Nuremberg sur l’histoire mondiale de l’homéopathie

En Allemagne la presse médicale libérale y voit une preuve éclatante que les hautes dilutions ne valent pas mieux que l’eau, et les journaux de santé publique y ont salué une démonstration méthodique inédite. Mais l’effet est resté circonscrit :

  • Le rapport officiel de Georg Löhner n’a pas été immédiatement traduit ; hors d’Allemagne, il a surtout circulé sous forme de résumés polémiques.
  • Les autorités sanitaires n’avaient encore ni agences de régulation ni procédure d’agrément : aucune mesure coercitive n’a suivi.
  • La méthode elle-même — double aveugle, randomisation — était si neuve que beaucoup de médecins « orthodoxes » n’en ont pas compris la portée.

En France, où l’homéopathie avait déjà ses cliniques (Étienne Guérin, Léon Simon), l’épisode de 1835 n’a presque pas été repris dans les revues savantes ; il a donc peu pesé sur l’opinion. Le rejet relatif de l’homéopathie hexagonale viendra plus tard, avec la diffusion du laboratoire pasteurien et de la pharmacologie moderne.

 

Pourquoi la pratique a quand même reculé ailleurs

Le reflux qui s’observe au tournant du XXᵉ siècle s’explique surtout par La montée de la médecine de laboratoire (bactériologie, pharmacologie) et la démonstration spectaculaire de traitements efficaces (sérums, vaccins) ; et les lois sur les médicaments (Pure Food and Drugs Act, 1906 ; Medicines Act, 1968) qui exigent des preuves expérimentales reproductibles.

Mais aussi par la réforme de l’enseignement médical. Aux États-Unis, par exemple, le rapport Flexner (1910) accélère la fermeture des écoles médicales non conventionnelles, dont les écoles homéopathiques déjà en déclin

Le test de Nuremberg est souvent cité a posteriori comme précurseur méthodologique, mais il n’a pas, à lui seul, provoqué ce basculement global.

 

Il faut dire un mot du cas particulier de l’Inde. L’homéopathie y arrive très tôt : d’abord via des missionnaires allemands (vers 1810), puis grâce au médecin hongrois Johann Martin Hoenigberger qui soigne le maharaja Ranjit Singh à Lahore en 1839. La pratique pénètre ensuite Calcutta, se diffuse par des praticiens bengalis et, fait décisif, n’est pas associée aux autorités coloniales ; elle devient même un marqueur d’émancipation intellectuelle pour les élites locales.

Après l’Indépendance, l’État indien promeut une politique de pluralisme médical (A-Y-U-S-H) et intègre officiellement l’homéopathie dans ses facultés et ses dispensaires (loi de 1973, Conseil central d’homéopathie). L’Inde compte aujourd’hui le plus grand nombre de praticiens homéopathiques au monde et constitue de loin le premier marché mondial de la pratique avec 850 millions de dollars en 2025.

Avec un tel budget on pourrait financer quelques protocoles de test…

 

Une croyance têtue

L’expérience de Nuremberg, vieille de 190 ans, rappelle qu’une preuve, même impeccable, ne suffit pas à désarmer une croyance. Les sceptiques de l’époque y ont vu, sans surprise, la confirmation de leurs doutes ; pour les partisans de l’homéopathie, en revanche, le résultat était beaucoup plus difficile à avaler. Pourquoi ? Les raisons se superposent et se renforcent :

  1. Le choc émotionnel — Une réfutation n’est pas qu’un fait : elle arrache une source d’espoir. Abandonner un remède perçu comme doux et rassurant équivaut, pour certains, à perdre une béquille psychologique.
  2. Le biais de confirmation — Quand huit volontaires signalent de vagues picotements, le regard partisan se focalise sur ces huit sensations et oublie les quarante-deux comptes-rendus parfaitement vides. Tout indice, aussi minuscule soit-il, devient preuve ; tout silence est relégué au « bruit ». Nous percevons, nous comprenons, nous retenons mieux les informations congruentes avec nos croyances préalables.
  3. La facilité intellectuelle — « Plus c’est dilué, plus c’est fort » est une idée aussi séduisante qu’immédiate ; elle flatte l’intuition magique bien davantage que la froide loi d’Avogadro et ses zéros interminables. On parle aussi d’aisance cognitive.
  4. La fonction identitaire — Très vite, l’homéopathie s’est muée en symbole de douceur, d’autonomie et d’opposition à la médecine « officielle ». Critiquer la pratique, c’est donc, dans l’esprit de ses adeptes, attaquer la communauté elle-même ; réflexe tribal garanti.
  5. La paix sociale — Pharmaciens, autorités et journalistes préfèrent souvent ménager la croyance plutôt que déclencher un bras de fer public. On tolère donc la coexistence, en espérant que « ça ne fasse pas de mal », quitte à repousser le débat de fond.

Autrement dit, la science peut rendre un verdict clair ; encore faut-il qu’une société accepte le deuil de ses illusions, au risque d’un conflit qu’elle cherche trop souvent à différer.

 

Bilan : ne diluons pas le doute

En 2025, l’homéopathie affiche un marché mondial à presque quatorze milliards de dollars[4]. Les méta-analyses s’empilent, concluant invariablement à l’absence d’effet spécifique au-delà du placebo – mais la pratique prospère. La leçon de Nuremberg reste donc contemporaine : la preuve n’est jamais suffisante si le coût psychologique de l’abandon de croyance est jugé trop élevé.

Au-delà du plaisir de l’érudition historique, nous avons ici un rappel opérationnel : sans culture du doute, la société finance à l’infini des solutions imaginaires – et reporte les conflits qu’elle redoute jusqu’à ce qu’ils lui explosent au visage.

L’expérience de 1835 était parfaitement pensée, et cela nous rappelle que la science ne doit pas être confondue avec le raffinement technologique des appareils high tech. Il a suffi à ces quelques médecins de mélanger des fioles et d’employer le hasard comme juge tout en veillant à cacher les informations qui pouvaient influencer les ressentis et les perceptions, pour neutraliser les effets contextuels produit par l’homéopathie.

Deux siècles plus tard, nous n’avons rien de plus fiable que ce geste-là : sceller la liste, tirer au sort, compter honnêtement, et accepter le verdict du réel sur nos hypothèses. Ce protocole parfaitement exécuté a produit des résultats qui tiennent encore la route, et qu’il serait temps d’accepter.

Parce que nous ne sommes plus en 1835.

 

Acermendax


Références

  • Cukaci C, Freissmuth M, Mann C, Marti J, Sperl V. Against all odds-the persistent popularity of homeopathy. Wien Klin Wochenschr. 2020 May;132(9-10):232-242. doi: 10.1007/s00508-020-01624-x. Epub 2020 Mar 9. PMID: 32152694; PMCID: PMC7253376.
  • Future Market Report. (2025). Homéopathie : Taille du marché, part, croissance | Prévision du TCAC 2032https://www.futuremarketreport.com/fr/industry-report/homeopathy-market/**
  • Government of India. (1973). The Homoeopathy Central Council Act, 1973 (Act No. 59 of 1973). The Gazette of India, Part II – Section 1. New Delhi : Author.
  • Hackenbroch, V. (2010, 14 juillet). Frühe Homöopathie-Studie: « Wir können doch gar nicht, was wir behaupten ». Der Spiegel
  • IMARC Group. (2025). India homeopathic medicine market size & report 2034https://www.imarcgroup.com/india-homeopathic-medicine-market**
  • Kaptchuk, T. J. (1998). Intentional ignorance: A history of blind assessment and placebo controls in medicine. Bulletin of the History of Medicine, 72, 389-433.
  • Löhner, G. (1835). Die homöopathischen Kochsalzversuche zu Nürnberg. Nürnberg : Gesellschaft der wahrheitsliebenden Männer. Fac-similé : James Lind Library. The James Lind Library
  • Ministry of AYUSH. (2023). Ayush in India 2022–23: Homeopathy Sector Overview. New Delhi : Govt. of India.
  • Stolberg, M. (2006). Inventing the randomized double-blind trial: The Nuremberg salt test of 1835. Journal of the Royal Society of Medicine, 99, 642-643.
  • Tournier, P., & Thalamas, C. (2015). L’homéopathie en procès : histoire critique d’une doctrine. Paris : Éditions Matério.
  • Wahrhold, E. F. (1834). Auch Etwas über die Homöopathie. Nuremberg : J. G. Neukirch (cité par Stolberg, 2006, p. 642).

En 1614, au plus fort de la fièvre de la chasse aux sorcières, il existait déjà un remède à la déraison contagieuse. Au milieu des brasiers, un inquisiteur remet en cause la méthode de ses confrères qui à chaque fois tombent sur des coupables. #NotAllInquisiteurs?

 

Tous les inquisiteurs sont-ils des salauds ? … Indéniablement, ils participent à un système d’oppression cauchemardesque au service d’une vision théocratique, donc intolérante et manichéenne, du monde. Ils sont les champions de la répression de la liberté d’expression et même de la liberté de conscience. Et beaucoup ont du sang sur les mains. Il est donc intéressant de nous pencher sur l’histoire de l’un d’eux, qui déroge un peu à ce portrait, car il a instillé du doute et même de la raison au cœur même de l’un des épisodes les plus fanatiques de l’histoire : la chasse aux sorcières.

Nous sommes au début du XVIIᵉ siècle, l’Europe traverse une véritable épidémie de sorcellerie judiciaire. Entre 1580 et 1630, des milliers d’hommes et surtout de femmes sont brûlés sur le continent, souvent au nom de la même certitude : celle qu’un sabbat nocturne unit secrètement les serviteurs du diable.

En 1609, le juge bordelais Pierre de Lancre, envoyé par Henri IV dans le Labourd, fait exécuter plus de soixante-dix personnes en quelques mois. Dans son Tableau de l’inconstance des mauvais anges et démons (1612), il décrit avec un luxe de détails hallucinés les danses, baisers obscènes et métamorphoses des prétendues sorcières : le délire est total, mais l’homme parle du haut d’une autorité qu’on ne discute pas.

Cette frénésie traverse les montagnes et gagne le nord de l’Espagne, où l’Inquisition de Logroño va pourtant bifurquer, et offrir au continent un modèle de doute méthodique.

La panique basque et le triomphe de la certitude

Tout commence en janvier 1609 : quatre femmes du village de Zugarramurdi, près de la frontière navarraise, se dénoncent spontanément à l’Inquisition de Logroño, affirmant avoir participé à des messes diaboliques. Les accusées décrivent le diable, les serments, les vols aériens, les festins… avec des variantes minimes.

Les deux inquisiteurs alors en poste, Juan del Valle Alvarado et Alonso Becerra Holguín, voient dans ces récits la confirmation d’une “secte de sorcières” déjà bien installée. Leur erreur méthodologique est classique : la convergence apparente des témoignages devient pour eux une preuve — alors que cette convergence provient d’une contamination narrative.

La méthode inquisitoire en vigueur à cette époque jouit d’un très grand avantage : l’accusateur obtient toujours quelque chose. L’accusé avoue à peu près tout, le témoin livre toujours au moins un nom. La torture a des effets miraculeux ; la vérité semble éclore immédiatement, parfois à sa simple évocation. C’est presque trop facile.

Pendant plus d’un an, le tribunal accumule les confessions sous la contrainte et les dénonciations croisées. En novembre 1610, trente et une personnes sont condamnées. Six sont brûlées vives, cinq autres par effigie, parce qu’elles sont mortes en captivité avant le jugement… alors autant qu’elles soient coupables.

La cérémonie attire plus de 30 000 spectateurs sur la place de Logroño (Henningsen, 2004, p. 34-38 ; Monter, 1990, p. 116). Les sermons enflamment la foule (si l’on peut dire) : la victoire de Dieu sur le Mal est célébrée dans la fumée des bûchers. Mais, ironie tragique, le succès du procès ravive la panique. Des centaines de lettres affluent, des villages entiers dénoncent de nouvelles “sectes”. La terreur se nourrit de sa propre purge.

Au sein même du tribunal, un troisième inquisiteur, resté en retrait pendant les procès, commence à douter. Alonso de Salazar Frías, juriste formé à l’Université de Salamanque, n’a pas participé aux interrogatoires initiaux. Il assiste pourtant à l’auto-da-fé du 7 novembre et confie aussitôt à ses collègues qu’il ne croit pas à la réalité des crimes jugés.
Selon lui, les accusées “parlent comme on leur a appris à parler”, et leurs aveux reflètent moins le sabbat que l’imaginaire collectif.

 

1611 : le mandat d’un inquisiteur sceptique

En mars 1611, inquiet de la contagion, le Conseil suprême de l’Inquisition (la Suprema) confie à Salazar une mission solitaire : vérifier sur le terrain la réalité de ces prétendues assemblées démoniaques.

L’ordre est explicite : il ne doit ni employer la torture, ni chercher de nouveaux coupables ; il doit contrôler la cohérence des témoignages et vérifier si les réunions décrites ont réellement eu lieu (Henningsen, 2004, p. 133-135). Sa visite débute en mai 1611 et durera près de huit mois. Salazar parcourt plus de 800 kilomètres à travers la Navarre et la Biscaye, interroge environ 1800 personnes, dont plus de 1300 enfants âgés de 6 à 14 ans (Henningsen, 2004, p. 140-145).
Les résultats le stupéfient :

  • Les enfants répètent des formules apprises, souvent mot pour mot ;
  • Les adultes rétractent leurs déclarations quand ils ne sont plus sous la pression du groupe ;
  • Les récits sont pleins de contradictions, jusque dans les détails matériels.

Pour vérifier, il se rend lui-même dans les lieux des prétendus sabbats. À Santesteban, des enfants affirment avoir vu des danses dans la nuit : ses secrétaires s’y rendent au moment indiqué… et ne trouvent personne (Henningsen, 2004, p. 156).

À Zugarramurdi, les “onguents magiques” se révèlent être des mélanges d’huile, de graisse et d’herbes communes… fabriqués pour satisfaire les attentes des inquisiteurs précédents.
Les accusées l’admettent : elles avaient “joué le jeu” pour éviter la torture.

Peu à peu, Salazar comprend que l’ensemble du dossier repose sur des illusions collectives.
Il écrit en 1613 au Grand Inquisiteur :

« Je n’ai trouvé ni preuve ni même le moindre indice d’un acte réel de sorcellerie… Le témoignage d’un complice, non confirmé par des faits externes établis par des personnes étrangères à la cause, ne suffit pas à justifier une seule arrestation. » (Carta de Salazar al Inquisidor General, 1613 ; Henningsen, 2004, p. 198.)

Pour suivre mon travail plus facilement :


inscrivez-vous à la NEWS’Zet

L’audace du doute

Son rapport de 1613 ne se contente pas de nier la réalité du sabbat : il accuse l’Inquisition elle-même d’avoir aggravé l’illusion. Les procès précédents, écrit-il, ont été entachés d’erreurs méthodiques :

  • Les secrétaires ne notaient que les conclusions, pas les incohérences des dépositions.
  • Les rétractations étaient censurées des registres, dans l’espoir qu’elles soient oubliées, et que le travail paraisse immaculé.
  • Les juges fermaient les yeux sur les violences commises par les autorités locales (Henningsen, 2004, p. 200-203).

Mais la phrase la plus saisissante, qui résume sa pensée, tient dans une observation d’une lucidité désarmante : « Ces affirmations dépassent toute raison humaine et vont au-delà même des limites permises au diable. Si le démon y était pour quelque chose, comment aurait-il permis que ses secrets soient si aisément dévoilés par des enfants de huit ans ? » (Carta de Salazar, 1613 ; citée in Monter, 1990, p. 125.)

En d’autres termes : si le mal était réel, il serait plus malin. Le démon des inquisiteurs est un piètre ennemi, qui abandonne tous ses serviteurs aux buchers.

La conclusion de Salazar est méthodologique avant d’être théologique : il n’est pas crédible qu’autant d’événements impossibles surviennent sans trace ni témoin, sinon dans les esprits.

 

1614 : la contre-réforme de la raison

Le Conseil suprême, impressionné, adopte presque mot pour mot les recommandations de Salazar dans les “Instructions de 1614” (Henningsen, 2004, p. 207-213 ; Kamen, 1998, p. 210-212).
Ces directives imposent :

  • L’enregistrement intégral des dépositions, avec leurs contradictions.
  • La prise en compte des rétractations.
  • L’exigence de témoins extérieurs aux accusés.
  • L’interdiction de toute condamnation fondée sur des dénonciations internes au groupe des “sorcières”.
  • La prohibition des sermons et débats publics sur la sorcellerie, pour couper court à la contagion imaginative.

Salazar reste à Logroño pour appliquer ces règles. En 1617, il écrit à la Suprema : « La paix règne désormais en Navarre. L’imposition du silence sur la question des sorcières a guéri la province de sa folie. » (Carta al Consejo, 1617 ; Henningsen, 2004, p. 228.)

L’Espagne, seule en Europe, sort de la fièvre démonologique non par scepticisme philosophique, mais par rigueur procédurale. Le nombre d’exécutions chute brutalement : moins de quarante cas recensés après 1614, contre plusieurs milliers dans les pays du Nord (Monter, 1990, p. 132-134).

 

La leçon

La grandeur paradoxale de Salazar Frías est d’avoir compris que, dans les affaires de croyance, le matériau du jugement n’est jamais le fait, mais le témoignage — et que ce matériau est le plus fragile qui soit.

Son enquête, comme celles des psychologues du XXᵉ siècle sur les faux souvenirs, montre combien la mémoire se modèle sous la contrainte sociale, combien la peur, l’autorité et la répétition fabriquent du vrai apparent (Ceci & Bruck, 1993 ; Loftus, 2005).

On pourrait y déceler la trace des méfaits du diable, mais cela n’aiderait pas beaucoup à y voir plus clair, il est plus utile de faire preuve d’un peu de prudence épistémique, de réévaluer la forces des preuves que l’on croit détenir, et de garder la liberté de douter afin de se tromper moins.

Sans avoir besoin de renier ses convictions ou sa théologie, Frias a simplement demandé un peu de méthode : décrire, vérifier, confronter, douter. Et cela a suffi pour conjurer localement la panique morale qui dévorait toute l’Europe, un peu comme si le diable était dans les détails, dans la mécanique implacable d’une procédure meurtrière qui pousse ses victimes à des aveux absurdes et incite le grand public à dénoncer avant d’être dénoncé.

Quelle époque funeste, quel obscurantisme que ces gens par milliers portant des accusations gravissimes et extravagantes. Sans aucune preuve, ils dénonçaient injustement, imaginaient des scène indécentes, une corruption absolue et des noirs desseins simplement parce que la société autour d’eux faisait comme si ces histoires pouvaient être vraies. Mais de telles dispositions ont probablement disparu de la noble espèce humaine, car nous ne sommes plus en 1614.

 

Acermendax


Références

  • Ceci, S. J., & Bruck, M. (1993). Suggestibility of the child witness: A historical review and synthesis. Psychological Bulletin, 113(3), 403–439.
  • Henningsen, G. (2004). The Salazar Documents: Inquisitor Alonso de Salazar Frías and Others on the Basque Witch Persecution (1609–1614). Leiden: Brill.
  • Kamen, H. (1998). The Spanish Inquisition: A Historical Revision (2nd ed.). New Haven: Yale University Press.
  • Loftus, E. F. (2005). Planting misinformation in the human mind: A 30-year investigation of the malleability of memory. Learning & Memory, 12(4), 361–366.
  • Monter, W. (1990). Frontiers of Heresy: The Spanish Inquisition from the Basque Lands to Sicily. Cambridge: Cambridge University Press.
  • de Lancre, P. (1612). Tableau de l’inconstance des mauvais anges et démons. Paris: Nicolas Buon.

 

Tout le monde a entendu parler de cette histoire.

Août 1973, Stockholm : un braquage tourne à la prise d’otages. Pendant six jours, quatre employés d’une banque vivent enfermés dans une chambre forte, menacés d’armes et de dynamite par deux hommes. Lorsque la police donne l’assaut, surprise : les otages s’interposent pour protéger leurs geôliers, refusent de témoigner contre eux, et prennent même de leurs nouvelles en prison. Dans les journaux du monde entier, on s’émerveille ou on s’indigne : comment peut-on aimer son ravisseur ?

C’est là qu’un psychiatre-criminologue suédois, Nils Bejerot, intervient. Conseiller de la police, il décrit le comportement des otages comme une pathologie — une « identification avec l’agresseur ». Il baptise le phénomène Norrmalmstorgssyndromet, du nom de la place où s’est déroulé le drame. Quelques mois plus tard, la presse internationale a trouvé une étiquette plus vendeuse : le “syndrome de Stockholm”.

Le concept devient un motif de fiction : la Belle et la Bête, V pour Vendetta en sont des exemples parfaits. Il fascine parce qu’il romantise la domination : la victime « tombe amoureuse » de son bourreau. C’est une explication simple, psychologiquement séduisante, et terriblement fausse.

Un récit construit autour d’un pseudo-diagnostic

Le “syndrome de Stockholm” n’existe dans aucune classification médicale. Ni le DSM-5 américain, ni la CIM-11 de l’OMS n’en font mention. Aucune échelle clinique validée, aucun protocole de soin ne s’y réfère.

Une revue majeure (Namnyak et al., 2008, Acta Psychiatrica Scandinavica) a épluché plus de quarante ans de littérature : elle conclut à une base empirique « extrêmement mince », des définitions contradictoires et une confusion entre comportements d’adaptation et troubles psychiques.

Les analyses du FBI vont dans le même sens : sur des centaines de prises d’otages étudiées, moins d’une dizaine montrent une forme d’empathie durable pour l’agresseur (FBI Law Enforcement Bulletin, 2011). En d’autres termes, le “syndrome” est une exception rarissime, difficile à mesurer, souvent inventée après coup pour dramatiser un récit médiatique.

Quant au cas originel, les témoignages complets des otages défont largement le roman du « coup de foudre pour le ravisseur ». La sténographe Kristin Enmark, 23 ans au moment des faits, a ensuite affirmé qu’elle n’avait « ni amour ni attirance » pour ses ravisseurs, mais avait agi dans une logique de survie. Elle a qualifié l’étiquette de « syndrome de Stockholm » de « façon de blâmer la victime ».

Factuellement, depuis la chambre forte, Kristin Enmark obtient de parler au Premier ministre Olof Palme et lui lance qu’il « joue avec [leurs] vies », en lui demandant de les laisser partir avec Olsson, Olofsson et l’argent. On aurait tort de conclure qu’elle voulait battre la campagne avec ses deux nouveaux amis. Après coup, elle expliquera avoir craint surtout une intervention policière mal maîtrisée, au point de se sentir plus menacée par la police que par les deux hommes avec qui elle partageait le coffre (Armitage, 2023)

Le psychiatre Bejerot aurait sans doute dû en tenir compte avant de théoriser le fameux syndrome, mais de fait : il n’a jamais rencontré ni interrogé les victimes.

 

Une invention sexiste ?

Nils Bejerot n’était pas un observateur neutre. Pendant et après la prise d’otages de 1973, il commente le comportement de Kristin Enmark dans les médias sans jamais l’avoir rencontrée ni interrogée directement. Il présente sa défiance envers la police et le gouvernement comme le symptôme d’une « identification » aux preneurs d’otages, en insinuant même une attirance sexuelle pour le braqueur. Cette lecture psychiatrisante permet de transformer des critiques très concrètes – tirs jugés dangereux, gestion désordonnée de la crise – en signe d’irrationalité.

Plusieurs analyses féministes ont repris ce dossier à froid. La journaliste Jess Hill, qui consacre un chapitre entier au contrôle coercitif dans les violences conjugales, qualifie le « syndrome de Stockholm » de terme « dangereux » parce qu’il efface la réalité des expériences des victimes et permet aux institutions d’échapper à la remise en cause de leurs propres échecs. Le thérapeute Allan Wade, après avoir longuement interviewé Enmark, parle d’un concept « inventé pour disqualifier une jeune femme indignée », et plus largement d’un style de théorisation qui place la pathologie dans la tête des victimes – particulièrement des femmes – plutôt que dans les pratiques violentes qu’elles subissent (Wade, 2015)

D’autres travaux, comme ceux de Dee Graham, Edna Rawlings et Roberta Rigsby, montrent que des comportements souvent interprétés comme de la « loyauté paradoxale » – coopérer, apaiser, feindre l’accord, chercher à plaire – peuvent être compris comme des réponses adaptatives sous terreur masculine prolongée (Graham, 1994). Dans le cadre des violences conjugales, Evan Stark et Jess Hill décrivent ce contexte comme un contrôle coercitif : un système où l’agresseur impose une menace permanente, une surveillance et un isolement qui réduisent drastiquement les marges de choix de la victime (Tarrant, 2019).

Dans cette optique, les conduites visibles des otages ou des femmes sous emprise (apaiser, se montrer « compréhensive », protéger parfois l’agresseur contre la police) relèvent du coping sous menace, de l’accommodation stratégique dans un régime de domination. Elles n’indiquent ni trouble psychiatrique autonome, ni « amour » pour le ravisseur. C’est précisément ce basculement de perspective – de la pathologie individuelle vers les contraintes structurelles – que les critiques féministes reprochent au récit de Bejerot d’avoir masqué.

Pour suivre mon travail plus facilement :


inscrivez-vous à la NEWS’Zet

Pourquoi le mot persiste

Si le « syndrome de Stockholm » est aussi contesté scientifiquement, pourquoi demeure-t-il si présent dans le langage courant ?

La revue systématique de Namnyak et al. (2008) montre que, malgré une forte médiatisation, la littérature empirique reste maigre, les définitions du « syndrome » sont contradictoires, et il n’existe ni critères diagnostiques stables ni outils de mesure validés. Les auteurs concluent que le terme fonctionne surtout comme récit explicatif commode, plutôt que comme catégorie clinique robuste.

Du côté des praticiens, G. Dwayne Fuselier, du FBI, souligne que les situations réunissant les conditions « classiques » du syndrome sont rares, et que quelques cas spectaculaires ont pesé disproportionnellement sur l’imaginaire du public et des médias (Fuselier, 1999). Le sociologue Michael Adorjan et ses collègues parlent même de « ressource vernaculaire » : une étiquette que journalistes, policiers et commentateurs mobilisent pour donner du sens à des affaires de captivité, bien au-delà des prises d’otages au sens strict (Adorjan, 2012).

En parallèle, des autrices comme Graham et Hill détaillent des mécanismes bien documentés – liaison traumatique, contrôle coercitif, stratégies de survie – qui suffisent à expliquer les comportements « paradoxaux » des victimes sans postuler un syndrome spécifique (Graham, 1994). Le succès persistant du terme « syndrome de Stockholm » tient donc moins à sa solidité scientifique qu’à sa force narrative : il donne l’impression d’un diagnostic précis là où la recherche décrit, en réalité, un ensemble de réponses adaptatives à la violence.

 

Un petit ménage sémantique

Commençons par ce qu’il faut balayer : le terme « syndrome ». Il ne décrit rien de stable, ne repose sur aucun critère clinique et, à force d’être répété, finit surtout par obscurcir ce qu’il prétend expliquer.

Ce qui mérite d’être conservé, en revanche, ce sont les cadres conceptuels éprouvés. La liaison traumatique, qui éclaire ces liens émotionnels nés de l’alternance entre menace et répit. Le contrôle coercitif, au sens d’Evan Stark, qui montre comment un agresseur impose un environnement de domination fait de peur, d’isolement et de surveillance. Et les réponses d’apaisement, ces gestes et attitudes destinés à limiter la violence quand aucune autre issue n’est sûre.

Ces outils ont un avantage décisif : ils décrivent des mécanismes réels, utiles à la prise en charge et à la compréhension des situations de contrainte, sans jamais glisser vers l’idée fausse d’un attachement romantique de la victime envers son agresseur. Ils replacent la logique là où elle se trouve vraiment : dans l’adaptation à un danger, pas dans la pathologie.

 

 

Les mots qui nous prennent en otages

Le « syndrome de Stockholm » n’est pas un diagnostic, ni même un concept clinique : c’est une étiquette pseudoscientifique dont la force narrative a séduit presque tout le monde. Répétée depuis un demi-siècle dans la fiction et les analyses journalistiques un peu hâtives, elle a glissé dans le langage quotidien au point de masquer les dynamiques réelles de la contrainte — en résonance avec l’un de nos biais les plus tenaces : l’erreur fondamentale d’attribution, cette tendance à expliquer les comportements par la psychologie individuelle plutôt que par les circonstances.

Ce récit en dit davantage sur les besoins culturels de la société qui l’a inventé — la peur, le désir d’ordre moral, le goût pour les explications simples — que sur les victimes qu’il prétend décrire. En étiquetant leurs stratégies de survie comme un trouble, le langage devient un outil de domination : il déplace l’attention des mécanismes de violence vers la supposée irrationalité de celles et ceux qui tentent d’y échapper.

La question utile n’est donc jamais : « Pourquoi s’est-elle attachée à son agresseur ? »
Mais bien : quelles contraintes pesaient sur elle, quelles menaces, et quelles marges de manœuvre lui restaient pour survivre ?

Le problème, avec les humains, c’est qu’ils tombent facilement amoureux des mots qui les retiennent en otage et qui déforment leur jugement. Pourtant, la littérature scientifique est limpide : aucun critère clinique (Namnyak et al., 2008), aucune valeur prédictive opérationnelle dans les données du FBI (Fuselier, 1999), et des explications bien plus solides — contrôle coercitif, coping, liaison traumatique — suffisent à rendre compte des comportements observés (Graham, Rawlings & Rigsby, 1994).

Autrement dit : chacun peut aujourd’hui s’informer sur les raisons d’abandonner cette idée fausse et trompeuse qu’est le “syndrome de Stockholm”, histoire de ne pas rester scotchés en 1973.

Acermendax

Références

  • Adorjan, M., Christensen, T., Kelly, B., & Pawluch, D. (2012). Stockholm syndrome as vernacular resource. The Sociological Quarterly, 53(3), 454–474.
  • American Psychiatric Association. (2013). Diagnostic and Statistical Manual of Mental Disorders (5ᵉ éd.). American Psychiatric Publishing.
  • Armitage, R. (2023, 22 août). Is Stockholm syndrome a myth? The terrifying crime behind psychology’s most famous — and dubious — term. ABC News.
  • Fuselier, G. D. (1999). Placing the Stockholm syndrome in perspective. FBI Law Enforcement Bulletin, 68(7), 22–25.
  • Graham, D. L. R., Rawlings, E. I., & Rigsby, R. K. (1994). Loving to Survive: Sexual Terror, Men’s Violence, and Women’s Lives. New York University Press.
  • Hill, J. (2019). See What You Made Me Do: Power, Control and Domestic Abuse. Black Inc.
  • Namnyak, M., Tufton, N., Szekely, R., Toal, M., Worboys, S., & Sampson, E. L. (2008). “Stockholm syndrome”: Psychiatric diagnosis or urban myth? Acta Psychiatrica Scandinavica, 117(1), 4–11.
  • Tarrant, S., Tolmie, J., & Giudice, G. (2019). Transforming legal understandings of intimate partner violence (Research report 03/2019). Australia’s National Research Organisation for Women’s Safety (ANROWS).
  • Wade, A. (2015, April). The myth of “Stockholm Syndrome” (and other concepts invented to discredit women victims of violence). Communication présentée à la Dignity Conference, Hawke’s Bay, New Zealand.
  • World Health Organization. (2019). International Classification of Diseases for Mortality and Morbidity Statistics (11ᵉ révision).

 

Quand l’archevêque Ussher calcula le jour exact de la Création

Erreur 4004

Le 22 octobre de l’an 4004 avant notre ère, à la tombée du jour, Dieu aurait dit : Que la lumière soit. Il était 18 heures.

Ainsi commence le monde, selon l’archevêque anglican James Ussher. Ce samedi soir marque, d’après lui, le premier coucher de soleil de l’Histoire. Le lendemain, 23 octobre, un dimanche, vit s’élever la lumière du tout premier matin. Une date précise, gravée dans les marges des Bibles anglaises pendant plus de deux siècles : -4004.

Ce qui ressemble à un délire mystique, était en fait une entreprise d’érudition. L’homme n’était ni naïf ni isolé : il fut l’un des plus respectés exégètes du XVIIᵉ siècle, chancelier de l’Université de Dublin, ami des grands érudits d’Europe. Sa chronologie sacrée[1] visait à reconstituer toute l’histoire du monde depuis la Genèse jusqu’aux temps modernes. Il n’inventait pas le genre : avant lui, Bède le Vénérable, Martin Luther ou encore le Josippon (attribué à Joseph ben Gorion) avaient tenté le même exercice. Ussher se distingue par son ambition ; avec une certaine forme de rigueur et beaucoup d’audace il s’applique à déterminer le commencement du temps avec une précision jamais vue (Barr, 1985).

 

Le calcul de la Création

Quand Ussher entreprend, au XVIIᵉ siècle, de dater la Création, il ne fait qu’hériter d’un jeu déjà très ancien : celui de compter les générations bibliques pour reconstruire l’histoire du monde. L’idée ne vient pas d’Angleterre, ni même du christianisme.

Dès le IIᵉ siècle de notre ère, le rabbin Yossé ben Halafta, auteur du Seder Olam Rabba, avait établi une chronologie complète depuis Adam jusqu’à l’époque d’Alexandre le Grand. En additionnant les âges des patriarches, les durées de règne et les cycles mentionnés dans les Écritures, il plaçait la Création à 3761 avant notre ère — date encore utilisée aujourd’hui dans le calendrier hébraïque (Milikowsky, 1985 ; Vidro, 2021).

 

Ussher reprend exactement cette méthode : partir du texte, additionner les durées, et rattacher le tout à quelques repères historiques connus — les empires assyriens, les règnes de Cyrus ou de Nabuchodonosor (Barr, 1985). La différence tient moins à la logique qu’aux outils : là où les rabbins disposaient du texte massorétique, Ussher pouvait comparer la Septante grecque, la Vulgate latine et les sources profanes pour affiner le calcul.

Bien sûr, il supposait que les nombres transmis dans les Écritures — notamment dans la Genèse et les Livres des Rois — étaient littéralement exacts, inspirés de Dieu lui-même. Il n’avait guère le choix : sans ce présupposé toute son entreprise devenait stérile. Concernant les divergences entre les versions hébraïque, grecque ou latine, Ussher choisit la version massorétique de l’Ancien Testament, qu’il considérait comme la plus fiable et la mieux conservée par une tradition scrupuleuse de copie. En cas de contradiction, il écartait ainsi les autres variantes pour garantir une chronologie la plus cohérente possible.

Au bout du compte, Ussher obtint une chronologie complète : environ quatre mille ans séparaient Adam de Jésus. Restait à déterminer le jour exact.

La Genèse stipule que Dieu se repose le septième jour, le sabbat : un samedi. Le premier jour du monde devait donc être un dimanche. Ussher voulait aussi que la Création corresponde au renouveau automnal du calendrier hébraïque, le mois de Tishri, qui marquait le début de l’année religieuse et des grandes fêtes de la moisson. Ce choix symbolique plaçait l’origine du monde à l’automne, saison du recommencement, même si l’équinoxe astronomique, elle, survenait un mois plus tôt, vers la fin septembre[2]. En choisissant le 23 octobre de l’an -4004 (calendrier julien proleptique), Ussher obtenait une date harmonieuse : la Création débutait un dimanche, au seuil d’un nouveau cycle, exactement comme dans la Genèse. Notez bien que s’il avait choisi le printemps, on aurait pu trouver ça tout aussi logique.

Mais Ussher va encore plus loin dans la précision. Selon la tradition juive, le jour commence au coucher du soleil, et non à minuit. Le premier jour du monde commença donc, pour lui, le soir du samedi 22 octobre -4004, vers dix-huit heures : le début biblique du dimanche. Et le premier matin eut lieu le 23 octobre. Perfection.

L’archevêque ne précise pas à quel méridien se situait ce lever de Soleil primordial : à Éden, à Jérusalem, ou à Armagh, son archevêché irlandais. C’est un peu regrettable d’être à la fois si précis et si flou.

 

Le sérieux de la foi

Nous devons essayer de nous mettre à la place des contemporains de l’archevêque.

Dater la Création n’était pas, au XVIIᵉ siècle, un geste d’ignorant : c’était une entreprise de haute érudition. Les chronologistes comme James Ussher travaillaient dans un monde où le passé se réduisait aux archives et aux Écritures. La radioactivité, la stratigraphie et la paléontologie restaient à inventer. La notion même d’« histoire naturelle » commençait à peine à s’esquisser ; les savants confondaient encore volontiers l’âge du monde et l’âge de l’humanité (Barr, 1999).

Les fossiles étaient connus depuis l’Antiquité. On en tirait des curiosités, on en décorait les cabinets de lettrés, mais leur signification demeurait énigmatique. Certains les prenaient pour des jeux de la nature, des « pierres figurées » ayant simplement pris l’aspect d’animaux. D’autres y voyaient les vestiges du Déluge : la Bible demeurait le seul cadre temporel cohérent, une structure universellement admise. Elle offrait des généalogies, des durées de règne, une suite ininterrompue d’événements depuis la création d’Adam : une trame historique complète. L’exégèse biblique était une science du temps, et Ussher travaillait dans un univers où la Révélation demeurait l’autorité ultime.

Dans ce cadre épistémique, la démarche de James Ussher consiste à aller jusqu’au bout de la logique. Il est l’homme qui a refusé de ne pas savoir et qui a exploité ce qui étaient des vérités admises pour aboutir à une découverte qui touchait aux limites absolues de la connaissance.

Sa datation de la Création, qui ressemble aujourd’hui à une forme de régression obscurantiste, était en fait plutôt l’ultime expression d’un monde intellectuel qui cherchait encore la vérité dans les textes. Elle est survenue au moment où ce monde allait se fissurer — à l’aube des révolutions scientifiques qui allaient briser, pour toujours, la cohérence du paradigme biblique.

 

 

Quand la Terre vieillit d’un coup

Pendant plus d’un siècle, la chronologie d’Ussher resta le cadre de référence dominant dans le savoir occidental. On imprimait encore dans les Bibles la date de la Création : 4004 avant Jésus-Christ. Mais peu à peu, la Terre elle-même commença à livrer d’autres chiffres.

Dans les mines et les carrières, on remarque que les roches forment des couches stratifiées bien distinctes : les mêmes alternances d’argiles, de calcaires et de grès se répètent sur des distances considérables, toujours dans le même ordre. En comparant ces coupes géologiques, les naturalistes comprennent que les couches inférieures ont été déposées avant celles qui les recouvrent — comme les pages d’un livre qui s’empilent au fil de l’écriture. Ce principe de superposition, formulé en 1669 par le Danois Nicolas Sténon, fonde la stratigraphie moderne et marque le passage de la géologie biblique à la géologie descriptive (Perrini et al., 2010 ; Fildani, 2022).

À certains endroits, on trouve des fossiles marins pris dans des pierres situées à de hautes altitudes. Impossible d’y voir un simple effet du Déluge biblique : ces coquilles ont été déposées, enfouies, puis soulevées par la lente déformation de la croûte terrestre. Le monde ne s’est pas formé en six jours, mais en une série de transformations incroyablement longues.

En Écosse, James Hutton (1726-1797) étudie ces structures avec l’obstination d’un physicien. Sur le site célèbre de Siccar Point, il identifie des couches de roche inclinées, érodées, puis recouvertes de sédiments horizontaux plus récents. Cette discordance prouve que des continents entiers ont été soulevés, érodés, puis submergés à nouveau — un cycle nécessitant non pas des milliers, mais des millions d’années. Hutton formule alors une phrase devenue fondatrice de la géologie moderne : « Nous ne trouvons aucune trace d’un commencement, aucun signe d’une fin »[3] (cité par Harrison, 2023).

En 1715, l’astronome Edmond Halley propose une méthode originale pour estimer l’âge de la Terre. Il observe que l’eau des rivières, en érodant les roches, transporte des sels vers les océans, où ces sels s’accumulaient car l’eau évaporée était douce. En comparant la salinité actuelle des océans à la quantité annuelle de sels apportée, il estime que la Terre doit avoir au moins plusieurs dizaines de milliers d’années, bien plus que ne le suggère la chronologie biblique (Malin, 1993).

Georges-Louis Leclerc, comte de Buffon (1707–1788) va plus loin encore. Par des expériences où il fait fondre des sphères métalliques pour simuler le refroidissement progressif de la Terre depuis son état incandescent, il calcule un âge de la Terre d’environ 75 000 ans. Ce chiffre est alors scandaleux, et déjà douze fois supérieur à celui d’Ussher.

Au XIXᵉ siècle, les preuves s’accumulent. L’Écossais Charles Lyell, en 1830, formula le principe d’uniformitarisme : les processus géologiques actuels expliquent ceux du passé. Cette idée, reprise par Darwin, donnera une cohérence temporelle aux transformations de la vie.

Puis vint le XXᵉ siècle. La datation radiométrique, développée notamment par Bertram Boltwood puis par Clair Patterson, permet de mesurer directement le temps géologique à partir des isotopes radioactifs contenus dans les minéraux (Boltwood, 1907 ; Patterson, 1956). Ces méthodes consolident la valeur estimée à environ 4,54 milliards d’années pour l’âge de la Terre. C’est un million de fois plus que le résultat de notre archevêque. C’est comme si le brave monsieur Ussher avait estimé la distance Paris-Londres (343 km à vol d’oiseau) à environ 34 centimètres !

Le monde est vieux, et l’humain soudain fait figure de passager tardif d’un immense vaisseau spatial qui n’était pas forcément conçu pour lui ; le temps géologique nous rapetisse, et nous invite à l’humilité (Harrison, 2023)[4].

Pour suivre mon travail plus facilement :


inscrivez-vous à la NEWS’Zet

Un monde sans âge ?

L’idée, savamment raffinée par James Ussher, d’une possibilité de dater le premier jour du cosmos aurait semblé absurde à la plupart des civilisations qui l’ont précédé.

Dans la plupart des traditions antiques, le monde n’avait pas d’anniversaire ; les récits cosmogoniques décrivaient des ordres d’événements sans repère temporel absolu. Les peuples de Mésopotamie racontaient dans le Enūma Eliš comment Marduk avait ordonné le chaos, mais sans jamais préciser quand. Les Égyptiens voyaient la création comme un acte sans cesse recommencé : à chaque lever de Soleil, la colline primordiale surgissait à nouveau des eaux du Noun. Chez les Grecs, Hésiode parlait du Chaos et de Gaïa, Aristote d’un univers éternel. Le monde se transformait, mais n’avait pas forcément un commencement absolu.

Seule l’Inde ancienne avait imaginé un cadre temporel qui pressentait déjà l’immensité du temps. Les textes puraniques décrivaient des cycles cosmiques — les yuga et les kalpa — où un “jour de Brahmā” est dit durer 4,32 milliards d’années selon les Purāṇa postérieurs. Ce n’était pas une datation, mais une intuition vertigineuse : le temps pouvait être infini, ou en tout cas incommensurable avec la durée humaine (Kloetzli, 2013).

La Chine classique ne cherche pas un “commencement” absolu : le Qi primordial s’y condense et se résout, dans une alternance d’ordre et de chaos, où le monde naît de la mise en forme d’une matière-énergie sans origine unique (Rošker, 2020).

C’est dans les traditions zoroastrienne, puis juive, chrétienne et musulmane qu’apparaît une autre vision : celle d’un temps linéaire, doté d’un début et d’une fin. Le Dieu unique crée le monde en six jours, l’humanité en hérite, et le récit se poursuit jusqu’au Jugement dernier. Dans le judaïsme rabbinique, nous l’avons vu tout à l’heure, la Création est fixée à 3761 avant notre ère (Milikowsky, 1985 ; Vidro, 2021). L’islam reprend l’idée du monde créé, et certains savants arabes, tel al-Bīrūnī au XIᵉ siècle, comparent déjà les diverses ères et chronologies des nations pour discuter la durée du monde et la pluralité des débuts possibles (Blois, 2024).

La datation de James Ussher, qui semble si ridicule et désespérante aujourd’hui est le dernier maillon d’une longue chaîne d’efforts pour faire parler les Écritures comme un calendrier.

Perdus dans le temps

Il fallait douter des chiffres de la Bible pour chercher autrement à évaluer l’âge de la Terre (Fildani, 2022)[5]. Il fallait, pour voir les strates géologiques, pour comprendre les fossiles, un mouvement d’émancipation envers les vieux textes plein d’autorité mais désespérément vides de connaissances, voire résolument faux.

Nous n’avons pas élaboré le grand édifice des sciences grâce à la foi, catholique ou autre, mais grâce au doute qui met à l’épreuve les certitudes et perce à jour les faux savants, les imposteurs, les prédicateurs.

Ussher n’est pas plus coupable ou ridicule que la plupart des érudits de son temps, son calcul resté célèbre est la cerise sur le gâteau d’un paradigme prétentieux aveugle à ses incohérences, téméraire dans ses certitudes, naïf dans ses méthodes. Mais au lieu de se moquer des limites de nos prédécesseurs, il faut réfléchir au miroir qu’ils nous tendent pour considérer les angles morts de nos propres certitudes et illusions.

Il y avait, au matin du jour que nous appelons désormais samedi 22 octobre -4004, des êtres humains qui ont vu l’aube se lever sans jamais imaginer que, des siècles plus tard, des hommes puissants et lettrés décideraient que ce jour-là, et tous ceux qui l’avaient précédé, n’avaient jamais existé. Nous n’étions pas là. Nous ne pouvons que reconstruire mentalement ce passé, avant de devenir, à notre tour, des ancêtres dont l’ignorance fera sourire ceux qui hériteront de nos savoirs encore inachevés.

Et eux aussi, sans doute, hausseront les épaules : « Comment pouvaient-ils croire ces choses-là ? Ils n’étaient pourtant plus en l’an -4004 ! »

Acermendax

Références

  • Barr, J. (1985). Why the world was created in 4004 B.C.: Archbishop Ussher and biblical chronology. Bulletin of the John Rylands University Library of Manchester, 67(2), 575–608.
  • Barr, J. (1999). Pre-scientific chronology: The Bible and the origin of the world. Proceedings of the American Philosophical Society, 143(3), 379–387.
  • Blois, F. C. de. (2024). A new look at al-Bīrūnī’s Chronology of Ancient Nations. Journal of the Royal Asiatic Society, 34(1), 1–20.
  • Boltwood, B. B. (1907). On the ultimate disintegration products of the radio-active elements. American Journal of Science, 23(134), 77–88.
  • Fildani, A. (2022). The revolutionary impact of the deep-time concept. The Sedimentary Record, 20(3), 4–8.
  • Harrison, T. M. (2023). On a scientific approach for deep time investigations. Perspectives of Earth and Space Scientists, 1(1), 1–15.
  • Kloetzli, R. (2013). Myriad concerns: Indian macro-time intervals (yugas, kalpas). Journal of Indian Philosophy, 41(2), 117–142.
  • Malin, S. R. C. (1993). Edmond Halley—Geophysicist. Eos, Transactions American Geophysical Union, 74(43), 505–514.
  • Milikowsky, C. (1985). “Seder ‘Olam” and Jewish chronography in the Hellenistic and Roman periods. Proceedings of the American Academy for Jewish Research, 52, 115–139.
  • Patterson, C. C. (1956). Age of meteorites and the Earth. Geochimica et Cosmochimica Acta, 10(4), 230–237.
  • Perrini, P., Di Rocco, F., & Barbieri, S. (2010). Niels Stensen (1638–1686): Scientist, neuroanatomist, and saint. Neurosurgery, 67(1), 3–9.
  • Rošker, J. S. (2020). Classical Chinese philosophy and the concept of qi. NEARCO: Revista Eletrônica de Antiguidade, 12(2), 113–130.
  • Vidro, N. (2021). Dating medieval manuscripts with the help of calendars: An evaluation. Revue des Études Juives, 180(1–2), 193–205.

[1] Annales Veteris Testamenti, a prima mundi origine deducti (Dublin, 1650).

[2] Le choix du mois de Tishri n’est pas fondé sur un calcul astronomique réel : il répond à un symbolisme liturgique, celui du renouveau annuel dans le calendrier hébraïque.

[3] “We find no vestige of a beginning, no prospect of an end.” Dans Theory of the Earth, publié en 1795 

[4] L. Harrison. “On a Scientific Approach for Deep Time Investigations.” Earth and Space Science, 2023.

[5] Andrea Fildani. “The Revolutionary Impact of the Deep Time Concept: Geology’s Modernity and Societal Implications.” The Sedimentary Record, vol. 20, no. 1, 2022, p. 1-4.

Prologue — Le livre qui n’a jamais parlé

C’est un petit codex sous verre, à la Beinecke Library de Yale. Deux cents pages de vélin souple, couvertes d’un texte inconnu, écrit d’une main sûre, sans ratures. Entre les lignes, des dessins : plantes étranges, femmes nues dans des baignoires reliées par des tuyaux, roues zodiacales où s’alignent Poissons, Bélier et Taureau.

Depuis plus d’un siècle, le monde savant et les amateurs passionnés se succèdent devant ce manuscrit. Cryptologues de l’armée, botanistes, linguistes, astrologues, ésotéristes : tous veulent percer le secret du « manuscrit Voynich ». Tous échouent. Le livre lui-même n’est peut-être pas aussi fascinant que la manière dont il a suscité la curiosité, la passion, l’ambition et inspiré des certitudes inconciliables chez les humains attirés par sa réputation d’impénétrabilité.

La redécouverte d’un manuscrit muet

L’histoire du Voynich commence… par une redécouverte. Car le manuscrit n’est pas arrivé de nulle part : il dormait dans une bibliothèque. En 1912, un libraire polonais installé à Londres, Wilfrid Voynich, explore la villa Mondragone, près de Rome. Il y achète une trentaine de vieux manuscrits destinés à être vendus pour financer l’entretien du lieu. Parmi eux, un petit codex anonyme attire son attention : du texte illisible, des images étranges.

Voynich est persuadé d’avoir mis la main sur une bombe historique : il imagine un manuscrit secret de Roger Bacon, moine franciscain du XIIIe siècle, parfois présenté comme précurseur de la science expérimentale. Il investit beaucoup pour obtenir l’avis éclairé d’experts, mais personne n’arrive à lire une seule ligne.

Après la mort de Voynich en 1930, le livre passe à sa veuve, puis à un autre libraire, Hans Kraus, qui finira par le donner à l’Université Yale en 1969. C’est là, dans la Beinecke Rare Book & Manuscript Library, qu’il repose aujourd’hui, numérisé et accessible à tous.

C’est Wilfrid Voynich qui a ressorti de l’ombre le manuscrit et l’a propulsé au rang d’énigme mondiale, mais l’histoire de l’objet est plus ancienne : au XVIIe siècle déjà, on en trouve la trace dans une lettre adressée au jésuite Athanasius Kircher. L’expéditeur, Johannes Marcus Marci, médecin et recteur de l’université de Prague, lui demandait de traduire le manuscrit mystérieux dont il avait hérité d’un certain Georg Baresch, alchimiste pragois. Kircher prétendra pouvoir le déchiffrer… sans jamais y parvenir.

Ce parcours nous dit une chose : le Voynich aurait circulé dans les milieux érudits d’Europe centrale et romaine, et il aurait attisé la curiosité des alchimistes, des cryptologues, des bibliophiles. Mais jamais personne n’a réussi à lui faire dire un mot.

On soupçonne d’ailleurs que le manuscrit ait séjourné à la cour de Rodolphe II, l’empereur passionné d’alchimie qui régna sur Prague à la fin du XVIᵉ siècle. Une lettre de 1666 mentionne qu’il l’aurait acquis pour six cents ducats, probablement entre 1584 et 1588 — période où John Dee et Edward Kelley vivaient précisément à Prague, sous sa protection. Le rapprochement est tentant : les dates coïncident, les personnages s’y prêtent, mais aucune preuve directe ne confirme que ces deux ésotéristes anglais aient jamais touché ou vendu le manuscrit. Souvenez-vous, ils étaient les protagonistes de l’épisode sur la langue des Anges… Mais avant de les mêler à cette affaire, il faudrait être sûr de l’itinéraire du Voynich, et nous en sommes loin.

 

L’objet, avant le mystère

Avant de conjecturer le sens des inscriptions, nous allons commencer par documenter l’objet. Le support, du vélin, a été daté par radiocarbone à l’Université d’Arizona : entre 1404 et 1438 (Hodgins, 2011). Les encres et pigments analysés sont ceux qu’on attend d’un manuscrit médiéval : encres ferro-galliques, azurite, verts de cuivre, gomme arabique (Barabe, 2009). Rien d’anachronique, aucune trace de chimie moderne.

L’écriture, régulière, révèlerait au moins cinq mains distinctes (Davis, 2020)[1]. Et les images se répartissent en sections cohérentes : herbiers, astronomie/astrologie, bains, pharmacopée, recettes. Bref : tout suggère un objet produit au XVe siècle, dans un contexte savant. Mais quant à savoir ce qu’il dit… silence.

Nous avons la certitude que le parchemin est du XVe siècle, et que les matériaux utilisés pour écrire et peindre correspondent bien à ceux qu’on trouve alors. Est-ce que cela interdit totalement un faux moderne, rédigé au XXe siècle sur un lot de vieux parchemins avec des recettes d’encre « historiques » ? Pas absolument. Mais ce scénario serait extraordinairement improbable : il aurait fallu rassembler des dizaines de feuillets vierges du XVe siècle, les garder intacts pendant cinq siècles, puis écrire dessus avec une habileté calligraphique et une constance qui mobilisent plusieurs mains distinctes.

À ce stade, l’hypothèse d’un manuscrit authentiquement médiéval est de loin la plus parcimonieuse, mais il reste beaucoup à expliquer.

Pour suivre mon travail plus facilement :


inscrivez-vous à la NEWS’Zet

Un livre d’images

Avant même d’essayer de lire les lignes du manuscrit, il faut se laisser surprendre par ce qui s’y donne à voir. Car le Voynich n’est pas qu’un codex écrit : c’est un livre d’images foisonnant.

D’abord, les plantes. Chaque folio ou presque présente une grande illustration botanique, racine à nu, tige dressée, fleur épanouie. Au premier regard, on croit reconnaître une pensée, une marguerite, ou un lys, mais aucun botaniste n’a jamais réussi à identifier une espèce complète. Chaque plante semble un peu “fausse”, comme si on avait greffé ensemble des morceaux de végétaux réels pour fabriquer des hybrides impossibles. Certains chercheurs y voient un collage volontaire, d’autres une tradition médiévale consistant à copier sans comprendre des herbiers antérieurs (Bax, 2014).

Puis viennent les baignoires. Des femmes nues plongent dans des bassins, reliés entre eux par des canalisations tortueuses. Faut-il y voir des scènes de balnéothérapie, très en vogue dans la médecine médiévale ? Des allégories de la fertilité, ou même des images d’alchimie corporelle ? Là encore, les hypothèses abondent, et chacune reflète surtout l’imagination de celui qui regarde.

Les diagrammes astrologiques paraissent plus parlants. On y trouve des zodiaques circulaires, avec des Poissons, un Bélier, un Taureau. Chaque signe est entouré de figures humaines étiquetées. Cette fois, la correspondance avec l’astrologie du XVe siècle est indéniable, même si le sens précis nous échappe (Brumbaugh, 1978).

Enfin, la dernière section ressemble à un cahier de recettes : de courts paragraphes précédés de petites étoiles colorées, comme des puces dans une liste. Les spécialistes suggèrent un recueil d’indications médicales ou pharmaceutiques — mais, faute de clé, on ne peut pas aller plus loin.

Ces images ont inspiré les théories les plus extravagantes : encyclopédie perdue de l’Atlantide, traité de sorcellerie féminine, herbier extraterrestre. Pourtant, en revenant patiemment aux comparaisons avec d’autres manuscrits médiévaux, les experts concluent autrement : le Voynich illustre des thèmes parfaitement classiques pour l’époque. Ce n’est pas l’extraordinaire qui s’y cache, mais un assemblage de traditions bien humaines, rendu opaque par une écriture qui, elle, reste encore muette (Zandbergen, 2016).

 

Lire sans lire : des chiffres autour des mots

À défaut de clé pour le comprendre, on peut soumettre le manuscrit Voynich aux outils des statistiques. Et là, surprise : ce n’est pas du pur charabia. La distribution des mots, leurs cooccurrences et leur fréquence suivent des régularités proches de celles des langues naturelles. Certains mots reviennent ensemble, des regroupements se dessinent, des thèmes émergent. Bref, le manuscrit a la “texture” d’une langue, même si personne ne la parle (Montemurro & Zanette, 2013).

Mais la prudence s’impose. Des chercheurs ont montré qu’on peut obtenir ce même type de régularités sans aucune langue réelle : il suffit d’un petit lexique et de quelques règles combinatoires pour générer un texte qui imite la longueur moyenne des mots et leur répartition statistique (Timm & Schinner, 2020). Autrement dit, le « voynichais » pourrait aussi bien être une langue oubliée, un code savant… ou bien une procédure mécanique destinée à donner l’illusion d’une langue. Les chiffres nous aident à cerner le phénomène, mais ils ne suffisent pas à en dissoudre le mystère.

Du côté des linguistes, certains préconisent de traiter le manuscrit comme s’il notait une langue naturelle. Même sans pouvoir le traduire, on peut ainsi dégager des contraintes : la façon dont les lettres se distribuent, la structure probable des mots, des régularités proches de la morphologie. Cela permet de formuler des hypothèses rigoureuses, mais pas d’arbitrer entre les scénarios concurrents. En l’état, le texte reste fondamentalement indéterminé (Bowern & Lindemann, 2021).

Le manuscrit est écrit dans un alphabet inconnu, d’une vingtaine de signes récurrents, tracés avec une fluidité qui évoque une écriture cursive bien maîtrisée. Certains glyphes ressemblent vaguement à des lettres latines, d’autres à des chiffres arabes ou à des formes inventées. L’ensemble se dispose en lignes régulières, de gauche à droite, avec une ponctuation rudimentaire mais sans ratures ni hésitations.

Un détail cloche toutefois : le manuscrit de compose d’environ 38 000 mots au complet, dont 8000 mots distincts ; c’est beaucoup plus que le latin ou le moyen-anglais pour un corpus de taille comparable. Nous devrions y retrouver une plus forte répétition. Mais c’est aussi beaucoup moins que dans un texte généré aléatoirement. Certains mots reviennent de façon disproportionnée, ce qui accentue l’impression d’un système à la fois structuré et artificiel. Bizarre.

 

Le miroir des prétentions

Le sel de cette histoire, c’est que devant un objet muet, les hommes n’ont pas gardé le silence. Ils ont prétendu savoir.

Au XVIIe siècle, Athanasius Kircher, le « maître des hiéroglyphes », affirmait qu’il saurait le lire. Il ne le pourra jamais.

Au XXe siècle, le libraire Wilfrid Voynich, qui le redécouvre, croit tenir un manuscrit secret de Roger Bacon, génie médiéval de la science. Hypothèse séduisante… et fausse.

Plus tard, certains annoncent qu’il s’agit de cabale juive, d’alchimie chiffrée, de langue inventée par un moine visionnaire. Au XXIe siècle, les annonces se succèdent :

En 2003, un Polonais annonce une traduction partielle en mandchou. En 2014, un botaniste américain propose que le texte soit en nahuatl, une langue aztèque en vertu de la ressemblance des plantes dessinées avec des espèces mexicaines. En 2017, on donne une solution par abréviations latines ; en 2018, une traduction en turc ancien.

Et au printemps 2019 l’Université de Bristol bat les tambours : son linguiste Gerard Cheshire a percé le mystère, dit-elle dans un communiqué officiel. Selon lui, ce n’est ni un code, ni une langue perdue, mais un texte en proto-roman, une étape intermédiaire entre le latin et les langues romanes modernes.

La presse s’en empare : le Guardian titre sur « l’énigme enfin résolue », Ars Technica relaie l’affaire, d’autres journaux reprennent l’emballement. En quelques heures, le manuscrit Voynich semble avoir cessé d’être un mystère.

Mais la joie est de courte durée. Dès le lendemain, médiévistes et linguistes démontent la proposition. Le “déchiffreur” avait sélectionné après coup quelques correspondances flatteuses, en laissant de côté des pages entières qui ne collaient pas. Sa méthode n’était pas décrite de manière à être testée par d’autres, aucune règle claire ne permettait à un second lecteur d’obtenir les mêmes résultats. Les experts estiment que l’annonce est trompeuse. Le communiqué est retiré, la presse rectifie. En une journée, le Voynich redevient une énigme (Devlin, 2019 ; Addley, 2019 ; Ouellette, 2019).

 

 

Les autres épisodes du Bureau du Bizarre vous attendent ici

Les voies qui restent ouvertes

Après un siècle d’analyses, trois grandes familles d’hypothèses survivent au filtre des preuves matérielles :

  1. Une langue naturelle notée de façon atypique.

Le texte pourrait correspondre à une langue bien réelle, mais transcrite avec un système d’écriture inventé ou très particulier, éventuellement sous forme d’abréviations. La fluidité de l’écriture, la mise en page régulière et les « étiquettes » répétées autour des diagrammes vont dans ce sens.

  1. Un système de chiffrement.

Certains chiffres médiévaux — par substitution, par grilles ou par transposition — pouvaient donner un résultat fluide et cohérent à l’œil. Les cryptologues modernes, civils comme militaires, s’y sont attaqués sans relâche depuis un siècle. Résultat : aucune clé universelle n’a jamais permis de lire le texte de façon convaincante et réplicable (D’Imperio, 1978 ; Reddy & Knight, 2011). À ce jour, en tout cas.

  1. Un procédé pseudo-langagier du XVe siècle.

Peut-être s’agit-il d’un exercice savant, voire d’une supercherie élaborée : un scribe aurait pu générer du texte en combinant un petit nombre d’éléments selon des règles mécaniques, donnant l’apparence d’une langue véritable. Cette hypothèse est appuyée par des simulations modernes qui reproduisent assez bien les régularités statistiques du manuscrit (Timm & Schinner, 2020). L’étrangeté des images qui remplissent ses pages, et en particulier les chimères végétales semblent s’aligner avec un projet de cette nature.

 

À ce stade, la prudence s’impose. Chacune de ces pistes a ses arguments, mais aucune n’a produit de traduction vérifiable et reproductible. On peut néanmoins avoir une préférence pour telle ou telle explication.

L’hypothèse défendue par Timm & Schinner (2020) est que le texte n’encode aucune langue réelle, mais a été produit mécaniquement avec un lexique restreint et des règles combinatoires, donnant l’illusion d’un langage. Le but aurait pu être pédagogique (apprentissage de l’écriture, exercice de mémoire), ou même une sorte de jeu intellectuel interne à un cercle d’érudits. C’est un peu bizarre, mais ça n’est pas coûteux, et ça pourrait être vrai.

En ajoutant une intention un peu plus obscure, on peut envisager que le manuscrit ait été conçu comme un objet de prestige ou de mystification : produire un codex incompréhensible pour impressionner un mécène. René Zandbergen (2016) rappelle que l’alchimie et l’hermétisme médiévaux fourmillaient de manuscrits volontairement opaques. Ici, le but ne serait pas tant d’être lu que de paraître mystérieux — et donc précieux.

Le plus important, à ce stade est de ne pas prétendre savoir ce que nous ne savons pas. Le manuscrit Voynich n’a tout simplement pas encore reçu une explication satisfaisante.

 

 

 

Épilogue — Derrière le mystère : l’incertitude

Le Voynich est, finalement, un manuscrit tout bête, datant d’une époque à la fois banale et obscure, qui ne contient à ce jour aucune révélation fracassante, mais simplement des dessins et ce qui ressemble à des phrases. Qu’un tel objet résiste obstinément à toute explication, y compris par des équipes armées d’IA de haut niveau est une chance. Cette histoire nous permet de contempler l’inexpliqué et de constater que l’échec de nos plus brillants esprits à expliquer une chose ne rend pas cette chose magique ou surnaturelle, mais indique plus probablement que la raison humaine doit s’exercer avec humilité, en se souvenant qu’elle n’est peut-être pas en mesure d’obtenir des réponses à toutes ses questions ; et qu’il serait dangereux de croire le contraire, car alors on voudra troquer l’incertitude raisonnable pour des scénarios qui séduisent nos attentes et nos préjugés, et pourraient devenir des pièges redoutables. Le doute salvateur, voilà peut-être le message profond du manuscrit intraduisible.

Et alors, il serait sage de regarder plus loin que la simple et noble tentative de traduire ce qui n’a peut-être aucun sens, car nous ne sommes plus en 1404.

 

Acermendax


Références

  • Addley, E. (2019, 16 mai). Latin, Hebrew… proto-Romance? New theory on Voynich manuscript. The Guardian. & University backtracks on disputed Voynich manuscript theory (17 mai). (Sur la rétractation du communiqué).
  • Barabe, J. G. (2009). Materials Analysis of the Voynich Manuscript (progress letter). McCrone Associates, Inc. Consulté via Beinecke : « Detailed chemical analysis ».
  • Bax, S. (2014). On factors distorting the plant images of the Voynich manuscript. Retrieved from https://stephenbax.net/?p=741
  • Beinecke Rare Book & Manuscript Library (s.d.). Voynich Manuscript (MS 408).
  • Bowern, C. L., & Lindemann, L. (2021). The linguistics of the Voynich Manuscript. Annual Review of Linguistics, 7, 285-308.
  • Brumbaugh, R. S. (1978). The Most Mysterious Manuscript: The Voynich « Roger Bacon » Cipher Manuscript. Carbondale: Southern Illinois University Press.
  • Davis, L. F. (2020). How many glyphs and how many scribes? Digital paleography and the Voynich Manuscript. Manuscript Studies, 5(1), 164-180. https://doi.org/10.1353/mns.2020.0011
  • Devlin, H. (2019, May 17). University backtracks on disputed Voynich manuscript theory. The Guardian.
  • Hodgins, G. W. L. (2010). Radiocarbon dating of the Voynich Manuscript [Unpublished internal report]. Arizona Accelerator Mass Spectrometry Laboratory, University of Arizona.
  • D’Imperio, M. E. (1978). The Voynich Manuscript: An Elegant Enigma. Fort George G. Meade, MD : National Security Agency (déclassifié).
  • Montemurro, M. A., & Zanette, D. H. (2013). Keywords and co-occurrence patterns in the Voynich Manuscript. PLOS ONE, 8(6), e66344.
  • Ouellette, J. (2019, May 15). No, someone hasn’t cracked the code of the mysterious Voynich manuscript. Ars Technica.
  • Reddy, S., & Knight, K. (2011). What we know about the Voynich manuscript. In Proceedings of the 5th ACL-HLT Workshop on Language Technology for Cultural Heritage, Social Sciences, and Humanities (pp. 78-86). Association for Computational Linguistics.
  • Timm, T., & Schinner, A. (2020). A possible generating algorithm of the Voynich manuscript. Cryptologia, 44(1), 1-19.
  • Yale University, Beinecke Rare Book & Manuscript Library. (2016–2025). Voynich Manuscript (MS 408) — notice & ressources. https://beinecke.library.yale.edu/collections/highlights/voynich-manuscript Beinecke Rare Book & Manuscript Library
  • Zandbergen, R. (2016). The Voynich manuscript: History and theories. In R. Clemens (Ed.), The Voynich manuscript (pp. 9–41). New Haven, CT: Yale University Press.
  • Zyats, P., Hodgins, G. W. L., & Barabe, J. G. (2012). The Mysterious Voynich Manuscript: Collaboration yields new insights. The Book and Paper Group Annual, 31, 99. (Synthèse des analyses matérielles et datation AMS).
  • Guzy, A. (2022). Book transactions of Emperor Rudolf II (HRR). In Proceedings of the 4th Workshop on Computational Approaches to Historical Language Change (pp. 120–127). CEUR Workshop Proceedings, Vol. 3313.
  • Marci, J. M. (1666). Letter to Athanasius Kircher regarding the Voynich Manuscript [Manuscript]. Beinecke Rare Book and Manuscript Library, Yale University, MS 408, fol. 1r.
  • Zandbergen, R. (2016). The Voynich Manuscript: History and theories. In R. Clemens (Ed.), The Voynich Manuscript(pp. 9–41). New Haven, CT: Yale University Press.

[1] Selon certains il s’agirait plutôt d’un style évoluant sur plusieurs années, mais qui donne l’impression de cinq contributeurs, peut-être en raison d’un travail effectué en cinq phases.

Prologue — Une promesse d’enchantement

À la fin des années 1990, une proposition simple et séduit le grand public : l’eau « réagit » à nos mots et à nos émotions. Elle formerait des cristaux harmonieux lorsqu’on lui dit « merci », et se figerait en formes défigurées si on l’insulte. Dans des livres richement illustrés, Masaru Emoto montre ces images comme des « preuves » et, surtout, raconte une histoire à laquelle beaucoup veulent croire : nos pensées laisseraient une empreinte dans la matière. En quelques années, Les messages cachés de l’eau devient un best-seller international, décline des conférences, des ateliers, une marchandise foisonnante, et alimente une mythologie New Age où « hado » — une énergie vibratoire subtile — expliquerait tout.

Ce récit est ravissant. Il promet une réconciliation avec un monde perçu comme froid et technique : si l’eau nous comprend, peut-être l’univers nous écoute-t-il. Mais quand on gratte un peu la surface des flocons et des mots doux, l’histoire d’Emoto apparait pour ce qu’elle est : un exemple canonique de pseudoscience prospérant grâce à des images frappantes, une méthodologie bancale, et un écosystème éditorial et commercial parfaitement huilé.

 

Du « Vibration-o-Meter » aux « messages de l’eau »

Masaru Emoto (1943–2014) grandit à Yokohama et obtient en 1966 un diplôme en relations internationales. Sa première carrière se déroule dans les affaires et le journalisme. Le tournant pseudoscientifique intervient à la fin des années 1980, lorsqu’il s’intéresse à la « médecine vibratoire ». En 1989, il obtient l’exclusivité au Japon d’un appareil breveté par l’Américain Ronald J. Weinstock, le Magnetic Resonance Analyzer (MRA). Emoto le rebaptise « Vibration-o-Meter », censé « lire » des champs « subtils » et diagnostiquer pratiquement n’importe quoi. Le brevet existe bel et bien — et décrit un dispositif extravagant prétendant analyser des « signaux de résonance » dans n’importe quelle matière[1]. Que l’appareil ait eu une quelconque validité médicale est une tout autre affaire.

Emoto se pare du titre de « docteur » via un diplôme en « médecine alternative » émanant d’une entité non accréditée — l’Open International University for Complementary/Alternative Medicine — listée par les autorités du Texas parmi les institutions dont l’usage du titre est illégal. Le vernis compte plus que la substance : pour le public, il devient « Dr Emoto ». Un doctorat bien mis en valeur, c’est impressionnant.

Au milieu des années 1990, il emprunte une voie plus spectaculaire : photographier des cristaux de glace formés après avoir « exposé » de l’eau à des mots, de la musique, des images, des prières. Les meilleurs clichés peuplent des albums puis le livre qui lui apporte une renommée mondiale, Les messages cachés de l’eau en l’an 2004. L’ouvrage — publié chez Beyond Words — est présenté comme un New York Times bestseller et martèle la thèse clé : la conscience humaine modifie la structure de l’eau. Les quatrièmes de couverture parlent de « photographie à haute vitesse » et de « cristaux splendides » pour l’amour, ternes pour la haine : dramaturgie naïve, efficacité maximale.

 

La méthode selon Emoto — Une « science » par les images

Comment se fabriquent ces « preuves » ? Le protocole, tel que décrit dans ses livres et sites, tient en quelques gestes : on prend des fioles d’eau, on les « expose » (par mots collés sur l’éprouvette, musique ambiante, prière à distance), on les congèle rapidement, puis on photographie au microscope les cristaux formés sur les lamelles. Les paramètres physiques (vitesse de congélation, impuretés, gradients thermiques) — déterminants en cristallographie de la glace — sont peu ou pas maîtrisés. Parmi des milliers d’images, les « belles » sont retenues pour les stimuli positifs, les « laides » pour les négatifs. Le choix est esthétique, donc subjectif. J’aimerais vous dire que ce travail se fait avec des contrôles et en aveugle, mais le projet d’Emoto n’est pas vraiment de faire de la science.

Très tôt, des sceptiques documentent ces failles : Harriet Hall, médecin et éditorialiste, parle d’un « conte » en images[2] ; le chimiste Stephen Lower dissèque sur son site l’ensemble des promesses autour de « l’eau structurée » et du folklore des vibrations. Dans l’un et l’autre cas, l’argument central tient en une phrase : des jolies photos ne font pas des données, et aucun mécanisme physico-chimique plausible ne soutient la thèse.

 

Le vernis académique — la parenthèse Explore (2006) et ses suites

En 2006, Emoto est co-auteur d’un article chez EXPLORE[3]: The Journal of Science & Healing : « Double-blind test of the effects of distant intention on water crystal formation » (Radin, Hayssen, Emoto, Kizu)[4].

L’étude se présente comme une tentative de test rigoureux, décrit comme « double aveugle ». Voici le protocole : de l’eau est prélevée et conditionnée en Californie. Pendant ce temps, à plus de 8 000 kilomètres de là, au Japon, environ deux mille personnes sont réunies dans une grande salle de Tokyo. On leur demande de concentrer ensemble leurs « intentions positives » à l’égard d’un lot précis de flacons d’eau, identifiés à distance par photographie. Les autres flacons, qui ne sont pas visés par ces prières collectives, servent de contrôle.

Tous les échantillons — ceux qui « reçoivent » l’intention et ceux qui ne l’ont pas reçue — sont ensuite congelés et photographiés selon la méthode d’Emoto : sous microscope, en saisissant les cristaux de glace. Les chercheurs constituent un corpus d’images, puis soumettent les photos à cent juges indépendants qui notent, sur une échelle, à quel point chaque cristal leur paraît « beau » ou « attrayant ».

C’est là que réside la variable principale de l’étude : non pas une mesure physique de la glace (taille des cristaux, angle des facettes, diffraction des rayons X), mais le jugement esthétique de volontaires humains devant des photographies. Les auteurs affirment avoir trouvé une différence statistiquement significative : les cristaux supposément exposés aux intentions positives obtenaient en moyenne des notes plus élevées de beauté que ceux des flacons de contrôle. L’article rapporte une valeur de p = 0,001 (test unilatéral), présentée comme une confirmation de l’effet.

 

À première vue, cela en impose : grande salle, milliers de participants, aveugle, scores chiffrés. À l’examen, toutefois, plusieurs problèmes majeurs apparaissent. La variable choisie est éminemment subjective : on ne mesure pas la glace, mais la réaction de juges. Autrement dit, on quantifie un goût, pas une propriété physique. Le résultat (p = 0,001) dit seulement que, pour cet échantillon d’images, des juges ont préféré un lot à un autre. Cette préférence peut émerger d’autre chose que d’un « effet d’intention » : notamment de la manière dont les milliers d’images ont été filtrées avant présentation. Le protocole ne décrit pas de façon transparente la chaîne de sélection, ce qui ouvre grand la porte à un biais de confirmation : au final, l’étude peut n’avoir fait que corréler le goût des juges avec les préférences (implicites) des opérateurs.

Autre biais méthodologique : le choix d’un test unilatéral (au lieu d’un test bilatéral standard) rend le seuil de significativité plus facile à franchir : on ne teste que l’hypothèse que l’intention améliore la beauté, jamais celle qu’elle pourrait la diminuer. Ce biais de conception favorise mécaniquement un « effet positif ».

Dès lors, la preuve scientifique promise fait pschit. Nul scientifique n’est impressionné. Une « réplication triple-aveugle » sera plus tard évoquée par la même équipe — toujours avec l’« esthétique » pour critère, et donc avec le même talon d’Achille : on quantifie un jugement de goût, pas une propriété physique mesurable et stable[5].

Le choix du journal compte également. Explore se positionne explicitement à l’interface « médecines complémentaires, conscience, spiritualité » ; il est publié par Elsevier mais accueille volontiers des papiers parapsychologiques. Fait important pour l’évaluation des conflits d’intérêts : Dean Radin — premier auteur de l’article — deviendra plus tard co-rédacteur en chef de Explore (à partir de 2009). Autrement dit : l’étude de 2006 n’a pas été publiée dans un organe neutre de sciences physiques, mais dans une revue thématique accusée par plusieurs scientifiques de tolérer des standards épistémiques laxistes.

Face à ces « résultats », la communauté des spécialistes ne s’enflamme pas. Aucune équipe de cristallographie indépendante ne confirme, dans des revues de référence, une modification cristalline reproductible causée par une « intention ». Et si une telle validation devait avoir lieu, ce ne serait pas en détectant l’empreinte d’une pensée sur un solide via un vote de « beauté », on la détecterait via des paramètres cristallins mesurés (diffractométrie, calorimétrie, spectroscopie) sous contrôles stricts. Mais rien n’arrive, et c’est une information cruciale.

 

Le monde réel — marchés, images et « hado »

Emoto ne publie pas seulement des livres d’images : il bâtit autour de lui tout un univers commercial. Il organise des séminaires où il expose sa théorie des vibrations de l’eau, propose des stages de « formation Hado » pour apprendre à capter et transmettre cette mystérieuse énergie, et délivre même des certifications d’« instructeur Hado » pour ceux qui veulent enseigner la méthode à leur tour[6]. Il lance aussi le « Emoto Peace Project », qui distribue gratuitement des albums illustrés aux enfants, convaincu que si chacun comprend que « l’eau ressent nos intentions », le monde deviendra plus pacifique. Dans les boutiques New Age, on trouve des gadgets censés « structurer » l’eau du robinet — bouteilles, autocollants, dispositifs électroniques — ainsi que des partenariats commerciaux avec des marques d’eau minérale présentées comme « informées » ou « énergisées » par ses techniques.

En 2006, par exemple, Hado Life USA s’associe à H2Om pour une boisson estampillée « Official Dr. Emoto’s Ready to Drink Indigo Water » — « L’Eau Indigo prête à boire officielle du Dr Emoto ». Le marketing mobilise un vocabulaire pseudo-technique — « vibration », « structure », « information » — et s’appuie sur la force des images. La rhétorique est huilée : si c’est beau au microscope, alors c’est bon pour votre corps.

Cette économie du « hado » prospère par capillarité : spas, boutiques bien-être, influenceurs et éditeurs spécialisés diffusent les photos de cristaux comme autant d’icônes. Les réseaux sociaux amplifient. La promesse est générale (réduire le stress, harmoniser l’énergie, adoucir l’eau du corps), la preuve est esthétique. C’est le jackpot.

Pour suivre mon travail plus facilement :


inscrivez-vous à la NEWS’Zet

L’expérience du riz insulté

Le discours d’Emoto ne s’arrête pas à l’eau gelée. Dans ses conférences, il popularise une démonstration encore plus simple : l’« expérience du riz ». Le propos reste le même : nos intentions, nos mots, nos émotions se répercutent dans la matière. Mais cette fois, nul besoin de microscope : un pot de riz suffit.

Le protocole « originel », tel qu’il le raconte, est d’une simplicité désarmante. On cuit du riz blanc, on le répartit dans deux ou trois bocaux identiques. Chaque jour, on s’adresse à ces récipients comme à des êtres vivants : au premier, des paroles d’amour et de gratitude ; au second, des insultes et des mots de haine ; le troisième, éventuellement, est ignoré. Après quelques jours, dit-il, le riz « aimé » reste étonnamment blanc ; le riz insulté noircit et pourrit plus vite ; le riz ignoré dépérit parfois encore plus vite, comme si l’indifférence était pire que la haine.

La source exacte est difficile à dater : Emoto lui-même ne publie pas de protocole écrit dans une revue, mais il décrit l’expérience dès la fin des années 1990 dans ses ouvrages populaires (Messages from Water) et la raconte dans ses tournées. En pratique, elle devient virale dans les années 2000, reprise dans des vidéos, des blogs et des ateliers pédagogiques.

Sur YouTube et Facebook, des centaines de vidéos fleurissent où des familles filment leurs bocaux de riz au jour le jour. Certains remplacent les mots parlés par des étiquettes collées sur les pots : « amour » sur l’un, « haine » sur l’autre, ou bien des nombres censés véhiculer une forme « d’énergie ». D’autres testent des musiques différentes, de Mozart à Metallica, comme pour les cristaux d’eau. À chaque fois, l’histoire reste la même : l’intention humaine, traduite par des mots ou des symboles, influerait directement sur la décomposition du riz.

La diffusion est massive dans les milieux New Age, dans les réseaux de développement personnel, et même dans certaines écoles alternatives qui utilisent l’expérience comme support pédagogique[7]. Elle sert de métaphore puissante : « Les mots peuvent nourrir ou détruire », « L’amour conserve, la haine corrompt ». Le message éducatif séduit, même si la base scientifique est inexistante.

Et quelle explication théorique est avancée ? Emoto invoque toujours son concept de hado, cette énergie vibratoire subtile censée structurer la matière. Comme le corps humain est composé d’eau, l’idée est que les émotions se transmettent et se cristallisent jusque dans nos cellules. Le riz, saturé d’eau après cuisson, devient ainsi un révélateur grossier de ce processus invisible.

Qu’en est-il vraiment de nos bocaux ? Les gens chez eux font l’expérience, et alors que se passe-t-il ? Parfois cela ne donne aucun résultat, et alors on n’est pas très motivé à en parler, on ne sort pas de vidéo, on ne partage pas de photo. Par contre, quand le bocal insulté se couvre d’un velu tapis de vilains champis c’est banco : la vidéo édifiante fera des milliers ou de millions de vue. Cela rappelle lEffet Tiroir en science : les expériences qui ne donnent pas le résultat vendeur espéré finissent parfois au fond d’un tiroir au lieu d’être publiées, empêchant tout le monde d’avoir accès à l’information selon laquelle l’idée de départ était sans doute fausse. Quand le grand public séduit par le récit d’Emoto fait ses propres recherches, bricole quelques petits pots dans la cuisine et met en ligne les résultats les plus sympa, les plus à même d’attirer l’attention, nous obtenons un biais du survivant : ne sont visibles que les occurrences qui ont marché.

 

Une parenthèse biologique, si vous me permettez… Le narratif nous dit que l’amour empêche le riz de moisir, ce qui mériterait qu’on y réfléchisse à deux fois, car cela veut dire que sur ce substrat de riz cuit, donc mort, nos émotions positives empêchent le développement de la vie que représente la moisissure, le champignon. Si le résultat allégué est vrai, alors l’amour stérilise tandis que la haine et l’indifférence facilitent la croissance. Il faut sans doute être touché par une forme de mycophobie, de détestation des champignons, pour adhérer sans trembler à ce point de vue.

 

Si l’expérience du riz était vraie et authentique, alors les laboratoires du monde entier pourraient reproduire ces résultats pour un coût absolument dérisoire. La première équipe qui mettrait en évidence cet effet — et proposerait un mécanisme — décrocherait célébrité et financements. En vingt-cinq ans, rien de tel n’est arrivé.

Et même les plus parano-complotistes des défenseurs d’Emoto n’ont pas d’histoire à élaborer pour accuser un lobby des antiseptiques de vouloir étouffer cette vérité qui mettrait en danger les ventes d’eau de javel.

Face à une histoire aussi efficace que l’Expérience du Riz, il nous faut être raisonnable et prendre au sérieux les explications disponibles. Outre les analyses de Hall et Lower déjà citées, des voix sceptiques — du Skeptical Inquirer à des blogs universitaires[8] — décortiquent les biais qui mènent du laboratoire d’Emoto aux conclusions cosmologiques. Parce que l’« expérience du riz » a envahi Internet, des équipes de vulgarisation et des blogueurs méthodiques se sont amusés à introduire, enfin, des contrôles : bocaux stérilisés, répartition aléatoire, double aveugle, plusieurs réplicats, conditions identiques de lumière, température et hygrométrie. Tristement, dans ces conditions la magie disparaît. Les résultats que certains particuliers ont observés chez eux en appliquant un protocole inadéquate s’expliquent par des contaminations, des micro-variations d’environnement ou, tout simplement, par le hasard. Ceux qui veulent se contenter d’un test dans leur salon ont bien le droit de croire avoir découvert un mystère qui résiste à la science mais pas celui d’être pris au sérieux.

Deuxième parenthèse personnelle : j’ai fait l’essai avec deux bocaux. Six mois plus tard, le riz résistait vaillamment à toute moisissure, malgré l’indifférence radicale que je lui ai vouée — Vous pouvez me croire. Anecdote contre anecdote : voilà pourquoi on a inventé les protocoles

 

Emoto face à la critique

En 2003, le rationaliste et débunker James Randi propose à Emoto de soumettre ses affirmations à un test rigoureux dans le cadre du One Million Dollar Paranormal Challenge. Avec donc, un million de dollars à la clef ! Silence radio.

La suite est un classique du genre : quand la critique ne peut pas être ignorée, le discours se déplace. En substance, on nous dit : « Mes travaux ne visent pas à convaincre les matérialistes, mais à éveiller les consciences. La science actuelle est trop limitée pour saisir les énergies subtiles. » Autrement dit, si les méthodes classiques ne confirment rien, ce n’est pas un échec : c’est la preuve que ces méthodes sont dépassées.

Ce cadrage transforme la critique en atout : les sceptiques deviennent les représentants d’un monde froid, sclérosé, enfermé dans un paradigme, alors qu’Emoto s’érige en passeur de sensibilité et d’harmonie. Cette acrobatie rhétorique produit une illusion puissante quand on n’en voit pas les ficelles : le théoricien réussit à prétendre qu’il sait que ce qu’il dit est vrai tout en affirmant que personne n’a les moyens de vérifier que ce qu’il dit est vrai.

C’est un point de repère utile : pour les promoteurs de pouvoirs « subtils », le doute méthodique des sceptiques est une kryptonite. Ils accusent volontiers l’esprit fermé des matérialistes de faire interférence avec l’énergie mise en jeu dans leurs techniques, mais c’est le sérieux du protocole qui annihile leurs prétentions.

 

Les autres épisodes du Bureau du Bizarre vous attendent ici

Pourquoi ça marche si bien — la fabrique d’un mythe

La force de l’histoire d’Emoto tient à une combinaison très efficace :

Un archétype narratif — La matière te répond.  Notre dualisme intuitif est flatté par l’idée de pouvoir manifester nos intentions et émotions dans la matière. Nous n’avons pas beaucoup d’occasion de laisser libre cours à la pensée magique profondément inscrite dans notre fonctionnement cognitif. La théorie d’Emoto réenchante sans effort, confère une agence au monde, rend la morale tangible : la parole douce « fait du bien ». Le message est socialement désirable, pédagogiquement exploitable, et médiatiquement irrésistible (qui n’aime pas des photos de « flocons de gratitude » ?).

L’autorité du visuel — Une image de cristal « beau » vaut mille équations. Le public infère une causalité à partir d’un message simpliste et le sentiment que la photographie est objective : une image ne saurait mentir. Pourtant les photos d’Emoto sont le résultat d’une suite d’arbitrages invisibles et très motivés.

La simplicité expérimentale — Avec l’expérience du riz, tout le monde devient « chercheur ». Il n’y a plus de barrière à l’entrée ; il y a en revanche une forêt de variables parasites impossibles à contrôler dans une cuisine. Mais l’impression d’avoir « vu » un effet prime sur la prise de recul statistique qui seule permet d’évacuer les illusions.

Le marché du bien-être — Une théorie qui promet santé, paix, harmonie et se décline en produits acquière une forte puissance rhétorique. Les photos servent de réclame, les mots — hado, structure, information — empruntent à la science leur aura sans son exigence. Et les clients, engagés par leur acte d’achat auront tendance à témoigner en faveur du produit, ce qui permet au piège d’être plus efficace contre le prochain curieux qui s’en approchera.

L’écosystème éditorial — Explore donne un vernis de scientificité, une publication référencée, et surtout le marché du livre qui flatte les intuitions du lecteur est très lucratif : Emoto est traduit partout.

Le silence académique — Rares sont les chimistes ou physiciens à avoir consacré du temps à démonter Emoto, tant ses idées paraissent grossièrement infondées. Ce silence a involontairement servi son discours : faute de réfutations officielles, ses partisans pouvaient dire que « personne n’a vraiment démontré qu’il a tort ». Le travail de démystification est alors surtout porté par des sceptiques indépendants comme James Randi ou Harriet Hall.

La persistance culturelle — La mort d’Emoto en 2014 n’a pas tari la source. Ses images continuent d’infuser sites, livres, vidéos TikTok et ateliers « énergétiques ». Des organisations comme le Emoto Peace Project ou des « écoles d’instructeurs hado » maintiennent l’écosystème vivant. Les rééditions du livre l’accompagnent d’un storytelling qui recycle des mots-clés, car le succès appelle le succès.

Il y a derrière de telles entreprises une véritable science des balivernes.

Conclusion

La jolie théorie de Masaru Emoto nous raconte que notre voix compte — au sens littéral. Elle transforme une aspiration morale en loi de la nature, sans mathématiques ou protocoles compliqués, mais en alignement avec nos intuitions. Nous avons au fond de nous une petite tendance à la pensée magique qui n’est pas irrationnelle, car dans nos interactions sociales la parole a réellement du pouvoir.

Mais le danger n’est pas anecdotique : une fois que vous avez accepté qu’une image « prouve » les effets une essence invisible, vous êtes prêt à accepter n’importe quel produit « énergisé », n’importe quel diagnostic « vibratoire », n’importe quel bricolage pseudo-médical. Face à ces produits cognitifs, les sceptiques, les critiques —les zététiciens— peuvent très facilement être perçus et désignés comme des jaloux, des esprits étroits, mesquins, qui salissent tout et désirent tuer chez les autres la part de spiritualité qui leur manque.

Mais un tel jugement me semble peu charitable, il n’est pas à la hauteur de ceux qui affirment croire que l’amour transforme le monde. Alors aimez cette vidéo, aimez là comme si vous étions en 2004 et qu’elle était un petit grain de riz.

 

Acermendax


Références 

  • Hall, H. (2007). Masaru Emoto’s Wonderful World of Water. Skeptical Inquirer. (Analyse critique de la « science » des cristaux d’Emoto).
  • Lower, S. (2015). Structured Water Pseudoscience and Quackery. (Dossier de référence sur l’« eau structurée » et les abus de langage chimique).
  • Radin, D., Hayssen, G., Emoto, M., & Kizu, T. (2006). Double-blind test of the effects of distant intention on water crystal formation. EXPLORE: The Journal of Science & Healing, 2(5), 408–411. https://doi.org/10.1016/j.explore.2006.06.004 (étude pilote avec score esthétique).
  • Radin, D., Lund, N., Emoto, M., & Kizu, T. (2008). Effects of Distant Intention on Water Crystal Formation: A Triple-Blind Replication. (Manuscrit PDF diffusé par water-crystal.org). (Répétition interne, même métrique esthétique).
  • Explore: The Journal of Science & Healing — profil et gouvernance éditoriale (revue Elsevier orientée CAM/parapsychologie ; Dean Radin devient co-rédacteur en chef à partir de 2009).
  • Poppy, C. (2014). A Grain of Truth: Recreating Dr. Emoto’s Rice Experiment. Skeptical Inquirer.
  • Yeganefar, N. (2014). Quand les scientifiques s’amusent : opération Emoto Riz ! Université de Poitiers (blog Sham and Science). (Protocole à réplicats, aveugle, résultats négatifs).
  • Anso, J. (2021). J’ai fait l’expérience du riz et des intentions. Dur à Avaler. (Protocole renforcé, pas d’effet reproductible).
  • James Randi Educational Foundation. One Million Dollar Paranormal Challenge (contexte ; invitation de 2003 restée sans réponse de la part d’Emoto, rappelée dans la notice encyclopédique).
  • Patent US5592086 : Automated computerized magnetic resonance detector and analyzer (Ronald J. Weinstock). (Contexte technique du MRA popularisé au Japon par Emoto sous le nom « Vibration-o-Meter »).
  • Hado Life / H2Om (2006). Official Dr. Emoto’s Ready to Drink INDIGO WATER (BevNET). (Exemple d’adossement commercial).
  • Texas Higher Education Coordinating Board. Institutions whose degrees are illegal to use in Texas (mention d’OIUCM/« Open International University » dans les listes d’alertes).
  • Emoto Peace Project / Hado Instructor School (pérénnisation et diffusion posthume des idées d’Emoto)

[1] https://patents.google.com/patent/US5592086A/en

[2] https://skepticalinquirer.org/2007/11/masaru-emotos-wonderful-world-of-water

[3] Même journal qui rapporte des histoires de réincarnation : Tucker (2016) The Case of James Leininger: An American Case of the Reincarnation Type

[4] https://www.sciencedirect.com/science/article/abs/pii/S1550830706003272

[5] https://cdn.water-crystal.org/pdf/tripleEN.pdf

[6] https://hado.com/ihm/the-29th-international-hado-instructor-school-in-tokyo

[7] «  I think that even young children would be able to understand and participate in this experiment. » conclut une enseignante dans un billet de blog qui présente l’expérience.

https://teachingitswhatido.blogspot.com/2014/04/kindness-and-emoto-rice-experiment.html

[8] https://skepticalinquirer.org/exclusive/a-grain-of-truth-recreating-dr-emotos-rice-experiment

 

À la fin du XVIᵉ siècle, John Dee occupe une place singulière dans le paysage intellectuel anglais. Né en 1527, il a étudié à Cambridge, il a traduit Euclide, il a enseigné à Paris et formé plusieurs des navigateurs qui dirigèrent les grandes découvertes de l’Angleterre : on lui doit l’expression « Empire britannique », et il fut considéré comme l’un des hommes les plus cultivés de son temps (Clulee, 1988 ; Sherman, 1995). Cela ne fut pas sans lui causer quelques soucis, puisqu’il est emprisonné en 1555 à la tour de Londres pour trahison sous Marie Tudor pour avoir « calculé » des horoscopes sur le destin de la reine et de la princesse Elisabeth. Finalement blanchi et relâché, la fortune lui sourit quand Elisabeth 1ère accède au trône et fait de lui son conseiller personnel en science et en astrologie, au point de lui confier la tâche de choisir la date du couronnement (French, 1972 ; Kassell, 2010).

Mortlake : la science et le miroir noir

Son cabinet de Mortlake, sur les bords de la Tamise, révèle une curiosité qui excède le champ de la géométrie. Dee y a réuni globes et astrolabes, mais aussi des talismans, des grimoires et des instruments de rituel. Féru de science, il est aussi un occultiste versé dans l’alchimie et la divination, car les progrès de la connaissance rationnelle lui semblaient trop lents, trop frustrants, il voulait aller plus vite. Il se tourne de plus en plus vers le surnaturel… À 55 ans, persuadé qu’il est possible d’accéder aux secrets divins, Dee se met en quête d’un intermédiaire capable de voir là où lui-même ne perçoit rien. C’est ainsi qu’il recrute le médium Edward Kelley.

Kelley, plus jeune que Dee, traîne déjà une réputation trouble : certains l’accusent d’avoir falsifié des titres de propriété, d’autres de pratiquer la nécromancie. Mais le talent de Kelley est impressionnant ; il reçoit des visions dans l’oratoire installé par Dee : « Une table de pratique » ornée d’inscriptions et de symboles, avec en son centre un miroir d’obsidienne ; aujourd’hui identifié comme un miroir de Tezcatlipoca, dieu de la nuit, il est conservé au British Museum (Harkness, 1999 ; Forshaw, 2011). Dès lors, le rituel devient régulier. Dee prie, invoque, s’agenouille. Kelley scrute la pierre polie et décrit ce qu’il « voit » : des entités lumineuses, des anges qui se présentent, qui dictent des lettres, des mots, des séries de caractères. Dee note tout avec rigueur, remplissant des cahiers de séquences apparemment structurées qui ont pour auteurs les anges Michael, Gabriel, Raphael et Uriel.

Ainsi naît ce qui sera plus tard appelé « énochien » : un alphabet, un lexique, des prières. Dee croit y reconnaître la langue d’Hénoch, le patriarche biblique qui, selon les traditions juives et chrétiennes, aurait marché avec Dieu et reçu de lui une révélation.

Traditions et méthodes

Cette invention n’apparaît pas dans un vide culturel. Elle se nourrit de plusieurs courants. Depuis Pic de la Mirandole, les érudits européens cherchent dans les lettres hébraïques et leurs combinaisons numériques des clefs pour comprendre la création. Dee transpose ce modèle de la cabale chrétienne à une langue entièrement nouvelle. Il se nourrit également du folklore de l’angéologie qui établit des hiérarchies d’anges et des rôles attribués à diverses entités. La recherche d’une langue parlée par des êtres supérieurs a du sens dans un monde ou le mythe de la tour de Babel accrédite l’existence d’une langue adamique qui précède la dispersion des idiomes. L’énochien se présente comme ce langage perdu, restitué par voie céleste. Dans ce contexte, l’idée séduit. Elle correspond aux attentes d’une époque où la frontière entre science et théologie n’existe pas.

Par ailleurs Dee et Kelley adoptent un semblant de discipline. Chaque séance commence par des prières et des invocations, puis Kelley fixe le miroir. Il prononce à haute voix ce qu’il voit et entend. Dee, stylet en main, note immédiatement. Les lettres apparaissent souvent sous forme de carrés magiques, comme des grilles de caractères à déchiffrer. D’autres fois, ce sont des mots isolés ou des prières entières.

La méthode, cependant, repose entièrement sur Kelley. Aucun témoin indépendant n’est convié. Dee ne voit rien par lui-même : il consigne ce que Kelley affirme percevoir. Il n’y a donc pas de contrôle possible, ni de réplication. Tout le système dépend d’un seul médium et de la confiance que Dee lui accorde. On est bien loin de l’essai randomisé.

 

Pour suivre mon travail plus facilement :


inscrivez-vous à la NEWS’Zet

Critique & départ d’Angleterre

Au sein de cercles érudits, certains trouvent l’expérience fascinante. La possibilité de restaurer une langue sacrée, plus ancienne que l’hébreu, flatte les attentes mystiques. Les notes de Dee circulent plus tard comme des témoignages d’un contact authentique avec le divin.

Mais dès le départ, un fort scepticisme accueille la démarche. Du côté des théologiens anglicans, on s’inquiète car la frontière avec la sorcellerie semble mince. Chez les mathématiciens, on continue de respecter Dee en tant que géomètre, mais sa crédibilité se fragilise ; la réputation sulfureuse de Kelley alimente les soupçons. Dee est bientôt accusé de frayer avec les forces obscures. En 1583, l’équilibre se rompt. L’Angleterre vit dans une tension religieuse constante, l’Église anglicane redoute les influences catholiques, et les rumeurs d’hérésie se propagent vite. Dee sait qu’il est observé.

Un noble et alchimiste polonais, Olbracht Łaski, lui propose alors de quitter le pays. Le départ répond à plusieurs besoins : se protéger des accusations, trouver des mécènes plus ouverts, et espérer une reconnaissance à la mesure de ses ambitions. Kelley y voit aussi une occasion d’enrichissement. Les deux hommes embarquent et gagnent la Pologne, puis Prague, cœur du Saint-Empire.

La cour de Rodolphe II attire alors les inventeurs, les astrologues et les alchimistes de toute l’Europe. L’empereur collectionne globes, automates, pierres rares, manuscrits. Sa curiosité n’est pas feinte : il croit que la nature cache des secrets que l’art et la philosophie doivent révéler (Evans, 1973).

Dee et Kelley s’inscrivent parfaitement dans ce décor. Ils tiennent des séances, produisent des messages angéliques, présentent des projets. Mais Rodolphe attend plus que des langues célestes : il veut de l’or alchimique. Kelley, habile à promettre, se laisse glisser dans ce rôle. Dee, plus austère, reste attaché à la dimension spirituelle. La situation culmine avec un épisode étrange : selon Kelley, les anges exigent que les deux hommes partagent absolument tout : leurs secrets, les révélations angéliques… et leurs épouses. Dee, après hésitation, finit par céder, avant de rompre définitivement avec son compagnon (Harkness, 1999). Leur association s’effondre.

Ascension et chute de Kelley

Après le départ de Dee, Kelley reste à Prague. Il reçoit des titres, des terres, de l’argent. L’empereur le traite comme un alchimiste de premier plan. Mais la promesse de transmuter le métal en or tarde à se réaliser. Rodolphe finit par s’impatienter. Kelley est emprisonné, relâché, puis de nouveau enfermé. Ses dernières années se passent dans les châteaux de Křivoklát et de Hněvín. En 1597 ou 1598, il meurt, selon les récits, en tentant de s’évader ou après avoir absorbé du poison.

L’homme qui affirmait converser avec les anges termine sa vie derrière les barreaux, victime du même mécanisme qui l’avait porté : la faveur d’un prince aussi avide de merveilles que de résultats.

Ce que l’énochien nous apprend

Si un érudit de grande renommé du 16e siècle avait retrouvé la langue originelle du monde avec l’aide d’un médium capable de discuter avec les anges, l’information serait de notoriété publique. Vous savez donc, tout autant que moi que l’Enochien était une chimère, ou une fraude.

L’alphabet énochien compte vingt et une lettres ; la syntaxe suit approximativement la structure de l’anglais élisabéthain, mais sans correspondance stable entre les mots. Tout indique une construction improvisée, dotée d’une cohérence interne mais sans ancrage linguistique réel (Laycock, 1978). Il échoue à impressionner les linguistes, et c’est suffisant pour ne pas trop s’inquiéter de passer à côté d’une découverte sensationnelle. Cette histoire n’a tenu qu’aussi longtemps que Dee a accordé sa confiance à Kelley, et que Rodolphe s’est montré intéressé. Ensuite, plus personne n’a trouvé la moindre valeur dans ces élucubrations.

Cet épisode montre comment, en l’absence de méthode critique, la valeur d’une idée se mesure à son pouvoir de séduction. Si un empereur s’y intéresse, elle prospère. Si sa patience s’épuise, elle s’effondre. Le savoir dépend alors non de sa solidité, mais du crédit qu’un puissant décide de lui accorder.

L’histoire de l’énochien n’est donc pas seulement celle d’un miroir et de deux hommes. C’est une démonstration concrète de la fragilité d’un système où la croyance d’un prince devient la mesure de la vérité.

Occultisme & recyclage

Même si aucun savant sérieux n’a repris le flambeau, la langue des anges continue de fasciner : occultistes du XIXᵉ siècle, sociétés ésotériques comme la Golden Dawn, ou figures comme Aleister Crowley y ont vu une source d’inspiration (Howe, 1972 ; Gilbert, 1983). Ces héritages prolongent une tradition de séduction mystique dépourvue de la moindre autocritique.

Les entreprises irrationnelles ont une existence précaire : leur destin n’est jamais garanti, et leur succès outrancier peut connaître une fin abrupte. Contrairement aux idées solides qui ont la vertu d’être vraies et donc de contenir en elles-mêmes une valeur intrinsèque qui peut ne pas suffire à les imposer, mais entrave fortement toute possibilité d’anéantissement, les balivernes comme l’Énochien sont suspendues aux modes, aux tocades des puissants, aux caprices de la foule. Ce ne sont pas toujours les histoires les plus extravagantes qui paient le prix fort et se dissolvent, mais celles qui lassent les prescripteurs et les influenceurs.

Mais tout va bien ; ce n’est plus à travers le miroir d’obsidienne d’un peuple éradiqué que nous nous connectons aux fantasmes et duperies de prétendus visionnaires, mais à travers nos innombrables écrans noirs, parce que nous ne sommes plus en 1582.

Acermendax


Références

  • Clulee, N. H. (1988). John Dee’s Natural Philosophy: Between Science and Religion. London: Routledge.
  • Evans, R. J. W. (1973). Rudolf II and His World: A Study in Intellectual History, 1576–1612. Oxford: Clarendon Press.
  • Forshaw, P. (2011). Curious knowledge and wonder-working wisdom in the occult works of Heinrich Khunrath and John Dee. Studies in History and Philosophy of Science, 42(2), 179-189. https://doi.org/10.1016/j.shpsa.2010.11.012
  • French, P. J. (1972). John Dee: The World of an Elizabethan Magus. London: Routledge & Kegan Paul.
  • Gilbert, R. A. (1983). The Golden Dawn: Twilight of the Magicians. Wellingborough: Aquarian Press.
  • Harkness, D. E. (1999). John Dee’s Conversations with Angels: Cabala, Alchemy, and the End of Nature. Cambridge: Cambridge University Press.
  • Howe, E. (1972). The Magicians of the Golden Dawn: A Documentary History of a Magical Order, 1887–1923. London: Routledge & Kegan Paul.
  • Kassell, L. (2010). Stars, spirits, signs: Towards a history of astrology 1100–1800. Studies in History and Philosophy of Science Part C: Studies in History and Philosophy of Biological and Biomedical Sciences, 41(2), 67-69.
  • Laycock, D. C. (1978). The Complete Enochian Dictionary: A Dictionary of the Angelic Language as Revealed to Dr. John Dee and Edward Kelley. London: Askin.
  • Sherman, W. H. (1995). John Dee: The Politics of Reading and Writing in the English Renaissance. Amherst: University of Massachusetts Press.

Revenons en l’an 2006, la Thaïlande bascule dans l’instabilité. Un coup d’État militaire renverse le Premier ministre Thaksin Shinawatra. Les généraux prennent le contrôle du pays, qui entre dans une période prolongée d’alternance confuse entre pouvoirs civils affaiblis et autoritarisme militaire. Pendant ce temps, dans les provinces méridionales de Pattani, Yala et Narathiwat, une insurrection islamiste gagne en intensité : bombes artisanales, assassinats ciblés, embuscades contre les forces de l’ordre. Pour le gouvernement, ce sont des actes terroristes. Pour les insurgés, c’est une guerre d’indépendance. Car ce territoire frontalier de la Malaisie n’a pas toujours appartenu au Siam : il constituait autrefois le sultanat de Patani, annexé militairement à la fin du XVIIIe siècle, puis officiellement rattaché à la Thaïlande par le traité anglo-siamois de 1909.

Pour les généraux thaïlandais, c’est un bourbier. On ne sait pas où sont les ennemis, qui cache quoi, ni comment sécuriser les routes. Alors quand une entreprise britannique propose un appareil capable de détecter des bombes à distance, sans branchement, sans batterie, sans rien… l’armée saute sur l’occasion.

 

LE GT200 — La baguette militaire

L’appareil s’appelle le GT200. Il ne paie pas de mine : une simple antenne métallique montée sur une poignée en plastique noir. Il ressemble à un détecteur de métaux bon marché.

Gary Bolton, son distributeur britannique, le présente pourtant comme un concentré de technologie de pointe. Il évoque des « cartes d’analyse moléculaire », de la « résonance électrostatique », ou encore la « détection à fréquence harmonique ». Selon lui, l’appareil serait capable de détecter explosifs, drogues ou armes à plusieurs centaines de mètres, grâce à l’« énergie électrostatique produite par le corps humain » et à des cartes censées réagir à des signatures moléculaires spécifiques. Le GT200 est vendu à prix d’or : entre 20 000 et 40 000 euros l’unité. L’armée thaïlandaise en achète plusieurs centaines. Douanes, police, forces spéciales suivent. Bientôt, dans tout le pays, des hommes en uniforme manient une antenne oscillante, semblable à une baguette de sourcier, à la recherche d’ennemis invisibles.

Et pourtant, dès qu’on regarde de près l’argumentaire, le doute s’installe. Résonance électrostatique, champ paramagnétique, cartes « programmées » et activées par l’électricité statique corporelle… Rien ne tient debout. Le marketing du GT200 est un exemple classique de technobabillage : un jargon pseudo-scientifique conçu pour impressionner sans expliquer. Les responsables gouvernementaux et militaires thaïlandais n’ont pas compris le discours de Bolton — parce qu’il n’y avait rien à comprendre. L’appareil était vide. L’empereur, nu. À l’intérieur de la poignée ? Rien. Sur la plaquette commerciale ? Des schémas dignes d’un laboratoire de physique appliquée.

 

Crédulité maximale

Mais comment un pays entier peut-il croire à un tel gadget ? Il faut comprendre le contexte.

Dans un cadre militaire, cette façade scientifique est redoutablement efficace. L’institution cherche des résultats, pas des débats méthodologiques. Si un vendeur promet de détecter du TNT ou de la cocaïne à 500 mètres grâce à une puce « calibrée », qui exigera une publication à comité de lecture ? L’achat du GT200 se fait sans étude indépendante, sans appel d’offre transparent. Les déclarations officielles frôlent parfois l’absurde. En 2009, après un attentat meurtrier dans le sud du pays, le vice-ministre thaïlandais de l’intérieur Thaworn Senniam explique à la presse que l’échec du GT200 a pour cause le stress de l’opérateur : « Son état nerveux a provoqué une hausse de sa température corporelle, ce qui a affecté le détecteur. » Il annonce aussitôt une réforme : désormais, deux agents seront mobilisés par appareil, l’un pouvant remplacer l’autre s’il « n’est pas prêt » à s’en servir (Bangkok Post, 2009).

Le porte-parole de l’armée thaïlandaise, Sansern Kaewkamnerd, affirme que les unités GT200 fonctionnent avec « 100 % de confiance » et que l’armée est prête à « prouver leur efficacité à tout moment, n’importe où ». De son côté, Pornthip Rojanasunand, directrice de l’Institut central de médecine légale, défend l’usage du GT200 « Je n’ai jamais manipulé l’appareil moi-même, mais mon équipe l’a testé et il est précis à chaque fois. Autrefois les gens croyaient que la Terre est plate, et quiconque disait le contraire pouvait se faire exécuter. Ce n’est pas parce qu’on ne voit pas quelque chose qu’elle n’existe pas. Ces appareils existent, et personne n’a le droit d’en interdire l’usage. Je continuerai à les utiliser »

Le chef de l’armée, Anupong Paochinda, organise une démonstration publique pour prouver l’efficacité de l’appareil. Le général Pichet Wisaijorn résume alors l’argument d’autorité à l’état brut : « Ce n’est pas moi qui dis que le GT200 fonctionne. Ce sont les officiers sur le terrain. » L’argumentaire irrationnel est renforcé à chaque fois qu’une voix officielle prend position et dissuade un peu plus toute contradiction. Et le plus pervers, évidemment, c’est que le dispositif semble fonctionner… à condition d’y croire. L’antenne oscille parfois, au gré des mouvements inconscients de l’utilisateur — un effet bien connu des radiesthésistes : l’effet idéomoteur. Autrement dit, le corps bouge sans que l’esprit s’en aperçoive. Le GT200 devient une machine à auto-conviction. Il ne détecte rien. Mais il rassure.

Décrit dès le XIXe siècle par le physiologiste William B. Carpenter, cet effet repose sur des micro-mouvements musculaires inconscients déclenchés par l’attente ou la croyance. C’est le même phénomène qui fait bouger les planchettes de Ouija. Des études modernes ont confirmé que ce type de réponse repose uniquement sur ces mouvements imperceptibles (Olson et al., 2015). L’opérateur croit ne pas agir, mais influence malgré lui la réponse.

 

Le test qui dérange

C’est à partir de 2009 que des voix commencent à s’élever. Le biologiste Jessada Denduangboripant, de l’université Chulalongkorn, dénonce publiquement l’usage du GT200, qu’il considère comme une escroquerie. Il appelle à des tests rigoureux. Il faudra attendre 2010 pour qu’un protocole officiel voie le jour, sous la pression croissante des critiques.

En février 2010, le Premier ministre thaïlandais Abhisit Vejjajiva ordonne un test scientifique indépendant pour évaluer les performances réelles du GT200. L’expérience est menée par le National Electronics and Computer Technology Center, avec dix appareils, trente opérateurs militaires et un protocole en double aveugle : il s’agit de détecter, parmi quatre boîtes identiques, celle contenant 20 grammes de C4. Résultat : 4 bonnes réponses sur 20. Le Premier ministre tranche : « Ces résultats sont équivalents au hasard. » Il interdit toute nouvelle commande, annonce une enquête, et évoque des poursuites contre les fournisseurs. L’armée, elle, traîne des pieds : certains commandants maintiennent l’usage des appareils. Quant à la directrice de l’Institut de médecine légale, Pornthip Rojanasunand, elle persiste : « Ce n’est pas un appareil scientifique, mais nous continuerons à l’utiliser. »

Sur le terrain, certains officiers continuent à utiliser les appareils, parfois faute d’alternative immédiate, parfois par conviction. Aucune procédure de retrait systématique n’est imposée. En 2012 encore, des unités en poste dans le sud du pays signalent l’usage ponctuel du GT200. Pour ses défenseurs, il reste un « outil complémentaire ». Pour ses détracteurs, un symbole d’entêtement. Il faudra plusieurs années, et une pression constante des chercheurs et des médias, pour que l’appareil disparaisse complètement des pratiques officielles.

Pendant ce temps, des bombes passent. Des civils sont arrêtés sur la base d’un signal positif. Des maisons sont fouillées. Des innocents emprisonnés. Tout cela au nom d’une technologie qui n’a jamais fonctionné.

L’arnaque à grande échelle

Le GT200 ne sévit pas qu’en Thaïlande. Dès 2005, il est introduit au Mexique, puis au Kenya, au Pakistan, en Syrie, et dans plusieurs pays d’Amérique latine. Au Mexique, à partir de 2007, des centaines d’unités sont utilisées dans les prisons, les postes-frontières, les contrôles routiers. Le gouvernement mexicain en achète officiellement plus de 940 exemplaires entre 2007 et 2010 (Martínez, 2010). L’appareil est déployé dans des prisons, aux postes-frontières, et lors de contrôles routiers. Il sera encore en usage dans plusieurs régions jusqu’en 2011, malgré les doutes répétés émis par des scientifiques et des ONG.

En Zambie, en Ouganda, au Kenya, en Tanzanie ou en république du Congo, c’est pour détecter l’ivoire des trafiquant qu’on utilise le GT200. On peut se demander comment il est possible d’escroquer des États entiers. Cela semble infiniment plus compliqué que de filouter de pauvres victimes isolées. Eh bien pas tant que ça, parce que le contexte peut rendre crédible un discours complètement extravagant.

  • Crédit institutionnel : la promesse suffit. Le discours pseudo-technique évite toute contradiction.
  • Absence de vérification scientifique : les rares tests menés (notamment par des Royal Engineers britanniques) sont ignorés.
  • Effet d’entraînement : un pays achète, d’autres suivent. L’objet devient une norme. C’est l’effet de la preuve sociale.
  • Dilution des responsabilités : personne ne doute, puisque tout le monde a déjà validé. C’est l’effet spectateur.

Ce n’est pas seulement un scandale : c’est un révélateur des failles épistémiques d’un système. Sans exigence de preuves, les croyances prennent le pouvoir.

 

Le miroir irakien

Au même moment, en Irak, un escroc britannique nommé James McCormick vend un détecteur très similaire : l’ADE 651, sensé aidé le gouvernement à enrayer une intense vague d’attentats kamikazes. Le baratin est similaire : à la BBC l’homme d’affaire explique que son appareil fonctionne sur le principe de la radiesthésie. L’ADE 651 ne contient aucun composant actif, lui non plus. Pas même une pile. Juste une antenne, qui bouge… si l’utilisateur y croit.

Des centaines de morts sont attribués à cette fraude : des kamikazes passent les checkpoints que l’on croit sécurisés grâce à une technologie fantôme. L’escroc multiplie les ventes en Afghanistan, au Niger, en Arabie saoudite, en Géorgie, en Algérie, ou encore en Libye. Le butin dépasse les 50 millions d’euros.

McCormick est arrêté, jugé et condamné à 10 ans de prison en 2013 au Royaume-Uni. En Thaïlande ? Gary Bolton, le vendeur du GT200, subit le même sort la même année. Il prend 7 ans de prison pour fraude, au Royaume-Uni. Mais aucun officiel thaïlandais n’est inquiété.

Pour suivre mon travail plus facilement :


inscrivez-vous à la NEWS’Zet

Un réseau pour les escroquer, tous.

Bolton et McCormick ont fait fortune — momentanément— en bâtissant un réseau d’influence, en suscitant de la confiance pour leur fausse expertise. En Thaïlande, au Mexique, au Pakistan ou en Irak, ils ont été soutenus — parfois activement — par des responsables politiques, des officiers en uniforme, ou des représentants diplomatiques.

Au Mexique, Gary Bolton a bénéficié du soutien de l’ambassade britannique : l’ambassadeur Giles Paxman a personnellement rédigé des lettres de recommandation pour promouvoir le GT200 auprès des gouverneurs régionaux (Booth, 2014). Présenté comme une innovation britannique appuyée par la diplomatie, l’appareil a rapidement gagné les faveurs de plusieurs états du nord du pays. En Thaïlande, la crédibilité du GT200 a été renforcée par la présence de Royal Engineers britanniques lors de démonstrations publiques (Booth, 2013). Ces soldats en uniforme, sans caution scientifique formelle, ont suffi à donner à l’objet une apparence de validation par une puissance alliée.

Les salons militaires ont aussi joué un rôle clé. Bolton et McCormick exposaient leurs gadgets à côté de vrais instruments de détection, dans des stands luxueux, entourés de tableaux techniques et de commerciaux bien formés. Ils parlaient de laboratoires en Roumanie, de capteurs calibrés dans des centres de recherche, de technologies confidentielles. Le journaliste Robert Booth racontera plus tard que leurs brochures faisaient penser à l’univers de James Bond — avec leurs experts à la « Q » et leur langage cryptique (Booth, 2013). Le ton était donné : on ne comprend rien, donc c’est forcément avancé.

Et ça marche. En quelques années, les deux hommes bâtissent un empire. Un réseau de distributeurs locaux, d’intermédiaires officiels, de complicités molles et de croyances fortes. Une chaîne de confiance qui repose exclusivement sur leur bagou. Exclusivement ? Difficile d’écarter la possibilité d’une corruption à l’œuvre. Plusieurs enquêtes ont évoqué des pratiques d’intermédiation opaques et des complicités locales, sans qu’aucune condamnation ne vienne l’établir formellement

 

La fin de l’illusion

Gary Edward Bolton, fondateur de Global Technical Ltd, n’a aucune formation scientifique. Il fabrique ses appareils à partir de composants dérisoires — notamment un détecteur de balles de golf — qu’il revend jusqu’à 40 000 euros pièce. L’assemblage est artisanal : les GT200 sont montés à la main dans des ateliers de fortune, sans banc de test, sans ingénierie, sans électronique embarquée. Ce bricolage d’apparence professionnelle est ensuite déguisé sous le vernis du discours technique.

Mais pour vendre l’illusion, Bolton prétend diriger une entreprise dotée d’un service de R&D, de laboratoires partenaires, d’une technologie confidentielle développée en Roumanie. Il évoque des experts, des ingénieurs, des tests internes — autant de fictions qu’aucune autorité n’ose contester. Son entreprise, en réalité, n’est qu’un nom sur une boîte aux lettres. Jim McCormick, son concurrent et parfois complice, suit un parcours identique. Ancien agent immobilier, il s’improvise expert en sécurité. Tous deux maîtrisent les mêmes leviers : jargon technique, connexions diplomatiques, salons militaires, et soutien discret d’agences officielles britanniques. Ils n’ont pas inventé une technologie : ils ont bâti une mise en scène. Une illusion industrielle, fondée sur des objets vides, des mots creux, et des complicités bien réelles. Ce n’est pas l’efficacité qui a séduit les acheteurs, mais le prestige, l’apparat, et la possibilité de croire que l’on agissait — même au prix du mensonge.

 

La croyance au pouvoir

L’histoire du GT200 n’est pas une simple arnaque, c’est une fable moderne sur la foi technologique, sur la façon dont le jargon peut subjuguer les institutions, et sur ces objets ésotériques qui deviennent des outils de pouvoir dès qu’ils s’habillent en science. L’affaire rappelle celle des « avions renifleurs », pseudo-invention française des années 1970 censée détecter le pétrole par voie aérienne. Là aussi, jargon abscons, promesse de rupture, investissements massifs. Et zéro preuve.

Les puissants, les décideurs, ne sont pas moins crédules que les autres. Ils ont, eux aussi, tendance à croire ce qui les arrange et à tomber dans les pièges des arnaqueurs audacieux. Nos démocraties ne portent pas au pouvoir des individus significativement plus sages, plus sagaces ou plus érudits, mais celles et ceux qui savent se faire élire. Et si la société civile ne se dote pas d’instances capables de faire barrage aux croyances les plus folles et aux discours les plus faux, elle sera livrée, démunie, aux lubies des gouvernements.

Et ce serait dommage, parce que nous ne sommes plus en 2006.

 

Acermendax


Références

 

Aujourd’hui nous allons voir qu’il est possible de perdre toute une planète qu’on avait pourtant théorisé avec soin. Nous verrons aussi que, toutes les planètes théoriques ne se valent pas. Pour ce faire, venez, enjambons les XIXe et XXe siècles.

 

Vulcain : un astre derrière l’anomalie

Commençons au milieu du XIXe siècle. Dans le grand livre d’astronomie de Newton, tout tourne comme une horloge… sauf Mercure. Son orbite avance un peu trop vite, d’environ 43 secondes d’arc par siècle. Les calculs sont faits et refaits : on tient compte de toutes les planètes connues, on pèse chaque attraction gravitationnelle… Rien n’y fait.

Pas question, pour autant, de se débarrasser du modèle de Newton, bien trop efficace. « Quand les faits contredisent la théorie, changez les faits ! » est un formule que l’on prête à Albert Einstein.  L’attribution est abusive[1], elle ne figure nulle part dans le travail du physicien, mais en l’occurrence elle reflète comme un fond de vérité. Deux décennies avant l’affaire Vulcain, c’est exactement ce que les astronomes ont fait en prédisant par le calcul un changement important dans le système solaire : la découverte de Neptune est l’un des grands triomphes de l’astronomie prédictive.

En effet, dans les années 1830-1840, les astronomes constatent que l’orbite d’Uranus présente de petites anomalies que la gravitation newtonienne, appliquée aux planètes connues, n’explique pas. Deux mathématiciens — John Couch Adams en Angleterre et Urbain Le Verrier en France — calculent indépendamment la position probable d’une planète inconnue dont l’attraction pourrait expliquer ces perturbations. Pour conserver la théorie, on se met en quête d’un fait nouveau, et pas des moindres : une planète. Le 23 septembre 1846, Le Verrier envoie à Johann Galle, à l’observatoire de Berlin les coordonnées qu’il a obtenu par le calcul. Le soir même, Galle et son assistant Heinrich d’Arrest pointent leur télescope vers la zone indiquée, et trouvent, à moins d’un degré de la position prédite, un point qui se déplace : Neptune venait d’être découverte. C’est l’un des rares cas où un objet céleste a été trouvé par calcul avant observation. Cette recette formidable, Urbain Le Verrier entend la répéter avec le cas mercurien sur lequel il s’était déjà penché sans succès auparavant. Et c’est ainsi qu’après avoir proposé le nom de Neptune, il vient avec l’idée qu’un ou plusieurs corps célestes plus proche du Soleil sont la cause de la précession anormale du périhélie de Mercure.

En 1859, un médecin et astronome amateur de la Beauce, Edmond Lescarbault, écrit à Le Verrier qu’il a vu un point passer sur le disque solaire le 26 mars. Le Verrier y voit la confirmation attendue et, début 1860, annonce l’existence de Vulcain à l’Académie des sciences. Il passera ses dernières années à tenter de la retrouver, afin de l’observer et de faire la découverte définitive. Il meurt en 1877.

Pendant des décennies, on guette : éclipses, transits, observations contradictoires… Lors de l’éclipse de 1878, deux astronomes réputés jurent avoir vu des points noirs près du Soleil. La vérification montrera qu’il s’agissait de simples étoiles de fond. Bref, malgré les prédictions, la recherche, les contre-observations — tout l’arsenal empirique des sciences — Vulcain résiste à ses aspirants découvreurs. La théorie était pourtant précise et dûment validée par d’autres experts ; la planète avait une masse, une taille, une vitesse, une orbite… Et c’est cette précision la condamnera, finalement, au bout de 55 ans.

 

Einstein referme le dossier

Automne 1915. Dans une salle de l’Académie de Prusse, Albert Einstein présente sa relativité générale. Ses équations font disparaître le mystère : l’excédent de Mercure est une simple conséquence de la courbure de l’espace-temps. Les 43’’/siècle sortent tout seuls du calcul. Pas besoin de planète cachée : Vulcain s’évapore… et personne de sérieux ne s’en offusque. Car c’est ça, la méthode : une hypothèse provisoire s’efface quand une explication plus générale, plus économe et plus prédictive prend la relève. La contribution de Le Verrier et de tous ceux qui cherchaient à voir Vulcain était légitime et précieuse, et la résolution par Einstein ne leur fait aucun affront. Il était normal de commencer par tester l’hypothèse disponible. C’est un calcul mathématique qui a permis de savoir où chercher Neptune, et c’est aussi par le calcul, par la théorie que l’on a su qu’il n’était pas utile de chercher Vulcain. Nous avons perdu une planète, et en échange nous avons gagné un modèle du système solaire plus efficace.

Mais saviez-vous qu’une autre planète du système solaire avait été théorisée ?

 

Nibiru : invention, prophéties et fiascos

En 1976 Le journaliste Zecharia Sitchin (1920 – 2010), diplômé en économie, invente Nibiru : dans son livre « La douzième planète ». Selon lui, cet astre massif suivrait une orbite extrêmement allongée qui le ramènerait à proximité de la Terre tous les 3 600 ans. Invisible la majeure partie du temps, il se tiendrait aux confins du Système solaire avant de croiser l’écliptique et de frôler notre planète, provoquant dans le passé des bouleversements climatiques et géologiques majeurs comme le Déluge ou des ères glaciaires. Nibiru, dans ce récit, ne serait pas qu’un objet céleste : ce serait aussi le foyer des Anunnaki, une civilisation extraterrestre qui, il y a des millénaires, serait venue sur Terre pour exploiter ses ressources et aurait joué un rôle décisif dans l’émergence des cultures antiques, de Sumer à l’Égypte. Vous avez peut-être reconnu une théorie néo-évhémériste qui consiste à donner aux divinités une origine historique et à récrire l’histoire des peuples anciens, ici avec une épaisse sauce ufologique.

Sitchin affirmait tenir ces informations de sa propre lecture des textes sumériens et akkadiens, notamment l’Enuma Elish et certaines listes royales, qu’il traduisait en y voyant des descriptions astronomiques codées. Il interprétait littéralement des mythes, en particulier celui de Marduk, qu’il identifiait à Nibiru, planète voyageuse venue d’ailleurs. Des sceaux et bas-reliefs mésopotamiens lui servaient également de « preuves », qu’il lisait comme des représentations précises du Système solaire comprenant un astre supplémentaire.

Les vrais assyriologues et historiens de l’astronomie rejettent ces interprétations. Ses traductions ne correspondent pas au sens reconnu des textes, et le terme « Nibiru » désigne, selon les contextes, un point du ciel — souvent l’étoile Regulus ou la planète Jupiter — ou encore une notion de « croisement », sans rapport avec un corps massif caché. Aucune observation moderne ne confirme l’existence d’un tel objet, et ses caractéristiques supposées sont incompatibles avec les lois connues de la mécanique céleste : les calculs ne sont pas bons, Sitchin ! La théorie ne tient pas.

Nibiru est une pure invention pseudo-scientifique. Ce qui n’empêche pas les continuateurs de Sitchin de faire des prédictions, mais pas tout à fait comme Le Verrier avait prédit l’emplacement de Neptune par des calculs vérifiables.

En 1995, Nancy Lieder, une femme qui prétend parler avec des extraterrestres, affirme sur son site Internet que Nibiru surgira le 23 mai 2003 provoquant l’arrêt de la rotation terrestre pendant 5,9 jours, des cataclysmes et la fin de la majeure partie de l’Humanité. Quand le cataclysme n’arrive pas, Nancy Lieder se rebelle, elle affirme avoir menti sur la date afin de se moquer de l’establishement et a refusé de délivrer la vraie date de la fin du monde. Balèze.

Dans le petit monde des croyants en Nibiru, les nouvelles prédictions fleurissent et beaucoup choisissent la date du 21 décembre 2012 (la proximité de la fin du calendrier Maya est une trop belle occasion). Ces histoires ont attiré beaucoup d’attention, on a pu vendre beaucoup de papier et de temps de cerveau disponible. Mais la fin du monde n’a pas eu les effets escomptés.

Vers 2016 c’est un numérologue chrétien, David Meade, qui annonce l’arrivée de Nibiru pour le 23 septembre 2017 grâce à des calculs basés sur la Bible et les mensurations des Pyramides de Gizeh. Lorsque l’échéance fut décevante, il proposa le 5 octobre tout en précisant qu’il fallait s’attendre à une éclipse solaire, des attaques nucléaires, des séismes et bien sur un basculement de l’axe terrestre.  [Silence]

Quand la date est passée, un autre théoricien a annoncé le 19 novembre. Plus tard il est passé au 12 avril 2018. Il est probable que tout un tas de gens continuent de proposer des dates sorties de leur chapeau. Et un jour peut-être un cataclysme épouvantable se produira et l’un d’entre eux, en regardant le calendrier, pourra éprouver la joie intense d’avoir fait la bonne prédiction.

Mais est-ce que cela voudra dire qu’il avait raison ?

Pour suivre mon travail plus facilement :


inscrivez-vous à la NEWS’Zet

L’Antichthon : l’ancêtre antique de Nibiru

Bien avant Sitchin, les Grecs avaient déjà imaginé un astre invisible, dissimulé de l’autre côté du Soleil. Chez les pythagoriciens (Ve siècle av. n. è.), on l’appelait l’Antichthon — littéralement “contre-Terre”. L’idée n’était pas née d’un calcul astronomique précis, mais d’un raisonnement numérologique : pour eux, l’Univers devait être ordonné en dix corps parfaits (Soleil, Lune, cinq planètes connues, Terre, feu central et… quelque chose pour compléter la série). Ce “quelque chose” fut la contre-Terre, située à 180° de nous, toujours masquée par le Soleil.

Dans le système de Philolaos, ce « quelque chose » était la contre-Terre. Contrairement à notre vision moderne, ni la Terre ni l’Antichthon ne tournaient autour du Soleil, mais toutes deux orbitaient autour d’un « feu central » — un astre distinct du Soleil que nous voyons dans le ciel. Le Soleil visible n’était qu’un miroir réfléchissant la lumière du feu central vers nous. L’Antichthon se trouvait à l’opposé de la Terre par rapport à ce feu central, recevant directement sa lumière mais demeurant invisible depuis notre position.

L’idée, reprise par Aristote dans De Caelo, fut surtout un objet de spéculation philosophique et cosmologique, pas un programme d’observation. Mais elle avait une qualité fatale : l’invérifiabilité par construction. La Contre-Terre était définie comme impossible à observer.

Au fil des siècles, l’Antichthon s’estompe dans l’astronomie savante, mais refait surface épisodiquement dans la littérature et, au XIXe siècle, dans la presse populaire. Camille Flammarion, dans ses chroniques astronomiques et dans Uranie (1889), imagine une “planète jumelle” de la Terre, peuplée d’êtres humains inconnus ; d’autres y voient une explication commode à divers phénomènes célestes mal compris. Le XXe siècle lui redonne un souffle pseudo-scientifique : on la retrouve dans des spéculations ufologiques ou ésotériques, toujours avec le même argument massue — “si elle existe, vous ne pouvez pas la voir, puisque le Soleil la cache en permanence”.

Ce schéma est exactement celui de Nibiru : placer l’objet dans une zone inaccessible à l’observation directe, puis utiliser cette inaccessibilité comme “preuve” qu’il est là et que “les autorités” nous le cachent : double immunité, double irréfutabilité. Les acheteurs en redemandent. Mais du baratin reste du baratin.

Les astres spéculatifs

Vulcain et Nibiru ne sont pas les seuls “astres fantômes” de l’histoire. Le XXe siècle en a produit sa propre galerie, avec des fortunes très variables. Dans les années 1990, l’astronome Tom Van Flandern imagine une Planète V, jadis située entre Mars et Jupiter, qui aurait explosé pour donner naissance à la ceinture d’astéroïdes. L’hypothèse séduit par son côté roman-catastrophe, mais les modèles dynamiques montrent vite que la ceinture peut se former naturellement à partir de débris jamais agrégés — pas besoin de planète pulvérisée.

La fameuse Planète X a, elle, une histoire en deux actes : au début du XXe siècle, Percival Lowell calcule une planète au-delà de Neptune pour expliquer de petites anomalies dans l’orbite d’Uranus. Percival Lowell, vous le connaissez peut-être parce que c’est lui qui a un peu halluciné en dessinant les canaux martiens qui ont fait couler beaucoup d’encre.

En 1930, Clyde Tombaugh découvre Pluton, qu’on prend d’abord pour la Planète X… avant de constater qu’elle est bien trop légère pour causer ces perturbations. L’affaire aurait pu s’arrêter là, mais l’idée a rebondi… Il y a en quelque sorte une véritable « Planète Neuf », ou en tout cas une vraie théorie proposée en 2016 par les astronomes Konstantin Batygin et Michael E. Brown, qui, bien que toujours très spéculative, repose sur des indices observationnels concrets : un regroupement inhabituel des orbites de plusieurs objets transneptuniens très éloignés du Soleil, dont le périhélie pointe dans la même direction et dont les plans orbitaux semblent étrangement alignés. Cette configuration improbable pourrait être expliquée par l’influence gravitationnelle d’une planète massive, estimée à environ dix fois la masse de la Terre, sur une orbite très allongée, distante de 400 à 800 unités astronomiques au périhélie, et d’une période de l’ordre de 10 000 à 20 000 ans.

Mais ici, l’hypothèse ne se contente pas d’un récit : elle produit des prédictions chiffrées et vérifiables. Ses auteurs ont publié les zones (un peu trop large) du ciel où la planète pourrait se trouver, ainsi que la luminosité attendue selon sa taille et sa distance, permettant aux télescopes terrestres et spatiaux de la rechercher. Les limites sont claires : si, après avoir fouillé ces régions jusqu’à la magnitude prévue, aucun objet ne correspond aux caractéristiques attendues, l’hypothèse devra être abandonnée ou profondément révisée.

Cette transparence méthodologique fait toute la différence : la Planète Neuf joue le jeu de la réalité, en acceptant d’être confirmée ou réfutée par l’observation. Nibiru, elle, joue à cache-cache, change d’orbite, de nature et même de date de passage chaque fois qu’elle échoue à se montrer. Toutes les théories, même les plus spéculatives, ne se valent pas.

Enfin, dans les années 1980, naît Nemesis, une étoile naine, compagne hypothétique du Soleil, supposée passer périodiquement dans le nuage d’Oort et déclencher des pluies de comètes responsables d’extinctions massives. L’idée est testée directement grâce aux relevés infrarouges (IRAS, WISE) et finit par être écartée faute de détection. Adieu Nemesis.

Les autres épisodes du Bureau du Bizarre vous attendent ici

Conclusion

Ces affaires d’astres spéculatifs montrent qu’une hypothèse peut mourir proprement quand la recherche est menée à découvert, avec des prédictions vérifiables. Il y a de l’honneur à proposer des idées nouvelles quand on sait fournir dans le même geste les conditions de leur réfutation.

Vulcain a été une béquille, un objet utile dans le modèle en vigueur, et donc crédible aux yeux des spécialistes qui ont eu raison de considérer son existence comme possible… Jusqu’à ce qu’Einstein change la donne et fasse de Vulcain une hypothèse plus coûteuse qu’utile.

Nibiru, en revanche, est dégénérative dès le départ. Elle est une histoire farfelue imaginée sans aucun égard pour les connaissances établies, sans aucun effort pour présenter une once de crédibilité auprès des spécialistes, et en constant bricolage contre les échecs prophétiques de ses adorateurs.

Nous voyons bien que ces deux idées fausses n’ont pas du tout la même valeur. Il y a des idées fausses et puis il y a les balivernes prétentieuses qui ne peuvent espérer séduire que des esprits déjà en conflit avec la vision scientifique du monde, et qui font des victimes bien commodes pour les baratineurs de toutes les époques, en 1860 comme en 1976, et peut-être même au-delà.

 

Acermendax


Références

  • Einstein, A. (1915). Erklärung der Perihelbewegung des Merkur aus der allgemeinen Relativitätstheorie. Sitzungsberichte der Königlich Preussischen Akademie der Wissenschaften, 47, 831–839.
  • Le Verrier, U. J. J. (1859). Lettre de M. Le Verrier à M. Delaunay sur la planète de M. Lescarbault. Comptes rendus hebdomadaires des séances de l’Académie des sciences, 49, 379–383.
  • Baum, R., & Sheehan, W. (1997). In Search of Planet Vulcan: The Ghost in Newton’s Clockwork Universe. New York: Plenum Press.
  • Standage, T. (2000). The Neptune File: Planet Detectives and the Motion of Uranus. New York: Walker & Company.
  • Sitchin, Z. (1976). The 12th Planet. New York: Avon Books.
  • Batygin, K., & Brown, M. E. (2016). Evidence for a distant giant planet in the solar system. The Astronomical Journal, 151(2), 22. https://doi.org/10.3847/0004-6256/151/2/22

[1] On relève des variantes dès le XIXe siècle, souvent utilisées avec une portée sarcastique pour critiquer les excès de dogmatisme : « Si les faits ne correspondent pas à la théorie, tant pis pour les faits. ». Parmi les potentiels auteurs, on cite souvent le philosophe allemand Johann Gottlieb Fichte vers 1800 ou le marxiste hongrois Georg Lukács en 1923.

À toutes fins utiles, pour donner le contrepoint authentique, on peut citer un vrai propos d’Einstein : « Je n’aime pas donner un avis sur une question à moins d’en connaître les faits précis » (NYT, 12 août 1945), qui va exactement à l’encontre du slogan viral.