Les biais cognitifs : une « escroquerie » ?

Lecture critique d’un billet très en colère

Le blog Le Serpent à Sornette a récemment publié un texte au titre provocateur : « Les biais cognitifs, cette escroquerie ». L’autrice, docteure en sciences de l’éducation, y dénonce avec une verve pamphlétaire ce qu’elle perçoit comme une illusion collective : les biais cognitifs seraient, selon elle, un concept vide, une imposture intellectuelle maintenue artificiellement par la psychologie expérimentale et recyclée par les vulgarisateurs pour briller sur YouTube.

Sur le très bon travail de Mehdi Moussaïd sur la question (sur sa chaine Fouloscopie), elle trouve simplement à dire :

« sujet très nul, qui plus est traité de façon parfaitement nulle, par un vidéaste-psychologue un peu nul. » en l’accusant de « babillage psycho-bullshit ».

Une charge en règle, donc — mais dont la rhétorique masque un fond profondément fragile.

 

NB : Si la question des biais cognitifs vous intéresse, voici une émission où Pascal Wagner-Egger, chercheur en psychologie sociale, nous en parle.

 

 

1. Une critique fondée sur un malentendu épistémologique

L’autrice commence par affirmer que les biais cognitifs n’existent pas. Son argument : on ne peut pas « trouver un morceau de biais », pas plus qu’on ne peut prélever « un échantillon de climat ». L’intention est claire : rappeler qu’un concept scientifique n’est pas une chose mais un modèle. Pourtant, cette mise au point n’invalide en rien l’existence des phénomènes décrits ; elle confond la nature ontologique du concept avec sa validité scientifique.

De la même façon qu’on n’a jamais observé « le climat » mais seulement des régularités atmosphériques, on n’a jamais vu un « biais cognitif », mais on observe des régularités statistiques de jugement et de décision. Ces régularités, identifiées dès les travaux de Kahneman et Tversky (1974), ont été reproduites et discutées depuis cinquante ans. Les biais cognitifs ne sont donc pas des entités, mais des modèles descriptifs, et personne, dans la littérature sérieuse, ne le conteste.

Le billet commet ainsi une erreur de catégorie : il attaque un usage métaphorique (parfois réifié, c’est vrai) comme s’il s’agissait d’une prétention ontologique. Une confusion entre critique du langage et critique de la théorie.

 

2. Le faux procès de la « rationalité logique »

Deuxième angle d’attaque : selon l’autrice, les psychologues auraient assimilé la rationalité à la logique formelle, et jugeraient « irrationnels » les individus qui ne respectent pas la transitivité ou le principe du tiers exclu. Cette caricature ne résiste pas à la moindre vérification historique.

Depuis Herbert Simon (1955), la psychologie cognitive repose sur le concept de rationalité limitée : les êtres humains n’optimisent pas, ils font du mieux possible avec leurs ressources cognitives. Les travaux de Kahneman et Tversky, loin d’imposer une rationalité mathématique, ont cherché à comprendre les écarts entre raisonnement humain et modèles normatifs (utilité attendue, probabilités bayésiennes, etc.). Les débats qui ont suivi — notamment avec Gigerenzer et Todd (1999) — ont précisément contesté la prétention normative des premiers modèles. Autrement dit : la critique que Sornette formule en 2025 est celle que la discipline s’est déjà adressée à elle-même… dans les années 1990.

Parenthèse importante :  En français, le mot biais évoque spontanément une faute ou une distorsion : on « est biaisé » comme on « a tort ». Or, dans la littérature scientifique anglophone, le terme bias n’a pas du tout cette connotation. Il signifie d’abord une inclinaison, une orientation, voire une simple régularité dans la manière dont nous traitons l’information. Ce n’est que dans certains contextes — statistiques, expérimentaux ou comportementaux — que le mot prend un sens évaluatif, lorsqu’on compare la tendance observée à un modèle de référence. Mais y voir une notion intrinsèquement normative relève du contresens. Bias décrit un écart régulier, pas une faute. Le reste est une projection linguistique française, qui alimente d’ailleurs la confusion entre biais, erreur et illusion.

Ce que l’on appelle « biais » n’implique donc pas nécessairement une erreur, mais un écart par rapport à un modèle de référence. Selon le cadre choisi, cet écart peut être une faute logique (dans la tradition de Kahneman) ou une stratégie efficace dans un environnement donné (dans la lignée de Gigerenzer). La psychologie contemporaine ne tranche pas entre les deux : elle décrit les conditions où nos heuristiques sont performantes, et celles où elles échouent. En ce sens, le mot « biais » ne désigne pas une pathologie de la pensée, mais une économie cognitive dont l’adaptation dépend du contexte.

 

Si comme un cognitiviste des années 80 vous ne pensez qu’en termes de logique formelle basique, le jeu « Pierre-Feuille-Ciseaux » est un paradoxe insoluble, puisqu’il ne respecte pas la règle élémentaire de transitivité. La feuille est plus forte que la pierre, plus forte que les ciseaux, donc logiquement la feuille est plus forte que les ciseaux. Non ? Fâcheux : vous êtes irrationnels au sens de la psychologie cognitive. C’est parfaitement stupide.

« Démonstration » made in Dr Sornette

 

Intermède : la rhétorique sans sources

Le plus étonnant, dans cette charge contre la psychologie cognitive, est l’absence totale de sources. Le billet ne cite ni un article scientifique, ni même le moindre exemple de vulgarisation fautive. Il se contente d’affirmations générales et d’ironie, sans jamais étayer ses jugements. Cette posture confère au texte un ton d’autorité sans preuve, exactement ce qu’il reproche à la psychologie. Une critique scientifique, même radicale, suppose un examen des textes, des protocoles, des débats internes. Ici, rien de tout cela : le lecteur doit se contenter de croire l’autrice sur parole. L’ironie est cruelle : en dénonçant des chercheurs accusés de « réifier » leurs concepts, elle réifie elle-même ses cibles — les « cognitivistes », les « vulgarisateurs », les « zététiciens » — comme des figures mythiques interchangeables.

 

3. Les systèmes 1 et 2 : une cible en carton

Autre cible du billet : la théorie des deux systèmes (ou dual-process theory), que l’autrice présente comme une fable dépassée — deux modes de raisonnement, l’un intuitif et rapide, l’autre réfléchi et lent, sans qu’on sache ce qui déclenche le passage de l’un à l’autre.

Problème : cette description n’a jamais été défendue par aucun chercheur identifiable. Le texte ne cite ni Kahneman, ni Stanovich, ni Evans, ni aucun ouvrage de psychologie cognitive. Il ne mentionne pas davantage les vulgarisateurs qu’il prétend critiquer. L’attaque repose donc sur une caricature anonyme : un « système 1 » et un « système 2 » qui seraient présentés comme des interrupteurs mentaux sans support empirique.

En réalité, les modèles contemporains ne parlent plus de « systèmes », mais de processus à deux vitesses (Evans & Stanovich, 2013) situés sur un continuum d’automaticité, d’attention et de contrôle. Ces modèles ont été affinés depuis trente ans, intégrant la variabilité contextuelle et les interactions entre cognition et environnement. L’idée même que le cerveau fonctionnerait comme une bascule entre deux modules indépendants est une simplification rhétorique, jamais un énoncé scientifique.

Enfin, l’un des rares arguments concrets du billet — « on ne peut pas entraîner son intuition » — contredit directement les données issues de la recherche sur l’expertise. De nombreux travaux (Klein, 1998 ; Kahneman & Klein, 2009) montrent que l’intuition peut se calibrer dans des environnements prévisibles et à forte rétroaction, comme la médecine d’urgence ou la navigation aérienne. Là encore, la critique attaque une version imaginaire du modèle, sans s’appuyer sur aucune donnée ni sur aucun texte réel.

L’autrice ne réfute donc pas la théorie du double processus ; elle attaque une parodie qu’elle a elle-même inventée.

 

Autre émission sur le sujet avec Wim de Neys, chercheur CNRS en psychologie du raisonnement.

 

4. « A-théorique », vraiment ?

La psychologie cognitive n’est pas exempte de défauts : paradigmes simplifiés, dépendance excessive à des échantillons d’étudiants, et fameuse crise de la reproductibilité qui a secoué toute la discipline.
Mais, contrairement à ce que suppose l’autrice, cette crise a provoqué une profonde réforme méthodologique : pré-enregistrement des hypothèses, réplications multicentriques, ouverture systématique des données, statistiques bayésiennes et culture de transparence (Nosek et al., 2018). Autrement dit, la psychologie cognitive a fait le travail épistémologique qu’elle lui reproche de négliger.

Cette observation met aussi en lumière un contraste que la polémiste omet : les sciences de l’éducation, dont elle est issue, restent largement épargnées par ces exigences de vérification et de reproductibilité ; j’y reviendrai. Qu’une chercheuse issue de ce champ reproche à la psychologie cognitive son « a-théoricité » a donc quelque chose d’ironiquement déplacé : la discipline depuis laquelle elle parle n’a jamais produit, ni revendiqué, un niveau de formalisation comparable.

Qualifier la recherche sur les biais cognitifs de « cryptozoologie » n’est pas seulement une provocation : c’est une erreur d’échelle scientifique, qui trahit une méconnaissance du paysage actuel. Le champ le plus critiqué est, paradoxalement, celui qui s’est le plus réformé.

 

5. Le point juste : l’instrumentalisation managériale des biais

Là où le billet frappe juste, c’est dans sa mise en cause de l’instrumentalisation du concept de biais cognitifs. Depuis quelques années, l’expression s’est banalisée dans les médias, les formations professionnelles, le marketing et les discours politiques. On propose de « corriger ses biais » comme on ferait du coaching mental, ou d’apprendre à « libérer son cerveau » comme s’il s’agissait d’une compétence individuelle isolée.

Cette dérive existe bel et bien. Elle détourne un outil descriptif — conçu pour comprendre nos limites cognitives — en morale comportementale : on demande aux individus de se “déprogrammer” eux-mêmes au lieu d’interroger les environnements qui favorisent l’erreur, la désinformation ou la manipulation. Mais reconnaître cette dérive ne revient pas à nier la valeur scientifique du concept. Ce n’est pas la psychologie cognitive qu’il faut incriminer, mais l’usage qu’en font certains formateurs, communicants ou institutions lorsqu’ils vident la notion de sa dimension contextuelle et la réduisent à un slogan.

Les biais cognitifs ne sont pas incompatibles avec une lecture sociale ; ils l’ont simplement longtemps laissée de côté. Les travaux récents sur la cognition sociale et morale intègrent explicitement des variables contextuelles : statut, appartenance de groupe, culture, hiérarchie. Ainsi, Haslam et Reicher (2017) ont montré que la « conformité » dépend du cadre identitaire partagé plutôt que d’une simple tendance universelle à suivre la majorité. De même, les recherches sur le motivated reasoning (Kunda, 1990 ; Druckman & McGrath, 2019) articulent la motivation individuelle et l’environnement idéologique. Le champ se déplace donc : il reconnaît que nos biais sont situés dans des structures sociales, politiques et culturelles.

Reste à poursuivre ce travail, car l’héritage individualisant des premiers modèles pèse encore sur la vulgarisation et l’enseignement. Autrement dit, le problème n’est pas l’absence de conscience sociale dans la psychologie cognitive, mais son retard d’intégration.

L’éducation à l’esprit critique ne consiste pas à réciter une liste de biais, mais à comprendre les mécanismes — cognitifs, émotionnels et sociaux — qui rendent ces biais opérants.
Sur ce point, la dénonciation de Sornette rappelle pertinemment l’importance d’une approche systémique, mais elle se trompe d’adversaire : ce n’est pas la recherche, ni la vulgarisation qu’il faut blâmer, c’est sa caricature utilitariste.

 

6. Un angle mort disciplinaire

Reste à situer la position depuis laquelle s’énonce cette critique. Docteure en sciences de l’éducation, elle emprunte à sa discipline un regard critique sur les conditions d’apprentissage, la construction des savoirs et la didactique. C’est une perspective précieuse quand elle analyse la transmission des concepts scientifiques. Mais elle franchit une ligne épistémologique lorsqu’elle prétend invalider une discipline entière depuis l’extérieur, sans dialogue avec sa littérature interne.

C’est d’autant plus problématique que les sciences de l’éducation, jeunes et éclatées, connaissent elles-mêmes des faiblesses importantes : faible cumulativité, pluralité de paradigmes, dépendance à des cadres théoriques importés. Autrement dit, l’autrice reproche à la psychologie ce que sa propre discipline n’a pas encore résolu. Sa posture revient donc à une critique externe — légitime politiquement, mais épistémologiquement inconsistante. Elle confond le discours vulgarisé sur les biais avec la recherche elle-même, et la rhétorique militante avec la réfutation scientifique.

 

7. Une colère spectaculaire, mais mal dirigée

La puissance du texte tient avant tout à sa mise en scène de la colère. Ce registre, efficace sur le plan rhétorique, donne l’illusion d’une indignation scientifique alors qu’il s’agit surtout d’un ressentiment polémique. Depuis plusieurs années, l’autrice s’emploie à disqualifier le milieu sceptique et les chercheurs qui vulgarisent la psychologie expérimentale, sans jamais produire d’analyse méthodique ni de réfutation documentée.

Sa virulence ne traduit pas une exigence de rigueur, mais la frustration d’une critique demeurée sans écho dans la communauté scientifique, indifférente, précisément, parce que ses arguments ne tiennent pas.

Ce qui transparaît ici, ce n’est pas une dénonciation fondée, mais une confusion entre rejet social et réfutation épistémologique. L’autrice s’en prend aux figures visibles de la vulgarisation — zététiciens, psychologues, médiateurs — comme si leur notoriété prouvait l’inanité de leurs concepts. Elle confond l’audience avec l’autorité, et la popularité avec la fausseté.

Ainsi, en prétendant invalider la notion même de biais cognitifs, elle commet la même erreur que ceux qu’elle accuse de simplisme : elle réifie un modèle pour mieux le démolir, sans voir qu’il n’a jamais été présenté comme une entité. La colère ne saurait se substituer à un démonstration circonstanciée.

 

Conclusion

Les biais cognitifs ne sont pas des vérités gravées dans le marbre : ce sont des outils descriptifs destinés à rendre compte des régularités de notre jugement dans un environnement incertain.
Certains modèles sont discutables, d’autres contextuels, plusieurs surexploités ; c’est le propre d’une science vivante. Mais les rejeter en bloc, au nom d’un scepticisme indigné, revient à confondre la critique de la science avec son rejet — et à transformer une question de méthode en posture morale.

Il existe bien un problème dans la recherche sur les biais, mais ce n’est pas celui que pointe Sornette.
C’est celui, mieux documenté, de l’inflation ontologique : à force de multiplier les « biais » supposément distincts, la littérature en vient parfois à redécrire plusieurs fois le même phénomène sous des noms différents.

Comme l’ont montré Ōeberst et Imhoff (2023), nombre de ces effets peuvent être compris dans un cadre commun de traitement de l’information conforme aux croyances (belief-consistent information processing). Autrement dit, la science des biais doit aller vers plus de parcimonie. Je le disais déjà il y a deux ans, le 8 novembre 2023 dans cette vidéo :

 

Cette autocritique existe donc déjà au sein du champ scientifique, et les vulgarisateurs qui prennent ce travail au sérieux s’en inspirent depuis longtemps. Et depuis longtemps l’accent est mis pour reconnaître la complexité, éviter la surenchère classificatoire, rappeler que nos biais sont situés dans des contextes sociaux, culturels et émotionnels.

Sornette se permet d’appeler « escroquerie » un champ disciplinaire et le patient travail de vulgarisation qui s’y rattache au sein d’un texte qui déborde de hargne mais manque de source. C’est d’autant plus regrettable qu’en pleine Fête de la science, on aurait pu espérer une mise en valeur du débat public éclairé, plutôt qu’un sabordage rhétorique.

 

 

Acermendax

Lecture conseillée : Quand est-ce qu’on biaise ?


Références

  • Druckman, J. N., & McGrath, M. C. (2019). The evidence for motivated reasoning in climate change preference formation. Nature Climate Change, 9(2), 111–119.
  • Evans, J. St. B. T., & Stanovich, K. E. (2013). Dual-process theories of higher cognition: Advancing the debate. Perspectives on Psychological Science, 8(3), 223–241.
  • Gigerenzer, G., Todd, P. M., & The ABC Research Group. (1999). Simple heuristics that make us smart. Oxford University Press.
  • Haslam, S. A., Reicher, S. D., & Platow, M. J. (2020). The New Psychology of Leadership: Identity, Influence and Power (2nd ed.).
  • Kahneman, D., & Klein, G. (2009). Conditions for intuitive expertise: A failure to disagree. American Psychologist, 64(6), 515–526.
  • Kahneman, D., & Tversky, A. (1974). Judgment under uncertainty: Heuristics and biases. Science, 185(4157), 1124–1131.
  • Kunda, Z. (1990). The case for motivated reasoning. Psychological Bulletin, 108(3), 480–498.
  • Nosek, B. A., Ebersole, C. R., DeHaven, A. C., & Mellor, D. T. (2018). The preregistration revolution. Proceedings of the National Academy of Sciences, 115(11), 2600–2606.
  • Ōeberst, A., & Imhoff, R. (2023). Toward parsimony in bias research: A proposed common framework of belief-consistent information processing for a set of biases. Perspectives on Psychological Science. Advance online publication.
  • Simon, H. A. (1955). A behavioral model of rational choice. The Quarterly Journal of Economics, 69(1), 99–118.

 

0 réponses

Laisser un commentaire

Rejoindre la discussion?
N’hésitez pas à contribuer !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *