Trop de biais cognitifs partout ?! [Lecture d’article scientifique]

Ce billet est la traduction d’un article scientifique paru dans le journal Perspectives on Psychological Science en mars 2023.

Vous pouvez trouver l’article original via ce lien.


Vers la parcimonie dans la recherche sur les biais : Une proposition de cadre commun de Traitement de l’information cohérent avec les croyances pour un ensemble de biais

Titre original :  Toward Parsimony in Bias Research: A Proposed Common Framework of Belief-Consistent Information Processing for a Set of Biases.

Les auteurs sont : Aileen Oeberst (1,2) et Roland Imhoff (3)

Les numéros renvoient à leurs affiliations :  1 Département de psychologie des médias, Université de Hagen ; 2 Leibniz-Institut für Wissensmedien, Tübingen ;  3 Département de psychologie sociale et juridique, Université Johannes Gutenberg de Mayence.

La manière dont il faut citer cet article en référence est  : Oeberst, A., & Imhoff, R. (2023). Toward Parsimony in Bias Research: A Proposed Common Framework of Belief-Consistent Information Processing for a Set of Biases. Perspectives on Psychological Science, 0(0). https://doi.org/10.1177/17456916221148147

 

Résumé

L’une des principales conclusions de la recherche en psychologie est que le traitement de l’information par les individus est souvent biaisé. À ce jour, un certain nombre de biais différents ont été identifiés et démontrés de manière empirique. Malheureusement, ces biais ont souvent été examinés dans des programmes de recherche distincts, empêchant ainsi la reconnaissance de principes communs. Nous soutenons ici que plusieurs biais, jusqu’à présent sans rapport les uns avec les autres (par exemple, l’angle mort, le biais de l’hostilité des média, le biais égocentrique/ethnocentrique, le biais de résultat) peuvent être attribués à la combinaison d’une croyance préalable fondamentale et de la tendance des humains à traiter l’information en fonction de cette croyance. Ce qui varie entre les différents biais est essentiellement la croyance spécifique qui guide le traitement de l’information. Plus important encore, nous proposons que les différents biais partagent la même croyance sous-jacente et ne diffèrent que par le résultat spécifique du traitement de l’information qui est évalué (c’est-à-dire la variable dépendante), ce qui permet d’exploiter différentes manifestations du même traitement latent de l’information. En d’autres termes, nous proposons à la discussion un modèle qui suffit à expliquer plusieurs biais différents. Nous suggérons ainsi une approche plus parcimonieuse par rapport aux explications théoriques actuelles de ces biais. Nous générons également de nouvelles hypothèses qui découlent directement de la nature intégrative de notre perspective.

 

La lecture commentée de la version française est disponible en vidéo ici :

 

Corps de l’article

L’une des conclusions essentielles de la recherche en psychologie est que le traitement de l’information par l’être humain est souvent biaisé. Par exemple, les gens surestiment la mesure dans laquelle leurs opinions et croyances sont partagées (Nickerson, 1999), et ils appliquent des normes différentes dans l’évaluation du comportement selon qu’il s’agit d’un membre de leur propre groupe ou d’un autre groupe (Hewstone et al., 2002), pour n’en citer que quelques-uns. Pour beaucoup de ces biais, il existe de nombreux courants de recherche qui, pour la plupart, ne se réfèrent pas les uns aux autres. Comme ces efforts de recherche parallèles peuvent nous empêcher de détecter des principes communs, le présent article vise à rassembler un ensemble de biais en suggérant qu’ils pourraient en fait partager la même « recette ». Plus précisément, nous suggérons qu’ils sont basés sur des croyances antérieures et sur un traitement de l’information cohérent avec les croyances. En d’autres termes, nous posons la question de savoir si un nombre fini de biais différents – au niveau du processus – représentent des variantes du « biais de confirmation », ou la tendance des gens à traiter l’information d’une manière qui est conforme à leurs croyances antérieures (Nickerson, 1998). Plus important encore, nous soutenons que les différents biais peuvent être ramenés aux mêmes croyances fondamentales sous-jacentes et nous expliquons pourquoi au moins certaines de ces croyances fondamentales sont probablement largement répandues parmi les humains. En d’autres termes, nous soumettons à la discussion un cadre unificateur susceptible de fournir une approche plus parcimonieuse de l’analyse des biais.

 

 

Le tableau 1 présente les biais ayant fait l’objet de recherches antérieures. Et nous soutenons que la recherche sur les biais respectifs devrait préciser si et comment ces biais dépassent réellement le biais de confirmation. Le cadre proposé implique également plusieurs nouvelles hypothèses testables, offrant ainsi un potentiel génératif au-delà de sa fonction intégrative. Nous commençons par exposer les fondements de notre raisonnement. Tout d’abord, nous définissons les « croyances » et nous fournissons des preuves de leur ubiquité.

Deuxièmement, nous décrivons les nombreuses facettes du traitement de l’information conforme aux croyances et nous expliquons son omniprésence. Dans la troisième partie de l’article, nous examinons un ensemble non exhaustif de biais traités jusqu’à présent de manière indépendante (par exemple, l’effet de projecteur, l’effet du faux consensus, le biais de l’angle mort, l’effet d’hostilité des média) et la manière dont ils peuvent être rattachés à l’une des deux croyances fondamentales et au traitement de l’information cohérent avec les croyances. Nous élargissons ensuite notre périmètre et discutons de plusieurs autres phénomènes auxquels le même raisonnement pourrait s’appliquer. Enfin, nous présentons une discussion intégrée de ce cadre, de son applicabilité plus large et de ses limites potentielles.

 

 

L’omniprésence des croyances et le traitement de l’information cohérente avec les croyances

Comme nous affirmons qu’un ensemble de biais est essentiellement basé sur une croyance préalable et un traitement de l’information conforme à la croyance, nous commençons par développer ces deux parties de la recette. Tout d’abord, nous décrivons la manière dont nous conceptualisons les croyances et nous soutenons qu’elles sont un élément indispensable de la cognition humaine. Ensuite, nous présentons les nombreuses voies par lesquelles le traitement de l’information cohérente avec les croyances peut se dérouler et nous présentons les recherches qui témoignent de son omniprésence.

 

Croyances

Nous considérons les croyances comme des hypothèses sur un aspect du monde qui s’accompagnent de la notion d’exactitude – soit parce que les gens examinent le statut de vérité des croyances, soit parce qu’ils ont déjà une opinion sur l’exactitude des croyances. Les croyances au sens philosophique du terme (c’est-à-dire « ce que nous considérons comme vrai  » ; Schwitzgebel, 2019) entrent dans cette catégorie (par exemple, « C’était le plus grand rassemblement public pour une inauguration » ; « L’homéopathie est efficace » ; « La hausse des températures est due à l’homme »), tout comme la connaissance, un cas particulier de croyance (c’est-à-dire une croyance vraie justifiée ; Ichikawa & Steup, 2018).

A la suite de cette conceptualisation, certaines caractéristiques sont pertinentes pour le présent objectif.

  • Premièrement, les croyances peuvent être vraies ou non.
  • Deuxièmement, les croyances peuvent résulter d’un traitement ou d’une réflexion délibérée, quel qu’en soit le degré.
  • Troisièmement, les croyances peuvent être entretenues avec n’importe quel degré de certitude.
  • Quatrièmement, les croyances peuvent être facilement vérifiables (par exemple, « Le Canada est plus grand que les États-Unis ») après certaines spécifications (par exemple, « Je suis rationnel »), partiellement vérifiables (par exemple, non falsifiables ; par exemple, « Les expériences traumatiques sont réprimées »), ou pas vérifiables du tout (par exemple, « La liberté est plus importante que la sécurité »).

Le fait qu’une croyance soit fausse, totalement dénuée de fondement ou non vérifiable n’a pas d’importance dans le cadre de la présente étude. Tout ce qui compte, c’est que la personne qui détient cette croyance ait une opinion sur son statut de vérité ou qu’elle examine son statut de vérité.

 

L’omniprésence des croyances

De nombreuses recherches suggèrent que le système cognitif humain est adapté à la production de croyances sur le monde : Une pléthore incroyable de recherches psychologiques sur les schémas, les scripts, les stéréotypes, les attitudes (même à l’égard d’entités inconnues ; Lord & Taylor, 2009), le traitement top-down, mais aussi l’impuissance apprise et une multitude d’autres phénomènes démontrent que nous formons facilement des croyances en généralisant à travers des objets et des situations (par exemple, W. F. Brewer & Nakamura, 1984 ; Brosch et al, 2010 ; J. S. Bruner & Potter, 1964 ; Darley & Fazio, 1980 ; C. D. Gilbert & Li, 2013 ; Greenwald & Banaji, 1995 ; Hilton & von Hippel, 1996 ; Kveraga et al., 2007 ; Maier & Seligman, 1976 ; Mervis & Rosch, 1981 ; Roese & Sherman, 2007).

En outre, les personnes (ainsi que certains animaux) génèrent des croyances sur le monde même lorsque c’est inapproprié, car il n’existe en fait aucun schéma systématique qui permettrait de construire de telles attentes (par exemple, A. Bruner & Revusky, 1961 ; Fiedler et al., 2009 ; Hartley, 1946 ; Keinan, 2002 ; Langer, 1975 ; Riedl, 1981 ; Skinner, 1948 ; Weber et al., 2001 ; Whitson & Galinsky, 2008).

 

Les explications de ces superstitions, mais aussi d’une variété de croyances non testables ou injustifiées, font constamment référence aux avantages découlant de croyances même illusoires. Croire en une sorte de force supérieure (par exemple, Dieu), par exemple, peut fournir des explications pour des phénomènes pertinents dans le monde (par exemple, le tonnerre, la souffrance omniprésente dans le monde) et peut ainsi augmenter les perceptions de prévisibilité, de contrôle, d’efficacité personnelle et même de justice, qui se sont toutes avérées bénéfiques pour les individus, même si elles sont illusoires (par exemple, Alloy & Abramson, 1979 ; Alloy & Clements, 1992 ; Day & Maltby, 2003 ; Green & Elliott, 2010 ; Kay, Gaucher, et al., 2010 ; Kay, Moscovitch, & Laurin, 2010 ; Langer, 1975 ; Taylor & Brown, 1988, 1994 ; Taylor et al., 2000 ; Witter et al., 1985).

Les idées religieuses, en particulier, ont en outre favorisé la communion, la coexistence ordonnée et même la coopération entre les individus, ce qui a profité tant aux individus qu’à des groupes entiers (par exemple, Bloom, 2012 ; Dow, 2006 ; Graham & Haidt, 2010 ; Johnson &Fowler, 2011 ; Koenig et al., 1999 ; MacIntyre, 2004 ;Peoples & Marlowe, 2012). En effet, il existe de nombreuses croyances injustifiées, voire carrément fausses, qui n’ont pas de conséquences néfastes (immédiates et donc probablement détectables) ou qui entraînent même des conséquences positives (pour les effets placebo, voir Kaptchuk et al., 2010 ; Kennedy & Taddonio, 1976 ; Price et al., 2008 ; pour la pensée magique, voir Subbotsky, 2004 ; pour la croyance en un monde juste, voir Dalbert, 2009 ; Furnham, 2003), ce qui favorise le maintien de ces croyances.

Au-delà des démonstrations de la disposition des gens à former des croyances, la recherche a affirmé à plusieurs reprises la tendance des gens à ne pas tolérer l’ambiguïté et l’incertitude et a constaté une préférence pour la  » fermeture cognitive  » (c’est-à-dire un esprit résolu), (Dijksterhuis et al., 1996 ; Furnham & Marks, 2013 ; Furnham & Ribchester, 1995 ; Kruglanski & Freund, 1983 ; Ladouceur et al., 2000 ; Webster & Kruglanski, 1997). Dernier point, mais non des moindres, D. T. Gilbert (1991) a présenté des arguments solides en faveur de l’approche spinozienne selon laquelle la compréhension de quelque chose est si étroitement liée à la croyance que les croyances ne peuvent être rejetées qu’après une réflexion délibérée – et peuvent néanmoins affecter notre comportement (Risen, 2016). En d’autres termes, les croyances émergent au moment même où nous comprenons quelque chose au sujet du monde. Les enfants comprennent (et donc croient) que quelque chose se passe bien avant d’avoir développé les capacités cognitives nécessaires pour nier les propositions (Pea, 1980). Après tout, les enfants sont continuellement exposés à un environnement (par exemple, l’expérience, la langue, la culture, le contexte social) qui fournit une source incroyablement riche de croyances transmises de manière subtile ou flagrante et qui, par conséquent, façonnent effectivement les visions du monde et les croyances des êtres humains dès le tout début. Dans l’ensemble, les recherches ont montré que les gens génèrent facilement des croyances sur le monde (D. T. Gilbert, 1991 ; voir aussi Popper, 1963). Par conséquent, les croyances sont un élément indispensable de la cognition humaine.

 

Traitement de l’information conforme aux croyances – facettes et ubiquité

À ce jour, les chercheurs ont accumulé de nombreuses preuves que les croyances servent de point de départ à la manière dont les gens perçoivent le monde et traitent l’information à son sujet. Par exemple, les individus ont tendance à rechercher dans l’environnement des caractéristiques plus probables selon l’hypothèse (c’est-à-dire la croyance) que selon l’alternative (« test positif » ; Zuckerman et al., 1995). Les gens choisissent également des informations conformes à leurs croyances plutôt que des informations non conformes à leurs croyances (« exposition sélective » ou « biais de congénialité » (Note de la TeB : congénial = conforme avec mes attitudes) ; pour une méta-analyse, voir Hart et al., 2009). Ils ont tendance à percevoir à tort les nouvelles informations comme confirmant leurs propres croyances antérieures (« assimilation biaisée » ; pour une vue d’ensemble, voir Lord & Taylor, 2009 ; « biais d’évaluation » ; par exemple, Sassenberg et al, 2014) et à discréditer les informations qui ne correspondent pas à leurs croyances antérieures (« scepticisme motivé » ; Ditto & Lopez, 1992 ; Taber & Lodge, 2006 ; « biais de disconfirmation » ; Edwards & Smith, 1996 ; « biais de parti- cipation » ; Ditto et al., 2019). Parallèlement, les gens ont tendance à s’accrocher à leurs croyances malgré les preuves contraires (« persévérance dans les croyances » ; C. A. Anderson et al., 1980 ; C. A. Anderson & Lindsay, 1998 ; Davies, 1997 ; Jelalian & Miller, 1984) qui, à leur tour, peuvent être expliquées et complétées par d’autres lignes de recherche. Le « sous-typage », par exemple, permet de conserver une croyance en classant les informations incompatibles avec la croyance dans une catégorie supplémentaire (par exemple, les « exceptions » ; pour un aperçu, voir Richards & Hewstone, 2001). De même, l’application de critères d’évaluation différents aux informations conformes et non conformes aux croyances favorise systématiquement la « persévérance des croyances » (par exemple, Sanbonmatsu et al., 1998 ; Trope & Liberman, 1996 ; voir également Koval et al., 2012 ; Noor et al., 2019 ; Tarrant et al., 2012).

 

En partie, les personnes maintiennent des croyances encore plus fortes après avoir été confrontées à des preuves de disconfirmation (« effet de disconfirmation des croyances » ; Bateson, 1975 ; voir également la « théorie de la dissonance cognitive » ; Festinger, 1957 ; Festinger et al., 1955/2011).

Tous les phénomènes mentionnés ci-dessus sont des expressions du principe de traitement de l’information conforme aux croyances (voir également Klayman, 1995). En d’autres termes, bien que les spécificités de la tâche, l’étape du traitement de l’information et la mesure dépendante puissent varier, tous ces phénomènes démontrent la tendance systématique à un traitement de l’information cohérent avec les croyances. En d’autres termes, le traitement de l’information conforme aux croyances apparaît à tous les stades du traitement de l’information, tels que l’attention (par exemple, Rajsic et al., 2015), la perception (par exemple, Cohen, 1981), l’évaluation de l’information (par exemple, Ask & Granhag, 2007 ; Ask & Granhag, 2007 ; Cohen, 1981), Ask & Granhag, 2007 ; Lord et al., 1979 ; Richards & Hewstone, 2001 ; Taber & Lodge, 2006), la reconstruction de l’information (par exemple, Allport & Postman, 1947 ; Bartlett, 1932 ; Kleider et al, 2008 ; M. Ross & Sicoly, 1979 ; Sahdra & Ross, 2007 ; Snyder & Uranowitz, 1978), et la recherche de nouvelles informations (par exemple, Hill et al., 2008 ; Kunda, 1987 ; Liberman & Chaiken, 1992 ; Pyszczynski et al, 1985 ; Wyer & Frey, 1983) – y compris la propre élicitation de ce qui est recherché (« prophétie auto-réalisatrice » ; Jussim, 1986 ; Merton, 1948 ; Rosenthal & Jacobson, 1968 ; Rosenthal & Rubin, 1978 ; Sheldrake, 1998 ; Snyder & Swann, 1978 ; Watzlawick, 1981). En outre, de nombreuses étapes (par exemple, l’évaluation) permettent d’appliquer diverses stratégies (par exemple, ignorer, sous-estimer, discréditer, recadrer). Par conséquent, les individus disposent d’un grand nombre d’options (pensez aux combinaisons), de sorte que les degrés de liberté dans leur traitement de l’information permettent d’innombrables possibilités de traitement de l’information conforme aux croyances, ce qui peut expliquer comment des conclusions conformes aux croyances apparaissent même dans les circonstances les moins probables (par exemple, Festinger et al., 1955/2011).

En résumé, le traitement de l’information conforme aux croyances semble être un principe fondamental dans le traitement de l’information humaine qui est non seulement omniprésent (par exemple, Gawronski & Strack, 2012 ; Nickerson, 1998 ; voir aussi Abelson et al., 1968 ; Feldman, 1966), mais aussi une conditio humana. Cette notion se reflète également dans le fait que la motivation n’est pas une condition préalable nécessaire pour s’engager dans un traitement de l’information cohérent avec les croyances : Plusieurs études ont montré que le traitement de l’information conforme aux croyances se produit pour des hypothèses pour lesquelles les gens n’ont pas d’enjeu dans le résultat spécifique et donc pas d’intérêt dans des conclusions particulières (c’est-à-dire le raisonnement motivé ; Kunda, 1990 ; par exemple, Crocker, 1982 ; Doherty et al., 1979 ; Evans, 1972 ; Klayman & Ha, 1987, 1989 ; Mynatt et al., 1978 ; Sanbonmatsu et al., 1998 ; Skov & Sherman, 1986 ; Snyder & Swann, 1978 ; Snyder & Uranowitz, 1978 ; Wason, 1960). En outre, les recherches menées sous l’appellation « Biais contextuel » peuvent être classées dans la catégorie des biais de confirmation non motivés, car ils montrent comment les caractéristiques contextuelles (par exemple, les informations préalables sur la crédibilité d’une personne) peuvent fausser le traitement de l’information (par exemple, l’évaluation de la qualité d’une déclaration de cette personne ; par exemple, Bogaard et al., 2014 ; voir également Dror et al., 2006 ; Elaad et al., 1994 ; Kellaris et al., 1996 ; Risinger et al., 2002). En d’autres termes, les mêmes mécanismes s’appliquent, quel que soit l’intérêt des personnes pour le résultat (Trope & Liberman, 1996). Par conséquent, le traitement de l’information conforme aux croyances a lieu même lorsque les personnes ne sont pas motivées pour confirmer leurs croyances. En outre, le traitement d’informations conformes aux croyances a été démontré même lorsque les personnes sont motivées pour être impartiales (par exemple, Lord et al., 1984), ou du moins lorsqu’elles veulent paraître impartiales. C’est souvent le cas en laboratoire, où les participants sont motivés pour cacher leurs croyances (pour un aperçu de la discrimination subtile, voir Bertrand et al., 2005). Mais c’est encore plus vrai dans la recherche scientifique (Greenwald et al., 1986), les enquêtes médico-légales (Dror et al., 2006 ; Murrie et al., 2013 ; Rassin et al., 2010), et dans les salles d’audience (ou la prise de décision juridique, plus généralement), où un jugement impartial est l’objectif ultime qui est rarement atteint (Devine et al…, 2001 ; Hagan & Parker, 1985 ; Mustard, 2001 ; Pruitt & Wilson, 1983 ; Sommers & Ellsworth, 2001 ; Steblay et al., 1999 ; pour des aperçus, voir Faigman et al., 2012 ; Kang & Lane, 2010). Dans l’ensemble, des recherches surabondantes démontrent que le traitement de l’information conforme aux croyances est un phénomène omniprésent pour lequel la motivation n’est pas un ingrédient nécessaire.

 

Biais réexpliqués en tant que biais de confirmation

Après avoir souligné l’omniprésence des croyances et du traitement des informations cohérentes avec les croyances, revenons à la liste non exhaustive des biais du tableau 1, pour lesquels nous proposons d’envisager l’idée qu’ils peuvent résulter de croyances partagées et d’un traitement des informations cohérent avec les croyances. Comme on peut le constater à première vue, nous regroupons des biais qui ont été étudiés dans des lignes de recherche distinctes (par exemple, le biais de l’angle mort, le biais de l’hostilité des médias). Nous soutenons que tous les biais mentionnés dans le tableau 1 pourraient, en principe, être considérés comme le résultat d’une croyance fondamentale et d’un traitement de l’information conforme à la croyance, car ils pourraient tous être basés sur une croyance fondamentale sous-jacente. En outre, en spécifiant les croyances fondamentales, nous suggérons que plusieurs biais partagent en fait la même croyance (par exemple, « je fais des évaluations correctes » ; voir tableau 1) – représentant ainsi seulement des variations dans l’expression de la croyance sous-jacente.

Bien entendu, l’approche actuelle n’exclut pas la contribution d’autres facteurs aux biais en question. Nous soulevons simplement la question de savoir si la combinaison parcimonieuse de la croyance et de l’information conforme à la croyance pourrait à elle seule fournir une explication suffisante pour prédire l’existence des biais énumérés dans le tableau 1. En d’autres termes, d’autres facteurs pourraient contribuer, atténuer ou exacerber ces biais, mais notre recette à elle seule permettrait déjà de les prédire. Voyons maintenant comment certains des biais mentionnés dans le tableau 1 pourraient être ramenés aux (mêmes) croyances fondamentales et donc être expliqués par elles – en reconnaissant le principe du traitement de l’information cohérent avec les croyances. Pour ce faire, nous détaillons les biais fondés sur deux croyances fondamentales (« Mon expérience est une référence raisonnable » et « Je fais des évaluations correctes »)

 

« Mon expérience est une référence raisonnable »

Un certain nombre de biais semblent impliquer que les gens prennent à la fois leur propre phénoménologie (actuelle) et eux-mêmes comme points de départ pour le traitement de l’information. En d’autres termes, même lorsqu’un jugement ou une tâche concerne une autre personne, les gens partent de leur propre expérience et la projettent – au moins en partie – sur les autres (par exemple, Epley et al., 2004). Par exemple, la recherche sur les phénomènes relevant de la « malédiction de la connaissance » ou de l' »égocentrisme épistémique » aborde cette question parce que les gens ont du mal à adopter une perspective plus ignorante que la leur (Birch & Bloom, 2004 ; pour une vue d’ensemble, voir Royzman et al., 2003). Les gens surestiment, par exemple, la mesure dans laquelle leur apparence et leurs actions sont remarquées par les autres (« effet de projecteur » ; par exemple, Gilovich et al., 2000), la mesure dans laquelle leurs états intérieurs peuvent être perçus par les autres (« illusion de transparence » ; par exemple, Gilovich et al, Gilovich et al., 1998 ; Gilovich & Savitsky, 1999), et la mesure dans laquelle les gens s’attendent à ce que les autres saisissent l’intention derrière un énoncé ambigu si sa signification est claire pour les évaluateurs (« transparence illusoire de l’intention » ; Keysar, 1994 ; Keysar et al., 1998). De même, les gens surestiment les similitudes entre eux-mêmes et les autres (« autoancrage » et « projection sociale » ; Bianchi et al., 2009 ; Otten, 2004 ; Otten & Epstude, 2006 ; Otten & Wentura, 2001 ; A. R. Todd & Burgmer, 2013 ; van Veelen et al, 2011 ; pour une méta-analyse, voir Robbins & Krueger, 2005), ainsi que la mesure dans laquelle les autres partagent leur propre perspective (« effet de faux consensus » ; Nickerson, 1999 ; pour une méta-analyse, voir Mullen et al., 1985).

Dans l’ensemble, un certain nombre de biais semblent résulter du fait que les gens prennent – par défaut – leur propre phénoménologie comme référence dans le traitement de l’information (voir également Nickerson, 1999 ; Royzman et al., 2003). En d’autres termes, les gens semblent – implicitement ou explicitement – considérer leur propre expérience comme un point de départ raisonnable lorsqu’il s’agit de juger les autres et ne s’adaptent pas suffisamment. Au lieu d’ignorer – ou même de déconsidérer – leur propre expérience en tant que point de départ approprié, ils persistent à s’appuyer dessus.

Lorsqu’ils évaluent, par exemple, la mesure dans laquelle les autres peuvent percevoir leur propre état intérieur, les gens agissent en croyant que leur propre expérience de leur état intérieur (par exemple, leur nervosité) est un point de départ raisonnable, qui, à son tour, guide leur traitement de l’information. Elles peuvent commencer par une question spécifique et orientée (par exemple, « Dans quelle mesure les autres remarquent-ils ma nervosité ? ») au lieu d’une question ouverte et globale (par exemple, « Comment les autres me voient-ils ? »). Les gens peuvent également se concentrer sur des informations qui sont cohérentes avec leur propre phénoménologie (par exemple, l’augmentation de leur débit de parole) comme des indices potentiels sur lesquels les autres pourraient s’appuyer. Enfin, les gens peuvent ignorer ou sous-estimer les informations qui ne sont pas cohérentes avec leur phénoménologie (par exemple, le fait que leurs membres soient complètement calmes) ou discréditer ces observations en tant qu’indices potentiellement valables pour les autres. Dans le même ordre d’idées, les gens supposent que les autres s’appuient sur les mêmes informations (par exemple, leur débit de parole accru) et qu’ils en tirent les mêmes conclusions (par exemple, leur nervosité). Tous ces éléments, ainsi que les preuves empiriques des biais décrits dans cette section, suggèrent que les gens prennent leur propre expérience comme référence lorsqu’ils traitent des informations pour arriver à des jugements concernant les autres et la façon dont les autres les voient.

Admettons maintenant que les gens considèrent, par défaut, leur propre expérience comme une référence raisonnable pour leurs jugements sur les autres. Des biais tels que l’effet de projecteur, l’illusion de transparence (de l’intention), le faux consensus et la projection sociale ne découleraient-ils pas (par défaut) de la croyance par défaut si l’on tient compte de la tendance humaine générale à traiter l’information de manière cohérente avec la croyance ? De notre point de vue, la réponse est un « oui » catégorique. Si les gens jugent la mesure dans laquelle les autres les remarquent (quelque chose à leur sujet) ou remarquent leurs états intérieurs ou leurs intentions, s’ils croient fondamentalement que leur propre expérience est une référence raisonnable et s’ils s’engagent dans un traitement de l’information cohérent avec les croyances, nous devrions – par défaut et en moyenne – observer une surestimation de la mesure dans laquelle un aspect de soi ou de ses propres états intérieurs est remarqué par les autres, comme le suggèrent l’effet de projecteur et l’illusion de la transparence (de l’intention). De même, les gens devraient surestimer la mesure dans laquelle les autres sont semblables à eux (projection sociale) et partagent leurs propres opinions et croyances (faux consensus).

Ce raisonnement pourrait rappeler les effets d’ancrage et d’ajustement (insuffisant) (Tversky & Kahneman, 1974), et il y a certainement des parallèles, de sorte que l’on pourrait parler d’une simple reformulation. Une différence cruciale réside toutefois dans le fait que nous explicitons une croyance fondamentale qui explique pourquoi les gens s’ancrent dans leur propre phénoménologie lorsqu’ils émettent des jugements sur les autres :

Ils pensent (implicitement ou explicitement) que leur propre expérience est une référence raisonnable, même pour les autres. Un autre avantage du cadre que nous proposons est qu’il reconnaît encore plus de parallèles avec d’autres biais et qu’il fournit une explication plus parcimonieuse. Après tout, nous soutenons que ces biais – dans leur essence – pourraient être compris comme une variante du biais de confirmation (basé sur une croyance partagée). En d’autres termes, nous proposons une explication qui suffit à prédire l’existence de ces biais tout en reconnaissant clairement que d’autres facteurs peuvent contribuer, atténuer ou exacerber ces biais.

 

« Je fais des évaluations correctes »

Portons notre attention sur un deuxième groupe de biais et envisageons l’idée qu’ils découlent de la croyance par défaut de faire des évaluations correctes, que les gens ont pour eux-mêmes mais pas pour les autres. Comme nous l’expliquons ci-dessous, des biais tels que l’angle mort et l’hostilité des médias sont presque des conséquences logiques de l’hypothèse simple selon laquelle les gens font des évaluations correctes.

Avoir la conviction de faire des évaluations correctes implique également de ne pas être la proie de biais. C’est précisément ce méta-biais consistant à s’attendre à ce que les autres soient plus enclins (par rapport à soi-même) à de tels biais qui a été subsumé sous le phénomène du biais de l’angle mort. Ce phénomène décrit la tendance des humains à « voir l’existence et le fonctionnement des biais cognitifs et motivationnels beaucoup plus chez les autres que chez eux-mêmes » (Pronin et al., 2002a, p. 369 ; pour des analyses, voir Pronin, 2007 ; Pronin et al., 2004). Si les gens partent de l’hypothèse par défaut qu’ils font des évaluations correctes, comme le suggère notre cadre, une partie du biais de l’angle mort s’explique d’emblée : la conviction que ses propres évaluations sont impartiales (voir aussi Frantz, 2006). Après tout, la confiance dans ses propres évaluations peut effectivement empêcher l’identification de ses propres biais et erreurs, soit en ne voyant pas la nécessité de revoir ses jugements, soit en n’identifiant pas les biais qu’ils contiennent. L’autre partie, cependant, est impliquée dans le fait que les gens n’ont pas la même croyance pour les autres (pour une notion quelque peu similaire, voir Pronin et al., 2004, 2006). Il est important de noter que nous proposons que les gens ne génèrent pas les mêmes croyances fondamentales à propos des autres, en particulier quand il s’agit d’un groupe de personnes vaste ou vague comme ceux qui sont généralement évalués dans les études (par exemple, l' »Américain moyen » ou le « camarade de classe moyen » ; Pronin et al., 2002a, 2006 ; voir également la section sur les croyances fondamentales et la motivation). La conséquence logique du fait que les gens croient en l’exactitude de leurs propres évaluations tout en n’étant pas aussi convaincus de l’exactitude des évaluations des autres est que les gens s’attendent à ce que les autres succombent aux biais plus souvent qu’ils ne le font eux-mêmes (par exemple, Kruger & Gilovich, 1999 ; Miller & Ratner, 1998 ; van Boven et al., 1999). Une autre conséquence est de supposer des erreurs de la part des autres si l’on observe des divergences entre leur jugement et le sien (Pronin, 2007 ; Pronin et al., 2004 ; Ross et al., 2004, cités par Pronin et al., 2004).

 

Le biais de l’hostilité des médias décrit le phénomène par lequel, par exemple, les partisans de groupes en conflit considèrent les mêmes reportages sur un conflit intergroupe comme biaisés contre leur propre camp (Vallone et al., 1985 ; voir aussi Christen et al., 2002 ; Dalton et al., 1998 ; Matheson & Dursun, 2001 ; Richardson et al., 2008 ; pour une méta-analyse, voir Hansen & Kim, 2011). Le raisonnement de notre cadre ici est similaire à celui appliqué au biais de l’angle mort (voir également Lord & Taylor, 2009) : Si les gens supposent que leurs propres évaluations sont correctes et que, par nature, leurs points de vue sont également impartiaux, il est presque nécessaire de supposer que les autres (personnes/médias) sont biaisés si leurs points de vue diffèrent. Les personnes qui partent du principe qu’elles font des évaluations correctes traitent les informations disponibles (par exemple, une divergence entre leur propre point de vue et les informations diffusées par les médias) d’une manière qui est cohérente avec cette croyance de base (par exemple, en attribuant la divergence à un parti pris des autres et non d’eux-mêmes). En outre, conformément à notre argument selon lequel des mécanismes plutôt généraux sont en jeu, l’effet de l’hostilité des médias a été constaté dans des échantillons représentatifs (p. ex. Gunther & Christen, 2002) et même chez des personnes moins concernées par la question en jeu (Hansen & Kim, 2011), c’est-à-dire qui ne sont pas fortement impliquées dans la question, comme Vallone et al. (1985) le considéraient initialement comme un prérequis.

En résumé, nous soutenons que l’angle mort et le parti pris hostile des médias s’expliquent essentiellement par une croyance fondamentale sous-jacente : Les gens font généralement confiance à leurs évaluations, mais n’accordent pas la même confiance aux évaluations des autres. Par conséquent, ils sont trop confiants et ne remettent pas en question leur propre jugement aussi systématiquement que celui des autres (par exemple, lorsqu’ils sont confrontés à un point de vue différent). Nous suggérons donc que ces biais sont basés sur la même recette (croyance plus traitement de l’information conforme à la croyance). Plus encore, nous suggérons que ces biais reposent sur la même croyance fondamentale : la croyance des gens qu’ils font eux-mêmes des évaluations correctes. Ce faisant, nous fournissons non seulement une explication plus parcimonieuse des différents biais, mais nous réunissons également des biais qui ont jusqu’à présent été traités comme non liés parce qu’ils ont été étudiés dans des domaines très différents de la psychologie (par exemple, alors que le biais de l’hostilité des médias est principalement abordé dans le contexte intergroupe, le biais de la tache aveugle ne l’est pas).

 

Précisions et distinctions supplémentaires

Jusqu’à présent, nous avons tenté de montrer que les biais énumérés dans le tableau 1 peuvent être considérés comme une combinaison des croyances et du traitement de l’information conforme aux croyances. Il ne s’agit pas de dire qu’aucun autre facteur ou mécanisme n’est en jeu, mais plutôt d’avancer l’idée que la croyance plus le traitement de l’information conforme à la croyance suffisent comme explication (avec le corollaire que les croyances fondamentales n’existent pas pour d’autres personnes également). Dans la section suivante, nous apportons quelques précisions à notre approche concernant le rôle des processus « innocents », de la motivation et de la délibération, qui différencient également notre approche des autres. Nous comparons également notre raisonnement à une perspective bayésienne.

 

 

Le rôle des processus innocents

Nous avons souligné à plusieurs reprises la parcimonie de notre approche, mais plusieurs explications ont été proposées qui sont encore plus parcimonieuses en ce sens qu’elles décrivent comment les biais peuvent émerger de processus innocents sans aucune croyance préalable ayant conduit les participants à tirer des conclusions biaisées (par exemple, Alves et al., 2018 ; Chapman, 1967 ; Fiedler, 2000 ; Hamilton & Gifford, 1976 ; Meiser & Hewstone, 2006). Au contraire, ce sont les caractéristiques de l’environnement (par exemple, les écologies de l’information) et les principes de base du traitement de l’information qui peuvent conduire à des conclusions profondément biaisées, selon ces auteurs (par exemple, évaluer plus négativement les membres de nouveaux groupes ou de minorités ; Alves et al., 2018). Dans ces cadres, la seule contribution des individus aux conclusions biaisées réside dans leur manque de capacités métacognitives qui leur permettraient de détecter (et de contrôler) ces biais (par exemple, Fiedler, 2000 ; Fiedler et al., 2018). De toute évidence, une différence cruciale entre ces comptes rendus et notre perspective actuelle est qu’ils partent de la notion d’individus parfaitement ouverts d’esprit qui n’ont aucune croyance pertinente (c’est-à-dire une tabula rasa), alors que notre argument principal repose sur l’hypothèse que de nombreux biais résultent en fait de croyances déjà existantes. Bien que cette différence montre déjà clairement que ces deux perspectives ne sont pas nécessairement en concurrence l’une avec l’autre, mais qu’elles pourraient en principe toutes deux contribuer aux biais (à différents stades), nous sommes très sceptiques quant à la prévalence de l’ouverture d’esprit (le fait de ne détenir aucune croyance préalable ; voir également Fiedler, 2000, p. 662).

Comme nous l’avons souligné plus haut, nous considérons les croyances comme une partie indispensable de la cognition humaine parce que les gens sont extrêmement prêts à générer des croyances sur le monde. Par conséquent, nous sommes sceptiques quant à l’existence d’un esprit véritablement ouvert (au sens où il n’a littéralement aucune croyance ou conviction préalable). Néanmoins, des circonstances innocentes (telles que l’écologie de l’information) pourraient expliquer l’origine possible d’attentes et de croyances (biaisées) là où il n’y en avait pas auparavant (voir également Nisbett & Ross, 1980 ; Sanbonmatsu et al., 1998).

 

Le rôle de la motivation

Un thème récurrent dans les explications de plusieurs biais est la notion de motivation (par exemple, Kruglanski et al., 2020). Le biais de l’angle mort, par exemple, est parfois interprété comme l’expression des motivations à la supériorité (voir Pronin, 2007). Plus généralement, pour les biais basés sur les croyances « Je suis bon » et « Mon groupe est bon », un certain nombre d’explications sont basées sur des motifs présumés d’une image positive de soi ou même d’une valorisation de soi (par ex, J. D. Brown, 1986 ; Campbell & Sedikides, 1999 ; Hoorens, 1993 ; John & Robins, 1994 ; Kwan et al., 2008 ; Sedikides & Alicke, 2012 ; Sedikides et al., 2005 ; Shepperd et al., 2008 ; Tajfel & Turner, 1986). Toutefois, d’après notre analyse, de tels antécédents motivationnels ne sont pas nécessaires pour expliquer les biais. Pour être clair, nous ne prétendons pas que la motivation n’est pas pertinente en soi. Au contraire, nous pouvons très bien imaginer que la motivation puisse amplifier chacun des biais. Cependant, nous soutenons ici que la motivation n’est pas une condition préalable nécessaire pour parvenir à l’un des biais énumérés.

Croyances fondamentales et motivation. Les gens sont-ils motivés pour faire des évaluations correctes du monde ? Probablement oui. Les gens ont-ils besoin d’un motif pour arriver à la conviction qu’ils font des évaluations correctes ? Certainement pas. Au lieu de cela, les gens peuvent simplement généraliser à l’excès à partir de leurs expériences quotidiennes (Riedl, 1981). Les gens s’attendent presque toujours correctement à ce que l’obscurité succède à la lumière, à ce que la chute survienne après un saut, à ce que la soif et la faim surviennent après une période sans eau ni nourriture, à ce que la fatigue survienne après une période prolongée d’activité intensive, à ce que les clés se trouvent là où ils les ont laissées, à ce que de l’électricité sorte des prises, à ce qu’une gueule de bois survienne après une forte consommation d’alcool, à ce que les journaux changent de contenu chaque jour, à ce que les médecins essaient d’améliorer les choses et à ce qu’un salaire soit versé régulièrement – pour ne mentionner qu’une infime partie de l’abondance d’évaluations correctes dans la vie quotidienne (D. T. Gilbert, 1991).

Cependant, toutes les évaluations ou croyances sur le monde ne sont pas correctes. Plusieurs mécanismes permettent de se rendre compte que l’on a fait des évaluations incorrectes. Tout d’abord, nous avons déjà souligné que certaines croyances peuvent être non testables ou infalsifiables, ce qui présente des avantages psychologiques car on ne peut pas prouver que l’on a tort (Friesen et al., 2015).[1]

Deuxièmement, les gens n’essaient généralement pas de falsifier/réfuter leurs croyances, même si cela est possible et souhaitable (Popper, 1963). Au lieu de cela, ils s’engagent dans les nombreuses façons de traiter les informations conformes aux croyances, comme nous l’avons souligné plus haut. Bien entendu, cela contribue également à l’existence et au maintien des croyances, et avant tout à la croyance que l’on fait des évaluations correctes (voir également Swann & Buhrmester, 2012). Après tout, traiter l’information d’une manière conforme aux croyances et « confirmer » ses croyances implique l’expérience de faire des évaluations correctes.

Troisièmement, même si nous mettons de côté la tendance humaine au traitement de l’information conforme aux croyances, il est souvent impossible pour les gens de se rendre compte de leurs évaluations incorrectes. Que ce soit parce qu’ils n’ont pas un accès direct aux processus qui influencent leurs perceptions et leurs évaluations (Nisbett & Wilson, 1977 ; Wilson & Brekke, 1994 ; Wilson et al., 2002 ; voir aussi Frantz, 2006 ; Pronin et al., 2004, 2006) ou parce qu’ils n’ont pas la référence de comparaison nécessaire pour identifier les biais. Dans le monde réel, par exemple, les gens n’ont souvent pas accès aux perceptions et aux pensées des autres, ce qui empêche généralement de reconnaître les surestimations (par exemple, de la mesure dans laquelle leurs propres états intérieurs sont remarqués par les autres, c’est-à-dire l’illusion de transparence). De même, une fois qu’une société a décidé de garder une personne en captivité en raison du danger potentiel qu’elle représente, il n’est pas possible de se rendre compte que cette personne n’était pas dangereuse. De même, les gens ne peuvent pas systématiquement relier les effets d’un placebo à leurs propres attentes (par exemple, Kennedy & Taddonio, 1976 ; Price et al., 2008), pour ne citer que quelques exemples. En d’autres termes, les gens ne peuvent pas exercer l’examen systématique qui caractérise l’examen scientifique (lequel ne garantit pas, d’ailleurs, d’échapper aux biais, p. ex. Greenwald et al., 1986) et ne détectent donc pas leurs évaluations erronées. Dans l’ensemble, pour un certain nombre de raisons, les gens se perçoivent excessivement comme faisant des évaluations correctes. Que ce soit parce qu’elles sont correctes ou parce qu’elles ne sont tout simplement pas corrigées. Une telle généralisation à une croyance fondamentale de faire des évaluations correctes pourrait donc être considérée comme une extrapolation raisonnable. Par conséquent, aucune motivation n’est nécessaire pour parvenir à cette croyance fondamentale. Nous nous attendons plutôt à ce que les individus en bonne santé soient, par défaut, des réalistes naïfs (voir également Griffin & Ross, 1991 ; Ichheiser, 1949 ; Pronin et al., 2002b ; L. Ross & Ward, 1996). Autrement dit, nous proposons que les gens partent généralement de l’hypothèse par défaut que leurs évaluations sont exactes.

Toutefois, comme les gens n’ont pas un accès immédiat aux expériences et à la phénoménologie des autres, ils n’ont pas la même croyance par défaut pour les autres. Ce point est crucial en ce qui concerne les biais. En effet, si les gens croyaient non seulement qu’ils évaluent correctement le monde, mais qu’ils croyaient en même temps et avec la même verve que les autres personnes évaluent correctement le monde, nous ne nous attendrions pas à ce que des biais tels que le « point aveugle » se produisent. Le fait que les gens n’aient pas cette conviction pour les autres n’implique pas nécessairement une motivation – la croyance peut faire défaut pour la simple raison que les gens n’ont pas un accès immédiat aux expériences des autres.

Par conséquent, la motivation n’est pas nécessaire pour parvenir à des différences entre soi et les autres à cet égard. Nous pouvons illustrer cela en regard du biais d’endogroupe : Si les gens croyaient simplement que leur propre groupe est bon (voir aussi Cvencek et al., 2012 ; Mullen et al.,1992), mais ne croyaient pas la même chose pour les autres groupes, il pourrait en résulter un favoritisme de groupe, sans que l’on suppose que les gens croient que leur groupe est meilleur que d’autres groupes. En effet, de nombreuses recherches suggèrent que les gens font preuve d’un favoritisme automatique à l’égard des groupes internes, mais pas d’un mépris automatique à l’égard des groupes externes (voir Fiske, 1998, pour une vue d’ensemble).Comme nous postulons que la motivation n’est pas nécessaire à l’émergence des croyances fondamentales, nous proposons également que la motivation ne soit pas un ingrédient nécessaire à l’obtention de résultats favorables à l’individu ou au groupe. Cette hypothèse est en contradiction avec l’explication théorique la plus communément admise pour les biais envers les groupes, à savoir l’approche de l’identité sociale (Tajfel & Turner, 1979 ; Turner et al., 1987), qui postule que (a) l’appartenance à un groupe social est un élément essentiel de l’image que les individus ont d’eux-mêmes (voir également R. Brown, 2000) et (b) les individus s’efforcent de se voir sous un jour positif. À partir de ces deux postulats, il existe une tendance fondamentale à favoriser le groupe social auquel on s’identifie (c’est- à-dire le biais d’appartenance au groupe ; par exemple, M. B. Brewer, 2007 ; Hewstone et al., 2002).

Contrairement à cette approche, nous soutenons qu’elle n’a pas besoin d’une composante motivationnelle (c’est-à- dire la recherche d’un concept de soi positif). Certes, la motivation peut s’ajouter aux biais de groupe et donc les renforcer, mais nous ne pensons pas qu’il s’agisse d’une condition préalable nécessaire. En fait, notre raisonnement est conforme à l’observation selon laquelle les gens ne font pas preuve d’une meilleure estime de soi après s’être engagés dans un biais de groupe (pour une vue d’ensemble, voir Rubin & Hewstone, 1998), comme on pourrait s’y attendre d’après la théorie originale de l’identité sociale.

Traitement de l’information conforme aux croyances et motivation.

Assez fréquemment, le traitement de l’information conforme aux croyances – comme dans le contexte du biais de confirmation – est assimilé au traitement de l’information motivé (Kunda, 1990), dans lequel les personnes sont motivées pour défendre, maintenir ou confirmer leurs croyances antérieures.

Certains auteurs ont même proposé de parler de « myside bias » plutôt que de biais de confirmation (e.g., Mercier, 2017). En fait, les croyances et la motivation vont souvent de pair : Certaines croyances sont tout simplement plus agréables que d’autres, et  » les gens trouvent plus facile de croire des propositions qu’ils aimeraient être vraies que des propositions qu’ils préféreraient être fausses  » (Nickerson, 1998, p. 197 ; voir aussi Kruglanski et al., 2018 ; sur le  » principe de Pollyanna « , voir Matlin, 2017). En outre, dans certaines croyances, les gens peuvent avoir déjà beaucoup investi (par exemple, leurs croyances sur le style parental optimal ou sur Dieu/le paradis ; par exemple, Festinger et al., 1955/2011 ; voir également McNulty & Karney, 2002), de sorte que les croyances sont psychologiquement extrêmement coûteuses à abandonner (par exemple, les idéologies/systèmes politiques que l’on a soutenus pendant longtemps ; Lord & Taylor, 2009). Par conséquent, le fait de vouloir qu’une croyance soit vraie accentue probablement un traitement de l’information conforme à la croyance (Kunda, 1990 ; voir également Tesser, 1978) et peut même inclure des composantes stratégiques (par exemple, la recherche délibérée d’informations conformes à la croyance ; Festinger, et al., 1955/ 2011 ; Yong et al., 2021).

Cependant, malgré cette association courante entre le biais de confirmation et le traitement motivé de l’information, ce dernier n’est pas une condition préalable nécessaire au premier. Au contraire, comme nous l’avons déjà souligné, le traitement d’informations conformes aux croyances a lieu lorsque les personnes ne sont pas motivées pour confirmer leurs croyances, ainsi que lorsqu’elles sont motivées pour être impartiales ou, du moins, pour paraître impartiales. Par conséquent, le traitement de l’information conforme aux croyances est un principe fondamental qui ne dépend pas de la motivation.

 

 

Le rôle de la délibération


Bien que la délibération ne soit pas totalement indépendante de la motivation, elle mérite un examen plus approfondi car elle peut être et a été considérée comme un remède aux biais. Plus précisément, la connaissance du biais spécifique, la disponibilité des ressources (par exemple, le temps), ainsi que la motivation à délibérer sont considérées comme des conditions préalables nécessaires et suffisantes pour contrer efficacement les biais selon certains modèles (par exemple, Oswald, 2014 ; pour un cas similaire, voir les solutions potentielles proposées par Nickerson, 1999). Bien que cela puisse être vrai pour les problèmes logiques qui suggèrent une solution immédiate (mais erronée) aux participants (par exemple, les erreurs « basées sur la stratégie » au sens d’Arkes, 1991), de nombreuses recherches attestent de l’incapacité des gens à corriger les biais même s’ils sont conscients du problème, incités ou motivés à les éviter, et si on leur fournit l’opportunité nécessaire (par exemple, Harley, 2007 ; Lieberman & Arndt, 2000 ; pour une méta-analyse sur l’ignorance de preuves inadmissibles, voir Steblay et al., 2006).

Une raison très plausible à cela est que les gens ne parviennent pas à prendre spontanément des contremesures efficaces (Giroux et al., 2016 ; Kelman et al., 1998). Rappelons les biais que nous avons suggérés comme pouvant résulter d’une généralisation excessive de sa propre phénoménologie. Généraliser à l’excès sa propre phénoménologie revient en fait à ignorer les informations dont on dispose. Cela peut être assez facile si la nature des informations à ignorer et le jugement à porter sont clairs, comme c’est le cas dans la plupart des paradigmes de la théorie de l’esprit (pour une vue d’ensemble, voir Flavell, 2004). Dans une étude typique sur les fausses croyances, par exemple, on demande aux gens de mettre de côté leur connaissance du fait qu’un objet a été retiré de son emplacement en l’absence d’une personne qui avait précédemment observé son emplacement, et les gens doivent indiquer l’endroit où l’autre personne penserait que l’objet se trouve. Essentiellement, l’information dans cette tâche est binaire (présent vs. non présent ; les gens doivent ignorer le fait que l’objet a été enlevé et qu’il n’est donc plus à sa place initiale). En outre, l’information à ignorer se réfère à un aspect de la réalité physique qui est (a) objectif en ce sens que l’accord interindividuel devrait être parfait à cet égard et (b) facilement accessible (voir également Clark & Marshall, 1981). Par conséquent, non seulement l’information à ignorer mais aussi son impact sur le jugement requis peuvent être identifiés sans équivoque et de manière exhaustive, et donc contrôlés efficacement.

Cependant, la situation est sensiblement différente dans les tâches qui sous-tendent l’effet de projecteur, l’illusion de transparence (de l’intention), ainsi que l’effet de faux consensus (et l’égocentrisme dans des tâches similaires ; par exemple, Chambers & De Dreu, 2014 ; pour d’autres erreurs basées sur l’association, voir Arkes, 1991). Ici, les informations à ignorer ne sont souvent pas binaires (par exemple, les émotions ou les attitudes d’une personne) et ne sont donc pas nécessairement identifiables entièrement et sans équivoque par les personnes elles-mêmes (c’est-à-dire l’étendue ou l’intensité spécifique). En outre, même sans l’obligation d’ignorer certaines informations, la tâche est beaucoup plus floue en soi (c’est-à-dire déterminer comment les autres me perçoivent, dans quelle mesure les autres peuvent déterminer ce qui se passe dans ma tête, ce que les autres ressentent à propos de certains sujets). Ces tâches manquent de l’objectivité et des connaissances nécessaires pour annuler l’influence des informations à ignorer (pour une élimination de l’effet de faux consensus si des informations représentatives sont facilement disponibles, voir Engelmann & Strobel, 2012 ; voir également Bosveld et al., 1994). Dans ces circonstances, la simple tentative d’ignorer l’information échoue probablement (par exemple, Fischhoff, 1975, 1977 ; Pohl & Hell, 1996 ; Steblay et al., 2006 ; voir également Dror et al., 2015 ; Servick, 2015). Après tout, l’information à ignorer n’est même pas clairement identifiable, pas plus que son impact sur la tâche, qui doit être déterminé pour pouvoir la corriger.

Par conséquent, la stratégie très évidente que les gens pourraient choisir – pour inhiber ou ignorer d’une certaine manière les informations dont ils disposent – est inefficace. Ainsi, le fait de présenter un biais peut ne pas être dû à un manque de délibération. En outre, la délibération (non spécifique) seule peut ne pas aider à éviter les biais (en fait, une plus grande délibération peut même entraîner un traitement de l’information plus conforme aux croyances et donc plus de biais ; Nestler et al., 2008). L’évitement des biais pourrait plutôt nécessiter une forme spécifique de délibération. Il est intéressant de noter que de nombreuses recherches montrent qu’il existe une stratégie efficace pour réduire de nombreux biais : remettre en question son point de vue actuel en recherchant activement et en générant des arguments contre lui (« considérer le contraire » ; Lord et al., 1984 ; voir également Arkes, 1991 ; Koehler, 1994). Cette stratégie s’est avérée efficace pour un certain nombre de biais différents, tels que le biais de confirmation (par exemple, Lord et al., 1984 ; O’Brien, 2009), l' »effet d’ancrage » (par exemple, Mussweiler et al., 2000) et le biais rétrospectif (par exemple, Arkes et al., 1988). Au moins en partie, il semble même que ce soit la seule contre-mesure efficace (par exemple, pour le biais de rétrospection, voir Roese & Vohs, 2012).

Il s’agit essentiellement d’un autre argument en faveur du raisonnement général de cet article, à savoir que les biais sont basés sur le même processus général, à savoir le traitement de l’information cohérent avec les croyances. En conséquence, ce n’est pas la quantité de délibération qui devrait compter, mais plutôt sa direction. Ce n’est que si les gens s’attaquent aux croyances qui guident et biaisent leur traitement de l’information et les remettent systématiquement en question en recherchant délibérément des informations incompatibles avec les croyances que nous devrions observer une réduction significative des biais, voire même une perspective impartiale. Du point de vue de notre cadre, nous pourrions donc dériver l’hypothèse selon laquelle les biais énumérés pourraient être réduits (voire éliminés) lorsque les gens considèrent délibérément le contraire de la croyance fondamentale sous-jacente proposée en recherchant explicitement des informations incompatibles avec la croyance sous-jacente proposée. En d’autres termes, nous pourrions nous attendre à une réduction significative de l’effet de projecteur, de l’illusion de transparence (de l’intention), de l’effet de faux consensus et de la projection sociale si les gens étaient amenés à considérer délibérément la notion et à rechercher des informations suggérant que leur propre expérience pourrait ne pas être une référence adéquate pour les jugements respectifs sur les autres. De même, nous nous attendrions à un effet correctif sur le biais de l’angle mort et le biais de l’hostilité des médias si les gens considéraient délibérément l’idée qu’ils ne font pas des évaluations correctes. En d’autres termes, si notre cadre est correct, la parcimonie au niveau de l’explication se traduirait également par une parcimonie au niveau de l’atténuation : La même stratégie pourrait être efficace pour divers biais.

 

Mise à jour des croyances bayésiennes

Notre cadre propose une vision unifiée de la manière dont les personnes ayant des croyances existantes traitent l’information. En tant que tel, il contient deux ingrédients qui font également partie intégrante de la mise à jour des croyances bayésiennes (par exemple, Chater et al., 2010 ; Jones & Love, 2011). Dans un monde bayésien idéalisé, les gens ont des croyances (c’est-à-dire des antécédents), et toute nouvelle information renforcera ces croyances ou les atténuera en fonction de sa cohérence avec l’antécédent. Il est toutefois important de noter que des croyances préalables solides ne seront pas modifiées de façon spectaculaire par un seul élément d’information supplémentaire faible. Au contraire, pour modifier de manière significative des croyances solidement ancrées, il faut des preuves extrêmement solides ou de nombreuses preuves contradictoires. Une expérience cumulée et cohérente du monde conduira donc souvent à une situation dans laquelle une nouvelle information semblera négligeable et n’entraînera pas une mise à jour importante des croyances. Cela peut rappeler notre approche des croyances fondamentales (c’est-à-dire fortes et préalables) associé au traitement des informations conformes aux croyances, mais il existe cependant des différences marquées, comme nous l’expliquons brièvement.

Premièrement, le traitement de l’information dans le cadre bayésien classique n’est pas biaisé. Bien que la possibilité de croyances préalables biaisées soit bien reconnue (Jones & Love, 2011), le traitement rationnel des nouvelles informations est une hypothèse fondamentale. En d’autres termes, le même élément d’information signifie exactement la même chose pour chaque destinataire ; i l affectera simplement leurs croyances à des degrés différents parce qu’ils ont des a priori différents et différemment forts. Ce point de vue est radicalement différent du nôtre, qui se concentre sur la manière dont la même information est attribuée, mémorisée, traitée, interprétée et prise en compte différemment en fonction des croyances préalables de chacun (voir également Mandelbaum, 2019). Cette notion de traitement biaisé de l’information est totalement absente du monde bayésien (voir également la section suivante). Prenons, par exemple, la découverte qu’un même comportement (par exemple, la torture) est évalué différemment selon que l’acteur est un membre de son propre groupe ou d’un autre groupe (par exemple, Noor et al., 2019 ; Tarrant et al., 2012). Ou encore, prenons l’évaluation différentielle d’une même méthode scientifique selon que son résultat est cohérent ou non avec sa croyance préalable (par exemple, Lord et al., 1979). Ces deux approches sont incompatibles avec l’idée fondamentale de la mise à jour des croyances bayésiennes. Plus généralement, notre approche concerne l’impact des croyances préalables sur le traitement de l’information plutôt que l’impact de l’information (nouvelle) sur les croyances préalables. Compte tenu de ces différences marquées, il n’est pas surprenant que de nombreuses prédictions que nous tirons de notre compréhension ne puissent être dérivées d’une perspective bayésienne de mise à jour des croyances.

 

Deuxièmement, en nous appuyant sur les nombreuses preuves empiriques du traitement des informations conformes aux croyances, nous soulignons explicitement les nombreuses façons dont les nouvelles informations sont déjà le résultat d’un traitement biaisé de l’information : Lorsque les gens s’intéressent ou recherchent sélectivement des informations conformes aux croyances (test positif, exposition sélective, biais de congénialité), lorsqu’ils reconstruisent sélectivement des informations conformes aux croyances à partir de leur mémoire et lorsqu’ils se comportent de manière à provoquer eux-mêmes le phénomène qu’ils ont recherché (prophétie autoréalisatrice), ils font déjà preuve de partialité (voir également la section suivante). Les gens sont biaisés lorsqu’ils obtiennent de nouvelles données, et ces données sont ensuite traitées ; les gens ne mettent pas simplement à jour leurs croyances sur la base des informations qu’ils rencontrent (plus ou moins arbitrairement) dans le monde. En conséquence, les gens recueillent probablement un sous-échantillon biaisé d’informations, ce qui, à son tour, conduira non seulement à des croyances antérieures biaisées, mais aussi à des croyances fortes qui sont en fait basées sur des informations assez peu nombreuses (et entièrement homogènes).

Mais il existe des façons encore plus nombreuses et plus extrêmes pour les croyances préalables de biaiser le traitement de l’information : les croyances préalables peuvent, par exemple, affecter le fait qu’une information soit considérée ou non comme informative pour les croyances d’une personne (Fischhoff & Beyth-Marom, 1983). Le fait de classer les informations incompatibles avec les croyances antérieures dans une classe supplémentaire d’exceptions (qui sont implicitement non informatives pour l’hypothèse) en est un exemple (ou sous-typage ; voir également Kube & Rozenkrantz, 2021). De même, le fait de discréditer une source d’information légitime facilement la négligence de l’information (voir le biais de disconfirmation). Dans leur forme la plus extrême, cependant, les croyances antérieures peuvent ne pas être mises à l’épreuve du tout. Au lieu de cela, les gens peuvent les traiter comme des faits ou des connaissances définitives, ce qui peut les conduire à ignorer toute autre information ou à classer les informations incompatibles avec les croyances simplement comme fausses. En résumé, notre raisonnement s’écarte du modèle de Bayes. L’approche de l’étude de l’information est très différente de celle de l’étude du traitement de l’information, en ce sens qu’elle repose sur l’hypothèse d’un traitement biaisé (par opposition à un traitement non biaisé) des informations.

Plus précisément, nous proposons que les croyances préalables biaisent le traitement des informations nouvelles ainsi que d’autres étapes du traitement de l’information, y compris celles qui permettent d’obtenir des informations (nouvelles). En outre, les hypothèses qui découlent de notre cadre ne peuvent pas être dérivées de la même manière de la perspective bayésienne.

 

Biais, rationalité et adaptabilité

Etant donné que cet article et le cadre qu’il présente portent sur les biais, il semble raisonnable d’ajouter quelques précisions à ce sujet ainsi que sur les concepts connexes. Bien que nous proposions principalement un cadre pour expliquer les biais qui ont déjà été documentés et définis par d’autres, il convient de noter que tous les biais énumérés dans le tableau 1 comprennent l’une des deux conceptualisations suivantes du terme « biais » : D’une part, certains de ces biais sont définis comme un écart systématique par rapport à une référence objectivement exacte. Par exemple, si des personnes sont convaincues que leurs opinions et croyances sont partagées dans une plus large mesure que ce n’est le cas en réalité, leur évaluation (à propos des autres) s’écarte de la référence objective (c’est-à-dire l’évaluation des autres) et indique donc un faux consensus. Essentiellement, tous les biais qui se réfèrent à une surestimation ou à une sous-estimation reposent sur la comparaison entre les jugements des personnes et la référence réelle (empirique). Cela est possible parce que le jugement lui-même se réfère à un aspect du monde qui peut être directement évalué et, par conséquent, comparé.

A l’inverse, pour plusieurs jugements, de telles références manquent pour la comparaison. Par exemple, avec quoi pourrait-on ou devrait-on comparer l’évaluation par une personne d’une méthode scientifique ou de jugements moraux pour tirer des conclusions sur les biais potentiels ? Une approche typique consiste à examiner si la même cible (par exemple, une méthode scientifique, le comportement d’une autre personne) est évaluée différemment en fonction de facteurs qui devraient en fait être considérés comme non pertinent.

En d’autres termes, le biais est ici conceptualisé (ou plutôt démontré) comme un impact de facteurs qui ne devraient pas jouer un rôle (c’est-à-dire l’influence de facteurs non garantis). Par exemple, si une méthode scientifique identique est évaluée différemment selon qu’elle soutient ou remet en cause les croyances antérieures d’une personne (c’est-à-dire qu’elle est discréditée lorsqu’elle produit des résultats incompatibles avec les croyances ; Lord et al., 1979), cela dénote un biais de disconfirmation (Edwards & Smith, 1996) ou un biais partisan (Ditto et al., 2019). De même, lorsque le même comportement (par exemple, la torture, les attaques violentes) est évalué différemment selon que l’acteur est membre de son propre groupe ou d’un autre groupe, on parle de « biais de groupe » (par exemple, Noor et al., 2019 ; Tarrant et al., 2012). En d’autres termes, le biais est ici opérationnalisé comme une différence systématique dans le traitement de l’information et son résultat comme une fonction de facteurs injustifiés.

Cette notion de facteurs injustifiés différencie également les biais d’autres phénomènes : Par exemple, nous ne parlerions pas de biais dans le cas de manipulations expérimentales (par exemple, inductions d’humeur) affectant la récupération par les individus de souvenirs heureux pour réguler leur humeur (par exemple, Josephson, 1996). Toutefois, si la même manipulation affectait la perception d’informations nouvelles (par exemple, Forgas & Bower, 1987 ; Wright & Bower, 1992), nous la classerions sous le terme générique de « biais ». Cela correspond bien à notre définition des croyances en tant qu’hypothèses sur le monde qui vont de pair avec la notion d’exactitude. Autrement dit, il s’agit de croyances qui affirment ou prétendent que quelque chose est vrai, par exemple « Je fais des évaluations correctes » ou « Je suis bon », indépendamment du fait que cela soit vrai ou non (par exemple, « C’était le plus grand rassemblement public de tous les temps pour une inauguration  » ; voir également ci-dessus).

Parce que les biais ont été conceptualisés avec un sens de l’exactitude à l’esprit et qu’une pléthore de recherches a maintenant documenté les biais cognitifs, soulignant ainsi l’inexactitude fréquente des jugements, deux questions secondaires ont été soulevées et vivement débattues dans le passé : la question de l'(ir)rationalité des biais et la question de l’adaptabilité de (certains) biais (par ex, Evans, 1991 ; Evans et al., 1993 ; Fiedler et al., 2021 ; Gigerenzer et al., 2011 ; Gigerenzer & Selten, 2001 ; Hahn & Harris, 2014 ; Haselton et al., 2009 ; Oaksford & Chater, 1992 ; Sedlmeier et al., 1998 ; Simon, 1990 ; Sturm, 2012 ; P. M. Todd & Gigerenzer, 2001, 2007). En particulier, il a été avancé que de nombreux biais et heuristiques pouvaient être considérés comme rationnels dans le contexte des situations du monde réel, dans lesquelles les personnes ne disposent pas d’une connaissance complète et ont une mémoire imparfaite ainsi que des capacités limitées (par exemple, Gigerenzer et al., 2011 ; Simon, 1990). Dans le même contexte, les chercheurs ont fait valoir que certaines des caractéristiques conduisaient à des biais principalement dans des tâches de laboratoire spécifiques tout en aboutissant à des jugements plutôt précis dans de nombreuses situations du monde réel (par exemple, Fiedler et al., 2021 ; Sedlmeier et al., 1998 ; P. M. Todd & Gigerenzer, 2001).

En d’autres termes, ils ont défendu l’adaptabilité de ces heuristiques, qui sont le plus souvent correctes, alors que la recherche se concentre sur les quelques situations (artificielles) dans lesquelles elles conduisent à des résultats incorrects (c’est- à-dire à des biais). Outre le fait que ce débat a principalement porté sur des heuristiques et des biais dont nous ne traitons pas ici (par exemple, l’ensemble des heuristiques introduites par Tversky & Kahneman, 1974), un traitement adéquat de la rationalité et de l’adaptabilité dépasse le cadre de cet article pour deux raisons. Premièrement, l’examen de l'(ir)rationalité et de l’adaptabilité des biais est un sujet complexe et riche qui pourrait faire l’objet d’un article à lui seul. Un facteur qui complique le sujet est qu’il n’existe pas de conceptualisation unique de la rationalité mais une variété de perspectives différentes sur ce sujet (par exemple, normative vs. descriptive, théorique vs. pratique, processus vs. résultat ; pour une vue d’ensemble, voir Knauff & Spohn, 2021), chacune d’entre elles s’accompagnant de différentes définitions de la rationalité ou de normes de comparaison qui permettent de tirer des conclusions sur la rationalité. Il en va de même pour l’adaptabilité, car il faudrait inévitablement clarifier ce à quoi elle se réfère. Deuxièmement, et c’est encore plus important du point de vue de la recherche, les biais sont avant tout des phénomènes mis en évidence par des données et des observations empiriques, alors que la question de la rationalité de ces observations est essentiellement une évaluation de cette observation et, par conséquent, une autre question. En présentant un cadre de mécanismes sous-jacents communs, cet article se concentre toutefois sur l’explication des biais, et non sur leur évaluation (normative).

 

 

Élargir le champ d’application

Revenons à l’application de notre recette aux biais. Plus haut, nous avons exposé notre raisonnement en détail en prenant deux croyances fondamentales et en discutant de la manière dont elles pourraient expliquer un certain nombre de biais. Plus précisément, nous avons soumis à la discussion que la recette générale d’une croyance et d’un traitement de l’information cohérent avec la croyance peut suffire à produire les biais énumérés dans le tableau 1. Il n’entre pas dans le cadre du présent article de le faire pour chacun des autres biais figurant dans le tableau 1. Nous aimerions plutôt réexaminer d’autres phénomènes sous cet angle unificateur. Commençons par le biais rétrospectif, la tendance à surestimer ce que l’on aurait pu savoir avant le fait (Fischhoff, 1975 ; pour un aperçu, voir Roese & Vohs, 2012 ; pour des méta-analyses, voir Christensen-Szalanski & Willham, 1991 ; Guilbault et al., 2004). Le fait que les gens surestiment la mesure dans laquelle d’autres personnes non informées peuvent connaître des résultats ou un événement dont ils ont déjà pris connaissance pourrait également être compris comme le fait que les gens prennent leur propre expérience comme référence lorsqu’ils émettent des jugements sur d’autres personnes.

Lorsque les jugements des personnes portent sur elles-mêmes dans un état préalable d’ignorance, toutefois, notre cadre aurait au moins besoin de la spécification supplémentaire selon laquelle les personnes prennent leur expérience actuelle comme référence lorsqu’elles sont interrogées sur des périodes antérieures, ce qui est tout à fait plausible (p. ex. Levine & Safer, 2002 ; Markus, 1986 ; McFarland & Ross, 1987 ; Wolfe & Williams, 2018). De manière plus générale, les gens ont souvent la conviction (erronée) qu’ils ont conservé leurs croyances actuelles pour toujours (par exemple, Greenwald, 1980 ; Swann & Buhrmester, 2012 ; von der Beck et al., 2019).

Plusieurs autres phénomènes qui ne sont généralement pas considérés comme des biais, ou du moins pas liés à la recherche sur les biais, pourraient également être considérés comme des variantes des biais de confirmation. Les stéréotypes, par exemple, sont essentiellement des croyances que les gens ont sur les autres (« les membres du groupe X sont Y ») et suscitent également un traitement de l’information conforme aux croyances et même un comportement (par exemple, la discrimination). La croyance en des théories du complot spécifiques peut être considérée comme une expression de la croyance plutôt générale selon laquelle « des événements apparemment aléatoires ont été intentionnellement provoqués par un plan secret d’élites puissantes ». Cette croyance de base en tant que principe sous-jacent pourrait fournir une explication parcimonieuse de la raison pour laquelle les approbations de diverses théories du complot se regroupent (Bruder et al. 2013) ; de pourquoi une telle « mentalité conspirationniste » est corrélée à la tendance générale à détecter de l’agentivité (anthropomorphisme ; Imhoff & Bruder, 2014), et des intentions négatives chez autrui (Frenken & Imhoff, 2022), ainsi que des régularités là où il n’y en a pas (van Prooijen et al., 2018) ; et aussi à d’autres croyances paranormales qui minimisent le rôle du hasard (Pennycook et al., 2015).

Lorsque nous considérons l’étendue de notre conceptualisation des croyances, il devient clair que le potentiel d’intégration de notre approche pourrait être encore plus grand : Les croyances que nous avons élaborées et présentées dans le tableau 1 sont probablement des croyances plutôt fondamentales en ce sens qu’elles sont chroniquement accessibles et centrales pour les gens. Rappelons toutefois que notre conceptualisation des croyances englobe également des croyances qui ne sont pas pertinentes pour une personne et qui ne sont induites que par la situation. Compte tenu de ce fait, un certain nombre de manipulations expérimentales peuvent également s’inscrire dans le cadre de notre raisonnement. Dans divers domaines de recherche, les chercheurs ont confié à des participants la tâche de tester une hypothèse donnée. Bien que ces hypothèses générées par l’expérimentateur soient clairement différentes des croyances de longue date et largement partagées, elles suivent une recette similaire si nous les considérons comme des croyances induites par la situation. Par exemple, les questions que Snyder et Swann (1978) ont demandé à leurs participants d’examiner – à savoir si la personne cible X est introvertie/extravertie – peuvent être considérées comme une croyance induite par la situation qui est examinée par les participants. Même s’ils n’ont pas généré cette croyance eux-mêmes et même s’ils étaient indifférents à sa véracité, elle a guidé leur traitement de l’information et conduisait systématiquement à la confirmation de la croyance induite. La question se pose donc de savoir si un certain nombre de manipulations expérimentales (par exemple, assimilation vs. contraste ; Mussweiler, 2003, 2007 ; focus promotion vs. focus prévention ; Freitas & Higgins, 2002 ; Galinsky et al., 2005 ; inductions de l’état d’esprit ; Burnette et al., 2013 ; Taylor & Gollwitzer, 1995) pourraient également être considérées comme des croyances induites par l’expérimentateur qui suscitent un traitement de l’information cohérent avec la croyance. À cet égard, une pléthore de résultats psychologiques pourrait être intégrée dans un modèle global.

 

Résumé et nouvelles hypothèses

Maintenant que nous avons exposé notre raisonnement en détail et mis en évidence son potentiel d’intégration, passons aux hypothèses qu’il génère. L’hypothèse principale (H1) que nous avons mentionnée à plusieurs reprises tout au long de notre étude est que plusieurs biais peuvent être attribués à la même recette de base, à savoir la croyance et le traitement de l’information conforme à la croyance. Saper le processus de traitement de l’information conforme à la croyance (par exemple, en réussissant à susciter une recherche d’informations incompatibles avec la croyance) devrait, selon cette logique, atténuer les biais. Ainsi, dans la mesure où une instruction explicite de « considérer le contraire » (de la croyance sous-jacente proposée) est efficace pour miner le traitement de l’information cohérente avec les croyances, elle devrait atténuer pratiquement tous les biais auxquels notre recette est applicable, même si cela n’a pas été documenté dans la littérature jusqu’à présent. Ainsi, les preuves cumulées que l’attribution expérimentale d’une telle stratégie ne parvient pas à réduire les biais mentionnés ici iraient à l’encontre de notre modèle.

En même temps, nous avons proposé que plusieurs biais soient en fait basés sur les mêmes croyances, ce qui conduit à l’hypothèse que les biais partageant les mêmes croyances devraient montrer une corrélation positive (ou au moins une corrélation positive plus forte que les biais qui sont basés sur des croyances différentes, H2). Ainsi, la collecte de données à partir d’une batterie complète de tâches liées aux biais permettrait de vérifier si les croyances sous-jacentes servent de facteurs latents d’organisation pouvant expliquer les corrélations entre les différentes manifestations des biais.

D’autres hypothèses découlent du fait qu’il existe un cas particulier de croyance fondamentale dont le contenu est intrinsèquement lié aux biais : la croyance que l’on fait des évaluations correctes. Essentiellement, elle peut être considérée comme une sorte de « facteur g » des biais (pour une idée similaire, voir Fiedler, 2000 ; Fiedler et al., 2018 ; Metcalfe, 1998). En conséquence, nous nous attendons à ce que les différences naturelles (par exemple, interindividuelles) ou induites par l’expérience dans la croyance de faire des évaluations correctes (par exemple, en la sapant ; pour des discussions sur le phénomène du gaslighting, par exemple, voir Gass & Nichols, 1988 ; Rietdijk, 2018 ; Tobias & Joseph, 2020) se reflètent non seulement dans les biais basés sur cette croyance, mais aussi sur d’autres (H3).

Toutefois, compte tenu du fait que nous considérons essentiellement plusieurs biais comme une tendance à confirmer la croyance fondamentale sous-jacente (par le biais d’un traitement de l’information cohérent avec la croyance), un traitement de l’information biaisé « avec succès » devrait alimenter la croyance en des évaluations correctes, car les croyances antérieures ont été confirmées (H4). Par exemple, les personnes qui croient que leur groupe est bon et qui s’engagent dans un traitement de l’information conforme à leurs croyances, ce qui les conduit à des conclusions qui confirment leur croyance, sont en même temps confirmées dans leur conviction qu’elles font des évaluations correctes du monde. Il devrait en aller de même pour d’autres biais tels que l’effet « meilleur que la moyenne » ou le « biais de résultat », par exemple. Si je me crois meilleur que la moyenne, par exemple, et que je m’engage ensuite dans un traitement confirmatoire de l’information en me comparant à d’autres qui ont des capacités moindres dans le domaine en question, cela devrait renforcer ma conviction que j’évalue généralement le monde correctement. De même, si je crois que ce sont principalement les attributs des personnes qui déterminent les résultats et que, conformément à cette croyance, j’attribue l’échec d’une entreprise à la mauvaise gestion de son PDG, je suis « confirmé » dans ma croyance que je fais des évaluations correctes. Il faudrait que le traitement de l’information conforme aux croyances échoue pour que la croyance que l’on fait des évaluations correctes ne soit plus alimentée. Cela n’est toutefois pas très probable étant donné la pléthore de recherches montrant que les gens peuvent voir une confirmation de la croyance de base même s’il n’y a en réalité aucune confirmation ou seulement une confirmation équivoque (par exemple, Doherty et al., 1979 ; Friesen et al., 2015 ; Lord et al., 1979 ; Isenberg, 1986), sans parler de la disconfirmation (Festinger et al., 1955/2011 ; Traut-Mattausch et al., 2004). Toutefois, si le fait de s’engager dans une (autre) forme d’expression des biais atténuait les biais découlant de la conviction de faire des évaluations correctes, cela irait fortement à l’encontre de notre raisonnement.

Il existe toutefois une exception. Si l’on est conscient que l’on traite l’information de manière biaisée et que l’on est incapable de rationaliser cette procédure, les biais ne devraient pas être exprimés, car cela menacerait la croyance que l’on a de faire des évaluations correctes. En d’autres termes, la croyance en des évaluations correctes devrait limiter les biais fondés sur d’autres croyances, car les gens sont plutôt motivés pour maintenir une illusion d’objectivité en ce qui concerne la manière dont ils ont tiré leurs conclusions (Pyszczynski & Greenberg, 1987 ; Sanbonmatsu et al., 1998). Le traitement motivé de l’information est donc soumis à une contrainte : Les gens doivent pouvoir justifier leurs conclusions (Kunda, 1990 ; voir aussi C. A. Anderson et al., 1980 ; C. A. Anderson & Kellam, 1992). Si les gens étaient privés de cette possibilité, c’est-à-dire s’ils n’étaient pas en mesure de justifier leur traitement biaisé de l’information (par exemple, parce qu’ils sont conscients de leur potentiel d’erreur et craignent que d’autres en prennent conscience également), nous devrions observer des tentatives de réduction de ce biais particulier et une réduction effective si les gens savaient comment le corriger (H5).

Au-delà de ces hypothèses plutôt générales, d’autres corollaires de notre modèle se développent. Par exemple, nous nous attendons au même favoritisme de groupe pour les groupes auxquels les gens n’appartiennent pas et ne s’identifient pas, mais qu’ils considèrent comme bons (H6). Cette hypothèse ne serait pas prédite par l’approche de l’identité sociale (Tajfel & Turner, 1979 ; Turner et al., 1987), à laquelle on se réfère le plus souvent pour expliquer le favoritisme au sein d’un groupe.

 

Conclusion

Il existe de nombreuses tentatives de synthèse et d’intégration de la recherche sur le traitement biaisé de l’information (par exemple, Birch & Bloom, 2004 ; Evans, 1989 ; Fiedler, 1996, 2000 ; Gawronski & Strack, 2012 ; Gilovich, 1991 ; Griffin & Ross, 1991 ; Hilbert, 2012 ; Klayman & Ha, 1987 ; Kruglanski et al, 2012 ; Kunda, 1990 ; Lord & Taylor, 2009 ; Pronin et al., 2004 ; Pyszczynski & Greenberg, 1987 ; Sanbonmatsu et al., 1998 ; Shermer, 1997 ; Skov & Sherman, 1986 ; Trope & Liberman, 1996). Certains de ces travaux ont avancé des arguments similaires ou se recoupant, ou ont implicitement formulé des hypothèses similaires à celles exposées ici, et rejoignent donc notre raisonnement. Dans aucun d’entre eux, cependant, nous n’avons trouvé la même ligne de pensée et ses conséquences explicitées.

En bref, les progrès théoriques nécessitent intégration et parcimonie (le potentiel d’intégration), ainsi que des idées et des hypothèses nouvelles (le potentiel de génération). Nous pensons que le cadre proposé pour comprendre les biais, tel qu’il est présenté dans cet article, a des mérites dans ces deux aspects. Nous espérons susciter des discussions ainsi qu’un examen empirique dans le but ultime d’identifier des principes communs à plusieurs courants de recherche disparates qui ont jusqu’à présent cherché à comprendre les biais humains.

 

 


Note

[1] Un aspect qui peut également contribuer à la confirmation est l’imprécision des croyances. Il convient de noter que les croyances que nous supposons être à la base de plusieurs biais ci-dessous sont de nature plutôt fondamentale et sont donc plutôt abstraites et globales (par exemple, « je suis bon »). De toute évidence, il existe plusieurs variantes de la croyance d’être bon – en fonction, par exemple, du domaine ou de la dimension évaluée (par exemple, la moralité, la compétence) et du contexte spécifique (par exemple, dans un jeu, au travail, pendant les week-ends). De plus, il peut certainement y avoir des exceptions (par exemple, « Je suis généralement une personne morale, mais je suis conscient que je suis avare lorsqu’il s’agit de dons anonymes »), mais les croyances générales fonctionnent toujours comme une sorte de valeur par défaut qui guide le traitement de l’information. Leur variabilité peut en fait contribuer à leur confirmation parce qu’elle laisse de nombreux degrés de liberté (par exemple, « L’argent que je ne donne pas est dépensé pour d’autres choix d’intégrité morale, et le fait que j’admette ne pas avoir fait de don rejaillit sur mon honnêteté et donc, en fin de compte, sur ma moralité » ; Dunning et al., 1989)

 

Naturellement l’article original fournit les références complètes des dizaines d’études citées tout au long du texte.

0 réponses

Laisser un commentaire

Rejoindre la discussion?
N’hésitez pas à contribuer !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *