Les Étincelles du Palais de la découverte
La médiation scientifique
Découvrez le futur Palais
Une préoccupation centrale autour de l’esprit critique est l’évaluation des affirmations. Il arrive de traiter ces dernières de manière spontanée, intuitive. Ces automatismes de pensée peuvent nous induire en erreur : c’est ce que l’on appelle des biais cognitifs.
Ironiquement, il y a assez peu de lien entre les recherches académiques qui ont trait à l’esprit critique et celles qui étudient les biais cognitifs. À l’inverse, de nombreux contenus de vulgarisation ayant trait à l’esprit critique s’attardent longuement sur les biais. Établissons une rapide généalogie de la problématique.
À la suite des travaux fondateurs de Daniel Kahneman, dans les années 70, de nombreux chercheurs en psychologie cognitive ont adopté un modèle dans lequel le cerveau fonctionnerait de deux manières possibles :
1. une manière lente, réfléchie, consciente, analytique ;
2. une manière rapide, avec des automatismes de pensée (appelés heuristiques) la plupart du temps efficaces, mais incontrôlables et pouvant induire en erreur dans certaines situations. Lorsqu’une erreur semble systématique, on parle de biais (plus de détails dans la partie 3). De très nombreux types de biais ont été mis en évidence. Parmi ceux fréquemment mis en avant nous pouvons par exemple citer le biais de confirmation, qui consiste en la tendance à sélectionner les informations allant dans le sens de nos idées préconcues.
Au quotidien, nous n’avons pas forcément le temps ou les moyens de tout analyser, particulièrement dans un monde où les flux d’informations s’accélèrent et se massifient. Laisser le « système rapide » fonctionner pourrait donc conduire à des situations dans lesquelles des erreurs plus ou moins systématiques surviennent. Il conviendrait d’apprendre plutôt à « réveiller » le système lent. (*) Dans l'exposition: un élément de la zone Kiosque évoque cette situation.
Sources (en anglais) : 1. Tversky, A. & Kahneman, D. (1974). Judgment under uncertainty: Heuristics and biases. Science, 185(4157), 1124-1131. https://www2.psych.ubc.ca/~schaller/Psyc590Readings/TverskyKahneman1974.pdf 2. Kahneman, D. (2011). Thinking, fast and slow. Macmillan. En français : Système 1, Système 2. Les deux vitesses de la pensée, Flammarion - Clés des Champs, 2016.
Ce modèle a conquis une large audience parmi le grand public (articles sur le sujet parus dans la presse, le champ du marketing...) et a suscité dans le même temps de nombreux débats universitaires. En effet, il n’est qu’une manière de décrire le fonctionnement du cerveau, mais il ne repose pas réellement sur des données factuelles. Parmi ses critiques, les travaux de Gerd Gigerenzer sont à noter.
Sources (en anglais) : Gigerenzer, G. (1991). How to make cognitive illusions disappear: Beyond “heuristics and biases”. European review of social psychology, 2(1), 83-115. library.mpib-berlin.mpg.de/ft/gg/gg_how_1991.pdf
Cet auteur questionne la nature de ce qui peut être considéré comme une « erreur ». À l’opposé, que qualifie-t-on de« décision optimale » ? En situation réelle, quand nous devons nous positionner sur un sujet qui connaît une grande incertitude, un choix « optimal » ou « rationnel » peuvent être différents. Ce qui est considéré, dans des conditions de laboratoire, comme une erreur ou une décision ne semblant pas être la « meilleure » statistiquement, peut correspondre à un choix suffisamment efficace dans la vie de tous les jours. Cet auteur insiste sur le fait que le système rapide ne conduit pas systématiquement à des erreurs ; de plus les biais cognitifs peuvent être en partie des artefacts liés aux conditions des expériences réalisées.
Pour compléter, d’autres auteurs ont proposé une approche évolutionniste de ce problème. Quand, intuitivement, nous établissons un lien de causalité entre « j’entends un bruit dans les fourrés » et « je crois qu’il y a un prédateur », la décision de s’enfuir peut paraître irrationnelle, car nous ne savons pas s’il y a réellement un prédateur. Mais cette stratégie de fuite minimise le coût de l’erreur : il vaut mieux s’enfuir pour rien que de ne pas s’alerter et se faire dévorer ! Ce comportement aurait été sélectionné au cours de l’évolution, car offrant de meilleures chances de succès.
Sources (en anglais) : Haselton, M. G., Nettle, D. & Murray, D. R. (2015). The evolution of cognitive bias. The handbook of evolutionary psychology, 1-20. https://www.researchgate.net/publication/315762878_The_Evolution_of_Cognitive_Bias
Néanmoins, cette approche souffre aussi de critiques. En effet, il s’agit d’une hypothèse difficilement testable qui ne repose pas sur des preuves solides.
Abordons brièvement une dernière approche, développée entre autres par E. T. Jaynes et popularisée en France par Stanislas Dehaene, qui repose sur une vision provenant des statistiques bayésiennes (voir partie 3). Ces dernières portent sur les probabilités d’un évènement sachant qu’un autre évènement a eu lieu. Elles considèrent les probabilités comme des degrés de croyance en un évènement. Elles fournissent un cadre intéressant pour comprendre nos manières de raisonner, notamment sur les liens de causalité.
Sources (en anglais) : Jaynes, E. T. (2003). Probability theory. The logic of science. Cambridge University Press. https://bayes.wustl.edu/etj/prob/book.pdf
Selon la manière de considérer les biais, la réaction face à eux sera différente. Faut-il ne rien faire (puisque les heuristiques fonctionnent bien la plupart du temps) ? Ou au contraire entreprendre un « débiaisage », c’est-à-dire éduquer à la reconnaissance des biais et prendre conscience de leur existence dans l’espoir d’y être moins sensible ?
La réponse n’est pas évidente, dans la mesure où la question du pourquoi/comment ces effets apparaissent n’a pas de réponse nette. Toutefois, il semble clair que dans certains cas au moins, ces effets surviennent. Il est donc utile d’apprendre à identifier les situations où nous ne devrions pas faire trop confiance à nos propres intuitions.
Un discours accordant une place trop importante aux biais cognitifs peut conduire à un état paralysant : se mettre à douter de tout, de soi, des autres… Or, il ne s’agit pas de raisonner de manière binaire (je crois/je ne crois pas ; je doute/je ne doute pas…), mais plutôt en « degrés » de confiance, en prenant conscience de ce qui nous pousse à accorder plus ou moins de crédit à telle ou telle affirmation (voir partie 6).
Afin de se placer au mieux sur cette échelle graduelle de confiance, il semble judicieux d’avoir intégré des éléments de méthodologie scientifique, notamment être familier des notions de modèle, des processus de validation scientifique (voir partie 7).
►Vers la partie suivante