Catégories
Numéro 5 01/2018 Numéro 6 05/2018 Numéros

Le rôle des erreurs logiques et mathématiques dans le renforcement des croyances

La première partie s’attachera à décrire les erreurs et les imprécisions les plus fréquentes liées aux relations logiques ou mathématiques. Même des situations d’apparence basique peuvent induire chez la plupart des gens des fautes de logique menant à des conclusions non étayées – indépendamment de toute notion de « vérité ». La deuxième partie s’intéressera au rôle de ces erreurs dans le renforcement des croyances, qu’elles soient limitantes ou aidantes.

Loïc Henry
Première publication le 25/01/2018 – Article de recherche


Résumé

La première partie s’attachera à décrire les erreurs et les imprécisions les plus fréquentes liées aux relations logiques ou mathématiques. Même des situations d’apparence basique peuvent induire chez la plupart des gens des fautes de logique menant à des conclusions non étayées – indépendamment de toute notion de « vérité ». La deuxième partie s’intéressera au rôle de ces erreurs dans le renforcement des croyances, qu’elles soient limitantes ou aidantes. Elle se penchera aussi sur (i) la pertinence des sources d’information, (ii) les limites de l’analyse d’un mécanisme logique, (iii) les situations où ces erreurs s’apparentent plutôt à de la manipulation.
Mots-clés : causalité, coaching, conscient collectif, corrélation, croyance, croyance aidante, croyance limitante, dissonance cognitive, données, empathie, Internet, linéarité, logique, manipulation, mathématiques, personnalité, probabilités, questionnement, rapport collaboratif, rationalité subjective, renforcement, résonnance confirmative, renforcement, responsabilité, scientifique, statistiques, taille de l’échantillon, V-mème bleu, variables significatives.

Abstract

The first part will describe the most frequent errors and imprecisions linked to logical and mathematical relations. Even seemingly basic situations can induce among most people logical mistakes, leading to unsubstantiated conclusions – regardless of any notion of truth. The second part will focus on the role of these errors in the reinforcement of (helpful or limiting) beliefs. It will also study (i) the relevancy of information sources, (ii) limits on the analysis of logical mechanisms, (iii) situations where such mistakes relate to manipulation.
Keywords : belief, blue V-meme, causality, coaching, collaborative relationship, confirmation bias, correlation, cognitive dissonance, data, denial bias, empathy, helpful belief, Internet, limiting belief, linearity, logic, manipulation, mathematics, personality, probabilities, question, reinforcement, responsibility, sample size, scientific, significant variables, statistics, subjective rationality


Introduction

Johann Wolfgang Van Goethe, écrivain et savant allemand, jugeait dans ses Maximes et pensées que « Les mathématiques ne peuvent effacer aucun préjugé ». Cette citation d’apparence contre-intuitive est-elle vraie, dans un monde moderne de plus en plus numérique : offres spéciales, nouvelles économiques, sondages politiques, bulletins météorologiques, statistiques sportives pointues, classements et tests dans les magazines et sur Internet ? Sans même nous en rendre compte, nous manions plusieurs fois par jour des concepts logiques et mathématiques qui influent sur nos opinions, nos réactions, nos décisions : la recherche de relations de cause à effet dans nos sphères personnelle et professionnelle, l’appréciation de l’intérêt d’une réduction sur Internet ou dans un magasin, les chances de qualification de son équipe favorite après le résultat du match aller, la validité d’un test de magazine dans la salle d’attente d’un médecin…
Sommes-nous capables d’analyser ce déluge de données sans nous fourvoyer dans les pièges les plus basiques ? Ne commettons-nous pas d’erreurs dans les situations les plus triviales ? Et si nos croyances sont, totalement ou en partie, basées sur des raisonnements et des conclusions erronés, sont-elles plus ancrées en nous, parce qu’étayées par des chiffres à nos yeux ? Pour revenir à l’opinion de Van Goethe, si les mathématiques ne peuvent effacer les préjugés, peuvent-elles au contraire les renforcer ?
Comment questionner une croyance limitante ou, à l’inverse, renforcer une croyance aidante lorsqu’un individu la juge justifiée logiquement ? Toutefois, l’analyse des mécanismes logiques se heurte à certaines limites, notamment parce que la rationalité est peut-être plus subjective qu’objective. Au-delà des erreurs ou des imprécisions, il est également intéressant de se pencher sur les cas où les conséquences induites ne sont pas la résultante de fautes logiques, mais de processus volontaires, par exemple dans un contexte de manipulation.

1. Les erreurs récurrentes dans les concepts logiques et mathématiques

1.1. Relations logiques : vite, une grille de loto !

« Loto : cent pour cent des gagnants ont tenté leur chance ! »
Le slogan de la Française des jeux est l’une des tautologies (une phrase ou un effet de style ainsi tourné que sa formulation ne puisse être que vraie) les plus célèbres. Le but n’est pas ici de tromper l’interlocuteur, mais plutôt d’utiliser le second degré et d’évoquer le rêve. Pour autant, sommes-nous aussi efficients dans la vie quotidienne pour détecter les erreurs de logique basiques ?
La proposition logique la plus simple pourrait s’écrire : A implique X.
« S’il renverse le verre d’eau, la table sera mouillée », « Si le chien la mord, elle sera blessée », « S’il court plus d’une heure, il aura des courbatures demain » sont autant d’exemples pratiques de cette relation, et elles sont compréhensibles sans effort par tout un chacun. Pourtant, inverser cette relation demande un peu plus d’attention. Si vous répondez : « La table est mouillée, c’est donc qu’il a renversé un verre d’eau », « Elle est blessée, c’est donc que le chien l’a mordue », « Il a des courbatures, c’est donc qu’il a couru hier », vous commettez une erreur de logique en permutant les propositions originelles. La table peut être mouillée parce qu’il a renversé la carafe et non le verre ; elle a pu se blesser en tombant lors de sa fuite sans que le chien ne l’ait mordue ; les courbatures proviennent peut-être de la pratique du vélo et non de la course.
D’un point de vue logique, la contraposée de « A implique X » n’est ni « X implique A », ni « non A implique non X », mais « non X implique non A ». Cela se traduirait donc par : « La table n’est pas mouillée, donc il n’a pas renversé son verre », « Elle n’est pas blessée, donc le chien ne l’a pas mordue », « Il n’a pas de courbatures, donc il n’a pas couru plus d’une heure hier ».
Certes, inverser une proposition logique simple requiert un peu de vigilance, mais est-ce si complexe, en particulier lorsque l’on fait un appel explicite à la logique ? Peter Wason, psychologue cognitiviste, a tenté de répondre à cette question en développant une expérience dans les années soixante, la tâche de sélection ou la tâche à quatre cartes (Wason & Shapiro, 1970) qui teste cette aptitude à maîtriser les raisonnements logiques liés à l’implication.
La question s’énonce comme suit :
« Quatre cartes, comportant un chiffre sur une face et une lettre sur l’autre, sont disposées à plat sur une table. Une seule face de chaque carte est visible. Les faces visibles sont les suivantes : D, 7, 5, K. Quelle(s) carte(s) devez-vous retourner pour déterminer la véracité de la règle suivante : Si une carte a un D sur une face, alors elle porte un 5 sur l’autre face. Il ne faut pas retourner de carte inutilement ni oublier d’en retourner une. »
Environ 80% des gens se trompent dans leur réponse. Si la majorité retourne à raison la carte « D » pour vérifier qu’un « 5 » est présent sur l’autre face, elle désigne aussi la carte « 5 » et oublie la carte « 7 ». Pourtant, choisir la carte « 7 » est nécessaire, afin de vérifier que l’autre face porte un D (réfutation) ou non (validation). À l’inverse, retourner la carte « 5 » est inutile puisqu’une autre lettre que « D » au verso n’invaliderait pas la relation logique.
L’erreur la plus fréquente, soit retourner la carte « 5 » et oublier la carte « 7 », révèle deux biais cognitifs : un biais de vérification – qui peut être assimilé à la recherche de résonnances confirmatives – et un biais d’appariement – qui consiste à se focaliser sur les items cités dans l’énoncé.
De plus, dans la vie personnelle ou professionnelle, il est fréquent d’être confronté à des problématiques multifactorielles, ce qui complexifie la recherche potentielle de relations logiques entre elles. À titre d’exemple, les propositions suivantes incluent trois facteurs :

  • Proposition 1 : A ET B impliquent X
  • Proposition 2 : A OU B impliquent X (OU non exclusif)

La première s’illustrerait ainsi : « S’il sort assez tôt du travail et que la boulangerie est ouverte aujourd’hui, il rapportera un dessert », tandis que la seconde pourrait être exprimée comme suit: «  Si la boulangerie ou la pâtisserie est ouverte, il rapportera un dessert. »
Dans le premier cas, s’il ne rapporte pas de dessert, c’est qu’il n’est pas sorti assez tôt OU que la boulangerie est fermée aujourd’hui. En termes logiques, la contraposée de (A ET B impliquent X) est donc : (non X implique non A OU non B – ou non exclusif).
Dans le second cas, s’il ne rapporte pas de dessert, c’est donc que la boulangerie ET la pâtisserie étaient fermées. En termes logiques, la contraposée de (A OU B impliquent X) est donc : (non X implique non A ET non B).
S’il est ardu pour la majorité des gens de maîtriser les relations logiques à deux facteurs, on peut aisément imaginer qu’une augmentation du nombre de variables (trois ou plus) rend l’exercice encore plus aléatoire, générant ainsi des conclusions erronées, alors même que l’individu aura la conviction de les avoir justifiées logiquement.

1.2. Corrélation : un effet cigogne ?

Auparavant, dans les communes qui abritaient des cigognes, le taux de natalité était plus élevé que dans le reste du pays. Fallait-il pour autant en conclure que les cigognes apportaient les bébés ? La réponse était plus prosaïque : les cigognes nichaient dans les villages plutôt que dans les villes et la natalité y était plus élevée.
Dans le milieu des jardiniers, il est parfois conseillé de protéger les jeunes pousses, les légumes et les fruits à peine formés lorsque la lune est rousse, soit entre début avril et début mai. La lune est-elle responsable ? La réponse est négative : à cette période de l’année, les nuits sont souvent froides a fortiori lorsque le temps est clair –la lune est alors visible – et le gel est nocif pour les jeunes pousses et les fruits en formation.
Dans les deux cas, il s’agit d’un exemple typique de confusion entre corrélation (présence de cigognes / taux de natalité ; lune rousse / impact sur les jeunes pousses) et causalité 1. Le CorteX (COllectif de Recherche Transdisciplinaire Esprit Critique & Sciences). Disponible sur : https://cortecs.org/conferences/les-zeteclips/. .
Le dictionnaire définit la corrélation comme les relations existant entre deux notions dont l’une ne peut être pensée sans l’autre, entre deux faits liés par une dépendance nécessaire. Mathématiquement, la corrélation est définie comme le rapport entre la covariance de deux variables et le produit de leur écart-type. Une explication plus humoristique pourrait s’exprimer par le dialogue suivant :
« Avant, je pensais que la corrélation impliquait la causalité. Ensuite, j’ai suivi un cours de statistiques, et maintenant je ne le pense plus.

  • Il semble que le cours ait aidé.
  • Eh bien… Peut-être. »

Une corrélation peut être positive (la taille et le poids par exemple), négative (anti-corrélation : la consommation de cigarettes et l’espérance de vie) ou non présente (la taille et l’espérance de vie).
Lorsque deux évènements sont corrélés, ou anti-corrélés, trois cas de figure sont possibles :

  • L’un implique l’autre.

À titre d’exemple, la corrélation entre les incendies et les sorties de pompiers est élevée, et il est simple de conclure que les pompiers se déplacent parce qu’il y a des incendies.

  • Un troisième paramètre est la cause des deux autres qui n’ont pas de lien de causalité entre eux.

Le samedi, le chiffre d’affaires des supermarchés augmente par rapport aux autres jours et il y a plus d’enfants dans les rayons. S’il y a bien corrélation entre ces deux évènements, il n’y pas de causalité. Celle-ci s’explique par une troisième variable : le samedi est un jour de congés, ce qui implique la présence d’enfants et une plus forte densité dans les magasins, et donc une consommation plus élevée.

  • Les deux évènements sont corrélés, mais il n’y a pas de lien direct ou indirect entre eux.

Le site « Spurious correlations » 2. Disponible sur : http://www.tylervigen.com/spurious-correlations liste des couples de variables corrélées pour lesquelles il n’y a aucun lien de causalité, même en incluant une troisième variable. Citons : le nombre de personnes noyées en tombant dans une piscine et le nombre de films dans lesquels Nicolas Cage est apparu dans l’année, la consommation de fromage par habitant et le nombre de personnes mortes par étranglement dans leurs draps, le nombre de doctorats de mathématiques et la quantité d’uranium stockée dans les centrales nucléaires américaines. Dans ces trois cas, il n’y a évidemment aucun lien : en analysant des centaines ou des milliers de séries, il est toujours possible de trouver des corrélations entre des données complètement indépendantes.
Dans ces trois familles d’exemples, il est aisé de classer ceux qui relèvent de la causalité directe, indirecte (présence d’un troisième facteur « cause ») ou qui n’ont pas de relation de causalité. Néanmoins, dans les sphères professionnelle et personnelle, ce n’est pas toujours si facile. L’une des raisons est notre propension (ii) à chercher des liens, ou des raisons, et (ii) à nous satisfaire d’éléments que nous jugeons suffisants pour expliquer tel ou tel phénomène. Par ailleurs, une fois celui-ci élucidé à nos yeux, toute la panoplie liée aux croyances intervient, comme nous le verrons dans la deuxième partie.
Enfin, même présente, la corrélation n’est pas état binaire, mais un chiffre. Il est compris entre -1 (anticorrélation absolue) et 1 (corrélation absolue) en passant par 0 (aucune corrélation). Les mathématiciens considèrent qu’il y a corrélation au-dessus de 0,8 ou 0,9 suivant les cas. Cependant, une corrélation positive, de 50% par exemple, indique un lien, certes ténu, mais présent. Notre cerveau est câblé pour identifier les liens de manière discrète (présence ou absence) plutôt que de manière continue.
À titre d’exemple, il y a sans doute une corrélation entre les températures négatives et le nombre de fractures soignées aux urgences, dans la mesure où le verglas augmente les probabilités de chute. Néanmoins, il est probable que cette corrélation soit faible, mathématiquement parlant, parce qu’il existe beaucoup d’autres causes aux fractures.
En conclusion, si la corrélation n’est pas la causalité, distinguer l’une de l’autre est parfois difficile. Pourtant, en validant l’une pour l’autre, les croyances qui résultent de cette démarche intellectuelle se renforcent substantiellement, puisque cette résonance confirmative paraît prouvée aux yeux de l’individu. Nous étudierons ce phénomène plus en détail dans la deuxième partie.

1.3. Variables significatives : quelle goutte m’a mouillé ?

Lorsque des scientifiques recherchent une explication, ou plutôt des explications, pour analyser un événement, ils essaient d’abord d’identifier les variables significatives. Celles-ci peuvent être numériques ou descriptives. À titre d’exemple, si vous souhaitez acheter un appartement à Paris et que vous voulez estimer le prix des biens que vous visitez, vous prendrez sans doute notamment en compte : le nombre de pièces, l’étage, la superficie, le coût des travaux, la distance de la station de métro la plus proche (variables numériques) et le quartier, la présence d’un ascenseur, la qualité de la construction, la luminosité, le bruit (variables descriptives). Pour cette estimation, certaines d’entre elles sont significatives (la superficie par exemple), d’autres non. Elles peuvent avoir un rôle dans votre choix final sans avoir d’impact sur le prix : si la salle de bain est neuve et blanche, et que voulez absolument du bleu, la couleur peut vous déplaire, mais elle n’aura pas d’impact objectif sur le prix.
Lorsque nous essayons d’identifier les variables significatives pour un sujet particulier dans la vie quotidienne, nous sommes confrontés à plusieurs problèmes : (i) établir une liste cohérente de variables, (ii) les sélectionner, (iii) associer un poids à chacune d’entre elles. À l’inverse d’une étude scientifique, nous ne disposons pas d’outils statistiques pour analyser les situations auxquelles nous sommes confrontés à plusieurs reprises au cours de la journée.
Une liste cohérente de variables
Dans l’exemple cité ci-dessus, la recherche d’un appartement, l’importance de l’investissement poussera l’acheteur à considérer une liste aussi exhaustive que possible de variables. Sans que le processus soit parfait, il peut être considéré comme assez efficace : dans un marché liquide comme Paris, il est rare qu’un bien immobilier soit vendu très en dehors des normes, supérieures ou inférieures.
Prenons un exemple plus léger : dans une discussion de groupe, quelle serait votre réaction si l’un des intervenants affirmait (sans second degré) que les femmes sont de bien plus mauvaises conductrices que les hommes suivant le fameux adage « Femme au volant, mort au tournant ». Il est probable que vous ou un autre participant lui fassiez remarquer, à juste titre, que les femmes ont moins d’accidents mortels que les hommes, et qu’elles ne sont donc non seulement pas plus mauvaises dans la conduite que la gent masculine, mais même meilleures. En effet 75% des morts sur la route sont des hommes 3. Sécurité routière, Les hommes et les femmes sur la route. 2012. Disponible sur : http://www.securite-routiere.gouv.fr/medias/les-chiffres-de-la-route/les-hommes-et-les-femmes-sur-la-route  et 82% des auteurs présumés d’accidents mortels sont des hommes 4. Permis à points, Les hommes et les femmes inégaux face aux accidents de la route. 2015. Disponible sur : https://www.permisapoints.fr/actualites/hommes-vs-femmes-accidents-de-la-route-160606 . Si la discussion s’arrête à ce moment-là, vous aurez identifié une variable significative (le taux d’auteurs présumés d’accident mortel parmi les hommes et les femmes), mais est-ce suffisant pour affirmer que les femmes conduisent aussi bien, voire mieux, que les hommes ? Si la conversation se poursuit, il est probable que quelqu’un soulève la question du nombre de kilomètres au volant : suivant que les hommes conduisent autant que les femmes ou non, la pertinence du chiffre originel (82%) peut être confirmée, accentuée, nuancée, voire infirmée. Il est très difficile de trouver cette information et les chiffres ne sont pas tous en phase les uns avec les autres ; néanmoins, le consensus se stabilise autour d’un écart de 10% à 20% de moins pour les femmes en nombre de kilomètres parcourus, ce qui nuance le chiffre précédent, sans le remettre en cause.
Avec ces deux variables, l’accidentologie mortelle et le nombre de kilomètres parcourus, la conclusion reste inchangée. Pour avancer dans la réflexion, il conviendrait de prendre en compte d’autres variables, telle que la proportion relative d’hommes et de femmes au volant la nuit (période plus accidentogène), l’impact dans les chiffres des accidents de deux-roues motorisés (les hommes y étant surreprésentés, et 18% des tués sur la route étaient des conducteurs de deux-roues en 2014 5. Prévention routière, Statistiques d’accidents. 2016. Disponible sur : https://www.preventionroutiere.asso.fr/2016/04/22/statistiques-daccidents/ ). Il est probable que ces deux éléments amèneraient à nuancer encore la répartition initiale, mais que l’accidentologie mortelle soit toujours supérieure chez les hommes.
Quant à l’individu toujours persuadé de la supériorité masculine sur la route, il pourra se consoler avec une étude 6. (9 janvier 2013) Accidents de la route : les femmes dépassent les hommes, in Tribune de Genèvehttp://www.tdg.ch/suisse/accidents-route-femmes-depassent-hommes/story/31152744   de 2013 de la Caisse nationale suisse d’assurance en cas d’accidents (Suva) qui conclut que l’accidentologie, rapportée au nombre de kilomètres, s’est inversée en une décennie : elle est deux fois supérieure en Suisse chez les femmes. Il s’agit toutefois des accidents en général, et non des accidents mortels.
Cet exemple montre que la réponse à une question simple et d’apparence quantifiable (Qui conduit les mieux entre les hommes et les femmes ?) est souvent plus complexe qu’il n’y paraît. Considère-t-on les accidents mortels ou non ? Le nombre absolu d’accidents ou un taux relatif sur une base équivalente ? La majorité des personnes interrogées aura sans doute une opinion, basée sur ses propres croyances. Certaines d’entre elles seront étayées par des chiffres, mais cela ne signifie pas que l’analyse soit complète.
Dans un cadre plus général, entrevoir une multicausalité demande un effort intellectuel ; il est plus aisé et plus rapide d’expliquer une situation grâce à un seul paramètre qui peut paraître suffisant à lui seul. Pourtant, rares sont les situations où une seule cause est suffisante pour en appréhender la globalité.
Sélectionner les variables
En supposant qu’un individu essaie de rechercher les variables potentiellement significatives dans l’explication d’un phénomène, il lui reste encore à trier le bon grain de l’ivraie, en ne conservant que celles qui sont pertinentes. C’est un procédé plus intuitif que scientifique que nous utilisons quotidiennement.
Mon bébé pleure. A-t-il mal ? A-t-il faim ? A-t-il fait ses besoins ? Est-il fatigué ? S’il n’est pas dans une position inconfortable, qu’il vient de manger et que sa couche est propre, nous écarterons les trois premières explications pour nous concentrer sur la dernière, ou en chercher de nouvelles. Dans ce cas précis, le processus est assez aisé, car séquentiel : il consiste à écarter les mauvaises raisons pour en déduire le vrai motif.
Cependant, si la problématique s’explique par plusieurs raisons, il devient ardu de conserver cette rigueur intellectuelle, a fortiori si vous êtes émotionnellement impliqué. Même si vous parvenez à lister les causes possibles, conserver les variables significatives et écarter les autres s’avère laborieux, hors d’un cadre de recherche scientifique.
Affecter un poids aux variables
Dans l’exemple de la recherche d’un appartement à Paris, même si vous réussissez à lister et à sélectionner toutes les variables significatives, il conviendrait aussi de leur affecter un poids relatif. On imagine aisément qu’une superficie doublée aurait un impact plus fort sur le prix qu’une distance réduite de moitié jusqu’à la station de métro la plus proche. Sans disposer d’une formule mathématique, les acheteurs prendront en compte les différents paramètres en leur affectant des poids, même inconsciemment. Même si ceux-ci peuvent être différents, ce qui expliquerait une divergence d’opinions entre les acheteurs, la résultante finale (le prix) sera sans doute assez groupée.
Toutefois, si l’analyse ne justifie pas un investissement en temps et en réflexion aussi lourd qu’un achat immobilier, notre analyse sera-t-elle aussi fine ? De plus, une conclusion chiffrée (le prix d’un appartement par exemple) se prête beaucoup mieux à ce type de démarche qu’une question qualitative. Quels sont les éléments objectifs de la dégradation de ma relation avec ma hiérarchie ? Quelles sont les raisons du mal-être dans mon couple ? En supposant que vous soyez assez lucide pour lister et choisir les paramètres pertinents, la dernière haie (affecter une importance relative à ces paramètres) demeure très haute.

1.4. Probabilités : rouge ou noir, rien ne va plus !

Même les personnes les plus allergiques aux mathématiques utilisent les probabilités au quotidien dans leur prise de décision. Si vous êtes sur l’autoroute et que vous avez besoin d’essence, vous attendrez peut-être, parce que le prix à la pompe sera probablement moins cher une fois sorti. Si votre conjoint est de mauvaise humeur le matin, vous attendrez le soir pour lui parler de ce concert qui vous intéresse tant, parce qu’il sera probablement plus réceptif à ce moment-là. Si votre adversaire a un mauvais revers au tennis, vous viserez plus souvent cette zone, parce que le retour sera probablement plus facile à négocier.
Un jeu américain, Let’s make a deal, a suscité de nombreuses discussions, y compris de la communauté scientifique, suite à un courrier adressé à un magazine. Il illustre Le paradoxe de Monty Hall, du nom du présentateur de ce jeu pendant treize ans. Le principe est simple : le joueur est face à trois portes fermées. Derrière l’une d’elles se trouve un prix de valeur, une voiture par exemple, derrière chacune des deux autres se trouve un lot mineur, comme une chèvre. Le candidat choisit une porte sans l’ouvrir. Ensuite, le présentateur, qui sait où se trouve le gros lot, ouvre une des deux portes non sélectionnées : celle-ci cache forcément un des deux lots sans importance. Le candidat peut alors choisir la porte originelle ou opter pour la troisième porte.
Quelle est la meilleure stratégie ? Faut-il ou non dévier de son choix initial ?
À l’origine, le lot majeur a une chance sur trois de se situer derrière chaque porte. Le déroulé du jeu modifie-t-il ces probabilités ? Une fois qu’une porte a été écartée, y a-t-il une probabilité de 50% de réaliser le bon choix ? Si c’est le cas, conserver son choix premier ou le modifier n’aura aucune importance : il n’augmentera ni ne diminuera la probabilité d’effectuer le bon choix et, dans tous les cas, le joueur aura une chance sur deux de gagner puisqu’il ne reste que deux portes potentiellement valides. C’est l’analyse de la plupart des joueurs et des observateurs. Elle est pourtant fausse.
Dans tous les cas, il est préférable d’opter pour la troisième porte, qui vous offre deux chances sur trois de remporter le prix majeur. Étudions les deux stratégies :
Maintien du choix initial

  • Supposons que le participant choisisse la porte avec le gros lot, qui correspond à une probabilité d’un tiers. Le présentateur ouvre alors une des deux autres portes et le joueur ne dévie pas. Il aura toujours une chance sur trois, in fine, d’avoir fait le bon (premier) choix.
  • S’il sélectionne une des deux mauvaises portes, ce qui correspond à une probabilité de deux tiers, le présentateur ouvre alors l’autre mauvaise porte. Comme le joueur conserve son choix, il remporte un lot mineur, avec une probabilité de deux tiers.

Changement du choix initial

  • Supposons que le participant opte pour la porte avec le gros lot, ce qui correspond à une probabilité d’un tiers. Le présentateur ouvre une des deux autres portes, et le joueur modifie son choix. Dans ce cas, qui correspond toujours à une chance sur trois, il échouera.
  • S’il choisit une des deux mauvaises portes, ce qui correspond à une probabilité de deux tiers, le présentateur ouvre alors l’autre mauvaise porte. Comme le joueur modifie systématiquement son choix, il ne peut que choisir la bonne porte. Il a donc deux chances sur trois de repartir avec le prix.

Cela signifie que conserver son choix initial ne change par les probabilités originelles de gagner (un tiers), tandis que le modifier systématiquement augmente les chances du participant de remporter le gros lot : il passe d’une chance à trois à deux chances sur trois.
C’est moins le jeu en lui-même que les analyses qui en ont été faites qui sont intéressantes. Comment un jeu basé sur un problème de probabilité assez basique a-t-il pu générer du succès pendant tant d’années, alors que la stratégie à adopter est limpide ? Cela signifie que la majorité des joueurs, même en connaissant les règles à l’avance et alors que le prix était d’importance, arrivaient sur le plateau sans idée de la meilleure stratégie en termes probabilistes.
De plus, les discussions ont pris une tournure plus large suite à un courrier envoyé à Marylin Vos Savant, qui tenait la rubrique « Ask Marylin » dans le magazine Parade, et qui a détenu pendant quelques années le record mondial de Quotient Intellectuel (score de 228). Sa réponse était correcte puisqu’elle préconisait de changer systématiquement son choix initial. Pourtant, le magazine a reçu dix mille lettres, dont un millier de détenteurs d’un doctorat, qui soutenaient qu’elle avait tort.
En conclusion, en dépit de règles simples, ni l’enjeu ni l’étude approfondie n’ont permis à la majorité de trouver la solution. Ceux pour lesquels la croyance d’une équiprobabilité était triviale n’ont pas modifié leur opinion, malgré les démonstrations mathématiques, alors que certains d’entre eux étaient des scientifiques. Comment attendre de tout à chacun d’observer dans la vie courante des standards plus élevés que ceux qu’une partie de la communauté scientifique n’atteint pas face à un problème en théorie assez trivial ?

1.5. Une farandole d’erreurs…

1.5.1 Linéarité : ma flèche atteindra-t-elle sa cible ?

À l’instar d’un archer qui vise la cible en prolongeant la ligne initiée par sa flèche, nous anticipons souvent la suite des événements d’une manière linéaire.
Si un touriste a besoin de voyager à Paris pendant un court séjour, il empruntera sans doute le métro à un moment ou un autre. Le prix du ticket étant de 1,90 euro, il paiera 3,80 euros pour deux tickets et ainsi de suite. S’il anticipe plusieurs trajets, il achètera sans doute un carnet à 14,90 euros, soit 1,49 euro le ticket. Dans ce cas précis, la non-linéarité joue en sa faveur puisque dix tickets valent moins cher que dix unités.
La plupart des relations commerciales sont plus avantageuses que le mode linéaire pur : réductions en cas d’achat en plus grosse quantité, de locations de plus longue durée…
Aussi, lorsque nous sommes confrontés à un mode moins avantageux que le mode linéaire, soit un delta de satisfaction, de récompense ou de valorisation décroissante pour un delta d’effort constant, un sentiment d’iniquité, voire d’injustice, peut apparaître. Un salarié qui augmente sensiblement son temps de travail, au détriment de sa vie personnelle et de son bien-être, peut ainsi ressentir de l’injustice ou de la colère si les gratifications, financières ou non, qu’il en retire ne sont pas linéairement en lien avec ces efforts.
Si un commercial a doublé son chiffre d’affaires, il est probable que sa part de rémunération variable augmente, mais sans doute pas dans la même proportion, ce qui peut induire chez lui une impression d’iniquité. C’est l’une des raisons pour lesquelles les objectifs chiffrés génèrent parfois des comportements non optimaux pour l’entreprise : une fois que l’objectif est sensiblement dépassé, disons de vingt à trente pour cent, une performance supplémentaire n’apportera pas de retombées financières additionnelles, alors qu’elle impliquera un objectif beaucoup plus élevé l’année suivante. D’un point de vue comportemental, il est donc cohérent pour un individu de dépasser son objectif afin d’augmenter sa rémunération, tout en évitant de basculer dans une zone trop élevée n’apporterait rien de plus pour lui et qui serait synonyme d’un nouvel objectif trop difficile à dépasser, voire à atteindre, l’année suivante.

1.5.2. Taille de l’échantillon

Si l’on s’intéresse à une proportion dans une population donnée, la taille de l’échantillon est primordiale. C’est par exemple le cas dans un essai clinique ou une étude de marché, mais également dans les situations auxquelles nous sommes confrontés au quotidien.
Face à un corps de métier, par exemple les garagistes, les banquiers ou les policiers (la population), les expériences déplaisantes que nous avons connues (la proportion) nous amèneront à définir une croyance, à y voir une résonnance confirmative, si notre opinion était déjà mauvaise, ou, plus rarement, une dissonance cognitive, si notre perception était auparavant bonne. Pourtant, si la taille de l’échantillon est trop faible, les conclusions n’auront absolument aucune valeur statistique, alors qu’elles auront été à nos yeux étayées.
Afin d’obtenir des résultats statistiquement significatifs, la taille minimum de l’échantillon dépend de la proportion estimée de la population qui présente la caractéristique, l’intervalle de confiance souhaitée et la marge d’erreur tolérée.
Par exemple, si vous effectuez un sondage en ligne pour tester l’appétit de votre nouveau produit, que vous estimez qu’un tiers de la population pourrait être intéressé, l’échantillon minimum pour obtenir une confirmation lors de votre étude, si l’on souhaite un intervalle de confiance de 5% et une marge d’erreur de 5%, est de 340. Avec les mêmes données, à l’exception d’une marge d’erreur réduite à 2%, l’échantillon devra être de plus de 2100. Bien entendu, si la proportion obtenue est très différente de celle estimée, la taille de l’échantillon devra être affinée.

Note : on suppose que la distribution suit une loi normale.

Plus la proportion est éloignée de la moyenne (très faible ou très forte), plus l’échantillon devra être large pour être significatif. Dans la vie réelle, cela inclut donc toutes les croyances qui peuvent s’exprimer par : « (presque) tous les… », « (presque) aucun… », « toujours », « jamais »…
Parmi nos croyances, qu’elles soient politiques, sociétales ou personnelles, même parmi les plus étayées par notre expérience, combien passent le seuil objectif d’une réelle validation de la taille de l’échantillon ?

1.5.3. Biais du survivant

Le monde de la finance présente de nombreux exemples du biais du survivant. Si une société de gestion présente dans sa gamme dix fonds d’investissement qui affichent tous de bonnes performances, supérieures à la moyenne du marché, cela ne signifie pas toujours qu’ils aient été meilleurs que leurs compétiteurs par le passé. Les fonds ayant offert une performance décevante ont sans doute vu leurs encours fondre, pour être ensuite fermés à cause du manque de rentabilité et de la mauvaise image afférente à la société. En tant qu’investisseur, vous ne disposez pas de tout l’historique, mais seulement des fonds qui ont survécu, qui sont souvent ceux qui ont délivré la meilleure performance.
La logique est la même lors de l’étude de la valeur d’actions de grandes entreprises. Leur parcours boursier sur de longues périodes montre des progressions substantielles et incite à penser que : « sur le long terme, les placements en actions sont les plus profitables ». Cependant, les sociétés qui ont fait faillite dans l’intervalle ou qui sont sorties dans indices principaux et ont perdu en visibilité, ne rentrent pas dans le champ de l’observation. Sauf à imaginer que vous seriez capables d’identifier, a priori, les survivants des décennies à venir, les performances boursières des entreprises existantes induisent donc un biais.

1.6. Statistiques : si même les scientifiques s’emmêlent les pinceaux…

Une liste si longue des pièges que nous tendent la logique et les mathématiques signifie-t-elle que seuls les scientifiques peuvent espérer à de tels leurres ? La réponse est négative, d’autant plus qu’eux-mêmes sont parfois victimes, soit parce qu’ils ne se placent au même niveau de rigueur en dehors de leurs recherches, dans leur vie personnelle par exemple, mais aussi parce que nombre d’études pourtant éditées dans les revues scientifiques les plus prestigieuses ne sont pas suffisamment rigoureuses.
Un phénomène nommé Priming en anglais est scruté de près. Dans les expériences psychologiques en particulier, il s’agit d’introduire des actions ou des choix d’apparence anodine pour influencer le sujet, sans qu’il en ait conscience : penser à un professeur ou à un hooligan avant de répondre à une question par exemple, afin d’altérer la réponse. Ce type de procédés a été très largement utilisé depuis une décennie. Depuis peu, les tentatives de réplications des résultats obtenus par les psychologues donnent de très mauvais résultats. Cela pose évidemment problème puisque la réplication des expériences scientifiques et l’une des bases de leur vérité objective.
Ces soucis sont liés à plusieurs phénomènes, mais intéressons-nous uniquement à l’aspect statistique. Dans le jargon, on parle d’erreurs de type I (penser que quelque chose est vrai alors qu’il ne l’est pas : faux positif) et de type II (penser que quelque chose n’est pas vrai, alors qu’il l’est : faux négatif). Une étude  7. (Octobre 2013) Unreliable research : trouble at the lab, in The Economist. menée par le Dr John Ioannidis de l’Université de Stanford a montré que, pour des raisons statistiques : « la plupart des conclusions des recherches sont probablement fausses ».
Cette étonnante conclusion est liée à l’aspect statistiquement significatif décrit au point 1. 5.2. Prenons un exemple simple :

  • Vous voulez tester la validité de 1000 hypothèses
  • 100 d’entre elles sont vraies
  • Le coefficient (Power) de validité est de 0,8, ce qui signifie que sur 10 hypothèses, huit seront identifiées et 2 exclues.

Note : Un coefficient de 0,8 est considéré comme solide. Incidemment, notons au passage que ce coefficient est égal à 0,21 dans les études de psychologie selon le Dr John Ioannidis.

  • L’étude identifiera donc 80 hypothèses vraies (0,8 fois les 100 hypothèses vraies) et 20 ne seront pas identifiées (type II).
  • Une étude est considérée comme statistiquement significative si les erreurs de type I sont inférieures à 5%. En prenant ce chiffre, cela signifie qu’il y aurait 45 faux positifs (type I), soit 5% fois 900.

Ces résultats sont repris graphiquement ci-dessous :
(Source : The Economist, Octobre 2013)
En jaune : hypothèses fausses
En vert ; hypothèses vraies
En orange : faux négatifs (type II), au nombre de 20 dans notre exemple
En vert sombre : faux positifs (type I), au nombre de 45 dans notre exemple

La conclusion de cette étude, c’est que parmi les 125 hypothèses présentées comme vraies, 80 d’entre elles seraient réellement vraies et 45 seraient fausses, c’est dire un taux d’erreur d’identification des hypothèses vraies de plus d’un tiers.
Si le but de cet article n’est pas d’approfondir les erreurs statistiques commises dans les études scientifiques, il est néanmoins intéressant de noter que même les études publiées dans des revues de référence souffrent d’imprécisions statistiques qui rendent certaines parutions non pertinentes. Aussi, il est naturel de penser que tout le monde commet de telles erreurs dans sa vie quotidienne, même si certains sont plus susceptibles que d’autres de les perpétrer. Il serait donc vain d’imaginer pouvoir identifier et corriger toutes les erreurs logiques et mathématiques que nous commettons. Et serait-ce même souhaitable ?
Pour autant, connaître ses limites et savoir que personne n’est infaillible permet de prendre un peu de recul avec ses propres préjugés et croyances basés sur des chiffres et des raisonnements.

2. Le rôle des erreurs logiques et mathématiques dans le renforcement des croyances.

Nous distinguerons à plusieurs reprises le « raisonnable » du « rationnel », comme le défend Hubert Reeves, dans L’espace prend la forme de mon regard : « Le premier inclut l’intuition et l’affectif ; le second n’implique qu’un déroulement correct du processus logique. » Toutefois, nous nuancerons cette différentiation dans la partie 2.5. (Limites de l’analyse d’un raisonnement. Conscient collectif).

2.1. Le rôle des données chiffrées et des raisonnements logiques dans les processus de renforcement des croyances

Le rôle des croyances est identifié de manière anecdotique depuis des siècles : l’historien grec Thucydide a écrit, dans Histoire de la guerre du Péloponnèse, environ quatre cents ans avant notre ère : « C’est une habitude de l’humanité […] d’utiliser la raison souveraine d’écarter de côté ce qu’ils ne peuvent se figurer. »
À première vue, il serait cohérent de penser que les croyances liées aux domaines scientifiques sont plus homogènes que les autres au sein de la population, si l’on suppose l’information disponible. Comme les conclusions sont basées sur des raisonnements et des données en théorie objectifs, l’opinion devrait théoriquement être plus consensuelle. Pourtant, la réalité se charge d’infirmer cette belle théorie. Quelle est votre croyance au sujet du réchauffement climatique ? Sans être un spécialiste, si vous avez parcouru quelques articles, scientifiques ou vulgarisés, vous serez sans doute convaincu, comme la majorité de la communauté scientifique, qu’il s’agit d’un problème réel, même si les projections sont sujettes à certaines marges d’erreur. Néanmoins, de nombreuses personnes, disposant de nombreuses sources d’informations et capables de comprendre la logique sous-jacente de cette problématique, doutent de l’étendue, voire de la véracité, du réchauffement climatique.
Il en est de même pour de nombreuses croyances à caractère scientifique, telles que les expéditions lunaires de la NASA, la théorie de l’évolution, voire le fait que la Terre soit plate. Il existe en effet une Flat Earth Society  8. Voir leur site internet : https://theflatearthsociety.org/home/  qui présente des éléments « scientifiques » pour démontrer que la Terre n’est pas ronde, mais bien plate.

2.2. Affaiblir une croyance limitante

Qu’est-ce qu’une croyance ? Exprimé avec ironie par Pierre Desproges, cela pourrait se résumer à un avis: « Eh bien, à mon avis, qui se trouve être l’avis de référence auquel j’ai le plus volontiers tendance à me ranger, quand il m’arrive de vraiment vouloir savoir ce que je pense… »
Sur un mode moins humoristique, une définition basique d’une croyance pourrait être une opinion que nous considérons comme vraie. Une croyance peut être (i) aidante (ou motivante) si elle aide à atteindre l’objectif, (ii) limitante si elle empêche ou complique le cheminement vers l’objectif ou (iii) neutre (ni aidante, ni limitante). Si le coaching n’a pas pour vocation à lutter contre l’ensemble des croyances, accompagner l’individu dans l’identification de ses croyances limitantes au cours d’un processus, grâce au questionnement, peut lui permettre de progresser vers la réalisation de son objectif. Le point clé n’est donc pas la « véracité » de la croyance, si tant est qu’elle existe, ni même l’intensité de cette croyance, mais son caractère limitant.
Enfin, nos croyances induisent des comportements, des attitudes qui à leur tour peuvent renforcer nos croyances. Cette relation circulaire est renforcée par nos efforts pour confirmer nos propres croyances : à titre d’exemple, l’expérience de Wason sur les relations logiques avec quatre cartes (cf. 1.1.) illustre ce qu’il nomme biais de vérification.
Afin de questionner les éléments constitutifs d’une croyance, le coach dispose de plusieurs stratégies. La première d’entre elles est de se concentrer sur les éléments constitutifs de cette croyance et sur ses résonnances confirmatives. On peut les séparer en trois familles, suivant leurs bases : l’expérience, les données, les raisonnements. A priori, les données sont plus faciles à remettre en cause que l’expérience, puisqu’il suffit de vérifier les sources d’information, tandis que l’expérience est généralement moins quantifiable et plus diffuse. Toutefois, les données peuvent être multiples et contradictoires, dans la sphère du bien-être par exemple. Il est donc souvent plus aisé d’interroger les raisonnements (au sens logique du terme) que les données puisqu’ils sont basés sur un mécanisme, moins impliquant pour un individu, car il ne s’agit que d’un outil et non d’une conviction. Si l’on assimile une croyance à un cours d’eau, le raisonnement  (toujours au sens logique) pourrait être associé à un ruisseau, les données à une rivière et l’expérience à un fleuve. Si l’on souhaite dévier le cours d’eau parce qu’il menace d’engloutir un village, il est plus simple de le faire en amont (ruisseau) qu’en aval (fleuve).
Il est rare qu’une croyance n’ait pas connu d’épisodes de dissonance cognitive. Si ces dernières n’ont pas été assez puissantes ou assez nombreuses, elles n’ont pas ou peu impacté la croyance. Dans un processus de coaching, remettre en scène par le questionnement les dissonances cognitives passées et présentes complémente l’étape précédente, car cela permet l’analyse des retours extérieurs liés à sa croyance limitante. Réaliser qu’elles ont été multiples, variées, parfois non dénuées de pertinence permet parfois d’amorcer une discussion ouverte. Néanmoins, la phénoménologie des stratégies cognitives face aux dissonances cognitives est riche. Les croyances ne sont ni justes ni fausses ; elles peuvent être limitantes, et cheminer parmi les vérités multiples a pour but de contourner ou franchir les obstacles qui se dressent entre lui et son objectif. Dans le cadre d’une croyance renforcée par des données ou un raisonnement, en fonction des stratégies cognitives adoptées, il est plus ou moins facile de s’adapter. Ces stratégies, en général inconscientes,  peuvent par exemple s’exprimer ainsi : déni de cognition dissonante, étayage ou rééquilibrage (arguments complémentaires pour étayer une croyance), différentiation cognitive (comparaison favorable), défense perpétuelle (différentiation). Se situer sur le terrain  des raisonnements n’est évidemment pas une formule magique, mais cela permet d’aborder une croyance limitante par le versant du mécanisme logique (la causalité par exemple), plutôt que de l’opinion.
De nouvelles informations contredisant ce qui nous semblait acquis peuvent nous amener à modifier nos croyances. Un exemple historique (Zwirn & Zwirn 2005) est celui d’Urbain Le Verrier, un astronome du XIXe siècle. À cette époque, les observations des mouvements d’Uranus contredisaient les prévisions issues de la théorie de Newton. Les astronomes pouvaient alors remettre en cause cette théorie ou modifier leur opinion sur les planètes qui composaient le système solaire. L’une de leurs croyances devait être révisée puisqu’elles étaient incompatibles l’une avec l’autre au vu des nouvelles observations. Certains d’entre eux ont choisi la première option, d’autres la seconde. Urbain Le Verrier, qui était aussi mathématicien, a postulé l’existence d’une planète inconnue pour valider la cohérence de la théorie de Newton. Neptune fut ainsi découverte en 1846 grâce à ses calculs. Dans le domaine scientifique comme dans le domaine personnel, les croyances évoluent. Cependant, le changement de croyance n’est pas un but en soi, il n’a de sens que s’il permet à l’individu de s’affranchir d’une croyance qu’il juge limitante pour l’atteinte de son objectif. De plus, une croyance n’est pas binaire, il existe une multitude de niveaux entre deux propositions extrêmes : faire évoluer sa croyance originelle, sans toutefois la contredire, afin que le caractère limitant disparaisse est souvent suffisant.

2.3. Renforcer une croyance aidante

Une croyance aidante (ou motivante) est une croyance qui va aider l’individu à réaliser son objectif. Si une croyance aidante est principalement basée sur des raisonnements, se pose alors la question de la pérennité de cette croyance. En effet, deux cas ont possibles :

  • Les mécanismes logiques qui ont initié ou qui sont venus renforcer une croyance aidante sont pérennes. Il n’y a alors pas de crainte additionnelle quant à la remise en cause de la croyance.
  • À l’inverse, les mécanismes logiques sont fragiles, mais la croyance qu’ils renforcent demeure aidante. Dans ce cas, existe-t-il un risque que l’objectif une fois atteint soit remis en cause, si la croyance se désagrège, parce que la personne a modifié une logique ou reconsidéré des données ?

Il est rare qu’une croyance soit intrinsèquement limitante ou aidante : elle peut être aidante dans certains cas, ou pendant une certaine période, et devenir limitante lorsque la situation est différente, ou vice-versa. Si une croyance est principalement basée sur un mécanisme logique, y a-t-il un intérêt à explorer les dissonances cognitives si elle est aidante ? Paradoxalement, certaines personnes souhaitent mettre leur croyance, même aidante, à l’épreuve, afin de la renforcer.

2.4. De l’importance de la source d’information

Les sources d’une croyance sont multiples : l’éducation, l’expérience, l’influence de ses proches, la situation actuelle, les lectures, les données, les mécanismes logiques… En pratique, il est difficile de les séparer les uns des autres, parce qu’ils s’entremêlent et se nourrissent mutuellement. Imaginons une situation théorique où il serait possible de dissocier les sources d’une croyance, en particulier d’en extraire les données, des informations qui viennent initier ou étayer la croyance, et les mécanismes logiques purs.
Bien entendu, deux personnes différentes peuvent aboutir à des conclusions diverses, voire opposées avec les mêmes données et peut-être même une base de raisonnement similaire. Imaginons par exemple une discussion entre un partisan et un opposant de l’exploitation du gaz de schiste en France. Ils peuvent s’accorder sur les données et les conséquences – le potentiel énergétique, les retombées sur l’emploi, les risques environnementaux – sans pour autant s’accorder sur la conclusion : l’un peut juger que l’emploi et l’indépendance énergétique sont primordiaux, tandis que l’autre peut penser que le risque de pollution des nappes phréatiques est trop important pour autoriser tout forage. Cependant, dans la plupart des confrontations d’opinion, les divergences surviennent plus en amont, souvent au niveau des données d’origine, pour lesquels Internet joue un rôle croissant.
Comme le décrit Gérald Bronner, dans L’Empire des croyances et La démocratie des crédules, le nouveau marché cognitif qu’est Internet n’est pas toujours favorable à la connaissance. Il regroupe une quantité d’informations gigantesque, y compris sur des sujets peu connus, et c’est précisément cette masse de données qui rend parfois complexe la recherche de connaissance. Pourquoi accorder sa confiance à un site plutôt qu’à un autre ? Comment les choisir ? La plupart des gens ne consultent que les sites référencés sur la première page d’un moteur de recherche : se pose ainsi la question du référencement. Gérald Bronner s’est livré à une expérience intéressante : il a effectué des recherches sur des sujets en opposition avec l’orthodoxie scientifique, tels que l’astrologie, le yéti, le monstre du Loch Ness, le Saint Suaire puis il a comptabilisé les sites favorables et défavorables sur les cent premiers listés. Dans tous les cas, l’avantage va aux sites en opposition avec l’orthodoxie scientifique, à 89% pour l’astrologie ou 66% pour l’existence du yéti par exemple. Il explique cela par la motivation des croyants : un partisan de l’astrologie serait plus enclin à la défendre qu’un astronome dubitatif à l’attaquer. Toute croyance pourra trouver sur Internet maintes résonnances confirmatives et dissonances cognitives. Pourtant, à moins que le processus d’évolution d’une croyance ait été enclenché auparavant, il est peu probable qu’un individu cherche de lui-même des dissonances cognitives pour questionner sa croyance. Le point clé réside dans l’autonomie et la capacité à (se) poser les questions critiques, par exemple : « Comment vérifier les informations à éprouver ? », « Quelles sources d’information paraissent fiables ? », « Existe-t-il des personnes / des sites / des articles en opposition avec une ancienne / nouvelle opinion ? ».

2.5. Limites de l’analyse d’un mécanisme logique. Conscient collectif.

Si l’on a cherché jusque maintenant à distinguer dans le raisonnement le « raisonnable » du « rationnel » comme le décrit Hubert Reeves, il est difficile d’imaginer qu’une croyance ne soit que la conséquence du seul processus logique, sans lien avec l’éducation ou l’expérience propre. Même les êtres qui se considèrent comme très cartésiens admettent généralement que certaines de leurs croyances ne sont pas totalement objectives, car elles incluent une part d’intuition, d’affectif et sont liées aux opinions. Cette rationalité subjective est parfois très consciente chez l’individu, parfois moins. Pourtant, comme l’exprime Carl Gustav Jung dans Psychologie et religion : « Psychologiquement, une idée est vraie du moment qu’elle existe. »
Le Conscient collectif induit des croyances partagées par une collectivité – un groupe, un État, une société – se comportant comme une entité assimilable à un individu. Gustave Le Bon affirme dans Les incertitudes de l’heure présente : « L’erreur individuelle est tenue pour vérité dès lors qu’elle devient collective. Aucun argument rationnel ne peut alors l’ébranler. » Sans reprendre dans cet article la notion « d’erreur », sa citation met en exergue la puissance potentielle du Conscient collectif. Dans nos sociétés, la science a concurrencé, et quelquefois remplacé, d’autres entités collectives sur le terrain de l’autorité. Certains jugements, auparavant ancrés dans le registre religieux, dans des domaines aussi variés que l’astronomie, l’éthique ou les relations de couple, sont maintenant considérés, au moins partiellement, par le prisme scientifique. Un des effets corollaires de cette évolution est que l’autorité morale des scientifiques a crû, au point d’intégrer le V-mème bleu (ordre, autorité) de la spirale dynamique aux yeux de certains individus dans des situations particulières 9. Développée par Clare W. Graves, la spirale dynamique répond à plusieurs objectifs, tels que la gestion du changement, l’identification et la levée de résistances, l’amélioration de la communication .
Déjà au début des années soixante, l’expérience de Milgram a confirmé que l’autorité scientifique était légitime aux yeux des participants, alors que le processus induisait des problèmes de conscience du sujet, puisqu’il pensait faire subir des chocs électriques élevés et croissants à un « élève », en réalité un comédien complice de l’expérience lui-même sensé participer à un test sur la mémoire, avec différents paliers d’injonction. Fort heureusement, toutes les situations ne sont pas aussi extrêmes. Dans le cadre du coaching, les interrogations de certains patients sur la dangerosité des vaccins se heurtent parfois à un consensus médical que l’on pourrait assimiler à un Conscient collectif. Sans porter de jugement sur de telles opinions, il est fréquent que les patients différencient le médecin de famille des laboratoires. Les deux entités scientifiques – les laboratoires d’un côté, les médecins de l’autre – n’ont pas la même autorité, même si le discours est proche, car l’un semble biaisé par intérêt tandis que l’autre paraît souvent valide du point de vue de l’autorité, car associé à une éthique et à un intérêt pour les cas personnels.
Par ailleurs, les statistiques sont de plus en plus présentes dans nos vies. Elles interviennent bien entendu dans les études scientifiques – la physique, la médecine, la chimie – mais aussi dans des secteurs auparavant moins perméables, tels que le sport. Les dernières années ont fourni plusieurs exemples :

  • Les « quotas » de grands gabarits dans les centres de formation de football, sujet politiquement sensible et sportivement questionné par les succès de l’équipe d’Espagne qui avait choisi une voie différente.
  • Le succès en 2017 de Roger Federer à un âge considéré par de nombreux observateurs comme statistiquement trop avancé.
  • Il existe même des oppositions de statistiques. Dans le football encore 10. (27 avril 2016) Leicester City prouve que les statistiques mènent à la réussite, in Slatehttp://www.slate.fr/story/117341/reussite-leicester-city-statistiques , Leicester a gagné le championnat anglais en 2016 malgré des cotes de bookmakers, basées sur des éléments statistiques, de l’ordre de 5000 contre 1 (pour l’anecdote, la même côte que de voir le chanteur Bono élu pape). À l’inverse, le recrutement du club était basé sur les excellentes statistiques de joueurs méconnus, et donc peu chers. Ses deux joueurs stars évoluaient l’année précédente en cinquième division anglaise et deuxième division française. On pourrait qualifier cette histoire comme une victoire des statistiques… contre d’autres statistiques.

Dans le quotidien, en particulier dans l’univers professionnel, les statistiques et les probabilités ont pris une place de choix. Les décisions sont de plus en plus susceptibles d’être justifiées statistiquement, tant sur le plan opérationnel qu’humain. Le biais du survivant évoqué en début d’article montre pourtant que même dans des univers très mathématiques comme la prise de décisions d’investissement au sein des grandes banques d’affaires ou des grands fonds de pension internationaux, les imprécisions des processus logiques sont présentes. Le procédé de « back trading » bien connu des chercheurs en finance comportementale, qui consiste à justifier ou à reprocher des décisions passées – ou leur absence –en utilisant des raisonnements logiques a posteriori pour aboutir à une conclusion (une croyance ?) déjà établie, constitue un autre exemple.

2.6. Erreur de bonne foi et manipulation

Jusqu’à maintenant, nous avons étudié les cas où un individu réévaluait un raisonnement qui venait renforcer une croyance, limitante ou aidante. Il existe également des situations où une faute logique consciente est transmise d’un individu à un autre, d’une manière volontaire, afin d’influencer voire de manipuler. À fin de clarification, il ne s’agit pas là d’influencer une personne dans la cadre courant des relations sociales : (i) un manager qui met en valeur les qualités d’un de ses collaborateurs au-delà de ses propres convictions afin de le motiver, (ii) des parents pourtant inquiets qui vont rassurer un enfant sur ses capacités ou son travail à la veille d’un examen, pour lui donner confiance, (iii) une personne qui va minimiser la faute d’un ami pour lui remonter le moral…
Dans le cadre de cet article, le but est plutôt de se focaliser sur l’utilisation de raisonnements logiques consciemment faux dans le but de manipuler. Prenons l’exemple d’un manager qui compare les ventes de son équipe commerciale. Il cible la supposée mauvaise performance d’un individu, pour des raisons qui lui sont propres (affinité, rémunération variable…) en utilisant des chiffres de progression de vente de l’année écoulée. Si la société s’est développée géographiquement et que la majorité des commerciaux ont vu leur zone s’élargir, mais que l’individu-cible a travaillé à périmètre constant, l’utilisation des performances brutes comparées serait injuste puisqu’elle n’intégrerait pas un paramètre clé. Il ne s’agirait pas là d’une croyance du manager qui aurait, de bonne foi, omis de considérer la croissance des zones géographiques, mais bien d’une manipulation s’il est conscient du subterfuge qu’il utilise pour parvenir à sa conclusion.
Lors d’un débat télévisé réunissant les principaux candidats à l’élection présidentielle, en mars 2017, l’un d’eux a exhibé un graphe qui montrait l’évolution de la production industrielle depuis la mise en place de l’Euro, pour l’Allemagne, la France, l’Italie et l’Espagne. A l’exception du premier cité, pour lequel l’augmentation était sensible, les chiffres étaient décroissants. L’idée était de « prouver » que l’euro était la cause de cette baisse. Indépendamment de l’opinion personnelle de chacun, la méthode n’est pas mathématiquement irréprochable : même si l’on néglige l’échelle choisie ou l’année de définition de la base cent, la principale question réside dans l’utilisation d’une corrélation qui est présentée comme une causalité. Si l’on suppose que ces deux événements sont bien corrélés, ce qui resterait à prouver mathématiquement et non graphiquement, cela n’induit pas forcément une causalité. Il est imaginable que d’autres paramètres soient à l’œuvre ou qu’il n’y ait pas de cause commune. Ensuite, libre à chacun de décider si cette « démonstration » était sincère dans le raisonnement – il s’agirait alors du choix d’une résonance confirmative d’une croyance – ou si la méthode s’apparente plutôt à une manipulation consciente des chiffres pour défendre un point de vue.

2.7. Tous différents…

Tout comme les individus, les croyances sont différentes les unes des autres et leur structure varie. Certaines personnes seront plus sensibles à l’aspect émotionnel, d’autres au côté rationnel, d’autres encore à l’expérimentation. De plus, d’une manière similaire, pour une même personne, une croyance peut être rationalisée tandis qu’une autre peut s’avérer le fruit de son éducation ou d’expériences passées. C’est l’argument mis en exergue en 2007 par Cass Sunstein, de l’Université de droit de Chicago (Sunstein 2007). Dans son étude sur la différence de réaction entre les menaces (i) terroristes et (ii) de changement climatique, son point principal est que ces menaces constituent deux des plus importants risques de catastrophes, et que les États-Unis ont réagi d’une manière très différente : très agressivement pour le premier, très passivement pour le second. Pour lui, cette divergence est en partie liée à une différence de rationalité sur les deux sujets.
Cet argument appliqué à un État peut-il être transposé à un individu ? Toujours dans le domaine du réchauffement climatique, les auteurs d’une étude se sont interrogés en 2012 sur « l’impact de l’instruction scientifique sur les risques perçus liés au changement climatique » aux États-Unis. L’idée principale de ce document est de se pencher sur la théorie selon laquelle l’apathie des citoyens américains quant aux problèmes liés au réchauffement climatique était liée à un déficit de connaissances scientifiques, impliquant (i) des difficultés à comprendre les arguments avancés et (ii) un esprit critique déficient face aux tentatives de manipulation. A contrario, leur conclusion est que les personnes ayant le plus haut niveau d’instruction scientifique et les meilleures capacités de raisonnement logique n’étaient pas les plus concernées par cette question, et que c’est dans cette population que la polarisation culturelle était la plus élevée. Les auteurs suggèrent que les différences d’opinion sur les questions de réchauffement climatique ne sont pas liées aux connaissances scientifiques, mais plutôt à la perception d’un conflit entre les intérêts individuels et collectifs. Il semblerait donc qu’il existe des cas où les « compétences » scientifiques ne suffisent pas à – ou même ne sont d’aucune utilité pour – la justification d’une opinion, ou d’une croyance. Une personne peut être très cartésienne pour une croyance, et très peu pour une autre.
Néanmoins, l’être rationnel absolu, qui tamiserait son éducation et son expérience pour n’en conserver que des données et des mécanismes logiques, n’existe pas, car il ne serait plus humain. Comme le souligne Thornton Wilder dans Les Ides de mars : « Qui oublie que l’homme est à moitié un animal n’est que la moitié d’un homme. » Une croyance basée sur des données et des mécanismes logiques, mathématiquement corrects ou non, demeure avant tout une croyance, sensible aux stratégies cognitives comme toute autre.

Conclusion

Bien qu’utilisés quotidiennement, sans parfois même s’en rendre compte, les concepts logiques et mathématiques cachent en leur sein une kyrielle de pièges. L’inversion d’une simple relation d’implication peut nous amener à un mécanisme de conclusion erronée (indépendamment de la validité intrinsèque de celle-ci). Et qui n’a pas un jour admis une causalité sur la base d’une corrélation, sans chercher à distinguer l’une de l’autre ? Qui ne s’est pas laissé abuser par des raccourcis intellectuels en contradiction avec les lois de probabilités ? Et lorsque nous cherchons à expliquer un phénomène ou une situation, identifions-nous avec acuité les variables significatives, et leur poids relatif dans l’explication ? Nous trébuchons tous, y compris les scientifiques, parfois même lors de leurs recherches.
Les données et les mécanismes logiques sont une des sources de la genèse ou du renforcement des croyances. Dans certains cas, la résonance confirmative devient d’autant plus forte qu’elle paraît « prouvée » aux yeux d’un individu. Aborder une croyance limitante par l’entremise du mécanisme logique peut parfois s’avérer moins émotionnellement impliquant, permettant ainsi de remettre en selle des dissonances cognitives passées, sans que les stratégies cognitives soient aussi prégnantes. Ces mêmes mécanismes peuvent également renforcer une croyance aidante. Il est possible d’imaginer qu’un mécanisme logique, qu’un individu pressent déficient, vienne renforcer une croyance aidante. A priori, il n’y a pas vocation à questionner une croyance si l’individu la juge réellement aidante. Toutefois, certains peuvent souhaiter éprouver une telle croyance afin de la renforcer ; dans ces situations, la réflexion sur les dissonances cognitives peut s’avérer précieuse.
Il existe toutefois des limites à l’analyse d’un raisonnement par le truchement des mécanismes logiques. Quelle croyance est uniquement le fruit des seuls mécanismes logiques et donnés ? La rationalité de l’homme est subjective, car elle dépend de ses croyances, de ses valeurs, de ses besoins, de ses limites, de sa représentation personnelle de la situation et de l’univers de choix conçu par lui. Il peut également être influencé par un Conscient collectif, qui dans le cas des croyances peut être lié à une autorité reconnue, qu’elle soit hiérarchique, religieuse ou, de plus en plus, scientifique.
Le mot de la fin revient à Albert Camus, tant il s’applique au champ des relations humaines : « Il est toujours aisé d’être logique ; il est presque impossible d’être logique jusqu’au bout. »


Références

Bronner G. (2003) L’Empire des croyances, Paris, PUF
Bronner G. (2013) La démocratie des crédules, Paris, PUF.
Bronner G. (2016) La pensée extrême, troisième édition, Paris, PUF.
Chikh S., Grandin P. (2016) La finance comportementale, Economica Finance.
Sunstein, Cass R. (2007), « On the Divergent American Reactions to Terrorism and Climate Change, » 107 Columbia Law Review 503
Wason P.C., Shapiro D. (1970) Natural and contrived experience in a reasoning problem, in New horizons in psychology.
Zwirn D. & Zwirn H. (2005) La révision des croyances, in Pour la science : Les chemins de la logique (Décembre).

commentaires

Une réponse sur « Le rôle des erreurs logiques et mathématiques dans le renforcement des croyances »

Bonjour,
Dans cet article il est plusieurs fois fait usage des termes opinions et croyances qui semblent avoir des définitions claires pour l’auteur. Serait-il possible de connaître ces définitions, ou une référence les contenant.
Cordialement,

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *