L'homme est-il un
animal rationnel ?
Stephen
Stich
Département
de philosophie et Centre de sciences cognitives
Rutgers
University
I. Introduction : les approches
descriptives et normatives de l'étude du raisonnement humain
Dans
l'étude du raisonnement humain, on considère généralement que nous pouvons
adopter deux approches très différentes. L'une est descriptive ou empirique.
Ceux qui l'adoptent cherchent à caractériser la façon dont les gens s'y
prennent pour raisonner ainsi qu'à découvrir les mécanismes et processus
psychologiques qui sous-tendent les formes de raisonnement qu'ils observent.
Cette approche descriptive est le plus souvent pratiquée par des psychologues,
quoique des anthropologues aient aussi fait des travaux très intéressants pour
savoir si et dans quelle mesure les gens appartenant à des cultures différentes
raisonnent différemment. L'autre approche de l'étude du raisonnement est
normative. Ceux qui l'adoptent ne s'intéressent pas à la façon dont les gens
raisonnent vraiment, mais plutôt à la façon dont ils devraient raisonner. Leur
but est de découvrir des règles ou principes spécifiant ce qu'est raisonner
correctement ou rationnellement. Depuis l'Antiquité, l'approche normative du
raisonnement a été pratiquée par des logiciens et des philosophes et, plus
récemment, des statisticiens ainsi que des théoriciens des probabilités et de
la décision ont joint leurs rangs.
Les
buts et les méthodes de ces deux types d'étude du raisonnement sont très
différents. Quoi qu'il en soit, certaines des thèses les plus intéressantes et
les plus chaudement débattues à propos du raisonnement humain ont trait à la
question de savoir dans quelle mesure tel ou tel groupe de gens raisonne
rationnellement. Ces thèses sont intrinsèquement hybrides ou interdisciplinaires.
Pour les évaluer, nous devons savoir à la fois ce qu'est raisonner
rationnellement et comment le groupe de personnes en question raisonne
vraiment. La thèse la plus célèbre de ce type est celle d'Aristote, selon
laquelle l'homme est un animal rationnel. La rationalité, selon Aristote, est
une propriété essentielle de l'espèce humaine; c'est ce qui distingue l'homme
de la bête. Un des buts centraux de cet essai est de réexaminer la thèse
d'Aristote à la lumière des études empiriques récentes sur le raisonnement
humain. Aristote avait-il raison ? Les humains sont-ils vraiment des animaux
rationnels ?
Pour
répondre sérieusement à cette question, nous devons d'abord fournir une
interprétation plus précise de la thèse d'Aristote. Il est évident que les
humains ne sont pas toujours rationnels. Lorsque les gens sont ivres, épuisés
ou sous le coup d'une rage incontrôlable, ils raisonnent en fait médiocrement.
Et, bien sûr, Aristote savait cela. Lorsqu'il disait que les humains sont des
animaux rationnels, il n'a sûrement jamais voulu nier que les gens peuvent
raisonner et raisonnent parfois de façon irrationnelle. Mais que voulait-il
dire alors ? À la section II, nous verrons comment nous pouvons commencer à
fournir une interprétation assez précise et en fait assez troublante de la
thèse d'Aristote en empruntant une idée des sciences cognitives contemporaines
- l'idée que les gens ont des «compétences" sous-jacentes dans des
domaines variés, même si ces compétences ne se reflètent pas toujours dans leur
comportement. Une interprétation séduisante de la thèse d'Aristote est que les
humains normaux ont une compétence rationnelle dans le domaine du raisonnement.
Pour
expliquer la notion de compétence rationnelle, il nous faudra cependant faire
plus qu'expliquer la notion de compétence ; nous devrons aussi dire ce qu'est
une compétence rationnelle. À la section III, nous examinerons une tentative
élégante et influente d'expliquer ce qu'est une forme de raisonnement
rationnelle - une approche qui fait appel à la notion d'équilibre réfléchi.
Ayant
interprété la thèse d'Aristote comme l'affirmation que les gens normaux
possèdent une compétence de raisonnement rationnelle, notre attention se
portera, à la section V, sur les études descriptives du raisonnement. Dans
cette section, nous examinerons quelques découvertes empiriques fascinantes et
intrigantes qui semblent suggérer qu'Aristote avait tort parce que la plupart
des gens ne possèdent pas la compétence de raisonner rationnellement sur divers
types de questions ! Ces découvertes ne remettent pas uniquement en question la
thèse optimiste d'Aristote concernant la rationalité humaine, elles semblent
également menacer l'explication de la rationalité en termes d'équilibre
réfléchi. La section V commencera par expliquer pourquoi les découvertes
empiriques posent un problème à l'explication en termes d'équilibre réfléchi et
elle se poursuivra en examinant quelques réponses possibles.
Dans
la section VI, nous reviendrons à la littérature empirique à propos du raisonnement
humain, cette fois en portant notre attention sur quelques études très récentes
des psychologues évolutionnistes qui prennent comme point de départ l'idée que
les composantes ou «organes" de l'esprit ont été façonnés par la sélection
naturelle tout comme les composantes ou organes des (autres) parties du corps
l'ont été. Cette perspective les conduit à s'attendre à ce que nos esprits
parviennent à des résultats assez satisfaisants lorsqu'ils raisonnent à propos
de problèmes du type de ceux qui auraient été importants dans l'environnement
dans lequel notre espèce a évolué, et ils ont produit quelques raisons très
intéressantes de penser que c'est en fait bien le cas.
Finalement,
à la section VII, nous nous demanderons ce que ces études récentes nous disent
à propos de la thèse d'Aristote. Est-ce qu'elles montrent, comme certains le
prétendent, qu'Aristote avait après tout raison ? Je soutiendrai alors que la
réponse est que ni la position d'Aristote ni celle ses adversaires ne sont
justifiées par la recherche empirique. Ce que ces études montrent plutôt est
que les questions que nous nous sommes posées à propos de la rationalité
humaine - des questions comme «Est-ce que l'homme est un animal rationnel
?" - sont trop simplistes. Si nous voulons des réponses plausibles
construite sur une base scientifique solide, nous devrions apprendre à poser
des questions meilleures et plus élaborées.
II. Compétence et performance
Tous
s'entendent pour dire que les gens sont parfois très irrationnels. Ainsi, par
exemple, il arrive que des gens qui sont ivres, hors d'eux-mêmes ou sous
l'influence de drogues raisonnent et prennent des décisions en empruntant des
voies qui ne sont sanctionnées par aucune théorie sérieuse à propos des
principes gouvernant le bon raisonnement et la prise de décision. Puisque c'est
un fait si évident et aucunement controversé, comment quiconque peut-il
néanmoins prétendre que les humains sont des animaux rationnels ? Qu'est ce que
cela peut bien vouloir dire ? Une réponse très séduisante peut être donnée en
exploitant la distinction entre compétence et performance.
La
distinction compétence/performance a d'abord été introduite en sciences
cognitives par Chomsky, qui l'utilisa dans sa présentation des stratégies
explicatives des théories linguistiques. En testant les théories linguistiques,
une source de données importante provient des «intuitions" ou jugements
non réfléchis que les locuteurs d'une langue ont (ou font) à propos de la
grammaticalité des phrases et de diverses propriétés linguistiques (par
exemple, «Est-ce que la phrase est ambiguë? ", «Est-ce que ce syntagme est
le sujet de ce verbe ?"). Pour expliquer ces intuitions, et aussi la façon
dont les locuteurs s'y prennent pour produire et comprendre des phrases de leur
langue, Chomsky proposa ce qui est devenu une des hypothèses sur l'esprit qui
compte parmi les plus importantes de l'histoire des sciences cognitives. Ce que
cette hypothèse stipule est qu'un locuteur d'une langue possède une «grammaire
générative" internalisée de cette langue. Une «grammaire générative"
est un ensemble intégré de règles et de principes - nous pouvons nous la
représenter comme analogue à un système d'axiomes - qui implique un nombre
infini d'énoncés à propos de cette langue. Pour chacune des phrases de la langue
du locuteur, la grammaire internalisée du locuteur indique qu'elle est
grammaticale ; pour chaque phrase ambiguë, la grammaire internalisée indique
qu'elle est ambiguë, etc. Lorsque les locuteurs portent un jugement que nous
nommons une «intuition linguistique", ils ont accès et se fient à
l'information de cette grammaire internalisée, quoique ni le processus ni la
grammaire internalisée ne soient accessibles à l'introspection consciente.
Puisque la grammaire internalisée joue un rôle central dans la production des
intuitions linguistiques, ces intuitions peuvent servir comme une importante
source de données pour les linguistes qui veulent spécifier quels sont les
règles et principes de la grammaire internalisée.
Les
intuitions d'un locuteur ne sont cependant pas une source d'informations
infaillible à propos de la grammaire de sa langue, parce que les règles
internalisées de la grammaire ne peuvent à elles seules produire les intuitions
linguistiques. La production des intuitions est un processus complexe dans
lequel la grammaire internalisée doit interagir avec divers autres mécanismes
cognitifs, incluant ceux qui sont responsables de la perception, de la
motivation, de l'attention, de la mémoire à court terme et peut-être une foule
d'autres. Dans certaines circonstances, l'activité de n'importe lequel de ces
mécanismes peut donner lieu à un jugement sur une phrase qui ne s'accorde pas
avec ce que la grammaire indique à son propos. Le mécanisme d'attention offre
un exemple clair de ce phénomène. Il est très probable que la grammaire
internalisée des locuteurs typiques du français indique qu'un nombre indéfini
de phrases de la forme :
A
dit que B pense que C croit que D soupçonne que E pense ... que p.
sont
grammaticales dans la langue du locuteur. Cependant, si on vous demandait de
juger la grammaticalité d'une phrase contenant quelques centaines
d'enchâssements de ce type ou même quelques douzaines, il y a de bonnes chances
que vos jugements ne reflèteraient pas ce que votre grammaire indique, puisque
dans des cas comme ceux-là, l'attention s'égare facilement. La mémoire à court
terme fournit un exemple plus intéressant de la façon dont un jugement
grammatical peut échouer à représenter ce que contient vraiment la grammaire.
Il existe de solides raisons de penser que les mécanismes de la mémoire à court
terme ont du mal à manipuler des structures enchâssées par le centre. Ainsi, il
peut bien se trouver qu'une grammaire internalisée indique que la phrase
anglaise suivante est grammaticale:
What
What What he wanted cost would buy in Germany was amazing.
en dépit du fait que les intuitions de la
plupart des gens suggèrent, crient en fait, qu'elle ne l'est pas.
Dans
la terminologie que Chomsky a introduite, les règles et les principes de la
grammaire générative internalisée d'un locuteur constituent la compétence
linguistique du locuteur; les jugements qu'un locuteur fait à propos des
phrases, de même que les phrases produites par ce locuteur, font partie de sa
performance linguistique. De plus, comme nous venons tout juste de le voir,
quelques-unes des phrases produites par le locuteur et quelques-uns des
jugements que celui-ci fait à propos de ces phrases ne reflètent pas fidèlement
sa compétence linguistique. Dans ces cas, le locuteur commet des erreurs de
performance.
Il
y a des analogies évidentes entre les phénomènes étudiés par la linguistique et
ceux qui sont étudiés par les cognitivistes qui s'intéressent au raisonnement.
Dans les deux cas, les gens sont capables de traiter spontanément et inconsciemment
une classe ouverte d'«inputs» - ils sont capables de comprendre un nombre
indéterminé de phrases et de tirer des inférences à partir d'un nombre indéfini
de prémisses. À la lumière de cette analogie, on peut explorer l'idée que le
mécanisme sous-jacent à notre habileté à raisonner est similaire au mécanisme
sous-jacent à notre capacité à traiter la langue. Si Chomsky a raison à propos
de la langue, alors l'hypothèse analogue à propos du raisonnement suggèrerait
que les gens ont un ensemble intégré de règles et de principes internalisés -
une «psycho-logique" comme on l'a appelée - auquel ils ont accès et auquel
il se fient habituellement lorsqu'ils tirent des inférences ou portent des
jugements à leur propos. Comme dans le cas de la langue, nous devrions nous
attendre à ce que ni les processus impliqués ni les principes de la
psycho-logique internalisés ne soient accessibles immédiatement à la
conscience. Nous devrions également nous attendre à ce que les inférences et
les jugements des gens ne soient pas des guides infaillibles au sujet de ce que
la psycho-logique sous-jacente indique à propos de la validité ou de la
plausibilité d'une inférence donnée, parce qu'ici, comme dans le cas de la
langue, les règles et principes internalisés doivent interagir avec beaucoup
d'autres mécanismes. L'activité de ces mécanismes peut donner lieu à des
erreurs de performance - des inférences ou des jugements qui ne reflètent pas
la psycho-logique qui constitue la compétence à raisonner d'une personne.
Nous
sommes finalement en position d'expliquer une interprétation de la thèse
d'Aristote qui est compatible avec le fait indubitable que, parfois du moins,
les gens raisonnent de façon très irrationnelle. Ce que cette thèse stipule,
c'est que les gens normaux ont une compétence rationnelle à raisonner. Les
règles ou les principes de raisonnement qui constituent leur psycho-logique
sont rationnels ou normativement appropriés ; ils spécifient la façon de
raisonner correctement. Selon cette interprétation, lorsque les gens font des
erreurs dans le raisonnement ou lorsqu'ils raisonnent irrationnellement, leurs
erreurs sont des erreurs de performance qui peuvent être dues à la fatigue, au
manque d'attention, à la confusion ou à une foule d'autres facteurs. Mais aussi
communes qu'elles puissent être, les erreurs de performance ne reflètent pas
les règles de raisonnement qui constituent la compétence de raisonnement d'une
personne normale. Dire que l'homme est un animal rationnel, selon cette
interprétation, c'est dire que la compétence de raisonnement des gens normaux
est rationnelle même si leur performance en cette matière ne l'est parfois pas.
III. Qu'est-ce que la rationalité ? Une
explication en termes d'équilibre réfléchi
Qu'est-ce
qui justifie un ensemble de règles ou de principes pour le raisonnement ?
Qu'est-ce qui rend les règles de raisonnement rationnelles ? Il y a environ
quarante ans, dans un des passages les plus influents de la philosophie
analytique du vingtième siècle, Nelson Goodman suggérait d'élégantes réponses à
ces questions. Dans ce passage, Goodman décrivait le processus d'harmonisation
entre les jugements à propos des inférences particulières et les principes
généraux de raisonnement. Dans l'harmonie ainsi établie, soutient Goodman, se
trouve toute la justification désirée, et toute la justification possible, pour
les principes inférentiels qui sont apparus. D'autres philosophes, notamment
John Rawls, ont adopté une version modifiée du processus de Goodman comme
procédure pour savoir si des principes moraux sont corrects. Nous devons à
Rawls le terme d'équilibre réfléchi, qui a été largement utilisé pour
caractériser un système de principes et de jugements qui ont été rendus
cohérents les uns avec les autres de la façon décrite par Goodman.
Il est difficile d'imaginer la notion
d'équilibre réfléchi expliquée de façon plus éloquente que dans les termes de
Goodman. Aussi, laissez-moi citer un peu longuement ce qu'il en dit :
Comment justifier une déduction? Tout simplement, en illustrant sa conformité aux règles
générales des inférences déductives. À partir du moment où un argument se
conforme à ces règles, il est justifié et valide, en dépit de la fausseté
éventuelle de sa conclusion. S'il viole une de ces règles, il est faux, même si
sa conclusion est vraie. Aucune connaissance des faits n'est donc nécessaire à
la justification d'un argument déductif. En outre, lorsqu'il appert qu'un
argument est conforme aux règles de l'inférence déductive, on le considère
habituellement comme justifié et valide, sans se demander ce qui justifie ces
règles. De la même manière, le but premier de la justification de l'inférence
inductive consiste à montrer qu'elle se conforme aux règles générales de l'induction. Cela reconnu, une grande
étape est franchie dans la clarification du problème.
Il
faut tout de même justifier les règles. La validité d'une déduction dépend en
effet non pas de sa conformité avec n'importe quelles règles arbitraires, mais
avec un ensemble de règles valides. Quand on parle des règles d'inférence, on parle des règles valides, ou, mieux
encore, de certaines règles valides,
puisqu'il peut exister plusieurs ensembles de règles aussi valides les unes que
les autres. Comment alors déterminer la validité des règles? Ici encore,
certains philosophes vous diront que ces règles proviennent d'un axiome
évident, alors que d'autres tenteront de démontrer leur enracinement dans la
nature même de l'esprit humain. Je ne crois pas qu'on ait à chercher la réponse
si loin. Les principes de l'inférence déductive sont justifiés par leur
conformité à la pratique déductive courante. Leur validité dépend de leur
compatibilité avec les inférences déductives particulières que nous faisons
effectivement et que nous ratifions. Si une règle engendre des inférences
inacceptables, nous la considérons comme invalide et nous l'abandonnons. La
justification de règles générales se dégage donc des jugements d'acceptabilité
des inférences déductives particulières.
Nous
semblons tourner en rond de façon flagrante. Les inférences déductives sont
justifiées par leur conformité aux règles générales valides, qui sont
elles-mêmes justifiées par leur conformité aux inférences valides. Il ne s'agit
pas cette fois-ci d'un cercle vicieux: les règles, comme les inférences
particulières, sont toutes deux justifiées par leur conformité réciproque. On modifie une règle si elle engendre une
inférence que nous ne sommes pas prêts à accepter; on rejette une inférence si
elle viole une règle que nous ne sommes pas prêts à modifier. La
justification est un délicat processus d'ajustement mutuel entre les règles et
les inférences acceptées, et cet accord constitue la seule justification dont
chacun ait besoin.
Tout cela s'applique aussi à
l'induction. Une inférence inductive est justifiée par sa conformité aux règles
générales de l'induction, qui sont elles-mêmes justifiées par leur conformité à
des inférences inductives reconnues ». (1984, 79-80)
Selon
l'explication de Goodman, du moins selon la lecture que j'en propose, passer le
test de l'équilibre réfléchi est (comme les philosophes le disent parfois)
constitutif de la justification ou de la validité des règles d'inférence. Etre
rationnel pour un système de règles inférentielles et d'inférences qui
s'accordent avec ces dernières consiste simplement à être en équilibre
réfléchi. Mais quel est le statut de cette assertion ? Pourquoi passer le test
de l'équilibre réfléchi est-il constitutif de la justification ou de la
rationalité des règles inférentielles ? La réponse, je crois, est que Goodman
la prend pour une vérité conceptuelle - elle découle de la signification de
termes comme «justifié» ou «rationnel» ou de l'analyse du concept de
rationalité. On peut soutenir que ce concept est un peu (plus qu'un peu) vague,
et que l'analyse en termes d'équilibre réfléchi ne fait aucun effort pour
saisir ce caractère vague. Il cherche plutôt à mettre de l'ordre dans le flou
et de préciser (spécifier) le concept. Il est ainsi peut-être préférable de
voir chez Goodman l'idée que l'explication en termes d'équilibre réfléchi saisit
quelque chose comme notre concept ordinaire de rationalité, et que c'est la
meilleure façon de rendre ce concept précis.
Toutes
les pièces sont maintenant en place pour interpréter la thèse d'Aristote.
L'homme est un animal rationnel, selon l'interprétation proposée, signifie que
les humains normaux ont une compétence pour le raisonnement - un ensemble
mentalement représenté de règles ou de principes pour le raisonnement - et que
ces règles sont rationnelles - elles passeraient le test de l'équilibre
réfléchi. Interrogeons-nous maintenant sur la plausibilité de cette thèse. Pour
ce faire, il nous faut tourner notre attention vers les études empiriques du
raisonnement humain.
IV. Quelques faits troublants à propos de
la façon dont les humains raisonnent
Nous
commencerons notre exploration de l'aspect psychologique du raisonnement humain
en portant notre attention sur des études dont certains auteurs pensent
qu'elles présentent un sombre tableau de la rationalité des gens ordinaires.
Toutes ces études concernent des sujets normaux (souvent des étudiants
universitaires) qui ne sont ni épuisés ni stressés émotionnellement. Néanmoins,
plusieurs d'entre eux parviennent à de piètres résultats dans les tâches de
raisonnement qu'on leur demande de résoudre.
La
tâche de sélection
En
1966, Peter Wason fit état des premières expériences concernant un ensemble de
problèmes de raisonnement que l'on en est venu à nommer «la tâche de
sélection». Un recueil de textes récent sur le raisonnement décrit ces tâches
comme «le problème sur lequel on a fait les recherches les plus intenses de
toute l'histoire de la psychologie du raisonnement» (Evens, Newstead &
Byrne, 1993, p. 99). Un exemple typique du problème de la tâche de sélection
est le suivant:
Voici quatre
cartes. Chacune porte une lettre sur un côté et un nombre sur l'autre. Deux de
ces cartes apparaissent du côté lettre et deux du côté nombre
E C
5 4
Indiquer quelle
carte il vous faut tourner pour vérifier l'affirmation suivante :
Si une carte
porte une voyelle d'un côté, alors elle porte un nombre impair de l'autre côté.
Ce
que Wason et de nombreux autres chercheurs ont découvert, c'est que les gens
ordinaires parviennent en général à des résultats médiocres pour des questions comme celles-là. La plupart
des sujets répondent, correctement, que la carte E doit être retournée, mais
plusieurs jugent que la carte 5 doit être retournée aussi, en dépit du fait que
la carte 5 ne peut falsifier l'énoncé, quoi qu'il y ait de l'autre côté. Une
grande majorité des sujets jugent également qu'il ne faut pas retourner la
carte 4, même s'il n'y a pas moyen de savoir s'il y a une voyelle de l'autre
côté sans la retourner. Les sujets ne sont cependant pas toujours aussi
médiocres dans les problèmes de la tâche de sélection. Un grand nombre de
variations dans le motif de base ont été essayées, et dans quelques versions du
problème un grand pourcentage de sujets répond correctement. Ces résultats
forment un motif déroutant, puisqu'il n'y a pas de caractéristiques ou de groupes
de caractéristiques évidentes qui séparent les versions où les sujets
parviennent à des résultats satisfaisants de celles où les résultats sont
médiocres. Comme nous le verrons à la section VI, quelques psychologues
évolutionnistes ont soutenu que ces résultats peuvent être expliqués si nous
nous concentrons sur les sortes de mécanismes mentaux qui auraient été cruciaux
pour le raisonnement à propos des échanges sociaux (ou de «l'altruisme
réciproque») dans l'environnement de nos ancêtres hominidés. Les versions de la
tâche de sélection pour lesquelles nous sommes bons, selon ce que soutiennent
ces théoriciens, sont seulement celles pour lesquelles nos mécanismes auraient
été conçus.
L'erreur
de la conjonction
En novembre 1980, Ronald Reagan est élu
président des États-Unis. Au cours du mois suivant, Amos Tversky et Daniel
Kahneman ont administré un questionnaire à 93 sujets qui n'avaient jamais eu de
formation en statistiques. Les instructions du questionnaire étaient les
suivantes :
Dans
ce questionnaire, on vous demande d'évaluer la probabilité d'événements variés
qui pourraient se produire pendant 1981. Chaque problème comprend quatre
événements possibles. Votre tâche est d'ordonner ces événements selon leur
degré de probabilité, en inscrivant 1 pour l'événement le plus probable, 2 pour
le second, 3 pour le troisième et 4 pour l'événement le moins probable.
Voici une des questions présentées aux
sujets :
Ordonnez les
événements suivant selon la probabilité qu'ils se produisent en 1981 :
(a) Reagan
coupera l'aide fédérale aux gouvernements locaux.
(b) Reagan
fournira une aide fédérale aux mères célibataires.
(c) Reagan va
augmenter le budget de la défense de moins de 5%.
(d) Reagan
fournira une aide fédérale aux mères célibataires et coupera l'aide fédérale
aux gouvernements locaux.
Le
résultat déconcertant fut que 68% des sujets estimèrent que (d) était plus
probable que (b), en dépit du fait que (d) ne peut pas se produire sans que (b)
ne se produise (Tversky et Kahneman 1982). Dans une autre expérience, qui est
depuis lors devenue célèbre, Tversky et Kahneman (1982) présentèrent aux sujets
la tâche suivante :
Linda
a 31 ans, elle est célibataire, franche et très brillante. Elle a une majeure
en philosophie. Quand elle était étudiante, elle était très préoccupée par les
questions de discrimination et de justice sociale, et elle a aussi participé à
des manifestations antinucléaires.
Ordonnez
les énoncés suivants selon leur probabilité, en inscrivant 1 pour le plus
probable et 8 pour le moins probable.
(a)
Linda enseigne dans une école primaire.
(b)
Linda travaille dans une librairie et prend des leçons de yoga.
(c)
Linda est active dans le mouvement féministe.
(d)
Linda est une travailleuse sociale en milieu psychiatrique.
(e)
Linda est membre de la ligue des électrices.
(f)
Linda est guichetière dans une banque.
(g)
Linda est vendeuse d'assurances.
(h)
Linda est guichetière dans une banque et active dans le mouvement féministe.
Dans
un groupe de sujets naïfs sans formation en probabilités et statistiques, 89%
ont jugé que l'énoncé (h) était plus probable que l'énoncé (f). Lorsque la même
question fut présentée à des sujets habitués aux statistiques - des étudiants
des cycles supérieurs du programme de science de la décision de l'École de
commerce de Stanford- 85% ont porté le même jugement ! Des résultats de cette
nature, dans lesquels les sujets jugent qu'un événement ou un état de choses
composé est plus probable qu'un de ses composants, se sont produits de façon
répétée depuis les études fondatrices de Kahneman et Tversky.
L'oubli
de la fréquence de base
Selon
une explication bayesienne familière, la probabilité d'une hypothèse à propos
d'une évidence particulière dépend, en partie, de la probabilité antérieure de
l'hypothèse1.
Cependant, dans une série d'expériences, Kahneman et Tversky (1973) ont montré
que les sujets sous-évaluaient souvent sérieusement l'importance des
probabilités antérieures. Une de ces expériences présente à la moitié des
sujets l'histoire suivante :
Un
comité de psychologues a interviewé et administré des tests de personnalité à
30 ingénieurs et 70 avocats ayant tous du succès dans leur domaine respectif.
Sur la base de cette information, des vignettes décrivant les 30 ingénieurs et
les 70 avocats ont été écrites. Vous trouverez sur vos formulaires cinq
descriptions, choisies au hasard parmi les 100 descriptions disponibles. Pour
chaque description, veuillez indiquer la probabilité, sur une échelle allant de
0 à 100, que la personne décrite soit un ingénieur.
On
présentait à l'autre moitié des sujets le même texte, à l'exception du fait que
les fréquences de base étaient inversées. On leur disait que les tests de
personnalité avaient été administrés à 70 ingénieurs et 30 avocats.
Quelques-unes des descriptions qu'on leur offrait étaient conçues pour être
compatibles avec le stéréotype de l'ingénieur que les sujets pouvaient avoir,
mais pas avec leur stéréotype de l'avocat. D'autres étaient conçues pour
concorder avec leur stéréotype de l'avocat, mais pas avec celui de l'ingénieur.
Enfin, une autre série de descriptions était neutre, ne donnant aux sujets
aucune information pouvant être utilisée pour prendre leur décision. Voici deux
exemples, le premier conçu pour dénoter plutôt un ingénieur, le second conçu en
termes neutres :
Jack
est un homme de 45 ans. Il est marié et a quatre enfants. Il est conservateur,
consciencieux et ambitieux. Il ne montre aucun intérêt pour les problèmes
politiques ou sociaux et consacre la majeure partie de ses temps libres à
plusieurs passes-temps dont la menuiserie, la voile et les casses-têtes
mathématiques.
Dick
est un homme de 30 ans. Il est marié, sans enfant. C'est un homme de grande
habileté et hautement motivé, il est promis au succès dans son domaine. Il est
très aimé de ses collègues.
Comme
on s'y attendait, les sujets des deux groupes ont pensé que la probabilité que
Jack soit un ingénieur était assez élevée. De plus, dans ce qui semble une
violation claire des principes bayesiens, la différence dans les histoires
entre les deux groupes de sujets n'a eu presque aucun effet. L'oubli de
l'information concernant la fréquence de base était encore plus frappant dans
le cas de Dick. Cette description était construite pour être totalement dénuée
d'informations eu égard à la profession de Dick. Ainsi, la seule véritable
information utile que les sujets avaient était celle touchant la fréquence de
base contenue dans l'histoire. Mais cette information était totalement
négligée. L'estimé de probabilité médian dans les deux groupes de sujets était
de 50%. Les sujets de Kahneman et Tversky n'étaient cependant pas complètement
insensibles à l'information concernant la fréquence de base. À la suite des
cinq descriptions de leur formulaire, les sujets pouvaient trouver la
description «nulle» suivante :
Supposons
maintenant qu'on ne vous donne aucune information concernant un individu choisi
au hasard dans l'échantillon. La probabilité que cet homme soit un des 30
ingénieurs [ou pour l'autre groupe de sujets: un des 70 ingénieurs] dans un
échantillon de 100 est de _____%
Dans
ce cas, les sujets s'appuient entièrement sur la fréquence de base; l'estimé
médian fut de 30% pour le premier groupe de sujet et de 70% pour le second.
Dans leur discussion de ces expériences, Nisbett et Ross présentent l'interprétation
suivante :
L'implication
de ce contraste entre les conditions «aucune information» et les conditions
«une information totalement non-diagnostic» semble claire. Lorsqu'aucune
évidence spécifique à propos d'un cas cible n'est fournie, les probabilités
antécédentes sont utilisées de façon appropriée ; lorsque des évidences
spécifiques sans valeur sont données, les probabilités antécédentes sont en
général ignorées, et les gens répondent comme s'il n'y avait pas de base pour
estimer qu'il y a des différences entre les probabilités relatives. La
compréhension qu'ont les gens de la pertinence de l'information concernant la
fréquence de base doit être très faible s'ils peuvent devenir réticents à
l'utiliser du fait de la présence d'informations inutiles dans les cas cibles.
(Nisbett et Ross 1980, 145-6)
Avant
de quitter le sujet de l'oubli de la fréquence de base, je voudrais présenter
un exemple supplémentaire illustrant le genre de conséquences pratiques
sérieuses que le phénomène peut avoir. Voici un problème que Casscells et al.
(1978) ont présenté à un groupe de professeurs, d'employés et d'étudiants de
quatrième année de l'Ecole de médecine de Harvard.
Si
un test pour détecter une maladie dont la prévalence est 1/1000 a un taux de
faux-positif de 5%, quelle est la probabilité qu'une personne qui a un résultat
positif ait vraiment la maladie, étant entendu que vous ne savez rien à propos
des symptômes de cette personne ? _____%
Selon
l'interprétation la plus plausible du problème, la réponse bayesienne correcte
est 2%. Mais seulement dix-huit pourcent du groupe de Harvard donna une réponse
de l'ordre de 2%. Quarante-cinq pourcent de ce groupe distingué ignora
complètement l'information concernant la fréquence de base et affirma que la
réponse était 95%. (Si, comme la plupart des médecins de Harvard, vous ne voyez
pas pourquoi 2% est la bonne réponse, continuez votre lecture. Après avoir lu
la section VI, la raison pour laquelle c'est la bonne réponse deviendra
beaucoup plus claire). Il est un peu alarmant, pour ne pas dire plus, que les
mêmes sujets expérimentaux aient posé des diagnostics concernant de vrais
patients et leur offraient des conseils sur des questions telles que les
traitements à suivre et la pertinence d'une opération.
La
confiance excessive
Un
des groupes de phénomènes les plus abondamment étudiés et les plus inquiétants
qui aient été explorés par les psychologues intéressés par le raisonnement et
le jugement met en cause le degré de confiance que les gens ont dans leurs
réponses à des questions factuelles - des questions comme :
Dans chacune
des paires suivantes, quelle ville a le plus d'habitants ?
a) Las
Vegas b) Miami
a) Sidney b)
Melbourne
a)
Hyderabad b) Islamabad
a) Bonn b) Heidelberg
Dans chacune
des paires suivantes, quel événement s'est produit le premier ?
a) La signature
de la Magna Carta b) La naissance de Mahomet
a) La mort de
Napoléon b) L'achat de la
Louisiane
a) L'assassinat
de Lincoln b) La naissance de
la reine Victoria
Après chaque
réponse, on demandait également aux sujets :
À quel point
êtes-vous confiant que votre réponse est correcte?
50% 60%
70% 80% 90%
100%
Dans
une expérience utilisant des questions relativement difficiles, on découvre
souvent que pour des cas où les sujets disent être confiants à 100%, seulement
80% de leurs réponses sont correctes; pour les cas où ils se disent confiants à
90%, seulement 70% de leurs réponses sont correctes; dans les cas où ils se
disent confiants à 80%, seulement 60% de leurs réponses sont correctes. Cette
tendance à la confiance excessive semble très forte. Le fait d'avertir les
sujets que les gens sont parfois excessivement confiants n'a pas d'effet
significatif, non plus que le fait de leur offrir de l'argent (ou des
bouteilles de champagne) en récompense. Qui plus est, le phénomène a été
démontré pour un grand nombre de groupes différents, comprenant des étudiants
de premier cycle, des étudiants des cycles supérieurs, des médecins et même des
analystes de la C.I.A. (pour un survol de la littérature, voir Lichtenstein,
Fischoff et Philips 1982).
Les
découvertes empiriques dont nous venons de rendre compte ne sont qu'un petit
échantillon de l'immense littérature empirique qui a été publiée au cours des
25 dernières années sur les défauts dans le raisonnement humain (pour des
aperçus plus détaillés de la littérature de ce qui est parfois appelé la
tradition des «heuristiques et préjugés», voir Nisbett et Ross 1980; Baron
1988; Piattelli-Palmarini 1994; Dawes 1988; Sutherland 1994. Kahneman, Slovic
et Tversky 1982 constitue une anthologie très utile). Une conséquence
apparemment inévitable de ce vaste corps de découvertes expérimentales est que
la performance des gens dans un vaste domaine de problèmes inférentiels laisse
beaucoup à désirer. Les réponses données par plusieurs sujets expérimentaux
s'éloignent substantiellement et systématiquement des réponses qui seraient en
accord avec un ensemble rationnel de principes inférentiels. Bien sûr, il se
pourrait que toutes ces erreurs soient simplement des erreurs de performance et
qu'elles ne reflètent pas exactement les principes de raisonnement qui forment
la compétence sous-jacente du raisonnement ou la «psycho-logique» des sujets.
Mais de nombreux auteurs ont proposé une interprétation beaucoup plus
troublante de ces résultats expérimentaux. Ces auteurs soutiennent que dans des
expériences comme celles décrites dans cette section, les gens raisonnent de
fait en suivant des formes qui reflètent leur psycho-logique. Ces sujets
n'utilisent pas les principes corrects simplement parce qu'ils n'y ont pas
accès ; ces principes ne font pas partie de la compétence au raisonnement
internalisée des sujets. Ce dont ils disposent plutôt, selon ce point de vue,
est une collection de principes plus simples, ou «heuristiques», qui peuvent
souvent donner lieu à la bonne réponse, mais souvent aussi conduire à une
réponse erronée. Selon cette hypothèse, les sujets font des erreurs parce que
leur psycho-logique est normativement défectueuse ; leurs principes de
raisonnement internalisés ne sont pas des principes rationnels.
Daniel
Kahneman et Amos Tversky, qui sont largement reconnus comme les fondateurs et
des chercheurs de pointe dans la tradition des heuristiques et préjugés,
expliquent cela de la manière suivante :
En
faisant des prédictions et des jugements en situation d'incertitude, les gens
ne semblent pas suivre le calcul des chances ou la théorie statistique de la
prédiction. Au contraire, ils s'en remettent à un nombre limité d'heuristiques,
qui parfois conduisent à des jugements raisonnables, et parfois à des erreurs
graves et systématiques. (1973, 237)
Slovic,
Fishhoff et Lichtenstein, d'importants chercheurs dans cette veine
expérimentale, sont encore plus catégoriques. «Il semble, écrivent-ils, que les
gens n'ont pas les bons programmes pour plusieurs tâches de jugement
importantes [...] Nous n'avons pas eu l'opportunité d'acquérir à travers le
processus de l'évolution un intellect capable de faire face conceptuellement à
l'incertitude». (1976, 174). Stephen J. Gould, théoricien de l'évolution bien
connu et auteur de nombreux ouvrages réputés sur la science, est du même avis.
Après avoir décrit l'expérience de la «guichetière de banque», il demande:
«Pourquoi faisons-nous constamment cette simple erreur de logique ?» Sa réponse
est la suivante : «Tversky et Kahneman ont soutenu, correctement selon moi, que
nos esprits ne sont pas construits (pour quelque raison que ce soit) pour
utiliser les règles de la probabilité» (1992, 469). Si ces auteurs ont raison,
alors Aristote a tort. L'homme n'est pas un animal rationnel.
V. Un défi pour l'explication de la
rationalité en termes d'équilibre réfléchi
À
la section précédente, nous avons examiné quelques résultats expérimentaux qui
mettent en péril l'évaluation optimiste d'Aristote au sujet de la rationalité
humaine. Un certain nombre de philosophes et de psychologues pensent aussi que
de telles découvertes posent un défi majeur à l'explication par l'équilibre
réfléchi, que nous avons ébauchée à la section III. L'argument justifiant cette
conclusion est assez simple. Il commence par reconnaître que certaines des
formes de raisonnement douteuses qu'on trouve dans la littérature peuvent être
en équilibre réfléchi pour nombre de gens. Lorsque les principes sous-tendant
les inférences sont rendus explicites et que les sujets peuvent réfléchir sur
eux et sur leur propre pratique inférentielle, ils peuvent bien accepter à la
fois les inférences et les principes. (Cette thèse trouve une illustration
étonnantedans certains textes de logique au XIXe siècle dans lesquels des
principes problématiques sont explicitement adoptés2. Les auteurs de ces textes
acceptaient sans doute réflexivement à la fois les principes et les inférences
qui s'accordaient avec ceux-ci.). Si tel est le cas, si les principes
sous-tendant des formes d'inférences douteuses mentionnées dans la littérature
psychologique sont vraiment en équilibre réfléchi pour de nombreuses personnes,
alors, soutiennent les critiques, l'explication de la rationalité en termes
d'équilibre réfléchi est erronée. Parce que selon cette explication, être
rationnel consiste justement à passer le test de l'équilibre réfléchi. Si cette
explication est correcte, alors l'erreur de la conjonction, l'oubli de la
fréquence de base ou d'autres formes de raisonnement problématiques seraient
rationnels pour ces gens.
Bien
entendu, chaque exemple d'un principe inférentiel malheureux qui pourrait
apparemment passer le test de l'équilibre réfléchi peut être remis en question.
La question de savoir si les principes douteux qui semblent guider les
pratiques inférentielles survivent ou non à la minutie réflexive qu'exige le
test de Goodman est empirique. Et pour toute règle donnée, un tenant de
l'explication en termes d'équilibre réfléchi pourrait soutenir que le cas
empirique n'a pas été défini adéquatement. Je suis enclin à penser que ceux qui
construisent leur défense de cette façon risquent d'être dépassés par
l'abondance croissante des découvertes empiriques. Mais l'argument ne dépend
pas nécessairement du fait que ce soupçon s'avérera fondé, parce que même la
possibilité que les faits se présentent comme je soupçonne qu'ils le feront
pose un sérieux problème à la thèse de l'équilibre réfléchi. Ce n'est
assurément pas une vérité nécessaire que les principes inférentiels étranges
échoueront le test de l'équilibre réfléchi pour tous les sujets. Et si on nous
accorde, comme on doit clairement le faire, que la fréquence de base ou
l'erreur de la conjonction (ou n'importe quel autre principe inférentiel qui a
retenu l'attention des psychologues ces dernières années) peut passer le test
de l'équilibre réfléchi pour un groupe de sujets quelconque, c'est suffisant
pour jeter un doute sur l'idée que l'équilibre réfléchi est constitutif de la
rationalité. Sûrement, la plupart d'entre nous ne sommes pas portés à dire
qu'il est rationnel d'utiliser n'importe quel principe inférentiel - si bizzare
qu'il soit - simplement parce qu'il s'accorde avec nos pratiques inférentielles
réflexives.
Cela
n'est pas, je m'empresse de le préciser, un argument décisif contre
l'explication de la rationalité en termes d'équilibre réfléchi ; il est
difficile de produire des arguments décisifs dans ce domaine. Quand ils
rencontrent le fait que l'erreur de la conjonction, celle de l'oubli de la
fréquence de base ou quelque autre principe que désapprouvent la plupart des
théoriciens normatifs pourraient passer le test de l'équilibre réfléchi pour un
quelconque groupe de gens réels ou hypothétiques, certains philosophes
durcissent leur position et insistent sur le fait que si le principe en
question est en équilibre réfléchi pour un groupe de gens, alors ce principe
est en fait justifié ou rationnel pour eux. Cette évaluation, insistent-ils,
s'accorde assez bien avec au moins un sens des notions de justification ou de
rationalité pour être une « précisification « de celles-ci plutôt que des
notions protéiformes.
Bien
que s'entêter et insister sur le fait que l'explication en termes d'équilibre
réfléchi saisit (ou précisifie) un sens de la rationalité ne constituent
peut-être pas une position intenable, celle-ci présente manifestement des
désavantages sérieux, le plus évident étant la conséquence très
contre-intuitive qu'à peu près n'importe quelle règle de raisonnement, si
loufoque qu'elle soit, pourrait être rationnelle pour une personne, en autant
qu'elle s'accorde avec sa pratique inférentielle réflexive. Cela a amené de
nombreux philosophes à construire une explication assez différente de ce qu'est
un principe de raisonnement rationnel. Dans grand nombre d'explications, la
notion de vérité joue un rôle central. Les tenants de ces explications
considèrent d'entrée de jeu que le but véritable de la pensée et du
raisonnement est de construire une explication exacte de la façon dont les
choses sont dans le monde. Ce que nous voulons vraiment, ce sont des croyances
vraies. Et si cela est juste, nous devrions employer des principes de
raisonnement et de formation de croyances qui peuvent produire de vraies croyances.
Ainsi, selon ces explications, un principe inférentiel est rationnel ou
justifié si la personne qui l'utilise peut avoir des croyances vraies.
Malheureusement,
de nombreuses explications de la rationalité articulées autour de la notion de
vérité ont elles aussi des conséquences contre-intuitives. Peut-être la façon
la plus facile de les voir est-elle d'invoquer une variation sur le thème du
Malin Génie de Descartes. Imaginez deux personnes qui sont soudainement
victimes du Malin Génie et qui reçoivent à partir de ce moment des inputs
perceptuels systématiquement trompeurs ou illusoires. Supposons de plus qu'une
de ces victimes a utilisé des processus inférentiels assez semblables aux
nôtres et que ceux-ci ont produit des croyances vraies, alors que les processus
inférentiels de l'autre victime sont assez fous (selon ce que nous pouvons
juger) et n'ont pas réussi à produire des croyances vraies. Nous pouvons même
imaginer que la seconde victime est internée dans un asile de fous et qu'elle
est tourmentée par des hallucinations. Dans leur nouvel environnement créé par
le Malin Génie, cependant, le système de principes inférentiels sain - celui
qui est comme le nôtre - conduit à un tissu croissant de fausses croyances.
L'autre système, par contre, fera un bien meilleur travail, produisant des
croyances vraies et évitant les fausses croyances, puisque ce que le Malin
Génie fait, c'est donner à la victime des apparences radicalement trompeuses -
des apparences que seul un lunatique pourrait prendre comme preuve de ce qui se
produit vraiment. Selon l'explication de la rationalité en fonction de la
vérité, les principes inférentiels du lunatique seraient rationnels dans cet
environnement, alors que les nôtres seraient plutôt irrationnels. Cela semble à
plusieurs être un résultat sérieusement contre-intuitif. Les tenants de
l'explication par la vérité ont proposé diverses stratégies pour éviter des cas
comme ceux-ci, quoiqu'on débatte encore beaucoup du taux de succès de ces
stratégies.
Où
cela nous laisse-t-il? Le seul point sur lequel je crois qu'il y a un large
consensus, c'est qu'il n'y a pas de réponses non problématique et généralement
acceptée à la question par laquelle nous avons ouvert la section III :
«Qu'est-ce qui justifie un ensemble de règles ou de principes pour le
raisonnement ? Qu'est-ce qui rend les règles de raisonnement rationnelles ?» La
nature de la rationalité est encore très discutée. De nombreux philosophes
s'entendent également pour dire que les études empiriques sur le raisonnement
(comme celles dont nous avons rendu compte à la section IV) imposent des
contraintes importantes au genre de réponses qui peut être apporté à ces
questions, bien qu'on ne sache encore trop quelles sont ces contraintes. Dans
la section qui suit, nous retournerons à l'étude empirique du raisonnement et
examinerons quelques résultats récents de la psychologie évolutionniste qui
mettent en question la conclusion pessimiste à propos de la rationalité humaine
que certains pourraient tirer des études dont nous avons rendu compte à la
section IV. En interprétant ces résultats, nous n'avons d'autre choix de nous
en remettre à nos intuitions sur la rationalité, puisqu' il n'y a pas de
théorie généralement acceptée sur ce qu'est la rationalité.
VI.
Les humains sont-ils des animaux rationnels après tout? Les données de la
psychologie évolutionniste
Même
si le champ interdisciplinaire de la psychologie évolutionniste est trop
nouveau pour avoir développé un corps de doctrine précis et largement accepté,
il y a trois thèses fondamentales qui sont clairement reçues : la première est
que l'esprit humain contient un grand nombre de systèmes destinés à des fins
particulières - souvent appelés «modules» ou «organes mentaux». Ces modules
sont invariablement conçus comme un type de mécanisme computationnel spécialisé
ou spécifique à un domaine. La seconde thèse centrale de la psychologie
évolutionniste est que, contrairement à ce qui a été maintenu par certains
éminents chercheurs en sciences cognitives (plus particulièrement Jerry Fodor
1983), la structure modulaire de l'esprit n'est pas limitée aux «systèmes
d'inputs» (ceux qui sont responsables de la perception et du traitement du
langage) et aux «systèmes d'outputs» (ceux qui sont responsables de la
production des mouvements du corps). Selon les psychologues évolutionnistes,
les modules servent plusieurs de celles que l'on nomme «capacités centrales»,
comme le raisonnement et la formation des croyances. La troisième thèse est que
les modules mentaux sont ce que les biologistes évolutionnistes ont appelé des
adaptations - ils ont été, comme l'écrivent Tooby et Cosmides, «inventés par la
sélection naturelle pendant l'histoire évolutionniste de notre espèce pour
produire des fins adaptatives dans l'environnement naturel de l'espèce» (Tooby
et Cosmides 1995, xiii). Voici un passage dans lequel Tooby et Cosmides offrent
une image particulièrement vive de ces thèses centrales de la psychologie
évolutionniste :
Notre
architecture cognitive ressemble à une confédération de centaines de milliers
d'ordinateurs fonctionnels (souvent appelés modules) conçus pour résoudre des
problèmes adaptatifs endémiques pour nos ancêtres chasseurs-cueilleurs. Chacun
de ces mécanismes possède son propre ordre du jour et impose sa propre
organisation à différents fragments du monde. Il y a des systèmes spécialisés
dans l'induction de la grammaire, dans la reconnaissance des visages, dans le
positionnement dans l'espace, dans la construction des objets et dans la
reconnaissance des émotions à partir des expressions faciales. Il y a des
mécanismes pour détecter le caractère animé des choses, la direction des yeux
et la tricherie. Il y a un module de la «théorie de l'esprit» [...] une variété
de modules d'inférence sociale [...] et une multitude d'autres élégantes machines.»
(Tooby et Cosmides 1995, xiv)
Si
la plus grande partie de la cognition centrale est en fait servie par des
modules cognitifs qui ont été conçus pour faire face aux problèmes adaptatifs
posés par l'environnement dans lequel nos ancêtres primates ont vécu, il faut
s'attendre à ce que les modules responsables du raisonnement accomplissent leur
meilleur travail lorsque l'information qui leur est acheminée se trouve dans un
format similaire à celui dans lequel l'information était accessible dans l'environnement
ancestral. Et, comme l'a soutenu Gerd Gigerenzer, même s'il y avait une
quantité d'information probabiliste disponible dans cet environnement, cette
information aurait été représentée «en termes de fréquences d'événements,
encodée séquentiellement au fur et à mesure des rencontres - par exemple, 3 sur
20 par opposition à 15% ...» (Girgerenzer 1994, 142). Cosmides et Tooby
soutiennent à peu près la même chose :
Nos
ancêtres hominidés étaient plongés dans un flot de fréquences observables qui
pouvaient être utilisées pour améliorer la prise de décision et ils
développaient les procédures qui pouvaient en profiter. Ainsi, si nous avons
des adaptations pour le raisonnement inductif, elles doivent prendre
l'information en termes de fréquence comme input. (1996, 15-16)
Sur
la base de ces considérations évolutionnistes, Gigerenzer, Cosmides et Tooby
ont proposé et défendu une hypothèse psychologique à laquelle ils réfèrent
comme l'hypothèse fréquentiste : «Certains de nos mécanismes de raisonnement
inductif incorporent des aspects du calcul des probabilités, mais ils sont
conçus pour prendre l'information en termes de fréquence comme input et
produire des fréquences comme output» (Cosmides et Tooby 1996, 3).
Cette
idée a conduit Cosmides et Tooby à poursuivre une intéressante série
d'expériences dans laquelle le «problème de l'Ecole de médecine de Harvard» que
nous avons discuté à la section IV a été systématiquement transformé en un
problème dans lequel à la fois la question et la réponse demandent d'être
formulées en termes de fréquences. Voici un exemple de leur étude dans lequel
l'information concernant la fréquence est rendue particulièrement manifeste :
1 Américain sur
1000 a une maladie X. Un test a été mis au point pour détecter cette maladie.
Chaque fois que le test est administré à une personne qui a la maladie, le test
est positif. Mais parfois le test est aussi positif lorsqu'il est administré à
une personne qui est en parfaite santé. Plus précisément, dans chaque groupe de
1000 personnes en parfaite santé, 50 recevront un diagnostic positif.
Imaginez que
nous ayons réuni au hasard un échantillon de 1000 Américains, choisis par
tirage au sort. Ceux qui ont fait le tirage n'avaient aucune information sur
l'état de santé de ces gens.
Étant donné les
informations mentionnées, en moyenne, combien de gens dont le diagnostic est
positif pour la maladie l'ont-ils vraiment ? _____ sur _____.
À
la différence de l'expérience originale de Casscells et al., dans laquelle
seulement 18% des sujets avaient la réponse bayesienne correcte, 76% des sujets
de Cosmides et Tooby ont cette fois donné la bonne.
Cela
n'est pas seulement un cas isolé dans lequel une «version fréquentiste» des
problèmes de raisonnement probabiliste permet des niveaux de performance élevés.
Au contraire, il s'avère que dans de nombreux cas, lorsque les problèmes sont
formulés en termes de fréquences plutôt que de probabilités, les sujets tendent
à raisonner plus rationnellement. Dans une étude, Fiedler (1988) a montré que
le pourcentage de sujets qui commettaient l'erreur de la conjonction pouvait
être radicalement réduit si le problème était formulé en termes fréquentistes.
Utilisant le problème de la «guichetière féministe», Fiedler contraste le
libellé rapporté à la section IV avec un problème qui se lit comme suit :
Linda
a 31 ans, elle est célibataire, franche et très brillante. Elle a une majeure
en philosophie. Quand elle était étudiante, elle était très préoccupée par les
questions de discrimination et de justice sociale, et elle a aussi participé à
des manifestations antinucléaires.
Il
y a deux cents personnes à qui cette description convient. Combien seront :
guichetières
de banque
.....
guichetières
de banque et actives dans le mouvement féministe?
.....
Dans
la formulation originale du problème, 91% des sujets ont jugé que le cas de la
guichetière féministe est plus probable que le cas de la guichetière.
Toutefois, dans la version fréquentiste présentée ci-haut, seulement 22% des
sujets jugent qu'il y aura plus de guichetières féministes que de guichetières.
Des
études sur la confiance excessive ont également été conduites pour étayer
l'hypothèse fréquentiste. Dans une de celles-ci, Gigerenzer, Hoffrage et
Kleinbölting (1991) rapportent que la sorte de confiance excessive décrite à la
section IV peut «disparaître» si on fait répondre les sujets à des questions
formulées en termes de fréquences. Gigerenzer et ses collègues donnèrent une
liste de 50 questions similaires à celles que nous avons vues à la section IV,
à ceci près qu'en plus d'évaluer leur confiance après chaque réponse (ce qui,
en effet, leur demande de juger la probabilité d'un événement singulier), on
posait également au sujet des questions à propos de la fréquence de réponses
correctes : «À combien de ces 50 questions pensez-vous avoir donné une bonne
réponse ?». Dans deux expériences, la moyenne de confiance excessive était
environ de 15% lorsque la confiance en des événements singuliers était comparée
à la fréquence relative réelle de réponses correctes, reproduisant le genre de
données présenté à la section IV. Cependant, comparer «la fréquence estimée
avec la fréquence réelle de bonnes réponses» des sujets «faisait disparaître la
«confiance excessive» [...] Les fréquences estimées étaient pratiquement identiques
aux fréquences actuelles ... «L'illusion cognitive» avait disparu» (Gigerenzer
et al. 1991a, 89).
À
la section IV, nous avons vu une version de la tâche de sélection des quatre
cartes de Wason, pour laquelle la plupart des sujets parvenaient à des résultats
médiocre. On avait noté qu'alors que les résultats étaient tout aussi médiocres
dans de nombreuses autres versions de la tâche de sélection, il y avait des
versions où la performance des sujets s'améliorait radicalement. Voici un
exemple de Griggs et Cox (1982).
Dans
leur lutte contre l'ivresse au volant, les officiers de police du Massachusetts
ne cessent de retirer des permis de conduire. Vous êtes videur dans un bar de
Boston et vous perdrez votre emploi si vous n'appliquez pas la loi suivante :
« Pour
boire de la bière, il faut avoir plus de 20 ans »
Les
cartes ci-après contiennent des renseignements sur quatre personnes assises à
une table dans votre bar. Sur un côté de chaque carte se trouve la nature de la
consommation et sur l'autre, l'âge de la personne. N'identifiez que les cartes
que vous devez absolument retourner pour savoir si l'une de ces personnes
enfreint la loi.
bière coca 25
ans 16
ans
D'un
point de vue logique, ce problème semble structurellement identique au problème
de la section IV, mais le contenu des problèmes a clairement un effet majeur
sur la correction des réponses données. A peu près 75% des étudiants de collège
ont donné la bonne réponse à cette version de la tâche de sélection, alors que
25% ont eu la bonne réponse dans l'autre version. Quoiqu'il y ait eu des
douzaines d'études explorant cet «effet de contenu» sur la tâche de sélection,
jusqu'à tout récemment ces résultats étaient relativement incompréhensibles
puisqu'il n'y avait pas de propriété évidente ou un groupe de propriétés
partagées par ces versions de la tâche de sélection pour lesquelles le taux de
réponses correctes était élevé. Cependant, dans plusieurs articles récents,
Cosmides et Tooby ont soutenu que l'analyse évolutionniste nous permet de déceler
un motif surprenant dans ce qui autrement constitue des résultats déroutants
(Cosmides 1989, Cosmides et Tooby 1992).
Le
point de départ de leur analyse évolutionniste est l'observation que dans
l'environnement dans lequel nos ancêtres ont évolué (mais dans le monde moderne
également) il arrivait souvent que des individus non apparentés participaient à
ce que les théoriciens des jeux ont appelé des échanges à «somme non nulle»,
dans lesquels les bénéfices du récipiendaire (mesurés en termes d'adaptation reproductive)
étaient beaucoup plus grands que les coûts pour le donneur. Dans une société de
chasseurs-cueilleurs, par exemple, il arrivera parfois qu'un chasseur a été
chanceux un jour donné et qu'il a de la nourriture en abondance, alors qu'un
autre chasseur a été malchanceux et meurt de faim. Si le chasseur chanceux
donne un peu de sa viande au chasseur malchanceux plutôt que s'en gaver, cela
peut avoir un petit effet négatif sur l'adaptation du donneur puisque ces
quelques grammes supplémentaires de gras corporel qu'il aurait pu consommer
auraient pu être utiles dans le futur, mais le bénéfice pour le récipiendaire
est beaucoup plus grand. Il y a quand même un quelconque coût pour le donneur ;
il se porterait un peu mieux s'il n'avait pas aidé ces individus non
apparentés. Il est quand même clair que les gens aident parfois ceux qui ne
leur sont pas apparenté, et il y a des raisons de penser que les primates non
humains (ainsi que les chauves-souris) font la même chose. À première vue,
cette sorte d'«altruisme» semble poser un casse-tête évolutionniste puisque si
un gène qui rend un organisme moins enclin à aider les individus non apparentés
apparaît dans une population, ceux qui auront ce gène seront un petit peu plus
adaptés, de sorte que ce gène se répandra graduellement dans la population.
Une
solution a été proposée par Robert Trivers (1971), qui avait noté que, alors
que l'altruisme unidirectionnel était une mauvaise idée d'un point de vue
évolutionniste, l'altruisme réciproque était une autre histoire. Si deux
chasseurs (qu'ils soient des humains ou des chauves-souris) peuvent compter
l'un sur l'autre lorsque l'un a de la nourriture en abondance et que l'autre
n'en a pas, alors cela devrait profiter à tous deux à long terme. Ainsi, les
organismes avec un gène ou une suite de gènes qui les rendent enclins à
participer à des échanges réciproques avec des non-parents (des «échanges
sociaux», comme on les nomme parfois) seraient mieux adaptés que les membres de
la même espèce qui n'ont pas ces gènes. Mais, bien sûr, les arrangements
d'échange réciproque sont exposés à la tricherie. Dans le cours de la
maximization de l'adaptation, les individus s'en tireront mieux si on leur
offre régulièrement et s'ils acceptent de l'aide quand ils en ont besoin, mais
ne rendent jamais la pareille lorsque les autres ont besoin d'aide. Cela
suggère que si des arrangements d'échanges sociaux peuvent exister, les
organismes impliqués doivent avoir des mécanismes qui leur permettent de
détecter les tricheurs et d'éviter de les aider dans le futur. Et puisque les
humains sont apparemment capables de participer à des relations d'échanges
sociaux stables, cette analyse a conduit Cosmides et Tooby à faire l'hypothèse
que nous avons un ou plusieurs modules ou organes mentaux dont le travail
consiste à reconnaître les arrangements d'échanges réciproques et à détecter
les tricheurs qui acceptent les bénéfices de tels arrangements, mais qui n'en
paient pas les coûts. Bref, l'analyse évolutionniste conduit Cosmides et Tooby
à faire l'hypothèse de l'existence d'un ou plusieurs modules de détection des
tricheurs. J'appellerai cela l'hypothèse de la détection des tricheurs.
Si
cette hypothèse est correcte, nous devrions découvrir quelques traces de
l'existence de ces modules dans la pensée des humains contemporains. C'est ici
que la tâche de sélection fait son entrée. En fait, selon Cosmides et Tooby,
quelques versions de la tâche de la sélection utilisent un ou plusieurs module
mentaux conçus pour détecter les tricheurs dans les situations d'échange
social. D'autres versions de la tâche n'activent pas les modules d'échanges
sociaux et de détection des tricheurs. Puisque nous n'avons pas de modules
mentaux pour venir à bout de ces problèmes, les gens les trouveront plus
difficiles, et leurs performances seront beaucoup moins bonnes. Le problème du
videur du bar de Boston présenté plus tôt est un exemple d'une tâche de
sélection qui déclenche un mécanisme de détection des tricheurs. Le problème
des voyelles et des nombres impairs présenté à la section IV est un exemple de
tâche de sélection qui ne déclenche pas de module de détection de tricheurs.
Afin
d'étayer leur théorie, Cosmides et Tooby ont réuni un ensemble de données
impressionnant. L'hypothèse de la détection des tricheurs soutient que les
échanges sociaux ou les «contrats sociaux» donneront lieu à une bonne
performance aux tâches de sélection, et cela nous permet de déceler un motif
clair dans cette littérature expérimentale déconcertante qui s'est développée
avant que leur hypothèse ne soit formulée.
Lorsque
nous avons entrepris notre recherche en 1983, la littérature sur la tâche de
sélection de Wason était remplie de rapports au sujet d'une grande variété
d'effets de contenu, et il n'y avait pas de théorie satisfaisante ou de généralisation
empirique qui pouvait rendre compte de ces effets. Quand nous avons catégorisé
ces effets de contenu selon qu'ils se conforment ou non aux contrats sociaux,
un motif frappant est apparu. On n'a trouvé des effets de contenu solides et
qu'on peut reproduire que pour les règles qui lient des termes qui sont
reconnaissables comme bénéfice et coût/obligation dans le format des contrats
sociaux standard [...] Aucune règle thématique qui n'était pas un contrat
social n'a jamais produit un effet de contenu aussi solide ... Étant donné ce
que nous savons, pour les problèmes thématiques de contrats non sociaux, 3
expériences ont produit un substantiel effet de contenu, 2 ont produit un effet
de contenu faible, et 14 n'ont produit aucun effet de contenu. En revanche, 16
expériences sur 16 qui se conformaient au critère pour les contrats sociaux
standard [...] ont provoqué des effets de contenu substantiels. (Cosmides et
Tooby 1992, 183)
Depuis
la formulation de l'hypothèse de la détection des tricheurs, de nombreuses
autres expériences ont été élaborées pour tester l'hypothèse et éliminer les
autres possibilités. Et même si l'hypothèse a toujours de nombreux critiques,
il n'y a pas de doute que certaines de ces expériences impressionnent par leur
caractère concluant.
De
tels résultats ont favorisé le retour de l'optimisme aristotélicien. Selon le
point de vue des optimistes, les théories et découvertes de la psychologie
évolutionniste suggèrent que le raisonnement humain est servie par «d'élégantes
machines» qui ont été conçues et raffinées par la sélection naturelle pendant
des millions d'années, et c'est pourquoi toute inquiétude quant à une
quelconque irrationalité systématique serait dénuée de fondement. Le titre que
Cosmides et Tooby ont choisi pour le texte dans lequel ils font état de leurs
données concernant le problème de l'Ecole de médecine de Harvard est un bon
indicateur de cet optimisme: «Est-ce que les humains sont de bons statisticiens
intuitifs après tout? Repenser certaines conclusions de la littérature sur le
jugement en situation d'incertitude». Cinq ans plus tôt, alors que la recherche
de Cosmides et Tooby était toujours en cours, Gigerenzer avait rapportés
quelques-unes de leurs premières découvertes dans un article au titre
provocateur: «Comment faire disparaître les illusions cognitives: au-delà des
«heuristiques et préjugés»». Chacun de ces deux titres suggère clairement que
les découvertes dont il est fait état attaquent de front le pessimisme
caractéristique de la tradition des heuristiques et préjugés. Et il ne s'agit pas que des titres. Article
après article, Gigerenzer a fait des déclarations du type : « il nous faut être
plus optimistes « (1991b, 245) ou « nous ne devons pas forcément nous en faire
à propos de la rationalité humaine « (1998, 280) et il a soutenu qu'on peut
considérer « l'intuition comme fondamentalement rationnelle » (1991b,
242). Au vu de commentaires de ce genre, il n’est guère étonnant qu’un
commentateur ait dit de Gingerenzer et de ses collègues qu’ils ont « adopté
une position empirique contre l’idée entretenue par certains psychologues que
les gens sont plutôt stupides » (Lopes, cité par Bower, 1996).
VII. La psychologie évolutionniste
montre-t-elle qu'Aristote avait raison?
Les
théories préconisées par les psychologues évolutionnistes sont très
controversées (si ce n'est plus), et même leurs expériences n'ont pas été sans
soulever des contestations. Mais supposez qu'il s'avère que les psychologues
évolutionnistes aient raison à propos des mécanismes mentaux qui sous-tendent
le raisonnement humain. Est-ce que cela montrerait vraiment que la thèse
d'Aristote était correcte? La réponse est, je crois, pas du tout. Pour voir
pourquoi, commençons par rappeler comment nous interprétons la thèse
d'Aristote. L'affirmation selon laquelle les humains sont des animaux, comme
nous l'avons expliqué à la section II, signifie que les gens normaux ont une
compétence de raisonnement rationnelle. Cette compétence est un ensemble de
règles ou de principes de raisonnement mentalement représenté - une
psycho-logique - et la thèse d'Aristote est que ces règles sont rationnelles ou
normativement appropriées; elles spécifient la façon correcte de raisonner.
Ainsi lorsque les gens font des erreurs de raisonnement ou qu'ils raisonnent
irrationnellement, les erreurs sont des erreurs de performance qui ne reflètent
pas les principes représentés mentalement qui sous-tendent le raisonnement.
La
première chose à dire au sujet de la relation entre la psychologie
évolutionniste et la thèse d'Aristote est que si la psychologie évolutionniste
a raison, alors notre interprétation de la thèse d'Aristote est trop simpliste
pour s'accorder avec les faits. Selon le modèle de l'esprit qu'ont les
psychologues évolutionnistes, les gens n'ont pas une compétence de
raisonnement, ils en ont beaucoup, et chacun de ces modules mentaux « à tâche
spécifique « possède son propre ensemble de règles. Ainsi il n'y a pas une
seule psycho-logique non plus; il y en a beaucoup. On pourrait penser que cela
ne pose qu'un problème mineur aux défenseurs de l'optimisme aristotélicien.
Plutôt qu'affirmer qu'il n'y a qu'un mécanisme sous-tendant le raisonnement et
qu'il comprend un ensemble de règles rationnellement ou normativement
appropriées, ils pourraient soutenir qu'il y a de nombreux mécanismes
sous-tendant le raisonnement et que tous utilisent des règles normativement
appropriées. Mais, et cela est un fait déterminant, la psychologie
évolutionniste n'étaye pas cette affirmation. La psychologie évolutionniste
maintient que la sélection naturelle nous a équipés d'un nombre de mécanismes
de raisonnement bien conçus qui emploient des principes rationnellement ou
normativement appropriés pour le genre de problèmes qui étaient importants dans
l'environnement des chasseurs/cueilleurs qu'étaient nos ancêtres. Il y a
toutefois de nombreuses sortes de problèmes de raisonnement qui sont importants
dans le monde moderne - des problèmes impliquant la probabilité d'événements
uniques, par exemple - que ces mécanismes ne sont pas conçus pour résoudre.
Dans plusieurs cas, suggèrent les psychologues évolutionnistes, les élégants
mécanismes de raisonnement spécifique à une tâche conçus par la sélection
naturelle ne pourront même pas traiter ces problèmes. Plusieurs des problèmes
étudiés par la littérature de «heuristiques et préjugés» étaient de ce genre.
Et la psychologie évolutionniste ne nous donne aucune raison de supposer que
les gens ont des règles rationnelles représentées mentalement pour faire face à
des problèmes comme ceux-là.
Selon
l'interprétation de la littérature expérimentale sur le raisonnement que je
défends, rien ne justifie ni l'optimisme aristotélicien ni le pessimisme de
ceux qui ont suggéré que nos esprits n'étaient équipés que d'un «programme de
mauvaise qualité». Nous avons et utilisons quelques programmes remarquablement
bons pour venir à bout des problèmes qui étaient importants dans
l'environnement où notre espèce a évolué. Mais il y a également des lacunes
importantes dans le genre de problèmes dont notre esprit peut venir à bout. Le
défi pour les philosophes, psychologues et éducateurs des prochaines décennies
sera de concevoir de meilleures façons pour nos esprits de l'âge de pierre de
traiter les problèmes de raisonnement que nous rencontrons à l'âge des voyages
spatiaux, des réseaux d'ordinateurs globaux et des armes nucléaires.
(Traduit de l'anglais par Luc Faucher et
François Latraverse)
Bibliographie
Baron, J. (1988). Thinking and Deciding, Cambridge, Cambridge University Press.
Baron-Cohen, S. (1995), Mindblindness: An Essay on Autism and Theory
of Mind, Cambridge, MA, MIT Press.
Bower, B. (1996), « Rational mind
design: research into the ecology of thought treads on contested
terrain », Science News, 150,
24-25.
Casscells, W., Schoenberger, A. and
Grayboys, T. (1978), « Interpretation by physicians of clinical laboratory
results », New England Journal
of Medicine, 299, 999-1000.
Chomsky, N. (1965), Aspects of the Theory of Syntax, Cambridge, MA, MIT Press.
Chomsky, N. (1980), Rules and Representations, New York, Columbia University Press.
Coppée, H. (1974), Elements of Logic, Revised Edition, Philadelphia, H. Butler &
Co.
Cosmides, L. (1989), « The logic of
social exchange: Has natural selection
shaped how humans reason? Studies with Wason Selection Task », Cognition, 31, 187-276.
Cosmides, L. and Tooby, J. (1992),
« Cognitive adaptations for social exchange », in Barkow, Cosmides and Tooby (1992), 163-228.
Cosmides, L. and Tooby, J. (1996),
« Are humans good intuitive statisticians after all? Rethinking some conclusions from the
literature on judgment under uncertainty », Cognition, 58, 1, 1-73.
Dawes, R. (1988), Rational Choice in an Uncertain World, Orlando, Harcourt Brace
Jovanovich.
Evans, J. Newstead, S. & Byrne, R.
(1993), Human Reasoning: The Psychology of Deduction, Hove,
Erlbaum.
Fiedler, K. (1988), « The dependence of the conjunction
fallacy on subtle linguistic factors », Psychological Research, 50, 123-129.
Fodor, J. (1983), The Modularity of Mind, Cambridge,
MA, MIT Press.
Gigerenzer, G. (1991a), « How to
make cognitive illusions disappear:
Beyond 'heuristics and biases », European Review of Social Psychology, 2, 83-115.
Gigerenzer, G. (1991b), « On
Cognitive Illusions and Rationality », Poznan
Studies in the Philosophy of the Sciences and the Humanities, Vol. 21,
225-249.
Gigerenzer, G. (1994), « Why the
distinction between single-event probabilities and frequencies is important for
psychology (and vice versa) », in
G. Wright and P. Ayton, Subjective
Probability, New York: John Wiley.
Gigerenzer, G. (1998), « The
modularity of social intelligence », in
A. Whiten and R. Byrne, Machiavellian Intelligence II,
Cambridge: Cambridge University Press.
Gigerenzer, G., Hoffrage, U., and
Kleinbölting, H. (1991), « Probabilistic mental models: A Brunswikean theory of confidence », Psychological Review, 98, 506-528.
Goodman, N. (1984), Faits, fictions et prédictions, Paris, Minuit.
Gould, S. (1992), Bully for Brontosaurus. Further Reflections in Natural History, London, Penguin Books.
Griggs, R. and Cox, J. (1982), « The
elusive thematic-materials effect in Wasonís selection task », British Journal of Psychology, 73,
407-420.
Kahneman, D. and Tversky, A. (1973),
« On the psychology of prediction »,
Psychological Review, 80,
237-251. Repris dans Kahneman, Slovic and Tversky (1982), 48-68.
Kahneman, D., Slovic, P. and Tversky, A.
(dir. de la publ.). (1982), Judgment
Under Uncertainty: Heuristics and Biases, Cambridge, Cambridge University Press.
Lichtenstein, S., Fischoff, B. and
Phillips, L. (1982), « Calibration of probabilities: The state of the art to 1980 », in Kahneman, Slovic and Tversky (1982),
306-334.
Nisbett, R. and Ross, L. (1980), Human Inference: Strategies and Shortcomings
of Social Judgment, Englewood Cliffs, Prentice-Hall.
Piattelli-Palmarini, M. (1994), Inevitable Illusions: How Mistakes of Reason
Rule Our Minds, New York, John Wiley & Sons.
Slovic, P., Fischhoff, B., and
Lichtenstein, S. (1976), « Cognitive processes and societal risk
taking », in J. S. Carol and J.
W. Payne (dir. de la publ.), Cognition
and Social Behavior, Hillsdale,
Erlbaum.
Sutherland, S. (1994), Irrationality: Why We Don't Think Straight!
, New Brunswick, Rutgers University Press.
Tooby, J. and Cosmides, L. (1995),
« Foreword », in
Baron-Cohen (1995), xi-xviii.
Trivers, R. (1971), « The evolution
of reciprocal altruism », Quarterly
Review of Biology, 46, 35-56.
Tversky, A. and Kahneman, D. (1982),
« Judgments of and by representativeness », in Kahneman, Slovic and
Tversky (1982), 84-98.
1
Le théorème de
Bayes, nommé en l'honneur du Révérent Thomas Bayes, stipule que p(H/D)= p(D/H)
x p(H)/ p(D) où p(H/D) est la «probabilité conditionnelle » de
l'hypothèse, H, étant donné que D (les données) est vraie, p(D/H) est la probabilité
conditionnelle de D, étant donné que H est vrai, p(H) est la probabilité
«antérieure" que H soit vraie et p(D) est la probabilité que D soit vraie.
2
Par exemple, dans Elements of Logic, publié en 1974, Henry
Coppée approuve explicitement la fameuse «erreur du parieur" (Gambler's
Fallacy). Voici ce qu'il dit: « Ainsi, lorsque nous lançons un dé, nous ne
pouvons pas être certains qu'aucune face ou combinaison de faces apparaîtra;
mais si, à la suite de plusieurs lancers, une face particulière n'est pas
apparue, ses chances d'apparaître deviennent de plus en plus fortes, jusqu'à ce
qu'elles approchent très près de la certitude. Cela doit se produire; et à
chaque lancer où elle n'apparait pas, la certitude de son occurrence devient de
plus en plus grande ».