L’erreur de prévision comme blessure de la prudence

La spécialité de Daniel Kahneman et d’Amos Tversky est la psychologie de la décision. C’est en ce domaine qu’ils ont montré le plus grand nombre de « biais ». Or, la décision, l’initiative responsable, est l’acte de la vertu de prudence. Nos auteurs ont donc exploré les blessures de l’intelligence pratique dans le domaine prudentiel.

S’il est un domaine important en prudence, c’est la prévision. Et s’il y a pourtant un domaine où cette vertu se trompe, c’est bien la prévision. Concrètement, il y a le plus souvent un décalage entre ce que nous visons et ce que nous réalisons. Autrement dit, nous commettons souvent ce que Kahneman appelle une « erreur de prévision » [1]. Après avoir établi le fait à partir de quelques exemples (1), nous nous demanderons successivement : pourquoi ? (2) Comment y remédier ? (3) [2]

1) Quelques faits

La liste des prévisions erronées voire insensées est immensément longue et inquiétante. En voici quelques exemples que toute personne pourra compléter par sa propre expérience :

  1. Exemple en projet architectural politique. Un nouveau Parlement écossais doit être construit à Édimbourg. En juillet 1997, il est estimé à 40 millions de £. 2 ans plus tard, il est replafonné à 109 millions. Je vous passe les différentes étapes. L’édifice fut terminé en 2004 et coûta… 431 millions de £, soit presque 11 fois plus [3].
  2. Exemple en construction ferroviaire. Une étude réalisée en 2005 sur les projets ferroviaires a montré que le nombre d’usagers projeté était surestimé dans plus de 90 % des cas, que la surestimation moyenne était plus du double (106 % en plus), et que le dépassement moyen des coûts était de 45 %. Mais le plus significatif est à venir : malgré l’évidence des preuves, les experts ont continué à les ignorer [4].
  3. Exemple privé. En 2002, une étude a porté sur les coûts prévisionnels pour la réfection des cuisines dans les foyers américains : ils s’attendaient à un coût moyen de 18 658 euros ; mais au terme, ils avaient payé en moyenne 38 769 euros, soit plus du double [5].

Le problème posé est au minimum double : pourquoi se trompe-t-on si souvent et autant sur les prévisions ? Pourquoi, même en le sachant, l’on continue à se tromper ? Une telle résistance à l’évidence doit s’enraciner dans des causes profondes.

2) Mécanismes

0’) Exemple détaillé [6]

Kahneman donne l’exemple de la préparation d’un manuel sur le jugement et la prise de décision au lycée : il convainc le ministère israélien de l’Éducation et rassemble une équipe d’enseignants chevronnés, ainsi que Seymour Fox, spécialiste du développement des programmes. Kahneman demande un jour aux participants d’évaluer le temps de rédaction d’une première version du manuel : les chiffres oscillaient entre 1 ½ an et 2 ½ ans. Kahneman eut alors une autre intuition : il se tourne vers Seymour et lui demande s’il connaissait d’autres exemples d’équipes ayant monté un programme à partir de rien. Il répondit affirmativement. Et quel était le délai habituel ? Seymour se tut, puis répondit, gêné : « Vous savez, je ne m’en étais jamais aperçu jusqu’à présent, mais, en fait, à un stade comparable au nôtre, toutes les équipes ne sont pas allées jusqu’au bout. Un nombre important d’entre elles n’ont pas fini leur travail ». Coup de tonnerre dans un ciel serein. Quel pourcentage a arrêté ? « Environ 40 % ». Et quel temps ont mis les équipes qui ont fini ? Entre 7 et 10 ans ! Kahneman boit le calice jusqu’à la lie : et si l’on compare ces groupes au nôtre ? Réponse de Seymour : « Nous sommes en dessous de la moyenne » !!

Mais le plus intéressant est la suite : personne n’était prêt à s’investir pour 6 ans pour un travail ayant 40 % de chances d’échouer. Il aurait donc fallu abandonner. Mais ils ont continué. Finalement, ils ont mis 8 ans et, lorsque le manuel fut prêt, le ministère israélien de l’Éducation n’était plus intéressé, de sorte qu’il ne fut jamais utilisé… (entre temps, Kahneman était parti aux Etats-Unis ne faisait plus partie de l’équipe).

 

De cet exemple, l’on peut induire un certain nombre de mécanismes expliquant ces occultations parfois catastrophiques conduisant à de telles erreurs de jugements. L’on observera que nombre de ces blessures ne sont pas des affaiblissements ou des inclinations déviantes, mais naissent de conflits entre deux tendances contraires, aussi puissantes l’une que l’autre.

a) La focalisation sur l’autoréférence

La blessure de l’intelligence consiste à ne pas voir ce que nous devrions voir : c’est la privation d’une lumière nécessaire, à l’étroitesse du champ de conscience. Or, celui qui est habité par un sujet se focalise sur lui, adopte des références internes à ce projet. Il commet donc une erreur de prévision et blesse sa capacité prudentielle. Qu’il est révélateur que Seymour n’ait pas pensé à des cas similaires, qu’il n’ait pas opéré des corrélations avec des histoires homogènes qu’il connaissait pourtant très bien. D’ailleurs, sa honte (« j’ai eu l’impression qu’il rougissait ») montre qu’il pense qu’il aurait dû y penser.

b) La focalisation sur la réussite partielle

Les personnes, dans un projet, avancent, se focalisent sur leurs progrès, et c’est d’ailleurs cette attention qui leur permet de mobiliser l’énergie pour faire progresser le projet : « nous nous concentrons sur ce que nous savons et négligeons ce que nous ne savons pas, ce qui nous rend trop sûrs de nos convictions [7] » ; or, toute focalisation fait oublier ce qui est autre, a fortiori ce qui est contraire, à savoir les obstacles, les erreurs, etc. ; donc, l’avancée fait oublier parfois l’évidence d’obstacles importants, voire rédhibitoires.

Par exemple, il est bien établi aujourd’hui que « 90 % des conducteurs croient être supérieurs à la moyenne » [8]. Or, ce résultat est absurde, comme celui selon lequel 100 % des personnes estiment être des victimes, et 0 % être des bourreaux ! Or, ce phénomène d’autoglorification est d’abord un biais cognitif : de manière générale, les personnes ont tendance à être trop optimistes dans l’évaluation de leur capacité corrélative pour toute activité où ils se débrouillent relativement bien.

c) La négligence de la concurrence

Colin Camerer et Dan Lovallo ont inventé ce concept « négligence de la concurrence » [9] et l’illustrent par une citation de l’homme qui était à ce moment président des studios Disney, alors qu’on lui demandait pourquoi tant de blockbusters sortent le même jour comme le 4 juillet : « L’orgueil. L’orgueil. Quand vous ne pensez qu’à votre propre entreprise, vous vous dites : j’ai de bons scénaristes, de bons commerciaux, voilà ce que nous allons faire. Et vous n’imaginez pas que tout le monde pense exactement de la même façon ». Conséquence : cinq films à gros budgets sortent le même jour, débordant les capacités du public…

Nous verrons plus bas le rôle de cette cause moral dans les biais d’optimisme.

d) La préférence pour le concret

Une autre blessure : pourquoi les personnes négligent-elles les statistiques, l’évidence de lois pourtant dûment établies ? Personne n’irait remettre en question la loi de gravitation universelle. On l’a montré par ailleurs : l’évidence d’une donnée concrète, affectivement investie pèse beaucoup plus que des données abstraites « sans relief » [10]. Or, les statistiques disponibles font figure de pâles informations. Donc, en concurrence avec un projet motivant, elles perdent à tous les coups. On l’a par exemple observé en médecine : une expérience et une vision pèsent plus qu’une procédure impersonnelle et froide, voire inquiétante [11].

e) La difficulté d’accepter un échec et la persévérance irrationnelle

La personne a besoin d’unité ; or, un échec est une rupture dans la continuité du temps. Plus précisément, ce besoin concerne l’action et l’échec est une solution de continuité dans la réalisation d’un projet.

De plus, nous l’avons vu, un échec est bien plus douloureux à encaisser qu’une réussite (équivalente) n’est joyeuse. Or, arrêter un projet en cours est un échec.

f) Le biais d’optimisme

Nous appelons biais, toute blessure de l’intelligence. Or, la passion peut blesser l’intelligence. Mais les décideurs présentent souvent un enthousiasme excessif. Par conséquence, ils blessent la vérité par leur excès d’optimisme. A contrario, il est plus aisé de changer de cap en cas de crise. Il faudra y revenir dans un chapitre à part.

g) Le sophisme des coûts irrécupérables

Un dernier mécanisme doit être pris en compte : perdre de l’argent déjà investi, arrêter ce qui a déjà coûté de grands efforts induit des grands regrets ; or, les regrets sont l’un des sentiments les plus onéreux ; mais nous évitons tout ce qui est coûteux. Or, nous croyons souvent que les coûts importants sont irrécupérables (cf. avant) [12]. Donc, nous continuons à aller de l’avant…

h) Les conflits de loyauté

Lorsqu’une décision est prise, surtout si elle est entérinée par le patron, les employés peuvent avoir des doutes. Toutefois, ils sont habités par une exigence : la fidélité vis-à-vis de l’équipe et du chef. Or, celle-ci demande d’aller de l’avant. Donc, il se produit un conflit de loyauté, qui neutralise sinon le doute, du moins la parole de ceux qui poseraient des questions. Dès lors, sans opposition, ceux qui managent le projet se convainquent de l’unanimité et pèchent par excès de confiance.

i) Une cause morale

On ne peut non plus écarter une cause morale : le mensonge, la volonté de tromper. Par exemple, les auteurs de plans de budgets prévisionnels désirent être approuvés ; or, un prix plus bas est plus aisément approuvé. Par ailleurs, ils savent aussi que, lorsqu’un projet a été accepté, il est bien plus difficile de l’abandonner et que l’on admet aisément autant les dépassements budgétaires que les retards [13].

3) Remèdes

Une démarche permet d’éclairer l’intelligence prévisionnelle aveuglée. Elle suit d’ailleurs celle qu’illustre Kahneman dans le questionnaire ci-dessus avec Seymour Fox.

a) Convoquer une vision externe

Le grand remède est la vision externe. Sur un problème, nous pouvons adopter deux visions très différentes : interne ou externe [14]. La vision blessée est la vision autoréférente, autrement dit interne : elle procède par extrapolations ; mais comme il n’y a nulle référence, elles sont arbitraires et le plus souvent erronées.

b) Dans cette vision, identifier une référence

La vision externe se concrétise dans une catégorie de référence appropriée. C’est ce que Kahneman appelle « prédiction de base » et « ancrage ».

c) Obtenir les statistiques de la catégorie de référence.

Par exemple, obtenir les prix et les délais pour la construction d’un édifice public équivalent, pour les coûts par kilomètres de voie ferrée.

d) Adapter ces statistiques au cas particulier.

Il convient enfin d’ajuster l’analogatum princeps à l’analogué.

Pascal Ide

[1] Cf. Daniel Kahneman & Amos Tversky, « Intuitive Prediction. Biases and corrective procedures », Management Science, 12 (1979), p. 313-327.

[2] Cf. Daniel Kahneman, Système 1 / Système 2, chap. 23.

[3] Cf. Rt. Hon. The Lord Fraser of Carmyllie, « The Hollywood Inquiry. Final Report », 8 septembre 2004. Sur le site :

[4] Cf. Brent Flyvberg, Mette K. Skamris Hom & Sören L. Buhl, « How (in)accurate are demand forecasts in public works projects ? », Journal of the American Planning Association, 71 (2005), p. 131-146.

[5] Cf. « 2002 Cost vs. Value Report », Remodeling, 20 novembre 2002.

[6] Cf. Daniel Kahneman, Système 1 / Système 2, p. 378-382.

[7] Daniel Kahneman, Système 1 / Système 2, p. 401.

[8] Cf. Paul D. Windschitl, Jason P. Rose, Michael T. Stalkfleet &Andrew R. Smith, « Are people excessive or judicious in their egocentrism ? A modeling approach to understanding bias and accuracy in people’s optimism », Journal of Personality and Social Psychology, 95 (2008) n° 2, p. 253-273.

[9] Cf. Colin Camerer & Dan Lovallo, « Overconfidence and Excess Entry: An Experimental Approach », American Economic Review, 89 (1999) n° 1, p. 306-318.

[10] Cf. Richard E. Nisbett & Lee D. Ross, Humain Inference. Strategies and Shotcomings of Social Judgment, Englewood Cliffs (New Jersey), Prentice Hall, 1980.

[11] Cf. un exemple dans Jerome Groopman, How Doctors Think, New York, Mariner Books, 2008, p. 6.

[12] Cf. Hal R. Arkes & Catherine Blumer, « The psychology of sunk cost », Organizationa Behavior and Human Decision Processes, 35 (1985), p. 124-140 ; Hal R. Arkes & Peter Ayton, « The sunk cost and concorde effects. Are humans less rational than lower animals ? », Psychological Bulletin, 125 (1998), p. 591-600.

[13] Cf. Brent Flyvberg, « From Nobel Price to Project management. Getting risks right », Project Management Journal, 37 (2006), p. 5-15.

[14] Cf. Dan Lovallo & Daniel Kahneman, « Delusions of Success. How optimism undermines executives’decisions », Harvard Business Review, 81 (2003), p. 56-63.

25.11.2019
 

Les commentaires sont fermés.