Chapitre 11
Bilan au tournant du troisième millénaire
« L’amour pour la nature est le seul qui ne trompe pas les espérances humaines [1] ».
« Sans doute est-ce nous mythifier nous-mêmes, que d’ignorer notre conditionnement matériel, psychologique ou sociologique. Mais il y a une mystification, tout aussi tragique, bien que plus subtile, à s’imaginer que la vie humaine se réduit à ses aspects analysables, mathématisables, quantifiables ou exprimables [2] ».
Il suffit de reprendre les mutations opérées à la Renaissance et de les inverser, mais en tenant compte de l’enrichissement des sciences actuelles : il importe, en effet, au plus haut point de ne pas considérer la philosophie de la nature aujourd’hui comme une restauration.
Je renvoie aux exposés sur des feuilles à part sur les différentes théories morphologiques [3], sur la théorie de la complexité.
Comme ci-dessus, double est la nouveauté : épistémologique et ontologique.
A) Les mutations épistémologiques
La nouveauté épistémologique concerne le statut de la science et de la philosophie de la nature. Or, toute discipline intellectuelle peut s’évaluer sous au moins trois angles essentiels : quant à l’objet, quant à la méthode, quant à la finalité. C’est ce que nous parcourrons successivement.
1) Un nouveau réalisme
a) Un exemple en physique
La physique des formes redonne consistance ontologique au réel qu’elle étudie. « Pour les ‘catastrophistes’ héraclitéens, un monde existe a priori, celui des objets macroscopiques que nous rencontrons tous les jours [4] ». Désormais, le chercheur traite du monde « sans en passer par le tribunal kantien, sans mettre au centre […] le sujet humain défini par ses catégories intellectuelles, sans soumettre leur propos au critère de ce que peut penser, légitimement, un tel sujet [5] ».
C’est ce que Thom essaie d’expliquer en faisant appel à des catégories métaphysiques de divers registres très hétérogènes qu’il est loin de maîtriser. L’essai est du moins sympathique et manifeste le réalisme ontologique, la prise en compte d’une densité qualitative voire substantielle de l’objet étudié.
« D’un être – ou objet, on distingue classiquement son existence, son Dasein, le fait que l’être occupe une certaine portion d’espace-temps, et son essence, c’est-à-dire la totalité de ses aspects, de ses qualités. L’attitude matérialiste, traditionnelle en Science, consiste à dire que l’existence précède l’essence (en fait l’existence implique l’essence) ; le modèle de la théorie des catastrophes en Morphogénèse va à l’encontre de cet axiome, car il présuppose que, dans une certaine mesure, l’existence est déterminée par l’essence, l’ensemble des qualités de l’être. On peut y voir une résurgence du schème aristotélicien de l’hylémorphisme : la matière aspirant à la forme [6] ».
Le réalisme naît aussi d’un changement d’approche à l’égard des sciences de l’âge classique qui se fondait sur une nature idéalisée et reconstruite : « Aujourd’hui […] les sciences «exactes» ont pour tâche de sortir des laboratoires où elles ont peu appris la nécessité de résister à la fascination d’une quête de la vérité générale de la nature. Les situations idéalisées, elles le savent désormais, ne leur livreront pas de clef universelle, elles doivent donc redevenir enfin «sciences de la nature», confrontées à la richesse multiple qu’elles se sont longtemps donné le droit d’oublier. Dès lors se posera pour elles le problème à propos duquel certains ont voulu asseoir la singularité des sciences humaines, […] le dialogue nécessaire avec des savoirs préexistants au sujet des situations familières à chacun [7] ».
b) Un exemple en chimie
La matière est un monde du sens, du donné et non seulement du construit. Les lignes de démarcation que trace la science ne sont pas de pures constructions, elles sont fondées dans la réalité.
La science exerce notamment une tâche taxinomique dont elle ne pourra jamais se passer. Or, cette classification n’est pas une construction de l’esprit, mais révèle l’existence d’un ordre réel, d’un maillage catégoriel. « L’univers n’est pas livré au désordre, au simple entassement [8] ». François Dagognet refuse la thèse anarchique d’un échec catégoriel, d’un brouillage des frontières au nom de l’importance des hybdrides, des mutations. La nature témoigne en faveur de la série, de la scala naturæ. L’un des plus beaux exemples est donné par la classification des éléments réalisée par Mendeleïev. En effet, voici la méthode par excellence de classification ; or, elle fut montée alors qu’un certain nombre de cases étaient vides. Qu’en a-t-il conclu ? Que le tableau était frappé d’irrégularité ? Nullement, Mendeleïev supposa que chaque case était occupé par un élément encore inconnu ; plus encore, la situation dans le tableau permettait d’anticiper sur les propriétés du futur corps. Or, de fait, l’expérimentation chimique a confirmé de la manière plus éclatante de la pertinence de l’intuition de Mendeleïev. « Et s’il faut bien reconnaître des cas matériellement brouillés ou interféréentiels (des ambivalents réels), ce n’est pas une preuve en faveur de la destruction de nos cadrages, seulement l’obligation de les réviser [9] ».
Il est faux que le travail synoptisant soit un exercice de la volonté de puissance, une nouvelle manifestation d’un logos instrumentalisant réduisant la réalité foisonnante et rebelle et réduisant sa réalité inassignable à un formalisme compartimentant et sécurisant dans sa rigidité.
Le philosophe fasciné par la déconstruction et les préfixes en « dé » ou « dys » a oublié le travail de synthèse, de construction et les préfixes en « con » ou « syn ».
Et l’objection des singularités ne vaut pas, ainsi qu’on l’a vu ci-dessus à propos des berthollides.
c) De manière plus générale
- Espinoza est un disciple de Jean Largeault qui est matérialiste. Il est donc d’autant plus passionnant qu’il est réaliste, retrouve l’intelligibilité de la nature (il existe une correspondance entre notre esprit, nos sens et le réel), présente un mystère (la physique actuelle en reprend conscience), des constantes, parle de causalité, hasard [10].
Ce qui est essentiel est de percevoir que la science actuelle ouvre à la question du sens.
Dans un ouvrage, l’astrophysicien canadien Hubert Reeves se pose la question dont c’est le sous-titre : l’univers a-t-il un sens ? [11] Et il faut prendre ce terme dans sa double acception : direction et signification.
La science porte d’abord sur des « faits de sens », comme dit Thierry Magnin, c’est-à-dire des faits qui « peuvent susciter la question du sens [12] ». Il donne comme exemple : l’organisation apparue après le Big Bang, la théorie de l’information. Voire, de même que l’on parle de code génétique, certains, mais l’opinion est très controversée, proposent de parler de code quantique [13] ou de code cosmique [14].
Mais la science fait aussi, implicitement, appel à une vision du monde. C’est ce que veulent dire les auteurs qui s’intéressent aux articulations de la science et du mythe [15]. Ils ne font pas que reconnaître une pluralité de discours, ils les articulent, ils montrent que la science ne petu se passer d’une recherche du sens.
Par ailleurs, la grande limite du discours scientifique dans le domaine est la question de la Source du sens. Si la science montre des faits, elle n’en désigne pas l’origine. Toutefois, il faut aussi clairement affirmer que rien dans la science n’interdit l’existence de cette Source du sens.
Enfin, la grande dérive est la gnose.
2) La pluralité d’approches
Cette pluralité se présente sous deux angles : l’un négatif comme refus du panmathématisme et du scientisme totalitaire en science et de la pandigitalisation en technologie ; l’autre positif comme intégration de la pluridisciplinarité.
a) Le refus du totalitarisme technoscientifique ou les principes de limitation interne aux sciences
Tout d’abord, l’évolution des différentes sciences actuelles a abouti à ce que l’on pourrait appeler des principes de limitation interne.
1’) Principes de limitation interne en sciences formelles
Nous avons exposé en détail ci-dessus le théorème de Gödel et ses extensions-actualisations.
2’) Principes de limitation interne en sciences empirico-formelles
Mais les sciences physiques avaient déjà formulé un principe similaire, antérieurement et à deux reprises. D’une part, en 1905, un jeune savant inconnu du nom d’Albert Einstein établissait, en redéfinissant la notion de simultanéité, la théorie de la relativité restreinte. Entendons-nous bien : le principe de relativité einsteinien est tout sauf un principe de relativisme. Einstein lui-même regrettait ce terme ambigu. Il demeure que, après sa démonstration, nous savons que deux mesures ne sont plus simultanées : exit un univers où tout le monde jouirait du même point de vue. La finitude de la vitesse de la lumière l’interdit.
Un peu plus de vingt ans plus tard, un autre grand physicien, Werner Heisenberg démontrait, dans le cadre de la mécanique quantique qu’il est impossible de calculer simultanément deux paramètres d’une particule (par exemple sa masse et sa quantité de mouvement).
Enfin, de nouvelles branches des sciences, les théories du chaos déterministe et la théorie des catastrophes, ont établi un autre principe de limitation : l’impossibilité constitutive qu’a la science de prévoir l’avenir, donc de maîtriser l’avenir. Au début des années 60, Edward Lorenz a montré que toute prévision météorologique à long terme est désormais de soi impossible, du fait de ce que l’on appelle la sensibilité aux conditions initiales.
C’est aussi vrai de la théorie des catastrophes. Détaillons ce dernier point qui est moins connu.
a’) Le fait de l’impossibilité de prédire
La théorie des catastrophes « n’apporte pas de connaissance a priori, antérieure à toute expérience. Même si l’on a un bon système dissipatif, et trois paramètre à notre disposition, on ne peut pas savoir s’il y aura une queue d’aronde, un ombilic elliptique ou hyperbolique, des fronces, des plis, rien du tout, ou autre chose, avant d’avoir essayé (ou calculé, si l’on connaît le potentiel). Même s’il se révèle une queue d’aronde, la théorie est incapable de prédire sa position, ses dimensions, ou même sa forme exacte [16] ». René Thom lui-même le reconnaît qui affirme que sa théorie n’autorise pas « la prédiction exacte des choses, ni même de prédiction quantitativement approchée [17] ».
Plus précisément, il existe deux types d’applications de la théorie des catastrophes. Les premières sont rigoureuses. Elles donnent lieu à ce que Thom appelle une « théorisation dure » : « Ce qu’apporte la théorie des catastrophes, en ce cas, c’est une interprétation «qualitative» rapide du comportement global des solutions, des de leurs singularités. Bien entendu, en ce cas, un calcul quantitatif est en principe possible et le modèle a par suite des capacités prédictives [18] ». Mais cette déclaration optimiste est controuvée par les faits, puisque, à ce jour, seul un modèle catastrophiste, en optique géométrique, élaboré par Michael Berry, a permis de prédire de nouvelles formes de caustique. Et, même dans ce cas, Thom reconnaît qu’ »il s’agit de phénomènes si évidents et si prévisibles a priori que la surprise n’est finalement pas si grande [19] ».
Les secondes sont non-rigoureuses. Elles donnent lieu à ce que Thom appelle une « théorisation molle » : « Les modèles du second type […] partent d’une morphologie empirique qu’il s’agit d’interpréter ; on construit alors un champ de systèmes différentiels sur un espace de contrôle, et on s’efforce de faire coïncider la morphologie observée avec un ensemble de catastrophe du modèle. En général, ces systèmes différentiels sont définis seulement à une équivalence différentiable près, et par suite, ils ne permettent pas la prédiction quantitative. Leur intérêt est de fournir une vue globale de la situation, interpréter en termes de conflits de régimes [20] ». Bref, le modèle catastrophiste est, par définition, inapte à la prédiction. En effet, il est de nature qualitative ; or, « pour qu’un modèle conduise à de bonnes possibilités de précision, et par suite d’action, il est nécessaire que ce modèle soit quantitatif [21] ». Précisons : « Une prédiction purement qualitative qui n’est assortie d’aucune fourchette de dates ou de lieux n’a pratiquement aucun intérêt. Je peux prédire, en toute certitude, que tout régime politique, en quelque société que ce soit, finira par s’effondrer. Si je suis incapable de dire quand (même avec une certaine imprécision), ma prédiction ne sera qu’une trivialité. Quand les séismologues viennent nous dire : «la vielle de Bâle sera détruite par un séisme», leur affirmation n’a pas lieur d’inquiéter les Bâlois, si aucune période de temps ne peut être précisée pour l’accomplissement de la prédiction [22] ».
La théorie du chaos n’est pas plus douée pour la prédiction : « En physique du chaos, malheureusement, le succès a été de pair avec un déclin de la production de résultats intéressants, et cela malgré les annonces triomphalistes de résultats fracassants. Quand les choses se seront un peu tassées, et que l’on appréciera sobrement la difficulté des problèmes qui se posent, alors peut-être verra-t-on apparaître une nouvelle vague de résultats intéressants [23] ».
b’) Objection à cette impossibilité
Ce fait appelle une objection et une question. L’objection est la suivante : l’épistémologie nous montre qu’une théorie scientifique, au sens moderne du terme, se caractérise notamment par son pouvoir prédictif. Or, la théorie des catastrophes est une doublure géométrique de la réalité dénuée de toute capacité d’action. Est-ce à dire qu’elle usurpe son titre ? La question est celle du sens : que signifie cette limitation dans la capacité de prédictibilité ? Plus précisément, est-elle intrinsèque au savoir, donc définitive, ou dépassable ?
Tout d’abord, les critères de la théorie ne se réduisent pas à sa capacité prédictive : il y a aussi la capacité de formalisation, d’unification, de compréhension intelligible de la nature qu’elle propose. Or, la théorie des catastrophes permet de modéliser des faits déjà connus, souvent depuis longtemps, comme les transitions de phase en thermodynamique, ou la stabilité des bateaux en hydrostatique ; et elle présente aussi une indéniable valeur explicative, gratuite.
c’) La preuve de cette impossibilité
En effet, l’anticipation se fonde sur des situations déjà éprouvées dans le passé. Elle requiert qu’une fonction définie sur un domaine limitée de l’espace-temps s’étende à un domaine vaste. Or, le seul procédé canonique qui autorise l’extension d’une fonction est ce qu’on appelle le prolongement analytique. En conséquence, les prédictions quantitatives en science se fondent sur une fonction analytique : « les modèles mathématiques pragmatiquement efficaces, permettant la prévision, impliquent l’analycité des fonctions qui y figurent, et de leurs solutions de l’évolution temporelle. Ceci impose par suite que l’espace «substrat» sur lequel on travaille soit pourvu d’une structure analytique naturelle. Seul le prolongement analytique permet le passage du local au non-local caractéristique de l’action [24] ».
Or, les espaces substrats sur lesquels sont définis les modèles catastrophistes n’ont le plus souvent aucune structure analytique naturelle : « il n’est pas facile d’étendre les procédures d’extrapolation là où il n’y a pas de support analytique naturel [25] ». Par conséquent, la théorie des catastrophes est par nature peu apte à l’anticipation : « Le domaine scientifique dans lequel on peut construire des modèles quantitatifs certains permettant la prédiction, et par suite l’action, est beaucoup plus restreint qu’on ne le croit généralement. C’est un petit halo autour de la physique fondamentale, aux frontières d’autant plus imprécises que les considérations statistiques entrent en jeu [26] ».
d’) Le sens de cette impossibilité
L’impuissance prédictive des théories morphologiques est-elle une limite due à notre ignorance, ou une limite ontologique ? Thom remarque que la possibilité d’action de la théorie des catastrophes « ne doit pas être exclue [27] », même si les faits semble plutôt prévoir (!) le contraire.
On retrouve le débat qui fut au cœur de la mécanique quantique. Il semble bien que ce soit non pas le signe d’une imperfection de notre science, mais le signe d’une limite du savoir fondée dans la réalité. « Que la science au fur et à mesure qu’elle progresse, se révèle ainsi capable de trouver par elle-même certaines des frontières de son champ d’action n’est somme toute pas si banal, ni si indigne d’intérêt [28] ».
Au total, là où le principe d’indétermination nous interdit de voyager dans l’infiniment petit, la sensibilité aux conditions initiales nous interdit de voyager non plus dans l’espace, mais dans le temps, aussi bien d’ailleurs passé que futur. Tout système un tantinet complexe présente un comportement imprédictible, ce qui ne signifie pas absurde : le chaos est déterministe. En cela, la nouvelle configuration de la science est profondément anti-laplacienne. « Au fond », Thom « n’est pas fâché que sa théorie se prête mal aux souillures des applications quantitatives. Il met plus haut la gratuité, la spéculation et la compréhension qualitative des processus étudiés [29] ». L’imprévisibilité est aussi une croix apposée sur nos tentations toujours renaissantes de toute-puissance et donc un retour au primat de la contemplation. Ce qui nous introduit au second point.
Autre principe interne de limitation plus thermodynamique, chimico-physique : le zéro dit absolu ou 0° Kelvin : moins 273,15° centigrades (Celsius). Pourquoi la matière ne peut-elle pas indéfiniment être refroidie ? On pourrait imaginer que l’agitation aille diminuant asymptotiquement. Il y a ici un mystère à méditer en philosophie de la nature.
3’) Vers des principes de limitation interne en sciences humaines ?
Je crois qu’il faut ajouter deux principes de limitation aux quatre précédents. Ils pointent la spécificité de l’esprit humain, d’une part sa liberté, d’autre part son intelligence, sa capacité de sens. Le premier est tiré des sciences humaines, ici la théorie des finances, est lié à l’amorce d’une évolution dans la modélisation des comportements humains et, au-delà, de la forme du hasard. [30]
a’) Un exemple l’évolution du système d’actuariat
Nous assistons en sciences humaines, singulièrement en analyse financière, à un passage du modèle gaussien classique à un modèle parétien ou de Wilfredo-Pareto. Soit la naissance du système d’actuariat. « Ingénieurs, industriels, commerçants, et banquiers recherchaient l’efficacité, voulaient améliorer rationnellement les rendements et les profits. Il est assez normal que la nouvelle élite ait voulu construire une science capable de remplacer les savoirs antérieurs. Dans les activités les plus quotidiennes, dans les calculs commerciaux, dans les spéculations bancaires […] un nouvel outillage mental prenait forme [31] ».
Voilà pour le principe épistémologique. En voici l’application. Condorcet (né en 1743) apparaît à un moment critique, lorsque la dette publique est devenu le problème prioritaire du ministre des finances, Turgot. Depuis moins de 200 ans, les dépenses publiques se sont multipliées par 37 et le service de la dette est passé de 15 % du budget à plus de 49 %.
Alors le marquis de Condorcet « va tenter d’introduire la logique du raisonnement mathématique dans les opérations financières [32] ». Au total, nous sommes face à une histoire à trois temps :
Le premier temps est l’absence de système financier mathématisé qui entraîne une véritable faillite.
En un deuxième temps se met en place l’actuariat financier avec Condorcet. Le système financier est fondé sur ce qui deviendra les lois de Gauss. Le principe de Condorcet est indéniablement fécond, comme il se doit de toute bonne théorie : « Pour faire apparaître l’utilité des nouvelles méthodes qu’il propose, il va appliquer ses calculs à un exemple précis : l’emprunt d’État de 1777, sot 24 millions de livres tournois, émis partie en rente perpétuelle, partie en rente viagère. Le problème principal vient du fait que l’on ne connaît pas les âges réels des prêteurs : une différence d’âge moyen peut avoir des conséquences importantes sur la charge future de la dette publique. En réalisant plusieurs hypothèses sur la distribution des âges, en suivant les règles de calculs développées dans son ouvrage, et en prenant un taux d’intérêt légal fixé à 4 %, il trouve que la valeur actuelle totale de l’emprunt est, non pas 24 millions, mais, selon les cas, entre 30 et 36 millions de livres tournois, soit environ 50 % de plus que prévus initialement. On comprend –, dans ce cas, pour quelles raisons la dette publique a pu s’accroître dans des proportions aussi importantes en l’absence de toute mesure fiable de sa charge, durant la période Necker [33] ».
Mais d’autres figures vont jouer un rôle capital, notamment une figure atypique de l’histoire des sciences que Paul Lévy a contribué à faire connaître, Louis Bachelier (1870-1946) [34].
Aujourd’hui, « il est remarquable de constater comment la modélisation probabiliste est devenue une composante essentielle des modèles financiers [35] ».
Enfin, un troisième temps s’amorce. En effet, le moment est « venu de se demander si le comportement statistique des marchés financiers n’est pas, d’une certaine manière, irréductible à un cadre statistique gaussien, c’est-à-dire à des lois de variance finie [36] ». Ainsi le modèle à variables aléatoires gaussiennes indépendantes (dont la meilleure illustration est le mouvement brownien) « ne permet pas d’éviter des accidents de gestion liés aux secousses violentes des marchés », comme « par exemple ce qui s’est passé au moment du krach boursier d’octobre 1987 pour les market makers sur options matif ». Comme le remarque Mandelbrot, « les valeurs moyennes des petites fluctuations ne disent rien au sujet des rares grands changements qui font les grandes fortunes et les grandes ruines [37] ».
b’) Développement systématique de ce troisième temps
Le sujet est trop complexe pour mon incompétence mathématique. Je me contenterai de résumer les conclusions principales.
Il est apparu que l’on ne pouvait pas comprendre certains phénomènes financiers, notamment certaines fluctuations du marché à partir des lois de variance finie. Les résidus observés par régression linéaire sur la série considérée sont parétiens.
Plus précisément, l’introduction de l’hypothèse de la loi stable de Paul-Lévy est due à deux causes principales : d’abord le caractère erratique des marchés, ce que l’on appelle l’instabilité de la volatilité ; ensuite, pour les grandes variations de cours, la loi normale, le processus de mouvement brownien ne peut incorporer les queues de distribution.
« En réalité, le théorème central limite (à laquelle conduit la loi de Gauss et qui est le pivot de la théorie des probabilités) auquel on se réfère n’est vrai que si la loi de probabilité qui régit les variations des cours possède une espérance et une variance. Or, l’espérance et la variance d’une variable aléatoire ne sont pas nécessairement définies. En particulier, si l’espérance d’une variable aléatoire est infinie, alors la moyenne d’une suite d’événements indépendants répétés converge vers l’infini avec probabilité un [38] ».
Bref, les discontinuités des trajectoires boursières ne s’explique pas par les schémas classiques gaussiens, mais en émettant l’hypothèse d’une loi marginale de Lévy-stable à variance infinie et d’une structure fractale. Par exemple, « le choix des portefeuilles devrait être analysé dans une perspective, non plus gaussienne, mais parétienne [39] ». Ainsi, « il semble à l’expérience, que les propriétés de ces lois sont bien adaptées à la vie économique [40] ».
Et Christian Walter donne une bibliographie « de nombreux travaux » qui « ont montré l’intérêt qu’il pouvait y avoir à utiliser les lois et processus stables non gaussiens à variance infinie de Paul Lévy pour la représentation mathématique du comportement des marchés [41] ».
À cette théorie s’est joint l’apport des théories de Mandelbrot. « L’apport théorique principal réalisé par Benoît Mandelbrot pour l’interprétation des variations des prix, au sens le plus large, dans les séries économiques ou boursières, provient du résultat du rapprochement qu’il a effectué entre deux notions jusqu’alors séparées, et appartenant à deux disciplines différentes : la loi sur les revenus personnels de Wilfredo Pareto, développée par son auteur en 1897, et la stabilité des variables aléatoires telle que définie par Paul Lévy, et inventée par lui en 1937 [42] ». Or, on s’est rendu compte que les fluctuations non gaussiennes des changements de prix sont des processus stochastiques self-similaires (donc à homothétie interne), c’est-à-dire des processus stables fractaux de Pareto-Lévy. Autrement dit, se retrouvent les processus décrits aussi bien à l’échelle du tout qu’à celle de la partie et de toute partie.
Cette nouvelle théorie qui n’a pas encore conquis toutes les intelligences financières est promise à un avenir immense et pourrait même être comprise comme une véritable révolution épistémologique. En tout cas, sa fécondité est indéniable : « si cette hypothèse est fondée, elle peut avoir des conséquences importantes, tant en théorie du portefeuille […] que pour la gestion de positions prises par les salles de marchés des établissements financiers et bancaires (qui repose, pour l’essentiel sur un mode de raisonnement gaussien) [43] ».
La théorie des processus aléatoire stable à homothétie statistique interne appliquée aux marchés financiers donne « une approximation des la réalité meilleure que celle obtenue par d’autres modèles [44] ». Mais il reste à montrer ou plutôt à voir si toutes les chroniques de prix sont à considérer comme des processus stables de Paul Lévy.
c’) Confirmation
Il est passionnant de constater que le modèle gaussien ne fonctionne de moins en moins en marketing, autrement dit en matière d’étude du comportement du consommateur [45]. Par contre, on assiste à un modèle laissant plus de place à l’individu. Ce qui frappe en effet aujourd’hui, c’est l’ »impressionnante diversification » des produits de consommation et du consommateur. Quelques chiffres établiront cette thèse de manière inductive.
– « Tout le monde connaît le walkman. Sait-on combien d’articles différents comporte la gamme aux États-Unis ? 256. Chez Sony, le mot d’ordre n’est plus : «A chacun son walkman», mais «un walkman pour chaque utilisation». En France même, l’Institut national de la propriété industrielle a enregistré, en 1990, 78 000 dépôts de marque, contre 21 000 en 1961. Un consommateur qui visite un concessionnaire Peugeot se voit proposer 37 modèles de 205 ».
– Qu’en est-il du côté consommateur, car c’est là finalement qu’est la source, la cause de la diversification de l’offre ?
Le consommateur abandonne les normes traditionnelles de consommation. « Par exemple, personne ne se formalise plus de voir les Français effectuer leurs courses du week-end en survêtement et chaussures de sport, ce qui était proprement inimaginable il y a seulement dix ans ».
De plus, ce « zappeur des modèles de comportement d’achat » « brouille le portrait-robot sociodémographique. C’est la secrétaire à 7000F/mois qui sort de chez Vuitton avec un sac à 3000F, mais aussi le cadre supérieur qui côtoie l’étudiant fauché au comptoir du fast-food ».
d’) Sens
Comment interpréter philosophiquement ces données ? On pourrait s’intéresser aux conséquences considérables de ce changement sur le regard à jeter sur la mathématique des probabilités. Les conséquences sont aussi immenses en économie, ainsi que l’on peut le deviner et ans les sciences humaines en général. Mais nous ne nous attarderons seulement aux conséquences philosophiques. Cette évolution d’hypothèse « donne à penser », selon le mot qu’affectionnait Heidegger. Mais dans quel sens ? Retenons celui qui intéresse notre propre perspective.
1’’) Exposé
Ce progrès épistémologique considérable fait partie d’un renouveau plus général dont les théorie du chaos, des structures dissipatives, des fractales, etc., sont les émergences les plus spectaculaires et qui redonnent toute sa densité de sens à la contingence, donc à la matière et à la liberté ; mais aussi à la substance en son indicible unicité et au temps irréversible.
La double contingence ou indétermination de la matière et de la liberté explique ainsi pourquoi le modèle fractal, le modèle probabiliste parétien peut fonctionner dans des domaines apparemment aussi divers et éloignés que celui des sciences physiques particulaires ou non et celui de sciences humaines ; et pourquoi il semble jusqu’à nouvel ordre exclu des sciences biologiques.
Nous le saisissons, cette théorie a aussi un retentissement en philosophie de la nature, en permettant la réintroduction de la notion de contingence.
Ce changement de paradigmes, pour parler comme Thomas Kuhn, signe la place de nouveau accordée à la liberté. En effet, celle-ci est jaillissement incontrôlable, impossible à prédéterminer, même de manière probable, statistique. Comme le notait Walter dans la citation ci-dessus : « les anticipations des opérateurs peuvent se modifier instantanément » ; il est donc « possible de voir apparaître des écarts arbitrairement grands entre deux journées de bourse » ; or, la cause en est le libre arbitre humain. L’épaississement des queues de distribution qui est une des caractéristiques des courbes de Pareto-Lévy est le signe de l’importance nouvellement octroyée à l’individu considéré dans les ressources toujours étonnantes de sa liberté créative.
C’est aussi ce qu’affirme Benoît Mandelbrot. Se référant aux «lois stables» de Paul Lévy pour l’analyse et l’interprétation de chroniques relatives aux variations de grandeurs économiques, telles que les prix de certaines denrées ou les cours de bourse, il propose « de rendre compte de changements instantanés dont les chroniques boursières donnent tant d’exemples [46] ».
2’’) Confirmation dans le cas du marketing
Le consommateur caméléon signifie sans doute un changement au niveau du réel même ; mais n’exprime-t-il pas aussi à un changement épistémologique, donc à une mutation portant non pas sur le réel mais sur la manière de l’appréhender, et précisément de l’appréhender avec plus de finesse ?
Il serait étonnant que la société peu structurée, narcissique, comme le dit Didier Anzieu dans L’autoanalyse de Freud – ou « post-adolescente », comme le diagnostique Tony Anatrella – qui est la nôtre, une conscience de l’individualité responsable qu’est la personne grandisse. De plus, ne confondons pas l’individualisme qui caractérise la société en temps de crise ne signifie pas une montée de l’individualité. Au contraire, et surtout à la faveur de l’hypermédiatisation, le panurgisme nous guette davantage.
Et d’ailleurs, c’est bien ainsi que l’auteur ci-dessus, Bernard Dubois, conclut : ce consommateur caméléon est une « menace pour l’entreprise qui s’accroche à ses vieux schémas d’analyse, qui aime classer ses clients dans des boîtes définies une fois pour toutes et qui croit les comprendre en leur demandant de cocher des cases dans des questionnaires aux réponses préétablies ». D’où aussi, en positif, une conséquence éthique intéressante : c’est une « opportunité pour l’entreprise qui se met à l’écoute du consommateur caméléon, à condition de se soucier de ce qu’il consomme au-delà de ce qu’il achète, de ce qu’il ressent au-delà de ce qu’il pense et de ce à quoi il rêve au-delà de ce qu’il dit [47] ».
3”) Conséquence disparition du pseudomodèle de l’homme moyen
L’opposition de ces deux modèles n’est pas sans rappeler l’opposition entre deux théories de sociologie politique : celle de Marx et celle de Mosca-Pareto sur la question des élites. Les sommes de Gauss plaident en faveur d’une conception indifférenciée, homogénéisée, atomisée des foules, les sommes de Pareto-Lévy plaident pour l’unicité de la personne dans sa contribution à la population qui ne peut jamais biffer son irréductible originalité.
Cette théorie n’est-elle pas l’abolition pure et simple de toute sorte de sciences humaines ? En effet, la liberté est contingence intrinsèque (équivalente à la matière dans l’ordre de l’esprit) ; or, il n’y a de science que du nécessaire.
En fait, contre le modèle existentialiste, il faut affirmer que la liberté humaine n’est pas pure indétermination. De plus, l’homme est composé d’essence et d’existence, ou mieux d’une nature universelle et d’une singularité que modèle sa liberté.
Jacques Maritain disait de l’homme qu’il est un composé de nature et d’aventure : formule heureuse qui explique à la fois qu’une science humaine est possible et qu’elle doit abandonner son vœu de toute-puissance déterministe et fataliste.
4”) Conclusion
Bref, le juste milieu que les lois à variance infinie tiennent entre le déterminisme gaussien qui gomme toute différence individuelle et l’anarchie n’est-il pas une parabole et une incarnation de la différence existant entre déterminisme dur et indéterminisme pur, et, quant à l’homme, entre singularité et universalité, pour parler dans une perspective hégélienne et, en perspective thomasienne, de la distinction essence universelle (forme) et singularité liée à l’unicité de telle existence, telle materia signata et de telle déploiement opératif libre.
4’) Vers un principe interne de limitation de la virtualisation en technologie ?
Voici enfin le dernier principe de limitation. La technique semble prise par la même fièvre d’absolutisation que les sciences, mais avec du recul et dans un registre différent : la volonté de tout savoir devient la volonté de tout pouvoir, tout maîtriser. Le signe par excellence en est la croissance de la place laissée au virtuel, donc la disparition de toute résistance liée à la matière, une homogénéisation entre le matériau technologique et le désir de puissance, donc un effacement de la différence entre soft et hard, entre le logiciel et le matériel. Est-ce si sûr ? Bruno Latour a écrit un bref article passionnant sur ce sujet [48].
a’) Le fait paradoxal
Partons d’un fait étonnant. Le peintre anglais Adam Lowe a créé et numérisé une image. L’artiste a prélevé un détail d’environ un millimètre carré et a exploré toutes les reproductions possibles de cette image numérisée [49]. Dix-huit procédés sont actuellement disponibles, depuis la copie couleur laser grand public jusqu’au transfert de pigment (dont il est l’un des zélateurs), en passant par l’imprimante à sublimation, le Novajet (dispersion par l’eau du colorant), l’électrophographie, la lithographie, etc. Chacun de ces procédés est tel que ces images représente exactement, c’est-à-dire digitalement, au bit près, la même information.
Or, que constatons-nous ? A priori, on est en droit à s’attendre à une reproduction quasiment à l’identique. Mais c’est tout le contraire qui se produit : les différences de reproduction, passant par codage, filtrage, transcription et impression, sont telles que l’on est en droit de se demander s’il s’agit du même détail. Les procédés ont donc profondément modifié l’original, l’image première. Comment interpréter ces surprenants résultats ?
b’) Sens épistémologique le principe de limitation
Une première interprétation consiste à minimiser les différences introduites par les multiples procédés : elle tient au grain du papier, la fluidité de l’encre, les perturbations de la chaleur, mais l’essentiel demeure, à savoir l’information. Mais c’est manquer l’enseignement capital de cette expérience. L’illusion serait de croire que le perfectionnement des techniques pourrait résorber définitivement de bruit de fond, faire disparaître toute distorsion du signal.
La mécanisation ne peut donc pas introduire une homogénéisation totale. Plus encore, elle est source d’une incompressible diversification.
Il n’y a pas plus virtuel que le transfert d’une information : il semble que l’on atteigne à la plus grande transparence. Or, la reproduction résiste à cette totale transparence. Pourquoi ? Un informaticien philosophe, Brian Cantwell Smith montre que la source de cette incompressible différence tient au silicium dont sont faites les puces, autrement dit à la matière. La connaissance de l’information, donc du purement formel (le soft) exige le recours à une matérialisation (le hard), si minime soit-elle. Or, la matérialisation minimale est celle de l’ordinateur qui fonctionne à partir de microprocesseurs. Mais le passage par le matériel, la conversion du signal dans le langage de la matière, introduit des modifications. Et c’est ce que constatent les différences de traitement de l’image liés aux divers procédés infographiques : « contre la continuelle dévastation physique du signal au niveau microscopique, les ordinateurs doivent employer des correcteurs d’erreur d’une complexité phénoménale de façon à préserver et à récupérer le signal idéal qu’on a voulu numériser [50] ».
Autrement dit, un monde purement numérique, formel, discrétisé, un monde virtuel est un monde inexistant. On ne peut se passer de la médiation matérielle, au nom de la communication de la connaissance. Comme conclut Bruno Latour, « pas d’information qui ne soit «trans-formation» [51] ». La médiation matérielle est incontournable.
c’) Sens ontologique la revanche de la matière
Cette passionnante expérience introduit comme une sorte de principe de limitation interne dans la technique. Et, là encore, la raison en est la matière, dont on ne peut décidément pas se passer : ici, la matière résiste à une totale virtualisation.
On pourrait aussi interpréter cette découverte passionnante en termes de principes d’indétermination : il y a une sorte de limite inférieure intrinsèque de précision dans la formalisation, la numérisation de l’information, et qui tient au support employé. Et cette limite est inévitable. Autrement dit, la pure logicisation qui est un péché d’angélisme, n’est pas pour demain, mais pour jamais.
La technique est donc en but à deux principes internes de limitation : la vitesse de la lumière [52] et la matière. Nous touchons l’infini, mais dans l’ordre de la potentialité. Une autre limite touche-t-elle l’infini actuel, c’est-à-dire Dieu ?
d’) Confirmation
L’évolution technologique en matière informatique est impressionnante. Et pourtant limitée. On a commencé par le tube à lampe. Le premier ordinateur, l’ENIAC consommait 174 kW d’électricité par seconde. En 1947, le premier transistor mesurait 3 cm. En 1987, les puces réalisent 20 millions d’opération par seconde avec environ 100 000 transistors, sur un centimètre carré. On se rappelle la loi de Moore, établie en 1965 et toujours vraie, à savoir : la puissance des ordinateurs double tous les 18 mois. En 2007, les experts du MIT prévoient que la taille d’un composant de même puissance se limitera à un dixième de millimètre carré, soit dix mille fois moins. Précisément, les puces du futur qui composeront notre ordinateur feront appel à des procédés révolutionnaires de trois sortes : les ordinateurs moléculaires composés de nanotubes où c’est-à-dire des conducteurs de taille moléculaire ; les ordinateurs ADN où des brins synthétiques d’ADN traitent l’information comme une machine de Türing ; enfin, les ordinateurs quantiques où l’on utilise le fait que les atomes, à différents stades d’excitation, possède beaucoup plus de configurations (ce que l’on appelle les qubits), possibles que le bit, c’est-à-dire les deux classiquement offertes : 1 ou 0, selon que l’impulsions est présente ou non. À chaque fois, il s’agit de démultiplier les possibilités d’information et de miniaturiser le support. Il n’empêche qu’il y a une limite inexorable : même si, en 2012, comme le prévoit Gordon Moore, le plus petit composant de transistor à base de silicium mesurera à peine quatre à cinq atomes d’épaisseur, la pellicule trop fine ne joue plus parfaitement son rôle d’isolant. Conclusion de Philip Ball : « Dans ces conditions, les limites de miniaturisation des transistors à base de silicium seront-elles atteintes d’ici une dizaine d’années [53]? »
5’) Conclusion
Toutes ces limites me parlent de la matière : aléatoire, dont le fondement est la matérialité ; imprévisibilité, etc. ; le débordement de l’intuitif sur le formel (l’actuel) n’est-ce pas le propre de la puissance d’être ouverte aux possibles sans être cernée en termes d’actualité ? Faisant allusion à une intuition de von Neumann à la fin de sa vie, Chaïtin établit une connexion entre l’indécidabilité des systèmes formels, leur caractère aléatoire et la complexité infinie, imprévisible de la vie : « Une suite de vn qui s’approchent de v est assimilable à une métaphore de l’évolution et contient peut-être le germe d’un modèle mathématique de l’évolution de la complexité biologique [54] ».
Ces principes de limitation recouvrent le domaine tant de la connaissance formelle (théorème de Gödel : principe de limitation des systèmes formels) qui est celui des mathématiques que de la connaissance empirico-formelle qui est celui des sciences notamment physiques : le domaine macroscopique ou astronomique (théorie de la relativité restreinte), le domaine microscopique ou particulaire (principe d’indétermination de Heisenberg), et le domaine intermédiaire des phénomènes de la vie courante (théorie du chaos ou théorie des catastrophes).
Comprenons-nous bien : ces quatre principes de limitation ne sont pas des principes d’ignorance qu’un affinement des connaissances pourrait lever. Ces limitations sont internes à la science, fondées dans la réalité : ce sont des limites intransgressibles apposées à notre savoir. Par exemple, le principe d’indétermination de Heisenberg établit que, quelle que soit la puissance des instruments de mesure, ceux-ci ne pourront jamais atteindre une précision inférieure à la constante de Planck.
Que le discours scientifique soit limité ne signifie pas qu’il débouche sur le mystère. Du moins toute prétention scientiste à un savoir tout-puissant est-elle définitivement réfutée. Les sciences laissent désormais la place à un savoir qui soit autre que le leur.
b) Le refus du panmathématisme
La philosophie de la nature et les sciences modernes sont nées du coup de force galiléo-cartésien qui s’inscrit sous le chiffre du monisme méthodologique : autrement dit, le totalitarisme mathématique. Or, les théories morphologiques, notamment, légitiment à nouveau la pluralité d’approche : « Qu’il s’agisse de musique, de peinture, de littérature ou de mœurs, nul modèle ne peut plus prétendre à la légitimité, aucun n’est plus exclusif. Partout nous voyons une expérimentation multiple, plus ou moins risquée, éphémère ou réussie [55] ».
Or, ce nouveau pluralisme naît d’un respect de la vie de l’intelligence. Mais quel fut le pédagogue de ce respect ? Ilya Prigogine a cette remarque profonde et suggestive : c’est le respect, l’école de la nature qui est la matrice du respect des méthodes « Au moment où nous apprenons le «respect» que la théorie physique nous impose à l’égard de la nature, nous devons apprendre églament à respecter les autres approches intellectuelles, que ce soient les approches traditionnelles, des marins et de paysans, ou les approches créées par les autres sciences. Nous devons apprendre non plus à juger la population des savoirs, des pratiques, des cultures produites par les sociétés humaines, mais à les croiser, à établir entre eux des communications inédites qui nous mettent en mesure de faire face aux exigences sans précédent de notre époque [56] ».
Ne nous cachons pas la tentation mathématicienne, de panmathématisme toujours présente, notamment chez un Thom (en définitive, est-il plus aristotélicien ou plus platonicien ?).
Certains parlent de différents niveaux de réalité, ou plutôt de compréhension de la réalité. [57] D’autres précisent en quoi consistent cette distinction de niveaux et de plans, opposant un réel empirique, accessible à la science, à un réel voilé [58]. Dans le même ordre d’idées, on parle aussi d’ »ordre impliqué [59] ». Ces différentes hypothèses introduisent à une pluralité de discours sur le réel.
Nombre de chercheurs s’intéressent à des questions de métaphysique, de philosophie. Par exemple, la question de la finalité et du hasard en biologie dont on sait les polémiques qu’elle a suscité et qu’elle continue à susciter, est une illustration typique de la nécessaire distinction des approches [60].
C’est ce que l’on trouve dans un ouvrage récent qui constitue comme un signe très révélateur de l’évolution de notre époque : la pluralité des discours relève aussi d’une complexité de la réalité [61]. Que la science découvre non seulement ses limites, mais que ces limites sont des frontières, donc la confrontent à d’autres discours est un phénomène culturel marquant, décisif, un fait nouveau que l’on attendait depuis trois siècles.
c) Le refus du réductionnisme
Ce que Pierre-Gilles de Gennes appelle objet fragile est aussi l’une des voies de sortie ou d’ouverture à l’égard du mécanisme. En effet, à l’instar de la technique qui a d’abord travaillé les objets durs (silex, bronze, et même bois) a vite éprouvé le besoin de travailler des matériaux souples, comme les cuirs, les fibres naturelles, les cires et empois, de même, la science physique est peu à peu passé des objets durs, solides, rigides, négligeant tout ce qui pouvait faire évoquer le mou, le fragile à « la matière molle : les polymères, les détergents, les cristaux liquides en sont les formes les plus visibles autour de nous [62] ».
Le dur était considéré comme l’objet idéal et le mou une approximation de cet idéal. Surtout, au fond, plane encore le modèle mathématique : le dur est à contour précis, est mathématisable dans son comportement.
Gennes en tire une conséquence importante : « il n’y a pas de vie sans matière molle », puisque toutes les architectures biologiques, des membranes aux composants du noyau (que Gennes s’acharnent à appeler faussement « code génétique ») sont des corps mous. « Mais il faut tout de suite corriger ce que ce genre de phrase a d’impérialiste. Ne jamais penser, comme Auguste Comte, que la physique est appelée à piloter la biologie. La physique ne fournit qu’un cadre général. La biologie, elle, observe et invente par ses propres méthodes. Prenons un exemple récent : celui des molécules adhésives, qui établissent des contacts sélectifs entre cellules voisines. Il s’agit de protéines fixées aux membranes, et assez compliquées. Un physicien naïf penserait que, pour les comprendre, il faut les isoles, les cristalliser, étudier ensuite leur structure aux rayons X, etc. Mais ces programmes sont infiniment lents, et presque maladroits. Les biologistes, eux, ont, par un usage intelligent de la génétique moléculaire, déterminé très vite la séquence chimique de chaque chaîne ; et, à partir de là, regroupé les moécules en familles. Ils ont compris que dans chaque famille, il y a une «queue» enfouie dans la cellule, une «taille» qui est prise dans la membrane, et une «tête» complexe qui reconnaît certains partenaires à l’extérieur. La forme de cette tête et son mode d’action commencent à être devinés par cette approche biologique bien avant que la lourde cavalerie des physiciens ne se soit mise en marche [63] ».
Autrement dit, si les méthodes d’approche sont spécifiquement différentes, cela tient à la nature spécifiquement différente de l’être vivant à l’égard de l’être inorganique.
d) Le témoignage de la pluridisciplinarité et de l’interdisciplinarité
Le pluralisme des approches prend notamment la forme de la pluridisciplinarité et de l’interdisciplinarité dont Jean-Marie Aubert remarque remarque avec perspicacité qu’elle est l’une des spécificités épistémologiques de notre temps est l’apparition . « Une évolution significative se repère depuis quelque temps dans la réflexion épistémologique scentifique. En effet, à mesure que les sciences positives ont progressé, les faits observés se sont révélés de plus en plus complexes. Certes on savait bien que les objet concrets de l’observation positive pouvaient relever de plusieurs disciplines scientifiques, chacune l’étudiant sous un angle de visée particulier, avec une méthode opératoire spécifique. Mais rapidement on s’est aperçu des limites de chaque discipline ; chacune ne pouvait plus s’enfermer dans son isolement ». Aussi, « les disciplines en sont alors venues à apprendre à collaborer ». « D’où la généralisation actuelle des approches d’abord pluridisciplinaires (juxtaposition de plusieurs disciplines), ensuite interdisciplinaires, dont le résultat le plus significatif est l’apparition de nombreuses disciplines nouvelles, intermédiaires, sortes de «mixtes» des anciennes disciplines [64] ». Voici quelques exemples : physique particulaire, astrophysique, biologie moléculaire ; et c’est encore plus vrai pour le sciences de l’homme : psychosociologie, ethnologie, etc.
Il semble que la cause de cette interdisciplinarité doit être prise de deux côtés [65] :
1’) Côté objet connu
La première raison de l’apprition de l’interdisplinarité est la complexité du réel qui nous apparaît le plus en plus. Cette complexité ne vaut pas seulement à l’intérieur d’une même discipline (justifiant d’ailleurs aussi parfois l’éclatement de cette discipline en plusieurs sous-disciplines qui peuvent arriver à s’autonomiser, comme on peut le voir dans le processus de spécialisation des sciences), mais à l’extérieur. C’est ce que note Aubert : « Cette évolution […] a révélé l’extraordinaire interaction qu’il y avait entre les phénomènes les plus divers [66] ».
2’) Côté sujet connaissant
La question se réduit en fait à celle du statut des sciences intermédiaires qui a été soulevé plus haut. L’interdisciplinarité vient en effet alors de questions de méthode ; or, la méthode mathématique est très opératoire.
Enfin, l’interdisciplinarité est-elle une chance ? L’évaluation demeure mitigée. D’un côté, elle est nécessaire et bonne. Mais elle doit respecter la « délimitation épistémologique de chaque discipline, de la détermination de ce que la philosophie classique appelait l’objet formel de chaque science », car ce souci « a été et est toujours pleinement justifié [67] ».
Une confirmation est apportée par le fait que l’oubli de ce point peut amener une dilution voire une disparition de certaines disciplines essentielles : « si d’un côté l’interdisciplinarité est indispensable en raison de l’unité de l’objet étudié, elle ne doit pas aboutir à la dilution de certains disciplines dans un confusionisme général au profit d’autres disciplines triomphantes [68] ». Et Aubert parle notamment de l’homme et de la morale.
e) La nouvelle alliance entre sciences et philosophie
Cette coopération sciences-philosophie est la grande nouveauté : ignorée par les Grecs et le Moyen-Age pour la raison bien simple que la science n’existait pas à l’état déployée à cette époque ; refusée à Renaissance et jusqu’à ce siècle, par réaction contre la main-mise de la scolastique, puis par a priori scientiste, idéologique.
1’) Quelques exemples
Voice que dit Ilya Prigogine lorsqu’il a achevé le grand ouvrage qui l’a fait connaître du grand public : « Nous avons, au cours de cette étude, trouvé inspiration auprès d’un certain nombre de philosophes ; nous avons cité quelques-uns d’entre eux qui appartiennent à notre époque, tels Serres ou Deleuze, ou à l’histoire de la philosophie, tels Lucrèce, Leibniz ou Whitehead [69] ». Plus précisément, le grand philosophe qui a inspiré Prigogine, et dont il reconnaît souvent et sans hésiter toute sa dette est Henri Bergson : « le problème du temps dans sa relation avec la complexité de la nature, a été suscité par une exigence proprement culturelle, celle qu’exprimait Bergson lorsqu’il écrivait : «le temps est invention, ou il n’est rien du tout » [70] ». De fait, la notion de la structure dissipative est la concrétisation de ce temps qui est inventivité.
C’est ainsi que la théorie des catastrophes est au centre de réflexions autant philosophiques que scientifiques. Les modèles, comme ceux de la fronce, sont au fondement de champs d’application qui semblent illimités : son universalité rappelle celle des notions philosophiques, comme l’acte et la puissance. « Thom se trouve être actuellement le centre d’un réseau de discours hétérogènes (de la tectonique des plaques à la dynamique des révolutions, de l’embryogénèse aux structures symboliques) que l’interdisciplinarité n’a jamais réussi à réaliser. Et c’est peut-être précisément là l’intérêt sociologique majeur de la théorie des catastrophes, de décloisonner les disciplines, de délocaliser la pensée, de reprendre des interrogations depuis longtemps délaissées, de réarticuler des épaves de l’ontologie, divisée, brisée, morcelée par le développement techno-industriel [71] ».
Maintenant, la question est de savoir ce qui fonde l’interdisciplinarité, voire le caractère universel des apports notamment des théories morphologiques. Por Thom, « la langue de l’interdisciplinarité est nécessairement mathématique […]. C’est seulement à partir du moment où un concept d’origine expérimentale a été mathématisé, dégagé par abstraction de son milieu d’origine, qu’il peut commencer à jouer un rôle interdisciplinaire [72] ».
2’) La méthode analogique
Les théories morphologiques, notamment la théorie des catastrophes constituent une mise en œuvre de la méthode analogique : celle-ci est « la première systématisation assez générale de l’analogie [73] ».
Pourquoi ? Ces théories redonnent à la forme sa valeur, sa pertinence, voire sa primauté sur le substrat. Or, « le principe de l’indépendance du substrat libère les analogies [74] ». En effet, explique René Thom, « l’analogie, c’est une opération mentale qui, en principe, n’a rien à faire avec un substrat. On peut appliquer la pensée analogique à des situations très différentes, sans se préoccuper d’avoir à faire de la physique, de la chimie, de la biologie, de la sociologie [75] ».
Précisons (pour le détail je renvoie au cours de métaphysique) : l’analogie est similitude, ressemblance, donc mixte le même et l’autre ; en toute analogie, « il y a la face ressemblance, et il y a la face différence [76] ». Or, les théories morphologiques conjuguent aussi un même qui est la forme et un différent, un autre qui est le substrat. Cela est particulièrement vrai de la théorie des catastrophes : « Selon moi, une vaste classe d’analogies peut être représentée ainsi : un être géométrico-algébrique – un logos, un «archétype» […] est placé sur deux substrats différents ; il définit ainsi une répartition des susbtrats en domaines qui définissent linguistiquement des actants : les dispositions respectives de ces actants sur deux substrats s’évèrent alors géométriquement isomorphes. C’est ce dernier fait qu’exprime justement l’analogie ». On peut donc donner une forme géométrique à l’analogie.
Précisons encore. On distingue analogie de proportion et analogie de proportionnalité. La première est à trois termes (d’un à plusieurs, précisément) et la seconde est nécessairement à quatre termes, de deux à deux : « le second, explique Aristote, est au premier comme le quatrième est au troisième ». Pour reprendre l’exemple célèbre d’Aristote : « La vieillesse est à la vie ce que le soir est au jour [77] ». Or, tel est aussi le cas, en théorie des catastrophes : pour reprendre le même exemple, la vieillesse et la nuit sont assimilables à l’une des sept catastrophes élémentaires distinguées par Thom, à savoir le pli : la vieillesse est comme le « pliement » ou le « repliement » de la vie sur elle-même, comme le soir est le « pliement » ou le « repliement » du jour sur lui-même : cette interprétation catastrophiste a d’ailleurs une représentation intuitive : lorsqu’on regarde un globe terrestre, il est possible de tracer une ligne entre les zones qui sont illuminées (donc le jour) et les régions géographiques qui sont dans l’obscurité (donc la nuit) ; or, cette ligne est un pli et ce bord correspond, du point de vue de la théorie des catastrophes, à une catastrophe élémentaire. De manière plus générale, deux termes correspondent à deux substrats, deux autres à la forme empirique. On constate d’ailleurs qu’aux quatre termes s’associe un cinquième qui est la forme géométrique commune modélisée par la théorie des catastrophes.
Cette méthode analogique correspond aussi à une structuration analogique-hiérarchique de l’univers. En effet, le fondement de l’analogie est réel : c’est la participation à une même forme topologique. Par exemple, une transition de phase est dans le domaine thermodynamique ce qu’un krach boursier est dans le domaine économique. Ces deux phénomènes sont modélisés par une structure commune qui est, ici, la fronce.
f) L’attention portée au monde quotidien
Le monde de la science classique, plus encore aujourd’hui qu’à la Renaissance, est un monde inhumain ou en tout cas déserté par l’humain, car, ainsi que nous l’avons dit, il s’intéresse à l’infiniment grand et à l’infiniment petit. Et l’un appelle l’autre : quand on veut se représenter un atome, on prend le système solaire comme illustration (atome de Rutherford). Le monde classique n’est plus à échelle humaine, sa rationalité est astrale. Plus encore, il fait appel au gigantisme des méthodes. « Partout et sous les formes et les travestissements les plus divers, le gigantesque fait son apparition […]. Le gigantesque s’annonce aussi bien dans la direction du toujours plus petit : nous n’avons qu’on songer aux chiffres de la physique nucléaire. Avec cela, le gigantesque s’impose sous une forme qui semble précisément vouloir le faire disparaître : ainsi l’annihilation des grandes distances par l’avion, la représentation produisible à loisir de mondes inconnus et lointains dans leur quotidienneté, par une simple manipulation du poste de radio. Cependant c’est penser d’une façon trop superficielle que de voir dans le gigantesque la seule vacuité interminablement étendu du quantitatif pur ; on pense trop court quand on croit que le gigantesque, sous la forme du continuel «cela ne s’est jamais vu», est engendré par la fièvre aveugle de l’exagération et du surpassement […]. Car le gigantesque est bien plutôt ce par quoi le quantitatif devient une qualité propre [78] » : il définit l’essence des sciences et de la philosophie de la nature des temps modernes.
En regard, les théories morphologiques, les théories de la complexité restaurent le monde du quotidien à taille humaine qui était celui des philosophie de la nature grecques et médiévales. En effet, par exemple les méthodes topologiques et géométriques permettent de modéliser rigoureusement les phénomènes, les processus à notre dimension. En ce sens, cette nouvelle approche de la nature fait sortir de l’ivresse totipotente de la technique, de ce gigantisme qui caractérise « l’ubris de la science réductionniste contemporaine [79] ».
3) Une nouvelle place donnée à l’homme et donc à l’éthique
a) La science se réhumanise
On assiste à une réhumanisation de la science. Ainsi que l’affirme l’astrophysicien philosophe Hubert Reeves, brodant sur un thème qui lui est cher : « C’est au xxe siècle que, grâce à l’accumulation des connaissances, par un vaste retour sur elles-mêmes, les sciences sont en mesure d’accomplir leur jonction. Elles redécouvrent ce que, dans leur zèle, elles avaient un peu oublié : leur objet commun est l’univers, habité par l’homme, auteur de la science [80] ». Alors qu’un Pascal demeurait fasciné autant qu’effrayé par le silence des espaces infinis, la cosmologie actuelle nous apprend que l’immensité de l’univers n’est pas gratuite, l’expansion de l’univers est nécessaire à l’émergence de la vie et de la pensée sur Terre. En effet, elle provoque le refroidissement cosmique et la dilution efficace de l’entropie nécessaire à l’apparition des systèmes complexes localisés. Aussi, « le rôle de l’espace n’est pas seulement, comme le croyaient nos ancêtres, d’héberger l’humanité, mais aussi de l’engendrer. Et cela prend beaucoup, beaucoup de place [81]… » Selon une intuition chère à Husserl, mais aussi Heidegger, l’espace, est un lieu où l’homme peut demeurer, avant de bâtir.
L’astrologie pose les questions cosmologiques, anthropologiques et éthiques que l’on sait. Du moins présente-t-elle un intérêt : elle rappelle à l’homme le lien qu’il entretient avec le cosmos. Et la prolifération des pseudo-sciences comme l’astrologie trahit aussi ce besoin de se sentir chez soi dans l’univers, de recoudre ce que le dualisme de la Renaissance avait séparé. À l’exact opposé, « la science et la technologie de la puissance sont nées dans notre monde occidental, là précisément où le rapport mystique avecla nature a été, le plus tôt, remis en question [82] ».
De manière générale, les sciences actuelles réconcilient l’homme avec son univers, et le fondent rigoureusement. Qu’il s’agisse des théories physiques que sont la relativité générale, la mécanique quantique, ou de la théorie de l’information et la théorie des systèmes.
La philosophie de la nature intègre à nouveau monde de la science et monde de la vie [83]. C’est ce que l’on voit, indirectement, en mécanique quantique. Pour Bohr comme pour Heisenberg, on ne peut plus désormais séparer l’homme de la nature, la « nature-dont-nous-faisons-partie-nous-mêmes [84] » : « c’est avant tout le réseau des rapports entre l’homme et la nature qui est la visée centrale […]. La science, cessant d’être le spectateur de la nature, se reconnaît elle-même comme partie des actions réciproques entre la nature et l’homme […]. La méthode ne peut plus se séparer de son objet [85] ». Et ailleurs : « La science de la nature décrit une partie de l’interaction entre la nature et nous ; la science décrit la nature telle que notre méthode d’investigation nous la révèle [86] ». Ce qui invite Henseinberg à conclure, ce qui me semble outrancier : « la notion de loi de la nature ne peut être complètement objective [87] ».
L’introduction du paramètre temporel est le signe d’une présence majeure de l’homme. « il semble qu’aujourd’hui on réintroduise celui qu’on avait cru, un temps, pouvoir évacuer : l’homme [88] ». L’homme a perdu son splendide isolement, il est « plus que jamais présent au cœur des sciences [89] ».
N’est-ce pas plutôt le contraire ? Le réel a aussi tendance à s’éloigner de l’homme : d’abord, à cause de la modélisation scientifique qui est de plus en plus poussée ; or, « la sophistication des modélisations aujourd’hui joue carrément le rôle de rideau opaque entre l’homme et le réel [90] ». À leur tour, la machine et l’homme s’interposent de plus en plus entre l’homme et la réalité. Autant, l’outil prolonge directement la main, autant le machinique est aujourd’hui de nature calculatoire. Ce n’est plus l’homme qui tient l’outil, il n’en est plus que le concepteur. De même la technologie engage tout un complexe dont l’homme fait partie, mais dont il semble aussi parfois être exclu.
Répondons à partir d’un exemple. La version neuronale de la machine auto-programmable nous montre tout de même qu’il y a continuité. « On s’est demandé si l’attitude de l’homme moderne à l’égard de la nature se distinguerait si fondamentalement de celle d’autrefois que cela seul suffisait à constituer un point de départ entièrement différent pour tous nos rapports avec la nature […]. L’attitude de notre temps à l’égard de la nature ne s’exprime guère, comme aux siècle passés, par une vaste philosophie de la nature ; elle est au contraire déterminée, dans une très large mesure, par les sciences et par la technique modernes […]. Il n’y a guère lieu de croire que cette image de l’univers que donnent les sciences ait influencé directement le dialogue de l’homme avec la nature […] ; par contre, on est en droit de supposer que les changement des bases de la science moderne de la nature sont un symptome de transformations profondes des fondements de notre existence qui, à leur tour, provoquent certainement des réactions dans tous les autres domaines de la vie […]. De ce point de vue, il peut être important pour l’homme qui cherche à pénétrer l’essence de la nature, soit pour créer, soit pour expliquer, de se demander quelles transformations se sont produites dans l’image de la nature fournie par la science au cours des dernières décennies [91] ».
b) La technique se réhumanise
Citons une nouvelle fois Hubert Reeves : « Si nous avons un rôle à jouer dans l’univers, c’est bien celui d’aider la nature à accoucher d’elle-même [92] ». La thèse de Bruno Latour est que la distinction sujet humain et objet technique est trop dualiste. Il faut une véritable conversion du regard pour percevoir combien artefact et homme sont imbriqués, combien le premier est investi du second et combien le premier délègue de sa personne, de son éthique au second. Cet entrelacement si étroit réhumanise la technique mais elle l’oblige aussi à un examen de conscience : elle n’est pas si neutre qu’elle en a l’air. Autrement dit, le non-humain est plus humanisé qu’il y paraît ; en revanche, l’humain est plus déshumanisé, dépouillé de son humanité qu’il y semble.
Le mieux est d’illustrer ce propos à partir d’un exemple pittoresque mais révélateur : la ceinture de sécurité. [93]
1’) Le fait
Partons du fait suivant, de plus en plus banal. « En montant dans ma voiture, je m’aperçois que je ne peux la faire démarrer, qu’elle clignote et qu’elle geint. Etonné, je regarde mon tableau de bord : «Attachez votre ceinture !!!» J’obéis à l’injonction du tableau de bord, j’attache ma ceinture et suis enfin autorisé à actionner le démarreur. La voiture elle-même m’a prescrit un comportement : tu dois attacher ta ceinture pour conduire. Elle m’a empêché de démarrer jusqu’à ce que j’obéisse. Enfin, une fois mon action conforme à ses exigences, j’ai été autorisé à faire ce que je désirais : conduire sur l’autoroute jusqu’à mon lieu de travail [94] ».
2’) L’interprétation classique
Elle se dédouble elle-même selon que l’on s’indigne de l’irresponsabilité du conducteur qui ne pense pas à sa sécurité, ou des contraintes imposées par la machine brute à la liberté responsable du conducteur face à la contingence des situations. Or, l’irresponsabilité autant que la contrainte sont des déficits en moralité, soit intérieurs au sujet, soit extérieurs au sujet. Cette interprétation estime donc que l’événement comporte une masse manquante de morale.
3’) L’interprétation de Bruno Latour
Pour Bruno Latour, la masse de moralité est constante dans la sphère socio-technique : la moralité se répartit seulement de manière différente entre les humains et les non-humains. Ici, simplement, la technique a dévolu, départi à la technique une quantité inaperçu mais non négligeable de morale que seule une lecture historique et sociologique peut démasquer.
* Premier fait. L’expérience montre à la sécurité routière que l’homme ne peut comprendre qu’il ne faut pas conduire trop vite. Toujours, c’est là une question de constatation statistique, l’homme se trouve tenté de transgresser le commandement de bon sens « Tu ne rouleras pas trop vite ». Or, brider un moteur ne semble pas la bonne solution ; aussi la solution trouvée a été de brider le corps humain : l’inertie morale renvoie à celle du corps pesant lancé à des vitesses élevées ! En conséquence, « la ceinture devient le moyen, pour les responsables de la sécurité, d’inscrire dans la voiture même la règle morale «tu n’iras pas trop vite» [95] ». La ceinture de sécurité la bien nommée est une délégation de la moralité perdue du conducteur. Autrement dit, il y a un transfert de moralité du sujet vers l’objet. Parce que la chair est faible, mais surtout lourde, à 100 km/h !
* Mais il faut creuser. Quel type de morale est-il en jeu ? Il est nécessaire que la ceinture soit facile à boucler et soit impossible à détacher lors d’un très grand choc. On pourrait même aujourd’hui le confirmer, grâce aux ceintures à enrouleur : la ceinture est souple lorsque les mouvements du conducteur sont doux, mais se durcit, dès que son mouvement est violent. Autrement dit, la ceinture obéit aux mouvements propres du conducteur, mais elle le commande lorsqu’il est lui-même agit. Or, l’éthique est discipline de l’action ; plus encore, c’est le propre de la loi que de présenter cette double face permissive ou contraignante ; et la vertu de prudence a pour fonction de proportionner l’action à chaque circonstance. Donc, la ceinture est un instrument éthique. Plus encore, il y a répartition des compétences : « le conducteur peut devenir plus insouciant, la voiture plus intelligente. Ce que l’un perd, l’autre le gagne [96] ». Nous retrouvons donc la même conclusion, mais affinée.
Le principe de Lavoisier vaut donc pour la masse éthique.
* Mais un second fait intervient. La sécurité routière ne peut fonctionner que si le conducteur déjà incapable d’appiquer le principe « tu ne rouleras pas trop vite » se plie à l’autre principe « tu mettras ta ceinture », déléguant le reste de la moralité de sa conduite à la voiture qui se chargera non seulement de la protection, de la sécurité du sujet, mais des nuances impliquées dans tout agir prudentiel. Mais que faire, lorsque le conducteur démissionne de ce minimum morale qu’est le second commandement ? Vous l’avez compris : il suffit de relier directement par un capteur électrique la boucle de la ceinture et le démarreur. Si le conducteur n’est pas immobile, la voiture le reste et ne mérite pas son nom d’automobile ! Voire les Japonais ont trouvé une solution extrême : « une ceinture, accrochée au montant de la porte, s’écarte poliment lorsque vous ouvrez la porte ; mais une fois que vous êtes assis dans votre fauteuil, elle roule le long du montant de la porte et vous embrasse, vous enserre, vous étreint avec une grande fermeté. Pas la peine de discuter. Pas la peine de tricher. Pas la peine de demander à votre garagiste de déconnnecter le mécanisme. Ou bien la voiture roule la porte ouverte ou bien vous roulez la ceinture mise [97] ».
Remarquez toutefois qu’il y a toujours une condition laissée à la libre initiative du sujet, ici ouvrir la porte, comme pour signifier que la source de la délégation vient de l’homme : c’est celui-ci qui initie l’action, car seul il lui donne sa finalité.
4’) Conclusion
Au fond, quelle que soit l’interprétation, elle ne peut pas ne pas faire intervenir l’éthique. Mais ce que Latour montre, c’est que l’objet technique est très humanisé et dépositaire d’éthique. Le montrent les mots mis en italique dans la description du fait initial qui, dans sa technicité, semble moralement neutre : ils font tous appel à l’éthique. D’aucuns trouveront cette herméneutique trop anthropomorphe. C’est, en fait, qu’ils n’ont pas déchiffré le poids de devoir-faire caché derrière le pouvoir-faire. On pourrait même creuser : un pouvoir, une puissance suppose toujours un acte ; or, cet acte implique toujours de l’humain, en cas d’objet technique, donc d’usage humain. Mais cet acte n’est jamais neutre éthiquement parlant. Il ne faut donc pas naïvement croire que l’objet s’identifie à son potentiel, à sa puissance technique ; que la « liberté » donné par l’objet ne manque pas d’attirer l’attention sur les contraintes de départ qu’il implique. Or, ces contraintes sont éthiques : « le simple exemple de cette ceinture de sécurité montre qu’il existe une gamme continue d’injonctions et de prescriptions qui peuvent, à tous moments, transformer le devoir-faire en pouvoir-faire [98] ».
Une conséquence souvent inaperçu est que la réaction technophobe de l’Occident s’explique peut-être par la charge éthique de la technique, par son moralisme implicite. Aussi, avec finesse, Latour constate-t-il que l’automobile n’est rien d’autre qu’une hétéro-mobile [99].
Moralité (!) : l’objet technique est aussi et peut-être d’abord un objet éthique. Il est le prolongement de notre intelligence non seulement ouvrière, mais éthique : « La ceinture de sécurité n’est pas technique, fonctionnelle ou amorale. Au moment du danger, elle deviendra, au contraire, plus morale que moi, c’est même pour cela qu’elle fut mise en place. Dès que je freine brusquement, elle me retient de faire un malheur, et de malheureux orphelins [100] ». Or, dans la tradition grecque et romaine, l’éthique est discipline conduisant (sic) au bonheur.
5’) Quelques remarques critiques
Il est vrai que Latour devrait plutôt articuler trois que deux instances : l’individu-l’institution et l’objet.
Je garde la thèse non-dualiste très heureuse, que l’on pourrait illustrer par d’autres exemples tirés de l’ouvrage.
Il faudrait en revanche s’interroger sur la question de la masse manquante qui est autre : elle suppose, à mon sens l’étroit ajustement de l’objet et des besoins humains.
4) La crise écologique ou la critique de la toute-puissance technique
a) Les faits
Il y a une crise. Déjà Teilhard le notait : « Incontestablement, le fardeau du Monde se fait de plus en plus lourd sur les épaules de l’humanité [101] ». Aujourd’hui le grand observateur de la nature qu’est Morin est pessimiste : « Nous sommes entrés depuis plusieurs siècles dans l’ère planétaire ; le xxe siècle est l’âge de la grande agonie planétaire [102] ».
Voici quelques exemples malheureusement bien connus.
1’) Touchant le monde inorganique
Je relèverai deux faits. Le premier est le trou de la couche d’ozone qui est rien moins que mythique. Lisons le compte rendu donné dans La Recherche [103] : « D’abord mises en évidence, de façon sporadique au-dessus de l’Antarctique avec le «trou d’ozone», les diminutions de la quantité d’ozone atmosphériques furent également décelées au-dessus des l’Océan arctique. Les résultats d’une équipe de la NASA démontrent que cette réduction de la couche d’ozone touche également les latitudes moyennes de l’hémisphère nord ».
Peut-on chiffrer les pourcentages de la perte ? « En utilisant les données recueillies par le spectromètre TOMS, embarqué à bord du satellite Nimbus 7, ces auteurs ont mis en évidence dans ces régions une diminution de 0,8 % par an de la quantité d’ozone atmosphérique, à la fin de l’hiver et au début du printemps. À l’échelle de la planète, c’est-à-dire entre les latitudes de 65° N et 65° S, celle-ci aurait diminué de près de 3% entre 1978 et 1990 ».
Quelle est la cause ? Les facteurs sont multiples et mal définis. Les CFC (les chlorofluorocarbures) jouent un rôle important, mais non exclusifs.
Second fait : la pollution atteint déjà le ciel. Voici ce que dit Casgha après enquête, avec humour mais non sans inquiètude : « le ciel attend son sauveur, capable de le débarrasser des détritus qui l’encombrent : 7 000 corps satellisés que l’on peut suivre au radar et entre lesquels il faut slalomer, mais surtout 40 000 débris d’environ 1 cm et 10 millions d’1 mm ! Débris insignifiants, c’est vrai, pour l’automobiliste moyen ; mais dans le vide, à 10 km par seconde, un simple boulon peut parfaitement pulvériser une navette, et une écaille de peinture de moins de 1 mm peut transpercer le scaphandre d’un astronaute. Or le nombre de fusées – et oui, on les envoie neuves avec de la belle peinture pour briller à la télé – est estimé à quelques dizaines de milliards, et les exemples de collisions qui ont détruit des satellites ne manquent pas puisqu’on a pu en recenser 90, collisions qui d’ailleurs génèrent elles-mêmes de nouveaux débris, etc. [104]«
2’) Touchant le monde végétal
« Si la situation est […] très sérieuse en Europe, elle l’est malheureusement encore davantage dans les pays en développement : brutalité des interventions dans certaines forêts tropicales d’Amazonie et du Sud-Est asiatique, l’ampleur de la progression de la désertification et de l’érosion des sols. Deux illustrations concrètes :
– 40 ha de forêt tropicale sont détruits chaque minute (soit 20 millions d’ha/an), selon le PNUE (1990).
– 4, 5 milliards d’ha, soit 35 % de la surface terrestre, où vivent 850 millions d’habitants, sont actuellement à des stades plus ou monis avancés de désertification (d’après L. B. Brown, 1989) [105] ».
« Ces forêts sont un maillon essentiel de l’équilibre planétaire : 7% des terres émergées produisent 25 % de l’oxygène (autant de CO2). Elles participent à la régulation du climat, et leur combustion dégagerait du gaz carbonique à effet de serre. Or, ces forêts disparaissent aujourd’hui à un rythme accéléré : 100 000 kilomètres carrés défrichés par an en Amazonie. À ce rythme, la forêt aura complètement disparu en 2040, et avec elle quelque 1,6 milliard de tonnes de carbone dégagés par an [106] ».
Jusqu’en l’an 2000, 40% de la forêt tropicale devrait disparaître ; le Sahara progresse de 10% dans certaines régions
3’) Touchant le monde animal
Voici enfin quelques chiffres alarmants concernant les disparitions d’espèces animales. Continuons à lire Christian Brodhag : « Les études du Conseil de l’Europe ont montré que, sur l’ensemble de notre continent, sur les :
– 156 espèces de mammifères, 66 soit 42 % sont menacées d’extinction,
– 400 espèces d’oiseaux, 72 soit 18 % sont menacées d’extinction,
– 102 espèces de reptiles, 46 soit 45 % sont menacées d’extinction,
– 43 espèces d’amphibiens, 13 soit 30 % sont menacées d’extinction,
– 200 espèces de poissons d’eau douce, 103 soit 50 % sont menacées d’extinction.
« Les menaces sont tout aussi grandes parmi les groupes d’invertébrés, puisqu’à titre d’exemple 65 espèces des 164 taxons de libellules (= 40 %) sont aussi menacées d’extinction. Même résultats alarmants parmi la flore, tout spécialement les espèces endémiques et méditerranéennes ».
4’) Il ne faudrait pas oublier le monde humain
Notamment les chiffres des intoxications, des cancers, de la drogue… « en fonction des modèles mis en œuvre, l’estimation des morts par cancers radio-induits sur les cinquante ans à venir varie de quatre cent mille à un million. Ainsi, les pathologies multiples apparues depuis l’accident ne sont pas dues à un sydrome de «radiophobie» mais constituent l’un des effets insoupçonnés de l’accident [107] ».
b) Les causes
Incontestablement, la crise écologique présente des aspects et des facteurs technoéconomiques. Mais c’est d’abord et avant tout une crise éthique. La technique est le lieu de réalisation de la toute-puissance humaine. La crise écologique marque la limite interne de cette toute-puissance.
Sur ce point, les chrétiens sont parmi ceux chez qui la conscience est le plus finement alertée. Voici quelques analyses. Le pape Jean-Paul II : « …au problème de la «légitime autonomie des réalités créées» se rattache également le problème de l’écologie, très ressenti de nos jours, c’est-à-dire le souci de la protection et de la préservation du milieu naturel.
« Le déséquilibre écologique, qui suppose toujours une forme d’égoïsme anticommunautaire, naît d’un usage arbitraire – et en définitive nuisible – des créatures, dont on viole les lois et l’ordre naturel, ignorant ou méprisant la finalité immanente à l’œuvre de la création. Ce comportement lui aussi provient d’une fausse interprétation de l’autonomie des créatures terrestres. Lorsque l’homme utilise ces choses «sans les référer au créateur» – pour employer encore les paroles de la constitution concilaire – il cause à lui-même des dommages incalculables. La solution du problème de la menace écologique demeure dans un rapport étroit avec […] la vérité sur la création et sur le créateur du monde [108] ». Ailleurs : « Certains éléments de la crise écologique font apparaître à l’évidence son caractère moral [109] ».
La crise écologique est « la crise de la domination de l’homme sur la nature [110] ». « La situation actuelle se caractérise par la crise écologique de l’ensemble de la civilisation technique et par l’épuisement de la nature par l’homme. Cette crise est mortelle, non seulement pour les hommes, mais depuis longtemps déjà pour les autres êtres vivants et pour l’environnement naturel. Si nous n’allons pas vers un changement radical dans les orientations fondamentales de ces sociétés humaines, si nous ne réussissons pas à modifier notre comportement vis-à-vis des autres êtres vivants et de la nature, cette crise s’achèvera dans une catastrophe universelle [111] ».
Enfin Michel Schooyans donne quelques exemples de notre responsabilité éthique dans la crise écologique [112]. « Au sud du Sahara, le désert progresse de 7 km par an. La population cultive le sol d’une façon incompétente et brûle le bois pour faire la cuisine.
« Au nord du Brésil, dans la région de la Serra de Caraja, la montagne des Carajas est l’une des plus importantes réserves de minerais de fer du monde. Des fonderies où l’on consomme 2000 tonnes de bois par jour y ont été établies. Pour essayer de reboiser, on a planté des eucalyptus, espèce d’arbres très productives en bois aptes à être utilisés dans les haut-fourneaux. Ils poussent vite, donnent du bois, mais ont des effets désastreux : l’épuisement du sol et la fuite des oiseaux à cause de l’odeur. Tout un déséquilibre écologique s’installe dans des régions où ce dernier était déjà très précaire ». En effet, en « Amazonie, la forêt est relativement jeune, l’humus est très peu profond, déboiser pour cultiver peut être une solution périlleuse. Il n’est pas sûr que ces terres soient bonnes pour l’agriculture ou l’élevage… » Or, on déboise environ 35 000 km2 chaque année, soit plus que la superficie de la Belgique. Actuellement, il y a à peu près 400 000 km2 détruits, soit 8% de l’Amazonie ; d’autres parlent de 12 % (p. 48 et 49). Or, celle-ci, « région en soi sous-epulée (moins d’un habitant au km2) est un patrimoine commun de l’humanité, un peu comme la Méditerranée. Quand ce genre d’argument est présenté au gouvernement brésilien, celui-ci parle de souveraineté nationale, de non-ingérence dans ses problèmes, etc. [113]«
À Sao Paulo, agglomération de 14 millions d’habitants qui fera sans doute 26 millions à la fin du siècle, il y a des cadrans qui indiquent l’indice de pollution ; c’est aussi la pollution qui désagrège les pierres du Parthénon : aucune mesure sérieuse n’a été prise contre elle, alors qu’un simple contrôle des pots d’échappement des autobus serait une mesure efficace.
« Dans le Nord du Brésil, la fièvre de l’or conduit les chercheurs d’or à dissoudre du mercure dans les cours d’eau pour capter l’or ce qui a des effets désastreux sur la faune. Des poissons meurent par milliers, car ils sont atteints d’hydrargisme. Une telle maladie est funeste pour tout l’équilibre écologique [114] ».
5) Les blessures du scientifique
a) La prise de conscience de la « charge affective » de la science ou les illusions perdues
Déjà Charles Darwin notait combien son intense activité scientifique avait desséché son cœur et atrophié son sens artistique : « Mon esprit semble être devenu une sorte de machine à moudre des lois générales à partir de vastes séries de faits ». Il constate ainsi que Shakespeare; Byron et Shelly ont cessé de l’émouvoir. Or, les conséquences de cette désertification intérieure ne sont pas seulement esthétiques mais éthiques : Darwin dit sentir « un affaiblissement de l’aptitude à ressentir des émotions », ce qui était possiblement préjudiciable, continuait-il à écrire, à son « caractère moral [115] ». Certes, ce seul témoignage ne peut être généralisé, mais sa lucidité nous pousse à lui donner une portée plus générale.
En voici deux autres exemples. Le discours totalisant de la physique a commencé à se fissurer avec le largage de la première bombe atomique, sur Hiroshima, le 6 août 1945, à 8 h 15. La lecture de quelques journaux parus le lendemain ou quelques jours après que soit lancée la première bombe atomique est révélatrice. Ainsi, Jean Caret dans La Croix du 18 août : « aujourd’hui la parole n’est plus aux souverains, aux dictateurs ou même aux peuples ; elle est aux savants. Et la guerre ne se prépare plus dans les casernes ou dans les camps, mais bien dans les laboratoires ». Voici ce qu’écrit M. Limorgnes dans un éditorial du journal Le Monde le 9 novembre : « Le temps est définitivement passé où l’on comptait sur la science pour procurer le bonheur de l’humanité […]. Les progrès de la science ne réjouissent plus personne. Ils inquiètent plutôt une humanité qui en fut jamais si misérable. […] Ceux qui ont voulu nous faire croire que la science, la science seule, assurerait ce progrès essentiel (celui de l’esprit humain) se sont moqués de nous ».
Conclusion : « Retenons des ces lignes, qui ne se veulent aucunement exhaustives, qu’après la bombe atomique, les certitudes lisses et entières que, pour certains, la science avait peut-être engendrées jusque-là et laissées croire, se fissurent, s’écaillent, se perdent. La science devient double, duale, duplice : elle peu aussi blesser et tuer. Dorénavant et pour longtemps, la science fait peur. […] Il n’est plus sûr, depuis août 1945 au moins, que la production scientifique aille dans le sens du bonheur, et même de l’essence de l’homme [116] ».
Le Prix Nobel de physique Max Born déclarait en 1965 : « Bien que j’aime la science, j’ai le sentiemtn qu’elle s’oppose tellement à l’histoire et à la tradition qu’elle ne peut être absorbée par noter civilisation. Il se pourrait que les horreurs politiques et militaires et le complet effondrement de l’éthique dont j’ai été le témoin durant ma vie ne soient pas le symptôme d’une faiblesse sociale passagère, mais une conséquence nécessaire de l’essor de la science – laquelle est, en elle-même, l’une des plus hautes réussites intellectuelles de l’homme [117] ». Ce jugement extrême et brutal est d’autant plus révélateur qu’il émane d’une personnalité qui n’est pas vraiment à la frontière de la science institutionnelle.
Parcourons maintenant le manifeste signé par 17 scientifiques paru dans Le Monde du 19 mars 1988. Il affirme que la science « sauf à être contrôlée maîtrisée, fait courir des risques graves à l’environnement, aux peuples et aux individus ». De plus, « l’identification de la production scientifique au progrès, et même au bonheur, est largement une mystification ».
Second exemple. L’Américain Theodore Roszak, dans un ouvrage où il attaque les us et coutumes de la technocratie, s’en prend au « mythe de la conscience objective » dont il donne un exemple aussi éloquent que terrifiant [118]. En 1874, un spécialiste en neurologie, le docteur Roberts Bartholow, expérimente sur une femme en prison considérée comme « plutôt faible d’esprit », Mary Rafferty. L’expérience consiste à stimuler électriquement le cerveau pour en observer les réactions. Le chercheur nous en a donné un compte rendu très objectif. Il augmente la stimulation électrique et décrit les comportements de Mary : au début, elle émet des plaintes ; puis elle a peur et se met à pleurer ; ensuite, elle tend la main gauche et agite spasmodiquement les bras ; alors, ses yeux deviennent fixes ; enfin, les lèvres prennent une couleur bleue, alors que la bouche écume. Or, le rapport est méthodique, dénué de toute manifestation affective. Plus encore, Mary mourait trois jours plus tard. Pourtant, des spécialistes comme D. Krech, tout près de nous, en 1962, ont pu citer Bartholow comme un pionnier en expérimentation neurologique. Roszak dit ces faits plus fréquents qu’il n’y paraît [119]. Or, il estime que ce ne sont pas des regrettables « bavures », des exceptions. Ils manifestent de façon tristement spectaculaire, la logique intime d’objectivation, de déshumanisation, d’anéthicité de la science classique. Dans les termes de la philosophie de la blessure : la démarche objective blesse par monisme méthodologique, elle crée un habitus qui occulte d’autres démarches complémentaires nécessaires pour aboutir à une vision équilibrée du réel.
Paul Ricœur ne disait pas autre chose dans un texte remarquable sur les médecins en régime totalitaire : en un mot, la différence entre la pratique quotidienne de notre médecine et la médecine nazie n’est pas de nature mais de degré [120]. Or, notre médecine allopathique est tout droit héritée d’une vision mécaniste du vivant [121].
b) Du savant au chercheur ou l’abandon de la toute-puissance
Le scientifique d’aujourd’hui a un sens plus aigu de l’humiltié à laquelle il est appelé. Je ne parle pas de l’opinion moyenne du public sur lui. L’évolution du terme le désignant en un indice sûr. « Beau mot que celui de chercheur, et si préférable à celui de savant ! Il exprime la saine attitude de l’esprit devant la vérité : le manque plus que l’avoir, le désir plus que la possession, l’appétit plus que la satiété [122] ».
Au fond, la blessure du chercheur naît d’une idolâtrie, d’une absolutisation du discours scientifique. C’est le diagnostic porté, avec lucidité, par Joseph de Maistre (1753-1821). Certes, on connaît son traditionnalisme papiste, son apologétique catholique, et on aura vite fait d’étiqueter ses propos de réactionnaires. En réalité, il accorde du prix à la science ; il s’est élevé non contre la science, mais contre ses abus. Ce qu’il lui reproche ce sont ses excès : dans son ouvrage de 1821, Les soirées de Saint-Pétersbourg, il fustige « cette espèce de despotisme qui est le caractère distinctif des savants modernes » ; plus encore, il diagnostique avec finesse l’idolâtrie latente du scientisme : « Leurs théories sont devenues une espèce de religion ; le moindre doute est un sacrilège [1] ». D’où la conséquence pratique qui est la sécularisation : « ce système […] mène à droit à ne plus prier [1] ».
Pascal Ide
[1] Honoré de Balzac, Le médecin de campagne, in La Comédie humaine, tome IV, Paris, Omnibus, 1999, p. 101.
[2] Pierre Hadot, Plotin ou la simplicité du regard, coll. « Folio essais », Paris, Gallimard, 1997, p. 192.
[3] Cf. Alain Boutot, L’invention des formes
[4] René Thom, « La physique et les formes », p. 337.
[5] La nouvelle Alliance, p. 387.
[6] Modèles mathématiques de la morphogénèse, 2ème éd., p. 87.
[7] La Nouvelle alliance, p. 372-373.
[8] François Dagognet, Les outils de la réflexion. Épistémologie, coll. « Les empêcheurs de penser en rond », Institut Synthélabo, 1999, p. 285.
[9] Ibid., p. 284.
[10] Cf. M. Espinoza, Essai sur l’intelligibilité de la nature, Toulouse, Ed. Universitaires du Sud, 1987.
[11] L’heure de s’enivrer. L’univers a-t-il un sens ?, Paris, Seuil, 1986.
[12] Thierry Magnin, Quel Dieu pour un monde scientifique ?, Paris, Nouvelle Cité, 1993, p. 26.
[13] Cf. Xavier Sallentin, Le monde n’est pas malade, il enfante, Paris, O.E.I.L., 1989, p. 212s.
[14] Cf. Henri Pagels, The Cosmic Code, New York, Éd. Simon and Shuster, 1982.
[15] Cf. par exemple François Jacob, Le jeu des possibles, Paris, Fayard, 1981. Henri Atlan, A tort et à raison, Paris, Seuil, 1986. Douglas Hofstadter, Gödel, Escher et Bach, p. 37.
[16] Ivar Ekeland, Le calcul, l’imprévu, p. 122.
[17] Prédire n’est pas expliquer, p. 42.
[18] Modèles mathématiques de la morphogénèse, 2ème éd., p. 101.
[19] Paraboles et catastrophes, p. 102.
[20] Modèles mathématiques de la morphogénèse, 2ème éd., p. 101.
[21] Ibid., p. 107. « A ma connaissance, il n’y a pas de modèle quantitatif numérique, fondé sur la théorie des catastrophes, qui ait donné des résultats vraiment intéressants ». (Prédire n’est pas expliquer, p. 43)
[22] Ibid., p. 106.
[23] David Ruelle, Hasard et chaos, p. 95.
[24] Modèles mathématiques de la morphogénèse, 2ème éd., p. 116.
[25] Paraboles et catastrophes, p. 93.
[26] Modèles mathématiques de la morphogénèse, 2ème éd., p. 120.
[27] Paraboles et catastrophes, p. 102.
[28] Christian Vidal, in Pierre Bergé, Y. Pomeau et Christian Vidal, L’Ordre dans le chaos, Paris, Hermann, 1984, p. 289.
[29] Jean Largeault, Philosophie de la nature 1984, p. 115, note 25.
[30] Christian Walter, « Les risques de marché et les distributions de Lévy », Analyse financière, 3è trimestre 1989, p. 40-50. Avec bibliographie. Cité « Les risques ». Id., « L’utilisation des lois Lévy-stables en finance une solution possible au problème posé par les discontinuités des trajectoires boursières », ni Bulletin de l’Institut des Actuaires français, n° 349 (10/90), p. 3-32 et 350 (01/91), p. 4-23. Avec grosse bibliographie. Cité « L’utilisation ». Id., « Condorcet et la naissance de l’actuariat financier », in MTF, n° 12, juillet-août 1989, p. 36-38. Cité « Condorcet ». « Une histoire du concept d’efficience sur les marchés financiers », in Annales. Histoire, Sciences Sociales, Paris, Armand Colin, juillet-août 1996, n° 4, p. 873-905. Cité « Une histoire du concept d’efficience ».
[31] Pierre Thuillier, L’aventure industrielle et ses mythes, Paris, Ed. Complexe, 1982, p. 14.
[32] « Condorcet », p. 36.
[33] Ibid., p. 38.
[34] Louis Bachelier, Théorie de la spéculation, Thèse pour le doctorat ès sciences mathématiques, Annales de l’École Normale Supérieure, 3ème série, tome 27, 1900, p. 21-86. Pour le détail, cf. « Une histoire du concept d’efficience », p. 875s.
[35] Ibid., p. 904.
[36] Ibid., p. 37.
[37] Benoît Mandelbrot, « Sur l’épistémologie du hasard dans les sciences sociales. Invariance des lois et vérifications des prédictions », in Logique et connaissance scientifique, coll. « Encyclopédie de la Pléïade », Paris, Gallimard, 1967, p. 1103.
[38] « Les risques », p. 46.
[39] « L’utilisation », p. 18. Souligné dans le texte.
[40] « Les risques », p. 46. Souligné dans le texte.
[41] « L’utilisation », p. 5.
[42] « Les risques », p. 49.
[43] Ibid., p. 49.
[44] « Ibid., p. 49. Souligné dans le texte.
[45] Lisons le court mais astucieux article de Bernard Dubois, « S’adapter au consommateur caméléon », in Hommes et commerces, Juin 1992, p. 20 et 21.
[46] Benoît Mandelbrot, « Nouveaux modèles de la variation des prix (cycles lents et changements instantés) », Cahiers du séminaire d’économétrie du C.N.R.S., vol. 9, 1966, p. 53 à 66, ici p. 53.
[47] Art. cité, p. 21.
[48] Bruno Latour, « L’œuvre d’art et sa reproduction numérique », La Recherche L’origine des formes, n° 305, janvier 1998, p. 110-111.
[49] Les planches sont dans l’ouvrage qu’il dirige et se présente sous la forme d’un somptueux coffret Digital Prints, Londres, Permaprint, 1997.
[50] Brian C. Smith, On the Origins of Objects, Cambridge (Mass.), mit Press, 1997, p. 8.
[51] « L’œuvre d’art et sa reproduction numérique », p. 111. Souligné par moi.
[52] Cf. les œuvres de Paul Virilio, notamment La vitesse de libération, Paris, Galilée, 1995.
[53] Le Monde, vendredi 24 septembre 1999, p. 27.
[54] Gregory Chaitin, « Le hasard en théorie des nombres », p. 87.
[55] La Nouvelle alliance, p. 391.
[56] Ibid.
[57] Cf. B. Nicolescu, La science, le sens et l’évolution, Paris, Félin, 1988.
[58] Cf. Bernard d’Espagnat, À la recherche du réel. Le regard d’un physicien, Paris, Gauthiers-Villars, 1981. Un atome de sagesse, Paris, Seuil, 1982. Une incertaine réalité. Le monde quantique, la connaissance et la durée, Paris, Gauthiers-Villars, Bordas, 1985.
[59] Cf. David Bohm, La plénitude de l’univers, Paris, Le Rocher, 1977.
[60] Cf. E. Kaelin, « La science à l’heure de l’hypothèse Dieu », in Nova et Vetera, Fribourg, n° 2, 1990, p. 147.
[61] Cf. Collectif, La Déclaration de Venise. La science face aux confins de la connaissance, Paris, Félin, 1987, p. 9-10.
[62] Pierre-Gilles de Gennes et Jacques Badoz, Les objets fragiles, Paris, Plon, 1994, p. 139.
[63] Ibid., p. 139 et 140.
[64] Jean-Marie Aubert, « Le monde physique en tant que totalité et la causalité universelle selon Saint Thomas d’Aquin », in Studi Tomistici, n° 18, La philosophie de la nature de saint Thomas, Actes du symposium sur la pensée de Saint Thomas tenu à Rolduc, les 7 et 8 novembre 1981, Léo Elders (éd.), Vaticano, Libreria Editrice Vaticana, p. 82-106, ici p. 83-84.
[65] Cette question, notons-le en passant, n’est pas sans relation avec le statut épistémologique de ce que les Anciens appelaient les sciences « mixtes ».
[66] Jean-Marie Aubert, « Le monde physique en tant que… », p. 84. Il ajoute une remarque intéressante d’un point de vue éthique l’interaction de l’homme et de la nature s’est accru du fait de « la dégradation de son environnement », car il en est la cause (Ibid.).
[67] Ibid., p. 83.
[68] Ibid., p. 86.
[69] La Nouvelle alliance, p. 387.
[70] Ibid., p. 41.
[71] Jean Petitot, « La théorie des catastrophes », in Encyclopædia Universalis, Universalia, Paris, 1978, p. 202.
[72] René Thom, « Vertus et dangers de l’interdisciplinarité », in Apologie du logos, p. 642-643.
[73] René Thom, Paraboles et catastrophes, p. 135.
[74] Jean Largeault, Principes de philosophie réaliste, Paris, Klincksieck, 1985, p. 254.
[75] René Thom, Prédire n’est pas expliquer, p. 46.
[76] Mgr. Bruno de Solages, Dialogue sur l’analogie, Paris, Aubier, 1946, p. 15, cité par Paul Bernard Grenet, Les origines de l’analogie philosophique dans les Dialogues de Platon, Paris, Boivin, 1948, p. 9.
[77] Aristote, Poétique, chap. 21, 1457 b 22, coll. « L’ordre poétique », Paris, Seuil, .
[78] Martin Heidegger, « L’époque des conceptions du monde », p. 85-86.
[79] René Thom, « Matière, forme et catastrophes », in Penser avec Aristote, éd. M. A. Sinaceur, Toulouse, Erès, 1991, p. 398.
[80] L’heure de s’enivrer. L’univers a-t-il un sens ?, Paris, Seuil, 1986, p. 204.
[81] Ibid., p. 209.
[82] Ibid., p. 47.
[83] Cf. Alexandre Koyré, Études newtoniennes, Paris, Gallimard, 1968, p. 43.
[84] L’expression a un sens canonique chez Niels Bohr cf. Physique atomique et connaissance humaine, Paris, Gauthier-Villars, 1961. Préface et glossaire de C. Chevalley, coll. « Folio Essais », Paris, Gallimard, 1991, p. 514-517.
[85] Werner Heisenberg, La nature dans la physique contemporaine, trad. Ugné Karvelis et A.E. Leroy, coll. « Idées », Paris, Gallimard, 1962, p. 34.
[86] Werner Heisenberg,Physique et philosophie. La science moderne en révolution, trad. J. Hadamard, Paris, Albin Michel, 1961, p. 87.
[87] Werner Heisenberg, « Deuxième entretien », in L’homme et l’atome, Rencontres internationales de Genève, 1958, Neuchâtel, Éd. de la Bâconnière, p. 195.
[88] Marie-Dominique Popelard, « De nouveaux rapports entre les sciences et la nature ? Considérations épistémologiques », in Pierre Colin (éd.), De la nature. De la Physique Classique au Souci Écologique, coll. « Philosophie » n° 14, Paris, Beauchesne, 1992, p. 39-60, ici p. 46.
[89] Ibid., p. 52.
[90] Ibid., p. 53.
[91] Werner Heisenberg, La nature dans la physique contemporaine, liminaire.
[92] L’heure de s’enivrer, p. 212 et 213. Souligné dans le texte.
[93] Bruno Latour, « Les cornéliens dilemmes d’une ceinture de sécurité », in Petites leçons de sociologie des sciences, coll. « Points Sciences », Paris, Seuil, 1993, p. 25 à 32.
[94] Ibid., p. 25. Les soulignements sont de l’auteur.
[95] Ibid., p. 26.
[96] Ibid., p. 29.
[97] Ibid., p. 30.
[98] Ibid., p. 31. Souligné dans le texte.
[99] Ibid., note 5, p. 30.
[100] Ibid., p. 32.
[101] Pierre Teilhard de Chardin, L’avenir de l’homme, Paris, Seuil, 1959, p. 62.
[102] Edgar Morin, in La terre outragée. Les experts sont formels !, Série « Sciences en société », Paris, Ed. Autrement, 1992, p. 71.
[103] n° 237, novembre 1991, vol. 22, p. 1270.
[104] Jean-Yves CasghA, Science-Frontières, Les dossiers de J.Y. Casgha, Paris, Robert Laffont, 1990.
[105] Collectif, Sauvegarde et gérance de la création, ous la direction de René Coste et de Jean-Pierre Ribaut, Paris, Desclée, 1991, Préface, p. 10 et 11.
[106] Christian Brodhag, Objectif terre. Les Verts, de l’écologie à la politique, Paris, Ed. du Félin, 1990, p. 249.
[107] Marie-Hélène Mandrillon, « Tchernobyl la montée de l’expertise », in La terre outragée, p. 123.
[108] Jean-Paul II, Catéchèse du 2 avril 1986, in Le Créateur du ciel et de la Terre, Catéchèse sur le Credo II, Paris, Le Cerf, 1988, notamment p. 43. Souligné dans le texte français.
[109] Id., « La Paix avec Dieu créateur, la Paix avec toute la création. Message pour la Journée de la Paix du 1er Janvier 1990 », n. 6 et 7, in Documentation Catholique n° 1997, du 7 janvier 1990, p. 9 à 12.
[110] Jürgen Moltmann, Dieu dans la création. Traité écologique de la création, trad., « Cogitatio fidei » n° 146, Paris, Le Cerf, 1988, p. 38.
[111] Ibid., p. 35.
[112] Michel Schooyans, « Paix, justice, intégrité de la création », in Foi et sciences, n° 6, Le respect de la création, juin 1991, p. 41 à 67, ici p. 41.
[113] Ibid., p. 49.
[114] Ibid., p. 51.
[115] N. Barlow (éd.), The Autobiography of Charles Darwin, The Norton Library, 1969, p. 138-139. Trad. française Charles Darwin, Autobiographie, Paris, Belin, 1984, p. 122-133.
[116] Véronique Le goaziou, « Hiroshima et la presse quand la science révèle son vrai visage », in La Recherche n° 208, mars 1989, p. 410 à 412, ici p. 412. L’auteur cite notamment 7 journaux L’Aurore, Le Soir, Combat, La Croix, Le Figaro, Le Monde, Le Parisien Libéré.
[117] Bulletin of atomic scientists, 1965, cité par M. Gorran, Science and Anti-science, Ann Arbor, Ann Arbor Science, 1974, p. 54.
[118] Theodore Roszak, The Making of a Counter-Culture. Reflections on the Technocratic Society and its Youthful Opposition, Faber and Faber, 1971, p. 275-176.
[119] Roszak renvoie à M. H. Pappworth, Human Guinea Pigs Experimentation on Man, New York, Routledge and Kegan Paul, 1967.
[120] Commission médicale de la Section française d’Amnesty International et Valérie Marange, Médecins tortionnaires, médecins résistants. Les professions de santé face aux violations des droits de l’homme, Préface de Paul Ricœur, Paris, La Découverte, 1989. « La limite du savoir technique doit clairement être affirmée pour faire une place à l’éthique ». (p. 139)
[121] Cf. le remarquable ouvrage de François Laplantine, Anthropologie de la maladie. Étude ethnologique des systèmes de représentations étiologiques et thérapeutiques dans la société occidentale contemporaine, coll. « Science de l’homme », Paris, Payot, 1986.
[122] Jean Rostand, Inquiétudes d’un biologiste, Paris, Stock, 1967, p. 56.