B) Les mutations ontologiques ou une nouvelle compréhension du cosmos
Après la méthode, passons aux résultats, c’est-à-dire au nouveau regard jeté sur l’être des choes.
1) Une redécouverte de l’ordre et de la hiérarchie
a) Une vision plus unifiée
On sait, beaucoup mieux qu’avant comprendre l’unité du monde. Physique, astronomie, chimie, biologie contribuent à nous donner une vision unifiée de l’univers.
Les sciences nous proposent une vision de la nature étonnamment unifiée. Cette unification est double : synchronique et diachronique. L’unité structurale se double d’une unité par filiation.
Elle concerne autant le monde de l’inerte que le monde du vivant. Enfin, cette unité est autant celle de l’expérience que celle des formalismes, elle est observationnelle et rationnelle
Un tableau résumera les acquis.
|
Le monde de l’inerte (l’Univers) |
Le monde du vivant |
Unification structurale |
Quatre forces et deux familles de particules (quarks et hadrons) |
Quatre bases composant l’ADN et vingt acides aminés composant les protéines |
Unification diachronique |
Histoire de l’univers à partir d’une singularité initiale |
Théorie de l’évolution |
L’homme a redécouvert qu’il n’est pas séparé de la nature, qu’il ne se constitue pas en son individualité en s’arrachant à la négativité insignifiante de l’univers, mais qu’il en fait partie intégrante, cela grâce à la crise écologique. « Un phénomène très important de notre époque se révèle par ce qu’on appelle la crise écologique, par laquelle l’homme s’aperçoit brutalement que sa liberté envers la nature est non seulement limitée, mais que son usage désordonné, et indépendamment de toute norme objective, peut signifier une grave menace pour son avenir.
« En effet, après avoir exercé sans aucun frein sa liberté sur la nature, l’homme moderne découvre une vérité qu’il n’avait pas voulu voir, obnubilé par l’exaltation de sa liberté : il ne peut vivre qu’en symbiose avec la nature (l’homme est un être de besoins), qu’en relation congénitale avec elle, donc en respectant ses lois ; c’est ce qu’implique la notion d’environnement [1] ».
b) Une vision plus ordonnée
Mais il y a plus. L’univers est ordonné. L’ordre dit, outre la relation, une primauté. Empruntons un exemple, une fois n’est pas coutume, à la mathématique. Le développement de géométrie non commutative, fondée par Alain Connes, médaille Fields en 1982 [2], est un des signes de dépassement de la géométrie euclidienne caractéristique de la description classique, galiléo-newtonienne du monde.
1’) Le fait en histoire des mathématiques
Dans la physique classique fondée par Newton et Maxwell, et même en mécanique relativiste, l’espace est commutatif, symétrique. Il nous est familier de faire correspondre espace géométrique et algèbre commutative. De même, au xixe siècle, un atome est décrit mathématiquement par un espace des phases et un hamiltonien. Mais ces instruments physiques ne peuvent prédire les régularités des spectres atomiques, précisément les fréquences des radiations émises.
Or, les mathématiciens ont élaboré au xixe siècle des espaces géométriques au-delà du cas commutatif.
De nombreux exemples d’espaces mathématiques naturels comme l’espace des univers de Penrose ou l’espace des feuilles d’un feuilletage ne peuvent être décrits de manière pertinente par les outils des algèbres commutatives. « Le but de la géométrie «non commutative» est de comprendre la structure d’espaces géométriques plus complexes que les espaces ordinaires, dont la description ne peut plus se faire à partir dun ensemble X et de classes de fonctions f : X –> R ayant certains types de régularité : mesurabilité, continuité, différentiabilité [3] ».
Plus encore, l’espace des physiciens est souvent non commutatif. Tel est d’abord le cas de la mécanique quantique. La mécanique des matrices inventée par Heisenberg a remplacé l’algèbre des fonctions sur l’espace des phases de la mécanique classique par une algèbre non commutative : ce pas conceptuel est décisif et programmatique de beaucoup d’autres qui lui ont succédé. Il « a remplacé la mécanique classique, dans laquelle les quantités observables commutent deux à deux, par la mécanique des matrices, dans laquelle des quantités observables aussi importantes que la position et le moment ne commutent plus [4] ». En physique des solides, l’algèbre des fonctions sur l’espace des énergies-impulsions devient non commutative. Troisième exemple : la physique des particules élémentaires dans le modèle de Weinberg-Salam des interactions électro-faibles, peut être formalisée à partir d’une algèbre non commutative ; dès lors, par un dédoublement de l’espace-temps, les bosons de Higgs peuvent obtenir une origine conceptuelle comme bosons de jauge pure.
Dès lors, la commutativité devient un cas particulier d’une théorie plus générale, selon le processus de généralisation et d’absorption caractéristique de tout progrès en théorisation et de toute amélioration dans la description de la nature.
Il est possible de reformuler les outils classiques de l’analyse comme la mesure, le calcul différentiel, la topologie dans un cadre non commutatif.
2’) Sens philosophique d’une telle évolution
Quel est le sens philosophique profond de la non-commutativité ?
Il me semble que l’espace retrouve un sens dynamique, lié au corps : « Le formalisme général de la géométrie non-commutative, dans lequel la notion de point de l’espace disparaît au profit de celle des coordonnées, de fonction sur l’espace et de l’algèbre de ces fonctions, est analogue au formalisme général de la théorie des champs, où la dynamique de particules ponctuelles soumises à une interaction à distance disparaît au profit de celle de champs soumis à une interaction locale [5] ». En effet, un tel espace réintroduit la fonction, l’activité, au point de résorber toute substance dans son opération. Dans les univers euclidiens, les points sont considérés comme les éléments fondamentaux. Désormais, la géométrie non commutative donne la prépondérance non pas au point mais à la fonction. De même que la fonction d’onde a remplacé celle de particule, en mécanique quantique. « Le paysage qui en résulte est un monde chimérique, un monde composé exclusivement de verbes et dépourvu de noms, un monde où les seules réalités sont des actions mais où aucun objet (points ou particules) n’est là pour s’y soumettre [6] ». Intéressant parallélisme entre l’être, le penser et le dire.
Par ailleurs, un tel espace introduit l’incertitude. Ce n’est pas par hasard s’il sert à décrire la mécanique quantique.
Enfin, l’espace non commutatif suppose une vision hiérarchisée, un ordre. La commutativité est loin d’être une opération banale, universelle. Quantité d’opérations ne le sont pas, notamment celles qui impliquent une hiérarchie : « Lors que l’on s’habille le matin, peu importe si on met sa montre avant ou après ses chaussures : ‘mettre sa montre’ commute avec ‘mettre ses chaussures’. ‘Mettre ses chaussettes’, en revanche, ne commute pas avec «mettre ses chaussures» [7] ».
2) Une redécouverte de la complexité et de la diversité contre l’uniformisation simplifiante [8]
Nous avons vu que la science classique s’était construite sur un postulat d’unification uniformisante. Les théories morphologiques font à nouveau droit à la diversité qualitative, voire à la hiérarchie de l’univers et à la complexité, donc au multiple sous ses deux aspects, universel et intrinsèque à chaque être. Mais, avant de leur emprunter trois exemples, rappelons un autre exemple, qui date du siècle dernier, paradigmatique et comme programmatique des révolutions futures qui allaient avoir lieu en ce siècle : le problème des trois corps.
a) Un problème simple, une solution effroyablement complexe
En 1899, Henri Poincaré dont il était dit un mot plus haut, rédigeait un célèbre mémoire Sur le problème des trois corps et les équations de la dynamique (qui lui valut d’ailleurs de recevoir le prix du roi Oscar II de Suède). C’est ce mémoire qui fut d’ailleurs oil’occasion de développer la dynamique qualitative dont il était question ci-dessus.
Ce problème des trois corps est classique [9]. Des générations de mathématiciens se sont penchés sur lui. La formulation est on ne peut plus simple et ne requiert aucune compétence mathématique. Soit trois corps (symbolisés par trois points) se mouvant librement dans un espace à trois dimensions. La théorie de la gravitation universelle de Newton nous apprend que ces corps s’attirent selon une loi bien connue. On connaît les paramètres de position et de vitesse de chacun de ces trois corps à un instant t considéré comme initial. Le problème est le suivant : déterminer les posiitons et lse vitesse de chacun de ces corps à un instant ultérieur (ou d’ailleurs antérieur) quelconque. Concrètement, ce problème revient par exemple à formuler l’évolution d’un système solaire rudimentaire comportant le Soleil et deux planètes.
Voilà le problème bien posé. Sa formulation mathématique est tout aussi simple que la description intuitive que nous venons de donner. Or, selon un théorème général d’analyse, la solution existe et doit être unique. Mais, contre toute attente, de manière paradoxale, la solution est d’une inextricable complexité.
Dans un premier temps, Poincaré n’aboutit qu’à des résultats négatifs : certes, la solution existe et est unique, mais le système différentiel ne peut pas être résolu analytiquement. En effet, les positions et les vitesses ne sont pas des fonctions usuelles du temps. Les équations entraînent des développements qui ne sont pas convergents. Certes, « le calcul des premiers termes donne une approximation très satisfaisante ; mais il n’en est pas moins vrai que ces séries ne sont pas susceptibles de donner une approximation indéfinie. Il viendra donc un moment où elles deviendront insuffisantes ». Aussi, ne peut-on « résoudre la question de la stabilité du système solaire [10] ».
Mais, dans un second temps, Poincaré tente une autre approche, très originale, pour résoudre le problème des trois corps : il fait appel à une méthode qualitative, en cherchant à déterminer la forme générale des trajectoires. Il montre alors que le comportement des trois corps est tantôt périodique, pour certaines valeurs des conditions initiales, ensuite que ces comportements périodiques sont parfois instables, et enfin qu’au voisinage de ces solutions périodiques instables, on trouve des couples de solutions qui correspondent à des courbes intégrales extrêmement complexes : « chacune de ces deux courbes ne doit jamais se recouper elle-même, mais elle doit se replir sur elle-même d’une manière très complexe pour venir recouper une infinité de fois toutes les mailles du réseau. On sera frappé de la complexité de cette figure que je ne cherche même pas à tracer. Rien n’est plus propre à nous donner une idée de la complication du problème des trois corps et en général de tous les problèmes de dynamique où il n’y a pas d’intégrale uniforme et où les séries de Bohlin sont divergentes [11] ».
Nous sommes donc prévenus : la complexité vient se loger dans la plus extrême simplicité… apparente. Ainsi donc, « les équations de la dynamique pouvaient recouvrir des mouvements extrêmement irréguliers, ceux-ci étant d’ailleurs la règle plutôt que l’exception [12] ».
b) L’exemple de la théorie des catastrophes
En voici trois exemples pris dans des domaines intentionnellement variés. Les théories catastrophistes, de prime abord, tombent aussi dans cette tendance à la généralisation chloroformante. Thom nous détrompe, reprenant la distinction qui lui est chère du local et du global : « on ne peut espérer a priori intégrer tous ces modèles locaux en une stgructure globale ; s’il était effectivement possible d’intégrer tous ces schémas locaux en une immense synthèse, l’homme serait fondé à dire qu’il connaît la nature ultime de la réalité, puisqu’il n’existerait pas d’autre modèle global meilleur que celui-là ; je crois personnellement que c’est là une exborbitante prétention ; très vraisemblablement, l’ère des grandes synthèses cosmiques s’est définitivement close avec la relativité générale, et il est bien douteux (et sans doute peu utile) qu’on tente de la rouvrir [13] ». Notons en passant l’aveu d’humilité qui est de principe. Il est tout opposé au vœu de toute-puissance démiurgique qui caractérise l’homme de la Renaissance. On retrouve l’opposition de l’homme mûr à l’adolescent tout enivré de la force débutante qu’il sent pousser dans ses muscles et son caractère.
L’analogie dont il a été traité permet de fonder cette vision d’un univers à la fois même et autre. Platon l’avait bien compris dans son Timée [14]. En effet, l’analogie est une structure qui respecte la diversité sans faire éclater l’unité. Or, par exemple la théorie des catastrophes montre les profondes similitudes de formes sous les substrats les plus divers : l’unique forme que constitue la fronce modélise autant les transitions de phase en thermodynamique que le comportement agressif du chien étudié en éthologie. Détaillons. La transition de phase est un phénomène bien connu des physiciens : c’est le changement d’état d’une même substance qui, par exemple, par vaporisation, passe de l’état liquide à l’état gazeux. En effet, chaque état s’appelle une phase et chaque passage d’un état à l’autre, une transition. Or, le passage discontinu d’une phase à une autre correspond à ce que Thom appelle une catastrophe. La modélisation montre que cette catastrophe est ici la fronce.
Or, se fondant sur les travaux de l’éthologue Konrad Lorenz, Christopher Zeeman a montré que certains comportements animaux, comme l’agressivité du chien, répondait à la même structure en fronce [15]. En effet, cette agressivité dépend de deux facteurs indépendants et antagonistes, la peur et la colère. Ces deux affects s’expriment par des mimiques caractéristiques : la peur « tire les oreilles et les commissures des lèvres en arrière, tandis que l’agressivité fait retrousser la lèvre supérieure et ouvrir la gueule [16] ». Surtout, ils engendrent deux comportements contraires et incompatibles : la peur fait fuir et diminue l’agressivité, alors que la colère pousse à l’attaque et accroît l’agressivité. Le problème naît de la coexistence des deux motivations conflictuelles. Or, Lorenz estime qu’alors il est très peu probable que le chien demeure immobile, mais qu’il est pratiquement impossible de prévoir l’issue. Pour lui, il y a équiprobabilité d’attitude : lorsque « la colère et la peur se partagent à parts sensiblement égales », l’attitude « doit être suivie dans environ la moitié des cas, d’agression, et dans l’autre moitié, de fuite [17] ».
Or, ce comportement bimodal imprévisible peut être formalisé : Zeeman a pris la catastrophe de la fronce pour en rendre compte. Les variables de contrôle sont alors les deux facteurs antagonistes de la peur et de la colère notées u et v. Et la variable de comportement est l’agressivité du chien, ou, plus exactement, la probabilité d’un comportement agressif (et inversement de fuite), x. Un tel modèle présente un réel intérêt : il permet de formaliser et de comprendre le pourquoi de l’imprévisibilité de la réaction animale en certaines circonstances. Voire, il autorise une certaine prédictivité qualitative. Considérons un trajet dans le plan de contrôle. Le point de départ est une situation de crainte : le chien est prêt à s’enfuir. « Si on augmente la colère de l’animal, par exemple en s’approchant trop près de lui, alors il commencera à montrer les dents, mais il restera apeuré jusqu’à ce que le point (M3) soit atteint. À cet instant, il atteint le bord de la nappe inféiruer, et donc la stabilité de sa propension à la fuite s’effondre, et il sautera soudain «catastrophiquement» sur la nappe inférieure avec une propension à l’attaque [18] ». Généralisant cette conclusion, on peut dire que le « chien apeuré, dans une situation telle que sa colère augmente sans cesse, peut attacher brusquement ». En revanche, « si un chien enragé est progressivement apeuré, il pourra ceser d’attaquer et battre en retraite [19] ». Pour l’application pratique de ces remarques générales, il est conseillé d’apprendre à bien discerner les mimiques de peur et de colère… [20]
En tout cas, nous voyons combien une même catastrophe est à même de modéliser, voire d’expliquer des processus réellement distincts quant au sustrat. Pour le cas de la fronce, il faut un certain nombre de caractéristiques formelles précises dont les suivantes :
- La première caractéristique vaut pour toutes les catastrophes. Par définition. Une variation continue de la variable de contrôle doit, en certaines circonstances, causer une brusque, discrète variation de comportement. La catastrophe est à la jonction du continu et du discontinu.
- La bimodalité : une région de l’espace de contrôle doit admettre, pour des paramètres identiques ou presque, deux comportements opposés. Nous retrouvons ici l’ouverture aux contraires, caractéristique de la potentialité.
- La divergence est la conséquence de la seconde caractéristique : un changement mineur des conditions initiales peut conduire à des comportements et des situations très différents, voire opposés. « On a longtemps considéré que le phénomène de divergence dans les sciences «inexqctes» ne pourraient être modélisé mathématiquement ; mais on s’aperçoit aujourd’hui que la divergence est une propriété de systèmes stables qui peut être modélisée et prédite, et l’oumtile naturel qu’il faut utiliser est la théorie des catastrophes [21] ».
- Les autres caractéristiques sont plus secondes (mais non secondaires) : il existe par exemple des états inaccessibles car ils sont situés sur la nappe intermédiaire, alors que le processus saute d’une nappe extrême à l’autre.
En tout cas, lorsqu’on rencontre l’une de ces caractéristiques, il faut se demander si nous ne sommes pas en présence d’une fronce. Les chercheurs ont ainsi montré que la fronce modélisait une multitude de phénomènes bimodaux, comme la stabilité des navires, la différenciation cellulaire en embryologie, les battements du cœur en physiologie, l’anorexie mentale en psychiatrie ou les comportement de foule en sociologie.
c) L’exemple de la théorie des fractales
Le postulat de simplification de la matière, de descente parallèle vers l’infiniment petit et vers l’indifférencié qui semble de bon sens, est controuvé par les récentes découvertes notamment des théories fractales. Ce qui est bon sens est, là encore, habitude d’esprit (blessée) imposée par le mécanisme dans lequel baigne l’intelligence depuis la petite enfance (que, de surcroît, surdétermine la logique technique qui est aussi une logique de la dissolution uniformisante). Notre science croit qu’immanquablement, « l’on peut décomposer un objet quelconque en petites parties homogènes. En d’autre termes, on admet que la différenciation de la matière contenue dans un certain contour devient de plus en plus faible quand ce contour va se resserrant de plus en plus [22] ». Ne nions pas la fécondité de ce processus. N’oublions pas aussi ce qu’il emprunte à la technique dont la tendance est souvent l’analyse : c’est en digitalisant, donc en quadrillant et en discrétisant, que l’on a pu entrer dans le monde extraordinairement important de l’informatique. Le monde du discontinu est un monde résolu (donc absolu). Il permet une plus facile domestication des formes, des processus, une mise en tutelle de la nature, la mise en place d’une discipline, la reproduction des processus.
« Lorsque les informaticiens veulent représenter une surface extérieure, ils la décomposent en pixels : on fait un diagramme de petits carrés, chacun reçoit le signal «oui» ou «non». Finalement, la forme se réduit à un agrégat de carrés. C’est bien entendu une façon très barbare de se représenter la forme [23] ».
Or, l’observation la plus ordinaire, autant que la théorie fractale montre que la simplicité n’est que dans la tendance réductrice de la science classique. « Mon œil cherche en vain une petite région «pratiquement homogène» sur ma main, sur la table où j’écris, sur les arbres ou sur le sol que j’aperçois de ma fenêtre. Et si, sans me montre trop difficile, je délimite une région à peut près homogène, sur un tronc d’arbre par exemple, il suffira de m’approcher pour distinguer sur l’écorce rugueuse des détails que je soupçonnais seulement, et pour, de nouveau, en soupçonner d’autres. Puis quand mon œil tout seul deviendra impuissant, la loupe, le microscope, montrant chacune des parties successivement choisies à une échelle sans cesse plus grande, y révéleront de nouveaux détails, et encore de nouveaux, et quand j’aurai atteint la limite actuelle de notre pouvoir, l’image que je fixerai sera bien plsu différenciée que je l’était celle d’abord perçue. On sait bien, en effet, qu’une cellule vivante est loin d’être homogène, qu’on y saisit une organisation complexe de filaments et de granules plongés dans un plasma irrégulier, où l’œil devine des choses qu’il se fatigue inutilement à vouloir préciser. Ainsi le fragment de matière qu’on pouvait d’abord espérer à peu près homogène, apparaît indéfiniment spongieux, et nous n’avons absolument aucune présompion qu’en allant plus loin on atteindrait enfin «de l’homogène», ou du moins, de la matière où les propriétés varieraient régulièrement d’un point à l’autre. Et ce n’est pas seulement la matière vivant qui se trouve ainsi indéfiniment différenciée. Le charbon de bois qu’on eût obtenu en calcinant l’écorce tout à l’heure observée, se fût montré de même indéfiniment caverneux. La terre végétale, la plupart des roches elles-mêmes ne semblent pas décomposables en petites parties homogènes [24] ».
Ce que Perrin décrit avec passion, ce que Pascal visionnait dans son fragment sur les deux infinis, Mandelbrot le formalise avec raison. C’est ce qu’illustre particulièrement l’ensemble de Mandelbrot. Cette structure géométrique, inventée par Mandelbrot lui-même, comme son nom l’indique, se construit en faisant appel à la théorie mathématique de l’itération des fonctions complexes. La famille quadratique f(z) = z2 + c, où z désigne un nombre complexe variable et c un paramètre lui-même complexe. L’ensemble de Mandelbrot est, par définition, l’ensemble des paramètres c pour lesquels les itérés successifs de l’origine fk(0) restent à une distance finie de l’origine, lorsque k tend vers l’infini.
Si la procédure de construction est relativement simple, le résultat, l’objet est lui-même d’une complexité qui défie toute description. Mandelbrot cite un mathématicien américain, J.-H. Hubbard selon lequel c’est « l’objet le plus compliqué des mathématiques [25] ». On peut le concevoir de manière intuitive : la prime vision, grossière, lointaine donne à voir un ensemble irrégulier, mais simple ; mais la procédure répétée à l’infini, dans un lieu fini engendre des bourgeons de tailles diverses sur lesquels se greffent des bourgeons de taille inférieure, eux-mêmes bourrés d’excroissance, et cela à l’infini. Voilà pourquoi l’ensemble de Mandelbrot joint « une simplicité extrême » et « une complexité inimaginable. À première vue, c’est une «molécule» consitutée d’«atomes» liés, l’un ressemblant à une cardoïde et l’autre presque ciruclaire; Mais lorsqu’on se rapproche, on découvre une infinité de molcéules plus petites ressemblant à la première et unies par ce que j’ai proposé d’appeler un «polymère du diable». Ne me laissez pas continuer à délirer sur la beauté de cet ensemble [26] ». À noter que l’on peut obtenir des ensembles analogues à celui de Mandelbrot avec d’autres processus itératifs : telles des poupées gigognes, tous présentent une autosimilarité interne, c’est-à-dire répondent à une loi d’homothétie interne.
Laissons Mandelbrot conclure, parlant d’un observateur qui s’approche d’un mur de pierre : « Au fur et à mesure de son grossissement apparent, le relief observé livre de novueaux détails, relativement réguliers quant à leur structure (il s’agit de pierres, dont les formes, les angles et les couleurs respectent un relatif principe de constance) et totalement imprévisibles quant à leur détail (car liés à une succession d’événements aléatoires : agents d’érosion, accidents géologiques, présence de couches tendres, etc.) [27] ».
d) L’exemple de la théorie des structures dissipatives
Non seulement la Nature est composée de multiples formes irréductibles, non seulement sa matière n’est jamais réductible à une gélatine amorphe, mais son évolution demeure toujours imprévisible. L’éloge de la diversité se célèbre donc selon un mode statique formel ou matériel, mais aussi dynamique, ce que manifestent une autre théorie morphologique, inventée par Prigogine.
Enfin, la théorie des structures dissipatives montre que les systèmes ouverts et loin de l’équilibre sont générateurs de diversité. C’est ce que montre le développement à part sur ce sujet. En résumé, un système près de l’équilibre évolue selon les lois de la thermodynamique linéaire. « Lorsque les conditions aux limites données ne permettent pas au sytème d’atteindre l’équilibre thermodynamique (autrement dit une production nulle d’entropie), le système s’installe dans l’état de «moindre dissipation» [28] ». En revanche, lorsque nous nous trouvons loin de l’équilibre, le théorème du minimum de production d’entropie ne se vérifie plus : aussi le comportement thermodynamique peut être « même l’opposé de celui observé et prévu [29]« dans le cadre de ce théorème.
e) L’exemple chez le vivant
L’on voit poindre chez certains auteurs une revalorisation de l’unité sur l’éclatement mécaniste.
L’importance accordée à l’écologie, à la forme, au systémisme montre qu’il existe une vérité du tout et que le tout n’est pas réductible à la somme des parties.
C’est ce que montre la notion de gène à effets pléïotropiques, c’est-à-dire à effets s’exerçant sous plusieurs formes différentes, autrement dit plurifonctionnels.
C’est ainsi qu’il semble que les gènes commandant la formation des doigts soient pléïotropiques : ils s’expriment notamment dans le tubercule génital et le sinus uro-génital, ainsi que dans la formation du système digestif. Voilà pourquoi « il n’existe pas de gène des doigts ». La pentadactylie est donc liée au tout du vivant. « Ainsi, nos cinq doigts sont-ils peut-être la conséquence de la nécessité impérative d’une organisation précise de l’appareil uro-génital, de noter tube digestif oude noter colonne vertébrale, puisque les mêmes gènes officient dans toutes ces structures ». Contre l’idée d’une construction du vivant à partir d’éléments composites et relativement indépendants, il faut concevoir que le vivant est soumis à des contraintes globales : notamment « la marge de manœuvre évolutive » des parties, comme la main, est « conditionnée par leur appartenance au tout [30] ».
f) Confirmation
Rappelons l’historique : en juin 1981 eut lieu au Centre culturel international de Cerisy-la-Salle un colloque consacré à l’auto-organisation [31]. Ce colloque interdisciplinaire soutenu par le CNRS rassemblait des chercheurs de premier plan.
Les débats eurent un retentissement immédiat et suscita la mise en chantier d’un Centre de Recherche sur l’épistémologie et l’autonomie (plus connu sous le sigle CREA, Laboratoire de l’École polytechnique et unité associé au CNRS que dirige actuellement Jean-Pierre Dupuy). La question s’internationalisa ausi, pusqu’il y eut en setempbre 1981, à l’université de Stanford, en Californie, un colloque international sur le thème Disorder and Order. Il rassemblait, outre le noyau du colloque de Cerisy, les deux prix Nobel Arrow et Prigogine, Serres, Watzlawick, Winograd.
Bref, un nouveau concept naissait, ce que Kuhn appellerait un nouveau paradigme. On entend des slogans novateurs : « L’ordre à partir du bruit », selon le mot de Henri Atlan, « la complexité à partir du désordre », etc. L’origine semble bien être Prigogine et sa notion de structure dissipative qu’il explique ainsi : « près de l’équilibre, les lois de la nature sont universelles ; loin de l’équilibre, elles sont spécifiques. Ces «instabilités» exigent un flux d’énergie, elles dissipent de l’énergie. D’où le nom de «structures dissipatives que j’ai donné à ces instabilités aujourd’hui étudiées dans de nombreux laboratoires [32] ».
L’auteur montre tout de même les divergences entre auteurs :
René Thom est toujours tenant du déterminisme. Voici son réquisitoire : la portée de l’ambition des théoriciens dubruit créateur ne lui échappe pas : comprendre comment une faible perturbation des conditions initiales suffit à créer des trs larges variations dans les effets, créent des catastrophes.
Il demeure, poursuit Thom, que « le jeu mental des théoriciens de l’ordre par fluctuation (Prigogine-Stengers) a consisté à gommer mentalement le paysage dynamique global au profit de la petite perturbation déclenchante qui va faire s’effondrer la métastabilité du système vers un équilibre d’énergie inférieur ». Il termine ainsi : « On s’est un peu trop pressé, dans La nouvelle Alliance, de danser la danse du scalp autour du cadavre du déterminisme laplacien. Le déteminisme en science n’est pas une donnée, c’est une conquête. En cela, les zélateurs du hasard sont les apôtres de la désertion [33] ».
Prigogine, lui, veut tenir un juste milieu entre le déterminisme laplacien que représente aujourd’hui Thom et le dogmatisme du hasard représenté par Monod [34].
Qui a raison ? En fait, Thom a davantage raison sur le fond, ou plutôt quant à la cause formelle. C’est ainsi qu’il nous dit que la notion d’ordre est d’abord morphologique ; ainsi, « dans un système moléculaire, le désordre parfait, absolu à l’échelle de la molécule, peut à l’échelle macroscopique être ocnsidéré comme un ordre parfait, puisque tous les points du milieu ont alors les mêmes propriétés observables [35] ».
Mais il faut tenir compte de la réintroduction de la contingence, de la redécouverte de la cause matérielle dont nous parle Prigogine.
Écoutons Bachelard : « En ce qui concerne la diversité des formes, il apparaît presque immédiatement qu’elle n’est pas susceptible d’une analyse limitée par le fait même que la forme, c’est précisément la libre diversité [36] ».
Cette complexité prend aussi la figure de la hiérarchie de l’univers contre l’égalisation des différences.
g) Précision les deux complexités
Désormais, nous savons que la complexité n’est plus un leurre, un effet de l’ignorance : elle est une propriété intrinsèque et essentielle des systèmes et des comportements. Au même titre que le hasard qui n’est plus le voile pudique jeté sur notre nescience. La complexité est en fait un signe de la hiérarchie des formes. En effet, le passage d’un niveau élémentaire à un autre niveau met en jeu des propriétés nouvelles. Ainsi, « même si la dynamique qui régit le niveau microscopique était supposées réversible et déterministe, l’irréversibilité s’introduirait dans le passage au n!iveau macroscopique en même temps que la prédictibilité perdrait son caractère détemriniste pour devenir probabiliste [37] ». La complexité entraîne l’émergence de l’inédit, de la nouveauté.
À côté de la complexité réelle, ontologique, il faut considérer une complexité épistémologique. Il ne s’agit pas seulement d’assurer la cohérence au sein d’une même discipline, ce qui n’est déjà pas mince, mais aussi en trans- et en inter-disciplinaire.
Ainsi, « la culture humaniste […], l’ancienne culture, celle des belles-lettres, était une culture de réflexion […]. Au contraire, la culture scientifique est rivée à ses buts, cloisonnée, dépourvue de réflexivité globale. Le divorce s’est accomplie : d’un côté, une culture qui manque d’aliment, comme un moulin qui tourne à vide ; de l’autre, une culture qui engrange ses nourritures mais on ne sait qu’en faire [38] ».
De ce point de vue là, il peut être intéressant, fécond, de faire appel à des disciplines comme la poésie.
« Non moins sérieusement que les sciences, les arts doivent être considérés comme des modes de découverte, de création, et d’élargissement de la connaissance au sens large d’avancement de la compréhension, et que la philosophie de l’art devrait alors être conçue comme partie intégrante de la métaphysique et de l’épistémologie [39] ».
h) L’unité dans la complexité ou la redécouverte de la méthode analogique
Passons des principes ontologiques aux principes méthodologiques ou noétiques. Boutot y voir un retour de l’aristotélisme. Rien n’est moins sûr, car cette méthode est encore plus prisée par le platonisme : le Timée en fait un abondant usage. De surcroît, les philosophie de la nature orientalistes qui fleurissent aujourd’hui abusent de ce type d’argumentation qui peut devenir sources de sophismes et d’immanentisme.
En revanche, l’analogie a une portée ontologique. Elle me décrit un cosmos riche et varié tout en sauvant son unité. Elle redonne à l’univers son sens plénier qui respecte l’unidiversité. L’analogie sauve et du réductionnisme uniformisant de l’âge classique et du panthéisme des nouvelles philosophie de la nature orientalistes, et, de l’autre bord, de l’éclatement insensé, de certaines interprétations nietzschéennes, anarchiques par exemple des thèses de Prigogine.
i) Conclusion
Nous passons d’une mécanique cartésienne dominée par la géométrie à une physique du complexe qui respecte la topologie. À la science des distances linéaires succède une science des plis, des voisinages et des déchirures. Michel Serres l’explique dans sa « aparabole du mouchoir » : « Si vous prenez un mouchoir et que vous l’étalez pour le repasser, vous pouvez définir sur lui des distances et des proximités fixes […]. Prenez ensuite le mêùme mouchoir et chiffonez-le, en le mettant dans votre poche : deux points très éloignés se trouvent tout à coup voisins. [Inversement], deux points très rapporchés peuvent s’éloigner beaucoup [40] ».
Résumons la nouveauté introduite notamment par la chaologie moderne :
« L’éventualité de systèmes structurellement stables à mouvements compliqués dont chacun est exponentiellement instable en soi, est à mettre au rang des plus importantes découvertes faites ces dernières années en théorie des équations différentielles […]. Jadis on supposait que dans les systèmes d’équations différentielles génériques ne pouvaient exister que des régimes stables simples : des positions d’équilibre et des cycles. Si le système était plus compliqué (conservatif par exemple), on admettait que sous l’effet d’une faible modification des équations (par exemple si l’on tenait compte des petites perturbations non conservatives) les mouvements compliqués se «décomposaient» en mouvements simples. Maintenant nous savons qu’il en va tout autrement [41] ».
3) Une redécouverte de la qualité
a) Illustration plus littéraire
« J’ai autant de muscles qu’Hercule, disait Paul Valéry, seulement ils sont plus petits ». La parole fait rire car elle se fonde sur l’ambiguïté du terme « autant ». La différence entre qualité et quantité, entre continu et discontinu, surtout, est bien montrée dans un étonnante nouvelle de Michel Tournier, Le Nain rouge [42]. Voici le résumé et le commentaire qu’il en donne. L’histoire lui est venue d’un passage des Mots de Sartre :
« Faisant allusion à sa petite taille, l’auteur précise qu’elle ne fait tout de même pas de lui un nain. Je me suis alors demandé quel était le seul qui établissait le partage entre les nains et les hommes petits. Mon histoire est donc celle d’un grand nain (pourquoi parle-t-on toujours de ‘petits nains’ ?), si grand qu’il suffit de chausser des souliers à très haute semelle pour devenir un homme petit. Ce qu’il ne manque pas de faire, bien entendu. Il est très malheureux. Personne ne l’aime, ne le respecte, ne le craint. Il excite partout le rire et le mépris. Un jour pourtant le hasard l’amène à se risquer dehors sans ses cothurnes. Chaussé de mocassins à semelle fine, il s’aperçoit avec stupeur qu’on ne rit plus de lui. On l’observe avec une crainte respectueuse. L’homme petit est devenu un nain, monstre sacré. Ce jour-là, il séduit une femme pour la première fois, une femme qui ne se serait certes pas commise avec un homme ridiculement petit, mais l’expérience d’un nain la tente et finalement la retient. En renonçant aux quelques centimètres que lui donnaient ses chaussures habituelles, mon héros franchit le seuil de l’anormal et accède à la sphère du génie ».
Et de commenter : « Le paradoxe et tout le sel de cette fable c’est évidemment qu’à un moins quantitatif réponde une mutation qualitative qui est en fait un plus [43] ».
b) La qualité dans les théories morphologiques
On se le rappelle, le projet mis en œuvre par la science classique et les philosophie de la nature qui se sont mises à sa remorque, par exemple Kant, avait privilégié le quantitatif et évincé la qualité. Seul le premier était objet de science, la seconde ne relevant que de la doxa, de l’opinion. Tel n’est plus le panorama du moins exclusif proposé par la science actuelle : « l’accès à une pensée qualitative rigoureuse est désormais possible [44] ». C’est ce que l’on voit en théorie des catastrophes, théorie du chaos, comme en thermodynamique non linéaire des structures dissipatives. « Les théories morphologiques contemporaines […] substituent aux méthodes quantitatives traditionnelles de la physique, des méthodes qualitatives [45] ».
Si l’on veut être historiquement rigoureux, il faut noter que les travaux de Thom, comme ceux de Ruelle et de Prigogine s’inscrivent dans le sillage d’autres travaux mathématiques antérieurs, comme ceux de Birkhoff et surtout d’Henri Poincaré. Le mathématicien français (1854-1912) génial d’une exceptionnelle fécondité, dans les domaines les plus variés, formulant avant Einstein les équations de la théorie de la relativité restreinte, sans cependant en apercevoir les implications physiques, ce mathématicien, donc, a mis au point une méthode nouvelle pour appréhender le mouvement des corps matériels qui porte le nom révélateur de dynamique qualitative. Grâce à cette méthode, il résoud notamment le problème des trois corps (dont il sera reparlé plus bas) par une méthode de type géométrique ; or, si le problème est typiquement un problème d’analyse, donc quantitatif, la méthode de résolution mise au point par Poincaré n’est pas le calcul, mais géométrique, et même topologique, donc qualitative.
Revenons à aujourd’hui. Écoutons Thom [46] : « La science a privilégié exclusivement le quantitatif, tandis que pour ma part je travaille à l’élaboration d’un savoir qui prenne en compte l’étude des changements qualitatifs et de leur spécificité. Il y a là de vieux préjugés à combattre. Au commencement de mon premier livre, j’avais déjà cité la phrase du physicien Rutherford, qui affirmait : «Qualitative is nothing but poor quantitative», le qualitatif n’est qu’un quantitatif pauvre. Il n’est pas très difficile de montrer que cela est faux, et qu’il existe un domaine qualitatif totalement spécifique ».
Thom en donne une démonstration étonnante : « Considérez les nombres 1 et 2. La différence entre ces deux nombres est-elle quantitative ou qualitative ? Sans doute allez-vous me répondre qu’il s’agit d’une différence quantitative, puisque 2 = 1+ 1. Ceci est difficilement niable. Mais, d’un autre côté, si vous considérez les couples «1-2» et «2-1», vous ne pouvez pas les dire équivalents. Cette différence est de nature qualitative. Ces deux couples sont «organisés différemment», diraient les biologistes ».
Et, toujours dans la même entrevue, Thom d’émettre l’espoir que se répandent « l’usage qualitatif d’un modèle ». Et de remarquer que « pour beaucoup d’esprits, une probabilité calculée à sept ou huit décimales près est beaucoup plus convaincante qu’un argument fondé sur des considérations qualitatives ». Or, c’est oublier que ces nombres obtenus par statistique ne peuvent être précis et donc, incertains, « font croire à la précision alors qu’elle n’existe pas ».
De manière générale, l’approche qualitative et morphologique n’est nullement exclusive de l’approche quantitative et mécaniste. Elle lui est plutôt complémentaire. Surtout, la première méthode s’avère particulièrement précieuse, lorsque l’analyse quantitative classique semble définitivement vouée à l’échec, hors les tentatives réductionnistes qui seraient risibles si leur sérieux ne poussait à pleurer. « Qui pourrait rendre compte, par exemple, de la morphogenèse animale à partir des seules interactions moléculaires ? Dans un cas de ce genre, l’analyse quantitative fait figure d’idéal inaccessible. Elle est absolument impuissante et doit faire place à une analyse structurale peut-être plus modeste, mais seule capable de procurer un commencement d’intelligibilité au phénomène, c’est-à-dire de réduire l’arbitraire de sa description [47] ».
c) L’intérêt ambigu de l’antiscience
Il peut paraître inquiétant, de prime abord, d’invoquer l’antiscience pour illustrer et confirmer mes critiques à l’égard de l’unilatéralisme réducteur du mécanisme : le terme semble brutalement réactif, avec tout ce que cela comporte comme unilatéralisme ; de plus, il est affectif, il exprime une agressivité, avec son cortège d’aveuglement.
Pour autant, ce terme est imposé par la science. C’est elle qui l’invente et l’utilise, non sans volonté polémique, pour diaboliser son adversaire.
Surtout, ce qu’on a pu appeler l’antiscience est d’abord un mouvement de réaction à l’égard non pas de la science ni des scientifiques, mais des abus de la science, de son mécanisme triomphant. En effet, à la suite de Richard Olson [48], Pierre Thuillier propose un intéressant discernement [49]. Deux courants, explique-t-il, constituent l’antiscience : le premier, traditionnaliste, vise avant tout à protéger des valeurs ou des convictions religieuses, éthiques, contre le caractère subversif de la science. Tel est sans doute le cas d’un Aristophane à qui Olson fait remonter la contestation à l’égard de la science – non sans exagération à mon sens, parce qu’on ne saurait parler proprement de science à cette époque. Ce courant déploie des arguments au total extrinsèque à la science, à savoir le respect de la tradition, et donc ne saurait en constituer une critique valable. Mais il existe un second courant dont le but, dit Olson, est de préserver la « raison imaginative », autrement dit la sensibilité, donc, du point de vue non plus objectif mais subjectif, l’approche qualitative, affective, romantique, personnelle, de la réalité. « l’attitude scientifique fait obstacle au développement d’un certain nombre de facultés humaines. À force de cultiver les idéaux de rigueur, de méthode et d’objectivité, les individus qui privilégient la conquête du Savoir courent le risque de venir moins sensibles, moins aptes à explorer les diverses ressources de la subjectivité [50] ». Nous rejoignons ici le diagnostic porté par la phénoménologie.
d) Une nouvelle approche de la quantité ?
Enfin, peut-être la question n’est-elle pas tant de faire jouer la qualité (et la substance) contre la quantité que de redécouvrir ce qu’est cette dernière, en sa richesse ontologique. Nous avons montré en étudiant Galilée l’originalité de sa vision du nombre qui ne ressemblait que superficiellement à celle de Pythagore ou de Platon. Un bon exemple en est donné à cet observateur attentif de la modernité, notamment technicienne, qu’est le philosophe Jean Brun. Il ne condamne pas le monde de la quantité, mais une compréhension galiléenne et newtonienne de celle-ci, exclusive de la qualité et surtout anthropocentrée, un nombre maîtrisable et compréhensible par l’homme, un chiffre qui est le fruit des activités de l’esprit. En effet, il existe deux conceptions du chiffre, du nombre. La première est pythagoricienne : pour elle, le nombre est source, principe des choses, signe d’une intelligibilité supérieure, séparée. Au fond, ici, le nombre est reçu, offert. Pour l’homme moderne, cette conception est le fruit d’une mentalité « pré-logique et antiscientifique [51] ». Désormais, la quantité n’est plus donné, mais construit, il ne révèle pas le monde, mais l’activité de l’esprit et sa mainmise. Le nombre, par le biais de la mathesis universalis, exténue et bientôt congédie la qualité.
4) Une redécouverte de la différence art-nature
À ce sujet, le diagnostic posé par le philosophe français contemporain Eric Weil, après beaucoup d’autres, ne manque pas de pertinence [52]. Il existe deux sortes de nature : la nature « vécue [53]« et la nature « abstraite » des sciences [54], autrement dit la nature « qui nous arrive et que nous ne faisons pas [55]« et la nature que nous transformons. Spontanément, si l’on demande aujourd’hui à un contemporain ce qu’est pour lui la nature, il pense à celle dont traitent et que révèlent le physicien, le chimiste, le biologiste et le psychologue ; or, c’est une nature caractérisée par « l’artifice », par « l’artificiel [56]« et que non seulement nous connaissons, mais que nous « dominerons chaque jour un peu plus [57] ». La technique est consubstantielle à la science : « les grands physiciens fondateurs de notre science, un Galilée ou un Descartes, furent le premier ingénieur, le second obsédé par le rêve d’une domination humaine sur la nature [58] ». Aussi, considère-t-on la nature comme ce qui « doit recevoir de l’homme sa forme » ; elle n’est bonne « qu’à être employée à des fins qui ne découlent pas d’un donné qui a bien une structure de fait, mais nulle structure sensée [59] ». Cette nature est donc confusément mêlée au faire, à l’art.
Or, cette conception de la nature est somme toute très récente : depuis le xviie siècle « en ce qui concerne les idées » et depuis le xixe siècle « quand on songe aux faits [60] », par la médiation privilégiée de la technique. En regard, « l’idée de transformer le donné pour le dominer n’est jamais venue auc Grecs, et même leur médecine cherchait avant tout à libérer la nature des entraves, gênées, conditions contre nature que la folie des hommes avait créées [61] ». Pour le Grec, la nature est la « belle ordonnance compréhensible en elle-même, spectacle bienfaisant et bienheureux [62] ». Elle est un cosmos ; pour le moderne, c’est un univers.
Mais quelle relation existe-t-il, concrètement entre ces différents types de nature ? D’abord, la différence est irréductible : nous « agissons » la nature scientifique, alors que nous « réagissons » face à la nature [63]. En effet, « la nature se trouve en face de nous, – la nature est ce qui nous englobe et soutient ; la nature est ce qui porte en soi tout ce qui vit, tout le spontané, toute notre vie et toute notre spontanéité [64] ».
Ensuite, la nature vécue comme donné précède la nature dont parle la physique. Quelques signes parmi beaucoup : « Nous posons des questions à la nature, nous la soumettons à la torture – et elle répond. Ni le physicien, ni nous autres, nous ne nous en étonnons : nous avons tort [65] ». Un autre signe est l’uniformité des phénomènes naturels, leur universalité : « la nature est ce qui agit le plus souvent », aimait dire Aristote. Or « la régularité de la nature, pour reprendre la formule de la vieille métaphysique pour désigner cette bonne volonté de la nature, n’est pas de notre mérite, elle n’est pas notre œuvre, elle n’est pas due à notre technique ; au contraire, rien de tout cela ne serait possible en l’absence de son consentement tacite. Nous ne pouvons pas prouver que la nature soit ordonnée et cohérente [66] ». Einstein s’émerveillait de ce que le monde fut intelligible ; de même que nous sommes toujours étonnés de ce que nos mains puissent produire un effet intelligible. On pourrait ajouter un autre signe : la nature est ineffaçable. Non seulement la pierre tombe toujours sur la terre, mais elle le fait avec une régularité mécanique qui ne souffre nulle exception. Jamais on n’a empêché ni on ne pourra empêcher que les corps s’attirent l’un l’autre. Même si on mettait au point du bouclier antigravifique (qui paraît bien improbable), on ne détournerait pas la loi de la pesanteur, d’attraction mutuelle des corps, on ne ferait que l’empêcher de s’exercer : jamais on n’aurait inversé la loi et fait que deux corps (comme physiques, non pas comme électriques) se repoussent.
Enfin, le primat de la nature maîtrisée, possédée rend extrêmement difficile « à concevoir notre rapport à la nature » spontanée qui est considérée comme « l’autre de l’homme ». Or, l’incapacité à percevoir une diversité de perspective, est un des mécanismes les plus fréquents de blessure de l’intelligence humaine. Notre connaissance actuelle de la nature est donc proprement blessée. Aussi Weil n’hésite-t-il pas à dire que nous avons « refoulé » la nature grecque, car elle est indispensable, « avec les conséquences ordinaires » et gênantes « du refoulement [67] ».
Appliquons ces constatations générales à la relation de l’homme à la nature. Nous allons retrouver la même relation ambivalente. En effet, l’homme est à la fois « l’animal qui n’a rien reçu de la nature » et qui « a tout reçu de la nature ». Cette situation paradoxale qui fait de l’homme « un animal distinct de tous les autres [68]« engendre une dualité d’attitudes possibles face à la nature (par exemple notre corps) dont on retrouve des illustrations tout au long de l’histoire : on peut « opposer la foi en le progrès de ceux qu’on appelle les philosophes du xviiie siècle français au désespoir d’un Rousseau, le progressisme des révolutionnaires et des techniciens de notre temps au pessimisme d’un Nietzsche et de ses nombreux héritiers, à moins que l’on ne préfère les observations faites à un niveau moins élevé, allant des protestations contre la société de consommation au naturisme de ceux qui sont convaincus du danger mortel des produits de l’agriculture moderne [69] ». Mais l’optimisme, la foi dans la technique prédomine encore aujourd’hui contre le pessimisme technophobe : Protagoras l’emporte sur les Cyniques.
De même, nous nous trouvons aujourd’hui en face de deux conceptions antinomiques et incompatibles du corps : la première, dominante, maximise l’importance de la technique ; la seconde suspecte la technique et maximise la part de la nature spontanée. Dans le premier cas, l’homme se définit « comme essentiellement être de projets [70]« et se libère de toute amarre, de toute origine, de tout don qui la précède. Dans le second cas, l’homme retourne aux origines, au « lien immédiat à la Nature [71] », parfois avec culpabilité. Mais la technolâtrie entraîne la désespérance profonde, parce que, chaque jour, l’homme perçoit combien le projet prométhéen a échoué : « nous ne sommes toujours pas devenus immortels sur cette terre [72] » ; « je ne suis pas le maître, je suis un être d’angoisse, être fini qui ne s’est pas donné l’existence [73] ». Tous les projets dont parle tant Sartre butte sur l’échec de tout projet qu’est la mort. D’où naît la tentation du « retour à la nature » qui anima le hippie et génère les grandes communautés Nouvel Age. Or, cette seconde solution est-elle redécouverte de la conception grecque ? Non pour deux raisons. D’une part, car ce retour à la nature est réactif, avec tous les risques de ressentiment si finement analysés par Nietzsche : « L’homme révolté se trouve rejeté sur la nature, il n’y est pas retourné [74] ». D’autre part, car « la nature dont parle le révolté moderne, est sa propre nature déterminée, nature de pulsions, d’instincts, de forces intérieures subies, librement subies, si l’on veut, mais aveugles : la sexualité, la violence, la jouissance immédiate au contact des choses, des êtres, des humains [75] ». Autrement dit, cette nature n’est libérée que de l’extérieur (c’est l’immunitas a vinculo, des liens tissés par l’histoire, l’institution), non de l’intérieur. Mais cette position autodestructrice est « irréfutable [76] ».
Si le diagnostic vise juste, le remède proposé laisse à désirer. La seule solution est de retrouver une juste relation humanisée du corps à la technique, autrement dit réconcilier le corps et l’âme, qualités primaires et qualités secondaires.
Weil propose à l’homme d’ »accepter sans amertume » « ce qu’il y a d’irréductiblement animal et de naturel [77]« en lui. Mais, selon les conceptions non croyantes de l’auteur, la seule solution vire au bouddhisme éthique : puisque la nature révoltée est l’envers de la violence technique, il s’agit de renoncer au « projet des projets, celui de la domination absolue », de nous rappeler que « la nature ne prescrit rien [78]« et ainsi libérés « de l’obsession des projets, des promesses et de l’éternel, nous serons heureux demain [79] ».
5) Une redécouverte du mouvement-processus
a) Une redécouverte de l’acte et la puissance
1’) Exposé
Nous aurons l’occasion de préciser le sens de la doctrine aristotélicienne de l’acte et de la puissance. La métaphysique l’expose aussi longuement. À la question l’être provient-il du non-être, la réponse d’Aristote consiste à « distinguer les significations. Il est à la fois vrai de dire que l’être provient du non-être et qu’il provient del’être, à condition de n’entendre pas deux fois le mot être dans le même sens ; l’être en acte ne vient pas de l’être en acte, mais de l’être en puissance, lequel est un non-être en acte [80] ».
Or, Thom retrouve la distinction de l’acte et de la puissance par la notion mathématique de déploiement universel d’une singularité dégénérée. Selon son propre aveu, cette notion « réhabilite et réactualise d’une certaine manière le couple aristotélicien puissance/acte. Toute situation instable est source d’indétermination ». le déploiement universel permet de « paramétrer toutes les «actualisations» possibles des virtualités contenues dans une situation instable, que nous représentons mathématiquement avec une singularité [81] ».
Explicitons cet énoncé en définissant les notions. La mathématique appelle singularité, une fonction qui présente la particularité d’avoir toutes ses dérivées premières nulles en un point. Tel est par exemple le cas de la fonction quadratique f(x) = x2. En effet, sa dérivée première qui est 2x s’annule à l’origine (x = 0).
Précisons. Une fonction est une singularité défénrée si non seulement sa dérivée première mais toutes les dérivées (jusqu’à un certain ordre) s’annulent en un même point. Par exemple, la fonction f(x) = x3 est une singularité dégénérée d’ordre 2, car la dérivée première 3×2 et la dérivée seconde 6x sont nulles au même point qui est l’origine. Cette origine s’appelle d’ailleurs point d’inflexion.
Or, la singularité possède la propriété remarquable de concentrer une forme globale en un point localisé. Reprenons l’exemple de la fonction f(x) = x3 . Elle présente un point d’inflexion à l’origine. Or, ce point qui semble simple, recèle en réalité une complexité cachée : c’est ce que de petites perturbations permettent de manifester. Par exemple, en déformant la singularité cubique x3 en x3 – a2x, la courbe déploie de part et d’autre de l’origine un maximum et un minimum locaux. C’est donc qu’ils étaient initialement présents, mais confus et confondus, inapparents, dans l’origine. En conséquence, le déploiement mathématique est une technique qui permet d’actualiser le virtuel contenu dans la singularité.
Plus encore, il existe différentes manières de déformer une singularité, selon les termes perturbateurs introduits. Il demeure que seules certaines déformations sont topologiquement pertinentes. Le déploiement universel paramétrise « toutes les «actualisations» possibles des virtualités contenues dans une situation instable [82]« représentée mathématiquement par une singularité. De même, il existe un ordre entre la puissance et ses différentes réductions possibles à l’acte.
2’) Conclusion
Il n’est donc pas impossible, avec Thom, de modéliser l’acte et la puissance, mathématiquement : « la singularité à laquelle Thom donne du reste le nom évocateur de potentiel organisateur, est l’équivalent catastrophiste de la puissance ; la forme obtenue par déploiement universel de la singularité, celui de l’acte [83] ». En réalité, ce que Thom retrouve, c’est la distinction entre possible et réalité. Mais la pleine notion de puissance comporte aussi les sous-notions d’ordre et de propension : peuvent-elles se symboliser, se formaliser ?
Ce qui signifie donc que la science actuelle est de moins en moins platonicienne.
3’) Confirmation
« Ce qui caractérisait l’ancienne alliance [dont parle Monod p. 186], c’est que tout, dans l’univers, y trouvait sa place : la structure se donnait comme complètement ordonnée ». Or, le nouveau paradigme qui vient provoquer la rupture : « la fin de l’ordre [84] ». Ou plutôt l’introduction du chaos, dans un ordre qui intègre le désordre. « Il a fallu la découverte des «nouveaux états de la matière» que constituent les structures dissipatives pour qu’enfin la conservation et le développement de structures actives puissent être déduits des lois de la physique, pour que l’organisation apparaisse comme un processus naturel [85] ». Désormais, le concept d’organisation remplace celui d’ordre.
Pour l’aristotélicien, c’est l’introduction du non formel, de la matière, avec son coefficient de puissance, d’indétermination.
b) Une redécouverte du mouvement
Pour Aristote, nous le verrons longuement, le mouvement n’est pas un état et encore moins un acte. Il implique une relation profonde au mobile qui le modifie réellement : « Toute la théorie physique d’Aristote contredit l’idée qeu le mouvement serait une propriété accidentelle, dont il suffirait de faire abstraction pour retrouver l’essence de l’être dans sa pureté. En réalité […], le mouvement affecte de part en part l’être en mouvement ; il est, sinon son essence, du moins son affection essentielle, celle qui empêche de coïncider avec son essence ; il n’est pas un accident parmi d’autre, mais ce qui fait que l’être en général comporte des accidents [86] ».
Or, la science actuelle redécouvre le mouvement. Prenons un exemple parmi beaucoup. La théorie des attracteurs étranges se raccroche, notamment, à la théorie du chaos. L’une des propriétés essentielles des attracteurs étranges est leur non-périodicité ou leur a-périodicité : les trajectoires qui les composent ne bouclent jamais sur elles-mêmes et ne reproduisent donc jamais le même schéma. Contrairement au monde galiléen régi par la loi de l’éternel retour ou même de l’absence de retour, puisqu’il est sans départ, le monde des structures dissipatives ou de la théorie des catastrophes est toujours d’une imprévisible nouveauté, linéaire. Sans cesse, l’état suivant du système s’enrichit l’état initial [87].
6) Une revalorisation du hasard et de la contingence
a) Redécouverte du hasard
Les théories actuelles retrouvent le sens du hasard, non sans courir le risque d’un nouvel indéterminisme (une mystique de l’order from noise). Cette issue hors du déterminisme est lié, à mon sens, une double raison, l’une subjective qui est une véritable humilité face à la réalité que l’on cesse d’investir et de transpercer, d’épuiser dans un réseau modélisé ; l’autre objective qui est la redécouverte de la contingence. Développons ce dernier point.
Déjà, on le sait, la mécanique a laissé une place croissante à la statistique : c’est vrai de la mécanique classique, ce l’est encore davantage de la mécanique quantique. Ce l’est aussi de la théorie des fractales. « Lorsque la mécanique traite des sytèmes d’un nombre immense de molécules, les lois régissant celles-ci au niveau local sont connues dans leur plus extrême détail, et c’est leur interaction au niveau global qui est mal connue. La situation est pire en géomorphologie, car le local et le global sont également incertains. Donc, plus encore qu’en mécanique, la solution doit être statistique [88] ». Or, qui dit statistique dit comportement partiellement aléatoire, contingent, individuellement non modélisable. Voilà pourquoi les théories fractales qui font appel à des comportements probabilistes réintroduisent le hasard : « pour engendrer l’irrégularité fractale », il faut que, dans les « constructions », « domine le hasard [89] ». Cela est particulièrement vrai pour les fractales dites browniennes. On distingue deux sortes de fractales, les fractales déterministes et les fratales aléatoires.
Toutefois, remarquons que l’appel au hasard présent dans la théorie fractale n’est pas la plongée dans l’absurde. La sortie du déterminisme newtonien n’est pas l’entrée, comme par réaction pendulaire, dans un indéterminisme absolu. Mandelbrot ne soutient nullement que du hasard surgit l’ordre. Sa théorie « n’invoque le hasard, tel que le calcul des probabilités nous apprent à le manier, que parce que c’est le seul modèle mathématique dont dispose celui qui cherche à saisir l’inconnu et l’incontrôlable [90] ».
Ce qui est vrai de la théorie fractale l’est tout autant de la théorie des structures dissipatives et de la théorie du chaos déterministe (la notion de sensibilité aux conditions initiales). Le rôle qu’il laisse au hasard est encore plus important. Ici, une simple variation minime dans la cause peut engendrer non seulement des effets importants, mais extrêmement divergents. « Loin de l’équilibre, un régime de fonctionnement peut ressembler à une organisation parce qu’il résulte de l’amplification d’une déviation microscopique qui, au «bon moment», a privilégié une voie réactionnelle au détriment d’autres voies également possibles. Les comportements individuels peuvent donc, en certaines circonstances, jouer un rôle décisif [91] ». Or, la fluctuation déclenchante survient souvent au hasard.
Prenons un exemple, celui des cellules de convection en hydrodynamique. Le principe est celui des cellules de Bénard. Ces cellules apparaissent au sein d’un liquide placé entre deux plaques parallèles horizontales, dont celle du bas est plus chaude que celle du haut. Or, les molécules du liquide qui décrivent des trajectoires circulaires suivant des cylindres d’axes horizontaux présentent un sens giratoire précis : deux cellules voisines tournent toujours en sens inverse l’une de l’autre, et cela de manière immuable, une fois le mouvement établi. Or, si l’on répète l’expérience on constate que la même cellule apparaît au même endroit : la structure sera identique ; en revanche, le sens de rotation est aléatoire. « Le sens de rotation des cellules ne peut être ni prédit ni contrôlé : seule le hasard sous forme d’une perturbation particulière qui peut avoir prévalu au moment de l’expérience décidera si une cellule donnée devra tourner à droite ou à gauche […]. Nous arrivons ainsi à une remarquable coopération entre le hasard et le déterminisme, laquelle se manifeste […] comme une réminiscence de la dualité familière en biologie depuis l’ère de Darwin (mutation-sélection naturelle) [92] ».
« Dans le fond, quel est l’intérêt de la théorie du ‘chaos déterministe’ ? A supposer qu’il y ait des processus déterministes, le fait que l’on ne puisse pas exhaustivement en connaître les conditions initiales fait que le processus sera absolument incontrôlable et inconnu ». De sorte que, désormais, on voit qu’outre « l’incertitude-accident, celle de l’événement », il existe « une incertitude intrinsèque [93] ».
La contingence est donc au cœur des réalités. Nul être physique n’est à ce point stable qu’il puisse avoir la nécessité qui était impartie aux substances célestes des cosmologies grecques et médiévales. Là où la science nosu avait montré une stabilité immuable et pacifiée, nous comprenons que nulle organisation, nullestabilité n’est, en tant que telle, garantie ou légitime, aucune ne s’impose en droit, toutes sont produits des circonstances et à la merci des circonstances [94] ».
b) Redécouverte de la contingence
Un fait fut décisif dans cette saisie de notre contingence, estime Michel Serres : « J’accorde beaucoup d’importance à un évènement qui s’est passé il y a environ cinq ou six ans. C’est l’instant où tout un chacun, vous comme moi, a pu voir avec ses yeux pour la première fois dans l’histoire de l’humanité, la planète terre en entier. […] De la sorte que, notre rapport au monde qui était autrefois un rapport local, un rapport au détail, a été complètement bouleversé. Je m’explique : le paysan avait un rapport avec son champ, le montagnard avec sa vallée, le bourgeois avec sa place publique, vue de son balcon. […] C’est probablement, dans l’histoire de l’humanité, un moment aussi important que le jour où Copernic a compris que le soleil était au centre du monde et non pas la terre. Ce sont de tels instants que les philosophes passionés du langage ont laissé passer [95] ». En effet, « depuis cinquante ans, peut-être davantage, les philosophes dont je suis écrivent […] pour parler, essentiellement […] du langage. […] Et à force de parler du discours, ils ont un peu perdu le mode, les choses du monde ». La philosophie est devenue un « acosmisme ».
« Nous sommes plus proches désormais de cette nature à propos de laquelle, selon les rares échos qui nous en sont parvenus s’interrogeaient les présocratiques, et aussi de cette nature sublunaire dont Aristote décrivait les puissances de croissance et de corruption, dont il disait l’intelligibilité et l’incertitude inséparables. Les chemins de la nature ne peuvent être prévus avec certitude, la part d’accident y est irréductible, et bien plus décisive qu’Aristote lui-même ne l’entendait : la nature bifurquante est celle où de petites différences, des fluctuations insignifiantes, peuvent, si elles se produisent dans des circonstances opportunes, envahir tout le système, engendrer un régime de fonctionnement nouveau [96] ».
7) Une revalorisation de la finalité
C’est elle dont parle le principe anthropique (cf. le cours de cosmologie), mais aussi la cybernétique, notamment des boucles cybernétiques, présente dans les êtres vivants, comme chez les êtres inanimés.
Un signe de cette redécouverte de la finalité est la notion de propension opposée à celle de causalité élaborée par Karl Popper, ainsi que nous l’avons ci-dessus.
a) Enoncé. Redécouverte de la gratuité contemplative
Nous l’avons vu, l’ancienne science et philosophie de la nature se voulait clairement pratique et plaçait le savoir-faire plus haut que le savoir. Les théories morphologiques, la science actuelle retrouvent la gratuité du savoir. Elles placent plus haut l’idéal contemplatif, ce qui témogine d’une « audace énorme en un siècle où la recherche est cadastrée, soumis à des impératifs de rendement ou à des routines administratives [97] ».
Un signe de cette redécouverte de la vocation théorétique de la raison et de la science en particulier en est l’intérêt pour les théories morphologiques dont les capacités prédictives sont faibles et les espoirs d’implication technique encore davantage, ce qui n’ôte rien à leur capacité explicative. « Descartes, avec ses tourbillons, ses atomes crochus, etc. expliquait tout et ne calculait rien. Newton avec la loi de la gravitation en 1/r2, calculait tout et n’expliquait rien. L’histoire a donné raison à Newton et relégué les constructions cartésiennes au rang des imaginations gratuites et des souvenirs de musée. Certes le point de vue newtonien se justifie pleinement du point de vue de l’efficacité, des possibilités de prédiction, donc d’action sur les phénomènes ». Mais « les esprits soucieux de compréhension n’auront jamais, à l’égard des théories qualitatives et descriptives, des présocratiques à Descartes, l’attitude méprisante du scientisme quantitatif [98] ». En effet, les théories morphologiques ne fondent pas de nouvelles morphologies ; en revanche, elles rendent mieux compte des morphologies existantes, dans leur structure comme dans leur apparition qui peut se déduire d’une structure mathématique. En un mot, elles redécouvrent un logos, terme cher à Thom et qui, avant de signaler une incertaine allégeance à la tradition platonicienne ou néoplatonicienne, souligne un retour du sens sous sa forme la plus noble et la plus pure : le sens donné, à recevoir, l’intelligibilité inscrite dans le cosmos.
b) Exposé
René Thom propose un exposé original des fondements et donc de la légitimité de la distinction de la compréhension et de l’action, à partir de sa problématique du local et du global. Voilà le principe de sa réflexion : « L’action vise essentiellement à résoudre les problèmes locaux, alors que la compréhension vise l’unviersel, donc le global ». Or, note-t-il, « par un paradoxe apparent, les problèmes locaux exigent pour leur solution des moyens non locaux ; alors que l’intelligibilité, elle, exige la réduction du phénomène global à des situations locales typiques, dont le caractère prégnant les rend immédiatement compréhensibles [99] ». Prenons un exemple concret d’action : conduire une voiture a une influence sur le trafic. Pourtant au point de départ, je me suis contenté de tourner la clé de contact. C’est donc que l’action opère un passage du local au global.
En revanche, la connaissance procède du global au local, de sorte que « une théorie non locale ne peut être tenue pour scientifique au sens strict du terme [100] ». C’est ce que montre l’évolution des théories de ce dernier siècle. Par exemple, la théorie de la relativité générale a localisé la théorie classique de la gravitation. En effet, pour Newton, la gravitation s’effectue instantanément et à distance, à travers le vide. Or, pour Einstein, la gravitation est comme une « onde » qui se propage de proche en proche, à partir d’une déformation locale, une courbure de l’espace-temps dû à la masse du corps. Ce qui signifie donc que Thom refuse toute action à distance. Certes, la théorie classique est efficace ; mais est-elle vraie ? « Les objections que les critiques adressaient à Newton en son temps restent pour moi encore valables aujourd’hui. Au point que, de nos jours encore, on essaye de mettre en évidence des ondes gravitationnelles qui se propagent [101] ».
Newton lui-même était conscient des difficultés posées par sa théorie : « Il est inconcevable que la matière brute inanimée puisse, sans médiation de quoi que ce soit d’autres de non matérel, opérer sur d’autre maière et l’affecter sans contact mutuel. Que la graivtation soit innée, inhérente et essentielle à la matière en sorte que corps agisse sur un autre à distance à travers le vide, sans médiation de quelque chose apr quoi son action et sa force sont transmises, voilà, à mes yeux, une absurdité telle que je ne crois pas qu’elle vienne à l’esprit de quiconque est doué de sens [102] ».
c) La finalité en cosmologie
La finalité fait partie de la vie. Christian de Duve, Prix Nobel de médecine pour sa découverte des lysosomes, organites intracellulaires, disait à Dominique Lambert : « Lorsque j’ai découvert les lysosomes, je me suis aussitôt dit : Pourquoi ? A quoi servent-ils ? » « La finalité est une dame sans laquelle aucun biologiste ne peut vivre, mais il est honteux de se montrer avec elle en public [103] ».
Beaucoup plus que les Grecs et qu’au Moyen Age, nous sommes à même de comprendre que la finalité, la présence de l’homme et de la vie sont inscrites dans l’univers. La notion de finalité est beaucoup moins formelle et fragmentaire ; aujourd’hui, elle a un contenu et une globalité qu’elle n’a jamais eu.
Pour qu’il y ait de la vie, il faut beaucoup d’information. Or, l’information suppose de longues chaînes complexes porteuses de radicaux variés. Or, seul le carbone peut créer de telles chaînes. Or, le carbone ne se cuit que dans la marmite des étoiles puis doit se disperser et tomber sur des sites favorables à la vie. Or, ces sites ne doivent pas être trop chauds comme le plasma des étoiles. Ils ne peuvent donc être que des planètes.
Mais quelles planètes ? D’abord, les planètes doivent avoir des orbites stables. Mais les étoiles doubles perturbent ces orbites ; or, la moitié des étoiles sont doubles.
De plus, la planète doit être stable, à bonne distance pendant une fort longue durée. Au moins 3,8 milliards d’années.
Ensuite, la planète doit être ni trop froide comme Uranus ni trop chaude comme Mercure. Certes, les bactéries s’adaptent à des températures extrêmes, mais tel n’est pas le cas des formes de vie évoluées.
En outre, la vie suppose qu’il n’y ait qu’un minimum d’impacts météoritiques et de petits calibres : sinon, on assiste à des phénomènes types Deep Impact ou Armageddon avec ce que l’on appelle un hiver nucléaire. Or, les calculs de mécanique céleste montrent que les rencontres d’astéroïdes, de comètes sont très fréquents. La structure du système solaire est extrêmement particulière : elle entretient une sorte de résonance qui éjecte les astéroïdes indésirables hors du système.
Autre condition : la stabilité climatique. Or, celle-ci dépend de la permanence de la Terre sur son axe. On imagine en effet aisément combien une oscillation de cet axe entraînerait comme fonte des pôles et comme modification du climat. Or, on sait depuis 1996 que cette stabilité est assurée par la présence d’un énorme satellite, la Lune. Or, il est très rare que les planètes captent de gros satellites : le seul exemple du système solaire le montre.
Puis, il existe des contraintes précises de masse. Une vie évoluée suppose la présence d’oxygène. Or, seule une masse assez grande permet de conserver l’oxygène. Inversement, une masse trop imposante entraînerait une gravité qui écraserait les corps au sol. En effet, les contraintes de taille de la vie sont très grandes. Un King Kong ne pourra pas plus exister que, pour rester dans le même registre cinématographique, les enfants de Chérie, j’ai rétréci les gosses, un diplodocus kilométrique qu’une souris micrométrique. Car le métabolisme d’un vivant dégage une chaleur considérable liée à ses activités multiples ; or, c’est la peau qui, notamment, élimine, régule la chaleur. Mais la taille grandit selon la dimension 1, la surface (la peau) selon la dimension 2 et le volume (les activités biologiques selon la dimension 3. Voilà pourquoi un King Kong s’écroulerait vite par coup de chaleur et la souris micrométrique par réfrigération (l’énergie produite serait inférieure à celle qui serait rayonnée).
On pourrait continuer à aligner les contraintes. Chaque jour, les laboratoires qui font des simulations numériques comme celui de Meudon en trouvent de nouvelles. C’est ainsi qu’on aurait pu parler de la tectonique des plaques qui, par le biais du volcanisme, permet le recyclage du gaz carbonique nécessaire à la vie. Or, rares sont les planètes comportant ce système tectonique sur toute la surface.
Concluons. Aujourd’hui, on estime que, si le nombre totale d’étoiles est de 1022 (soit cent milliards de galaxies comportant chacune, étrange coïncidence, le même chiffre d’étoiles), il y a, dans la totalité de l’univers, quatre sites, c’est-à-dire quatre planètes qui pourraient accueillir la vie. Dit autrement. La probabilité d’un univers compatible avec une vie humaine est quasiment nulle : elle est semblable au choix d’un point sur une ligne droite !
En creux, les différentes conditions énoncées ci-dessus permettent de comprendre l’absence de vie sur Mars.
On peut tirer deux conclusion contrastées. D’un côté, l’émergence de l’homme est extraordinairement contingente. Nous assistons à un triomphe de la facticité, telle qu’aucun philosophe existentialiste ne l’avait rêvé. D’où la théorie des univers parallèles pour éviter la confrontation trop aiguë à cet univers trop singulier et dans son origine et dans sa relation à l’homme. D’un autre côté, il existe une unité très profonde, unique entre l’univers qui est le nôtre et l’homme. La science nous dévoile une complicité inouïe.
8) Une revalorisation du temps
a) En général
Ce n’est pas un hasard si, simultanément, en ce siècle, l’on assiste à une intense réflexion sur le temps, au triple plan scientifique (Einstein, Prigogine), philosophique (Bergson, puis Heidegger, et, à un moindre niveau d’originalité, Guitton) et littéraire (Proust, notamment).
La science d’aujourd’hui l’introduction de la notion de temps et d’histoire. Précisément l’organisation intègre le temps de sa mise en place. Autrement dit, on commence à redécouvrir le mouvement, l’irréversibilité du temps. C’est ce que confirme aussi la pensée de Whitehead qui place en son centre la notion d’événement, donc d’historicité [104]. D’où l’actuel engouement pour les questions – historiques – de cosmogénèse.
b) L’influence de Bergson
On sait combien le temps, plus précisément la durée, est une notion d’importance pour Henri Bergson. Une lettre du 9 mai 1908 à son ami William James montre combien sa découverte fut décisive : « Je ne puis m’empêcher d’attacher une grande importance au changement survenu dans ma manière de penser, pendant les deux années qui suivirent ma sortie de l’École normale, de 1881 à 1883. J’étais resté imbu, jusque-là, des théories mécanistiques auxquelles j’avais été conduit, de très bonne heure, par la lecture de Herbert Spencer, le philosophe auquel j’adhérais à peu près sans restriction. Mon intention était de me consacrer à ce qu’on appelait alors la philosophie des sciences. […] Ce fut l’analyse de la notion de temps, telle qu’elle intervient en mécanique ou en physique qui bouleversa toutes mes idées. Je m’aperçus, à mon grand étonnement, que le temps scientifique ne dure pas, qu’il n’y aurait rien à changer à notre connaissance scientifique des choses si la totalité du réel était déployée tout d’un coup dans l’instantané, et que la science positive consiste essentiellement dans l’élimination de la durée ». Bergson décrit la même conversion à H. Hoffding : « Jusqu’au jour où j’ai pris conscience de la durée, je puis dire que j’ai vécu à l’extérieur de moi-même ».
Donnons-en deux illustrations. Bergson était un excellent mathématicien. Au lycée, il excellait aussi bien en philosophie qu’en mathématiques : il remporta le premier prix du concours général en ces deux matières. Mais il fallait choisir. Ses professeurs de mathématique furent désappointés de le voir entrer à l’École Normale Supérieure, section Lettres. Bergson a continué à s’informer en mathématique. Pour lui, l’évolution des mathématiques va dans le sens d’une intégration, d’une prise en compte de ce qui constitue l’intuition centrale de sa philosophie, à savoir la durée. Dans sa correspondance avec son ami, l’Américain William James, il dit que « les idées dernières de la mécanique rationnelle » ont nourri sa réflexion sur le temps. Comparant la géométrie nouvelle à la géométrie ancienne, il note : « Celle-ci, purement statique, opérait sur les figures une fois décrites ; celle-là étudie la continuité du mouvement qui décrit la figure. […] Elle introduit le mouvement dans la genèse des figures ». Plus tard, il remarquera que cette inversion est née de « la plus puissante des investigations », des méthodes mathématiques, selon lui : le calcul infinitésimal [105]. Bergson remarque ailleurs que la mathématique moderne est « un effort pour substituer au tout fait ce qui se fait, pour suivre la génération des grandeurs, pour saisir le mouvement, non plus du dehors, et dans son résultat étalé, mais du dedans et dans sa tendance à changer, enfin pour adopter la continuité mobile du dessin des choses [106] ».
De même, pour Bergson, l’évolution des sciences va vers la reconnaissance de l’imprévisibilité, autrement dit de la flèche du temps. En 1941, dans un article de la Revue de Métaphysique et de Morale, le grand physicien Louis de Broglie rendait hommage à Bergson en montrant combien il était « en avance » sur son époque. Précisément, comparant théorie de la relativité et mécanique quantique, il constate que la première, de par sa tendance très poussée à spatialiser le temps et à géométriser l’espace, paraît être « en opposition avec les vues de Bergson, alors que la seconde présente davantage de convergences. On pourrait ajouter qu’il faudra attendre la théorie de Prigogine pour que soit pleinement honorée l’irréversibilité des phénomènes physiques.
c) Le temps dans l’infiniment petit
Ladislas Robert, maître de recherches au cnrs, spécialiste des mécanismes cellulaires moléculaires du vieillissement, remarque que « l’irréversibilité du temps concerne, non seulement la biologie, mais la physique des particules élémentaires et du cosmos [107] ».
d) Le temps dans le monde quotidien les structures dissipatives
Un certain nombre de disciplines scientifiques actuelles redécouvrent le temps et, par-delà le changement, l’apparition d’une réelle nouveauté. En effet, nous a prévenu Bergson, la « durée signifie invention, création de formes, élaboration continue de l’absolument nouveau [108] ». Autant la physique classique est parménidienne, autant les théories morphologiques sont héraclitéennes, tout en conservant des structures.
Les ruptures d’état impliquent l’apparition d’ordres, d’organisations réellement nouveaux. On pourrait le montrer à partir de l’exemple d’une structure dissipative particulière, le Brusselator qu’a étudiée en 1968 Prigogine. Allons directement à la conclusion : « La définition d’un état au-delà du seuil d’instabilité n’est plus intemporelle. Pour en rendre compte, il ne suffit plus d’invoquer la composition chimique, et les conditions aux limites. En effet, que le système soit dans cet état singulier n’en est plus déductible, d’autres états lui étaient également accessibles. La seule explication est donc historique, ou génétique : il faut décrire le chemin qui constitue le passé du système, énumérer les bifurcations traversées et la succession des fluctuations qui ont décidé de l’histoire réelle parmi toutes les histoires possibles [109] ». Aussi Prigogine est-il fondé à dire : « La physique aujourd’hui ne nie plus le temps. Elle reconnaît le temps irréversible des évolutions vers l’équilibre, le temps rythmé des structures dont la pulsion se nourrit du monde qui les traverse, le temps bifurquant des évolutions par instabilité et amplification de fluctuations [110] ».
Dans son dernier ouvrage, Prigogine revient une nouvelle fois sur le thème qui lui est si cher du temps [111]. Il y décline le grand thème philosophique qui est le sien, toujours aussi sous l’angle historique : les sciences sortent d’une ère a-temporelle pour entrer dans une ère où le temps se trouve intégré. Aujourd’hui, on peut affirmer que la flèche du temps fait « partie de la cosmologie », elle n’est pas simplement une composante philosophique, phénoménologique arbitraire et en tout cas subjective.
On pourrait tracer un tableau comparatif des deux types de science :
Science classique (de Newton à la Mécanique Quantique) |
Science nouvelle |
N’intègre pas la flèche du temps : le temps est finalement symétrique, réversible. |
Intègre la flèche du temps : le temps est asymétrique, constitutivement irréversible. |
Déterministe |
Non-déterministe |
Refuse la liberté et la nouveauté |
Accueille la liberté et la nouveauté |
Fondée sur la certitude absolue et la stabilité |
Fondée sur la non-certitude (de l’avenir) et l’instabilité |
Précisons quelques points :
– Tout d’abord, Prigogine englobe dans son diagnostic toute la science non seulement classique, newtonienne, mais aussi la physique einsteinienne et quantique. Aucune n’a réellement intégré l’irréversibilité du temps. En ce sens, on peut présenter la physique actuelle comme une progressive prise en compte de tout ce qu’elle avait méthodologiquement et idéologiquement évacué au point de départ au nom du primat de la quantité.
Prigogine note, à la suite de Toulmin [112] que si Descartes a constitué un système accordant une telle place à la certitude et à la stabilité, c’était comme pour conjurer l’instabilité tragique de son siècle. Or, on retrouve le même vœu inconscient, chez Einstein comparant la vocation scientifique au « désir ardent qui attire le citadin hors de son milieu bruyant et confus vers les régions paisibles des hautes montagnes [113] ».
– Ensuite, pour Prigogine, témoignent en faveur de l’apparition de cette prise en considération du temps au sein de la physique : les théories du chaos, la physique des états instables, les structures dissipatives, etc.
– Enfin, Prigogine ne s’oppose pas à une opinion – indéterminisme contre déterminisme –, mais à deux. Précisément la position qu’il tient est un juste milieu entre deux extrêmes : le déterminisme absolu et l’indéterminisme absurdiste, chaotique. « Ce que nous avons cherché à construire est une voie étroite entre ces deux conceptions qui mènent aussi bien à l’aliénation, celle d’un monde régi par des lois qui ne laissent aucune place à la nouveauté, et celle d’un monde absurde, acausal, où rien ne peut être ni prévu ni décrit en termes généraux [114] ». Aussi faut-il justement interpréter le titre de l’ouvrage et des expressions comme celle-ci qui est plus brillante que profonde : « Nous vivons la fin des certitudes [115] ». La raison est seulement la volonté de sauvegarder la possibilité de nouveauté trop vite identifiée à la liberté (blocage des différents niveaux de réalité : contingence et liberté).
D’où un constat d’optimisme que je signe à deux mains et, au-delà de la redécouverte du temps, celle du qualitatif, de la contingence, donc de la puissance de la matière.
9) Une redécouverte du lieu versus l’espace
C’est ce que montre l’approche phénoménologique de la Terre par Husserl résumée ci-dessus.
Mais c’est surtout les deux théories de la relativité d’Einstein qui permette de faire refluer la conception newtonienne d’un espace antérieur à tout objet, indépendant de toute réalité naturelle (et qui deviendront les deux formes a priori de la sensibilité dans l’Esthétique transcendantale de la Critique de la raison pure). En effet, surtout dans la théorie de la relativité générale, Einstein non seulement lie espace, temps et matière, mais fait de celle-ci une modification de l’espace-temps. Paul Claudel l’a compris avec une intuition fulgurante qui lui permet un très heureuse mise en relation de la science actuelle et de la philosophie de la nature : « D’après Einstein il n’y a d’espace que là où il y a matière et corps. En d’autres termes, comme le disait la philosophie scolastique, l’espace est un «accident commun» de la substance [116] ».
10) Une revalorisation de la forme et de la matière [117]
a) Historique
Historiquement, on peut distinguer trois temps dans l’intérêt porté à la forme : le premier est préscientifique. Il est incontestable que nombre de grands observateurs de la nature, à commencer par Aristote, ont constaté le rôle, la prégnance des formes ; nombre de naturalistes, comme Buffon, ont entrevu la notion de plan d’organisation conservé au sein de larges groupes d’espèces animales ou végétales.
Avec le second temps commence l’approche systématique, la modélisation géométrique de la forme : on doit au biologiste écossais d’Arcy Wentworth Thompson (1860-1948) [118] cette première mathématisation de la forme, notamment à son grand ouvrage, traité de morphogénèse devenu un classique chez les biologistes, On Growth and Form (1917) : La croissance et la forme [119]. Il y analyse un certain nombre de formes, leur genèse, dans le monde inerte et le monde animé. Or, il constate qu’elles répondent à des principes d’extrémalité ou d’optimalité. Dans ce cadre mathématique, il tente de rendre compte des lois de déformation : certaines maintiennent la forme (isométrie), d’autres la modifient (allométrie), d’autres conservent les angles (transformation conforme).
Empruntons différents exemples élémentaires à d’Arcy Thompson. Une bulle de savon, nous le savons (sic), présente une forme (à peu près) sphérique. On peut se demander pourquoi. Si l’on essaie d’expliquer cette forme à partir des interactions des molécules présentes dans le liquide, on n’arriverait à rien. Notre biologiste propose de l’expliquer en termes géométriques, topologiques : la sphère présente la réponse à une question simple de géométrie : soit un volume donné, quelle est la surface d’aire minimale contenant ce volume ? C’est celle d’une sphère. Or, une aire minimale minimise les forces de tension superficielle du liquide, donc l’énergie potentielle. Une bulle sphérique est donc plus stable. C’est au nom de la stabilité et du principe d’économie que le savon prend la forme d’une bulle. On pourrait prendre d’autres exemples. Mais, de façon générale, on peut dire qu’ »un film liquide en équilibre prend la forme qui lui donne une aire minimale compte tenu des conditions auxquelles il es soumis [120] ».
De même, les rayons hexagonaux de la cire des abeilles sont dus non pas à une science mathématique des mouches à miel, ou de complexes considérations , mais au principe d’optimalité, d’un problème de maximum, déjà perçu par le naturaliste Buffon au xviiie siècle.
Enfin, aujourd’hui, un certain nombre de chercheurs ont fait de la forme le sujet premier de leur recherche, poursuivant, étendant et approfondissant les intuitions longtemps méconnues d’Arcy Thompson : certains les regoupent sous le nom de théories morphologiques. Il revient à Thom d’avoir pu formaliser ce que d’Arcy avait perçu de manière intuitive : « les idées de ce grand visionnaire étaient bien trop en avance sur leur temps pour s’imposer, explique René Thom ; exprimées d’une manière trop souvent naïvement géométrique, il leur manquait d’ailleurs une justification mathématique et dynamique que seules les recherches récentes pourront leur donner [121] ». À noter que si l’on a tant tardé à reconnaître d’Arcy, s’il fut marginalisé dans l’université, cela tient d’abord à sa formation éclectique (mathématicien, helléniste [122] mais avant tout naturaliste [123]), la diversité de ses intérêts et son ton peu doctoral. En effet, le non-dit de l’attitude de d’Arcy, le moteur caché : l’émerveillement pour la beauté, ce qui explique d’ailleurs le succès immédiat de son ouvrage. N’oublions pas qu’en latin, formosus, beau, a même étymologie que forma, la forme.
N’oublions pas que les troublantes transformations mises à jour par d’Arcy, si elles sont moins décrites et modélisées, demeurent pour une bonne part mystérieuses : la découverte de gènes de développement n’en est qu’à ses balbutiements.
b) Le point de départ
Comment ne pas constater certaines troublantes régularités dans les formes, du monde inerte au monde animal ? De plus, comment ne pas constater certaines continuités moyennant de minimes transformations ? Une fois que l’on a observé le diodon déformé en éventail devenir un poisson-lune, on ne peut plus oublier ni ne pas être obsédé par la découverte de d’Arcy.
Le premier, d’Arcy s’intéresse aux formes, à la logique des structures des cornes de bélier ou des ponts suspendus, en passant les squelettes de radiolaires et les surface minimales, indépendamment de leur mode de construction, de leur cause efficiente. C’est un structuraliste avant la lettre.
Donnons un exemple actuel qui rend passionnant le questionnement de d’Arcy :
« La peau de nombreuses espèces animales comporte bel et bien des réseaux entrecroisés, d’emblée curvilignes, formant des systèmes de coordonnées locales. Il s’agit des fibrilles que l’on trouve à l’extérieur de l’épiderme chez beaucoup d’invertébrés, et sous l’épiderme chez les vertébrés, dès les stades les plus précoces du développement. Ces fibrilles sont constituées de certaines variétés de collagène, chez les vertébrés et de nombreux invertébrés, ou de chitine, un poysaccaride azoté associé à des protéines, chez les insectes et la plupart des arthropodes. Ces réseaux s’apparentent à du contre-plaqué, parce qu’ils sont constitués de couches de fibrilles alignées, superposées à des couches identiques, mais à angle droit ou presque, de sorte que les deux directions principales alternent. Certains de ces contre-plaqués naturels superposent de minces couches fibrillaires dont la direction tourne régulièrement de plusieurs tours quand on s’élève dans leur épaisseur, une structure également connue dans certains cristaux liquides, mais stabilisée ici par des liens entre biopolymères. Divers travaux ont établi que l’assemblage de ces fibrilles à partir de leurs constituants moléculaires comporte effectivement un état transitoire cristallin liquide. La disposition de ces réseaux par rapport aux grandes lignes de l’anatomie fut examinée avec soin chez certaines espèces et il apparaît que leur structe adaptation aux détails de la morphologie détermine la présence de singularités, en particulier chez les larves de poissons et chez les jeunes têtards de batraciens. Des singularités similaires furent observées dans la peau de certains vers marins où elles jouent un rôle dans la croissance [124] ».
La forme, ici des structures superficielles, présente donc un sens et peut se modéliser.
Il est évident que les formes jouent différents rôles : la structure est lié à l’efficacité mécanique. Il existe des contraintes de construction
Une conséquence de l’interrogation sur la forme est le renouvellement introduit de
c) Exposé
« Les théories morphologiques, remarque Alain Boutot, sont doublement et profondément novatrices ; d’abord par leur objet même : le monde des formes, ensuite par leur méthode : structurale, qualitative et non réductionniste [125] ». Nous venons de voir le second point. Attardons-nous sur le premier, en continuant à citer Boutot : « Elles prétendent décrire et expliquer «scientifiquement», c’est-à-dire rigoureusement les formes empiriques en ignorant tout ou presque du comportement de la matière sous-jacente, des lois qui la régissent, et des particules qui la composent ».
En physique classique, la forme est le résultat accidentel de l’agglomération des parties matérielles. « La Forme se présente […] comme la résultant de modifications physiques élémentaires, et elle n’est, parmi beaucoup, que l’une des réactions de la matière [126] ». La forme n’est donc jamais réfléchie pour elle-même, encore moins modélisée ou objet de science. En un mot, la forme relève du qualitatif ; or, nous avons vu que celui-ci avait été déserté par la réflexion mathématique.
« La physique a en principe pour objet l’étude de la matière et de ses interactions ; on devrait donc la voir s’attacher à rendre compte de l’une des manifestations les plus spectaculaires du monde à notre échelle, à savoir l’existence d’objets présentant des formes bien typiques. Or si la Biologie, la Géologie […] sont des disciplines morphologiques, la Physique, apparemment, ignore la notion de forme (sauf dans quelques branches marginales, comme la théorie des milieux ordonnés) [127] ».
Maintenant, on peut prédire, « sans grand risque d’erreur, que le xxe siècle restera dans l’histoire des Mathématiques comme le siècle de la Topologie [128] ».
d) Difficulté et réponse
La grande question posée est celle de la relation entre forme et substrat. Les théories morphologiques ne risquent-elles pas de sombrer dans un nouveau dualisme que le mécanisme, dans son réductionnisme, avait congédié ?
En réalité, les théories actuelles ne nient pas la matière, mais cherchent à l’intégrer à la forme. C’est ce qu’on observe déjà dans les travaux d’Arcy, comme dans les travaux de Thom. Nous ne sommes pas face à un néoplatonisme dématérialisant.
11) Un retour au fini ou la fin de la toute-puisance
La physique classique, mécaniste prône l’infini à plusieurs titres. Ontologiquement, en construisant un espace et un temps illimités. Epistémologiquement, par son déterminisme qui a poussé Laplace à croire une possible prédiction sans limite de temps.
En réponse à cette tentation de toute-puissance, au plan ontologique, la cosmologie privilégie la notion de singularité initiale et, épistémologiquement, les sciences actuelle ont appris qu’il existe des principes de limitation interne infranchissables.
12) Un réenchantement du monde. Pour une esthétique du cosmos
L’expression « désenchantement du monde » fut popularisée par Max Weber [129], mais vient de Schiller.
Nous avons déjà égréné un certain nombre de réconciliations. La conception angoissante du cosmos qui a émergé au 17ème siècle est encore actuelle : « L’univers est un système indépendant, organisé sans l’homme, extérieur à lui, existant sans lui. Bien qu’issu de la nature, l’homme en est exclu ; le sujet connaissant est en marge de cet univers où tout fonctionne, que l’homme existe ou non [130] ».
Ne pourrait-on pas dire que la cybernétique est une couture entre matière et esprit ? Du moins est-ce ainsi que le père Dominique Dubarle interprète ce fait universel qu’est la boucle d’autorégulation.
La cybernétique a mis en évidence l’importance des mécanismes d’auto-régulation, non seulement dans le domaine biologique, mais aussi dans l’inerte (par exemple dans un soleil, une étoile). Un tel mécanisme est constitué d’une part par un moteur primaire au sens classique du terme, restituant son énergie sous la forme désirée, d’autre part d’un dispositif chargé d’enregistrer les changements de ce mécanisme et de les adapter aux circonstances extérieures en agissant sur l’énergie fournie à ce mécanisme. Quelle signification ce mécanisme aussi universel associant partie exécutante et partie réglante a-t-il pour la philosophie de la nature ?
Déjà, cette structure mécanique laisse apparaître comme une « réflexivité causale et une hiérarchisation des énergies » qui ne peut que plaire à l’hégélien Dominique Dubarle [131]. De plus, elle permet d’envisager le couple moteur-mobile comme un tout en interaction avec le reste de la nature et de l’univers.
Dubarle estime que la découverte de ces boucles de rétro-actions permet de mieux comprendre l’hylémorphisme et de l’approfondir en un sens dynamique, en sortant des interprétations statiques et simplement somatiques. En effet, cette configuration « représente précisément le système de circonstances aléatoires, imprévisibles pour le moteur, dans lesquelles celui-ci est appelé à fonctionner ; c’est elle qui fait que le possible prend un sens physique pour le mécanisme total [132] ». Il est vrai que ce mécanisme fait faillir le déterminisme classique, mais le possible, ou mieux, la puissance existent même dans le mécanisme simple d’une exécution.
En fait, la régulation ne montre que de l’extérieur la présence de la potentialité, comme le remarque Dubarle : « dans le mécanisme à régulation, les deux parties hiérarchisées du mécanisme restent posées l’une par rapport à l’autre dans l’extériorité », alors que « les constituantes hiérarchisées d’une substance actuelle particulière que sont matière et forme, se posent au contraire l’un par rapport à l’autre dans l’intériorité : ce qui correspond au système régulateur, à sa captation de l’information, à l’élaboration faite de celle-ci, à l’imposition efficace et de consignes à la partie exécutante, tout cela existe comme au-dedans même de l’actualité matérielle et pas simplement à côté d’elle [133] ».
Bref, cette boucle vient préciser le jeu complexe des causes efficientes, plus qu’elle ne manifeste l’hylémorphisme, sauf à titre pédagogique. La régulation est la capacité de faire face au possible. Or, c’est cela que permet la liberté, non pas de manière mécanique et a priori, mais en se fondant sur la capacité de réflexion mentale constitutive de l’originalité humaine. Les mécanismes cybernétiques sont donc la parabole, l’anticipation, le gage, la promesse de la réflexion qui est présente au cœur même de la nature et qui est l’une des traductions de la structure hylémorphiste. La liberté est une refonte, à frais nouveaux de la régulation animale, biologique. En ce sens, l’homme continue la nature, mais en l’intégrant de façon libre et maîtrisée. [134]
C) Quelques dangers
– La thèse de François Guéry, dans son article de l’Encyclopédie philosophique universelle, sur la philosophie de la nature, porte sur le lien intrinsèque entre l’homme et même le politique et le regard porté sur la nature. Or, « l’idée hiérarchique de l’ordre est bien morte avec la démocratie moderne ». Aussi, « la nature en perd du même coup son rôle d’analogue de la belle ordonnance. Sadienne, plus que Cosmique, elle autorise au contraire, tous les débordements, tous les désordres : elle est le lieu du désordre, reflet de dieux pervers, résultante de l’entrechoc des volontés sans guide [135] ».
– L’importance accordée à l’écologie montre combien maintenant on ne peut plus concevoir l’homme coupé de la nature et les différents êtres naturels coupés les uns des autres. Mais ne nous cachons pas l’ambiguïté de cet acquis. Que l’on comprenne mieux la relation risque de dissoudre la substance, ce qui apparaît clairement chez un Serres, comme Edgar Morin. À trop insister sur la relation, je perds l’ordre qui est une relation avec un premier.
– Michel Serres, fin observateur des relation entre sciences, philosophie et société, s’interroge aussi sur le danger de la spécialisation. Pour Serres, la communication est le fait central de l’activité humaine : « La communication, en effet, est le fait humain total, et bien entendu n’a jamais cessé de l’être [136] ». Son projet est d’ailleurs celui d’une philosophie de la communication, de la duction. Or, des spécialisations résulte un cloisonnement croissant qui permet « l’envahissement de la science par les métastases de l’irrationnel [137] ».
– Le danger d’une philosophie de la complexité liée à une théorie chaologique est le ratiboisement de toute différence : « Je puis aller aussi loin que je veux, jusqu’aux cellules, aux molécules […] Tout ce que je sais, mais de cela je suis certain, c’est qu’elles sont toute structurées par le couple information-bruit-de-fond, hasard-programme, ou entropie-néguentropie. Et ceci aussi bien dans le cas où je décris le système par les moyens de la chimie, de la physique, de la thermodynamique ou de la théorie de l’information, que dans celui où je me place comme récepteur dernier du montage intégré [138] ». En conséquence, la notion de primauté, donc d’ordre s’efface : « il m’est indifférent de savoir qui est le tout premier émetteur : quel qu’il soit, il est une île dans l’océan du bruit, tout comme moi, où que je sois. C’est le programme génétique, ce sont les molécules ou les cristaux du monde, c’est l’intérieur, comme on disait, ou l’extérieur, et cela n’a plus d’importance. Cette macro-molécule, tel solide cristallisé, le système du monde ou finalement ce que j’appelle moi, nous sommes logés sous la même enseigne. Tout émetteur, tout récepteur sont structurés semblablement. Il n’est plus incompréhensible que le monde soit compréhensible. Le réel produit les conditions et les moyens de son autoconnaissance [139] ».
– L’univers traditionnel était unifié, mais au détriment de la diversité. L’univers actuel tend à l’éclatement. Le Nouvel Age a réagi en retrouvant l’unité. Deux questions se posent, étroitement connectées : cette unité n’est-elle pas un monisme irrespectueux de la diversité des individus et des personnes ? Cette unité absorbe-t-elle toute transcendance ? Il semble qu’il faille répondre oui aux deux questions.
Écoutons par exemple un Stéphane Lupasco : « une finalité d’ordre transcendant n’est pas compatible avec une théorie scientifique », car elle devrait être présente « au sein de ce règne animal livré au gaspillage gratuit et à un cannibalisme aussi général qu’indispensable [140] ». L’argument qui ignore tout de la perspective métaphysique fait sourire… ou frémir.
D) Conclusion
« Aux contemporains et élèves de Galilée, autant qu’à Galilée lui-même, la science galiléenne, la philosophie galiléenne de la nature, apparaissait comme un retour vers Platon, comme une victoire de Platon sur Aristote [141] ». Les théories de ce siècle, de la théorie de la relativité jusqu’à la théorie du chaos déterministe ou de la complexité, ne sont-elles pas une revanche d’Aristote sur Platon ?
Il n’est pas impossible que la mutation capitale que nous voyons s’opérer sous nos yeux dans les sciences et en philosophie de la nature soit d’ordre à la fois métaphysique et même spirituel.
L’homme de la Renaissance, de l’âge classique et peut-être plus encore des Lumières, s’est construit lui-même par un certain nombre de coup de forces qui ont éliminé Dieu, la gratuité de la contemplation, l’éthique, et, en définitive, la nature elle-même, dans son intelligibilité donnée.
1) Aristoteles redidivus ?
Aujourd’hui, il existe « une tentative d’élargir les mathématiques, afin de construire les théories formelles capables d’accueillir les notions qui, aujourd’hui, sont devenues nécessaires à la science, alors qu’elles étaient encore exclues hier [142] ». Or, ces notions sont souvent celles qui ont fleuri lors de la période pré-scientifique, dominée par l’aristotélisme. En voici différents exemples :
– l’autoréférentialité (qui, pour Dominique Dubarle, est comme une amorce du mouvement du don 2, de la réflexivité) [143];
– la qualité [144];
– l’analogie. Cette notion aristotélicienne apparaît de grande fécondité pour les questions intéressant l’intelligence artificielle et l’étude des organisations hiérarchiques [145];
– la finalité (par exemple le principe anthropique) [146], cachée dans les formulations des lois scientifiques (principe de variation, etc.) [147] ;
– la forme [148].
De même, la découverte du chaos déterministe et de la complexité obligent à revisiter la philosophie de la nature et de réintroduire certaines thèses aristotéliciennes. Notamment :
– Au plan épistémologique, le proprium de la science doit être vu non pas d’abord comme une prévision efficace, mais comme une connaissance par les causes. De plus, l’individualisation de divers niveaux de connaissance fait sortir du mythe positviste d’une science unitaire. Enfin, l’abstraction apparaît comme le propre de l’homme, inaccessible à l’intelligence artificielle « forte ».
– Au plan ontologique : la réalité présente différents niveaux de réalité irréductibles les uns aux autres : inerte, vivant, homme.
Aujourd’hui, nous nous tournons vers une vision du cosmos qui est plus aristotélicienne que platonicienne [149].
2) Le principe d’humilité
Les nouvelles sciences s’inscrivent toutes au fronton de leur discipline un incontournable principe d’humilité (et de mystère). Car le principe de limitation interne des systèmes formels n’est que l’autre nom d’un principe d’humilité au sein de la mathématique et de tous les systèmes modélisables. Le principe d’indétermination de Heisenberg n’est rien d’autre qu’un principe d’humilité introduit dans l’infiniment petit, le principe de relativité dans l’infiniment grand, et on pourrait continuer pour notre monde avec le chaos, etc. Or, si l’orgueil préside à une humanité ombiliquée sur elle-même, l’humilité prélude à une humanité qui lève les yeux vers au-delà d’elle ou qui descend en elle. Il ne s’agit pas pour moi de juger des personnes ni des intentions, mais de m’interroger sur un projet et une trajectoire. Bergson l’a très bien noté : la fiction, par exemple laplacienne, du mécanisme absolu suppose la présence implicite d’un esprit possédant une visée intuitive, immédiate de la totalité de l’univers à un instant donné. Telle est, au xixe siècle, l’opinion du physiologiste allemand Du Bois-Reymond : « On peut imaginer la connaissance de la nature arrivée à un point où le processus universel du monde serait représenté par une formule mathématique unique, par un seul immense sytème d’équations différentielles simultanées d’où se tireraient, pour chaque moment, la position, la direction et la vitesse de chaque atome du monde [150] ». Voici ce qu’affirmait le physicien Abdus Salam, dans son discours Nobel : « A mon avis, le trait le plus frappant de la physique théorique de ces dernières trente-six années est le fait que pas une seule nouvelle idée théorique de nature fondamentale n’a été couronnée de succès. Les principes de la théorie quantique relativiste se sont montrés, en toute circonstances, plus forts que les idées révolutionnaires d’un grand nombre de physiciens de talent. Nous vivons dans une maison en ruines d’où nous paraissons incapables de sortir. La différence entre cette maison et une prison est à peine perceptible [151] ».
3) Le principe de mystère
Au principe d’humilité, il faut joindre un principe de mystère. Dans le même sens, la fractalité invalide l’espérance d’une totale transparence du réel et restitue non pas une opacité, mais un réel mystère : la matière régulière dans son irrégularité, et cela à l’infini, n’est pas plus chaos absurde et insignifiant que matière uniformément découpée en particules indifférenciées, attendant qu’une théorie suffisamment puissante la modélise sans reste ni marge de contingence. La fractalité nous rappelle une bonne nouvelle : le monde des corps n’a ni la familiarité bidimensionnelle que lui a inventé l’âge classique de la géométrisation euclidienne de la nature, ni l’étrangeté quadridimensionnelle de la pure échappée hors de l’esprit et hors de l’être, mais la tridimensionnalité brisée fractalement d’un réel qui se livre en se dérobant, qui se manifeste en voilant plus grand que l’apparition.
Deux conceptions de la nature s’affrontent aujourd’hui :
a) La prétention à l’exhaustivité
On la trouve présente chez un Hawking dans son modèle d’univers sans singularités : l’univers en structure quadri-dimensionnelle est un hyper-surface fermée, donc finie mais sans bornes. En conséquence, les propriétés de l’univers sont complètement déterminées par les lois sans avoir besoin de faire intervenir des conditions aux frontières, comme dans les modèles classiques. Voilà pourquoi, « l’univers se contiendrait entièrement lui-même et ne serait affecté par rien d’extérieur à lui. Il ne pourrait être ni créé ni détruit. Il ne pourrait qu’être [152] ».
Un autre exemple est fourni par David Bohm dans son ouvrage sur la causalité et le hasard dans la physique moderne : « L’énorme diversité des choses que l’on trouve dans le monde, que ce soit dans l’expérience commune ou dans la recherche scientifique, peut être réduite complètement, parfaitement et inconditionnellement (c’est-à-dire sans approximation et dans tout domaine possible) à rien de plus qu’aux effets de quelque cadre de lois, défini et limité ». Conséquence : « les entités fondamentales qui sont supposées exister, les espèces de propriétés qui définissent les modes d’être de ces entités et les espèces générales de relations dans les termes desquelles les lois de base pouvaient être exprimées, sont supposées pouvoir s’insérer adéquatement dans quelque schème physique et mathématique fini et limité, qui pourrait en principe être soumis à une formulation complète et exhaustive, si on ne suppose pas que cela a déjà été réalisé [153] ».
On peut aussi appeler cette conception intrinsécisme, ainsi que Ladrière la définit : « L’ensemble des phénomènes naturels constitue une totalité fermée sur elle-même qui contient à l’intérieur d’elle-même les principes de son intelligibilité [154] ».
b) Le sens du mystère
Une tout autre perspective apparaît aujourd’hui dans la physique. Déjà Ferdinand Gonseth parlait d’horizon. La connaissance scientifique apparaît toujours relative, provisoire, jamais achevée. La réalité est alors « inépuisable dont nous ne percevons que ce que nos moyens d’investigation nous permettent de capter indirectement », explique Ladrière [155].
C’est la perspective développée par Jean-Pierre Baton et Gilles Cohen-Tannoudji dans le cadre de la physique particulaire qui est leur spécialité : l’horizon quantique, disent-ils par exemple « se dévoile comme un approfondissement de l’horizon apparent, assimilé à l’horizon classique ou naturel [156] ». Ces deux auteurs précisent que ce nouvel horizon de la physique actuelle s’analyse en trois concepts : la relation, l’universalité comme isotropie ontologique et la complexité comme émergence de la nouveauté.
L’élémentarité devient relationnelle. En effet, le propre de la vision mécanique est d’analyser. La physique actuelle invite à une descente progressive vers des conditionnements de plus en plus élémentaires qu’elle rassemble. Mais la nouveauté de l’analyse actuelle est double : d’une part, elle cherche à intégrer les niveaux de plus en plus élaborés de la réalité cosmique. D’autre part, « le plus petit élément constitutif du réel n’est pas une chose », une substance, « c’est un rapport, une relation, une interaction. C’est ainsi que l’on peut caractériser le quantum d’action [157] ».
L’universalité : « Toutes les observations faites sur la terre, ou dans son environnement immédait, sont, en droit, extrapolables à l’ensemble de l’univers [158] ». En conséquence, il n’y a plus de place privilégiée dans l’univers ; aucune position n’est typique.
La complexité. Le passage d’un niveau élémentaire à un autre niveau met en jeu des propriétés nouvelles. Ainsi, « même si la dynamique qui régit le niveau microscopique était supposées réversible et déterministe, l’irréversibilité s’introduirait dans le passage au niveau macroscopique en même temps que la prédictibilité perdrait son caractère déterministe pour devenir probabiliste [159] ».
Pascal Ide
[1] Jean-Marie Aubert, « L’exigence métaphysique révélée par l’écologie », in Atti del Congresso intern. ‘Metafisica e scienze dell’uomo’, Roma, 1982. « Le monde physique en tant que totalité et la causalité universelle selon Saint Thomas d’Aquin », p. 82-106, ici p. 105-106. Souligné par l’auteur.
[2] Alain Connes, Géométrie non-commutative, Paris, InterEditions, 1990.
[3] Ibid., p. 38.
[4] Ibid., p. 14.
[5] Ibid., p. 181.
[6] Dana Mackenzie, « La géométrie de l’incertitude », in La Recherche n° 307, mars 1998, p. 61 à 65, ici p. 64.
[7] Ibid., p. 61. Autre intérêt le remplacement de l’espace-temps traditionnel par un espace non commutatif introduit un « cut-off » naturel. Qu’est-ce que cela signifie ? Le problème rencontré vient de ce que si l’on traite la mécanique quantique de manière relativiste, la localisation d’une particule crée automatiquement des paires. Or, cette mécanique est théorisée à partir d’une théorie des champs. D’où la notion de dédoublement de l’espace-temps.
[8] Cf. J. Wagensberg, L’âme de la méduse. Idée sur la complexité du monde, Paris, Seuil, 1997. Cf. surtout les travaux d’Henri Atlan dont il a été question ci-dessus.
[9] Cf. Henri Poincaré, « Le problème des trois corps », in Revue générale des sciences pures et appliquées, 2,1-5, 1891, repris dans L’analyse et la recherche, p. 31-42.
[10] Les méthodes nouvelles de la mécanique céleste, Paris, Blanchard, 1987, 3 volumes, tome I, p. 3-4.
[11] Ibid. tome III, p. 389. Cf. aussi « Le problème des trois corps », p. 35.
[12] Ivar Ekeland, Le calcul et l’imprévu, p. 55.
[13] Stabilité structurelle et morphogénèse, p. 7.
[14] Cf. un passage célèbre et particulièrement parlant Timée, 31 c.
[15] Cf. Christopher Zeeman, Catastrophe Theory. Selected Papers, 1972-1977, Recueil d’articles édité par Christopher Zeeman, Reading, Addison-Wesley, 1980, au début.
[16] Konrad Lorenz, L’agression. Une histoire naturelle du mal, trad. V. Fritsch, coll. « Champs » n° 20, Paris, Flammarion, 1977, p. 99.
[17] Ibid., p. 100.
[18] Christopher Zeeman,Catastrophe Theory. Selected Papers, p. 8.
[19] Christopher Zeeman, cité par H. Sussman et R. Zahler, « Catastrophe theory as applied to the social and biological science a critique », in Synthese, 37, 1978, p. 117-216, ici p. 130.
[20] En réalité, quelle personne accepterait de se fier au principe selon lequel un chien en colère, si enragé soit-il, n’attaquera que s’il ne craint pas ? Cf. H. Sussman et R. Zahler, « Catastrophe theory as applied to the social and biological sciences a critique », p. 198.
[21] Christopher Zeeman,Catastrophe Theory, p. 18.
[22] J. Perrin, Les Atomes, coll. « Champs » n° 225, Paris, Flammarion, 1991, p. 27.
[23] Prédire n’est pas expliquer, p. 66.
[24] Les Atomes, p. 27 et 28.
[25] Les Objets fractals, p. 232.
[26] Entretien avec A. Barcellos, in Mathematical People, éd. D. J. Albers et G. L. Alexanderson, Boston, Birkhauser, 1985, p. 220.
[27] Benoît Mandelbrot, « Comment j’ai découvert les fractales », p. 422.
[28] Physique, temps et devenir, p. 99.
[29] Ibid.
[30] Yann Hérault et Denis Duboule, « Comment se construisent les doigts ? », La Recherche L’origine des formes, n° 305, janvier 1998, p. 40-44, ici p. 44.
[31] L’auto-organisation. De la physique au politique, sous la direction de Paul Dumouchel et Jean-Pierre Dupuy, Paris, Seuil, 1983.
[32] Entretiens avec Guitta Pessis-Pasternak, Faut-il brûler Descartes ? Du chaos à l’intelligence artificielle quand les scientifiques s’interrogent, Paris, Éd. La découverte, 1991, p. 35.
[33] Cité p. 11 et 12.
[34] Cf. p. 13.
[35] op. cit., p. 12.
[36] Gaston Bachelard, Le pluralisme cohérent de la chimie moderne, Paris, Vrin, 21973, p. 14.
[37] Jean-Pierre Baton et Gilles Cohen-Tannoudji, L’horizon des particules. Complexité et élémentarité dans l’univers des particules, Paris, Gallimard, 1989, p. 207.
[38] Edgar Morin, Interview dans Télérama de mars 1991, cité par Popelard, p. 48-49.
[39] Nelson Goodman, Manières de faire des mondes, trad. J. Chambon, Nîmes, coll. dirigée par Y. Michaud, 1992, p. 133.
[40] Éclaircissements. Entretiens avec Bruno Latour, Paris, Flammarion, 1994, p. 92-93.
[41] V. Arnold, Méthodes mathématiques de la mécanique classique, Moscou, Mir, 1976, p. 314.
[42] Paris, Fata Morgana.
[43] Michel Tournier, « La dimension mythologique », in Le vent Paraclet, coll. « Folio », Paris, Gallimard, 1977, p. 185.
[44] René Thom, Stabilité structurelle et morphogénèse, p. 6.
[45] Alain Boutot, L’invention des formes, p. 312.
[46] René Thom, entretien avec Roger-Pol Droit, Le Monde, dimanche-lundi 22 et 23 janvier 1995, p. 14.
[47] Alain Boutot, L’invention des formes, p. 101.
[48] Cf. Richard Olson, « Aristophanes and the Antiscientific Tradition », in Transformation and Tradition in the Sciences. Essays in Honor of I. Bernard Cohen, E. Mendelsohn Éd., Cambridge (in Mass.), Cambridge University Press, 1984, p. 441-454.
[49] Cf. Pierre Thuillier, « Les origines de l’antiscience », in La Recherche, n° 174, février 1986, repris dans Les passions du savoir. Essais sur les dimensions culturelles de la science, coll. « Le temps des sciences », Paris, Fayard, 1988, p. 233 à 257.
[50] Ibid., p. 253.
[51] Jean Brun, Le rêve et la machine. Technique et existence, Paris, La Table Ronde, 1992, p. 64. Souligné dans le texte.
[52] Éric Weil, « De la nature », in Philosophie et réalité. Derniers essais et conférences, coll. « Bibliothèque d’Archives de Philosophie » n° 37, Paris, Beauchesne, 1982, p. 343-363. Ce texte est le seul inédit du recueil.
[53] Ibid., p. 347.
[54] Ibid., p. 346.
[55] Ibid., p. 345.
[56] Ibid.
[57] Ibid., p. 345.
[58] Ibid., p. 346.
[59] Ibid., p. 357.
[60] Ibid., p. 357.
[61] Ibid., p. 349.
[62] Ibid., p. 357.
[63] Ibid., p. 345.
[64] Ibid., p. 351.
[65] Ibid., p. 348.
[66] Ibid.
[67] Ibid., p. 352.
[68] Ibid., p. 353.
[69] Ibid., p. 354 et 355.
[70] Ibid., p. 359.
[71] Ibid., p. 355.
[72] Ibid., p. 357.
[73] Ibid., p. 358.
[74] Ibid., p. 360.
[75] Ibid.
[76] Ibid., p. 361.
[77] Ibid.
[78] Ibid., p. 362.
[79] Ibid., p. 363.
[80] Pierre Aubenque, Le problème de l’être chez Aristote, Paris, P.U.F., 1962, p. 444-445.
[81] Paraboles et catastrophes, p. 70.
[82] Ibid., p. 70.
[83] Alain Boutot, L’invention des formes, p. 289. Nous lui avons emprunté le développement précédent.
[84] Marie-Dominique Popelard, « De nouveaux rapports entre les sciences et la nature ? Considérations épistémologiques », p. 45.
[85] Ilya Prigogine et Isabelle Stengers, La nouvelle alliance, p. 139.
[86] Pierre Aubenque, Le problème de l’être chez Aristote, p. 422-423.
[87] Cf. Pierre Bergé, Y. Pomeau et C. Vidal, L’ordre dans le chaos, p. 125. Cf. David Ruelle, Chaotic Evolution and Strange Attractors, Cambridge, Cambridge University Press, 1989, p. 69s.
[88] Benoît Mandelbrot, Les objets fractals, p. 43.
[89] Benoît Mandelbrot, « Forme, hasard et dimension », p. 6.
[90] Benoît Mandelbrot, Les objets fractals, p. 44.
[91] Ilya Prigogine et Isabelle Stengers, La nouvelle alliance, p. 237.
[92] G. Nicolis et Ilya Prigogine, A la rencontre du complexe, Paris, PUF, 1992, p. 19-20.
[93] Edgar Morin, in Coll. (sous la dir. de Zaki Laïdi), Le Temps mondial, Paris, Éd. Complexe, 1997, p. 291.
[94] Ilya Prigogine et Isabelle Stengers, La nouvelle Alliance, p. 392.
[95] Michel Serres, Entretien avec Elise Fischer, « Le monde est notre partenaire », in France Catholique n° 2278, 26 octobre 1990, p. 4 à 7, ici p. 5 et 6. Cf. Michel Serres, Le contrat naturel, coll. « Champs », Paris, Flammarion, 1992.
[96] La nouvelle Alliance, p. 361.
[97] Jean Largeault, Philosophie de la nature 1984, p. 143.
[98] René Thom, Stabilité structurelle et morphogénèse, p. 5-6.
[99] « Les buts de la science », p. 115.
[100] René Thom, Paraboles et catastrophes, p. 123.
[101] Ibid., p. p. 93.
[102] Lettre à Bentley du 25 février 1692, in Opera, Éd. Horsley, Londres, 1785, p. 438, cité par Emile Meyerson, Identité et réalité, Paris, Alcan, 1932 et Paris, Vrin, 51950, p. 522.
[103] Mot attribué à Van Bruecke, cité par Jean-Louis Parrot (Ed.), La fin et les moyens. Études sur la finalité biologique et ses mécanismes, coll. « Recherches interdisciplinaires », Paris, Maloine, 1985, p. 21.
[104] Cf. Jean Ladrière, « Une philosophie de la nature aujourd’hui », in Collectif, De la nature, p. 63 à 93, ici p. 78.
[105] Cf. la thèse de Jean Milet, Bergson et le calcul infinitésimal. Cf. aussi du même auteur, Du savoir à la foi, Paris, Le Sarment-Fayard, 1994.
[106] La Pensée et le Mouvant, Introduction, 2ème partie, p.
[107] Cité par Isabelle Mourral, Premières leçons sur La conscience et la vie de Bergson, coll. « Major Bac », Paris, PUF, 1996, p. 84, renvoyant à Maurice Schumann, Bergson ou le retour de Dieu, Paris, Flammarion, 1995.
[108] L’évolution créatrice, in Œuvres, p. 502.
[109] La nouvelle Alliance, p. 231.
[110] Ibid., p. 366.
[111] Ilya Prigogine, La fin des certitudes, Paris, Odile Jacob, 1996.
[112] S. Toulmin, Cosmopolis, Chicago, Chicago University Press, 1990.
[113] Albert Einstein, « Les principes de la recherche scientifique », in Comment je vois le monde, trad. Maurice Solovine, Paris, Flammarion, 1958, p. 140.
[114] Ibid., p. 222.
[115] Ibid., p. 217.
[116] Paul Claudel, Journal, éd. François Varillon, coll. « Bibliothèque de la Pléiade », Paris, Gallimard, 1968, tome I. 1904-1932, Cahier IV, décembre 1921, p. 534-535. Renvoie à son ouvrage Art poétique de 1904 et à un article sur la Physique de l’Eucharistie (repris dans Positions, II, Œuvres Complètes, tome XV, p. 169).
[117] Cf. l’état des lieux dans le numéro spécial de La Recherche L’origine des formes, n° 305, janvier 1998. Beaucoup de domaines scientifiques et techniques sont explorés. Mise à jour de la bibliographie. P. S. Stevens, Les formes dans la nature, Paris, Seuil, 1994. S. Hildebrandt et A. Tromba, Mathématiques et formes optimales. L’explication des structures naturelles, Paris, Belin, 1986. A. Pacault et J.-J. Perraud, Rythmes et formes en chimie, coll. « Que sais-je ? », Paris, PUF, 1997.
[118] Cf. Nicolas Witkowski, « D’Arcy Thompson, fantôme de la biologie », in La Recherche L’origine des formes, p. 27-30. Cf. sa biographie par sa fille Ruth d’Arcy Thompson, D’Arcy Wentworth Thompson. The Scholar-Naturalist, Oxford University Press, 1958 (postface de Peter Medawar).
[119] D’Arcy Wentworth Thompson, On Growth and Form, Cambridge, Cambridge University Press, 1917. Ce gros ouvrage de 793 pages fut tiré à cinq cent exemplaires, vite épuisés ; d’Arcy refusa la réédition, de sorte que la première éd. est devenue une curiosité pour bibliophiles. Il n’autorisera une rééd. considérablement augmentée qu’en 1942, six ans avant sa mort. Éd. abrégée par J. T. Bonner, 1961. Nous disposons seulement et tout récemment d’une trad. française de l’éd. abrégée, par préface de Stephen Jay Gould et d’un avant-propos d’Alain Prochiantz, Forme et croissance, trad. Dominique Teyssié, coll. « Science ouverte », Paris, Seuil, 1994. Ce livre de 334 pages traduit la version abrégée publiée en 1961 par John Tyler Bonner, et non la réédition complète et révisée de 1942 faite par Dover Publications en 1992 qui ne comporte pas moins de… 1 116 pages.
[120] On Growth and Form, p. 215.
[121] Modèles mathématiques de la morphogénèse, 2ème éd., p. 11.
[122] On lui doit un inclassable ouvrage où il répertorie tous les oiseaux dont parle la littérature antique, leurs origines et les mythes qui y sont associés A Glossary of Greek Birds, Clarendon Press, 1895. Il a aussi traduit l’Histoire des animaux d’Aristote (Clarendon Press, 1910).
[123] Voici le témoignage de son aînée qui suivait son père, dès 6 ans, dans ses longues excursions « Il mettait les fougères dans son mouchoir, les insectes dans des boîtes d’allumettes, les graines ou les larves dans son parapluie, qui faisait ainsi office de filet à papillons. Ses poches étaient pleines de coquillages et de bestioles gluantes, et il remplissait des enveloppes de sable. Le nombre et la périodicité étaient si importants pour lui qu’il comptait les pétales des fleurs, les rides sur le sable, les plumes des ailes d’oiseaux, les marches des clochers d’église ». (cité in Nicolas Witkowski, « D’Arcy Thompson, fantôme de la biologie », p. 29)
[124] Yves Bouligand et Liên Lepescheux, « La théorie des transformations », in La Recherche L’origine des formes, p. 31 à 33. Les auteurs achèvent leur article ainsi « C’est dire toute l’actualité de la pensée de D’Arcy Thompson et les perspectives qu’elle ouvre à long terme ». (p. 33)
[125] Alain Boutot, L’invention des formes, p. 313. Je préciserai seulement le propos en notant que le primat accordé à la qualité relève tout autant et même d’abord de l’objet c’est parce que la nature est doué de qualités, que la méthode scientifique mise en œuvre par les théories morphologiques peut les y retrouver.
[126] E. Monod-Herzen, Principes de morphologie générale, tome 1, p. 100, cité par Gaston Bachelard, Le pluralisme cohérent de la chimie moderne, Paris, Vrin, 21973, p. 14.
[127] René Thom, « La physique et les formes », in La pensée physique contemporaine, Moulidars, Éd. Augustin Fresnel, 1982, p. 335.
[128] Jean Dieudonné, Panorama des mathématiques pures, Paris, Gauthiers-Vilars, 1979, p. 1.
[129] Cf. par exemple dans L’éthique protestante et l’esprit du capitalisme, coll. « Recherches en sciences humaines », Paris, Plon, 1967, p. 122, 144, 193.
[130] A. Jeannière, Les fins du monde, Paris, 1987, p. 16.
[131] Père Dominique Dubarle, « Cosmologie scientifique », Cours de l’Institut Catholique de Paris, 1956-1957. Extraits à partir de notes polycopiées revues partiellement par l’auteur, in Collectif, De la nature, p. 165 à 204, ici p. 201.
[132] Ibid., p. 202. Souligné dans le texte.
[133] Ibid., p. 203. Souligné dans le texte.
[134] Ibid., p. 204.
[135] François Guéry, « Une «philosophie de la nature» d’aujourd’hui », in Encyclopédie philosophique universelle I. L’univers philosophique, Paris, PUF, 1989, p. 454 à 461, ici p. 461.
[136] Michel Serres, « Le Messager », Bulletin de la société française de philosophie, Avril-juin 1968, p. 35. Cf. Michel Serres, Hermès. IV, Paris, Minuit, 1977, p. 32.
[137] Michel Serres, Hermès. III. La traduction, Paris, Minuit, 1974, p. 88.
[138] Michel Serres, Hermès. IV, Paris, Minuit, 1977, p. 270.
[139] Ibid., p. 271.
[140] La Tragédie de l’énergie, Paris, Casterman, 1970, p. 129.
[141] Alexandre Koyré, « Galilée et la révolution scientifique », p. 212.
[142] Alberto Strumia, « Difendere le ragioni della scienza oggi », in Coll., L’interpretazione scientifica del reale verifica e prospettive, Vatican, Urbaniana University Press, 1998, p. 91-100, p. 98.
[143] Cf. G. Basti, A. L. Perrone, Le radici forti del pensiero debole. Dalla metafisica, alla matematica, al calcolo, Padoue, Il Poligrafo-Pontificia Università Lateranense, 1996.
[144] Cf. les références données dans la note 12, p. 98, en mathématique, notamment l’exposé didactique, en vue d’un dialogue épistémologique entre mathématiciens et philosophes E. de Giorgi, Du dépassement du réductionnisme systémique à la recherche d’une compréhension plus ample et profonde entre mathématiques et les études d’autres disciplines scientifiques et humanistes, mémoire présenté à Pise, 25 mars 1996 (en italien).
[145] Cf. Douglas Hofstadter, Concepts fluides et analogies créatives, Milan, Adelphi, 1996. Pour une réflexion philosophique, cf. Alberto Strumia, « La science vers une théorie de l’analogie ? », Divus Thomas, 100/16 (1997), p. 65. Id., Introduction à la philosophie des sciences, Bologne, Ed. Studio Domenicano, 1994, ch. 6. Une formalisation de la théorie de l’analogie a été proposée par J. M. Bochenski, La logique formelle, Turin, Einaudi, 1972, vol. 1, p. 237-238 ; vol. 2, p. 516.
[146] Cf. par exemple N. Dallaporta, Scienza, metascienza e metafisica, Padoue, Cedam, 1994, p. 69.
[147] Alberto Strumia, « L’affleurement de l’’explication finaliste’ dans les théories scientifiques », Automazione energia informazione, LXXXV/1 (1998), p. 62.
[148] Cf. Thom.
[149] Cf. Alberto Strumia, Introduction à la philosophie des sciences, Bologne, Ed. Studio Domenicano, 1994, p. 22-32. Id., « F. F. Torrance, ‘Le sens du divin et la science moderne’ », Sacra doctrina, nuova serie, XXXIX/1 (1994), p. 125.
[150] Cité par L’évolution créatrice, in Œuvres, p. 527. Il cite aussi le naturaliste Thomas Huxley qui parle d’une « intelligence suffisante ». L’homme rêve de cette égalisation de son esprit avec l’Esprit absolu, dont on sait combien elle est au cœur du hégélianisme, oubliant trop qu’elle trouve une première expression chez Descartes.
[151] Citant une phrase de Jost, tirée de In Praise of Quantum Field Theory, conférence de Sienne, 1963 ; Salam est lui-même cité par Georges Lochak, « La géométrisation de la physique », in Logos et Théorie des Catastrophes. À partir de l’œuvre de René Thom, Actes du colloque de Cerisy de 1982 sous la direction de Jean Petitot, Genève, Éd. Patino, 1988, p. 187 à 197, ici p. 191.
[152] Une bréve histoire du temps, trad. Isabelle Naddeo-Souriau, Paris, Flammarion, p. 173.
[153] Causality and Chance in Modern Physics, Londres, Routledge & Kegan Paul, 1957, p. 130-135. C’est moi qui souligne.
[154] « La perspective mécaniciste », in Revue Philosophique de Louvain, 86 (novembre 1988), N° consacré au tricentenaire de la publication des «Philosophiæ Naturalis Principa Mathematica » d’Isaac Newton, p. 557.
[155] p. 73.
[156] Jean-Pierre Baton et Gilles Cohen-Tannoudji, L’horizon des particules. Complexité et élémentarité dans l’univers des particules, Paris, Gallimard, 1989, p. 185.
[157] Ibid., p. 189.
[158] Ibid., p. 233.
[159] Ibid., p. 207.