E) Les révolutions actuelles en astronomie
L’astronomie et l’astrophysique, se fondant notamment sur les acquis des nouvelles théories physiques, nous offrent une vision de l’univers radicalement différentes de celle que proposait la mécanique newtonienne. J’évoquerai trois points : l’origine de l’univers, son terme et sa structure.
1) L’origine de l’univers ou la théorie cosmologique standard (dite du Big Bang)
Faisons d’abord appel à ce que dit la science [1].
a) Quelques notions prérequises en physique particulaire [2]
Il faut se rappeler la structure de la matière telle qu’elle est établie par la science actuelle. Elle s’est prodigieusement complexifiée depuis 1932 où on connaissait seulement quatre particules pour décrire le monde subatomique ou particulaire : électron, proton, neutron et photon.
On distingue maintenant différents types de particules (on en dénombre actuellement plus de 200) dont nous allons répartir les principales en un tableau systématique. Quelques remarques préliminaires pour comprendre ce tableau :
– Ce tableau contient les particules dites élémentaires et qui se définissent comme particules actuellement considérées comme ultimes, c’est-à-dire indécomposables, infractionnables en d’autres particules. Par exemple, jusqu’en 1964, on pensait qu’il existait trois particules élémentaires : l’électron, le proton et le neutron ; nous savons désormais, notamment grâce aux travaux de Gell-Mann et de Zweig que le proton et le neutron sont composés de particules appelées quarks.
– Chaque particule est caractérisée par un certain nombre de caractéristiques, de nombres quantiques comme le nombre baryonique, leptonique, de spin (qui est le moment cinétique propre d’une particule : ce moment est donc dû à la rotation de celle-ci sur elle-même autour d’un axe), le nombre d’hypercharge, la charge (c’est la seule que nous avons notée : Q qui peut être égale à 0, –1 ou +1), etc.
– La première répartition des particules se fait en deux : d’une part, il y a les particules matérielles, composant la matière ; d’autre part, on trouve les particules énergétiques, médiatrices des différentes forces interagissant entre les particules matérielles. Les premières s’appellent fermions et les secondes bosons. Autrement dit, les bosons assurent la réalisation des interactions entre fermions.
– Par ailleurs, il existe différents types d’interaction entre les corps. Il y aura donc autant de types de bosons. Précisément, il y a quatre forces fondamentales. On connaît habituellement deux d’entre elles : la force gravitationnelle et la force électromagnétique ; mais il en existe deux autres qui ne jouent qu’à un niveau ultra-microscopique : d’une part l’interaction faible qui se manifeste dans certains processus radioactifs comme la désintégration spontanée du neutron ; d’autre part, l’interaction forte qui assure la cohésion, qui maintient agglutinés (aussi les appelle-t-on gluons) entre eux les particules matérielles à l’intérieur d’un noyau et les quarks au sein des protons et des neutrons.
– Deux remarques parmi beaucoup. Les noms donnés aux particules ont des origines variées, soit scientifiques, soit fantaisistes. Par exemple le très sérieux lepton vient du grec leptos, mince. L’autre famille de particule matérielle élémentaire est baptisée quark par allusion littéraire à une parodie poétique du poète James Joyce, introduite dans Finnegans Wake qui commence par le vers : Three quarks for Muster Mark !).
À noter aussi que ces particules ont peu à peu été découvertes, notamment grâce aux accélérateurs de particules ou collisionneurs. Par exemple, pour ne parler que des leptons de charge Q = –1, l’électron fut identifié en 1896, le muon en 1937 et le tau en 1975.
– Nous ne parlons pas d’autres particules comme les baryons (du grec barus, lourd) qui sont des particules lourdes ou super-lourdes résultant de l’union de particules fondamentales que sont les leptons et les quarks. Ces baryons regroupent ce que l’on appelle les nucléons, à savoir les particules présentes dans les noyaux (c’est-à-dire les protons et les neutrons) et d’autres particules plus massives encore que le proton et le neutron (appelées par des lettres grecques : Lambda, Sigma, Wi, Oméga).
L’Américain Steven Weinberg et le Pakistanais Abdus Salam ont unifié les forces électromagnétiques et nucléaire faible en 1970 (ce qui leur a valu le Prix Nobel) : elles forment la force électrofaible. Pour marier la force électrofaible et la force nucléaire forte, il faudrait une chaleur et une énergie extrêmes, comme aux tout premières instants de l’univers, ce que nous ne savons pas encore faire.
1) Particules purement énergétiques transmettant les forces (associées aux champs de juage) : les bosons (dont le spin = 1) |
a) Boson médiateur de la force gravitationnelle : |
Le graviton (qui n’a jamais été observé) |
|
b) Boson médiateur de la force électromagnétique : |
Le photon |
|
|
c) Boson médiateur de la force d’interaction faible: |
Les trois bosons intermédiaires : W-, W+ et Z° |
|
|
d) Boson médiateur de la force d’interaction forte : |
Les huit gluons |
|
|
2) Particules matérielles élémentaires constituant les hadrons ou fermions |
a) Soit le spin est = à 0 |
Particules de Higgs (H-, H+, H°) |
|
b) Soit le spin est = à 1/2 (ces fermions vont composer les hadrons) |
1’) Les leptons (qui sont sensibles à la seule interaction électrofaible) |
a’) Q = O : Les neutrinos : ne, nm, nt (associés aux leptons de charge –1) |
|
b’) Q = –1 : électron, muon et tau |
|||
2’) Les quarks (qui sont sensibles à l’interaction forte et constituent proton et neutron) |
a’) Q = 2/3 : les quarks u (up), c (charm) et t (top) |
||
b’) Q = –1/3 : les quarks d (down), s (strange) et b (bottom) |
b) Le modèle du Big Bang. Ses trois fondements
Du point de vue macroscopique, l’immense majorité des cosmologistes à l’heure actuelle adhèrent au modèle du Big Bang.
Celui-ci se fonde sur trois phénomènes :
1’) Le red-shift (le décalage des raies spectrales vers le rouge)
Le raisonnement est simple mais suppose de l’attention.
a’) Le principe de Doppler-Fizeau
Lorsqu’une ambulance, un SAMU passe devant nous, le son de la sirène est d’abord plus aigu, lorsqu’il se rapproche et plus grave lorsqu’il s’éloigne ; or, lors du rapprochement, à la vitesse du son s’ajoute la vitesse du véhicule. Ainsi, lorsque la source d’ondes sonores lumineuses se rapproche ou s’éloigne de l’observateur, les ondes qu’elle émet sont décalées. Par ailleurs, les ondes aiguës ont une plus haute fréquence que les ondes graves. Donc, si la source se rapproche, les ondes perçues arrivent plus vite, leurs fréquences augmentent : elles sont comme « raccourcies » ; et c’est l’inverse qui se produit lorsque la source s’éloigne (puisque la vitesse de la source se soustrait de la vitesse de l’onde).
On l’exprime mathématiquement de la manière suivante : d = kV, d étant le décalage des fréquences, k une constante et V la vitesse relative de la source à l’égard de l’observateur.
Or, la lumière présente un double comportement, ondulatoire et corpusculaire ; c’est qu’elle est, notamment, de « nature » ondulatoire. Selon le mouvement relatif de la source, les couleurs, les longueurs d’onde seront donc décalées : vers les plus grandes longueurs d’onde (autrement dit, vers le rouge et l’infrarouge) en cas d’éloignement de la source, vers les plus courtes longueurs d’ondes (autrement dit, vers le violet et l’ultraviolet) en cas de rapprochement. L’aigu correspond donc au violet et le grave au rouge.
b’) Second élément de base
D’une part, chaque étoile est doué d’un spectre des radiations électromagnétiques. C’est l’un des acquis qui a permis de fonder cette discipline en plein essor que l’on appelle l’astrophysique. En effet, les atomes composant les étoiles émettent des radiations, et celles-ci sont d’ailleurs caractéristiques du type d’élément atomique, ce qui permet d’analyser la composition d’une étiole à distance.
D’autre part, on constate que le spectre (autrement dit l’ensemble des radiations émises par une étoile ou une galaxie) des étoiles de notre Galaxie est dénué de décalage, ce qui n’est pas du tout le cas du spectre des étoiles appartenant à d’autres galaxies. Notamment, et cette découverte a fait le tour de la planète en très peu de temps, le célèbre astronome Hubble découvrit en 1925, à l’observatoire du Mont Wilson, en Californie, que le spectre de la nébuleuse (galaxie) Andromède (qui est située à 2 millions d’années lumières de nous) de notre galaxie, présente un décalage vers le rouge, ce que l’anglais appelle un « red-shift ».
Nous sommes donc à même de conclure : cette galaxie s’éloigne de notre galaxie, de nous.
) Nouvelle constatation
Hubble put vite généraliser à partir d’autres constatations et il remarqua que le décalage vers le rouge, donc la vitesse d’éloignement, est proportionnelle à son éloignement par rapport à nous.
Nous obtenons ainsi la célèbre loi de Hubble : d = k’ D où d est le décalage spectral, k’ est une constante et D, la distance intergalactique observée.
Or, il est impossible de rendre compte de ce décalage proportionnel, ou plutôt la manière la plus simple d’expliquer ce décalage est d’appliquer la loi de Doppler-Fizeau. Notez au passage l’utilisation de ce principe de simplicité.
Il suffit alors d’égaler les deux lois précédentes en éliminant d. On obtient : V = D k’/k.
En conséquence, cela signifie que les galaxies s’éloignent l’une de l’autre avec une vitesse proportionnelle à la distance qui les sépare. Ce qui donne la fameuse formule : V = H D, où H = k’/k est la constante de Hubble. Elle permet de déterminer l’âge de l’univers.
2’) Le rayonnement fossile interstellaire à 2,7 °K
) Histoire de la découverte
C’est George Gamow et ses deux collaborateurs, Alphen et Hermann, qui émettent l’hypothèse hardie que le modèle du Big Bang doit rendre compte de la formation des corps simples. Ils joignent ainsi chimie et astrophysique : deux disciplines apparemment hétérogènes (xixe et xxe siècles) se tendent ainsi la main. La suite de l’histoire montrera le génie de l’hypothèse. [3]
L’histoire est « pittoresque en diable », comme le dit Pierre Chaunu [4]. L’hypothèse de son existence avait déjà été émise par un chercheur, le physicien russe Georges Gamov, vers les années 1930, mais il n’avait pu démontrer son hypothèse.
Steven Weinberg, raconte l’histoire par le menu : « En 1964, le Bell Telephone Laboratory était en possession d’une antenne radio peu commune située sur la colline de Carwford, à Holmdel dans le New Jersey. Cette antenne avait été construite pour assurer la télécommunication par l’intermédiaire du satellite Écho, mais ses caractéristiques – elle était munie d’un réflecteur de vingt pieds, de très faible bruit de fond – en faisaient un instrument prometteur pour la radioastronomie. Deux radioastronomes, Arno A. Penzias et Robert W. Wilson, entreprirent d’utiliser cette antenne pour mesurer l’intensité des ondes radio émises par notre galaxie aux latitudes galactiques élevées, c’est-à-dire hors du plan de la Voie Lactée [5] ».
Or, cette mesure est extrêmement difficile. En effet, les ondes radio peuvent être décrites comme un bruit, c’est-à-dire comme les parasites que l’on entend dans un poste de radio lorsque le temps est orageux. Or, il est difficile de distinguer le bruit émis par une source, ici, la galaxie, c’est-à-dire le ciel, du bruit électronique produit par le mouvement aléatoire des électrons à l’intérieur des structures de l’antenne et des circuits amplificateurs, ainsi que celui qu’émet l’atmosphère terrestre que capte aussi l’antenne.
Par un dispositif dit à « charge froide » (cold load), Penzias et Wilson avaient presque annulés le bruit émis par la structure de l’antenne. Néanmoins, ils commencèrent leurs observations à une longueur d’onde relativement courte, 7,35 cm. : à cette longueur d’onde, le bruit-radio produit par la galaxie aurait dû être négligeable et le bruit de l’atmosphère terrestre conséquent, mais caractérisable selon la direction d’observation (proportionnel à l’épaisseur de l’atmosphère, donc moins intense dans la direction du zénith et plus intense dans celle de l’horizon).
Or, quelle ne fut pas leur surprise, lorsqu’ils détectèrent, au printemps de 1964, « un bruit millimétrique significatif à 7,35 cm » ; or, ce bruit était indépendant de la direction d’observation et du temps. Ce qui signifiait que le bruit-radio ne provenait « pas de la Voie Lactée, mais d’un volume beaucoup plus vaste de l’univers [6] ».
La première objection fut que l’antenne émettait plus de bruit électronique qu’on ne le prévoyait. Pour la petite histoire, on savait qu’un couple de pigeons avait construit son nid au creux de l’antenne. On les captura, les envoya aux laboratoires Bell, les relâcha, mais quelques jours plus tard, ils étaient à nouveau là ! On les dissuada par des moyens plus énergiques. Mais ils avaient couvert le creux de l’antenne de ce que Penzias appela une « matière blanche diélectrique ». Quoi qu’il en soit, après nettoyage, le bruit millimétrique demeurait !
Penzias et Wilson calculèrent la température corrélée à ce bruit. En effet, tout corps est à une température donnée, supérieure à zéro degré Kelvin. Or, la chaleur est source de rayonnement qui émet elle-même un bruit-radio. Ainsi, plus la température est élevée, plus le champ radio est intense. Application : « Penzias et Wilson trouvèrent que la température équivalente du bruit-radio qu’ils recevaient était proche de 3,5 » degrés K, plus exactement entre 2,5 et 4,5. « Cette température était beaucoup plus élevée qu’on ne le prévoyait, mais encore très basse en valeur absolue ; il n’est donc pas surprenant que Penzias et Wilson ruminèrent un moment sur ce résultat avant de le publier. On ne pouvait alors certainement pas imaginer qu’il s’agissait du progrès cosmologique le plus important depuis la découverte des décalages vers le rouge [7] ».
Comment allait se faire les connexions ? Par un heureux hasard, joignant deux travaux autonomes. Comme quoi le hasard est toujours rencontre de deux séries causales douées de leur énergie, de leur efficace propre.
Penzias téléphona pour une toute autre raison à un ami radioastronome, Bernard Burke du MIT. « Burke venait juste d’entendre parler par un autre collègue, Ken Turner de la Carnegie Institution, d’un séminaire auquel il avait assisté à John Hopkins, donné par une jeune théoricien de Princeton, P. J. E. Peebles. Au cours de ce séminaire, Peebles avait affirmé qu’il devait exister un bruit de fond radio, vestige du commencement de l’univers, et dont la température équivalente actuelle devait être de l’ordre de 10° K ». Ce chiffre était une surestimation. Il demeure que le principe était juste. Selon les observations actuelles, l’hydrogène est très abondant dans l’univers ; c’est donc qu’au commencement, un processus a empêché les éléments lourds de se former ; or, des rayonnements de température équivalente extrêmement élevés et d’ondes très courtes remplissant l’univers auraient détruit les noyaux lourds en formation et auraient ainsi fait obstacle à une trop rapide « cuisson » de l’univers. Il a donc dû y avoir une énorme quantité de rayonnement ; or, de la chaleur dégagée par ces rayonnements, il doit demeurer une trace.
Continuons le récit : « Burke savait déjà que Penzias était en train de mesurer des températures de bruit de fond avec l’antenne des Bell Laboratories, et il profita donc de cette conversation téléphonique pour lui demander où en étaient ses travaux. Penzias » fit état de ses résultats et Burke lui suggéra de contacter les physiciens de Princeton.
« On vit là immédiatement l’explication naturelle de la découverte de Penzias et Wilson [8] ».
) Résultats
Là encore, faisons appel au principe de simplicité, à savoir une origine unique. La théorie du Big Bang prévoit que l’univers, depuis son origine baigne dans un rayonnement. Plus encore, la température de ce rayonnement qualifié de fossile est de 2,7° Kelvin (presque – 270° Celsius), plus précisément encore 2,716° Kelvin. Or, cela correspond au calcul fait à partir du modèle cosmologique. Autrement dit (avec un sourire), le Big Bang, c’est de la friture de radar !
Certains vont jusqu’à affirmer – mais c’est excessif, ainsi que nous venons de le dire – que ce rayonnement « fournit la preuve irréfutable de la théorie du ‘Big Bang’, terminant ainsi une période de trente-cinq ans de discussions et d’alternatives concernant le décalage spectral vers le rouge et son interprétation comme expansion de l’univers [9] ». En tout cas, un an après cette découverte décisive, Mgr. Georges Lemaître s’éteignait, dans la paix.
) Confirmation
« L’exploitation systématique du télescope spatial Hubble et la mise en service de très grands télescopes au sol s’annonce extrêmement prometteuse dans ce domaine de recherche. Citons en pour preuve le splendide résultat obtenu récemment par des astronomes de l’université d’Hawaii à l’aide du télescope Keck de 10 mètres de diamètre. En détectant dans le spectre du quasar 1331 + 170 plusieurs raies faibles de l’atome de carbone associées à un système d’absorption déjà connu au décalage 1,776, ils ont pu mesurer la température du rayonnement fossile qui baigne la galaxie interposée : 7,4 K + ou – 0,8 °K. Or la théorie du big bang prédit 7,6 °K ! Test extrêmement simple, fondé uniquement sur le décalage spectral des raies d’absorption et confirmation éclatante de la théorie du big bang [10]! » Autrement dit, notre univers est en état de refroidissement progressif. À noter que le quasar, dont on a pu déterminer la température du rayonnement qui le baigne, se situe à environ 12 milliards d’années-lumière.
Cette preuve, de plus, lie l’univers et l’élément, le macroscopique et microscopique, et donc manifeste l’unité de la nature : « Cette observation qui met à profit notre connaissance de la structure intime de l’atome pour déterminer une propriété globale de l’Univers conjugue de manière saisissante nos approches de l’infiniment petit et de l’infiniment grand [11] ».
3’) La proportion d’hélium par rapport à l’hydrogène (1 pour 12)
Il est enfin classique d’ajouter une troisième preuve : « C’est exactement la proportion que les astronomes observent […] dans les étoiles ou dans les galaxies. Il semble bien que les deux éléments qui sont les plus abondants dans l’univers aient été fabriqués pendant les premières minutes de son existence [en l’occurrence à la troisième], et que presque rien n’ait changé depuis. Cette concordance est l’un des grands triomphes de la théorie du big bang [12] ».
Il existe d’autres preuves, mais indirectes, de l’évolution de l’univers, comme le noir de la nuit : la durée de notre univers et de ses étoiles est trop courte pour qu’il soit rempli de lumière, surtout que l’espace entre les étoiles grandit sans cesse. « L’obscurité de la nuit est une preuve supplémentaire de l’évolution de l’univers [13] ».
Il est désormais possible de décrire le scénario à la suite de celui qui en fut l’inventeur, à savoir l’abbé Georges Lemaître.
c) Itinéraire d’un homme méconnu : l’abbé Georges Lemaître (1894-1966).
Celui-ci, un chrétien, donc, et trop méconnu, est vraiment un auteur d’un grand génie ; son œuvre est l’une des plus considérables découvertes du xxe siècle [14].
– Prêtre en 1923 (ordonné par le cardinal Mercier). Il remporte le concours des bourses de voyage et part travailler à Cambridge chez l’un des plus grands astrophysiciens de ce siècle, Sir Eddington. Il part travailler au MIT (Massachussets Institute of Technology) et sera présent au moment de la découverte par Hubble de l’éloignement réel d’Andromède.
– Revenu à Louvain en 1925 où il enseigne, il publie en 1927, un petit article devenu ensuite célèbre : « Un univers homogène de masse constante et de rayon croissant, rendant compte de la vitesse des nébuleuses extragalactiques ». L’idée est aussi originale, et même révolutionnaire, que décisive. Son point de départ est double : d’une part, il prend en compte les premières observations de Hubble ; d’autre part, il part du modèle d’univers en équilibre statique dit modèle d’Einstein-de Sitter. Lemaître propose donc d’interpréter le fait relevé par Hubble en 1925 à l’intérieur de la théorie de la Relativité générale, par des solutions non stationnaires des équations du champ d’Einstein (qui pouvait donc s’interpréter de manière non statique). Le modèle proposé est donc un univers homogène de masse constante, comme le modèle d’Einstein, mais, et c’est là la nouveauté, il « est de rayon croissant, rendant compte de la vitesse radiale des nébuleuses extragalactiques ».
– Cet article passe inaperçu, mais non pas de tous : Sir Arthur Eddington l’approuve. En 1929, Hubble confirme l’hypothèse de Lemaître en déterminant avec précision la vitesse d’éloignement des galaxies : désormais il est certain que la vitesse de récession des nébuleuses est proportionnelle à la distance intergalactique.
– Eddington fait alors connaître en 1930 les vérifications de Hubble. Il publie un article dans la très célèbre revue scientifique Nature (du 7 juin1930) qui a un retentissement considérable. Le modèle qu’il propose est appelé « modèle d’Eddington-Lemaître ».
– Mais il demeure un problème lié à l’origine : dans le modèle d’Eddington-Lemaître, l’expansion se produit à partir de condensations locales au sein d’un univers primitivement en équilibre. Or, « un tel phénomène aurait dû prendre un temps pratiquement infinie, incompatible avec les données nouvelles tant sur l’évolution des étoiles que sur la durée de l’expansion elle-même, dont on s’est aperçu qu’elles n’étaient que de l’ordre de quelques milliards d’années ! » Ce qui donna le nouveau modèle de Lemaître, l’hypothèse dite de l’Atome primitif qui rend parfaitement compte de ces dernières données [15].
– Pour la petite histoire, notons que les consécrations officielles ne tardent alors pas à venir. Entre beaucoup de prix et de distinctions internationales, en 1934, Lemaître reçoit le prix Franqui des mains de Léopold II, prix pour lequel son parrain était Einstein lui-même. En 1960, il est nommé Président de l’Académie Pontificale des Sciences (il devient donc « Monseigneur »).
– Résumons l’apport et le génie de Lemaître, par les dernières lignes que lui consacre l’éloge funèbre prononcé par le Secrétaire Perpétuel de l’Académie Royale : « Il y a un demi siècle à peine, une grande synthèse théorique, encore mal comprise, issue du génie d’Einstein ; puis, subitement, des découvertes expérimentales fulgurantes de quelques astronomes américains, venues faire éclater notre conception du monde ; à ce moment précis, un homme jeune et isolé, qui a au début orienté lui-même sa carrière, fait la jonction entre des conceptions abstraites mais fondamentales et des découvertes concrètes capitales encore inexpliquées. Ce fut dans l’épopée de la Science un moment, bref peut-être, mais assurément non sans grandeur [16] ».
Ainsi donc, le génie de Lemaître fut de conjoindre un sens aigu de l’expérimentation (l’attention au réel) et un sens tout aussi profond de l’abstraction, de la théorie (fondée sur celle d’Einstein), autrement dit, expérience et raison. J’ajouterai volontiers : et un zeste de théologie naturelle…
d) Scénario du modèle cosmogonique fondé sur le Big Bang
Dans une conférence faite à Fribourg en 1945, Lemaître a fait une présentation synthétique et simple de son hypothèse, dans la forme définitive qui allait donner ce que l’on appelle le modèle cosmologique standard [17].
1’) Premier état de la théorie
Systématisons son exposé.
– Premier principe, d’ordre philosophique : « les théories cosmologiques se proposent de rechercher des conditions initiales idéalement simples d’où a pu résulter, par le jeu naturel des forces physiques connues, le monde actuel dans toute sa complexité [18] ».
– Fait de départ : l’expansion de l’univers tel que Hubble l’a montré.
– Deux principes, d’ordre scientifique : le premier principe de la thermodynamique nous apprend que l’énergie totale de l’univers (et sa masse totale) est une constante.
Par ailleurs, le second principe de la thermodynamique nous dit que l’énergie ne cesse de se dégrader, c’est-à-dire de se diviser en quanta de plus en plus nombreux et petits.
– Conclusion : tout cela signifie donc que l’Univers se dilue, se dilate se dégrade de manière irréversible.
– Conséquence : si l’on inverse le cours du temps grâce à l’imagination, on remonte vers un univers plus petit, plus dense, et plus riche en énergie, et surtout moins fractionné. Et ultimement, à l’origine, il n’y avait qu’un quanta, que Lemaître appelle « l’Atome primitif », en qui était condensé toute l’énergie et la masse de l’Univers, c’est-à-dire 1054 grammes !
– Or, cet Atome est terriblement instable, du fait de sa très haute concentration énergétique : c’est une super-super bombe atomique ! Il explose donc en un Grand Boum, ce qui se traduit en anglais ou en américain : Big Bang.
2’) Elaboration ultérieure
Par la suite, Lemaître a élaboré des modèles permettant de rendre compte de toutes les données observées en cosmologie. Par exemple, il faut expliquer le paradoxe apparent des nuages de galaxies qui semblent statiques, sans expansion ni contraction.
Les modèles d’univers élaborés par la suite sont connus sous le nom de modèles FLRW : modèles Friedmann-Lemaître-Robertson-Walker. Tous ont en commun de comporter au point de départ ce que l’on appelle une singularité initiale : au temps t = 0, l’univers a un rayon nul, de densité et de courbure infinies. Du fait de cet état intensément explosif, il résulte instantanément le Big Bang.
e) Scénario le plus probable de l’histoire de l’univers. Description
Pour simplifier, on peut distinguer six étapes (dont les quatre premières sont achevées après 10 secondes) :
1’) Première étape phase (ou ère) quantique
* Elle est antérieure au temps de Planck, c’est-à-dire qu’elle s’achève à 10-43 seconde.
* Caractéristiques : à 10-43 seconde après l’explosion, l’univers observable d’aujourd’hui occupe 10-33 centimètre de diamètre : il est 10 millions de milliards de milliards de milliards de fois plus petit qu’un atome d’hydrogène.
Il fait 1032 °K et sa densité est inimaginable : 1096 fois la densité de l’eau ! Pour atteindre de telles énergies, il faudrait construire un accélérateur de particules qui ferait plusieurs années-lumière de diamètre.
Si nous régressons jusqu’à l’instant originel, il faut affirmer, selon ce que dit la théorie classique, que la température et la densité sont infinies.
* Cet état défie toute représentation et toute compréhension. En effet, les quatre forces fondamentales sont réunies et confondues ; or, malgré tous les efforts d’Einstein pendant une trentaine d’années, il n’existe pas à l’heure actuelle de théorie grande unifiée ou de théorie quantique relativiste. Ici, la matière est si rapprochée que, malgré le peu de place occupé par l’univers, la force de gravitation agit tout de même, de concert avec les autres forces ; or, on ne sait ce que cela peut donner.
« Les physiciens qui ont fait de brèves incursions derrière le mur de Planck racontent qu’ils ont entrevu un univers chaotique à dix ou même vingt-six dimensions, où la gravité est si forte qu’elle a réorganisé le tissu de l’espace, lui donnant six (ou vingt-deux) autres dimensions, où l’espace s’est effondré sous l’effet de sa gravité en d’innombrables trous noirs microscopiques et où passé, présent et futur, et même le temps, n’ont plus de sens [19] ».
Pour aller plus loin : l’univers était-il infiniment dense et chaud au point de départ ? La relativité prédit que oui. Mais il n’y a pas unanimité.
2’) Seconde étape phase (ou ère) inflationnaire
* De 10-35 à 10-32 seconde.
* Caractéristiques : l’univers s’enfle d’un facteur de 1050 pour atteindre la taille gigantesque (sic) d’une orange de 10 centimètres de diamètre. Pour être précis, il s’agit de l’univers visible et non pas de l’univers, de l’espace cosmologique qui est en communication, qui est atteint par la lumière et qui là s’étend à 1026 c’est-à-dire qu’il est 1 000 fois plus large que l’univers actuellement observable. Ce qui signifie que « notre univers n’est plus qu’une petite bulle perdue dans l’immensité d’une bulle méta-univers qui est des dizaines de millions de milliards de milliards de fois plus vaste [20] ».
* Effets :
Différenciation de la force électronucléaire en force nucléaire forte et force électrofaible.
Ensuite, l’univers acquiert son homogénéité et sa géométrie plate. Les germes des futures galaxies sont semés.
Surtout, au plan microscopique, du « vide » quantique surgissent les quarks, les électrons et les neutrinos, ainsi que leurs antiparticules.
Or, autre donnée (inexpliquée), l’asymétrie du nombre de particules et d’antiparticules laisse un milliardième en faveur des particules, ce qui nous permet d’exister aujourd’hui. De plus, il y a 1 milliards de photons pour 1 nucléon.
3’) Troisième étape phase (ou ère) hadronique
* De 10-32 à 10-4 seconde.
* Caractéristiques : à un millième de milliardième (10-12) de seconde après l’origine, l’univers a beaucoup grandi, puisqu’il occupe maintenant un espace à peine plus petit que l’orbite de la Terre autour du Soleil. Il est très dense (1012 plus que le noyau d’un atome) très chaud (1015 ° K).
* Effets : Désormais les quatre forces se sont séparées : l’union de la force électromagnétique et de la force nucléaire s’est brisée.
De plus, maintenant, les hadrons sont découplés du rayonnement et la plupart d’entre eux se sont annihilés avec leurs antiparticules. En effet, la force nucléaire forte peut rassembler les quarks et les antiquarks trois par trois pour qu’ils constituent les hadrons, c’est-à-dire les protons et les neutrons. « Avec l’emprisonnement des quarks, l’univers entre dans l’ère hadronique et la matière franchit une nouvelle étape importante dans son ascension vers la complexité [21] ». L’univers est composé de leptons, d’hadrons et de photons.
4’) Quatrième étape phase (ou ère) leptonique
* De 10-4 seconde à 10 secondes.
* Caractéristiques : désormais, la température passe de mille milliards à 10 milliards de degrés K, et la densité de 1014 grammes par centimètre cube à la fin de l’ère leptonique où elle est désormais de 100 kilogrammes pour le même volume.
* Effets : Désormais, la composition de l’univers s’accroît de leptons.
5’) Cinquième étape phase (ou ère) radiative
* De 10 secondes à 1 million d’années.
* Caractéristiques : La température passe de 10 milliards à seulement (!) 10 000 °K.
* Effets : Le rayonnement prédomine, d’où le qualificatif de radiative donnée à cette ère.
Maintenant (entre 3 et 5 minutes environ), se produit la nucléosynthèse cosmologique primordiale. Nous voyons apparaître les premiers nucléons. En effet, par fusion thermonucléaire, à partir des neutrons et des protons se constituent les premiers noyaux atomiques : deutérium (2H) et hélium (4H). En conséquence aussi, des atomes neutres se forment et les photons sont libérés : ce sont eux qui vont former le rayonnement cosmique de fond.
L’univers commence à devenir transparent, car les photons sont piégés par les électrons tournant autour des noyaux.
6’) Sixième étape phase (ou ère) stellaire
Cette ère dure encore.
* Vers 1 milliard d’années après le Big Bang, des galaxies se forment. En effet, la disparition des électrons libres permet à la gravitation de l’emporter sur les forces électromagnétiques, donc sur la pression de radiation ; or, c’est la gravitation qui est la cause des galaxies et des étoiles.
* Vers 3 à 4 milliards d’années, les grandes étoiles de première génération sont formées.
* Au niveau microscopique, ces étoiles sont comme des grands haut-fourneaux ou des alambics où se réalise ce que l’on appelle la nucléosynthèse stellaire, c’est-à-dire la fabrication des éléments que nous connaissons aujourd’hui et appelés lourds sont ainsi produits (ils représentent seulement 2% de la masse totale de l’univers). « L’invention de l’étoile a sauvé l’univers à un double titre. Celui-ci dispose désormais des fours cosmiques dont il a besoin pour fabriquer en toute tranquillité les éléments chimiques nécessaires à la vie. Il échappe à la stérilité. Mais aussi, les étoiles sont […] des machines à fabriquer du désordre. Elles permettent à l’univers d’accéder à la complexité sans faire violence à la thermodynamique, qui veut que le désordre aille toujours croissant [22] ».
* Puis certaines de ces étoiles explosent, ce qui propage partout dans l’univers les éléments lourds. Et fabrication des étoiles de seconde génération, quelques 10 à 11 milliards d’années après le Big Bang. Notre soleil en fait partie.
Maintenant, il faudrait centrer l’histoire sur notre système solaire et sur notre terre avec les plus anciens fossiles (bactéries et algues bleues, à 3,5 milliards d’années), la formation de la plaque continentale à 3 milliards d’années, etc.
f) Interprétation
Il donne à penser, dirait Heidegger. Mais que donne-t-il à penser du point de vue de la philosophie de la nature qui est le nôtre ? [23]
1’) Du point de vue épistémologique.
a’) La valeur de vérité de la théorie
) N’oublions jamais que c’est une théorie et non un fait expérimental
) Remarque relative aux présupposés implicites de la doctrine
Jacques Merleau-Ponty en note, dans le désordre, un certain nombre. Un premier présupposé est le réalisme : « Lemaître croit à l’adéquation de la réalité naturelle et de la pensée scientifique ; la pensée physique atteint l’essence de l’Univers ». D’où une conséquence capitale : « le monde est fini et sa représentation est accessible à l’entendement humain [24] ». Cette finitude s’inscrit dans le temps et dans l’espace. À ce sujet, la critique qu’adresse Merleau-Ponty à la notion d’infini actuel considérée comme « équivoque [25]« ne me paraît guère pertinente.
Par ailleurs, Merleau-Ponty croit détecter de l’aristotélisme dans le principe mis en avant par Lemaître selon lequel le modèle d’univers qu’il propose refuse le vide. Lemaître dit en effet : « Tout se passe comme si la matière avait horreur du vide, comme si le vide exerçait une force répulsive sur la matière [26] ». Or, si la thèse est semblable à celle que défendait Aristote, les raisons divergent du tout au tout.
Notons en passant combien la réflexion de Lemaître s’intéresse à la question métaphysique de l’un et du multiple. C’est en percevant que la dégradation s’effectue de l’un vers le multiple qu’il a abouti à son modèle. Allons plus loin, une métaphysique pluraliste et perspectiviste comme celle qui régit implicitement la pensée de Nietzsche – sans parler de son thème de l’éternel retour – aurait été incapable de concevoir un tel modèle ; ici, la certitude de l’existence de Dieu (principe unique et originel), indépendamment de toute notion de création, rend le modèle bien plus aisé à concevoir.
Enfin, il me semble indéniable que Lemaître a été influencé par sa conception chrétienne, non pas peut-être, répétons-le, d’abord parce que cet état singulier initial serait comme « un équivalent physique de la création biblique », ainsi que le dit Merleau-Ponty [27], mais à cause de la conviction profonde d’une belle harmonie intelligible présente au réel (ce qui rejoint la thèse de John Needham). Concluant une conférence sur « La grandeur de l’Espace », M. l’Abbé Lemaître faisait monter son action de grâces vers « Celui qui a dit : Je suis la Vérité, qui nous a donné l’intelligence pour la connaître et pour lire un reflet de Sa gloire dans notre Univers qu’Il a merveilleusement adapté aux facultés de connaître dont Il nous a doués [28] ».
) Difficultés de perception
Avec le recul, nous ne percevons pas toujours combien il fut difficile de penser le modèle du Big Bang. « Avec le recul du temps, mille indices deviennent visibles que la science a dû franchir là un «obstacle épistémologique» de forte taille et que, sans doute, elle n’a pas fini de le franchir. Qu’il suffise, pour le moment, de noter non seulement l’acharnement insolite contre l’idée de l’expansion de savants de réputation mondiale dans leur spécialité, comme F. Zwicky, mais encore la réserve de l’inventeur du «red-shift», du grand Hubble [29] ».
C’est ainsi que certains ont proposé d’expliquer les décalages vers le rouge comme un mécanisme de fatigue de la lumière, c’est-à-dire des photons. Ce qui signifierait que les photons auraient une masse non nulle. Agnès Acker se fait l’écho de cette théorie, sans y souscrire, pour dire que l’unanimité n’existe pas encore. Ce mécanisme conduit en tout cas à un modèle d’univers statique.
Notamment, l’invention de ce modèle a supposé que l’on renonce à l’idée, ou plutôt à l’imagination d’un univers où l’espace aurait précédé et comme conduit l’expansion de la matière. Dans ce nouveau modèle, l’espace croît avec la matière, ce qui est un retour à la notion aristotélicienne de lieu. « Ce mouvement d’expansion est, en réalité, très différent d’un mouvement au sens ordinaire du terme. En effet, dans le cas d’un mouvement ordinaire d’un objet, celui-ci se déplace par rapport à son environnement immédiat. Rien de tel dans le cas du mouvement d’expansion de l’Univers : une galaxie ne se déplace pas par rapport à la matière voisine, car celle-ci est animée du même mouvement d’expansion [30] ».
C’est ce que disait déjà Lemaître : « Cette expansion ne doit pas être conçue comme une expansion dans quelque chose ; il n’y a rien d’autre que l’espace, c’est une expansion interne, une séparation progressive uniforme de tous les objets qui s’y trouvent. C’est une variation de la grandeur de l’espace [31] ». La notion de lieu est l’un des enjeux de la notion de Big Bang.
b’) Sens de la résistance à la reconnaissance du modèle de Lemaître
Steven Weinberg se demande : « Pourquoi dut-elle [la détection du fond cosmique du rayonnement] dut-elle se produire accidentellement ? Autrement dit, pourquoi la recherche systématique de ce rayonnement ne fut-elle pas entreprise des années avant 1965 [32]? » Pourquoi « la recherche du fond de rayonnement radio à 3 degrés K fut sous-estimée dans les années cinquante et au début des années soixante [33]» ?
Weinberg y voit trois raisons. La première est d’ordre scientifique : Gamow et Cie « travaillaient dans le cadre d’une théorie cosmologique du big bang assez rudimentaire » qui n’était pas satisfaisante.
La seconde raison est d’ordre technique : Gamow et ses collègues ne pensaient pas qu’il fût possible de détecter le rayonnement dit fossile, car « la radioastronomie était encore dans son enfance ».
Mais la troisième raison est d’ordre extra-technoscientifique, d’ordre philosophique : « et c’est, je crois l’essentiel » : « il était alors extrêmement difficile aux physiciens de prendre au sérieux une quelconque théorie du commencement de l’univers. (Je le dis entre autres en me remémorant mon propre point de vue avant 1965.) » Ainsi « le mérite de Gamow, Alpher et Herman réside avant tout dans leur volonté, dès cette époque, de prendre au sérieux le problème du commencement de l’univers », même s’ils n’ont pas été jusqu’au bout. Conséquence : « Ce que la découverte finale, en 1965, du fond de rayonnement à 3 degrés K accomplit de plus important fut de nous forcer à prendre au sérieux l’idée qu’il y a eu effectivement un commencement de l’univers ».
Et Weinberg de conclure plus généralement que cet « épisode de l’histoire des sciences des plus instructifs. Il est normal qu’une part si grande de l’historiographie de la science soit consacrée à ses succès, avec d’extraordinaires découvertes, de brillantes déductions, ou les grands bonds magiques d’un Newton ou d’un Einstein. Mais je pense qu’il est impossible de comprendre vraiment ces succès sans comprendre aussi combien ils furent difficiles, sans réaliser qu’il est tellement facile d’être induit en erreur, et à tout moment si difficile de faire le pas suivant ».
Traduisons en termes philosophiques : alors que la première raison relève d’un déficit du discours scientifique, la seconde vient d’un cloisonnement des discours (blessure par morcellement), et la troisième d’une blessure typique de l’intelligence scientifique par refus d’un discours philosophique, ou plutôt par refus des conséquences métaphysiques. Le discours scientifique n’est donc jamais neutre. Le signe d’alarme eût dû être les résistances, l’incapacité à envisager sérieusement une théorie à cause de ses présupposés métaphysiques voire religieux : la possibilité d’un commencement. On voit aussi l’influence de la vision mécanique newtonienne : l’univers, comme le temps, doivent être infinis.
2’) Du point de vue de la philosophie de la nature
Le passage de la singularité initiale à l’Univers dans son déploiement actuel est un passage de l’unité au multiple [34].
3’) Du point de vue de la foi en la création
Il faut éviter deux erreurs : croire que cette théorie prouve trop ou trop peu.
) Excès de sens
« Beaucoup de physiciens (dont Einstein et Hawking), d’astronomes et un ensemble impressionnant de vulgarisateurs ont cru ou croient encore que la singularité initiale doit être rejetée, non pas pour des raisons mathématiques ou physique, mais parce qu’elle serait liée nécessairement à une interprétation théologique. Celle-ci verrait dans le Big Bang le «moment» de la création [35] ». Il est incontestable que certains apologistes ont voulu récupérer la théorie de l’atome primitif à des fins théologiques [36]. n ne peut que regretter ces confusions.
Prigogine et Stengers se sont fermement opposés à une certaine interprétation du Big Bang en termes de création ex nihilo. Pour eux, le Big Bang standard serait une explosion d’entropie à partir de laquelle s’engage un processus de construction de matière lié à l’expansion de l’Univers qui ne dure qu’un temps. En effet, ce processus est susceptible de se reproduire : « En ce cas nous pourrions conférer à l’éternité de l’Univers une nouvelle signification, celle d’une succession d’explosions entropiques qui se renouvellent au cours du temps [37] ». « L’univers serait une création continue, succession infinie d’Univers naissant partout et allant vers l’infini [38] ».
Je crois qu’ils ont raison. « La théorie du big bang concerne donc le commencement de notre univers. Elle peut tout au plus prétendre décrire un état de la matière à un instant donné, au-delà duquel la science peut éventuellement espérer remonter en s’approchant de façon infinitésimale de l’instant t° (commencement absolu), mais sans jamais pouvoir l’atteindre. Le «point singulier» à partir duquel est décrit le big bang est l’instant initial d’un modèle mathématique, et non l’instant créateur. D’autre part, ce qui explose au moment du big bang est «quelque chose». La science, en raison de sa méthode, raisonne sur un donné expérimental, sur quelque chose qui existe, mais ne peut rien dire de l’apparition à l’être de ce «quelque chose». À supposer que la théorie du big bang corresponde à la réalité, on ne peut donc s’en servir comme preuve d’un acte créateur [39] ».
) Défaut de sens
En revanche, cette théorie ne prouve pas non plus que la création n’existe pas « Que Dieu fasse surgir telles quelles du néant les étoiles, les planètes, la terre […] en un instant à l’autre, ou qu’il fasse surgir un élément primordial (le chanoine Lemaître l’appelait «l’atome géant primitif») où se trouvent concentrées toute la matière et l’énergie, avec les lois qui régleront son évolution au cours du temps – et donc la formation progressive des galaxies, des étoiles, des planètes, l’apparition de la vie […] exactement comme Il le veut –, dans un cas comme dans l’autre, c’est Dieu, cause première, qui appelle à l’existence tous les êtres. Il n’est pas moins créateur dans un cas comme dans l’autre, pas moins puissant non plus. Quand une automobile a été fabriquée par des machines-outils très sophistiquées dans une usine entièrement automatisée, elle semble être tout entière l’oeuvre de cette usine et non d’un homme. En réalité, l’usine (et ses machines) n’est qu’une cause instrumentale, une cause seconde. Il a bien fallu un ingénieur pour concevoir et l’automobile et l’ensemble des machines qui mettent en oeuvre le processus de fabrication [40] ».
Au total, respectons les domaines.
) En vérité
D’une part, il est très clair que la théorie du Big Bang n’est pas une preuve de la création. Différentes autorités l’ont montré, notamment le père Sertillanges [41] et surtout Mgr. Georges Lemaître [42]. Ce dernier distingue soigneusement commencement ontique et commencement naturel de l’Univers. Le premier relève de la métaphysique et de la théologie. Le second, en revanche, appartient au domaine de la rationalité scientifique. En effet, ce commencement correspond à l’état dans lequel l’Univers est réduit à un seul quantum a-tomique, l’atome primitif, à partir duquel, ultérieurement, les quanta se multiplieront, par désintégration de l’état initial. Or, cet atome primitif présente différentes caractéristiques quantitatives : thermodynamiques, à savoir son entropie (ou quantité de désordre) minimale, quantiques, à savoir qu’il est un quantum et relativistes comme singularité initiale. Ces caractéristiques sont tirées de l’observation empirique (les trois faits fondamentaux relevés auparavant) et sont analysées en termes mathématiques (par un tenseur de Weyl nul, une courbure infinie). Or, ces données empirico-formelles relèvent de la science. C’est donc que la notion de commencement temporel est une notion strictement scientifique. Lemaître a donc montré la pertinence d’ordre strictement physique de la notion d’atome primitif et de commencement temporel ; de ce fait, il a aussi montré l’autonomie réelle de la science à l’égard des recherches philosophiques et théologiques.
Le raisonnement peut encore préciser. Il suffit pour cela de partir de saint Thomas qui distingue soigneusement la création qui est relation des étants à l’Etre premier et son commencement temporel. Or, estime Thomas, seule la Révélation peut nous apprendre que l’Univers créé possède un commencement temporel [43]. On doit être encore plus précis en traitant du commencement temporel. En effet, celui-ci présente deux aspects : l’un, métaphysique qui est l’inauguration de la relation créatrice, surgissement du monde dans l’être et qui échappe à toute représentation temporelle et géométrique – on l’appellera commencement ontique – et le second, physique qui est le commencement physique, repérable, à la limite datable, dans le temps et qui seul mérite d’être appelé commencement temporel. Par conséquent, « En initiant un débat qui manifeste la différence entre les notions de commencement naturel et de commencement ontique, d’une part, et celle qui existe entre cette dernière notion et le concept de création, d’autre part, nous libérons la science de toute inhibition philosophique par rapport à l’étude des singularités initiales, mais, du même coup, nous libérons aussi la théologie d’une fascination excessive pour les questions d’origine [44] ».
D’autre part, « cependant, le commencement naturel peut être interprété comme une trace (vestigium) matérielle d’un commencement ontique [45] ».
g) Variantes et objections
L’homme doit toujours en apprendre plus sur l’univers.
En 1972 et en 1973, les sondes Pioneer 10 et Pioneer 11 ont quitté la Terre pour explorer les planètes géantes du système solaire. Les résultats, validés par quinze années de moissons de données, provoquent une grande surprise : la mesure des signaux provenant de ces sondes révèle un décalage vers les grandes longueurs d’ondes, donc une accélération. Précisément une accélération résiduelle dirigée vers le soleil d’une intensité dix milliards de fois inférieure à l’accélération de la pesanteur terrestre. La différence est faible, mais réelle. Et aucune cause habituelle de perturbation (la gravitation des petits objets situés au-delà de l’orbite de Pluton appartenant à la ceinture de Kuiper ou la gravitation de la Galaxie) ne peut l’expliquer.
Deux hypothèses ont été émises : 1. l’influence gravitationnelle de la matière noire invisible ; mais celle-ci est répartie de manière sphérique autour du Soleil, de sorte qu’elle ne devrait pas produire d’accélération constante vers lui. 2. serait-ce alors que les lois physiques fondant l’Univers ne seraient pas universelles ? [46]
2) Le terme de l’univers ou l’hypothèse du principe anthropique
a) Introduction
Passons maintenant de l’alpha à l’oméga, du principe au terme. L’astrophysique et l’astronomie sont aussi en train d’accumuler des données révolutionnaires.
Il y a dans l’univers un ordre admirable et on comprend la tentation de mécanisme pour qui, à partir d’un point de départ unique, tout vient. Mais cette perspective n’explique pas tout, comme certains chercheurs ont tenté de le théoriser, dans ce qui constitue l’une des plus originales théories de cette fin du siècle : le principe anthropique [47].
Reprenons le problème de la constitution de l’univers et relevons quelques faits. L’univers, dans les premières phases, avant l’invention des étoiles, a pu fabriquer les premiers nucléons, c’est-à-dire l’hydrogène et l’hélium.
– Peut-il aller plus loin ? Par exemple, pour fabriquer du carbone, composant élémentaire de la vie, il faut assembler trois atomes d’hélium : l’univers ne le pourrait-il pas ? En droit, sans doute. Mais de fait, « il est très difficile de réunir ensemble, par hasard, trois noyaux d’hélium. Il faut du temps. Temps dont ne disposait pas l’univers en expansion [48] ».
– Plus encore, l’étoile permet de fabriquer, de générer les éléments (nucléons) lourds, de masse inférieure à celle du fer (poids atomique = à 60). En effet, la destinée des étoiles montre qu’elle naît; vit et meurt (la métaphore est patente, et pourtant tout le monde parle ainsi). Or, lorsque l’étoile a épuisé ses réserves d’hydrogène, le rayonnement centrifuge ne peut plus contrebalancer la force gravifique centripète. Elle va donc se contracter et sa densité ainsi que sa chaleur va beaucoup augmenter. Ces conditions physiques autorisent le rapprochement et la fusion des éléments. À 100 millions de degrés, le carbone peut apparaître. Notons cette remarque finaliste : le rapprochement des atomes d’hélium en carbone « s’accomplit parce que la nature s’est arrangée pour que la masse d’un noyau de carbone soit très proche de la masse de trois noyaux d’hélium [49] ». Mais ce n’est pas terminé. En fait, la masse du carbone étant légèrement inférieure à celle de 3 hélium, la différence de masse est convertie en rayonnement qui va de nouveau s’opposer à la force gravitationnelle : la contraction stellaire, dès lors s’arrête, il y a expansion ; la combustion de l’hélium en lequel s’est transformé l’hydrogène une fois brûlé et qui s’est accumulé dans son cœur se libère. L’étoile devient une géante rouge. Mais la combustion de l’hélium ne dure que 300 millions d’années, 30 fois moins que la période de combustion de l’hydrogène en hélium. À la fin de cette période, de nouveau, la gravité l’emporte et on assiste à une nouvelle et plus importante contraction. La température atteignant les un demi milliards de degrés, on voit apparaître, selon un cycle bien étudié en chimie, des éléments plus complexes, comme l’oxygène, le sodium, le magnésium, l’aluminium, le silicium, etc. Le silicium qui se consume donne du fer, du cobalt et du nickel. Nous n’entrerons dans le détail des réactions en chaîne. Et c’est ces combustions successives d’éléments plus complexes qui permettent à l’étoile de ne pas s’effondrer sur elle-même. « Les événements vont en s’accélérant et les cycles prennent de moins en moins de temps. Plus d’une vingtaine de nouveaux éléments chimiques verront le jour en quelques millions d’années [50] ».
Qui a traité de hasard, cet admirable enchaînement de phénomènes ?
– Mais il demeure un dernier stade, et non des plus faciles. En effet, l’étoile engendre les éléments jusqu’à l’apparition du fer 56. Et « les événements se gâtent avec l’arrivée du fer. L’étoile est stoppée net dans son élan. Elle ne peut aller plus loin. Le fer 56 ne peut être utilisé comme combustible. Il ne peut fournir de l’énergie à l’étoile et l’aider dans son combat contre la gravité ». Tous les gains antérieurs risquent d’être perdus. De plus, la vie, l’homme requièrent l’apparition d’éléments plus lourds. D’abord pourquoi cela ? Sans rentrer dans le détail, remarquons que jusqu’au fer, dans les différentes combustions qui sont des fusions atomiques, la masse du produit final est toujours inférieure à la somme des masses des noyaux d’atomes entrant en fusion. C’est le principe même de la bombe à fusion. Ainsi, la fusion de quatre atomes d’hydrogène donne l’hélium et le maximum d’énergie. Or, à partir du fer, la masse du produit final est supérieure à la somme des masses des noyaux fusionnant, ce qui signifie que la fusion est désormais du gaspillage ; or, l’étoile est en manque d’énergie. Elle s’arrête donc de rayonner.
Les éléments de poids atomique supérieur à 56 ne peuvent être formés que dans les supernova, destin des étoiles de première génération. Voilà pourquoi nous sommes, selon la belle expression d’Hubert Reeves, de la « poussière d’étoiles ».
Objection : la lumière n’est apparue qu’après trois cent mille ans. Ce phénomène capital s’appelle « découplage de la lumière ».
Il demeure que la séparation de la force électromagnétique, des autres forces s’est opéré bien avant.
Ensuite, que faire ? Que va inventer la nature pour s’en sortir ? La gravité peut désormais prendre le contrôle absolu de l’étoile et la tuer en la comprimant définitivement. Tout va maintenant dépendre de la masse de l’étoile qui décidera du devenir. Si sa masse est inférieure à 1,4 fois la masse du soleil (ce qui est le cas le plus fréquent), c’est une euthanasie au sens propre du terme, une mort douce (cf. les ouvrages d’astronomie pour le détail). Si la masse est comprise entre 1,4 et 5 masses solaires (c’est le cas d’une étoile sur 1000), il se produit un effondrement très rapide, de l’ordre de la fraction de seconde ; le noyau peut atteindre 1 milliard de tonnes par centimètre cube ; d’où échauffement et fulgurante explosion qui atteint la brillance de 100 millions de Soleils et qui donne ce que l’on appelle une supernova (dont l’observation à l’œil nu est extrêmement rare). Puis, de nouveau implosion et apparition de ce que l’on appelle un pulsar. Enfin, que devient l’étoile qui est plus massive que 5 Soleils. L’effondrement est encore plus violent et donne ce que l’on appelle un trou noir.
Or, la supernova présente deux intérêts considérables. D’abord, son énorme énergie permet de poursuivre le processus alchimique interrompu dans les étoiles de « seconde zone » : « Le noyau de fer, le plus stable de tous les éléments, refusait de s’unir à d’autres particules pour se complexifier, à moins qu’on ne lui donne de l’énergie. Cette énergie, la supernova en a à revendre. Près d’une soixantaine d’éléments vont naître au cours de l’explosion ». Ainsi vont apparaître l’or et l’argent, ainsi que l’uranium. Bref, les 92 éléments de la table de Mendéléïev sont créés. D’autre part, la supernova va accomplir une seconde bonne œuvre : elle expulse tous ses produits de cuisson : « avec son énergie fantastique, elle lance dans l’espace interstellaire électrons, protons et autres noyaux nés de l’alchimie créatrice de l’étoile. Mues par une vitesse presque aussi grande que celle de la lumière, certaines de ces particules vont entreprendre un long voyage interstellaire, traversant la galaxie de part en part. Dans la Voie lactée, ces particules voyageuses vont un jour rencontrer la Terre [51] ».
Ainsi donc, non seulement nous pouvons connecter de la manière la plus passionnante l’infiniment petit (l’apparition d’atomes de poids inférieurs et supérieurs à 56) et l’infiniment grand (cette nucléosynthèse au sein des étoiles de grande taille), mais cette connexion relève à la fois du mécanisme et du finalisme.
– Notons enfin, toujours à la suite de Trinh Xuan Thuan une autre réjouissante remarque finaliste qui précise le dernier apport de la supernova : « La nature imagine la planète. Pour bâtir cette dernière, elle se sert des poussières interstellaires disséminées dans le nuage [52] », et c’est pour cela que Hubert Reeves a intitulé l’un de ses ouvrages du nom poétique de Poussières d’étoile : nous sommes des poussières d’étoile (mais nous ne sommes pas que cela, ce que nos astrophysiciens ont du mal à percevoir, par réductionnisme de méthode qui se transmue en réductionnisme ontologique).
– Autant d’événements appartenant à un unique et grandiose scénario que la simple observation ne semble pas pouvoir attribuer au hasard. Mais de manière plus globale, l’univers manifeste sa finalité dans ce que l’on appelle aujourd’hui le principe anthropique.
b) Historique
Historiquement, il y a différentes préparations à ce principe. Certaines sont lointaines, comme la nécessaire existence des trois dimensions [53]. En effet, si le nombre des dimensions était inférieur à trois, il ne pourrait exister des organismes doués de complexité et donc des systèmes nerveux suffisamment développés ; s’il était supérieur à trois, il n’existerait pas d’atomes stables ni d’orbites planétaire, et les êtres organiques ne pourraient exister. C’est Whitrow qui le notait, dès 1955 [54].
On trouve une première mise en forme plus globale chez Dicke, en 1961 [55]. Celui-ci s’interroge, après beaucoup sur la place de l’homme dans l’univers et constate qu’il existe une disproportion entre l’échelle humaine et l’échelle cosmique, de l’ordre de 1025, ce qui est vertigineux. On comprend donc qu’un regard simplement quantitatif ait fait de l’homme une quantité négligeable (cela rappelle certaines problématiques relatives à l’avortement […] : il faudrait étudier quel imaginaire sous-tend les prises de position anthropologique et éthique dans ce domaine). S’interrogeant sur cette question, il remarque aussi la coïncidence entre les grands nombres, constatation déjà faite par Eddington. Seule explication : cette coïncidence serait caractéristique de tout Univers abritant des observateurs et susceptibles d’être étudié par eux. C’est notre présence comme êtres humains et vivants qui explique la taille et les constantes de l’Univers.
Une dizaine d’années plus tard, l’astrophysicien Carter reprenait et approfondissait les idées de Dicke et les codifiait en un postulat du nom de Principe Anthropique : il l’écrivit en 1967 et le publiait en 1974. Il lui donnait ses deux formulations classiques, la seconde contenant un « doit » signifiant l’intervention d’un devoir physique, d’une finalité.
c) Énoncé
Contrairement à la théorie du Big Bang qui fait l’unanimité, ce principe anthropique demeure discuté, notamment pour des raisons d’ordre extra-scientifique et fortement idéologisées. « Quand nous regardons l’univers et identifions les nombreuses coïncidences physiques et astronomiques qui ont collaboré à notre profit, il semble presque que l’univers a dû savoir, en un sens, que nous allions venir [56] ».
Plus précisément, ce principe se présente sous deux formulations :
– Principe anthropique faible : « Les valeurs observées de toutes les grandeurs physiques et cosmologiques ne sont pas également probables, mais ces grandeurs prennent des valeurs soumises à la double restriction suivante : il faut qu’il existe des sites où puisse évoluer une vie basée sur le carbone et il faut que l’univers soit assez vieux pour avoir déjà donné lieu à une telle évolution ».
– Principe anthropique fort : « La présence d’observateurs dans l’univers impose des contraintes non seulement sur leur position temporelle mais aussi sur l’ensemble des propriétés de l’univers [57] ». La présence du « impose », ou, parfois du « doit », implique la mise en jeu d’une autre notion : nous passons du fait au droit.
Autrement dit, pour le premier principe, l’homme est effet, pour le second il est finalité.
Carter énonce ainsi la leçon essentielle du principe anthropique qui paraît être celle-ci : si l’univers présente les traits que nous lui connaissons, c’est à cause de notre propre existence. Cogito ergo mundus talis est ! [58]
d) Résumé du raisonnement et prémisses scientifiques
Suivons pour une part l’exposé du physicien Trinh Xuan Thuan [59], en détaillant chaque pas du raisonnement. En fait, il serait plus rigoureux de distinguer entre les faits d’ordre scientifiques admis par la grande majorité et leur interprétation qui relève d’un autre ordre de doctrine, en l’occurrence philosophique.
1’) Premier pas l’univers est construit à partir de quelques grandes constantes universelles.
« Combien faut-il de «nombres» pour décrire l’univers ? Notre connaissance actuelle nous dit qu’il faut un peu plus d’une dizaine. De même que G dicte la force de gravité, il y a deux autres paramètres numériques qui contrôlent l’intensité des forces nucléaires forte et faible. Il y a ensuite c, la vitesse de la lumière et la plus grande dans l’univers. Puis vient h, la constante dite de Planck […], qui dicte la taille des atomes. […] Avons-nous répertorié tous les «nombres» de la nature ? Nul ne le sait [60] ».
Les constantes cosmologiques sont moins de quinze, et toutes sont connues avec une remarquable précision. Par ailleurs, elles sont irréductibles les unes aux autres, non déductibles.
2’) Second pas ces variations sont extrêmement ajustées.
Autrement dit, une variation infime de ces constantes interdiraient l’apparition de l’homme :
a’) L’ajustement des constantes universelles
L’un des arguments les plus simples est donné par Hoyle, il y a déjà une trentaine d’années : le carbone est indispensable à la vie ; or, le carbone ne peut être fabriqué que dans les étoiles assez évoluées pour brûler de l’hélium à 100 millions de degrés. Ce qui est possible selon la constante de couplage des interactions fortes ; si elle eût été un tout petit peu différente, le carbone n’aurait pas pu être fabriqué en quantité appréciable et les êtres vivants n’auraient pas pu apparaître.
On pourrait aussi être saisi d’admiration à l’idée que les planètes, et la terre en particulier, aient la taille qu’elles ont. En effet, une planète doit avoir une taille suffisamment importante pour posséder une atmosphère gazeuse ; mais si d’aventure sa taille était trop élevée, la pression interne deviendrait suffisante pour engendrer des réactions thermonucléaires, ce qui transformerait cette planète en étoile. Néanmoins, contrairement aux apparences, ce fait ne résulte pas d’un heureux concours de circonstances : la taille des planètes est une conséquence inévitable d’un équilibre entre deux forces antagonistes : l’attraction gravitationnelle et la répulsion électromagnétique. De même, la taille des organismes vivants, qui est un paramètre crucial en ce qui concerne leurs caractéristiques qualitatives et quantitatives, est fixée inéluctablement, quant à son ordre de grandeur du moins, par des équilibres du même type. Cela signifie que tous les facteurs nécessaires pour le développement de la vie ne sont pas indépendants : certains d’entre eux se ramènent à d’autres constantes de la nature. Le nombre de facteurs indépendants, de constantes fondamentales de la nature actuellement connues s’élève à une quinzaine. La liste comprend les quatre constantes de couplage, la vitesse de la lumière, la constante de Planck, la masse du proton et celle de l’électron, la charge de l’électron et quelques autres [61]. Il convient donc de faire la distinction entre les coïncidences réelles et les coïncidences apparentes, entre les « possibles absolus » et les simples conséquences, entre les constantes fondamentales et les constantes dérivées. La science s’attache d’ailleurs à réduire la liste des constantes fondamentales ; elle est à la recherche de théories plus englobantes, capables de réduire le nombre de degrés de liberté de nos modèles d’univers.
Si la constante de gravitation changeait d’une infime décimale, la Terre se met à tourner autour du Soleil en une vingtaine de jours et les montagnes ne mesureront plus que quelques centimètres, écrasées par la force gravitationnelle.
« Une modification d’un milliardième de milliardième de la charge électrique de l’électron par rapport à celle du proton provoquera l’explosion de toutes les étoiles… » La masse du neutron est supérieure d’un millième environ par rapport à celle du proton. L’inversion du rapport entraînerait une combustion très rapide du neutron et l’extinction de toutes les étoiles.
De même, les niveaux d’énergie permettant l’apparition de deux atomes indispensables à la vie, le carbone et l’oxygène, sont aussi ajustés avec une extrême précision. En effet, pour obtenir de l’oxygène, il faut que deux noyaux d’hélium donnent, par fusion, du béryllium ; or, le temps de vie de ce dernier est de 10-15 seconde. Puis, après ce stade intermédiaire, le béryllium se lie avec un autre noyau d’hélium et donne du carbone. Enfin, ce dernier, avant d’être consommé, se lie avec un nouvel atome d’hélium pour obtenir de l’oxygène. Il reste juste ce qu’il faut d’oxygène et de carbone pour que la vie puisse jaillir. Qui a parlé de miracle ? [62]
Voici d’autres exemples d’ajustement des constantes universelles.
« Les nombres de la nature gouvernent notre vie quotidienne [63] ». L’auteur le montre de manière inductive. Prenons l’exemple de la gravité. « En raison de la petitesse de G, la gravité n’intervient pas tant que la masse de l’objet ne dépasse pas 100 milliards de milliards de tonnes (1026 grammes), ce qui est le cas de presque toutes les choses de la vie. Au-delà de cette masse, la force gravitationnelle est assez grande pour avoir son mot à dire. Elle n’aime que les formes sphériques et transforme toute masse supérieure à 1026 grammes en sphères que nous appelons planètes. Nous l’avons échappé belle [64]! »
La modification d’une seule de ces constantes n’aurait pas permis à l’univers tel que nous le connaissons d’apparaître.
Conclusion : « Ainsi, une quinzaine de constantes physiques déterminent le paysage qui nous entoure. […] Mais le plus extraordinaire, ce sont aussi les constantes physiques, conjuguées aux conditions initiales de l’univers, qui ont permis l’éclosion de la vie et l’apparition de la conscience et de l’intelligence. L’existence de la vie dépend d’un équilibre très précaire et d’un concours de circonstances extraordinaires. Modifiez un tant soit peu les paramètres numériques ou les conditions initiales, et l’univers sera complètement différent et nous n’existerons plus [65] ». Bref, « la vie telle que nous la connaissons n’aura aucune chance de surgir dans un univers un tant soit peu différent du nôtre [66] ».
Jacques Démaret évoque en deux tableaux les conséquences anthropiques de minimes changements dans les constantes fondamentales [67] et dans les autres propriétés de l’univers [68].
b’) Coïncidences d’ordre microphysique[69]
Nous ne serons pas exhaustifs, mais suggestifs.
– « L’isotropie et l’homogénéité à grande échelle de l’univers sont extrêmement élevées. Ce fait est remarquable pour deux raisons : premièrement, parce qu’on aurait pu s’attendre a priori à ce que l’univers présente un degré élevé de turbulence, de cisaillement ou de rotation [70] ; deuxièmement, parce que si cela avait été le cas, nous ne serions pas là pour en parler, car un univers trop chaotique et désordonné se serait réchauffé sous l’action de phénomènes dissipatifs, au point d’empêcher la formation des galaxies. Il a cependant fallu, dès le départ, un très léger degré d’inhomogénéité au plan local : ce sont ces petites irrégularités initiales qui se sont amplifiées lors de l’expansion, jusqu’à former des entités stables, gravitationnellement liées. L’homogénéité ne pouvait cependant pas être trop grande sous peine de voir les non-uniformités se condenser prématurément en trous noirs. Ces grandeurs présentent donc toutes les apparences d’un réglage extrêmement minutieux.
– « L’entropie par baryon est une autre condition aux frontières qui ne peut pas prendre n’importe quelle valeur, sous peine de conséquences dramatiques. Une valeur plus élevée aurait rendu difficile la formation des galaxies, une valeur plus faible aurait entraîné une formation excessive d’hélium et d’éléments lourds.
– « On l’a vu, le destin cosmique est conditionné dans ses grandes lignes par la densité de matière, qui s’exprime corrélativement par la valeur de la courbure de l’univers. Dire que notre univers est plat (courbure nulle) ou que sa densité avoisine la densité critique, c’est énoncer des propositions équivalentes. Ici à nouveau, nous sommes en présence d’un « réglage » très fin. Une densité trop élevée condamnerait l’univers à une vie brève, et l’on sait que pour que l’univers puisse un jour abriter la vie, il doit connaître une existence suffisamment longue. Mais dans un univers de faible densité la matière serait trop diluée, ce qui à nouveau préviendrait la formation des galaxies. Cette coïncidence paraît encore plus étonnante quand on réalise que, dans notre univers en expansion, la densité augmente avec le temps : cela signifie que l’écart relatif entre la valeur réelle et la valeur critique, au commencement, n’a pas dû dépasser 10-12 !
« On a déjà mentionné que le taux d’expansion de l’univers est étonnamment proche du taux critique. Ce fait n’est pas anodin, si l’on songe que le cycle d’expansion-contraction doit être suffisamment long pour permettre la genèse de tous les éléments nécessaires à la vie. Le très faible niveau d’inhomogénéité requis pour la formation des galaxies se traduit ici par un réglage d’une précision stupéfiante : «l’écart du taux d’expansion de l’univers à ses débuts (au temps de Planck) 10-40 [71]». Et l’astrophysicien chinois d’en donner une image parlante : «On pourrait comparer la précision de ce réglage à l’habileté d’un archer qui réussirait à planter sa flèche au milieu d’une cible carrée de un centimètre de côté, éloignée de quinze milliards d’années-lumière, la taille de l’univers…» (Ibid.).
– « A titre de rappel, mentionnons enfin la question de l’asymétrie initiale entre la matière et l’antimatière, déjà évoquée plus haut. Si les quantités de quarks et d’antiquarks avaient été identiques dans l’univers primordial, elles se seraient mutuellement annihilées, «laissant un univers empli de rayonnement, mais sans guère de matière. Il n’y aurait alors eu ni étoiles, ni planètes sur lesquelles la vie aurait pu se manifester [72].» La difficulté est que l’excédent initial de matière, celui qui subsiste encore à l’heure présente, était minuscule : sur la base du rapport actuel entre les photons et les protons, on estime que l’excédent relatif devait être voisin de 10-9 ! rappelons toutefois qu’une alternative existe : cette asymétrie étonnante pourrait être non pas une condition initiale mais la conséquence de phénomènes physiques ultérieurs, d’interactions violant la conservation du nombre baryonique, et qui sont étudiées par les théories de grande unification ».
– « Chacune des quatre interactions physiques fondamentales est caractérisée par un nombre sans dimension qui en décrit l’intensité et qui est appelé constante de couplage. La constante de couplage gravitationnelle, par exemple, vaut 10-39, nombre qui lui a valu d’être impliquée dans la réflexion sur les grands nombres adimensionnels. La physique est actuellement dans l’incapacité d’expliquer pourquoi cette constante devrait prendre une valeur d’un tel ordre de grandeur ; elle ne peut que constater qu’il en est ainsi. Or cette constante donne encore une fois l’apparence d’avoir été minutieusement choisie pour permettre l’apparition de la vie ; elle joue un rôle crucial quant à la structure des planètes, des étoiles, des galaxies et de l’univers. Si l’intensité de la force gravitationnelle avait été plus élevée, la formation des planètes aurait été rendue impossible. En outre, les réactions nucléaires au cœur des étoiles surchauffées par la pression de matière se seraient déroulées à une allure beaucoup trop rapide. La durée de vie des étoiles aurait été trop petite par rapport au temps nécessaire pour que la vie se développe. Par contre, si la gravité avait été plus faible, elle n’aurait pas causé l’effondrement des nuages interstellaires sous leur propre poids, interdisant ainsi la formation des étoiles et la production des éléments lourds. Le même genre d’argument s’applique aux constantes de couplage de la force nucléaire faible, de la force électromagnétique et de la force nucléaire forte ».
– « Le principe d’exclusion de Pauli joue un rôle capital dans la nature. Il garantit l’existence de la structure étagée des électrons, qui rend compte des propriétés chimiques dans leur grande diversité. Si le monde n’obéissait pas au principe d’exclusion, l’existence même des particules élémentaires serait mise en péril, les quarks ne pouvant former de neutrons et de protons bien définis, et s’effondrant «pour former une soupe grossièrement uniforme et dense [73]» ».
– « Il n’est pas non plus anodin que notre univers soit soumis au second principe de la thermodynamique. D’après Poincaré, la vie intelligente serait probablement impossible dans un monde où l’entropie décroîtrait avec le temps. Dans un tel monde, les prédictions seraient impossibles, de même que l’action intelligente. Dans le même ordre d’idées, Hawking estime que si nous sommes actuellement dans une phase d’expansion plutôt que de contraction, c’est parce que «les conditions dans une phase de contraction ne seraient pas adaptées à l’existence d’être intelligents», car «une flèche thermodynamique forte est nécessaire à la vie intelligente, qui consomme de l’ordre et produit du désordre [74]».
– « Il est frappant de constater que le proton et l’électron, en dépit de leurs masses très différentes, possèdent exactement la même charge électrique. Si ces charges différaient même modérément, les atomes d’hydrogène auraient une charge totale non nulle, et se repousseraient mutuellement, contrecarrant ainsi la force d’attraction gravitationnelle jusqu’à empêcher la formation des étoiles, et par conséquent la genèse stellaire des éléments lourds.
– « Selon Hawking [75], le récente théorie dite « des cordes » pourrait nécessiter l’existence d’un espace-temps à dix, voire à vingt-six dimensions, certaines d’entre elles étant « ouvertes », d’autres fortement « enroulées ». L’argument précédent prend alors la forme suivante : « la vie telle que nous la connaissons, ne peut exister que dans les régions de l’espace-temps dans lesquelles une dimension du temps et trois dimensions de l’espace ne sont pas fortement enroulées sur elles-mêmes [76] ».
À ce propos, on peut se demander quelle serait la signification anthropique de la coïncidence suivante, relevée par Douglas Hofstadter : le nombre de configurations possibles du Rubik’s cube s’élève à 1020 ! [77]
c’) Coïncidences d’ordre macroscopique, astronomique
Pour qu’il y ait de la vie, il faut beaucoup d’information. Or, l’information suppose de longues chaînes complexes porteuses de radicaux variés. Or, seul le carbone peut créer de telles chaînes. Or, le carbone ne se cuit que dans la marmite des étoiles puis doit se disperser et tomber sur des sites favorables à la vie. Or, ces sites ne doivent pas être trop chauds comme le plasma des étoiles. Ils ne peuvent donc être que des planètes.
Mais quelles planètes ? D’abord, les planètes doivent avoir des orbites stables. Mais les étoiles doubles perturbent ces orbites ; or, la moitié des étoiles sont doubles.
De plus, la planète doit être stable, à bonne distance pendant une fort longue durée. Au moins 3,8 milliards d’années.
Ensuite, la planète doit être ni trop froide comme Uranus ni trop chaude comme Mercure. Certes, les bactéries s’adaptent à des températures extrêmes, mais tel n’est pas le cas des formes de vie évoluées.
En outre, la vie suppose qu’il n’y ait qu’un minimum d’impacts météoritiques et de petits calibres : sinon, on assiste à des phénomènes types Deep Impact ou Armageddon avec ce que l’on appelle un hiver nucléaire. Or, les calculs de mécanique céleste montrent que les rencontres d’astéroïdes, de comètes sont très fréquents. La structure du système solaire est extrêmement particulière : elle entretient une sorte de résonance qui éjecte les astéroïdes indésirables hors du système.
Autre condition : la stabilité climatique. Or, celle-ci dépend de la permanence de la Terre sur son axe. On imagine en effet aisément combien une oscillation de cet axe entraînerait comme fonte des pôles et comme modification du climat. Or, on sait depuis 1996 que cette stabilité est assurée par la présence d’un énorme satellite, la Lune. Or, il est très rare que les planètes captent de gros satellites : le seul exemple du système solaire le montre.
Puis, il existe des contraintes précises de masse. Une vie évoluée suppose la présence d’oxygène. Or, seule une masse assez grande permet de conserver l’oxygène. Inversement, une masse trop imposante entraînerait une gravité qui écraserait les corps au sol. En effet, les contraintes de taille de la vie sont très grandes. Un King Kong ne pourra pas plus exister que, pour rester dans le même registre cinématographique, les enfants de Chérie, j’ai rétréci les gosses, un diplodocus kilométrique qu’une souris micrométrique. Car le métabolisme d’un vivant dégage une chaleur considérable liée à ses activités multiples ; or, c’est la peau qui, notamment, élimine, régule la chaleur. Mais la taille grandit selon la dimension 1, la surface (la peau) selon la dimension 2 et le volume (les activités biologiques selon la dimension 3. Voilà pourquoi un King Kong s’écroulerait vite par coup de chaleur et la souris micrométrique par réfrigération (l’énergie produite serait inférieure à celle qui serait rayonnée).
On pourrait continuer à aligner les contraintes. Chaque jour, les laboratoires qui font des simulations numériques comme celui de Meudon en trouvent de nouvelles. C’est ainsi qu’on aurait pu parler de la tectonique des plaques qui, par le biais du volcanisme, permet le recyclage du gaz carbonique nécessaire à la vie. Or, rares sont les planètes comportant ce système tectonique sur toute la surface.
Concluons. Aujourd’hui, on estime que, si le nombre totale d’étoiles est de 1022 (soit cent milliards de galaxies comportant chacune, étrange coïncidence, le même chiffre d’étoiles), il y a, dans la totalité de l’univers, quatre sites, c’est-à-dire quatre planètes qui pourraient accueillir la vie. Dit autrement. La probabilité d’un univers compatible avec une vie humaine est quasiment nulle : elle est semblable au choix d’un point sur une ligne droite !
En creux, les différentes conditions énoncées ci-dessus permettent de comprendre l’absence de vie sur Mars.
d’) Conclusion
Au terme d’un long calcul, Penrose montre que, pour permettre l’apparition d’une entropie raisonnable, le Créateur a dû viser avec une stupéfiante précision, lorsqu’il a créé l’univers : 10 élevé à la puissance 10 élevé à la puissance 123 !!
« Ce chiffre est évidemment époustouflant. Il est impossible à écrire, du moins en notation décimale habituelle : il faudrait écrire 0, suivie de 10123 zéros (moins 1). Même si on écrivait un «0» sur chaque proton et sur chaque neutron que contient l’Univers – et même, pour faire bonne mesure, sur toutes les particules de l’Univers – on n’en viendrait pas à bout. La précision dont a fait preuve le Créateur le jour où il a lancé l’Univers sur ses rails ne le cède en rien à l’extraordinaire précision des lois dynamiques (celles de Newton, de Maxwell et d’Einstein) qui règlent l’ordonnance des choses à chaque instant [78] ».
e) Interprétation philosophique
Il y a plusieurs interprétations possibles du principe anthropique. Systématisons :
1’) Refus de l’interprétation téléologique l’explication par le pur hasard
« Que penser de ce stupéfiant concours de circonstances ? Certains n’y voient que le fruit du hasard. L’univers dans ce cas, serait accidentel [79] ». Trinh Xuan Thuan oppose une critique extrinsèque, d’ordre éthique : cette conception « suscite le désespoir ». C’est un peu court. C’est la philosophie qui complète ce que cet argument a de trop anthropomorphique et de trop subjectiviste.
2’) Refus de l’interprétation téléologique l’explication par les univers multiples
) Exposé
) Critique
Contre l’existence d’univers parallèles. Morris estime que cette hypothèse, est « très probablement non scientifique (puisque non réfutable) [80] ».
Démaret critique la théorie des univers parallèles [81] et la théorie autoréférentielle de Wheeler.
Une alternative l’univers oscillant
« Certains cosmologistes sont philosophiquement attirés par ce modèle oscillant, en particulier parce qu’à l’instar du modèle stationnaire, il évite élégamment le problème de la Genèse. Il se heurte toutefois à une sévère difficulté théorique. Au cours de chaque cycle, le rapport photons-particules nucléaires (ou plus précisément, l’entropie par particule nucléaire) subit un léger accroissement du fait d’une sorte de frottement (appelé «bulk» viscosity) produite par les phases successives d’expansion et de contraction. Autant que nous le sachions, l’univers commencerait alors chaque cycle avec un nouveau rapport photons-particules nucléaires, légèrement supérieur au précédent. Actuellement, ce rapport est grand mais fini, et on ne voit donc pas comment l’univers aurait pu antérieurement avoir subi un nombre infini de contractions et d’expansions [82] ».
3’) Interprétation téléologique anthropologique
On peut tirer deux conclusion contrastées :
– d’un côté, l’émergence de l’homme est extraordinairement contingente. Nous assistons à un triomphe de la facticité, telle qu’aucun philosophe existentialiste ne l’avait rêvé. D’où la théorie des univers parallèles pour éviter la confrontation trop aiguë à cet univers trop singulier et dans son origine et dans sa relation à l’homme.
– d’un autre côté, il existe une unité très profonde, unique entre l’univers qui est le nôtre et l’homme. La science nous dévoile une complicité inouïe.
Beaucoup plus que les Grecs et qu’au Moyen Age, nous sommes à même de comprendre que la finalité, la présence de l’homme et de la vie sont inscrites dans l’univers. La notion de finalité est beaucoup moins formelle et fragmentaire ; aujourd’hui, elle a un contenu et une globalité qu’elle n’a jamais eu.
La finalité fait partie de la vie. Christian de Duve, Prix Nobel de médecine pour sa découverte des lysosomes, organites intracellulaires, disait à Dominique Lambert : « Lorsque j’ai découvert les lysosomes, je me suis aussitôt dit : Pourquoi ? A quoi servent-ils ? » « La finalité est une dame sans laquelle aucun biologiste ne peut vivre, mais il est honteux de se montrer avec elle en public [83] ».
« Pour d’autres, ce concours de circonstances n’est pas accidentel, il a sa signification et si l’univers existe en tant que tel, c’est bien pour faire émerger la conscience et l’intelligence ». Comme dit Dyson : « Quelque part, il savait que l’homme allait venir [84]! » D’où le principe anthropique (du grec anthropos, homme) énoncé par Brandon Carter : « L’univers se trouve avoir, très exactement, les propriétés requises pour engendrer un être capable de conscience et d’intelligence [85] ».
« même si certaines coïncidences anthropiques sont assez controversées, en raison de leur caractère spéculatif, et à supposer que la science parvienne à expliquer plusieurs d’entre elles dans le cadre de théories unifiées, leur accumulation et leur grande diversité n’en reste pas moins très intrigante. La série de «hasards» responsable de la formation du carbone au sein des étoiles a tellement impressionné Hoyle qu’il estime qu’elle est une indication suffisante de ce que les lois de la physique nucléaire ont été délibérément organisées pour produire cet effet, à moins qu’on ne préfère s’en tenir à la simple constatation de cette «monstrueuse séquence d’accidents [86]» ! » [87]
En fait, on peut distinguer une interprétation faible ou forte :
) Faible
c’est la tendance nouvel Age. On pourrait même, à la suite de Teilhard, distinguer un Oméga et un Omicron : « Omicron n’est qu’un changement d’ère, une mutation ; Oméga est une émergence comme fut celle de la vie, l’enfantement d’une surhumanité qu’un fœtus l’est d’un nouveau-né ; telle est la problématique que j’ai pour ma part fait mienne, à l’opposé de la problématique «nouvel âge» ou «nouvelle ère» très en vogue elle aussi [88] ». Il oppose aussi vogue qui est mouvement en avant sans terme défini à voie qui est avancée vers un terme. « J’entends par là que la voie, à la différence de la vogue, a un sens directif ; la voie a un point de départ et un point d’arrivée [89] ».
) Forte
C’est la nôtre. Elle rejoint ce que dit Jean Ladrière qui donne un sens nettement finaliste à ce principe. Pour cela, sans le dire ou sans le savoir, il reprend les critères aristotéliciens de l’apparition de la finalité : l’ordre, le bien. « Des données dispersées, apparemment arbitraires si on les considère séparément, prennent un sens à partir du moment où on découvre non seulement qu’elles sont cohérentes mais que leur cohérence assure l’émergence d’un fait privilégié, considéré comme suffisamment chargé par lui-même de sens pour fonder une compréhension satisfaisante de l’ensemble [90] ». Autrement dit, il y a finalité, car il y a apparition d’un bien et d’un bien supérieur, irréductible aux moyens.
« Ce serait de nous suggérer une lecture qui, au lieu, de monter d’échelon en échelon, de conditionnement en conditionnement, vers un palier supérieur qui n’apparaît alors que comme le produit de tous les conditionnements, descend au contraire du pôle de centration la plus extrême qui s’atteste dans l’expérience, de proche en proche, vers les conditions informatiques, biologiques et cosmiques de son émergence. C’est l’unité la plus achevée, l’individuation la plus forte qui donne sens, non l’inverse [91] ».
4’) Interprétation téléologique théologique celle de Wheeler (l’homme comme Dieu).
f) Objections
1’) Première difficulté
Le refuge dans une espèce d’agnosticisme scientiste.
Nous ne pouvons pas nous contenter d’explications comme celle-ci : « les constantes de la nature devaient bien prendre des valeurs, et bien que la probabilité correspondante fût très petite, nous devons accepter ces valeurs comme de purs faits, sans chercher d’autre explication ». Ce type de raisonnements est satisfaisant : « si ces valeurs sont des valeurs qui ont une signification, il faut chercher plus loin [92] ».
2’) Seconde difficulté
) Énoncé
Certains voudraient réduire l’étonnement en montrant le lien de condition nécessaire entre les particularités de l’univers et notre existence en tant qu’êtres humains. C’est pourtant ce que tente de faire Earman : « Ce n’est pas en expliquant que tout doit être finement réglé pour que la vie apparaisse qu’on résout la question : cette démonstration est justement la cause de l’étonnement [93] ».
) Réponse
Il convient donc de ne pas se méprendre sur la signification de certaines affirmations comme celle-ci : « Cet univers possède des caractéristiques dont la probabilité est infinitésimale au sein du champ de toutes les possibilités. Cependant si on réduit le champ en spécifiant que l’existence d’observateurs doit être possible, alors la probabilité de la configuration dynamique actuelle peut devenir finie [94] ».
Cette présentation ne change rien à l’affaire. La critique est toujours la même : les coïncidences révèlent que « l’univers est dans un état hautement ordonné, et l’ordre réclame une explication [95] ».
3’) Troisième difficulté
) Énoncé
Une autre objection s’inspire précisément du langage des probabilités. Considérons le taux d’expansion de l’univers, dont la valeur est très proche de la valeur critique. « Ce qu’il faut expliquer, c’est pourquoi l’expansion se produit exactement à ce taux-là. […] Il s’agit de comparer la probabilité d’obtenir ce taux précis avec la probabilité d’obtenir n’importe quel autre taux. Mais comme ils sont tous équiprobables, il n’y a rien à expliquer. Si chaque taux a la même probabilité, il n’y a rien qui doive nous surprendre : il s’agit simplement d’un événement rare, mais pas mystérieux. La rareté en tant que telle ne demande pas d’explication [96] ».
) Réponse
On constate que l’auteur de cette objection considère comme explicatifs les facteurs permettant de trier les possibilités en plus ou moins probables ; comme tous les taux sont équiprobables, il n’y a pas de tri, et donc pas d’explication possible. « Il y a matière à explication seulement lorsqu’un événement se produit plus (ou moins) souvent que ce que nous serions portés à l’attendre [97] ». Si nous jetons en l’air dix pièces de monnaie et qu’elles retombent toutes sur la même face, nous sommes en présence d’un événement rare, mais qui n’est pas susceptible d’être expliqué. De la même façon, notre univers apparaît comme un événement extrêmement étonnant, mais « la seule explication correcte de cet événement extrêmement étonnant est qu’une chose extrêmement étonnante […] s’est effectivement produite ».
« Faire des coïncidences un simple accident serait une explication trop naïve, […] car celles-ci concernent non pas un événement singulier, qui peut toujours se produire si sa probabilité est non-nulle, mais la longue séquence des processus qui ont rendu possible le développement des organismes vivants [98] ».
Par ailleurs, Schuermans donne une analogie parlante : « il faut souligner que ce n’est pas seulement le caractère improbable de notre univers qui réclame une explication. Prenons un exemple. Un paquet de cartes numérotées de 1 à 100 est mélangé longuement ; après une heure de ce mélange, il est examiné, et l’on constate que l’ordre des cartes est exactement 1,2,3,… 100. Ce fait demande-t-il une explication ? On pourrait dire que n’importe quel ordre est tout aussi improbable que celui-là ; nous n’estimons pas devoir expliquer un ordre comme 25, 98,… 12, alors pourquoi 1,2,… 100 demande-t-il une explication ? Tout simplement parce que cette série a une signification particulière pour nous, et que nous sommes naturellement portés à concevoir une intention à l’œuvre derrière ce hasard apparent. Il en va de même en ce qui concerne les coïncidences [99] ».
4’) Quatrième difficulté
) Énoncé
Une théorie scientifique répond à un certain nombre de critères, dont le caractère expérimental et la capacité de fécondité. Or, tel n’est pas le cas du principe anthropique auquel on reproche « son caractère a posteriori et son absence de pouvoir prédictif sérieux [100] ».
) Réponse
« Il est remarquable de constater que ce principe a effectivement la propriété de rendre raison d’un grand nombre de données de fait que les principes établis de la physique ne permettent pas de justifier [101] ».
5’) Cinquième difficulté
a’) Énoncé
Ce principe n’est pas un principe scientifique. « Le principe anthropique va à contrecourant de toute l’histoire des sciences [102] ».
Autrement dit, « sous sa forme forte, le principe anthropique énonce que l’univers doit être adapté à l’apparition d’observateurs, c’est-à-dire que les lois et constantes de la nature doivent être telles que la vie puisse exister. Il s’agit là manifestement d’une modification radicale de la façon conventionnelle de concevoir l’explication d’un phénomène dans le cadre de la méthode scientifique traditionnelle [103] ».
b’) Réponse
On pourrait reprendre – en souriant – la distinction des deux principes anthropiques et relever une double interprétation philosophique : faible et forte (minimaliste et réaliste, plus que maximaliste). La première est plus inspirée du kantisme, dont le péché originel est l’absence de philosophie de la nature, c’est-à-dire l’incapacité à fonder une réflexion philosophique propre – non inféodée à l’état actuel des sciences – sur la nature ; la seconde est résolument aristotélicienne.
) Interprétation philosophique faible
« Le principe anthropique, s’il n’est pas à proprement parler un principe scientifique, a néanmoins le mérite d’amorcer un débat philosophique intéressant. Il pose le problème d’une certaine connivence entre le cosmos et l’homme [104] ».
On peut dire du principe anthropique faible qu’il est un principe dans la mesure où cette proposition synthétisant des données empiriques « nous force à concevoir un univers qui comporte la possibilité de la vie, de la pensée et de la conscience [105] ». On pourrait alors parler de « principe de biosélection des caractéristiques de l’univers [106] ».
Jean Ladrière estime aussi que l’appellation de principe se justifie également dans le cas du principe anthropique fort. Celui-ci ne considère pas seulement les régularités observées dans l’univers comme des conditions nécessaires de l’apparition de l’homme, mais « réinterprète toute la contingence du cosmos dans la perspective d’un projet [107] » : l’émergence d’un être qui pense. Or, continue Ladrière : « Telle serait peut-être la vraie signification du principe anthropique : c’est de nous suggérer une lecture qui, au lieu de monter d’échelon en échelon, […] vers un palier supérieur qui n’apparaît alors que comme le produit de tous ces conditionnements, descend au contraire du pôle de centration le plus extrême qui s’atteste dans l’expérience […] vers les conditions de son émergence. C’est l’unité la plus achevée, l’individuation la plus forte qui donne sens, non l’inverse [108] ».
En conclusion, dit Demaret, « le statut actuel du principe anthropique semble être celui d’un principe explicatif de l’ordonnance et de la cohérence de l’univers matériel. Ce principe est nécessairement métaphysique, puisqu’il concerne un objet traditionnellement considéré comme unique ; on ne peut juger de son intérêt que par sa cohérence interne et sa capacité à rendre compte de l’ensemble des observations [109] ».
) Interprétation philosophique forte
C’est celle que nous proposons. Rappelons qu’elle demande de doubler la moisson de faits engrangée par la science d’une réflexion philosophique relative à la finalité (non pas de métaphysique, mais de philosophie de la nature).
6’) Sixième difficulté portant sur l’un des aspects de la mineure
) Enoncé
En effet, la mineure énonce qu’il existe des constantes indépendantes. Or, ce n’est pas si évident. « Le principe anthropique est mal accepté, même sous sa version faible, car il apparaît comme une renonciation, un abandon de l’objectif de comprendre pourquoi le monde est comme il est. De plus, modifier un seul paramètre d’une théorie sans toucher aux autres n’est justifié que si les paramètres en question sont vraiment indépendants. Mais si, comme c’est l’espoir d’une Théorie Ultime, il n’existe qu’une seule Loi, alors ces paramètres sont liés les uns aux autres, et il est incohérent de changer l’un d’eux sans modifier de manière adéquate les autres. « Quelle remarquable coïncidence que la Seine passe exactement sous les 365 ponts qui l’enjambent ! » Le cas ces charges électriques de l’électron et du proton illustre bien cette situation. Au signe près, l’électron a la même charge que le proton, avec une extrême précision. Cela a de très importantes conséquences. Si la charge de l’électron était un peu plus grande ou un peu plus faible, les atomes ne seraient jamais neutres et se repousseraient toujours : il n’existerait pas de molécules, de cristal […] Pire encore, cette répulsion serait supérieure à l’attraction gravitationnelle, et aucune planète, étoile ou galaxie ne serait stable. L’univers serait bien différent. Cette coïncidence numérique extraordinaire en est-elle vraiment une ? Non, dans certaines théories de physique des particules, les théories dites de « grande unification », électrons et protons (ou plus exactement les quarks qui forment le proton) sont deux faces différentes du même objet, et les charges sont nécessairement égales. Une apparente coïncidence numérique révèle parfois une unicité sous-jacente. Les théories actuelles sont certainement loin d’être définitives : elles font intervenir des dizaines de paramètres priori arbitraires et indépendants les uns des autres. Les considérations de type « principe anthropique » montrent que certains de ces paramètres ne peuvent varier que dans une plage étroite, sauf à changer considérablement l’aspect de l’univers. Mais si elles varient de façon corrélée, les conclusions sont beaucoup moins strictes [110] ».
) Réponse
Il ne nous appartient pas de trancher cette difficile question : la théorie Grande unifiée ou la Théorie Quantique Relativiste à laquelle tendent les physiciens fondamentalistes, sur laquelle Einstein a planché les 30 dernières années de sa vie, sans résultat probant, dont rêve nombre de physiciens [111], permettra-t-elle, en sus de l’unification des quatre forces fondamentales, celle des différentes constantes universelles ? « On peut caractériser la cosmologie comme la science des phénomènes naturels pris dans leur totalité. Science de la totalité ne veut pas dire science de tout ce qui existe, […] mais science de ce qui, dans les phénomènes naturels, les rassemble et les ordonne en une totalité [112] ».
En tout cas, quand bien même la science y arriverait, il demeurerait que, dès l’origine, notre univers est un banquet où tout est préparé, avec une minutie absolument inimaginable, pour recevoir avec grande pompe et un maximum de garantie, le festin de la noce qu’est la personne humaine. Or, la finalité pointe son nez lorsque se développe un processus ordonné, avec nette consécution des opérations, couronné par une perfection, un plus.
Autrement dit, le seul emboîtement si diaboliquement maîtrisé des phases, de l’ère quantique à l’ère stellaire, laisse inexpliqué et intact le fait de la présence de l’Anthropos.
7’) Septième difficulté
) Énoncé
« La pensée de la contingence apparaît insoutenable. […] Penser que l’homme aurait pu ne pas exister, c’est blessant. Alors, selon un vieux procédé philosophique bien rôdé depuis l’Antiquité, le principe anthropique a converti le hasard en providence [113] ». Creusons : « Le désir de certitudes absolues vient d’une peur fondamentale de la liberté sous toutes ses formes, de la liberté de penser en particulier. Cette peur-là, c’est le non-dit de l’Occident : on se présente toujours l’histoire comme l’avancée de la lumière vers les ténèbres, comme l’expression toujours contrariée, mais toujours triomphante, d’un désir de liberté ».
) Réponse
Quelle solution, quel remède ? Il existe en fait, parallèlement, « une formidable volonté d’ignorer » qui « coexiste toujours avec le désir indéracinable de savoir. Cette volonté d’ignorer est liée à la sourde peur que suscite la pensée scientifique. Une pensée sans dogme qui ne progresse qu’en détruisant au besoin ses certitudes. C’est cette avancée antidogmatique qui fait la grandeur de la pensée humaine ».
Bref, nous avons peur (notamment de l’avenir) et cette peur nous fait sécréter des certitudes, donc des dogmes. Voilà le fond de l’argumentation (un peu courte, un peu simpliste !) de l’auteur.
Le fond de la pensée est donc double : l’homme est liberté (celle-ci s’identifiant à la liberté d’indifférence) ; le soupçon. La critique est, on le voit, d’ordre psychologique et non pas philosophique. [114]
g) Conséquences
1’) Conséquence anthropologique
L’humiliation copernicienne reprise par Freud (c’est-à-dire la perte de la primauté de l’homme dans l’univers) est annulée ; plus encore, « l’homme, sous l’éclairage de la cosmologie moderne, reprend la première place. Non pas la place centrale, dans le système solaire et dans l’univers, qu’il occupait avant Copernic, mais dans les desseins de l’univers [115] ». Autrement dit, la primauté humaine n’est plus géographique, mais, plus profondément, ontologique : c’est une primauté de finalité (et peu importe que cette primauté soit signifiée par la topographie).
On comprend aussi l’enthousiasme de Guitton. On nous a tellement seriné les oreilles sur la prétendue incompatibilité de la science et de la foi en Dieu, que la découverte de ce principe anthropique fait figure de bonne nouvelle et de réconciliation (même si bien d’autres éléments et évènements montraient déjà cette compatibilité).
2’) Conséquence théologique
Nous pourrons emprunter notre exposé à l’ouvrage de Jean Guitton et des frères Bogdanov. « Terminons par le troisième argument le plus important : le principe anthropique [116] ».
a’) Le fond de l’argument
– Le principe (implicite) est le suivant : le hasard est conjonction accidentelle ; il n’explique pas la raison de la conjonction ; seule la présence d’une finalité le peut ; et si trop de conjonctions ont lieu, le hasard ne peut plus être la cause. « Jung soutenait que l’apparition de «coïncidences significatives» impliquait nécessairement l’existence d’un principe explicatif qui devait s’ajouter aux concepts d’espace, de temps et de causalité [117] ».
– Or, l’observation montre que « l’univers se trouve avoir, très exactement, les propriétés requises pour engendrer un être capable de conscience et d’intelligence » (tel est le principe anthropique énoncé par l’astrophysicien Brandon Carter en 1974 et que nous avons développé ci-dessus) « la réalité toute entière repose sur un petit nombre de constantes cosmologiques : moins de quinze. Il s’agit de la constante de gravitation, de la vitesse de la lumière, du zéro absolu, de la constante de Planck, etc. Nous connaissons la valeur de chacune de ces constantes avec une remarquable précision. Or, si une seule de ces constantes avait été tant soit peu modifiée, alors l’univers – du moins tel que nous le connaissons –, n’aurait pas pu apparaître [118] ».
Par exemple, « si le taux d’expansion de l’univers à son début avait subi un écart de l’ordre de 10-40, la matière initiale se serait éparpillée dans le vide : l’univers n’aurait pu donner naissance aux galaxies, aux étoiles et à la vie. On pourrait comparer la précision inimaginable d’un tel réglage à la prouesse que devrait accomplir un tireur en atteignant une cible d’un centimètre carré qui se trouverait à l’autre bout de l’univers, à 15 milliards d’années-lumière [119] ».
– « Autrement dit, la probabilité mathématique pour que l’univers ait été engendré par le hasard est pratiquement nulle [120] ». Autrement dit, son apparition était finalisé par l’homme.
« il reste vrai que de légères variations apportées aux paramètres fondamentaux de notre univers rendraient la vie impossible. Une image nous aidera à mieux cerner la portée exacte de cette contrainte. Nous nous trouvons devant un mur sur lequel une cible a été tracée ; une flèche est plantée en plein centre de celle-ci (le fait est d’autant plus remarquable que la cible est de petite dimension). Nous sommes en droit de penser que cette flèche a été lancée par une main experte, ou bien, si elle a été lancée au hasard, que cette réussite est le fruit d’une chance merveilleuse. Notre étonnement serait moins grand s’il y avait plusieurs cibles dessinées sur le mur, et si leur nombre était important ; ou encore si nous nous trouvions devant une cible unique, mais sur un mur criblé d’essais manqués.
« Le mur symbolise l’ensemble des mondes possibles ; les cibles représentant les mondes viables ; la ou les flèches désignent un ou plusieurs univers existants. Le fait qu’une flèche soit plantée dans notre cible est étonnant non pas tant parce que le mur ne comporte, dans l’ensemble, qu’un petit nombre de cibles, mais parce que tout autour de la cible atteinte, il y a une grande région vierge ! Peut-être certaines régions de l’ensemble des univers abondent-elles en mondes viables ; peut-être même la densité de cibles y est-elle si grande qu’il serait difficile de rater son tir. Faute de recul, nous ne pouvons que nous perdre en conjectures. Mais ce qui est établi, c’est que notre monde se trouve au cœur d’une région qui est vierge de tout autre monde viable : voilà ce qui impressionne. Pour diminuer notre étonnement, il ne nous reste que deux solutions : invoquer une main experte (un Dieu créateur), ou supposer qu’un grand nombre de flèches ont été lancées (un ensemble effectif d’univers). À moins de nous en tenir au hasard [121]… »
b’) Mise en forme de l’argument
– L’univers est ordonné. Cette première proposition n’est pas évidente. Pour la démontrer, nous avons fait appel au principe anthropique. Il tient dans le raisonnement suivant (que nous allons détailler plus bas) : l’univers est construit à partir de quelques grandes constantes universelles ; or c’est ces quelques constantes et elles seules qui ordonnent tout l’univers car elles commandent l’apparition de la vie et de l’homme.
– Or, toute réalité et tout processus ordonné est finalisé.
– Or, ce qui est privé de connaissance ne peut tendre vers une fin que dirigé par un être connaissant et intelligent, telle la flèche par l’archer.
– C’est donc que l’univers est orienté vers sa finalité par un être intelligent que l’on appelle Dieu.
On le voit donc :
– La première proposition est établie par la science.
– Les deux autres propositions sont d’ordre philosophique (la première relève de la philosophie de la nature et la seconde la métaphysique, mais peu importe ici) et elles sont passées sous silence. C’est pourtant elles qui commandent l’intelligence définitive de la preuve. Nous les avons d’ailleurs empruntées presque telles quelles à la cinquième voie (preuve) de l’existence de Dieu que donne saint Thomas [122]. Or, Guitton-Bogdanov ne font pas une allusion explicite à ces prémisses, sauf dans un passage : « Jung soutenait que l’apparition de «coïncidences significatives» impliquait nécessairement l’existence d’un principe explicatif qui devait s’ajouter aux concepts d’espace, de temps et de causalité [123] ». Autrement dit, le hasard est conjonction accidentelle ; il n’explique pas la raison de la conjonction ; seule la présence d’une finalité le peut ; et si trop de conjonctions ont lieu, le hasard ne peut plus être la cause.
h) Conclusion
Ce principe permet de redonner à la finalité une valeur scientifique, y compris heuristique : « Des hypothèses empiriques qui cherchent l’explication de l’univers observable, on pourra éliminer tranquillement, par la force du principe anthropique, tout ce qui est théoriquement possible mais qui en fait n’est in vérifié ni vérifiable parce que incompatible avec notre existence d’observateurs [124] ».
Cette notion n’est pas non plus dénuée de portée métaphysique. Le principe anthropique illustre la distinction acte-puissance : « En termes aristotéliciens, explique Gilbert, on dira que l’homme est l’acte vers lequel tend la puissance de l’univers [125] ».
Le principe anthropique présente enfin un enjeu éthique :
« On peut penser que les transformations sociales et politiques qui nous attendent, et qui doivent nous permettre de survivre en surmontant les dangers d’explosion, ne seront possibles ni même envisageables à court terme que si la culture, et l’éthique qui lui sert de boussole, assurent à la vie humaine le courage dont elle a besoin dans les grandes transitions. Or ce courage est à portée de main pour tous ceux qui reconnaissent dans la vie humaine la révélatrice de la finalité inscrite dans l’Univers [126] ».
3) La structure finie de l’univers ou pourquoi le ciel est-il noir ?
Une passionnante énigme astronomique est parfois appelée paradoxe d’Olbers : pourquoi le ciel est-il noir ? Nous allons voir que la réponse à cette question n’a rien d’une évidence et a demandé un apport extra-scientifique, en fait une vision philosophique intégrant les catégories de temps et de finitude. Elles ont toujours existé mais n’ont pas reçu l’importance qu’elles méritaient ; surtout la science et la vision du monde post-cartésienne s’est nourrie d’infini et de statisme [127].
a) Le problème
Les étoiles sont, nous le savons, très nombreuses. Comment se fait-il donc que la nuit ne soit pas aussi éclairée que le jour ?
« L’observation la plus significative que puisse faire l’astronomie se trouve être également la plus simple : la nuit, le ciel est sombre ; les étoiles sont séparées par des espaces obscurs. Pourquoi le ciel est-il sombre la nuit ? » Précisons la difficulté : « Dans un Univers qui peut-être s’étend sans limite et contient un nombre d’étoiles illimité, pourquoi ne voyons-nous pas une étoile en chaque point du ciel [128]? »
Une analogie va aider à poser le problème qui est vraiment une énigme : la similitude de la forêt ou de la ligne de visée. « Quand nous nous trouvons au cœur d’une épaisse forêt et que nous regardons autour de nous, nous voyons des arbres dans chaque direction. Leurs troncs se chevauchent et se recouvrent pour former un fond continu : toute ligne de visée intercepte un tronc d’arbre. Si la forêt était infinie, peu importerait alors la répartition de ses arbres et la distance qui les sépare : ils formeraient toujours un fond continu. Même réunis en bosquets, réunis à leur tour en bois plus vastes, ils se rouvriraient toujours, sans laisser d’espace. Notre argument s’applique également à une forêt d’étoiles : si l’Univers constellé est infini, quelles que soient la répartition des étoiles et la distance qui les sépare, elles formeront toujours un fond continu. Même groupées en amas groupés à leur tour en galaxies, elles se recouvriront toujours, s’occultant l’une l’autre géométriquement, sans laisser d’espace ».
Appliquons l’analogie : « L’argument de la ligne de visée permet de conclure que le ciel entier devrait briller d’une intense lumière stellaire. Si la majorité des étoiles ressemble au Soleil, chaque point du ciel devrait avoir un éclat comparable à celui du disque solaire. Une lumière intense devrait se déverser d’une voûte céleste embrasée, comme si la Terre se trouvait dans une fournaise chauffée à blanc ou était plongée dans la photosphère du Soleil. Les calculs montrent que le ciel tout entier devrait être 180 000 fois plus brillants que le disque solaire [129] ».
b) Différentes solutions erronées
Il y a deux grand types possibles de solution [130] : « nous avons le choix entre deux interprétations de l’obscurité du ciel nocturne :
– soit, contrairement à l’observation, les espaces sombres sont emplis d’étoiles qui, pour de mystérieuses raisons, restent invisibles, et nous devons rendre compte de cette lumière manquante ;
– soit, en accord avec l’observation et contrairement à notre attente, ces espaces sombres sont essentiellement vides d’étoiles manquantes. L’interprétation du «ciel saturé» peut être appelés l’énigme de la lumière manquante et celle du «ciel clairsemé», l’énigme des étoiles manquantes [131] ».
c) La vraie solution
1’) Exposé scientifique
La solution, simple, est donnée dans le dernier chapitre [132]. Elle part du constat suivant : il n’y a pas assez d’énergie pour que le ciel soit brillant.
« Que l’univers soit en expansion, en contraction ou statique, un ciel brillant, exigerait en fait 10 milliard de fois plus d’énergie que celle que l’on obtiendrait en convertissant de manière drastique toute la matière en rayonnement [133] ».
Prenons une analogie [134] : « Imaginez une boîte aux parois parfaitement réflectrices et contenant une petite source de lumière, par exemple le filament d’une lampe électrique. Ce filament est le seul objet dans la boîte à émettre ou absorber de la lumière ; les rayons lumineux qu’il émet rebondissent un certain nombre de fois sur les parois avant qu’il les réabsorbe. Entre son émission et son absorption, un rayon lumineux parcourt en moyenne une distance égale à la limite de visibilité, soit le volume de la boîte divisé par l’aire effective du filament ». Par exemple, « si les parois de la boîte ont 1 km de long et le filament une aire effective d’1 millimètre carré, la distance moyenne parcourue par un rayon lumineux est égale à un billion de km, soit un dixième d’année lumière. Après environ cinq semaines d’émission continue, le filament absorbe autant de rayonnement qu’il en émet : la boite met donc cinq semaines pour se remplir de rayonnement thermique, et ce rayonnement est alors en tout point aussi ardemment brillant que la surface du filament. Mais supposez que la source d’énergie – une pile électrique – ne puisse maintenir l’éclat du filament que durant un temps comparativement court. La boîte ne se remplira alors jamais de rayonnement : l’énergie disponible est insuffisante ».
Or, c’est ce qui se passe pour les étoiles : elles ne referment pas assez d’énergie pour que leur rayonnement remplisse l’univers. En effet, « le temps de remplissage de la boîte cosmique est égal au temps mis par la lumière pour atteindre la limite de visibilité. C’est également le temps mis pour emplir l’Univers de rayonnement. Exprimé en années, ce temps vaut 100 milliards de billions, soit 1 suivi de 23 zéros. Mais une étoile typique ne brille que pendant 10 milliards d’années (1 suivi de 10 zéros) ; la boîte, et donc l’Univers, ne peut alors s’emplir de rayonnement durant la vie lumineuse d’une étoile, ou d’une galaxie, ou de l’Univers [135] ».
C’est donc une simple question de thermodynamique. Et cette solution appartient à la catégorie des solutions : « ciel clairsemé ».
2’) Interprétation en philosophie de la nature
Notre difficulté à concevoir la solution tient en deux causes qu’Harrison épingle comme ne passant à la fin de son ouvrage et qui me semblent capitales (mis l’auteur n’est pas philosophe, on ne saurait donc lui faire grief de ne pas développer les deux thèses qu’il lance comme négligemment).
– Première raison : « Depuis l’époque d’Edmund Halley, on a eu l’habitude de construire des couches sphériques concentriques empilées les unes sur les autres jusqu’à ce que les étoiles recouvrent géométriquement le ciel. Cette vision divine des étoiles, réparties dans l’espace en faisant abstraction du temps, peut avoir encouragé les astronomes à ignorer le temps de parcours de la lumière stellaire ».
– Seconde raison : « Par ailleurs, nous supposons a priori que, dans un univers non borné, toute ligne de visée s’étend à l’infini, comme les rayons visuels de l’Antiquité se propageant à une vitesse infinie. Il ne fait aucun doute que cette conception primitive et spontanée de la vision a contribué à la confusion [136] ». Il faut ajouter le fait que la vitesse de la lumière est finie, ce que ni les Grecs, ni un Newton ne savaient et ne croyaient.
d) Conclusion
Voici ce que conclut notre auteur : « La manière dont nous interprétons, selon la formule de Thomas Dick, «l’obscurité se trouvant derrière les étoiles» dépend de la nature de l’Univers dans lequel nous croyons vivre. Dans le système aristotélicien, les espaces sombres révélaient la frontière extérieure des sphères célestes ; dans le système stoïcien, ils révélaient l’infini du vide extracosmique ; dans le système étoilé et statique de Newton, ils révélaient le néant préexistant à la naissance des étoiles [137] ».
On voit aussi enfin pourquoi la science s’alimente à une conception du monde, et hérite des limitations de celle qu’il véhicule. La difficulté qu’un Darwin a eu de faire admettre ses idées tenait notamment à la difficulté à penser la notion d’évolution dans un univers marqué par le statisme. [138]
F) La prise de conscience écologique
La naissance de l’écologie s’entend sur toile de fond mécaniste. L’univers mécaniste est cette machine infinie, dénuée de finalité, dont l’homme est propriétaire et qu’il transforme. Or, l’écologie s’oppose précisément et décidément à ce modèle.
1) Changements généraux
En premier lieu, la crise qui va permettre la naissance de l’écologie est la prise de conscience aiguë de la finitude de la Terre. La nature terrestre que l’on imaginait être un réservoir infinie et puissant apparaît soudain limitée et vulnérable. Peut-être l’univers est-il infini ; en tout cas, le vaisseau spatial Terre qui le traverse, lui, n’est pas dénué de borne. Nous sommes face à un principe de limitation interne de la science : ce principe est strictement pratique. On doit à Hans Jonas la prise de conscience de la limite des réserves terrestres et de leur conséquence :
« Il n’est pas plus dépourvu de sens de demander si l’état de la nature extra-humaine, la biosphère dans sa totalité et dans ses parties qui sont maintenant soumises à notre pouvoir, n’est pas devenue, par le fait même, un bien confié à l’homme et qu’elle a quelque chose comme une prétention morale à noter égard – non seulement pour noter propre bien, mais également pour son propre bien et de son propre droit [139] ».
Notez les termes utilisés : la terre est un « bien », elle apparaît douée de bonté.
À cette finitude comme spatiale se joint une conscience de la finitude temporelle. L’homme écologique ne peut plus dire : « Après nous, le Déluge ».
Second changement : à cette critique de l’infinitude toute-puissante de la nature se joint une critique de l’attitude pratique corollaire dans le mécanisme, à savoir la domination liée à la possession, à la maîtrise. Désormais, il convient de ne pas violenter ou abuser de la nature, autrement dit la respecter. À l’égard de ce patrimoine commun ou même de ce bien commun qu’est la nature, la seule attitude juste est non pas la propriété (entendue comme appropriation), mais l’usufruit : l’homme est l’usufruitier de la nature. Cette attitude s’incarne dans le respect, voire la protection de la nature.
2) Différentes étapes
L’écologie est passée par plusieurs stades.
1’) Un stade pré-écologique
On peut faire remonter un stade originaire pré-écologique à Jean-Jacques Rousseau. L’origine de la pensée rousseauiste de l’état de nature emprunte à l’histoire naturelle de Buffon qui, sans vision historique, évolutionniste, conçoit la nature comme équilibre des vivants, sans donner de prééminence particulière à l’homme : il est un animal parmi d’autres. L’auteur du Contrat social va d’abord exclure l’homme, être social et moral, de la nature ; d’autre part, il valorise la nature, finalisée et globalisée : dès lors, elle suscite un sentiment, empreint de nostalgie, qui peut orienter la conduite humaine.
L’écologie contemporaine retiendra la double leçon : l’exclusion mutuelle nature-homme, protection de la nature, et ne sortira que peu à peu de ce dualisme redoublé. Le premier stade est celui de la nature sauvage. La nature réalise son équilibre hors toute intervention artificielle, donc humaine. Cette fiction rationnelle fait de l’homme un étranger, au maximum un visiteur temporaire, selon le mot du Wilderness Act américain de 1964. La nature est ce qui n’est pas anthropisée.
2’)
Mais cette vision est statique (protéger la nature est conserver un état prétendu stable) et dualiste ; mais cette séparation entre l’homme et la nature ne tient pas, puisque la crise de l’environnement est la prise de conscience de notre solidarité, pour le meilleur et pour le pire, avec la nature. En un deuxième temps, l’écologie a donc inclus les conduites humaines. Désormais, comme le dit Tansley, un des théoriciens les plus importants, à qui on doit d’ailleurs le terme écosystème, en 1935, « l’activité humaine trouve sa véritable place dans l’écologie [140] ». L’homme est un facteur biotique très puissant : les machines, les techniques, le développement des pratiques sociales, notamment la croissance des villes affectent les vivants et la planète entière. Histoire naturelle et histoire humaine sont donc étroitement mêlées.
Cependant ce deuxième stade est encore incapable de véritablement inclure l’homme. Le dualisme refusé dans l’intention et réintroduit dans la pratique. En effet, il se fonde sur une perception thermodynamique des équilibres naturels ; or, celle-ci n’ignore pas l’histoire, mais elle la pense sur le double mode de la conservation (premier principe) ou de la destruction (second principe, dit d’entropie). Mais le propre de l’histoire humaine est de créer du nouveau : en s’adaptant, l’homme introduit de la nouveauté. Dans la vision de Tansley, la pensée et l’inventivité caractéristiques de l’être humain apparaissent donc en creux, comme une sorte de « boîte noire », et non pas en plein. Plus encore, la nouveauté est analysée comme une perturbation, brouillant le flux de matière, d’énergie et d’informations naturel : dès lors, l’homme est plus un parasite qu’un organe à part entière.
3’) Intégration plénière de l’homme
En un troisième temps, l’écologie en vient à intégrer l’homme à part entière et enfin sortir du dualisme mortel où le mécanisme relayé par Rousseau l’avait enfermé. Sous l’influence des progrès de la thermodynamique (notamment Prigogine), la science écologique a encore progressé. En effet, la thermodynamique s’intéresse non plus aux équilibres autorégulés, mais aux perturbations : d’accidentelles et destructrices, elles deviennent essentielles et créatrices d’ordre. Or, on a vu que l’intervention humaine s’analyse en termes de perturbations des dynamismes, des équilibres naturels. Dès lors, la nature apparaît comme le résultat d’une coévolution interactive de l’homme et du milieu.
Mais il y a plus. L’écologie ébauche, ouvre une sortie non seulement du dualisme homme-nature, mais d’une vision mécaniste de la nature. Elle prend conscience de ce que la nature est capable de nouveauté, hors toute intervention humaine : elle produit du vivant ; elle se donne donc des fins ; elle est douée d’une temporalité propre. Or, la temporalité, plus encore que la notion de production ou de finalité, de stratégie adaptative, est un indice très prochain du mouvement chez le moderne : celui-ci occupe la place prise par le devenir – omniprésent – chez les Grecs. Voilà pourquoi, la nature étant principe de mouvement, la nature de l’écologie « redevient ce que les Grecs appelaient phusis : un processus de transformation qui a son rythme propre, qu’il faut savoir respecter [141] ». La nature est donc douée d’un principe interne d’apparition de structures nouvelles.
Ce changement radical – qui renoue avec l’intuition aristotélicienne de la nature – tient notamment au fait que l’écologie est une science à part. La science traditionnelle est une science qui construit son objet, car la part laissée à l’expérimentation est largement supérieure à la part laissée à l’expérience, c’est-à-dire à l’observation. Or, l’écologie n’est pas une science expérimentale au sens où elle ne peut pas reproduire son objet, en recréant un micromonde artificiel : les ensembles hiérarchisés emboîtés, qui vont de l’écosystème à la biosphère, ne sont ni reproductibles ni substituables. La loi du « toutes choses égales par ailleurs » commandant l’expérimentation ne vaut pas ici.
Enfin, l’écologie esquisse une dernière mutation qui n’est plus ontologique, mais épistémologique. Dans ce dernier stade, la nature n’apparaît plus seulement comme un bien à protéger, à respecter, ce qui est déjà un progrès immense vis-à-vis des volontés de pouvoir de la technoscience l’identifiant à un réservoir de ressources pour l’action humaine. Elle apparaît aussi comme participant du transcendantal vérité : elle est dépositaire d’un sens que l’homme ne peut pas transformer et encore moins causer, puisque la nature précède l’homme.
Aussi le dernier stade du progrès n’est pas seulement le passage de la maîtrise au respect. Nous nous sommes arrêtés en chemin. Il nous faut retrouver l’intuition grecque de la contemplation : la nature est faite non pour être expérimentée, mais observée, admirée, comprise. De nouveau la theoria reprend ses droits à côté de la praxis. Cela, sans intention nostalgique de restauration, sans nier la richesse et le progrès humain apporté de la technique : « Les hommes, disait profondément Montesquieu, par leurs soins et leurs bonnes lois, ont rendu la terre plus propre à être leur demeure [142] ».
3) L’exemple de Tchernobyl
L’expérience opérée par le groupe ethos sur Olmany, l’un des territoires contaminés par l’accident de Tchernobyl montre [143].
Le diagnostic est double : 1. Du côté de la nature, il est impossible de maîtriser les paramètres de manière certaine et totalement prédictive. En effet, les variabilités de contamination étaient considérables, non prévues par la science.
- Du côté des sciences et techniques, il finit le règne des experts. « Il en est passé des experts au village depuis la catastrophe. […] Les villageois ont eu l’impression d’être traités comme des cobayes. Ils ont vite compris qu’il n’y avait rien à attendre de ces scientifiques, bardés de convictions et d’instruments de mesure, qui posent sur le monde un regard extérieur, et monopolisent les moyens d’information et de contrôle ».
Dès lors, la seule attitude efficace est de les responsabiliser et non pas de les assister, de les infantiliser. Un responsable du district de Stolyn dit : « Le projet ethos nous montre que nous pouvons agir nous-mêmes. C’est un programme simple. Si on gère nous-mêmes notre santé, alors on pourra rester dans le village [144] ».
G) Conclusion
Les sciences actuelles n’ont pas redécouvert toutes les intuitions de la philosophie de la nature newtonienne ou classique ; elles n’en ont pas épuisé toutes les virtualités. Notamment, qu’en est-il de la substance ? Ce n’est pas un hasard si, par certains côtés, la physique actuelle est à Héraclite, « chantre du mobilisme universel », ce que la physique newtonienne est à Parménide, « héraut de l’identité absolue [145] ». Or, si le mérite d’Héraclite (dans une vision aristotélicienne) est d’avoir valorisé le monde du mutable, son péril est d’en ignorer la permanence et la stabilité, ce qui, en lui, est trace d’éternité, bref, la substance.
Pascal Ide
[1] Bibliographie
Outre les ouvrages généraux de cosmologie qui contiennent le plus souvent un exposé sur le Big Bang, en voici quelques-uns plus spécifiques. Vous constaterez que ces ouvrages ne peuvent en général pas se passer de quelques considérations plus philosophiques.
1’) Ouvrages plus historiques
– Georges Lemaitre, L’hypothèse de l’atome primitif. Essai de cosmologie, Neufchatel, Ed. du Griffon, 1946. Id., L’Univers, Louvain, Nauwelaerts, 1950.
– O. Godart et J. Turek, « Le développement de l’hypothèse de l’atome primitif », in Revue des questions scientifiques, Namur, 1982 (153), p. 145-171.
2’) Ouvrages doctrinaux de fond
– H. Andrillat, Cosmologie moderne, Paris, Masson, 1984. Plus technique.
– J. Silk, The Big Bang, San Francisco, Freeman, 1980. Très complet.
3’) Exposés vulgarisés
– Agnès Acker, « La genèse des éléments », in Science n° 1, n° 3, mars-avril 1985, p. 10 à 23.
– Trinh Xuan Thuan, La mélodie secrète. Et l’homme créa l’univers, coll. « Folio Esais », Paris, Gallimard, 1991 (1ère éd., 1988), chapitre 5 « Le livre de l’histoire de l’univers », p. 145 à 230. Excellent ouvrage de vulgarisation (c’est lui que nous citons). Id., Le destin de l’univers. Le big bang et après, coll. « Découvertes », Paris, Gallimard, 1992.
[2] Pour le détail, cf. par exemple Roger Caratini, Année de la Science 1988, Paris, Robert Laffont-Seghers, tableau des pages 139 et 141 ; cf. réactualisations Id., Année de la science 1990, même éditeur, p. 391s.
[3] Cf. Jacques Merleau-Ponty, Le spectacle cosmique et ses secrets, Paris, Larousse, 1988, p. 126. Cf. Evry Schatzman, L’expansion de l’Univers, Paris, Hachette, 1989 p. 31.
[4] Pierre Chaunu, Du Big Bang à l’enfant, Dialogues avec Charles Chauvin, Paris, DDB, 1987, p. 18.
[5] Steven Weinberg, Les trois premières minutes de l’univers, trad. Jean-Benoît Yelnik, Paris, Seuil, 1978, p. 61 et 62. Cf. de manière générale tout le chapitre 3 « Le fond cosmique de rayonnement radio ».
[6] Ibid., p. 63 et 64.
[7] Ibid., p. 65.
[8] Ibid.,
- 66 et 67. Pour le reste du développement et la connexion avec Gamow, cf. la suite du chapitre.
[9] Godart et Turek, 1982, p. 146.
[10] Patrick Boissé et Patrick Petitjean, « Les quasars, filtres de l’univers », La Recherche, n° 276, mai 1995, vol. 26, p. 500 à 506, ici p. 506.
[11] Ibid.
[12] Trinh Xuan Thuan, p. 166.
[13] Hubert Reeves, in Coll. (Hubert Reeves, Joël de Rosnay, Yves Coppens et Dominique Simonnet), La plus belle histoire du monde. Les secrets de nos origines, Paris, Seuil, 1996, p. 35.
[14] Nous tirons les données qui vont suivre du Syllabus non édité de Marc Leclerc, Introduction à la cosmologie. L’unité du mode physique, Bruxelles, IET, 1985-1986, p. 45 à 47 et p. 39 et 40. On peut aussi se référer à l’ouvrage classique de Jacques Merleau-Ponty, Cosmologie du xxe siècle. Étude épistémologique et historique de la cosmologie contemporaine, « Bibliothèque des idées », Paris, NRF-Gallimard, 1965, notamment p. 91-97 et p. 360-370. La perspective est plus critique, parfois par préjugé métaphysique.
[15] « The expanding Universe », Monthly Not. Roy. Astr. Soc., 91, 1961, 490-501.
[16] Florilège des Sciences en Belgique, Bruxelles, Académie Royale de Belgique, 1966, p. 98 à 104.
[17] L’hypothèse de l’atome primitif, p. 147-176.
[18] op. cit., p. 153.
[19] Trinh Xuan Thuan, La mélodie secrète, p. 148.
[20] Ibid., p. 152.
[21] Ibid., p. 157.
[22] Ibid., p. 207.
[23] Ce n’est pas le lieu ici de l’articuler avec une doctrine de la création.
[24] Jacques Merleau-Ponty, Cosmologie, p. 91.
[25] Ibid., p. 92-93.
[26] L’hypothèse de l’Atome primitif, p. 105.
[27] p. 92.
[28] In Revue des questions scientifiques, mars 1929, reproduit dans L’hypothèse de l’Atome primitif
[29] Jacques Merleau-Ponty, Cosmologie, p. 28-29.
[30] Jacques Demaret, L’univers, p. 55. Cf. aussi p. 54.
[31] Revue des questions scientifiques, 138, 1967, p. 153.
[32] Steven Weinberg, Les trois premières minutes de l’univers, trad. Jean-Benoît Yelnik, Paris, Seuil, 1978, p. 145. Cf. chapitre 6, p. 145-154.
[33] Les citations seront tirées des p. 150 à 154. C’est moi qui souligne.
[34] Jean Ladrière, « La portée philosophique de l’atome primitif », in Mgr Lemaître savant et croyant, Actes du colloque commémoratif du centième anniversaire de sa naissance (Louvain-la-Neuve, 4 novembre 1994), coll. « Réminisciences » n° 3, Louvain-la-Neuve, Centre interfacultaire d’étude en histoire des sciences, 1995, p. 57-80.
[35] Dominique Lambert, « Une articulation des sciences et de la théologie est-elle légitime ? », in Nouvelle Revue théologique n° 119 (1997), p. 520-540, ici p. 530-531.
[36] Par exemple E. Whittaker, Space and Spirit. Theories of the Universe and the Arguments for the Existence of God, Londres, Thomas Nelson & Sons Ltd, 1946. Cf. Dominique Lambert, « Monseigneur Georges Lemaître et le débat entre la cosmologie et la foi », Revue Théologique de Louvain n° 29 (1997), p. 28-53 et 227-243.
[37] Entre le Temps et l’Eternité, Paris, Fayard, 1988, p. 168.
[38] Ibid., p. 168.
[39] André boulet, Création et Rédemption, Chambray-lès-Tours, C.L.D., 1995, p. 88.
[40] Ibid., p. 83 et 84.
[41] Antonin D. Sertillanges, L’idée de création et ses retentissements en philosophie, Paris, Aubier, 1945. Il connaissait les théories de Lemaître (p. 38).
[42] Cf. par exemple Georges Lemaître, L’hypothèse de l’atome primitif, Neuchâtel, Ed. du Griffon, 1946.
[43] ST, Ia, q. 46, a. 2.
[44] Dominique Lambert, « Une articulation des sciences et de la théologie est-elle légitime ? », p. 535.
[45] Ibid., p. 534.
[46] Pour la Science, n° 253, novembre 1998, p. 30 et 31.
[47] Bibliographie succincte. Certains articles cités traitent davantage de la finalité. Mais c’est parce que le principe anthropique touche de près la question de la finalité. Le sujet étant nouveau, il peut être intéressant de livrer une bibliographie plus complète.
– H. Barreau, « Pour le principe anthropique », in Communio, 1988 (13/3), p. 77-83.
– J. D. Barrow et F. J. Tipler, The Anthropic Cosmological Principle. With a fore word by John A. Wheeler, Oxford, Clarendon Press, 1986. Enorme ouvrage très documenté de l’astronome britannique Barrow et du physicien-mathématicien Tipler où, en 700 pages, 600 équations mathématiques et 1500 notes, les auteurs font appel tant à la philosophie qu’à la religion et aux différentes sciences (de la physique à la biologie, en passant par la cosmologie, etc.), pour montrer ce principe. Dans leur introduction, ils montrent notamment le lien existant entre principe anthropique faible et théorème d’incomplétude de Gödel (p. 4).
– B. J. Carr et M. J. Rees, « The Anthropic Principle and the Structure of the Physcial World », in Nature, 1979 (278), p. 605-612.
– Brandon Carter, « Large number Coincidences and the Anthropic Principle in Cosmology », in Confontation of Cosmological Theories with Observational Data, Symposium IAU n° 63, Boston, éd. par M.S. Longair, Reidel, Dordrecht, 1974, p. 291 à 298. C’est le texte fondateur. « The Anthropic Selection Principle and the Ultra-darwinian Synthesis », in The Anthropic Principle. Proceedings of the Second Venice Conference on Cosmology and Philosophy, Ed. F. Bertola and U. Curi, Cambridge, Cambridge University Press, 1988, p. 33-59.
– W. L. Craig, « The Anthropic Cosmological Principle (recension de Barrow et Tipler) », in International Philosophical Quarterly, 1987 (27), n. 108, p. 437-447.
– Paul Davies, The Accidental Universe, London/New York, Cambridge University Press, 1982.
– Jacques Demaret, « Principe anthropique », in Encyclopédique Philosophique Universelle. 2. Notions philosophiques, éd. par A. Jacob, Paris, P.U.F., 1989, p. 104-105.
– Jacques Demaret et Christian Barbier, « Le principe anthropique en cosmologie », in Revue des Questions Scientifiques, Namur, 1981 (152), p. 181 à 222 et p. 461 à 509.
– Jacques Demaret et Dominique Lambert, Le principe anthropique. L’homme est-il le centre de l’Univers ?, Paris, Armand Colin, 1994. Excellent exposé, bien structuré et argumenté, résolument finaliste.
– Dominique Dubarle, « Epistémologie et cosmologie », in Idée du monde et philosophie de la nature. Recherche de philosophie VII, Paris, DDB, 1966.
– G. Gale, « The Anthropic Principle », in Scientific American, 1981 (245), n° 6, p. 114-122.
– S. W Hawking, Une brève histoire du temps. Du big bang aux trous noirs, Trad., coll. « Champs », Paris, Flammarion, 1989.
– P. Henriot, « Fin », in Encyclopédique Philosophique Universelle. 2. Notions philosophiques, éd. par A. Jacob, Paris, P.U.F., 1989, p. 990-993.
– J. Katz, « Why there is something. The Anthropic Principle and Improbable Events », in Dialogue. Canadian Philosopical Review, 1988 (27), n° 1, p. 111-120.
– Jean Ladriere, « Le principe anthropique. L’homme comme être cosmique », in Cahiers de l’école des Sciences philosophiques et religieuses, Bruxelles, Facultés Universitaires Saint-Louis, 2, 1987, p. 1-37.
– Jean Ladriere, « Le rôle de la notion de finalité dans une cosmologie philosophique », in Revue Philosophique de Louvain, 1969 (67), p. 143-181.
– Dominique Lambert et Marc Leclerc, Au cœur des sciences. Une métaphysique rigoureuse, coll. « Bibliothèque des Archives de philosophie » n° 60, Paris, Beauchesne, 1996, p. 147-153. Dans un appendice, les auteurs proposent une intéressante justification par rétorsion du principe anthropique.
– Jean Largeault, « Causalité », in Encyclopédie Philosophique Universelle. 2. Notions philosophiques, éd. par A. Jacob, Paris, P.U.F., 1989, p. 284-285.
– Jean-Pierre Longchamp, « Le Principe anthropique », in Études, Avril 1991, p. 493-502.
– Jacques Merleau-Ponty, « La cosmologie. Le point de vue du philosophe », in J. Audouze et la., Les particules et l’univers. La rencontre de la physique des particles, de l’astrophysique et de la cosmologie, Paris, P.U.F., 1990, p. 21-45.
– Edgar Morin, « La relation anthropo-bio-cosmique », in Encyclopédie philosophique Universelle. 1. L’univers philosophique, éd. par A. Jacob, Paris, P.U.F., 1989, p. 384-388.
– L. Morren, « De la loi d’entropie au principe anthropique. Réflexions d’un chrétien sur la cosmologie », in Revue Théologique de Louvain, 1984 (15), p. 160-183.
– J.-B. Schuermans, Le principe anthropique. Introduction à la finalité, Promoteur Jean Ladrière, Louvain-la-Leuve, Faculté des Sciences Philosophiques, juillet 1991.
– J. Smart, « The Anthropic Cosmological Principle (recension de Barrow et Tipler) », in Philosophical Quarterly, 1987 (37), p. 463-466.
– V. Trimble, « Cosmology Man’s Place in the Universe », in American Scientist, 1977 (65), p. 76-86.
– Trinh Xuan Thuan, La mélodie secrète… et l’homme créa l’Univers, « Le temps des sciences », Paris, Fayard, 1988.
– J. À Wheeler, « The Universe as Home for Man », in American Scientist, 1974 (62), p. 683-691.
– J. M. Zycinski, « The Anthropic Principle and Teleogical Interpretations of Nature », in Rev. Meta, 1987-1988 (41), p. 317-333.
[48] Trinh Xuan Thuan, La mélodie secrète… et l’homme créa l’Univers, p. 207. C’est moi qui souligne.
[49] Ibid., p. 206.
[50] Ibid., p. 208.
[51] Ibid., p. 217.
[52] Ibid., p. 222. C’est moi qui souligne.
[53] Cf. M. Jammer, Concepts of Space, Cambridge, Harvard University Press, 2ème éd., 1969.
[54] G. J. Whitrow, British Journal for the Philosophy of Science, 6, 1955, p. 13.
[55] R. H. Dicke, Nature, 192, 1961, p. 440.
[56] F. J. Dyson, Energy in the Universe, cité par Jacques Demaret et Christian Barbier, « Le principe anthropique en cosmologie », in Revue des Questions Scientifiques, Namur, 1981 (152), p. 181 à 222 et p. 461 à 509, ici p. 181.
[57] Traduction donnée par Jean Ladriere, in Jean Ladriere, « Le principe anthropique. L’homme comme être cosmique », in Cahiers de l’école des Sciences philosophiques et religieuses, Bruxelles, Facultés Universitaires Saint-Louis, 2, 1987, p. 1-37, ici p. 17. C’est nous qui soulignons.
[58] Brandon Carter, « Large number Coincidences and the Anthropic Principle in Cosmology », in Confontation of Cosmological Theories with Observational Data, Symposium IAU n° 63, Boston, éd. par M.S. Longair, Reidel, Dordrecht, 1974, p. 291 à 298, ici p. 294.
[59] Trinh Xuan Thuan, cf. tout le chapitre 7, p. 276s.
[60] Ibid., p. 279.
[61] Cf. Ibid., p. 279.
[62] Jacques Vauthier, « Une visite à Genèse I », in Collectif, coordonné par Marie-Joëlle Guillaume, Face à la création la responsabilité de l’homme. Rencontre entre l’Est et l’Ouest, Novgorod-Saint-Pétersbourg, 28 août-2 septembre 1995, Paris, Mame, Acce, 1996, p. 62 à 65, ici p. 62 et 63.
[63] Ibid., p. 280.
[64] Ibid., p. 281.
[65] Ibid., p. 282.
[66] Ibid., p. 284.
[67] Univers. Les théories de la cosmologie contemporaine, p. 277.
[68] Ibid., p. 279.
[69] Sur ce sujet, cf. J.-B. Schuermans, Le principe anthropique. Introduction à la finalité, Promoteur J. Ladrière, Louvain-la-Leuve, Faculté des Sciences Philosophiques, juillet 1991, p. 19 à 24 et les exposés techniques de J. D. Barrow et F. J. Tipler, ou de B. J. Carr et M. J. Rees, et, en plus accessible Davies, Wheeler et Trimble.
[70] Tipler, p. 419.
[71] Trinh Xuan Thuan, p. 286.
[72] S. W Hawking, Une brève histoire du temps. Du big bang aux trous noirs, Trad., coll. « Champs », Paris, Flammarion, 1989, p. 103.
[73] Ibid., p. 92.
[74] Ibid., p. 190 et 192.
[75] Ibid., p. 197s.
[76] Ibid., p. 202.
[77] Cité par J. D. Barrow et F. J. Tipler, p. 284.
[78] Roger Penrose, L’esprit, l’ordinateur et les lois de la physique (1989 le titre est en fait The Emperor’s New Mind, faisant allusion au Roi nu), Trad., Paris, InterEditions, 1992, p. 376.
[79] Trinh Xuan Thuan, p. 287.
[80] Richard Morris, Aux confins de la science, 1990, trad., Préface de Bernard d’Espagnat, Paris, Archipel-First, 1991, p. 220.
[81] Cf. exposé Ibid., p. 286 à 293.
[82] Stephen Weinberg, Les trois premières minutes de l’univers, trad. Jean-Benoît Yelnik, coll. « Points-sciences », Paris, Seuil, 1978, p. 178 et 179.
[83] Mot attribué à Van Bruecke, cité par J.-L. Parrot, La fin et les moyens, p. 21.
[84] F. J. Dyson, Les dérangeurs d’univers, Paris, Payot, 1987.
[85] Trinh Xuan Thuan, énoncé op. cit., p. 278 ; repris tel quel, sans citer et sans vergogne, par Guitton, p. 83.
[86] J. D. Barrow et F. J. Tipler, p. 22.
[87] Schuermans, p. 25-26.
[88] Cf. Xavier Sallantin, Le monde n’est pas malade, il enfante… L’unité de la foi et de la connaissance, « Etre plus. Collection dirigée par l’association des amis de Teilhard de Chardin », Paris, OEIL, 1989, p. 260.
[89] Ibid., p. 259.
[90] Le Principe Anthropique, l’homme comme être cosmique, Cahiers de l’école des Sciences philosophiques et religieuses, Bruxelles, Facultés Universitaires Saint-Louis, 2, 1987, p. 23.
[91] Ibid., p. 29.
[92] J. Smart, p. 120.
[93] J. Earman, « The Sap also rises A critical Examination of the Anthropic Principle », in American Philosophical Quarterly, 1987 (24), n° 4, p. 307-317, ici p. 314.
[94] J. D. Barrow et F. J. Tipler, p. 250.
[95] J. Katz, « Why there is something. The Anthropic Principle and Improbable Events », in Dialogue. Canadian Philosopical Review, 1988 (27), n° 1, p. 111-120, ici p. 116.
[96] Ibid., p. 116.
[97] Ibid.
[98] J. M. Zycinski, p. 327.
[99] p. 56.
[100] J.-P. Longchamp, p. 31.
[101] Jean Ladriere, Le principe anthropique, p. 19.
[102] Stephen W. Hawking, p. 159.
[103] Jacques Demaret, Le principe anthropique, p. 104.
[104] J.-P. Longchamp, p. 132.
[105] Edgar Morin, p. 316.
[106] Jacques Demaret, Le principe anthropique, p. 104.
[107] Jean Ladriere, Le principe anthropique, p. 23.
[108] Ibid., p. 29 et 30.
[109] J. Demaret, p. 105.
[110] Stephen Hawking, Commencement du Temps et fin de la physique, Paris, Flammarion, 1992, Présentation de l’ouvrage par Alain Bouquet, p. 35 et 36.
[111] Cf. par exemple Costa de Beauregard, « De la lecture du grand livre du monde. Réflexions sur les enjeux de la Mécanique quantique et de la Relativité », in Revue des Questions Scientifiques, 1988, 159 (1), p. 81-107.
[112] Jacques Merleau-Ponty, p. 21-22.
[113] Dominique Lecourt, « Vade Retro les dogmes », in Libération du 6 novembre 1991.
[114] Cf. Dominique Lecourt, Contre la peur. De la science à l’éthique, aventure infinie, Paris, Hachette, 1990. Il nous résume dans cet article ses thèses essentielles.
[115] Trinh Xuan Thuan, La mélodie secrète, p. 288.
[116] Jean Guitton, Grichka et Igor Bogdanov, Dieu et la science. Vers le métaréalisme, Paris, Grasset, 1991, p. 194 et 195. Il est développé ailleurs, notamment p. 88s.
[117] Ibid., p. 89.
[118] Ibid., p. 83-84.
[119] Ibid., p. 86.
[120] Ibid., p. 87.
[121] Schuermans, p. 27.
[122] ST, Ia, q. 2, a. 3.
[123] Jean Guitton, Grichka et Igor Bogdanov, Dieu et la science, p. 89.
[124] S. Muratore, « Il principico tra scienza e metafisica », in Rassegna di Telogia, 1992, p. 21-48, 154-197 et 261-300, ici p. 28.
[125] Pierre Gilbert, « L’homme et la nature », in Science et esprit, Montréal, Bellarmin, vol. XLV/3, octobre et décembre 1993, p. 235 à 251, ici p. 241, cf. développement des p. 240 à 242.
[126] Hervé Barreau, L’épistémologie, coll. « Que sais-je ? » n° 1475, Paris, PUF, 21992, p. 124.
[127] Nous suivrons l’exposé d’Edward Harrison, professeur de physique et d’astronomie, in Le noir de la nuit. Une énigme du cosmos, trad., Paris, Seuil, 1990.
[128] Ibid., p. 14.
[129] Ibid., p. 15-17.
[130] Ibid., p. 19 à 21 ; elles sont développées dans l’ouvrage.
[131] Ibid., p. 19.
[132] Ibid., p. 225s.
[133] Ibid., p. 225.
[134] Ibid., p. 229.
[135] Ibid., p. 228.
[136] Ibid., p. 233. Passages soulignés par moi.
[137] Ibid., p. 235.
[138] De même pour un Wegener et sa théorie de la dérive des continents, ainsi que le montre Claude Allègre, dans L’écume de la terre, « Sciences », Paris, Fayard, 1983, ch. 1, p. 19 à 44.
[139] Hans Jonas, Le principe responsabilité, trad. Jean Greisch, Paris, Le Cerf, 1990, p. 69.
[140] G. A. Tansley, « The Use and Abuse of Vegetational Concepts and Terms », in Écology, 16, 1935.
[141] Catherine Larrère, art. « Nature », in Dictionnaire d’éthique et de philosophie morale, dir. Monique Canto-Sperber, Paris, puf, 1996, p. 1024 à 1031, ci p. 1030.
[142] Montesquieu, L’esprit des lois, XVIII, 9.
[143] Regards sur Olmany. Vivre dans les territoires contaminés par l’accident de Tchernobyl, Catalogue réalisé lors de l’exposition présentée au Palais du Grand Large de Saint-Malo, les 23 et 24 septembre 1998, dans le cadre du projet européen ethos, 1998, sans page.
[144] Commentaire de la photo 31.
[145] René Thom, « La Physique et les formes », in La pensée physique contemporaine, p. 336. « La physique moderne – indubitablement – se rattache à la tendance parménidienne (les catastrophistes, eux, se rattacheraient plutôt au courant héraclitéen ». (Ibid.)