Jalons pour une Histoire de la Philosophie de la nature III-5 Brève histoire philosophique de la chimie

« Qu’est-ce qu’un commencement ? Une rencontre. Qu’est-ce qu’une fin ? Une séparation. Entre les deux, la durée, toujours relative, d’un monde [1] ».

A) Introduction

1) Objet : une histoire de l’atome

L’histoire doctrinale philosophique (par opposition à une histoire seulement descriptive ou une histoire doctrinale des seules découvertes scientifiques) de la chimie, donc de la seconde espèce de mouvement (dont le terme est le devenir absolu, c’est-à-dire la géné­ration-altération) vérifie notre description-explication de la philosophie de la nature en trois périodes. L’histoire de plusieurs grandes notions chimiques confirment notre typo­logie et notre répartition des époques de l’histoire des sciences : l’atome, la chaleur, le mixte, la nomenclature (la classification des éléments).

Cela vaut pour le premier mouvement d’altération qui concerne la chaleur. Cela vaut aussi pour l’étude de la structure de la matière, donc pour la génération-corruption des substances matérielles inertes. C’est ce que manifeste une étude attentive de l’atome [2]. C’est à propos du devenir substantiel en effet que se pose la question de la nature phy­sique de la matière, non pas la nature essentielle, telle que la philosophie seule peut la déterminer, mais sa première détermination substantielle qui est l’atome. De même que la première distinction affectant le vivant un peu évolué est la sexualité (masculin-fémi­nin), de même, pour l’inerte est-ce la distinction atome-molécule ou plutôt discontinu-continu.

En effet, s’opposent deux conceptions de la matière, l’une continuiste ou non-atomique, l’autre discontinuiste ou atomique.

L’approche continuiste, antiatomiste, privilégie la qualité : c’est-à-dire l’ordre, la nou­veauté des substances, leur diversité intrinsèque, etc.

Mais l’approche discontinuiste, atomiste incline spontanément au mécanisme. La preuve en est que les premiers atomistes sont mécanistes : la finalité disparaît au profit du seul hasard ; le changement qualitatif se décline sur le mode du seul changement lo­cal des particules ; la nouveauté s’explique par le seul agglomérat ou rapprochement des éléments ; de sorte que le devenir absolu se résorbe dans le changement accidentel et que les causes finissent par se réduire à la matière et à l’efficience ; bref, c’est le triomphe absolu de la quantité sur la qualité. À cette raison historique se joint une raison doctrinale : le mécanisme est d’emblée adapté à une approche quantitative de la ma­tière. Une approche mathématicienne du réel privilégie spontanément l’atomisme mé­caniste. Ce n’est pas un hasard si, dans les doctrines atomistiques, la connaissance et l’âme, qui sont les domaines par excellence du qualitatif irréductible à la quantité, se trouvent analysés en termes d’atomes ou de transfert d’atomes.

Cependant, une approche atomistique respectueuse de la matière n’est pas forcément mécaniste. N’est-il pas possible de conjuguer les deux approches, continuiste et ato­miste, ce qui supposera de découpler atomisme et mécanisme ? L’histoire autant que la doctrine y autorise, et c’est ce que nous ferons pour terminer.

Par conséquent, l’histoire de la compréhension de la matière n’est pas à deux, mais à trois temps : antiatomiste et continuiste ; atomiste et discontinuiste, en partie par réaction ; enfin, s’achemine vers une réconciliation des deux perspectives.

Je rappelle enfin que la répartition approche qualitative (plus aristotélicienne), ici conti­nuiste – approche quantitative (plus platonicienne), ici atomiste, est sans doute diachro­nique ; elle est aussi synchronique : à chaque époque, nous trouvons des représentants de cette double tradition, et cela dès l’aurore de la pensée grecque.

2) Enjeux ou intérêts

Les questions philosophiques posées sont de plusieurs ordres :

a) Questions relatives à la chimie

– Certaines questions concernent directement, immédiatement l’atomisme : quelle est la structure de la matière ? Est-elle atomique ou continue ? Est-elle passive ou active ? Etc.

À cette question sur le fait sont jointes deux questions décisives et parmi les plus fon­damentales car elles concernent les deux interrogations métaphysiques fondamentales : celle, dynamique, du devenir et celle, statique ou, plus positivement, structurelle, de la diversité :

– A quoi est due la nouveauté ? En quoi consiste l’émergence de substances nouvelles ?

– Quelle est la raison profonde de la variété des substances chimiques, inertes ?

b) Questions plus générales

Le mécanisme atomistique pose des questions sur le jeu des causes notamment :

– Existe-t-il une cause finale ?

– Existe-t-il une hiérarchie parmi les êtres ? Nous avons déjà vu que les différences entre les êtres relèvent de l’accidentel ou de l’essentiel, du hasard ou d’une intelligibilité immanente aux choses.

c) Tableau résumé

Un tableau permettrait de résumer les oppositions des deux doctrines :

3) Plan

Il est traditionnel d’opposer une époque préscientifique et une époque scientifique. Mais cette distinction est fallacieuse, car ces deux approches ont été toujours mêlées ou plutôt, si on admet que la science est véritablement née à l’époque classique, cette science, surtout eu égard à l’atome, n’a jamais été désolidarisée d’une approche plus globale de la nature. Il me semble donc plus juste de distinguer les approches qualitative et continuiste des approches

B) Approche continuiste ou antiatomique

Cette première approche a contre elle de ne pas être scientifique, donc de souvent être disqualifiée d’emblée, ce qui est très regrettable. Pour le détail de l’histoire, je renvoie au cours d’histoire des philosophies de la nature [3].

1) Première élaboration opposition des deux approches

On trouve les deux approches de la matière dès les présocratiques. Il est stupéfiant et très significatif que l’esprit humain ait d’emblée pensé le monde en termes soit continus soit discontinus.

a) Approche continuiste

Elle commence avec les Milésiens.

b) Approche discontinuiste les atomistes

Les atomistes s’opposent à toute une approche dynamique finaliste de la nature. Un signe clair en est l’affirmation d’une association préférentielle d’atomes semblables, alors que les autres présocratiques préfèrent se fonder sur l’opposition des contraires.

Ce que Leucippe et Démocrite ont commencé à élaborer, Épicure puis Lucrèce vont le systématiser. Du moins, leurs écrits nous laissent un exposé assez complet de l’ato­misme antique. Cette systématisation sera assez achevée pour marquer la pensée pen­dant près de deux millénaires.

Il semble que la raison d’être de la doctrine atomiste soit de résoudre le dilemme Parménide-Héraclite, c’est-à-dire la question du devenir. La distinction être-néant ou plutôt non-être qui est au cœur de la pensée parménidienne devient la distinction atomes-vide. En effet, contrairement à ce que l’on croit de manière trop simpliste, la doc­trine atomiste n’est pas moniste, mais dualiste. La nature est composée non pas d’un seul principe, mais de deux principes : le plein des atomes, des corpuscules et le vide.

2) L’opposition des deux conceptions grecques de la matière Platon-Aristote

À mon sens, les deux grands maîtres de la pensée grecque s’opposent significative­ment sur la question de l’atome. D’un côté, il est clair que Platon est un atomisme géomé­trique. De l’autre, il est tout aussi certain qu’Aristote est continuiste ; plus encore, il s’op­pose constamment aux atomistes. Son opposition s’alimente de plusieurs raisons : l’évi­dence de la continuité ; l’incapacité pour l’atomisme d’expliquer et la nouveauté du de­venir substantielle et la variété des substances ;

Mais la position du Stagirite est d’abord positive. Il défend une vision de la nature où prime une matière en puissance à sa finalité qui est la forme.

3) Le triomphe de l’antiatomisme aristotélicien le monde médiéval

a) Exposé

Par bien des côtés, le christianisme a rompu avec l’atomisme antique. Certaines conceptions chrétiennes s’opposent frontalement à l’atomisme. Notamment trois. L’atomisme antique suppose 1. que le monde est éternel, donc que les particules le sont aussi ; 2. que les mondes sont pluriels ; 3. enfin, que ces particules sont agitées par des mouvements aléatoires. Or, le christianisme affirme : 1. que le monde est créé, donc li­mité dans le temps ; 2. que le monde créé par Dieu est un ; 3. que la formation de l’uni­vers n’est pas laissée au hasard mais à la sagesse de Dieu, donc que cet univers est doué de finalité.

À titre de conséquence, le christianisme refusait de l’atomisme deux conséquences. La première, anthropologique, est son matérialisme, donc la composition matérielle de l’âme que prônait les épicuriens ; la seconde, éthique, est le refus de la morale épicu­rienne interprétée, ce qui est une erreur, comme un hédonisme laxiste.

Le christianisme s’est aussi opposé à l’atomisme à titre indirect : à cause des consé­quences que celui-ci comporte. L’atomisme est incompatible avec la substance, puisque celle-ci n’est que la juxtaposition accidentelle d’éléments. Or, la doctrine eucharistique, qui est au cœur du catholicisme, suppose la transformation de la substance du pain dans la substance du Corps du Christ. Aussi, l’atomisme est-il théologiquement incompatible avec la théologie. Or, une est la vérité : le livre de la nature ne saurait contredire le Livre de la Révélation. C’est donc que l’atomisme est erroné autant philosophiquement que théologiquement.

b) Quelques noms

On pourrait multiplier les noms de philosophes antiatomistes. Je soulignerai seulement quelques atomistes dont les prises de position confirment en creux l’atomisme de la ma­jorité des penseurs chrétiens. Tel est le cas de Thierry de Chartres (mort vers 1155) et de Guillaume de Conches (1080-1154). Tel est surtout le cas de Guillaume d’Occam (13). Pour Occam, seul existe le singulier, l’individu. La substance se réduit à ses caractéris­tiques perceptibles. Or, Occam est un antiaristotélicien.

Un autre antiaristotélicien, Nicolas d’Autrecourt (1300-1350) refuse aussi la conception de la substance.

c) Limite

Il serait historiquement injustifié et philosophiquement trop court d’identifier l’antiato­misme des penseurs médiévaux soit à une régression pure et simple, soit à un refus es­sentiel, de principe à l’atomisme. On se rend compte, au contraire, que cet antiatomisme concerne soit les caractéristiques des atomes que les temps modernes et l’époque contemporaine abandonneront aussi bientôt (l’incorruptibilité, notamment), soit un aristo­télisme fermé que les récents acquis de la chimie et de la physique particulaire permet­tent de réformer.

Un signe en est que l’atomisme avait tendance à prôner avec logique l’identité de com­position matérielle des réalités terrestres et célestes ; or, l’on sait que l’abolition du dua­lisme des deux mondes sublunaire et astronomique sera l’un des grands acquis amorcé au Moyen-Age et consommé à l’orée des temps modernes, sous l’influence du christia­nisme.

C) Approche discontinuiste ou atomique

1) Préparation lointaine, philosophique (xviie et xviiie siècles)

L’atomisme reparaît aux Temps modernes ; mais ceux-ci ont été marqué, plus encore que le Moyen Age, par la confrontation avec l’enseignement de la théologie eucharis­tique. « Ce qui est frappant dans cette résurrection [de l’atomisme], c’est qu’elle est l’œuvre des croyants tentant de concilier les propositions atomiques avec leur vision chrétienne du monde [4] ». On rencontre des antiatomistes, mais surtout des atomistes, dont la vision n’est pas sans changement par rapport à celle proposée par les atomistes païens, de l’Antiquité païenne.

Si l’atomisme émerge à nouveau, au nom de l’antiaristotélisme (dont Pullman ne semble pas avoir une vive conscience) et du progrès de la pensée scientifique, il s’avance d’abord sur le seul terrain philosophique, sans pertinence expérimentale. Cette absence de fondement empirique caractérise ce grand retour de l’atomisme.

a) Les antiatomistes

Le plus notable de tous est peut-être Descartes. On peut aussi considérer les monades leibniziennes comme une forme d’atomisme.

Henry More (1614-1687), contemporain de Descartes est chef de file de l’école néopla­tonicienne de Cambridge et l’un des premiers propagateurs du cartésianisme en Angleterre. La principale critique que More adresse à Descartes est son refus du vide.

b) Les atomistes philosophes

Le détail importe peu pour nous. Ce qui est en revanche intéressant, c’est que presque tous ces auteurs, sinon la totalité, ont cru de réformer l’atomisme antique en quelques-unes des pièces maîtresses du système, pour rendre compte des acquis de la vision chrétienne du monde : à savoir son ordre, sa finalité, son unicité, ses limites temporelles. De là à dire que l’Église régissait la philosophie en sous-main…

Prenons quelques exemples. Je ne traiterai pas du cas complexe et controversé de Galilée.

1’) Gassendi (1592-1655)

Cet ecclésiastique notable, contemporain de Galilée, Descartes, Mersenne et Pascal, est un antiaristotélicien et un pro-épicurien, ce qui l’a amené à défendre l’atomisme. Le point de départ de sa position est l’existence du vide : Aristote s’oppose à l’existence du vide ; or, les expériences de Torricelli systématisées par Pascal montre, tout à l’inverse, sa réalité. C’est donc que la pensée aristotélicienne est caduque.

Si Gassendi retient des épicuriens que les atomes existent, sont impénétrables, insé­cables et indestructibles, en revanche il introduit la notion d’associations d’atomes aux­quelles il attribue explicitement le terme de « molécules ». Surtout, en croyant, Gassendi élimine toute trace de mécanisme : au nom de la présence et de l’action de la Providence divine, il refuse l’éternité des atomes et l’afinalisme ainsi que l’infinité des mondes. Bref, « pour Gassendi, cette théorie constitue le meilleur fondement pour l’étude scientifique du monde, […] quitte à en éliminer les aspects qui sont inacceptables pour l’Église », à savoir « sa pureté et sa rigueur mécanistes [5] ».

2’) Giordano Bruno (1548-1600)

Comme Galilée, Bruno croit aux atomes et aux vides. En effet, la nature est de même composition matérielle. Mais là encore, cet atomisme est bien éloigné du mécanisme des Anciens. Il est spiritualiste : ces atomes sont doués d’une âme qui est une manifestation de l’âme de l’univers. De plus, chaque atome est comme une monade contenant en lui l’infinité dont il émane. De ce fait, les atomes ne sont pas laissés au hasard, mais sont ordonnés et finalisés.

3’) Isaac Newton (1642-1727)

Dans un passage célèbre de l’Optique, Newton affirme : « Il me paraît très probable que Dieu forma au commencement la matière de particules solides, pesantes, dures, impéné­trables, mobiles, de telles grosseurs, figures, et autres propriétés, en tel nombre et en telle proportion à l’espace qui convenait le mieux à la fin qu’il se proposait ; par cela même que ces particules primitives sont solides, et incomparablement plus dures qu’au­cun des corps qui en sont composés, et si dures qu’elles ne s’usent et ne se rompent ja­mais, rien n’étant capable (suivant le cours ordinaire de la Nature) de diviser ce qui a été primitivement uni par Dieu même [6] ». Les propriétés des atomes sont celles-là même que leur attribuaient les atomistes anciens. De même, Newton adhère à l’existence du vide, même si les espaces interstellaires pourraient être remplis d’un éther très raréfié.

En revanche, une nouvelle fois, Newton se refuse au mécanisme aléatoire d’un Démocrite et d’un Épicure. Dieu n’a pas seulement créé le monde avec sagesse, il ne cesse de le gouverner par sa Providence. Plus encore, l’apport par excellence de Newton qui est la loi de gravitation assure aux atomes un lien, donc une unité. En fait, Newton émet l’hypothèse que la loi de gravité en régit que le comportement macrosco­pique, une autre loi de même type, mais seulement analogue, commandant les corpus­cules élémentaires : il conçoit ainsi, à côté des forces gravitationnelles, des composantes électriques et magnétiques, ainsi que des forces répulsives [7].

4’) Robert Boyle (1627-1691)

Avec Newton, Boyle est l’un des principaux protagonistes anglais de la théorie ato­mique. Grand chimiste, il introduit une vision originale. Tout d’abord, il refuse d’admettre les quatre éléments d’Empédocle ou les trois « principes » de Paracelse (mercure, soufre, sel) à titre de composants fondamentaux des corps. De plus, il estime que les particules fondamentales et innombrables créées par Dieu s’agrègent en agglomérats stables, les « primary concretions » qui possèdent des propriétés spécifiques ; bien qu’il s’oppose au concept aristotélicien de formes substantielles, il refuse le mécanisme négateur de la nouveauté substantielle. En outre, il se refuse d’abandonner le monde au seul hasard : les mouvements des atomes sont soumis aux volontés de la Providence.

5’) Emmanuel Kant (1724-1804)

Kant est un atomiste devenu antiatomiste, comme le dit Pullman. Son parcours est as­sez exceptionnel pour mériter d’être souligné, d’autant que, si les changements d’opi­nion ne sont pas rares, au xixe siècle, ils s’effectuent en sens inverse : les antiatomistes deviennent atomistes. Durant sa période précritique, Kant s’affirme nettement en faveur d’une structure corpusculaire de la matière. Cela est particulièrement net dans son Histoire générale de la nature et théorie du ciel, écrit à l’âge de 31 ans (1755) [8]. Précisément, si Kant accepte l’existence des atomes et du vide, il limite le mécanisme de la théorie en récusant le matérialisme et surtout l’afinalisme. « On ne peut regarder l’uni­vers sans reconnaître l’ordonnance tout à fait excellente de son organisation et les marques sûres de la main de Dieu dans la perfection de ses relations ».

En revanche, dans la seconde période, critique, Kant s’oppose à l’atomisme : défendant la structure continue de la matière, il devient l’adversaire de l’existence des atomes et du vide. Dans les Premiers principes métaphysiques de la science et de la nature (1786), Kant affirme que la matière est divisible à l’infini et remplit tout l’espace. Aller voir les an­tinomies.

6’) James Clerk Maxwell (1831-1879)

Plus proche de nous, Maxwell, savant éminent et chrétien, défend l’atomisme en lui ajoutant une étonnante note religieuse [9]. Il se déclare donc ouvertement atomiste : « Un atome est un corps qui ne peut être divisé en deux et une molécule est la plus petite portion d’une substance […] ». Par exemple, l’eau se subdivise en parties semblables que la science appelle molécule. Celle-ci se compose de deux parties : l’une étant l’oxygène et l’autre l’hydrogène, précisément deux « molécules » d’hydrogène et une « molécule » d’oxygène (et non pas atome, comme on dirait aujourd’hui). « Chaque substance, simple ou composée, a sa propre molécule ».

Puis, Maxwell fait un certain nombre d’observations qui sont toujours vraies : les molé­cules individuelles conservent une masse identique ; ses autres propriétés demeurent inchangées ; de plus, dans l’espace, on observe, à partir du rayonnement que ces pro­priétés ne se modifient pas.

Or, partant de là, Maxwell en conclut que la science ne peut par elle-même montrer l’existence de la molécule. En effet, « l’évolution implique nécessairement un changement continue » et la molécule ne change en rien. Il faut donc une autre cause à la similitude des molécules : « Aussi sommes-nous conduits, en suivant une voie strictement scienti­fique, au plus près du point où la science doit s’arrêter… En retraçant l’histoire de la ma­tière, la science est arrêtée quand elle s’assure, d’une part que la molécule a été faite, et d’autre part qu’elle n’a été faite par aucun des processus que nous appelons naturels. La science est incompétente pour raisonner sur la création de la matière à partir de rien. Nous avons atteints la limite extrême de nos facultés de penser quand nous avons admis que parce que la matière ne peut être éternelle ni exister par elle-même, elle a dû être créée ». Par conséquent, les molécules n’ont pas toujours existé ; elles ont une origine comme « manufacturée », qui est Dieu. Peu importe ici l’existence d’une cause première. Ce qui importe, c’est qu’une nouvelle fois, un atomiste s’oppose à l’un des traits princi­paux de l’atomisme classique et mécaniste en refusant l’éternité des particules élémen­taires.

c) Les atomistes savants

Le seul élément scientifique nouveau apporté à cette période est la démonstration ex­périmentale de l’existence du vide, commencée par Torricelli et systématisée par Pascal.

Durant cette période, notamment au xviie siècle, on rencontre quelques scientifiques de valeur qui se sont penchés sur la structure continue ou discontinue de la matière. Notamment cinq émergent : les trois Français, Sébastien Basso, Claude Bérigard et Jean Magnien, et les deux Allemands, Daniel Sennert et Joachim Junge. Ces savants, indé­pendamment de leurs convictions religieuses qui n’apparaissent guère dans leurs écrits, sont atomistes. Mais leur atomisme n’a rien de mécaniste. Surtout parce qu’ils attribuent des propriétés ou des « qualités » complémentaires aux atomes, « à la manière aristotéli­cienne [10] ». Pour Sennert et Juge, les atomes constitutifs des différents éléments sont doués d’une identité chimique qui demeure au sein des différentes composés mixtes.

d) Conclusion

On aurait pu multiplier les exemples : Richard Bentley (1661-1742), John Locke (1632-1704), Pierre-Louis Moreau de Maupertuis (1698-1752), Denis Diderot (1713-1784), etc. Aucun, qu’il soit chrétien, agnostique (Locke) ou athée (Diderot), n’accepte une vision seulement mécaniste de l’atomisme. De même chez les savants (voici d’autres noms : Van Melsen, Isaac Beeckman).

Ces exemples sont un signe réjouissant, prometteur que la vision chrétienne et un aristotélisme revisité pourraient cohabiter avec un atomisme lui-même toiletté.

2) La préparation prochaine : les théories scientifiques atomistes (xixe siècle)

Jusqu’à maintenant, la question de l’atomisme a été plus une question a priori qu’une question expérimentale. Aucune donnée empirique, d’observation ou d’expérimentation ne permet de trancher en faveur de l’hypothèse continuiste ou discontinuiste. Il ne va plus en être de même à partir du xixe siècle. L’expérience va faire des bonds gigan­tesques. Pour autant, la démarche est encore longue, complexe, tourmentée, ce qui ex­plique la persistance d’une pensée fortement antiatomiste jusqu’au début du xxe siècle [11]. En effet, si les faits scientifiques s’accumulent, il manque des lois qui élaborent les concepts fondamentaux (par exemple la distinction vitale de l’atome et de la molécule, la notion de poids atomiques, l’élaboration d’une notation chimique, le classement des éléments)) et plus encore une théorie unificatrice. De plus, l’assertion d’une existence des atomes fait figure d’acte de foi antipositiviste, de transgression indue de l’immédia­tement mesurable. D’ailleurs nous verrons que le triomphe final de l’atomisme est discu­table : celui-ci aura dû se dépouiller de nombre de ses prétentions mécanistes.

Ici, l’histoire de l’atomisme va pour une fois se confondre avec l’histoire de la chimie. Je renvoie à l’exposé que j’en donne. Mais la confusion n’est pas encore totale, de même que la distinction-divorce philosophie-science n’est pas consommée, de sorte que l’ex­posé historique doit faire alterner approches scientifiques et approches philosophiques.

a) Le temps des faits nouveaux mise au point de la méthode quantitative

Antoine-Laurent Lavoisier (1740-1794) a d’abord détruit la théorie des quatre éléments qui régnait sur la philosophie de la nature depuis plus de deux millénaires. Pour cela, il démontre la nature moléculaire, c’est-à-dire composée de l’eau. En plein, à cette décou­verte est jointe celle de la notion d’élément : « Nous attachons au nom d’éléments ou de principes des corps l’idée du dernier terme auquel parvient l’analyse ; toutes les sub­stances que nous n’avons encore pu décomposer par aucun moyen, sont pour nous des éléments [12] ». À noter que cette définition n’est pas d’abord ontologique, mais opéra­tionnelle, fonctionnelle : l’élément n’est définie que par la méthode qui permet de l’obte­nir. C’est ainsi que Lavoisier découvre 33 éléments (dont la lumière et la calorique).

Seconde contribution essentielle de Lavoisier : l’universalisation et la systématisation de la loi de la conservation de la matière (c’est-à-dire de la masse). Le corollaire est l’im­portance des études pondérales qui introduisent ainsi en chimie l’élément quantitatif, donc mesurable qu’il leur manquait. On cesse d’approcher la structure de la matière en termes seulement qualitatifs.

b) Le temps des lois

Se fondant sur l’approche quantitative, c’est-à-dire pondérale, se mettent en place des lois relatives à la combinaison des éléments chimiques : la loi des proportions constantes ou définies de Joseph-Louis Proust (1754-1822) selon laquelle les combinai­sons de deux éléments s’effectuent toujours selon des rapports pondéraux invariables, la loi des proportions multiples de John Dalton (1766-1844) selon laquelle lorsque deux éléments peuvent se combiner de plusieurs manières différentes, leurs poids respectifs dans ces diverses unions se font selon des nombres entiers, donc dans des proportions simples et la loi dite des nombres proportionnels ou des proportions réciproques de Jeremias Benjamin Richter (1762-1807) affirmant que les poids de deux éléments a et b qui se combinent à un même poids d’un troisième élément c sont dans un rapport simple avec les poids de a et b qui se combinent entre eux.

La numérisation concerne aussi des notions plus qualitatives comme la chaleur. la loi de Pierre-Louis Dulong (1785-1838) et Alexis Petit (1791-1820), énoncée en 1819 mon­trant que le produit du poids atomique par la chaleur spécifique d’un élément est indé­pendant de la nature de cet élément (il est d’approximativement 6,4 calories), ce qui est un nouveau progrès dans la quantification.

c) Le temps des théories dispersées

Toutes ces lois préparent à l’élaboration d’une théorie unificatrice de type corpusculaire ou atomique.

1’) La première théorie atomique Dalton

a’) Exposé

Dans son ouvrage A New Systeme of Chemical Philosophy (1808), Dalton formule pour la première fois une théorie atomique scientifique, c’est-à-dire dont le fondement est empirique. Précisons encore, une théorie dont le but est de rendre compte de manière unifiée d’expériences quantitatives faites sur la structure même de la matière.

Dalton pose d’abord l’existence d’atomes indivisibles et indestructibles constituant la matière. Il affirme surtout que tous les atomes d’un même élément sont identiques et de même poids. Là se trouve la principale innovation scientifique : désormais, l’atome n’est pas confondu avec tous les autres (homogénéité atomique), ni identifié par une propriété qualitative, mais défini par une propriété spécifique quantitative, à savoir son poids. La discontinuité présente dans le monde atomique qui jusque là menaçait la for­malisation mathématique est résolue par la réduction méthodologique de l’atome à sa valeur pondérale.

Quant aux changements chimiques, Dalton retrouve le principe de Lavoisier de conser­vation de la matière : créer ou détruire de la matière, « autant essayer d’introduire une nouvelle planète dans le système solaire ou d’en annihiler une déjà existante que de créer ou détruire une particule d’hydrogène ».

Or, partant de ces postulats, Dalton arrive à rendre compte des différentes lois pondé­rales qui ont été élaborées (comme les rapports constants et exprimables par des nombres entiers des poids des constituants dans les corps composés). « Pour Dalton, cette concordance, sans en apporter une preuve définitive, suggère fortement une struc­ture corpusculaire de la matière [13] ».

Précisément, à titre de résultats, Dalton établit une échelle des poids relatifs pour un certain nombre d’éléments chimiques. De plus, il propose pour la première fois d’attri­buer au corps simples et aux corps composés de symboles traduisant à la fois leur iden­tité et leur poids. Cette échelle sera bien entendu perfectionnée

Désormais, l’atomisme est plus qu’une hypothèse, pour reprendre l’expression de Jean-Paul II à propos de la théorie de l’évolution : elle devient une théorie.

b’) Limites

Une des principales limites de cette théorie tient à l’insuffisante distinction entre atomes et molécules. En effet, la nomenclature des éléments et des corps composés est uni­forme, ne distinguant donc pas atomes et molécules. Dalton parle ainsi d’atomes compo­sés au lieu de molécules : l’atome constitue pour lui tout corps, simple ou composé. Au-delà de l’ambiguïté linguistique, le problème porte sur la structure même de la matière.

2’) La théorie d’Avogadro pour une première distinction atome-molécule

Les lois volumiques de Joseph-Louis Gay-Lussac (1778-1850) et l’hypothèse émise par Amédée Avogadro (1776-1850) vont répondre à un certain nombre d’insuffisance de la théorie de Dalton.

Étendant les lois pondérales de Proust et de Dalton, Gay-Lussac montre que des rap­ports numériques régissent l’interaction et l’association des corps simples à l’état ga­zeux. Par exemple, 2 volumes d’hydrogène et 1 volume d’oxygène donnent 1 volume d’eau (sous forme de vapeur). De plus, les gaz suivent les mêmes lois de compression et de dilatation. Ce qui conduit Avogadro à énoncer une hypothèse très universelle : « tous les gaz considérés dans les mêmes conditions de température et de pression renfer­ment, à volumes égaux, le même nombre de molécules ». Et Avogadro montre que sa loi s’accorde avec les observations de Gay-Lussac [14]. Pour cela, Avogadro doit distinguer les éléments gazeux sous forme di- ou poly-atomique. Cela permet de présenter la syn­thèse de l’eau sous la forme suivante (modernisée) : 2H2 + O2 –> 2H2O. Alors qu’un Dalton écrirait H + O –> HO et Gay-Lussac : 2H + O –> H2O.

On passera de l’hypothèse à la Loi puis au nombre d’Avogadro.

Je ne dirai rien de l’antiatomiste original Jean-Baptiste Dumas (1800-1884) [15] qui va distinguer atomes physiques et atomes chimiques, ce qui ne va pas aider à voir clair.

3’) La théorie de Berzelius une première compréhension des relations entre composés

Berzelius a proposé une théorie électrochimique des combinaisons chimiques en 1819. Selon cette théorie, chaque atome, simple ou composé, comporte deux pôles chargés d’électricités de signes opposés ; mais l’une des charges dominant impose sa polarité aux atomes. Berzelius en conclut deux choses : les atomes se classent en électropositifs (le plus électropositif est le sodium) et électronégatifs (le plus électronégatif est l’oxy­gène) ; de plus, ils se lient selon leurs affinités électriques pour former des composés chimiques neutralisant leurs électricités opposées.

Une approche électrique des composés chimiques n’est pas nouvelle : on se souvient que Newton lui-même l’avait suggéré. En revanche, l’originalité de Berzelius est d’avoir systématiquement rapproché la théorie électrochimique qu’il a créée de la théorie ato­mique. En ce sens, il est le précurseur de la moderne théorie de la liaison chimique.

d) La persistance de l’antiatomisme

L’antiatomisme est surtout philosophique. On le rencontre chez des penseurs aussi di­vers que Hegel, Schopenhauer et Comte. Je n’entrerai pas dans le détail.

Nous verrons que l’antiatomisme, ou plutôt ses derniers bastions, peut aussi arborer une forme plus scientifique.

e) Vers l’unification des théories
1’) Préparation par l’unification du vocabulaire l’intervention de la cause institutionnelle

En 1860 se tient pour la première fois un Congrès international de chimistes, à Karlsruhe. Le but est d’introduire une cohérence dans le désordre des concepts et des noms, c’est-à-dire nomenclatures. Ce résultat ne fut que partiel ; du moins réussit-on à s’accorder sur la distinction atome-molécule. On doit ce succès à Stanislao Cannizzaro (1816-1910) qui se fondra sur la loi d’Avogadro pour centrer tout le problème sur la dua­lité atome-molécule, seule voie d’accès à la connaissance de la structure élémentaire et corpusculaire de la matière. En ce sens, 1860 est une date symbolique qui achève ce premier temps d’élaboration chimique théorique.

Deux grands acquis scientifiques vont ponctuer la mise en place de la théorie atomique : le premier concerne le classement des atomes, le second leur mise en relation.

2’) La classification périodique des éléments la théorie de Mendéléïev

On doit à Dimitri Ivanovitch Mendéléïev (1834-1907) le premier grand œuvre qui a consisté à ordonner les éléments, c’est-à-dire les atomes. Un certain nombre de tenta­tives et donc de prises de conscience l’ont précédé : Beguyer de Chancourtois (1819-1886), J. A. Newlands (1838-1898), etc. Mais on doit à Mendéléïev d’avoir élaboré la table la plus élaborée et la plus hardie connue sous le nom de Tableau périodique des éléments en 1869. Pour cela, il est parti des 63 éléments connus à l’époque (alors qu’il existe 92 éléments stables). Cette table ne se contente pas de classer les éléments en fonction de leurs poids, ce que l’on pouvait faire avant Mendéléïev, mais à mettre en cor­rélation ces deux critères : le critère pondéral, le poids atomique spécifique obtenu par l’utilisation des densités de vapeur et l’hypothèse d’Avogadro ; et le critère chimique, c’est-à-dire les propriétés des éléments ; or, ces propriétés apparaissent régulièrement et sont fonction du poids ; d’où le nom de table périodique : il est possible de grouper les éléments à partir de ce poids, en familles chimiquement identifiables. Connaissant la structure électronique de l’atome qui est le nôtre, ce regroupement nous paraît évident ; mais il faut mesurer que ces analogies de comportement chimique demeuraient encore mystérieuses et inexplicables.

Cette œuvre a toutes les caractéristiques et finalités d’une théorie : unificatrice, prédic­tive (féconde) et explicative. C’est ainsi que Mendéléïev a eu l’audace de laisser des places vacantes dans son tableau, et l’avenir s’est chargé de montrer son courage et sa clairvoyance prophétiques.

À noter toutefois que Mendéléïev a toujours hésité à parler d’atomes, puisqu’il utilise le terme d’éléments. Pourtant, son tableau montre la valeur première de la notion de poids atomique face à celle d’équivalent.

3’) L’émergence de la chimie structurale

Cette nouvelle théorie ne concerne plus l’atome lui-même mais sa relation aux autres atomes, c’est-à-dire l’architecture de la composition d’atomes en molécules et sa cause qui est la valence, ancêtre de la liaison chimique.

Elle est notamment due à la multiplication prodigieuse des synthèses de substances nouvelles en chimie organique. On met en place les notions de radicaux et de résidus, celle de substitution. Par exemple Gerhardt a montré qu’il existe quatre « types » princi­paux constitués par l’hydrogène (H-H), l’acide chlorhydrique (H-Cl), l’eau (H-O-H) et l’ammoniac (les trois H étant liés à N). Or, cette « typologie » suggère que les éléments ou atomes ont des capacités variables de relation, que les liaisons interatomiques sont di­verses. C’est ce qu’exprimera une autre notion, celle de valence. On la définira concrè­tement par le nombre d’atomes d’hydrogène avec lesquels un atome peut se combiner. Dans l’exemple ci-dessus, il est clair que le chlore est monovalent (comme on l’observe dans le cas de l’acide chlorhydrique : H-Cl), l’oxygène bivalent (comme on l’observe dans le cas de l’eau : H-O-H), et l’azote trivalent (comme on l’observe dans le cas de l’ammoniac).

On ajoutera la découverte majeure, par August Kekulé (1829-1896) de la tétravalence du carbone (comme on l’observe dans le méthane : CH4).

Or, rendre compte de la valence supposait, en dernière analyse que l’on fasse appel non pas seulement aux substitutions, aux transferts de groupements d’atomes, radiaux ou résidus, mais à la constitution des atomes. Aussi une vaste réflexion s’entame à partir de ces expériences chimiques une structure atomique et moléculaire. Un progrès radical sera opéré par le passage d’une description plane, bidimensionnelle à une description tridimensionnelle. Là encore, celle-ci nous paraît évidente, mais cela tient à ce que notre approche de l’atome est physique (par le biais de la diffraction aux rayons X par exemple), alors qu’au xixe siècle, l’approche ne peut qu’être chimique.

Un pas décisif vers la figuration volumique de l’arrangement spatial des atomes sera opéré en 1874 par Achille Jacques Le Bel (1847-1930) et Jacobus Hendricus Van’t Hoff (1852-1911) qui, les premiers, ont proposé de se représenter les quatre valences du carbone comme les sommes d’un tétraèdre régulier dont l’atome de carbone occuperait le centre.

e) Les derniers antiatomistes
1’) Scientifiques

Ils sont d’abord scientifiques. La raison principale est là encore surtout d’ordre positi­viste et fait de la science comme « un code de précaution pour éviter l’erreur plutôt qu’une méthode de pensée en quête de découvertes [16] ». La critique unique est toujours celle du positivisme : « Qui a jamais vu une molécule gazeuse ou un atome ? », demande Marcellin Berthelot (1827-1907), porte-parole de la minorité antiatomiste agissante.

Les savants en présence sont les équivalentistes et les énergétistes. Un équivalentiste, Henri Sainte-Claire Deville (1818-1881) est virulent : « Toutes les fois que l’on a voulu imaginer, dessiner des atomes, des groupements de molécules, je ne sache pas qu’on ait réussi à faire autre chose que la reproduction grossière d’une idée préconçue, d’une hypothèse gratuite, enfin de conjectures stériles. Ces représentations n’ont jamais ins­piré une expérience sérieuse, elles sont toujours venues non pour prouver, mais pour séduire […] Je n’admets ni la loi d’Avogadro, ni les atomes, ni les molécules, ni les forces, ni les états particuliers de la matière, refusant absolument de croire ce que je ne puis ni voir ni imaginer [17] ». En revanche, Berthelot présente une argumentation rigou­reuse et élaborée. Pour lui, la notion d’équivalent vaut beaucoup mieux que celle d’atome. D’où son nom d’équivalentiste. Son argumentation est digne de l’opérationna­lisme ou de la philosophie analytique des sciences : « La définition de l’équivalent est une notion claire, susceptible, en général, d’être réalisée par des expériences précises. Il n’est pas de même de la définition de l’atome, qui repose tantôt sur la notion d’équiva­lence déguisée ; tantôt sur la notion de la molécule gazeuse, ce qui est une pétition de principe ; tantôt sur la notion de la chaleur spécifique des éléments solides, quantité va­riable et qui ne peut servir de base à une définition rigoureuse. En un mot, l’atome est défini dans le nouveau système par trois notions différentes, qui conduisent souvent à des résultats incompatibles, entre lesquels le choix est arbitraire. La définition de l’atome l’est donc également, et c’est à cause de la confusion jetée dans la science par cette hy­pothèse mal définie que nous refusons d’y voir la base de l’enseignement de la chimie [18] ». Il s’oppose ainsi au grand atomiste français Charles-Adolphe Wurtz (1817-1884) [19].

L’énergétisme est une variante du positivisme : la science doit se contenter de décrire les choses et d’élaborer des lois expérimentales, elle n’a pas à se préoccuper des « choses en soi ». Parmi les énergétistes célèbres, on rencontre l’Autrichien Ernst Mach (1838-1916) [20], l’Allemand Wilhelm Oswald (1853-1932) [21] et le Français Pierre Duhem (1861-1916) [22].

2’) Philosophiques

On rencontre aussi quelques nostalgiques, là encore extrêmement divers : matéria­listes, comme Nietzsche et Marx, mais aussi spiritualistes comme Henri Bergson.

f) Conclusion

L’atomisme demeure encore une théorie. Si cohérente, simple, belle soit la table de Mendéléïev, elle n’est qu’une construction particulièrement adéquate, non pas une ex­périence me donnant à voir les atomes.

Par ailleurs, l’élaboration de la théorie atomique suppose une réduction méthodolo­gique de la matière à la quantité, à savoir son poids. Pour autant, là encore, une ap­proche strictement quantitative et mécaniste de la matière ne résiste pas aux faits.

3) Le triomphe de l’atomisme mécaniste ou le temps de l’expérience (xxe siècle)

Jusqu’à maintenant on a parlé des atomes, donc de la structure de la matière en termes principalement chimiques : c’est à partir de telles réactions chimiques, telles propriétés mises en valeur que l’on émettait telle hypothèse sur la structuration atomique ou conti­nue de la matière. Mais cette approche scientifique est encore seulement médiate, loin­taine.

Le triomphe de l’atomisme a supposé une approche proprement physique. Il s’est ef­fectué en deux temps. Le premier est la mise en place d’une théorie qui permette de comprendre le fonctionnement de l’atome et des particules. Le second qui en est une application, un prolongement inattendu, fut et est la mise en évidence des atomes eux-mêmes.

a) Les théories déterministes de l’atome

La grande nouveauté de ce début de siècle est la découverte de l’électron. Celui-ci in­troduit, pour la première fois, une fracture au sein de l’insécable atome. À la suite de cette découverte, il s’élabore plusieurs formes successives de modélisation. La première est le modèle planétaire de Rutherford. L’introduction des quanta, notamment à la suite d’Einstein vient briser ce premier mo­dèle. Vient alors cet hybride intellectuel qu’est l’atome de Bohr.

b) La théorie de la mécanique quantique ou l’approche probabiliste de l’atome

Pour le détail, je renvoie au chap. 2 de la troisième partie (« Les philosophies de la nature à l’ère scientifique moderne ») : une sous-partie entière est consacrée à la mécanique quantique.

c) Le nanomonde ou l’atome enfin visible et tangible

Les atomes semblaient être condamnés à l’invisibilité pour l’éternité. Mais, la méca­nique quantique a permis que se construisent des outils, de nouvelles techniques qui ont infligé un cinglant démenti à ce pessimisme.

1’) Les atomes dans la matière massive

a’) Visualiser les atomes

Grâce à la microscopie à champ proche, en particulier : le microscope électronique à effet tunnel (ou STM : Scanning Tunnelling Microscope) et le microscope à force ato­mique (ou AFM : Atomic Force Microscope).

– Le STM a fourni des résultats nombreux et spectaculaires. Il fut mis au point par Gerd Binning et Heinrich Rohrer, du Laboratoire IBM de Zurich, ce qui leur a valu le prix Nobel de Physique de 1986 (avec E. Ruska, inventeur du microscope électronique, il y a quelques décennies).

Le principe de la technique est le suivant. Le STM est constitué d’une sonde qui est une pointe en tungstène extrêmement fine dont l’extrémité est une imperfection constituée de quelques atomes. Cette pointe explore la surface des métaux à une distance inférieure au nanomètre : la proximité est très grande, mais la sonde ne touche pas la surface. Or, une faible tension électrique est appliquée entre l’extrémité et la surface, les électrons passent à travers le vide séparant les deux pôles. Ce passage, inexplicable en physique classique car il met en jeu une barrière de potentiel infranchissable pour les électrons, est explicable en mécanique quantique : grâce à « l’effet tunnel », concept introduit par George Gamow (1904-1968), les particules élémentaires peuvent passer à travers une barrière de potentiel. Voilà aussi pourquoi le courant généré dans le STM est appelé parfois courant tunnel.

Résultats : la sonde est extrêmement sensible à la distance la séparant de la surface explorée. Le moindre changement de surface entraîne une variation dans l’intensité du courant. Un captateur de ces variations et leur traitement par un ordinateur permet donc de déterminer la nature de la surface. Or, la précision paraît atteindre actuellement les 10-12 mètre. Autrement dit, l’image topographique de la surface permet de distinguer non seulement les réseaux, les couches atomiques, mais les atomes eux-mêmes dans leur individualité. Pour la première fois, on voit que la structure de la matière est granulaire, corpusculaire, bref, atomique. De superbes photographies objectivent les résultats : que certaines soient en couleur ne doivent pas tromper, car la couleur n’existe pas dans le monde atomique.

– L’AFM se distingue du STM en ce que le courant tunnel, en relation indirecte, médiate à la surface explorée, est ici en contact direct entre la sonde et la surface. Dès lors, le courant tunnel disparaît. Ici, le dispositif est constitué par une fine pointe de diamant monté sur un bras mobile dont chaque mouvement est modélisé. Or, la surface est irré­gulière, entraînant des déplacements du bras mobile. Il est donc possible de visualiser les surfaces.

L’avantage majeur de l’AFM par rapport au STM est l’extension aux surfaces isolantes et non plus seulement aux conducteurs.

b’) Déplacer les atomes

Mais l’homme moderne a trop le sens de la technique, a trop fait basculer le pratique au-dessus du contemplatif, pour ne pas chercher à manipuler, à dompter les atomes eux-mêmes [23]. C’est ce que permet un usage du STM. On peut d’abord faire glisser les atomes des surfaces et plus encore les atomes adsorbés par une surface (les « ada­tomes »), de leur origine vers de nouvelles destinations. On peut ensuite rompre la conti­nuité en soulevant l’atome et en le transférant à un autre endroit. C’est ainsi que les techniciens sont arrivés à différents exploits très spectaculaires : fabriquer un commuta­teur électronique dont la partie mobile est constituée par un seul atome de xénon dépla­çable à loisir [24] ; construire un corail quantique, composé de 48 adatomes de fer sur une surface de cuivre [25]. Le dessin de couverture de l’ouvrage de Pullman a repré­senté le plus petit homme du monde, plus connu sous le nom de CO man. En effet, le dessin est formé à partir de 28 molécules diatomiques de monoxyde de carbone ; si le dessin semble monoatomique, c’est que les molécules sont placées perpendiculaire­ment au substrat.

2’) Les particules isolées

Les images STM montrent la structure granulaire, discontinue de la matière ; mais elles ne visualisent pas leur séparation, de sorte qu’on pourrait imaginer une discontinuité sur fond de continuité, une solidarité infrangible. Par conséquent, la certitude totale, évidente de l’existence des atomes consistera à les isoler individuellement, dans l’espace vide [26], c’est-à-dire presque à les toucher ; or, le sens du contact est celui de la certitude première. « la seule preuve indiscutable et définitive de l’existence des atomes ne saurait être que l’isolement d’atomes individuels, coupés par un vide environnant de toute inter­action parasitaire, susceptible d’entretenir une suspicion sur leur individualité propre [27] ».

a’) L’électron

Ce fut la réussite indéniable de Hans Dehmelt, prix Nobel de physique 1989. Étrangement, la première particule à être isolée ne fut pas la plus grosse, mais la plus petite : l’électron. En 1973, Dehmelt isolait, emprisonnait un électron, le séparant des autres électrons dans une boîte de Penning. En effet, celle-ci est une boîte de cuivre et de verre dans laquelle l’électron réside entre deux électrodes chargées négativement et entourées d’un champ magnétique. Or, on a laissé s’échapper les électrons contenus dans cette boîte, jusqu’à ce qu’il n’en demeure plus qu’un, détecté par la fréquence de radio qu’il émettait. L’électron est ainsi resté piégé pendant dix mois, jusqu’à ce qu’il frappe une paroi de piège.

Aujourd’hui, les techniques se sont multipliées et, selon une évolution pragmatisme susmentionnée, associent à l’isolement, la manipulation [28].

b’) L’atome individuel

Ce qui était vrai de l’électron se vérifie aujourd’hui de l’atome individuel. Pauli a construit une trappe suivant le même principe que celle de Penning où un champ ma­gnétique oscillant remplace le champ électrique [29] : c’est une trappe à ion, car les ions ont été les premiers atomes piégés. En 1978, Dehmelt et Toschnek ont piégé quelques ions de baryum. Surtout, un an plus tard, un perfectionnement technique permet de pro­duire une photographie d’un ion de baryum isolé. Pour la première fois, l’homme pouvait visualiser un atome individuel.

Une technique facilite aujourd’hui grandement le piégeage : le refroidissement par la­ser [30]. Par plusieurs faisceaux lasers, on abaisse la chaleur à quelques microkelvins et on réduit d’autant la vitesse moyenne d’agitation des atomes ; or, on entoure la zone de piégeage d’un champ magnétique statique. Donc, pris dans une sorte de « mélasse op­tique », le piège magnéto-optique peut les capturer. C’est ainsi qu’on a pu piéger des atomes d’hélium, de sodium, de rubidium, de césium, de magnésium et de calcium. On peut même obtenir des structures moléculaires à plusieurs dimensions en agençant les faisceaux laser pour qu’ils forment une matrice de lumière, des puits de potentiel [31].

3’) Conclusion

Aujourd’hui, commencent tout juste à se développer ce que l’on appelle les nano­technologies, c’est-à-dire des techniques d’observation et de construction, de manipu­lation d’objets de formes nanométriques, donc des atomes et des structures moléculaires de petite taille [32].

D) Ouvertures vers un atomisme non mécaniste

Résumons les acquis de la science actuelle : « dans l’élaboration du monde, les atomes occupent une position privilégiée. Personnalisés dans un nombre limité de types, défi­nissant des éléments chimiques distincts, ils représentent les entités fondamentales dont sont formées toutes les substances existantes ; ils sont les intermédiaires incontour­nables entre les corpuscules subatomiques et les édifices moléculaires et supramolécu­laires [33] ». Les atomes de Démocrite et d’Epicure étaient insécables, impénétrables et incorruptibles ; aujourd’hui, on sait qu’ils ne sont plus indivisibles, et qu’ils ont une durée d’existence finie.

Certaines découvertes actuelles invitent à questionner une critique trop unilatérale de l’option antiatomiste ; elles obligent à se demander s’il n’y aurait pas de sens à ouvrir une approche atomiste et continuiste, une approche qui conjugue les richesses propres à l’atomisme expurgé de tout mécanisme et les richesses propres à la tradition conti­nuiste.

Je conçois aisément ce qu’une telle approche peut faire se lever de craintes chez le chercheur, d’autant que l’histoire encore récente a montré les dégâts antiscientifiques commis par les prises de position antiatomistes purement idéologiques (que l’on songe au scientisme d’Auguste Comte).

Notre travail a été de conjuguer l’existence et l’apport indéniables de l’atomisme (contre Aristote) à une vision non mécaniste du monde (avec Aristote). Quelles sont les raisons de prôner un atomisme non mécaniste ?

1) Peut-on être atomiste sans être mécaniste ?

Doit-on être atomiste aujourd’hui ? La réponse semble clairement positive : non seule­ment la théorie atomique est la seule qui rende compte des innombrables phénomènes chimiques aujourd’hui, mais l’atome quitte la théorie, l’existence hypothétique pour de­venir un objet d’observation.

a) L’existence des particules

D’abord, les atomes sont par définition et par histoire (Démocrite, Épicure, etc.), insé­cables. Or, aujourd’hui, on sait que les atomes sont divisibles en particules plus petites. Précisément, chaque atome est composé de trois sortes de grains : électron, proton et neutron. De plus, si l’électron est une particule vraiment élémentaire, ce n’est pas le cas du proton et du neutron. [34]

On distingue aujourd’hui les fermions (leptons et hadrons) et les bosons. Au total, les corpuscules élémentaires sont au nombre de soixante : vingt-quatre particules élémen­taires (douze fermions et douze bosons), en fait trente-six si l’on tient compte de ce que chaque quark existe en trois « couleurs » ; et les antiparticules de la matière.

En fait, on ne peut anticiper les découvertes et les nouvelles théories : rien ne nous ga­rantit que l’électron lui-même n’apparaîtra pas composé de particules encore plus élé­mentaires. Des théories comme la théorie des super-cordes créent des ouvertures en ce sens. En ce sens, la distinction que fait Pullman entre « élémentaire élémentaire », en l’oc­currence les corpuscules ci-dessus et « élémentaire dérivé » comme le proton, le neutron et plus encore l’atome me semble bien fragile et voué à une rapide caducité.

On retrouve donc l’intuition aristotélicienne d’une matière divisible à l’infini. Certes, l’atome n’est plus invisible, mais il n’est plus indivisible.

b) L’existence de champs
1’) Les faits

Souvent, nous avons une vision encore trop granulaire, trop pleine de la matière ; nous négligeons l’énergie. Or, aujourd’hui, la représentation de la matière est bien différente : l’énergie se structure en ce qu’on appelle des champs. La mécanique quantique a établi qu’à chaque quantum de matière, chaque unité corpusculaire est joint un quantum de champ ou ondulatoire, un champ fondamental.

Plus encore, ces champs ont au contraire la primauté sur la matière corpusculaire car elle en fonde l’existence et les interactions.

Première fonction : la « création » de particules. En effet, le prétendu vide, le « noir » entre les atomes est toujours rempli de champs électromagnétiques ; or, un champ est de l’énergie et l’énergie est de même nature que la matière, ainsi que la théorie de la rela­tivité restreinte l’a montré. Par ailleurs, et là, il faut faire appel à la théorie de la méca­nique quantique, le champ fluctue de manière aléatoire ; or, ces fluctuations, empruntant leur énergie aux champs, peuvent créer des particules : précisément, les fluctuations quantiques du champ électromagnétique produisent constamment des couples particule-antiparticule. Cependant, ces particules ne peuvent exister qu’un très court laps de temps, temps d’autant plus court que la particule est plus massive : elles s’annihilent donc aussi très vite. Or, ce temps est trop bref pour permettre leur détection. Voilà pour­quoi on les nomme virtuelles.

Une énergie minimale est nécessaire pour passer de l’état de vide ou de particules vir­tuelles à la matérialisation des particules. Sur la base de l’équation d’équivalence ma­tière-énergie, il est aisément facile de calculer la quantité d’énergie nécessaire à l’ap­parition de la particule. Par exemple, la masse d’un électron est de 0,511 MeV et d’un proton d’environ 1 GeV (précisément 938 MeV).

Seconde fonction du champ : cette énergie n’est pas chaotique, elle a pour fonction d’être médiatrice des interactions entre les corpuscules, donc de structurer le cosmos. Selon la théorie quantique des champs, les particules dites virtuelles constituent les forces s’exerçant entre les particules, les grains de matière. Aussi corpuscule et énergie composent l’unique matière, sont la matière sous deux formes. Leur unité est substan­tielle, leur différence relève de l’accident : « La représentation dualiste [matière-vide] du monde disparaît au profit d’une vision plus homogène [35] ».

Deux signes, parmi beaucoup, de cette fonction et de cette existence matérielle du vide. Le premier est l’effet Casimir (du nom de son auteur, physicien hollandais, 1948) ex­prime que les fluctuations quantiques du vide réalisées entre deux plaques d’un condensateur sont capables de produire une force attractive (inversement proportion­nelle à la quatrième puissance de la distance séparant ces plaques) ; c’est donc que le vide n’est pas vide d’énergie. Le second est le phénomène étonnant de la polarisation du vide. Lorsqu’une paire électron-positron virtuelle apparaît dans le champ électrique liant un électron à un proton, l’électron matériel a tendance à attirer, dans le court temps de son existence, à attirer vers lui le positron virtuel et à repousser l’électron virtuel. Or, ce jeu d’attirance-répulsion structure l’espace, le polarise. Donc, la paire virtuelle, c’est-à-dire le vide, acquiert une polarité. Celle-ci est d’ailleurs observable : la perturbation, très faible mais chiffrable, de l’énergie de l’électron se traduit, selon l’électrodynamique quantique, par un changement dans la structure fine de certaines raies spectrales de l’atome d’hydrogène. L’expérience de W. E. Lamb l’a mis en valeur (on parle d’effet Lamb ou de Lamb shift) et lui a valu le prix Nobel de physique 1955.

2’) Signification philosophique

Ces constatations nous obligent à plusieurs révisions. D’abord de vocabulaire : les termes vide, création, annihilation, virtuel doivent tous s’entendre en un sens relatif et non pas rigoureux. Le terme vide signifie donc, en négatif, l’état de l’univers ou d’un es­pace donné dénué de toute particule et, en positif, l’état d’énergie minimum de tous les champs. De même, virtuel ne signifie ni inexistant ni même potentiel, mais « de très brève durée d’existence » : c’est donc un terme subjectif qui est susceptible de se modifier en fonction des progrès techniques de détection des particules.

Si l’on voulait être rigoureux, il faudrait cesser d’identifier la matière (a fortiori la réalité) aux seules particules, aux seuls grains. Il ne me semble pas plus heureux de distinguer champ et particule comme le latent (le champ) du manifeste (la particule). D’abord, le la­tent est le potentiel, le non-actuel ; or, le champ existe actuellement, mais sur une forme différente. Le latent peut aussi signifier le non-perceptible ; mais cette définition est sub­jective, relative aux facultés sensorielles de l’homme ; or, un être se définit en son être, non en sa relation au sujet connaissant. [36]

Seconde conséquence, du point de vue de l’histoire de la pensée. Le vide dont par­laient les atomistes antiques était un cadre statique, inerte. Maintenant, notre conception du vide est aujourd’hui complètement bouleversée. Nous savons qu’il est en réalité plein d’énergie, donc de matière. Le grand changement est que le vide est devenu dynamique et matériel, quoique non-perceptible. Le prétendu vacuum n’est plus vide et inerte, comme le pensaient les Anciens, mais plein et actif.

Enfin et surtout, on ne peut dire seulement que le monde est constitué d’atomes ; il est tout autant constitué de champs. Or, si la structure atomique est discontinue, les champs sont au contraire continus. Mais le champ a la primauté, pour les raisons qu’on a dites (fondement et interaction). Donc la vision continuiste a la primauté.

c) L’existence des orbitales moléculaires

Pour le mécanisme, la nouveauté n’est qu’un arrangement plus complexe, la molécule n’est qu’une juxtaposition ordonnée d’atomes. Les schémas enseignés en classe entre­tiennent cette représentation mécaniste. Plus précisément, l’apparition de la nouveauté, l’existence de propriétés nouvelles a toujours été la crux des atomistes. Pour Aristote, cette incapacité à expliquer l’émergence d’une spécificité est un argument décisif contre la validité de la théorie discontinuiste de la nature. Or, estime Pullman, ce talon d’Achille disparaît seulement avec l’avènement de la mécanique quantique. L’analyse des molé­cules montre que celles-ci sont des entités réellement nouvelles : la molécule ne peut seulement être pensée en termes d’architecture, d’édifice atomique, mais aussi de « ma­riage », comme dit Bernard Pullman [37] : « déjà au niveau des structure diatomiques élé­mentaires, le tout s’avère être beaucoup plus que la somme des parties et la simple ad­dition des unités de base ne saurait donc en rendre compte. À tout point de vue autre que pondéral, H + H = H2 est différent de 2H [38] ». Comment le comprendre ? C’est le développement historique qui permettra de comprendre la nouveauté de l’approche de la molécule.

1’) Une histoire en trois temps

Dans un premier temps, le lien entre atomes est envisagé comme une juxtaposition ac­cidentelle, comme un empilement. La liaison chimique est ici quantifiée, ce qui est un réel progrès, mais elle n’est pas comprise en sa nature.

Le premier progrès décisif (donc le second temps) a consisté à montrer que la nature de la liaison chimique, de la force qui en est responsable, est électrique. Newton est le premier à en avoir eu l’intuition : bien qu’inventeur de la loi d’attraction universelle, il eut l’intuition qu’au sein des dispositions chimiques, il fallait mettre en œuvre d’autres inter­actions que gravitationnelles, à savoir d’ordre électrique et magnétique. Au xixe siècle, Volta a donné une assiette, une assurance à ce qui n’est encore que pure hypothèse chez Newton : en inventant la pile électrique, il montre le rôle probable des charges électriques dans la formation de combinaisons. Enfin, la fonction décisive des forces électriques devient certaine au début de notre siècle, grâce à la découverte de l’électron. J. J. Thomson envisage, en 1904, qu’il existe une interaction entre des ions porteurs de charges opposées : c’est la première formalisation de ce que l’on appelle aujourd’hui la liaison ionique.

Au début, les chimistes n’ont pas d’idée claire sur le détail sur la constitution de la liai­son : un trait unit les atomes liés. Puis, Bohr propose un modèle de la molécule d’hydro­gène où la liaison entre atomes est constituée par leurs électrons. De là, la représenta­tion va changer : Gilbert Newton [le bien nommé] Lewis (1875-1946) est le premier à avoir proposé le remplacement du trait d’union par deux points symbolisant les deux électrons qui y sont impliqués pour symboliser la liaison chimique au sein des composés apolaires (ou faiblement polaires). Dès lors, et le changement est d’importance, on com­mença à parler de paire ou de doublet électronique. Lewis introduit donc de ma­nière systématique l’idée d’une constitution de la liaison chimique à partir d’une interac­tion liante entre les électrons des atomes. Et il estime qu’il existe une différence non de nature ou d’espèce mais de degré entre les combinaisons de composés polaires et de composés non polaires [39], autrement dit, en langage actuel, entre les liaisons ioniques et les liaisons covalentes.

Que la liaison chimique soit de nature électronique est largement accepté au début des années 1920. Il demeure que cette représentation juxtapose encore les atomes au sein de la molécule. Il manque une théorie expliquant comment deux particules porteuses de charges à la fois négatives et positives peuvent coexister dans une entité stable qui est la molécule. Pourquoi sont-ce les forces attractives et non pas répulsives, a priori égales, qui l’emportent ? Il se pose là une difficulté très réelle. Ce sera l’œuvre de la mécanique quantique et notre troisième temps. Elle permet de proposer une méthode, celle des orbitales moléculaires [40]. Les deux principaux fondateurs sont Robert Mulliken (1896-1986, prix Nobel 1966) et Friedrich Hund (1896-1988). Elle « repose sur l’idée fon­damentale selon laquelle, tout comme l’on pouvait décrire un électron dans un atome par une certaine fonction représentant son orbitale atomique, de même on peut décrire un électron dans une molécule par une autre fonction représentant son orbitale moléculaire [41] ». La différence est d’abord de configuration : la première orbitale est monocentrique et la seconde polycentrique. L’autre différence tient à la formalisation mathématique : l’orbitale moléculaire est une combinaison linéaire des orbitales atomiques ; elle est symbolisée par l’onde psi au carré qui représente la probabilité de présence de l’élec­tron, c’est-à-dire la densité du nuage électronique en chaque point de l’espace.

Appliquons ces remarques générales à la modélisation concrète des liaisons chi­miques. Comment s’effectue le passage des orbitales atomiques à une orbitale molécu­laire ? Comment se combinent les premières ? Quelle forme prend la liaison chimique des électrons ?

2’) La modélisation des orbitales moléculaires

Le cas le plus simple est celui de la molécule H2. Les forces électroniques sont à la fois d’attraction (entre charges opposées) et de répulsions (entre charges de même signe). Le graphe de l’évolution de l’énergie potentielle électrique du système en fonction de la distance entre les atomes liés montre trois choses : 1. aux grandes distances, les forces d’attraction prédominent et vont croissant lorsque les atomes s’approchent ; 2. aux dis­tances plus courtes, la trop grande proximité des noyaux engendre un mouvement contraire, une rapide et très forte répulsion ; 3. enfin, on voit un minimum qui est le signe de la formation d’un composé stable. Ici, la théorie formalise et prévoit exactement les valeurs expérimentales.

Concrètement, cela signifie que, dans une orbitale moléculaire, « les électrons ont ten­dance à se concentrer dans la région comprise entre les deux noyaux. C’est, en fait, la présence des électrons dans l’espace compris entre les noyaux qui permet de tenir en­semble les atomes et assure la stabilité de la liaison chimique dans l’état fondamental de la molécule [42] ». Les courbes d’isodensité électronique montre que s’établit une sorte de ciment internucléaire plus forte que la répulsion des deux noyaux. Pour le dire encore plus simplement : la concentration des électrons dans la région explique comment ils jouent ce rôle de colle internucléaire.

Ce qui est vrai de la molécule H2 vaut aussi pour les molécules plus complexes. Moyennant un certain nombre de précisions notables et éloquentes. En voici quatre. On distingue différents types de liaison, par exemple le couplage axial qui donne naissance à la liaison s, le couplage latéral de deux orbitales atomiques du type p qui donne lieu à la liaison p (ici la localisation du nuage électronique se fait dans deux volumes allongés situés de part et d’autre d’un plan passant par l’axe interatomique). Il existe aussi, dans les composés polyatomiques, des orbitales hybrides correspondant à un mélange pon­déré des précédentes : elles présentent un fort caractère directionnel jouant un rôle capi­tal dans la stéréochimie des molécules : en ce sens, Pullman parle de « démarche pré­nuptiale des atomes [43] ». Par ailleurs, les liaisons mettent en œuvre un électron (par exemple H2+) ou trois (par exemple hydrures de bore). Enfin, les liaisons sont soit locali­sées (entre deux orbitales atomiques) ou délocalisées (par fusion en un continuum de plusieurs orbitales atomiques).

En tout cas, ce qui est commun à toutes ces liaisons chimiques est qu’elles s’effectuent par la mise en commun des électrons. Là encore, méfions-nous des représentations trop imaginatives. On pourrait se représenter la molécule de la manière suivante : un sque­lette polynucléaire recouvert par un manteau électronique ; or, pour peu que la philoso­phie implicite, en toile de fond, soit que le squelette est aux électrons ce que la sub­stance est aux accidents, l’édifice moléculaire demeure une juxtaposition d’atomes ; donc nous n’émergeons pas du mécanisme. Mais la notion d’orbitale moléculaire im­plique un changement beaucoup plus décisif. D’abord, les électrons font partie de l’être de l’atome, de sa structure ; or, les nuages électroniques s’interpénètrent, les électrons deviennent communs, ils s’échangent : les forces d’interconnexion naissent justement de l’indiscernabilité des particules élémentaires mises en présence. De plus, les noyaux s’en trouvent profondément affectés : ce n’est qu’une conception là encore lucrécienne, démocritéenne qui envisage un noyau immuable.

3’) Signification philosophique

La nouvelle chimie de l’édifice moléculaire désintègre le mécanisme de l’atomisme classique. Certes, on ne peut demander à la chimie de nous parler de substances nou­velles. En revanche, elle multiplie les signes de sa présence. En effet, une vision méca­niste s’imagine des atomes insécables, indéformables et impénétrables dans leur struc­ture, au fond inaltérables. Or, « si la découverte de la structure complexe des atomes a fait voler en éclats la notion de son indivisibilité, l’élucidation de la nature de la liaison chi­mique a porté le coup de grâce à ses caractéristiques supposées d’impénétrabilité et d’indéformabilité. Loin de constituer des entités éternellement inviolables, figées dans leur dignité de corpuscules immuables, les atomes sont des constructions composées, déformables, ouvertes aux perturbations et même aux pénétrations venant de l’extérieur. C’est la rançon qu’ils doivent payer pour pouvoir former des sociétés. Comme partout, cela implique la capacité, sinon l’obligation, de donner et de recevoir ». Pullman se fait ly­rique, tant il perçoit la « rupture » « totale » « avec la conception classique [44] ». Autrement dit, l’atome, le noyau est affecté, changé, renouvelé par l’édifice moléculaire.

À noter aussi que la chimie contemporaine retrouve la distinction de qualités contraires comme origine du mouvement. En effet, le mécanisme ne reconnaît que la contrariété des lieux et nie toute finalité ; le mécanisme antique privilégiait les accrochages aléa­toires et homogénéisait les atomes. Or, la chimie réintroduit la contrariété au sein des réalités. De plus, les atomes présentent des affinités. Ce faisant, l’inclination et donc la fi­nalité trouve à nouveau une place.

2) La nature est-elle continue ou discontinue ?

Posons-nous la question si difficile : la structure de la matière est-elle continue ou dis­continue ? En termes historiques : la théorie atomiste des Anciens a-t-elle disparu ou survécu ?

Les avis sont partagés et me rappellent la question là aussi débattue d’une continuité ou d’une discontinuité entre physique médiévale et physique classique. « Toutes les ca­ractéristiques fondamentales de la théorie antique ont survécu dans les théories mo­dernes jusqu’à nos jours », dit Erwin Schrödinger qui propose un bref historique de la question.

La nature demeure au fond continue : chaque substance est continue. Mais la disconti­nuité est structurante, au sein d’une même substance. La nature a besoin de la structure atomique qui joue le rôle d’un équivalent de la substance, mais à l’intérieur de la sub­stance. L’existence de structures intermédiaires granulaires fait penser à une structure fractale.

Au fond, la question posée est celle de l’unité de l’être.

L’atomisme manifeste mieux l’unité de la matière que le continuisme et le primat de la forme. En effet, bien que les substances visibles soient très nombreuses, presque infi­nies dans leur figure externe, l’atomisme nous apprend que le nombre des atomes est limité ; plus encore, ces atomes en nombre limité sont eux-mêmes composés de parti­cules qui sont en nombre encore plus restreint. Au-delà d’une apparente pluralité d’es­pèces atomiques se dessine la possibilité d’une unité plus profonde de la matière [45] ».

E) Annexe. La position de l’Église actuelle sur l’atomisme

L’Église est-elle favorable ou non à l’atomisme ? Cette question étonnera, voire cho­quera certains chrétiens : l’Église n’a rien à dire sur une question qui relève de la seule science.

On répondra d’abord qu’historiquement, l’Église a pris position. Ensuite, toujours histo­riquement, le Magistère n’a pas hésité à parler de cette question, en la personne du pape Pie XII [46].

Premier point : l’Église connaît très bien la théorie atomique. Les discours de Pie XII, longs exposés structurés, manifestent une connaissance profonde de leur sujet. « A les lire, on a presque l’impression d’assister à des cours magistraux, constituant une véri­table mise au point sur les connaissance de l’époque [47] ». Dès 1943, Pie XII est au cou­rant de l’énergie dégagée par la fission nucléaire.

Plus encore, l’Église adopte la vision atomique comme fondement structural du monde matériel. En cela, elle se montre beaucoup plus clairvoyante et moins idéologue que le positivisme. Un signe en est que tous les grands savants qui ont contribué au triomphe de la théorie atomique et au développement de la mécanique quantique, Einstein ex­cepté (pour des raisons évidentes), ont fait partie de cette Académie : Bohr, Planck, Schrödinger, Rutherford furent élus en 1936, Louis de Broglie et Heisenberg en 1955 et Dirac en 1961. On peut donc aisément s’imaginer que Pie XII (1939-1958) eut l’occasion de s’entretenir personnellement avec chacun d’eux.

En outre, l’atomisme n’est non seulement pas étranger à la foi, mais elle lui parle de Dieu. Pour cela, Pie XII fait appel à l’enseignement de la prima via, de la première preuve de l’existence de Dieu selon Thomas d’Aquin : « Ainsi, maintenant, apparaît plus que jamais manifeste le changement continuel et les transformations des choses maté­rielles, jusqu’à l’atome chimique retenu pendant si longtemps immutable et impérissable. Un seul est l’immuable et l’éternel : Dieu [48] ». (cf. mon cours de théologie naturelle) L’atomisme parle aussi de l’ordre de la nature, donc alimente la quinqua via. « Lorsque Lothar Meyer et Mendelejew en 1868 mirent en ordre les éléments chimiques dans ce simple schéma présenté de nos jours comme le système naturel des éléments, ils étaient profondément convaincus d’avoir trouvé un classement régulier basé sur les propriétés et tendances internes, un classement suggéré par la nature dont les développements progressifs promettaient les découvertes les plus pénétrantes de la constitution et de l’être de la matière. De fait, de là partit toute la recherche atomique moderne [49] ». Le pape est convaincu que la microphysique manifestera de plus en plus « un règne de l’ordre […] jusque dans les particules les plus minimes ».

Enfin, Pie XII a pris position dans le fameux débat autour de la mécanique quantique opposant Einstein à l’école de Copenhague symbolisée par Niels Bohr. Étant donnée la formation thomiste, donc réaliste, du pape, on imagine aisément qu’il a pris position en faveur d’Einstein. Leurs positions sont remarquablement convergentes sur deux points : sur l’objectivité de la réalité et le déterminisme. Pie XII est gêné par l’indéterminisme probabiliste et lui oppose l’ordre rigoureux, déterminé.

F) Deuxième annexe. Brève histoire philosophique de quelques autres notions fondamentales de la chimie

1) Histoire de la chaleur

Toute la question est celle des relations entre le mouvement local, ce que l’on appelle le travail, et le mouvement qualitatif, ici la chaleur.

a) Approche qualitative de la chaleur

Le point de départ est constitué par les machines, notamment à vapeur. De là vient la prise de conscience de l’irréductibilité de la chaleur et de sa capacité motrice.

b) Approche quantitative de la chaleur la thermodynamique

Elle s’effectue en plusieurs étapes.

1’) Découverte du second principe

Paradoxalement, c’est le principe d’entropie qui fut d’abord découvert, par Sadi Carnot dans son essai de 1824 [50].

On doit à Clapeyron d’avoir permis à Carnot de ne pas sombrer définitivement dans l’oubli.

2’) Découverte du premier principe

Nous nous rappelons que Carnot attribuait à la seule chaleur (le calorique) la conser­vation. C’est une erreur expérimentale qui le rendit incapable de percevoir le premier principe de la thermodynamique. Ce fut l’œuvre de Joule, quelques vingt ans plus tard. En 1845, Joule présenta la démonstration expérimentale de la transformation du tra­vail en chaleur. Or, la transformation dit un sujet commune ; plus encore, du point de vue formel qu’implique la mathématisation qui égalise, une transformation est une identifica­tion. Dès lors, il est possible de regrouper travail et chaleur et d’en faire les deux formes ou manifestations d’une unique entité que l’on appelle l’énergie. Par ailleurs, Joule montre que chaleur et travail se conservent. Il a ainsi énoncé le premier principe qui est celui de la conservation de l’énergie (travail + chaleur = constante), en milieu fermé.

Joule a démontré ce principe par un chemin inattendu : l’électricité. En effet, le courant électrique dégage de la chaleur (c’est justement ce que l’on appelle l’effet Joule). Or, l’électricité est générée par un générateur qui est mû par la force musculaire. Or, celle-ci est une forme de travail. C’est donc que le travail se transforme en chaleur. Et vice versa.

À noter que le premier principe de la thermodynamique est né des « très nombreuses tentatives qui ont été faites pour réaliser le mouvement perpétuel [51] » : tout système donne, dans son cycle de fonctionnement, une énergie égale ou inférieure à celle qu’on lui a fourni, mais jamais supérieure. Dans ce sens, la surabondance n’existe pas dans le monde physique. Un système ne peut donner plus que ce qu’il a reçu. L’entropie mani­feste l’essentielle dissymétrie du don. L’entropie dit donc aussi la surabondance du don originaire. Cela permet aussi d’expliquer le sens de la flèche du temps, son asymétrie.

3’) Formalisation de toute la thermodynamique

a’) Préparation incomplète Kelvin

William Thomson qui, après la découverte de la pose de câbles transatlantiques allait être anobli et devenir Lord Kelvin, était d’abord un brillant étudiant écossais de Cambridge. Venu à Paris pour parfaire sa formation, chez Regault, en 1845, il cherche en vain chez les libraires parisiens les Réflexions de Carnot dont Clapeyron lui a révélé l’existence. Il devra se contenter de la notion de « chute de calorique » dont parle Clapeyron ; or, nous avons vu que Carnot insiste non sur la nature du calorique, mais sur les relations entre sources ; mais la relation suppose un absolu ; voilà pourquoi Kelvin en déduira la nécessité d’établir une échelle de température fondée sur un zéro absolu et dont les degrés seront désormais appelés Kelvin.

Kelvin était sur la bonne voie pour continuer les travaux de Carnot et de Joule. Malheureusement, en concédant trop à Carnot contre Joule qu’il estimait être en contra­diction avec le premier, Kelvin sera tiraillé entre les deux thèses de l’existence du calo­rique et de sa chute, établies par Carnot et de l’équivalence établie par Joule entre cha­leur et travail. Aussi, ne pourra-t-il pas opérer la synthèse des deux principes fondateurs de la Thermodynamique. Seule consolation : c’est lui qui inventera le mot !

b’) Achèvement Rudolf Clausius

Il reviendra à l’allemand Rudolf Clausius de réaliser la synthèse attendue. Il publia en 1850, dans les Annalen der Physik und Chemie, un article intitulé : « De la force motrice de la chaleur, et des lois sur la chaleur qui peuvent s’en déduire ». De manière aussi simple qu’élégante, Clausius réconcilie Joule et Carnot : d’un côté, la machine trans­forme la chaleur reçue de la source chaude en travail (et voilà pour le principe d’équiva­lence chaleur-travail) ; d’un autre côté, la machine transforme seulement une partie de cette chaleur, car le reste doit nécessairement le céder à la source froide (et voilà pour les constatations de Carnot).

Quatre ans plus tard, en 1854, Clausius achève son œuvre : il systématise les apports de Joule et formalise définitivement le second principe de la thermodynamique qui de­vient le principe d’entropie.

2) Histoire du mixte

Dans un ouvrage passionnant qui a été récemment, à partir de l’évolution de l’idée grecque de mixte jusqu’à celle contemporaine de combinaison chimique, le savant et historien des sciences Pierre Duhem veut montrer notamment que l’on retrouve un cer­tain nombre d’intuitions aristotéliciennes [52].

a) Exposé

Selon un schéma que nous connaissons maintenant bien, Duhem va décrire l’évolution des théories en trois temps.

  1. Pour les Grecs, l’étude rationnelle de la nature, nous dit-il, a le choix entre deux mé­thodes, chacune ayant des prétentions totalitaires : « le mécanisme des atomistes et la physique péripatéticienne ». Si la philosophie antique reste partagée, le Moyen Age tranche en faveur d’Aristote qui développe sa théorie du mixte dans son traité De la gé­nération et de la corruption.
  2. Mais, à la Renaissance, et ici commence la seconde époque, les penseurs, lassés de la physique scolastique, se sont tournés vers le mécanisme qui représente pour eux « le principe de toute théorie physique rationnelle [53] ». Physique et Chimie modernes re­nouvellent l’image du monde hérité d’Epicure et de Lucrèce, mais le fond mécaniste de­meure. La Mécanique va régner en maîtresse souveraine et incontestée jusqu’à la pre­mière moitié du xixesiècle.
  3. Cependant, des obstacles de plus en plus nombreux obligent à remettre en cause le mécanisme. Aussi, inaugurant le troisième temps qui est réconciliation avec l’origine, « la Physique actuelle tend à reprendre une forme péripatéticienne [54] ». Bien évidemment, ce changement n’est pas lié à quelque précompréhension philosophique du monde et résulte encore moins d’un projet de réconcilier les sciences actuelles avec la doctrine aristotélicienne ; il est dû à « la force des choses [55] ». Pourtant, de fait, la convergence est frappante. Elle est de deux ordres, si je puis me permettre de systématiser l’intuition de Duhem :
b) Convergences méthodologiques

En effet, pour le philosophe grec, toute recherche philosophique a pour fondement une analyse logique très minutieuse, très précise, des concepts que la perception a fait ger­mer en notre intelligence ; en chaque notion, il convient de mettre à nu ce qui est l’exact apport de l’expérience, ce qui constitue essentiellement cette notion, et de rejeter sévè­rement les ornements parasites dont l’imagination l’a affublée [56] ».

Or, « la Physique actuelle met à la base de toute théorie une analyse logique exacte des notions que l’expérience nous fournit : par cette analyse, elle s’efforce non seulement de marquer avec précision les éléments essentiels qui composent chacune de ces notions, mais aussi d’éliminer soigneusement tous les éléments parasites que les hypothèses mécanistes y ont peu à peu introduits [57] ».

La différence méthodologique porte en fait sur l’objet observé, qui est beaucoup plus complexe et plus riche aujourd’hui : « L’analyse du physicien doit donc s’appliquer à une matière incomparablement plus riche que celle dont disposait Aristote, à une matière dont la richesse croît indéfiniment [58] ».

c) Convergences ontologiques

Le rapprochement touche non seulement la méthode, mais aussi les résultats, autre­ment dit le regard jeté sur le monde : « bien souvent, en effet, il a fallu aux physicien mo­derne des efforts longs et opiniâtres pour exhumer du milieu des suppositions entassées par les théories mécaniques des idées clairement aperçues par le Philosophe antique. Ainsi, avons-nous vu la chimie retrouver, par une lente élaboration, la notion péripatéti­cienne du mixte [59] ».

Certes, la science actuelle affine beaucoup, précise les conclusions, les formalise. Mais, en fait elle semble plus « les compléter et les enrichir que les modifier profondé­ment ». Par exemple « Aristote avait vu qu’un mixte ou un groupe d’élément ne pouvait être engendré, qu’il ne se détruisît en même temps un groupe d’éléments ou un mixte : cor­ruptio unius generatio alterius, disait la Scolastique ; la Chimie moderne complète et précise ce principe en nous montrant que la masse détruite est toujours égale à la masse créée [60] ».

Autre point de rapprochement : le mixte est un mixte homogène dont la plus petite partie renferme en puissance les éléments et peut les régénérer par sa propre corruption ». À cette conception, l’imagination des atomistes substituait des hypothèses qu’il « faut relé­guer impitoyablement dans la région des chimères [61] ».

Autre exemple : la différence entre mouvement local et autres mouvements. La difficulté d’apparition de la Thermodynamique témoigne en sa faveur de manière tout à fait révéla­trice.

1’) Le fait

Au point de départ, la Thermodynamique reposait sur deux principes : 1. le principe de l’équivalence entre la chaleur et le travail ; 2. le principe de Carnot. Le premier principe se fondait sur une théorie mécanique de la chaleur hérité de Newton et faisait de la cha­leur un mouvement des dernières particules des corps. Il était universellement connu et appliqué. Quant au principe de Carnot, il était obscur et méconnu [62] ».

« Pendant bien des années, les physiciens s’efforcèrent de donner du principe de Carnot une interprétation qui s’accordât avec la théorie mécanique de la chaleur ; les tentatives furent puissantes et ingénieuses ; elles demeurèrent vaines. Alors un revire­ment étrange et dont nous pouvons à peine aujourd’hui entrevoir l’incalculable portée se produisit dans l’esprit de ceux qui s’inquiètent des théories physiques. Furent-ils lassés par l’inanité des efforts faits pour interpréter mécaniquement le principe de Carnot ? Furent-ils désespérés par la stérilité des hypothèses atomistiques et, notamment, de la théorie cinétique des gaz ? Prirent-ils subitement conscience de la véritable nature et de l’exacte portée des méthodes physiques [63]? »

Jusque maintenant, on avait cherché à déduire la Thermodynamique, notamment le principe de Carnot des principes de la Mécanique, autrement dit on réduisait la première la seconde. On accepta ce principe comme un principe propre irréductible. Puis, en un troisième temps, ce furent les principes même de l’atomisme qui devinrent caducs. « Auparavant, la théorie de la chaleur était regardée comme une des parties de l’électri­cité, du magnétisme, de la capillarité. Au fur et à mesure que la Thermodynamique pro­gressait, cette opinion se modifiait ; on s’apercevait que ses lois n’exerçaient pas seule­ment leur empire dans la théorie de la chaleur, mais dans les théories les plus diverses […]. Graduellement, on apprit que la Thermodynamique n’était pas une branche de la Physique, mais le tronc à partir duquel divergeaient les diverses branches ; qu’elle n’était point l’étude d’un ordre particulier des phénomènes, mais le recueil des principes géné­raux, applicables à l’étude de tous les phénomènes ; que ses lois régissaient tous les changements qui se peuvent produire dans le monde inorganique [64] ».

2’) Le sens

Ainsi découvre-t-on la différence entre le mouvement et le mouvement local qui n’en est qu’un des aspects : « au premier rang de ces changements, il convient de citer le plus simple, le plus obvie d’entre eux, le changement de lieu dans l’espace, le mouvement lo­cal : les lois du mouvement local se présentent maintenant comme des corollaires de la Thermodynamique, et la Mécanique rationnelle n’est plus qu’une application particulière de cette vaste science, la plus simple et la mieux connue de ses conséquences ». Pour le dire autrement : « aujourd’hui, la Mécanique rationnelle n’est plus que l’application au problème particulier du mouvement local de cette Thermodynamique générale, de cette Énergétique dont les principes embrassent toutes les transformations du monde inorga­nique ou, selon la dénomination péripatéticienne, tous les mouvements physiques [65] ».

L’esprit résiste naturellement à la nouveauté on a vu plus haut que Duhem multiplie les hypothèses, mais avoue ignorer, car tout surgissement génial de nouveauté est irréduc­tible aux causes antérieures. Or, la Mécanique est le triomphe du mouvement local. Aussi, la subversion de la mécanique traduit bien le refus, l’impossibilité d’attribuer à la mécanique l’explication de la totalité du réel.

Or, au fond, cette subversion a demandé qu’on se détache de la vision atomiste et mé­caniste. Dès lors on a fait du principe de Carnot un principe original, donc non déduc­tible.

d) Conclusion

Thermodynamique actuelle et physique aristotélicienne, loin de s’opposer, présente d’étranges convergences. Là où je m’opposerai à Duhem, mais cette opposition relève de l’épistémologie, c’est sa conclusion : pour lui, dès lors qu’il y a symbolisation, mathé­matisation, la physique moderne devient « radicalement hétérogène [66] », étrangère à la physique péripatéticienne.

3) Histoire de l’ordre au sein de la matière

Au point de départ,

Puis, cet ordre s’est quantifié. Enfin, cet ordre apparaît dans sa singularité.

Cette thèse peut se présenter sous la forme d’un débat historique qui a opposé Proust à Berthollet. La question posée est celle de la texture, de l’ordre du réel.

D’un côté, on rencontre les partisans d’un ordre défini, discret, dans le domaine des so­lides et des liquides comme dans celui des gaz. Malgré son infinie variété, la matière frappe par sa régularité, sa stabilité et la simplicité des relations entre les éléments la composant. Il va de soi que je parle ici des combinaisons. Le premier, Proust, a sorti la question de l’arbitraire qualitatif et a découvert la célèbre loi dite des proportions défi­nies, selon laquelle, dans une combinaison, le rapport des poids de ce qui entre dans la substance nouvelle est toujours le même, quelles que soient les quantités pondérales des corps simples mis en présence : par exemple, quelle que soit la quantité de soufre que l’on brûle dans un flacon d’oxygène, la composition de l’anhydride sulfureux de­meure invariable. Autrement dit, il y a une structure indépendante de la quantité de ma­tière. La loi de Dalton complétera la loi de Proust, exprimant que la relation du poids de l’un combiné à celui de l’autre est toujours dans une relation simple : par exemple un gramme de soufre s’attache à un gramme d’oxygène. Enfin, la loi de Gay-Lussac dit que les gaz (précisément les volumes) répondent aux mêmes exigences.

Mais Berthollet va détruire la notion de combinaison en s’opposant au critère essentiel de différenciation entre combinaison et mélange, à savoir la constance proportionnelle et numérique. En effet, expérimentalement, il montre que les sels bien composés se pré­sentent à nous avec des proportions variables. Berthollet secoue donc la régularité des lois chimiques dans leur fondement. Toute ontologie matérielle doit-elle être déclarée caduque ?

Tout d’abord, Proust a vigoureusement réfuté Berthollet au xixe siècle. Il montra par exemple que les compositions sont certes parfois variables mais selon l’espèce non se­lon une infinie variabilité individuelle. Par exemple, le cuivre mis en présence d’oxygène peut donner différents oxydes, comme le cuivreux ou le cuivrique (dont on sait aujour­d’hui qu’ils diffèrent selon le nombre d’électrons) ; or, ils peuvent se former simultané­ment ; le résultat donne donc un poids très variable. Mais si nous sommes en présence d’un mélange, celui-ci, correctement analysé, nous montre que les éléments mélangés sont en réalité déjà des combinaisons.

Mais la thèse de Berthollet a repris le dessus au xxe siècle avec l’analyse stœchiomé­trique (analyse des proportions dans lesquelles les corps se combinent). En effet, celle-ci montre de véritables variabilités interindividuelles de poids entre combinaisons préten­dues de même espèce. « Aujourd’hui, ce qu’on nomme les bertholides éclipse en impor­tance les daltonides [67] ».

Précisons-en la raison avant de conclure prématurément : les bertholides correspon­dent à des défauts dans la composition de sels, de cristaux. Par exemple on constate que la constante attendue (qui est égale à l’unité) pour le chlorure de sodium est en réa­lité supérieure à l’unité. En effet, l’analyse précise montre l’existence d’impuretés logées dans la structure tridimensionnelle de ce sel. Or, cette constatation est aisément généra­lisable : dans la nature, l’hétérogénéité des bien nommées bertholides triomphe contre l’homogénéité des daltonides.

Mais nous en sommes encore au plan des faits. Comment en rendre raison ? Parler d’impureté, de défaut, d’imperfection, c’est déjà interpréter. Or, l’expérience montre que ces irrégularités (le terme évoque juste un autre rapport à la règle) qui concernent la ma­tière mais aussi la structure – le « légèrement désarticulé [68]« – sont souvent porteuses de propriétés recherchées. Aussi Dagognet n’hésite-t-il pas à voir dans ces irrégularités non pas une dérogation à une loi de constance mais une loi à part entière. Les substances matérielles ne sont pas seulement régies par une loi de la stabilité, de la simplicité, ainsi que l’énoncent Proust ou Dalton, mais aussi par une loi de singularité et de nouveauté qui les spécifie, et c’est elle qu’énonce la loi de Berthollet. « La riche substance matérielle […] inclut le chiffrable (Proust) et aussi ce qui y déroge (Berthollet) » et qui la « spécifie [69] ». Dans l’optique hégélienne, on dirait que la chimie actuelle invite à conjuguer l’uni­versel et le singulier.

4) Histoire de la nomenclature chimique

Partons des faits avant de les interpréter dans la perspective qui est la nôtre.

a) Origine

À la veille de la révolution française, on trouve deux grandes attitudes à l’égard de la nomination des nomenclatures chimiques ; et, plus profondément, dans la méthode de classification des éléments. [70]

D’un côté, on ouvre la position traditionnelle que représente bien Gabriel François Venel, professeur de chimie à l’université de Montpellier qui est l’auteur principal des sujets portant sur la chimie dans l’Encyclopédie de Diderot. Pour lui, le langage des chimistes est un idiome à part, souvent obscur pour les non initiés. Mais ce n’est pas pour autant un langage rigoureux de spécialiste. Les dénominations sont liées aux sen­sations, ainsi qu’aux habitudes traditionnelles. Au fond, pour lui, le savoir des chimistes, les théories chimiques ne sont pas un savoir systématique et rationnel, mais des « expo­sitions claires de la nature ». Elles ne se fondent pas sur des principes évidents dont on déduirait des conséquences, mais sont tirées d’ »indices d’expériences vagues [71] ». Déjà, avant, Cuvier disait : « Il serait ridicule de vouloir en [la nomenclature] faire un ins­trument de découvertes [72] ».

En regard, une tradition nouvelle, va prôner une réforme du langage chimique et l’éta­blissement d’une nomenclature rigoureuse. L’un des premiers instigateurs est Pierre Joseph Macquet qui, dans un dictionnaire de chimie publié en 1766, propose de nou­velles règles systématiques de dénomination des sels. Cette idée sera reprise par Antoine Laurent Lavoisier qui souffrit des cours de Rouelle : « J’étais accoutume à cette rigueur de raisonnement que les mathématiciens mettent dans leurs ouvrages ». Or, la chimie était « tout un autre monde » : « on me présentait des mots qu’on n’était point en état de me définir [73] ». En 1787, Lavoisier publiera une nouvelle nomenclature chimique, avec Guyton de Morveau, Antoine François Fourcroy et Claude-Louis Berthollet [74]. Sous-tendant cette conception nouvelle, on trouve un autre rapport des mots et des idées. Autant chez un Venel, les origines des mots sont l’expérience sensorielle et l’usage traditionnel, autant désormais, les mots émergent désormais de l’esprit des chi­mistes qui décident eux-mêmes du vocabulaire qu’ils veulent employer. De ce fait, les termes techniques utilisés sont conventionnels : « comme les pièces de monnaie, dit le chimiste suédois Torbern Bergman, [ces termes] doivent leur valeur à la prescription [75] ». Concrètement, Lavoisier, comme Morveau font appel à des termes sans significa­tion propre. Pourtant, les quatre noms nouveaux d’élément qu’ils ajoutent au tableau : le calorique, l’oxygène, l’hydrogène et l’azote. Or, ils présentent un sens qui correspond à la caractéristique la plus marquante : ainsi hydrogène signifie le lien avec l’eau et oxy­gène avec les acides. Lavoisier répond que ce sens étymologique a pour but non de donner un sens propre, proche des sens ou de la tradition, mais seulement de « soulager la mémoire des commerçants qui retiennent difficilement un mot nouveau lorsqu’il est absolument vide de sens [76] ».

b) Historique

Il va s’en suivre tout un débat. Je n’entre pas dans le détail. On adressera plusieurs re­proches à la nouvelle nomenclature. Jean Claude La Métherie, éditeur du Journal de Physique est adversaire de la chimie nouvelle : il rappelle que les mots doivent s’implan­ter « tacitement » par « l’usage » et non pas être imposés par décret [77]. Anon remarque que le grec de Lavoisier confond actif et passif : oxygène signifie engendré par un acide et non pas qui engendre un acide ; de même pour hydrogène. Morveau répondra sérieu­sement à ces critiques frivoles. Troisième critique, d’ordre épistémologique : le choix conventionnel face aux expériences sensorielles et historiques est une usurpation qui place « les mots […] ces filles de la Terre » sur le trône des « choses […] les Fils du Ciel [78] ».

Au final, c’est la tendance nouvelle, celle instaurée par Lavoisier qui l’emportera. Le langage chimique des nomenclateurs sera de mieux en mieux reçu durant les premières décennies du xixe siècle.

c) Les sens

Le débat présente une triple dimension épistémologique, politique et ontologique (relative à la philosophie de la nature).

Au plan épistémologique, s’opposent ici deux conceptions du rapport mot-réalité. Pour Lavoisier et Louis Bernard Guyton de Morveau, partisans de la nouvelle nomencla­ture, « les sons, et les mots que représentent les sons n’ont réellement par eux-mêmes aucun rapport, aucune conformité avec les choses ». Voilà pourquoi il recommande de prendre pour les substances chimiques qui n’existe pas dans la vie à l’état pur, il recom­mande de choisir un nom « qui s’éloigne davantage de l’usage familier », par exemple un terme provenant de langues anciennes plutôt que de langues vulgaires [79]. Si l’on creuse plus profond, la thèse de Morveau s’inspire d’un philosophe sensualiste contem­porain, Condillac [80].

En regard, les idées des conservateurs se fondent sur la théorie rousseauiste du lan­gage développée dans l’Émile : « Resserrez donc le plus qu’il est possible le vocabulaire de l’enfant. C’est un très grand inconvénient qu’il ait plus de mots que d’idées [81] ». Et, par delà, peut-être trouve-t-on encore davantage l’empreinte de l’empiriste anglais John Locke.

Au plan politique, la révolution ne fut pas linguistique ou scientifique. Les plus conser­vateurs furent les révolutionnaires au nom de l’accès démocratique au savoir, donc d’une méfiance envers le langage spécialisé. Sage, par exemple, estime que Morveau a agi par ressentiment, se vengeant du rejet de sa nomenclature par l’Académie en multi­pliant les néologismes [82]. Ce qui vaut du rejet de la nouvelle nomenclature par l’Aca­démie des sciences vaut du rejet par le Comité d’instruction publique du plan Condorcet. En effet, un des membres de ce Comité révolutionnaire, Pierre-Toussaint Durant Maillanne, adversaire de Condorcet qui s’inscrit dans la ligne de Lavoisier, estime : « Pour être de bons citoyens, il faut moins de science que de vertu ; il faut moins parler, moins écrier et mieux agir [83] ».

Inversement, Lavoisier (qui fut guillotiné, mais plutôt pour son rôle de fermier général que pour ses idées scientifiques) estime que l’éducation, rôle essentiel de l’état, se fonde non sur la relativité de l’expérience sensorielle mais sur la rigueur mathématique et sur la réalité d’établissements institutionnels appropriés comme l’Académie des sciences qu’il tente de protéger contre l’activisme antiacadémique de la Convention. Dès lors, la réforme linguistique devient un outil social. D’où aussi le désir, comme le disait Condorcet, qui s’inscrit dans la même ligne que Lavoisier, d’une « institution d’une langue universelle [84] ».

Bref, pour Jessica Riskin, « les «philosophes» et les révolutionnaires auraient développé des visions rivales sur les relations des mots et des choses pour appuyer les conceptions rivales de la révolution politique [85] ».

Au plan ontologique, enfin. Et c’est là pour moi la leçon principale. Nous retrouvons ici deux des trois grandes approches en philosophie de la nature que je ne cesse de distinguer : d’un côté une approche plus aristotélicienne, résolument sensorielle, qualitative et respectueuse du langage familier et traditionnel ; de l’autre côté, une approche plus mécaniste, résolument rationnelle, formelle et technique. La première est contemplative, respectueuse du réel, la seconde est l’œuvre de l’esprit. Chaque manifeste ses limites : la première position pèche par manque de rigueur en se refusant à la formalisation simplifiante ; la seconde position abstrait, laisse de côté le poids de la tradition et la vérité de la qualité, concédant trop à la tendance constructive, voire idéaliste de l’entendement. La vérité demande d’harmoniser les deux points de vue, sans oublier de décanter les unilatéralismes polémiques.

Pascal Ide

[1] Marie Cariou, L’atomisme, Paris, Aubier Montaigne, 1978, p.

[2] Je m’aiderai notamment de l’excellent ouvrage d’un scientifique éminent, pionnier de l’application de la mécanique quantique à l’exploration de la structure électronique des molécules, et excellent vulgarisateur doué d’une réelle culture philosophique Bernard Pullman, L’atome dans l’histoire de la pensée humaine, coll. « Le temps des sciences », Paris, Fayard, 1995.

Pour les textes, cf. Les atomes. Une anthologie historique, B. Bensaude-Vincent et C. Konnelis (Éd.), coll. « Agora. Les Classiques », Paris, Presses Pocket, 1991.

Quelques autres ouvrages L. Mabilleau, Histoire de la philosophie atomistique, Paris, Félix Alcan, 1895. Pillon, « L’évolution historique de l’atomisme », in Année philosophique, 1891, 2, p. 67-112. Jacques Perrin, Les atomes, Paris, Félix Alcan, 1936. Marie Cariou, L’atomisme. Gassendi, Leibniz, Bergson et Lucrèce, Paris, Aubier-Montaigne, 1978.

Egidio Festa, « La querelle de l’atomisme. Galilée, Cavalieri et les jésuites », La Recherche, 1990, 21, n° 224, p. 1308. Pierre-Noël Mayaud, « Science et foi comment comprendre la transsubstantiation », La Recherche, 1984, n° 20, p. 522.

  1. Metzger, Newton, Stahl, Boerhaave et la doctrine chimique, Paris, Librairie Albert Blanchard, 1974. Cet ouvrage décrit la manière dont les chimistes ont réagi à la loi d’attraction.
  2. Hannequin, Essai critique sur l’hypothèse des atomes dans la science contemporaine, Paris, Félix Alcan, 1899.

[3] A noter que Bernard Pullman a réalisé deux tableaux synthétiques des approches que les présocratiques donnent des substances primordiales, p. 45 et 98.

[4] Bernard Pullman, L’atome dans l’histoire de la pensée humaine, p. 151.

[5] Ibid., p. 157.

[6] Optique, L. III, q. 31.

[7] Cf. Ibid. (Optique, L. III, q. 31).

[8] Histoire générale de la nature et théorie du ciel, Ed. P. Kerszberg, A. M. Roviello et J. Seidengart, Paris, Vrin, 1984.

[9] Cf. le texte de son grand article de Nature, 1873, 8, 437-441, traduit par D. Massart in Les atomes. Une anthologie historique, B. Bensaude-Vincent et C. Konnelis (Éd.), coll. « Agora. Les Classiques », Paris, Presses Pocket, 1991, p. 179-205.

[10] Bernard Pullman, L’atome dans l’histoire de la pensée humaine, p. 236.

[11] Pierre Thuillier, « La résistible ascension de la théorie atomique », La Recherche, 1973, n° 36/4, p. 705.

[12] Traité élémentaire de chimie, 1789.

[13] Bernard Pullman, L’atome dans l’histoire de la pensée humaine, p. 247.

[14] Amédée Avogadro, Journal de physique, de chimie et d’histoire naturelle, 181, p. 58.

[15] J. Pétrel, « La négation de l’atome dans la chimie du xixe siècle. Cas de J.-B. Dumas », Cahiers d’histoire et de philosophie des sciences, 1979, 13, p. 1-135.

[16] Gaston Bachelard, Les intuitions atomistiques,

[17] Leçons de la Société chimique, le 28 février et 6 mars 1867.

[18] Marcellin Berthelot, Comptes rendus de l’Académie des sciences, 1877, 84, p. 1189-1195.

[19] Cf. Charles-Adolphe Wurtz, La théorie atomique, Paris, Germer Baillère et Cie, 1879. Sur le débat, cf. par exemple le compte-rendu qu’en fait P. Colmant, in La revue des questions scientifiques, 1977, 33, p. 493-519.

[20] La mécanique, 1883, trad., Paris, Hermann, 1904.

[21] Revue générale des sciences pures et appliquées, 1895, n° 21.

[22] Cf. surtout Le mixte et la combinaison chimique, Paris, Fayard, 1902.

[23] Cf. H. Ch. von Bayer, Taming the Atom, New York, Random House, 1992.

[24] Cf. P. Zeppenfeld, D. M. Eigler et E. K. Schweizer, « On manipule même les atomes », in La Recherche, 1992, 23, p. 360-362. Cf. aussi D. M. Eigler, C. P. Lutz et W. E. Rudge, « An Atomic Switch Realized with Scanning Tunnelling Micoscope », Nature, 1991, 352, p. 600-603.

[25] M. F. Crommie, D. M. Eigler, C. P. Lutz, « Confinement of Electrons to Quantum Corals on a Metal Surface », in Science, 1993, 262, p. 218-220.

[26] G. Dujardin, R. E. Walkup et Ph. Avouris, « Association of Individual Molecules with Electrons from the Top of a Scanning Tunnelling Microscope », in Science, 1992, 255, p. 1232-1235.

[27] Bernard Pullman, L’atome dans l’histoire de la pensée humaine, p. 414.

[28] R. S. Van Dyck, P. B. Schwinberg et H. G. Dehmelt, Physical Review, 1986, 234, p. 722.

[29] W. Quint, W. Schleich et H. Walther, « Le piégeage des ions », in La Recherche, 1989, p. 1194-1205.

[30] Alain Aspect et J. Dalibard, « Le refroidissement des atomes par laser », in La Recherche, 1994, 25, p. 30-37.

[31] G. Grynberg, « Une matrice de lumière pour ranger les atomes », in La Recherche, 1993, 24, p. 896-897.

[32] Cf. Nanotechnologies et micromachines. Observatoire français des techniques avancées, Paris, Masson, 1993.

[33] Bernard Pullman, L’atome dans l’histoire de la pensée humaine, p. 416.

[34] Cf. les ouvrages de présentation pour grand public

  1. a) En anglais ou en américain L. Lederman, The God Particle, Londres, Bantam Press, 1993. H. Ch. von Bayer, Taming the Atom, New York, Random House, 1992. Stephen Weinberg, Dreams of a Final Theory, Londres, Vintage, 1993. H. R. Pagels, The Cosmic Code, Londres, Penguin Books, 1982.
  2. b) En français A. Rousset, Les nouvelles frontières de la connaissance, Paris, Ellipses, 1993. J. Gribbin, A la poursuite du « Big Bang », Paris, Flammarion, 1993.

[35] Bernard Pullman, L’atome dans l’histoire de la pensée humaine, p. 423.

[36] Bernard Pullman conjugue ces différentes erreurs, lorsqu’il affirme (comme beaucoup d’auteurs) « Le vide est l’état latent de la réalité, la matière, composée de particules élémentaires, l’état manifeste ». (L’atome dans l’histoire de la pensée humaine, p. 428)

[37] Bernard Pullman, L’atome dans l’histoire de la pensée humaine, p. 392s.

[38] Bernard Pullman, L’atome dans l’histoire de la pensée humaine, p. 393.

[39] G. N. Lewis, « The Atom and the Molecule », in Journal American Chemical Society, 1916, 38, p. 762.

[40] A. C. Coulson, Valence, Oxford, Oxford University Press, 1952. R. S. Mulliken et W. C. Ermler, Diatomic Molecules, New York, Academic Press, 1977. A. et Bernard Pullman, Les théories électroniques de la chimie organique, Paris, Masson, 1952. Id., Quantum Biochemistry, New York, Interscience, 1963.

Il existe une seconde méthode, celle des liaison de valence elle est théoriquement difficile, mais pratique à cause de son expression qualitative elle est connue sous le nom de théorie de la résonance ou de mésomérie. Elle est historiquement la plus ancienne, initiée par les travaux de Walter Heitler (1904-1981) et Fritz London (1900-1954). Le maître livre, présent dans tous les laboratoires du monde malgré son ancienneté, est due à l’un de ses inventeurs, Linus Pauling (1901-1994, prix Nobel 1954) The Nature of the Chemical Bond, Ithaca, Cornell University Press, 1993.

[41] Bernard Pullman, L’atome dans l’histoire de la pensée humaine, p. 397. Souligné dans le texte.

[42] Bernard Pullman, L’atome dans l’histoire de la pensée humaine, p. 399 et 400.

[43] Ibid., p. 401. Souligné dans le texte.

[44] Ibid., p. 403 et 404.

[45] Bernard Pullman, L’atome dans l’histoire de la pensée humaine, p. 417.

[46] Notamment dans ses deux discours du 30 novembre 1941 et du 21 février 1943, les deux devant l’Académie pontificale des sciences. Si les papes ultérieurs n’ont pas traité de ces questions atomiques, « c’est tout simplement que la dynamique même de l’évolution scientifique fait que chaque époque à ses sujets privilégiés », explique Bernard Pullman avec beinveillance (L’atome dans l’histoire de la pensée humaine, p. 392), à savoir aujourd’hui, en sciences dures, la biologie moléculaire, l’astrophysique, les théories de l’information et du virtuel.

[47] Bernard Pullman, L’atome dans l’histoire de la pensée humaine, p. 389.

[48] Discours du 30 novembre 1941.

[49] Discours du 21 février 1943.

[50] Sadi Carnot, Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance, Paris, Bachelier, 1824. Cf. Jean-Pierre Maury, Carnot et la machine à vapeur, coll. « Philosophies », Paris, PUF, 1986. Outre un rapide historique, il livre le texte des 38 premières pages, les plus importantes, des Réflexions et un commentaire détaillé. Je m’en aiderai dans les développements qui vont suivre.

[51] Elie Lévy, Dictionnaire de physique, sous la direction de François Le Lionnais, Paris, PUF, 1988, p. 544.

[52] Pierre Duhem, Le mixte et la combinaison chimique. Essai sur l’évolution d’une idée, 1902, réédité intégralement in « Corpus des œuvres de philosophie en langue française », Paris, Fayard, 1985.

[53] Ibid., p. 179.

[54] Ibid., p. 180.

[55] Ibid.

[56] Ibid., p. 181.

[57] Ibid., p. 182.

[58] Ibid.

[59] Ibid., p. 183.

[60] Ibid.

[61] Ibid., p. 182.

[62] Ibid., p. 168.

[63] Ibid.

[64] Ibid., p. 169 et 170.

[65] Ibid., p. 170. Duhem précise, mais cela me semble doublement erroné que la Thermodynamique explique la génération et la corruption (première erreur) qu’Aristote ne classait pas parmi les mouvements, ce qui est vrai, mais parmi les changements d’état, ce que Duhem ne précise pas assez.

[66] Ibid., p. 185.

[67] François Dagognet, Les outils de la réflexion. Épistémologie, coll. « Les empêcheurs de penser en rond », Institut Synthélabo, 1999, p. 282.

[68] Ibid., p. 282.

[69] Ibid., p. 283 et 282.

[70] Cf. Jessica Riskin, « Chimie et révolution le pouvoir des mots », La Recherche, n° 320, mai 1999, p. 75 à 80. Je lui emprunte bon nombre de références ci-dessous. Cf. aussi Bernadette Bensaude-Vincent, « A propos de Méthode de nomenclature chimique », in Cahiers d’histoire et de philosophie des sciences, 6, 1983. Id., Méthode de nomenclature chimique, Paris, Seuil, 1994.

[71] Gabriel François Venel, art. « Chymie », in Encyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers, 1753, Elmsford, Pergamon, 1969, vol. 1, t. 1, p. 408-437.

[72] Georges Cuvier, Histoire des progrès des sciences naturelles depuis 1789 jusqu’à ce jour, Paris, Baudouin, 1826, p. 81.

[73] Antoine Laurent Lavoisier, « Sur la manière d’enseigner la chimie », in Traité, 1789, in Œuvres, vol. 1, p. 5.

[74] Méthode de nomenclature chimique, Paris, 1787.

[75] Torbern Bergman, Physical and Chemical Essays… To which are added Notes by the Translator, trad. Edmund Cullen, Londres, John Murray, 1784, vol. 3, p. 303.

[76] Antoine Laurent Lavoisier, Sur la nécessité de perfectionner la nomenclature de la chimie, Paris, 1787, p. 18-19.

[77] Jean Claude La Métherie, Observations et mémoires sur la physique, vol. 31 (1787), p. 270-285.

[78] James Keir, The First Part of a Dictionary of Chemistry, 1789, p. xviii, cité dans Marco Beretta, The Enligthment of Matter the Definition of Chemistry from Agricola to Lavoisier, Canton, Science History Publications, 1993, p. 292.

[79] Cf. Louis Bernard Guyton de Morveau, Observation et mémoires sur la physique, 1782, vol. 19, p. 370-382. Cf. Encyclopédie méthodique chymie, pharmacie et métallurgie, Paris, Panckouke, 1786-1808, 5 vol., tome 1, p. iii-iv.

[80] Les mots sont des « signes d’institution » ; ils n’entretiennent qu’un rapport arbitraire avec nos idées » (Etienne Bonnot de Condillac, Essai sur l’origine des connaissance humaines, 1746, Paris, Armand Collin, 1924, p. 32-33 et 87-88).

[81] Jean-Jacques Rousseau, Émile ou de l’éducation, 1762, Paris, Nelson, 1913, 2 volumes, p. 96.

[82] Sage, Opuscules de physique, Paris, 1813.

[83] Pierre-Toussaint Durant Maillanne, « Opinion sur les écoles primaires », 12 décembre 1792, Condorcet, Inst. pub., 1989, vol. 2, p. 232 et 233.

[84] Jean-Antoine-Nicolas Caritat, marquis de Condorcet, Esquisse d’un tableau historique des progrès de l’esprit humain, 1793, Éd. Alain Pons, Paris, Flammarion, 1988, p. 289-193.

[85] « Chimie et révolution le pouvoir des mots », p. 80.

2.11.2021
 

Les commentaires sont fermés.