Michel-Elie MARTIN, 11 mai 2012
Merci, Michel-Elie Martin, pour votre propos à la fois savant (très savant) et pédagogique (très pédagogique).
D’emblée vous problématisez « l’unité de la nature » ou, plutôt, vous en soulignez le caractère problématique pour la physique contemporaine. Empruntant les concepts épistémologiques de Bachelard, vous indiquez que c’est par la dialectique du « rationalisme appliqué » et par l’élaboration d’un « rationalisme intégral » synthétisant de multiples « rationalismes régionaux » que s’édifie une unification théorique des forces de la nature remplissant la visée, consubstantielle à la science, d’une « unité de la nature ».
Cette unification théorique, précisez-vous, s’est produite au XVIIe siècle : Newton, en 1687, unifie la mécanique terrestre de Galilée et la mécanique céleste de Kepler ; et, au XXe siècle, il reviendra à Einstein d’améliorer le formalisme de cette théorie unificatrice de la gravitation. Au XIXe et au XXe siècles l’unification s’est portée sur les forces fondamentales de la nature, autres que la force gravitationnelle : force électrique, force magnétique, force forte, force faible. Vous entreprenez alors un parcours historique suivant cette démarche d’unification de ces forces, forces que vous prenez le soin de définir scientifiquement à partir de la région des phénomènes qui les manifestent directement ou indirectement.
Ainsi, vous montrez comment la force électrique et la force magnétique trouvent leur unification, en 1873, chez Maxwell. Quatre équations héritées de Gauss, de Faraday et Ampère, permettent d’unifier ces deux forces en une seule : la force électromagnétique, constitutive du champ électromagnétique et qui se propage sous forme d’ondes électriques et magnétiques dont la lumière et les rayons X sont des exemples ; et ce, de telle sorte que le photon de lumière est conçu comme le quantum de ce champ, puisqu’il en transporte l’énergie et la quantité de mouvement.
Les physiciens du XXe siècle ont ensuite tenté d’unifier la force faible (repérable dans les phénomènes de désintégration β de particules provenant du noyau des atomes) et la force électromagnétique. Le « modèle » de l’interaction électromagnétique rendait compte, au sein de l’atome, de l’interaction entre 1 proton et 1 électron, de mêmes charges ou de charges opposées (ce dont rendent compte les diagrammes de R. Feynman). Ce « modèle » est utilisé en 1930 par O. Klein pour supposer que les particules de désintégration β échangent des particules. Feynman et Murray Gell-Mann, en 1957, formulent mathématiquement cette hypothèse de 2 « bosons » intermédiaires. En 1958, Leite-Lopes postule l’existence d’un troisième boson. La découverte de ces 3 bosons massifs, postulés par la théorie, fut faite en 1984 au CERN par 130 physiciens, 130 « travailleurs de la preuve » aurait dit Bachelard, dirigés par Carlo Rubbia et Simon Van der Meer.
Les bosons intermédiaires de l’interaction faible étant postulés, il restait à établir la théorie unifiant celle-ci avec l’interaction électromagnétique. Ce processus, hautement théorique en ce qu’il fait appel au formalisme mathématique des « théories de jauge » de Yang et Mills pour quantifier les « champs », a abouti, par les travaux de Sheldon Lee Glashow et de Steven Weinberg, à une théorie unifiant les forces électromagnétique et faible. Mais restait un problème : il fallait rendre compte de la masse des bosons intermédiaires de l’interaction faible, considération théorique issue des données expérimentales. Salam et Weinberg répondirent à ce défi : ils invoquèrent – en empruntant cette conception à Higgs, à Englert et à Brout – une « brisure de symétrie » à une certaine température, engendrant l’apparition d’un « champ » composé de bosons (les bosons de Higgs) qui confèrent une masse aux bosons constitutifs de l’interaction faible. La « théorie électrofaible » était née. En 1969, il revint à Gerhard’t Hooft de la formaliser mathématiquement en répondant au problème de sa « renormalisation », et ses vérifications expérimentales sont multiples. Quant au fameux boson de Higgs, les physiciens du LHC (Large Hadron Collider) du CERN espèrent le découvrir prochainement.1
Vous marquez alors une pause dans ce processus d’unification. Vous insistez, tout d’abord, sur l’hypothèse des « quarks » pour rendre compte de l’interaction forte qui lie les éléments du noyau atomique. Les particules que sont les « hadrons » (méson, baryon) semblaient composées d’éléments plus petits, contrairement aux « leptons » (électrons, neutrino, par exemple). Ces éléments furent appelés, par Gell-Mann et Zweig, les « quarks ». 3 types ou 3 « saveurs », assortis de 3 charges de « couleurs » (début, en 1973, de la « chromodynamique quantique »), furent imaginés pour expliquer les interactions fortes. Vous insistez, ensuite, sur le fait que toutes les théories des particules élémentaires (électrodynamique quantique, théorie électrofaible, chromodynamique quantique) se regroupent pour former le « modèle standard » qui, cependant, tout en rassemblant ces diverses théories, n’en produit pas l’unification dans une théorie plus intégrante. Ce rôle unifiant est celui, dites-vous, de la « théorie de la grande unification » (TGU) de Sheldon Glashow et Howard Georgi, théorie élaborée en 1973 et qui unifie la « force forte » et la « force électrofaible ». Mais, ajoutez-vous, cette unification – censée avoir régné vers les débuts de notre univers avant le découplage de ces forces – s’opère à un niveau d’énergie hors de portée de nos accélérateurs, ce qui nous laisse loin de toute possibilité de vérification expérimentale lors même que la théorie produit des prédictions précises.
In fine, par-delà la TGU, vous évoquez la « théorie du tout » qui unifierait, cette fois, toutes les forces en intégrant la force gravitationnelle. C’est ici, notamment, que prennent place diverses théories : la « théorie des cordes », la « supersymétrie », la « gravitation quantique à boucles ». Mais cette unification, que vous n’abordez pas en détail, reste encore très spéculative.
Vous concluez en tenant que l’unification des forces de la nature converge vers une unité de la diversité de la nature (la totalité de l’uni-vers, donc), qui est à la fois synchronique et diachronique, de telle sorte que cette unification peut être interprétée philosophiquement comme une anamnèse d’un élément de la nature qui, sur un plan symbolique, reproduit la genèse de cette même nature. Mais ce terme, dites-vous, n’est qu’une « Idée régulatrice » (au sens kantien) de la pensée physico-mathématique du physicien, dont le plaisir esthétique consiste, selon vous, à découvrir les traces matérielles de son effectivité.
En collaboration : J. GAUBERT et M.-E. MARTIN