La genèse de la physique quantique

 

Dossier présenté par Marco dans l’épisode #127.

Il fut un temps, pas très lointain, où nombreux étaient les scientifiques qui avaient la conviction que l’humanité était toute proche d’avoir compris l’ensemble de l’univers, et n’émettaient aucun doute sur la complétude de nos théories.

Lord Kelvin
Lord Kelvin

Une phrase attribuée à William Thompson (Celui qui détermina le zéro absolu à -273,15°C et sera rebaptisé Lord Kelvin après son anoblissement en 1892) et qu’il aurait prononcé lors d’une réunion à Londres, témoigne de cette confiance absolue dans les théories scientifiques : « There is nothing new to be discovered in physics now. All that remains is more and more precise measurement. » (NB: De nombreux livres, et sites internet, attribuent cette citation à Lord Kelvin. Toutefois cette citation n’est jamais sourcée. )

Il y a bien 2 ou 3 petits points qui empêchent d’être complètement satisfait, mais il ne fait pas de doute que c’est une question de temps avant de les comprendre.

Et effectivement en peu de temps, ces « détails » vont être compris, mais à chaque fois les conséquences seront quelque peu inattendues….

Le premier de ces détails concerne l’expérience de Michelson-Morley : Pendant  longtemps les physiciens ont supposé que la lumière, en tant qu’onde, se propageait dans un fluide qu’on appelait « éther », de la même manière que le son se propage dans des milieux matériels. L’éther devait donc être ce qui remplissait le vide de l’univers.

L’expérience de Michelson-Morley avait pour but de démontrer l’existence de cet éther, en mettant en évidence des différences de vitesses entre 2 parcours de même longueur, perpendiculaires entre eux, et à 6 mois d’intervalle.

Expérience de Michelson-Morley
Expérience de Michelson-Morley

Cette expérience n’a jamais permis de déceler la moindre différence de vitesse. Morley et Michelson conclurent que cette différence pouvait être trop faible pour être détectée, et réitérèrent l’expérience à plusieurs reprises, mais toujours avec un résultat négatif.

Cette première poussière dans les rouages de la physique aboutira plus tard à un autre bouleversement, celui de la relativité d’Einstein. Notre sens commun va déjà être mis à rude épreuve : Notamment, l’espace et le temps ne sont plus absolus mais relatifs.

Le deuxième nuage qui obscurcit le ciel  des théories physiques du XIXe siècle, est le problème dit du « rayonnement du corps noir » : A la fin du XIXe siècle, les physiciens s’intéressent de plus en plus aux rayonnements émis par la matière lorsqu’on la chauffe ou lorsqu’on l’éclaire.

Le problème, le voici : En 1893 Wien établit une loi expérimentale donnant le flux énergétique en fonction de la longueur d’onde et la température. Cette loi fonctionne très bien dans les faibles longueurs d’ondes jusqu’à l’ultra-violet, mais ce n’est plus le cas lorsque les longueurs d’ondes sont plus élevées.

Puis c’est la loi de Rayleigh-Jeans qui est établie (par les deux scientifiques du même nom)

Cette loi au contraire de la première, s’accorde très bien avec les résultats expérimentaux pour des longueurs d’ondes élevées (donc des fréquences basses) Mais à partir du violet, plus rien ne va…

Comparaison Loi de Wien/Loi de Rayleigh-Jeans
Comparaison Loi de Wien/Loi de Rayleigh-Jeans

Cette situation est donc plutôt dérangeante, puisque dans l’idéal harmonieux de Lord Kelvin, c’est une seule et même loi que l’on devrait avoir, et non pas deux morceaux qu’on rafistole avec du scotch ! De plus le calcul théorique de l’énergie totale émise donnait un résultat infini, ce qui constitue bien sur une absurdité.

Et puis il y a une troisième interrogation qui concerne des travaux menés d’abord par Heinrich Hertz, puis par d’autres physiciens : Hertz avait remarqué qu’une plaque de métal exposée à la lumière ultraviolette, se chargeait électriquement, ce qui amena alors la conclusion que la lumière pouvait transmettre de l’énergie au métal au point de permettre de lui arracher des porteurs de charges (négatives, c’est-à-dire les électrons)

Les physiciens avaient remarqué que le nombre d’électrons arrachés était proportionnel à l’intensité de la lumière fournie. Jusqu’ici tout va bien ! Mais ils remarquèrent également que la vitesse d’éjection des électrons ne dépendait pas de l’intensité, mais de la fréquence  de la lumière incidente : Plus la fréquence est élevée, plus les électrons éjectés possèdent une énergie cinétique élevée. Ainsi il existe une fréquence minimale en-dessous de laquelle plus aucun électron n’est éjecté. Et rien dans les lois de ce qu’on appelle aujourd’hui « physique classique » ne permet d’apporter une explication à ce comportement.

Max Planck
Max Planck

Arrive alors  la fin de l’année 1900 et les premières secousses  dans l’édifice de la physique. En octobre Planck réussi à établir une loi spectrale qui est complétement en accord avec l’expérience. Le 14 décembre,il lit à Berlin, devant les membres de la société Allemande de physique, le mémoire qui en découle et intitulé « Sur la théorie de la loi de la distribution d’énergie du spectre normal » . Mais pour arriver à cette loi, Planck explique qu’il a du se laisser aller à une hypothèse qui va faire grincer des dents: Il propose que l’émission d’énergie lumineuse ne se fasse pas de manière continue, comme cela découlerait intuitivement de nos lois classiques, mais de manière discontinue ! (Planck lui-même avait du mal à accepter cette discontinuité, et considérait cela comme un effet artificiel découlant des formules mathématiques)

Dit comme ça, le choc que constitue une telle hypothèse peut ne pas être évident à première vue, mais pour faire une analogie c’est un peu comme si tout d’un coup on vous disait du jour au lendemain, qu’on ne l’avait jamais remarqué mais il est physiquement impossible de remplir vos verres d’eau autrement que par volume de 2cl : Vous pourriez mettre 2cl, 4cl, 8cl, mais pas 1cl ni 5,5cl. (Il est vrai que certains diront que cela n’est pas vraiment un problème tant que l’on peut  encore doser correctement le pastis)

Planck énoncera alors sa célèbre loi incluant la constante qui porte son nom : E=h.ν

Avec, ν la fréquence, h la constante de Planck (­6,62. 10^-34 j-s) et E le quanta d’énergie.

Cette hypothèse des quantas d’énergie en trouble déjà plus d’un, mais ce n’est que le début, car 5 ans plus tard c’est un certain Albert Einstein  qui va faire ressentir une seconde vague de secousses à la physique, en envoyant  à Max Planck son mémoire : « Sur un point de vue heuristique concernant la production et la transformation de la lumière »

Einstein a lu avec attention le mémoire de Max Planck, et autant dire qu’il a « kiffé ». Il va alors  aller encore plus loin : Selon Max Planck, les échanges d’énergies entre rayonnements électromagnétiques et matière sont quantifiés. Selon Einstein c’est carrément la lumière qui est quantifiée ! Autant dire que ceux qui n’avaient pas l’émail des dents solides ont dû faire la joie de leur dentiste ! (Il faut rappeler qu’à l’époque la lumière est une onde absolument continue, comme toutes les ondes)

Pour aboutir à ce résultat, Einstein s’est penché sur le problème du photoélectrique que n’arrivaient pas à résoudre Hertz et ses collègues de jeu. Mais il a attaqué le problème avec l’idée des quantas d’énergie de Planck en tête.

Einstein a alors proposé que le quantum d’énergie h.ν était en fait transporté par une particule, un grain de lumière (qu’il appellera « photon » à partir de 1923) Cette transformation de la lumière en un phénomène discontinu, va alors lui permettre d’apporter une explication à la photoélectricité : Si Ec est l’énergie cinétique d’un électron et Eg l’énergie nécessaire pour l’arracher, alors Ec=h.ν – Eg

Autrement dit, si h.ν, l’énergie transportée par un grain de lumière, est inférieure à Eg, alors l’électron qui absorbe ce grain, n’a pas assez d’énergie pour être arraché.

Cette discontinuité de la lumière va avoir tellement de mal à passer, qu’il faudra attendre plus de 10ans avant qu’elle ne soit vraiment considérée comme une particule, et ce malgré les nombreuses expériences et résultats validant  systématiquement la formule d’Einstein.

Nous voilà maintenant en 1913 avec Niels Bohr pour une troisième vague intenses de secousses. Rutherford a établi en 1910 un modèle planétaire de l’atome, avec un noyau jouant le rôle du soleil, et des électrons qui gravitent autour. Mais ce modèle souffre d’un énorme problème : présenté de cette façon, les électrons devraient venir s’écraser très rapidement sur le noyau.

Pour éliminer cette contradiction Niels Bohr va introduire la discontinuité au cœur de l’atome en proposant que les orbites des électrons ne peuvent pas varier de manière continue.

Ainsi un électron ne peut changer d’orbite que par « saut », il passera sur une orbite plus élevée si l’énergie nécessaire lui est fournie sous la forme d’un photon et passera sur une orbite plus basse en émettant un photon dont l’énergie sera égale à la différence entre les deux niveaux orbitaux.

Ce modèle théorique va connaitre un grand succès rapidement, tant il permet de comprendre les raies dans le spectre d’émission des différents objets.

Lorsque la première guerre mondiale éclate, la folie quantique a déjà fait beaucoup de ravages. En moins de 15 ans, la vision continue de l’univers a volé en éclat: L’énergie a été quantifié, la lumière a été quantifié, et même l’atome n’a plus rien de continue.

Et pourtant les scientifiques n’étaient pas au bout de leurs surprises.

En 1924, l’un des rares français s’intéressant à la nouvelle théorie quantique, Louis de Broglie, est très intrigué par la dualité onde/corpuscule de la lumière. En s’appuyant sur les travaux d’Einstein, il généralise la dualité onde/corpuscule aux électrons et plus généralement à toutes les particules de matière (cette hypothèse sera validée en 1927 par l’expérience de Davisson-Germer). Cela va beaucoup inspirer un autre grand acteur de cette histoire qui trouve la théorie de de Broglie tout à fait génial: Erwin Schrödinger, père de ce que l’on appelle la “mécanique ondulatoire”, qui énoncera en 1925 une équation décrivant l’évolution temporelle de la fonction d’onde associée aux particules de matière et permettant de décrire leurs mouvements. C’est l’équivalent en physique classique du fameux  “Somme des forces égal m.a”. Sauf que contrairement à la mécanique classique où les observables d’un système (vitesse, position, énergie, etc…) ont des valeurs bien définies, en mécanique quantique un système est décrit par tous les états dans lesquels il peut se trouver. La fonction d’onde issue de l’équation de Schrödinger permet d’attribuer à chacun de ces états, la probabilité que la particule soit “vue” dans cette état lors d’une mesure.

Cela change la représentation de l’atome qui devient alors un noyau autour duquel se réparti un ensemble de vibrations électroniques.

Dans le même temps, une autre figure emblématique de la physique quantique, propose une formulation mathématique complètement différente de celle de Schrödinger. C’est Werner Heisenberg. Il a laissé tomber toute représentation matérielle de l’atome  et va faire dans le beaucoup plus abstrait en représentant  les informations que l’on peut connaitre sur l’atome par des tableaux de nombres qu’on appelle matrice, d’où le nom de “mécanique matricielle”. (Il sera aidé de Max Born et Pascual Jordan). Chaque atome devient alors un tableau de nombres.

Mais contrairement à des nombres normaux, utilisés en mécanique classique, les matrices d’Heisenberg ne sont pas commutatives. Plus clairement : 6×7 = 7×6, alors que la multiplication d’une matrice A correspondant aux vitesses, par une matrice B correspondant aux positions ne donnera pas le même résultat que BxA. De cette “bizarrerie” (en fait ce n’est pas si bizarre que cela: faire une mesure, modifie l’état d’une particule. Ainsi mesurer la position puis la vitesse n’aboutira pas au même résultat que si l’on mesure la vitesse puis la position) va découler un principe important de la physique quantique, le principe d’indétermination d’Heisenberg : D’après ce principe, à un instant donné, il n’est pas possible de déterminer avec précision la vitesse et la position d’un quanton. Plus on sera précis sur la vitesse, moins l’on sera précis sur la position et inversement (On trouve souvent « principe d’incertitude », mais beaucoup rejette cette appellation qui laisse sous-entendre que ce flou sur la détermination  des vitesses et positions, serait dû à nos instruments de mesures, alors qu’il est dû à la nature même des quantons)

Pour donner une meilleure représentation, voici l’analogie donné dans le livre « le cantique des quantiques » (Sven Ortoli/Jean-Pierre Pharabod) :Le physicien est dans la même situation qu’un ornithologue qui voudrait étudier la morphologie et le comportement en milieu naturel d’un oiseau de nuit encore inconnu. Pour se faire, soit il braque un projecteur qui éclaire l’oiseau, et dans ce cas il pourra étudier la morphologie parfaitement, mais pas son comportement naturel puisque l’oiseau sera perturbé par cette « mesure » de sa morphologie. Ou bien l’ornithologue reste dans l’obscurité pour étudier son comportement naturel, mais dans ce cas ne pourra étudier sa morphologie.

Les deux théories de Schrödinger et Heisenberg, paraissent à première vue complètement différentes, (D’ailleurs leur auteurs ne sont pas très tendres avec la théorie de l’autre. En témoigne ces déclarations : « Plus je considère la partie physique de Schrödinger, plus elle m’apparait répugnante » dit Heisenberg, « La lecture des écrits d’Heisenberg m’a rebuté, sinon dégouté » répond Schrödinger) mais très rapidement en 1926, Dirac  établira l’équivalence de ces deux théories: Elles aboutissent aux mêmes résultats, seul le formalisme mathématique est différent.

Ces deux approches seront présentées lors du Ve congrès Solvay à Bruxelles en 1927. Ce congrès peut-être considéré comme un premier aboutissement, car pour la première fois la physique quantique sera présentée comme une théorie entièrement constituée: La physique quantique est officiellement née!

Pour résumer, voici les piliers sur lesquels elle repose:

– La non-commutativité des matrices de Heisenberg qui stipule que l’ordre dans lequel sont faites les mesures, peut changer le résultat

– Le principe d’indétermination de Heisenberg qui indique que les résultats des mesures sur la vitesse et la position, seront entachés d’un flou.

– L’équation de Schrödinger  qui donne la probabilité de trouver un quanton en un endroit donné

Mais il y a également :

– Le principe de complémentarité de Bohr (formulé en 1927). D’après ce principe l’aspect corpusculaire et l’aspect ondulatoire sont deux représentations complémentaires d’une seule et même chose. Tout dépend où, quand et comment on l’observe. Pour analogie il faut imaginer un cylindre : si on l’éclaire sur sa longueur, l’ombre projetée sur un mur donnera un rectangle. Au contraire si l’on éclaire face à sa base, l’ombre donnera un cercle.

– Le principe de correspondance de Ehrenfest qu’il formulera en 1927. Selon ce principe, la mécanique classique devient un cas limite de la physique quantique (limite quand le nombre de quantons tend vers l’infini)

Mais pour autant, le plus intéressant commence, car ce congrès qui regroupe une sorte de Dream-Team des physiciens de l’époque (Entre autres, Einstein, Bohr, Born, Dirac, Pauli, Heisenberg, Planck, de Broglie), marque aussi le début de grands débats philosophiques sur l’interprétation de la mécanique quantique. Tout le monde est d’accord avec le formalisme mathématique de cette théorie, et d’ailleurs ce formalisme n’a quasiment pas changé depuis.  Mais beaucoup de divergences apparaissent lorsqu’il s’agit de discuter de la réalité physique qui se cache derrière ce formalisme.

On ne va pas rentrer dans les détails, car cela pourrait faire l’objet d’un autre podcast (et celui-ci deviendrait alors beaucoup trop long), je laisse donc la porte ouverte. Mais pour résumer, deux principaux courants de pensées vont commencer à se dessiner :

D’un côté Einstein et ses partisans, pour qui il est difficile de concevoir un univers flou et indéterminé. Tout le monde a d’ailleurs déjà entendu cette phrase d’Einstein disant « Dieu ne joue pas aux dès » Cette phrase est en fait extraite d’une lettre qu’il écrivait à Max Born. Voici un passage un peu plus long : « La mécanique quantique force le respect. Mais une voix intérieure me dit que ce n’est pas encore le nec plus ultra. La théorie nous apporte beaucoup de choses, mais elle nous approche à peine du secret du Vieux (Dieu). De toute façon, je suis convaincu que lui, au moins, ne joue pas aux dès ! »

Pour Einstein cette abstraction est la conséquence de lacune dans nos connaissances : il doit bien exister des variables cachées dont la connaissance permettrait d’éliminer ce flou et cette indétermination.

De l’autre côté on trouve les partisans de l’interprétation dite de Copenhague (Bohr, Heisenberg), majoritaire aujourd’hui chez les physiciens. Pour ce camp, la physique quantique est complète et propose une formulation cohérente de la réalité empiriste.

Plus généralement, les débats reviennent à discuter de la complétude des théories quantiques et du déterminisme ou non des lois fondamentales de l’univers. En bref: soit la mécanique quantique est complète et l’univers est alors fondamentalement probabiliste, soit il existe des variables cachées encore ignorées et l’univers peu éventuellement être déterministe (car il y a également des théories à variables cachées indéterministe : Edward Nelson, mécanique stochastique)

 

Sources:

– “Le monde quantique” – Stephane Deligeorges

– “Le cantique des quantiques” – Sven Ortoli et Jean-Pierre Pharabod

– Wikipédia

Derniers épisodes