Planck : l’homme et la machine

 

Dossier réalisé par Johan, présenté pendant l’émission podcast Science #311

En 1918, le physicien allemand Max Planck reçoit un prix Nobel pour ses avancées décisives qui ont ouvert la voie à la mécanique quantique. Presque un siècle plus tard, en 2009, est lancée la mission Planck, l’une des missions européennes les plus réussies de l’Agence Spatiale Européenne. Quel est le rapport entre Planck, le physicien et Planck, la sonde spatiale ? Comment les théories de ce physicien allemand, pourtant solidement empreintes de la physique classique du XIXème siècle, ont mené à cette mission ? Aujourd’hui, on va analyser les deux Planck en parallèle.

Max Planck

Max Planck en 1901 (Bundesarchiv, Bild 183-R0116-504 / CC-BY-SA 3.0)

Planck est un physicien allemand né en 1858. Il est resté en Allemagne jusqu’à sa mort en 1947. Il reçut son prix Nobel en 1918 et c’est tout de même la classe, il est le premier récipiendaire de la médaille Max-Planck, créée en son honneur, en 1929. Bon, il a dû la partager avec Einstein.

Niveau convictions personnelles, il est, comme Einstein d’ailleurs, plutôt ambigu sur sa religion alternant entre des positions plutôt déistes et des déclarations plus étranges sur une divinité intelligente. Il est l’un des physiciens les plus importants d’Allemagne lors de la montée du nazisme dans les années 30, ce qui l’amène à devoir prendre des positions. Alors qu’il est plutôt conservateur de nature, il a essayé vaguement de s’opposer aux Nazis pendant la seconde guerre mondiale, en prêchant pour une science sans intérêt partisan. Alors que d’autres comme le physicien Stark (prix nobel 1919 pour sa découverte de l’effet Stark) était en faveur de clairement séparer la “physique aryenne” de la “physique juive” (en particulier la relativité d’Einstein, mais aussi la mécanique quantique d’Heisenberg, qui pourtant n’était pas juif). J’ai pas vraiment creusé pour savoir ce que ça voulait dire dans sa tête, mais ça pourrait faire un bon épisode de ma chronique Science et loi. Planck, à l’opposé, a rencontré Hitler en mai 1933 pour essayer de défendre ses collègues juifs et a tenté à plusieurs reprises de limiter l’influence des nazis sur la physique allemande (défense de ses collègues juifs et blocage de la nomination de Stark à des postes importants). Sous la pression, il est tout de même obliger de discourir en l’honneur d’Hitler à la fin des années 30 ou de faire le salut Nazi et en 1938, il démissionne de toute fonction officielle (bon il avait tout de même 80 ans de toutes façons). On peut noter que son fils Erwin Planck a été exécuté par la gestapo pour avoir participé à une tentative d’assassinat d’Hitler en 1944.

Le corps noir (encore) (mais c’est important)

Niveau science, c’est amusant car il est souvent connu des gens pour un truc qu’il a fait rapidement à la fin d’un article mais dont il n’a certainement pas mesuré l’importance sur le moment, les grandeurs de Planck. J’ai demandé à des amis ce qu’ils savaient de Planck et ils m’ont dit “distance de Planck” ou mur de Planck. On va parler un petit peu de ces grandeurs un peu plus tard et de comment elles furent introduites.

On l’a dit dans l’épisode 259 “Einstein et la physique quantique”, le XIXe siècle se clot sur deux problèmes majeurs en physique, qui sont identifiés dans une célèbre intervention par Lord Kelvin. L’un de ces problèmes est celui de l’expérience de Michelson-Morley, qui a échoué à mettre en évidence la présence de l’éther et qui mènera à la relativité d’Einstein. L’autre est la catastrophe ultraviolette. Comme je l’ai déjà expliqué il y a un an, dans la seconde moitié du XIXème siècle, on commence à essayer de modéliser le rayonnement d’un objet chauffé, un métal par exemple. On s’aperçoit que la température d’émission d’un objet dépend de la température et on a une belle loi empirique qui nous permet de mesurer pour un métal chauffé, toute la lumière qu’il va émettre.

Par exemple, le filament d’une ampoule classique chauffé à environ 3000 kelvin émet principalement dans le rouge, et un peu dans toutes les longueurs d’ondes du visible, ce qui lui donne cet aspect blanc. Le soleil émet en plein dans le visible (ce qui n’est pas un hasard, ce sont nos yeux qui ont évolués pour observer dans la bande de longueur d’onde où il y a le plus de lumière). Par contre, vous et moi, à environ 20 degrés, on émet dans une lumière non visible, dans les infrarouges. C’est pour ça que l’on utilise des lunettes infra-rouges pour voir les gens la nuit, car dans cette longueur d’ondes, les gens sont des objets brillants. On appelle ce type de rayonnement, le spectre de corps noir.

Je rappelle brièvement ce qu’est un spectre, c’est la description de l’ensemble des rayonnements électromagnétiques classés par fréquence, longueur d’onde ou énergie. On va justement voir que ces trois valeurs sont équivalentes.

Comme je l’avais dit à l’époque, c’est un nom un peu paradoxal car on parle d’objets qui émettent de la lumière. Un corps noir désigne un objet idéal dont le spectre électromagnétique ne dépend que de sa température, comme je viens de le dire. Le nom de noir vient du fait que si on met un autre objet à proximité, sa lumière va être absorbée. Un corps noir parfait est donc un objet qui absorbe intégralement la lumière qui lui est envoyée et dont le seul rayonnement est celui qui est produit uniquement dû à l’agitation des atomes le constituant, directement reliée à sa température. Une bonne approximation d’un corps noir est une cavité dans laquelle on a juste mis un tout petit trou. Si un photon extérieur rentre dans la cavité, il va se réfléchir plusieurs fois et il a peu de chances de ressortir. Donc si on regarde dans le trou, on verra que du noir. Mais si on chauffe cette cavité, au bout d’un moment, on verra apparaitre une lumière, qui est donc due uniquement à la température de la cavité. C’est le rayonnement uniquement émis, donc le rayonnement du corps noir. C’est d’ailleurs un four qui fut utilisé par Wien pour déterminer les lois d’émission électromagnétique en fonction de la température.

Le soleil est une belle loi de corps noir au premier ordre ce qui est normal, car il absorbe toute la lumière qu’on lui envoie et il émet une lumière principalement reliée à sa température. Par contre, à cause des atomes dans la couronne, il n’a pas un rayonnement de corps noir parfait.

En noir le spectre du soleil, vu depuis l’espace. En rouge, le spectre de corps noir “théorique”, à la température 5777 Kelvin (source)

Certains de ces atomes vont absorber la lumière à une certaines longueur d’onde et la remettre à un autre endroit et on n’a pas exactement une loi de corps noir parfait.

Le problème c’est que les lois utilisées à l’époque ne permettent pas d’expliquer cette belle loi empirique. La théorie classique (loi de Wien, loi de Rayleigh–Jeans) s’accordent bien avec les résultats à basses fréquences et à hautes fréquences, mais ne parviennent pas à faire coller ces deux lois, et aux petites longueurs d’ondes (ultra-violette), ces lois prévoient que l’énergie devrait exploser.

C’est ici qu’intervient Planck. Il commence par trouver une formule empirique pour la formule du corp noir, puis il la prouve en utilisant une hypothèse qui est un peu absurde. Planck a dû supposer que la lumière (et donc le rayonnement électromagnétique en général) n’était pas absorbée et émise de manière continue, mais uniquement de manière discrète. L’énergie de ces petits “paquets de lumière” est reliée à la fréquence de la lumière par une formule très importante en physique:

E = h.f

Ou f est la fréquence de l’onde étudiée et E l’énergie. h est appelé constante de Planck. Cette discrétisation de la lumière qu’il a dû utiliser lui apparaissait comme une astuce mathématique, mais quelques années plus tard Einstein reprit cette idée pour lui donner un sens physique, ce qu’on connait maintenant comme les photons, ouvrant la voie à la mécanique quantique. Mais c’est une autre histoire.

Pour conclure cette partie, on voit que l’on peut mesurer l’énergie d’un rayonnement, non seulement dans une unité d’énergie, mais aussi en unités de longueur et de fréquence grâce à la formule de Planck. Enfin, en utilisant la loi du corps noir, on peut aussi donner la température d’un objet dont l’émission est centrée sur une certaine fréquence.

Les grandeurs de Planck

Juste un mot pour les grandeurs de Planck. Cette constante de Planck reliant l’énergie d’une particule à sa longueur d’onde va s’avérer la grandeur fondamentale de la mécanique quantique, de même que la vitesse de la lumière est celle de la relativité et G celle de la gravitation. En combinant ces valeurs dans un article de 1899, il arrive à trouver une distance dite de Planck, qui vaut 1,616 × 10-35 m. On parle souvent à tort de cette distance comme la plus petite atteignable. En fait, par construction, il s’agit de la distance à partir de laquelle on ne peut plus négliger ni les effets quantiques, ni les effets gravitationnels. Bien sur Planck ne mesurait pas vraiment l’importance de cette unité au moment où il l’invente, mais c’est la distance caractéristique des théories tentant d’unifier la gravitation et la physique quantique dont est venu nous parler David de Science Etonnante l’année dernière. A partir de ces unités, plein de choses que l’on peut en déduire ont été appelées “de Planck”.

Par exemple, j’ai découvert récemment la prédiction théorique ce qu’on appelle des étoiles de Planck qui sont des objets de la taille de Planck. C’est une vision alternative à la vision uniquement relativiste des trous noirs, une description de la singularité centrale grâce à la gravitation quantique à boucles.

Bien sur, avant l’invention de la mécanique quantique et de la relativité, Planck n’a absolument aucune idée de ce que cette distance implique physiquement. En fait, il les introduit surtout, car il a bien conscience de l’élégance d’introduire des mesures qui ne dépendent que de constantes universelles. Il écrit d’ailleurs dans son article de 1899:
« Elles gardent nécessairement leur signification pour tous les temps et toutes les civilisations, mêmes extraterrestres et non humaines, et peuvent donc être désignées « unités naturelles » »

De même, il définit un temps de planck: 5,391×10-44 s qui est le temps des tous premiers instants de l’univers avant lequel on sait que nos théories non-unifiées ne marcherons plus. On appelle ce moment, le mur de Planck.

Le fond diffus cosmologique

Mais justement, parlons de la naissance de l’univers. Au début de l’univers, il est contracté dans une taille extrêmement petite, puis vient une phase d’expansion extrêmement rapide, appelée phase d’inflation. Alors que l’univers grandit et grandit, on a un refroidissement de la température. Quand l’univers est très chaud, la matière de l’univers est dans un plasma. Comme dans le cas d’une étoile, les photons sont piégés et restent dans le plasma en se faisant émettre puis réabsorber immédiatement. Le gros des photons interagit principalement avec les électrons libres, qui circulent librement dans le plasma qu’est l’univers, car ceux-ci ne sont pas encore liés aux noyaux atomiques Donc l’univers est opaque. Et puis un jour, vers 380’000 ans après le big bang, la température baisse suffisamment pour que les électrons se fixent aux noyaux et forment les atomes.

A ce moment, qu’on appelle la grande recombinaison, les photons peuvent circuler bien plus librement et l’univers devient d’un seul coup quasiment transparent. Un rayonnement est donc émis dans toutes les directions à ce moment dans toutes les directions. Un peu plus tard se forment les galaxies et les étoiles qui vont “ré-ioniser” une partie de l’univers (en remettre une partie sous forme de plasma), on en parlera un peu plus tard. Restons sur la grande recombinaison pour le moment.

Ce moment de grand flash, qui n’est pas le big bang dans l’univers correspond à une surface, que l’on appelle surface de dernière diffusion. Un rayonnement qui a donc une température d’environ 3000 degrés. Mais là vous allez me dire, 3000 degrés, c’est à peu près la température d’une ampoule. Pourquoi ne voit on pas ce rayonnement avec nos yeux alors ? Car l’univers a continué à s’étendre depuis. Et par effet Doppler, leur longueur d’onde a continué à grandir. Donc comme l’univers a grandit d’un facteur environ 1000 entre temps, on est passé d’un rayonnement à 3000 degrés à un rayonnement à -270 degrés, quasiment le zéro absolu.

Bon mais ça je vous dit ça comme ça mais on ne le sait pas a priori. D’ailleurs, avant 1964, on a une vague idée de la température de ce rayonnement primaire mais rien de très précis et plusieurs instruments ont été construits pour la trouver. Mais cela a été trouvé par hasard par deux radio-astronomes (Penzias et Wilson) des laboratoires Bell, qui ont construit un radio-instrument extrêmement précis, pour mesurer le rayonnement dans le domaine radio de la Voie lactée. Cependant, ils n’arrivaient pas a se débarrasser d’un bruit résiduel. Alors qu’ils travaillent encore et toujours à l’amélioration de leur instrument, la communauté des cosmologistes finit par réaliser qu’ils ont mis la main sur le rayonnement cosmologique: encore un bel exemple de sérendipité.

Robert W. Wilson (gauche) et Arno Penzias (droite) posent à côté de leur antenne après l’annonce de leur prix Nobel (AP)

Ce fut la meilleure des confirmations de la théorie du Big Bang, et valut à Penzias et Wilson un prix Nobel en 1978. Par contre, pour les théoriciens qui prédirent leur existence (dont Dicke et Alpher), rien du tout. Mais bon c’est toujours les théoriciens qui ont les prix Nobel et jamais les instrumentalistes, donc ce n’est que justice une fois de temps en temps.

La détection de Penzias et Wilson est à une fréquence qui correspond à environ une température de 2.7 K, en utilisant la loi du corps noir de Planck. On s’attend à trouver une émission de type corps noir, mais il est difficile de le faire depuis le sol, a cause des bruit sur Terre.

Données du satellites COBE (en rouge), parfaitement prévues par la théorie du corps noir (en vert)

Après quelques confirmations depuis le sol, une mission a été envoyée, COBE (pour Cosmic Backgroung explorer) et a publié les données en 1991. Et là, on obtient le meilleur corps noir jamais observé. Le corps noir est donc à 2,725K. Un siècle après Max Planck, on a enfin trouvé un objet dans l’univers qui correspond parfaitement à la loi du corps noir qu’il a prouvé. Ce résultat fut une preuve extrêmement solide de la validité de la théorie du big bang. Deux membres de l’équipe du satellite COBE ont reçu le Prix Nobel de physique en 2006 pour leur contribution aux résultats obtenus avec ce satellite : George Smoot et John C. Mather. D’ailleurs un autre grand artisan de cette mission s’appelle Rainer Wess qui a reçu le prix nobel hier pour son développement de l’instrument LIGO qui a permis la detection des ondes gravitationnelles. Il le dit a la fin de son interview publiée hier: “D’ailleurs je suis déjà venu à Stockholm quand vous avez donné le prix à deux de mes collègues”.

“Space is enormously stiff. You can’t squish it.” When Rainer Weiss comes to Stockholm, the people he is most interested in meeting is… high school students – the scientists of the future!In this telephone interview, recorded immediately after his Nobel Prize was publicly announced, the 2017 Nobel Laureate in Physics explains why measuring the effect of gravitational waves is so very hard to achieve, despite the extraordinarily high energies involved. Listen to the full interview!

Gepostet von Nobel Prize am Dienstag, 3. Oktober 2017

Une autre information du satellite COBE, c’est que cette loi du corps noir n’est pas exactement la même selon les régions du ciel. Certaines régions ont des spectres de corps noirs de température 2,725K et d’autres des spectres de corps noirs de température 2.726K. On appelle ces différences des anisotropies.

La Mission Planck

Avec la découverte de ces premières anisotropies mesurées par COBE en 92, l’Europe va donc mettre en marche un autre instrument, proposé dès 1993: la mission Planck. Les Etats-Unis vont aussi lancer un autre satellite WMAP. Il s’agit de confirmer et d’affiner l’observation des anisotropies. En effet, ce qu’on voit représente dans le fond diffus cosmologique est ce qui a été émis à 380’000 ans, mais est l’empreinte de ce qui se passe à une échelle beaucoup plus primordiale, très près du mur de Planck. On montre souvent ces cartes sur des ovales, qui représentent la projection de tout le ciel sur une seule carte, souvent centrée sur le centre galactique.

Le fond diffus cosmologique: comparaison des réolutions des instruments COBE, WMAP et Planck. Source: lefigaro.fr

Les détecteurs ont été construits suffisamment sensibles pour ne pas être limités par la faiblesse du signal, mais par les contributions “locales” ou de premier plan. Car d’autres phénomènes, il y en a ! Il y a aussi :

  • l’émission de poussières de notre galaxie
  • les amas de Galaxie qui ont du gaz à peu près à cette température,
  • L’effet des galaxies très très loin, qui à cause de l’effet Doppler énorme ont une émission proche de celle du fond diffus cosmologique

L’avantage c’est que l’on sait que le fond diffus cosmologique est très très exactement un corps noir, donc on fait des mesures à plusieurs fréquences et tout ce qui dévie de cette loi du corps noir, on sait que cela vient d’autres phénomènes, dit phénomènes de premier plan.

Les cartes du ciel dans les différents canaux spectraux de Planck (source: ESA)

Ce qui ne change pas à toutes les fréquences, c’est le fond diffus cosmologique, la partie bleue. En rouge, c’est principalement les limitations dues à la poussière galactique ou dues aux autres galaxies. On utilise là ce qui change et ce qui ne change pas entre les bandes spectrales pour séparer les différentes composantes: la poussière proche, le gaz, les galaxies, etc… et le fond diffus cosmologiques

Pour limiter à fond le bruit de l’instrument, il faut le refroidir. Après trois étages de refroidisseur successifs, on descend jusqu’à 0.1 Kelvin au cœur de l’instrument, avec une stabilité à 0.1 milli-kelvin. 0.1 Kelvin c’est un dixième de degré au-dessus du zéro absolu. C’est une énorme prouesse technique, impossible à réaliser sur Terre et à l’époque les refroidisseurs qui permettent d’arriver à cette température sont beaucoup trop imposants pour rentrer dans une mission spatiale. Il faut aussi que ces refroidisseurs soient extrêmement stable pour éviter les mouvements.

Le satellite Planck en salle blanche avant son lancement (source)

Le 3 juillet 2011, après 50 jours de mission, tout se passe bien et le refroidissement arrive finalement au 0.1K ce qui en fait à l’époque l’un des points les plus froids de l’univers.

En parlant de trucs très froid, une expérience qui devrait arriver prochainement sur l’ISS tentera d’atteindre 100 picoKelvin : un dix milliardième de degrés au dessus du zéro absolu. Ca s’appelle le Cold Atome Laboratory et c’est normalement arrivé il y a quelques mois sur l’ISS, je ne sais pas trop où ça en est. Un peu d’info en français et en anglais.

Produits scientifiques de Planck

On a donc plusieurs principaux produits de Planck que l’on représente souvent en carte. La première, en violette, c’est la contribution totale dans les fréquences observées. La grosse tache violette au centre, ce n’est PAS le fond diffus cosmologique, c’est principalement les poussières de la galaxie. On voit seulement en haut et en bas le “grain” du fond diffus cosmologique.

Carte du ciel montrant toute les contributions observées après un an de mission (ESA/collaboration Planck)

Un autre magnifique résultat, c’est la polarisation de la poussière de la galaxie, on dirait du Van Gogh. Je ne vais pas en parler ici, mais vous pouvez trouver plus d’informations sur le site de la mission et sur le site du CEA.

Image de la polarisation de la poussière interstellaire (ESA/collaboration Planck)

Une fois que l’on a retiré tout ce qu’on sait être des compositions locales, on obtient une carte beaucoup plus granuleuse, après corrections aux anisotropies du fond diffus cosmologiques. Ces anisotropies vont de plus ou moins 100 micro Kelvin, avec un bruit inférieur au micro-Kelvin.

Le fond diffus cosmologique observé par la missions Planck (ESA/collaboration Planck/)

Anisotropies du Fond Diffus Cosmologique

Selon le modèle cosmologique standard, les petites fluctuations se sont produites immédiatement après le Big Bang et ont été amplifiées sur de grandes échelles cosmologiques au cours de la brève période d’expansion accélérée dite période d’inflation et qui a duré 10-32 secondes, pendant cette période l’Univers s’est agrandi d’un facteur énorme : au moins 1026. Grâce à l’inflation, il est donc possible de voir des perturbations extrêmement fines projetées sur toute la sphère de l’univers dans le fond diffus cosmologique. Ces perturbations initiales sont à la base de la création des amas de galaxies, qui vont créer finalement des étoiles, et des planètes.

Quand on observe cette carte, on ne voit pas vraiment sortir de structures à l’oeil nu. En fait, dites-vous que c’est comme si vous observiez un océan vu du ciel. Il y a de petites vaguelettes et de grandes vagues de fond et peut être même des effets dont la longueur caractéristique, c’est plusieurs kilomètres. Mais vu que tout est mélangé, ça donne juste une impression de bruit. Vous avez besoin d’un outil qui va vous permettre de décomposer le signal dans les grandes lignes. Pour chaque “type de vagues” (leur distance crête a crête) vous allez calculer la hauteur typique de ces vagues. Ca vous donne une information précise de ce que vous voyez au delà du bruit. Nico a parlé de la transformée de Fourrier en 2013 dans l’épisode 116 qui est très adapté pour faire ce genre de décomposition sur un plan. Là c’est à peu près pareil, c’est une décomposition en harmoniques sphériques, qui sont plus adaptées pour la décomposition sur une sphere, la surface du ciel. Vous avez donc, pour chaque “vague” d’une certaine échelle dans le fond diffus cosmologique, son amplitude typique. On voit apparaitre que certains “type de vagues” sont très bien représentés, tandis que d’autres sont totalement absents du fond diffus cosmologique.

Cette décomposition en mode permet de comprendre comment se comportait le plasma avant la grande recombination, à 380’000 ans. En effet, à ce moment, de grandes ondes acoustiques se propageaient dans ce plasma, comme dans le plasma d’une étoile actuellement. La décomposition des modes du fond diffus cosmologique permet de comprendre comment se propageaient les ondes acoustiques peu après le big bang. Et la propagation de ces ondes dépend très précisément de la composition relative de cet univers en matière normale, en matière noire et en énergie noire, par exemple.

Cette décomposition est extrêmement importante car elle permet de tester les modèles du big bang. En gros, vous prenez votre modèle préféré du big bang et vous regardez s’il permet d’expliquer les modes que vous observez, émis à 380’000 ans. Si non, bah votre modèle est faux. Bim. Si oui, cela permet d’ajuster les paramètres très précisément. Le modèle le plus simple à ce jour qui rende compte des propriétés du cosmos s’appelle le modèle Lambda-CDM et fait intervenir 6 paramètres seulement. On a trouvé un jeu de ces 6 paramètres qui explique parfaitement les fluctuations du fond diffus cosmologique, ce qui est non seulement une confirmation une fois de plus des théories du big bang auparavant mais qui s’accorde aussi avec ce que l’on sait de la matière noire et de l’énergie sombre. L’écart à ce modèle se mesure en micro Kelvin et donne déjà des billes pour chercher la génération suivante de modèles cosmologiques.

Les 3 premiers paramètres sont issus de la relativité générale et fixe la dynamique de l’univers que vous créez ici, en particulier la quantité de matière normale (dite baryonique), la quantité de matière sombre et la distance maximale que peut parcourir une onde acoustique pendant les premiers 380’000 ans, c’est à dire entre la période d’inflation et la grande recombinaison.

Ensuite, il y a un paramètre qui fixe la ré-ionization, c’est à dire que les étoiles un peu plus tard vont se créer. J’en avais parlé un peu plus tôt, c’est un effet faible mais non négligeable. Ce paramètre est très important pour les gens qui étudient la formation des galaxies.

Finalement, il y a 2 paramètres qui écrivent les “conditions initiales” de ces ondes acoustiques, c’est à dire en gros dans quel état est l’univers juste après la phase d’inflation. C’est principalement sur ces derniers paramètres qu’il y a eu une énorme amélioration grâce à Planck, ce qui a extrêmement confirmé et contraint la phase d’inflation de l’univers. À partir de ces données, on a pu exclure plusieurs dizaines de modèles d’inflation possibles.

Image issue d’une présentation de F. Boucher (responsable scientifique de la mission Planck). Sur les 70 modèles développés pour prédire l’inflation 25% ne sont pas impactés par les résultats de Planck, ils ne sont pas invalidés (en bleus). Par contre, 21 % sont faiblement contredits (rouge), 17% sont moyennement contredits (vert) et 34% sont fortement contredits (jaune) par les résultats de Planck.

D’autres paramètres peuvent être dérivés de ceux-là, comme l’âge de l’univers, la quantité d’énergie noire, etc…

Ce qui est absolument fantastique, c’est que ce modèle aussi simple (6 paramètres) puissent s’ajuster aussi bien à l’univers tout entier. Comme le dis P. J. E. Peebles à l’IAU en 2000.

“La logique élégante de la relativité générale et la précision de ces tests en ont fait un cadre de travail tout trouvé pour décrire la cosmologie. Mais la longueur d’Hubble est 15 ordres de grandeur plus grande que la taille caractéristique des tests de cette théorie (inférieur ou égale à l’unité astronomique), ce qui est une extrapolation spectaculaire”

(“The elegant logic of general relativity theory, and its precision tests, recommend GR [general relativity] as the first choice for a working model for cosmology. But the Hubble length is fifteen orders of magnitude larger than the length scale of the precision tests, at the astronomical unit and smaller, a spectacular extrapolation.“) P. J. E. Peebles, Concluding Remarks on New Cosmological Data and the Values of the Fundamental Parameters (arXiv:astro-ph/0011252).

Ce que cela veut dire, c’est que la relativité est une très belle théorie et que donc elle était un candidat tout trouvé pour essayer d’expliquer des choses sur l’univers tout entier. Mais si on y pense, les seules validations expérimentales de cette théorie ont été faites dans le système solaire, à des ordres de grandeur des millions de milliards fois plus petits. Le fait que cette théorie marche encore à ces échelles est incroyable.

Citation

Les Gouvernements et les Parlements doivent trouver que l’Astronomie est une des sciences qui coûte le plus cher : le moindre instrument coûte des centaines de mille francs, le moindre Observatoire coûte des millions ; chaque éclipse entraîne à sa suite des crédits supplémentaires. Et tout cela pour des astres qui sont si loin, qui sont complètement étrangers à nos luttes électorales et n’y prendront vraisemblablement jamais aucune part. Il faut que nos hommes politiques aient conservé un reste d’idéalisme, un vague instinct de ce qui est grand ; vraiment, je crois qu’ils ont été calomniés ; il convient de les encourager et de leur bien montrer que cet instinct ne les trompe pas, et qu’ils ne sont pas dupes de cet idéalisme.

Henri Poincaré, La valeur de la science

 

Quelques sources pour aller plus loin :

 

Derniers épisodes