Hubble a 25 ans !

On 07.05.2015, in Dossiers, by Johan
VN:F [1.9.22_1171]
Rating: 4.7/5 (3 votes cast)

 

Introduction

Hubble, avant d’être un télescope, c’est un astronome américain, Edwin de son prénom. Sa première découverte majeure est la découverte des galaxies en 1923. En effet, avant cela, on pensait que ces nébuleuses comme on appelait alors ces objets, qui étaient trop gros pour être des étoiles, étaient situés dans notre galaxie. Après avoir identifié plusieurs galaxies, il commence leur classification en galaxies elliptiques, spirales et spirales barrées, ou lenticulaires. C’est en étudiant ces galaxies qu’il va mettre en évidence la loi qui porte son nom. Cette loi avait été préalablement mise en évidence plusieurs années auparavant par l’astronome Georges Lemaitre. Jean Pierre Luminet nous faisait d’ailleurs remarquer il y a un mois que ce prêtre belge n’était vraiment pas assez reconnu pour ces immenses apports à la cosmologie. Bref, en étudiant ces objets que sont les galaxies, il remarque que plus elles sont éloignées, plus elles ont un décalage vers le rouge important.

Galaxies en interaction, par l’instrument WFC3. Credits : NASA, ESA, and the Hubble Heritage Team (STScI/AURA)

Ce décalage vers le rouge est bien connu dans l’univers proche et est créé par l’effet Doppler, connu depuis longtemps en physique classique. Ainsi, un objet émettant une onde sonore ou lumineuse et qui se rapproche ou s’éloigne de nous va agrandir ou diminuer la fréquence de cette onde selon sa direction. En analysant ce décalage, on peut en déduire la vitesse de l’objet dans notre direction. Ainsi, un décalage vers le rouge, en physique classique, signifie que les galaxies s’éloignent de nous. Ce que la loi de Hubble montre, c’est que plus les galaxies sont éloignées de nous, plus elles semblent s’éloigner vite, avec une relation linéaire : la vitesse de l’objet est égale à la distance de cet objet que multiplie une constante, appelée la constante de Hubble. Cela qui veut donc dire que l’univers est en expansion. Attention, si l’on reste dans le cadre de la relativité restreinte, on peut trouver une distance pour laquelle la vitesse sera plus grande que la vitesse de la lumière. Donc ce décalage pour le rouge par effet Doppler ne fonctionne que pour l’univers proche. Pour l’univers plus lointain, il faut alors se placer dans le cadre de la relativité générale, dans laquelle cette vitesse d’éloignement n’est pas une vitesse physique dans un espace fixe, mais un étirement de l’espace temps dans lesquelles les galaxies resteraient globalement fixes.

Cette loi est aujourd’hui parfaitement admise, à tel point qu’on mesure les distances et les âges des galaxies en terme de décalage vers le rouge. Cette mesure observationnelle donne l’avantage de ne pas dépendre des valeurs des paramètres du modèle. Ainsi, si on dit qu’une galaxie est à z = 1, c’est que son décalage vers le rouge donne une “vitesse apparente” de 1 fois la vitesse de la lumière. Si l’on a une valeur de la constante de Hubble cela peut donner une distance. Si l’on fixe d’autres paramètres du modèle (la densité de matière dans l’univers par exemple) on peut alors donner le temps qu’a mis la lumière pour nous en parvenir. Sur ce site, on peut jouer avec ces paramètres. Cette mesure de z permet donc de donner une valeur observable non dépendante des paramètres parfois mal contraints du modèle. On connait quelques galaxie se trouvant à z>6.

ps216_PGkt2K7

A l’époque, cette loi est une révolution, et enlève une sacrée épine du pied à Einstein. En effet, celui-ci essayait à l’époque de faire rentrer un peu de force un univers statique dans sa théorie, ce qui n’était pas très facile. En effet, la masse de l’univers devrait tendre à le “retenir vers l’intérieur”, ce qui devrait le faire décroitre, ou à le faire décroitre si il grandit. Pour admettre un univers statique, il faut imaginer une force répulsive inconnue, qu’Einstein note comme une constante cosmologique dans son modèle, qui permet de contrebalancer la gravité. Il semble que cette hypothèse d’univers statique qu’essayait de prouver Einstein était surtout là pour des raisons philosophiques. Quoi qu’il en soit, Einstein admit son erreur et allât même remercier Hubble.

Genèse du projet

Après cette longue introduction, passons maintenant au télescope. La personne que vous devez absolument retenir pour avoir porté à bout de bras ce télescope, c’est Lyman Spitzer. Dès 1946, ce physicien américain décrit dans un papier les deux principaux avantages d’un télescope spatial. Quels sont ils d’ailleurs ? Dans un premier temps, la résolution angulaire. J’en avais déjà parlé dans mon émission sur les télescopes. Rapidement pour les nouveaux, on parle de résolution angulaire pour désigner l’angle minimum que va détecter un appareil optique et qui va lui permettre de séparer deux points. Ainsi l’oeil humain peut détecter un angle de 1 minutes d’arc environ, ce qui fait qu’il peut séparer deux points séparés de 1 mm à 3 mètres, ou encore deux points séparés de 100 km sur la lune.

Nébuleuse d’Orion (combinaisons d’image ACS et sol). Crédits : NASA, ESA, M. Robberto (Space Telescope Science Institute/ESA), and the Hubble Space Telescope Orion Treasury Project Team

Il y a un petit jeu sur wikipedia (article pouvoir de résolution) sur ça. On prend 3 fois la même image avec des résolutions numériques différentes et on regarde à partir de quelle distance notre oeil ne voit plus la différence entre les images.

Les télescopes ont aussi une résolution angulaire, qui dépend linéairement de la taille de leur miroir principal. Ainsi, un télescope deux fois plus grand permettra de séparer, à une même distance de nous, deux objets deux fois plus rapprochés l’un de l’autre. Le problème c’est que l’atmosphère vient tout gâcher. En brouillant les images, elle va fortement diminuer la résolution d’un télescope, pour la ramener de toute façon à celle d’un télescope de 30 cm de diamètre. Ce problème a été traité sur Terre grâce à l’optique adaptative (voir mon dossier sur les télescopes) qui ironiquement a été pour la première fois rendue techniquement possible à peu près au début des années 90, quand Hubble a été lancé. Mais en 1946, niet !

Et puis il reste de toute façon l’autre avantage de l’espace : accéder à la lumière qui ne nous parviens pas. En effet, l’atmosphère arrête une grande partie de la lumière qui arrive de l’espace. Ainsi, les ultraviolets sont en grande partie arrêtés par l’atmosphère. Un autre problème apparait aussi si vous voulez détecter de l’eau sur certains objets. La seule façon est de regarder l’objet et de prendre son spectre, c’est à dire les variations de lumière pour chacune des longueurs d’ondes, et de regarder si il présente des raies caractéristiques (des “trous” dans le spectre) d’absorption de l’eau. Le problème c’est que si vous faites ça depuis la Terre, il y a de grandes chances que vous trouviez de l’eau un peu partout, car l’atmosphère, gorgée d’eau, va créer elle même ses raies en absorbant la lumière.

Intermède : demande de temps Hubble

Au passage, j’ai déposé une demande d’observation avec Hubble le mois dernier justement pour regarder justement une raie spécifique de l’eau sur des exoplanètes. Je le dis pas seulement parce que je suis super fier, mais aussi pour présenter le système de demande de temps de ce télescope. C’est sans doute l’un des télescopes les plus difficiles obtenir encore de nos jours, avec une proposition sur 12 acceptée seulement (et le nombre de proposition est en augmentation chaque année). Les chercheurs écrivent une demande, dans laquelle en plus d’expliquer à quel point ça va leur donner des résultats de dingues, ils doivent aussi justifier que ce qu’ils veulent faire n’est possible que depuis l’espace. Les demandes sont ensuite envoyées au Space Telescope Science Institute, à Baltimore où elles sont réparties dans plusieurs comités de scientifiques reconnus qui les évalue avec impartialité. La particularité de ces demandes est aussi qu’elles viennent avec de l’argent, souvent assez pour permettre de payer quelqu’un pendant un an ou plus. Ainsi, on s’assure que ces données seront bien traitées et donneront des résultats de qualité. Et les résultats suivent. Pour le 25 ème anniversaire la directrice du STScI a annoncé “presque 13’000” papiers publiés utilisant des données Hubble, ce qui en fait l’un des instruments scientifiques les plus productifs à ce jour, toutes sciences confondues.

Titre-Hubble

Hubble, par Puyo

Mais retournons au télescope. Une amélioration qu’on cite souvent (je l’ai même entendu chez e-penser), c’est que le télescope peut observer jour et nuit. C’est vrai et faux. Pour la plupart des étoiles, le télescope ne pourra observer que le temps d’une demi orbite, car le reste du temps, il est entre la Terre et le Soleil et il ne peut pas observer aucun de ces deux objets. Donc souvent pendant ce temps la, on tourne pour acquérir une nouvelle cible et on décharge les mémoires vers la Terre. Donc ca fait une observation de 45 minutes au plus en gros pour la majorité des étoiles. Si un objet est très au Nord ou très au Sud, on est jamais gêné par la Terre et normalement, on peut faire de très très longues poses effectivement. La planification des orbites est vraiment très compliquée. On ne peut pas anticiper plus de deux semaines en avance car les perturbations sur le télescope font que sa trajectoire est difficile à prévoir. On doit faire tenir aussi les décharges de mémoire, les acquisitions de cibles, tout en maximisant le temps d’observation et en prenant en compte l’intérêt scientifique, comme le fait que certaines observations doivent être faites proches dans le temps ou à une certaine période si c’est un événement court. Bref, le STScI de Baltimore a des ordis qui chauffent fort et en fait le bâtiment est chauffé par ses machines (on m’a dit que dès que la température extérieur dépasse 10 degrés, ils sont obligés de mettre la clim pour refroidir le bâtiment tellement les serveurs dégagent de chaleur).

Retour à la Genèse

La route fut longue pour Spitzer, qui y dévolue toute sa carrière. En effet, le cout prohibitifs et les défis techniques sont des freins importants. Cependant, en 1968, la NASA commence à développer des plans fermes pour un projet de télescope spatial de 3m appelé alors Large Space Telescope (LST), prévu pour 1979. Ce projet comprend une possibilité de rénovation par les humains, ce qui allait parfaitement avec le projet de navette spatiale qui est aussi mis dans les tuyaux exactement la même année. Initialement, il était même prévu de pouvoir ramener Hubble sur Terre dans la navette pour des remises à niveaux. Bon et puis on s’est rendus compte que ça coutait assez cher et que, les projets spatiaux étant toujours extrêmement dépendant du climat politique et de l’humeur du congrès, un cadre de la NASA expliquait en 1984 que “si nous ramenons Hubble à Terre, il ne va jamais redécoller”.

Bon 1979, c’est un peu ambitieux et le projet va prendre du retard et dépasser son budget. Le lancement de ce qui est devenu entre temps le Hubble Space Telescope ou HST, est finalement prévu pour octobre 1986. Cependant, en Janvier de cette même année, la navette Challenger explose au décollage, tuant 7 astronautes et mettant en pause les lancements. Hubble, quasiment prêt, est alors stocké dans une immense salle blanche (une pièce extrêmement propre pour éviter que des poussières ne se déposent sur les optiques), ce qui coûte environ 6 millions de dollars par mois. Le projet, initialement estimé à 400 millions, va finalement taper le 2.5 milliards le jour où il sera finalement envoyé, il y a 25 ans, le 24 Avril 1990. Le coût à ce jour, avec les missions d’entretien et la surveillance 24h/24, approche 10 milliards de dollars. Cependant, comme pour tous les projets de ce type, il faut le ramener aux échelles de temps mises en oeuvre et cela revient en comptant seulement la durée d’utilisation, à 1.5 dollars par an et par américain. Mais tout de même, c’est cher. Alors il faut que ca marche !

Photo anniversaire de Hubble : le regroupement d’étoile Westerlund 2 au sein de la nébuleuse Carina, combinaison d’images ACS et WFC3. Crédits : NASA, ESA, the Hubble Heritage Team (STScI/AURA), A. Nota (ESA/STScI), and the Westerlund 2 Science Team)

La panne

Et justement ça ne marche pas. Mais pas du tout. Très vite, on s’aperçoit que les panneaux solaires ne sont pas assez rigides et vibrent un peu lorsqu’ils changent de température en passant du soleil à l’ombre, soit toutes les 50 minutes environ. En passant, c’est l’agence spatiale européenne qui s’était occupée des panneaux solaires en échange d’un temps d’accès au télescope pour les astronomes européens. Ils s’en sont d’ailleurs vantés sur Facebook la semaine dernière pour les 25 ans et j’ai partagé leur lien avant d’apprendre qu’ils étaient défectueux et que le community manager aurait mieux fait de s’abstenir.

Mais le plus gros problème vient de la NASA. Un mois après le lancement, le télescope réagit toujours très bizarrement. On prend des images et la qualité est à peine meilleure que sur Terre. La résolution angulaire, ce qui fait apparaitre les contours bien nets, n’est pas au rendez vous. Quand on s’aperçoit que tous les instrument sont dans ce cas, c’est la crise : ça vient d’une des première optiques, les plus grosses, et ça complique la mission. Quand on réalise que c’est un défaut du miroir primaire, beaucoup trop important pour être corrigé avec les moyens embarqués, c’est terrible. L’erreur est identifiée en quelques mois, il s’agit d’une aberration sphérique : le bord du miroir ne fait pas la mise au point au même endroit que le centre du miroir, ce qui résulte en une image “floue” d’un point et donc d’une résolution angulaire complètement dégradée.

Aberration sphérique pour une lentille

Les directeurs des différents instruments réalisent un par un les conséquences pour les performances : Jim Westphal, designer du principal instrument, le Wide field planetary camera (WF/PC, prononcé affectueusement wifpic) réalise qu’à 61 ans, il a consacré 14 de sa carrière à cet instrument, dont l’aberration optique “balaye essentiellement l’intégralité [du] programme scientifique”. L’astronome Sandra Faber qui fut l’une des premières à identifier précisément le problème, envisage le pire dans son journal : une commission d’enquête du congrès américain, la fermeture de la NASA, l’astronomie tout entière devenant une science paria, les carrières des jeunes chercheurs brisées… Ce n’est pas tant pessimiste que ça. On est 4 ans seulement après Challenger, les deux principaux projets de la NASA depuis 20 ans sont au mieux un semi échec. L’URSS est en train de s’écrouler et la course à l’espace perd de son intérêt. Les journaux sont très critiques, le Los Angeles Time écrit : “Le monde voit maintenant le résultat honteux du laxisme et des incapables de la NASA”. LA NASA voit ses heures les plus sombres et perd le soutien populaire. Dans la comédie Y a t il un flic pour sauver le président sortie en 1991, Hubble est représenté à côté de plusieurs échecs célèbres de projets énormes : le Titanic et le dirigeable Hindenburg.

Détails de la nébuleuse de l’aigle, par l’instrument ACS. Crédits : NASA, ESA, and The Hubble Heritage Team (STScI/AURA)

Comment la NASA a t elle pu se planter à ce point sur ce qu’elle présentait comme le meilleur miroir jamais mis au point ? La commission d’enquête débarque chez le sous-traitant qui a fabriqué le miroir. Il avait aussi fabriqué une machine extrêmement perfectionnée pour mesurer la surface du miroir avec une précision inégalé. Cependant, un capuchon qui devait être non réfléchissant à été éraflé et la machine a parfaitement réalisée sa tâche : faire le meilleur miroir jamais conçu, mais en focalisant sur le reflet sur le capuchon, 1.3mm trop près. Des tests sur des machines plus rudimentaires ont mis en évidence l’aberration sphérique, mais les ingénieurs les ont mis de côtés, au motif que la machine qu’ils avaient construite était plus précise. L’erreur est de seulement 2 micromètres au niveau du bord, mais détruit les performances en résolution.

La résurrection

Très vite, la riposte se met en place en particulier au Space Telescope Science Institute. La première mission de réparation prévue est en 1993. Ces missions étaient prévues tous les 3 ans en moyenne pour remplacer les instruments qui sont standardisés pour facilement s’enlever et se remplacer comme des modules. La NASA souhaite en priorité faire des belles images pour sauver sa réputation et incorpore donc des modifications sur l’instrument qui devait de toute façons être changé, WF/PC 2 est automatiquement améliorer en rajoutant des optiques qui introduisent le défaut inverse. Pour les 4 autres instruments, il faut aussi trouver une solution. Certains envisagent de faire descendre un astronaute dans le cylindre à l’intérieur de Hubble. Mais il y a le risque qu’il reste coincé… en direct à la télé américaine, ce ne serait pas vraiment la meilleure pub pour la NASA. Finalement, Jim Crocker du STScI trouve une solution. Ils construisent un module qui pourra rentrer à la place d’un autre instrument, mais qui une fois dedans se dépliera pour faire passer des optiques devant le faisceau de tous les autres. On devra sacrifier un instrument, mais on sauvera les autres. Ainsi est désigné COSTAR (Corrective Optics Space Telescope Axial Replacement).

Kathryn Thornton remplaçant un des panneaux solaires de Hubble lors de la première mission de maintenance du télescope spatial (STS -61).

La première mission de maintenance de Hubble, en 1993 est la plus ambitieuse jamais tentée à cette époque. Elle incorpore un suisse, Claude Nicollier, et une femme, Kathryn C. Thornton, ce qui est suffisamment rare pour être noté. En 5 jours et autant de sorties spatiales, les membres de l’équipe changent les panneaux solaires, remplace WF/PC 1 par WF/PC 2, met en place COSTAR, remplace 4 gyroscopes, change des unités mémoire, et remplace d’autres composants.

La mission est un succès complet et la science peut maintenant commencé à plein temps. Voici différentes versions de l’image de l’étoile Eta-Carinae,entourée de sa nébuleuse, prises avant Hubble, depuis la Terre, puis à différente époques de la vie d’Hubble. On voit très nettement l’amélioration.

eta_car

Les différentes missions de services de la navette américaine ont permis d’augmenter la durée de vie de manière spectaculaire. Apportant, parfois in-extremis, les composants nécessaires à sa survie, elles ont aussi remplacé un par un les instruments. Le télescope est donc toujours pourvus d’instruments récents permettant de faire des observations d’excellente qualité, comme le prouve son succès, avec l’augmentation du nombre de demandes de temps chaque année dont on a parlé. Les instruments suivants ont intégrés en interne l’aberration, et COSTAR fut redescendu en même temps que le dernier instrument de première génération. Après 16 ans dans l’espace, il est aujourd’hui exposé au musée de l’air et de l’espace de Washington. La dernière mission de réparation a eu lieu en 2009 et la navette est maintenant clouée au sol. Hubble est maintenant livré à lui même mais on pense qu’il devrait tenir au moins jusqu’à 2020, permettant une superposition avec son remplaçant le James Webb Space Telescope, lancement prévu en 2018.

La science (enfin)

ps216_CDs_yfIWEAEqv4y.jpg

Hubble, par Inti

En 1995, on a décidé de prendre une région très au Nord, ce qui permettait une observation quasiment en continu comme je l’ai dit, et de l’observer intensivement pendant 8 jours, avec plusieurs filtres spectraux. En cumulé, plus de 140h d’observation on permis d’obtenir ce qu’on appelle le Hubble Deep Field. On a choisi cette région pour évite les étoiles de la galaxie et pouvoir creuser loin sans saturer l’image avec des objets proches et le résultat est impressionnant : près de 3000 galaxies furent découvertes dans cette région du ciel grande comme une balle de tennis à 100m. Cette analyse est un des papiers les plus cités de Hubble avec 970 citations à ce jour. Elle a permis de trouver de nombreuses galaxies à très haut décalage vers le rouge (c’est à dire avec un grand z, maintenant vous savez ce que ça veut dire). De fait, avant cette image, on connaissait très peu d’objets ayant un z supérieur à 1. Dans le Hubble Deep Field, on est remonté à z = 6. Ces galaxies à haut décalage vers le rouge sont très éloignées donc aussi très jeunes, ce qui a permis de comprendre beaucoup de choses sur l’évolution des galaxies. En particulier, il a permis de montrer que les fusions et collisions de galaxie étaient plus fréquentes dans l’univers jeunes.

Enfin, en 1998, on a refait la même opération vers le sud et obtenu des résultat similaires, ce qui valide l’hypothèse que l’univers est isotrope et homogène, c’est-à-dire au final que nous ne sommes pas vraiment en un endroit particulier de l’univers.

Enfin, l’une des théories à cette époque était que la matière noire était constituée de Machos (en anglais Massive Astrophysical Compact Halo Objects) c’est à dire des objets massifs mais très peu lumineux comme les naines brunes. Marco en avait parlé dans son épisode sur la matière noire. Le Hubble Deep Field a permis d’invalider cette hypothèse devant le faible nombre de naines brunes dans l’image. En 2003, Hubble a réalisé un Ultra-Deep Field avec plus de 275 heures d’observation d’une même région. Ces grands champs sont quelques choses d’encore assez inaccessibles depuis le sol, même avec les dernières techniques d’optique adaptative.

Le Hubble Ultra-Deep Field, dans la constellation du Fourneau.

Le Hubble Ultra-Deep Field, dans la constellation du Fourneau.

Une autre découverte de Hubble concerne les trous noirs dont nous a parlé Jean-Pierre Luminet le mois dernier. Ainsi, on a trouvé des trous noirs super massifs au centre de la plupart des galaxies. On a aussi pu mettre en évidence qu’il existe une relation entre leur masse et la luminosité de la galaxie, ce qui montre une évolution en tandem.

Enfin, retour à Edwin Hubble pour la fin. Les observations de galaxies ont permis de bien contraindre la constante de Hubble avec une bien meilleure précision qu’auparavant (on est passé de “entre 50 et 90” à 72±8). Mais ce n’est pas tout. En 1998, deux équipes concurrentes, la High-z Supernova Search Team et le Supernova Cosmology Project ont utilisé des observations au sol et Hubble pour observer des Supernovae de type 1a. Ces explosions, assez courtes, viennent du fait que des naines blanches accrètent de la matière d’une autre étoile proche. Lorsqu’elle dépasse une certaine masse, elles explosent avec une luminosité extrêmement importante et très bien contrainte. En observer une depuis la Terre permet donc de bien contraindre la distance de ces objets, même si elles sont situées dans des galaxies très lointaines. Ces observations ont permis d’évaluer avec précision l’évolution de la constante d’Hubble au cours du temps. Et surprise, ces observations ont montré que l’univers… accélérait ! Ainsi, Einstein avait raison ? L’univers ne s’écrase pas, ne ralenti pas, une force inconnue contre bien la gravité et pousse l’univers vers l’extérieur. Cette énergie est appelée énergie sombre et certains cosmologistes lui trouvent beaucoup de points communs avec la constante cosmologique qu’Einstein avait jeté à la poubelle dans les années 30. Cette découverte a value le prix Nobel à Brian P. SchmidtAdam Riess et Saul Perlmutter en 2011.

Conclusion

Pour finir, Hubble, c’est aussi un apport magistral  à l’astronomie grand public et nombre énorme de photos fantastiques. N’hésitez pas à aller voir dans les liens.

Zoom sur l’étoile V838 Monocerotis et son évolution au cours du temps.

Sources :

 

VN:F [1.9.22_1171]
Rating: 4.7/5 (3 votes cast)

Dossier – L’Energie Noire

On 12.05.2011, in Dossiers, by Mathieu
VN:F [1.9.22_1171]
Rating: 4.5/5 (12 votes cast)

L’énergie noire est une forme hypothétique d’énergie qui remplirait tout notre Univers et qui a été indirectement mise en évidence par diverses observations astrophysiques, notamment l’accélération de l’expansion de l’Univers.

  • L’Univers est non seulement dans une phase d’expansion, mais aussi dans une expansion qui s’accélère.
  • Du fait de sa nature répulsive, l’énergie noire a tendance à accélérer l’expansion de l’Univers, plutôt que la ralentir, comme le fait la matière normale par effet attractif gravitationnel.

Une façon intuitive de visualiser l’expansion de l’Univers est de prendre l’analogie d’une toile élastique que l’on étire dans toutes les directions:

  • Si l’on dessine des motifs sur la toile, alors ceux-ci vont grossir en même temps qu’ils semblent s’éloigner les uns des autres lorsque l’on étire la toile.
  • Par contre, si au lieu de dessiner des motifs on colle sur la toile un objet rigide (une pièce de monnaie par exemple), alors, en étirant la toile, on va éloigner les objets les uns des autres, mais cette fois ils vont garder une taille constante.
  • C’est un processus de ce type qui est à l’œuvre avec l’expansion de l’Univers.
    • L’expansion de l’Univers ne signifie pas que les objets astrophysiques voient leur taille varier.
    • Ce n’est que leur distance mutuelle qui varie au cours du temps, et ce uniquement pour des objets suffisamment éloignés.

Historique

Historiquement, la seule forme d’énergie (hypothétique) se comportant comme de l’énergie noire était la constante cosmologique, proposée dans un autre contexte par Albert Einstein en 1916.

En 1916, date à laquelle l’expansion de l’univers n’était pas connue, Albert Einstein considérait que l’Univers devait être statique, aussi lui fallait-il introduire une nouvelle force s’opposant à la force de gravitation, afin d’expliquer pourquoi l’Univers ne s’effondrait pas sur lui-même sous sa propre force d’attraction gravitationnelle.

  • Le candidat idéal qui fut trouvé est la constante cosmologique Λ, qui permettait de contrebalancer l’effet attractif de la force gravitationnelle.
  • La constante cosmologique est un paramètre rajouté par Einstein à ses équations de la relativité générale, dans le but de rendre sa théorie compatible avec l’idée qu’il y avait alors un Univers statique.
  • La constante cosmologique représente une densité d’énergie constante qui remplit l’espace de façon homogène.
  • Elle introduit une sorte d’énergie (un champ scalaire constant) présente en tout point du continuum spatio-temporel, qui, avec un choix convenable de signe et de valeur, peut s’opposer à la gravité et modifier le profil d’évolution de la taille de l’Univers.

En 1929, Edwin Hubble observe un décalage vers le rouge (redshift) des galaxies qui témoignerait d’un Univers en expansion.

  • La Loi d’Hubble énonce que les galaxies s’éloignent les unes des autres à une vitesse approximativement proportionnelle à leur distance.
    • Autrement dit, plus une galaxie est loin de nous, plus elle semble s’éloigner rapidement.
  • Cette loi ne concerne bien évidemment que la partie de l’Univers accessible aux observations (Univers observable).
    • L’extrapolation de la loi de Hubble sur des distances plus grandes est possible, mais uniquement si l’Univers demeure homogène et isotrope sur de plus grandes distances (ses propriétés ne changent pas).
    • C’est le principe cosmologique qui dit que l’Univers est:
      • homogène: l’Univers est invariant quand on se déplace dedans, son apparence générale ne dépend pas de la position de l’observateur.
      • isotrope: l’Univers est invariant quand on regarde dans différentes directions, son aspect ne dépend pas de la direction dans laquelle on l’observe.
  • La conséquence immédiate de la loi de Hubble et de l’expansion de l’Univers est que celui-ci était par le passé plus dense et donc plus chaud, et de là découle le modèle du Big Bang.
  • Il semblerait que, deux ans avant Hubble, Georges Lemaître avait prédit l’existence de cette loi…un nouvel exemple de la loi de Stigler.
  • Suite à la découverte de Hubble, Albert Einstein revient sur l’introduction de la constante cosmologique, la qualifiant de « plus grande bêtise de sa vie. »
  • Il est alors revenu à son équation originelle (où la constante cosmologique Λ ne figure pas),  jugée plus conforme avec les observations de l’époque.

Un temps abandonnée par la cosmologie, cette constante cosmologique a été récemment remise au goût du jour après la découverte dans les années 1990 de l’accélération de l’expansion de l’Univers (mis en évidence par des mesures sur des supernovae, le fond diffus cosmologique, lentilles gravitationnelles…), et on a vu apparaître un regain d’intérêt pour cette constante cosmologique.

  • Elle décrirait une force ou énergie, encore hypothétique, qui accélèrerait l’expansion de l’Univers, appelée énergie sombre (ou énergie noire).
  • Elle demeure compatible avec l’ensemble de la théorie de la relativité générale.
    • Dans le cadre de la théorie d’Albert Einstein, lorsque qu’on cherche à construire un modèle cosmologique, un univers dynamique est bien plus naturel qu’un univers statique.
    • Elle permet donc de s’appuyer sur les lois de la Relativité Générale pour définir une sorte d’énergie invisible qui se comporte contre la force de gravitation et qui accélère l’expansion de l’Univers.
  • L’énergie noire se comporterait ainsi comme une force gravitationnelle répulsive.

L’expansion accélérée de l’Univers

  • Selon la Loi de Hubble, toutes les galaxies lointaines s’éloigent de nous, de la Voie Lactée.
  • Leur spectre lumineux montre un déplacement vers le rouge dû à l’effet Doppler.
    • L’effet Doppler décrit le décalage de fréquence d’une onde électromagnétique entre la mesure à l’émission et la mesure à la réception lorsque la distance entre l’émetteur et le récepteur varie au cours du temps.
    • Un exemple connu de l’effet Doppler est celui du son émis par la sirène d’une ambulance qui parait d’autant plus grave que l’ambulance s’éloigne vite.
    • En cosmologie, l’effet Doppler se manifeste par un décalage vers le rouge (redshift en anglais), c’est à dire par un décalage vers les grandes longueurs d’onde du spectre visible (de la lumière) émis par les objets astronomiques lointains.
  • La théorie de la Relativité Générale nous dit aussi que l’espace peut se dilater au cours du temps.
    • Si l’on est capable aujourd’hui d’estimer la distance à laquelle se trouve un objet astronomique très lointain, c’est parce qu’au cours de son voyage vers nous, la lumière qu’il a émise a été modifiée par la dilatation de l’espace.
    • On peut comprendre le phénomène en se représentant la lumière comme une onde:
      • Si cette onde voyage dans l’espace et que l’espace se dilate, la longueur d’onde (c’est-à-dire la longueur entre deux pics de l’onde) se trouve augmentée.
      • Ainsi par exemple pour de la lumière bleue, l’étirement de l’espace peut lui donner au final une longueur d’onde corrrespondant au rouge.
    • C’est cette propriété de décalage vers le rouge qui nous indique l’âge de l’objet lointain:
      • plus l’objet émetteur est lointain, plus la lumière voyage longtemps avant de nous parvenir, plus elle sera décalée vers le rouge par la dilatation de l’espace qu’elle aura traversé .
    • Pour les objets astronomiques qui se rapprochent de nous, on parle de blueshift, ou décalage vers le bleu.
  • La constante de Hubble H0 (à ne pas confondre avec la constante cosmologique) est directement liée à la loi de Hubble et elle donne le taux d’expansion actuel de l’Univers.
  • Les supernovae de type SN 1a (les supernovae sont des phénomènes conséquents à l’explosion d’une étoile) fournissent la preuve principale directe de l’expansion accélérée de l’Univers.
    • Les physiciens connaissent la magnitude absolue (luminosité intrinsèque absolue) des supernovae 1a.
    • En mesurant leur distance à partir de leur luminosité intrinsèque et la mettant en relation avec le décalage vers le rouge, on arrive à reconstituer l’histoire de l’expansion de l’Univers sur plusieurs milliards d’années, et de voir de la sorte si l’expansion de l’Univers accélère ou décélère avec le temps.
    • En 1998, diverses observations sur ces supernovae situées dans des galaxies lointaines (et donc jeunes) ont montré que la constante de Hubble n’est pas si constante que ça et que sa valeur peut varier avec le temps.
    • Jusqu’à cette découverte, on pensait que l’expansion de l’Univers était plutôt en train de se fraîner dû à la force gravitationnelle.
    • Cependant, la découverte sur la variation de la valeur de la constante de Hubble se traduit par une accélération de l’expansion de l’Univers.
  • Il doit donc exister un type de force ou énergie qui accélère l’Univers.
  • De là est née la notion d’énergie noire.
  • L’accélération de l’expansion de l’Univers mise en évidence serait en fait un événement « récent » dans l’histoire cosmique:
    • L’énergie noire gouvernerait la dynamique de l’Univers que depuis quelques milliards d’années.
    • Avant cette phase, c’est en principe la matière qui dominait cette dynamique, conduisant à la décélération de l’expansion.
  • L’existence de l’énergie noire est aussi nécessaire pour réconcilier la géométrie qu’on a mesuré de l’espace avec la somme totale de la matière présente dans l’Univers.
    • Des mesures indiquent que l’Univers est très proche d’être géométriquement plat.
    • Pour que la forme de l’Univers soit plate, la densité d’énergie (matière) de l’Univers doit être égale à une certaine densité critique.
    • Comme on l’a vu dans le dossier sur la matière noire, cette densité critique d’énergie pour un Univers plat implique une limite quant à la quantité de matière baryonique et matière noire présentes dans l’Univers.
    • Pour un Univers plat, la matière (baryonique+noire) ne peut constituer qu’au maximum 30% de la denstié critique totale de l’Univers.
    • Ca implique l’existence d’une forme d’énergie additionnelle qui constituerait environ les 70% restants de la densité critique totale de l’Univers.

Dans le dossier sur la matière noire, on avait dit plus précisément que la densité énergétique de l’Univers était composée de:

  • 4% de matière baryonique ou matière observable (étoiles, planètes, gaz).
  • 23% de matière noire.
  • 73% d’énergie noire.

On voit que l’énergie noire est, en termes de densité d’énergie, la composante majeure de l’Univers.

Répartition de la Matière dans l'Univers

En additionnant les différentes énergies dans ces proportions, on arrive exactement à ce qu’il faut pour avoir un univers de courbure quasi-nulle (k=0).

”]Universe GeometryObservations

 

  • Pour observer l’influence de l’énergie noire sur le taux d’expansion de l’Univers:
    • on mesure l’accroissement de la taille, et donc de la masse des amas de galaxies, au cours de l’histoire de l’Univers.
  • Mais comment mesurer la masse des amas de galaxies ?
    • Il se trouve que les amas de galaxies baignent dans un gaz chaud porté à une température si élevée qu’une émission importante dans le domaine des rayons X a lieu.
    • De même que la luminosité des étoiles est reliée à leur masse, la luminosité du gaz dans le quel baigne l’amas de galaxies nous donne des informations sur sa masse.
    • A l’aide du satellite Chandra, on a mesuré la luminosité des amas dans ce domaine des longueurs d’onde des rayons X.
    • On a ainsi pu déduire le poids des amas galaxies.
  • Plus de 80 amas ont ainsi été examinés.
  • Il est clairement apparu que le taux de leur croissance au cours du temps est bien conforme à ce que l’on attend en présence de l’énergie noire dans un Univers à géométrie plate.

Le téléscope spatial Euclid (pas encore mis en service) est un satellite dédié qui aura pour mission de cartographier le ciel pour mesurer depuis l’espace en couvrant la totalité du ciel le taux d’accélération de l’Univers et d’explorer les propriétés de l’énergie noire:

  • S’agit-il d’une véritable nouvelle substance?
  • S’agit-il d’une modification de la gravité?

Ce téléscope nous donnera non seulement des information sur l’accélération de l’expansion de l’Univers , mais aussi comment varie et évolue cette accélération au cours du temps.

Le prix Nobel de physique Martin Perl pense qu’il est possible de détecter l’énergie noire en laboratoire en utilisant des expériences d’interférométrie atomique et ce d’ici 2014 ! Il s’agira de mesurer des fluctuations d’énergie noire dans une cloche à vide de 2 mètres de haut tout au plus.

Nature de l’énergie noire

La nature exacte de l’énergie noire fait largement partie du domaine de la spéculation. Différentes hypothèses ont été avancées:

La constante cosmologique

  • Certains estiment que l’énergie noire serait l’énergie du vide quantique, modélisée par la constante cosmologique de la relativité générale introduite par Einstein:
    • C’est l’explication la plus simple pour les physiciens.
    • Le “coût” lié à l’existence même de l’espace impliquerait que celui-ci doit posséder une sorte d’énergie fondamentale et intrinsèque.
    • Cet énergie fondamentale serait représentée par la constante cosmologique qui ne varie pas dans le temps.
    • En physique des particules (théorie quantique des champs):
      • on appelle énergie du vide (quantique) cette forme d’énergie fondamentale car sa densité est la même que celle de l’énergie du vide.
      • la physique des particules prédit des fluctuations du vide qui provoquerait exactement ce type d’énergie et aurait pu déclencher l’expansion de l’Univers.
    • Si l’énergie noire prend cette forme, cela signifie qu’il s’agit d’une propriété fondamentale de l’Univers.
    • Poser une constante cosmologique signifie que la densité de l’énergie noire est uniforme, et constante dans tout l’univers, invariable en fonction du temps.
    • Cependant les différentes théories physiques ne se mettent pas d’accord sur la valeur de cette constante cosmologique:
      • la théorie quantique des champs prédit une grande constante cosmologique.
      • la thérorie de supersymétrie a besoin que la valeur de la constante cosmologique soit proche de zéro.
    • C’est tout de même épatant qu’un simple numéro (la constante cosmologique) puisse expliquer de manière satisfaisante une multitude d’observations et la présence d’énergie noire!

La quintessence

  • L’énergie noire pourrait-elle être induite par l’existence de particules inconnues.
  • Certaines théories affirment que ces particules ont été créées en quantité suffisante lors du Big Bang pour remplir tout l’espace.
  • Néanmoins, si cela était le cas, on s’attendrait à ce qu’elles se regroupent, de la même manière que la matière ordinaire, et on observerait des variations de densité en fonction du temps.
  • Cependant, aucune preuve n’en a été observée, mais la précision des observations ne permet pas d’exclure cette hypothèse.
  • Ces modèles sont appelées quintessence.
  • Le terme de quintessence fait allusion au fait qu’il existe une cinquième forme d’énergie qui s’ajoute aux quatre types de matières (ou de formes d’énergie) dans l’Univers :
  • La quintessence, à la différence de la constante cosmologique, peut varier dans l’espace et dans le temps.
  • La théorie de la quintessence prédit aussi une accélération de l’expansion de l’Univers légèrement plus lente que la constante cosmologique.

Scénarios sur le destin de l’Univers

 

Destin de l'Univers

  • Si la densité de l’énergie noire n’augmente pas avec le temps (modèle de la constante cosmologique):
    • Le futur de l’Univers sera celui d’un Univers plat, éternellement en expansion.
    • Son expansion va continuer d’accélérer.
    • L’existence des systèmes liés par la gravitation, tels les galaxies ou les systèmes planétaires, n’est pas menacée.
      • Notre Système Solaire ou la Voie Lactée demeureront essentiellement identiques à ce qu’ils sont aujourd’hui.
      • Les forces nécessaires pour contrer le mouvement d’expansion de l’Univers à l’échelle d’un atome, d’une planète, d’une étoile, d’une galaxie, d’un amas de galaxies, sont suffisantes pour assurer la cohésion de ces objets.
    • Par contre le reste de l’Univers, au-delà de notre super-amas local, semblera s’éloigner constamment.
      • Les structures qui ne sont pas liées gravitationnellement finiront par s’éloigner les unes des autres.
    • Ainsi, cette accélération nous empêchera finalement d’observer des portions importantes de l’Univers qui sont aujourd’hui visibles pour nous.
    • Notre horizon cosmologique, plutôt que de reculer, finira par se rapprocher de nous.
    • L’Univers deviendra alors de plus en plus froid et de plus en plus vide.
  • Si l’énergie noire augmente avec le temps (modèle de la quintessence):
    • Une accélération exponentielle de l’expansion de l’Univers aurait lieu.
    • Une accélération si rapide qu’elle pourrait surmonter les forces d’attraction nucléaires et détruirait l’Univers dans environ 20 millards d’années.
    • C’est le scénario de type Big Rip, où toute la matière de l’Univers, jusque dans ses atomes mêmes, se désintégrerait, laissant un Univers infini et totalement vide.
  • Si l’énergie noire se dilue avec le temps, ou voire s’inverse (modèle de la quintessence):
    • Ca laisse la porte ouverte à ce que la gravité puisse un jour dominer l’Univers, qui se contracterait alors sur lui-même et disparaîtrait dans un Big Crunch.
    • De la même manière, si l’on considère que l’Univers est fermé (au lieu d’être plat), l’attraction gravitationnelle de la masse de l’Univers devient plus grande que son expansion, et celui-ci aura tendance à se contracter pour finalement disparaître dans un Big Crunch.
    • Ce scénario est néanmoins considéré comme le moins probable.

future of universe

Conclusion

Malgré la quasi unanimité actuelle apparente des cosmologistes autour de l’idée de l’accélération de l’expansion de l’Univers, la réalité de cette accélération ne sera établie que lorsque le phénomène pourra être inclus dans un cadre théorique solide, lequel fait encore défaut.

Comme pour la matière noire, on peut donc se poser la question si l’accélération de l’expansion de l’Univers est réellement due à cette énergie noire hypothétique ou si elle manifeste plutôt des erreurs dans les équations?

Sources:

http://fr.wikipedia.org/wiki/%C3%89nergie_noire

http://es.wikipedia.org/wiki/Energ%C3%ADa_oscura

http://fr.wikipedia.org/wiki/Expansion_de_l%27Univers

http://pages.towson.edu/joverdui/

http://www.futura-sciences.com/fr/doc/t/physique/d/energie-noire_1033/c3/221/p1/

http://www.futura-sciences.com/fr/news/t/physique-1/d/martin-perl-prix-nobel-veut-detecter-lenergie-noire-au-laboratoire_28121/

http://www.futura-sciences.com/fr/news/t/astronomie/d/lenergie-noire-controle-la-croissance-des-amas-de-galaxies_17750/

http://www.futura-sciences.com/fr/news/t/astronomie/d/hubble-refute-une-alternative-a-lexistence-de-lenergie-noire_28817/

VN:F [1.9.22_1171]
Rating: 4.5/5 (12 votes cast)

Dossier – L’Origine de l’Univers

On 03.02.2011, in Dossiers, by Mathieu
VN:F [1.9.22_1171]
Rating: 3.6/5 (10 votes cast)

Big Bang

Retranscription et récapitulatif d’un entretien avec Etienne Klein enregistré dans l’émission Ombres et lumières sur l’origine de l’Univers de Ciel et Espace Radio, entretien dans lequel il parle de son dernier ouvrage “Discours sur l’Origine de l’Univers

La Cosmogonie

La cosmogonie tente de décrire la formation de l’Univers, alors que la cosmologie est la science qui s’intéresse aux lois qui gouvernent l’Univers en tant que système physique.

Il paraît qu’il n’y a pas de culture sans cosmogonie (à vérifier auprès des anthropologues…).

Nature ontologique et législative de l’Univers

  • Avant Galilée on considérait qu’il existait un monde sub-lunaire fait d’une matière de 4 éléments et un monde supra-lunaire constitué d’une autre essence.
    • Donc 2 mondes constitués de 2 matières différentes.
  • Galiléeest probablement le premier à avoir décrit la notion d’Univers:
    • Il dit qu’il existe un seul monde constitué d’une seule matière partout la même (unité ontologique).
    • Il dit aussi que les lois de l’Univers sont les mêmes en tout point de l’Univers (espace) et à tout instant dans l’Univers (temps), elles sont universelles (unité législative):
  • Au sens moderne du terme, ce sont ces 2 unités (ontologiques + législatives) qui permettent de définir ce qu’on appelle un Univers.

Le Néant

  • La plupart des cosmogonies qu’on trouve dans toutes les différentes cultures envisagent que l’origine de l’Univers est issue du Néant, au sein duquel la lumière est apparue, et c’est ce qui a déclenché l’apparition d’un Univers en évolution.
  • Les chinois:
    • ne se posent cependant pas la question de l’origine, car ils n’ont pas la notion de Néant.
    • Pour eux, il y a toujours eu un Etre qui n’a pas cessé de se tranformer et de subir des mutations tout au long de son histoire qui n’a pas eu de commencement.
  • Le questionnement sur l’origine n’est pas aussi universel qu’on veut bien le croire, mais il est très présent dans la plupart des cultures (en l’occruence dans la judéo-chrétienne).
  • Si on essaie d’imaginer le Néant en fermant les yeux, tout de suite on en fait quelque chose.
  • Chaque fois qu’on pense le Néant, on lui attribue des propriétés qui le distingue du Néant.
  • L’idée de Néant est donc une idée destructrice d’elle-même.
  • On voit donc qu’on a de la peine à décrire le concept de Néant.

Le mot Origine

  • Le sens du mot “Origine” porte généralement l’idée:
    • du passage de l’absence de toute chose à quelque chose.
    • de la transformation du Néant qui devient autre chose que lui-même.
  • Cependant, cette idée de transformationliée au mot “Origine” n’est généralement pas présente quand on veut décrire l’Origine de l’Univers.
    • On constate souvent que quand on parle d’Origine de l’Univers, on a plutôt tendance à décrire quelque chose en amont qui permet d’expliquer comment la chose (en l’occurence l’Univers) dont on veut décrire l’Origine est apparue.
    • Autrerment dit ce qu’on appelle Origine est en réalité l’achèvement d’un processus antérieur qui a fait apparaître la chose (en l’occurence l’Univers) dont on dit qu’on a compris l’Origine.
    • Donc dans ce discours le mot Origine devient synonyme de Conclusion! Ce qui peut sembler être un paradoxe!
  • Notre culture a aussi tendance à nous emmener vers l’idée que si l’Univers a eu une histoire, c’est qu’il a eu un commencement et ce commencement résulte d’une Création et non d’une Transformation.
    • On met généralement en scène un être transcendant (par exemple Dieu) dont l’action sur le Néant a permis de créer l’Univers.
    • On parle d’ailleurs plutôt d’un Dieu réduit à sa fonction de créateur de l’Univers et non d’un Dieu garant de la perduration du monde.
    • Selon notre mode de pensée, l’Univers n’est pas né du Néant, on ne décrit pas l’Univers comme le résultat d’une transfomation à partir du Néant, notre Univers serait plutôt le résultat d’une Création.
  • En Occident, on a de la peine définir le changement (et notamment le changement orginel), à penser et décrire un état intermédiaire de transition entre le Non-Etre (Néant) et l’Etre (Univers).
  • Les grecs avaient aussi relevés une contradiction entre le concept de changement et l’idée d’identité:
    • Si une chose a changé, c’est qu’elle cesse d’être elle-même (puisqu’elle a changé).
    • Si au contraire, elle reste identique à elle-même, c’est qu’elle n’a pas changé.
  • Par exemple, quand on dit: “Une feuille d’arbre a changé” (elle était verte en été, elle est jaune en automne)
    • On pourrait très bien pensé et dire que: “La feuille verte a été remplacée par la feuille jaune”
      • Ce changement (apparant) pourrait donc se traduire par un remplacement.
      • Mais en réalité ce n’est pas ce qu’on veut dire.
    • On veut en réalité dire: “La couleur de la feuille de l’arbre a changé” (une propriétéde la feuille a changé, mais ça reste la même feuille).
      • Le sujet du verbe changer (la feuille) est précisément ce qui n’a pas changé dans la transformation.
  • Donc d’une manière plus générale, quand on dit que x a changé, le sujet du verbe changerx est précisément ce qui n’a pas changé.
    • On conceptualise le changement en utilisant la notion d’identité (donc d’invariance).
  • Notre langue en est en partie responsable car elle est ontologique:
    • nous désignons des objets et leur donnons une identité (chaise, vélo, étoile…).
    • La transformation se caractérise par un changement de la propriété de l’objet et non de l’objet lui-même (qui reste présent avant et après la transformation).
    • On peine à considèrer l’idée opposée qui consiste à dire que c’est la transformation elle-même qui est à l’origine des objets et de l’Univers (un objet est la manifestation d’une transition).

L’Origine de l’Univers

Notre manière de conceptualiser le changement en utilisant la notion d’identité fonctionnne-t-elle pour expliquer l’origine de l’Univers et des objets qui le constituent?

Origines secondaires

Pour décrire les origines des objets qui constituent l’Univers (tables, voitures, atomes, étoiles, galaxies…), notre manière de conceptualiser le changement avec la notion d’invariance fonctionnne:

  • par exemple les atomes sont formés dans les étoiles, et leur origine est le résultat d’une réaction nucléaire entre protons et neutrons (nucléons) appelée nucléosynthèse (fission, fusion nucléaire).
  • Ce sont les changements dans l’organisation de ces nucléons (via les réactions nucléaires) qui ont fabriqués les atomes.
  • On arrive donc à décrire ce changement en terme d’invariant:
    • Dans ce cas, les invariants sont les particules fondamentales (nucléons) qui étaient là avant et qui se combinent autrement pour former les noyaux d’atomes dans les étoiles.
    • On explique l’origine de la vie à partir des ingrédients préalables qui permettent l’apparition de la vie.
    • On explique l’origine des êtres physiques en invoquant d’autres êtres physique.
    • L’explication des origines secondaires est immanente.
  • Pour des objets d’origines secondaires, conceptuellement on explique l’Etre par l’Etre.

Vu qu’on est capable de décrire l’origine relative des objets qui constituent l’Univers, on croit être capable d’aller plus loin et pouvoir décrire l’origine de l’Univers lui-même.

Origine primaire

Pour décrire l’origine de l’Univers (sans action créatrice), est-ce que cette conception du changement qui conserve cette notion d’identité tient encore la route?

  • Si le Néant devient l’Etre (l’Univers), c’est qu’il y a un changement.
  • Mais selon notre conception, pour qu’il y ait changement, il faut que quelque chose ne change pas au cours du changement.
  • Qu’est ce qui dans le Néant peut ne pas changer, pour que le Néant devienne autre chose que lui-même?
  • On arrive au noeud irréductible de la question…
  • Car quand on veut expliquer comment le Néant a pu cesser d’être le Néant, on lui attribue alors des propriétés qui font que le Néant n’est plus le Néant (le Néant c’est le Rien, il ne peut avoir de propriétés).

Théorie unifiée du Tout

  • Parle-t-on d’unification ontologique?
    • Dans l’espace il n’y aurait alors qu’une sorte d’objets (par exemple des supercordes).
    • L’existence d’un élément fondamental qui engendrerait tous les objets présents dans notre Univers, objets qui acquièrent alors une origine secondaire par rapport à l’élément fondamental.
  • Parle-t-on d’unification législative?
    • Le contexte et un certain nombre de conditions ont permi l’émergence de l’existence de l’Univers.
  • Il faudrait pouvoir unifier les lois de la relativité générale (infiniment grand: gravitation) avec celles de la mécanique quantique(infiniment petit: force électromagnétique, intéraction faible et intération forte) au sein d’un formalisme unique.
    • Ces 2 modèles théoriques s’appuient sur des pilliers et statuts incompatibles:
      • La relativité générale décrit un espace-temps souple, dynamique et continu qui intéragit avec la matière qu’il contient.
      • La mécanique quantique décrit un espace-temps plat, statique et discret.
  • Une Théorie du Tout sera-t-elle capable de nous dire comment l’Univers est apparu?
    • Lors de l’apparition de l’Univers, les lois physique sur lesquelles repose cet Univers étaient-elles déjà là en attente d’Univers de façon transcendante? (existaient-elles avant l’Univers?)
    • Ou l’Univers crée-t-il plutôt en son sein ses lois physiques de façon immanente à mesure qu’il évolue?
  • Sera-t-on capable de trancher un jour cette question fondamentale? (l’oeuf ou la poule)
  • La question de l’origine de l’Univers est-elle un mystère (ne peut pas être expliquée) ou plutôt une énigme (un problème à résoudre)?
  • La question semble si difficile qu’on essaie de la simplifier conceptuellement en expliquant que l’Univers n’a pas d’origine!

L’histoire de l’Univers

On a compris que de manière générale, la plupart des objets qui constituent l’Univers ont une histoire et sont le résultat d’une évolution qui les a produit à partir d’états antérieurs qui ne les contenaient pas.

Mais dire qu’il y a de l’histoire dans l’Univers ne veut forcément pas dire que l’Univers a une histoire!

C’est au XIXème siècle qu’on a commencé à imaginer une histoire de l’Univers:

  • Quand on a élaboré la thermodynamique, on a appliqué les lois de la thermodynanmique d’une part aux objets qui constituent l’Univers, mais aussi à l’Univers lui-même.
  • => on en a conclu que l’Univers arriverait à une mort thermique (à la fin de son histoire).

Plus tard, on a utilisé la théorie de relativité générale pour analyser l’évolution de l’Univers et décrire son histoire passée:

  • La relativité générale considère que l’Univers dans sa totalité est un objet physique.
    • C’est-à-dire qu’on peut définir des paramètres physiques qui décrivent l’Univers tout entier.
  • Si on applique les équations de la relativité générale et qu’on remonte le temps, elles aboutissent à la description d’un Univers de plus en plus petit pour finalement terminer ponctuel.
  • Le physicien russe George Gamow a aussi montré que la contraction de l’Univers qui s’effectue lorsqu’on remonte le cours du temps correspond aussi à une élévation de température.
  • Donc l’Univers primordial semble avoir été:
    • Beaucoup plus petit (volume nul)
    • Beaucoup plus dense énergétiquement (densité infinie)
    • Beaucoup plus chaud (température infinie)

De là est née la notion Singularité initiale et de Big Bang.

  • Le Big Bang semble donc correspondre à l’apparition de:
    • la matière
    • de l’espace
    • du temps
    • de l’énergie
  • Le Big Bang serait alors l’instant zéro correspondant à la création de l’Univers.

Pourquoi ne pas donc considérer cet état primordial, cette Singularité initiale comme l’origine effective de l’Univers? En réalité cette extrapolation qui nous permet d’arriver à l’instant zéro est abusive!

  • Quand on remonte le cours du temps, la densité de matière et la température deviennent de plus en plus élevées.
  • L’énergie des particules qui se trouvent dans l’Univers devient aussi de plus en plus élevée.
    • Pour atteindre ces niveaux d’énergie, les particules ne sont plus soumises uniquement à la force de gravitation, elles subissent aussi l’effet des 3 autres forces fondamentales (électromagnétiques, l’intéraction forte et l’intéraction faible).
    • Et ces 3 intéractions ne sont pas décrites par la théorie de la relativité générale (qui décrit uniquement la force de gravitation).
  • Il y a donc un moment quand on remonte dans le passé où les équations de la relativité générale n’arrivent plus à décrire ce qui se passe.
    • Ce moment correspond au mur de Planck qui est apparu 10-43seconde après le Big Bang.
      • Le mur de Planck peut être calculé à partir de la constante de Planck, l’une des 3 constantes fondamentales universelles (constante de gravitation, vitesse de la lumière et constante de Planck).
      • Le mur de Planck peut ainsi être caractérisé soit par un durée (temps de Planck = 10-43 seconde),  soit par une longueur (longueur de Planck = 10-33 cm), soit par une énergie (1019 GeV).
    • On ne peut pas intégrer les équations de la relativité générale au delà dur mur de Planck et donc à fortiori extrapoller à l’instant zéro correspondant au Big Bang.
    • En amont du mur de Planck, nos théories physiques actuelles entrent en collision les unes avec les autres, le temps par exemple n’existe pas.
  • L’instant zéro apparaît donc comme un instant au-travers duquel l’Univers tel qu’il est décrit par nos lois physiques n’a jamais pu passer!

Pour passer le mur de Planck, et décrire l’évolution de l’Univers entre le mur de Planck et l’instant zéro, il faudrait pouvoir unifier au moyen d’un formalisme commun la théorie de la relativité générale (force de gravitation) avec la mécanique quantique (force électromagnétique + 2 intéractions nucléaires). Il existe quelques approches d’unification:

La théorie des cordes

  • Toutes les particules de la matière correspondent à des états de vibration uniques d’un particule fondamentale infiniment petite qui fait penser à une corde vibrante (dans un espace-temps multi-dimensionnel).
  • Si on tente de décrire l’Univers primordial avec la théorie des cordes, il arrivent un moment où les calculs deviennent trop compliqués et impossibles, car les cordes deviennent trop enchevêtrées.
  • Actuellement il n’est donc pas possible de décrire actuellement l’Univers primordial avec la théorie des cordes.
  • De plus la théorie des cordes ne peut pas être observée ni testée expérimentalement.

Cependant la beauté de la théorie des cordes réside autre part:

  • Elle décrit un espace-temps multi-dimensionnel (par exemple à 10 ou 11 dimensions) dans lequel il n’existe pas de gravitation.
  • Les objets qui sont dans cet espace-temps obéissent aux lois de la physique quantique et leur cinématique est décrite par la théorie relativité de la restreinte (théorie de la relativité qui ne prend pas en compte la gravitation).
  • Donc les prémisses de la théorie n’incluent pas la gravitation.
  • La beauté réside dans le fait qu’à partir des ces principes on aboutit aux équations de la relativité générale (qui elle intègre la gravitation).
    • La théorie des cordes fait apparaître le graviton comme la particule responsable de la gravitation.
    • La gravitation est donc déduite de la théorie des cordes, elle en est une conséquence.
  • La théorie des champs de la mécanique quantique peut aussi être prédite à partir de la théorie des cordes.

Mais la théorie des cordes nous dit une autre chose intéressante:

  • il ne peut y avoir dans l’Univers une température supérieure à un certain seuil de valeur finie.
  • la température dans l’Univers n’a jamais pu être infinie à aucun moment de son histoire et à aucun endroit de son espace!

Cette nouvelle notion nous amène à un scénario de Pré-BigBang:

  • Au lieu de dire l’Univers est né d’une explosion initale appelée Big Bang.
  • On dit que le Big Bang c’est le passage de l’Univers au travers d’une phase de contraction très dense et de réchauffement très intense jusqu’à atteindre la température maximale autorisée par la théorie des cordes, moment auquel l’Univers ne peut plus se contracter d’avantage car il a atteint la température maximale autorisée et du coup il rebondit sur lui-même.
  • Ce nouveau scénario supprime la notion de Singularité initiale et renforce la notion d’origine en terme de transition et changement.
    • Le Big Bang n’est plus qu’une transition de phase de l’Univers.
    • Il n’y a donc plus lieu de se poser la question du Néant et de ce qu’il y avait avant le Big Bang.

La théorie quantique à boucles

  • Cette théorie consiste à quantifier la gravitation.
  • Elle aboutit à l’idée que l’espace-temps est granulaire, discret, non-continu.
  • Il est composé des petits volumes élémentaires d’espace-temps (quantas ou atomes d’espace-temps) de taille non nulle et tel qu’on ne puisse pas avoir de volumes plus petits.
  • L’espace-temps ne peut pas être structuré en édifices plus petits que ces quantas.

Cette théorie nous amène aussi à un scénario de Pré-BigBang:

  • La notion de Big Bang comme Singularité initiale disparaît car la singularité correspond à un volume de taille nulle.
  • On dit que le Big Bang c’est le passage de l’Univers au travers d’une phase de contraction jusqu’à que sa taille corresponde à la taille d’un atome d’espace-temps, moment auquel l’Univers ne peut plus se contracter d’avantage car il a atteint la taille minimale autorisée et du coup il rebondit sur lui-même.
    • On parle alors d’une cosmogonie cyclique.
    • La notion d’origine disparaît à nouveau.

Le vide quantique

  • En mécanique quantique, les éléments fondamentaux de la matière sont formalisées par des quantas (états énergétiques) et représentées par ce qu’on appelle des champs quantiques (ondes).
  • Faire le vide c’est ce qui reste quand on a retirer toutes les particules (électrons, quarks, photons…).
  • Il ne reste alors plus que l’espace-temps (océan) dans lequel se trouvent des champs quantiques dans leur état d’énergie minimale (vague).
  • De là vient la notion de particule virtuelle, la particule n’existe pas, mais il existe par contre l’état de la particule dans son énergie minimale, énergie qui n’est pas assez intense (E=mc2) pour que la particule (électron…) existe et soit réelle.
  • Ce qu’on appelle le vide quantique, c’est l’espace-temps rempli de particules virtuelles.
  • Cette entité (espace-temps + champs quantiques) pourrait être la matrice de l’Univers (sa topologie).
  • Une fluctuation des particules virtuelles (champs quantique) de ce vide quantique aurait pu déclencher une expansion de l’Univers.
  • On imagine aussi la possibilité de milliards de fluctuations, avec à chaque fois l’apparition d’un nouvel univers => notion de multivers.
  • C’est comme si le vide ne pouvait pas rester tout à fait homogène, il serait instable.

L’Antimatère

  • Jusqu’en 1930, le monde des physiciens était exclusivement fait de matière composée de petites « briques élémentaires » appelées particules (électrons, protons,  photons).
  • Le physicien Paul Dirac, pour résoudre une équation de physique, postulat qu’il devait exister une autre particule, identique à l’électron, mais ayant une charge électrique opposée (positive).
    • Baptisée positron (antiélectron).
    • Confirmé en 1932 en analysant les rayons cosmiques venant de l’univers.
  • La loi de Stigler est à nouveau vérifiée:
    • loi selon laquelle une découverte scientifique ne porte jamais le nom de son auteur.
    • la paternité du positron revient toujours à Paul Dirac alors que Jean Becquerel avait déjà postulé l’existence d’électrons positifs en 1908 dans un article.
  • Cette théorie fut ensuite généralisée à toutes les particules que nous connaissons et l’ensemble de ces nouvelles particules constituent ce qu’on appelle l’antimatière.
  • Cependant, il faudra attendre:
    • 1955 pour découvrir l’antiproton.
    • 1995 pour créer le premier antiatome (antihydrogène) au CERN.
  • La différence qui caractérise l’antimatière est la charge électrique opposée:
    • Si on fait passer une particule et son antiparticule dans un champ magnétique, les 2 particules sont déviées dans des directions opposées.
    • Les antiparticules ont la même masse et le même comportement physique que leur homologue de matière.
  • Comme les charges sont opposées, matière et antimatière s’attirent mutuellement:
    • Lorsque matière et antimatière se rencontrent, elles se désintègrent et s’anihilent pour se transformer en énergie pure (E=mc²)
    • La matière est convertie intégralement en énergie sous forme de photons (rayonnement gamma).
  • Pour étudier l’antimatière, les physiciens étudient de près ce qu’ils appellent la symétrie CPT(Charge-Parité-Temps):
    • Lors d’une réaction particulière sur une particule, cette même réaction doit être observée sur son antiparticule mais de manière symétrique.
    • Tout est inversé : la charge (positif Vs négatif), la parité (droite Vs gauche) et le temps (le temps doit s’écouler à l’envers).
    • Un monde composé d’antimatière serait l’image de notre monde à travers un miroir.
  • Le problème, c’est que l’Univers n’est pas aussi symétrique qu’il n’y paraît:
    • Une théorie pour devoir prendre en compte le Big-bang doit stipuler qu’à l’origine, matière et antimatière ont du être créées en même temps et en quantité égale.
    • Si matière et antimatière étaient strictement identiques (en dehors de la charge électrique) et avaient été créées en quantités égales, on aboutit sur la non-existence de notre Univers, car matière et antimatière auraient du s’attirer très rapidement juste après le Big-Bang pour s’annihiler totalement.
    • La réalité semble tout autre : nous sommes bien là et notre univers semble être composé quasi exclusivement de matière!
    • Les astronomes et les cosmologistes auraient-ils perdu la moitié de l’Univers?
  • Ce qui peut expliquer cette observation est que matière et antimatière ne sont pas si symétriques que cela : on parle alors de violation de symétrie.
    • Les symétries entre matière et antimatière sont parfois non respectées et pourraient expliquer pourquoi toute l’antimatière a disparue aujourd’hui au profit de la matière.

L’observation de l’Univers

Le téléscope Hubble:

  • Le téléscope spatial Hubble aurait détecté tout récemment la galaxie la plus distante jamais identifiée dans l’Univers.
  • La lumière observée en provenance de cette galaxie aurait été émise il y a 13,2 milliards d’années, soit seulement 480 millions d’années après le Big Bang (âge total de l’Univers 13,7 milliards d’années).
  • Mais les astronomes peuvent uniquement observer la lumière émise du fond diffus cosmologique après le mur de Planck (10-43 seconde après le Big Bang).
  • L’Univers primordial ne peut donc pas être observé au-delà du mur de Planck.

Le LHC du CERN:

  • Un des postulats de la Physique nous dit que les lois de la Physique n’ont pas changé au cours du temps.
  • Au cour de l’évolution de l’Univers ce sont les conditions physiques qui ont changées (température…).
  • Grâce aux colisions de particules à hautes énergies, le LHC recrée aujourd’hui les conditions physiques du passé.
  • Comme les lois n’ont pas changé, on voit les phénomènes physiques du passé.
  • Cependant, les ordres de grandeurs sont incomparables:
    • Au LHC, on fait des colisions de protons à des énergies 3,5 TeV par proton (3500 GeV).
    • On fait donc des colisions entre 2 protons avec des énergies mises en jeu de 3,5 TeV + 3,5 TeV = 7 TeV = 7000 GeV
    • 7000 GeV c’est l’énergie cinétique d’un moustique en vol:
      • énergie qui est cependant répartie sur tous les atomes de celui-ci, donc dans ce cas l’énergie par particule est relativement faible.
    • Dans le cas du LHC, cette énergie est très concentrée sur un seul proton.
    • Au moment du mur de Planck, l’énergie d’une particule n’était pas celle d’un moustique en vol comme l’expérimente le LHC, mais celle d’un TGV roulant à 300 km/h.
    • Donc expérimentalement on voit qu’on est très loin des conditions physiques correspondant au mur de Planck.

Le AD (Décélérateur d’Antiproton) du CERN:

  • Fabriquer des antiparticules:
    • il faut disposer d’un accélérateur de particules.
    • En projetant des particules accélérées à grande énergie sur des cibles métalliques, on transforme l’énergie cinétique des particules en couple particule/antiparticule (E=mc² – ici l’énergie se transforme en masse – processus réversible).
  • Fabriquer des antiparticules est une chose, mais les physiciens veulent aller plus loin pour comprendre l’antimatière et pour cela, il faut fabriquer des antiatomes, c’est-à-dire un antinoyau formé d’antiprotons et d’antineutrons avec des positrons qui tournent autour.
    • En 1995, le CERN a réussi créer les premiers atomes d’antihydrogènes (le plus simple des antiatomes, composé d’un antiproton et d’un positron qui tourne autour).
    • mais ces antiatomes étaient trop volatiles, se désintégrant quasi instantanément et ne permettant aucune étude approfondie.
  • Le problème des physiciens n’est pas de « fabriquer » de l’antimatière mais de la « conserver» pour la manipuler et l’observer.
    • A cause des grandes énergies mise en jeu, les antiparticules créées vont pratiquement à la vitesse de la lumière et si elles rencontrent une particule de matière, elles s’annihilent immédiatement !
  • Il faut donc littéralement pouvoir freiner et ralentir l’antimatière pour pouvoir l’étudier:
    • Ce n’est donc plus accélérateur qu’il faut mais un décélérateur!
    • Le décélérateur AD du CERN mesure 188 mètres de circonférence.
    • Il permet de diminuer l’énergie d’antiprotons (de 3000 MeV à 5 MeV).
    • En d’autres termes, les antiprotons sont ralentit au tiers de la vitesse de la lumière.
  • le 17 novembre 2010, l’expérience ALPHA a réussi à capturer (piéger) des atomes d’antihydrogène.
    • Plus une particule est énergétique, plus elle est agitée et donc « chaude ».
    • L’idée est donc de refroidir l’antimatière le plus possible.
    • Les antiprotons sont envoyés à travers de pièges électromagnétiques pour les refroidir à environs -269°C (4 kelvins).
    • On procède de même avec des positrons et on met l’ensemble (antiprotons + positrons) dans une espèce de bouteille électromagnétique jusqu’à ce que le positron (positif) se mette à tourner autour de l’antiproton (négatif) pour former un antihydrogène.
      • l’idée est d’empêcher que ces antihiydrogènes entrent trop en contact avec la matière et s’anihile.
    • L’expérience ALPHA a montré qu’il est possible de conserver de cette manière des atomes d’antihydrogène pendant un dixième de seconde (un laps de temps suffisamment long pour pouvoir les étudier).
    • Sur les milliers d’antiatomes produits par l’expérience ALPHA, 38, selon le dernier résultat, ont été capturés suffisamment longtemps pour pouvoir être étudiés.
  • En observant le comportement de ces antiatomes ralentis, on espère pouvoir mettre en évidence certaines des violations de symétrie.

La Physique dispose donc d’un arsenal théorique très puissant, mais qui ne nous dit pas encore comment sélectionner la bonne théorie qui expliquerait l’origine de l’Univers parmi toutes les théories candidates.

Car pour pouvoir sélectionner le bonne théorie il faut pouvoir faire des expériences!

Etienne Klein

Source:

http://www.cieletespaceradio.fr/ombres_et_lumieres_sur_l_origine_de_l_univers.657.RENC_001

http://science-for-everyone.over-blog.com/article-l-antimatiere-mise-en-boite-au-cern-61588417.html

VN:F [1.9.22_1171]
Rating: 3.6/5 (10 votes cast)
*