Hubble a 25 ans !

On 07.05.2015, in Dossiers, by Johan
VN:F [1.9.22_1171]
Rating: 4.7/5 (3 votes cast)

 

Introduction

Hubble, avant d’être un télescope, c’est un astronome américain, Edwin de son prénom. Sa première découverte majeure est la découverte des galaxies en 1923. En effet, avant cela, on pensait que ces nébuleuses comme on appelait alors ces objets, qui étaient trop gros pour être des étoiles, étaient situés dans notre galaxie. Après avoir identifié plusieurs galaxies, il commence leur classification en galaxies elliptiques, spirales et spirales barrées, ou lenticulaires. C’est en étudiant ces galaxies qu’il va mettre en évidence la loi qui porte son nom. Cette loi avait été préalablement mise en évidence plusieurs années auparavant par l’astronome Georges Lemaitre. Jean Pierre Luminet nous faisait d’ailleurs remarquer il y a un mois que ce prêtre belge n’était vraiment pas assez reconnu pour ces immenses apports à la cosmologie. Bref, en étudiant ces objets que sont les galaxies, il remarque que plus elles sont éloignées, plus elles ont un décalage vers le rouge important.

Galaxies en interaction, par l’instrument WFC3. Credits : NASA, ESA, and the Hubble Heritage Team (STScI/AURA)

Ce décalage vers le rouge est bien connu dans l’univers proche et est créé par l’effet Doppler, connu depuis longtemps en physique classique. Ainsi, un objet émettant une onde sonore ou lumineuse et qui se rapproche ou s’éloigne de nous va agrandir ou diminuer la fréquence de cette onde selon sa direction. En analysant ce décalage, on peut en déduire la vitesse de l’objet dans notre direction. Ainsi, un décalage vers le rouge, en physique classique, signifie que les galaxies s’éloignent de nous. Ce que la loi de Hubble montre, c’est que plus les galaxies sont éloignées de nous, plus elles semblent s’éloigner vite, avec une relation linéaire : la vitesse de l’objet est égale à la distance de cet objet que multiplie une constante, appelée la constante de Hubble. Cela qui veut donc dire que l’univers est en expansion. Attention, si l’on reste dans le cadre de la relativité restreinte, on peut trouver une distance pour laquelle la vitesse sera plus grande que la vitesse de la lumière. Donc ce décalage pour le rouge par effet Doppler ne fonctionne que pour l’univers proche. Pour l’univers plus lointain, il faut alors se placer dans le cadre de la relativité générale, dans laquelle cette vitesse d’éloignement n’est pas une vitesse physique dans un espace fixe, mais un étirement de l’espace temps dans lesquelles les galaxies resteraient globalement fixes.

Cette loi est aujourd’hui parfaitement admise, à tel point qu’on mesure les distances et les âges des galaxies en terme de décalage vers le rouge. Cette mesure observationnelle donne l’avantage de ne pas dépendre des valeurs des paramètres du modèle. Ainsi, si on dit qu’une galaxie est à z = 1, c’est que son décalage vers le rouge donne une “vitesse apparente” de 1 fois la vitesse de la lumière. Si l’on a une valeur de la constante de Hubble cela peut donner une distance. Si l’on fixe d’autres paramètres du modèle (la densité de matière dans l’univers par exemple) on peut alors donner le temps qu’a mis la lumière pour nous en parvenir. Sur ce site, on peut jouer avec ces paramètres. Cette mesure de z permet donc de donner une valeur observable non dépendante des paramètres parfois mal contraints du modèle. On connait quelques galaxie se trouvant à z>6.

ps216_PGkt2K7

A l’époque, cette loi est une révolution, et enlève une sacrée épine du pied à Einstein. En effet, celui-ci essayait à l’époque de faire rentrer un peu de force un univers statique dans sa théorie, ce qui n’était pas très facile. En effet, la masse de l’univers devrait tendre à le “retenir vers l’intérieur”, ce qui devrait le faire décroitre, ou à le faire décroitre si il grandit. Pour admettre un univers statique, il faut imaginer une force répulsive inconnue, qu’Einstein note comme une constante cosmologique dans son modèle, qui permet de contrebalancer la gravité. Il semble que cette hypothèse d’univers statique qu’essayait de prouver Einstein était surtout là pour des raisons philosophiques. Quoi qu’il en soit, Einstein admit son erreur et allât même remercier Hubble.

Genèse du projet

Après cette longue introduction, passons maintenant au télescope. La personne que vous devez absolument retenir pour avoir porté à bout de bras ce télescope, c’est Lyman Spitzer. Dès 1946, ce physicien américain décrit dans un papier les deux principaux avantages d’un télescope spatial. Quels sont ils d’ailleurs ? Dans un premier temps, la résolution angulaire. J’en avais déjà parlé dans mon émission sur les télescopes. Rapidement pour les nouveaux, on parle de résolution angulaire pour désigner l’angle minimum que va détecter un appareil optique et qui va lui permettre de séparer deux points. Ainsi l’oeil humain peut détecter un angle de 1 minutes d’arc environ, ce qui fait qu’il peut séparer deux points séparés de 1 mm à 3 mètres, ou encore deux points séparés de 100 km sur la lune.

Nébuleuse d’Orion (combinaisons d’image ACS et sol). Crédits : NASA, ESA, M. Robberto (Space Telescope Science Institute/ESA), and the Hubble Space Telescope Orion Treasury Project Team

Il y a un petit jeu sur wikipedia (article pouvoir de résolution) sur ça. On prend 3 fois la même image avec des résolutions numériques différentes et on regarde à partir de quelle distance notre oeil ne voit plus la différence entre les images.

Les télescopes ont aussi une résolution angulaire, qui dépend linéairement de la taille de leur miroir principal. Ainsi, un télescope deux fois plus grand permettra de séparer, à une même distance de nous, deux objets deux fois plus rapprochés l’un de l’autre. Le problème c’est que l’atmosphère vient tout gâcher. En brouillant les images, elle va fortement diminuer la résolution d’un télescope, pour la ramener de toute façon à celle d’un télescope de 30 cm de diamètre. Ce problème a été traité sur Terre grâce à l’optique adaptative (voir mon dossier sur les télescopes) qui ironiquement a été pour la première fois rendue techniquement possible à peu près au début des années 90, quand Hubble a été lancé. Mais en 1946, niet !

Et puis il reste de toute façon l’autre avantage de l’espace : accéder à la lumière qui ne nous parviens pas. En effet, l’atmosphère arrête une grande partie de la lumière qui arrive de l’espace. Ainsi, les ultraviolets sont en grande partie arrêtés par l’atmosphère. Un autre problème apparait aussi si vous voulez détecter de l’eau sur certains objets. La seule façon est de regarder l’objet et de prendre son spectre, c’est à dire les variations de lumière pour chacune des longueurs d’ondes, et de regarder si il présente des raies caractéristiques (des “trous” dans le spectre) d’absorption de l’eau. Le problème c’est que si vous faites ça depuis la Terre, il y a de grandes chances que vous trouviez de l’eau un peu partout, car l’atmosphère, gorgée d’eau, va créer elle même ses raies en absorbant la lumière.

Intermède : demande de temps Hubble

Au passage, j’ai déposé une demande d’observation avec Hubble le mois dernier justement pour regarder justement une raie spécifique de l’eau sur des exoplanètes. Je le dis pas seulement parce que je suis super fier, mais aussi pour présenter le système de demande de temps de ce télescope. C’est sans doute l’un des télescopes les plus difficiles obtenir encore de nos jours, avec une proposition sur 12 acceptée seulement (et le nombre de proposition est en augmentation chaque année). Les chercheurs écrivent une demande, dans laquelle en plus d’expliquer à quel point ça va leur donner des résultats de dingues, ils doivent aussi justifier que ce qu’ils veulent faire n’est possible que depuis l’espace. Les demandes sont ensuite envoyées au Space Telescope Science Institute, à Baltimore où elles sont réparties dans plusieurs comités de scientifiques reconnus qui les évalue avec impartialité. La particularité de ces demandes est aussi qu’elles viennent avec de l’argent, souvent assez pour permettre de payer quelqu’un pendant un an ou plus. Ainsi, on s’assure que ces données seront bien traitées et donneront des résultats de qualité. Et les résultats suivent. Pour le 25 ème anniversaire la directrice du STScI a annoncé “presque 13’000” papiers publiés utilisant des données Hubble, ce qui en fait l’un des instruments scientifiques les plus productifs à ce jour, toutes sciences confondues.

Titre-Hubble

Hubble, par Puyo

Mais retournons au télescope. Une amélioration qu’on cite souvent (je l’ai même entendu chez e-penser), c’est que le télescope peut observer jour et nuit. C’est vrai et faux. Pour la plupart des étoiles, le télescope ne pourra observer que le temps d’une demi orbite, car le reste du temps, il est entre la Terre et le Soleil et il ne peut pas observer aucun de ces deux objets. Donc souvent pendant ce temps la, on tourne pour acquérir une nouvelle cible et on décharge les mémoires vers la Terre. Donc ca fait une observation de 45 minutes au plus en gros pour la majorité des étoiles. Si un objet est très au Nord ou très au Sud, on est jamais gêné par la Terre et normalement, on peut faire de très très longues poses effectivement. La planification des orbites est vraiment très compliquée. On ne peut pas anticiper plus de deux semaines en avance car les perturbations sur le télescope font que sa trajectoire est difficile à prévoir. On doit faire tenir aussi les décharges de mémoire, les acquisitions de cibles, tout en maximisant le temps d’observation et en prenant en compte l’intérêt scientifique, comme le fait que certaines observations doivent être faites proches dans le temps ou à une certaine période si c’est un événement court. Bref, le STScI de Baltimore a des ordis qui chauffent fort et en fait le bâtiment est chauffé par ses machines (on m’a dit que dès que la température extérieur dépasse 10 degrés, ils sont obligés de mettre la clim pour refroidir le bâtiment tellement les serveurs dégagent de chaleur).

Retour à la Genèse

La route fut longue pour Spitzer, qui y dévolue toute sa carrière. En effet, le cout prohibitifs et les défis techniques sont des freins importants. Cependant, en 1968, la NASA commence à développer des plans fermes pour un projet de télescope spatial de 3m appelé alors Large Space Telescope (LST), prévu pour 1979. Ce projet comprend une possibilité de rénovation par les humains, ce qui allait parfaitement avec le projet de navette spatiale qui est aussi mis dans les tuyaux exactement la même année. Initialement, il était même prévu de pouvoir ramener Hubble sur Terre dans la navette pour des remises à niveaux. Bon et puis on s’est rendus compte que ça coutait assez cher et que, les projets spatiaux étant toujours extrêmement dépendant du climat politique et de l’humeur du congrès, un cadre de la NASA expliquait en 1984 que “si nous ramenons Hubble à Terre, il ne va jamais redécoller”.

Bon 1979, c’est un peu ambitieux et le projet va prendre du retard et dépasser son budget. Le lancement de ce qui est devenu entre temps le Hubble Space Telescope ou HST, est finalement prévu pour octobre 1986. Cependant, en Janvier de cette même année, la navette Challenger explose au décollage, tuant 7 astronautes et mettant en pause les lancements. Hubble, quasiment prêt, est alors stocké dans une immense salle blanche (une pièce extrêmement propre pour éviter que des poussières ne se déposent sur les optiques), ce qui coûte environ 6 millions de dollars par mois. Le projet, initialement estimé à 400 millions, va finalement taper le 2.5 milliards le jour où il sera finalement envoyé, il y a 25 ans, le 24 Avril 1990. Le coût à ce jour, avec les missions d’entretien et la surveillance 24h/24, approche 10 milliards de dollars. Cependant, comme pour tous les projets de ce type, il faut le ramener aux échelles de temps mises en oeuvre et cela revient en comptant seulement la durée d’utilisation, à 1.5 dollars par an et par américain. Mais tout de même, c’est cher. Alors il faut que ca marche !

Photo anniversaire de Hubble : le regroupement d’étoile Westerlund 2 au sein de la nébuleuse Carina, combinaison d’images ACS et WFC3. Crédits : NASA, ESA, the Hubble Heritage Team (STScI/AURA), A. Nota (ESA/STScI), and the Westerlund 2 Science Team)

La panne

Et justement ça ne marche pas. Mais pas du tout. Très vite, on s’aperçoit que les panneaux solaires ne sont pas assez rigides et vibrent un peu lorsqu’ils changent de température en passant du soleil à l’ombre, soit toutes les 50 minutes environ. En passant, c’est l’agence spatiale européenne qui s’était occupée des panneaux solaires en échange d’un temps d’accès au télescope pour les astronomes européens. Ils s’en sont d’ailleurs vantés sur Facebook la semaine dernière pour les 25 ans et j’ai partagé leur lien avant d’apprendre qu’ils étaient défectueux et que le community manager aurait mieux fait de s’abstenir.

Mais le plus gros problème vient de la NASA. Un mois après le lancement, le télescope réagit toujours très bizarrement. On prend des images et la qualité est à peine meilleure que sur Terre. La résolution angulaire, ce qui fait apparaitre les contours bien nets, n’est pas au rendez vous. Quand on s’aperçoit que tous les instrument sont dans ce cas, c’est la crise : ça vient d’une des première optiques, les plus grosses, et ça complique la mission. Quand on réalise que c’est un défaut du miroir primaire, beaucoup trop important pour être corrigé avec les moyens embarqués, c’est terrible. L’erreur est identifiée en quelques mois, il s’agit d’une aberration sphérique : le bord du miroir ne fait pas la mise au point au même endroit que le centre du miroir, ce qui résulte en une image “floue” d’un point et donc d’une résolution angulaire complètement dégradée.

Aberration sphérique pour une lentille

Les directeurs des différents instruments réalisent un par un les conséquences pour les performances : Jim Westphal, designer du principal instrument, le Wide field planetary camera (WF/PC, prononcé affectueusement wifpic) réalise qu’à 61 ans, il a consacré 14 de sa carrière à cet instrument, dont l’aberration optique “balaye essentiellement l’intégralité [du] programme scientifique”. L’astronome Sandra Faber qui fut l’une des premières à identifier précisément le problème, envisage le pire dans son journal : une commission d’enquête du congrès américain, la fermeture de la NASA, l’astronomie tout entière devenant une science paria, les carrières des jeunes chercheurs brisées… Ce n’est pas tant pessimiste que ça. On est 4 ans seulement après Challenger, les deux principaux projets de la NASA depuis 20 ans sont au mieux un semi échec. L’URSS est en train de s’écrouler et la course à l’espace perd de son intérêt. Les journaux sont très critiques, le Los Angeles Time écrit : “Le monde voit maintenant le résultat honteux du laxisme et des incapables de la NASA”. LA NASA voit ses heures les plus sombres et perd le soutien populaire. Dans la comédie Y a t il un flic pour sauver le président sortie en 1991, Hubble est représenté à côté de plusieurs échecs célèbres de projets énormes : le Titanic et le dirigeable Hindenburg.

Détails de la nébuleuse de l’aigle, par l’instrument ACS. Crédits : NASA, ESA, and The Hubble Heritage Team (STScI/AURA)

Comment la NASA a t elle pu se planter à ce point sur ce qu’elle présentait comme le meilleur miroir jamais mis au point ? La commission d’enquête débarque chez le sous-traitant qui a fabriqué le miroir. Il avait aussi fabriqué une machine extrêmement perfectionnée pour mesurer la surface du miroir avec une précision inégalé. Cependant, un capuchon qui devait être non réfléchissant à été éraflé et la machine a parfaitement réalisée sa tâche : faire le meilleur miroir jamais conçu, mais en focalisant sur le reflet sur le capuchon, 1.3mm trop près. Des tests sur des machines plus rudimentaires ont mis en évidence l’aberration sphérique, mais les ingénieurs les ont mis de côtés, au motif que la machine qu’ils avaient construite était plus précise. L’erreur est de seulement 2 micromètres au niveau du bord, mais détruit les performances en résolution.

La résurrection

Très vite, la riposte se met en place en particulier au Space Telescope Science Institute. La première mission de réparation prévue est en 1993. Ces missions étaient prévues tous les 3 ans en moyenne pour remplacer les instruments qui sont standardisés pour facilement s’enlever et se remplacer comme des modules. La NASA souhaite en priorité faire des belles images pour sauver sa réputation et incorpore donc des modifications sur l’instrument qui devait de toute façons être changé, WF/PC 2 est automatiquement améliorer en rajoutant des optiques qui introduisent le défaut inverse. Pour les 4 autres instruments, il faut aussi trouver une solution. Certains envisagent de faire descendre un astronaute dans le cylindre à l’intérieur de Hubble. Mais il y a le risque qu’il reste coincé… en direct à la télé américaine, ce ne serait pas vraiment la meilleure pub pour la NASA. Finalement, Jim Crocker du STScI trouve une solution. Ils construisent un module qui pourra rentrer à la place d’un autre instrument, mais qui une fois dedans se dépliera pour faire passer des optiques devant le faisceau de tous les autres. On devra sacrifier un instrument, mais on sauvera les autres. Ainsi est désigné COSTAR (Corrective Optics Space Telescope Axial Replacement).

Kathryn Thornton remplaçant un des panneaux solaires de Hubble lors de la première mission de maintenance du télescope spatial (STS -61).

La première mission de maintenance de Hubble, en 1993 est la plus ambitieuse jamais tentée à cette époque. Elle incorpore un suisse, Claude Nicollier, et une femme, Kathryn C. Thornton, ce qui est suffisamment rare pour être noté. En 5 jours et autant de sorties spatiales, les membres de l’équipe changent les panneaux solaires, remplace WF/PC 1 par WF/PC 2, met en place COSTAR, remplace 4 gyroscopes, change des unités mémoire, et remplace d’autres composants.

La mission est un succès complet et la science peut maintenant commencé à plein temps. Voici différentes versions de l’image de l’étoile Eta-Carinae,entourée de sa nébuleuse, prises avant Hubble, depuis la Terre, puis à différente époques de la vie d’Hubble. On voit très nettement l’amélioration.

eta_car

Les différentes missions de services de la navette américaine ont permis d’augmenter la durée de vie de manière spectaculaire. Apportant, parfois in-extremis, les composants nécessaires à sa survie, elles ont aussi remplacé un par un les instruments. Le télescope est donc toujours pourvus d’instruments récents permettant de faire des observations d’excellente qualité, comme le prouve son succès, avec l’augmentation du nombre de demandes de temps chaque année dont on a parlé. Les instruments suivants ont intégrés en interne l’aberration, et COSTAR fut redescendu en même temps que le dernier instrument de première génération. Après 16 ans dans l’espace, il est aujourd’hui exposé au musée de l’air et de l’espace de Washington. La dernière mission de réparation a eu lieu en 2009 et la navette est maintenant clouée au sol. Hubble est maintenant livré à lui même mais on pense qu’il devrait tenir au moins jusqu’à 2020, permettant une superposition avec son remplaçant le James Webb Space Telescope, lancement prévu en 2018.

La science (enfin)

ps216_CDs_yfIWEAEqv4y.jpg

Hubble, par Inti

En 1995, on a décidé de prendre une région très au Nord, ce qui permettait une observation quasiment en continu comme je l’ai dit, et de l’observer intensivement pendant 8 jours, avec plusieurs filtres spectraux. En cumulé, plus de 140h d’observation on permis d’obtenir ce qu’on appelle le Hubble Deep Field. On a choisi cette région pour évite les étoiles de la galaxie et pouvoir creuser loin sans saturer l’image avec des objets proches et le résultat est impressionnant : près de 3000 galaxies furent découvertes dans cette région du ciel grande comme une balle de tennis à 100m. Cette analyse est un des papiers les plus cités de Hubble avec 970 citations à ce jour. Elle a permis de trouver de nombreuses galaxies à très haut décalage vers le rouge (c’est à dire avec un grand z, maintenant vous savez ce que ça veut dire). De fait, avant cette image, on connaissait très peu d’objets ayant un z supérieur à 1. Dans le Hubble Deep Field, on est remonté à z = 6. Ces galaxies à haut décalage vers le rouge sont très éloignées donc aussi très jeunes, ce qui a permis de comprendre beaucoup de choses sur l’évolution des galaxies. En particulier, il a permis de montrer que les fusions et collisions de galaxie étaient plus fréquentes dans l’univers jeunes.

Enfin, en 1998, on a refait la même opération vers le sud et obtenu des résultat similaires, ce qui valide l’hypothèse que l’univers est isotrope et homogène, c’est-à-dire au final que nous ne sommes pas vraiment en un endroit particulier de l’univers.

Enfin, l’une des théories à cette époque était que la matière noire était constituée de Machos (en anglais Massive Astrophysical Compact Halo Objects) c’est à dire des objets massifs mais très peu lumineux comme les naines brunes. Marco en avait parlé dans son épisode sur la matière noire. Le Hubble Deep Field a permis d’invalider cette hypothèse devant le faible nombre de naines brunes dans l’image. En 2003, Hubble a réalisé un Ultra-Deep Field avec plus de 275 heures d’observation d’une même région. Ces grands champs sont quelques choses d’encore assez inaccessibles depuis le sol, même avec les dernières techniques d’optique adaptative.

Le Hubble Ultra-Deep Field, dans la constellation du Fourneau.

Le Hubble Ultra-Deep Field, dans la constellation du Fourneau.

Une autre découverte de Hubble concerne les trous noirs dont nous a parlé Jean-Pierre Luminet le mois dernier. Ainsi, on a trouvé des trous noirs super massifs au centre de la plupart des galaxies. On a aussi pu mettre en évidence qu’il existe une relation entre leur masse et la luminosité de la galaxie, ce qui montre une évolution en tandem.

Enfin, retour à Edwin Hubble pour la fin. Les observations de galaxies ont permis de bien contraindre la constante de Hubble avec une bien meilleure précision qu’auparavant (on est passé de “entre 50 et 90″ à 72±8). Mais ce n’est pas tout. En 1998, deux équipes concurrentes, la High-z Supernova Search Team et le Supernova Cosmology Project ont utilisé des observations au sol et Hubble pour observer des Supernovae de type 1a. Ces explosions, assez courtes, viennent du fait que des naines blanches accrètent de la matière d’une autre étoile proche. Lorsqu’elle dépasse une certaine masse, elles explosent avec une luminosité extrêmement importante et très bien contrainte. En observer une depuis la Terre permet donc de bien contraindre la distance de ces objets, même si elles sont situées dans des galaxies très lointaines. Ces observations ont permis d’évaluer avec précision l’évolution de la constante d’Hubble au cours du temps. Et surprise, ces observations ont montré que l’univers… accélérait ! Ainsi, Einstein avait raison ? L’univers ne s’écrase pas, ne ralenti pas, une force inconnue contre bien la gravité et pousse l’univers vers l’extérieur. Cette énergie est appelée énergie sombre et certains cosmologistes lui trouvent beaucoup de points communs avec la constante cosmologique qu’Einstein avait jeté à la poubelle dans les années 30. Cette découverte a value le prix Nobel à Brian P. SchmidtAdam Riess et Saul Perlmutter en 2011.

Conclusion

Pour finir, Hubble, c’est aussi un apport magistral  à l’astronomie grand public et nombre énorme de photos fantastiques. N’hésitez pas à aller voir dans les liens.

Zoom sur l’étoile V838 Monocerotis et son évolution au cours du temps.

Sources :

 

VN:F [1.9.22_1171]
Rating: 4.7/5 (3 votes cast)
VN:F [1.9.22_1171]
Rating: 5.0/5 (1 vote cast)

 

 

Retranscription de l’interview de Jean-Pierre Luminet, réalisée dans l’épisode 211. Retranscription réalisée par Stephanie. Un immense merci à elle, c’était vraiment un gros boulot.

 

 

Johan : Terry Pratchett nous a quitté il y a deux semaines. J’ai découvert à cette occasion que cet auteur reconnu de fantasy avait aussi écrit des livres de vulgarisation, avec un humour certain. Ainsi, en parlant de la célébre formule d’Einstein, sans l’écrire, il précise en note de bas de page :

* On dit que chaque formule scientifique divise les ventes d’un livre de vulgarisation scientifique par deux. Foutaises ; si c’était vrai, il ne se serait vendu qu’un huitième d’exemplaire de “L’esprit, l’ordinateur et les lois de la physique” de Roger Penrose, alors qu’on parle en réalité de plusieurs centaines de milliers.

Toutefois, au cas où la légende aurait un fond de vérité, nous avons choisi de décrire cette formule ainsi pour doubler nos ventes potentielles. Vous la trouverez écrite sous forme symbolique à la page 37 d’“Une brève histoire du temps” de Stephen Hawking – d’ailleurs, si la légende est vraie, il aurait pu en vendre deux fois plus, ce qui donne le vertige.

Ce soir nous recevons Jean Pierre Luminet, pour parler de son livre sur les trous noirs (en particulier) «Le destin de l’univers » écrit sans aucune formule. Nous sommes les 24 Mars 2015, c’est l’épisode 211 et vous êtes sur podcast science.

Nico : Bonsoir et bienvenue à tous, pour l’occasion, ce soir, Podcast science s’est délocalisé à Marseille pour se rapprocher de notre invité, du coup on a une vraie table physique à Marseille et autour de notre table on est réuni avec Julie qui elle ne vient pas de très loin, de Nice. Johan qui a fait le déplacement depuis Baltimore (pas que pour ça il faut l’avouer) et donc Jean-Pierre Luminet (JPL). Autour de la table virtuelle : Robin depuis Paris et Irène depuis Santa Barbara. Au programme de l’émission de ce soir : c’est une interview de JPL principalement au sujet de son dernier livre et plus précisément autour des trous noirs. Pour commencer, Johan va nous présenter JPL.

Johan : Jean Pierre Luminet, vous êtes directeur de recherche au CNRS, vous avez fait la majeure partie de votre carrière au Laboratoire Univers et Théories de l’observatoire de Paris-Meudon. Vous êtes maintenant au laboratoire d’astrophysique de Marseille. Pour résumer rapidement votre carrière et tout ce que vous avez fait en recherche : vous avez beaucoup étudié les trous noirs et leur environnement, simulant notamment l’image d’un disque de poussière orbitant un trou noir ou son effet sur une étoile passant à proximité. Enfin vous étudiez plus particulièrement maintenant la topologie de l’univers en particulier par l’étude du fond diffus cosmologique. Cependant, votre brillante carrière de chercheur vous a aussi laissé le temps d’écrire plusieurs livres de vulgarisation scientifique [et pas que], parmi lesquels

Le destin de l’univers, Tome 1

C’est un exploit d’écrire ce livre sans aucune formule, surtout les équations de Penrose, surtout que vous décrivez quasiment l’histoire de la plupart des grandes théories scientifiques depuis Galilée, car chacune à son importance l’une après l’autre pour la description de ces objets que sont les trous noirs. Le livre est extrêmement complet. Mais comme Nico et moi avons un train dans 12h, on va se limiter aux trous noirs seulement ce soir et en particulier sur ce que l’on peut apprendre dans Le destin de l’Univers.

Nico : On va rentrer tout de suite dans le sujet sur les trous noir. Avant de commencer à lire la première version de votre livre sur les trous noir, j’avais un peu ce qu’on peut appeler une connaissance “grand public” de ces objets que sont les trous noirs, voir même, après avoir lu votre livre, une connaissance Newtonienne du trou noir. Je savais qu’il y avait une vitesse minimale pour quitter une planète, une vitesse de libération, et que les trous noir étaient des astres tellement massifs que cette vitesse de libération était plus grande que celle de la lumière ce qui faisait que rien ne pouvait en sortir, ils étaient donc noirs, vraiment noirs. J’avais aussi entendu parler de “Singularité” sorte de point de masse infinie, souvent représentée par un trou tendu à l’extrême dans la nappe de l’espace-temps. A la lecture de vos livres je vois que ce n’est pas tout à fait ça, voir pour certains éléments pas du tout et donc pour commencer, comment est-ce que vous présenteriez et définiriez un trou noir ?

Déformation de l’espace-temps par un trou noir.

JPL : C’est vrai qu’il est toujours intéressant de se plonger dans l’histoire d’ailleurs l’un de mes plaisirs dans l’écriture de ce gros livre “Le destin de l’univers” c’est également de développer beaucoup d’aspects historiques et également des aspects culturels, littéraires etc. autour de l’imaginaire qu’on peut avoir sur les trous noirs. Pour en revenir directement aux aspects historiques, comme vous l’avez rappelé, l’idée d’un astre dont la gravité est suffisamment forte pour emprisonner éventuellement les rayons lumineux n’est pas une idée relativiste. C’est une idée purement Newtonienne puisqu’elle a été émise dès la fin du XVIIIe siècle par des astronomes qui ont fait le raisonnement selon lequel : si la lumière est influencée par la gravitation, ce que Newton croyait, au dessus d’une certaine masse ou d’une certaine densité en tout cas, la vitesse de libération, à la surface d’un astre qui est facilement définissable en mécanique classique, dépasse la vitesse de la lumière. Auquel cas les rayons lumineux restent piégés ou en tout cas ils ne peuvent pas s’échapper ou ils retombent un peu comme les jets d’eau d’une fontaine. C’est une vision qui parait aujourd’hui un peu naïve, mais malgré tout elle permettait déjà à l’époque d’imaginer un peu le profil typique d’un astre capable de retenir les rayons lumineux. Ce profil c’est soit un astre extraordinairement massif ou soit éventuellement un astre extrêmement dense. Il a fallu attendre la relativité générale d’Einstein pour réellement donner un peu plus de matière, de chair et de corps à cette idée d’astre invisible, qui d’ailleurs avait été un peu oubliée pendant deux siècles. Je rappelle qu’entre temps les théories sur la lumière de nature plutôt ondulatoire avaient exclu l’idée que la lumière puisse être influencée par la gravitation. Il a fallu attendre la relativité générale pour revenir sur cette idée et à partir de là, imaginer l’existence d’astres pouvant retenir les rayons lumineux. Cette fois-ci ce n’est plus directement la gravitation Newtonienne qui agit, c’est la courbure de l’espace-temps puisque vous savez très bien qu’en relativité générale on décrit la gravitation non plus comme une force d’attraction mais comme une manifestation naturelle de la courbure de l’espace et du temps qui est engendrée par la distribution des corps massifs. Lorsque l’on veut transposer sans les écrire et visualiser les équations d’Einstein, vous prenez un tissu élastique, je le fais régulièrement dans mes conférences, je découpe un petit morceau de bas résille et je mets des boules dedans et on voit bien que lorsque la boule est plus dense, la maille du bas symbolisant le trajet des rayons lumineux est plus étirée, la déformation du bas est plus grande. Le cas extrême c’est un corps qui va atteindre une taille ou une masse critique qui sera donc le trou noir, qui va creuser un véritable puits dans le tissu élastique de l’espace-temps qui est une zone de non retour. La grosse différence entre le trou noir et les astres effondrés que sont les naines blanches et les étoiles à neutrons qui sont bien connues comme stades terminaux de l’évolution des étoiles, cette différence c’est que les astres ordinaires ont une surface solide et matérielle alors que le trou noir n’en a pas, c’est réellement un puits et l’on a seulement ce qu’on appelle la frontière d’un trou noir, ou horizon des évènements : horizon parce qu’on ne peut pas voir les évènements de l’espace-temps qui se passent au delà [pour un trou noir sans charge et sans rotation, on parle aussi d’Horizon de Schwarzschild et le rayon de cet horizon est appelé rayon de Schwarzschild]. Cette frontière est immatérielle, c’est une zone de l’espace-temps dans laquelle si on rentre, on est capté, capturé par la courbure d e l’espace-temps irréversiblement, même si on est un rayon lumineux. C’est ça le trou noir, il y a d’ailleurs souvent une confusion sur l’idée qu’un trou noir est une singularité. La première question qui se pose naturellement lorsqu’il y a un effondrement gravitationnel de ce type là, c’est comment se comporte la matière ? Est-ce que tout s’écrase en un point de densité infinie ? Le premier raisonnement, les premiers calculs un peu naïfs disent que oui. Mais en fait le trou noir, en tant que zone de l’espace-temps qui va fonctionner comme un piège à matière et lumière, se forme avant cette singularité puisqu’il forme un horizon des évènements qui, je le répète, est une frontière immatérielle, géométrique, de l’espace-temps. Vu de l’extérieur, c’est par exemple une région délimitée par une sphère, si le trou noir n’est pas en rotation, il est statique, il est parfaitement sphérique et donc cet horizon des évènements est délimité par une sphère, si on rentre dans la sphère on ne peut plus en sortir, en tout cas par le chemin direct.

Coupure de son dans le podcast, par Inti

Nico : Il y a deux choses que je relève dans ce que vous venez de dire, commençons par la fin : on ne peut pas en sortir par le chemin direct. C’est à dire qu’il n’y a rien qui sort du trou noir ?

JPL : J’anticipe des questions qui vont arriver immanquablement par la suite. Il y a deux aspects, d’abord les mathématiques du trou noir puis l’astrophysique que l’on peut en tirer. Que peut-on tirer comme informations du trou noir lorsque l’on est à l’extérieur du trou noir et après que se passe-t-il si on plonge à l’intérieur ? La deuxième question est plus difficile que la première. La première avait intéressé notamment les astronomes et les astrophysiciens, elle intéresse aussi les physiciens théoriciens puisque l’une des propriétés extraordinaires de ces objets fascinants que sont les trous noirs, c’est que vu de l’extérieur, lorsqu’ils sont à l’équilibre, toutes leurs propriétés se résument à seulement trois paramètres. Ce qui est extraordinaire, si vous voulez décrire exactement la configuration totale de n’importe quel objet naturel, ne serait-ce que pour un simple morceau de sucre par exemple, il vous faut des milliards de paramètres.

Nico : Et puis même les autres étoiles etc. ont beaucoup plus de paramètres.

JPL : Bien entendu. Avec le trou noir, tout se simplifie d’une certaine façon, et ça amène à des considérations extrêmement profondes de physique sur la quantité d’informations qui est avalée dans un trou noir. L’essentiel de toutes les propriétés et informations que l’on a sur la matière qui constitue un trou noir ou qui forme un trou noir ou qui tombe dans un trou noir une fois le trou noir formé est perdue et il ne subsiste que trois paramètres qui sont : la masse, ce qu’on appelle le moment angulaire qui est relié à une quantité de rotation et une charge électrique, ça c’est sur le plan théorique, parce que dans les situations réelles très vraisemblablement les trous noirs astrophysiques sont électriquement neutres et donc les trous noirs naturels ne dépendraient  que de deux paramètres, la masse et le moment angulaire, on appelle ça des trous noirs de Kerr. Ca c’est pour l’extérieur, on verra après de quelle façon les astronomes peuvent détecter indirectement des trous noirs. Pour répondre très brièvement, parce que je pense qu’on y reviendra, à la première partie de la question, que se passe-t-il à l’intérieur d’un trou noir ? De deux choses l’une, soit la matière s’entasse indéfiniment dans une singularité de courbure, une sorte de nœud de l’espace-temps, c’est la solution la plus simple. Il existe une solution mathématique fascinante qui s’appelle la solution du trou de ver (wormhole en anglais), dans lequel le fond d’un trou noir n’est pas bouché, mais est une sorte de connexion qu’on appelle un pont dansant, enfin il y a plusieurs dénominations de cela parce que ça a été beaucoup étudié sur le plan théorique.

Le trou de ver d’Interstellar

Nico : Sur le plan fictionnel aussi.

JPL : Ca a été archi utilisé évidemment pour la science-fiction puisque ces structures-là permettraient de faire communiquer une région de l’espace-temps qui serait un trou noir avec une autre région de l’espace-temps qui serait une sorte d’anti trou noir qu’on appelle un trou blanc, qu’il vaudrait mieux appeler une fontaine blanche,  c’est à dire plutôt un jaillissement spontané d’énergie hors d’un horizon des évènements. Le passage entre les deux, le trou de ver donc, ferait office de raccourci pour voyager dans l’espace-temps. C’est à dire que si on emprunte ce trajet, en admettant que l’on puisse réellement l’emprunter, que le trou de ver ne soit pas bouché, qu’on ne soit pas détruit par les forces de gravitation, etc., scénario typique pour la SF, on s’aperçoit qu’on pourrait aller d’un endroit à l’autre de l’espace et du temps, en s’affranchissant un peu de la limitation de la vitesse de la lumière que l’on connait dans l’espace-temps ordinaire. Cela ne veut pas dire que l’on dépasse la vitesse de la lumière lorsque l’on est dans un trou de ver. Il y aurait des déformations topologiques étranges de l’espace et du temps qui connecteraient, par l’intermédiaire de ces trous de ver, des régions qui dans l’espace normal hors trou noir, seraient extrêmement éloignées les unes des autres. Mais je pense que l’on développera ce sujet par la suite.

Nico : Sur les trous de ver on n’avait pas prévu de développer énormément, peut-être qu’on peut juste en dire deux mots. De ce que j’ai compris des différentes lectures etc. c’est qu’a priori les trous de ver c’est très spéculatif et qu’il y aurait de grandes chances que ce ne soit pas du tout stable un trou de ver.

JPL : Oui c’est tout le problème des trous de ver, vous savez les équations de la physique, dont la relativité générale bien entendu, sont décrites par des équations mathématiques, après vous en cherchez des solutions. En général même si on trouve des solutions exactes elles correspondent assez rarement à une réalisation physique dans l’univers.

Nico : Un exemple que vous donnez souvent c’est que dans la plupart des équations physiques on peut inverser le temps.

JPL : Par exemple oui, alors que des principes physiques tels que la causalité disent que ce genre de choses est interdit même si c’est formellement permis dans les équations . Ce pourrait être le cas de ces structures fascinantes que sont les trous de ver qui je le répète sont des solutions mathématiques parfaitement pertinentes associées aux trous noirs en rotation. Car dans un trou noir qui ne tourne pas, on sait que le trou de ver qu’il y a est forcément bouché, c’est à dire qu’il y a une singularité qui l’étrangle au milieu. En revanche un trou noir qui tourne pourrait permettre que la singularité ne soit plus un nœud ponctuel mais un genre d’anneau à l’intérieur du trou noir. Si vous avez un anneau au lieu d’un point, vous n’avez plus un point d’étranglement, vous pouvez éventuellement survoler l’anneau ou alors passer à travers et donc éviter les forces de courbure infinie c’est à dire éviter la singularité. Pour aller où ? Certains trajets suggèrent, a priori je le répète, que l’on peut ressortir dans l’espace et le temps voir même dans d’autres univers si on fait l’hypothèse de multivers, en faisant office de raccourcis. Ça c’est la solution mathématique idéalisée, dans l’univers physique, on pense que si les trous de ver peuvent réellement se former, ils sont très probablement instables, ce sont des structures gravitationnelles. Le seul fait de pénétrer dedans introduit une perturbation gravitationnelle qui va très vraisemblablement, d’après des calculs mathématiques, perturber le trou de ver au point de le fermer et le boucher. Donc il se pourrait que même dans la situation déjà un peu idéalisée où un trou de ver existe réellement et est ouvert, le seul fait d’y faire pénétrer, ne serait-ce qu’une seule particule élémentaire, on y pénètre à une vitesse qui tend vers la vitesse de la lumière. En fonction de E=mc^2 on sait que quand on tend vers la vitesse de la lumière, la masse effective, la masse de mouvement augmente, ça cause une énergie, donc ça engendre la gravitation et une perturbation gravitationnelle tellement forte que le trou de ver a spontanément tendance à se boucher avant qu’on puisse le traverser. Ce n’est donc pas très favorable, pas très positif, un peu dommage pour la SF qui rêve évidemment d’utiliser ces portes des étoiles comme dans Stargate, comme on l’utilise souvent dans les nouvelles et films de SF. Mais les gens qui ont travaillé sur le sujet, notamment Kip Thorne, et quelques autres, vous savez, les théoriciens ont toujours des idées pour échapper aux contraintes des lois physiques, ils ont imaginé qu’on pourrait éventuellement stabiliser et maintenir ouvert un trou de ver en le tapissant d’énergie négative. Qu’est-ce que cela veut dire l’énergie négative ? En fait ce sont des champs de force qui existent sur le papier, ça existe  peut-être même dans l’univers, par exemple l’énergie du vide ou les champs de quintessence ou autres qui pourraient fournir une explication à ce qu’on appelle l’énergie noire. Ce sont effectivement des champs répulsifs, c’est à dire une sorte d’antigravitation, et ce serait pour ça que l’expansion de l’univers est actuellement en accélération. Le même type de champs ayant des propriétés analogues, répulsives, injectés dans un trou de ver pourraient l’empêcher de s’effondrer gravitationnellement puisque ça introduirait de l’antigravitation. Là on est vraiment aux limites des équations très théoriques imaginant ce type de champs de force, après la manière dont on pourrait les injecter dans un trou de ver, ça relève de la SF, mais pourquoi pas !

Nico : Pour l’instant on n’a rien qui va dans ce sens mais on n’a rien qui contredit.

JPL : On a envie d’y croire, ne serait-ce que parce que quand on pense aux voyages interstellaires pour ne pas parler de voyages intergalactiques, si ce genre de structures n’existent pas, on est irrémédiablement limités par la vitesse de la lumière et les immenses distances qui nous séparent des astres lointains. On peut se dire qu’on ne sortira jamais de notre petite boîte “système solaire” et éventuellement quelques étoiles proches, parce que sinon il faudrait trop de temps pour se déplacer d’un point à l’autre de l’univers. Les trous de ver traversables représenteraient finalement le seul moyen de réellement s’affranchir de ces distances gigantesques et d’explorer déjà au moins la galaxie et peut-être  éventuellement même d’autres galaxies.

Nico : Pour revenir sur des choses qui font peut-être plus consensus…

JPL : Oui parce que ceci n’est que quelques paragraphes de mon énorme livre qui parle de choses un peu plus établies.

Nico : Un autre élément qu’on a dans notre conscient collectif sur les trous noirs c’est que le trou noir c’est une sorte d’ogre qui avale tout, or de ce que j’ai pu comprendre il y a aussi des trous noirs qui ont tendance à perdre des choses voir même à s’évaporer.

JPL : Il y a deux choses, l’idée d’ogre cosmique c’est parce qu’effectivement, je l’ai dit au début dans la définition du trou noir, quand un objet rentre dedans, en principe il ne ressort pas donc ça veut dire que le trou noir absorbe et grossit en absorbant et en plus son pouvoir d’action augmente au fur et à mesure qu’il grossit, parce qu’en fait la taille d’un trou noir est directement liée à sa masse et donc son rayon d’action l’est également. Ogre cosmique effectivement puisqu’on connait l’existence de trous noirs géants qui sont au centre des galaxies et dont les masses peuvent faire plusieurs milliards de masses solaires (masse solaire = 1,989*10^30 kg), ces trous noirs sont capables de gober des étoiles entières, ce sont d’énormes structures, parce qu’un trou noir de plusieurs milliards de masses solaires a corrélativement un rayon de plusieurs milliards de kilomètres. Un de ces trous noirs géants, que l’on a déjà détecté dans des galaxies lointaines, si on le mettait dans le système solaire, il engloberait celui-ci tout entier, et on conçoit volontiers qu’une étoile à côté c’est une petite structure et elle pourrait être avalée directement. Il y a un processus un peu plus intéressant que j’ai d’ailleurs pas mal étudié, c’est lorsqu’une étoile au lieu de rentrer directement, frôle le trou noir géant, auquel cas elle est soumise à des effets appelés effets de marée, des effets de gravitation différentielle, qui font qu’elle pénètre dans un espace-temps extrêmement déformé et donc que l’objet lui même qui est dans l’espace est déformé. L’étoile est donc étirée dans certaines directions et comprimée dans d’autres.

Nico : Elle fait une crêpe flambée c’est ça ?

JPL : J’avais développé avec mes collaborateurs Brandon Carter et quelques autres au début des années 80 le modèle qu’on avait fini par appeler la crêpe stellaire flambée puisqu’en mettant ça en équations, avant que l’on puisse observer quoi que ce soit d’ailleurs, on avait calculé que l’étoile durant son passage dans ce qu’on appelle le rayon de marée, était essentiellement aplatie dans le plan de son orbite sous la forme d’une sorte de crêpe gazeuse. Comme elle ne peut pas être indéfiniment aplatie, la température et la pression augmentent et elle finissait par chauffer et exploser. Donc on appelait ça des crêpes stellaires flambées avec la prédiction que ce genre de phénomène devrait donner lieu à des sortes d’éruptions de rayonnement qui ont effectivement été détectés 15 ans plus tard. Aujourd’hui c’est assez commun, chaque semaine les grands télescopes détectent ce genre de “flambées stellaires” dans des noyaux lointains de galaxies qui abritent des trous noirs géants et ce sont très probablement des étoiles brisées par les forces de marée. Tout ça illustre le côté ogre du trou noir, côté qu’il ne faut pas non plus exagérer parce qu’il y a quelque chose qui n’est pas connu du public mais qui est absolument fondamental en astrophysique c’est que si vous mettez un trou noir dans un milieu ambiant où il y a par exemple des étoiles, du gaz, etc., y a-t-il un frein à sa capacité d’absorption de la matière ? Et bien oui il y en a un ! Si vous prenez par exemple du gaz qui tombe dans un trou noir que ce soit sous forme d’un nuage sphérique ou sous la forme d’un disque d’accrétion de structure plutôt plate ou toroïdale autour du trou noir, évidemment il y a ce phénomène d’absorption qu’on appelle l’accrétion à un certain taux.

 

Disque d’accretion autour d’un trou noir, simulation numérique. Crédit : Jean-Pierre Luminet, Jean-Alain Marck

Mais il ne faut pas oublier que lorsque le gaz s’approche du trou noir, il est chauffé, en chauffant il émet du rayonnement, ce rayonnement sort, et il y a une pression de rayonnement sortante. Cette pression de rayonnement va modérer le taux d’accrétion, c’est à dire la quantité de matière qui peut tomber dans un trou noir. Il y a une sorte d’équilibre naturel qui s’établit, qui s’appelle la limite d’Eddington, du nom d’un astrophysicien britannique qui l’avait calculé non pas pour les trous noirs mais pour d’autres phénomènes typiquement liés à ces phénomènes d’accrétion, qui peuvent aussi se produire pour les naines blanches et les étoiles à neutrons. Un trou noir ne peut pas avaler de la matière à un rythme supérieur à une certaine limite critique, ce qui limite sa vitesse de croissance et d’augmentation. Ce phénomène est intéressant parce qu’on a très récemment découvert, d’ailleurs je n’ai pas pu en parler dans l’ouvrage parce que l’on ne l’avait pas encore découvert.

Nico : Ce sera dans le volume suivant, 2600 pages.

JPL: Voilà ! Prochaine édition. On a donc découvert un trou noir absolument gigantesque qui est situé dans une galaxie extrêmement lointaine, précisément un quasar. Je rappelle, les quasars ce sont des noyaux de galaxie extraordinairement actifs, la seule façon d’expliquer l’énergie phénoménale qui est libérée par ces quasars, c’est un trou noir géant qui absorbe de grandes quantités de gaz, par exemple plusieurs masses solaires de gaz par an. On a détecté et repéré à cause de la luminosité extrême de ce quasar, un trou noir dont on a estimé la masse à 12 milliards de fois la masse du soleil ! Le problème c’est qu’en général les quasars sont des objets plutôt lointains et celui-là est extrêmement lointain, il a été détecté à ce qu’on appelle un certain décalage vers le rouge extrêmement grand, un peu plus de 6, et quand on fait le calcul on s’aperçoit que ça veut dire que le trou noir qui est dans ce quasar s’est formé à peine 800 millions d’années après le Big Bang [Voir episode #216 de Podcast Science sur Hubble pour une description de ce que ce décalag vers le rouge veut dire]. On se pose la question suivante : comment se fait-il qu’un trou noir aussi gigantesque ait eu le temps de se former en un laps de temps aussi bref. Normalement, comme je viens de l’expliquer, le taux de croissance d’un trou noir est limité, même s’il absorbe beaucoup de matière, même s’il est dans un environnement extrêmement riche, comme c’était le cas probablement dans l’univers très jeune ou très primitif ou évidemment il y avait beaucoup plus de matière qu’aujourd’hui, en faisant le calcul on a du mal à expliquer comment un trou noir, même si initialement il peut faire quelques millions de fois la masse du soleil, peut multiplier sa masse d’un facteur mille en si peu de temps. On voit que cette histoire de taux d’accrétion limité ou pas pour les trous noirs pose des questions très intéressantes sur la formation et l’origine de ces objets.

En ce qui concerne la possibilité pour les trous noirs, au lieu de grossir, de perdre de l’énergie et de la matière, c’est un sujet absolument fascinant que je traite dans deux ou trois chapitres. On sort un peu de l’astrophysique traditionnelle parce que ça fait appel à un modèle théorique qui n’a pas encore été confirmé sur le plan expérimental, c’est l’hypothèse qu’on appelle les minis trous noirs. C’est l’hypothèse, imaginée dans les années 80 par plusieurs chercheurs, que peu après le Big Bang, des micros ou minis trous noirs, c’est à dire des trous noirs de tailles microscopiques, aient pu se former, non pas par le processus habituel normal astrophysique, c’est à dire l’effondrement gravitationnel d’une étoile massive ou d’un amas d’étoiles, mais simplement par la pression extérieure énorme. On imagine le très jeune univers comme une sorte de plasma extrêmement dense et chaud, avec des fluctuations, et on peut calculer que dans certaines conditions, la pression extérieure puisse faire s’effondrer les fluctuations. Les fluctuations ou grumeaux ne s’effondrent pas sous leur propre gravité, qui n’est pas suffisante, mais sous la pression extérieure. Ça formerait donc ce qu’on appelle des trous noirs primordiaux, quand on fait des calculs on s’aperçoit qu’on peut avoir des trous noirs primordiaux extrêmement petits, à la fois en taille et en masse, et d’autres trous noirs primordiaux qui pourraient aller jusqu’à quelques millions de fois la masse du soleil. Les trous noirs primordiaux relativement massifs pourraient être un début d’explication pour ces trous noirs géants qu’on observe et qui sont apparu si tôt dans l’histoire de l’univers. En ce qui concerne les trous noirs primordiaux microscopiques, ils posent des questions absolument fascinantes. Un trou noir microscopique c’est un trou noir qui au lieu d’avoir des masses d’étoiles ou de millions de fois des masses d’étoiles, a la masse à peu près d’un astéroïde ou d’une montagne, 10^15 grammes disons, ça veut dire que la taille correspondante est à peu près celle d’un proton. Du coup, on a des objets qui sont également quantiques, ils ne peuvent plus être  décrits uniquement par les lois de la relativité générale. C’est connu, et je le raconte dans le livre, le célèbre Stephen Hawking a commencé par faire un calcul du comportement d’un mini trou noir primordial microscopique, il a eu la surprise initialement de s’apercevoir que ce trou noir se comportait différemment des trous noirs astrophysiques normaux et notamment qu’il pouvait perdre de l’énergie et s’évaporer, c’est l’évaporation quantique des trous noirs. C’est dû à l’introduction de phénomènes typiques de la mécanique quantique pour décrire l’espace-temps extérieur au trou noir, l’influence d’un champ gravitationnel très puissant sur l’espace-temps quantique produirait ce phénomène d’évaporation d’un trou noir. Ça veut dire que par exemple un trou noir primordial de 10^15 grammes, qui se serait formé quasiment au moment du Big Bang, aurait un temps de vie limité qui est de l’ordre de l’âge de l’univers actuellement connu, c’est à dire à peu près 14 milliards d’années. Ces trous noirs là seraient en train de s’évaporer aujourd’hui. On avait donc une belle théorie qui faisait une prédiction observationnelle. L’évaporation d’un trou noir, dans le stade final, c’est un énorme déversement d’énergie, des bouffées de rayons gamma, ce genre de choses, etc. Il y a beaucoup de bouffées de rayons gamma qui sont observées dans l’univers mais aucune ne correspond aux calculs de l’évaporation quantique d’un mini trou noir. L’absence d’observation pose une contrainte très forte sur la densité de micro trous noirs, en admettant qu’ils se soient bel et bien formés au cours du Big Bang, car pour l’instant rien ne le garantit, la théorie est séduisante mais rien ne la garantit. Donc ça limite la densité de micro trous noirs dans l’univers, ça veut dire il n’y a pas à s’inquiéter sur le fait qu’un micro trou noir pourrait débarquer comme cela, à l’impromptu, dans notre système solaire, passer près de la terre, en bouffer la moitié, ou traverser la terre de part en part, traverser le soleil etc. comme parfois certains l’ont imaginé, parce que si les micro trous noirs existent, il y en a très très peu, il y en a moins d’un par année-lumière au cube par exemple, et un micro trou noir, je le répète, ça a la taille d’un proton, pas plus. Je le répète les micro trous noirs sont fascinants au moins sur le plan théorique parce qu’ils donnent une idée sur la façon dont on peut mettre ensemble la relativité générale classique et la mécanique quantique et on voit justement avec ce phénomène d’évaporation qui va à l’encontre des idées classiques sur les trous noirs que dès qu’on introduit des phénomènes quantiques, et bien on a des comportements nouveaux. Ça a suscité une quantité de travaux extrêmement importants et pertinents sur l’évaporation des trous noirs. Quand un trou noir s’évapore, restitue-t-il toute l’information qu’il a absorbée ? Je disais tout à l’heure que l’une des grandes propriétés des trous noirs, c’est qu’un trou noir à l’équilibre de l’extérieur est caractérisé par trois paramètres, c’est donc un puits gigantesque d’informations puisque toutes les informations sur la matière dont il est constitué sont confinées dans le trou noir, on appelle cela l’entropie.

Evaporation de trou noir, par Puyo

Lorsqu’un trou noir s’évapore, on se pose naturellement la question, est-ce que cette information est restituée dans le rayonnement issu de l’évaporation du trou noir ou pas ? C’est une question qui n’est pas encore complètement résolue, ça a été l’objet de grands débats et grandes disputes entre différentes écoles. Il y avait l’école de Hawking qui initialement disait qu’il y avait une partie de l’information irrémédiablement perdue. D’un autre côté il y a l’école des physiciens quantiques (en physique quantique normalement l’information ne peut pas être perdue), qui disait que forcément, on devait récupérer toute l’information. Pour résoudre le débat il faut développer des théories de gravitation quantique et on sait qu’il y a des approches encore en construction comme la théorie des cordes, la gravité quantique à boucles, je consacre un petit chapitre dans le livre, c’est un peu le chapitre “extrême”.

Nico : Vous êtes même assez critique.

JPL : Oui oui. Ces théories sont donc développées pour essayer de résoudre cette question. La tendance semble pencher actuellement en faveur d’une information qui serait entièrement récupérée lors de l’évaporation d’un trou noir mais les choses ne sont pas complètement encore jouées.

Nico : Juste deux mots par rapport à cette évaporation, vous allez peut-être me contredire, autant les micro trous noirs ne sont pas prouvés, par contre le phénomène d’évaporation peut exister aussi dans les gros trous noirs mais est extrêmement négligeable c’est ça ?

JPL : Oui à partir du moment où c’est un phénomène essentiellement quantique, dès qu’on passe au niveau macroscopique, ce phénomène a tendance à s’effacer, sauf si on dispose d’un temps suffisant. Evidemment pour les trous noirs astrophysiques, ne parlons pas des trous noirs géants, actuellement ces phénomènes d’évaporation quantique sont totalement inexistants mais on peut imaginer, spéculer, des gens l’ont fait, des gens brillants comme Penrose notamment. Si l’on est par exemple dans un univers ouvert avec un temps futur quasiment infini, à la longue, les processus quantiques, quelles que soient leurs probabilités extraordinairement faibles, finiront par se produire, y compris l’évaporation de trous noirs géants. Mais dans des temps, pas infinis, mais extraordinairement démesurés par rapport à nos échelles.

Roger Penrose montrant un schéma de trou de ver en classe

Nico : Ok, je crois qu’on va parler un peu observation et comment on prouve qu’il y a des trous noirs.

Julie : Il semble exister beaucoup de sortes de trous noirs différents. A partir d’un moment dans le livre on ne parle plus de “candidats trous noirs” mais de trous noirs. Est-ce que c’est seulement théorique et s’ils existent où les trouve-t-on? Parmi les trous noirs qu’est ce qui reste à confirmer par l’observation?

JPL : Ce sont uniquement des arguments indirects parce que évidemment par construction on ne peut pas détecter directement un trou noir mais ce qu’on observe ce sont les effets particuliers que les trous noirs vont exercer sur leur environnement, par exemple sur un disque d’accrétion ou sur des amas d’étoiles dans lesquels ils peuvent se trouver, etc. Le statut observationnel des trous noirs a beaucoup évolué au cours de ces trente ou quarante dernières années, moi je me souviens quand j’ai commencé mes travaux sur les trous noirs c’était à la fin des années 70. Moi je venais de la physique théorique et des maths, ce qui m’intéressait c’était vraiment les propriétés mathématiques et physiques des trous noirs, en débarquant à l’observatoire de Paris-Meudon je voyais bien que les astronomes attendaient quelque chose d’un peu plus consistant sur l’existence des trous noirs. La première chose que j’ai commencé à faire c’est d’abord de m’amuser à calculer à quoi pourrait ressembler un trou noir entouré de structures lumineuses, disque d’accrétion, etc., si l’on pouvait voyager dans l’espace et s’en approcher suffisamment près. La deuxième phase c’était d’étudier des situations plus astronomiques, c’est à dire à quoi est-ce que cela pourrait ressembler de loin ? Il faut savoir qu’un disque de gaz autour d’un trou noir stellaire est chauffé dans ses parties internes à plusieurs millions ou dizaines de millions de degrés, et donc doit émettre des bouffées de rayonnements X. Tout ça se met en équation, on a des modèles de disque d’accrétion, on calcule le spectre du rayonnement qui est émis, on fait des prédictions, et c’est ce qui a été observé à partir de la fin des années 70, on a embarqué des télescopes à rayons X dans l’espace, et on s’est aperçu qu’il y avait des systèmes étranges qui sont appelés sources X binaires, c’est à dire des couples d’étoiles dans lesquels on ne voit qu’une composante dans le domaine électromagnétique ordinaire. Il y a des bouffées extraordinaires de rayonnements X  qui sont émises, vraisemblablement dues à l’accrétion de gaz sur un compagnon compact. Il faut savoir faire la différence entre une étoile à neutrons, qui peut être capable de produire le même type de phénomènes, et les trous noirs. Un ensemble de méthodes et de mesures permettent d’essayer de faire la différence entre une étoile à neutrons et un trou noir, c’est essentiellement une question de masse critique. On sait que les étoiles à neutrons ne peuvent pas dépasser une certaine masse critique de l’ordre de deux à trois fois la masse du soleil, quand on arrive à peser indirectement les composantes invisibles des sources X  binaires et que cette masse dépasse deux à trois fois la masse du soleil, on appelle ça un candidat trou noir. A la fin des années 70 on appelait ça des candidats, mais aujourd’hui on a des candidats tellement bons qu’on peut dire qu’ils ont passé leur examen et que ce sont réellement des trous noirs ! Sinon il faudrait remettre la physique et l’astrophysique à zéro pour interpréter ces objets.

Nico : En tout cas on n’a pas de meilleure explication aujourd’hui…

JPL : Parce qu’il n’y a absolument pas d’explication alternative, bon il y en a mais elles sont extraordinairement loin d’expliquer l’ensemble des phénomènes qui sont observés. Je donne ici l’exemple de trou noir de type stellaire, il faut dire que pour les trous noirs, a priori la théorie prédit l’existence de trous noirs de toutes tailles et de toutes masses. J’ai dit un mot sur les trous noirs microscopiques qui eux ce seraient formés potentiellement uniquement lors du big bang. Ensuite dans l’univers, l’évolution des étoiles nous apprend que les étoiles extrêmement massives peuvent développer un cœur qui va s’effondrer, avec une masse supérieure à la limite de stabilité des étoiles à neutrons, et donc ce cœur qui s’effondre, pour l’instant on a pas d’autre alternative astrophysique que la formation d’un trou noir de type stellaire, c’est à dire que sa masse va faire quelques fois la masse du soleil, mais elle ne va pas dépasser 50 fois la masse du soleil. On sait que les plus grosses étoiles ne font que 100-150 fois la masse du soleil, donc le cœur de ces étoiles est un peu plus petit. Ça ce sont les trous noirs stellaires. On détecte aujourd’hui essentiellement les trous noirs stellaires, je le répète, dans ces sources X  binaires, c’est à dire dans un couple d’étoiles. Initialement vous avez deux étoiles, une étoile peu massive qui évolue lentement et reste gazeuse très longtemps, l’autre étoile éventuellement plus massive, elle explose en supernova, en hypernova, son cœur forme un trou noir, et vous avez une phase dans l’histoire de ce couple stellaire où il y a une étoile qui reste à l’état gazeux avec un compagnon qui est un compagnon compact par exemple un trou noir. Le trou noir va commencer à fonctionner comme un véritable “aspirateur gravitationnel”, il va aspirer l’enveloppe gazeuse de la partenaire. C’est ce gaz là qui, arraché à l’étoile gazeuse principale, va spiraler autour du trou noir et avant de disparaître, va être chauffé à des millions de degrés et va émettre ces rayons X qui sont observés. Il y a également des trous noirs qu’on appelle trous noirs massifs, et des trous noirs super massifs. Les trous noirs massifs c’est à partir d’un million de fois la masse du soleil, les super massifs plusieurs milliards de fois, ces derniers sont sensés exister en un seul exemplaire au centre de quasiment chaque galaxie. Par exemple au centre de notre galaxie, la voie lactée, il y a une source de rayonnements qui s’appelle Sagittarius A* qui s’interprète aujourd’hui comme un trou noir relativement massif qui produit relativement peu d’énergie parce qu’il n’a pas beaucoup de nourriture, il a pu en avoir dans le passé mais actuellement il n’en a pas beaucoup, mais autour il y a des étoiles. C’est à dire que ce trou noir, donc la masse est aujourd’hui estimée à 4 millions de fois la masse du soleil, est au cœur d’un amas d’étoiles, ces étoiles là, on les voit au télescope, et on voit ces étoiles bouger.

Image d’animation de l’observatoire montrant les mouvements des astres que l’on a identifié autour du trou noir au centre de notre galaxie. En rouge le mouvement observé d’un nuage de gaz. Crédit : ESO/MPE/M. Schartmann/L. Calçada

Cela fait plus de 20 ans qu’on suit le mouvement de ces étoiles, on les voit bouger autour d’un centre de gravité invisible, mais on soupçonne qu’il y a là une masse qui les fait bouger, parce que les vitesses mesurées de ces étoiles sont anormalement élevées. La seule façon d’expliquer la dynamique globale de l’amas, c’est la présence d’une masse de 4 millions de fois la masse du soleil. Ca c’est un trou noir massif. Il y a donc aussi des trous noirs super massifs, dont les masses dépassent plusieurs milliards de fois la masse du soleil, et ces trous noirs sont également repérés dans de nombreuses galaxies. Je le disais tout au début, aujourd’hui les trous noirs de masses records ont été détectés par leurs émissions de type quasar, c’est à dire qu’ils sont les noyaux de galaxies extrêmement brillantes. Ces objets sont aussi extrêmement lointains. Les estimations de masse sont évidemment difficiles à faire, c’est fondé sur la luminosité des quasars etc., bref, actuellement le record semble être détenu par un trou noir qui fait 40 milliards de fois la masse du soleil. Je ne sais pas si vous imaginez, c’est quelque chose d’absolument gigantesque, phénoménal !

Julie : On a du mal à s’imaginer.

La galaxie du sombrero par Hubble. Dans les années 90, une équipe de chercheurs à montré qu’un trou noir super massif (masse supérieur à 1 milliard de masses solaires) se trouvait au centre de cette galaxie. Crédits : NASA/ESA and The Hubble Heritage Team (STScI/AURA)

JPL : La question se pose justement de comment des trous noirs aussi gros ont pu être créés. Ils ont  soit été dans des environnements extraordinairement denses, ou alors ils sont le résultat de la fusion de plusieurs trous noirs géants, parce qu’il ne faut pas oublier que les grosses galaxies se trouvent dans des amas de galaxies. Ces galaxies dans leurs amas sont généralement assez serrées, elles se tamponnent et entrent en collision. On a déjà des observations de galaxies en collision et en fusion qui ont commencé à mélanger leurs trous noirs. Chacune de ces deux galaxies a déjà un trou noir central gigantesque et lorsque les galaxies fusionnent, les deux gros trous noirs peuvent se mettre en orbite l’un de l’autre et puis en perdant de l’énergie par ondes gravitationnelles, ils vont finir par fusionner. Donc on peut quand même imaginer plusieurs grosses galaxies géantes qui ont fusionné et qui ont fini par mélanger leurs trous noirs centraux pour faire des trous noirs gigantesques. Mais ça pose donc des questions intéressantes sur la formation de ces trous noirs absolument géants sur des échelles de temps nécessairement inférieures à l’âge de l’univers.

J’ai oublié un cas intermédiaire, qu’on appelle justement les trous noirs de masses intermédiaires, ce serait des trous noirs dont les masses seraient de quelques milliers de fois la masse du soleil. Ce ne sont donc pas des trous noirs stellaires, ce ne sont pas des trous noirs super massifs au sein des galaxies, on pense qu’ils pourraient se trouver au centre de certains amas d’étoiles très serrés qu’on appelle les étoiles globulaires. Les astrophysiciens ont longtemps douté de l’existence de ces trous noirs de masses intermédiaires, mais aujourd’hui on commence à avoir des observations relativement convaincantes sur les trous noirs de masses intermédiaires mais qui seraient en relativement petit nombre.

Pour résumer, dans une galaxie donnée, vous avez un trou noir géant, en général, à part pour quelques galaxies irrégulières comme les Nuages de Magellan, mais une galaxie à peu près typique a un trou noir géant au centre, un seul. Dans le reste de la galaxie, qu’elle soit elliptique ou spirale ou autre, vous avez des dizaines de millions de trous noirs stellaires, et puis dans quelques uns des amas globulaires dans deux, trois ou quelques dizaines d’amas au maximum, il y a des trous noirs de masses intermédiaires. Donc la règle commune ce sont les trous noirs stellaires, ça vous parait beaucoup plusieurs dizaines de millions de trous noirs stellaires mais ça ne représente qu’un dix-millième de l’ensemble des étoiles dans une galaxie. Ca montre bien qu’il faut quand même des conditions extrêmes pour fabriquer un trou noir, il faut qu’un cœur d’étoile dépasse la masse critique et on estime qu’il y a peut-être une étoile sur dix mille capable d’engendrer un trou noir. On sait que les stades terminaux de l’évolution des étoiles, en général c’est la formation de naines blanches, si les masses d’étoiles ne dépassent pas initialement huit à neuf fois la masses solaires, et puis entre neuf masses solaires et à peu près quarante fois la masse du soleil, c’est sensé former des étoiles à neutrons, détectables sous forme de pulsars. Il faut que des étoiles aient des masses initiales supérieures à quarante masses solaires pour avoir la possibilité de développer un cœur qui va s’effondrer pour former un trou noir stellaire et donc on estime que peut-être qu’une étoile sur dix mille dépasse cette masse là.

Vue d’artiste d’un pulsar aspirant la matière de son étoile compagnon. Crédits: NASA-Dana Berry

Nico : Et finalement du coup quand même, les trous noirs ne sont pas si rares que ça dans l’univers, parce qu’on en trouve et on en trouve de plus en plus.

Julie : Et on les observe.

JPL : A partir du moment où on dit qu’il y a plusieurs dizaines de millions de trous noirs dans notre galaxie, sans compter les autres galaxies, on peut dire qu’il y a beaucoup de trous noirs dans l’univers. Mais ceci dit, statistiquement, ce sont des objets rares, ça veut dire que le trou noir astrophysique statistiquement le plus proche de nous (parce que souvent évidemment les gens se disent mais alors est-ce qu’un trou noir peut menacer le système solaire etc.), il est très vraisemblablement à plusieurs milliers d’années-lumière.

Nico : On va en venir au gros sujet du moment, c’est la singularité, ça représente forcément une partie importante du livre. Vous expliquez à plusieurs reprises dans vos livres, je dis deux livres parce qu’il y a deux tomes, mais en plus vous en parlez aussi dans d’autres libres, que la relativité générale contient intrinsèquement des “singularités”, des grandeurs qui tendent vers l’infini. En particulier, il y a les premiers instants du Big Bang, pour lequel on ne sait pas bien expliquer les tous premiers instants, parce que ce sont vraiment les limites de nos équations.  Ce sont des sortes de “trous” dans la théorie. Le centre des trous noir fait aussi partie de cette catégorie. Pire encore, dans ce cas là, il se situe derrière un horizon des évènements qui fait qu’on ne peut même pas les observer. Que pouvez vous nous raconter sur cette singularité? Y en a-t-il toujours une ? Qu’est-ce qu’on sait ? Est-ce qu’on peut parler de “savoir quelque chose” ?

JPL : Il faut savoir qu’en mathématique, il y a des fonctions qui présentent des singularités, c’est à dire essentiellement des infinis. Transposé maintenant dans le domaine de la physique, puisque la physique s’exprime forcément par des équations mathématiques, il peut également y avoir des singularités physiques, c’est le cas de la plupart des théories physiques, même de quasiment toutes les théories physiques, et c’est notamment le cas de la relativité générale. Une singularité, c’est essentiellement en fait une singularité de courbure, c’est à dire une zone de l’espace-temps où suite par exemple à un effondrement gravitationnel, la courbure devient infinie. Si la courbure devient infinie, la singularité sort du champs de la physique, non seulement la courbure devient infinie, les paramètres physique qui peuvent être associés, par exemple la densité de matière, la température, l’énergie etc., deviennent également infinis. Il est clair que les physiciens détestent les singularités, tout simplement parce qu’elles échappent au champ de la physique. Alors de deux choses l’une, soit les singularités sont une part intrinsèque des théories physiques, soit elles marquent leurs limites de validité. Ca a été un grand débat, dans les années 70, des théorèmes importants sur l’occurrence des singularités en relativité générale ont été démontrés, essentiellement par Hawking et Penrose, qui ont démontrés que dans les conditions typiques de l’effondrement gravitationnel pour former un trou noir, il y avait inévitablement une singularité de courbure qui se formait. Ça peut être une singularité de type ponctuel ou annulaire mais malgré tout, ce sont quand même des régions, des points de l’espace-temps, où la courbure devient infinie. C’est le même type de démonstration pour éventuellement une singularité qui se trouverait au tout début de l’expansion de l’univers, qui s’identifierait avec le Big Bang proprement dit. L’autre option c’est de dire que là on a extrapolé la théorie physique au maximum et au delà de ce qu’elle peut réellement décrire et on se dit que si on améliore la théorie, notamment en y introduisant la physique quantique, on devrait éliminer ces singularités qui ne seraient en fait pas physiquement pertinentes et marqueraient donc simplement la limitation des théories. La tendance aujourd’hui c’est plutôt de penser cela, et c’est l’une des raisons pour lesquelles on essaie de quantifier le champ de gravitation par ces théories nouvelles qui ont essayé de marier, un peu de force, la relativité générale et la physique quantique, et on a donc des variantes comme la théorie de cordes, la gravité quantique à boucles etc. et dans toutes ces variantes là, même si elles ne sont pas encore tout à fait théoriquement abouties, mais il y a quand même des pistes qui sont largement explorées, les singularités en tant que telles sont éliminées. On les remplace par quoi ? Par exemple la singularité du Big Bang ou la singularité du trou noir est remplacée par ce qu’on appelle le Big Bounce, un grand rebond. Par exemple vous prenez un effondrement gravitationnel, à partir d’une certaine échelle quantique, qu’on appelle l’échelle de Planck (ou à peu près l’échelle de Planck), les lois de la physiques quantiques entrent en jeu, modifient les propriétés de la gravitation, peuvent éventuellement rendre la gravitation répulsive et donc effectivement l’espace-temps ne peut pas s’effondrer indéfiniment pour créer une singularité, il rebondit et donc il n’y a pas de singularité.

Se débarrasser des singularités, par Puyo

Johan : Donc le trou noir aura une surface plane ?

JPL : Si on imagine la formation d’un trou noir, la matière et l’énergie s’effondrent et puis au lieu d’atteindre un nœud de courbure au centre du trou noir, ça rebondit. Mais  la matière et l’énergie qui rebondissent ne peuvent pas ressortir de l’horizon des évènements donc tout ça reste caché. C’est tout le problème, ces évènements ne peuvent être décrits que par des théories, difficilement expérimentables, parce que ces choses-là restent cachées, aussi bien les singularités à l’état pur, ou ces petites suppressions de singularité avec rebond, ça reste caché derrière des horizons des évènements. Voilà un peu le statut des singularités aujourd’hui, la physique a plutôt tendance à vouloir les éliminer. Je raconte ça dans un autre livre, consacré à l’infini, et les singularités sont l’une des manifestations de l’infini parmi d’autres, il n’y a pas de singularités qu’en relativité générale, quasiment chaque théorie physique à un moment a une singularité, quand on regarde l’histoire des sciences, il y a eu des efforts considérables pour tenter d’éliminer les singularités en améliorant la théorie. A chaque fois qu’on améliore la théorie, il y des singularités imprévues qui apparaissent, un peu comme le Phoenix qui renait de ses cendres sous une autre forme et c’est finalement un des moteurs d’amélioration des théories pour éliminer les singularités. Peut-être qu’on n’y arrivera jamais parce qu’à chaque fois qu’on trouve de nouvelles théories, il y a d’autres singularités auxquelles on n’avait pas pensé. C’est un statut assez mystérieux et assez fascinant que le statut des singularités. On a quand même plutôt tendance à penser aujourd’hui qu’une vraie bonne théorie de la physique ne devrait pas avoir de singularité mais c’est peut-être le vœu pieux du physicien qui déteste qu’il puisse y avoir des régions de l’espace-temps totalement inaccessible à son entendement et à sa description, ce qui serait le cas des vraies singularités.

Johan : Ou le mathématicien jaloux qui préfère garder l’infini dans son jardin. Vous avez beaucoup parlé de prédictions théoriques comme les singularités  sur les trous noirs et donc ces prévisions ne sont pas observables. J’imagine qu’il doit y avoir des choses sur les trous noirs qui ne seront pas observables, qui ne seront pas vérifiables. Est-ce qu’on fait vraiment encore de la science quand on parle de choses comme ça qui ne sont pas vérifiables ?

Trou noir en rotation, par Puyo

JPL : On peut se questionner sur le statut épistémologique de certaines théories qui sont effectivement poussées tellement loin qu’il n’y a pas moyen de les vérifier ou de les réfuter par exemple selon les critères habituels dits “popperiens” etc.. Bon après c’est le boulot du physicien théoricien que d’extrapoler. Faisons abstraction quelques minutes des trous noirs, regardons l’histoire des sciences, regardons juste ce que l’on appelle la révolution copernicienne, le fait que la terre tourne sur elle même et autour du soleil, le double mouvement de la terre, a priori comme ça quand on regarde l’histoire des sciences on croit que c’est quasiment acquis, on sait que Copernic a eu quelques difficultés mais on se dit que ça va, avec Kepler, Galilée et Newton c’est complètement acquis mais pas du tout. Expérimentalement le double mouvement de la terre a été montré après la mort de Newton. Le fait d’abord que la terre tourne autour du soleil c’est un phénomène qui a été enfin montré expérimentalement en 1727, l’année de la mort de Newton, donc plus d’un siècle après Galilée et Kepler. Quant à la rotation de la terre, c’est la fameuse période du pendule de Foucault au milieu du XIXe siècle qui a enfin montré indubitablement par une preuve expérimentale que la terre tournait sur elle même.

Réinstallé au Panthéon en 1995, ce pendule a été initialement installé par Foucault en 1851. Il mesure 67 mètres et porte une masse de 28 kilogrammes. Une fois lancé, ce pendule oscille pendant 6h. La période (aller-retour) étant de 16,5 s, le pendule dévie de 11° par heure. Crédits : Christophe EYQUEM

Donc on voit bien que si on s’en tenait aux purs critères “une théorie n’est valable que si elle est réfutable et falsifiable”, Copernic et Galilée n’auraient jamais dû être pris au sérieux. Ce qui est d’ailleurs une des raisons du procès de Galilée, ça veut dire que les contradicteurs de Galilée n’étaient pas forcément des hommes de religion totalement obtus qui refusaient de voir la vérité, ils avaient une certaine pertinence en disant “Vous ne nous apportez pas la preuve expérimentale”, comme en plus ça heurtait les croyances religieuses de l’époque il y a eu un procès de l’inquisition, mais c’est vrai qu’il n’avait pas de preuve expérimentale. Aujourd’hui c’est un peu pareil, un grand nombre de prédictions de la physique théorique, certaines liées aux trous noirs, puis en cosmologie, les hypothèses des multivers, dimensions supplémentaires etc., tout ça c’est fascinant mais on a absolument aucune preuve expérimentale. Est-ce que c’est pour ça qu’il faut s’arrêter de travailler dessus ? Surtout pas ! Il faut continuer à travailler et puis éventuellement essayer de trouver des preuves, des traces indirectes. C’est ce qu’on a fait pour les trous noirs, au départ la théorie relativiste des trous noirs s’est construit à la fin des années trente, les premiers calculs d’effondrements gravitationnels relativistes c’était Oppenheimer en 1939. Après vraiment la théorie physico-mathématique des trous noirs s’est développée dans les années 60 donc c’est Hawking, Penrose, Carter et Wheeler et quelques autres, mais à cette époque là il n’y avait strictement aucun statut expérimental des trous noirs, comme je l’ai dit tout à l’heure, le statut expérimental des trous noirs a commencé à se profiler seulement à la fin des années 70 à partir du moment où on a commencé à être capables d’embarquer des télescopes à rayons X dans l’espace et on s’est aperçu qu’il y avait des phénomènes bizarres dans l’univers dont l’interprétation faisait très vraisemblablement appel à des trous noirs, sinon on se trouve devant un grand vide, c’est à dire une absence d’autre explication plausible.

Nico : Comme c’est important d’extrapoler, j’avais une petite question sur la toute fin du livre, où vous parler d’un “univers trou noir”…

JPL : Ah ! L’univers trou noir.

Nico : Et encore, je ne vous parle pas de l’univers “trou de ver” (se marre), et donc c’est une idée selon laquelle tout l’univers serait en fait contenu dans un trou noir géant. C’est une idée extrêmement intéressante, ce qui m’a le plus étonné en fait dans cette idée là, c’est que vous expliquez qu’elle n’est pas si farfelue.

JPL : Ca repose sur un petit calcul tout simplement. Pour qu’une masse donnée se comporte comme un trou noir, il faut que cette masse soit confinée dans un certain volume critique. Et bien on s’aperçoit que la masse estimée aujourd’hui de notre univers, disons l’équivalent  de quelques centaines de milliards de galaxies, sachant que dans chaque galaxie il y a à peu près 10^10 – 10^11 étoiles, ça fait une masse d’environ 10^23 fois la masse du soleil, quelque chose comme ça. Cette masse elle est confinée dans un volume dit de l’univers observable, dont on peut mesurer la taille en mesurant les paramètres cosmologiques (mais on ne peut pas mesurer la taille de l’univers complet), elle est de l’ordre du rayon critique correspondant à la masse. Des chercheurs dès les années 60 se sont posés la question, est-ce que notre univers ne pourrait pas être un trou noir ? Alors pour ça évidemment il faudrait que ce soit un univers fermé, fini, par exemple une hypersphère, et non pas un espace euclidien infini. Si l’univers est hypersphérique, on peut avoir un rayon de l’hypersphère de l’ordre du rayon de Schwarzschild [rayon de l’horizon des événements] associé à la masse qu’il contient, évidemment ça pose des quantités de questions, s’il s’agit d’un trou noir, est-ce qu’il y a une sorte de “méta-univers” dans lequel ce trou noir est contenu ?

Nico : Oui est c’est pour ça que j’en parle maintenant parce que, où est-ce qu’elle est la singularité si l’univers est un trou noir ?

JPL : C’est le Big Bang !

Nico : Ah ce serait le Big Bang ?

JPL : Ce serait le Big Bang, simplement le Big Bang serait une singularité nue, c’est à dire qu’on la verrait, elle ne serait pas cachée derrière un horizon, puisque si ça devait être un trou noir, on est dans le trou noir, et donc la singularité ne nous est pas cachée, puisqu’on est pas à l’extérieur du trou noir.

Nico : D’accord.

JPL : Mais bon c’est relativement peu étudié.

Nico : Oui puis je le reprécise, c’est la fin du livre, c’est un peu une ouverture, ce n’est pas dans le gros des théories développées dans le livre.

Johan : Moi j’avais une question là dessus parce qu’à un moment vous dites que quand vous êtes dans un trou noir il n’y a pas de raison que la lumière n’entre pas et donc on voit l’extérieur, et donc si l’univers était un trou noir, on verrait l’extérieur de l’univers dans ce cas là non ?

Nico : C’est les limites de l’univers observable… je sais pas…

JPL : Alors il est exact qu’une fois qu’on est à l’intérieur d’un trou noir, même si on est entraîné inéluctablement vers la singularité, on reçoit de l’information de l’univers extérieur. En fait la surface d’un trou noir c’est une sorte de membrane unidirectionnelle, c’est à dire qu’on peut passer de l’extérieur à l’intérieur mais on ne peut pas passer de l’intérieur à l’extérieur. Ca veut dire que la membrane laisse passer l’information venant de l’extérieur, l’information ça peut être tout simplement des rayons lumineux, et donc on fait des calculs et on a même fait des visualisations ! J’ai un collègue qui s’appelle Alain Riazuelo etqui travaille à l’institut d’astrophysique de Paris, il a fait des simulations extraordinaires ou il calcule le paysage de l’espace-temps dans le voisinage immédiat d’un trou noir ou carrément à l’intérieur d’un trou noir, et on voit bien qu’à l’intérieur d’un trou noir il y a des rayons lumineux qui parviennent de l’extérieur, donc on voit une partie de l’univers extérieur. Effectivement si notre univers lui-même était un trou noir plongé dans une sorte de méta-univers, on se dit mais alors on pourrait voir de la matière venir de l’horizon cosmologique, qui correspondrait plus ou moins à l’horizon des évènements d’un trou noir, ce qui n’est pas le cas.

La voûte céleste tel que la verrait un observateur situé près d’un hypothétique trou noir devant le centre de notre galaxie. À cause de la déflexion de la lumière passant près du trou noir, l’image de la Voie lactée n’est plus rectiligne, et les principales constellations sont très déformées. Simulation numérique par Alain Riazuelo /IAP.

Nico : Pour finir avant des questions d’auditeurs, on va parler un peu du titre du livre, “le destin de l’univers”. Le dernier chapitre est justement consacré à ce que l’on peut dire sur le futur. Ce qui est assez étonnant c’est qu’en fait dans un peu tous les cas, le destin de l’univers parait assez sombre, pour faire un résumé des choses les plus probables, ça se joue sur comment évolue l’énergie sombre. Si l’énergie sombre est constante,  c’est le moins pire des cas, on se met petit à petit à ne plus voir les autres galaxies et se retrouver seul au milieu de “notre” univers. Si l’énergie sombre augmente, là on se dirige vers un “Big Rip”, où l’expansion de l’univers devient infinie et je ne sais pas trop ce qu’il se passe précisément mais ça n’avait pas l’air très joyeux… Et si l’énergie sombre diminue, on se retrouve dans le cas du Big Crunch où tout se resserre sur soi-même etc. C’est assez étonnant parce qu’on est passionné en lisant le bouquin par plein de belles théories, d’imaginer parfois des voyages dans le temps etc. et puis on se retrouve à cette fin avec cette vision du futur extrêmement noire, alors c’est quoi, du pessimisme? Du réalisme?

JPL : Absolument pas, il n’y a aucune notion de pessimisme ou d’optimisme là dedans, le titre général du bouquin c’est le destin de l’univers, et des objets qu’il contient, donc l’univers dans son ensemble. C’est pour ça qu’en fait les trous noirs sont un des destins possibles de l’évolution des étoiles massives, donc une partie du contenu de l’univers ou des centres galactiques. Après il y a l’univers lui même en tant que tel et là on rentre dans le domaine de la cosmologie, on sait que l’univers est en expansion actuellement cela s’observe, et la grande question c’est de savoir si dans le futur cette expansion va se poursuivre à jamais ou est-ce qu’un jour ça peut s’inverser et donner une contraction générale de l’univers et aboutir comme vous l’avez mentionné à un Big Crunch. Dans le cas d’un Big Crunch, la fin de l’univers n’est pas si noire que ça, elle est au contraire éblouissante, c’est une sorte de retrouvailles du Big Bang initial, c’est à dire des conditions initiales de l’univers etc. C’est une fin chaude, qui n’est pas repoussée dans un futur infini, parce que ça se produirait dans un temps fini dans le futur même, si c’est plusieurs dizaines de milliards d’années. En revanche, dans le cas d’un univers dit ouvert, c’est une expansion perpétuelle, ça veut dire que l’univers se dilate perpétuellement donc se dilue, donc la densité d’énergie moyenne dans l’univers diminue, ça veut dire que la température moyenne de cet univers ouvert tend vers le zéro absolu (-273,15 °C). Il faut savoir qu’aujourd’hui déjà, la température moyenne de l’univers est mesurée, elle est de l’ordre de 2,7 kelvin, dans l’échelle absolue de température, ça veut dire -270°C, donc l’univers moyen est déjà aujourd’hui relativement froid. Mais il peut être beaucoup plus froid que ça, et pour tendre vers le zéro absolu il faudrait un temps infini. Si en plus la vitesse de l’expansion de l’univers s’accélère comme semblent le suggérer des dernières mesures avec notamment une forme d’énergie, l’énergie sombre, dont j’ai parlé tout à l’heure, et qui accélère l’expansion de l’univers, du coup le refroidissement est encore plus brutal et spectaculaire. Dans le cas d’un univers ouvert, la fin est plutôt sombre mais au sens strict du terme, pas au sens pessimiste, ça veut dire effectivement une diminution d’énergie, la température tend vers le zéro absolu, ça veut dire que sur des périodes de temps extraordinairement grandes, toutes les étoiles vont finir un jour par s’éteindre, et que la plupart des objets finiront par se transformer en trous noirs de toutes tailles, y compris des trous noirs supergéants. Dans un temps, pas infini mais extraordinairement grand, comme je l’ai dit tout à l’heure, même les gros trous noirs pourraient à leur tour commencer à s’évaporer, soumis à des phénomènes quantiques, ce qui réalimenterait un petit peu en énergie, en un bain de photons issus de l’évaporation des trous noirs, l’univers futur mais au bout du compte ça tendrait quand même vers le zéro absolu. Il n’y a rien de pessimiste là dedans parce que de toute façon c’est sur des échelles de temps sur lesquelles on peut mettre des chiffres mais qui sont absolument effarants, 10^10^70 années c’est quelque chose d’absolument faramineux, donc ça ne concerne absolument pas les échelles humaines…

Nico : Tout comme j’invite les auditeurs à lire le livre, dans le dernier chapitre justement vous faites l’exercice de préciser certains événements temporels dans le futur [se marre], dans 10^66 années etc.

Le trou noir d’Interstellar

Johan : J’avais une dernière question, moi ça m’avait intrigué,  on a parlé tout à l’heure d’Interstellar et de cinéma, vos livres sont aussi reconnaissables parce qu’il y a beaucoup de citations qui sont souvent issues de la littérature. Vous avez même écrits plusieurs romans et recueils de poésie. Est-ce que vous pensez que l’art, au sens large, et les sciences peuvent s’influencer mutuellement ?

JPL : Oui, je me suis énormément intéressé à ces interactions, ces cousinages un peu subtils de l’art et de la science, sans faire d’amalgames non plus, il est clair qu’il y a des points communs dans la création artistique et dans la création scientifique. On part forcément d’une intuition, d’une part d’imaginaire, de quelque chose, après on l’élabore. On l’élabore évidemment différemment quand on élabore un modèle de la physique, il faut obéir aux lois de la consistance mathématique, etc. Quand on élabore une œuvre d’art ça obéit à d’autres critères mais il n’empêche qu’au départ c’est un peu la même étincelle, issue de l’imagination et de la créativité. Ca c’est un premier aspect, un autre aspect c’est quand on regarde un peu en parallèle l’histoire des arts et des sciences, on voit bien que des domaines entiers de l’art, que ce soit en littérature, en poésie, s’influencent. J’ai écrit un livre entier là dessus qui s’appelle les poètes de l’univers, où je montre comment les connaissances astronomiques d’une époque, où la méconnaissance, influent la façon dont les poètes peuvent parler de l’univers, il y a des influences très nettes ! Par exemple au moment de la révolution copernicienne et galiléenne, il y a un changement de climat dans la littérature de l’époque, en tout cas chez les écrivains et les poètes qui s’intéressent à cet aspect là des choses et qui décrivent l’univers, c’est un choc culturel tel que ça ne peut pas ne pas se retrouver dans les œuvres. C’est pareil quand vous regardez la nature également, il est normal que les formes d’expressions artistiques soient influencées par les révolutions scientifiques, quand on regarde le XXe siècle, il est clair que certains mouvements artistiques du XXe siècle, comme le futurisme, le cubisme, etc., ont été en partie influencés par les révolutions relativistes et quantiques. La question peut-être plus intéressante mais plus difficile c’est à l’inverse, est-ce que certains développements artistiques peuvent influer sur le développement de modèles scientifiques. Pas vraiment, disons que c’est plutôt un climat général. Je peux en parler parce que moi-même j’ai aussi eu beaucoup d’activités artistiques, j’ai pratiqué la musique, la peinture, etc., outre la littérature et la poésie. On peut se demander chez l’individu qui pratique en même temps la science et l’art, est-ce que c’est perméable, est-ce qu’il y a des influences. Les influences elles sont plutôt à sens unique, ce sont plutôt les influences de la science vers l’art. En revanche je pense que pratiquer l’art, ou simplement être amateur d’art, sans avoir besoin de le pratiquer, est une bonne chose. Vous savez qu’il y a beaucoup de chercheurs qui ont une bonne culture artistique, qui sont mélomanes, amateurs de peintures, ils vont dans les musées etc., ça veut dire qu’ils baignent dans une sorte de climat esthétique. On aime l’esthétique et dieu sait si l’esthétique joue un rôle fondamental dans l’élaboration des théories scientifiques, et notamment en physique fondamentale, en physique théorique, les chercheurs se sont exprimés là dessus, Penrose en a parlé plusieurs fois, lui il va jusqu’à dire que les théories physiques ont plus de chances d’être justes lorsqu’elles sont décrites par des équations et des mathématiques élégantes. C’est une sorte de pari extraordinaire sur une esthétique de la physique elle-même, il faut que la façon d’exprimer cette esthétique par les formules mathématiques soit d’une certaine façon élégante pour que ça marche ! Bon c’est un pari extraordinaire qui pour l’instant ne marche pas si mal, donc c’est quand même assez troublant et c’est une question de nature un peu philosophique.

Première simulation numérique d’un trou noir entouré d’un disque de gaz, effectuée par Jean Pierre Luminet en 1979.

Nico : La déraisonnable efficacité des mathématiques.

JPL : Exactement, c’est exactement ça.

Nico : On va passer aux questions des auditeurs, du coup on a eu beaucoup de questions sur plein de sujets.

D’abord on a vu à plusieurs reprises qu’il y a quand même pas mal de preuves d’existence des trous noirs, et pourtant on a entendu récemment Stephen Hawking qui a remis en cause l’existence des trous noirs, ainsi que Laura Mersini-Houghton qui est une chercheuse en physique théorique de l’Université de Caroline du Nord à Chapel Hill (c’est Alan notre cher ami suisse qui a créé le podcast qui dit cela), qui disait détenir la preuve que les trous noirs n’existent pas [voir son papier]. Est-ce que vous pensez quelque chose de ces personnes, en particulier Hawking qui a été à l’origine de ces idées…

JPL : Dans un modèle scientifique, il n’y a pas de consensus total, il y a toujours des chercheurs qui remettent en cause le paradigme et c’est une très bonne chose. Après il faut voir le degré de sérieux de ces remises en cause. Moi j’ai tendance à penser que le statut expérimental et théorique des trous noirs est devenu suffisamment solide pour que il n’y ait pas d’alternative viable et convaincante. Voilà. Donc par exemple l’alternative proposée par Laura Mersini-Houghton, je ne peux pas l’expliquer à l’antenne mais réellement ça ne tient pas la route un seul instant quand on regarde un petit peu en détail les choses. Bon après on prend un peu plus au sérieux Hawking compte tenu évidemment de son statut et toutes les contributions extraordinaires qu’il a apportées. Il faut évidemment faire la différence entre trois choses, ce qu’il voulait dire, ce qu’il a dit réellement et la façon après dont c’est répercuté dans les médias. On se retrouve avec l’histoire que “les trous noirs n’existent pas”, ça c’est la façon dont c’est répercuté dans les médias. Il y a le caractère spécial de Hawking que je connais bien, son côté “émettre des déclarations un peu fracassantes”, qui semblent un peu contradictoires, mais avec une bonne dose d’humour derrière. C’est parce qu’effectivement comme je l’ai dit tout au début, je ne sais pas si les auditeurs s’en souviendront, il y a le problème de “l’information”. Le débat sur le fait que l’information contenue dans un trou noir, est-ce qu’elle totalement récupérée ou pas lorsque le trou noir s’évapore, et ainsi de suite. Les physiciens puis les physiciens quantiques ont élaborés des modèles qui ont un peu déstabilisé les prises de position initiales de Stephen Hawking et c’est un peu pour avouer une relative défaite théorique qu’il a dit “mais alors si c’est comme ça les trous noirs n’existent pas vraiment”. Ce qui n’existe pas, ce qu’il voulait dire, ce sont les trous noirs tels que lui les imaginait au départ. C’est à dire des trous noirs relativement classiques et pas quantiques. Je crois que cette déclaration ne va pas plus loin que cela. Maintenant le débat lui-même, le débat réellement théorique, qui est très technique, il est extrêmement profond, et extrêmement intéressant. Les physiciens quantiques ont émis l’hypothèse, je n’y crois pas trop non plus mais enfin bon c’est pas parce que je n’y crois pas que ce n’est pas bon, que les trous noirs sont entourés d’une sorte de mur de feu, on appelle ça un firewall, par des effets de phénomènes quantiques. Et qu’en fait ce mur de feu empêcherait que l’on puisse rentrer dans un trou noir, donc si on ne peut pas y entrer, c’est comme si d’une certaine façon, les trous noirs n’existaient pas, en tant justement qu’objets avec un horizon des évènements dans lesquels on pourrait rentrer. C’est dans ce sens là que Hawking a dit que les trous noirs n’existent peut-être pas, c’est le trou noir “simple” avec son horizon des évènements, sans mur de feu. Donc le statut des firewalls est discuté, à mon avis, et je ne suis évidemment pas le seul à partager cet avis, c’est que ces murs de feu qui sont prédits sont plausibles uniquement, puisque c’est un phénomène quantique, ils sont plausibles pour les trous noirs quantiques mais pas pour les trous noirs astrophysiques. Donc il n’y a pas de mur de feu pour les trous noirs astrophysiques.

Firewall, par Inti

Nico : on a une question de Superoxyde (bon tous nos auditeurs ont des pseudos évidemment) qui a propos de la fin de l’univers, se demandait si l’entropie diminuerait du coup ?

JPL : Si l’univers on le considère comme un univers unique, un système isolé,  l’entropie augmente puisque c’est une perte d’informations. Ces questions sont extrêmement compliquées à répondre.

Nico : (se marre) Ok. Pas de problème, on transmet, on préfère même quand on dit que c’est trop compliqué à répondre pour justement pas faire du “grand média” là dessus. On va retenter une question de Superoxyde mais qui a l’air compliquée aussi, que penser des hypothèses exposées par Lawrence Krauss sur un univers créé à partir de rien ? [Voir son livre Universe from nothing] Je ne sais pas si vous avez entendu parler de ça ? Moi ça ne me dit rien.

JPL : Le nom en lui même ne me dit rien mais l’univers créé à partir de rien, ça veut dire quoi ? L’univers créé à partir du vide quantique par exemple ? Ca dépend ce qu’on appelle “le rien”. (se marre) Sinon l’univers créé à partir de rien on va dans des cosmogonies primitives, mais on sait aujourd’hui qu’il existe des champs d’énergie d’origine quantique et notamment le vide, en physique classique on appelait ça le “rien”, si vous prenez une boîte, vous enlevez tout de la boîte, c’est à dire que vous faites le vide, vous enlevez les atomes, les champs de force etc., vous faites le vide. Si vous décrivez ce processus là dans la physique classique, normale, il ne reste rien, voilà, alors ce n’est pas intéressant parce que vous ne pouvez rien faire avec rien. En revanche la meilleure façon de décrire ce processus c’est la physique quantique, grâce au principe d’incertitude elle dit qu’irréductiblement, vous avez beau enlever les atomes, les molécules, les champs de force, les particules élémentaires, il restera irréductiblement quelque chose qui est l’énergie à son niveau fondamental mais qui n’est pas nulle, c’est l’énergie du vide. Et cette énergie du vide a des propriétés absolument fascinantes.

Nico : Qui ont été mesurées.

JPL : Oui, elle a été réellement observée, ce n’est pas une utopie purement mathématique. On l’a mise en évidence en laboratoire !

Nico : Oui mais je précise parce que ça a l’air d’être tellement étonnant.

JPL : Elle possède des propriétés absolument fascinantes, une fluctuation d’énergie potentiellement génératrice de matière, voir quand on fait l’hypothèse que le Big Bang lui même on va plutôt le remplacer par un état quantique, on imagine un état initial dominé par l’énergie du vide, et on se dit qu’une fluctuation de l’énergie du vide peut engendrer carrément une matière-espace-temps c’est à dire un univers. Il y a réellement des théories de cosmologie quantique qui disent que notre univers s’est formé à partir de l’énergie du vide. Si c’est ça le “rien”, moi je veux bien. En fait le rien définir comme ça, c’est plutôt potentiellement le “tout”. (l’équipe de PS se marre)

Nico : D’accord. Une question beaucoup plus simple de Mout mais c’est vrai qu’on ne l’a pas précisé, quand on parle de “trou noir”, est-ce que ça désigne la singularité (le point), ou le volume contenu dans l’horizon ?

JPL : Ah c’est très important ça comme question ! Il y a confusion entre le trou noir et la singularité. Il y en a qui disaient qu’un trou noir ne pouvait pas exister parce qu’une singularité c’est absurde. Mais j’ai expliqué que le trou noir ce n’est pas la singularité, c’est l’horizon qui se forme. C’est à dire que dans un processus vous avez une zone de l’espace-temps qui se forme et à partir du moment où cette zone est formée qui est une zone de non retour, vous avez le trou noir qui est formé. Ce qui peut se passer après, qu’il y ait une singularité ou pas, ça n’altère pas le fait que vu de l’extérieur vous avez un objet qu’on va appeler trou noir. C’est à dire avec toutes les propriétés caractéristiques des trous noirs. Donc le trou noir c’est l’intérieur d’une zone délimitée par un horizon des évènements, donc c’est un volume. Ce n’est pas une singularité.

Johan : C’est une sphère d’ailleurs, on a eu des questions aussi sur ça.

JPL : Pardon ?

Johan : C’est une sphère aussi.

JPL : Oui alors si le trou noir est statique et ne tourne pas, c’est une sphère, mais il se trouve que les trous noirs normalement tournent parce que les objets tournent dans l’univers et donc comme les objets qui tournent il y a l’équivalent de forces centrifuges, même si c’est une vision un peu classique du modèle, mais enfin bon, qui aplatissent légèrement le trou noir le long de son axe de rotation. Et donc les trous noirs dits de Kerr, qui sont les trous noirs en rotation, la forme de la surface, donc l’horizon des évènements, est légèrement aplati aux pôles donc c’est plutôt un ellipsoïde.

Johan : D’accord.

Kerr et Carter, théoriciens des trous noirs

Nico : Du coup c’était une erreur dans Interstellar où il était joliment sphérique alors qu’il était censé tourner à une vitesse…

JPL : Dans Interstellar il est censé tourner à une vitesse très proche de la vitesse critique parce qu’effectivement on ne peut pas avoir un trou noir tournant arbitrairement vite, il y a une vitesse de rotation critique, correspondant à peu près à la vitesse de la lumière à la surface de l’horizon, qu’évidemment on ne peut atteindre, encore moins dépasser. Et donc ces trous noirs sont aplatis.

Nico : D’accord. Toujours le même Superoxyde, il a fait une remarque qui va me permettre de vous poser une petite question sur une partie pas très développée dans le livre mais assez amusante. Il dit qu’il y a un mini trou noir dans l’étoile noire de Star Wars, c’est le seul moyen d’accumuler assez d’énergie pour exploser une planète rapidement. Pourquoi je cite ça aussi, c’est parce qu’il y a une partie dans le livre où vous expliquez comment il serait possible de faire des machines avec des trous noirs, de récupérer de l’énergie etc.. C’est un peu le rêve d’une presque énergie infinie comme c’est décrit.

JPL : Oui donc, les trous noirs sont non seulement des puits d’informations mais également des puits d’énergie, alors il y a une partie de l’énergie stockée dans un trou noir qui normalement est irréductible, c’est à dire qu’elle ne peut pas être extraite sauf par des processus quantiques et puis il y a une partie qui peut être éventuellement récupérable, c’est l’énergie rotationnelle. Un trou noir qui tourne a une partie de son énergie sous forme d’énergie rotationnelle, et on a imaginé des processus, notamment Penrose dont on a parlé plusieurs fois, a imaginé un processus qui permettrait artificiellement d’extraire progressivement l’énergie de rotation d’un trou noir et avoir une source d’énergie quasiment inépuisable.

Johan : Oui et cette histoire de trou noir au centre de l’étoile noire c’est  Roland Lehoucq avec qui vous avez travaillé qui développe cela.

JPL : Roland s’intéresse effectivement à tous les rapports entre les théories physiques et puis ce qu’on trouve dans la science fiction et les bandes-dessinées. Il fait un travail remarquable parce que ça permet aussi d’accrocher l’attention de tout un public qui pourrait être rebuté quand on attaque directement la physique.

Le “tunnel” du film Contact

Nico : Tant qu’on est dans la fiction, Ewi pose une question : est-ce que c’est un trou noir qui est créé dans Contact ? Le film Contact.

JPL : Oui, si je me souviens bien, ça fait longtemps…

Nico : Il me semblait que c’était un trou de ver…

JPL : Effectivement j’étais allé voir le film. Déjà dans Contact, il y avait l’idée d’utiliser les trous de vers, c’était d’établir…

Nico : Un contact justement avec…

JPL : Un contact qui normalement serait interdit dans des conditions normales, et en fait initialement avant le film, Contact c’est un livre, c’est un roman de Carl Sagan avant d’être adapté à l’écran par Zemeckis, et déjà dans le livre, Carl Sagan, qui lui était plutôt un planétologue, il ne connaissait pas les détails de la relativité générale, il avait déjà demandé conseil à Kip Thorne, qui lui avait dit qu’il y avait une possibilité théorique, précisément les trous de ver. D’ailleurs c’est à partir de là que Kip Thorne a commencé à s’interroger davantage aux trous de vers et à essayer de montrer qu’il pouvait y avoir éventuellement des trous de vers stabilisés par des formes d’énergie négative comme je l’ai dit tout à l’heure.

Nico : On a parlé du problème du firewall, dans le même ordre d’idée, qu’est-ce que vous pensez de l’hypothèse holographique du trou noir ? Qui si je ne dis pas de bêtises revient à dire que sur la surface du trou noir il y aurait toute l’information sur tout l’univers etc.

JPL : Alors j’en pense du bien pour les trous noirs et je n’en pense pas du bien pour son application à la cosmologie.

A priori c’est une jolie idée le principe holographique, c’est l’idée qu’en fait toute l’information contenue dans un volume peut être extraite à partir de la surface qui limite ce volume. Donc au lieu d’être répartie en trois dimensions, elle est quelque part distribuée en deux dimensions. Cette idée, qui vient en partie de la théorie des cordes, appliquée aux trous noirs, elle fournit l’idée intéressante que finalement toute l’information contenue dans un trou noir est d’une certaine façon sur l’horizon des évènements. Ca a permis de faire des calculs d’entropie d’un trou noir, entropie donc liée à la quantité d’informations, et de montrer, ce par un vrai calcul (et pas simplement par une analogie comme ça avait été fait initialement par Stephen Hawking et quelques autres dans les années 70, 80), que l’entropie d’un trou noir est liée par une formule physico-mathématique, à l’aire de la surface d’un trou noir. Pour ça, on fait un calcul un peu quantique, on décompose la surface d’un trou noir en unités extrêmement petites, de l’ordre de l’aire de Planck, en unités quantiques. Il faut quatre unités pour faire un bit d’information, après on fait le calcul de l’entropie complète d’un trou noir et on retrouve une formule qui avait été imaginée initialement de façon un peu intuitive par Hawking et Bekenstein dans les années 70, mais là on la retrouve par une sorte de véritable calcul, grâce au principe holographique. En revanche à l’échelle de l’univers, l’idée que l’information totale contenue dans l’univers puisse se retrouver sur une sorte de frontière ou d’horizon lié à notre univers, ça ne marche que dans un cas extraordinairement particulier qui est un modèle d’univers appelé modèle anti de Sitter, à cinq dimensions en plus, et ça ne s’applique absolument pas à l’univers dans lequel nous pensons nous trouver. Je suis en train de préparer un gros papier de revue qu’on m’a demandé là dessus, sur le principe holographique.

Nico : (rit) On pourra en savoir plus à cette occasion.

Une question, alors vous ne répondez pas si c’est indiscret, mais je trouve qu’elle est intéressante à poser à quelqu’un qui fait un livre qui s’appelle le destin de l’univers, et qui nous parle aussi des origines, quelle est votre position vis à vis de la religion ?  Etes vous croyant ? Est-ce que ça a un intérêt de poser cette question ?

JPL : (rit) Ca a toujours un intérêt de poser la question bien entendu. Moi non je ne suis pas croyant, j’ai pu l’être un moment, ne serait-ce que par mon éducation, vous savez souvent les formes de croyances elles sont aussi culturelles, etc. On est dans un milieu et on est imprégné de ce milieu là, et à mesure je me suis détaché. Je ne dirais pas que c’est ma pratique scientifique forcément qui m’a détaché de ça. J’ai adopté une philosophie matérialiste, une philosophie athée, mais je conçois absolument qu’on puisse avoir d’autres approches. Mais je n’aime pas trop en revanche que l’on mélange comme le font certains. Vous voulez écrire un bouquin de physique, vous mettez dieu dans le titre, vous êtes sûrs de vendre dix ou cent fois plus d’exemplaires que mon destin de l’univers. Simplement parce que vous semblez aborder cette question là. Ma position c’est que ça n’a pas du tout la même fonction, la science et la religion. La religion c’est un acte de foi, la science ce n’est pas un acte de foi, c’est une construction, une remise en cause permanente, donc il n’y a pas de dogme, il y a des consensus qui évoluent au cours de l’histoire. Il faut être prêt à abandonner la “croyance” en un modèle scientifique même si on travaillé trente ans dessus, dès lors qu’il y a une expérience qui va l’invalider, il faut l’abandonner. Ce n’est pas comme ça que fonctionne la religion, donc il vaut mieux séparer les choses. Dans l’histoire, je pense que les positions les plus pertinentes sont celles de personnes qui ont su réellement bien séparer les choses, comme ce fut le cas avec Georges Lemaître sur lequel j’ai beaucoup écrit par ailleurs [en particulier L’invention du Big Bang, ], il est l’inventeur de la théorie du Big Bang moderne et qui par ailleurs était un homme de religion, il était prêtre. Mais il ne mélangeait absolument pas les choses. Alors que d’autres au contraire veulent absolument soit étayer leurs croyances religieuses par la religion, soit à l’opposé, étayer leurs croyances matérialistes par la science, mais en fait je pense que la science ne dit rien sur ces choses là.

Nico : D’accord.On a une question de GPif qui peut paraître amusante mais qui à mon avis n’est pas anodine, parce que vous en parlez aussi dans le livre : si je veux faire un trou noir dans mon jardin, il me faut quoi ? Quand je dis qu’elle n’est pas anodine, c’est que vous parlez un peu du fait qu’on commence à envisager de construire des trous noirs.

JPL : Alors il faut mettre le grand accélérateur de particules du CERN dans le jardin, donc avoir un grand jardin, pour mettre 7 km de circonférence, c’est pas mal de technique et de moyens.

Johan : Ça tombe bien pour nos auditeurs en Suisse !

JPL : (rit) Donc il vaut mieux avoir un jardin près de la Suisse. D’autre part il vaut mieux être dans un univers avec des dimensions supplémentaires parce qu’on s’aperçoit que même avec les énergies énormes développées dans le collisionneur du CERN, dans les théories normales, relativité générale classique etc., on est incroyablement loin de développer des énergies suffisantes pour créer artificiellement des trous noirs. Je parle là évidemment de micro trous noirs, je ne parle évidemment pas de trous noirs stellaires ! La seule possibilité théorique, ce serait de se trouver dans un modèle très spécial de la théorie des cordes, c’est à dire avec un certain nombre de dimensions supplémentaires de l’espace, et en plus que la taille de ces dimensions supplémentaires soit ajustée de manière extraordinairement improbable. Malheureusement, je dis malheureusement parce que ce serait quand même chouette de pouvoir créer artificiellement des trous noirs au labo, parce qu’on pourrait les étudier du coup. Mais non.

Nico : Dans l’état actuel des connaissances a priori on ne verra pas de trou noir fabriqué artificiellement de notre vivant.

JPL : Non.

Nico : D’accord

Johan : On finit donc par une question d’Irène : comment et depuis quand vous êtes vous intéressé à la physique, est-ce que vous avez des parents scientifiques ou est-ce que c’est venu… ?

JPL : Non pas du tout, mes parents n’étaient pas du tout des scientifiques et a priori je ne me destinais pas non plus particulièrement à ça quand j’étais jeune, adolescent etc., je m’intéressais peut-être plus à la musique, à la littérature, à la peinture,  à la poésie, etc. Mais simplement j’étais bon en math, donc j’ai tout naturellement suivi une filière scientifique, je n’avais pas le goût de la physique, je le dis tout net, je n’avais pas le goût de la physique, pas parce que la physique est chiante mais parce qu’elle est enseignée de manière ennuyeuse, en général. Il y a peut-être des profs de physique qui nous écoutent et qui ne vont pas être d’accord, le fait qu’ils écoutent le podcast, ça veut dire que ce sont de bons professeurs de physique hein. Mais moi je me souviens, la physique nous était enseignée de façon ennuyeuse, je l’ai bien vu après quand mes enfants m’apportaient leurs devoirs de physique, je leur disais “mais mon pauvre, tu te retrouves exactement dans la même situation que moi, je détestais la physique”. J’adorais les maths en revanche, et ce n’est que très tardivement, à l’issue d’une maîtrise de mathématiques, que grâce à des livres de vulgarisation, et pas des cours de physique, que je me suis aperçu de la magie que pouvait représenter la physique. On avait un outil magique, les mathématiques, pour aborder après des grands problèmes fondamentaux de la physique. Donc voilà mon parcours, initialement, je ne me destinais pas à devenir un chercheur scientifique, je pensais peut-être devenir musicien, écrivain ou je ne sais quoi, et puis j’ai découvert finalement qu’il y avait une forme de créativité extraordinaire qui était permise par la recherche en physique fondamentale, on avait un bel outil, les mathématiques, et cet outil on l’utilise après pour faire de la belle physique. Si on changeait un peu l’enseignement de la physique, si déjà on mettait un peu plus d’astrophysique et ce genre de choses dans les cours de physique au lycée etc., je pense qu’il y aurait peut-être beaucoup plus de jeunes qui s’orienteraient dans des carrières dans la recherche scientifique.

Nico : Comme vous avez lancé le sujet des vulgarisations qui vous ont intéressées, peut-être un ou deux livres qui vous ont particulièrement marqués, même récemment ?

JPL : Les livres de vulgarisation ?

Nico : Oui

JPL : Il y a d’abord le livre originel qui m’a converti au métier, c’est un livre qui a été un petit peu oublié aujourd’hui, il avait été écrit dans les années 70 par un astronome qui s’appelait Jean Edman, que j’ai rencontré après à l’observatoire de Paris quand j’y suis allé. C’était un livre qui parlait de cosmologie, un peu de trous noirs, etc. De façon vulgarisée mais quand même assez solide, avec quelques équations simples. Moi je suis extrêmement content, et ça arrive de plus en plus souvent, lorsque des jeunes astrophysiciens qui viennent d’avoir un poste, viennent me trouver (surtout quand j’étais à Meudon, maintenant que je suis à Marseille je suis un peu plus isolé) et me disent “en fait c’est parce que j’ai lu votre livre sur les trous noirs de 1987 quand j’étais adolescent, que j’ai eu envie de continuer”, je pense que c’est le rôle de la vulgarisation. J’ai écrit une bonne quinzaine de livres de vulgarisation, en plus de mes romans etc. C’est à la fois parce que j’ai la passion de communiquer, d’expliquer les choses compliquées que l’on fait et parce que je pense que c’est réellement un très bon moyen d’attirer une petite partie des jeunes intéressés par ça, sur les mystère et la magie de la physique.

Robin : Moi j’ai enfin l’explication de pourquoi c’est vous qui m’avez le premier intéressé à l’astrophysique, c’est parce qu’à la base vous êtes un matheux comme moi, qui était fâché avec la physique comme moi. (il rit) (l’équipe se marre)

Nico : Oui parce que Robin quand on est allé au CERN n’est pas venu parce qu’il ne voyait pas l’intérêt… (l’équipe rit)

Robin : Non, non non non. Ca c’est pour la légende (l’équipe PS est hilare). Mais je suis assez ravi d’entendre ce que vous dites là dessus. Mais du coup si je peux me permettre une question encore, vous en avez un petit peu parlé mais du coup ça pose toute la question des belles mathématiques pour de la belle physique et le rapport au réel, qui est un débat qu’on aura jamais fini… Vous avez parlé des singularités, dont on ne sort jamais, on en récupère tout le temps, mais du coup votre position entre les théories mathématiques et ce qui pourrait exister disons ? Pardon je vais dire un truc précis comme ça ce sera plus simple (l’équipe se marre), une phrase que j’ai entendue, c’est une citation de je ne sais plus qui, je n’ai pas réussi à retrouver, qui dit “Le Big Bang n’est pas une grosse explosion mais la limite de nos équations“, qui résume assez bien l’idée. Quelle position avez-vous sur ce genre de choses ?

JPL : Il est certain que le Big Bang n’est pas une grosse explosion, puisque comme je le rappelle dans d’autres bouquins, le terme a été donné par dérision pour se moquer de l’idée que notre univers puisse être né d’une grande explosion, ce qui n’était pas du tout dans l’idée originelle de Lemaître et Friedmann qui sont les fondateurs de la cosmologie moderne. Le fait que ce soit une limite de nos équations, comme j’ai essayé de le dire à un certain moment mais je ne l’ai pas vraiment développé, la tendance aujourd’hui c’est de penser cela oui. Le Big Bang en tant que singularité j’entends, parce qu’il faut voir aussi ce que l’on met derrière le mot Big Bang, quand aujourd’hui on parle du modèle standard du Big Bang, c’est en fait le modèle complet de l’évolution de l’univers, à partir d’une configuration initiale stricto senso encore mal comprise, mais au bout de quelques milliardièmes de seconde, en admettant qu’on puisse mettre le temps zéro à ce fameux Big Bang, on a une bonne physique pour décrire ça. Après tout le reste marche assez bien jusqu’à la description de l’univers d’aujourd’hui et éventuellement l’univers de demain, maintenant y a-t-il vraiment un début absolu de cela, un temps zéro, comme je l’ai dit en fait, le Big Bang en tant que singularité, c’est une extrapolation de la relativité générale et tous les efforts théoriques d’aujourd’hui qui consistent à faire des théories de gravitation quantique c’est pour se débarrasser de cet infini et de cette singularité. Donc en ce sens là, le Big Bang en tant que singularité serait effectivement une limite de nos équations. Mais en revanche, ce qu’on appelle le récit du Big Bang, ce que l’on peut tirer à partir de la formation du boson de Higgs au bout d’un dix milliardième de seconde dans l’histoire cosmique, jusqu’à aujourd’hui, c’est quelque chose qui commence à devenir assez costaud et assez solide, parce qu’étayé expérimentalement par tout un arsenal d’expériences, de mesures et d’observations.

ps211_CA48AwRWoAAZWqW.png

Explorer un trou noir, par Randall Flagg

Robin : D’accord. Si je comprends bien c’est un peu comme ce que vous disiez sur le trou noir, entre l’horizon de ce que l’on ne voit plus et la singularité.

JPL : Oui, d’une certaine façon.

Nico : Très bien, avant de passer à la citation et dieu sait qu’on a un spécialiste en citation ce soir (rit).

JPL : (rit) Oui j’ai émaillé mon bouquin de beaucoup, beaucoup de citations.

Nico : A chaque chapitre au moins il y en a une, et parfois plus. On va juste parler rapidement du pitch de la semaine prochaine. La semaine prochaine on reçoit Nicolas Grandjean, c’est toujours un plaisir de recevoir Nicolas Grandjean, notre spécialiste de tout ce qui brille et qui tient dans la poche, parce que ce soir on a parlé de choses qui parfois brillent mais ne tiennent pas vraiment dans la poche. Après être venu nous parler des LED blanches (Podcast Science #157), et du dernier prix Nobel de physique (Podcast Science #192), cette semaine, nous parlerons des lasers à semi-conducteurs. Ça sert à lire vos CD-Roms (si quelqu’un utilise encore ça), scanner un document papier (bon ok on va essayer de trouver une application un peu plus récente) ça sert aussi à déclencher automatiquement les toilettes quand vous avez fini, voilà pour des applications récentes. Bref, ces lasers sont devenus maintenant indispensables pour beaucoup d’applications. Nicolas Grandjean va nous raconter leur histoire, leur fonctionnement, et leurs applications (avec, promis, de meilleurs exemples que ceux qu’on vient de donner là !). Venez la semaine prochaine nous écouter !

Du coup on passe à la citation.

JPL : Oui alors juste un mot, avant de dire cette citation, c’est parce que, quand on travaille comme moi et tous mes collègues, sur ces théories des trous noirs, la relativité générale, la physique quantique, la gravité,… On est inondé en permanence de courriers, de courriers, de courriers, de gens passionnés et de gens, ce qu’on appelle des amateurs, une partie sont des ingénieurs à la retraite, une autre partie des gens passionnés par cela, et qui s’imaginent avoir la clé, la solution de tous nos problèmes sur lesquels on bute. Certains d’entre eux nous disent “mais en fait vous ne racontez que des bêtises, en fait vous vous trompez depuis le début, il y a une erreur fondamentale avec la relativité donc forcément les trous noirs n’existent pas, le Big Bang n’existe pas” voilà. Ce qui m’a fait mettre en exergue de mon livre cette citation de Roland Topor que j’adore, c’est :

L’histoire qui va suivre (et donc en fait tout ce que j’ai raconté aujourd’hui à l’antenne) est véridique jusque dans ses moindres détails, à moins qu’une affreuse erreur n’ait tout faussé depuis le début.

Nico : (rit) Ca résume bien tout cela. Surtout que là, c’est vraiment le début où on ne sait pas dire… J’en ai relevé une autre dans les livres, comme on était pas sûr que vous en auriez ramené une, qui est un début de chapitre, je ne sais plus lequel exactement, un des derniers.

Qu’advient-il du trou lorsque le fromage a disparu ?

Bertolt Brecht

Je trouve qu’elle était pas mal aussi sur les trous noirs.

JPL : Oui. (rit)

Nico : Ok, on va s’arrêter là, Merci beaucoup ! On est ravis

JPL : Merci à vous !

Nico : On a eu plein de réponses, je pense que le public était ravi aussi, on a eu quelques dessins dans la chat room, on va vous les montrer juste après, de Puyo et Inti, merci beaucoup. Puyo qui a fait des gifs animés cette semaine, Randall Flagg aussi. Il y a eu beaucoup d’animation !

Vous savez maintenant que l’univers aura probablement une fin dans quelques millions, voir milliards d’années… Mais bon ça vous laisse quand même un peu de temps pour partager le podcast sur tous les réseaux : Soundcloud, Twitter, Facebook, notre site podcastscience.fm, on vous remercie encore d’être venus, pour cette passionnante interview, on se retrouve la semaine prochaine avec Nicolas Grandjean pour parler de lasers, et d’ici là, que servir la science soit votre joie !

Johan et JPL ont des conversations de geeks en douce après le générique sur une nouvelle nova dans la constellation du sagittaire.

 

VN:F [1.9.22_1171]
Rating: 5.0/5 (1 vote cast)
VN:F [1.9.22_1171]
Rating: 2.8/5 (5 votes cast)


Continue reading »

VN:F [1.9.22_1171]
Rating: 2.8/5 (5 votes cast)
Tagged with:  

L’histoire des microscopes

On 23.01.2014, in Dossiers, by Irène Revenko
VN:F [1.9.22_1171]
Rating: 4.7/5 (10 votes cast)

 

Une histoire de la microscopie

 

microscope

Cette histoire fait partie de celles qui n’ont évidemment pas de fin, mais aussi pas de commencement, parce qu’il n’y a pas eu un jour un nouvel instrument mis au point et appelé microscope.  Les systèmes optiques développés par la nature, dont nos yeux, ne sont pas parfaits, et ils vieillissent mal.  On peut aisément imaginer que certains de nos ancêtres des cavernes avaient déjà du mal à voir les dessins de leurs artistes sur les murs des grottes, et très tôt le besoin de mieux voir a conduit les hommes à trouver des palliatifs, c’est à dire des lentilles de correction, et c’est par là que débute l’histoire des microscopes optiques.

Nous allons très simplement suivre un ordre chronologique pour décrire l’histoire des microscopes, parce qu’il y a en gros trois périodes, qui commencent chacune avec la naissance d’un type de microscopie, sans qu’aucun n’ait jamais ensuite disparu.

Et puis juste avant de vraiment démarrer impossible de ne pas rappeler que : micron = petit + skopein= observer (grec)

 

I- La microscopie optique.

 

Le principe repose sur l’utilisation des lentilles qui sont des objets,  en verre le plus souvent, qui dévient la lumière (plus ou moins selon la couleur de la lumière) et qui, tels la loupe, permettent de former une image agrandie d’un objet que l’on ne pourrait pas voir à l’œil nu (figures 1 et 2).

 

Figure 1 - Principe de la lentille

Figure 1 – Principe de la lentille

 

Grosso modo, la meilleure résolution est d’environ 200 nanomètres (nm), ie. que l’on peut voir deux points séparés par 200nm. Un nanomètre, c’est un milliardième de mètre. Un millième de micron. Rappelons que la taille d’un atome est d’environ 0,1 nm, et un cheveu fait environ 60 microns de diamètre.  Donc 200 nm c’est 300 fois plus petit qu’un cheveu environ.

Voyons plutôt comment la microscopie optique s’est développée au fil des siècles.

 

Histoire des sciences optiques.

 

Le microscope optique est le plus connu, le plus ancien, des microscopes, qui utilise deux composants bien familiers pour la plupart d’entre nous :

a) les lentilles, qui permettent, en autre, de grossir des objets que l’on ne peut pas voir à l’œil nu. Ceci en déviant les rayons de lumière.

b) la lumière, ce rayonnement de particules dont l’exemple le plus connu est bien sûr le soleil qui nous envoie tous les jours son lot de rayons.  Ces particules sont appelées des photons.  Chaque photon transporte de l’énergie, et selon la couleur de la lumière, la quantité d’énergie est différente.  Et selon la couleur, le rayon de lumière va être dévié différemment par la lentille.  Rappelez vous, pour les plus vieux d’entre nous, cette pochette d’album de Pink Floyd « The Dark side of the Moon », avec un rai de lumière à gauche venant frapper un prisme (figure 3).

 

Figure 3: déviation de la lumière blanche par un prisme (album de Pink Floyd, ‘Dark Side of the Moon”).

Figure 3: déviation de la lumière blanche par un prisme (album de Pink Floyd, ‘Dark Side of the Moon”).

À la sortie du prisme, à droite, le rai de lumière est joliment décomposé en un arc en ciel.  C’est parce que 1- la lumière blanche est composée par un ensemble de rayons de toutes les couleurs.  2- les rayons de couleurs différentes ne sont pas déviés avec le même angle.

Figure 2 - Principe de la loupe

Figure 2 – Principe de la loupe

 

Le principe de la lentille, c’est de dévier les trajets optiques venant des objets que vous voulez regarder. Par exemple, dans le cas d’une loupe toute simple, les rayons lumineux émis par votre objet sont déviés par la loupe et en quelque sorte bluffent nos yeux en leur faisant croire que cet objet est plus grand que ce qu’il n’est en réalité (figure 2).  En associant plusieurs lentilles, le trajet optique se complique, mais permet de former des images à des positions bien déterminées et avec une taille bien précise.  C’est le microscope optique tel que nous le connaissons de nos jours (figure 4).

 

Figure 4: Principe du microscope optique

Figure 4: Principe du microscope optique

Un des plus gros problèmes est que, comme nous l’avons dit plus haut, les rayons lumineux ne sont pas déviés avec le même angle en fonction de leur couleur. Il en résulte une distorsion des images, que l’on appelle l’aberration chromatique, qui est un problème majeur de la technique, mais l’on reviendra un petit peu là-dessus.

Pour revenir à l’historique, en 1850, une lentille a été découverte à Nimrud (sur le site de Ninive), en Irak, par l’archéologue Austen Layard (qui était français malgré ce nom bien anglais!) Elle semble être âgée de 3000 ans environ (elle aurait été fabriquée  entre le  Ier millénaire av. J.-C. et  le VIIe siècle av. J.-C.) et est exposée au British Museum de Londres.  Il s’agit d’un disque en Crystal de roche, qui pouvait peut-être servir de loupe, mais son polissage était très grossier, et au final, on ne sait pas trop bien de quoi il s’agit !

Il y a ensuite d’autres vestiges, telle cette lentille datant à peu près du Ve siècle avant JC, qui fut découverte en Crète, dans une grotte dans le mont Ida.  Elle semble être de meilleure qualité que celle de Nimrud.

Les auteurs romains Pline et Sénèque mentionnent dans leurs écrits un graveur à Pompéi qui utilisait une lentille. On peut trouver aussi des écrits romains mentionnant des moyens grossissants tels que des boules de verre remplies d’eau ou bien des émeraudes taillées en lentille concave.

Toutefois, on peut dire que l’histoire des sciences optiques en tant que telles commence probablement à Alexandrie, vers 300 ans avant JC.  À cette époque, la ville était grecque et les sciences devenaient de plus en plus importantes en Grèce, notamment la géométrie. Un des grands noms de la géométrie était le fameux Euclide.  Il est peut-être à l’origine de pratiquement tout ce que nous pouvons apprendre en géométrie à l’école, mais c’est aussi lui qui a découvert que la lumière voyage en ligne droite.  Les premières lois de la réflexion de la lumière sur une surface émanent de lui.  Vers 1100, le savant arabe Alhazen Ben Alhazen mentionne le pouvoir grossissant des lentilles, sans qu’en soit tiré apparemment des conséquences sur l’usage pouvant en être fait.

Au XIIIe siècle, Roger Bacon a utilisé, et cette fois-ci on le sait de façon plus documentée, des lentilles de verre en tant que loupe.

Bacon développait cette nouvelle technique pour aider les gens qui avaient des problèmes pour lire. Roger Bacon, était un moine franciscain anglais, qui s’est inspiré apparemment des travaux d’Alhacen. Il appellait son invention « reading stone » que l’on peut traduire par « pierre de lecture » ou « pierre pour lire » en mauvais français !  Ces lentilles étaient souvent utilisées par les moines, notamment pour enluminer leurs manuscrits.  Elles étaient au début très simples, avec un bord plat et l’autre convexe, c’est à dire une simple sphère coupée en deux.  Avec le temps, les moines ont expérimenté et leur instrument s’est perfectionné, en particulier en jouant avec la courbure.  En effet, moins la courbure est prononcée, plus la lentille agrandit les objets.

Il faut attendre jusqu’au XVIe siècle  pour voir poindre la première application scientifique concrète des lentilles.  Jusqu’à cette période, Il s’agissait de verres correcteurs pour nos yeux déficients.

Vers 1590, le hollandais Zacharias Janssen profite de ses compétences de fabriquant de lentilles pour inventer un nouvel outil : le microscope optique.  Il est alors formé par deux lentilles convexes, dans un ensemble de tubes coulissants. Mais bon, honnêtement, personne n’est certain de cette paternité !  Janssen est né à La Hague (probablement !), et c’est son père qui avait une entreprise de fabrication de lentilles, qui l’employait.  Zacharias aurait découvert les vertus de l’association de ces lentilles alors qu’il n’était encore qu’adolescent et aurait montré sa découverte à un diplomate ami de la famille.  Mais en réalité il n’existe pas d’exemplaire certain de son microscope.  Peut-être un dans un musée hollandais, pas sûr.  Il avait un grossissement de 10X, donc pas particulièrement performant et c’est peut-être pour cela que notre homme s’est apparemment reconverti dans le trafic de fausse monnaie !

Au XVIIe,  les recherches scientifiques convergent vers le développement de la microscopie. Encore une fois, personne ne peut prétendre à la paternité de cette invention. Plusieurs modèles de microscopes sont apparus à la même période.

Toutefois, le plus célèbre est sans conteste celui d’Antoni Leewenhoek, que l’on considère comme le père de la bactériologie en tant que science, et qui est un personnage  lui aussi bien intéressant!

 

Antoni Van LEEUWENHOEK (1632-1723) (Figure 5)

 

Figure 5

Figure 5

Leeuwenhoek est né à Delft aux Pays Bas, le 24 octobre 1632.
À 16 ans, il est envoyé à Amsterdam en tant qu’apprenti chez un drapier.  L’histoire raconte qu’il se débrouilla fort bien, qu’il monta son entreprise qui fut florissante.

C’est vers 1668, 20 ans plus tard donc qu’il présente son premier microscope.  Alors comment ce commerçant dans les tissus en est-il arrivé à devenir l’un des pères de la microscopie?  Et bien je suppose qu’il devait être très pointilleux, ou exigeant ou curieux ou malin, ou tout cela à la fois.  En tout cas, il voulait un instrument qui l’aiderait à compter le nombre de fils dans les tissus.  Apparemment, au début il a utilisé des éclats de diamants et puis il s’est mis à polir des morceaux de verre. Et il le fit très bien, car non seulement son commerce fut florissant mais il étendit l’usage de ses lentilles à d’autres applications, comme nous allons le voir. Ainsi, le polissage des lentilles devint un hobby, puis la technique se raffina et le tout produit l’un des objets scientifiques le plus utilisé de tous les temps. Ainsi donc, notre homme était très curieux et il s’est mis à regarder tout et n’importe quoi avec son microscope.  Car il avait trouvé un moyen de monter une toute petite lentille, environ de la taille d’une tête d’aiguille sur un support en laiton, percé d’un trou pour faire passer de la lumière. L’échantillon était placé sur une pointe métallique, solidaire du support et que l’on déplaçait face à la lentille pour en explorer le contenu. L’ensemble était tenu très près de l’œil, face à la lumière (figure 6). Figure 6.1Et voilà notre microscope.  Et il se trouve que c’était un excellent microscope parce que le fait d’utiliser une seule toute petite lentille (pour les savants qui nous écoutent, avec une distance focale très petite qui limite les aberrations chromatiques) d’excellente qualité (il avait vraiment peaufiné sa technique de polissage), fait qu’il pouvait grossir les objets 300 fois. Le microscope que Leeuwenhoek utilise permet une résolution de 1,4 micromètres (soit 300 X). Soit 1/35e de la largeur d’un cheveu!

C’est en fait très honorable par rapport aux microscopes actuels qui possèdent un pouvoir grossissant de 1000x.

Rappelons que notre homme n’est pas la figure typique du scientifique, d’ailleurs on lui reproche parfois une démarche peu rigoureuse.  Mais néanmoins, on lui connaît au moins 400 lentilles, toutes aussi petites les unes que les autres.  Et il était malin, il n’a jamais dévoilé ses secrets, comment il polissait ces petits morceaux de verre, comment il les montait sur le support en laiton du microscope, quelle source de lumière il utilisait…  Toujours est–il qu’Anthoni Leeuwenhoek est considéré aujourd’hui comme le père de la microbiologie, c’est à dire l’étude des bactéries.

Et, il est devenu fort célèbre, il a quand même reçu la visite de Pierre le Grand de Russie, ou Frédéric II de Prusse ! Il est un bel exemple d’autodidacte qui montre encore une fois que la curiosité est bien le plus important en science, que l’essentiel comme le disait Einstein est de se poser des questions, pas d’accumuler des connaissances.

Quand la “Royal Society of London” fut capable de reproduire son expérience, il devint immédiatement célèbre et ouvrit la voie aux chercheurs des générations suivantes.

On connaît toute une variété d’échantillons qu’il a observés et décrits : des gouttes de pluie, de la plaque dentaire, des morceaux d’intestin, des moules.  C’est comme cela qu’il a découvert les bactéries (appelées ‘animalcules’), qu’il a découvert la parthénogénèse des insectes c’est à dire le fait que certains animaux peuvent se multiplier sans reproduction sexuée.  Il a regardé beaucoup de spermatozoïdes aussi (chiens, insectes, humains… Je vous laisse élaborer ici comment et pourquoi).

En parallèle, et pas si loin que cela géographiquement, un autre scientifique développa une variante du microscope optique. Il s’agit de Robert Hooke. Le pouvoir grossissant de son microscope est lié à l’utilisation de plusieurs lentilles convexes (figure 7).  Mais comme les lentilles employées à la  réalisation de ces  microscopes présentaient toutes des défauts d’aberration chromatique entourant les bords de l’image, la plupart des scientifiques rejetèrent le microscope composé et réutilisèrent le microscope à lentille simple, comme celui de Leewenhoek. Ce microscope offrait des grossissements moins importants, mais possédaient une qualité d’image plus nette.

Figure 7

Figure 7

C’est au milieu du XVIIIe siècle que le Britannique John Dollond, corrigea le défaut d’aberration chromatique des microscopes composés en utilisant une lentille de forme différente (Figure 8)

Figure 8

Figure 8

Depuis cette époque, le microscope optique est similaire à ceux que nous connaissons aujourd’hui. A ce jour, bon nombre d’améliorations on contribué à perfectionner cet instrument, tant en matière optique que mécanique.  Il est passé d’une puissance de grossissement de 200 à 1500 fois en moyenne. La plupart des observations courantes se font entre 200 et 400 fois la taille nominale de l’objet observé.

Plus de quarante modèles de microscopes optiques sont disponibles sur le marché. Il n’est pas nécessaire d’acquérir un modèle haut de gamme pour réaliser des observations courantes. Un microscope équipé d’une tête monoculaire  peut suffire à tout amateur désireux de découvrir le monde de l’infiniment petit.

 

II- La microscopie électronique

 

Le microscope optique, même avec des lentilles optiques parfaites et une illumination idéale, ne pourra jamais distinguer des objets plus petits que la moitié d’une longueur d’onde de lumière.  Prenons un exemple.  La lumière blanche a une longueur d’onde moyenne d’environ 0.55 µm.  La moitié de 0.55 c’est environ 0.275. Donc si l’on regarde 2 lignes qui sont plus proches que 0.275 µm, on en verra qu’une.  Un point plus petit que 0.275µm peut être discerné comme un petit nuage tout au mieux.  Donc, la seule solution pour augmenter la résolution du microscope, c’est d’utiliser une source d’illumination ayant une longueur d’onde plus courte.

Et c’est ainsi qu’est née l’idée du microscope électronique.  Au lieu d’utiliser les photons, on utilise des électrons.  Les électrons sont ces petits grains de matière, des particules qui sont des constituant de tous les atomes, et qui portent une charge négative.  Ce sont eux les constituants de base du courant électrique.

Plus précisément, c’est grâce au développement des tubes cathodiques  que le ME a pu être développé.

Heinrich Rudolph Hertz (1857-94) suggéra que les faisceaux d’émission pouvaient être caractérisés par une longueur d’onde.

 

Heinrich Hertz  (figure 9)

 

Figure 9

Figure 9

C’est vraiment aussi un savant remarquable.  Il est connu principalement pour deux contributions majeures en sciences : ses travaux sur les ondes hertziennes, ces ondes radios électromagnétiques, auxquelles il a donné son nom, et sa théorie sur les déformations des matériaux à l’origine du modèle de Hertz utilisé comme point de départ de tous les modèles d’indentation par exemple.  Il devait être incroyablement humble parce qu’il pensait que ses découvertes sur les ondes radios n’auraient jamais d’application pratiques. Il est décédé très jeune, à 36 ans, d’une maladie auto-immune relativement rare (granulomatose avec polyangéite).

Emil Wiechert en 1899 , physicien allemand d’origine russe, montra que ces faisceaux pouvaient être focalisés sur un point en utilisant un champ magnétique produit par une bobine (figure 10).

Figure 10

Figure 10

Ce n’est qu’en 1926 que Hans Busch , allemand lui aussi, démontra la théorie qui explique qu’en effet un solénoïde (une bobine donc) peut faire converger un faisceau d’électrons de la même manière qu’une lentille de verre fait converger un faisceau de photons.

Dans le microscope électronique (ME), les électrons sont accélérés sous vide, jusqu’à ce que leur longueur d’onde soit 100 000 fois plus petite que celle de la lumière blanche.  Puis le faisceau est focalisé sur un échantillon, et ils sont soit déviés soit absorbés par l’échantillon.  Ceux qui sont déviés ou non absorbés sont récoltés sur un système de détection, type caméra CCD, comme les appareils photo numériques (Fig 11).

Figure 11 – Principe du microscope électronique
Figure 11 - Principe du microscope électronique

Figure 11 – Principe du microscope électronique

Le premier prototype fut construit en 1933 par l’ingénieur Ernst Ruska et pouvait détecter des objets de 50 nm.  Il était énorme, il fallait une pièce entière pour le faire rentrer.

Le premier EM commercial fut construit en Angleterre au Collège Imperial de Londres, mais en fait sa résolution ne dépassait guère celle d’un bon microscope optique !  Ce qui montre au passage combien il n’est pas aisé de faire la transition entre des appareils mis au point dans des labos de recherche et la production commerciale.

Les premiers EM n’étaient pas trop intéressants pour les microscopistes, parce que le faisceau d’électrons était très chaud et transperçait les échantillons.  Mais quelqu’un de bien malin, et je ne sais pas qui,  a eu l’idée géniale de recouvrir les échantillons biologiques avec du tétraoxide d’osmium, et de les couper en tranches hyper fines, et cela a marché.  Non pas que l’échantillon était moins chaud, mais le tétraoxide d’osmium empêche les lipides de fondre (on dit qu’on les fixe) et l’utilisation de coupes fines permet d’obtenir des images rapidement, sans focaliser le faisceau trop longtemps au même endroit). On a ainsi commencé à obtenir des images intéressantes en biologie. A l’université de Toronto, en 1938, Eli Burton et ses étudiants construisirent le premier EM vraiment à haute résolution.  Malheureusement la seconde guerre mondiale a ralenti les progrès suivants, mais 20 ans après la guerre, la résolution de l’EM était déjà de 1nm (rappelons qu’un nm c’est environ 10 atomes, environ 6000 plus petit que le diamètre d’un cheveu).

 

Les différents types de EM

 

Plus des électrons se déplacent rapidement, plus leur longueur d’onde est petite. La résolution d’un EM est reliée à cette longueur d’onde : plus elle est courte, plus la résolution augmente.  Donc, pour augmenter la résolution on essaie au maximum d’accélérer la vitesse des électrons, en augmentant la ddp appliquée entre les lentilles magnétiques.

Les ME aujourd’hui peuvent atteindre un grandissement des images de 2 millions de fois !  Si l’on pousse la résolution, on peut visualiser des objets de la taille de l’atome, une molécule pour les échantillons biologiques.  Toutefois, il existe une grosse limite à cette technique : aucun échantillon biologique ne peut survivre dans le vide poussé qui existe à l’intérieur du microscope.  Il existe bien quelques EM commerciaux qui permettent de visualiser des échantillons humides, mais il y a encore beaucoup de limites à la technique.

 

Revenons un petit peu sur le principe des ME

Dans le ME, les lentilles magnétiques guident les électrons, tout comme dans un microscope optique les lentilles optiques guident les photons.  Mais il existe en fait deux types de ME, selon les électrons que l’on détecte.

 

Le ME à Transmission (MET) ou TEM en anglais (figure 12 et 13)

 

Figure 12 - Principe du MET et du MEB

Figure 12 – Principe du MET et du MEB

Lorsque les électrons bombardent l’échantillon, ils peuvent  traverser la matière, plus ou moins et plus ou moins vite selon la densité de la matière traversée à cet endroit-là,  et être recueillis sous l’échantillon, il s’agit du microscope à transmission , MET.  Ainsi, seuls les échantillons très fins, ou découpés en tranches très fines peuvent être étudiés.   Les images produites sont en noir en blanc et deux dimensions.  Par exemple, à l’intérieur d’une cellule, le noyau et les autres composants cellulaires , les organelles, sont plus denses que la soupe dans laquelle ils baignent.  Les objets les plus denses arrêtent plus les électrons que les zones de relative moindre densité.

La résolution du MET permet de voir des atomes de carbones séparés par 0,089 nm ou des atomes de silicium (0,078nm).  Ainsi le MET est très utilisé dans le domaine des nanotechnologies, des semi-conducteurs pour la microélectronique.  En biologie, c’est la préparation des échantillons qui est le facteur limitant.  Les méthodes de préparation pour préserver les structures et accroitre les contrastes sont incroyablement nombreuses, parfois spécifiques à un spécimen seulement et souvent très compliquées (longues avec beaucoup d’étapes).

 

Le ME à Balayage  (figure 12 et 13)

 

Figure 13 : Simple differences between (SEM) scanning and (TEM) transmission electron microscopes

Figure 13 : Simple differences between (SEM) scanning and (TEM) transmission electron microscopes

Lorsque les électrons arrivent sur la surface des échantillons, ils peuvent aussi, au moment où ils frappent la surface provoquer l’émission de nouveaux électrons, selon un angle de réflexion,  et ce sont ces nouveaux électrons qui sont recueillis et utilisés pour former une image sur le détecteur.  Il s’agit du microscope à balayage.  Le faisceau d’électrons est balayé à la surface de l’échantillon dans un mouvement de balayage, en zig-zag donc.

La résolution du MEB est environ dix fois moindre que celle du TEM, mais permet d’obtenir une profondeur de champ d’observation qui n’existe pas avec le TEM, une sorte d’image en 3D.

 

Préparation des échantillons

 

Je le disais plus haut, les gens qui font de la ME, et qui la font bien, ont une somme de connaissance gigantesque ! Il faut pour le MET pouvoir observer des coupes super fines de tissus, et pour le MEB avoir des surfaces qui réfléchissent les électrons.

Citons brièvement quelques techniques de bases :

-découper les échantillons en fines tranches, 50 à 90 nm, avec un appareil appelé microtome et des lames de rasoir en diamant.

-fixer les échantillons, avec des produits chimiques, pour préserver les structures, les rendre plus dures.  On force les molécules à se lier entre elles.  En fait, c’est le même effet que faire bouillir un œuf frais !  On se retrouve avec un œuf dur !

-congeler les échantillons à très basse température et les couper en fines tranches.  C’est la cryoscopie

-Infiltrer les tissus avec des résines, pour figer les structures et pouvoir les couper ensuite.  Il faut auparavant enlever l’eau, le plus souvent par des bains successifs dans de l’alcool

-augmenter les contrastes en recouvrant les surfaces avec des métaux lourds

-Couper les échantillons après les avoir congelés, car la lame suit les contours de moindre fragilité et révèle ainsi des structures selon leur dureté.  Souvent il faut aussi recouvrir ensuite pour les observations en TEM par un film de Pt puis C, et c’est le film de C que l’on observe, pas l’échantillon lui-même.

Il existe une quantité incroyable de livres sur le sujet et de quoi occuper la vie de beaucoup de gens à temps plein….

Les limites de la technique

 

-ce sont des appareils chers et difficiles à maintenir en bon fonctionnement (ddp  élevées, vide, sensible aux vibrations…)

– difficile à utiliser, surtout par rapport à un microscope optique.

-la préparation des échantillons est délicate et induit de toute façon des modifications de la structure des échantillons en biologie.  Par exemple, congeler les échantillons induit la formation de cristaux de glace qui sont difficiles à éviter et qui détruisent les structures.

Heureusement, les limites du microscope électronique, notamment dans la préparation des échantillons sont maintenant et depuis peu,  un peu compensés par l’essor d’un troisième type de microscopie, très différente des deux précédentes, donc complémentaire dans son utilisation.

 

III La microscopie à champ proche.

 

L’idée de départ date des années 1930, on trouve des publications ingénieuses qui montrent combien les hommes sont créateurs, car si l’idée était bonne, elle n’était pas réalisable d’un point de vue technique.  Les limitations de la technologie ne permettaient pas à l’époque de construire de tels instruments.

Et c’est en 1981, que le premier appareil a vu le jour chez IBM Zurich.  2 physiciens (Gerd Binnig et Heinrich Rohrer ) ont annoncé la naissance de leur nouveau jouet : le microscope à effet tunnel, ou STM, pour Scanning Tunneling Microscope.  Un nom bien mystérieux, comme tout ceux d’ailleurs de la famille des microscopes à champ proche.  Cette fois on utilise encore les électrons, mais sans considérer les particules ; on utilise le courant électrique, c’est à dire le transfert de charges électriques.  L’effet tunnel était déjà bien connu, qui indique que si on applique une différence de potentiel sur un échantillon conducteur, comme un métal, et qu’on approche très très près une fine pointe métallique conductrice, mais qu’on ne touche pas la surface, un courant électrique va s’établir entre la surface et la pointe. (figure 14).  Le fait que l’intensité  du courant dépende de la distance entre la pointe et l’échantillon permet de mesurer cette distance. En balayant la pointe sur la surface de l’échantillon, selon la topographie de la surface le courant est plus ou moins fort et on peut ainsi établir une carte topographique de l’échantillon.  Je simplifie beaucoup évidemment, mais c’est le principe !

Figure 14.1 - Le STM

Figure 14.1 – Le STM

Figure 14.2 - Image d'une surface, prise par Irène

Figure 14.2 – Image d’une surface, prise par Irène

 

Il aura fallu attendre environ 50 ans avant de mettre en pratique cette idée, parce que ce n’est pas facile de fabriquer des pointes très fines, 1000 fois plus fines qu’un cheveu.  Pas facile aussi d’isoler l’appareil de toutes les vibrations.  Imaginez que même parler devant l’appareil induit des vibrations acoustiques ou des changements de température, qui changent la distance entre la pointe et la surface, et perturbent donc les mesures.  Enfin fabriquer un contrôleur électronique qui puisse mesurer des courants de l’ordre du nano-ampère et très vite (avec une vitesse de quelques MHz, c’est à dire 1 million de mesures par seconde), n’était pas possible en 1930.   Aujourd’hui le STM fonctionne très bien, et a permis de reculer les limites de la résolution, il a permis de visualiser des atomes en routine, sans modifier les surfaces, sans préparation de ces échantillons et il est encore utilisé.

Toutefois, il existe une limite importante inhérente à cette technologie : les échantillons doivent être conducteurs.  Donc beaucoup d’échantillons ne pouvaient pas, du

Figure 15 - Principe de l'AFM

Figure 15 – Principe de l’AFM

moins facilement, être observés avec le STM, dont les échantillons biologiques.  Alors nos savants suisses n’en sont pas restés là.  Ils ont utilisé le même type de technologie, mais ont remplacé le current tunnel par la détection de forces atomiques.  Ainsi est né l’AFM, pour Atomic Force Microscope,  en 1986, par Gerd Binnig, Christoph Gerber, et Calvin Quate.  Le principe, c’est comme nos vieux lecteurs de disques vinyl (oui, je sais que beaucoup ici n’ont jamais vu un disque vinyl !)  Bref, notre très fine aiguille est maintenant attachée à un bras de levier très très flexible.  Quand on balaye cette aiguille au dessus de la surface d’un échantillon, comme une cellule vivante, parce qu’il existe des forces d’interaction entre cette pointe et la surface, le levier se courbe plus ou moins (figure 15).  Là aussi, les forces dépendent de la distance entre la pointe et la surface.  Donc le microscope mesure cette flexion et l’utilise dans un système de boucle de rétro-contrôle pour garder la pointe toujours à la même distance de la surface.  Donc, on balaye la pointe,  et en même temps on bouge la pointe verticalement pour suivre les contours de la surface.  Si il y a une bosse, la flexion est trop importante il faut éloigner la pointe.  Si il y a un trou, il n’y a pas assez de flexion, il faut approcher la pointe.  C’est simple comme principe ! Ainsi on peut reconstruire la surface en 3 dimensions.

Et ça marche très bien, et en milieu liquide de surcroît, ce qui est très attrayant pour les biologistes. Les échantillons non seulement ne sont pas  beaucoup modifiés quand ils sont préparés, mais en plus la technique AFM en soi  est non destructive ; on peut observer les mêmes échantillons plusieurs fois (par opposition aux MET et MEB qui détruisent les échantillons avec les rayonnement d’électrons). On peut ainsi regarder des cellules vivantes sans les détruire, on peut regarder en temps réel comment des fibres de collagène se forment.

Figure 16 - Bactériorhodopsine (structure)

Figure 16 – Bactériorhodopsine (image AFM)

On obtient une résolution atomique sur les échantillons durs, comme le mica ou le graphite.  En biologie, c’est de l’ordre de la molécule, quelques nm donc.  Exemple de la Bactériorhodopsine, (figure 16).  La Bactériorhodopsine est une protéine, le principal constituant de la membrane de certaines bactéries.  C’est une molécule intéressante à de nombreux points de vue.  D’abord son rôle : c’est une pompe, qui transfère des protons (des ions hydrogènes donc) à travers les membranes.  D’un point de vue structurel : c’est une longue molécule, qui se replie et qui traverse 7 fois la membrane.  Les molécules s’agencent ensuite en trimères  (ie 3 molécules qui forment un triangle) dans les membranes. Pour pomper les protons, elle absorbe de la lumière, des photons donc, et plus spécifiquement de la lumière verte.  Cela induit un changement de structure qui permet de transférer les protons.  Elle ré-émet le photon avec une belle couleur violette.  Avec un AFM, on peut voir très bien la structure de la la Bactériorhodopsine, les trimères en particulier et même changer les conditions d’observation (lumière, pH du milieu, force) et voir la protéine changer de forme, c’est superbe.  Je salue au passage mes collègues suisses pionniers dans ces travaux : Daniel Mueller et Simon Scheuring.

Figure 16 - Bactériorhodopsine (structure)

Figure 16 – Bactériorhodopsine (structure)

Figure 17 - La lisaison hydrogène

Figure 17 – La lisaison hydrogène

En plus, on peut utiliser le levier pour pousser sur des surfaces et mesurer leur rigidité, ou pour étirer des molécules et mesurer les forces à l’intérieur de ces molécules qui leur donnent leur géométrie (les liaisons hydrogènes donc).  Un exemple bien connu, celui de la Titine.  Celle-ci est la protéine la plus longue dans notre corps (>1 µm).  Elle se trouve dans les muscles, (protéine la plus abondante dans les muscles) et est responsable notamment de l’élasticité passive de nos muscles, comme un ressort.  C’est donc une longue molécule, qui comporte des portions repliées sur elles-mêmes, comme des nœuds (ce qu’on appelle des domaines globulaires), et ces nœuds gardent leur forme à l’aide de liaisons qui relient les brins entre eux (les liaisons hydrogènes, entre un atome d’hydrogène et un autre atome, souvent de l’oxygène) (figure 17).   Avec la pointe de notre AFM, on peut aller attraper l’extrémité d’une molécule de Titine, l’étirer, ouvrir un à un ces nœuds, ces domaines globulaires,  et mesurer les forces nécessaires, et obtenir des informations sur la géométrie de cette protéine (figure 18).

Figure 18

Figure 18 – Données par AFM et interprétation des données

Un autre exemple fascinant, celui de l’ADN.  En 1953 deux chercheurs anglais, James Watson  biologiste américain) et Francis Crick (biologiste et physicien anglais), avec des données notamment de Rosalin Franklin et de Jerry Donohue  établissent enfin la structure de la molécule d’ADN, en Angleterre.  C’est fantastique et ils ont bien mérité leur prix Nobel de médecine en 1962, mais ce qui est aussi fantastique c’est qu’ils n’ont pas utilisé de microscopie, ce sont des preuves indirectes (notamment la cristallographie à rayon X) qui leur ont permis de comprendre ce à quoi cette molécule ressemble, c’est à dire deux long brins enroulés sur eux-mêmes et qui forment une double hélice. Mais c’est avec un AFM que l’on a pu pour la première fois vraiment voir cette double hélice, on a maintenant des images, avec des détails sur la double hélice et toutes ses variations (figure 19).

Figure 19 - ADN (image AFM)

Figure 19 – ADN (image AFM)

On peut aussi utiliser des leviers qui conduisent le courant, pour mesurer les propriétés électriques des surfaces, ou des leviers recouverts de matériaux magnétiques pour détecter les champs magnétiques (lire les boîtes noires des avions par exemple !).

Par comparaison avec la microscopie électronique : résolution un peu meilleure, images en 3 D, pas de préparation des échantillons, études mécaniques des échantillons, fonctionnement en milieu liquide, pas de destruction des échantillon, petits instruments, qui sont super robustes.

Comparaison avec la microscopie optique : meilleure résolution mais plus difficiles à utiliser, plus cher

Fait notoire, en 1986 Gerd Binnig et Heinrich Rohrer ont obtenu le prix Nobel de physique pour le STM, en même temps que Ernst Ruska, pour l’invention du EM en 1931 !

Encore beaucoup de route devant soi, ce type de microscopie n’a que 30 ans !

 

Conclusions :

 

Il existe un type de microscopie que j’ai omis :  le microscope acoustique, qui date d’environ 1949, parce qu’il est plutôt restreint d’utilisation (pour l’étude des matériaux), même s’il présente l’avantage énorme de détecter des structures à l’intérieur des objets étudiés.  Comme son nom l’indique il utilise des ondes mécaniques cette fois, mais sa résolution est seulement de l ‘ordre du µm.

Il existe beaucoup de variantes à la microscopie optique, par exemple la microscopie confocale, la fluorescence, mais les principes de base sont les mêmes.

L’AFM a encore beaucoup progrès à faire, mais est de plus en plus utilisée.

Ces deux techniques restent complémentaires de la ME, qui, quant à elle, reste une technique lourde et très chère.  Juste pour le fun, sur la figure 20, j’ai copié des images prises par un EM d’une patte de mouche et un dessin par Robert Hooke, selon ses observations avec son microscope optique.

Figure 20 - à gauche image prise pas un EM, à droite la représentation de Hooke d'après ses observations au microscope optique

Figure 20 – à gauche image prise pas un EM, à droite la représentation de Hooke d’après ses observations au microscope optique

 

Merci pour votre attention !

 

Références

 

http://en.wikipedia.org/wiki/Antonie_van_Leeuwenhoek

http://micromonde.free.fr/histoire/#

http://www.optics1.com/optics_history.php

http://h2g2.com/approved_entry/A666128

Encyclopedia Britannica.

http://enlightenedlotuswellness.com/2013/03/06/zacharias-janssen-and-the-invention-of-the-microscope/

http://bsp.med.harvard.edu/node/220

http://www.jic.ac.uk/microscopy/intro_em.html

wikipédia !

 

VN:F [1.9.22_1171]
Rating: 4.7/5 (10 votes cast)

Podcast science 38 – La lumière

On 26.05.2011, in Notes d'émission, by Podcast Science
VN:F [1.9.22_1171]
Rating: 4.2/5 (11 votes cast)

Bonjour à toutes et à tous!

Un peu de housekeeping d’abord, concernant notre virée au CERN le samedi 9 juillet à 14h : merci de nous confirmer

  1. votre venue (il y a des gens sur liste d’attente, si jamais votre place devait se libérer, elle ne serait pas perdue pour tout le monde)
  2. votre taille de t-shirt (S, M, L, XL, XXL ou autre)

Via les moyens habituels siouplait, soit

Là, maintenant, tout de suite please. Merci :)

Le dossier de la semaine

Retour sur le dossier de la semaine dernière

Le commentaire avisé de Pierre Kerner:

J’ai beaucoup aimé cet épisode (que j’ai mis du temps à écouter, mais voilà chose faite). Alan c’est lancé sur un gros morceau digne des dossiers épique de Mathieu, chapeau donc! Pas de grosses critiques à faire. Je vous dirige juste sur l’excellent blog de Christie Wilcox d’Observations of a Nerd qui a publié un billet du même acabit à l’occasion de l’identification du corps d’Osama ben Laden (en Anglais : http://goo.gl/G4m7R ). 

Sinon je reviens sur une remarque de Mathieu que je ne peux pas laisser passer: Il a réagi sur le fait que les 4 “lettres” (les bases azotées) se retrouvaient chez tous les animaux, de la plus simple bactérie aux animaux les plus évolués… Alors bon, d’abord, il faut savoir qu’il fallait remplacer “animaux” dans sa phrase par “organismes” (vu que les bactéries ne sont pas des animaux et qu’au passage on oublie les plantes, les algues, les champignons, les archées, les protozoaires et j’en oublie…). Ensuite, je tilte (faut pas le prendre mal, c’est le mode enseignant qui s’enclenche), sur les formules: animaux les plus évolués. Dans la première partie d’un de mes articles sur les poissons amphibies (http://goo.gl/KPop9 ) je poussais un coup de gueule sur la vue trop répandue d’une échelle de la complexité que les organismes vivants se mettraient à gravir durant l’évolution, et où chaque barreau représenterait un stade évolutif où s’arrêteraient certaines lignées tandis que d’autres continueraient vers l’apogée où, bien entendu, nous les humains, résiderions… Et beh non: les bactéries qui vivent à l’heure actuelle sont “aussi” évoluées que les humains. Ce qui signifie qu’elles sont le résultat d’autant de milliards d’années d’évolution durant lesquelles elles ont accumulées des modifications qui ajoutent à la divergence entre leur lignée et celle qui a mené jusqu’à notre émergence. A vrai dire, si on jaugeait l’évolution par le nombre de modifications accumulées dans un génome, ce sont les bactéries qui devraient être targuées comme ‘plus évoluées’… La confusion vient du fait qu’on associe volontiers les processus d’accumulation de complexité avec les mécanismes évolutifs. Mais ceux-ci s’associent seulement au grès de la sélection naturelle. Et si un jour, une lignée se voit condamnée par une trop grande complexité pour s’adapter à leur milieu ou pour mieux se reproduire, les individus qui perdraient cette complexité viendraient facilement à prédominer la population locale et entrainerait une dé-complexification (encore une fois mal interprétée quand on entend parler de dé-évolution…).

Précision importante, en effet, nous allons d’ailleurs consacrer une émission entière à l’évolution dans deux semaines, juste après avoir consacré une émission entière à un thème non moins important: notre ami Taupo/Pierre Kerner, justement.

Enfin la quote de Mathieu:

“I think I can safely say that nobody understands quantum mechanics”. – Richard Feynman
Traduction libre: “Je peux affirmer sans risque que personne ne comprend la mécanique quantique” (Richard Feynman était sans doute l’autorité la plus respectée du domaine… de la mécanique quantique!)

Prochain enregistrement en direct du World Science Festival de New York (et bien sûr de Barcelone), rien que ça! Bonne semaine!

VN:F [1.9.22_1171]
Rating: 4.2/5 (11 votes cast)

Dossier – La Lumière

On 26.05.2011, in Dossiers, by Mathieu
VN:F [1.9.22_1171]
Rating: 4.3/5 (3 votes cast)

Il n’est pas facile de définir la lumière, car elle peut être représentée de deux façon différentes:

  • Nature ondulatoire.
  • Nature corpusculaire (particule).

La métaphore du cylindre est l’exemple d’un objet ayant des propriétés apparemment inconciliables. Il serait à première vue incongru d’affirmer qu’un objet a à la fois les propriétés d’un cercle et d’un rectangle; sur un plan (au sens géométrique), un objet est soit un cercle, soit un rectangle. Mais si l’on considère un cylindre : une projection dans l’axe du cylindre donne un cercle (source lumineuse dans l’axe projette une ombre en cercle sur un mur), et une projection perpendiculairement à cet axe donne un rectangle (source lumineuse perpendiculaire à l’axe projette un ombre rectangle sur un mur). On a donc bien un objet ayant les propriétés d’un cercle et d’un rectangle (mais il n’est ni l’un, ni l’autre).

Dualité

Quand on dit que la lumière est à la fois onde et particule, ce sont des manières de voir les choses et non pas les choses en elles-même, ce sont des représentations.

Nature ondulatoire

La lumière visible est composée de l’ensemble des ondes électromagnétiques visibles par l’oeil humain, c’est-à-dire comprises dans des longueurs d’onde situées entre le violet et le rouge.

Outre la lumière visible, par extension, on appelle aussi parfois « lumière » d’autres ondes électromagnétiques, telles que celles situées dans les domaines de fréquences de l’ultraviolet et de l’infrarouge.

Spectre optique

Ce sont les travaux sur l’életromagnétisme de James Clerk Maxwell aboutis en 1873 qui permettent d’expliquer le phénomène ondulatoire de la lumière. Il définit la lumière comme une onde qui se propage sous la forme d’un rayonnement électromagnétique (le rayonnement électromagnétique est une variation des champs électriques et magnétiques). Maxwell a montré que la lumière peut être modélisée par un champ électromagnétique (qui se propage dans une direction perpendiculaire à lui-même). Lorsque ce champ a une fréquence bien déterminée, l’onde associée peut être caractérisée par sa longueur d’onde qui dépend, d’ailleurs, du milieu où elle se propage. Dans le cas de la lumière visible, la couleur perçue par le cerveau, via l’œil, est la manifestation de la fréquence et non de la longueur d’onde (la diffraction, les interférences ou la polarisation nécessitent de prendre en compte la nature ondulatoire de la lumière).

Le spectre du rayonnement lumineux visible n’est qu’une partie de l’ensemble du rayonnement électromagnétique, beaucoup plus large : infrarouge, ultraviolet, ondes radio, rayons X, les rayons γ

Spèctre

Ce sont les fameuse équations de Maxwell qui permettent de développer une théorie générale de l’électromagnétisme. Elles permettent d’expliquer aussi bien la propagation de la lumière que le fonctionnement d’un électroaimant. Ces équations de Maxwell constituent des lois fondamentales de la physique et sont des postulats de base de l’électromagnétisme. Elles décrivent la force électromagnétique, qui est l’une des 4 forces fondamentales de l’Univers.

Nature corpusculaire

C’est Newton qui avait développé au départ une théorie purement corpusculaire de la lumière. Plus tard, la physique du XXéme siècle a montré que l’énergie transportée par la lumière est quantifiée grâce à des particules qu’on appelle photons. Le concept de photon a été développé par Albert Einstein entre 1905 et 1917 pour expliquer des observations expérimentales qui ne pouvaient être comprises dans le cadre d’un modèle ondulatoire classique de la lumière. Il a ainsi montré que parallèlement à son comportement ondulatoire — interférences et diffraction —, la propagation du champ électromagnétique présente simultanément des propriétés corpusculaires. On appelle photon:

  • le quantum d’énergie, c’est à dire la plus petite quantité d’énergie, indivisible, qui compose la lumière.
  • le photon peut être représenté comme une particule porteuse d’énergie, mais dépourvue de masse!

Le pénomène de rayonnement ou radiation en physique désigne le processus d’émission ou de transmission d’énergie impliquant une particule porteuse. Le rayonnement électromagnétique a comme vecteur le photon. À chaque type de radiation correspond sa particule porteuse : le photon pour le rayonnement électromagnétique, ou les particules alphabêta ou neutron pour respectivement les rayonnement alphabêta ou neutronique

Dualité onde-particule

La théorie ondulatoire de Maxwell ne rend pas compte de toutes les propriétés de la lumière. Cette théorie prédit que l’énergie d’une onde lumineuse dépend seulement de l’amplitude de l’onde, mais pas de sa fréquence. Or de nombreuses expériences indiquent que l’énergie transférée de la lumière aux atomes dépend seulement de la fréquence et non de l’amplitude. En 1905, Albert Einstein réconcilia la théorie de Maxwell avec celle de Newton : il expliqua l’effet photoélectrique, un effet dans lequel la lumière n’agit pas en tant qu’onde, mais en postulant l’existence des photons. L’effet laser s’explique aussi en terme de photons. Einstein postula que la fréquence ν de la lumière, est liée à l’énergie E des photons.

Le spectre électromagnétique est la décomposition du rayonnement électromagnétique selon ses différentes composantes en termes de fréquence ν (ou période T), de longueur d’onde λ associée ou d’énergie des photons E.

Spectre onde electromagnetique

Mise en évidence de la dualité grâce aux fentes de Young

Une des manières les plus claires de mettre en évidence la dualité onde-particule est l’expérience des fentes de Young. Cette expérience est connue depuis le XIXe siècle, où elle a d’abord mis clairement en évidence l’aspect purement ondulatoire de la lumière. Modifiée de manière adéquate, elle peut démontrer de manière spectaculaire la dualité onde-corpuscule de la lumière.

L’expérience consiste à éclairer par une source lumineuse un écran percé de deux fentes très fines et très rapprochées. Ces deux fentes se comportent comme deux sources secondaires d’émission lumineuse. Une plaque photographique placée derrière l’écran enregistre la lumière issue des deux fentes.

Fentes de Young

 

Ces deux sources interfèrent et forment sur la plaque photographique des franges lumineuses que l’on appelle une figure d’interférence. Cette figure est caractéristique d’un comportement ondulatoire de la lumière. Si l’expérience en reste à ce niveau, l’aspect corpusculaire n’apparaît pas.

Interférences

En fait, il est possible de diminuer l’intensité lumineuse de la source primaire de manière à ce que la lumière soit émise photon par photon. Le comportement de la lumière devient alors inexplicable sans faire appel à la dualité onde-corpuscule. Si on remplace la source lumineuse par un canon qui tire des micro-billes à travers les deux fentes, donc de “vraies” particules, on n’obtient aucune figure d’interférence, mais simplement une zone plus dense, en face des fentes, correspondant aux impacts des micro-billes. Or, dans le cas d’une émission lumineuse de faible intensité et envoyée par une sorte de canon à photons, on constate que l’impact de la lumière sur l’écran est marqué de la même manière que les micro-billes. Au fur et à mesure que les impacts augmentent sur la plaque photographique, on retrouve petit à petit une figure d’interférence reconstituée par l’ensemble des impacts des photons. On retrouve donc une figure d’interférence caractéristique des ondes, en même temps qu’un aspect corpusculaire des impacts sur la plaque photographique.

L’interprétation de cette expérience est difficile, car si on considère la lumière comme une onde, alors les points d’impacts sur la plaque photographique sont inexplicables; on devrait voir dans ce cas très faiblement, dès les premiers instants, la figure d’interférence, puis la voire de plus en plus intense. Au contraire, si on considère la lumière comme étant exclusivement composée de particules, alors les impacts sur la plaque photographique s’expliquent aisément, mais la figure d’interférence qui se crée peu à peu ne s’explique pas : comment et pourquoi certaines zones seraient privilégiées et d’autres interdites à ces particules ?

L’existence du photon ne contredit pas la théorie ondulatoire, au contraire : en mécanique quantique, la dualité onde-particule (ou onde-corpuscule) dit qu’à chacune des particules est associée une onde. Cette onde est appelée fonction d’onde de la particule, et c’est elle qui code la densité de probabilité des variables mesurables de la particule.  Si on considère le déplacement d’un unique photon (la position du photon est l’une des variables de la particule), les points d’arrivée possibles sont donnés sous forme de probabilités par l’onde associée. Sur un très grand nombre de photons, chaque lieu d’arrivée est illuminé avec une intensité proportionnelle à la probabilité de chacun des photons… ce qui correspond au résultat de la figure d’interférence de la théorie classique ondulatoire.

Sur la plaque photographique de l’expérience des fentes de Young, il se produit ce que l’on appelle une réduction du paquet d’onde, ou une décohérence de la fonction d’onde : le photon se matérialise, avec une probabilité donnée par la fonction d’onde: élevée à certains endroits (frange brillante), faible ou nulle à d’autres (franges sombres).

Cette expérience illustre également une caractéristique essentielle de la mécanique quantique:

  • Jusqu’à ce qu’une observation soit faite, la position d’une particule est décrite en termes d’ondes de probabilité, mais après que la particule est observée (ou mesurée), elle est décrite par une valeur fixe.

La lumière est donc considérée comme constituée de photons qui se comportent comme:

  • des corpuscules dans leurs interactions avec la matière.
  • des ondes pour leur propagation.

Optique Géométrique

L’optique géométrique est une approche complémentaire de l’optique ondulatoire et de l’optique quantique. Elle est en revanche plus ancienne, ayant été développée dès l’antiquité. C’est l’optique géométrique, qui reste l’outil le plus flexible et le plus efficace pour expliquer un certain nombre de phénomènes simples liés à la lumière. Par exemple, la lumière incidente sur l’interface entre deux milieux peut être réfléchieréfractée (dispersée) ou absorbée.

Réflexion-Réfraction

Réflexion

La lumière se déplace en ligne droite dans tout milieu transparent, en particulier dans le vide ou l’air. Dans le vide, la lumière se déplace à une vitesse fixe et indépassable d’environ 300’000 km/s. La lumière est un peu plus lente dans l’air, et notablement plus lente dans l’eau.

Le phénomène de réflexion est dû au fait que les rayons lumineux sont déviés (réfléchis) lors de la rencontre d’une surface réfléchissante (miroir). Les rayons lumineux réfléchis le sont tels que l’angle de réflexion est égal à l’angle d’incidence sur la surface réfléchissante.

Réfraction

La réfraction survient généralement à l’interface entre deux milieux, ou lors d’un changement de densité du milieu. Les rayons lumineux peuvent changer de trajectoire lors du passage d’un milieu à un autre. Tout milieu homogène dans lequel se propage un rayon lumineux possède un indice de réfraction. En tombant sur une surface (dioptre) séparant le milieu où il se propage (milieu d’incidence) d’un autre milieu possédant un autre indice de réfraction, ça donne naissance, dans ce second milieu, à un rayon qui n’est pas dans son prolongement, qui est dévié: c’est le rayon réfracté. Le fonctionnement des lentilles est basé sur ce phénomène de réfraction de la lumière.

Refraction Verre

Dans l’approche ondulatoire, la réfraction est un phénomène de déviation d’une onde lorsque sa vitesse change entre deux milieux. La vitesse de la lumière n’est pas la même dans les deux milieux. Ce changement de valeur suffit à interpréter le changement de direction de l’onde.

Lorsque la lumière incidente est monochromatique, on parle de simple pénomène de réfraction. Dans le cas de la lumière polychromatique, la réfraction conduit alors à un phénomène plus étendu et généralisé qu’on appelle de dispersion.

Dispersion

La dispersion est le phénomène affectant une onde dans un milieu dans lequel les différentes fréquences constituant l’onde ne se propagent pas à la même vitesse. L’indice de réfraction du milieu n’est pas le même pour toutes les composantes ondulatoires d’un rayon lumineux polychrome. L’indice de réfraction dépend de la longueur d’onde des composantes de la lumière.

Dispersion

Les arcs-en-ciel sont une manifestation de la dispersion induite par réfraction des rayons du soleil par les gouttelettes d’eau en suspension dans l’air.

La lumière blanche peut aussi se décomposer en arc-en-ciel à l’aide d’un prisme de verre. La décomposition de la lumière génère des raies spectrales qui correspondent aux différentes longueurs d’ondes émises. Le terme spectre fut employé pour la première fois en 1666 par Isaac Newton pour se référer à ce phénomène par lequel un prisme de verre peut séparer les couleurs contenues dans la lumière du Soleil. Chaque « couleur spectrale » de cette décomposition correspond à une longueur d’onde précise. Etant donné que l’indice de réfraction n’est pas le même pour les différentes longueurs d’onde d’un faisceau de lumière blanche: le bleu est plus dévié que le jaune, lui-même plus dévié que le rouge…

Dans les expériences du prisme, du point de vue de l’optique géométrique, un prisme est l’association de deux dioptres plans non parallèles (air-verre-air).

prisme

Absorption

L’absorption, en électromagnétisme, désigne un processus physique par lequel l’énergie électromagnétique est transformée en une autre forme d’énergie.

Au niveau des photons, l’absorption représente le phénomène par lequel l’énergie d’un photon est capturée par une autre particule, par exemple par les électrons qui se traduit par une transition entre 2 niveaux d’énergie électronique. Le photon est alors détruit par l’opération, l’énergie électromagnétique est absorbée et transformée en énergie électronique. On voit donc que l’absorption d’un photon peut provoquer des transitions atomiques, c’est-à-dire d’exciter un atome dont l’énergie augmente par la modification de l’orbite d’un de ses électrons. Cette énergie absorbée peut par la suite être:

  • re-transformée en énergie électromagnétique par l’émission de nouveau(x) photon(s). Lorsqu’un atome excité revient à son état d’énergie fondamental, il émet un photon dont l’énergie (et donc la fréquence) correspond à une différence entre deux états d’énergie de l’atome.
  • transformée en agitation particulaire (augmentation de la vitesse de la particule) ce qui se traduit au niveau macroscopique par une augmentation de la température (l’énergie électromagnétique a été transformée en chaleur).

C’est Niels Bohr qui interpréta l’émission de lumière par l’émission d’un photon lorsque l’atome passe d’un niveau d’énergie à un autre. Le spectre d’émission de n’importe quel élément peut être obtenu en chauffant cet élément, puis en analysant le rayonnement émis par la matière. Ce spectre est caractéristique de l’élément. Les photons sont ainsi des « paquets » d’énergie élémentaires, ou quanta de rayonnement électromagnétique, qui sont échangés lors de l’absorption ou de l’émission de lumière par la matière.

Pour la plupart des substances, le taux d’absorption varie avec la longueur d’onde de la lumière incidente, menant à l‘apparence de couleur dans les pigments qui absorbent certaines longueurs d’onde mais pas d’autres. Par exemple, avec une lumière blanche incidente, un objet qui absorbe les longueurs d’onde dans le bleu, vert et jaune, apparaîtra de couleur rouge. Un matériau de couleur noire absorbe toutes les longueurs d’onde (converties en chaleur), alors qu’un matériau de couleur blanche les réfléchit.

Diffraction

L’optique géométrique qui explique bien la grande partie des phénomènes de réflexion et réfraction ne permet pas d’expliquer tous les phénomènes lumineux. En particulier, elle ne tient pas compte du fait que la lumière est de nature ondulatoire. Lorsque tous les objets qui interagissent avec la lumière ont des tailles caractéristiques grandes devant la longueur d’onde du rayon lumineux alors il est convenable et plus simple d’utiliser l’optique géométrique pour décrire son comportement avec une bonne précision. Mais quand la lumière passe à travers des objets dont la taille est du même ordre de grandeur (voire plus petits) que sa longueur d’onde, alors il n’est plus possible de négliger l’aspect ondulatoire et on entre dans le domaine de l’optique ondulatoire. Deux phénomènes caractéristiques de l’optique ondulatoire, inexplicables dans le contexte de l’optique géométrique, sont les interférences lumineuses (Fentes de Young) et la diffraction.

La diffraction est le phénomène par lequel un rayonnement, comme la lumière, est dévié dans de multiples directions par une interaction avec d’autres objets ou un obstacle. La diffraction décrit donc le comportement des ondes lorsqu’elles rencontrent un obstacle. Elle se manifeste par le fait qu’après la rencontre d’un objet, la densité de l’onde n’est pas conservée selon les lois de l’optique géométrique. La diffraction s’observe avec la lumière, mais également avec le son, les vagues, les rayons X…. Elle est une signature de la nature ondulatoire d’un phénomène.

On parle d’interférence lorsque deux ondes de même type se rencontrent et interagissent l’une avec l’autre. La diffraction est le résultat de l’interférence des ondes diffusées par chaque point.

Diffraction

Exemple Pratique: Miroir et Photon

Soit un miroir avec un pouvoir réflecteur de 90 % (on considère qu’on reste dans le cadre la lumière visible humaine). Une source envoie simultanément 100 photons à la même fréquence contre ce miroir. Que va-t-il se passer?

  • Le miroir va réfléchir 90 photons et en absorber 10 (l’absorption des 10 photons pourrait se traduire par une petite augmentation de chaleur du miroir).

Sur quel critère 10% des photons vont passer à la “trappe” et vont être absorbé s’ils sont tous semblables. Qu’est ce qui va etre déterminant sur le choix des photons à réfléchir et ceux qui vont être absorbé ?

  • Sur la base de la nature corpusculaire de la lumière dont l’essence est intrinséquement probabiliste selon la mécanique quantique, le photon aura 9 chances sur 10 d’être réfléchi et 1 chance sur 10 d’être absorbé.

Un autre question plus tordue: un seul photon est émis, et envoyé à la rencontre du miroir. Celà voudrait-il dire que 0,9 photon est réfléchi et 0,1 est absorbé? Qu’est ce que 0,9 photon?

  • A nouveau, le photon aura 9 chances sur 10 d’être réfléchi, et 1 chance sur 10 d’être absorbé.

Ce qu’il faut savoir c’est que en réalité, ça n’a même pas de sens de se demander “lesquels” des 100 photons sont réfléchis et lesquels sont absorbés, parce qu’on ne peut pas les individualiser. Il faut plutot imaginer l’état d’un champ composés de 100 photons. Ce champs va évoluer vers un nouvel état composés de 90 photons réfléchis, l’énergie manquante ayant été absorbée. La même idée peut être expliqué dans le fonctionnement des comptes bancaires: c’est comme si la banque prélevait 10 euros de frais et commission sur 100 euros déposés sur un compte… on ne se pose pas la questions sur quels sont les euros parmi les 100 qui ont été prélevés!

Sources:

http://fr.wikipedia.org/wiki/Lumi%C3%A8re

http://fr.wikipedia.org/wiki/Rayonnement_%C3%A9lectromagn%C3%A9tique

http://fr.wikipedia.org/wiki/Photon

http://fr.wikipedia.org/wiki/Dualit%C3%A9_onde-particule

http://fr.wikipedia.org/wiki/Optique_g%C3%A9om%C3%A9trique

http://fr.wikipedia.org/wiki/R%C3%A9fraction_des_ondes

http://fr.wikipedia.org/wiki/Absorption_(optique)

http://fr.wikipedia.org/wiki/Dispersion

http://fr.wikipedia.org/wiki/Diffraction

http://forums.futura-sciences.com/physique/268537-miroir-photon-oeoeoeoemoi-2-autres-menervent.html

VN:F [1.9.22_1171]
Rating: 4.3/5 (3 votes cast)
VN:F [1.9.22_1171]
Rating: 5.0/5 (1 vote cast)

Bonjour à toutes et à tous,

Episode court et mouvementé cette semaine. Pas d’Anh Tuan au moment de l’enregistrement: il était aux urgences avec une personne de sa famille, accidentée. Heureusement, tout est bien qui finit bien, mais il n’a pas pu participer à cet épisode.

Puis coupure de courant chez Mathieu au moment où nous allions démarrer… Mathieu a dû se rendre dans un cybercafé pour pouvoir se connecter… Bref, du coup, on a fait court, light dans l’atmosphère chaleureuse d’un café catalan.

  • Des petites nouvelles du CERN d’abord: nous en sommes à 26 inscrits pour 24 places. Alors si jamais quelqu’un ne veut/peut plus venir, merci de libérer la place :)
  • Un extrait des nouvelles  que vous avez partagées sur facebook, twitter ou envoyées par signaux de fumée:
    • Beaucoup de réactions encourageants suite au gros dossier de la semaine dernière, sur le site et sur knowtex. Un tout grand merci!
    • La proposition la plus incongrue qu’on nous ait faite:  Jean-Pierre sur Facebook “J’ai 62 ans et, curieux des Sciences, votre vulgarisation cool me comble. Puis-je adopter l’un de vous ?” :)
    • Des tonnes de news, proposées essentiellement par Forza Pedro, Olivier Tripet et Xavier Agnès, allant des vents solaires à l’énergie noire, un wiki pour référencer les wiki en biologie, une pseudo-science: la cryptozoologie, l’abbé qui a inventé le terme de Big Bang (abbé Lemaitre), des exercices de maths, un scoop: l’antimatière lévite! Des réflexions sur un univers à 4 dimensions, les mini-trous noirs de Jean-Pierre Luminet… L’amarrage de l’ATV2 à l’ISS (c’était en live), un billet sur les mécanismes de l’oubli, les fluides non-newtonniens, un plug pour le no hors-série de philosophie magazine sur le cosmos des philosophes, un lien sur le dernier 36.9 qui portait notamment sur la plasticité neuronale illustrée par la vision retrouvée d’une personne aveugle (dont les zones cérébrales de la vision sont détruites… Episode génial), le décollage de la navette vu d’avion, une animation géniale montrant comment l’araignée tisse sa toile ou encore la distance terre-lune à l’échelle…  Tout ça sur notre page Facebook, une mine d’or!
    • Sur  Facebook toujours: notre ami François Udrea nous propose
      1. de réécouter les podcasts des conférences du jardin des sciences (de l’Université de Strasbourg), notamment les épisodes sur le LHC, même s’ils datent un peu (octobre 2008);
      2. “Bonjour, à ceux qui s’intéresse à l’astronomie je signale les “Rencontres Astronomique du Printemps” une (ou la) plus forte concentration d’instruments d’observation en Europe, il y a aussi des conférences. Attention ce n’est pas une manifestation publique il faut s’inscrire ! plus de détails sur http://www.astrorap.fr/
    • Sur Twitter,
    • Et enfin un petit coucou à Vincent de Zürich qui a convaincu sa maman, de Genève, 64 ans de nous écouter sur Itunes. Elle nous adore! Une bise à la maman de Vincent :)
    • Une dernière chose à signaler, le podcast “les années-lumière” sur Radio Canada, proposé par JxM (feed rss: http://rss.radio-canada.ca/balado/radio/lumiere.xml, lien itunes: itpc://rss.radio-canada.ca/balado/radio/lumiere.xml

Les dossiers de la semaine:

Last but not least, la QUOOOOTE!

Madurar es darte cuenta de que ya no vas a ser astronauta (ChumelTorres sur Twitter)

Traduction: Devenir adulte, c’est réaliser que l’on ne va jamais être astronaute.

Semaine prochaine, un double épisode pour compenser, c’est promis!

(prochains enregistrements le vendredi 11 mars 2011)

VN:F [1.9.22_1171]
Rating: 5.0/5 (1 vote cast)
Tagged with:  
VN:F [1.9.22_1171]
Rating: 5.0/5 (1 vote cast)

Pourquoi la mer est-elle bleue?

VN:F [1.9.22_1171]
Rating: 5.0/5 (1 vote cast)
Tagged with:  
VN:F [1.9.22_1171]
Rating: 4.6/5 (16 votes cast)

océan

Introduction

  • On constate aisément que l’eau qu’on se sert dans un verre ou celle qu’on utilise pour se laver les mains est transparente.
  • Mais on remarque aussi que l’eau douce d’un lac ou l’eau salée de mer ou d’un océan est de couleur bleue.
  • On a l’habitude de manière erronée d’expliquer que l’on voit les grandes étendues d’eau de couleur bleue à cause de sa superficie qui reflèterait la lumière du ciel, ou encore à cause d’une substance dissoute dans l’eau qui lui donnerait cette couleur, mais c’est en partie une légende urbaine.
    • On estime que dans un cas idéal, d’une mer calme sous un ciel bleu d’été, la contribution du bleu du ciel dans la couleur de l’eau s’élève au maximum à 2%.
  • On voit les océans de couleur bleue, simplement car l’eau est de couleur bleue, bienque dans certains cas (verre d’eau) on peut la percevoir autrement.
  • Certains facteurs peuvent affecter notre pérception de la couleur de l’eau:
    • la présence de sédiments de couleur marron dans les fleuves et rivières.
    • une grande concentration de minéraux ou métaux lourds.
    • la présence d’algues peut donner une couleur verte à l’eau.

La lumière du Soleil

  • On sait que la lumière blanche qui nous parvient du Soleil est en réalité composée de toutes les fréquences du spectre visible.
    • Observé par Isaac Newton lors de son expérience d’un rayon de lumière au-travers d’un prisme en verre.
  • Chaque fréquence qui compose la lumière du Soleil correspond à une couleur du spectre de l’arc-en-ciel, du violet jusqu’au rouge en passant par le bleu, le vert, le jaune et l’orange.
  • Lorsque la lumière blanche incidente atteint un objet, celui-ci absorbe un ensemble déterminé de couleurs (de fréquences):
    • une partie de la lumière est absorbée par l’objet, et le reste de la lumière non absobée est transmise, réfléchie ou dispersée.
    • Par exemple, si les feuilles d’un arbre sont vertes, c’est parce qu’elles absorbent toutes les couleurs du spectre visible, sauf la couleur verte (ou la fréquence correspondant à la couleur verte) qui est réfléchie et que nous pouvons percevoir grâce à nos yeux.

prisme

Spectre optique

Le cas de l’eau

Dans le cas de l’eau, si l’on considère uniquement la partie visible du spectre:

  • Elle absorbe principalement les couleur de basse fréquence (celles associées au rouge et à l’orange).
  • Elle transmet intégralement la couleur bleue.
  • Mais pour que nous puissions voir la couleur bleue depuis l’extérieur de l’eau, il faut que quelque chose puisse nous retourner ces rayons bleus à la superficie:
    • c’est grâce au phénomène de diffusion: le phénomène par lequel un rayonnement, comme la lumière, est dévié dans de multiples directions par une interaction avec d’autres objets.
    • Dans le cas de l’eau, la lumière bleue est alors dispersée dans toutes les directions par des particules se trouvant en suspension dans l’eau et aussi par les propres molécules d’eau elles-même, permettant ainsi qu’on puisse percevoir l’eau bleue depuis l’extérieur de l’eau.
  • Un rayon de lumière qui voyage au-travers d’une grande masse d’eau est donc privé des tons rouges et sera perçu comme un ton bleu.
  • Une conséquence curieuse à ce phénomène est que les poissons et objets qui sont rouges hors de l’eau, sont perçus comme noirs au fond de la mer.
    • La lumière qui les atteint ne possède plus la couleur rouge, qui a été absorbée par l’eau, et ils ne peuvent donc pas la refléchir.
    • Un plongeur verrait ces poissons ou ces objets de couleur noire, ils absorbent toute les fréquences de la lumière incidente qui n’on pas été absrobées par l’eau.

Pourquoi voit-on l’eau transaparente dans un verre?

  • L’absorbtion du rouge par l’eau est très faible.
  • Il est nécessaire que le rayon de lumière traverse un grande distance d’eau pour que le rouge soit absorbé.
  • Certaines expériences ont montré qu’avec de l’eau très pure, sa caractéristique de ton bleu est observée à partir d’une colonne d’eau de 3 mètres.
  • C’est pour cette raison que sur une plage, l’eau se voit transparente en bord de mer ou d’un lac, là où la profondeur est faible (on peut voir le fond):
    • elle transmet intégralement toute la lumière (il n’y a pas d’absorbtion de fréquences).
    • plus au large, l’eau devient bleue (des fréquences corrrespondant au rouge on été absorbées).

Les propriétés singulières de l’eau

  • Généralement la propriété de couleur tire son origine dans l’intéraction de la lumière avec les électronsd’une substance ou d’un objet.
    • La lumière incidente (la radiation électro-magnétique) sur un corps permet aux électrons de ce corps d’absorber l’énergie de la radiation incidente.
    • Les électrons acquièrent donc plus d’énergie et sont excités.
    • Mais les éléctrons n’absorbent pas n’importe quelle quantité d’énergie. Ils absorbent uniquement les énergies correspondant à des fréquences particulières, c’est-à-dire ils absorbent uniquement des couleurs particulières.
    • Le reste de la radiation qui n’a pas été absorbée par les électrons est celle qui donne la couleur au corps ou à l’objet.
    • Postérieurement, les électrons excités par le rayonnement lumineux retrouveront leur état énergétique initial en retournant l’énergie absorbée via l’émission d’une nouvelle radiation de basse fréquence, dans la gamme des infrarouges.
  • La couleur de l’eau ne se génère pas de cette manière:
    • La radiation incidente absorbée est principalement utilisée pour faire vibrer les molécules d’eau, et non pour exciter ses électrons.
    • Uniquement l’absorbtion des fréquences associées à la couleur rouge a lieu lors de l’activation des vibrations moléculaires de l’eau.
    • Les molécules d’autres substances peuvent aussi vibrer plus rapidemment lors de l’absorbtion d’une radiation, mais uniquement dans des gammes de fréquences au-delà de l’infrarouge, hors du spectre visible. Dans ces cas, aucune couleur liée à cette excitation moléculaire n’est donc perçue.

Source:

http://cienciaes.com/oceanos/2011/02/17/agua-azul-planeta-azul/

VN:F [1.9.22_1171]
Rating: 4.6/5 (16 votes cast)
Tagged with:  
*