VN:F [1.9.22_1171]
Rating: 5.0/5 (1 vote cast)


Continue reading »

VN:F [1.9.22_1171]
Rating: 5.0/5 (1 vote cast)
Tagged with:  

L’histoire des microscopes

On 23.01.2014, in Dossiers, by Irène Revenko
VN:F [1.9.22_1171]
Rating: 5.0/5 (3 votes cast)

 

Une histoire de la microscopie

 

microscope

Cette histoire fait partie de celles qui n’ont évidemment pas de fin, mais aussi pas de commencement, parce qu’il n’y a pas eu un jour un nouvel instrument mis au point et appelé microscope.  Les systèmes optiques développés par la nature, dont nos yeux, ne sont pas parfaits, et ils vieillissent mal.  On peut aisément imaginer que certains de nos ancêtres des cavernes avaient déjà du mal à voir les dessins de leurs artistes sur les murs des grottes, et très tôt le besoin de mieux voir a conduit les hommes à trouver des palliatifs, c’est à dire des lentilles de correction, et c’est par là que débute l’histoire des microscopes optiques.

Nous allons très simplement suivre un ordre chronologique pour décrire l’histoire des microscopes, parce qu’il y a en gros trois périodes, qui commencent chacune avec la naissance d’un type de microscopie, sans qu’aucun n’ait jamais ensuite disparu.

Et puis juste avant de vraiment démarrer impossible de ne pas rappeler que : micron = petit + skopein= observer (grec)

 

I- La microscopie optique.

 

Le principe repose sur l’utilisation des lentilles qui sont des objets,  en verre le plus souvent, qui dévient la lumière (plus ou moins selon la couleur de la lumière) et qui, tels la loupe, permettent de former une image agrandie d’un objet que l’on ne pourrait pas voir à l’œil nu (figures 1 et 2).

 

Figure 1 - Principe de la lentille

Figure 1 – Principe de la lentille

 

Grosso modo, la meilleure résolution est d’environ 200 nanomètres (nm), ie. que l’on peut voir deux points séparés par 200nm. Un nanomètre, c’est un milliardième de mètre. Un millième de micron. Rappelons que la taille d’un atome est d’environ 0,1 nm, et un cheveu fait environ 60 microns de diamètre.  Donc 200 nm c’est 300 fois plus petit qu’un cheveu environ.

Voyons plutôt comment la microscopie optique s’est développée au fil des siècles.

 

Histoire des sciences optiques.

 

Le microscope optique est le plus connu, le plus ancien, des microscopes, qui utilise deux composants bien familiers pour la plupart d’entre nous :

a) les lentilles, qui permettent, en autre, de grossir des objets que l’on ne peut pas voir à l’œil nu. Ceci en déviant les rayons de lumière.

b) la lumière, ce rayonnement de particules dont l’exemple le plus connu est bien sûr le soleil qui nous envoie tous les jours son lot de rayons.  Ces particules sont appelées des photons.  Chaque photon transporte de l’énergie, et selon la couleur de la lumière, la quantité d’énergie est différente.  Et selon la couleur, le rayon de lumière va être dévié différemment par la lentille.  Rappelez vous, pour les plus vieux d’entre nous, cette pochette d’album de Pink Floyd « The Dark side of the Moon », avec un rai de lumière à gauche venant frapper un prisme (figure 3).

 

Figure 3: déviation de la lumière blanche par un prisme (album de Pink Floyd, ‘Dark Side of the Moon”).

Figure 3: déviation de la lumière blanche par un prisme (album de Pink Floyd, ‘Dark Side of the Moon”).

À la sortie du prisme, à droite, le rai de lumière est joliment décomposé en un arc en ciel.  C’est parce que 1- la lumière blanche est composée par un ensemble de rayons de toutes les couleurs.  2- les rayons de couleurs différentes ne sont pas déviés avec le même angle.

Figure 2 - Principe de la loupe

Figure 2 – Principe de la loupe

 

Le principe de la lentille, c’est de dévier les trajets optiques venant des objets que vous voulez regarder. Par exemple, dans le cas d’une loupe toute simple, les rayons lumineux émis par votre objet sont déviés par la loupe et en quelque sorte bluffent nos yeux en leur faisant croire que cet objet est plus grand que ce qu’il n’est en réalité (figure 2).  En associant plusieurs lentilles, le trajet optique se complique, mais permet de former des images à des positions bien déterminées et avec une taille bien précise.  C’est le microscope optique tel que nous le connaissons de nos jours (figure 4).

 

Figure 4: Principe du microscope optique

Figure 4: Principe du microscope optique

Un des plus gros problèmes est que, comme nous l’avons dit plus haut, les rayons lumineux ne sont pas déviés avec le même angle en fonction de leur couleur. Il en résulte une distorsion des images, que l’on appelle l’aberration chromatique, qui est un problème majeur de la technique, mais l’on reviendra un petit peu là-dessus.

Pour revenir à l’historique, en 1850, une lentille a été découverte à Nimrud (sur le site de Ninive), en Irak, par l’archéologue Austen Layard (qui était français malgré ce nom bien anglais!) Elle semble être âgée de 3000 ans environ (elle aurait été fabriquée  entre le  Ier millénaire av. J.-C. et  le VIIe siècle av. J.-C.) et est exposée au British Museum de Londres.  Il s’agit d’un disque en Crystal de roche, qui pouvait peut-être servir de loupe, mais son polissage était très grossier, et au final, on ne sait pas trop bien de quoi il s’agit !

Il y a ensuite d’autres vestiges, telle cette lentille datant à peu près du Ve siècle avant JC, qui fut découverte en Crète, dans une grotte dans le mont Ida.  Elle semble être de meilleure qualité que celle de Nimrud.

Les auteurs romains Pline et Sénèque mentionnent dans leurs écrits un graveur à Pompéi qui utilisait une lentille. On peut trouver aussi des écrits romains mentionnant des moyens grossissants tels que des boules de verre remplies d’eau ou bien des émeraudes taillées en lentille concave.

Toutefois, on peut dire que l’histoire des sciences optiques en tant que telles commence probablement à Alexandrie, vers 300 ans avant JC.  À cette époque, la ville était grecque et les sciences devenaient de plus en plus importantes en Grèce, notamment la géométrie. Un des grands noms de la géométrie était le fameux Euclide.  Il est peut-être à l’origine de pratiquement tout ce que nous pouvons apprendre en géométrie à l’école, mais c’est aussi lui qui a découvert que la lumière voyage en ligne droite.  Les premières lois de la réflexion de la lumière sur une surface émanent de lui.  Vers 1100, le savant arabe Alhazen Ben Alhazen mentionne le pouvoir grossissant des lentilles, sans qu’en soit tiré apparemment des conséquences sur l’usage pouvant en être fait.

Au XIIIe siècle, Roger Bacon a utilisé, et cette fois-ci on le sait de façon plus documentée, des lentilles de verre en tant que loupe.

Bacon développait cette nouvelle technique pour aider les gens qui avaient des problèmes pour lire. Roger Bacon, était un moine franciscain anglais, qui s’est inspiré apparemment des travaux d’Alhacen. Il appellait son invention « reading stone » que l’on peut traduire par « pierre de lecture » ou « pierre pour lire » en mauvais français !  Ces lentilles étaient souvent utilisées par les moines, notamment pour enluminer leurs manuscrits.  Elles étaient au début très simples, avec un bord plat et l’autre convexe, c’est à dire une simple sphère coupée en deux.  Avec le temps, les moines ont expérimenté et leur instrument s’est perfectionné, en particulier en jouant avec la courbure.  En effet, moins la courbure est prononcée, plus la lentille agrandit les objets.

Il faut attendre jusqu’au XVIe siècle  pour voir poindre la première application scientifique concrète des lentilles.  Jusqu’à cette période, Il s’agissait de verres correcteurs pour nos yeux déficients.

Vers 1590, le hollandais Zacharias Janssen profite de ses compétences de fabriquant de lentilles pour inventer un nouvel outil : le microscope optique.  Il est alors formé par deux lentilles convexes, dans un ensemble de tubes coulissants. Mais bon, honnêtement, personne n’est certain de cette paternité !  Janssen est né à La Hague (probablement !), et c’est son père qui avait une entreprise de fabrication de lentilles, qui l’employait.  Zacharias aurait découvert les vertus de l’association de ces lentilles alors qu’il n’était encore qu’adolescent et aurait montré sa découverte à un diplomate ami de la famille.  Mais en réalité il n’existe pas d’exemplaire certain de son microscope.  Peut-être un dans un musée hollandais, pas sûr.  Il avait un grossissement de 10X, donc pas particulièrement performant et c’est peut-être pour cela que notre homme s’est apparemment reconverti dans le trafic de fausse monnaie !

Au XVIIe,  les recherches scientifiques convergent vers le développement de la microscopie. Encore une fois, personne ne peut prétendre à la paternité de cette invention. Plusieurs modèles de microscopes sont apparus à la même période.

Toutefois, le plus célèbre est sans conteste celui d’Antoni Leewenhoek, que l’on considère comme le père de la bactériologie en tant que science, et qui est un personnage  lui aussi bien intéressant!

 

Antoni Van LEEUWENHOEK (1632-1723) (Figure 5)

 

Figure 5

Figure 5

Leeuwenhoek est né à Delft aux Pays Bas, le 24 octobre 1632.
À 16 ans, il est envoyé à Amsterdam en tant qu’apprenti chez un drapier.  L’histoire raconte qu’il se débrouilla fort bien, qu’il monta son entreprise qui fut florissante.

C’est vers 1668, 20 ans plus tard donc qu’il présente son premier microscope.  Alors comment ce commerçant dans les tissus en est-il arrivé à devenir l’un des pères de la microscopie?  Et bien je suppose qu’il devait être très pointilleux, ou exigeant ou curieux ou malin, ou tout cela à la fois.  En tout cas, il voulait un instrument qui l’aiderait à compter le nombre de fils dans les tissus.  Apparemment, au début il a utilisé des éclats de diamants et puis il s’est mis à polir des morceaux de verre. Et il le fit très bien, car non seulement son commerce fut florissant mais il étendit l’usage de ses lentilles à d’autres applications, comme nous allons le voir. Ainsi, le polissage des lentilles devint un hobby, puis la technique se raffina et le tout produit l’un des objets scientifiques le plus utilisé de tous les temps. Ainsi donc, notre homme était très curieux et il s’est mis à regarder tout et n’importe quoi avec son microscope.  Car il avait trouvé un moyen de monter une toute petite lentille, environ de la taille d’une tête d’aiguille sur un support en laiton, percé d’un trou pour faire passer de la lumière. L’échantillon était placé sur une pointe métallique, solidaire du support et que l’on déplaçait face à la lentille pour en explorer le contenu. L’ensemble était tenu très près de l’œil, face à la lumière (figure 6). Figure 6.1Et voilà notre microscope.  Et il se trouve que c’était un excellent microscope parce que le fait d’utiliser une seule toute petite lentille (pour les savants qui nous écoutent, avec une distance focale très petite qui limite les aberrations chromatiques) d’excellente qualité (il avait vraiment peaufiné sa technique de polissage), fait qu’il pouvait grossir les objets 300 fois. Le microscope que Leeuwenhoek utilise permet une résolution de 1,4 micromètres (soit 300 X). Soit 1/35e de la largeur d’un cheveu!

C’est en fait très honorable par rapport aux microscopes actuels qui possèdent un pouvoir grossissant de 1000x.

Rappelons que notre homme n’est pas la figure typique du scientifique, d’ailleurs on lui reproche parfois une démarche peu rigoureuse.  Mais néanmoins, on lui connaît au moins 400 lentilles, toutes aussi petites les unes que les autres.  Et il était malin, il n’a jamais dévoilé ses secrets, comment il polissait ces petits morceaux de verre, comment il les montait sur le support en laiton du microscope, quelle source de lumière il utilisait…  Toujours est–il qu’Anthoni Leeuwenhoek est considéré aujourd’hui comme le père de la microbiologie, c’est à dire l’étude des bactéries.

Et, il est devenu fort célèbre, il a quand même reçu la visite de Pierre le Grand de Russie, ou Frédéric II de Prusse ! Il est un bel exemple d’autodidacte qui montre encore une fois que la curiosité est bien le plus important en science, que l’essentiel comme le disait Einstein est de se poser des questions, pas d’accumuler des connaissances.

Quand la “Royal Society of London” fut capable de reproduire son expérience, il devint immédiatement célèbre et ouvrit la voie aux chercheurs des générations suivantes.

On connaît toute une variété d’échantillons qu’il a observés et décrits : des gouttes de pluie, de la plaque dentaire, des morceaux d’intestin, des moules.  C’est comme cela qu’il a découvert les bactéries (appelées ‘animalcules’), qu’il a découvert la parthénogénèse des insectes c’est à dire le fait que certains animaux peuvent se multiplier sans reproduction sexuée.  Il a regardé beaucoup de spermatozoïdes aussi (chiens, insectes, humains… Je vous laisse élaborer ici comment et pourquoi).

En parallèle, et pas si loin que cela géographiquement, un autre scientifique développa une variante du microscope optique. Il s’agit de Robert Hooke. Le pouvoir grossissant de son microscope est lié à l’utilisation de plusieurs lentilles convexes (figure 7).  Mais comme les lentilles employées à la  réalisation de ces  microscopes présentaient toutes des défauts d’aberration chromatique entourant les bords de l’image, la plupart des scientifiques rejetèrent le microscope composé et réutilisèrent le microscope à lentille simple, comme celui de Leewenhoek. Ce microscope offrait des grossissements moins importants, mais possédaient une qualité d’image plus nette.

Figure 7

Figure 7

C’est au milieu du XVIIIe siècle que le Britannique John Dollond, corrigea le défaut d’aberration chromatique des microscopes composés en utilisant une lentille de forme différente (Figure 8)

Figure 8

Figure 8

Depuis cette époque, le microscope optique est similaire à ceux que nous connaissons aujourd’hui. A ce jour, bon nombre d’améliorations on contribué à perfectionner cet instrument, tant en matière optique que mécanique.  Il est passé d’une puissance de grossissement de 200 à 1500 fois en moyenne. La plupart des observations courantes se font entre 200 et 400 fois la taille nominale de l’objet observé.

Plus de quarante modèles de microscopes optiques sont disponibles sur le marché. Il n’est pas nécessaire d’acquérir un modèle haut de gamme pour réaliser des observations courantes. Un microscope équipé d’une tête monoculaire  peut suffire à tout amateur désireux de découvrir le monde de l’infiniment petit.

 

II- La microscopie électronique

 

Le microscope optique, même avec des lentilles optiques parfaites et une illumination idéale, ne pourra jamais distinguer des objets plus petits que la moitié d’une longueur d’onde de lumière.  Prenons un exemple.  La lumière blanche a une longueur d’onde moyenne d’environ 0.55 µm.  La moitié de 0.55 c’est environ 0.275. Donc si l’on regarde 2 lignes qui sont plus proches que 0.275 µm, on en verra qu’une.  Un point plus petit que 0.275µm peut être discerné comme un petit nuage tout au mieux.  Donc, la seule solution pour augmenter la résolution du microscope, c’est d’utiliser une source d’illumination ayant une longueur d’onde plus courte.

Et c’est ainsi qu’est née l’idée du microscope électronique.  Au lieu d’utiliser les photons, on utilise des électrons.  Les électrons sont ces petits grains de matière, des particules qui sont des constituant de tous les atomes, et qui portent une charge négative.  Ce sont eux les constituants de base du courant électrique.

Plus précisément, c’est grâce au développement des tubes cathodiques  que le ME a pu être développé.

Heinrich Rudolph Hertz (1857-94) suggéra que les faisceaux d’émission pouvaient être caractérisés par une longueur d’onde.

 

Heinrich Hertz  (figure 9)

 

Figure 9

Figure 9

C’est vraiment aussi un savant remarquable.  Il est connu principalement pour deux contributions majeures en sciences : ses travaux sur les ondes hertziennes, ces ondes radios électromagnétiques, auxquelles il a donné son nom, et sa théorie sur les déformations des matériaux à l’origine du modèle de Hertz utilisé comme point de départ de tous les modèles d’indentation par exemple.  Il devait être incroyablement humble parce qu’il pensait que ses découvertes sur les ondes radios n’auraient jamais d’application pratiques. Il est décédé très jeune, à 36 ans, d’une maladie auto-immune relativement rare (granulomatose avec polyangéite).

Emil Wiechert en 1899 , physicien allemand d’origine russe, montra que ces faisceaux pouvaient être focalisés sur un point en utilisant un champ magnétique produit par une bobine (figure 10).

Figure 10

Figure 10

Ce n’est qu’en 1926 que Hans Busch , allemand lui aussi, démontra la théorie qui explique qu’en effet un solénoïde (une bobine donc) peut faire converger un faisceau d’électrons de la même manière qu’une lentille de verre fait converger un faisceau de photons.

Dans le microscope électronique (ME), les électrons sont accélérés sous vide, jusqu’à ce que leur longueur d’onde soit 100 000 fois plus petite que celle de la lumière blanche.  Puis le faisceau est focalisé sur un échantillon, et ils sont soit déviés soit absorbés par l’échantillon.  Ceux qui sont déviés ou non absorbés sont récoltés sur un système de détection, type caméra CCD, comme les appareils photo numériques (Fig 11).

Figure 11 – Principe du microscope électronique
Figure 11 - Principe du microscope électronique

Figure 11 – Principe du microscope électronique

Le premier prototype fut construit en 1933 par l’ingénieur Ernst Ruska et pouvait détecter des objets de 50 nm.  Il était énorme, il fallait une pièce entière pour le faire rentrer.

Le premier EM commercial fut construit en Angleterre au Collège Imperial de Londres, mais en fait sa résolution ne dépassait guère celle d’un bon microscope optique !  Ce qui montre au passage combien il n’est pas aisé de faire la transition entre des appareils mis au point dans des labos de recherche et la production commerciale.

Les premiers EM n’étaient pas trop intéressants pour les microscopistes, parce que le faisceau d’électrons était très chaud et transperçait les échantillons.  Mais quelqu’un de bien malin, et je ne sais pas qui,  a eu l’idée géniale de recouvrir les échantillons biologiques avec du tétraoxide d’osmium, et de les couper en tranches hyper fines, et cela a marché.  Non pas que l’échantillon était moins chaud, mais le tétraoxide d’osmium empêche les lipides de fondre (on dit qu’on les fixe) et l’utilisation de coupes fines permet d’obtenir des images rapidement, sans focaliser le faisceau trop longtemps au même endroit). On a ainsi commencé à obtenir des images intéressantes en biologie. A l’université de Toronto, en 1938, Eli Burton et ses étudiants construisirent le premier EM vraiment à haute résolution.  Malheureusement la seconde guerre mondiale a ralenti les progrès suivants, mais 20 ans après la guerre, la résolution de l’EM était déjà de 1nm (rappelons qu’un nm c’est environ 10 atomes, environ 6000 plus petit que le diamètre d’un cheveu).

 

Les différents types de EM

 

Plus des électrons se déplacent rapidement, plus leur longueur d’onde est petite. La résolution d’un EM est reliée à cette longueur d’onde : plus elle est courte, plus la résolution augmente.  Donc, pour augmenter la résolution on essaie au maximum d’accélérer la vitesse des électrons, en augmentant la ddp appliquée entre les lentilles magnétiques.

Les ME aujourd’hui peuvent atteindre un grandissement des images de 2 millions de fois !  Si l’on pousse la résolution, on peut visualiser des objets de la taille de l’atome, une molécule pour les échantillons biologiques.  Toutefois, il existe une grosse limite à cette technique : aucun échantillon biologique ne peut survivre dans le vide poussé qui existe à l’intérieur du microscope.  Il existe bien quelques EM commerciaux qui permettent de visualiser des échantillons humides, mais il y a encore beaucoup de limites à la technique.

 

Revenons un petit peu sur le principe des ME

Dans le ME, les lentilles magnétiques guident les électrons, tout comme dans un microscope optique les lentilles optiques guident les photons.  Mais il existe en fait deux types de ME, selon les électrons que l’on détecte.

 

Le ME à Transmission (MET) ou TEM en anglais (figure 12 et 13)

 

Figure 12 - Principe du MET et du MEB

Figure 12 – Principe du MET et du MEB

Lorsque les électrons bombardent l’échantillon, ils peuvent  traverser la matière, plus ou moins et plus ou moins vite selon la densité de la matière traversée à cet endroit-là,  et être recueillis sous l’échantillon, il s’agit du microscope à transmission , MET.  Ainsi, seuls les échantillons très fins, ou découpés en tranches très fines peuvent être étudiés.   Les images produites sont en noir en blanc et deux dimensions.  Par exemple, à l’intérieur d’une cellule, le noyau et les autres composants cellulaires , les organelles, sont plus denses que la soupe dans laquelle ils baignent.  Les objets les plus denses arrêtent plus les électrons que les zones de relative moindre densité.

La résolution du MET permet de voir des atomes de carbones séparés par 0,089 nm ou des atomes de silicium (0,078nm).  Ainsi le MET est très utilisé dans le domaine des nanotechnologies, des semi-conducteurs pour la microélectronique.  En biologie, c’est la préparation des échantillons qui est le facteur limitant.  Les méthodes de préparation pour préserver les structures et accroitre les contrastes sont incroyablement nombreuses, parfois spécifiques à un spécimen seulement et souvent très compliquées (longues avec beaucoup d’étapes).

 

Le ME à Balayage  (figure 12 et 13)

 

Figure 13 : Simple differences between (SEM) scanning and (TEM) transmission electron microscopes

Figure 13 : Simple differences between (SEM) scanning and (TEM) transmission electron microscopes

Lorsque les électrons arrivent sur la surface des échantillons, ils peuvent aussi, au moment où ils frappent la surface provoquer l’émission de nouveaux électrons, selon un angle de réflexion,  et ce sont ces nouveaux électrons qui sont recueillis et utilisés pour former une image sur le détecteur.  Il s’agit du microscope à balayage.  Le faisceau d’électrons est balayé à la surface de l’échantillon dans un mouvement de balayage, en zig-zag donc.

La résolution du MEB est environ dix fois moindre que celle du TEM, mais permet d’obtenir une profondeur de champ d’observation qui n’existe pas avec le TEM, une sorte d’image en 3D.

 

Préparation des échantillons

 

Je le disais plus haut, les gens qui font de la ME, et qui la font bien, ont une somme de connaissance gigantesque ! Il faut pour le MET pouvoir observer des coupes super fines de tissus, et pour le MEB avoir des surfaces qui réfléchissent les électrons.

Citons brièvement quelques techniques de bases :

-découper les échantillons en fines tranches, 50 à 90 nm, avec un appareil appelé microtome et des lames de rasoir en diamant.

-fixer les échantillons, avec des produits chimiques, pour préserver les structures, les rendre plus dures.  On force les molécules à se lier entre elles.  En fait, c’est le même effet que faire bouillir un œuf frais !  On se retrouve avec un œuf dur !

-congeler les échantillons à très basse température et les couper en fines tranches.  C’est la cryoscopie

-Infiltrer les tissus avec des résines, pour figer les structures et pouvoir les couper ensuite.  Il faut auparavant enlever l’eau, le plus souvent par des bains successifs dans de l’alcool

-augmenter les contrastes en recouvrant les surfaces avec des métaux lourds

-Couper les échantillons après les avoir congelés, car la lame suit les contours de moindre fragilité et révèle ainsi des structures selon leur dureté.  Souvent il faut aussi recouvrir ensuite pour les observations en TEM par un film de Pt puis C, et c’est le film de C que l’on observe, pas l’échantillon lui-même.

Il existe une quantité incroyable de livres sur le sujet et de quoi occuper la vie de beaucoup de gens à temps plein….

Les limites de la technique

 

-ce sont des appareils chers et difficiles à maintenir en bon fonctionnement (ddp  élevées, vide, sensible aux vibrations…)

- difficile à utiliser, surtout par rapport à un microscope optique.

-la préparation des échantillons est délicate et induit de toute façon des modifications de la structure des échantillons en biologie.  Par exemple, congeler les échantillons induit la formation de cristaux de glace qui sont difficiles à éviter et qui détruisent les structures.

Heureusement, les limites du microscope électronique, notamment dans la préparation des échantillons sont maintenant et depuis peu,  un peu compensés par l’essor d’un troisième type de microscopie, très différente des deux précédentes, donc complémentaire dans son utilisation.

 

III La microscopie à champ proche.

 

L’idée de départ date des années 1930, on trouve des publications ingénieuses qui montrent combien les hommes sont créateurs, car si l’idée était bonne, elle n’était pas réalisable d’un point de vue technique.  Les limitations de la technologie ne permettaient pas à l’époque de construire de tels instruments.

Et c’est en 1981, que le premier appareil a vu le jour chez IBM Zurich.  2 physiciens (Gerd Binnig et Heinrich Rohrer ) ont annoncé la naissance de leur nouveau jouet : le microscope à effet tunnel, ou STM, pour Scanning Tunneling Microscope.  Un nom bien mystérieux, comme tout ceux d’ailleurs de la famille des microscopes à champ proche.  Cette fois on utilise encore les électrons, mais sans considérer les particules ; on utilise le courant électrique, c’est à dire le transfert de charges électriques.  L’effet tunnel était déjà bien connu, qui indique que si on applique une différence de potentiel sur un échantillon conducteur, comme un métal, et qu’on approche très très près une fine pointe métallique conductrice, mais qu’on ne touche pas la surface, un courant électrique va s’établir entre la surface et la pointe. (figure 14).  Le fait que l’intensité  du courant dépende de la distance entre la pointe et l’échantillon permet de mesurer cette distance. En balayant la pointe sur la surface de l’échantillon, selon la topographie de la surface le courant est plus ou moins fort et on peut ainsi établir une carte topographique de l’échantillon.  Je simplifie beaucoup évidemment, mais c’est le principe !

Figure 14.1 - Le STM

Figure 14.1 – Le STM

Figure 14.2 - Image d'une surface, prise par Irène

Figure 14.2 – Image d’une surface, prise par Irène

 

Il aura fallu attendre environ 50 ans avant de mettre en pratique cette idée, parce que ce n’est pas facile de fabriquer des pointes très fines, 1000 fois plus fines qu’un cheveu.  Pas facile aussi d’isoler l’appareil de toutes les vibrations.  Imaginez que même parler devant l’appareil induit des vibrations acoustiques ou des changements de température, qui changent la distance entre la pointe et la surface, et perturbent donc les mesures.  Enfin fabriquer un contrôleur électronique qui puisse mesurer des courants de l’ordre du nano-ampère et très vite (avec une vitesse de quelques MHz, c’est à dire 1 million de mesures par seconde), n’était pas possible en 1930.   Aujourd’hui le STM fonctionne très bien, et a permis de reculer les limites de la résolution, il a permis de visualiser des atomes en routine, sans modifier les surfaces, sans préparation de ces échantillons et il est encore utilisé.

Toutefois, il existe une limite importante inhérente à cette technologie : les échantillons doivent être conducteurs.  Donc beaucoup d’échantillons ne pouvaient pas, du

Figure 15 - Principe de l'AFM

Figure 15 – Principe de l’AFM

moins facilement, être observés avec le STM, dont les échantillons biologiques.  Alors nos savants suisses n’en sont pas restés là.  Ils ont utilisé le même type de technologie, mais ont remplacé le current tunnel par la détection de forces atomiques.  Ainsi est né l’AFM, pour Atomic Force Microscope,  en 1986, par Gerd Binnig, Christoph Gerber, et Calvin Quate.  Le principe, c’est comme nos vieux lecteurs de disques vinyl (oui, je sais que beaucoup ici n’ont jamais vu un disque vinyl !)  Bref, notre très fine aiguille est maintenant attachée à un bras de levier très très flexible.  Quand on balaye cette aiguille au dessus de la surface d’un échantillon, comme une cellule vivante, parce qu’il existe des forces d’interaction entre cette pointe et la surface, le levier se courbe plus ou moins (figure 15).  Là aussi, les forces dépendent de la distance entre la pointe et la surface.  Donc le microscope mesure cette flexion et l’utilise dans un système de boucle de rétro-contrôle pour garder la pointe toujours à la même distance de la surface.  Donc, on balaye la pointe,  et en même temps on bouge la pointe verticalement pour suivre les contours de la surface.  Si il y a une bosse, la flexion est trop importante il faut éloigner la pointe.  Si il y a un trou, il n’y a pas assez de flexion, il faut approcher la pointe.  C’est simple comme principe ! Ainsi on peut reconstruire la surface en 3 dimensions.

Et ça marche très bien, et en milieu liquide de surcroît, ce qui est très attrayant pour les biologistes. Les échantillons non seulement ne sont pas  beaucoup modifiés quand ils sont préparés, mais en plus la technique AFM en soi  est non destructive ; on peut observer les mêmes échantillons plusieurs fois (par opposition aux MET et MEB qui détruisent les échantillons avec les rayonnement d’électrons). On peut ainsi regarder des cellules vivantes sans les détruire, on peut regarder en temps réel comment des fibres de collagène se forment.

Figure 16 - Bactériorhodopsine (structure)

Figure 16 – Bactériorhodopsine (image AFM)

On obtient une résolution atomique sur les échantillons durs, comme le mica ou le graphite.  En biologie, c’est de l’ordre de la molécule, quelques nm donc.  Exemple de la Bactériorhodopsine, (figure 16).  La Bactériorhodopsine est une protéine, le principal constituant de la membrane de certaines bactéries.  C’est une molécule intéressante à de nombreux points de vue.  D’abord son rôle : c’est une pompe, qui transfère des protons (des ions hydrogènes donc) à travers les membranes.  D’un point de vue structurel : c’est une longue molécule, qui se replie et qui traverse 7 fois la membrane.  Les molécules s’agencent ensuite en trimères  (ie 3 molécules qui forment un triangle) dans les membranes. Pour pomper les protons, elle absorbe de la lumière, des photons donc, et plus spécifiquement de la lumière verte.  Cela induit un changement de structure qui permet de transférer les protons.  Elle ré-émet le photon avec une belle couleur violette.  Avec un AFM, on peut voir très bien la structure de la la Bactériorhodopsine, les trimères en particulier et même changer les conditions d’observation (lumière, pH du milieu, force) et voir la protéine changer de forme, c’est superbe.  Je salue au passage mes collègues suisses pionniers dans ces travaux : Daniel Mueller et Simon Scheuring.

Figure 16 - Bactériorhodopsine (structure)

Figure 16 – Bactériorhodopsine (structure)

Figure 17 - La lisaison hydrogène

Figure 17 – La lisaison hydrogène

En plus, on peut utiliser le levier pour pousser sur des surfaces et mesurer leur rigidité, ou pour étirer des molécules et mesurer les forces à l’intérieur de ces molécules qui leur donnent leur géométrie (les liaisons hydrogènes donc).  Un exemple bien connu, celui de la Titine.  Celle-ci est la protéine la plus longue dans notre corps (>1 µm).  Elle se trouve dans les muscles, (protéine la plus abondante dans les muscles) et est responsable notamment de l’élasticité passive de nos muscles, comme un ressort.  C’est donc une longue molécule, qui comporte des portions repliées sur elles-mêmes, comme des nœuds (ce qu’on appelle des domaines globulaires), et ces nœuds gardent leur forme à l’aide de liaisons qui relient les brins entre eux (les liaisons hydrogènes, entre un atome d’hydrogène et un autre atome, souvent de l’oxygène) (figure 17).   Avec la pointe de notre AFM, on peut aller attraper l’extrémité d’une molécule de Titine, l’étirer, ouvrir un à un ces nœuds, ces domaines globulaires,  et mesurer les forces nécessaires, et obtenir des informations sur la géométrie de cette protéine (figure 18).

Figure 18

Figure 18 – Données par AFM et interprétation des données

Un autre exemple fascinant, celui de l’ADN.  En 1953 deux chercheurs anglais, James Watson  biologiste américain) et Francis Crick (biologiste et physicien anglais), avec des données notamment de Rosalin Franklin et de Jerry Donohue  établissent enfin la structure de la molécule d’ADN, en Angleterre.  C’est fantastique et ils ont bien mérité leur prix Nobel de médecine en 1962, mais ce qui est aussi fantastique c’est qu’ils n’ont pas utilisé de microscopie, ce sont des preuves indirectes (notamment la cristallographie à rayon X) qui leur ont permis de comprendre ce à quoi cette molécule ressemble, c’est à dire deux long brins enroulés sur eux-mêmes et qui forment une double hélice. Mais c’est avec un AFM que l’on a pu pour la première fois vraiment voir cette double hélice, on a maintenant des images, avec des détails sur la double hélice et toutes ses variations (figure 19).

Figure 19 - ADN (image AFM)

Figure 19 – ADN (image AFM)

On peut aussi utiliser des leviers qui conduisent le courant, pour mesurer les propriétés électriques des surfaces, ou des leviers recouverts de matériaux magnétiques pour détecter les champs magnétiques (lire les boîtes noires des avions par exemple !).

Par comparaison avec la microscopie électronique : résolution un peu meilleure, images en 3 D, pas de préparation des échantillons, études mécaniques des échantillons, fonctionnement en milieu liquide, pas de destruction des échantillon, petits instruments, qui sont super robustes.

Comparaison avec la microscopie optique : meilleure résolution mais plus difficiles à utiliser, plus cher

Fait notoire, en 1986 Gerd Binnig et Heinrich Rohrer ont obtenu le prix Nobel de physique pour le STM, en même temps que Ernst Ruska, pour l’invention du EM en 1931 !

Encore beaucoup de route devant soi, ce type de microscopie n’a que 30 ans !

 

Conclusions :

 

Il existe un type de microscopie que j’ai omis :  le microscope acoustique, qui date d’environ 1949, parce qu’il est plutôt restreint d’utilisation (pour l’étude des matériaux), même s’il présente l’avantage énorme de détecter des structures à l’intérieur des objets étudiés.  Comme son nom l’indique il utilise des ondes mécaniques cette fois, mais sa résolution est seulement de l ‘ordre du µm.

Il existe beaucoup de variantes à la microscopie optique, par exemple la microscopie confocale, la fluorescence, mais les principes de base sont les mêmes.

L’AFM a encore beaucoup progrès à faire, mais est de plus en plus utilisée.

Ces deux techniques restent complémentaires de la ME, qui, quant à elle, reste une technique lourde et très chère.  Juste pour le fun, sur la figure 20, j’ai copié des images prises par un EM d’une patte de mouche et un dessin par Robert Hooke, selon ses observations avec son microscope optique.

Figure 20 - à gauche image prise pas un EM, à droite la représentation de Hooke d'après ses observations au microscope optique

Figure 20 – à gauche image prise pas un EM, à droite la représentation de Hooke d’après ses observations au microscope optique

 

Merci pour votre attention !

 

Références

 

http://en.wikipedia.org/wiki/Antonie_van_Leeuwenhoek

http://micromonde.free.fr/histoire/#

http://www.optics1.com/optics_history.php

http://h2g2.com/approved_entry/A666128

Encyclopedia Britannica.

http://enlightenedlotuswellness.com/2013/03/06/zacharias-janssen-and-the-invention-of-the-microscope/

http://bsp.med.harvard.edu/node/220

http://www.jic.ac.uk/microscopy/intro_em.html

wikipédia !

 

VN:F [1.9.22_1171]
Rating: 5.0/5 (3 votes cast)

Podcast science 38 – La lumière

On 26.05.2011, in Notes d'émission, by Podcast Science
VN:F [1.9.22_1171]
Rating: 4.2/5 (11 votes cast)

Bonjour à toutes et à tous!

Un peu de housekeeping d’abord, concernant notre virée au CERN le samedi 9 juillet à 14h : merci de nous confirmer

  1. votre venue (il y a des gens sur liste d’attente, si jamais votre place devait se libérer, elle ne serait pas perdue pour tout le monde)
  2. votre taille de t-shirt (S, M, L, XL, XXL ou autre)

Via les moyens habituels siouplait, soit

Là, maintenant, tout de suite please. Merci :)

Le dossier de la semaine

Retour sur le dossier de la semaine dernière

Le commentaire avisé de Pierre Kerner:

J’ai beaucoup aimé cet épisode (que j’ai mis du temps à écouter, mais voilà chose faite). Alan c’est lancé sur un gros morceau digne des dossiers épique de Mathieu, chapeau donc! Pas de grosses critiques à faire. Je vous dirige juste sur l’excellent blog de Christie Wilcox d’Observations of a Nerd qui a publié un billet du même acabit à l’occasion de l’identification du corps d’Osama ben Laden (en Anglais : http://goo.gl/G4m7R ). 

Sinon je reviens sur une remarque de Mathieu que je ne peux pas laisser passer: Il a réagi sur le fait que les 4 “lettres” (les bases azotées) se retrouvaient chez tous les animaux, de la plus simple bactérie aux animaux les plus évolués… Alors bon, d’abord, il faut savoir qu’il fallait remplacer “animaux” dans sa phrase par “organismes” (vu que les bactéries ne sont pas des animaux et qu’au passage on oublie les plantes, les algues, les champignons, les archées, les protozoaires et j’en oublie…). Ensuite, je tilte (faut pas le prendre mal, c’est le mode enseignant qui s’enclenche), sur les formules: animaux les plus évolués. Dans la première partie d’un de mes articles sur les poissons amphibies (http://goo.gl/KPop9 ) je poussais un coup de gueule sur la vue trop répandue d’une échelle de la complexité que les organismes vivants se mettraient à gravir durant l’évolution, et où chaque barreau représenterait un stade évolutif où s’arrêteraient certaines lignées tandis que d’autres continueraient vers l’apogée où, bien entendu, nous les humains, résiderions… Et beh non: les bactéries qui vivent à l’heure actuelle sont “aussi” évoluées que les humains. Ce qui signifie qu’elles sont le résultat d’autant de milliards d’années d’évolution durant lesquelles elles ont accumulées des modifications qui ajoutent à la divergence entre leur lignée et celle qui a mené jusqu’à notre émergence. A vrai dire, si on jaugeait l’évolution par le nombre de modifications accumulées dans un génome, ce sont les bactéries qui devraient être targuées comme ‘plus évoluées’… La confusion vient du fait qu’on associe volontiers les processus d’accumulation de complexité avec les mécanismes évolutifs. Mais ceux-ci s’associent seulement au grès de la sélection naturelle. Et si un jour, une lignée se voit condamnée par une trop grande complexité pour s’adapter à leur milieu ou pour mieux se reproduire, les individus qui perdraient cette complexité viendraient facilement à prédominer la population locale et entrainerait une dé-complexification (encore une fois mal interprétée quand on entend parler de dé-évolution…).

Précision importante, en effet, nous allons d’ailleurs consacrer une émission entière à l’évolution dans deux semaines, juste après avoir consacré une émission entière à un thème non moins important: notre ami Taupo/Pierre Kerner, justement.

Enfin la quote de Mathieu:

“I think I can safely say that nobody understands quantum mechanics”. – Richard Feynman
Traduction libre: “Je peux affirmer sans risque que personne ne comprend la mécanique quantique” (Richard Feynman était sans doute l’autorité la plus respectée du domaine… de la mécanique quantique!)

Prochain enregistrement en direct du World Science Festival de New York (et bien sûr de Barcelone), rien que ça! Bonne semaine!

VN:F [1.9.22_1171]
Rating: 4.2/5 (11 votes cast)

Dossier – La Lumière

On 26.05.2011, in Dossiers, by Mathieu
VN:F [1.9.22_1171]
Rating: 4.3/5 (3 votes cast)

Il n’est pas facile de définir la lumière, car elle peut être représentée de deux façon différentes:

  • Nature ondulatoire.
  • Nature corpusculaire (particule).

La métaphore du cylindre est l’exemple d’un objet ayant des propriétés apparemment inconciliables. Il serait à première vue incongru d’affirmer qu’un objet a à la fois les propriétés d’un cercle et d’un rectangle; sur un plan (au sens géométrique), un objet est soit un cercle, soit un rectangle. Mais si l’on considère un cylindre : une projection dans l’axe du cylindre donne un cercle (source lumineuse dans l’axe projette une ombre en cercle sur un mur), et une projection perpendiculairement à cet axe donne un rectangle (source lumineuse perpendiculaire à l’axe projette un ombre rectangle sur un mur). On a donc bien un objet ayant les propriétés d’un cercle et d’un rectangle (mais il n’est ni l’un, ni l’autre).

Dualité

Quand on dit que la lumière est à la fois onde et particule, ce sont des manières de voir les choses et non pas les choses en elles-même, ce sont des représentations.

Nature ondulatoire

La lumière visible est composée de l’ensemble des ondes électromagnétiques visibles par l’oeil humain, c’est-à-dire comprises dans des longueurs d’onde situées entre le violet et le rouge.

Outre la lumière visible, par extension, on appelle aussi parfois « lumière » d’autres ondes électromagnétiques, telles que celles situées dans les domaines de fréquences de l’ultraviolet et de l’infrarouge.

Spectre optique

Ce sont les travaux sur l’életromagnétisme de James Clerk Maxwell aboutis en 1873 qui permettent d’expliquer le phénomène ondulatoire de la lumière. Il définit la lumière comme une onde qui se propage sous la forme d’un rayonnement électromagnétique (le rayonnement électromagnétique est une variation des champs électriques et magnétiques). Maxwell a montré que la lumière peut être modélisée par un champ électromagnétique (qui se propage dans une direction perpendiculaire à lui-même). Lorsque ce champ a une fréquence bien déterminée, l’onde associée peut être caractérisée par sa longueur d’onde qui dépend, d’ailleurs, du milieu où elle se propage. Dans le cas de la lumière visible, la couleur perçue par le cerveau, via l’œil, est la manifestation de la fréquence et non de la longueur d’onde (la diffraction, les interférences ou la polarisation nécessitent de prendre en compte la nature ondulatoire de la lumière).

Le spectre du rayonnement lumineux visible n’est qu’une partie de l’ensemble du rayonnement électromagnétique, beaucoup plus large : infrarouge, ultraviolet, ondes radio, rayons X, les rayons γ

Spèctre

Ce sont les fameuse équations de Maxwell qui permettent de développer une théorie générale de l’électromagnétisme. Elles permettent d’expliquer aussi bien la propagation de la lumière que le fonctionnement d’un électroaimant. Ces équations de Maxwell constituent des lois fondamentales de la physique et sont des postulats de base de l’électromagnétisme. Elles décrivent la force électromagnétique, qui est l’une des 4 forces fondamentales de l’Univers.

Nature corpusculaire

C’est Newton qui avait développé au départ une théorie purement corpusculaire de la lumière. Plus tard, la physique du XXéme siècle a montré que l’énergie transportée par la lumière est quantifiée grâce à des particules qu’on appelle photons. Le concept de photon a été développé par Albert Einstein entre 1905 et 1917 pour expliquer des observations expérimentales qui ne pouvaient être comprises dans le cadre d’un modèle ondulatoire classique de la lumière. Il a ainsi montré que parallèlement à son comportement ondulatoire — interférences et diffraction —, la propagation du champ électromagnétique présente simultanément des propriétés corpusculaires. On appelle photon:

  • le quantum d’énergie, c’est à dire la plus petite quantité d’énergie, indivisible, qui compose la lumière.
  • le photon peut être représenté comme une particule porteuse d’énergie, mais dépourvue de masse!

Le pénomène de rayonnement ou radiation en physique désigne le processus d’émission ou de transmission d’énergie impliquant une particule porteuse. Le rayonnement électromagnétique a comme vecteur le photon. À chaque type de radiation correspond sa particule porteuse : le photon pour le rayonnement électromagnétique, ou les particules alphabêta ou neutron pour respectivement les rayonnement alphabêta ou neutronique

Dualité onde-particule

La théorie ondulatoire de Maxwell ne rend pas compte de toutes les propriétés de la lumière. Cette théorie prédit que l’énergie d’une onde lumineuse dépend seulement de l’amplitude de l’onde, mais pas de sa fréquence. Or de nombreuses expériences indiquent que l’énergie transférée de la lumière aux atomes dépend seulement de la fréquence et non de l’amplitude. En 1905, Albert Einstein réconcilia la théorie de Maxwell avec celle de Newton : il expliqua l’effet photoélectrique, un effet dans lequel la lumière n’agit pas en tant qu’onde, mais en postulant l’existence des photons. L’effet laser s’explique aussi en terme de photons. Einstein postula que la fréquence ν de la lumière, est liée à l’énergie E des photons.

Le spectre électromagnétique est la décomposition du rayonnement électromagnétique selon ses différentes composantes en termes de fréquence ν (ou période T), de longueur d’onde λ associée ou d’énergie des photons E.

Spectre onde electromagnetique

Mise en évidence de la dualité grâce aux fentes de Young

Une des manières les plus claires de mettre en évidence la dualité onde-particule est l’expérience des fentes de Young. Cette expérience est connue depuis le XIXe siècle, où elle a d’abord mis clairement en évidence l’aspect purement ondulatoire de la lumière. Modifiée de manière adéquate, elle peut démontrer de manière spectaculaire la dualité onde-corpuscule de la lumière.

L’expérience consiste à éclairer par une source lumineuse un écran percé de deux fentes très fines et très rapprochées. Ces deux fentes se comportent comme deux sources secondaires d’émission lumineuse. Une plaque photographique placée derrière l’écran enregistre la lumière issue des deux fentes.

Fentes de Young

 

Ces deux sources interfèrent et forment sur la plaque photographique des franges lumineuses que l’on appelle une figure d’interférence. Cette figure est caractéristique d’un comportement ondulatoire de la lumière. Si l’expérience en reste à ce niveau, l’aspect corpusculaire n’apparaît pas.

Interférences

En fait, il est possible de diminuer l’intensité lumineuse de la source primaire de manière à ce que la lumière soit émise photon par photon. Le comportement de la lumière devient alors inexplicable sans faire appel à la dualité onde-corpuscule. Si on remplace la source lumineuse par un canon qui tire des micro-billes à travers les deux fentes, donc de “vraies” particules, on n’obtient aucune figure d’interférence, mais simplement une zone plus dense, en face des fentes, correspondant aux impacts des micro-billes. Or, dans le cas d’une émission lumineuse de faible intensité et envoyée par une sorte de canon à photons, on constate que l’impact de la lumière sur l’écran est marqué de la même manière que les micro-billes. Au fur et à mesure que les impacts augmentent sur la plaque photographique, on retrouve petit à petit une figure d’interférence reconstituée par l’ensemble des impacts des photons. On retrouve donc une figure d’interférence caractéristique des ondes, en même temps qu’un aspect corpusculaire des impacts sur la plaque photographique.

L’interprétation de cette expérience est difficile, car si on considère la lumière comme une onde, alors les points d’impacts sur la plaque photographique sont inexplicables; on devrait voir dans ce cas très faiblement, dès les premiers instants, la figure d’interférence, puis la voire de plus en plus intense. Au contraire, si on considère la lumière comme étant exclusivement composée de particules, alors les impacts sur la plaque photographique s’expliquent aisément, mais la figure d’interférence qui se crée peu à peu ne s’explique pas : comment et pourquoi certaines zones seraient privilégiées et d’autres interdites à ces particules ?

L’existence du photon ne contredit pas la théorie ondulatoire, au contraire : en mécanique quantique, la dualité onde-particule (ou onde-corpuscule) dit qu’à chacune des particules est associée une onde. Cette onde est appelée fonction d’onde de la particule, et c’est elle qui code la densité de probabilité des variables mesurables de la particule.  Si on considère le déplacement d’un unique photon (la position du photon est l’une des variables de la particule), les points d’arrivée possibles sont donnés sous forme de probabilités par l’onde associée. Sur un très grand nombre de photons, chaque lieu d’arrivée est illuminé avec une intensité proportionnelle à la probabilité de chacun des photons… ce qui correspond au résultat de la figure d’interférence de la théorie classique ondulatoire.

Sur la plaque photographique de l’expérience des fentes de Young, il se produit ce que l’on appelle une réduction du paquet d’onde, ou une décohérence de la fonction d’onde : le photon se matérialise, avec une probabilité donnée par la fonction d’onde: élevée à certains endroits (frange brillante), faible ou nulle à d’autres (franges sombres).

Cette expérience illustre également une caractéristique essentielle de la mécanique quantique:

  • Jusqu’à ce qu’une observation soit faite, la position d’une particule est décrite en termes d’ondes de probabilité, mais après que la particule est observée (ou mesurée), elle est décrite par une valeur fixe.

La lumière est donc considérée comme constituée de photons qui se comportent comme:

  • des corpuscules dans leurs interactions avec la matière.
  • des ondes pour leur propagation.

Optique Géométrique

L’optique géométrique est une approche complémentaire de l’optique ondulatoire et de l’optique quantique. Elle est en revanche plus ancienne, ayant été développée dès l’antiquité. C’est l’optique géométrique, qui reste l’outil le plus flexible et le plus efficace pour expliquer un certain nombre de phénomènes simples liés à la lumière. Par exemple, la lumière incidente sur l’interface entre deux milieux peut être réfléchieréfractée (dispersée) ou absorbée.

Réflexion-Réfraction

Réflexion

La lumière se déplace en ligne droite dans tout milieu transparent, en particulier dans le vide ou l’air. Dans le vide, la lumière se déplace à une vitesse fixe et indépassable d’environ 300’000 km/s. La lumière est un peu plus lente dans l’air, et notablement plus lente dans l’eau.

Le phénomène de réflexion est dû au fait que les rayons lumineux sont déviés (réfléchis) lors de la rencontre d’une surface réfléchissante (miroir). Les rayons lumineux réfléchis le sont tels que l’angle de réflexion est égal à l’angle d’incidence sur la surface réfléchissante.

Réfraction

La réfraction survient généralement à l’interface entre deux milieux, ou lors d’un changement de densité du milieu. Les rayons lumineux peuvent changer de trajectoire lors du passage d’un milieu à un autre. Tout milieu homogène dans lequel se propage un rayon lumineux possède un indice de réfraction. En tombant sur une surface (dioptre) séparant le milieu où il se propage (milieu d’incidence) d’un autre milieu possédant un autre indice de réfraction, ça donne naissance, dans ce second milieu, à un rayon qui n’est pas dans son prolongement, qui est dévié: c’est le rayon réfracté. Le fonctionnement des lentilles est basé sur ce phénomène de réfraction de la lumière.

Refraction Verre

Dans l’approche ondulatoire, la réfraction est un phénomène de déviation d’une onde lorsque sa vitesse change entre deux milieux. La vitesse de la lumière n’est pas la même dans les deux milieux. Ce changement de valeur suffit à interpréter le changement de direction de l’onde.

Lorsque la lumière incidente est monochromatique, on parle de simple pénomène de réfraction. Dans le cas de la lumière polychromatique, la réfraction conduit alors à un phénomène plus étendu et généralisé qu’on appelle de dispersion.

Dispersion

La dispersion est le phénomène affectant une onde dans un milieu dans lequel les différentes fréquences constituant l’onde ne se propagent pas à la même vitesse. L’indice de réfraction du milieu n’est pas le même pour toutes les composantes ondulatoires d’un rayon lumineux polychrome. L’indice de réfraction dépend de la longueur d’onde des composantes de la lumière.

Dispersion

Les arcs-en-ciel sont une manifestation de la dispersion induite par réfraction des rayons du soleil par les gouttelettes d’eau en suspension dans l’air.

La lumière blanche peut aussi se décomposer en arc-en-ciel à l’aide d’un prisme de verre. La décomposition de la lumière génère des raies spectrales qui correspondent aux différentes longueurs d’ondes émises. Le terme spectre fut employé pour la première fois en 1666 par Isaac Newton pour se référer à ce phénomène par lequel un prisme de verre peut séparer les couleurs contenues dans la lumière du Soleil. Chaque « couleur spectrale » de cette décomposition correspond à une longueur d’onde précise. Etant donné que l’indice de réfraction n’est pas le même pour les différentes longueurs d’onde d’un faisceau de lumière blanche: le bleu est plus dévié que le jaune, lui-même plus dévié que le rouge…

Dans les expériences du prisme, du point de vue de l’optique géométrique, un prisme est l’association de deux dioptres plans non parallèles (air-verre-air).

prisme

Absorption

L’absorption, en électromagnétisme, désigne un processus physique par lequel l’énergie électromagnétique est transformée en une autre forme d’énergie.

Au niveau des photons, l’absorption représente le phénomène par lequel l’énergie d’un photon est capturée par une autre particule, par exemple par les électrons qui se traduit par une transition entre 2 niveaux d’énergie électronique. Le photon est alors détruit par l’opération, l’énergie électromagnétique est absorbée et transformée en énergie électronique. On voit donc que l’absorption d’un photon peut provoquer des transitions atomiques, c’est-à-dire d’exciter un atome dont l’énergie augmente par la modification de l’orbite d’un de ses électrons. Cette énergie absorbée peut par la suite être:

  • re-transformée en énergie électromagnétique par l’émission de nouveau(x) photon(s). Lorsqu’un atome excité revient à son état d’énergie fondamental, il émet un photon dont l’énergie (et donc la fréquence) correspond à une différence entre deux états d’énergie de l’atome.
  • transformée en agitation particulaire (augmentation de la vitesse de la particule) ce qui se traduit au niveau macroscopique par une augmentation de la température (l’énergie électromagnétique a été transformée en chaleur).

C’est Niels Bohr qui interpréta l’émission de lumière par l’émission d’un photon lorsque l’atome passe d’un niveau d’énergie à un autre. Le spectre d’émission de n’importe quel élément peut être obtenu en chauffant cet élément, puis en analysant le rayonnement émis par la matière. Ce spectre est caractéristique de l’élément. Les photons sont ainsi des « paquets » d’énergie élémentaires, ou quanta de rayonnement électromagnétique, qui sont échangés lors de l’absorption ou de l’émission de lumière par la matière.

Pour la plupart des substances, le taux d’absorption varie avec la longueur d’onde de la lumière incidente, menant à l‘apparence de couleur dans les pigments qui absorbent certaines longueurs d’onde mais pas d’autres. Par exemple, avec une lumière blanche incidente, un objet qui absorbe les longueurs d’onde dans le bleu, vert et jaune, apparaîtra de couleur rouge. Un matériau de couleur noire absorbe toutes les longueurs d’onde (converties en chaleur), alors qu’un matériau de couleur blanche les réfléchit.

Diffraction

L’optique géométrique qui explique bien la grande partie des phénomènes de réflexion et réfraction ne permet pas d’expliquer tous les phénomènes lumineux. En particulier, elle ne tient pas compte du fait que la lumière est de nature ondulatoire. Lorsque tous les objets qui interagissent avec la lumière ont des tailles caractéristiques grandes devant la longueur d’onde du rayon lumineux alors il est convenable et plus simple d’utiliser l’optique géométrique pour décrire son comportement avec une bonne précision. Mais quand la lumière passe à travers des objets dont la taille est du même ordre de grandeur (voire plus petits) que sa longueur d’onde, alors il n’est plus possible de négliger l’aspect ondulatoire et on entre dans le domaine de l’optique ondulatoire. Deux phénomènes caractéristiques de l’optique ondulatoire, inexplicables dans le contexte de l’optique géométrique, sont les interférences lumineuses (Fentes de Young) et la diffraction.

La diffraction est le phénomène par lequel un rayonnement, comme la lumière, est dévié dans de multiples directions par une interaction avec d’autres objets ou un obstacle. La diffraction décrit donc le comportement des ondes lorsqu’elles rencontrent un obstacle. Elle se manifeste par le fait qu’après la rencontre d’un objet, la densité de l’onde n’est pas conservée selon les lois de l’optique géométrique. La diffraction s’observe avec la lumière, mais également avec le son, les vagues, les rayons X…. Elle est une signature de la nature ondulatoire d’un phénomène.

On parle d’interférence lorsque deux ondes de même type se rencontrent et interagissent l’une avec l’autre. La diffraction est le résultat de l’interférence des ondes diffusées par chaque point.

Diffraction

Exemple Pratique: Miroir et Photon

Soit un miroir avec un pouvoir réflecteur de 90 % (on considère qu’on reste dans le cadre la lumière visible humaine). Une source envoie simultanément 100 photons à la même fréquence contre ce miroir. Que va-t-il se passer?

  • Le miroir va réfléchir 90 photons et en absorber 10 (l’absorption des 10 photons pourrait se traduire par une petite augmentation de chaleur du miroir).

Sur quel critère 10% des photons vont passer à la “trappe” et vont être absorbé s’ils sont tous semblables. Qu’est ce qui va etre déterminant sur le choix des photons à réfléchir et ceux qui vont être absorbé ?

  • Sur la base de la nature corpusculaire de la lumière dont l’essence est intrinséquement probabiliste selon la mécanique quantique, le photon aura 9 chances sur 10 d’être réfléchi et 1 chance sur 10 d’être absorbé.

Un autre question plus tordue: un seul photon est émis, et envoyé à la rencontre du miroir. Celà voudrait-il dire que 0,9 photon est réfléchi et 0,1 est absorbé? Qu’est ce que 0,9 photon?

  • A nouveau, le photon aura 9 chances sur 10 d’être réfléchi, et 1 chance sur 10 d’être absorbé.

Ce qu’il faut savoir c’est que en réalité, ça n’a même pas de sens de se demander “lesquels” des 100 photons sont réfléchis et lesquels sont absorbés, parce qu’on ne peut pas les individualiser. Il faut plutot imaginer l’état d’un champ composés de 100 photons. Ce champs va évoluer vers un nouvel état composés de 90 photons réfléchis, l’énergie manquante ayant été absorbée. La même idée peut être expliqué dans le fonctionnement des comptes bancaires: c’est comme si la banque prélevait 10 euros de frais et commission sur 100 euros déposés sur un compte… on ne se pose pas la questions sur quels sont les euros parmi les 100 qui ont été prélevés!

Sources:

http://fr.wikipedia.org/wiki/Lumi%C3%A8re

http://fr.wikipedia.org/wiki/Rayonnement_%C3%A9lectromagn%C3%A9tique

http://fr.wikipedia.org/wiki/Photon

http://fr.wikipedia.org/wiki/Dualit%C3%A9_onde-particule

http://fr.wikipedia.org/wiki/Optique_g%C3%A9om%C3%A9trique

http://fr.wikipedia.org/wiki/R%C3%A9fraction_des_ondes

http://fr.wikipedia.org/wiki/Absorption_(optique)

http://fr.wikipedia.org/wiki/Dispersion

http://fr.wikipedia.org/wiki/Diffraction

http://forums.futura-sciences.com/physique/268537-miroir-photon-oeoeoeoemoi-2-autres-menervent.html

VN:F [1.9.22_1171]
Rating: 4.3/5 (3 votes cast)
VN:F [1.9.22_1171]
Rating: 5.0/5 (1 vote cast)

Bonjour à toutes et à tous,

Episode court et mouvementé cette semaine. Pas d’Anh Tuan au moment de l’enregistrement: il était aux urgences avec une personne de sa famille, accidentée. Heureusement, tout est bien qui finit bien, mais il n’a pas pu participer à cet épisode.

Puis coupure de courant chez Mathieu au moment où nous allions démarrer… Mathieu a dû se rendre dans un cybercafé pour pouvoir se connecter… Bref, du coup, on a fait court, light dans l’atmosphère chaleureuse d’un café catalan.

  • Des petites nouvelles du CERN d’abord: nous en sommes à 26 inscrits pour 24 places. Alors si jamais quelqu’un ne veut/peut plus venir, merci de libérer la place :)
  • Un extrait des nouvelles  que vous avez partagées sur facebook, twitter ou envoyées par signaux de fumée:
    • Beaucoup de réactions encourageants suite au gros dossier de la semaine dernière, sur le site et sur knowtex. Un tout grand merci!
    • La proposition la plus incongrue qu’on nous ait faite:  Jean-Pierre sur Facebook “J’ai 62 ans et, curieux des Sciences, votre vulgarisation cool me comble. Puis-je adopter l’un de vous ?” :)
    • Des tonnes de news, proposées essentiellement par Forza Pedro, Olivier Tripet et Xavier Agnès, allant des vents solaires à l’énergie noire, un wiki pour référencer les wiki en biologie, une pseudo-science: la cryptozoologie, l’abbé qui a inventé le terme de Big Bang (abbé Lemaitre), des exercices de maths, un scoop: l’antimatière lévite! Des réflexions sur un univers à 4 dimensions, les mini-trous noirs de Jean-Pierre Luminet… L’amarrage de l’ATV2 à l’ISS (c’était en live), un billet sur les mécanismes de l’oubli, les fluides non-newtonniens, un plug pour le no hors-série de philosophie magazine sur le cosmos des philosophes, un lien sur le dernier 36.9 qui portait notamment sur la plasticité neuronale illustrée par la vision retrouvée d’une personne aveugle (dont les zones cérébrales de la vision sont détruites… Episode génial), le décollage de la navette vu d’avion, une animation géniale montrant comment l’araignée tisse sa toile ou encore la distance terre-lune à l’échelle…  Tout ça sur notre page Facebook, une mine d’or!
    • Sur  Facebook toujours: notre ami François Udrea nous propose
      1. de réécouter les podcasts des conférences du jardin des sciences (de l’Université de Strasbourg), notamment les épisodes sur le LHC, même s’ils datent un peu (octobre 2008);
      2. “Bonjour, à ceux qui s’intéresse à l’astronomie je signale les “Rencontres Astronomique du Printemps” une (ou la) plus forte concentration d’instruments d’observation en Europe, il y a aussi des conférences. Attention ce n’est pas une manifestation publique il faut s’inscrire ! plus de détails sur http://www.astrorap.fr/
    • Sur Twitter,
    • Et enfin un petit coucou à Vincent de Zürich qui a convaincu sa maman, de Genève, 64 ans de nous écouter sur Itunes. Elle nous adore! Une bise à la maman de Vincent :)
    • Une dernière chose à signaler, le podcast “les années-lumière” sur Radio Canada, proposé par JxM (feed rss: http://rss.radio-canada.ca/balado/radio/lumiere.xml, lien itunes: itpc://rss.radio-canada.ca/balado/radio/lumiere.xml

Les dossiers de la semaine:

Last but not least, la QUOOOOTE!

Madurar es darte cuenta de que ya no vas a ser astronauta (ChumelTorres sur Twitter)

Traduction: Devenir adulte, c’est réaliser que l’on ne va jamais être astronaute.

Semaine prochaine, un double épisode pour compenser, c’est promis!

(prochains enregistrements le vendredi 11 mars 2011)

VN:F [1.9.22_1171]
Rating: 5.0/5 (1 vote cast)
Tagged with:  
VN:F [1.9.22_1171]
Rating: 5.0/5 (1 vote cast)

Pourquoi la mer est-elle bleue?

VN:F [1.9.22_1171]
Rating: 5.0/5 (1 vote cast)
Tagged with:  
VN:F [1.9.22_1171]
Rating: 4.6/5 (15 votes cast)

océan

Introduction

  • On constate aisément que l’eau qu’on se sert dans un verre ou celle qu’on utilise pour se laver les mains est transparente.
  • Mais on remarque aussi que l’eau douce d’un lac ou l’eau salée de mer ou d’un océan est de couleur bleue.
  • On a l’habitude de manière erronée d’expliquer que l’on voit les grandes étendues d’eau de couleur bleue à cause de sa superficie qui reflèterait la lumière du ciel, ou encore à cause d’une substance dissoute dans l’eau qui lui donnerait cette couleur, mais c’est en partie une légende urbaine.
    • On estime que dans un cas idéal, d’une mer calme sous un ciel bleu d’été, la contribution du bleu du ciel dans la couleur de l’eau s’élève au maximum à 2%.
  • On voit les océans de couleur bleue, simplement car l’eau est de couleur bleue, bienque dans certains cas (verre d’eau) on peut la percevoir autrement.
  • Certains facteurs peuvent affecter notre pérception de la couleur de l’eau:
    • la présence de sédiments de couleur marron dans les fleuves et rivières.
    • une grande concentration de minéraux ou métaux lourds.
    • la présence d’algues peut donner une couleur verte à l’eau.

La lumière du Soleil

  • On sait que la lumière blanche qui nous parvient du Soleil est en réalité composée de toutes les fréquences du spectre visible.
    • Observé par Isaac Newton lors de son expérience d’un rayon de lumière au-travers d’un prisme en verre.
  • Chaque fréquence qui compose la lumière du Soleil correspond à une couleur du spectre de l’arc-en-ciel, du violet jusqu’au rouge en passant par le bleu, le vert, le jaune et l’orange.
  • Lorsque la lumière blanche incidente atteint un objet, celui-ci absorbe un ensemble déterminé de couleurs (de fréquences):
    • une partie de la lumière est absorbée par l’objet, et le reste de la lumière non absobée est transmise, réfléchie ou dispersée.
    • Par exemple, si les feuilles d’un arbre sont vertes, c’est parce qu’elles absorbent toutes les couleurs du spectre visible, sauf la couleur verte (ou la fréquence correspondant à la couleur verte) qui est réfléchie et que nous pouvons percevoir grâce à nos yeux.

prisme

Spectre optique

Le cas de l’eau

Dans le cas de l’eau, si l’on considère uniquement la partie visible du spectre:

  • Elle absorbe principalement les couleur de basse fréquence (celles associées au rouge et à l’orange).
  • Elle transmet intégralement la couleur bleue.
  • Mais pour que nous puissions voir la couleur bleue depuis l’extérieur de l’eau, il faut que quelque chose puisse nous retourner ces rayons bleus à la superficie:
    • c’est grâce au phénomène de diffusion: le phénomène par lequel un rayonnement, comme la lumière, est dévié dans de multiples directions par une interaction avec d’autres objets.
    • Dans le cas de l’eau, la lumière bleue est alors dispersée dans toutes les directions par des particules se trouvant en suspension dans l’eau et aussi par les propres molécules d’eau elles-même, permettant ainsi qu’on puisse percevoir l’eau bleue depuis l’extérieur de l’eau.
  • Un rayon de lumière qui voyage au-travers d’une grande masse d’eau est donc privé des tons rouges et sera perçu comme un ton bleu.
  • Une conséquence curieuse à ce phénomène est que les poissons et objets qui sont rouges hors de l’eau, sont perçus comme noirs au fond de la mer.
    • La lumière qui les atteint ne possède plus la couleur rouge, qui a été absorbée par l’eau, et ils ne peuvent donc pas la refléchir.
    • Un plongeur verrait ces poissons ou ces objets de couleur noire, ils absorbent toute les fréquences de la lumière incidente qui n’on pas été absrobées par l’eau.

Pourquoi voit-on l’eau transaparente dans un verre?

  • L’absorbtion du rouge par l’eau est très faible.
  • Il est nécessaire que le rayon de lumière traverse un grande distance d’eau pour que le rouge soit absorbé.
  • Certaines expériences ont montré qu’avec de l’eau très pure, sa caractéristique de ton bleu est observée à partir d’une colonne d’eau de 3 mètres.
  • C’est pour cette raison que sur une plage, l’eau se voit transparente en bord de mer ou d’un lac, là où la profondeur est faible (on peut voir le fond):
    • elle transmet intégralement toute la lumière (il n’y a pas d’absorbtion de fréquences).
    • plus au large, l’eau devient bleue (des fréquences corrrespondant au rouge on été absorbées).

Les propriétés singulières de l’eau

  • Généralement la propriété de couleur tire son origine dans l’intéraction de la lumière avec les électronsd’une substance ou d’un objet.
    • La lumière incidente (la radiation électro-magnétique) sur un corps permet aux électrons de ce corps d’absorber l’énergie de la radiation incidente.
    • Les électrons acquièrent donc plus d’énergie et sont excités.
    • Mais les éléctrons n’absorbent pas n’importe quelle quantité d’énergie. Ils absorbent uniquement les énergies correspondant à des fréquences particulières, c’est-à-dire ils absorbent uniquement des couleurs particulières.
    • Le reste de la radiation qui n’a pas été absorbée par les électrons est celle qui donne la couleur au corps ou à l’objet.
    • Postérieurement, les électrons excités par le rayonnement lumineux retrouveront leur état énergétique initial en retournant l’énergie absorbée via l’émission d’une nouvelle radiation de basse fréquence, dans la gamme des infrarouges.
  • La couleur de l’eau ne se génère pas de cette manière:
    • La radiation incidente absorbée est principalement utilisée pour faire vibrer les molécules d’eau, et non pour exciter ses électrons.
    • Uniquement l’absorbtion des fréquences associées à la couleur rouge a lieu lors de l’activation des vibrations moléculaires de l’eau.
    • Les molécules d’autres substances peuvent aussi vibrer plus rapidemment lors de l’absorbtion d’une radiation, mais uniquement dans des gammes de fréquences au-delà de l’infrarouge, hors du spectre visible. Dans ces cas, aucune couleur liée à cette excitation moléculaire n’est donc perçue.

Source:

http://cienciaes.com/oceanos/2011/02/17/agua-azul-planeta-azul/

VN:F [1.9.22_1171]
Rating: 4.6/5 (15 votes cast)
Tagged with:  
*