ecole de musique piano
     
menu
 
 
 
 
 
 

LES PLANÈTES

 


 

 

 

 

 

Les planètes

Publié le 19 avril 2017

 
Notre système solaire comporte 8 planètes et notre galaxie vraisemblablement des milliards. Les planètes sont des boules de matière et de gaz qui gravitent autour d’une étoile. Elles sont classées en différentes familles. Les plus brillantes ont été observées depuis toujours par l’Homme. Les scientifiques cherchent à observer des planètes toujours plus lointaines et peut être habitables.
QU’EST-CE QU’UNE PLANÈTE ?

Une planète est un corps céleste de forme sphérique qui tourne autour d’une étoile (appelée étoile hôte) sans rencontrer d’autres corps sur son orbite.


COMMENT SE FORMENT LES PLANÈTES ?
Les planètes se créent à partir de poussières et de gaz présents autour d’une étoile dans ce que l’on appelle le disque d’accrétion « proto-planétaire ».  Les particules de poussière de ce disque s’agglomèrent progressivement sous l’effet des forces électrostatiques. Ce sont ces mêmes forces qui rassemblent les poussières en « moutons » dans nos maisons. Plus tard, la force de gravité prend le relais pour agglomérer les éléments plus massifs (de plusieurs centaines de mètres de diamètre). Un corps solide devient une planète lorsqu’il atteint une masse critique qui lui confère une forme sphérique.

Si la masse de la planète dépasse environ 10 fois la masse de la Terre,  les gaz à proximité vont progressivement être attirés vers la planète créant ainsi une planète géante.

HISTOIRE DE LA DÉCOUVERTE
DES PLANÈTES
Depuis toujours l’Homme s’est intéressé à la voûte céleste. Il distingue d’abord les planètes les plus brillantes des étoiles. Cette différenciation s'est faite rapidement car les planètes ont un mouvement périodique très régulier dans le ciel, tandis que les étoiles restent fixes. De plus, leur apparence diffère des comètes (petits objets célestes constitués de roches et de glaces) qui présentent une queue caractéristique lorsqu'elles s'approchent du soleil.

Parmi les astres les plus brillants du ciel la nuit se trouvent 5 planètes de notre système solaire visibles à l’œil nu : Mercure, Vénus, Mars, Jupiter et Saturne.

Certaines planètes de notre système solaire sont restées inconnues plus longtemps car invisibles à l’œil nu. En 1781, William Herschel, un astronome britannique, découvre Uranus à l’aide d’un télescope très performant de son invention. En 1846, c’est Neptune qui est découverte par l’équipe d’Urbain Le Verrier, astronome et mathématicien français, suite à des calculs pour déterminer la position de l’astre par rapport à Uranus.

Il faut attendre Michel Mayor et Didier Queloz, deux astrophysiciens suisses, pour la découverte, en 1995 à l’Observatoire de Haute-Provence, de la première exoplanète (planète en dehors du système solaire) qu’ils appelleront 51 Peg b (ou Dimidium) du système de l’étoile 51 Peg (ou Helevetios).


LES DIFFÉRENTS TYPES DE PLANÈTES
Selon leurs caractéristiques, les scientifiques ont établi deux grandes familles de planètes :

Les planètes telluriques
Ces planètes, dont la surface est solide, sont constituées principalement de roches et de métaux.

Dans le système solaire, ce sont, par ordre de taille et de masse, Mercure, Mars, Vénus et la Terre.

Les planètes gazeuses
Ces planètes sont constituées d’une proportion importante de gaz et contiendraient (selon certaines théories) un cœur solide de roches et de glaces autour duquel le gaz est maintenu.

On parle de planètes géantes car leur diamètre est très grand. Par exemple, dans le système solaire, leur diamètre va d’environ 49 500 km pour Neptune jusqu’à environ 143 000 km pour Jupiter soit un diamètre 9,4 fois plus important que la Terre. Dans notre système solaire, Jupiter, Saturne, Uranus et Neptune sont des planètes géantes.



ON DISTINGUE AUSSI
*         Les planètes avec satellites
Lorsqu’un corps céleste est en orbite autour d’une planète, il est alors nommé satellite. La Terre possède un satellite : la Lune.  D’autres planètes comme Jupiter ou Saturne en possèdent plus de cinquante chacune.

*         Les planètes à anneaux
Les anneaux sont composés de grains de glace (de 1mm à 10 mètres de diamètre) qui entourent certaines planètes. Ils sont le résultat de l'équilibre entre la force de gravité des grains qui s’attirent et la force de marées de la planète qui va les empêcher de se rassembler pour former, par exemple, des satellites.




Photo de saturne au moment de son équinox par Cassini. © NASA/JPL/Space Science Institute

Quelle est la différence entre une étoile et une planète ?
Contrairement aux planètes, les étoiles produisent de la lumière car ce sont d’énormes boules de gaz brulantes (composées essentiellement d’hydrogène et d’hélium). Elles sont également beaucoup plus grosses et massives que les planètes qui tournent autour d’elles. Par exemple le Soleil a une masse de 332 946 fois la Terre.

*         Pour savoir plus, consultuer "L'essentiel sur les étoiles"

COMMENT DÉTECTE-T-ON LES PLANÈTES ?
Pour détecter les planètes, les chercheurs peuvent utiliser plusieurs méthodes en fonction de la distance qui les sépare de l’objet céleste.

Les planètes du système solaire sont visibles à l’œil nu ou à l’aide de télescopes la nuit grâce au reflet de la lumière du Soleil sur leur surface.

Pour les exoplanètes, la méthode de détection est différente car elles se situent à plusieurs années lumières. Comme des détectives, les scientifiques vont alors rechercher des empreintes révélant l’existence d’exoplanètes en analysant la lumière des étoiles. Il existe deux moyens principaux :

*         Par l’observation de la vitesse radiale, c’est-à-dire en observant les variations de vitesse de l’étoile dans la direction de l’observateur. Lorsqu’une planète tourne autour d’une étoile, celle-ci fait varier la vitesse de son étoile hôte. En regardant les variations de vitesse de l’étoile, il est alors possible de calculer la masse de la planète qui gravite autour mais aussi de connaître la période de révolution de la planète.

*         Par l’observation des variations du flux lumineux de l’étoile au cours de l’orbite de la planète (méthode des transits ). En effet, lorsque la planète passe devant l’étoile, un phénomène d’éclipse partielle se produit. Elle masque une partie de l’étoile et le flux lumineux diminue en proportion du rayon de la planète que l’on peut donc calculer.

Ces deux méthodes nécessitent de bien connaître la masse et le rayon de l’étoile.


COMMENT DÉTERMINE-T-ON LES CARACTÉRISTIQUES DES PLANÈTES OBSERVÉES ?
Pour mieux connaître les propriétés des planètes détectées (masse, rayon, …), il existe différentes méthodes.

Pour les planètes du système solaire, les scientifiques envoient des sondes qui font des mesures et des images toujours plus précises et qui, dans certains cas, récoltent des échantillons.

Pour les exoplanètes, la combinaison de la méthode des vitesses radiales et de la méthode des transits permet de déterminer la densité moyenne des planètes puisque l’on connaît simultanément leur masse et leur rayon. Par ailleurs, en utilisant la spectroscopie, on peut connaître la composition chimique de leur atmosphère.

Ces caractérisations permettent de mieux comprendre les phénomènes physiques sur ces planètes mais aussi de définir si la vie peut s’y développer.


DANS QUELLES CONDITIONS LA VIE SUR UNE AUTRE PLANÈTE EST-ELLE POSSIBLE ?
La première condition pour que la vie, telle que nous la connaissons puisse se développer à la surface d’une planète tellurique est que celle-ci soit dans la « zone d’habitabilité » de son étoile, autrement dit à une distance permettant l’existence permanente d’eau à l’état liquide. Par exemple, les températures sur Mercure qui oscillent entre -180 et 450 degrés rendent probablement impossible toute forme de vie. De plus, la présence de roches favorise les réactions chimiques nécessaires au développement de la vie.

La capacité à retenir une atmosphère est aussi cruciale, puisqu’elle va permettre de protéger la planète de certains agents dangereux pour la vie (tels que certains rayonnements en provenance de l’étoile par exemple) tout en conservant une certaine chaleur. A noter cependant qu’une atmosphère avec une trop grande quantité de CO2 surchaufferait la planète.

La génération par la planète d’un champ magnétique, comme dans le cas de la Terre, est un autre élément essentiel. Ce dernier permet en effet, du fait de la magnétosphère, de protéger la planète des particules énergétiques en provenance de l’étoile et de l’Univers.

Enfin, les interactions de marées avec une Lune pourront favoriser l’apparition de la vie dans le cas où elles permettront de stabiliser l’axe de rotation de la planète.

 

 DOCUMENT     cea         LIEN

 
 
 
 

L'ESSENTIEL SUR... La matière noire

 


 

 

 

 

 

L'ESSENTIEL SUR...
La matière noire


Publié le 5 mai 2017

 La matière noire est un sujet qui fascine par son côté obscur. Comme elle échappe à la détection, on ne sait pas si elle existe… c’est une traque de longue date qui stimule chercheurs et ingénieurs pour trouver sa trace expérimentale et prouver son existence. Elle expliquerait pourquoi notre Univers se compose de galaxies, d’amas de galaxies mais aussi de vides immenses. Cependant, si on ne la détectait pas, il faudrait revoir la théorie de la gravitation d’Einstein.

QU’EST-CE QUE LA MATIÈRE NOIRE ?
Notre Univers se compose de matière dite « ordinaire » qui va constituer tout ce qui nous entoure comme les atomes de notre corps, les étoiles ou les planètes. Afin d’expliquer certaines observations du cosmos, il existerait une autre matière, appelée matière noire, car elle ne rayonne pas dans l’Univers, ne réfléchit ni n’émet la lumière (n’interagit pas avec la force électromagnétique).
Elle serait apparue en même temps que la matière ordinaire après le big-bang, il y a 13,7 milliards d’années. Interagissant faiblement avec la matière ordinaire, elle échappe encore aux outils de détection.

A la différence de la matière ordinaire qui est sensible aux quatre interactions fondamentales : les forces nucléaires faible et forte, l’électromagnétisme et la gravitation, la matière noire ressentirait la force de gravitation et aussi, selon certains modèles, la force nucléaire faible.


POURQUOI LA MATIÈRE NOIRE EST-ELLE 
DIFFICILEMENT DÉTECTABLE ?

La matière noire n’a pas encore été détectée aujourd’hui parce qu’elle traverserait la matière ordinaire sans réagir avec elle ni par interaction forte ni par interaction électromagnétique. Il existe cependant des candidats de particules de matière noire qui pourraient interagir avec les noyaux par interaction faible.


DE QUOI LA MATIÈRE NOIRE SERAIT-ELLE CONSTITUÉE ?
Plusieurs modèles scientifiques existent pour tenter de caractériser les propriétés de la matière noire. L’un des plus avancés est celui des « wimps » (Weakly Interacting Massive Particles).

Selon ce modèle, la matière noire serait constituée de particules massives, donc sensibles à la gravitation, qui interagiraient aussi faiblement avec la matière ordinaire via la force nucléaire faible. La masse d’une particule de cette matière serait de 1 à 100 000 fois plus importante que celle d’un proton par exemple.

QUELS SONT LES INDICES DE L’EXISTENCE DE LA MATIÈRE NOIRE ?
Par déformation de l’espace, les astrophysiciens observent des « empreintes » où la matière noire serait présente. Deux indices montreraient l’existence de la matière noire dans l’Univers.

Indice n°1 : La lentille gravitationnelle ou le mirage gravitationnel
Selon la théorie de la relativité générale, les objets massifs déforment l’espace ; les rayons lumineux sont déviés. L’image d’une étoile située derrière un objet massif (appelé lentille), tel qu’un trou noir ou un amas de galaxies, nous parvient déformée. C’est l’effet de lentille gravitationnelle.

En étudiant cette déformation, les chercheurs peuvent déduire la masse totale de la lentille. En considérant la masse de matière ordinaire de celle-ci, on ne reproduit pas la déformation. C’est un indice de l’existence d’une masse supplémentaire : la matière noire.

Indice n°2 : La vitesse de rotation des étoiles dans une galaxie

Les galaxies tournent sur elles-mêmes. Les étoiles qui les composent sont soumises à deux forces à l’équilibre : la gravitation qui les attire vers le centre et la force centrifuge qui les repousse.
Plus la distance par rapport  au centre de la galaxie augmente, plus la gravitation faiblit ; la force centrifuge devrait aussi diminuer pour conserver l’équilibre afin que les étoiles restent dans la galaxie. Les chercheurs s’attendaient  à ce que les vitesses orbitales des étoiles externes décroissent (courbe bleue). Mais la courbe réellement observée se stabilise (en rouge).
C’est dans les années 30 que Fritz Zwicky relève cette anomalie dans le mouvement des galaxies en observant un amas. Il imagine une masse manquante invisible qui agirait par gravitation pour garder tel quel l’amas.
Son intuition était bonne. Dans les années 70, Vera Rubin fait le même constat, mais à l’échelle des galaxies : les étoiles tournent trop vite. L’hypothèse de la matière noire revient.
Dans les années 80, l’observation du fond diffus cosmologique (image la plus ancienne de notre Univers) montre que la densité de matière visible n’est pas suffisante pour former les grandes structures de l’Univers. La question de la matière noire s’impose.  

COMMENT RECHERCHER UNE MATIÈRE
SI ELLE EST INDÉTECTABLE ?
Pour découvrir la matière noire, les scientifiques ont trois stratégies possibles : détecter l’effet qu’elle induit sur la matière ordinaire, la produire par l’énergie dégagée lors de la collision de protons de haute énergie, ou encore observer les produits de l’annihilation de deux particules de matière noire qui se produit dans le cosmos.

Détecter la matière noire
Lorsqu’une particule de matière noire frappe un noyau de matière ordinaire, elle pourrait provoquer un recul de celui-ci. Détecter cet infime mouvement permettrait de signer son passage.
Pour être sûr de capter des événements si ténus, les détecteurs doivent être conçus dans un matériau très peu radioactif et protégés des radiations parasites afin de minimiser le bruit de fond qui cacherait le signal recherché.
Ceux de l’expérience Edelweiss sont donc abrités dans le laboratoire souterrain de Modane en France, à 1 700 mètres sous la montagne. Depuis sa création, l’expérience n’a détecté que des événements de bruit de fond et aucun signal compatible avec le passage d’une particule de matière noire. L’expérience continue à guetter une interaction qui prouverait leur existence.
Mais cette méthode directe ne permettra pas à elle seule de dresser la carte d’identité complète de ces particules. Pour cela, il faut les créer en laboratoire, notamment avec les expériences en cours au LHC (Large Hadron Collider, accélérateur de particules du Cern, à Genève en Suisse).

Produire de la matière noire
Il parait surprenant de dire que l’on peut produire de la matière. L’équation d’Einstein « E=mc² » montre qu’il est possible de créer de la matière (m) à partir d’énergie (E). C’est ce qui se serait passé lors du Big Bang où de l’énergie est devenue la matière de notre Univers.
Le LHC est une infrastructure scientifique où ont lieu des collisions de protons de très hautes énergies. L’énergie atteinte lors de la collision permet de créer des particules de très grandes masses dont théoriquement des particules de matière noire. Ces dernières ne laisseront pas de traces dans les détecteurs.  Dans le bilan d’énergie de chaque collision de protons, les chercheurs vont voir s’il manque de l’énergie. Si c'est le cas, cette perte d’énergie pourrait être affectée à la création de ces particules. C’est cette technique d’énergie manquante après la collision qui signerait la création d’un wimp. Cependant, depuis le début du LHC en 2009, aucun candidat n’a été trouvé.
La montée en énergie et en puissance du LHC va permettre de produire des particules de plus en plus massives et augmenter les probabilités de détection des événements rares, telle la matière noire. Si des particules de matière noire sont créées en laboratoire, encore faudra-t-il prouver qu’elles existent aussi dans l’Univers... et donc en trouver dans le cosmos à l’aide de télescopes.

Observer de la matière noire
Lorsqu’une particule et son antiparticule entrent en collision, on dit qu’elles s’annihilent. L’énergie de cette collision va créer de nouvelles particules. L’annihilation de deux particules de matière noire produirait des particules ordinaires détectables dont des photons de hautes énergies appelés rayons gamma. Ceux-ci sont particulièrement intéressants car ils se propagent en ligne droite, ce qui permet aux chercheurs de remonter à leur source. Lorsque ces rayons gamma atteignent l’atmosphère terrestre, ils interagissent avec les atomes de l’atmosphère et produisent une gerbe de particules secondaires, qui émettent un flash très ténu de lumière bleutée, la lumière Tcherenkov. C’est cette lumière, quasi-visible, qui est décelée par les télescopes au sol (comme l’expérience H.E.S.S. : High Energy Stereoscopic System) ou par les satellites dans l’espace (comme l’expérience Fermi).
En théorie, d’importantes densités de matière noire sont concentrées au centre des galaxies. C’est donc en direction du centre de la Voie lactée que les physiciens pointent leurs télescopes. Le signal attendu est beaucoup plus fort que celui en provenance des galaxies naines satellites, surveillées depuis l’espace.

QUELS ENJEUX AUTOUR DE LA MATIÈRE NOIRE ?
La cosmologie est la science qui vise à expliquer la naissance et l’évolution de l’Univers en une théorie avec un minimum de paramètres. Dans le cadre de la théorie de la gravitation d’Einstein, un des paramètres est la matière, incluant la matière noire, qui jouerait un rôle essentiel dans la création des grandes structures (le squelette de l’Univers).

Pour le moment aucune expérience - que ce soit en laboratoire ou en observant le cosmos - n’a encore prouvé l’existence de particules de matière noire mais, si elles existent, elles ne pourront pas éternellement échapper à la détection.

D’autres théories de la gravité cherchent à comprendre les observations sans postuler l’existence de matière noire. Pour arriver à reproduire les observations telles que les lentilles gravitationnelles par exemple, les théoriciens modifient les équations liées à la gravitation.

 

 DOCUMENT     cea         LIEN

 
 
 
 

Astrophysique au laboratoire

 

 

 

 

 

 

 

Astrophysique au laboratoire


A l'observation et la théorie se sont ajoutées la simulation numérique et même l'expérience.
Publié le 10 décembre 2015


TÉLESCOPES ET SATELLITES
En astrophysique, les découvertes sont essentiellement faites grâce à des télescopes au sol ou embarqués à bord de satellites.
L’ensemble des rayonnements forme le spectre électromagnétique ; qui est utilisé depuis les ondes radio jusqu’aux rayons X ou gamma, chaque domaine spectral apportant des informations spécifiques. Par exemple :
*         les rayons infrarouges nous apprennent où et comment les étoiles et les planètes se forment ;
*         la lumière visible renseigne sur les propriétés du gaz de la photosphère des étoiles ;
*         les rayons X et gamma révèlent les phénomènes parfois très violents qui adviennent à la fin de la vie d’une étoile : supernovas, pulsars, étoiles à neutrons, trous noirs.



Ces rayonnements se distinguent par leur longueur d’onde, mesure de l’énergie qu’ils transportent. Plus la longueur d’onde est courte, plus le rayonnement transporte d’énergie et plus le gaz qui l’a produit est chaud. A l’inverse, les grandes longueurs d’onde sont caractéristiques de rayonnements moins énergétiques et issus de milieux plus froids.
L’interprétation des données recueillies permet de déterminer la luminosité de l’étoile, sa température de surface, sa vitesse radiale ou sa composition chimique.

AU LABORATOIRE
Recréer sur Terre les phénomènes violents, qui agitent les astres et le milieu interstellaire, a longtemps été impensable, car cela nécessite de fournir des quantités phénoménales d’énergie pour chauffer et comprimer la matière et obtenir un plasma qui ressemble à ceux que l’on observe en astrophysique.
Les progrès réalisés sur les lasers permettent désormais cette astrophysique de laboratoire. Les échantillons étudiés grâce à des lasers à haute énergie mesurent quelques centimètres cubes. Ces expériences permettent d’acquérir des données de physique fondamentale et d’analyser des phénomènes astrophysiques dynamiques où se mélangent instabilités, rayonnement et champ magnétique.


On déduit ce qui pourrait se passer dans un plasma de taille astrophysique en utilisant des lois d’échelle.
Grâce aux accélérateurs d’ions lourds du Ganil, les physiciens explorent l’infiniment petit : la structure des noyaux, leurs propriétés thermiques et mécaniques…
Ils créent des noyaux exotiques, qui n’existent pas sur Terre mais peuplent le cœur des étoiles, et recréent de minuscules « étoiles » au sein de leurs installations.

SIMULATION NUMÉRIQUE
Après l’observation et l’instrumentation, la simulation est la troisième voie de recherche en astrophysique. Les principales études concernent la cosmologie, la physique stellaire, l’étude des disques protoplanétaires et celle du milieu interstellaire.
Grâce au développement de supercalculateurs, reconstituer l’évolution de la matière dans l’Univers est désormais possible. A charge pour les ordinateurs de résoudre les équations de la gravité, de la mécanique des fluides et de la physique des gaz qui régissent ces mouvements, en partant de données initiales connues.


Pour valider leurs théories, les chercheurs découpent l’Univers en cubes, plus ou moins petits en fonction de la densité de la matière. La plus grande simulation a été réalisée par le projet Horizon : elle a reconstitué l’évolution de 70 milliards de particules de matière noire dans un cube de 6 milliards d’années-lumière de côté (la moitié de l’Univers observable !), divisé en 140 milliards de mailles.

ASTÉROSISMOLOGIE

© G.Perez/IAC
La surface d’une étoile est animée par les mouvements turbulents qui agitent sa zone convective et engendrent des ondes acoustiques qui se propagent en son sein. Puisque le vide règne dans l’espace, les chercheurs ne peuvent pas les écouter directement ; ils enregistrent les mouvements de dilatation et de compression en analysant les mouvements de surface.
Chacune de ces millions de pulsations doit être étudiée individuellement. Cela permet de déterminer la vitesse du son et donc la densité et la température au sein de l’étoile, couche par couche. La sismologie stellaire a pris son essor avec le satellite SOHO, observant le Soleil, mais aussi avec le satellite Kepler pour les autres étoiles. L’aventure va continuer avec le lancement de la mission Plato de l’ESA, prévu vers 2025, qui étudiera les vibrations de centaines de milliers d’étoiles de la Voie lactée.


Webdoc L'Odyssée de la Lumière

OBSERVATION EN RAYONS X ET GAMMA
INTEGRAL
Les vestiges chauds et radioactifs des explosions d’étoiles émettent des rayonnements X et gamma. Ce sont eux que les astrophysiciens observent, car cette partie la plus énergétique du spectre électromagnétique apporte les indices les plus nets de la synthèse des noyaux d’atomes dans l’Univers. Le satellite Integral (International Gamma-Ray Astrophysics laboratory), lancé en octobre 2002, étudie la radioactivité de la Voie lactée et des galaxies voisines, permettant de préciser les modèles d’étoiles et de mieux comprendre les processus dynamiques qui engendrent leur explosion. Le but de ce télescope spatial est de détecter le rayonnement gamma émis par les éléments radioactifs à vie longue tels que l’aluminium 26, à vie moyenne comme le titane 44 et à vie courte tel le cobalt 56. Il permet également de repérer où se situe l’action de la nucléosynthèse dans la galaxie.

HESS
Installé en Namibie, le réseau de télescopes Hess observe les gerbes de particules provoquées par les particules ou les rayons gamma de haute énergie entrant dans l’atmosphère terrestre. Il en déduit l’origine, ce qui permet de mieux comprendre des sources comme la nébuleuse du Crabe, reste d’une supernova qui explosa en 1054. Plus d’une centaine de sources ont été recensées, certaines sont des restes de supernova ou des pulsars, d’autres sont de nature encore inconnue.


OBSERVATION EN INFRAROUGE
HERSCHEL
Le satellite Herschel, lancé en avril 2009, a fourni des images de l’Univers dans l’infrarouge lointain et submillimétrique. Celles-ci servent à une quarantaine de programmes d’observation qui portent sur l’origine de la masse des étoiles, la formation des étoiles massives, l’évolution du milieu interstellaire des galaxies et l’histoire de l’évolution des galaxies.

ALMA

Le télescope Apex détecte de nombreux objets célestes, qui seront ensuite étudiés plus précisément par Alma. © DR
Sur Terre, au Chili, les 66 antennes de l’observatoire Alma analysent le rayonnement émis par les nuages de gaz et de poussières très froids dans lesquels les étoiles sont en train de naître.

PLANCK

Entre 2009 et 2012, le télescope spatial Planck a cartographié l’intégralité de la voûte céleste dans 9 longueurs d’onde du domaine infrarouge, provenant de sources différentes : étoiles, poussières interstellaires, galaxies, amas galactiques… En ôtant de l’image complète les rayonnements émis par chaque source, il a fourni en 2013 l’image du plus ancien rayonnement de l’Univers, le fond diffus cosmologique, émis il y a 13,8 milliards d’années !
L’analyse de ce fond diffus cosmologique a permis de valider le modèle cosmologique standard d’un Univers en expansion accélérée, probablement issu d’une phase d’expansion exponentielle appelée inflation.

 

  DOCUMENT     cea         LIEN

 
 
 
 

Astrophysique, physique des particules et astroparticules

 

 

 

 

 

 

 

Texte de la 185e conférence de l’Univerisité de tous les savoirs donnée le 3 juillet
2000.


Astrophysique, physique des particules et astroparticules


par François Vannucci

Introduction
L’astrophysique est la science qui étudie la nature à l’échelle de l’infiniment grand,
jusqu’aux dimensions de l’univers entier, c’est-à-dire quelques 1026 m. À l’opposé, la
physique des particules explore la matière à l’échelle de l’infiniment petit et permet
actuellement de sonder des distances jusqu’à 10-18 m. Astrophysique et physique des
particules représentent donc les deux frontières de la connaissance humaine.
La physique des astroparticules est une interface entre ces deux extrêmes. Alors que
les objets de l’astrophysique sont de tailles macroscopiques, planètes, étoiles, galaxies…, la
physique astroparticulaire étudie des objets microscopiques, les particules élémentaires ellesmêmes,
mais au lieu de se limiter aux particules produites auprès des accélérateurs, les
sources en sont maintenant astrophysiques. En pratique, cette discipline s’est récemment
développée grâce aux physiciens des particules qui, pour certains, se sentaient à l’étroit près
des accélérateurs, et qui ont transposé leurs techniques de détection pour l’observation des
phénomènes violents qui apparaissent dans le ciel.
L’astrophysique utilise comme intermédiaire de l’information, la lumière, c’est-à-dire
des photons appartenant à la gamme visible ou proche du visible, détectés grâce à des
instruments optiques, plaques photographiques, CCD. La physique astroparticulaire bénéficie
d’une panoplie plus large de messagers : photons d’énergies élevées, mais aussi protons ou
noyaux atomiques, électrons et neutrinos. Le but de cette physique est double, elle permet à la
fois de mieux comprendre les sources de ces rayonnements, c’est-à-dire les phénomènes à
l’origine d’accélérations gigantesques, mais aussi d’affiner la connaissance des propriétés des
particules elles-mêmes produites dans des conditions impossibles à égaler sur terre.
Deux exemples
Les gammas de hautes énergies
Seuls les photons visibles peuvent traverser l’atmosphère sans être absorbés. Pour
d’autres longueurs d’onde, l’étude se fait en satellite où les conditions d’observation sont
idéales. Mais les satellites ont des dimensions limitées, et les flux de photons de très hautes
énergies sont si faibles qu’il faut pouvoir disposer de surfaces de détection importantes pour
compter un nombre suffisant d’événements. Dans l’atmosphère, les photons énergiques se
multiplient en donnant une gerbe dite électromagnétique qui, à son maximum, peut atteindre
des millions de particules, essentiellement des électrons et des positrons. Ceux-ci disposent
encore d’une énergie suffisante pour donner le long de leur trajectoire de la lumière qu’on
peut détecter grâce à des capteurs couvrant de grande surface. Un dispositif de ce type, appelé
Cat, est en opération au pied des Pyrénées. Alors qu’en lumière visible on répertorie des
milliards de sources, et qu’en rayonnement X, il en reste quelques milliers, on n’a détecté à ce
jour que quatre sources certaines aux énergies allant jusqu’à 1014 eV, en particulier un pulsar,
le Crabe, et deux noyaux actifs de galaxies Mk 421 et 501 qui ont surpris par la très grande
variabilité de leur émission. Le spectre des photons arrivant sur terre renseigne d’autre part
sur le milieu traversé.
Les rayons cosmiques chargés
Les rayons cosmiques chargés ont été étudiés depuis le début du 20ième siècle, et si
beaucoup de physiciens se sont tournés vers les accélérateurs au milieu du siècle, certains
observent à nouveau le ciel qui permet des énergies qu’aucun accélérateur ne peut atteindre.
On détecte aujourd’hui des particules, probablement des protons atteignant des énergies de 50
J, l’énergie d’une balle de tennis lors d’un service ! La figure 1 montre le spectre de ce
rayonnement mesuré jusqu’à ces énergies macroscopiques. Quelques rayons cosmiques de
plus de 1020 eV ont été observés, et ils posent un problème, car ils ne peuvent provenir de
sources très lointaines du fait de l’absorption inhérente à la présence du fond cosmologique,
mais d’autre part on ne connaît pas de phénomènes d’accélération suffisamment puissants
dans les régions proches de nous. Certaines théories les expliquent comme témoins de
phénomènes liés au Big-Bang.

Figure 1 : Spectre des rayons cosmiques mesuré jusqu’aux énergies ultimes.
Pour espérer résoudre l’énigme présente, il faut accumuler des statistiques suffisantes,
or ces rayons sont très rares, puisqu’ils bombardent la terre à raison de 1 par km2 et par siècle.
Il faut donc disposer de très grandes surfaces de collection. L’observatoire Auger se donne
pour but d’instrumenter 3 000 km2 d’un plateau en Argentine. Un rayon cosmique ayant
l’énergie considérée ici, produit au total des milliards de particules secondaires, et arrose au
sol une surface de quelques 10 km2. Le détecteur consiste en un réseau de capteurs distants
les uns des autres de 1.5 km.

Le mystère des neutrinos
Les neutrinos peuvent être considérés comme les astroparticules « par excellence »,
car ils sont présents à toutes les échelles de l’univers, ce qui fait du neutrino la particule, hors
le photon, la plus abondante. Des sources très puissantes contribuent à cette présence
incontournable.
En premier lieu, le soleil. Il nous envoie chaque seconde 60 milliards
d’«hélioneutrinos ». sur chaque cm2 de notre terre. Ils proviennent de réactions de fusion à
l’origine de l’énergie qui fait briller notre astre, et les prédictions de flux reposent sur des
calculs très élaborés que les théoriciens affirment fiables à quelques pour cent près. Ce flux
nous traverse autant le jour que la nuit, car la terre est transparente aux neutrinos.
Une supernova de type IIa éjecte presque toute son énergie en libérant 1058
« galactoneutrinos » en quelques secondes. En février 1987 une telle explosion eut lieu à
150000 années-lumière de notre terre, dans le grand nuage de Magellan, et une vingtaine des
neutrinos ainsi produits fut interceptée dans de vastes détecteurs souterrains.
Les neutrinos atmosphériques, « géoneutrinos » proviennent du bombardement des
rayons cosmiques primaires dont il a été déjà question, sur les couches les plus hautes de
l’atmosphère. Les protons interagissent en donnant des pions qui se désintègrent rapidement,
ce qui résulte en un flux d’environ 1 neutrino par minute et par cm2.
Les neutrinos peuvent aussi provenir de sources extragalactiques encore mystérieuses,
telles que noyaux actifs de galaxie, trous noirs…, et ici l’expérimentation en est encore à ses
balbutiements.

N’oublions pas l’homme et ses « anthroponeutrinos ». Un réacteur nucléaire EdF
produit quelques 1020 (anti)-neutrinos par seconde, sans aucun danger pour l’environnement,
et les accélérateurs permettent de construire des faisceaux bien maîtrisés qui s’avèrent les
mieux adaptés pour les recherches les plus fines concernant les propriétés de ces particules.
Au-delà de toutes ces sources variées, le producteur le plus prolifique fut le Big Bang,
il y a 14 milliards d’années. Les astrophysiciens nous enseignent que la grande explosion
originelle a laissé 300 « cosmoneutrinos » dans chaque cm3 de l’Univers. Cette densité
semble faible, rapportée aux densités de particules dans la matière ordinaire, mais intégrée sur
tout le volume de l’univers, elle donne une population de neutrinos plusieurs milliards de fois
plus abondante que celle des protons, neutrons et électrons qui forment les atomes.
Comment s’y retrouver dans toutes ces catégories de neutrinos ? Par chance, les
différentes populations s’échelonnent en classes d’énergies bien distinctes. Ainsi, les
neutrinos cosmologiques possèdent les énergies les plus faibles, le milli-eV, tandis qu’on
attend des énergies atteignant l’Exa-eV pour les neutrinos extragalactiques. Entre ces
extrêmes, les neutrinos solaires se concentrent autour de 1 MeV et les atmosphériques autour
de 1 GeV. La figure 2 montre cette hiérarchie d’énergies.

Figure 2 : Distribution en énergies des sources variées de neutrinos.
C’est le paradoxe des neutrinos : ils nous entourent en bataillons innombrables, et
pourtant ils ne nous affectent aucunement. Car ils ne subissent que l’interaction dite faible et
un seul neutrino de 1 GeV sur 100000 est arrêté dans la traversée de la terre, d’où le
qualificatif de fantôme souvent attribué à cette évanescente particule. La probabilité
d’interaction est faible mais pas nulle, sinon, on ne saurait rien d’eux. Or, grâce à des flux
très intenses obtenus auprès d’accélérateurs puissants, et grâce à des détecteurs très massifs,
on dispose aujourd’hui de millions d’interactions de neutrinos enregistrées au cours de
plusieurs générations d’expériences qui ont analysé en détail les propriétés de leur couplage
avec la matière.

Parfois un neutrino produit, lors de son interaction, un électron identifié : c’est un
neutrino électronique νe. Parfois l’interaction donne un muon, c’est le neutrino muonique νμ
qui est ici responsable.
νe νμ, l’histoire s’arrête-t-elle là ? Le nombre de types de neutrinos existant dans la
nature a été mesuré précisément grâce à un accélérateur du CERN : le LEP. Le résultat est
sans appel: 2.990 ± 0.016. Cette mesure provient de l’étude du Z0, le boson intermédiaire des
interactions faibles neutres, produit lors de collisions e+ e- et qui se désintègre quasiinstantanément.
La figure 3 montre la courbe dite d’excitation du boson Z0. La largeur de
cette courbe en cloche dépend du nombre de neutrinos. Plus il en existe de types différents,
plus la courbe est aplatie, et son ajustement permet d’extraire le nombre total de neutrinos
cité plus haut. Ainsi, la nature se contente de 3 neutrinos différents et 3 seulement qu’on
appelle νe νμ et ντ.
Figure 3 : La courbe « d’excitation » de la résonance Z0 mesurée au LEP, qui prouve
l’existence de seulement trois neutrinos légers différents.
L’expérience SuperKamiokande et les oscillations
Puisqu’il est nécessaire de disposer de détecteurs énormes pour obtenir un nombre
suffisant d’interactions, décrivons l’ambitieuse expérience qui a donné les résultats les plus
probants dans le domaine des neutrinos solaires et atmosphériques : SuperKamiokande.
Construite dans une mine de zinc sous une montagne japonaise près de la petite ville de
Kamioka, elle a commencé à prendre des données en avril 1997. Le dispositif consiste en un
volume gigantesque, d'environ 35m*35m*40m rempli d'eau purifiée, constamment observé
par plus de 11000 tubes photomultiplicateurs, capteurs pouvant détecter la présence de
quelques photons visibles. C’est une véritable cathédrale souterraine que montre la figure 4
pendant la phase de remplissage. On y voit des techniciens sur un canoë effectuant les
derniers ajustements des photomultiplicateurs avant que l’eau ne les recouvre.

Figure 4 : Photographie du détecteur SuperKamiokande pendant la phase de
remplissage (cliché ICRR-Tokyo).
Un neutrino interagissant dans l'eau produit des particules chargées de différents types
qui, si elles ont suffisamment d'énergie, donnent dans la traversée de l'eau des photons
visibles produits par l'effet appelé Cerenkov. Cet effet s’apparente à l’émission d’une onde de
choc électromagnétique, et naît chaque fois qu’une particule se propage dans un milieu à une
vitesse supérieure à celle de la lumière. Or, dans l’eau, la lumière se propage à 220000 km/s,
et un électron d’énergie 1 MeV dépasse cette vitesse. Un cône lumineux est produit le long de
la trajectoire, ce qui résulte en un anneau de photons au niveau des photomultiplicateurs.
Ainsi on mesure le flux des neutrinos solaires au-dessus d’une énergie de 5 MeV, or
on ne compte que la moitié du flux prédit par les théoriciens.
Dans la gamme d’énergie entre 100 MeV et quelques GeV, on détecte un signal
venant des neutrinos atmosphériques. Dans ce dernier cas, les interactions des neutrinos νμ
produisent des muons, les interactions des neutrinos νe produisent des électrons. Or muons et
électrons donnent des anneaux suffisamment distincts pour qu'on puisse compter séparément
les νμ et les νe incidents. La direction de la particule détectée informe d’autre part sur la
direction du neutrino qui a donné lieu à l’interaction, du moins aux énergies suffisamment
élevées. À nouveau le résultat n’est pas conforme aux prédictions. SuperKamiokande détecte
bien les neutrinos électroniques au niveau attendu, mais semble mettre en évidence un
manque de neutrinos du type muonique. Et l’expérience avance un argument supplémentaire
décisif. Les neutrinos atmosphériques proviennent de toutes les directions, puisqu’ils sont
produits tout autour de la terre. Ceux reconstruits comme venant « d’en haut » naissent dans
l’atmosphère directement située au-dessus du site expérimental. Ils ont parcouru environ 10
km avant d’être détectés. Ceux provenant « d’en bas » sont produits aux antipodes et ont donc
parcouru de l’ordre de 10000 km avant d’atteindre le dispositif expérimental. Or le déficit se
manifeste pour les νμ « d’en bas », qui ont traversé toute la terre, c’est-à-dire les neutrinos
ayant parcouru de longues distances avant leur détection. La figure 5 explicite
quantitativement le résultat en montrant la distribution en angle zénithal. Le déficit est
apparent à cosθ = -1.
Figure 5 : Distribution en angle zénithal des interactions de neutrinos
atmosphériques montrant le déficit des νμ montant.
Neutrinos solaires et atmosphériques ont donc bien été mis en évidence, mais dans les
deux cas, le flux mesuré présente une anomalie en regard du flux attendu. Le fait de trouver
un accord à un facteur 2 près entre des mesures délicates et des prédictions difficiles est déjà
une grande réussite. Pourtant les physiciens ne s’en contentent pas et cherchent à comprendre
ce désaccord.
On mesure moins de neutrinos que prévu, une partie semble avoir disparu entre la
source de production et le point de détection. À moins que certains, au cours de leur voyage,
n’aient changé de type. En effet les détecteurs actuels de neutrinos solaires ne sont sensibles
qu’aux νe et il se pourrait que les νe produits à l’intérieur du soleil se soient convertis en νμ
avant d’atteindre la terre. De même, les indications de SuperKamiokande peuvent
s’interpréter comme une conversion de νμ en ντ qui échappe à la détection, sur des distances
de l’ordre du diamètre terrestre.
Ce phénomène dans lequel un type de neutrino se transforme spontanément en un type
différent est appelé oscillation. C’est un processus permis en mécanique quantique dès lors
que les neutrinos ont une masse. La probabilité du phénomène dépend de la différence des
masses carrées entre les neutrinos oscillants. Ce mécanisme revêt beaucoup d’importance, car
il permet de sonder des différences de masses très petites, inaccessibles par tout autre moyen.
Or la question qui se pose actuellement sur les neutrinos concerne précisément leur masse, et
on sait seulement que si masse il y a, elle doit être minuscule.
L’interprétation communément admise du déficit des νe solaires par le phénomène
d’oscillations amène à une relation entre les masses m1 et m2 des états propres correspondant
aux νe et νμ : m22 - m12 = 5.10-5 eV2. Pour les neutrinos atmosphériques, le déficit des
νμ observé suggère une seconde relation entre les masses des neutrinos oscillants: m’22 -
m’12 = 3.10-3 eV2. Elle s’applique a priori aux états propres correspondant au couple νμ et
ντ.
La recherche d'oscillations est un domaine très actif, et plusieurs générations
d’expériences en ont cherché les effets, soit auprès de réacteurs, soit auprès d’accélérateurs
sans les mettre en évidence. La situation actuelle n’est pas entièrement claire et une
confirmation du signal revendiqué par SuperKamiokande est attendue. Elle devrait venir de
programmes en cours de réalisation, au Japon d’abord, puis au CERN et aux Etats-Unis, et
qui nécessitent de grandes distances de vol pour être sensibles à de très petites masses. Ainsi,
en 2005, on enverra un faisceau produit à Genève vers le tunnel du Gran Sasso près de Rome,
laissant aux neutrinos 730 km pour osciller. Les détecteurs imaginés sont à la mesure du
problème.

La fin de la physique ?
Au cours des cent dernières années, les progrès de la connaissance scientifique ont été
spectaculaires. Tant aux confins de l’infiniment grand qu’à ceux de l’infiniment petit, environ
huit ordres de grandeur ont été gagnés. On discerne aujourd’hui des détails cent millions de
fois plus fins qu’il y a cent ans, et on se rapproche de l’instant même du Big-Bang. Les
frontières du connu semblent d’ores et déjà avoir atteint leurs limites. En effet, on ne peut
penser aller au-delà du Big Bang, et la quête de l’infiniment petit bute de plus en plus contre
le mur du gigantisme.

Indéniablement, le 20ième siècle aura été le siècle de la physique. Le 21ième siècle
débute avec le déchiffrage du génome humain, et certains annoncent le siècle de la biologie.
D’autant que la biologie est riche de promesse, certains esprits téméraires allant jusqu’à
envisager l’immortalité, alors que les retombées de la physique des astroparticules semblent
illusoires, et que le domaine apparaît comme un simple passe-temps de physiciens.
Pourtant la physique n’a pas révélé tous ses secrets. Nous sommes peut-être à l’aube
d’une nouvelle révolution copernicienne. En effet, l’univers est, semble-t-il, rempli à 95%
d’une matière sombre, détectée par les vitesses anormales de rotation d’objets célestes
(figure 6), et d’une énergie sombre résultant d’études de supernovae lointaines et qui
indiquent que l’expansion de l’univers est en accélération. Or matière et énergie sombres
n’ont, semble-t-il, rien à voir avec notre matière ordinaire. L’essence même de notre monde
étudié au cours des derniers siècles semble ne représenter qu’une toute petite partie de
l’univers.
Figure 6 : Évidence de matière sombre révélée par les vitesses de rotation d’objets
célestes en fonction de leur distance au centre galactique.

Pendant un temps on espérait que les neutrinos puissent expliquer la matière sombre.
En effet, le scénario du Big Bang prédisant une population de neutrinos plusieurs milliards de
fois plus abondante que celle des autres particules, une masse avoisinant quelques 10 eV,
suffisait pour que la masse totale des neutrinos dépasse celle de la matière visible et donc
influence le devenir de l’univers. Un tel scénario était privilégié avant le résultat de
SuperKamiokande. Aujourd’hui, l’expérience japonaise semble indiquer une contribution
marginale des neutrinos à la masse de l’Univers, quoique avoisinant la masse visible, celle
constituée par l'ensemble des étoiles.
La masse sombre est donc recherchée dans d’autres directions : particules
hypothétiques telles que axions ou particules supersymétriques. Quant à l’énergie sombre
c’est aujourd’hui un mystère complet.
Il reste donc de grandes énigmes que la physique peut et doit résoudre, mais pour
certains cette recherche apparaît comme trop ésotérique et coupée des préoccupations jugées
importantes. Pourtant, dévoiler les secrets de l’univers est pour l’homme aussi exaltant que
composer un poème ou une sonate. La justification d’une telle recherche est à trouver dans
l’enrichissement de l’aventure humaine. Il ne faut pas brider la curiosité intellectuelle. La
connaissance est un bien précieux, et on peut espérer qu’un jour, quand la science aura
répondu à tous les comment de la nature, le pourquoi en deviendra un peu plus clair, or c’est
bien là la question essentielle posée à l’homme.

Références :
Winter (K.) éditeur, Neutrino Physics. Cambridge University Press 1991.
Crozon (M.) et Vannucci (F.), Les particules élémentaires. « Que sais-je? » PUF 94
Vannucci (F.), Les neutrinos sur la balance, Images de la Physique/CNRS 1999.

 

  VIDEO       CANAL  U         LIEN   

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon