ecole de musique piano
     
menu
 
 
 
 
 
 

Et pourtant il accélère !

 

Et pourtant il accélère !
Jacques-Olivier Baruch dans mensuel 361
daté février 2003 -


L'expansion de l'Univers, loin de ralentir comme on le pensait depuis soixante-dix ans, est en train de s'accélérer sous la pression d'une mystérieuse énergie noire. Les astrophysiciens tentent de comprendre la nature de ce constituant majeur de l'Univers.
Au début juillet s'est tenu à l'Institut d'astrophysique de Paris un colloque au titre bien mystérieux : « Sur la nature de l'énergie noire ». Cette irruption sur la scène scientifique d'un concept tenant plus de l'alchimie et de la mystique que de la science dure n'était pas ano-dine. L'énergie noire était devenue « le » sujet de l'année 2002, réunissant cosmologistes et physiciens théoriciens. La raison : quelque cinq mois auparavant, un article paru en Grande-Bretagne, dans les Monthly Notices of the Royal Academy of Science [1], avait convaincu la communauté scientifique qu'un phénomène étourdissant pour la pensée humaine était à l'oeuvre : l'accélération de l'expansion de l'Univers. Quelques mois plus tard, les chercheurs de l'expérience Archéops le confirmaient. D'après leurs analyses très précises du rayonnement de bruit de fond cosmologique, vestige du Big Bang, ils déduisaient que l'Univers connaissait effectivement une expansion accélérée sous la pression négative d'une mystérieuse énergie noire. C'était là un renversement complet de pensée puisque, selon les vues traditionnelles des cosmologistes, si l'Univers était en expansion depuis le Big Bang, celle-ci, loin d'accélérer, devait ralentir depuis quinze milliards d'années.

Ce n'était pas la première fois qu'une telle idée surgissait sur le devant de la scène. Il y a quatre ans, deux équipes internationales, la High-z Supernova Search Team [2] et le Supernova Cosmology Project SCP [3], annonçaient cette révolution conceptuelle. Ces deux groupes de chercheurs s'étaient attelés à mesurer précisément la lumière émise lors de l'explosion de certaines étoiles, les supernovae de type Ia voir l'encadré p. 36. De fait, jusqu'à l'observation de ces explosions d'étoiles aux confins de l'Univers, tout paraissait normal : plus une supernova était loin- taine, plus sa luminosité apparente était faible suivant une courbe grossièrement linéaire. Bien sûr, dans le cas d'un ralentissement de l'expansion, on aurait dû constater que les supernovae les plus lointaines étaient un peu plus lumineuses que leurs consoeurs proches, mais il était encore impossible d'observer cet écart : aucune supernova n'avait encore été détectée à des distances se chiffrant en milliards d'années-lumière, où cet effet se fait sentir. Les 16 supernovae du High-z Supernova Search Team, ajoutées aux 42 de SCP, allaient bousculer ce schéma trop simple [fig. 1]. Leur luminosité n'était pas plus forte mais, au contraire, 25 % plus faible que celle de leurs consoeurs proches ! Pour expliquer ce phénomène, les scientifiques avaient deux choix : ou un processus physique affaiblissait le rayonnement des supernovae, ou bien leur distance était à revoir à la hausse. Si c'était une question de distance, la vitesse d'expansion de l'Univers n'était pas en train de diminuer, comme on le pensait jusque-là, mais, au contraire, augmentait : l'expansion de l'Univers était en train d'accélérer.

Le mystère des supernovae

Les astrophysiciens se sont montrés sceptiques devant cette hypothèse. Soucieux de ne pas modifier la structure de l'Univers à la légère, ils ont préféré regarder d'abord du côté des supernovae elles-mêmes. Il était possible, en effet, que leur lumière soit absorbée par des poussières ou des nuages intergalactiques. Mais aussi que leur compo- sition chimique influe sur la courbe de luminosité lors de leur explosion. Effectivement, les supernovae de type Ia ne sont pas toutes exactement identiques, sans que les astrophysiciens ne sachent vraiment pourquoi. Mais ils ont néanmoins remarqué que, pour les explosions les plus proches de nous, le maximum de la luminosité était d'autant plus élevé que son augmentation était rapide. Il devint alors possible d'homogénéiser les courbes de lumière [fig.2] et d'appliquer des corrections aux supernovae lointaines, « sous réserve que leurs propriétés soient identiques à celles des supernovae proches », écrivait en 1999 Reynald Pain, directeur de recherche au Laboratoire de physique nuclé-aire et des hautes énergies, et collaborateur du SCP [4].

Quatre ans plus tard, aucune faille n'est apparue dans l'édifice théorique des supernovae. Elles explosent toujours au rythme lent de trois fois par millénaire et par galaxie, aucun effet d'évolution chimique n'est pressenti, mais celles qui sont détectées persistent dans leur faiblesse lumineuse. La solution était donc à rechercher du côté de leur distance. Pas si facile ! Seule la lumière des astres proches à moins de 300 années-lumière est mesurable directement par calcul de parallaxe*. Les distances extragalactiques dites cosmologiques sont, elles, calculées depuis Edwin Hubble, en 1929, en fonction de différents paramètres, comme le décalage spectral* de la lumière de leur source, mais aussi de paramètres plus globaux : tout d'abord la densité de matière présente dans l'Univers, puis la constante de Hubble qui caractérise la vitesse d'expansion, mais aussi, et surtout, la mystérieuse constante cosmologique d'Einstein. Cette dernière connaît aujourd'hui un regain d'intérêt, alors qu'elle était tombée en désuétude depuis soixante-dix ans. Einstein avait rajouté ce terme négatif à ses équations de relativité générale afin que le résultat décrive un Univers statique conforme aux idées de l'époque. Quelques années plus tard, les cosmologistes attribuèrent à ce terme une valeur nulle, lorsque Edwin Hubble découvrit que l'Univers n'était pas statique, mais en expansion. Depuis quatre ans, cette constante est réapparue dans les équations, mais avec un signe positif, opposé à celui donné par Einstein. La constante cosmologique correspond alors à un milieu répulsif, une sorte d'antigravité qui, semblant dominer depuis sept milliards d'années, accélère l'expansion de l'Univers.

Cela semble bel et bien être le cas. Car, l'an dernier, deux équipes étudiant des phénomènes complètement indépendants des supernovae sont parvenues aux mêmes conclusions. Chacune juge cette accélération nécessaire pour expliquer leurs résultats. La première à proposer ses résultats en 2002 fut l'équipe du 2dFGS two-degree Field Galaxy Redshift Survey. Le professeur George Efstathiou, de l'université de Cambridge Massachusetts, États-Unis, et son équipe avaient alors localisé et analysé la lumière émise par 221 283 galaxies grâce au télescope anglo- australien 3,9 mètres de diamètre de Siding Spring Australie. Sauf à faire appel à une accélération de l'expansion de l'Univers, les chercheurs n'arrivaient pas à relier la répartition des galaxies qu'ils avaient observées aux structures détectées dans le rayonnement de bruit de fond, ce rayonnement émis 300 000 ans après le Big Bang, quand lumière et matière purent se découpler.

D'autres études confirment

« Nous confirmons l'accélération », ont clamé cet automne les physiciens français de l'expérience Archéops [5], qui vola en ballon pendant dix-neuf heures le 7 février 2002 à partir de la base suédoise de Kiruna. Leur sondage du bruit de fond cosmologique à grande échelle angulaire a, entre autres, permis d'affiner la composition énergétique de l'Univers. Sa densité de matière ne représente que 27 % ± 6 % de l'énergie totale. Une valeur en accord avec les mesures des études précédentes, qui évaluaient cette densité à 30 %, dont la plus grande part 25 % provient de la matière noire, encore inconnue mais qui exerce une influence gravitationnelle observable sur les galaxies et leurs amas [6]. L'équipe dirigée par Alain Benoit, du centre de recherche sur les très basses températures de Grenoble, conclut elle aussi que l'Univers est dominé à 70 % par un milieu répulsif, appelé énergie noire et représenté dans les équations par la constante cosmologique.

D'autres études [7] étayent cette vision d'un Univers de densité de matière faible, dominé par une énergie noire qui accélère son expansion. Elles utilisent le phénomène de lentille gravitationnelle, dans lequel la lumière d'une source est déviée et amplifiée par la présence, sur la ligne de visée, d'un astre très massif comme une galaxie ou un amas de galaxies. Certains chercheurs qui analysent la lumière des quasars les noyaux actifs des galaxies primordiales [8] se sont rendu compte que leur luminosité intrinsèque avait été surestimée. D'autres évaluent la densité de matière de l'Univers en effectuant une étude statistique sur la déformation des images des galaxies lointaines : ce qu'ils appellent le phénomène de lentille gravitationnelle faible. S'ils observent des orientations privilégiées, ils peuvent en déduire la quantité de matière présente entre les galaxies et la Terre, puis la densité de matière visible et noire de l'Univers. Pour les quelques équipes qui publient leurs résultats, ce très faible effet est difficile à observer. Il n'empêche : la densité de matière ainsi déduite, même largement entachée d'incertitude, va, elle aussi, dans le sens d'une densité de matière très faible et d'une constante cosmologique positive, signe d'une accélération de l'expansion [fig. 3].

La concordance de toutes ces expériences a fait sursauter plus d'un cosmologiste. À l'aube du XXIe siècle, il devient clair que 95 % de l'Univers nous est totalement étranger ! Les astrophysiciens s'aperçoivent que toutes leurs théories ne se fondent que sur l'observation des cinq petits pour cent visibles de l'énergie totale [fig. 4]. De quoi rendre sceptique le commun des mortels, mais pas les scientifiques, qui continuent à bâtir leur édifice théorique contre vents et marées. Leur plus grand défi est aujourd'hui de dévoiler la nature de cette énergie noire, caractérisée par la cons- tante cosmologique. « En lui donnant ce nom d'énergie noire, on a déjà fait la moitié du chemin », plaisante Reynald Pain. L'énergie du vide* est un bon candidat mais, si c'est le cas, les physiciens quantiques la trouvent étonnamment petite. Ils préféreraient la voir multipliée par un facteur énorme : au moins 1060 ! Pour baliser ce chemin, les chercheurs ont une piste. Ils tentent de caractériser ce milieu bizarre en évaluant le rapport de sa pression sur sa densité. Si ce rapport est égal à – 1, l'énergie ainsi caractérisée serait identifiée à l'énergie du vide. Devant les difficultés liées à son ordre de grandeur, les physiciens étudient d'autres cas, en particulier ceux où cette constante est... variable. Elle pourrait être alors associée à des défauts topologiques de l'espace liés aux différentes brisures de symétrie que l'Univers a connues dans le passé. D'autres encore imaginent une nouvelle forme de « matière », un nouveau champ appelé par certains « quintessence », sans que personne ne sache exactement que mettre derrière ce mot emprunté aux alchimistes.

Les cosmologistes et les physiciens théoriciens ont donc encore du pain sur la planche. En premier lieu, ils veulent mesurer le rapport entre la pression et la densité de ce milieu inhabituel. Mais, pour cela, il leur faut d'abord homogénéiser les données recueillies sur les supernovae de type Ia. Ce n'est aujourd'hui pas le cas, car la centaine de supernovae répertoriées n'a pas été observée selon les mêmes protocoles. Les spécificités de chaque télescope et de leurs spectrographes, la multiplicité des lieux d'observation introduisent des incertitudes quand il s'agit de comparer les courbes de lumière. De plus, même si, depuis 1999, plusieurs supernovae ont été observées à des distan-ces moyennes, il reste de nombreux trous dans l'échelle de distance [fig.1]. L'année 2003 marque à cet égard le passage à une vitesse supérieure. Le mois prochain sera mis en route le programme franco-canadien Supernova Legacy Project. Il utilisera le Very Large Telescope européen installé au Chili, ainsi que Megacam, la nouvelle caméra électronique construite par le service d'astrophysique du Commissariat à l'énergie atomique CEA et installée sur le télescope franco-canadien d'Hawaii CFHT. Toutes les deux ou trois nuits, la caméra, munie de cinq filtres différents, sera braquée sur deux zones présélectionnées, et ce pendant six mois de l'année. Ainsi, quatre zones de 1 degré carré seront surveillées pendant cinq ans.

Des usines à supernovae

Ce seul instrument permettra d'obtenir des données homogènes et des courbes de lumière complètes. « Sur cinq ans, nous nous attendons à détecter et à décrypter la lumière de plus d'un millier de supernovae de type Ia », déclarait en octobre dernier Stéphane Basa, du laboratoire d'astrophysique de Marseille, lors de la journée du Programme national de cosmologie. Un autre projet, une « usine à supernovae », selon Saul Perlmutter, responsable du SCP et promoteur du projet franco-américain SN Factory, est dans les starting-blocks. L'équipe a pu obtenir 20 % du temps d'observation du télescope de 2,2 mètres de l'université d'Hawaii sur le volcan Mauna Kea. Y sera connecté le SNIFS, un spectrographe de nouvelle génération étudié et fabriqué en France, dont la seule tache sera de sonder le ciel quotidiennement et d'analyser les spectres des étoiles. La mise en place de cet instrument devrait se dérouler l'été prochain, pour de premières détections de super-novae à l'automne. Toutes ces expériences permettront de mieux appréhender le déroulement de l'explosion des supernovae jusqu'à des distances approchant les quelques milliards d'années-lumière. Mais remonter plus loin dans le passé et en distance demande d'observer des astres de luminosité encore plus faible. Il faudra alors s'affranchir de l'atmosphère terrestre et observer depuis l'espace. Les astrophysiciens comptent beaucoup sur le satellite SNAP SuperNovae/Acceleration Probe, qui détecterait aussi bien les supernovae 2 000 par an que les effets de lentilles gravitationnelles faibles. Lors de la réunion qui s'est tenue en juillet dernier à Berkeley Californie, le département de l'Énergie américain DoE s'est dit intéressé par ce projet, dont le lancement est prévu vers 2010, mais n'a encore rien décidé. De son côté, son partenaire, le CNES, auquel les scientifiques français ont demandé de prendre en charge le spectrographe, connaît actuellement quelques problèmes de financement et doit faire des choix. « La participation française n'est aujourd'hui pas assurée », confirme Yannick Copin, physicien à l'Institut de physique nucléaire de Lyon. Pourtant, aussi bien l'étude des supernovae de type Ia que les effets de lentilles gravitationnelles faibles peuvent apporter des indications sur la valeur du rapport pression-densité, sur son éventuelle variabilité et, in fine, sur la nature de l'énergie noire [9]. L'enjeu est d'importance : c'est elle qui, aujourd'hui, semble commander notre avenir à long terme. en deux mots Déjà mise en évidence il y a quatre ans à partir de l'étude de supernovae, l'accélération de l'expansion de l'Univers a été confirmée cette année par deux expériences indépendantes. Pour déduire ce résultat, la première a analysé plus de 220 000 galaxies, l'autre s'est penchée sur les inhomogénéités du bruit de fond cosmologique. Convaincus, les cosmologistes revoient leurs scénarios et tentent d'en comprendre la cause. Ils en appellent à une mystérieuse énergie noire, qu'ils tentent de caractériser en évaluant le rapport pression/densité de ce milieu encore inconnu.
[1] G. Efstathiou et al., MNRAS, 330-2, L29, 2002.

[2] A.G. Riess et al., AJ, 116, 1009, 1998.

[3] S. Perlmutter et al., ApJ, 517, 565, 1999.

[4] R. Pain, La Recherche, 320, 28, 1999.

[5] A. Benoit et al., A A Lett., astro-ph/0210305 et 0210306.

[6] Dossier « Matière noire », La Recherche, 338, 28, 2001.

[9] W. Hu, Phys. Rev. D, 66, 083515, 2002.
NOTES
* La parallaxe d'une étoile est l'angle sous lequel on voit l'ellipse que semble décrire cette étoile par suite du mouvement orbital de la Terre autour du Soleil.

* Décalage spectral redshift :

comme le son d'une ambulance que l'on entend plus grave ou plus aigu selon qu'elle s'éloigne ou se rapproche, la lumière d'une source qui s'éloigne sera décalée vers les parties rouges du spectre électromagnétique, alors qu'un observateur la verra bleuie si la source

se rapproche de lui.

* L'énergie du vide :

dans la théorie quantique, même en l'absence de toute particule ou de tout rayonnement,

l'Univers est plein... de particules virtuelles. Le vide est l'état d'énergie minimal, mais non nul, de l'Univers.
LES SUPERNOVAE PROCHES ET LOINTAINES
LE MAXIMUM DE LUMINOSITé des supernovae proches est corrélé à l'échelle des distances suivant une courbe linéaire. Ce n'est plus le cas des supernovae lointaines. Trouver des astres intermédiaires, ou encore plus lointains, permettra de distinguer les différents scénarios et de vérifier que l'expansion de l'Univers accélère d'après le Supernovae Cosmology Project.
QUELQUES DIFFÉRENCES
TOUTES LES SUPERNOVAE DE TYPE IA ne se comportent pas de la mÊme façon. Hormis leur distance, certaines se caractérisent par un maximum de lumière moins élevé et une diminution plus rapide. En y apportant une « correction », un stretch-factor, les courbes de lumière se superposent parfaitement. © INFOGRAPHIES : C. CHALIER
OÙ SOMMES-NOUS ?
dans ce diagramme énergie du vide versus densité de matière sont représentés les résultats des différentes expériences et les zones qu'elles excluent. L'analyse du bruit de fond cosmique CMB, les supernovae SN, les lentilles gravitationnelles faibles WL, celles observées sur les quasars QSO, ainsi que les études sur la nucléosynthèse primordiale BBN convergent vers un couple L = 0,7, *M = 0,3 : l'Univers est en expansion accélérée.
L'ÉNERGIE DE L'UNIVERS
les différentes expériences concluent à la domination d'une entité inconnue qui possède un effet répulsif sur la structure de l'espace. Les astres qui émettent de la lumière planètes, étoiles et nuages de gaz représentent moins de 5 % de l'ensemble.
SAVOIR
R. Kishner, The Extravagant Universe, Princeton University Press, 2002.

H. Reeves, Dernières

Nouvelles du Cosmos, Seuil, 2002.

E. Klein, Les Tactiques

de Chronos, Flammarion, 2003.

http://snap.lbl.gov

SNAP, la future mission spatiale de recherche de supernovae.

 

   DOCUMENT       larecherche.fr       LIEN

 
 
 
 

L'origine des éléments légers dans l'univers

 

 

 

 

 

 

L'origine des éléments légers dans l'univers texte intégral
Hubert Reeves, equipe du Dr Bernas, en particulier les Drs Epherre, Gradsztajn, Seide et Yiou dans mensuel 99


On aurait pu intituler cet article « Etudes astronomiques à l'aide d'un spectromètre de masse ». Au lecteur non familiarisé avec l'astronomie physique, un tel titre pourrait paraître assez inattendu. En fait, il représente une réalité bien précise : il recouvre une histoire que l'auteur raconte ici : cette histoire constitue maintenant un chapitre du développement de l'astrophysique nucléaire ; il traite de l'origine des éléments lithium, béryllium et bore dans l'univers. Voici d'abord l'histoire en peu de mots : l'interprétation physique et astrophysique des observations relatives à l'abondance de ces éléments dans le système solaire et dans les étoiles dépend d'une façon essentielle de la mesure des probabilités sections efficaces de formation de ces éléments dans certains types de réactions nucléaires réactions de spallation. Ces réactions nucléaires peuvent être reproduites au laboratoire, et les sections efficaces mesurées expérimentalement. Depuis une dizaine d'années, des équipes de recherche se sont attachées à ces problèmes, et les résultats obtenus ont eu pour l'astrophysique un retentissement considérable : par elles, nos connaissances et notre compréhension de phénomènes aussi divers que l'évolution des étoiles, la formation du système solaire et les propriétés du rayonnement cosmique galactique ont progressé d'une façon tangible.
Dans l'univers, les étoiles sont le siège de réactions thermonucléaires dont l'existence est relativement bien établie par un ensemble de données observationnelles. Ces réactions jouent pour l'étoile un double rôle : d'une part elles libèrent l'énergie qui assure à l'étoile sa stabilité pendant des périodes de milliards d'années ; d'autre part, elles engendrent par composition des éléments plus lourds à partir d'éléments moins lourds : c'est la nucléosynthèse. La très grande majorité des étoiles que nous voyons dans le ciel sont des étoiles dites de la « séquence principale » : elles tirent leur énergie de la fusion de quatre noyaux d'hydrogène en un noyau d'hélium phase de fusion de l'hydrogène à des températures internes de quelques dizaines de millions de degrés. Le Soleil en est un bon exemple. Dans une phase ultérieure, l'hélium ainsi formé se transforme lui-même en carbone et en oxygène phase de fusion de l'hélium à quelques centaines de millions de degrés. On peut citer en exemple l'étoile Capella de la famille des « géantes rouges ».

Puis de nouvelles réactions thermonucléaires transformeront ces éléments en d'autres plus lourds encore, tels le magnésium ou le silicium, et ainsi jusqu'au groupe des métaux fer, cuivre, nickel, à des températures de plusieurs milliards de degrés. On connaît encore mal la famille d'étoiles correspondant à ces types de fusions thermonucléaires. Au cours de ces réactions, des neutrons sont émis qui, par captures successives sur les noyaux du gaz stellaire, vont engendrer tous les noyaux lourds jusqu'à l'uranium.

L'origine des éléments lithium, béryllium et bore

Ces diverses phases ont fait l'objet d'études quantitatives qui ont permis une compréhension assez bonne de l'ensemble du processus nucléosynthétique. Cependant, il reste en particulier, une région obscure : celle des éléments dits « légers » ou « L » : lithium, béryllium et bore. D'une part, ces éléments représentés par cinq isotopes stables : lithium-6 et lithium-7, béryllium-9, bore-10 et bore-11 ont un très faible taux de formation au cours des réactions thermonucléaires responsables de la luminosité stellaire : en fait, un seul de ces isotopes, le lithium-7, apparaît dans le réseau complexe des réactions qui catalysent la fusion de l'hydrogène en hélium.

D'autre part, à cause de leur très faible stabilité nucléaire, ces isotopes sont extrêmement sensibles à la température des fournaises stellaires. A quelques millions de degrés, ils brûlent en des temps très courts à l'échelle stellaire. De sorte que même s'ils étaient formés en abondance, ils ne survivraient pas à leur passage dans les étoiles. Au total, bien que l'abondance naturelle de ces éléments soit très faible moins du milliardième de l'hydrogène, elle est encore beaucoup trop grande pour être explicable en termes d'évolution stellaire classique exception faite encore une fois, pour le lithium-7.

En 1955, Greenstein et Hayakawa ont émis indépendamment l'hypothèse suivante : ces éléments sont engendrés par des réactions nucléaires à haute énergie, par des protons rapides accélérés dans des «éruptions» violentes ayant lieu à la surface des étoiles. L'existence de telles éruptions était naturellement inférée à partir de phénomènes analogues observés à la surface de notre Soleil. Pendant ces éruptions solaires, dont la présence se manifeste par des perturbations optiques, radio et X, des processus d'accélération se déploient et engendrent une activité très importante : des particules d'énergie allant jusqu'au milliard d'électron-volts sont observées au voisinage de la Terre. Ces particules, dans leur passage au travers de l'atmosphère solaire, produisent sans doute des réactions de spallation du type voulu.

Le terme « réactions de spallation » groupe l'ensemble des réactions nucléaires dans lesquelles un noyau cible s'appauvrit d'un ou plusieurs nucléons, c'est-à-dire change d'identité nucléaire et, peut-être aussi, d'identité chimique si un ou plusieurs de ces nucléons sont des protons. Par exemple, on citera la transformation d'un noyau de carbone 11C en un noyau de béryllium 9Be par bombardement d'un proton amenant à l'éjection d'un neutron et de trois protons, dont le proton initial.

L'hypothèse présentée plus haut a deux facettes distinctes. L'une se rapporte à l'aspect nucléaire du problème : il s'agirait de phénomènes à haute énergie spallation plutôt que de phénomènes à très basse énergie réactions thermonucléaires. L'autre facette se rapporte à l'aspect astrophysique du problème : le siège des réactions est identifié aux éruptions stellaires.

Pour étudier la question en détail, il est indispensable, comme je l'ai mentionné plus tôt, de connaître quantitativement les données nucléaires du problème incidemment, ce point illustre bien le caractère pluridisciplinaire de l'astrophysique moderne ; en 1960, il était déjà clair que l'interprétation des observations astronomiques était complètement paralysée par l'absence de ces données. A ce moment-là, j'ai visité plusieurs laboratoires américains pour demander si ces mesures étaient techniquement possibles et si l'on était prêt à les effectuer, m'efforçant de mettre en évidence leur très grand intérêt astronomique. J'ai reçu à peu près partout la même réponse : bien que techniquement possibles, de telles expériences seraient très difficiles et surtout très longues ; les problèmes de contamination exigerait un soin extrême. Les promesses vagues que j'ai recueillies n'ont naturellement jamais été exécutées. C'est en 1964 que j'ai eu connaissance des travaux du groupe Bernas à Orsay ; non seulement ces physiciens avaient entrepris de réaliser ces expériences, mais déjà les premiers résultats étaient disponibles et leur impact sur les théories astrophysiques avait été mis en évidence.

Un aspect nucléaire du problème

Pour mesurer les probabilités des réactions nucléaires qui vont nous intéresser ici, on utilise à la fois un accélérateur de particules et un spectromètre de masse. Par exemple, si l'on veut déterminer la probabilité de formation d'un atome de lithium par la collision d'un proton de haute énergie avec un atome de carbone, on commence par soumettre une cible de graphite à un flux de protons d'énergie voulue dans un accélérateur approprié. Après un certain temps d'irradiation, une petite quantité d'atomes de lithium se trouve dispersée à l'intérieur de la cible ; on aura typiquement un atome de lithium pour environ 1011 atomes de carbone. Le nombre d'atomes de lithium ainsi formé est évidemment proportionnel à la section efficace, qu'on détermine maintenant par l'analyse quantitative de cette contamination artificielle. La très petite valeur de cette contamination pose un double problème : celui de la détection et de la mesure de quantités aussi faibles, et celui de la contamination naturelle. Le premier problème est résolu au moyen du spectromètre de masse que je décrirai dans un instant; le second problème exige la mise sur pied d'une technique de très haute purification préalable des cibles ; il faut débarrasser la cible des impuretés qui s'y trouvent naturellement et atteindre un degré de pureté allant jusqu'à 10-12 g/g ! On a obtenu ces résultats au moyen d'une technologie très raffinée, développée au cours de plusieurs années. C'est à ce prix que l'astrophysique a pu progresser.

Le spectromètre de masse est un instrument qui nous permet de déterminer quelle fraction d'un échantillon de matière est composée de particules d'une masse donnée. Par exemple, on peut analyser le contenu d'une bonbonne de néon et savoir qu'il contient 90,5 % de l'isotope de masse 20 20Ne, 0,3% de l'isotope de masse 21 21Ne et 9,2 % de l'isotope de masse 22 22Ne ces trois isotopes sont les trois formes nucléaires sous lesquelles on trouve le néon dans la nature. Le principe de l'instrument est le suivant : dans un champ magnétique d'entensité H, une particule de charge e, de masse A et de vitesse v décrit une trajectoire circulaire dont le rayon de courbure est donné par : R = Av/eH. Si des isotopes d'un élément donné même charge a, mais A d iff érent sont « injectés » gràce à l'accélérateur des particules dans le champ magnétique avec des vitesses égales, ils se placeront sur des orbites appropriées dont les rayons de courbure seront proportionnels aux masses A de chacun des isotopes, et le nombre de particules sur chaque orbite sera proportionnel à la fraction d'isotopes de masse A introduite au départ. On intercepte les faisceaux ainsi constitués au moyen de détecteurs-compteurs qui nous permettront d'estimer les abondances relatives.

Les implications astrophysiques du problème exigent qu'on mesure ces probabilités nucléaires pratiquement à toutes les énergies possibles : dans la nature, les faisceaux de particules rapides à la surface des étoiles ou dans lespace interstellaire présentent des spectres d'énergie très variés, allent des plus basses aux plus hautes. Fort heureusement, les probabilités de spallation varient peu avec l'énergie, de sorte qu'on peut se contenter de quelques « points » bien choisis. Ainsi l'équipe française du Centre de spectrométrie de masse1 a utilisé successivement le synchrocyclotron d'Orsay, le cyclotron de Saclay, les accélérateurs du CERN et divers accélérateurs d'Angleterre, d'Allemagne et d'Italie et s'est déplacée avec tout le matériel requis pour élaborer les «fonctions d'excitation » c'est le nom qu'on donne à l'ensemble de ces mesures en fonction de l'énergie. ...

L'aspect nucléaire de l'hypothèse Greenstein-Hayakawa a trouvé dans ces expériences une confirmation éclatante : les rapports d'abondance des isotopes de lithium, béryllium et bore dans la nature sont bien ceux auxquels on doit s'attendre, si ces éléments sont produits par des réactions de spallation induite sur des gaz stellaires ou galactiques, par des protons et des alphas de haute énergie, et si aucun processus ultérieur n'est venu altérer la situation.

L'effet du rayonnement cosmique sur les gaz interstellaires

Mais, par contre, l'aspect astrophysique de l'hypothèse est moins justifié. Une analyse plus détaillée a montré des difficultés quasi insurmontables vis-à-vis de l'efficacité requise pour les mécanismes d'accélération stellaires : pour qu'une étoile puisse engendrer elle-même dans son jeune âge les isotopes de lithium qu'on voit à sa surface, il faut qu'elle puisse transformer en particules rapides pratiquement toute l'énergie qu'elle extrait de ses réserves gravitationnelles. Par analogie, il faudrait imaginer un accélérateur qui déploierait autant de puissance dans son faisceau de particules accélérées qu'il en perd sous forme de chaleur dans le système de refroidissement de ses générateurs ! La question s'est donc reposée : où, quand et dans quel contexte astronomique ces réactions de spallation ont-elles lieu ? A la lumière de certaines observations astronomiques, on peut maintenant admettre qu'elles sont induites par le rayonnement cosmique galactique.

La découverte du rayonnement cosmique galactique remonte à plus de quarante ans. Nous savons aujourd'hui que l'espace interstellaire est constamment parcouru par des particules rapides jusqu'à 1019 électrons-volts ! parmi lesquelles essentiellement tous les éléments sont représentés. Bien que le flux soit faible quelques particules par centimètre carré et par seconde, ces particules rencontrent occasionnellement des atomes du gaz interstellaire environ un atome par centimètre cube avec lesquels elles peuvent réagir et engendrer entre autres choses les isotopes de lithium, de béryllium et de bore auxquels nous nous intéressons. Tout au long de la vie de la galaxie, le gaz s'enrichit progressivement en ces éléments. Et quand une masse de gaz se sépare, se contracte sur elle-même et devient une étoile, l'émission de lumière révèle à la surface de l'étoile la présence des éléments ainsi accumulés. Un calcul simple montre que le taux de formation intégré sur la période allant de la naissance de la galaxie à la naissance du Soleil est en gros suffisant pour expliquer la présence et l'abondance du béryllium à la surface du Soleil ou dans les météorites. On a choisi ici le béryllium plutôt que le lithium parce que ce dernier élément est lentement brûlé par des réactions thermonucléaires dans les zones superficielles des étoiles..

L'évolution des étoiles et le système solaire

On admettra donc que chaque étoile possède au moment de sa naissance les atomes de lithium, de béryllium et de bore qu'elle a trouvés dans la gaz dont elle s'est formée. On admettra aussi que, pendant la plus grande partie de sa vie, elle ne peut pas apporter une contribution personnelle à ces abondances. Dans les stades avancés d'évolution, le problème se reposera autrement. Par contre, puisqu'au long de son évolution l'étoile se réchauffe et devient le siège de réactions thermonucléaires et puisque l'effet net de ces réactions thermonucléaires est de détruire ces éléments, on peut s'attendre à une diminution de certains de ces isotopes. Et comme les taux de destruction ne sont pas les mêmes pour les différents isotopes en question, on prévoit des variations de leur abondance relative à la surface des étoiles, en fonction de l'âge et de la température des masses stellaires impliquées. De telles variations sont en effet observées et nous renseignent sur les conditions physiques dans les surfaces stellaires. Ces renseignements jouent à leur tour un rôle important dans l'élaboration des modèles stellaires.

La figure 6 illustre bien ce point : on a mis en ordonnées ici l'abondance du lithium dans les couches superficielles de certaines étoiles en fonction de la classe spectrale de ces étoiles c'est-à-dire en fonction de la température à la surface. Pour comprendre le raisonnement il suffit de savoir que ces étoiles possèdent des zones convectives superficielles, c'est~à-dire que le gaz atmosphérique est constamment mélangé avec la matière des couches inférieures et que dans le diagramme la température moyenne de ces zones s'accroit de la gauche vers la droite. En d'autres mots les atomes de lithium d'une étoile K ont été soumis à des températures plus élevées que ceux des étoiles F. Il est donc naturel d'observer une destruction relativement plus avancée du lithium dans les étoiles K que dans les étoiles G.

N fait, ce diagramme montre deux groupes d'étoiles d'âges bien différents, le premier groupe représente l'amas des Pléiades 50 millions d'années et le second l'amas des Hyades 500 millions d'années. Et comme on peut s'y attendre, la destruction est plus avancée pour le groupe le plus âgé.

Dans ce contexte, le Soleil et le système solaire ne forment qu'un cas particulier de l'ensemble décrit précédemment. Cependant les moyens d'études mis à notre disposition sont beaucoup plus considérables puisque nous pouvons en étudier la matière au laboratoire sous forme de pierres terrestres, météoritiques et lunaires. En particulier, la présence d'isotopes radioactifs et surtout de radioactivités fossiles nous permet de reconstituer l'historique la cosmochronologie de la matière du système solaire et d'analyser la contribution de l'amas stellaire dans lequel le Soleil est né.

Là encore, la mesure des sections efficaces nous vient en aide puisqu'elle met en évidence un excès de lithium-7 météoritique dont l'origine doit probablement être assignée à l'activité nucléosynthétique de cet amas stellaire avant la naissance du Soleil. La valeur quantitative de cet excès peut ensuite être reliée à certaines propriétés de cet amas dont l'importance commence tout juste à nous apparaître.

Ce bref résumé montre assez bien la riche moisson de connaissances astrophysiques que des mesures au spectromètre de masse de certaines sections efficaces de spallation ont apportée. Ces mesures ont déjà fait l'objet de plusieurs thèses de doctorat présentées à la faculté des sciences d'Orsay. D'autres sont en préparation. A l'étranger ces données expérimentales sont connues sous la nom « d'Orsay cross sections ». Elles sont citées régulièrement par les différents groupes d'astrophysiciens qui les utilisent. Depuis deux ans, une équipe américaine le Dr Davids en particulier a également contribué à leur élaboration. Ce résumé ilIustre aussi, en passant, un point auquel j'attache beaucoup d'importance : on peut encore aujourd'hui faire de la bonne physique de niveau international avec des moyens relativement réduits. Dans son livre Of Men and Galaxies , Hoyle fait remarquer que deux des plus fructueuses découvertes des trente dernières années, l'effet Mössbauer et la découverte de la non-conservation de la parité dans les interactions faibles, ont été obtenues à très peu de frais. Dans ce contexte, les mesures du groupe d'Orsay figurent en bonne place.

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
 

Simulations numériques des chocs de galaxies

 


Simulations numériques des chocs de galaxies
Julien Bourdet dans mensuel 507
daté janvier 2016 -


Grâce à des simulations numériques à haute résolution, des astronomes expliquent pour la première fois pourquoi les collisions entre galaxies donnent lieu à des flambées d'étoiles.
Ce sont des événements violents et extrêmement prolifiques. Dans l'Univers, lorsque deux galaxies entrent en collision, elles se mettent à produire des étoiles à un rythme effréné : à partir du gaz qu'elles contiennent, elles créent l'équivalent de 100 soleils par an pendant plusieurs dizaines de millions d'années - notre galaxie, la Voie lactée, en produit 100 fois moins. Jusqu'à aujourd'hui, l'origine de ces soudaines flambées d'étoiles observées par les télescopes restait mystérieuse. Grâce à des simulations informatiques d'une résolution sans précédent, une équipe d'astrophysiciens français a enfin expliqué le phénomène : durant les collisions, le gaz est fortement comprimé, ce qui favorise la formation brutale de nombreuses étoiles (1).

Au sein d'une galaxie, les étoiles naissent à partir d'immenses nuages de gaz composés essentiellement d'hydrogène, qui se concentrent sous l'effet de la gravitation. Lorsque la densité du gaz devient suffisamment élevée au centre du nuage, des réactions de fusion thermonucléaire démarrent et donnent naissance à un soleil. Mais lors d'une collision entre deux galaxies, le phénomène est tellement violent qu'il agite le gaz en tous sens, le rendant turbulent. On s'attendrait donc à ce que cette turbulence du gaz, qui gêne sa condensation, freine la formation de nouvelles étoiles. Or, c'est l'inverse qui est observé.

Pour tenter de résoudre ce paradoxe, les astronomes ont commencé, dès les années 1970, à simuler sur ordinateur les chocs entre galaxies. De la sorte, ils cherchaient à reproduire toute la complexité des processus physiques en jeu.

PREMIÈRES TENTATIVES LACUNAIRES
Ces simulations ont pointé du doigt un premier mécanisme responsable des flambées d'étoiles : au moment où les deux galaxies se percutent, leur gaz se met à s'écouler vers leur centre respectif où il s'accumule, et forme ainsi plus d'étoiles. Mais restait un problème de taille. « Contrairement aux simulations, les observations montrent que la flambée stellaire ne se déroule pas uniquement au centre, mais dans l'ensemble de la galaxie. Cela signifie qu'il existe un phénomène plus global et beaucoup plus efficace pour former des étoiles au cours d'une collision galactique », note Florent Renaud, à la tête de l'équipe à l'origine de la découverte, aujourd'hui à l'université de Surrey en Angleterre.

LES EFFETS INATTENDUS DU GAZ
Pour identifier la clé des flambées d'étoiles, le chercheur français, à l'époque de ce travail au service d'astrophysique du CEA, à Saclay, et ses collègues du CEA (Frédéric Bournaud, Katarina Kraljic et Pierre-Alain Duc) décident de réaliser de nouvelles simulations numériques avec une résolution inédite. Objectif de l'équipe : prendre en compte simultanément toutes les échelles en jeu, de la galaxie dans son ensemble jusqu'à des structures ne mesurant que quelques années-lumière - la distance caractéristique entre deux étoiles dans une galaxie. Cette échelle minimale est dix fois plus petite que celle atteinte lors des précédentes modélisations. En gagnant en précision, les astrophysiciens espèrent suivre le mouvement du gaz dans ses moindres détails et ainsi comprendre pourquoi la formation stellaire s'emballe.

Mais la tâche est ardue. Pour parvenir à modéliser des galaxies avec toute la matière qu'elles contiennent - le gaz, les étoiles mais aussi la matière noire, une composante énigmatique qui constituerait l'essentiel de la masse des galaxies -, l'équipe doit faire appel aux supercalculateurs les plus puissants d'Europe.

D'autant que les chercheurs ne veulent pas se contenter de simuler une collision entre deux galaxies. Ils souhaitent également modéliser l'évolution d'une galaxie isolée comme la Voie lactée. « C'est une sorte d'échantillon témoin qui nous permet de bien décrire comment la formation stellaire a lieu en temps normal et comment elle est perturbée par une collision », explique Florent Renaud. Une première simulation est ainsi lancée sur le supercalculateur français Curie. Au total, 12 millions d'heures de calcul réparties sur un an seront nécessaires pour reproduire les conditions régnant sur les 300 000 années-lumière sur lesquelles s'étend la Voie lactée, et ce avec une résolution atteignant un dixième d'année-lumière. La simulation permet de reproduire 1 milliard d'années d'évolution, mais les périodes « intéressantes » sont plus courtes (quelques centaines de millions d'années).

Une seconde simulation est ensuite menée sur le supercalculateur SuperMuc installé en Allemagne. Objectif : modéliser, sur 600 000 années-lumière et pendant 1 milliard d'années, une collision galactique similaire à celle qui a donné naissance à la paire de galaxies baptisée Les Antennes. Située à 45 millions d'années-lumière de la Terre, c'est la rencontre galactique la plus proche de nous et la plus étudiée par les astronomes. Cette fois, la simulation, dotée d'une résolution de 3 années-lumière, nécessite 8 millions d'heures de calcul réparties sur huit mois. Cette simulation s'est terminée au printemps 2014.

En comparant les deux simulations, les astronomes mettent alors en évidence un comportement inattendu du gaz dans le cas de la collision des deux galaxies. « Dans la Voie lactée, la

rotation du disque engendre de la turbulence dans le gaz, explique David Elbaz, lui aussi au service d'astrophysique du CEA. Les tourbillons ainsi créés éparpillent la matière, ce qui ralentit fortement la formation stellaire. Dans les Antennes, cet effet existe toujours mais un autre prend rapidement le pas : au lieu d'être éparpillé, le gaz est fortement comprimé. C'est cet effet de compression qui produit un excès de gaz dense et donc une flambée de formation stellaire dans des régions couvrant un important volume des galaxies, et non pas seulement dans leurs régions centrales. »

Mais comment naissent ces compressions dans le gaz ? Pour bien comprendre le phénomène, il faut se placer à l'échelle d'une galaxie tout entière. De par sa masse, celle-ci crée un intense champ de gravitation. Lorsque deux mastodontes de la taille de la Voie lactée commencent à se rapprocher, ils s'attirent alors très fortement, au point de se déformer (lire ci-dessus). Exactement comme la Lune déforme les océans sur Terre créant les marées. Dans le cas des galaxies, l'étirement est tellement intense qu'il finit par arracher des étoiles et du gaz aux deux protagonistes. De spectaculaires extensions de matière se forment au fil du temps entre les deux galaxies et à l'arrière de chacune d'elles.

QUANTIFIER L'IMPACT DES COLLISIONS
Mais cet étirement de la matière n'est pas le seul effet provoqué par la gravitation. « Lorsque les deux galaxies commencent à pénétrer l'une dans l'autre, l'effet s'inverse, précise Florent Renaud. Au lieu d'étirer la matière, le champ gravitationnel la comprime dans certaines zones. Et cette compression se propage ensuite dans le gaz jusqu'aux plus petites échelles, créant ainsi les flambées d'étoiles au sein des galaxies. » Comme l'attestent les simulations, qui prennent à la fois en compte le champ gravitationnel à grande échelle et les mouvements du gaz à petite échelle, ce mécanisme apparaît désormais comme essentiel pour déclencher la formation des étoiles.

Pour s'en convaincre totalement, le groupe d'astrophysiciens a même introduit dans ses simulations des processus physiques extrêmement subtils : l'effet sur le gaz interstellaire des explosions d'étoiles et des vents stellaires - une première à une telle résolution. On sait en effet que parmi les étoiles formées au cours d'une flambée, les plus grosses d'entre elles explosent en supernovae en quelques millions d'années. Au cours de cette courte vie - à l'échelle des étoiles -, elles émettent d'intenses vents stellaires (des émissions de particules). Or, ces deux phénomènes violents peuvent balayer le gaz environnant et ainsi stopper la formation stellaire. « Mais ce que montrent les simulations, note David Elbaz, c'est que la compression du gaz est suffisamment forte pour s'opposer à ces effets antagonistes et ainsi préserver les flambées d'étoiles. »

Avec ces travaux, les astronomes disposent désormais d'une représentation réaliste des flambées d'étoiles au sein des galaxies en collision. Ils peuvent ainsi mieux évaluer l'influence de ces événements violents sur l'histoire de la formation stellaire dans ces galaxies. Dans le cas des Antennes, les simulations numériques permettent d'estimer qu'en 200 millions

d'années - depuis leur premier contact qui a eu lieu il y a 150 millions d'années jusqu'à leur fusion en une seule galaxie qui se produira dans 40 millions d'années -, le couple de galaxies devrait avoir engendré 20 fois plus d'étoiles que si elles étaient restées isolées pendant toute cette période.

Reste que les collisions galactiques ne sont pas toutes aussi efficaces. « Les observations montrent que les flambées sont beaucoup moins intenses quand les deux galaxies n'ont pas des masses voisines ou qu'elles ne tournent pas toutes les deux dans le même sens, note Françoise Combes, de l'Observatoire de Paris et titulaire de la chaire « Galaxies et cosmologie » au Collège de France. Pour bien quantifier l'impact des collisions sur le taux de formation stellaire, il ne faudra pas se contenter de simuler le cas particulier des Antennes, mais encore bien d'autres collisions galactiques. »

C'est précisément à cette tâche que s'attellent actuellement Florent Renaud et ses collègues. Sur leurs supercalculateurs, ils multiplient les scénarios de collisions en changeant la vitesse relative des galaxies, leur masse, leur angle d'approche et d'autres paramètres encore. Ils tentent de déterminer dans quels cas les flambées d'étoiles sont à leur apogée ou au contraire sont quasiment à l'arrêt.

UNE NOUVELLE QUESTION SE POSE
Un travail de fourmi d'une importance cruciale, car il devrait faire avancer un débat qui fait rage actuellement dans la communauté scientifique : quel rôle ont joué les collisions de galaxies pour former des étoiles dans toute l'histoire de l'Univers ? Si aujourd'hui les collisions sont des événements rares, elles devaient être beaucoup plus fréquentes dans un passé reculé. En effet, l'Univers étant en expansion, les galaxies étaient autrefois plus proches les unes des autres et avaient donc plus de chance de se rencontrer. C'est ce qui fait dire à certains que la majorité des étoiles seraient nées à l'occasion d'un choc cosmique.

Mais des observations récentes ont remis en question cette idée. En 2011, les satellites Spitzer et Herschel montrent en effet que dans l'Univers lointain, les flambées d'étoiles dues à des collisions galactiques étaient plus l'exception que la règle (2). Au contraire, l'immense majorité des galaxies forme des étoiles de manière tranquille et régulière. « Ces observations tendent à dire qu'on a surestimé l'effet des collisions sur la création de nouvelles étoiles, juge David Elbaz. Par le passé, ces chocs étaient moins efficaces que ce qu'on imaginait. »

Pourquoi ? C'est à cette question que tentent aujourd'hui de répondre les astronomes. Dans cette quête, les nouvelles simulations mises au point par l'équipe française permettront sûrement de lever un grand coin du voile.
REPÈRES
- Jusqu'à présent, on ne comprenait pas le regain de formation d'étoiles résultant d'une collision entre deux galaxies.

- Une simulation détaillée a mis en avant le mécanisme déclencheur des flambées stellaires : la compression turbulente du gaz.

- De nouvelles simulations sont en cours pour déterminer dans quelles conditions de collision cette formation stellaire est la plus efficace.
DES GALAXIES MÉTAMORPHOSÉES
Lorsque deux galaxies de même gabarit se rencontrent, non seulement elles forment plus d'étoiles, mais c'est toute leur structure qui est transformée. Si les étoiles elles-mêmes n'entrent pas en collision, les distances entre elles étant trop grandes, leur position est chamboulée. Pourquoi ? Parce que de la même façon que la Lune déforme les océans sur Terre, l'attraction gravitationnelle d'une galaxie déforme sa voisine. Dans les régions externes, cet étirement est tellement intense qu'il finit par arracher les étoiles et le gaz : des ponts de matière se créent entre les deux galaxies et de longues traînées apparaissent à l'arrière. Et lorsque les deux galaxies se percutent de plein fouet, de la matière est même éjectée tout autour d'elles, formant des structures en anneaux. Au bout de quelques centaines de millions d'années, toutes ces traces de la collision ont disparu et les deux galaxies ont fusionné : à la place de deux galaxies spirales se trouve désormais une galaxie elliptique.
3 RAISONS DE RÉCOMPENSER CETTE PUBLICATION
Pour la rédaction

- Ces travaux permettent d'identifier pour la première fois le mécanisme à l'origine des flambées d'étoiles. Ce regain de formation stellaire, qu'on observe dans l'Univers proche comme dans l'Univers lointain, se déclenche lorsque deux galaxies entrent en collision.

- Avec une résolution de 3 années-lumière, c'est la simulation numérique la plus précise d'une collision entre deux galaxies : les détails sont dix fois plus fins que dans les simulations précédentes.

- Les auteurs de cette simulation ont pris en compte la physique du milieu interstellaire. De nombreux ingrédients ont été modélisés, y compris le rayonnement émis par les étoiles et leur explosion en supernovae.

 

DOCUMENT    larecherche.fr     LIEN

 
 
 
 

LA SONDE JUNO...

 

Jupiter : en attendant Juno
Joël IgnassePar Joël Ignasse
Voir tous ses articles
Publié le 28-06-2016 à 15h56

En prévision de l'arrivée imminente de la sonde Juno de la NASA, les astronomes ont acquis, au moyen du Très grand télescope, de nouvelles images spectaculaires de Jupiter dans l'infrarouge.
Les deux faces de Jupiter photographiées par le VLT. ESO/L.N. FletcherLes deux faces de Jupiter photographiées par le VLT. ESO/L.N. Fletcher

5 juillet 2016 : la sonde de la NASA Juno arrive aux abords de Jupiter
La sonde Juno entre dans l'influence gravitationnelle de Jupiter
Gigantesques aurores boréales sur Jupiter
COMPTE A REBOURS. Le 4 juillet 2016 (pour les Etats-Unis, le 5 pour la France), la sonde Juno de la NASA s'insérera en orbite autour de Jupiter. C'est la destination finale pour cet engin lancé le 5 août 2011. Pour préparer cette arrivée imminente, une équipe emmenée par Leigh Fletcher de l'Université de Leicester au Royaume-Uni a utilisé l'instrument VISIR sur le Très grand télescope de l'ESO au Chili, pour obtenir de nouvelles images de la géante du système solaire. Grâce à elles, les astronomes ont établi de nouvelles cartes de Jupiter qui révèlent également les mouvements ainsi que les changements intervenus au sein de l'atmosphère de Jupiter au cours des mois précédant l'arrivée de Juno. "Ces cartes guideront les observations de Juno au cours des prochains mois. Des images acquises à différentes longueurs d'onde du spectre infrarouge nous permettent de reconstituer, en trois dimensions, les mouvements d'énergie et de matière au travers d'une colonne d'atmosphère" explique Leigh Fletcher.

Cette image en fausses couleurs a été constituée en sélectionnant puis en combinant les meilleurs clichés générés par VISIR à la longueur d'onde de 5 micromètres. Crédit : L.Fletcher.

La sonde Juno qui entrera en orbite autour de Jupiter complètera ces observations menées au sol par des images prises in-situ. Elle effectuera 37 révolutions autour de Jupiter, pendant une vingtaine de mois, avant d'être précipitée vers la planète où elle se désintègrera. Juno usera de ses huit instruments durant ses 37 orbites pour en apprendre davantage sur la formation de Jupiter, sa structure, son atmosphère et sa magnétosphère. Et elle tentera également de résoudre une question qui hante les astronomes :  au cœur de cette géante gazeuse se niche-t-il un noyau planétaire solide ?



PANNEAUX. La sonde, d'une masse de 3.625 kg, sera principalement alimentée par des panneaux solaires, contrairement aux autres engins à destination des planètes externes qui sont équipés de générateurs thermiques à radio-isotopes (RTG). Pour répondre aux besoins générés par les instruments scientifiques, les télécommunications et le maintien en fonctionnement de la sonde dans l'environnement froid de Jupiter, Juno dispose de 45 m2 de cellules solaires. Celles-ci sont réparties sur 3 ailes de 8,86 mètres de long formées chacune d'un petit panneau et de 3 panneaux plus importants articulés entre eux. Pourquoi tant d’intérêt pour Jupiter ? Parce que c’est "la pierre de Rosette de notre système solaire" expliquait Scott Bolton, astronome en charge de Juno, lors de son lancement. "Elle est de loin la plus ancienne planète, contient plus de matière que toutes les autres planètes, les astéroïdes et les comètes réunis, et porte au fond d’elle l'histoire non seulement du système solaire, mais aussi la nôtre". Avec quatre grandes lunes et de nombreux autres petits satellites, Jupiter forme son propre système solaire en miniature. Sa composition ressemble à celle d'une étoile, et si elle avait été environ 80 fois plus massive, la planète aurait pu enclencher les processus de fusion atomique qui permettent aux étoiles de briller.

 

DOCUMENT        sciencesetavenir.fr      LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon