ecole de musique piano
     
menu
 
 
 
 
 
 

NEUTRINOS ET BIG BANG ...

 

 Invisible témoin du Big Bang


et aussi - par Julien Lesgourgues dans mensuel n°402 daté novembre 2006 à la page 43 (1693 mots) | Gratuit
Vivons-nous dans un flux de neutrinos vieux de 13,7 milliards d'années ? Ces particules primordiales demeurent encore insaisissables, mais les preuves indirectes de leur présence s'accumulent.

Les neutrinos ont-ils joué un rôle crucial dans l'histoire de l'Univers ? Sont-ils assez nombreux pour en modifier l'évolution globale ? Il y a là un paradoxe : comment les particules les plus légères que nous connaissons pourraient-elles influencer les plus grandes structures cosmologiques ? Pourtant, depuis l'hypothèse de l'existence des neutrinos, les physiciens n'ont cessé de s'interroger sur ce lien.

En 1953, avant même la première détection de ces particules, Ralph Alpher, James Follin et Robert Herman, de l'université John Hopkins du Maryland, proposèrent l'existence d'un « fond cosmologique de neutrinos » issu de la période chaude et dense ayant suivi le Big Bang [1] . Ce flux de neutrinos primordiaux remplirait tout l'Univers à l'instar du « fond cosmologique micro-onde » proposé sept ans plus tôt par George Gamow. Ce dernier avait en effet prédit la présence d'un flux de photons dans l'Univers, connu également sous le nom de « rayonnement fossile du Big Bang ».

Équilibre primordial
Selon les trois chercheurs du Maryland, l'Univers devrait au total contenir un nombre comparable de photons et de neutrinos, produits il y a 13,7 milliards d'années. Le scénario est le suivant : d'une infime fraction de seconde après le Big Bang jusqu'à 380 000 ans, l'Univers était rempli d'un gaz chaud et dense appelé « plasma primordial », dans lequel les particules élémentaires étaient maintenues en équilibre par un ensemble de réactions de désintégration et de chocs. C'est la période dite d'« équilibre thermique ».

Connaissant les propriétés élémentaires des neutrinos, photons, protons, neutrons, électrons et autres constituants du plasma primordial, on peut donc calculer exactement leur abondance relative pendant cette période, et l'extrapoler jusqu'à des époques bien plus récentes. Alpher et ses collègues trouvèrent ainsi que, dans les premières dizaines de milliers d'années de l'Univers, l'énergie totale devait se répartir entre les photons pour environ deux tiers et les neutrinos pour environ un tiers. L'énergie des autres constituants protons, neutrons, électrons, etc. étant alors totalement négligeable.

Puis, au moment dit de l'« égalité entre radiation et matière », que l'on date actuellement à 60 000 ans après le Big Bang, d'autres formes de matière prirent le dessus dans ce plasma primordial [2] . L'énergie des photons et des neutrinos devint progressivement négligeable par rapport à celle de la matière visible ordinaire, composée d'atomes, et à celle de la matière noire, responsable de la masse cachée de l'Univers. Enfin, pour rendre compte de la phase d'accélération de l'expansion mise en évidence par différents types d'observation à la fin des années 1990, une mystérieuse énergie noire de nature inexpliquée a été invoquée : quelques milliards d'années après le Big Bang, c'est elle qui semble avoir dominé [3] .

La contribution des neutrinos primordiaux à l'énergie totale de l'Univers serait donc aujourd'hui réduite à pas grand-chose. Les prédictions du « modèle cosmologique standard » combinées aux mesures de la température du fond cosmologique micro-onde, du taux d'expansion et de la platitude de l'Univers ont d'abord fixé une valeur minimale à 0,003 % de l'énergie totale. En incluant les informations les plus récentes sur la masse des neutrinos, obtenues en étudiant leurs oscillations ainsi que le processus de désintégration du tritium, on peut affiner cette prédiction : la contribution doit se situer entre 0,1 % et 4 %. Enfin, d'après l'observation des grandes structures dans l'Univers lire « Peser les neutrinos en observant le ciel », p. 46, il n'est guère vraisemblable que plus de 1 % de l'énergie totale de l'Univers puisse être imputée aux neutrinos primordiaux. En revanche, le nombre actuel de neutrinos primordiaux resterait significatif et conforme aux prédictions d'Alpher et de ses collègues, soit en moyenne 339 neutrinos par centimètre cube, contre 412 photons.

Interaction trop faible
Théories fantaisistes que celles-là ? Le modèle résiste-t-il à l'observation ? Le fond cosmologique micro-onde a été observé en 1965 par Arno Penzias et Robert Wilson grâce à un radiotélescope, donnant au modèle du Big Bang sa preuve la plus éclatante. Mais les neutrinos primordiaux restent inaccessibles. Contrairement aux photons, ils ont une probabilité dérisoire d'interagir avec leur environnement et donc de se manifester. Aujourd'hui encore, leur détection directe relève de la science-fiction. Sans charge électrique et peu énergétiques, les neutrinos primordiaux sont sensibles aux interactions faibles * et gravitationnelles, mais à des niveaux toujours hors de portée. La masse des neutrinos est en effet si petite que leur passage à proximité d'un détecteur correspond à une force gravitationnelle totalement négligeable et impossible à mettre en évidence. Quant aux détecteurs sensibles aux interactions faibles, plongés dans le fond cosmologique de neutrinos, ils doivent théoriquement vibrer, mais avec des accélérations de 10-26 centimètre par seconde carrée tout au plus [4] . Or la plus petite accélération détectable est aujourd'hui de l'ordre de 10-13 centimètre par seconde carrée.

Les détecteurs de neutrinos actuels traquent les fruits de la collision entre un neutrino et une autre particule élémentaire électron, muon, voire un autre neutrino, qui peut produire, grâce aux interactions faibles, d'autres particules bien plus faciles à repérer. Mais là encore ces réactions n'ont lieu que si l'énergie totale des deux particules initiales dépasse un certain seuil. Ce n'est pas le cas des neutrinos cosmologiques, dont l'énergie cinétique est beaucoup trop faible.

Des méthodes de détection directe ont toutefois été envisagées : par exemple, l'étude de la collision entre des neutrinos cosmologiques et des particules ultra-énergétiques produites dans un accélérateur. Malheureusement, même les particules qui seront produites par le LHC, le plus grand accélérateur du monde, en voie d'achèvement au CERN à Genève, auront une énergie insuffisante : la probabilité d'obtenir au moins une collision en un an serait de l'ordre de un pour dix mille [4] . La piste qui paraît peut-être la moins irréaliste est la détection de collisions entre des neutrinos primordiaux et des neutrinos ultra-énergétiques appartenant aux rayons cosmiques [5] . En principe, ce type de collision devrait se produire de temps en temps, n'importe où dans le cosmos. À cet égard, une observation extrêmement précise des rayons cosmiques arrivant sur Terre pourrait à très long terme se révéler payante.

Éléments légers
Ces quinze dernières années ont donc été consacrées à la détection indirecte : peut-on mettre en évidence une signature indiscutable du fond cosmologique de neutrinos en étudiant l'évolution globale de l'Univers ? Puisque leur contribution énergétique devait atteindre environ un tiers dans l'Univers primordial, c'est dans l'Univers jeune, moins de 60 000 ans après le Big Bang, qu'il faut chercher la trace des neutrinos primordiaux.

La première piste d'investigation est liée aux réactions nucléaires qui se sont produites entre une et deux cents secondes après le Big Bang et ont créé les premiers éléments légers hydrogène, deutérium, hélium, lithium, etc.. Depuis la fin de cet épisode, appelé nucléosynthèse primordiale, l'Univers est trop froid pour que d'autres réactions nucléaires aient lieu, si ce n'est au coeur des étoiles. Dans les structures vierges de toutes particules produites dans les étoiles, la proportion de ces différents éléments est donc restée figée. Or la cinétique des réactions primordiales dépend du taux d'expansion de l'Univers, lui-même relié à la densité d'énergie. Un surplus d'énergie sous forme de neutrinos devrait donc avoir des conséquences sur l'abondance relative de ces éléments légers. L'analyse spectroscopique de structures telles que les nuages de gaz intergalactiques donne accès à ces quantités. Et depuis les années 1990 l'ensemble de ces résultats correspond aux modèles qui intègrent les neutrinos dans les proportions prédites dès 1953 [6] . La présence du fond cosmologique de neutrinos est donc prouvée.

La deuxième preuve indirecte nous vient de l'étude des fluctuations du « fond cosmologique micro-onde ». Selon la direction observée, ce flux de photons présente de très petites variations d'énergie, et donc de température : une mine d'informations sur la composition et l'évolution de l'Univers, en particulier sur la période qui va de quelques milliers d'années à 380 000 ans après le Big Bang. Depuis une quinzaine d'années, des instruments embarqués sur des ballons-sondes, ou même des satellites sont dédiés à leur cartographie systématique. Mais c'est surtout depuis février 2003, grâce au satellite américain WMAP, que des cartes précises ont été obtenues [7] . L'analyse statistique de ces cartes fournit une mesure de la densité d'énergie dans l'Univers primordial. Le résultat confirme la prédiction théorique : la densité du fond de photons ne suffit pas. Un autre fond de particules sans interactions devait être présent après le Big Bang dans des proportions d'environ deux tiers, un tiers [8] .

Sans preuve directe, les plus sceptiques peuvent encore douter de l'existence du fond cosmologique de neutrinos. Mais il leur faut alors expliquer l'absence de ces particules dans le plasma primordial, les données de la nucléosynthèse primordiale et les fluctuations du fond micro-onde. Et pour cela invoquer un autre constituant mystérieux, qui aurait les propriétés élémentaires des neutrinos et remplirait l'Univers dans les mêmes proportions.

Succès cosmologique
Ainsi, même indirecte, la confirmation de l'existence des neutrinos primordiaux est considérée comme l'un des grands succès de la cosmologie moderne. Née des premières spéculations sur le modèle de Big Bang, l'hypothèse formulée en 1953 pourrait avoir des retombées pour les physiciens. Aujourd'hui ces derniers butent encore sur la masse absolue des neutrinos puisque les expériences sur les oscillations de neutrinos n'indiquent que des masses relatives. Or une mesure absolue pourrait bel et bien être tirée de l'observation du ciel dans les dix prochaines années lire « Peser les neutrinos en observant le ciel », ci-dessous ! La cartographie de l'Univers aux plus grandes échelles possibles nous renseignerait donc sur des particules légères... d'à peine un vingtième d'électronvolt. À moins, évidemment, que les prévisions ne soient trop optimistes, et que des difficultés imprévues ne surgissent dans les futures campagnes d'observations. La chasse aux neutrinos primordiaux est encore pleine de promesses.

EN DEUX MOTS Juste après le Big Bang, deux types de particules, neutrinos et photons, se seraient côtoyées à mesure pratiquement égale. Les neutrinos n'interagissent quasiment pas avec leur environnement : ils seraient donc parvenus jusqu'à nous sans encombre. Vestiges des tout premiers instants de l'Univers, ils auraient depuis perdu de leur énergie mais seraient toujours très nombreux. Et malgré leur légèreté, ils auraient joué un rôle important dans l'évolution de l'Univers.

Par Julien Lesgourgues

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
 

LES PREMIÈRES GALAXIES

 

La quête des premières galaxies


astrophysique - par Daniel Schaerer dans mensuel n°408 daté mai 2007 à la page 46 (2062 mots) | Gratuit
On voit désormais l'Univers dans l'état où il était moins d'un milliard d'années après sa formation. Grâce à l'amélioration des techniques d'observation des grands télescopes et de Hubble, nous pouvons comprendre comment sont nées les premières galaxies.

Comment et quand les premières galaxies se sont-elles formées ? Comment est-on passé d'un Univers sans planète, sans étoile, sans galaxie au ciel que nous connaissons aujourd'hui ? Selon le scénario le plus communément admis, cette transformation fondamentale se serait mise en place au cours de ce que nous appelons l'« âge sombre » de l'Univers. Cette période débute juste après le premier rayonnement émis au moment où l'Univers est devenu transparent, 380 000 ans après le Big Bang : le plasma chaud et dense des premiers instants cède la place à un milieu de matière noire, d'énergie et de gaz neutre.

Ce premier rayonnement, dont on retrouve aujourd'hui la trace sous la forme d'un rayonnement micro-onde - connu sous le nom de « fond diffus cosmologique » - porte les germes des futures structures cosmiques. La matière attirant la matière, les minuscules fluctuations de densité qu'elle recèle s'amplifient. Les embryons de structure se dessinent alors. Et, après quelques centaines de millions d'années, ils sont suffisamment denses pour que les premières étoiles et galaxies naissent. Leur rayonnement met ainsi un point final à l'âge sombre et inaugure la phase de « renaissance cosmique », que l'on appelle aussi la réionisation. Durant cet épisode, la gravité poursuivant son oeuvre, les galaxies fusionnent pour devenir de plus en plus massives. Peu à peu le rayonnement émis par ces galaxies ionise tout l'hydrogène du milieu intergalactique. Ce modèle, dit de formation hiérarchique, est celui qui domine actuellement [fig. 1] . Encore faut-il le vérifier. Comme l'essentiel semble se jouer dans le tout premier milliard d'années de l'Univers, c'est cette période que les astronomes cherchent aujourd'hui à sonder. Et la course à la galaxie la plus lointaine suscite une vive compétition.

Photographier le passé
Pour remonter le temps, il nous faut, en effet, observer loin. La vitesse de la lumière étant finie, les objets nous apparaissent tels qu'ils étaient au moment où ils ont émis leur rayonnement. Cartographier des galaxies aux confins de l'Univers revient donc en principe à photographier directement les premières galaxies formées après le Big Bang.

À la fin des années 1970, les télescopes les plus performants permettaient d'observer des galaxies à une distance de plus de 4,5 milliards d'années lumière, l'âge de notre système solaire. Un pas décisif est franchi en 1996 avec la découverte de galaxies dites à « flambées d'étoiles », c'est-à-dire sièges d'une formation très intense d'étoiles, à environ 6 milliards d'années-lumière, par des astronomes français et canadiens grâce au télescope du CFHT installé à Hawaï. Premièrement, elle remontait presque jusqu'à la moitié de l'âge de l'Univers, que l'on situe autour de 13,7 milliards d'années. Deuxièmement, elle montrait tout l'intérêt de ce type de galaxie : le moment où une galaxie produit des étoiles est sa phase la plus brillante. La flambée produit en particulier un rayonnement ultraviolet très important, qui la rend repérable de très loin. L'espoir d'en détecter aux confins de l'Univers était né.

À partir de là, nous n'avons eu de cesse de repousser les limites de ces observations. La première difficulté est de distinguer, parmi les milliards de galaxies, celles qui sont proches de celles qui sont lointaines. L'Univers étant en expansion, toutes les galaxies s'éloignent les unes des autres. La longueur des ondes qu'elles émettent est alors dilatée par effet Doppler * : en conséquence la lumière qui nous parvient de ces galaxies est décalée vers le rouge. Et plus une galaxie est lointaine, plus elle fuit rapidement. Résultat, son décalage est d'autant plus important. Tout repose donc sur la mesure de ce décalage vers le rouge, qui reflète la distance de la source lumineuse.

Deux techniques permettent de réaliser cette mesure, la spectroscopie et la photométrie. La spectroscopie consiste à mesurer le spectre d'une galaxie, c'est-à-dire à étudier en détail son rayonnement électromagnétique. Grâce à cette analyse de la distribution des photons en fonction de la longueur d'onde, on identifie ainsi des signaux caractéristiques de certains atomes, appelés des « raies spectrales ». Dans les galaxies à flambées d'étoiles, le signal souvent le plus fort est la raie dite « Lyman-alpha » émise par l'hydrogène dans l'ultraviolet, à une longueur d'onde de 121,6 nanomètres. La comparaison entre la longueur d'onde observée de la raie la plus intense - décalée vers le rouge - et sa longueur d'onde normale donne directement son décalage spectral, donc la distance qui nous sépare de la galaxie.

Rupture spectrale
La seconde approche, dite photométrique, se fonde sur une particularité des galaxies à flambées d'étoiles. Toute une partie du rayonnement ultraviolet émis par ces étoiles aux longueurs d'onde inférieures à 121,6 nanomètres est absorbée par les poussières dans la galaxie émettrice ou dans le milieu intergalactique. Ainsi, ces galaxies sont comme des projecteurs lumineux que l'on ne verrait pas au-dessous d'une certaine longueur d'onde. Cette rupture dans le spectre de la galaxie s'appelle le « break de Lyman-alpha ». Elle aussi est d'autant plus décalée vers le rouge que la galaxie observée est distante. La localisation de ce break de Lyman suffit donc pour déterminer ce décalage, et ainsi la distance. En pratique, la technique consiste à prendre des images de galaxies à différentes longueurs d'onde et à repérer celles où elles apparaissent et celles où elles ne se voient pas [fig. 2] . Cette approche est moins précise que la spectroscopie mais elle fournit une bonne estimation de la distance. Surtout elle exige beaucoup moins de temps d'observation. La confirmation par spectroscopie des mesures photométriques reste toutefois capitale.

Sondages « ultraprofonds »
En principe, on sait donc bien mesurer la distance de ces premières galaxies à flambées d'étoiles, encore faut-il les détecter ! Plusieurs équipes internationales, dont la nôtre à l'observatoire Midi-Pyrénées et l'observatoire de Genève, ont cherché à déterminer le dispositif d'observation le plus judicieux pour les dénicher.

Imaginons que ces premières galaxies se situent à plus de 12,9 milliards d'années lumière, c'est-à-dire qu'elles soient apparues 800 000 ans après le Big Bang. À cette distance, leur rayonnement ultraviolet, décalé vers le rouge, sera observé à des longueurs d'onde supérieures à 973 nanomètres, dans le domaine de l'infrarouge proche !

On ne les détectera donc pas dans le domaine visible. En conséquence, une caméra infrarouge est indispensable pour espérer les repérer. Pour identifier ces objets très peu lumineux, il faut aussi un grand télescope, à l'instar du VLT au Chili, et on doit le pointer très longtemps sur une petite partie de ciel. C'est ce que nous appelons des sondages « ultraprofonds ».Typiquement, les temps de pause sont d'environ 6 à 10 heures par image. Plusieurs images étant nécessaires, l'acquisition des données se fait en quatre à six nuits par météo idéale. Il faut aussi obtenir en parallèle des images profondes dans le domaine du visible, afin de vérifier que les objets repérés dans l'infrarouge restent bien invisibles sur ces images.

En 2004, cette démarche a commencé à porter ses fruits. L'exploration du premier milliard d'années de l'Univers a pris alors un sérieux tournant. En moins de quatre semaines, trois publications ont pulvérisé les précédents « records ». Le 15 février 2004, une équipe menée par les chercheurs français et américains Jean-Paul Kneib et Richard Ellis a annoncé une galaxie située à 13 milliards d'années lumière environ [1] . Leur stratégie a été de braquer le télescope spatial Hubble sur une région du ciel dans laquelle une lentille gravitationnelle avait été préalablement repérée. Cette lentille, liée à la présence d'un amas de galaxies sur la ligne de visée, amplifie et déforme les rayons lumineux émis par l'objet lointain, facilitant sa détection [fig. 3].

Suivant la même stratégie et après plus de neuf mois d'analyses laborieuses, l'équipe que nous dirigeons avec Roser Pelló a publié, le 1er mars, la découverte d'une galaxie candidate à 13,3 milliards d'années-lumière, c'est-à-dire ayant existé à peine 480 millions d'années après le Big Bang - même si elle a été par la suite réévaluée à une moindre distance [2, 3] . Et le 9 mars 2004, les images de l'« Ultra-Deep Field » prises par Hubble ont été mises à disposition de toute la communauté des astronomes. Ce sondage, résultat de 11,3 jours d'observations du télescope spatial, est le plus profond réalisé à ce jour. Très vite, une cinquantaine de galaxies à 12,7 milliards d'annéeslumière y ont été identifiées [4] . Mais c'est seulement en septembre que Rychard Bouwens et ses collaborateurs du Lick Observatory en Californie ont trouvé trois ou quatre de ces galaxies « candidates », autour de 650-780 millions d'années après le Big Bang par photométrie [5] .

Cependant, et à notre plus grande surprise, aucune autre galaxie plus jeune n'y a été découverte.

En revanche, en 2006 nous avons publié une

analyse détaillée de deux régions du ciel, toujours grâce à des lentilles gravitationnelles, qui a révélé 13 nouvelles galaxies « candidates » entre 12,7 et 13,3 milliards d'années-lumière.

Entre-temps, le grand télescope japonais Subaru, à Hawaï, a livré ses résultats. Grâce à sa caméra « grand angle », fournissant des images de la taille de la pleine lune, plusieurs équipes d'astronomes japonais ont cartographié un bon nombre de galaxies à 12,8 milliards d'années-lumière. Depuis le 14 septembre 2006, les Japonais détiennent aussi le record de la galaxie la plus lointaine, à 12,9 milliards d'années-lumière, dont la distance a été établie par spectroscopie [6] . Mais ce télescope n'est pas encore équipé de caméra infrarouge permettant de

dépasser cette limite. Hasard ou non, les 13 et 20 septembre, deux communiqués de presse se sont fait l'écho de nouvelles observations du satellite infrarouge Spitzer qui confirmeraient, toujours par photométrie, les galaxies « candidates » de R. Bouwens découvertes en 2004 [7] .

Galaxies naines
Que nous ont appris toutes ces découvertes ? Ces galaxies lointaines sont très différentes de la Voie lactée et des galaxies proches que nous connaissons. Elles sont beaucoup plus compactes. Leur taille apparente est de 3 à 6 millions d'années-lumière au maximum, soit un dixième environ de celle de la Voie lactée. Et leur faible luminosité indique qu'elles sont dix à mille fois moins massives qu'une galaxie adulte - c'est-à-dire issue de la fusion de plusieurs galaxies naines -, qui atteint autour de 1 000 milliards de masses solaires. Par ailleurs, leur couleur reflète une quasi-absence de poussières héritées d'explosions de supernovae, attestant de la jeunesse de l'Univers au moment où elles sont apparues. Enfin, elles ne possèdent vraisemblablement ni bras spiraux ni barres, typiques de galaxies déjà évoluées, un argument également en faveur d'une naissance précoce. Jusque-là, toutes ces observations cadrent donc bien, qualitativement au moins, avec le modèle de formation hiérarchique des galaxies.

Mais de nombreuses questions sont encore en suspens. Par exemple, quelle est la composition chimique des étoiles dans ces galaxies ? S'agit-il de flambées d'étoiles vraiment primordiales sans éléments lourds ? Ces étoiles sont-elles beaucoup plus massives que le Soleil, comme le suggèrent les simulations numériques ? Les galaxies observées sont-elles responsables de la réionisation cosmique ainsi que le prévoit le modèle ?

Un premier point fait débat. Il s'agit de l'évolution générale des galaxies. Autrement dit, quelle est la fraction de galaxies créatrices d'étoiles à chaque époque de l'Univers ? Or, l'analyse du champ ultraprofond de Hubble montre environ trois fois moins de galaxies à « flambées d'étoiles » que ce que notre équipe détecte sur les images du VLT. Mais d'autres arguments indirects semblent plaider en notre faveur. Selon, les mesures de la polarisation * du fond diffus cosmologique, réalisées par le satellite américain WMAP, qui donne l'état d'ionisation sur la ligne de visée, la formation stellaire aurait été déjà intense entre 200 et 600 millions d'années après le Big Bang. De plus, le satellite Spitzer a repéré des étoiles déjà « vieilles » dans des galaxies, 1,2 milliard d'années après le Big Bang. Cela laisse supposer qu'à 500-700 millions d'années ces galaxies devaient déjà exister : aurions-nous alors déjà trouvé quelques galaxies de la toute première génération ?

Quoi qu'il en soit, il nous faut comprendre pourquoi les différentes approches ne conduisent pas au même résultat. Et confirmer nos observations entre 12,7 et 13,3 milliards d'années-lumière, voire détecter des galaxies plus lointaines. La nouvelle génération d'instruments, télescopes et satellites, actuellement en construction devrait nous permettre de le faire.

Par Daniel Schaerer


DOCUMENT       larecherche.fr       LIEN

 
 
 
 

QUATRE SUCCÉS DES CORDES

 


2 Quatre succès des cordes


dossier - par Costas Bachas,Franck Daninos dans mensuel n°411 daté septembre 2007 à la page 35 (2646 mots) | Gratuit
Malgré l'absence de confirmation expérimentale, la théorie des cordes peut se targuer de beaux succès, comme l'unification, dans un même cadre, des forces fondamentales de l'Univers.

Pour ses supporteurs, la théorie des cordes est une révolution. Elle constitue un grand pas dans la quête de l'unification des lois de la nature. Grâce à elle, les physiciens disposeraient d'une théorie capable de décrire les briques les plus élémentaires de la matière, ainsi que les lois qui régissent leurs interactions.

Résultats théoriques
Ses détracteurs, au contraire, n'y voient qu'un domaine de la physique mathématique : un « bel » édifice, certes, mais qui ne saurait être falsifié empiriquement. Il est vrai que cette théorie est toujours dans l'attente d'une confirmation expérimentale. Personne n'a jamais vu les « cordes » en question.

Et au regard de leur taille supposée 10-33 centimètre, il est probable que cela n'arrive jamais...

Le débat prend des allures philosophiques, parfois même sociologiques et culturelles lire « Peter Galison : "Sur quels critères juger une théorie ?" », p. 42.

La théorie des cordes peut néanmoins se targuer de quelques réussites remarquables. Les problèmes qu'elle a surmontés successivement lui ont permis d'échapper au panthéon des concepts farfelus. Pas de preuves directes, donc, mais plusieurs résultats théoriques, dont l'intérêt semble indéniable au vu du grand nombre de physiciens qui ont rejoint ce domaine de recherche et participent encore à son évolution. Retenons-en quatre.

I. La théorie des cordes fournit une description quantique de la gravité

La physique moderne repose sur deux grands édifices théoriques : la mécanique quantique et le principe de relativité. La mécanique quantique est un ensemble de lois régissant le comportement de la matière au niveau atomique et subatomique. À cette échelle, les phénomènes physiques n'ont plus grand-chose à voir avec ceux dont nous sommes coutumiers.

Prenons l'exemple d'un postulat de la mécanique quantique : le « principe d'incertitude ». Celui-ci nous dit qu'il est impossible de définir simultanément la position et la vitesse d'une particule. Au point que celles-ci ne peuvent être décrites qu'en termes de probabilités. Cette propriété se comprend en admettant que les particules soient continuellement soumises à des vibrations que les physiciens nomment « fluctuations quantiques ».

Il n'empêche que la mécanique quantique prédit avec une précision remarquable le comportement des noyaux atomiques, des électrons ou des photons. Combinée au principe de la relativité restreinte d'Einstein selon lequel aucun signal ne peut se propager plus vite que la lumière elle permet de réunir dans un cadre unifié l'ensemble des particules élémentaires, ainsi que trois des quatre forces fondamentales : la « forte », la « faible » et l'« électromagnétique ». Dans ce cadre appelé « Modèle standard de la physique », chacune de ces forces est transmise par un type de particule. C'est le photon, par exemple, qui sert de médiateur à l'interaction électromagnétique.

La généralisation du principe de la relativité a permis à Einstein de décrire la quatrième force fondamentale : la gravité. Contrairement aux trois autres, elle est la seule qui subsiste à l'échelle cosmique. C'est pourquoi elle régit le mouvement des planètes, des étoiles et des galaxies. Avec une exactitude maintes fois vérifiée, la relativité générale montre que cette force résulte d'une déformation de la géométrie de l'espace-temps au voisinage d'un objet. Plus celui-ci est massif, plus la déformation est grande et se ressent à grande distance.

Comment la gravité se comporte-t-elle à très petite échelle ? Qu'obtient-on si on combine les équations de la relativité générale avec celles de la mécanique quantique ? L'infini ! Des solutions mathématiques qui n'ont aucun sens physique ! À une distance subatomique appelée « échelle de Planck », la relativité générale perd ainsi toute capacité prédictive.

On peut s'en faire une idée sans avoir recours aux mathématiques. Car la relativité générale et la mécanique quantique proposent deux descriptions contradictoires de la réalité physique : l'une, une géométrie lisse et localisée de l'espace-temps ; l'autre, une agitation perpétuelle régie par le principe d'incertitude. Pour la plupart des physiciens, cette incompatibilité suggère que la relativité générale ne serait pas si... « générale » que cela. Une autre théorie, sous-jacente, resterait donc à déterminer.

Embarrassant « graviton »
La théorie des cordes ne s'est pas tout de suite présentée comme une candidate. Elle a pris naissance à la fin des années 1960 avec les travaux de Gabriele Veneziano, alors à l'institut Weizman, en Israël [1] . Ce dernier cherchait à comprendre la nature de l'interaction forte, interaction dont l'intensité se fait d'autant plus sentir entre deux particules que celles-ci s'éloignent l'une de l'autre. Un peu comme si elles étaient reliées par une « corde », dont la tension déterminerait l'intensité de l'interaction.

Ce qui permit d'interpréter la théorie des cordes de Veneziano comme une théorie de la gravité quantique fut une prédiction inattendue, et même plutôt embarrassante. Comme pour les trois forces non gravitationnelles, les physiciens supposent l'existence d'une particule médiatrice de la gravité : le « graviton ». Pour rendre compte des propriétés de cette force, il doit transmettre une interaction attractive, avoir une portée infinie et exister en nombre illimité. Dans le langage quantique, cela signifie que la masse du graviton doit être nulle, et que la valeur d'un paramètre quantique fondamental, appelé « spin », soit égale à 2. Or, la théorie des cordes prévoit l'existence d'une particule présentant exactement ces caractéristiques. Et cette prédiction n'a de sens que si la théorie des cordes ne décrit pas uniquement l'interaction forte.

C'est ainsi que, vers le milieu des années 1970, Joël Scherk, de l'École normale supérieure, John Schwarz, de l'Institut de technologie de Californie, et Tamiaki Yoneya, de l'université Hokkaido, au Japon, ont reformulé la théorie des cordes comme une théorie de la gravitation quantique [2] . Avec l'aide d'un petit groupe de physiciens, ils l'ont modifié jusqu'à réussir à faire disparaître les quantités infinies dans les équations combinant la relativité générale et la mécanique quantique. Mais, pour cela, plusieurs révisions radicales sur nos représentations de la réalité physique ont été nécessaires.

En premier lieu, ces physiciens sont partis de l'hypothèse selon laquelle un objet élémentaire ne correspond pas nécessairement à un point. Ce que nous appelons « particule » serait la manifestation de petits filaments d'énergie en vibration : des « cordes », qui peuvent être soit ouvertes, soit fermées. La trajectoire d'une corde fermée présente ainsi une forme tubulaire, et ses interactions formeraient un réseau de tubes intersectés [fig. 1] .

Il n'y aurait donc plus une multitude de particules, mais un seul objet élémentaire : une corde vibrante régie par les lois de la mécanique quantique. De la même manière que les cordes d'un violon produisent différentes notes de musique, les modes de vibration des cordes quantiques donneraient lieu à des particules de nature diverse électron, photon, etc. et aux caractéristiques variables la masse, la charge.... Et si elles apparaissent comme des points lorsqu'on les « observe » dans les accélérateurs de particules, c'est parce qu'elles seraient extrêmement petites : un milliard de milliards de fois plus qu'un proton.

Ce n'est pas tout. Car la théorie devient cohérente seulement si les cordes n'évoluent plus dans un espace-temps à quatre dimensions, mais à dix ! Les dimensions « supplémentaires » seraient compactées, enroulées sur elles-mêmes à des échelles infinitésimales où la gravité quantique se manifesterait. Pour illustrer cette notion, prenons l'exemple d'un tuyau d'arrosage. Vu de loin, il apparaît comme un fil à une dimension. De près, il en occupe deux : l'une est constituée par les sections de cercle ; la seconde, par le tuyau qui s'étend d'une extrémité à l'autre.

L'hypothèse d'un espace-temps à dix dimensions est parfois l'objet de moqueries par les détracteurs de la théorie des cordes. Celle-ci aurait « perdu pied » avec la réalité que nous connaissons. Mais on peut aussi retourner l'argument. Pour quelle raison, en effet, l'espace-temps aurait quatre dimensions ? Pourquoi pas trois, ou cinq ? D'une certaine manière, ce nombre s'impose à nous de façon arbitraire. Ce n'est pas le cas avec la théorie des cordes. Pour la première fois, un calcul permettrait de déterminer le nombre de dimensions sans a priori.

II. La théorie des cordes permet d'unifier

les forces de la physique

Son développement coïncide avec celui d'une autre activité de recherche particulièrement ambitieuse : réunir, dans un cadre unique, toutes les forces fondamentales. Ces deux activités n'ont pas tardé à se rejoindre. En 1974 - année où la théorie des cordes a été proposée pour la gravité quantique -, Sheldon Glashow et Howard Georgi, de l'université Harvard, supposaient l'existence d'une « grande force unifiée » [3] . Elle se serait différenciée peu après le Big Bang. Pour étayer cette hypothèse, les physiciens ont calculé les variations de l'intensité des forces en fonction de l'énergie. Et effectivement, dans les conditions supposées de l'Univers primordial, l'intensité des trois forces non gravitationnelles semble avoir la même valeur pour une énergie dite de « grande unification ».

Or, cette convergence est encore plus frappante lorsque les calculs prennent en compte une théorie qui a été développée par les physiciens des cordes avant d'être reprise, dans d'autres cadres, par d'autres physiciens : la « supersymétrie » [fig. 2] . Il s'agit d'une opération qui transforme toutes les particules du Modèle standard en d'autres possédant la même charge, mais un spin différent et une masse plus élevée. Cette théorie multiplie donc par deux le nombre de particules élémentaires. Elle n'a toujours pas été testée, parce que l'énergie des équivalents supersymétriques est très grande pour cela, les physiciens sont dans l'attente des résultats du nouvel accélérateur du CERN, le LHC, dont la mise en route est prévue en 2008.

La supersymétrie est incluse dans les formalismes de la théorie des cordes, renommée pour cette raison « théorie des supercordes ». Celle-ci apporte donc un argument supplémentaire à l'hypothèse de Georgi et de Glashow. Mais elle va plus loin, car elle prévoit que l'intensité de la force gravitationnelle rejoint celle des trois autres forces à une valeur proche de l'énergie de grande unification. Les quatre forces auraient ainsi une origine commune. Par ailleurs, rappelons que la théorie des cordes est, par essence, une théorie unifiée. Son postulat de base est que les forces et les particules proviennent toutes d'un objet élémentaire : une corde infinitésimale en vibration.

C'est la raison pour laquelle la théorie des cordes est qualifiée de « théorie du Tout ». Il est vrai qu'elle est la seule à fournir un cadre unique pour les quatre forces fondamentales. Si elle est correcte, elle pourrait donc mettre un terme à la description de la matière comme une succession de poupées russes imbriquées.

III. La théorie des cordes permettrait d'avancer dans la compréhension de phénomènes astrophysiques

Elle a attiré pour de bon l'attention des physiciens en 1984, lorsque John Schwarz et Michael Green, alors à l'université de Londres, sont parvenus à résoudre les incohérences mathématiques qui résultaient de la combinaison entre la gravité quantique et le Modèle standard.

C'est à ce moment que beaucoup de vocations se sont créées. Parmi les nouveaux arrivants se trouvaient bon nombre d'astrophysiciens et autres spécialistes de la relativité générale. Ce n'était pas très étonnant au regard des promesses de la théorie des cordes à décrire la physique de l'infiniment petit à l'infiniment grand. Ces physiciens ont donné une nouvelle impulsion à l'origine d'une troisième réussite notable : mieux comprendre les propriétés des trous noirs.

Ceux-ci résultent de l'effondrement des étoiles massives à la fin de leur vie. Leur force d'attraction est tellement grande que rien, pas même la lumière, ne peut échapper de leur coeur. Leur géométrie spatio-temporelle n'est définie que par la masse, leur vitesse de rotation et la charge électrique. La relativité générale ne dispose donc d'aucun moyen pour obtenir des informations relatives à l'intérieur d'un trou noir.

Vers le milieu des années 1970, le cosmologiste Stephen Hawking démontrait que les lois de la mécanique quantique impliquent l'existence d'un phénomène appelé « évaporation des trous noirs ».

En dépit de leurs noms, ces derniers émettent donc, à leur surface, un rayonnement d'origine quantique.

Ce phénomène soulevait un problème théorique important, car le calcul de Hawking montrait qu'après l'évaporation totale d'un trou noir, des informations comme le type et le nombre de particules qui ont conduit à sa formation étaient définitivement perdues. Or, cette prédiction viole un principe fondamental de la mécanique quantique : la conservation de la quantité d'informations.

Appelée « entropie », cette quantité est définie comme le logarithme du nombre d'états microscopiques d'un système pour lequel certains paramètres macroscopiques sont supposés connus. Une théorie de la gravitation quantique devrait être capable d'exhiber les différents états possibles d'un trou noir à partir de sa masse, sa charge et sa vitesse de rotation. Et ce faisant, trouver la faille dans le calcul de Hawking.

C'est précisément ce que Andrew Strominger et Cumrun Vafa, de l'université Harvard, ont réalisé en 1996 pour un type particulier de trous noirs chargés [4] . Leur modèle microscopique contient des cordes, ainsi que d'autres objets plus étendus et plus lourds appelés « branes » prévus par la théorie des cordes.

Il montre que l'évaporation d'un trou noir de ce type ne conduit pas nécessairement à une perte d'information. Ce résultat a fait naître l'espoir de comprendre un jour d'autres phénomènes cosmiques, et en particulier ceux qui sont liés aux tout premiers instants de l'Univers.

IV. La théorie des cordes donne un élément de réponse original sur la nature de l'espace-temps

Au milieu des années 1990, cinq versions de la théorie des cordes coexistaient. Laquelle choisir ? Aucun argument mathématique ne permettait de trancher. Un problème pour une théorie à visée unificatrice.

Le dilemme a été résolu grâce, notamment, à Edward Witten, de l'Institut des études avancées de Princeton, Chris Hull, de l'université de Londres, et Paul Townsend, de l'université de Cambridge [5] . Ils ont démontré que les cinq théories n'étaient que différentes facettes d'un même cadre sous-jacent, baptisé « théorie M ».

Les cinq théories entretiendraient une relation de « dualité » les unes par rapport aux autres. Toutes aussi pertinentes, mais plus ou moins adaptées selon les paramètres considérés intensité de l'interaction entre les cordes, mode de compaction, etc..

Cette relation rappelle celle qui décrit la nature de la lumière : soit comme une onde, soit comme une particule le photon. Il s'agit de deux représentations complémentaires d'une même réalité, plus ou moins commodes selon la taille du quantum d'énergie pris en compte.

En 1998, Juan Maldacena, alors à l'université Harvard, est allé plus loin dans la démonstration du caractère « dual » de la théorie des cordes [6] . S'inspirant des travaux du physicien néerlandais Gerard 't Hooft, de l'université d'Utrecht, Maldacena a montré qu'une théorie des cordes à dix dimensions contient la même quantité d'informations qu'une théorie présentant des caractéristiques analogues au Modèle standard dans quatre dimensions. La première décrirait des phénomènes qui se manifestent dans un espace-temps replié ; la seconde serait pertinente à la surface du même espace-temps.

Telle pourrait donc être la relation qui lie la réalité décrite par la théorie des cordes avec celle que nous connaissons. Une analogie tirée de la vie courante aide à mieux comprendre sa nature : l'hologramme, où les détails d'une image en deux dimensions sont agrandis et reconstitués en trois dimensions. C'est pourquoi l'hypothèse de Maldacena est aussi dénommée « principe holographique ». Il offre une vision nouvelle et originale de la nature de l'espace-temps.

Ces résultats ne doivent pas faire oublier que la physique est une science expérimentale et que la théorie des cordes n'a pas encore formulé de prédictions qui la rendent « falsifiable ». Gageons que ses tenants s'efforceront de répondre aux problèmes qu'elle rencontre aujourd'hui. Et que du moins, ces efforts permettront d'avancer dans la compréhension des lois les plus intimes de notre Univers.

1960, la théorie des cordes a évolué pour répondre aux critiques et surmonter de nombreuses difficultés. Ce faisant, elle est porteuse de quatre grandes promesses : réconcilier la mécanique quantique et la relativité générale ; unifier toutes les forces de la physique ; faire des prédictions sur des phénomènes astrophysiques ; enfin mieux comprendre la nature de l'espace-temps.

Par Costas Bachas,Franck Daninos

 

  DOCUMENT    larecherche.fr     LIEN

 
 
 
 

LE TEMPS ZÉRO

 


ASTRES À la recherche du temps zéro


dossier spécial - par Jean-Pierre Luminet dans mensuel n°390 daté octobre 2005 à la page 30 (2132 mots) | Gratuit
Les modèles de Big Bang prévoient que plus on remonte dans le passé, plus l'Univers est chaud et dense, et ce, jusqu'à un moment singulier, très proche de l'origine, où la physique actuelle ne peut plus rien décrire. Mais l'origine elle-même a-t-elle une quelconque réalité ?

L'Univers est en expansion, nous suggèrent fortement les observations des galaxies et de leurs amas. Qu'elle soit accélérée ou non, il semble que cette expansion ne connaisse pas de fin. L'Univers serait donc éternel. Et si nous remontions le film de l'Univers à l'envers ? Le temps cosmique se prolonge-t-il, dans le passé, jusqu'à une valeur infinie, ou bien est-il borné à une valeur finie ? C'est l'une des plus grandes énigmes de l'astrophysique.

Selon la théorie de la relativité générale, la réponse dépend du contenu de l'Univers. Si ses propriétés sont celles de la matière ou du rayonnement que nous connaissons, alors les distances cosmiques diminuent inexorablement avec le temps passé. Il existe nécessairement un instant, un « temps zéro », où toutes les longueurs cosmiques ont une valeur nulle. Cet événement singulier aurait présidé à l'apparition de l'espace, du temps et de la matière. C'est ce qu'énoncent les modèles de Big Bang, définis comme ceux où l'expansion cosmique ne s'écoule que depuis une durée finie.

Ce « temps zéro » se situe à 13,7 milliards d'années dans le passé selon les calculs et les observations actuels, fondés sur l'analyse du rayonnement cosmologique fossile ou des supernovae lointaines. Cela exclut évidemment de considérer tout instant antérieur. Cela implique aussi qu'il ne peut exister aucun objet dont l'âge puisse dépasser 13,7 milliards d'années, et qu'aucune horloge n'a jamais pu mesurer une durée plus longue. Or les âges des étoiles, mesurés grâce aux isotopes radioactifs à longue durée de vie, véritables chronomètres naturels, se distribuent précisément entre 0 et 14 milliards d'années. À elle seule, cette observation constitue un argument remarquable en faveur des modèles de Big Bang. Ceux-ci sont en outre confirmés par beaucoup d'autres résultats : l'abondance observée des éléments légers, la découverte du rayonnement de fond cosmologique et de ses propriétés, l'évolution des galaxies... Aussi ces modèles sont-ils aujourd'hui quasi unanimement adoptés par les astrophysiciens. Conjugués aux observations accumulées tant par les grands télescopes que dans les accélérateurs de particules, ils permettent de retracer les principales étapes de l'histoire de l'Univers voir l'encadré « Petite chronologie de l'Univers », page 32.

Que le temps ait connu un début préoccupe le physicien. Car, dans le cadre de la relativité générale, cette limite temporelle se présente sous la forme d'une « singularité », un point vers lequel on tend sans jamais l'atteindre : l'Univers aurait été concentré dans un volume infiniment petit, infiniment dense, et de courbure infiniment grande. Cette singularité initiale marque une réelle interruption vers le passé des lignes d'Univers des galaxies, c'est-à-dire de leurs trajectoires d'espace-temps [fig. 1] . La singularité n'est pas réellement un événement : elle n'a pas pris place et n'a pas eu lieu. Par là même, elle échappe nécessairement au champ de nos théories !

Pour le mathématicien, la singularité constitue un bord temporel, situé à une durée passée finie. Difficile à admettre ! Pourtant, le problème est identique à celui de la finitude de l'espace, quiavait longtemps buté contre une telle question de limite, jusqu'à l'introduction des géométries non euclidiennes et de la topologie. Celles-ci ont permis de considérer un espace fini mais sans limites. Ce qui n'est pas contradictoire. Mais le bord temporel pose un problème d'une autre nature, tenant à la fois à son caractère fini - la finitude du temps correspond à l'arrêt brutal des lignes d'Univers - et à son caractère infini au vu des valeurs inconcevablement grandes de la densité et de la courbure.


Inévitable singularité cosmique

C'est la raison pour laquelle les cosmologistes ont cherché à se débarrasser de cette monstruosité et tenté de démontrer que le temps zéro n'a pas pu réellement se produire. Ainsi, en 1963, les Russes Isaac Markovich Khalatnikov et Evgenii Mikhailovich Lifshitz ont vainement suggéré que l'utilisation d'hypothèses simplificatrices injustifiées avait peut-être faussé les calculs [1] ; elle aurait fait apparaître, dans les solutions des équations de la relativité générale, une singularité qui n'existerait pas réellement.

Ce n'est pas le cas. Les singularités cosmologiques sont une conséquence inéluctable de la relativité générale, moyennant une hypothèse raisonnable portant sur la nature de la matière et de l'énergie qui emplit l'Univers. C'est ce qu'avait déjà esquissé, dès 1933, le Belge Georges Lemaître. Il anticipait ainsi les « théorèmes sur les singularités », redémontrés de façon plus générale en 1965 et qui rendront célèbres leurs auteurs, les astrophysiciens britanniques Stephen Hawking et Roger Penrose [2] : une singularité cosmique est inévitablement présente dans le passé de n'importe quel modèle d'Univers, pour peu qu'il satisfasse à la relativité générale et contienne autant de matière que ce qui est observé.

La seule solution pour se débarrasser des infinis gravitationnels est de sortir du cadre de la relativité générale classique. Cette voie semble raisonnable, car les physiciens considèrent que l'apparition d'une singularité, caractérisée par des grandeurs infinies, marque la limite de validité d'une théorie. Or la relativité générale n'est pas une théorie complète, faute d'incorporer les préceptes de la physique quantique qui décrit le monde microscopique. Il semble donc absolument téméraire, et quasi injustifié, d'extrapoler les résultats de la relativité générale jusqu'à des distances extrêmement petites, en particulier celles correspondant à une singularité. C'est le cas des distances inférieures à la longueur de Planck, soit 10-35 mètre. Cette échelle joue le rôle d'une sorte d'horizon microscopique. Sans savoir ce qui se passe exactement à ces dimensions, les physiciens estiment que la géométrie pourrait devenir elle-même sujette à des fluctuations quantiques, que la relativité ne permet pas de prendre en considération.


Géométrie floue

Or, selon les modèles de Big Bang, la reconstitution passée de l'évolution des longueurs dans l'Univers mène à une valeur aussi petite que 10-35 mètre. Cela se passe à un moment de l'histoire cosmique appelé « ère de Planck », qui correspond à 10-43 seconde après le temps zéro. Les valeurs de la température et de la densité étaient alors énormes, respectivement 1032 kelvins et 1094 grammes par centimètre cube. Dans des conditions si terribles, la relativité générale ne peut être appliquée, ne serait-ce que parce qu'elle est impuissante à prendre en compte les effets quantiques, alors prépondérants. Aborder cette période nécessite impérativement le soutien d'une théorie de la gravitation quantique, ou du moins d'une théorie qui unifie les quatre interactions fondamentales.

La physique actuelle ne permet donc de remonter l'histoire passée de l'Univers que jusqu'à l'ère de Planck, car les tentatives d'imaginer les états antérieurs débouchent sur un flou quantique. Et pourtant on voudrait en dire davantage sur l'ère de Planck. Cette limite sur laquelle bute la physique, frontière de nos connaissances, implique que le cadre habituel de la variété espace-temps, continue, à quatre dimensions, éclate complètement.

L'idée de la gravité quantique, émise par John Wheeler au début des années 1960 [3] , et de la nouvelle cosmologie qui en découlerait, est qu'au niveau microscopique la géométrie de l'Univers pourrait être floue, comparable à une sorte d'écume constamment agitée de petites fluctuations [fig. 2] . On pourrait la comparer à la surface d'un océan : vu d'avion, l'océan paraît lisse. D'une plus basse altitude, sa surface apparaît toujours continue, mais on commence à percevoir quelques mouvements qui l'agitent. Plongé dans l'océan, le nageur le voit tumultueux, discontinu même, puisque des vagues se brisent, projetant des gouttes d'eau qui s'élèvent et retombent. De la même façon, l'espace-temps paraît continu à l'échelle humaine, et aussi à celle des noyaux atomiques, mais son « écume » pourrait devenir perceptible à l'échelle de Planck. Certaines de ses gouttes pourraient se manifester à nous sous forme de particules élémentaires.

Jusqu'à présent, aucune théorie complètement cohérente et calculable de gravité ou de cosmologie quantique n'a été établie. Diverses descriptions préliminaires ont été tentées, comme la géométrodynamique quantique des Américains John Wheeler et Bryce de Witt en 1967 [4] . Cette théorie voudrait traiter la géométrie de l'espace-temps de la même manière que la physique quantique ordinaire traite la matière et l'énergie, c'est-à-dire en termes de grains ou « quanta » d'espace et de temps.

Une équation inutilisable

La première version de la géométrodynamique quantique, dite « canonique », est régie par une équation proposée en 1967 par Wheeler et de Witt. Cette équation est l'équivalent pour la gravitation de l'équation de Schrödinger pour la mécanique quantique, qui décrit la probabilité de présence d'une particule en termes d'une « fonction d'onde ». La différence est que, dans l'équation de Wheeler-de Witt, les variables ne sont plus la position et la vitesse d'une particule, mais la géométrie de l'espace et son contenu matériel ! Cette équation très complexe est inutilisable, en pratique, sous sa forme générale. La seule chance d'en trouver des solutions est de simplifier considérablement le problème. Par exemple, on peut se limiter à considérer, pour l'espace, une famille restreinte de géométries possibles, très simples, comme celles à courbure constante. Il faut encore, pour cela, spécifier des conditions aux limites pour l'Univers, en particulier ce que devient l'espace-temps à l'approche de la singularité. Ces conditions façonnent le comportement spatio-temporel de la fonction d'onde de l'Univers, à peu près de la même façon que la trajectoire d'une particule en mécanique classique est spécifiée par sa position et sa vitesse initiales. Dans le cas de la cosmologie, cela soulève des questions fondamentales qui sont loin d'être résolues.

Diverses suggestions ont été proposées, notamment par « l'école russe » dirigée par Andreï Linde et Alex Vilenkin au début des années 1980 [5] , [6] et par « l'école anglo-saxonne », notamment par Jim Hartle et Stephen Hawking. En termes simples, le modèle quantique de Hartle et Hawking [7] n'envisage que des géométries spatio-temporelles sans frontière ni bord, comme l'est la surface d'une sphère, mais avec deux dimensions supplémentaires. Selon ces modèles, l'Univers serait fini non seulement dans l'espace son volume total est fini mais aussi dans le temps. La problématique singularité initiale disparaît alors. Plus exactement, elle se transforme en une simple singularité des coordonnées, comme le pôle Nord d'une sphère. Aucune violation des lois de la physique n'y apparaît. L'Univers n'aurait plus aucune frontière, ni spatiale ni temporelle. Il n'aurait pas eu de commencement et n'aura jamais de fin. Cette nouvelle « éternité du temps » n'est toutefois retrouvée qu'au prix de l'abandon du temps cosmique réel mesuré par les horloges ou par l'expansion des galaxies au profit d'un temps imaginaire au sens mathématique du terme. Il resterait à proposer une interprétation satisfaisante de tout ceci, ce qui est loin d'être le cas.


Une « mousse de mini-Univers »

La suggestion d'Andreï Linde est très différente. Elle suppose des conditions initiales chaotiques. Qualitativement, la solution se présente sous la forme d'un gigantesque Univers éternel et autoreproducteur, que l'on compare parfois à une « mousse de mini-Univers ». Chacune des « bulles » de cette mousse aurait ses propres caractéristiques : constantes physiques, nombre de dimensions spatiales, dynamique..., ce qui permet de la considérer, de manière abusive, comme un « autre Univers ». La totalité de notre Univers observable à distinguer de l'Univers dans sa totalité serait constituée d'une infime partie de l'une de ces bulles, partie qui aurait été démesurément gonflée par un processus ultra-efficace d'expansion, baptisé « inflation ». Chaque bulle individuelle - en particulier celle qui constituerait « notre Univers » - pourrait naître et mourir. Mais l'Univers « global » n'aurait ni commencement ni fin.

Bien évidemment, une telle idée ne sera sans doute jamais vérifiable, ni observable. On se situe ici aux frontières de l'approche scientifique... et sans doute déjà de l'autre côté.

D'autres approches de la gravité quantique existent, telles la théorie des supercordes, la théorie des boucles ou les géométries non commutatives. Certains modèles cosmologiques qui en découlent permettent d'éliminer la singularité initiale et d'envisager une ère « pré Big Bang » pour l'histoire de l'Univers [fig. 3] . Malgré tout, les diverses théories de cosmologie quantique soulèvent autant, sinon plus, de problèmes qu'elles n'en éclairent sur les débuts de l'Univers. Mais c'est ce qui fait leur richesse et leur intérêt. Résolvent-elles l'énigme du temps zéro ? La réponse est ambiguë : oui, selon certains modèles, non selon d'autres. L'incertitude résulte peut-être de la simplification exagérée imposée pour pouvoir résoudre les équations. Quoi qu'il en soit, les singularités devront disparaître dans le cadre de la nouvelle vision unifiée que cherchent à construire les physiciens.

EN DEUX MOTS Depuis l'avènement et les succès de la théorie du Big Bang, la question de l'origine du temps, ignorée tant qu'on pensait l'Univers éternel, est devenue incontournable. Les deux théories décrivant le monde physique, la relativité générale pour l'infiniment grand et la mécanique quantique pour l'univers microscopique, sont incapables de décrire cet instant où les caractéristiques de l'Univers prennent des valeurs soit nulles, soit infinies.

Par Jean-Pierre Luminet

 

DOCUMENT    larecherche.fr     LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon