ecole de musique piano
     
menu
 
 
 
 
 
 

SUIVRE LES RÉACTIONS ENTRE LES ATOMES EN LES PHOTOGRAPHIANT AVEC DES LASERS

 

 

 

 

 

 

 

SUIVRE LES RÉACTIONS ENTRE LES ATOMES EN LES PHOTOGRAPHIANT AVEC DES LASERS

"Les progrès de l'optique ont conduit à des avancées significatives dans la connaissance du monde du vivant. Le développement des lasers impulsionnels n'a pas échappé à cette règle. Il a permis de passer de l'ère du biologiste-observateur à l'ère du biologiste-acteur en lui permettant à la fois de synchroniser des réactions biochimiques et de les observer en temps réel, y compris in situ. Ce progrès indéniable a néanmoins eu un coût. En effet, à cette occasion le biologiste est (presque) devenu aveugle, son spectre d'intervention et d'analyse étant brutalement réduit à celui autorisé par la technologie des lasers, c'est à dire à quelques longueurs d'onde bien spécifiques. Depuis peu, nous assistons à la fin de cette époque obscure. Le laser femtoseconde est devenu "" accordable "" des RX à l'infrarouge lointain. Il est aussi devenu exportable des laboratoires spécialisés en physique et technologie des lasers. Dans le même temps, la maîtrise des outils de biologie moléculaire et l'explosion des biotechnologies qui en a résulté, ont autorisé une modification à volonté des propriétés - y compris optiques - du milieu vivant. Une imagerie et une spectroscopie fonctionnelles cellulaire et moléculaire sont ainsi en train de se mettre en place. L'exposé présentera à travers quelques exemples, la nature des enjeux scientifiques et industriels associés à l'approche "" perturbative "" du fonctionnement des structures moléculaires et en particulier dans le domaine de la biologie. "

Texte de la 211e conférence de l’Université de tous les savoirs donnée le 29 juillet 2000.
La vie des molécules biologiques en temps réel : Laser et dynamique des protéines
par Jean-Louis Martin
En aval des recherches autour des génomes, alors que le catalogue des possibles géniques et protéiques est en voie d’achèvement, nous sommes entrés dans l’ère fonctionnelle qui doit nous conduire à comprendre comment toutes les molécules répertoriées interviennent pour « faire la vie ». Le profit qui sera fait de cette masse d’informations, dépend de notre capacité à intégrer ces données moléculaires dans des schémas fonctionnels sous-tendant la constitution et l’activité des cellules voire des organes et des organismes.
Cette intégration va dépendre de domaines de recherche très variés, différents de ceux qui traditionnellement ont fait progresser la biologie des systèmes intégrés.
Au niveau cellulaire, l’approche fonctionnelle est déjà très avancée, en partie parce qu’elle s’appuie sur des compétences, des technologies et des concepts, largement communs à ceux développés par la génétique et la biologie moléculaire. Elle est toutefois, à ce jour, encore loin d’aboutir à une mise en cohérence du rôle fonctionnel des différents acteurs dont elle identifie le rôle au sein de la cellule : récepteurs, canaux ioniques, messagers, second messagers… Les progrès dans ce domaine vont être intimement liés à notre capacité à développer des outils autorisant à la fois un suivi in situ des différents acteurs, et une manipulation à l’échelle de la molécule.

Les développements technologiques spectaculaires dans le domaine des lasers impulsionnels a déjà permis le développement d’une nouvelle microscopie en trois dimensions : la microscopie confocale non linéaire. Associée à la construction de protéines chimères fluorescentes, cet outil a déjà permis de progresser significativement dans la localisation d’une cible protéique ou dans l’identification de voies de trafic intracellulaire.
Cependant, le décryptage in situ et in vivo du rôle fonctionnel des différents acteurs, en particulier protéique, ou plus encore, la compréhension des mécanismes sous-jacents, constituent des défis que peu d’équipes dans le monde ont relevés à ce jour. Il s’agit ici d’associer des techniques permettant de donner un sens à une cascade d’évènements qui s’échelonnent sur des échelles de temps allant de la centaine de femtoseconde1 à plusieurs milliers de secondes.
Le fonctionnement des protéines en temps réel
Le fonctionnement des macromolécules biologiques – protéines, acides nucléiques – est intimement lié à leur capacité à modifier leurs configurations spatiales lors de leur interaction avec des entités spécifiques de l’environnement, y compris avec d’autres macromolécules. Le passage d’une configuration à une autre requiert en général de faibles variations d’énergie, ce qui autorise une grande sensibilité aux variations des paramètres de l’environnement, associée à une dynamique interne des macromolécules biologiques s’exprimant sur un vaste domaine temporel.
Dans une première approche, on peut considérer qu’une vitesse de réaction biologique est la résultante du « produit » de deux termes: une dynamique intrinsèque des atomes et une probabilité de transition électronique. C’est en général ce dernier facteur de probabilité qui limite la vitesse d’une réaction. Une réaction biochimique est généralement lente non pas comme conséquence d’évènements intrinsèquement lents, mais comme le résultat d’une faible probabilité avec laquelle certains de ces évènements moléculaires peuvent se produire.
Plus précisément, une réaction biologique qui implique, par exemple, une rupture ou une formation de liaison, est tributaire de deux classes d’évènement : d’une part un déplacement relatif des noyaux des atomes et d’autre part une redistribution d’électrons parmi différentes orbitales. Ces deux catégories d’évènements s’expriment sur des échelles de temps qui leur sont propres et qui dépendent de la structure électronique et des masses atomiques des éléments constituant la molécule. Ainsi la dynamique des atomes autour de leur position d’équilibre est, en première approximation, celle d’oscillateurs harmoniques faits de masses ponctuelles couplées par des forces de rappels. Dans le cas des macromolécules biologiques, les milliers d’atomes que comporte le système évoluent sur une hyper-surface d’énergie dont la dimension est déterminée par le nombre de degrés de liberté de l’ensemble du complexe.
Le « travail » que doit effectuer une protéine est de nature très variée : catalyse dans le cas des enzymes, transduction de signal dans le cas de récepteurs, transfert de charges de site à site, transport de substances … mais il existe une caractéristique commune dans le fonctionnement de ces protéines : la sélection de chemins réactionnels spécifiques au sein de cette surface de potentiel. À l’évidence le système biologique n’explore pas l’ensemble de l’espace conformationnel : le coût entropique serait fatal à la réaction… et à l’organisme qui l’héberge.
L’identification de ce chemin réactionnel au sein de l’édifice constitue l’objectif essentiel des expériences de femto-biologie.
L’approche expérimentale : produire un séisme moléculaire et le suivre par stroboscopie laser femtoseconde
Dans une protéine, qui comporte des milliers d’atomes, l’identification des mouvements participant à la réaction moléculaire n’est pas chose aisée.
Comment réussir à caractériser la dynamique conduisant à une conformation intermédiaire qui est elle-même à la fois très fugace et peu probable ?
La cinétique de ces mouvements est directement déterminée par les modes de vibration de la protéine. On peut donc s’attendre à des mouvements dans les domaines femtoseconde et picoseconde2. Pour espérer avoir quelques succès dans cette investigation, il est par ailleurs impératif d’utiliser un système moléculaire accessible à la fois à l’expérimentation et à la simulation, la signature spectrale de la dynamique des protéines n’apportant que des informations indirectes. De plus, la réaction étudiée doit pouvoir être induite de manière « synchrone » pour un ensemble de molécules. Il est donc nécessaire de perturber de manière physiologique un ensemble moléculaire dans une échelle de temps plus courte que celle des mouvements internes les plus rapides, donc avec une impulsion femtoseconde.
Cette approche « percussionnelle » est commune à la plupart des domaines de recherche utilisant des impulsions femtosecondes. La biologie ne se distingue sur ce point, que dans l’adaptation de la perturbation optique pour en faire une perturbation physiologique. Le problème est naturellement résolu dans le cas des photorécepteurs pour lesquels le photon est « l’entrée » naturelle du système. Ceci explique les nombreux travaux en photosynthèse : transfert d’électron dans les centres réactionnels bactériens, transfert d’énergie au sein d’antennes collectrices de lumière dans les bactéries, mais aussi les études transferts de charges au sein d’enzyme de réparation de l’ADN ou responsable de la synchronisation des rythmes biologiques avec la lumière solaire, ainsi que les travaux sur les premières étapes de la vision dans la rhodopsine.

Il existe par ailleurs des situations favorables où la protéine comporte un cofacteur optiquement actif qui peut servir de déclencheur interne d’une réaction: c’est la cas des hémoprotéines comme l’hémoglobine que l’on trouve dans les globules rouges ou les enzymes impliquées dans la respiration des cellules comme la cytochrome oxydase. Dans ces hémoprotéines il est possible de rompre la liaison du ligand (oxygène, NO ou CO) avec son site d’ancrage dans la moléculen par une impulsion lumineuse femtoseconde.On se rapproche ici des conditions physiologiques, la transition optique permettant de placer le site actif de l’hémoprotéine dans un état instable entrainant la rupture de la liaison site actif-ligand en moins de 50 femtosecondes. Cette méthode aboutit à la synchronisation de l’ensemble des réactions d’un grand nombre de molécules. Il est alors possible de suivre leur comportement pendant la réaction et d’identifier les changements de conformation lors du passage des cols énergétiques. On peut faire une analogie sportive : en suivant l’évolution de la vitesse d’un « peloton » de coureurs cyclistes lors d’une étape du tour de France, on peut retracer le profil de cols et de vallées de l’étape, à condition que les coureurs partent au même instant. Pour un « peloton » de molécules, c’est le Laser femtoseconde qui joue le rôle du « starter » de l’étape.
Le paysage moléculaire dans les premiers instants d’une réaction : la propagation d’un séisme moléculaire
Dans les premiers instants qui suivent la perturbation (dissociation de l’oxygène de l’hème, par exemple), les premiers évènements moléculaires resteront localisés à l’environnement proche du site actif. À une discrimination temporelle dans le domaine femtoseconde, correspond donc une discrimination spatiale au sein de la molécule. Il devient ainsi possible de suivre la propagation du changement de conformation au sein de la molécule. Pour donner un ordre de grandeur, celui-ci s’effectue en effet en première approximation à la vitesse d’une onde acoustique ( environ 1200m/s) qui, traduite à l’échelle de la molécule, est 1200x10-12 soit 12 Å par picoseconde. En 100 fs la perturbation initiale est donc essentiellement localisée au site actif. Nous sommes au tout début du séisme moléculaire. En augmentant progressivement le retard de l’impulsion analyse par rapport à l’impulsion dissociation, il est possible de visualiser les chemins de changement conformationnel de la protéine et d’identifier les mouvements associés au fonctionnement de la macromolécule.
Ce simple calcul montre que la spectroscopie femtoseconde se distingue de manière fondamentale des techniques à résolution temporelle plus faible: il ne s’agit plus d’ obtenir des constantes de réaction avec une meilleur précision, mais l’intérêt majeure des « outils femtosecondes » provient du fait que pour la première fois il est possible de décomposer les évènements à l’origine de ces réactions ou induits par la réaction.
Cette discrimination spatiale associée à une résolution temporelle femtoseconde a un autre intérêt qui est de « simplifier » un système complexe sans avoir à utiliser une approche réductionniste (par coupure chimique) qui peut conduire le biophysicien moléculaire à étudier un sous-ensemble d’un complexe moléculaire dont les propriétés n’auront que peu de choses à voir avec la fonction biologique de l’ensemble.

La compréhension d’un automate moléculaire
Dès le début des années 80, l’approche percussionnelle dans le régime femtoseconde a été développée dans le domaine de la dynamique fonctionnelle des hémoprotéines et en particulier pour l’étude de l’hémoglobine. Cette protéine qui comporte quatre sites de fixation de l’oxygène, les hèmes, est capable d’auto-réguler sa réactivité à l’oxygène : c’est une régulation dite « allostérique ». La régulation allostérique de l’hémoglobine se traduit par le fait que la dissociation ou la liaison d’une molécule d’oxygène entraine une modification d’un facteur 300 de l’affinité des autres hèmes pour l’oxygène. La structure de l’hémoglobine est connue à une résolution atomique à la fois dans l’état ligandé (ou oxyhémoglobine) et dans l’état déligandé (désoxyhémoglobine). De ces travaux on sait que l’hémoglobine possède deux structures stables qui lui confèrent soit une haute affinité (état R) soit une basse affinité (état T) pour l’oxygène. Il s’agissait de déterminer le mécanisme, qui partant de la rupture d’une simple liaison chimique entre oxygène et fer induit un changement conformationel de l’ensemble du tétramère conduisant à distance à une modulation importante de l’affinité des autres sites de liaison.

Le débat de l’époque concernant la transition allostérique dans l’hémoglobine n’avait pas encore décidé du choix entre cause et conséquence au sein de l’édifice moléculaire. Nous connaissions les deux structures à l’équilibre avec une résolution atomique, grâce aux travaux de Max Perutz. Il était connu, même si cela n’était pas encore unanimement admis, que la dissociation de l’oxygène de l’hème entrainait « à terme » un changement conformationnel de ce dernier par déplacement de l’atome de fer en dehors du plan des pyrroles. Deux modèles s’opposaient: ce déplacement était-il la cause ou la conséquence du changement conformationnel impliquant la structure tertiaire et quaternaire de l’hémoglobine ? Dans la première hypothèse, cet évènement était crucial puisque le déclencheur de la communication hème-hème au sein de l’hémoglobine, c’est à dire le processus qui traduisait une perturbation très locale ( rupture d’une liaison chimique en un « basculement » de la structure globale vers un autre état). En discriminant temporellement les évènements consécutifs à la rupture de la liaison ligand-fer, il a été montré que le premier évènement est le déplacement du fer en dehors du plan de l’hème en 300 femtosecondes. Cet événement ultra-rapide constitue une étape cruciale dans la réaction de l’hémoglobine avec l’oxygène. Il contribue à donner à l’hémoglobine les propriétés d’un transporteur d’oxygène en autorisant une communication d’un site de fixation de l’oxygène à un autre. Un événement excessivement fugace et à l’échelle nanoscopique a donc retentissement au niveau des grandes régulations physiologiques : ici l’oxygénation des tissus.
À ce jour, l’essentiel du scénario consécutif à cet événement initial, qui conduit à la communication hème-hème, reste à découvrir. Pour cela il est nécessaire de faire appel à des outils permettant de suivre la propagation de ce « séisme initial » au sein de l’édifice et d’identifier ainsi les mouvements atomiques contribuant au chemin réactionnel. Des nouveaux outils restent à découvrir, certains sont en cours de développement : diffraction RX femtoseconde, spectroscopie infra-rouge dans le domaine THz sont probablement les outils adaptés.
e enzymatique : la caractérisation des états de transition
Dans son commentaire sur le prix Nobel en « femtochimie », l’éditeur de Nature3 écrit dans le dernier paragraphe : « It seems inevitable that ultrafast change in biological systems will receivre increasing attention ».
Sur quoi se fonde une telle certitude ?
Pour une part, sur une réflexion qui date d’un demi-siècle : celle de Linus Pauling qui était essentiellement de nature théorique. Pauling a proposé que le rôle des enzymes est d’augmenter la probabilité d’obtenir un état conformationnel à haute énergie très fugace ou, en d’autres termes, de stabiliser l’état de transition c’est-à-dire l’état conformationnel conduisant à la catalyse. En d’autres termes, il s’agit d’optimiser l’allure du « peloton » au sommet du Tourmalet. Dans les enzymes comme pour les coureurs, c’est à cet endroit que l’avenir de la réaction se joue, et c’est ici que les enzymes interviennent !
Le préalable à la compréhension du fonctionnement des enzymes est donc la caractérisation des états de transition. Une démonstration expérimentale indirecte a été la production d’anticorps catalytiques- ou abzymes- par Lerner et coll. dans le début des années 80. En effet, suivant le raisonnement de Pauling, les anti-corps « reconnaissent » leur cible épitopique dans leur état fondamental ( c’est à dire au minimum de la surface de potentiel, dans la vallée énergétique) alors que les enzymes reconnaissent leur cible, le substrat, dans son état de transition, au col énergétique. Les anticorps deviendont catalytiques si, produits en réponse à la présence d’une molécule mimant l’état de transition d’un substrat, ils sont mis en présence de ce dernier... : ça marche... plus ou moins bien, mais ceci est une autre histoire.

La caractérisation de cet état de transition est donc un préalable à la compréhension des mécanismes de catalyse mais aussi à la conception d’effecteurs modifiant la réactivité. Dans une protéine, qui comporte des milliers d’atomes, l’identification des mouvements participant à la réaction moléculaire n’est pas chose aisée, l’interprétation des spectres ne pouvant plus être directe, comme dans le cas des molécules diatomiques. La cinétique de ces mouvements est directement déterminée par les modes de vibration de la protéine. On peut donc, ici aussi, s’attendre à des mouvements dans le domaine femtoseconde.
Il existe une classe d’enzymes pour laquelle la structure de l’état de transition est connue grace à des approches théoriques : ce sont les protéases dont on sait qu’elles favorisent la configuration tétrahédrique du carbone de la liaison peptidique.Cette connaissance de l’état de transition a autorisé une approche rationnelle dans la conception de molécules « candidat-médicament »: les inhibiteurs de protéase. Il n’est donc pas surprenant qu’à ce jour, les seuls médicaments sur le marché -et non des moindres- issus d’une démarche scientifique véritablement rationnelle soient des inhibiteurs de protéases ou de peptidases : inhibiteurs de l’enzyme de conversion (IEC), inhibiteurs de protéase du virus HIV, base de « la tri-thérapie ».
En donnant l’espoir de photographier les états de transition, la femto-biologie ouvre la perspective d’une démarche rationnelle dans la conception d’inhibiteurs spécifiques. Avant qu’une telle possibilité ne soit offerte, il reste néanmoins à surmonter de sérieuses difficultés: le développement d’une méthode plus directe de visulisation des conformations, en particulier par diffraction RX femtoseconde, mais aussi la mise au point de méthodes de synchronisation à l’échelle femtoseconde de réactions enzymatiques au sein d’un cristal.

Filmer les molécules à l’échelle femtoseconde a permis de mettre en évidence un comportement inattendu d’enzymes de la respiration : l’utilisation de mouvements de balancier des atomes au profit d’une grande efficacité de réaction
La vie de tous les organismes aérobies – dont nous sommes – dépendent d’une classe d’enzyme : les oxydases et plus particulièrement pour les eucaryotes, de cytochromes oxydases. Cette enzyme est la seule capable de transférer des électrons à l’oxygène en s’auto-oxydant de manière réversible. Elle est responsable de la consommation de 90 % de l’oxygène de la biosphère.
Un dysfonctionnement de cette enzyme a un effet délétère sur la cellule, en particulier par production du très toxique radical hydroxyle °OH. Au delà d’un certain seuil de production, les systèmes de détoxification sont débordés. Le stress oxydatif qui en résulte peut se traduire par diverses pathologies. On retrouve une telle situation en période post-ischémique dans l’infarctus du myocarde, mais aussi dans des maladies neurodégénératives ou lors du vieillissement.
Cette enzyme catalyse la réduction de l’oxygène en eau à partir d’équivalents réducteur cédés par le cytochrome c soluble. Cette réduction à quatre électrons est couplée à la translocation de quatre protons à travers la membrane mitochondriale. L’oxygène et ses intermédiaires restent liés à un hème (l’hème a3) dans un site très spécifique. Ce site comprend, outre l’heme a3, un atome de cuivre, le CuB. Cet atome joue un rôle important dans le contrôle de l’accès des ligands vers ce site ou vers le milieu. Des ligands diatomiques (O2, NO, CO) peuvent établir des liaisons soit avec le Fer de l’hème a3, soit avec le CuB, mais le site actif parait trop encombré pour accommoder deux ligands.

Des études récentes en dynamique femtoseconde ont permis d’élucider le mécanisme de transfert de ligand (monoxyde de carbone (CO)), de l’hème a3 vers le CuB. Le CO est une molécule de transduction du signal produite en faible quantité par l’organisme, qui inhibe la cytochrome c oxidase par formation d’un complexe heme a3-CO stable. En suivant cette réaction par spectroscopie femtoseconde, il a été possible de mettre en évidence un mécanisme très efficace, et en toute sécurité, de transfert d’une molécule dangereuse pour la vie cellulaire. L’enzyme libère la molécule de CO d’un premier site en lui donnant une impulsion qui oriente sa trajectoire vers le site suivant en la protégeant de collisions avec l’environnement.
Dans ce dernier exemple l’enzyme a atteint un degré de sophistication supplémentaire : outre le franchissement du col énergétique de façon optimale, l’enzyme évite la diffusion d’une molécule dangereuse pour la survie cellulaire, tout en l’utilisant comme messager très efficace !

Vers le décloisonnement des disciplines
Le cinema moléculaire n’en est qu’à ses débuts. Il est essentiellement muet. La filmothèque est à peine embryonnaire, le nombre de plan-séquences ne permet pas encore de révéler un véritable scénario. L’essentiel est donc à venir.
Reconstruire le film des évènements conduisant à la vie cellulaire, les intégrés dans des schémas fonctionnels, va donc constituer l’objectif des prochaines décennies.
Cette intégration va dépendre de domaines de recherche très variés, différents de ceux qui traditionnellement ont fait progresser la biologie de la cellule ou des organes. Le transfert des outils de la physique, et au-delà, l’invention de nouveaux outils, y compris moléculaires, l’émergence de nouveaux concepts, va nécessiter le développement de synergies entre acteurs évoluant jusqu’ici dans des sphères disjointes : biologistes cellulaire et moléculaire, physiciens, chimistes, bioinformaticiens… Dans ce cadre il sera utile de créer les conditions permettant de rassembler en un seul site, l’ensemble des compétences.
1 Femtoseconde : le milliardième de millionième de seconde.
2 Picoseconde : millioniène de millionième de seconde = 1000 femtosecondes.
3 Vol 401,p. 626,14 octobre 1999.

 

 VIDEO       CANAL  U         LIEN

 
 
 
 

PARTICULES ÉLÉMENTAIRES

 


 

 

 

 

 

particules élémentaires

Cet article fait partie du dossier consacré à la matière.
Constituant fondamental de la matière apparaissant, dans l'état actuel des connaissances, comme indivisible.

PHYSIQUE

1. Vers l'infiniment petit
De tout temps les scientifiques ont sondé la structure de la matière pour trouver unité et simplicité dans un monde qui nous frappe par sa diversité et sa complexité apparentes. N'est-il pas remarquable de découvrir que tous les objets qui nous entourent ne sont que les multiples assemblages, parfois fort complexes, d'un petit nombre de constituants fondamentaux, qui nous apparaissent aujourd'hui comme les particules élémentaires du monde ? N'est-il pas remarquable que toutes les forces que nous voyons en jeu dans la nature ne soient que les différentes manifestations d'un tout petit nombre de mécanismes fondamentaux prenant une forme particulièrement simple au niveau des particules élémentaires ?

L'atome est tout petit (environ 10–10 m). Un gramme de matière contient près d'un million de milliards de milliards d'atomes (1024). Cependant, grâce aux instruments dont ils disposent, les physiciens peuvent maintenant décrire et comprendre la structure intime des atomes.


La physique des particules se pratique auprès de grands accélérateurs. Elle requiert de plus en plus d'importantes collaborations internationales, nécessaires pour réaliser et exploiter ces machines extrêmement coûteuses ainsi que les détecteurs qui permettent d'analyser les événements observés. Ces collaborations sont des milieux particulièrement favorables à l'éclosion de nouvelles technologies. C'est comme cela qu'est né le World Wide Web au Cern de Genève (→  Internet).
La physique des particules s'efforce de découvrir les constituants fondamentaux de la matière et de comprendre leurs interactions, c'est-à-dire la façon dont ces constituants se lient entre eux pour réaliser les structures souvent très complexes et variées que nous observons dans le monde qui nous entoure.

Dans les années 1980, le pouvoir de résolution des instruments les plus performants pour étudier la structure intime de la matière atteignait le millionième de milliardième de mètre (10–15 m), autrement dit la dimension du proton et du neutron, les constituants du noyau atomique. Ce dernier est beaucoup plus petit que l'atome, car les nucléons y sont tassés les uns contre les autres. L'atome a un rayon 100 000 fois plus grand et son volume est rempli par le mouvement incessant des électrons qui entourent le noyau.=
Aujourd'hui, le pouvoir de résolution atteint le milliardième de milliardième de mètre (10–18 m), ce qui permet de sonder l’intérieur des nucléons. En effet, les protons et les neutrons sont constitués de particules appelées quarks, qui etcomptent désormais parmi les constituants fondamentaux de la matière. Il y a 18 types de quarks, qui se distinguent par leur « saveur » et leur « couleur ». Il s'agit là de nouveaux concepts pour lesquels on a préféré ces appellations imagées aux racines grecques en faveur auparavant. L'électron est aussi l'un des constituants fondamentaux de la matière. Il fait partie d'un ensemble de six particules élémentaires appelées leptons.

Les forces présentes dans la nature résultent des symétries entre quarks et entre leptons. Tout cela est résumé par le modèle standard des particules élémentaires et des interactions fondamentales. C’est une théorie quantique des champs, autrement dit une théorie à la fois quantique et relativiste. Or, maintenir la causalité dans un monde quantique et relativiste implique l'existence d'antimatière, dont la prédiction et l'observation ont constitué un grand succès. À chaque particule correspond une antiparticule de même masse mais de charge opposée. Toutefois, si le modèle standard permet de décrire l'ensemble des particules élémentaires de la matière et les interactions fondamentales qui s'exercent entre elles, il n’inclut toujours pas l'interaction gravitationnelle. Ainsi, le modèle standard n'est pas la théorie ultime de la physique.

2. Les moyens d'étude

Pour atteindre la résolution qui est nécessaire pour plonger à l'intérieur du noyau, puis à l'intérieur des nucléons, il faut des rayons gamma de très faible longueur d'onde, autrement dit de très haute énergie. On peut les obtenir par rayonnement de particules chargées, comme l'électron ou le proton, quand ils sont accélérés à des vitesses proches de celle de la lumière (3 × 108 km.s-1). On peut cependant opérer plus directement en utilisant le fait que l'électron et le proton se comportent comme des ondes aussi bien que comme des particules. Cela traduit la description quantique qu'il faut adopter au niveau des particules. La longueur d'onde associée à une particule de très haute énergie est inversement proportionnelle à son énergie : électrons et protons de hautes énergies sont donc aussi des sondes qui se comportent comme de la lumière de très petite longueur d'onde. Ce sont eux qui permettent d'observer la structure fine de la matière, avec un pouvoir de résolution d'autant meilleur que leur énergie est plus élevée.

2.1. Les accélérateurs de particules

En étudiant les résultats de collisions à très hautes énergies, on peut explorer la structure intime de la matière, reconnaître les particules élémentaires et étudier leurs propriétés. Le pouvoir de résolution est déterminé par la puissance des accélérateurs.
Le principe de l'observation reste le même que celui utilisé avec la lumière visible, en aidant l'œil avec un instrument d'optique. Un accélérateur communique une grande énergie aux particules qu'il accélère. Les plus performants sont des collisionneurs, où des faisceaux de particules sont simultanément accélérés dans des directions opposées et amenés en collisions frontales dans des zones où l'on dispose les détecteurs. Les produits des collisions étudiées sont analysés par les détecteurs qui rassemblent les données permettant de déterminer la nature et les propriétés des particules issues de la collision. Ces collisions de haute énergie engendrent en général un véritable feu d'artifice de particules nouvelles. Une partie de l'énergie de collision se transforme en matière et en antimatière.

On exprime les énergies de collision en électronvolts (eV). L'électronvolt est l'énergie acquise par un électron sous une différence de potentiel de un volt. C'est en gros l'énergie par électron fournie par une pile électrique, car c'est aussi l'ordre de grandeur de la variation d'énergie par électron impliquée dans une réaction chimique typique (1 eV = 1,6 × 10-19 J). Vers 1960, les accélérateurs permettaient d'obtenir des énergies de collision de l'ordre d'une centaine de millions d'électronvolts (100 MeV). On pouvait ainsi descendre jusqu'à 10–15 m. Aujourd'hui, les énergies de collision atteintes dépassent le millier de milliards d'électronvolts (1 000 GeV, soient 1 TeV). Le collisionneur de Fermilab, près de Chicago, aux États-Unis, permet d'atteindre des énergies de collision de 2 TeV entre proton et antiproton.

       
Mais la machine la plus puissante du monde est désormais le LHC (Large Hadron Collider), grand collisionneur de hadrons de 27 km de circonférence mis en service en septembre 2008 au Cern, près de Genève. Il a atteint une énergie de collision de 8 TeV en juillet 2012, qui a permis de découvrir une particule qui présente toutes les caractéristiques du fameux boson de Higgs. Le LHC devrait fonctionner à 7  TeV par faisceau à partir de 2015, soit une énergie de collision de 14 TeV qui permettra de confirmer définitivement la découverte du boson de Higgs et d’aller encore plus loin dans l’exploration de l’infiniment petit.
Analyser et comprendre la structure intime de la matière, c'est donc aussi comprendre la physique des hautes énergies. C'est savoir décrire et prédire ce qui se passe au cours de telles collisions.

2.2. Les détecteurs de particules
Comment parvient-on à observer les particules malgré leur taille extrêmement réduite ? On ne voit en réalité que des effets secondaires liés à leur présence et l'on déduit de l'observation de ces phénomènes le passage et les propriétés d'une ou plusieurs particules. En utilisant plusieurs phénomènes secondaires et en courbant les trajectoires des particules dans des champs magnétiques, d'autant plus facilement que les particules ont moins d'énergie, on peut connaître la nature et les propriétés des particules qui traversent un détecteur.

Les détecteurs de particules modernes (comme les détecteurs Atlas ou CMS du LHC) sont composés de couches de sous-détecteurs, chacun étant spécialisé dans un type de particules ou de propriétés. Il existe trois grands types de sous-détecteurs :
• les trajectographes, qui permettent de suivre la trajectoire des particules chargées électriquement ;
• les calorimètres, qui arrêtent une particule et en absorbent l'énergie, ce qui permet de mesurer l’énergie de la particule ;
• les identificateurs de particules, qui permettent d’identifier le type de la particule par détection du rayonnement émis par les particules chargées.
Les détecteurs sont toujours soumis à un champ magnétique, qui courbe la trajectoire des particules. À partir de la courbure de la trajectoire, les physiciens peuvent calculer l’impulsion de la particule, ce qui les aide à l’identifier. Les particules à impulsion élevée se déplacent quasiment en ligne droite, alors que celles à impulsion plus faible décrivent de petites spirales.

3. Physique des particules et cosmologie

Selon le modèle du big bang, l'Univers tel que nous l'observons est né, semble-t-il, d'une sorte de grande explosion, le « big bang », qui s'est produite il y a environ 15 milliards d'années. L'Univers est en expansion et les galaxies semblent se fuir les unes les autres avec des vitesses proportionnelles à leurs distances respectives. Sa densité et sa température n'ont cessé de décroître depuis le big bang ; aujourd'hui, elles sont toutes deux très faibles : la densité moyenne correspond à un atome par mètre cube et la température moyenne est de l'ordre 3 K (soit –270 °C).
La relativité générale nous permet de suivre l'évolution de l'Univers et de retrouver les conditions proches de celles qui ont dû exister aux premiers instants de l’Univers à partir des données actuelles. Mais le modèle se heurte à une limite, une singularité, appelée « mur de Planck », qui correspond à l’instant 10-43 s après le big bang : il est impossible de connaître ce qui s’est passé avant cet instant car les lois de la physique que nous connaissons ne sont plus applicables, la densité et la température de l’Univers étant alors infinies. Or, en physique, des quantités infinies n’ont plus grand sens… Néanmoins, de cet instant jusqu’à nos jours, le modèle permet de décrire l’évolution de l’Univers – composé cependant à 96 % de matière et d’énergie noires inconnues !
Comme la température est proportionnelle à l'énergie moyenne par particule, au début de l'Univers, ses constituants avaient des énergies colossales et, du fait de la densité extrêmement forte, ils étaient en collision constante les uns avec les autres.
La physique qui prévalait à cette époque est donc la physique des hautes énergies que l'on explore à l'aide des accélérateurs : comprendre la structure intime de la matière, c'est aussi pouvoir décrire et comprendre ce qui se passait au début de l'Univers.
Vers 1970, les spécialistes maîtrisaient la physique à des énergies de l'ordre de 100 MeV, correspondant à la température de l'Univers quand il était âgé d'un dixième de millième de seconde (10-4 s). Aujourd'hui, les progrès réalisés permettent de comprendre la physique au niveau de 1 TeV, et, donc, les phénomènes qui se déroulaient dans l'Univers un centième de milliardième de seconde après le big bang (10-11 s). Ainsi, le facteur dix mille gagné dans les énergies par particule (ou les températures) en passant de 100 MeV à 1 TeV a permis de reculer d'un facteur dix millions dans l'histoire des premiers instants de l'Univers. C'est dire combien la physique des particules et la cosmologie sont intimement liées.

4. Le modèle standard

Les particules élémentaires selon le modèle standard
Le modèle standard de la physique des particules est la théorie de référence qui décrit les constituants élémentaires de la matière et les interactions fondamentales auxquelles ils participent.
La description de la structure de la matière fait appel à deux familles de particules élémentaires : les quarks et les leptons. À chaque constituant de la matière est associée son antiparticule, une particule de même masse et de charge opposée (par exemple, l’antiparticule de l’électron est le positon).

4.1. Quarks et leptons
Les quarks, découverts dans les années 1960, sont les constituants des nucléons (protons et neutrons), les particules constitutives des noyaux atomiques. Ils participent à toutes les interactions. Il en existe six espèces différentes. Pour décrire leurs propriétés, on a choisi d'utiliser des noms imagés, faute d'analogie avec quoi que ce soit de connu. Ainsi, la caractéristique qui, en dehors de la charge électrique, permet de distinguer les quarks est appelée « saveur ». Les six saveurs, caractéristiques des six espèces de quarks, sont dénommées : up (u), down (d), strange (s), charm (c), bottom (b) et top (t). Par ailleurs, chaque saveur peut exister en trois variétés, qui portent les noms de « couleurs » : rouge, vert et bleu. De même que la masse permet à une particule de réagir à la gravitation et la charge électrique à la force électromagnétique, la couleur rend les quarks sensibles à l'interaction nucléaire forte, responsable de leurs associations et de la cohésion des noyaux atomiques. Cette force ne se manifeste pas au niveau macroscopique : les trois couleurs se compensent mutuellement pour former la matière globalement « incolore ».
Une autre particularité des quarks est leur confinement : il est impossible de les obtenir individuellement à l'état libre. La famille des leptons rassemble les particules insensibles à la force nucléaire forte : l'électron ; deux particules analogues à l’électron, mais plus lourdes et instables, le muon et le tauon (ou tau) ; et trois particules électriquement neutres associées aux trois précédentes, les neutrinos électronique, muonique et tauique.
Les quarks et les leptons se présentent en doublets. Il existe un doublet de quarks (u et d) auquel fait pendant un doublet de leptons (neutrino et électron). L'électron a une charge électrique (prise par convention égale à –1), contrairement au neutrino. Il y a aussi une différence d'une unité entre la charge du quark d (–1/3) et celle du quark u (+2/3). Deux quarks u et un quark d forment un proton (charge globale +1). Deux quarks d et un quark u forment un neutron (charge globale nulle). Les protons et les neutrons sont à la base de tous les noyaux atomiques. En ajoutant suffisamment d'électrons pour compenser la charge électrique du noyau, on obtient les atomes.
L'électron, le quark u et le quark d sont les constituants exclusifs de la matière ordinaire.

4.2. Création et destruction de particules
Au cours de certains processus de désintégration radioactive, un quark d peut se transformer en quark u, mais simultanément un neutrino se transforme en électron, ou un électron est créé avec un antineutrino. La charge globale est conservée.
Dans un proton, les trois quarks ont des couleurs différentes et le proton est globalement « incolore ». C'est aussi le cas d'une multitude de particules instables qui apparaissent dans les collisions de protons quand une partie de l'énergie de collision se transforme en matière et antimatière : ces particules sont des hadrons, qui peuvent être soit des baryons – formés de trois quarks, soit des mésons – formés d'un quark et d'un antiquark. Les antiquarks ont des couleurs opposées à celles des quarks qui leur correspondent.
Quand l'énergie devient matière, il se crée autant de quarks que d'antiquarks et autant de leptons que d'antileptons. La même règle s'applique lors de l'annihilation de la matière et de l'antimatière en énergie.

Les collisions de haute énergie entre quarks ou leptons font apparaître d'autres quarks et d'autres leptons. La nature répète ainsi deux fois la famille initiale en présentant deux doublets supplémentaires de quarks, auxquels sont associés deux nouveaux doublets de leptons. Le deuxième doublet renferme le quark strange (s) et le quark charm (c), le troisième le quark bottom (b) et le quark top (t). Ce dernier a longtemps échappé aux investigations par sa masse très élevée, de l'ordre de 180 fois supérieure à celle du proton. Il a été finalement découvert au Fermilab, près de Chicago (États-Unis), en 1995, après que sa masse eut été prédite à partir de résultats obtenus à l'aide du LEP (Large Electron Positron collider) du Cern, près de Genève (Suisse). Les quarks c et b sont aussi beaucoup plus lourds que les quarks u et d, mais néanmoins nettement plus légers que le quark t.
De même, le muon et son neutrino ainsi que le tauon et son neutrino constituent les deux autres doublets de leptons associés aux deux doublets précédents de quarks. Le muon est environ 200 fois plus lourd que l'électron et le tauon près de 3 000 fois plus lourd. Ces quarks et ces leptons lourds sont instables et très éphémères à l'échelle humaine. Ils se désintègrent en se transformant en quarks ou en leptons de masse inférieure. Toutefois, la manifestation des forces entre quarks et leptons ne demande que des temps extrêmement faibles par rapport à la durée de vie de ces particules. À leur échelle, les quarks et les leptons sont donc tous aussi stables les uns que les autres et peuvent tous être considérés comme des constituants fondamentaux de la matière. Si la constitution de la matière stable de l'Univers ne fait appel qu'à la première famille de ces particules, les forces qui permettent de construire la matière à partir des éléments de la première famille font, elles, appel à la présence de tous les quarks et de tous les leptons.

4.3. Les quatre forces fondamentales
Si l'on a découvert une assez grande diversité de particules, toutes les forces présentes dans la nature se ramènent en revanche à un nombre très restreint d'interactions fondamentales. D'après la mécanique quantique, pour qu'il y ait une interaction, il faut qu'au moins une particule élémentaire, un boson, soit émise, absorbée ou échangée.
Interactions auxquelles sont soumises les particules fondamentales

4.3.1. L'interaction électromagnétique
Considérons l'interaction entre deux charges électriques. Dans la description usuelle du phénomène, on dit qu'une particule chargée crée un champ électrique qui remplit tout l'espace tout en décroissant comme l'inverse du carré de la distance à la charge. Une autre particule chargée est sensible à ce champ. Cela crée une force entre les deux particules. Si ces dernières se déplacent à une certaine vitesse, il faut introduire aussi le champ magnétique. On parle donc globalement de l'interaction électromagnétique (→  électromagnétisme). En physique quantique, ce champ présente également une forme corpusculaire : c'est une superposition de photons. Le processus fondamental de l'interaction électromagnétique correspond à l'émission d'un photon par un électron et à son absorption par un autre électron. Il implique la charge mais ne la modifie pas, puisque le photon échangé n'a pas de charge. C'est la base de l'électrodynamique quantique, qui permet de calculer tous les phénomènes mettant en jeu des échanges de photons au cours desquels peuvent aussi apparaître des paires électron-positon.
L'interaction forte repose sur la « couleur » des quarks. Le processus fondamental est très semblable à celui rencontré en électrodynamique. Deux quarks exercent une force l'un sur l'autre, et elle est associée à l'échange d'un gluon. Le gluon distingue la couleur mais peut aussi la changer car il porte lui-même de la couleur. Ce processus est à la base de la chromodynamique quantique, qui permet de calculer les phénomènes associés à l'échange de gluons, capables de se transformer en paires de quarks et d'antiquarks. Contrairement à l’interaction électromagnétique qui porte à l’infini, l’interaction forte ne s’exerce qu’à des distances très courtes, à quelques diamètres de noyaux

4.3.3. L’interaction faible
L'interaction électromagnétique et l'interaction forte ne peuvent pas changer la « saveur ». Mais il existe une autre interaction fondamentale qui peut le faire : c'est l'interaction faible. Elle existe sous deux formes. L'une peut changer la « saveur » et la charge et correspond à l'échange d'un boson W. L'autre peut agir sans changer la « saveur » ni la charge et correspond à l'échange d'un boson Z. Les neutrinos, qui n'ont ni charge ni « couleur », ne sont sensibles qu'à l'interaction faible. L’interaction faible (également appelée force nucléaire faible), qui permet de transformer un neutron en proton ou inversement – donc de changer la composition d'un noyau –, est ainsi responsable de certains phénomènes de la radioactivité, en particulier la radioactivité bêta.
L'interaction électromagnétique et les deux formes de l'interaction faible ne sont en fait que trois aspects d'un mécanisme unique : l'interaction électrofaible. En effet, en comprenant leur mode d'action, on s'est aperçu qu'on ne pouvait pas avoir l'une sans avoir les deux autres.
Mais il a fallu du temps pour parvenir à cette découverte car, si le photon a une masse nulle, les bosons W et Z sont très lourds, atteignant chacun près de cent fois la masse du proton, dont l'énergie de masse est proche de 1 GeV. Ce sont ces grandes masses échangées qui minimisent les effets de l'interaction et lui valent le qualificatif de faible. Ce n'est qu'au cours de collisions où l'énergie est comparable à l'énergie de masse du boson W ou du boson Z que la présence de ces masses élevées devient moins importante et que les interactions électromagnétiques et faibles peuvent montrer au grand jour leur étroite parenté.

4.3.4. L’interaction gravitationnelle

C'est une force universelle, en ce sens qu'elle est subie par toutes les particules connues. Elle est de loin la plus faible des forces, elle est toujours attractive et, de plus, elle a une portée infinie. C'est grâce à ces deux dernières caractéristiques qu'elle est détectable macroscopiquement : l'addition des forces gravitationnelles qui s'exercent entre les particules de notre corps et la Terre, par exemple, produit une force appelée poids.
→ gravitation.
Au niveau des particules élémentaires, cette force devient importante seulement lorsque des énergies considérables entrent en jeu. Dans un noyau atomique, par exemple, la force d'attraction gravitationnelle entre deux protons est 1036 fois plus faible que celle de la répulsion électrostatique. C'est à partir d'une énergie de 1019 GeV (1 GeV est l'énergie cinétique qu'acquiert un électron quand il est accéléré par une différence de potentiel de 1 000 millions de volts) qu'elle devient comparable à l'interaction électromagnétique.
Ainsi, malgré le grand nombre d'acteurs en présence, les thèmes de base de leurs jeux sont donc très peu nombreux et très semblables. C'est à ce niveau que se rencontrent l'unité et la simplicité. Qui plus est, on sait aujourd'hui déduire l'existence et les propriétés des forces fondamentales des symétries que les quarks et les leptons manifestent entre eux. La présence des forces est une conséquence du fait que ces particules sont nombreuses, mais qu'on peut dans une large mesure les mettre les unes à la place des autres sans modifier la description du monde : les quarks et les leptons sont groupés en doublets de « saveur » et les quarks en triplets de « couleur ». La compréhension de la nature profonde des forces est l'un des grands succès de la physique contemporaine. C'est le domaine des théories de jauge. L'existence et la propriété des forces sont impliquées par les symétries.

4.4. Points forts et points faibles du modèle standard
Le modèle standard consiste en un ensemble d'algorithmes, appelé développement perturbatif, permettant de calculer, par approximations successives, à l'aide d'un nombre fini et fixé de paramètres déterminés expérimentalement, les probabilités des réactions des leptons et des quarks, du photon et des bosons intermédiaires en interactions électromagnétique et faible, et les probabilités des réactions des quarks et des gluons en interaction forte à grand transfert d'énergie. Ce modèle a passé avec succès tous les tests expérimentaux auxquels il a été soumis et il a permis d'anticiper de très nombreuses découvertes expérimentales décisives : les réactions d'interaction faible à courants neutres en 1973, le quark charm en 1975, le gluon en 1979, les bosons intermédiaires de l'interaction faible (bosons W+, W– et Z0) en 1983, et le quark top en 1995. Toutes ses prédictions ont été confirmées par l'expérience et ce jusqu’à la très probable découverte en 2012 du boson de Higgs, la fameuse particule permettant d’expliquer l’origine de la masse de toutes les autres particules.

La chasse au boson de Higgs


Le boson de Higgs (ou de Brout-Englert-Higgs) est la particule élémentaire dont l'existence, postulée indépendamment par Robert Brout, François Englert et Peter Higgs dans les années 1960, permet d’expliquer l’origine de la masse de toutes les autres particules. En effet, les particules n’acquièrent une masse qu’en interagissant avec un champ de force invisible (appelé champ de Higgs) par l’intermédiaire du boson de Higgs. Plus les particules interagissent avec ce champ et plus elles deviennent lourdes. Au contraire, les particules qui n’interagissent pas avec ce champ ne possèdent aucune masse (comme le photon).

Pour mettre au jour le boson de Higgs, on provoque des milliards de chocs entre protons qui se déplacent quasiment à la vitesse de la lumière et on analyse les gerbes de particules produites. La découverte de ce boson, très probablement détecté dans le LHC du Cern en 2012, validerait ainsi le modèle standard de la physique des particules. Il faudra attendre 2015 et la remise en service du LHC dont les faisceaux de particules atteindront l’énergie nominale de 7 TeV par faisceau pour conclure définitivement sur la découverte du fameux boson.

Le modèle standard comporte cependant des points faibles.En particulier, il est en échec face au traitement quantique de la gravitation.Par ailleurs, il ne fournit pas d'explication à la propriété fondamentale du confinement qui interdit aux quarks de se propager à l'état libre hors des particules dont ils sont les constituants, etc. Ce modèle doit être considéré comme une théorie susceptible d'être améliorée et approfondie, voire remplacée dans l'avenir par une théorie radicalement nouvelle.

4.5. Vers la « théorie du tout » ?
Le modèle standard permet de décrire avec précision la structure de la matière avec une résolution de 10–18 m et d'évoquer ce qui se passait au début de l'Univers, dès 10–10 seconde après le big bang.
On pense aujourd'hui que l'interaction forte et l'interaction électrofaible ne sont que deux aspects d'un phénomène unique. Ce dernier ne devrait cependant se manifester ouvertement qu'à de très grandes énergies, que l'on situe vers 1016 GeV. On verra sans doute alors apparaître au grand jour d'autres mécanismes transformant les quarks en leptons et mettant en jeu l'échange de particules, encore hypothétiques, dont la masse est de l'ordre de 1016 GeV. Ce n'est que pour des énergies de collision dépassant largement ce seuil que les différents modes d'interaction devraient apparaître sur un pied d'égalité, dévoilant ainsi explicitement leur grande unité.
De telles énergies sont encore hors de notre portée et le resteront pour longtemps. Mais c'était celles qui prévalaient théoriquement 10–38 seconde seulement après le big bang. C'est à ce moment que les quarks et les leptons sont apparus, figés pour toujours dans leur état de quark ou de lepton avec un très léger excès, déjà mentionné, de quarks par rapport aux antiquarks et de leptons par rapport aux antileptons. On explique ainsi pourquoi l'Univers contient autant de protons que d'électrons, en étant globalement neutre. C'est le domaine de la théorie de Grande Unification, encore très spéculative. Aux énergies qui nous sont accessibles, la gravitation qui s'exerce entre des particules individuelles reste tout à fait négligeable en regard des autres forces fondamentales. Mais, à des énergies de l'ordre de 1019 GeV, elle devient aussi importante qu'elles, car ses effets croissent avec l'énergie. On pense même pouvoir l'associer aux autres modes d'interaction actuels dans le cadre d'une théorie unique. Celle-ci incorporerait une formulation quantique de la gravitation qui manque encore aujourd'hui mais dont la théorie des supercordes donne déjà un aperçu. La mise au point de cette « théorie du tout » constitue l'un des grands sujets de recherche actuels de la physique. L'Univers n'était âgé que de 10–43 seconde quand l'énergie y était de l'ordre de 1019 GeV. C'est à ce moment que le temps et l'espace prirent la forme que nous leur connaissons. Nous manquons encore de concepts plus profonds pour remonter au-delà.

 

  DOCUMENT   larousse.fr    LIEN

 
 
 
 

PHYSIQUE ET MÉCANIQUE

 

 

 

 

 

 

 

PHYSIQUE ET MÉCANIQUE


Forte de sa maturité, la mécanique des solides n'en est que plus sollicitée par de nombreux défis à relever dans le futur. Les enjeux sont multiples : depuis la connaissance fondamentale, jusqu'à la conception et la caractérisation de nouveaux matériaux, en passant par la maîtrise de l'hétérogénéité de milieux à comportement complexe, en passant par l'exploitation de l'imagerie bi voire tridimensionnelle via l'analyse de champ, ou encore la prédiction de la variabilité ou de la fiabilité des solides et des structures. Dans toutes ces dimensions, physique et mécanique sont indissociablement liées, s'interpellant et dialoguant pour affronter plus efficacement ces challenges. Sur le plan expérimental, les mesures physiques, de plus en plus finement résolues spatialement, permettent d'aborder directement des réponses mécaniques inhomogènes, liées au désordre constitutif des matériaux ou à leur comportement non-linéaire dans des sollicitations complexes. Sur le plan de la modélisation numérique, l'ère du progrès purement algorithmique est sans doute révolu, pour laisser place à des approches performantes exploitant les problèmes multi échelles avec discernement. Enfin, en ce qui concerne la théorie, les progrès majeurs accomplis dans le passé dans l'homogénéisation des milieux élastiques permettent de mesurer les difficultés qui sous-tendent l'abord de l'hétérogénéité pour des lois de comportement complexes (plasticité, endommagement, et rupture, matériaux amorphes, milieux divisés ou enchevêtrés, …).

Texte de la 584 e conférence de l'Université de tous les savoirs prononcée le 6 juillet
2005

Par Stéphane ROUX[1] : Physique et Mécanique

Résumé :
Forte de sa maturité, la mécanique des solides n'en est que plus sollicitée par de nombreux défis à relever. Les enjeux sont multiples : depuis la connaissance fondamentale, jusqu'à la conception et la caractérisation de nouveaux matériaux, en passant par la maîtrise de l'hétérogénéité de milieux à comportement complexe, l'exploitation de l'imagerie bi voire tri-dimensionnelle via l'analyse de champ, ou encore la prédiction de la variabilité ou de la fiabilité des solides et des structures. Dans toutes ces dimensions, physique et mécanique sont indissociablement liées, s'interpellant et dialoguant pour affronter plus efficacement ces challenges.
Sur le plan expérimental, les mesures physiques, de plus en plus finement résolues spatialement, permettent d'aborder directement des réponses mécaniques inhomogènes, liées au désordre constitutif des matériaux ou à leur comportement non-linéaire dans des sollicitations complexes. Sur le plan de la modélisation numérique, l'ère du progrès purement algorithmique est sans doute révolue, pour laisser place à des approches performantes exploitant les problèmes multi échelles avec discernement. Enfin, en ce qui concerne la théorie, les progrès majeurs accomplis dans le passé dans l'homogénéisation des milieux élastiques permettent de mesurer les difficultés qui sous-tendent l'abord de l'hétérogénéité pour des lois de comportement complexes (plasticité, endommagement, et rupture, matériaux amorphes, milieux divisés ou enchevêtrés, ...).
Ainsi dans tous ces domaines, et alliée à la physique, la mécanique du solide est confrontée à de nombreux et nouveaux défis, et se doit de s'exprimer dans des applications à haut potentiel industriel, économique et sociétal.

1 Introduction

Loin des feux médiatiques de la physique nanométrique ou de l'interface physique-biologie aujourd'hui porteurs de tant d'espoir, la science mécanique et plus spécifiquement la mécanique des solides pourrait apparaître comme une discipline achevée, aboutie. Les défis du passé surmontés ne laisseraient la place aujourd'hui qu'à des formulations de lois constitutives validées, à des protocoles d'essais mécaniques balisés et encadrés par des normes précises, et à des techniques de calcul éprouvées capables de digérer les lois de comportement et les géométries les plus complexes. Les progrès à attendre pourraient ainsi apparaître comme incrémentaux, voire marginaux, et les performances des résultats numériques simplement asservies au progrès fulgurant des ordinateurs. Ainsi, la reine en second des sciences dures de la classification d'Auguste Comte, entre mathématiques et physique, quitterait le domaine de la science active pour simplement alimenter son exploitation applicative et technologique.
Nul ne saurait en effet nier les très substantiels progrès récents de cette discipline qui sous-tendent une telle peinture. Seule la conclusion est erronée ! Victime d'une polarisation excessive de l'éclairage médiatique, et conséquemment des fléchages de moyens de l'ensemble des instances de recherche, mais aussi coupable d'une communication trop pauvre, (ou lorsqu'elle existe trop focalisée sur les applications) la discipline n'offre pas au grand public et plus spécifiquement aux jeunes étudiants une image très fidèle des défis qui lui sont proposés pour le futur.
Forte de sa maturité, la mécanique est aujourd'hui fortement sollicitée par de nombreux enjeux :

*         Enjeux de connaissance fondamentale : la terra incognita dont les frontières certes reculent, offre toujours de larges domaines à explorer, et paradoxalement parfois sous des formes presque banales, comme les tas de sable ou les milieux granulaires.
*         Enjeux des progrès des techniques d'analyse : Le développement d'outils d'analyse toujours plus sensibles, plus précis, plus finement résolus en espace et en temps, donne accès à des informations extraordinairement riches sur les matériaux dont l'exploitation dans leurs conséquences mécaniques est de plus en plus prometteuse mais aussi exigeante.
*         Enjeux liés à l'élaboration, et à la conception de nouveaux matériaux. Au-delà de la caractérisation structurale, la physique et la chimie proposent toutes deux des moyens d'élaboration de matériaux extraordinairement innovants qui sont autant de défis non seulement à la caractérisation mécanique, mais aussi à la proposition de nouvelles conceptions d'architecture micro-structurale, jusqu'aux échelles nanométriques.
*         Enjeux des nouvelles demandes de la société et de l'industrie. Le risque, l'aléa sont de moins en moins tolérés. Ils sont en effet combattus par le principe de précaution, pour leur dimension politique et sociale. Ils sont aussi pourchassés dans le secteur de l'activité industrielle, où les facteurs de sécurité qui pallient nos ignorances sont de moins en moins légitimes. Le progrès à attendre porte sur l'estimation des durées de vie en service de pièces ou de structure, ou sur les développements d'une quantification précise de la probabilité de rupture ou de ruine, reposant sur une évaluation de l'ensemble des sources d'aléas, depuis la loi de comportement du milieu, jusqu'à ses chargements voire même sa géométrie. Enfin, puisque la modélisation numérique devient précise et fiable, la tolérance vis-à-vis des erreurs de prédiction diminue, et plus qu'une réponse moyenne dans un contexte incertain, commence à s'affirmer une demande d'évaluation de la probabilité que tel résultat dépasse tel ou tel seuil.

2 Enjeu de connaissance fondamentale
La modélisation numérique de la mécanique d'un matériau peut être abordée de différentes manières :

*         Au niveau le plus fondamental, la dynamique moléculaire ab initio , rend compte des atomes et de leurs interactions dans le cadre de la mécanique quantique. Aucun compromis n'est réalisé sur la précision de la description, mais en contrepartie le coût du calcul est tel que rarement le nombre d'atomes excède quelques centaines, et la durée temporelle vraie couverte par la simulation est typiquement de l'ordre de la dizaine à la centaine de picoseconde.
*         Pour accélérer très sensiblement cette description, il est possible de simplifier les interactions atomiques en introduisant des potentiels effectifs. La simulation de dynamique moléculaire est alors maintenant réduite à l'intégration dans le temps des équations classiques (non-quantiques) du mouvement des atomes. Les échelles accessibles sont maintenant de quelques millions d'atomes, sur des temps allant jusqu'à quelques nanosecondes.
*         Pour gagner encore en étendue spatiale et temporelle, en ce qui concerne les matériaux cristallins où la déformation plastique est due au mouvement de dislocations, une stratégie d'approche intéressante consiste à accroître le niveau d'intégration de l'objet élémentaire étudié, ici la dislocation, et décrire un ensemble de tels défauts d'un monocristal, leur génération à partir de sources, leurs mouvements selon des plans privilégiés, leurs interactions mutuelles et avec les parois, la formation de défauts, jusqu'à la formation d'une « forêt » de dislocations. Cette description s'appelle la « dynamique des dislocations ».
*         Enfin à une échelle beaucoup plus macroscopique, la mécanique des milieux continus peut être étudiée numériquement par la classique méthode des éléments finis pour des rhéologies ou des lois de comportement aussi complexes que souhaitées.
*         Citons encore des simulations utilisant des éléments discrets pour rendre compte par exemple du comportement de milieux comme des bétons à une échelle proche des différentes phases constitutives (granulats, ciment, ...). L'intérêt ici est de permettre de capturer la variabilité inhérente à la structure hétérogène du milieu. Dans le même esprit, les éléments discrets permettent de modéliser les milieux granulaires avec un réalisme impressionnant, alors même que la description continue n'est aujourd'hui pas encore déduite de cette approche.

2.1 Savoir imbriquer les échelles de description
Chacune des approches citées ci-dessus est aujourd'hui bien maîtrisée et adaptée à une gamme d'échelles spatiale et temporelle bien identifiée. Il reste cependant à mieux savoir imbriquer ces différents niveaux de description, et à trouver des descriptions intermédiaires pour des systèmes spécifiques. Ainsi par exemple de nombreux travaux ont permis d'ajuster au mieux les potentiels empiriques de la dynamique moléculaire pour assurer une continuité de description avec les approches ab initio. Les maillons manquants concernent par exemple les matériaux amorphes comme les verres où la dynamique des dislocations n'est évidemment pas pertinente, et où un écart important existe entre les échelles couvertes par Dynamique Moléculaire et par la mécanique des milieux continus. L'exemple type du problème qui rassemble nombre de défis est celui de la fracture. Par nature, seule l'extrême pointe de la fissure est sensible à des phénomènes fortement non-linéaires. L'idée naturelle est alors de construire une modélisation véritablement multi-échelle, en associant simultanément différentes descriptions selon la distance à la pointe de la fissure.
Les points durs au sein de cette imbrication de description concernent l'identification des variables qui sont pertinentes pour caractériser l'état à grande échelle et celles dont la dynamique rapide peut être moyennée. Lorsque le comportement du système est purement élastique, alors ce changement d'échelle peut être effectué dans le cadre de l'homogénéisation, et de fait la procédure est ici très claire. On sait parfaitement aujourd'hui moyenner contraintes et déformations, et on maîtrise parfaitement la disparition progressive de l'hétérogénéité pour atteindre la limite aux grandes échelles d'un milieu élastique déterministe. Pour les comportements autres qu'élastiques linéaires, cette homogénéisation non-linéaire reste beaucoup moins bien maîtrisée en dépit des avancées récentes dans ce domaine, et le territoire à conquérir est à la fois vaste et riche d'applications.
Un des sujets limitants proche du précédent est surprenant tant sa banalité est grande : le comportement des milieux granulaires reste aujourd'hui un sujet de recherche très actif. Le caractère paradoxal des difficultés qui surgissent dans le lien entre descriptions microscopiques (bien maîtrisées) et macroscopiques (dont les fondations sont aujourd'hui peu satisfaisantes, même si des modèles descriptifs opérationnels existent) provient de la combinaison de deux facteurs : d'une part des lois de contact simples ( frottement et contact) mais « peu régulières » au sens mathématique, d'autre part une géométrie (empilement de particules) qui introduit de nombreuses contraintes non-locales à l'échelle de quelques particules. Les milieux granulaires montrent des difficultés spécifiques qui représentent toujours un défi pour la théorie.

2.2 Non-linéarité et hétérogénéité : Physique statistique
Décrire le comportement de milieux hétérogènes est un défi auquel a été confrontée la mécanique depuis des années. Comme mentionné ci-dessus, dans le cadre de l'élasticité de nombreux résultats ont été obtenus. Pour les milieux périodiques comme pour les milieux aléatoires, des bornes encadrant les propriétés homogènes équivalentes ont été obtenues, tout comme des estimateurs des propriétés homogènes équivalentes prenant en compte de diverses manières des informations microstructurales. Plus encore que des caractérisations moyennes macroscopiques, des informations sur leur variabilité ou encore des évaluations locales peuvent être obtenues portant par exemple sur la valeur de la contrainte ou de la déformation dans chaque phase du milieu.
Pour des rhéologies plus complexes, l'essentiel reste à construire :
Dans le domaine de la plasticité, de manière incrémentale, nous nous retrouvons sur des bases comparables à celle de l'élasticité de milieux hétérogènes, et cette correspondance a bien entendu été exploitée. Cependant une difficulté supplémentaire apparaît, au travers de corrélation spatiale à très longues portées dans les fluctuations de déformation qui se couplent ainsi au comportement local. Or, ces corrélations sont très difficiles à gérer sur un plan théorique et représentent toujours un défi pour l'avenir. Dans cette direction, des développements récents sur des modélisations élastiques non-linéaires donnent des pistes très intéressantes.
L'endommagement est une loi de comportement de mécanique de milieux continus déterministe qui décrit les milieux susceptibles de développer des micro-fissures de manière stable et dont on ne décrit que la raideur locale pour différents niveaux de déformation. Cela concerne en particulier des matériaux quasi-fragiles, comme le béton ou les roches. Paradoxalement, le caractère hétérogène de ces milieux multifissurés à petite échelle n'est pas explicitement décrit, et de fait cela ne s'avère pas nécessaire. Il existe cependant une exception notable, à savoir, lorsque le comportement montre une phase adoucissante, où la contrainte décroît avec la déformation. Ceci concerne au demeurant aussi bien l'endommagement fragile évoqué ci-dessus, que l'endommagement ductile où des cavités croissent par écoulement plastique. Dans le cas d'un adoucissement, le champ de déformation a tendance à se concentrer sur une bande étroite, phénomène dit de « localisation ». Or cette localisation dans une vision continue peut s'exprimer sur des interfaces de largeur arbitrairement étroite. Cette instabilité traduit en fait une transition entre un régime de multifissuration distribuée vers un régime de fracture macroscopique. Le confinement de la déformation concentrée devrait faire intervenir des échelles de longueur microscopiques permettant de faire le lien entre une dissipation d'énergie volumique (décrit par l'endommagement) et une dissipation superficielle sur la fissure macroscopique. Dans cette localisation, le caractère hétérogène de la fissuration se manifeste de manière beaucoup plus sensible, et c'est dans ce trait spécifique que doit être recherchée la liaison vers une fracture macroscopique cohérente avec la description endommageante. Ce passage reste à construire de manière plus satisfaisante qu'au travers des modèles non-locaux aujourd'hui utilisés dans ce contexte. C'est à ce prix que l'on pourra rendre compte de manière satisfaisante des effets de taille finie observés (e.g. valeur de la contrainte pic en fonction de la taille du solide considéré).
Dans le domaine de la physique statistique, des modèles de piégeage d'une structure élastique forcée extérieurement et en interaction avec un paysage aléatoire d'énergie ont été étudiés de manière très générale. Il a été montré dans ce contexte que la transition entre un régime piégé pour un faible forçage extérieur vers un régime de propagation à plus forte sollicitation pouvait être interprétée comme une véritable transition de phase du second ordre caractérisée par quelques exposants critiques universels. La propagation d'une fracture dans un milieu de ténacité aléatoire, la plasticité de milieux amorphes, sont deux exemples de champ d'application de cette transition de dépiégeage. Ce cadre théorique fournit potentiellement tous les ingrédients nécessaires à la description de la fracture des milieux hétérogènes fragiles ou de la plasticité des milieux amorphes, et en particulier ces modèles proposent un cadre général de la manière dont la variabilité de la réponse disparaît à la limite thermodynamique d'un système de taille infinie par rapport à la taille des hétérogénéités. La surprise est que cette disparition progressive des fluctuations se fait selon des lois de puissance dont les exposants sont caractéristiques du phénomène critique sous-jacent. La physique statistique peut donc donner un cadre général au rôle des différentes échelles mais sa déclinaison à une description cohérente de ces lois de comportement prenant en compte le caractère aléatoire de la microstructure reste pour l'essentiel à construire.

3 Enjeu des nouvelles techniques d'analyse
Ces vingt dernières années ont vu aboutir des progrès substantiels dans les techniques d'analyse, en gagnant dans la sensibilité, dans la diversité des informations recueillies et dans leur résolution spatiale et temporelle. Ces nouvelles performances permettent d'accéder à des mesures de champs dont l'exploitation sur un plan mécanique représente un nouveau défi.

3.1 Nouvelles imageries
Les microscopies à force atomique ( AFM) et à effet tunnel ( STM) permettent aujourd'hui dans des cas très favorables d'atteindre la résolution atomique. En deçà de ces performances ultimes, l'AFM permet de résoudre une topographie de surface avec des résolutions de quelques nanomètres dans le plan et de l'ordre de l'Angstrom perpendiculairement dans des conditions très courantes. Cet instrument, exploitant les forces de surface, permet de travailler selon différents modes (contact, non-contact, friction, angle de perte de la réponse mécanique, ...), ce qui donne accès, au-delà de la topographie, à des informations supplémentaires sur la nature des sites de surface.
La microscopie électronique en transmission ( TEM) permet, elle aussi, d'atteindre l'échelle atomique et représente un moyen d'analyse dont les performances progressent sensiblement .La préparation des échantillons observés reste cependant lourde et limite son utilisation à des caractérisations structurales de systèmes spécifiques.
A de plus grandes échelles, il est aujourd'hui possible d'utiliser des spectrométries ( Raman, Brillouin, Infra-rouge) dotées de résolutions spatiales qui selon les cas peuvent atteindre l'ordre du micromètre. Ces informations sont pour l'essentiel relatives à la surface de l'échantillon analysé, intégrant l'information sur une profondeur variable. Sensibles à des modes vibrationnels locaux, le signal renseigne sur la composition chimique ou la structure locale à l'échelle de groupements de quelques atomes.
Ces imageries ne sont plus même limitées à la surface des matériaux, mais permettent aussi une imagerie de volume. La tomographie de rayons X donne accès à des cartes tridimensionnelles de densité. En exploitant la puissance des grands instruments comme à l'ESRF, il est possible d'augmenter la résolution de cette technique pour atteindre aujourd'hui typiquement un ou quelques micromètres. Bien entendu, la taille de l'échantillon analysé dans ce cas est sensiblement inférieure au millimètre.
De manière beaucoup plus banale, l'acquisition d'images optiques digitales ou de film vidéo s'est véritablement banalisée, dans un domaine où l'accroissement de performance est aussi rapide que la chute des coûts, rendant très facilement accessible cette technologie. Il en va de même de la thermographie infra-rouge permettant l'acquisition de champs de température avec des résolutions spatiales et temporelles qui s'affinent progressivement.

3.2 Que faire avec ces informations ?
Ces développements instrumentaux de la physique nous conduisent dans l'ère de l'imagerie, et si nous concevons aisément l'impact de ces mesures dans le domaine de la science des matériaux, l'accès à ces informations fines et spatialement résolues entraîne également de nouveaux défis à la mécanique du solide. En effet, en comparant des images de la surface de solides soumis à différents stades de sollicitation, il est possible par une technique dite de corrélation d'image, d'extraire des champs de déplacement. La philosophie générale consiste à identifier différentes zones entre une image référence et une de l'état déformé en rapprochant au mieux les détails de ces zones et de repérer ce faisant le déplacement optimal. A partir de cette mesure point par point, une carte ou un champ de déplacement peuvent ainsi être appréciés. Le fait de disposer d'un champ au lieu d'une mesure ponctuelle (comme par exemple par un extensomètre ou une jauge de déformation) change notablement la manière dont un essai mécanique peut être effectué. L'information beaucoup plus riche permet de cerner l'inhomogénéité de la déformation et donc d'aborder la question de la relation entre déformation locale et nature du milieu. Il manque cependant une étape pour que cette exploitation soit intéressante : Quelle est la propriété élastique locale qui permet de rendre compte du champ de déplacement dans sa globalité ? Il s'agit là d'un problème dit « inverse » qui reçoit une attention accrue dans le domaine de la recherche depuis une vingtaine d'années. L'exploitation rationnelle de cette démarche permet de réaliser un passage homogène et direct depuis l'essai mécanique expérimental et sa modélisation numérique, exploitable pour le recalage ou l'identification de lois de comportement.
Citons quelques applications récentes ou actuelles de ces techniques d'imagerie avancées :

*         Fracture de matériaux vitreux imagée par AFM

En étudiant la surface d'un échantillon de verre lors de la propagation lente d'une fissure en son sein, par AFM, il est possible de mettre en évidence des dépressions superficielles que l'on peut interpréter comme la formation de cavités plastiques en amont du front de fracture. Si un comportement plastique à très petite échelle n'est pas une totale surprise, même pour des matériaux fragiles, cette mise en évidence est un exploit expérimental hors du commun qui repose sur les progrès de ces techniques d'imagerie.

*         Comportement plastique de la silice amorphe

La silice vitreuse et dans une moindre mesure la plupart des verres montrent lors de leurs déformations plastiques certains traits qui les distinguent des matériaux cristallins : Leur déformation plastique possède une composante de distorsion (habituelle) et une de densification (moins usuelle). Pour décrire l'indentation de ces matériaux et à terme l'endommagement superficiel qui accompagnera les actions de contact et le rayage, il est important d'identifier une loi de comportement cohérente. La difficulté est que lors d'une indentation, cette densification a lieu à des échelles qui sont typiquement d'une dizaine de micromètres. Ce n'est que très récemment qu'il a été possible d'obtenir des cartes de densification à l'échelle du micron en exploitant la micro-spectrométrie Raman. Ici encore, cette avancée expérimentale majeure n'a été rendue possible que par la grande résolution spatiale maintenant accessible.

*         Détection de fissures et mesure de leur ténacité

Par microscopie optique, il est possible d'observer la surface d'échantillon de céramique à des échelles microniques. Cette résolution est largement insuffisante pour y détecter des fissures dont l'ouverture est inférieure à la longueur d'onde optique utilisée. La corrélation d'image numérique aidée par notre connaissance a priori des champs de déplacements associés à la fracture (dans le domaine élastique) permet de vaincre cette limite physique et d'estimer non seulement la position de la fissure mais aussi son ouverture avec une précision de l'ordre de la dizaine de nanomètres.

*         Comportement de polymères micro-structurés

Les polymères en particulier semi-cristallins peuvent montrer des organisations microscopiques complexes. L'étude par AFM de la déformation locale par corrélation d'image en fonction de la nature de la phase permet de progresser dans l'identification de l'origine des comportements macroscopiques non-linéaires et leur origine microstructurale. La faisabilité de cette analyse vient à peine d'être avérée.

4 Enjeu des nouveaux matériaux
Au travers des exemples qui précèdent, nous avons déjà eu l'occasion d'évoquer des problématiques liées directement aux matériaux (milieux granulaires, matériaux amorphes, milieux quasi-fragiles, ...). Le développement de nouveaux matériaux fortement appelé par les besoins industriels, et par la maîtrise croissante des techniques d'élaboration, tant chimique que physique, pose sans cesse de nouveaux défis à l'appréciation de leurs performances mécaniques. Ceci est d'autant plus vrai que ces nouveaux matériaux sont de plus en plus définis, conçus ou formulés en réponse à une (ou plusieurs) fonction(s) recherchée(s). Cette orientation de pilotage par l'aval, sans être véritablement nouvelle, prend une place croissante dans la recherche sur les matériaux, par rapport à une approche plus « classique » où la connaissance de matériaux et de leur mode de synthèse se décline en une offre de fonctions accessibles.
4.1 Matériaux composites et nano-matériaux
L'ère des matériaux composites n'est pas nouvelle, et l'on sait depuis longtemps associer différents matériaux avec des géométries spécifiques permettant de tirer le meilleur bénéfice de chacun des constituants. Pour ne citer qu'un seul exemple, pas moins de 25 % des matériaux constitutifs du dernier Airbus A380 sont des composites, et cette proportion croît sensiblement dans les projets en développement. Au-delà de la sollicitation des différentes phases associées, le rôle crucial des interfaces a été vite compris et le traitement superficiel des fibres ou inclusions du matériau composite a été mis à profit pour moduler les propriétés globales ( arrêt de fissure par pontage et déflexion du front, modulation du report de charge après rupture).

Dans ce cadre, les nano-matériaux ne changent guère cette problématique générale. Leur taille peut, le cas échéant, justifier d'une très grande surface développée, et donc exacerber le rôle des interfaces et des interphases. Par effet de confinement, ces interphases peuvent également démontrer de nouvelles propriétés originales par rapport à leur correspondant volumique. Enfin, en réduisant la taille des objets constitutifs, leurs interactions vont facilement conduire à la formation d'agrégats ou de flocs. Cette propriété peut être soit subie soit exploitée pour dessiner une architecture idéale ou atteindre une nouvelle organisation (e.g. auto-assemblage).
4.2 Matériaux fibreux/Milieux enchevêtrés
Parmi les matériaux à microstructure, les milieux fibreux contenant des fibres longues d'orientation aléatoire se distinguent des milieux hétérogènes habituellement considérés de par la complexité géométrique de l'organisation des différentes phases à l'échelle du volume élémentaire représentatif. Que la géométrie gouverne alors la réponse mécanique ne donne cependant pas une clef facile pour résoudre ces fascinants problèmes.

4.3 Couches minces : Tribologie Frottement adhésion
La surface et le volume jouent souvent des rôles très différents selon les propriétés recherchées, et c'est donc naturellement qu'une voie prometteuse pour réaliser un ensemble de propriétés consiste à recouvrir la surface d'un solide par une (voire plusieurs) couche(s) mince(s). Concentrer la nouvelle fonction dans un revêtement superficiel permet d'atteindre un fort niveau de performance pour une faible quantité de matière. Ainsi par exemple sur verre plat, sont le plus souvent déposés des empilements de couches minces permettant d'accéder à des fonctions optiques, thermiques, de conduction électrique, ... spécifiques. En parallèle, il est important dans la plupart des applications de garantir la tenue mécanique du matériau ainsi revêtu.
Le comportement de ces couches minces dans des sollicitations de contact ponctuel et de rayage est donc crucial et souligne l'importance de la tribologie et de l'adhésion, sujets couverts par des conférences récentes dans le cadre de l'Université de tous les savoirs 2005 présentées par Lydéric. Bocquet et Liliane Léger respectivement.

4.4 Couplages multiphysiques
La mécanique n'est souvent pas une classe de propriétés indépendante des autres. De nombreux couplages existent entre élasticité et thermique, électricité, magnétisme, écoulement en milieu poreux, capillarité, adsorption, réactivité chimique ... La prise en compte de ces couplages devient stratégique dans la description et surtout la conception de matériaux « intelligents » ou « multifonctionels ». Ici encore, on se trouve vite confronté à un large nombre de degrés de libertés où il est important de savoir trier les variables (maintenant couplant paramètres mécaniques et autres) et les modes qui conditionnent les plus grandes échelles de ceux qui ne concernent que le microscopique. Les stratégies d'approche du multi-échelle et du multi-physique se rejoignent ainsi naturellement.

4.5 Vieillissement
La maîtrise du vieillissement des matériaux est l'objet d'une préoccupation croissante dans l'optique particulière du développement durable. Cette problématique fait partie intégrante des couplages multi-physiques que nous venons de citer si nous acceptons d'y adjoindre une dimension chimique. La composante de base est essentiellement la réactivité chimique parfois activée par la contrainte mécanique (comme dans la corrosion sous contrainte, la propagation sous-critique de fissure, ou certains régimes de fatigue), mais aussi le transport lui aussi conditionné par la mécanique. La difficulté majeure de ce domaine est l'identification des différents modes de dégradation, leur cinétique propre, et les facteurs extérieurs susceptibles de les influencer. En effet, il convient souvent de conduire des essais accélérés, mais la correspondance avec l'échelle de temps réelle est une question délicate à valider ... faute de temps ! Ici encore la modélisation est une aide précieuse, mais elle doit reposer sur une connaissance fiable des mécanismes élémentaires.

4.6 Bio-matériaux/bio-mimétisme
La nature a du faire face à de très nombreux problèmes d'optimisation en ce qui concerne les matériaux. De plus, confronté aux imperfections naturelles du vivant, les solutions trouvées sont souvent très robustes et tolérantes aux défauts. Faute de maîtriser l'ensemble des mécanismes de synthèse et de sélection qui ont permis cette grande diversité, nous pouvons déjà simplement observer, et tenter d'imiter la structure de ces matériaux. Cette voie, assumée et affirmée, est ce que l'on nomme le bio-mimétisme et connaît une vague d'intérêt très importante. Pour ne citer qu'un exemple, la structure des coquillages nous donne de très belles illustrations d'architectures multi-échelles, dotées d'excellentes propriétés mécaniques (rigidité et ténacité), réalisées par des synthèses « douces » associant chimies minérale et organique.

4.7 Mécanique biologique
Au-delà de l'observation et de l'imitation, il est utile de comprendre que les structures biologiques n'échappent pas aux contraintes mécaniques. Mieux, elles les exploitent souvent au travers des mécanismes de croissance et de différentiation qui, couplés à la mécanique, permettent de limiter les contraintes trop fortes et de générer des anisotropies locales en réponse à ces sollicitations. Exploiter en retour ce couplage pour influer sur, ou contrôler, la croissance de tissus biologiques par une contrainte extérieure est un domaine naissant mais certainement plein d'avenir.

5 Enjeu des nouvelles demandes/ nouveaux besoins
Puisque la maîtrise de la modélisation numérique est maintenant acquise en grande partie, pour tous types de loi de comportement ou de sollicitation, l'attente a cru en conséquence dans de nombreuses directions.
5.1 Essais virtuels
Le coût des essais mécaniques de structures est considérable car souvent accompagné de la destruction du corps d'épreuve. En conséquence, la pression est forte pour exploiter le savoir-faire de la modélisation, et ainsi réduire les coûts et les délais de mise au point. Dans le secteur spatial ou aéronautique, la réduction des essais en particulier à l'échelle unité a été extrêmement substantielle, jusqu'à atteindre dans certains cas la disparition complète des essais réels. S'y substitue alors « l'essai virtuel », où le calcul numérique reproduit non seulement l'essai lui-même, mais aussi des variations afin d'optimiser la forme, les propriétés des éléments constitutifs ou leur agencement. Cette tendance lourde se généralise y compris dans des secteurs à plus faible valeur ajoutée, où l'optimisation et la réduction des délais sont le moteur de ce mouvement.

5.2 Sûreté des prédictions
Si l'importance de l'essai mécanique s'estompe, alors il devient vite indispensable de garantir la qualité du calcul qui le remplace. Qualifier l'erreur globale, mais aussi locale, distinguer celle commise sur la relation d'équilibre, sur la loi de comportement ou encore sur la satisfaction des conditions aux limites peut être un outil précieux pour mieux cerner la sûreté de la prédiction. Cette mesure d'erreur ou d'incertitude peut guider dans la manière de corriger le calcul, d'affiner le maillage ou de modifier un schéma numérique d'intégration. Dans le cas de lois de comportement non-linéaires complexes, l'élaboration d'erreurs en loi de comportement devient un exercice particulièrement délicat qui requiert encore un effort de recherche conséquent compte-tenu de l'enjeu.

5.3 Variabilité Fiabilité
La situation devient plus délicate dans le cas où la nature du matériau, ses propriétés physiques, sa géométrie précise sont susceptibles de variabilité ou simplement d'incertitude. Bien entendu des cas limites simples peuvent être traités aisément par le biais d'approches perturbatives, qui (dans le cas élastique) ne changent guère la nature du problème à traiter par rapport à une situation déterministe. Pour un fort désordre (voire même un faible désordre lorsque les lois de comportement donnent lieu à un grand contraste de propriétés élastiques incrémentales), la formulation même du problème donne naturellement lieu à des intégrations dans des espaces de phase de haute dimensionalité, où rapidement les exigences en matière de coût numérique deviennent difficiles voire impossibles à traiter. Les approches directes, par exemple via les éléments finis stochastiques atteignent ainsi vite leurs limites. L'art de la modélisation consiste alors à simplifier et approximer avec discernement. Guidé dans cette direction par les approches multiéchelles qui ont eu pour objet essentiel de traiter de problèmes initialement formulés avec trop de degrés de liberté, nous devinons qu'une stratégie de contournement peut sans doute dans certains cas être formulée, mais nous n'en sommes aujourd'hui qu'aux balbutiements. Si l'on se focalise sur les queues de distributions, caractérisant les comportements extrêmes, peu probables mais potentiellement sources de dysfonctionnements graves, alors la statistique des extrêmes identifiant des formes génériques de lois de distributions stables peut également fournir une voie d'approche prometteuse.
Dans le cas des lois de comportement non-linéaires, comme l'endommagement, on retrouve une problématique déjà évoquée dans la section 2, certes sous un angle d'approche différent mais où les effets d'échelle dans la variabilité des lois de comportement aléatoires renormalisées à des échelles différentes demeure très largement inexplorée.

5.4 Optimisation
Quelle forme de structure répond-elle le mieux à une fonction imposée dans la transmission d'efforts exercés sur sa frontière ? Telle est la question à laquelle s'est attachée la recherche sur l'optimisation de forme. Des avancées récentes très importantes ont été faites dans le réalisme des solutions obtenues en prenant en compte de multiples critères. Ceux-ci incluent la minimisation de quantité de matière (mise en jeu dans les formulations premières du problème), mais aussi plus récemment des contraintes de réalisabilité de pièce via tel ou tel mode d'élaboration.

5.5 Contrôle
Parfois les sollicitations extérieures sont fluctuantes, et peuvent donner lieu à des concentrations de contraintes indésirables, ou encore à des vibrations proches d'une fréquence de résonance. Plutôt que de subir passivement ces actions extérieures, certains systèmes peuvent disposer d'actuateurs dont l'action peut potentiellement limiter le caractère dommageable des efforts appliqués. La question de la commande à exercer sur ces actuateurs en fonction de l'information recueillie sur des capteurs judicieusement disposés est au cSur du problème du contrôle actif. Ce domaine a véritablement pris un essor considérable en mécanique des fluides ( acoustique, et contrôle pariétal de la turbulence), et entre timidement aujourd'hui dans le champ de la mécanique des solides.

6 Conclusions
Ce très bref panorama, focalisé sur des développements en cours ou prometteurs, a pour but de montrer que la mécanique du solide est extraordinairement vivace. Confrontée à des défis nouveaux, elle voit ses frontières traditionnelles s'estomper pour incorporer des informations ou des outils nouveaux de différents secteurs de la chimie et de la physique. Elle se doit d'évoluer aussi sur ses bases traditionnelles, sur le plan numérique par exemple, en développant de nouvelles interfaces avec d'autres descriptions, (mécanique quantique, incorporation du caractère stochastique, couplages multiphysiques...), et en développant des approches plus efficaces pour traiter ne fut-ce qu'approximativement, des problèmes de taille croissante. On observe également que l'interface entre l'expérimental (mécanique mais aussi physique) et la modélisation numérique se réduit avec l'exploitation quantitative des nouveaux outils d'imagerie. Cette ouverture très nouvelle redonne toute leur importance aux essais mécaniques, domaine un peu délaissé au profit de la modélisation numérique.

7 Références
Le texte qui précède est consacré à un impossible exercice de prospective, qui ne doit pas abuser le lecteur, tant il est probable que, dans quelques années, ce texte n'offrira que le témoignage de la myopie du rédacteur. Pour tempérer ceci, et permettre à chacun de se forger une opinion plus personnelle, je ne mentionne pas ici de références. En revanche, le texte contient en caractère gras un nombre conséquent de mots clés, qui peuvent chacun permettre une entrée de recherche sur Internet, donnant ainsi accès à un nombre considérable d'informations, et d'opinions sans cesse mises à jour.



[1] E-mail : stephane.roux@saint-gobain.com

 

   VIDEO       CANAL  U         LIEN

 
 
 
 

L'UTILISATION DES RAYONS X POUR L'ANALYSE DE LA MATIÈRE

 

 

 

 

 

 

 

L'UTILISATION DES RAYONS X POUR L'ANALYSE DE LA MATIÈRE

Le rayonnement synchrotron est devenu en quelques années la principale source de rayons X. Il est émis par des particules chargées (électrons) qui sont accélérées par des champs magnétiques dans des machines construites au départ pour étudier la physique des particules. Ce rayonnement est très intense et sa brillance peut atteindre 1011 fois celle d'un tube à rayons X. Ceci a ouvert des possibilités complètement nouvelles dans de nombreux domaines : possibilité de faire des images sur des objets qui absorbent très peu les rayons X et de faire des hologrammes, possibilité d'étudier la structure de la matière dans des conditions extrêmes de pression et de température qui règnent au centre de la terre, résolution de structures biologiques complexes tels que le ribosome, le nucléosome ou des virus de grande taille, étape importante pour la réalisation de nouveaux médicaments. Le but de cette conférence est d'illustrer ces possibilités par des résultats récents.

Texte de la 229e conférence de l’Université de tous les savoirs donnée le 16 août 2000.
Utilisation des rayons x (rayonnement synchrotron) pour l’analyse de la matière par Yves Petroff

AVANT PROPOS
Les rayons X ont été découverts à la fin du XIXe siècle par Wilhelm Conrad Röntgen, qui obtint pour la première fois la radiographie d’une main. En quelques semaines, l’expérience fut reproduite dans des centaines de laboratoires à travers le monde. Les tubes à rayons X étaient faciles à construire et peu coûteux : on en installa des centaines, y compris dans les foires et chez les marchands de chaussures. Il fallut attendre plusieurs années avant que l’on ne se rende compte de certains effets néfastes. Pendant quelque temps, les applications des rayons X furent essentiellement médicales, qu’il s’agisse d’imagerie ou de thérapie. Quant à leur origine, durant toute cette période, elle demeura fort controversée.
En 1912, Max von Laue prédit que les rayons X devraient être diffractés par des cristaux. Grâce à ce procédé, il devenait en effet possible d’obtenir la position des atomes dans les solides, donc d’en décrire la structure. La première structure résolue fut celle du chlorure de sodium par Sir William Henry Bragg et son fils.
La fin des années 40 fut marquée par trois événements importants :
- On observa pour la première fois le rayonnement émis par des électrons relativistes (dont la vitesse est proche de celle de la lumière), accélérés au moyen de champs magnétiques dans des machines (synchrotrons) construites pour l’étude de la physique des particules élémentaires. Ce rayonnement fut appelé rayonnement synchrotron.
- À peu près à la même époque, on commença à observer les rayons X provenant de l’espace, grâce à des expériences faites à bord de fusées au-dessus de l’atmosphère terrestre. L’information arrivant du cosmos provient des ondes électromagnétiques émises, réfléchies ou diffusées par les corps célestes. Malheureusement, l’atmosphère qui règne autour de la Terre arrête la plus grande partie de ces rayonnements sauf la partie visible du spectre (0,7-0,4 μm), l’infrarouge ainsi que les ondes radio (de quelques millimètres à 15m). L’astrophysique X est donc une science récente, qui a dû attendre l’avènement des fusées et des satellites pour se développer ; en effet, la détection des rayons X ne peut se faire qu’à 100 km au-dessus de la surface de la Terre. La première mesure fut faite en 1949, par le groupe de H. Friedman, du Naval Research Laboratory de Washington, à bord d’une fusée V2 récupérée à la fin de la Seconde Guerre mondiale. L’émission détectée par Friedman se révéla très faible et cela découragea de nombreux scientifiques. R. Giaconni décida de persévérer dans cette voie et, après deux tentatives malheureuses, obtint des résultats remarquables qui ouvrirent l’ère moderne de l’astrophysique X. Dans les années qui suivirent, de nombreuses sources X intenses furent découvertes : Taurus X-1 dans la nébuleuse du Crabe, Cygnus X-1 ainsi que les premières sources extragalactiques (M87, Centaurus A, 3C273 ...). Depuis le premier satellite d’étude des rayons X (Uhuru, lancé en 1970), une nouvelle mission a lieu tous les trois ou quatre ans. La moisson au cours de ces années a été extraordinairement riche puisque le satellite Rosat a répertorié plus de cent vingt mille sources de rayonnement X ! Tous ces résultats donnèrent lieu à un foisonnement de travaux théoriques. Les sources de rayons X dans le cosmos peuvent avoir des origines variées. Il peut s’agir de sources thermiques (gaz ou matière portés à des températures élevées). On sait que tout objet chauffé émet des ondes électromagnétiques. Le Soleil, qui a une température de 5000 à 6000 K à la surface, émet dans le visible ; mais la couronne solaire (106K à 107K) est également une source intense de rayons X. Cela peut être aussi du rayonnement synchrotron, du bremsstrahlung ou des transitions atomiques des éléments.

- Page 1 -
- Enfin, on commença à déterminer, grâce aux rayonnements X, les premières structures de protéines, systèmes biologiques complexes formés de plusieurs dizaines de milliers d’atomes.
RAYONNEMENT SYNCHROTRON
On appelle rayonnement synchrotron l’émission d’ondes électromagnétiques (donc de rayons X) par des particules chargées accélérées à des vitesses voisines de celle de la lumière. Les propriétés de ce rayonnement ont été calculées pour la première fois en 1944 en Union soviétique et indépendamment aux Etats-Unis en 1945. Il a été observé pour la première fois dans le visible sur une petite machine de 70 MeV au laboratoire de la General Electric en 1947.

Lorsqu’une particule chargée (un électron, un positron ou un proton) est accélérée ou décélérée, elle émet des ondes électromagnétiques. Ce mécanisme existe dans le cosmos (nébuleuse du Crabe, ceintures de Jupiter) ou bien sur terre dans des accélérateurs circulaires (appelés souvent anneaux de stockage) construits pour l’étude de la physique des particules.

Les premiers machines avaient des circonférences de quelques mètres et des énergies de quelques millions d’électronvolts (MeV). Le collisionneur actuel du Conseil Européen pour la Recherche Nucléaire (CERN), le LEP, a 27 km de circonférence et l’énergie des électrons et des positrons y est de 50 milliards d’électronvolts (GeV).
Dans de telles machines, le rayonnement synchrotron est produit lorsque les électrons sont accélérés par des aimants dipolaires, qui permettent aux électrons d’avoir une trajectoire circulaire. L’énergie des électrons dépend du domaine spectral que l’on veut obtenir : pour travailler dans l’ultraviolet et les rayons X mous (100 eV-300 eV) une énergie d’électrons entre 800 MeV et 1,5 GeV est suffisante. Si on a besoin de rayons X durs (10-150 keV), l’énergie des électrons doit atteindre 6 GeV. Il est évident que la taille de l’anneau dépend fortement de l’énergie des électrons : une machine de 1 à 2 GeV aura 100 à 250m de circonférence, une machine de 6 à 8 GeV, 850 à 1400 m.
Découvert en 1947, le rayonnement synchrotron mit plus de vingt ans avant d’être réellement exploité en tant que source de rayons X en URSS, au Japon, aux Etats-Unis, en Italie, en France, en Allemagne et en Grande-Bretagne. Contrairement à ce que l’on pourrait penser, la communauté scientifique est très conservatrice !
Les machines de la première génération avaient été élaborées pour l’étude de la physique des particules et on y avait installé en parasite quelques expériences servant à extraire les rayons X et l’ultraviolet.
Par la suite, c’est-à-dire dans les années 80, des machines de la deuxième génération furent construites uniquement pour l’exploitation du rayonnement synchrotron. On s’aperçut alors que l’on pouvait gagner des facteurs mille ou dix mille en intensité de rayons X en installant des structures magnétiques appelées éléments d’insertion (on onduleurs), en général de 3 ou 4 m de long, et le plus souvent constitués d’aimants permanents.
La troisième génération de sources de rayonnement synchrotron est fondée essentiellement sur ces éléments d’insertion.
Le rayonnement émis dans ces machines est polychromatique et va des ondes millimétriques aux rayons X durs. Avec des éléments d’insertion, il est émis dans un cône extrêmement étroit, assez voisin de celui d’un laser. Dans une machine de 6 GeV, la divergence des rayons X est très faible (de l’ordre de 0,1 milliradian), aussi faible que celle d’un rayon laser [voir figure 1]. Le rayonnement est pulsé, puisque les électrons sont groupés en paquets de quelques centimètres, ce qui donne des « bouffées » régulières de 50 à 200 picosecondes (ps) suivant la machine.

- Page 2 -
La brillance est le facteur essentiel qui caractérise la qualité optique de la source. Elle peut être dix milliards de fois supérieure à celle d’un tube à rayons X. Depuis le début du siècle, la brillance des sources de rayons X a beaucoup évolué (cf. figure 2). Pendant une cinquantaine d’années, elle est restée constante. Le rayonnement synchrotron lui a fait gagner un facteur 1010 (10 milliards) en trente ans. C’est une phénomène assez rare ; le seul exemple équivalent est celui du laser dans le domaine visible.

- Page 3 -
Du fait de ces propriétés exceptionnelles, et de la possibilité de réaliser une cinquantaine d’expériences autour d’un anneau de stockage, le rayonnement synchrotron, d’abord considéré comme une nuisance, aujourd’hui la source la plus intense de rayons X, est devenu très vite un outil indispensable pour la chimie, la biologie, la physique du solide, la physique des surfaces, la physique atomique et moléculaire.
Il existe aujourd’hui une cinquantaine de centres dans le monde produisant du rayonnement synchrotron.

QUELQUES EXEMPLES DE NOUVELLES POSSIBILITES OFFERTES PAR LE RAYONNEMENT SYNCHROTRON
Imagerie X
Lorsque l’on examine une radiographie du corps humain, on s’aperçoit immédiatement que l’on distingue parfaitement les os mais pas les tissus mous. La raison en est que, les os mis à part, l’eau représente 65 % du corps. L’eau, constituée d’éléments légers, l’hydrogène et l’oxygène absorbe peu les rayons X. Les os en revanche, constitués essentiellement de calcium, les absorbent fortement.
Les images en rayons X sont donc obtenues par contraste d’absorption. C’est ainsi que, si on veut visualiser les tissus mous, on doit y injecter un élément plus lourd ; par exemple, si on veut regarder les artères coronaires, on injecte dans le sang de l’iode. Existe-t- il des possibilités de voir les tissus mous, c’est-à-dire en général les objets absorbant peu les rayons X ? La réponse est oui, mais avec d’autres techniques réalisées dans le visible avec le laser, et assez voisines de l’holographie. Le problème pour élargir ces techniques aux rayons X vient du fait qu’elles nécessitent un rayonnement cohérent comme celui émis par un laser : en effet, la lumière émise par un laser possède de la cohérence spatiale, c’est-à-dire qu’elle diverge très peu, et de la cohérence temporelle, c’est-à-dire qu’elle est monochromatique. Or, il n’existe pas aujourd’hui de laser dans le domaine des rayons X.

- Page 4 -
Nous avons vu que la lumière émise par un élément d’insertion avait une divergence (cohérence spatiale) de l’ordre de 10-4 radian, assez voisine de celle d’un petit laser. La monochromatisation est facile à obtenir en mettant sur le trajet du faisceau un monochromateur. On obtient ainsi artificiellement de la lumière cohérente dans le domaine des rayons X. On pourrait, certes, faire de même avec un tube à rayons X et un monochromateur, mais le nombre de photons qui en jaillirait serait très faible et peu exploitable.
Ces nouvelles possibilités ouvrent la voie vers de nombreuses applications en métallurgie et en médecine.
L’exemple que nous allons décrire a été obtenu récemment à l’ESRF (Grenoble) par P. Cloetens et al [1].
Jusqu’à très récemment, les images en rayons X étaient obtenues par contraste d’absorption. En fait, si on a la chance d’avoir des rayons X cohérents on peut produire des images par contraste de phase. Ceci est particulièrement intéressant lorsqu’il s’agit de matériaux composés d’éléments légers (hydrogène, oxygène, carbone) qui absorbent très peu les rayons X. Nous avons représenté dans la figure 3 deux images d’une mousse de polystyrène obtenues dans des conditions différentes :
a) une image obtenue à 18 KeV, en plaçant le détecteur à 10 cm de l’objet. On n’exploite pas la cohérence et on a image normale en absorption et donc on ne voit rien puisque l’absorption est très faible
b) on va obtenir des images en déplaçant le détecteur à des distances variables entre 10 cm et 100 cm de l’objet. Les interférences entres les faisceaux directes et les faisceaux réfractés par l’objet permettent de reconstruire une image à trois dimensions avec une résolution de l’ordre de 1 μm. Cette holotomographie a été obtenue à partir de 700 images et ceci peut être fait en une heure. L’exploitation de la cohérence et une véritable révolution dans le domaine de l’imagerie X.
Expériences de rayons X sous haute pression
Les rayons X permettent également de tester les modèles de l’intérieur de la terre. Grâce à leur aide, la structure des matériaux à très haute pression peut être révélée. Par très hautes pressions, nous entendons des pressions supérieures à 100 gigapascals [GPa] (approximativement un million d’atmosphères). Ces pressions sont celles qui règnent à l'intérieur de la Terre, mais aussi dans les planètes telle que Jupiter. Reproduire ces pressions en laboratoire est donc important pour la géophysique, l'astrophysique, la science des matériaux.

- Page 5 -
En effet, l’augmentation de la pression change considérablement l’interaction entre atomes, donc les propriétés chimiques et physiques. Elle permet aussi de vérifier la validité des modèles théoriques de la matière condensée.
Comment obtient-on des pressions aussi élevées ? D’une manière relativement
simple : la pression étant une force appliquée sur une surface, pour l’augmenter, soit on accroît la force, soit on diminue la surface. C’est cette seconde possibilité que l’on exploite en général : l’échantillon à étudier est placé dans un trou aménagé dans un joint métallique et comprimé entre les pointes de deux diamants. Il s’agit de petits diamants de 0,1 à 0,4 carat (1 carat = 0,2g). Pour obtenir des pressions de l’ordre de 300 GPa, le diamètre de l’échantillon ne doit pas dépasser 20 μm, ce qui veut dire que le faisceau de rayons X pour sonder l’échantillon ne devra pas dépasser 10 μm. Les cellules sont faites en diamant à cause de la dureté de ce matériau mais aussi parce qu’il est transparent aux rayons X. Si on a besoin de chauffer le matériau, on le fait en focalisant un laser infrarouge au centre de la cellule ou par un chauffage électrique.
À basse pression, l’hydrogène cristallise dans une structure hexagonale compacte donnant lieu à un solide moléculaire isolant, les molécules d’hydrogène étant orientées au hasard. La théorie prévoit depuis longtemps qu’à haute pression, entre 100 et 300 GPa, l’hydrogène devrait présenter une phase métallique atomique dans laquelle les molécules ont cessé d’exister. Cet hydrogène métallique devrait avoir des propriétés inhabituelles : il devrait en particulier être supraconducteur (c’est-à-dire avoir une résistivité nulle) à la température ambiante.
Il est donc important de voir s’il y a des changements de structure cristalline et d’étudier la variation du volume en fonction de la pression. Ces expériences sont très difficiles pour plusieurs raisons : d’une part, l’intensité diffractée dans une expérience de rayons X varie comme le carré du nombre d’électrons ; l’hydrogène n’en a qu’un, donc jusqu’à très récemment il était impossible d’observer les raies de diffraction de l’hydrogène. D’autre part, l’hydrogène diffuse dans la plupart des matériaux. Enfin, au-delà de 35 GPa, les monocristaux d’hydrogène se fragmentent, ce qui diminue l’intensité du signal de plusieurs ordres de grandeur.
Récemment, une équipe franco-américaine [2] a réussi à faire des mesures sur des pressions atteignant 120 GPa grâce à une astuce qui permet d’éviter la fragmentation. Pour cela, on fait pousser un cristal d’hydrogène au centre d’un cristal d’hélium. A haute pression, l’hydrogène et l’hélium ne sont pas miscibles et l’hélium sert de coussin hydrostatique. Cela a permis de mesurer la variation du volume en fonction de la pression : le résultat le plus notable est que l’on observe pas la phase métallique prévue par la théorie.
Actuellement, on pense que 88% de Jupiter est formé d’hydrogène métallique. une première couche de 17 500 km est composée d’hydrogène moléculaire isolant, le reste est de l’hydrogène métallique, excepté le petit noyau central. Malheureusement, le champ magnétique de Jupiter calculé à partir de ce modèle est beaucoup plus faible que celui mesuré par une sonde envoyée il y a quelques années. Le champ magnétique de Jupiter est le plus fort de toutes les planètes et il repousse le vent de particules chargées provenant du Soleil jusqu’à cent fois son rayon (contre dix pour la Terre).
La Terre, elle, s’est formée il y a environ 4,5 milliards d’années, lorsque les objets orbitant autour du Soleil en formation entrèrent en collision et s’agrégèrent. Au fur et à mesure, la gravitation força les éléments les plus lourds à migrer vers le centre de la Terre. Depuis sa surface jusqu’au cœur, elle est formée de couches concentriques de compositions et des propriétés chimiques très différentes. La lithosphère, la couche externe de la croûte terrestre, est constituée de plaques qui se déplacent les unes par rapport aux autres à raison de plusieurs centimètres par an. Les plaques océaniques sont recouvertes d’une croûte de 7 km d’épaisseur. Froides et plus denses que la couche inférieure (le manteau), elles ont tendance à

- Page 6 -
s’enfoncer dans celui-ci à des endroits appelés zones de subduction. Les plaques continentales, plus épaisses, ne sont pas sujettes à ce phénomène. Aux frontières des plaques, il existe des zones volcaniques et des tremblements de terre. Le manteau supérieur est situé entre la lithosphère et le manteau inférieur. Son épaisseur est de l’ordre de 600 km. A 660 km à l’intérieur de la Terre, la température est de l’ordre de 1 900 K et la pression de 23 GPa. Le manteau inférieur s’étend entre 660 et 2 900 km. Il est essentiellement formé d’oxydes de fer et de magnésium ainsi que de silicates. A 2 900 km la température atteint 3 000 K et la pression est de 135 Gpa (voir figure 4). Entre 2 900 et 5 100 km se trouve le cœur extérieur, composé d’un alliage liquide fer-nickel avec 10 % d’impuretés (hydrogène, soufre, carbone, oxygène, silicium ...). Cet alliage liquide est un fluide qui se déplace de 1 km/an et est sujet à des courants électriques: par un effet dynamo, il est responsable du champ magnétique terrestre. En étudiant des roches magnétiques dont on peut mesurer avec précision l’âge, on s’est aperçu que la direction du champ magnétique terrestre avait changé de nombreuses fois depuis la création de la Terre (avec une période de quelques millions d’années). L’interface cœur liquide-manteau inférieur solide joue un rôle particulièrement important à cause des discontinuités des propriétés chimiques et physiques à cet endroit. Entre 5 100 et 6 400 km se trouve le cœur constitué de fer solide. Au centre de la Terre –6 400 km) la pression atteint 360 GPa et la température avoisine 6 000 K [3].
D’où proviennent les information sur cette composition et ces paramètres ? Essentiellement d’une seule technique : l’étude des ondes sismiques. Les ondes élastiques créées par des tremblements de terre traversent la planète avec des vitesses qui varient selon la densité, la pression et le module élastique des matériaux. Les tremblements de terre produisent des ondes longitudinales (compression) et des ondes transverses (cisaillement). Ces derniers ne se propagent pas dans les solides. Des détecteurs installés tout autour de la Terre permettent de mesurer les ondes réfléchies ou diffusées et d’obtenir le modèle actuel.
A quoi peuvent servir les rayons X ? A tester ce modèle : pour cela, on reconstitue en laboratoire les conditions de pression et de température qui règnent dans les différentes

- Page 7 -
couches de la Terre sur les mêmes matériaux. Avec des rayons X, on peut étudier la structure des matériaux et les changements de phase.
Toutefois, on ne peut pas aujourd’hui reproduire en laboratoire les conditions qui règnent au centre de la Terre (6 400 K et 360 GPa). Par contre, on a pu atteindre pour la première fois récemment 304 GPa ([5] et 1 300 K sur un échantillon de fer et étudier la structure hexagonale observée dans ces conditions. Ceci correspond à des conditions assez voisines de l’interface fer liquide-fer solide et permet de tester avec précision des modèles de l’intérieur de la Terre [5].
Détermination de Structures Biologiques
Le but de la biologie moléculaire est de comprendre les processus biologiques à partir des propriétés chimiques et physiques des macromolécules. Nous allons voir que cela nécessite la connaissance de la structure atomique à trois dimensions de ces macromolécules, ce qui n’est pas surprenant puisqu’on sait qu’en changeant la structure d’un semi-conducteur ou d’un métal (en faisant varier par exemple la température ou la pression), on change aussi ses propriétés chimiques et physiques.
Pourtant, il existe une différence fondamentale entre l’inerte et le vivant : la cellule élémentaire du silicium comporte quelques atomes, celle d’un virus plusieurs millions ! Seule la diffraction des rayons X permet de déterminer des structures aussi compliquées, et encore, à condition d’employer du rayonnement synchrotron.
Comme chaque cellule contient des millions de protéines, qui interagissent d’une manière complexe, la compréhension du fonctionnement de la cellule vivante est devenue l’un des défis majeurs de la science moderne.
La détermination de la structure des macromolécules biologiques (protéines, ribosomes, virus...) est facilitée par le fait qu’elles sont formées de séquences de sous- ensembles de petite dimension (quelques atomes) que sont les acides aminés pour les protéines et les nucléotides pour l’ADN.
Les premiers clichés de diffraction X de protéines furent obtenus à Cambridge en 1934 par le physicien anglais J.D. Bernal. Il a fallu attendre plus de vingt ans avant de pouvoir les interpréter et remonter à la structure même de ces protéines. La découverte de la structure de l’ADN en 1953 par Francis Crick et James Watson par ce procédé – et toujours à Cambridge ! – est considérée comme le point de départ de la biologie moléculaire.
Les acides aminés et les protéines
Les acides aminés sont les constituants fondamentaux des protéines : seuls vingt acides aminés sont utilisés par le vivant. Ils ont tous en commun un atome central de carbone Cα auquel est attaché un atome d’hydrogène H, un groupe aminé NH2 (N = azote), un groupe COOH, appelé groupe carboxyle, et enfin une chaîne latérale considérée comme un radical, et appelée R, différente pour chaque acide aminé et spécifiée par le code génétique.
Les acides aminés forment des chaînes grâce à des liaisons peptidiques, dont la formation requiert l’élimination de molécules d’eau : un peptide comporte quelques acides aminés, un polypeptide peut atteindre cent cinquante acides aminés.
Les chaînes sont appelées « structures primaires de protéines ». Au-delà de la structure primaire, les chaînes forment, grâce aux liaisons hydrogène entre certains acides aminés, soit des hélices α soit des feuillets β. La structure d’hélice α fut décrite en 1951 par Linus Pauling qui montra qu’elle devait être un élément de base des protéines. Cela fut vérifié quelques années plus tard par Max Ferdinand Perutz, qui découvrit la structure de l’hémoglobine, et

- Page 8 -
John Cowdery Kendrew en 1958 celle de la myoglobine, ce qui leur valut en 1962 le prix Nobel.
Mais ce n’est pas tout ! La protéine va encore changer de forme. Sous l’effet de paramètres divers dont certains demeurent encore inconnus, les feuillets β et les hélices α peuvent se replier pour former des amas globulaires : c’est la structure ternaire. L’eau joue un rôle très important dans ce repliement : en effet, les chaînes latérales hydrophobes sont tournées vers l’intérieur, créant un cœur hydrophobe et une surface hydrophile. C’est une des caractéristiques des protéines mises en évidence par Kendrew au cours de la détermination de la structure de la myoglobine. Finalement, l’association de plusieurs chaînes polypeptiques par des liaisons faibles about it à la structure quaternaire : celle-ci se compose donc d’un assemblage de structures ternaires [6].
Certaines protéines ne contiennent que des hélices α : c’est le cas par exemple des globines. D’autres sont constituées uniquement de feuillets : les enzymes (qui sont des protéines servant comme catalyseurs), les anticorps ou bien les protéines qui entourent les virus. Toutefois, de nombreuses protéines comprennent aussi bien des hélices que des feuillets.
La myoglobine et l’hémoglobine ont une importance capitale pour l’organisme : elles permettent respectivement le stockage et le transport de l’oxygène dans les muscles et le sang. Les structures des globines furent les premières structures de protéines découvertes grâce aux rayons X.
Les nucléotides et les acides nucléiques
Deux acides nucléiques jouent un rôle fondamental : l’ADN et l’ARN. L’acide désoxyribonucléique (ADN) est le constituant principal des chromosomes et le support de l’hérédité, l’acide ribonucléique (ARN) possède de nombreuses variantes et se définit comme le messager entre les gènes et les sites de synthèse des protéines.
Les acides nucléiques sont formés à partir de quelques nucléotides. Ces derniers sont constitués d’un sucre, d’une base et d’un groupe phosphate. Le sucre est soit un ribose (dans le cas de l’ARN), soit un désoxyribose (pour l’ADN).
Comme nous l’avons vu dans le cas des protéines, il existe aussi des structures primaires, secondaires et ternaires pour les nucléotides.
La structure primaire est une chaîne de nucléotides (polynucléotide). La structure secondaire est la fameuse double hélice de Watson et Crick : elle est formée de deux chaînes polynucléotiques qui s’enroulent autour d’un axe commun. Elles sont unies par des liaisons hydrogène qui existent entre les paires de bases. L’adénine (A) ne se couple qu’avec la thymine (T) par deux liaisons hydrogène ; la guanine (G) se liant avec la cytosine (C) par trois liaisons hydrogène.
C’est la séquence précise des bases dans l’ADN qui détermine l’information génétique : les différents tronçons de cette double hélice forment les gènes.
L’ADN se comporte comme un programme d’informatique qui indique à la cellule ce qu’elle doit faire.
Détermination de la structure des macromolécules
Pourquoi a-t-on besoin de connaître la structure des macromolécules ? Tout simplement parce que l’on sait aujourd’hui qu’il existe une relation entre la fonction biologique d’une macromolécule et la forme qu’elle prend dans un espace à trois dimensions : la connaissance de la structure d’un virus permet la mise au point de médicaments antiviraux : celle de la structure du ribosome est utile à la création de nouveaux antibiotiques, qui

- Page 9 -
servirons à attaquer l’appareil génétique de la bactérie ; enfin, la connaissance de la structure du nucléosome permettra un meilleur contrôle des gènes et une plus grande efficacité du génie génétique.
Pour que cette observation soit possible, deux méthodes sont disponibles. La première est la résonance magnétique nucléaire (RMN) dans le détail de laquelle nous ne pouvons entrer ici. L’avantage de la RMN vient du fait qu’elle donne des résultats en phase liquide (in vivo) : elle ne nécessite pas l’obtention de cristaux. Mais elle ne peut résoudre que des structures ayant un poids moléculaire peu élevé (30 000 daltons1).
La diffraction des rayons X est la seconde méthode, et de loin la plus utilisée. les résolutioins obtenues varient entre 1,5 et 3 Å. Elle présente l’inconvénient de nécessiter des monocristaux. La première question que l’on peut se poser et qui a fait l’objet de nombreuses controverses au début de la cristallographie des protéines est de savoir si les macromolécules conservent leurs fonctions biologiques dans la phase cristalline. La réponse est clairement positive et cela a été démonté en particulier pour les enzymes.
Une des difficultés provient du fait qu’il est très difficile de faire « pousser » des monocristaux de grandes dimensions: de plus, durant les mesures, ils doivent rester en contact avec la solution qui a servi à les faire pousser.
Au début de la cristallographie de molécules biologiques, il fallait plusieurs années pour découvrir la structure d’une protéine. Aujourd’hui, quelques heures ou quelques jours suffisent pour les cas les plus simples.
De nombreuses structures de protéines sont d’abord étudiées avec des tubes à rayons X pour « dégrossir ». Mais pour obtenir des structures à très haute résolution, pour déterminer la structure des ensembles de grandes dimensions tels que le ribosome et les virus, on doit impérativement utiliser le rayonnement synchrotron. En 1996, 70% des structures découvertes l’ont été par rayonnement synchrotron.
La cristallographie des molécules biologiques
Nous avons vu comment se forment les protéines et les virus. Nous allons aborder maintenant plusieurs exemples d’expériences qui ne pouvaient être réalisées il y a quelques années : la première consiste à étudier les modifications de la structure d’une protéine à l’échelle de quelques milliardièmes de seconde pendant une réaction biologique, la seconde est la découverte de la structure d’un virus dont la cellule unitaire contient plusieurs millions d’atomes et les deux dernières concernent des ensembles de grandes dimensions, le nucléosome et le ribosome.
Pourquoi est-il important de réaliser des expériences résolues en un milliardième de seconde ? Parce que les molécules biologiques subissent des changements structuraux extrêmement rapides pendant qu’elles assument leur fonction biologique.
On sait que la myoglobine, une protéine que l’on trouve dans les muscles, emmagasine l’oxygène pour le convertir en énergie. Comme nous l’avons vu plus haut, l’oxygène se fixe sur le fer. Lorsque Kendrew résolut la structure de la myoglobine en 1960, il se posa immédiatement la question de savoir comment la molécule d’oxygène pouvait entrer ou sortir de la myoglobine, étant donné la compacité de sa structure. sa conclusion fut que ladite structure ne pouvait être statique ; dynamique, elle « respire » grâce à des canaux qui s’ouvrent et se ferment pour permettre l’accès à l’hème. Quels sont ces canaux ? Quelle est la vitesse à laquelle la protéine répond à la dissociation de l’oxygène du fer ? On a aujourd’hui un début de réponse.
1 dalton : unité de masse égale au seizième de la masse de l’atome d’oxygène

- Page 10 -
L’expérience a été faite avec un cristal de myoglobine [7] avec du monoxyde de carbone (CO) qui se fixe plus facilement que l’oxygène. A l’instant t=0, on envoie sur le cristal une impulsion très courte d’un laser visible dont la longueur d’onde a été choisie pour casser la liaison entre le monoxyde de carbone et le fer. A un instant t=0, la molécule de CO est liée à l’atome de fer : quatre milliardièmes de seconde plus tard, la molécule de CO s’est éloignée de 4 Å et s’est retournée de 90 degrés [voir figure 5]. Elle reste dans cette configuration pendant 350 ns. Après une microseconde, la molécule de CO a quitté l’hème. On peut observer simultanément le changement de position des hélices et de certains acides aminés.

- Page 11 -
On a donc pu réaliser pour la première fois un film des changements de structure d’une protéine pendant sa fonction biologique. toutefois, pour arriver à observer les mécanismes fondamentaux, il faudrait gagner encore plusieurs ordres de grandeur en résolution temporelle, ce qui n’est pas impossible.
Structure de très gros virus
Chaque virus a sa forme propre, mais tous les virus ont des points communs. Le cœur contient un acide nucléique (ADN ou ARN). Il est entouré et protégé par une enveloppe composée d’une ou plusieurs protéines (capside), généralement identiques. Chez quelques virus, comme celui de la grippe, cet ensemble est lui-même entouré par une enveloppe riche en protéines, lipides et carbohydrates.
En 1998, une équipe d’Oxford [8] a réussi à déterminer à Grenoble la structure du virus de la langue bleue, qui atteint les ovins et n’est pas transmissible à l’homme. Ce virus est composé d’une enveloppe extérieure formée de 260 trimères. Le noyau central a un diamètre de 800 Å (voir figure 6) et un poids moléculaire de 60.106 daltons ! Il comprend 780 protéines d’une sorte et 120 d’une autre. L’information génétique se trouve en son intérieur sous la forme de dix molécules d’ARN comprenant 19 200 paires de bases. C’est la plus grosse structure de virus jamais découverte, mais ce record ne devrait pas tenir très longtemps. L’information structurelle obtenue devrait permettre la mise au point d’un médicament.
Les nucléoprotéines
Il s’agit d’ensemble de très grandes dimensions (plusieurs centaines d’angströms) formés de protéines et d’acides nucléiques et jouent un rôle fondamental dans le corps humain.

- Page 12 -
- le nucléosome : la structure élémentaire de la chromatine, consistant en deux cent paires de bases d’ADN et de deux copies de quatre histoires différentes. La structure a été résolue en 1997 par l’équipe de Richmond (Zürich) [9].
- le ribosome : c’est le composant essentiel du mécanisme de traduction du code génétique c’est-à-dire de la synthèse des protéines autrement dit la « fabrique » de protéines du corps humain.
Trois équipes américaines [10] ont réussi en 1999 à obtenir une structure avec 5 Å de résolution (à NSLS – Brookhaven et ALS – Berkeley). Des études récentes faites à l’ESRF sont proches de 2,5-3 Å.

CONCLUSION
J’ai choisi d’une manière arbitraire deux ou trois exemples pour illustrer les nouvelles possibilités du rayonnement synchrotron. J’aurais pu aussi bien montrer le développement considérable de l’étude du magnétisme, en grande partie dû à la découverte de la magnétorésistance géante [11], des études de surface en particulier en catalyse ou des structures électroniques des supra conducteurs à haute température.
Le rayonnement synchrotron est devenu aujourd’hui un outil indispensable pour l’étude de matériaux [12]. Toutefois il ne faut pas oublier que l’on résout rarement un problème de physique avec une seule technique. C’est donc un outil qu’il faut compter avec d’autres techniques : lorsqu’on étudie une surface la diffraction de surface en rayons X et la microscopie tunel amènent des informations complémentaires.

Références
P. Cloetens et al. Applied Phys. Lett. 75, 2912 (1999)
P. Loubeyre et al. Nature. 383, 702 (1996)
P. Gillet et F. Guyot. Phys. World 9, 27 (1996)
L.S. Dubrovinsky et al. Phys. Rev. Lett. 84, 1720 (2000)
A.M. Dziewonski et D.L. Anderson. Phys. Earth Planet. Inter. 25, 297 (1981)
C.I. Brändén et J. Toozl. Introduction to Protein Structure. Garland Publ. Inc. New
York – London (1991)
V. Srajer et al. Science 274, 1726 (1996)
J.M. Grimes et al. Nature, 395, 470 (1998)
K. Luger et al. Nature 389, 251 (1997)
W.M. Clemons et al. Nature 400, 833 (1999)
N. Ban et al. Nature 400, 841 (1999)
R. Cate et al. Science 285, 2095 (1999)
M.N. Baibich et al. Phys. Rev. Lett. 61, 2472 (1988)
Y. Petroff. Les rayons X (de l’Astrophysique à la Nanophysique). Collection
Dominos. Flammarion (1998).

Légendes
Figure 1 : Faisceau de rayons X émis par un élément d’insertion de l’ESRF (Grenoble). Ce faisceau est rendu visible par le fait que la forte intensité (3 Kw) ionise les molécules de l’air. On peut remarquer la faible divergence.
Figure 2 : Brillance des sources de rayons X, comparée à celle d’une lampe et du Soleil (de 1895 à 2000). La brillance est ce qui caractérise la qualité optique de la source.
- Page 13 -
Depuis le début du siècle elle a considérablement progressé, notamment grâce au rayonnement synchrotron.
Figure 3 : Image d’une mousse de polystyrène obtenue à 18 KeV
a) en absorption classique : la mousse n’est pas visible puisqu’elle n’absorbe pas les rayons X
b) l’image reconstituée en exploitant la cohérence de la lumière. La résolution (1 μm) est limitée par le détecteur.
La différence est saisissante [Ref. 1]
Figure 4 :Coupe de la terre présentant les différentes couches (lithosphère, manteau externe, manteau interne, noyau externe, noyau interne). Les pressions et les températures sont aussi indiquées. Le noyau interne comprend surtout du fer solide alors que le noyau externe est liquide. Les manteaux sont formés essentiellement de silicates [Ref. 3]
Figure 5 : Modification de la structure de la myoglobine pendant une réaction biologique. A l’instant t=0 (à gauche) on casse avec un laser visible la liaison entre le fer et l’oxyde de carbone. L’atome d’oxygène est en vert, celui de carbone en gris, l’hème est rouge.
Quatre nsec (milliardième de seconde) plus tard (au milieu) la molécule de CO s’est déplacée de 4 Å et s’est retournée de 90°. A droite, après un millionième de seconde, la molécule de CO est sortie de l’hème ([Ref. 7]
Figure 6 : Noyau du virus de la langue bleue : le diamètre est de l’ordre de 800 Å [Ref. 8]. C’est encore aujourd’hui la plus grosse structure de virus résolue par rayons X.

 

    VIDEO       CANAL  U         LIEN


 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon