ecole de musique piano
     
menu
 
 
 
 
 
 

LES MATÉRIAUX MAGNÉTIQUES

 

Texte de la 230e conférence de l’Université de tous les savoirs donnée le 17 août 2000.Les matériaux magnétiques : de la boussole à l'électronique de spinpar Michel Piecuch Les matériaux magnétiques sont omniprésents dans notre environnement. Une voiture moderne, par exemple, peut contenir jusqu'à 70 dispositifs différents utilisant ces matériaux comme des moteurs électriques, des actionneurs ou transmetteurs de mouvement, des capteurs... Leur présence cachée au sein d'innombrables objets technologiques reste cependant mystérieuse comme le mot lui même. Nous essayerons, dans la suite, d'éclairer le fonctionnement de ces matériaux et les concepts scientifiques qui les sous tendent. Un peu d'histoire L'histoire des matériaux magnétiques remonte à une époque très ancienne, à peu près contemporaine à la découverte du fer. Les premières mentions de l'existence des aimants écrites par les Grecs, datent d'environ 800 avant Jésus-Christ*, le nom de « magnétés » est rapporté par plusieurs philosophes. L'origine de ce nom est controversée, ma version préférée est celle de William Gilbert, médecin de la reine Élisabeth I qui dit la tenir de Pline, le nom de magnétite viendrait du nom du berger Magnés : « Les clous de ses sandales et le bout ferré de son bâton pastoral se sont collés à une pierre magnétique quand il gardait son troupeau ». Parallèlement aux grecs, les chinois découvrirent également les aimants, mais ils remarquèrent, découverte décisive, la directivité des pierres d'aimants dans le champ magnétique terrestre. Un instrument directif constitué d'une cuillère posée sur un plateau est représenté dans une peinture datant d'environ 50 après Jésus-Christ. Une boussole chinoise classique est constituée d'un poisson en fine tôle de fer porté au rouge puis trempé dans l'eau froide et mis au dessus d'un bol d'eau; il indique le nord magnétique (vers l'an 1000). En Europe, le premier livre sérieux sur le sujet De Magnete fut publié par Pierre Pèlerin de Maricourt en 1269. Il fut celui qui parla le premier de pôle magnétique. La science moderne du magnétisme est plus tardive et date des découvertes de Charles Augustin Coulomb. En utilisant une balance de torsion, il établit la loi de variation de la force magnétique en fonction de la distance (1785). Une expérience très importante fut faite en avril 1820 par le physicien danois Hans Christian Oersted. Il montra qu'un fil parcouru par un courant électrique produit un champ magnétique : « une boussole placée à proximité de ce fil est déviée quand le fil est parcouru par un courant électrique ». Cette découverte est à l'origine de tous les moteurs électriques : l'interaction d'un matériau magnétique avec un courant électrique produit du mouvement. Michael Faraday découvrit, l'année suivante (1821), le phénomène d'induction : un champ magnétique variable placé à proximité d'une spire crée un courant électrique dans cette spire. C'est la découverte du processus qui produit de l'électricité dans les dynamos et les alternateurs. Avec les découvertes d'Oersted et de Faraday s'ouvrait l'ère de la deuxième révolution industrielle, on avait les moyens de produire de l'électricité et on savait l'utiliser pour faire des moteurs. La physique du magnétisme CONCEPTS DE BASE Les deux concepts centraux dans la physique du magnétisme sont les concepts de champ et de moment magnétique. L'objet magnétique le plus simple est un aimant permanent. Cet aimant exerce une force sur un autre aimant ou sur des matériaux magnétiques comme le fer. Si on observe deux aimants en train d'interagir, ils s'attirent ou se repoussent, il y a une action à distance, c'est le champ magnétique produit par l'un des aimants qui interagit avec l'autre aimant. Si l'un des deux aimants est libre, il tourne si il est dans le « mauvais sens », on dit que l'aimant a deux pôles. Deux pôles identiques se repoussent, deux pôles différents s'attirent. Pour préciser cette notion de pôles, on définit le moment magnétique, qui est un vecteur allant du pôle sud au pôle nord. Un aimant possède donc un moment magnétique et ce moment produit un champ magnétique. Le plus simple des circuits électriques est une boucle de courant. Elle est équivalente à un aimant permanent (fig. 1). Le moment magnétique de la boucle est un vecteur perpendiculaire au plan de la boucle et dont l'intensité est donnée par le produit de l'intensité du courant électrique passant dans la boucle par sa surface. Le champ magnétique produit par la boucle est alors donné par les mêmes formules que le champ électrique produit par un dipôle électrique (deux charges de signe contraire). Figure 1 Une boucle de courant (un circuit) et un aimant sont des sources de champ magnétique équivalentes, on les représente par un vecteur, le moment magnétique. La force exercée par un champ magnétique sur un moment magnétique (par un aimant sur un autre aimant par exemple), repose sur un principe très simple : elle est fondée sur la recherche de l'énergie minimum. L'énergie d'interaction entre un champ magnétique et un moment magnétique est donnée par le produit scalaire des deux vecteurs : Où q est l'angle entre les deux vecteurs. Le moment magnétique d'un aimant va donc vouloir s'aligner avec le champ magnétique (pour rendre l'angle plus petit ou le cosinus plus grand), il va tourner, et ensuite l'aimant va aller vers le champ maximum, comme le champ croit quand on s'approche d'un aimant, c'est ce qui explique l'attraction de deux aimants. L'ORIGINE MICROSCOPIQUE La mécanique quantique décrit le mouvement des électrons dans les atomes. Classiquement, on peut imaginer, un électron en train de décrire une orbite autour du noyau de l'atome. Cette charge électrique en train de tourner est équivalente à une boucle de courant et produit donc un champ magnétique, le moment magnétique correspondant est appelé moment magnétique orbital. L'électron a un autre moment magnétique, que l'on peut imaginer comme correspondant au mouvement de rotation propre de l'électron (l'électron comme la terre tourne autour du noyau (le soleil) et sur lui même), mais qui, en fait, ne peut être compris qu'avec la mécanique quantique. Ce moment magnétique est proportionnel à un vecteur décrivant cet état de rotation propre que l'on appelle « le spin ». Une telle description tend à faire croire que tous les atomes portent un moment magnétique (somme des moments orbitaux et de spin de tous les électrons présents dans l'atome). Cependant, le principe de remplissage des différents états électroniques de l'atome, le principe d'exclusion de Pauli (les électrons sont d'incorrigibles individualistes et on ne peut avoir deux électrons dans le même état) et la construction par couches successives font que les moments magnétiques se compensent. Dans une couche complète, par exemple, deux électrons ne peuvent avoir le même état orbital que si leurs spins sont différents c'est à dire opposés (un des électrons tourne dans un sens, l'autre dans l'autre). Malgré tout, pour des couches atomiques incomplètes, il reste un moment magnétique atomique et donc presque tous les atomes portent un moment, l'unité de moment magnétique des atomes est le magnéton de Bohr qui correspond au moment de spin d'un électron indépendant. Quand on construit des molécules, les mécanismes qui régissent les liaisons chimiques sont fondés sur la construction de couches complètes (deux atomes, dont l'un a N électrons de valence (les électrons de sa couche incomplète) et l'autre M, forment une liaison chimique si M+N=8, c'est à dire si le nombre total d'électrons de valence correspond à une couche complète) et donc les molécules ne portent pas de moments magnétiques (dans une couche complète il y a autant d'électrons de spin dans un sens que dans l'autre et autant d'électrons tournent autour du noyau dans un sens que dans l'autre). Ces composés acquièrent cependant un moment sous l'action d'un champ magnétique, ce moment tend à créer une réaction au champ appliqué : il lui est opposé, ces matériaux dit diamagnétiques sont donc repoussés par un champ. Quand les atomes possèdent des couches qui n'interviennent pas ou peu dans la liaison chimique, comme les électrons dit « d » des métaux de transition dont la première série va du scandium au cuivre en passant par le fer, le cobalt et le nickel, ou comme les électrons « f » des terres rares (série qui va du lanthane au lutécium en passant par le gadolinium), les atomes conservent un moment magnétique dans l'état solide. L'état le plus simple de ces solides est l'état paramagnétique où les moments magnétiques des différents atomes sont désordonnés, un paramagnétique a un moment global qui est donc la somme vectorielle de moments désordonnés, ce moment global est nul sous champ nul. Quand on applique un champ, il lui est proportionnel et est dans le même sens que lui. LE COMPORTEMENT COLLECTIF DES MOMENTS MAGNÉTIQUES ATOMIQUES Les moments magnétiques d'atomes différents interagissent entre eux, de façon directe par ce qu'on appelle l'interaction dipolaire (le champ magnétique créé par un moment magnétique interagit avec un autre moment pour l'aligner dans le champ produit), mais aussi et surtout par des effets plus subtils que l'on appelle interaction d'échange, produisant une énergie d'interaction entre les moments magnétiques de deux atomes. Il existe deux types d'interactions : l'interaction ferromagnétique qui favorise la configuration où les deux moments magnétiques sont parallèles et l'interaction antiferromagnétique qui favorise l'état où les deux moments sont antiparallèles. Un matériau ferromagnétique est un matériau où toutes les interactions sont ferromagnétiques. Il a donc un moment permanent macroscopique qui est la somme de tous les moments magnétiques de ses atomes (qui sont tous parallèle). Un matériau antiferromagnétique a ses moments alternativement dans un sens puis dans l'autre, il se comporte globalement comme un paramagnétique puisque son moment global (la somme des moments magnétiques atomiques ou aimantation) est également nul en l'absence de champ appliqué. La théorie du ferromagnétisme fut faite par Pierre Weiss au début de ce siècle, la théorie de l'antiferromagnétisme par Louis Néel en 1932 ( Prix Nobel 1970). Cette description de l'ordre est valable au zéro absolu, si on augmente la température, deux mécanismes sont en compétition, la température, d'une part, tend à favoriser l'agitation thermique et donc le désordre des moments et l'énergie d'interaction, d'autre part, tend à aligner ces moments. Il y a donc, une température dite température de Curie (dans un ferromagnétique) au dessous de laquelle les spins de tous les atomes sont rangés (au dessus de la température de Curie le désordre l'emporte sur l'ordre et le solide devient paramagnétique). LES MATÉRIAUX FERROMAGNETIQUES La plupart des matériaux magnétiques utilisés dans des applications sont ferromagnétiques. Le comportement d'un ferromagnétique sous champ appliqué est décrit par ce qu'on appelle le cycle d'hystérésis (fig. 2). Si on part d'une situation où le corps ferromagnétique a un moment global nul et l'on applique un champ, le moment magnétique mesuré va croître assez rapidement jusqu'à une situation où tous les moments magnétiques atomiques sont alignés avec le champ extérieur, c'est la saturation qui correspond pour du fer métallique, par exemple, à 2,2 magnétons de Bohr par atomes. Ensuite, si on abaisse le champ pour l'annuler, la courbe n'est pas réversible, en champ nul il reste un moment magnétique global ou aimantation rémanente, et il faut appliquer un champ magnétique négatif (le champ coercitif) pour supprimer ce moment. Figure 2 Cycle d'hystérésis. Après saturation, la baisse du champ magnétique appliqué conduit à l'aimantation rémanente MR et il faut appliquer un champ magnétique négatif suffisant, le champ coercitif HC pour annuler à nouveau l'aimantation. Ce cycle d'hystérésis est essentiellement expliqué par la théorie des domaines. Quand Pierre Weiss proposa sa théorie des matériaux ferromagnétiques : l'alignement spontané des moments magnétiques atomiques, une objection lui vint naturellement, pourquoi existe t-il des états de ferromagnétiques où l'aimantation est nulle? Il trouva la réponse, un matériau ferromagnétique dans son état totalement ordonné crée un champ magnétique considérable à l'extérieur mais aussi à l'intérieur de lui même, ce champ dit champ démagnétisant est opposé à l'aimantation et donc son interaction avec les moments magnétiques coûte de l'énergie. Pour minimiser cet effet Pierre Weiss a proposé que, sous champ nul, une substance ferromagnétique soit constituée de nombreux domaines d'aimantations opposées, qui fassent que le champ démagnétisant soit diminué ou supprimé, c'est effectivement ce qu'on observe. On comprend alors la courbe d'hystérésis décrite plus haut : l'échantillon avait au départ une structure en domaines et une aimantation nulle. Le champ magnétique a déplacé les parois de domaines jusqu'à les supprimer pour atteindre la saturation. Quand on abaisse le champ, on peut créer des domaines, mais cela coûte de l'énergie (énergie de paroi) et il reste donc une aimantation rémanente. Les applications LES AIMANTS PERMANENTS OU MATÉRIAUX DURS On classe les matériaux ferromagnétiques suivant la valeur de leurs champs coercitifs, les matériaux dits durs sont les matériaux qui ont un grand champ coercitif, les matériaux doux sont les matériaux qui ont un champ coercitif faible (historiquement, les aciers mécaniquement doux avaient le champ coercitif le plus faible). Les matériaux magnétiques les plus spectaculaires sont les aimants permanents, un aimant permanent est un matériau ferromagnétique à fort champ coercitif, c'est un matériau dur. Il est aimanté à saturation, puis on annule le champ appliqué et comme il a un champ coercitif très élevé, il garde une aimantation forte, les aimants permanents modernes sont des alliages de métaux de terre rare et de fer ou de cobalt. L'utilisation la plus courante de ces aimants permanents est la construction des moteurs électriques. Mais ils sont aussi utilisés dans de multiples capteurs. LES MATÉRIAUX DOUX Les matériaux doux dont le prototype est l'acier au silicium sont utilisés dans les transformateurs. Un transformateur est une boucle d'aimant, un enroulement électrique fait N tours autour de la boucle et aimante le matériau, les variations de flux produites (si le courant est alternatif) sont transmise à travers l'aimant à un autre enroulement de n spires et produisent dans ces spires une force électromotrice, le rapport des tensions est donné par le rapport n/N du nombre de spires. Un électroaimant fonctionne sur le même principe mais avec un seul circuit excitateur et une coupure dans le matériau magnétique l'entrefer où l'on peut utiliser le champ magnétique produit. Les matériaux doux sont aussi utilisés dans les alternateurs et dans de nombreux dispositifs de l'électrotechnique. L'ENREGISTREMENT MAGNÉTIQUE Une autre application courante est l'enregistrement magnétique. Le principe de l'enregistrement magnétique est extrêmement simple, on utilise l'hystérésis des matériaux magnétiques pour stocker des informations, un signal d'entrée aimante le média (disque ou bande) et le média conserve ensuite un moment magnétique proportionnel au signal (dans le cas analogique) ou un moment dans un sens (le 1) ou dans l'autre (le 0) dans le cas digital. Ensuite, en lecture, la tête passe devant le média et détecte des changements de flux en présence ou en absence de moment magnétique. Les médias sont en général des matériaux ferromagnétiques, les bandes magnétiques sont constitués de petits grains de divers matériaux (oxydes de fer, de chrome, fer métal...) dispersés dans une matrice plastique. Les disques durs d'ordinateurs comportent une couche mince de matériau magnétique déposée par les techniques modernes et gravée en pistes. Les recherches actuelles Les recherches actuelles sur les matériaux magnétiques ont été stimulées par une découverte faite à Orsay en 1998. Il s'agit de la magnétorésistance géante. La résistance d'un métal magnétique ordinaire dépend du champ magnétique extérieur appliqué mais cet effet est très faible, aussi le monde du magnétisme fut très surpris par la découverte du groupe d'Albert Fert à Orsay en 1988. Ces chercheurs ont mesuré la résistance sous champ magnétique d'une multicouche fer/chrome (empilement de quelques dizaines de couches identiques de fer et de chrome d'épaisseurs de l'ordre du nanomètre (milliardième de mètre)) et ont trouvé une variation de résistance très importante (plusieurs dizaines de %) sous des champs appliqués relativement modestes. Albert Fert expliqua l'effet observé. Il était bien connu depuis les années 60 que les électrons des deux types de spin dans un métal ferromagnétique ont une résistivité différente, les électrons dont le spin est antiparallèle à l'aimantation conduisent mieux que ceux qui ont un spin parallèle à cette aimantation (ou l'inverse suivant les métaux). Dans les multicouches fer/chrome, deux couches de fer voisines subissent une interaction antiferromagnétique à travers le chrome, leurs moments magnétiques sont donc opposés en champ nul, un champ élevé détruit cet ordre antiferromagnétique en mettant tous les moments parallèles. En champ nul, un électron a donc un spin parallèle à l'aimantation dans une couche et antiparallèle dans la couche adjacente, la résistance est la moyenne de la résistance des deux spins. En champ élevé, un électron a, soit son spin toujours parallèle à l'aimantation et une grande résistance, soit toujours antiparallèle et donc une résistance très faible. C'est cet effet de court circuit pour une partie des électrons qui produit la magnétorésistance géante (un électron très bien portant vaut mieux que deux électrons a moitié malades). Cette découverte encouragea la recherche technologique sur de nouveaux capteurs de champs magnétiques, on utilisa les techniques de gravure et de dépôts qui avaient été développées dans le domaine des semi-conducteurs durant les années 80 pour construire des dispositifs gravés en couches très minces. Les applications de ces capteurs sont multiples (par exemple dans le freinage ABS des voitures) mais ils sont principalement utilisés dans les têtes de lecture des disques durs d'ordinateurs. Une tête magnétoresistive typique est séparée en deux parties, une tête d'écriture qui est une spire génératrice de champ et une tête de lecture qui est magnétoresistive. Depuis l'introduction des têtes magnétoresistives, la capacité des disques durs croit deux fois plus vite, on approche actuellement de 1gigabit/cm2 (un disque standard actuel a une capacité de 2 gigabits mais une surface beaucoup plus grande que 2 cm2). Les premières têtes magnétorésistances, tout en utilisant les techniques de gravure et de films minces, reposaient sur la magnétorésistance classique, la deuxième génération utilise l'effet découvert par Albert Fert. Enfin la troisième reposera sur un nouvel effet, la magnétorésistance tunnel. Au début des années 90 des chercheurs du MIT à Boston ont redécouvert l'effet tunnel polarisé en spin qui avait été mis en évidence dans les années 70 à Rennes par Jullière. Cet effet est depuis lors l'objet d'une compétition acharnée de part et d'autre de l'Atlantique pour préparer les capteurs de demain. La physique de base est extrêmement simple, on élabore un objet où deux couches ferromagnétiques sont séparées par une couche isolante très mince (quelques nanomètres), on trouve un moyen pour que les deux couches magnétiques aient la possibilité d'avoir leurs aimantations parallèles puis antiparallèles, enfin, on mesure le courant transmis à travers l'isolant dans les deux cas. Le courant peut varier énormément entre les deux configurations magnétiques. La possibilité de faire passer du courant à travers un isolant très mince est un effet purement quantique et est dû au caractère ondulatoire des électrons, les électrons passent à travers l'isolant qui devrait les arrêter comme la lumière passe à travers une couche très mince de métal alors qu'elle devrait être totalement réfléchie. L'intérêt par rapport aux couches à magnétorésistance géante est que la résistance du dispositif est relativement grande, ce qui permet de le rendre très petit. L'existence de deux types d'électrons dans un ferromagnétique (ceux de spin parallèle à l'aimantation et ceux de spin antiparallèle) ayant des comportements de transport différent a amené les physiciens du magnétisme à faire l'analogie avec les semi-conducteurs où deux types de charges, les électrons et les trous, produisent des propriétés qui sont à la base de l'électronique moderne. On proposa donc le transistor magnétique : un transistor magnétique typique est constitué de trois couches avec une électrode de commande, la grille, qui contrôle le passage du courant entre les deux autres. Plusieurs applications de ces transistors magnétiques sont envisagées comme les capteurs, les magnétomètres, l'enregistrement, l'électronique proprement dite (remplacement des transistors à semi-conducteurs) mais surtout les mémoires non volatiles. Actuellement, la mémoire centrale d'un ordinateur est une mémoire à semi-conducteur qui nécessite un rafraîchissement constant et surtout qui perd toutes ses informations quand on coupe le courant. Dans le dispositif à mémoire magnétique, l'élément de mémoire individuel est une tricouche comme celle décrite ci dessus et les deux états 0 et 1 sont les états d'aimantation antiparallèle et parallèle, les temps d'accès de ces mémoires sont du même ordre de grandeur que celles à semi-conducteurs mais elles ont l'avantage considérable d'être permanentes, elles ne sont pas effacées quand on coupe le courant. Ces mémoires sont appelées MRAM ( magnetic random access memory). Petite conclusion Les matériaux magnétiques ont constamment accompagné l'histoire du progrès technique depuis le début de l'age du fer. L'utilisation de la boussole a permis l'essor du commerce maritime qui est à l'origine de la première révolution industrielle. Les découvertes d'Oersted et de Faraday au siècle dernier ont permis le développement des moteurs électriques et des alternateurs et ont conduit à la deuxième révolution industrielle. De multiples dispositifs de mémoire magnétique sont utilisés et seront utilisés dans les ordinateurs et les machines d'enregistrement qui permettent la troisième révolution industrielle celle de l'information et de la communication. La recherche actuelle sur les matériaux magnétiques est toujours très féconde et développe de nouvelles voies comme l'électronique de spin qui sera peut être la technique dominante pour les machines intelligentes au début du siècle prochain. 
* Des références historiques plus détaillées peuvent être trouvées dans "Magnétisme", volume 1 Fondements. Sous la direction d'Etienne du Trémolet de Lachaisserie Presses universitaire de Grenoble 1999.

 

VIDEO             CANAL  U               LIEN

 

(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)

 
 
 
 

LES NEUTRINOS

 

Les neutrinos, des particules surprenantes !

par Thierry Lasserre


Qu'est-ce qu'un neutrino ?


Tout comme l'électron, le neutrino est une particule élémentaire, c'est à dire un constituant de la matière qui ne nous apparaît pas aujourd'hui comme composé d'éléments encore plus petits. On le désigne par la lettre grecque n. Dans la nomenclature des physiciens des particules, il appartient à la catégorie des leptons qui comprend aussi l'électron, le muon, et le tau. Les deux derniers sont des cousins de l'électron, mais respectivement 200 fois et 3500 fois plus massifs. Les leptons sont organisés en trois familles associées: électronique, muonique, et tauique. Nous verrons qu'il existe trois types de neutrinos (on parle souvent de trois saveurs). A chaque lepton correspond un anti-lepton, de même masse, mais de charge électrique opposée. Les leptons possèdent un spin[1] ½, ils appartiennent donc à la catégorie plus générale des fermions (du nom d'Enrico Fermi).
Selon le modèle standard de la physique des particules (MSPP), la masse des neutrinos est nulle. Toutefois, nous verrons qu'une série d'expériences a démontré qu'elle est différente de zéro, encore que très petite par rapport à celles des autres leptons (au moins 250 000 fois plus faible). C'est une découverte fondamentale très récente qui va sans doute faire évoluer le MSPP dans les prochaines années.
A l'échelle du noyau atomique, les neutrinos interagissent uniquement par l'intermédiaire de l'interaction faible car ils sont insensibles aux interactions forte et électromagnétique. En effet, ils ne portent ni de charge de couleur, ni de charge électrique. En conséquence, la probabilité d'interaction d'un neutrino avec la matière est extrêmement faible : un neutrino issu d'une désintégration radioactive traverse, en moyenne, une épaisseur de plomb d'une année-lumière (dix mille milliards de kilomètres) avant d'interagir !
Découverte des neutrinos
Au début du XXe siècle, la radioactivité à peine découverte était soigneusement étudiée au sein des laboratoires. Les désintégrations de type b (bêta) étaient déjà identifiées comme responsables de la transmutation d'un noyau atomique en un autre élément voisin dans la classification de Mendeleïev. Lors d'un processus b, le noyau radioactif émet un électron (ou rayon b) et change sa charge électrique d'une unité, en transformant un proton en neutron ou vice versa. Un exemple familier est celui du tritium 3H, l'isotope le plus lourd de l'hydrogène (1 proton et 2 neutrons), qui se désintègre en hélium 3He (2 protons et 1 neutron) et émet un électron.
Les expérimentateurs de l'époque entreprirent de mesurer précisément l'énergie de l'électron émis, afin de mieux comprendre la structure des noyaux atomiques. D'après les lois de conservation de l'énergie et de l'impulsion[2], ils savaient prédire le partage d'énergie qui devait s'opérer uniquement entre l'électron et le noyau de recul. L'électron devait en principe toujours emporter la même quantité d'énergie. A la grande stupéfaction de tous, James Chadwick montra en 1914 que tel n'est pas le cas : les électrons ont un spectre continu en énergie, entre zéro et l'énergie attendue dans le cas d'une réaction à deux corps ! Cela pouvait signifier qu'une partie de l'énergie s'évanouissait dans les processus b ...
En 1930 le physicien Wolfgang Pauli se risqua à sauver la loi sacro-sainte de la conservation de l'énergie en proposant, selon ses propres termes, « un remède désespéré ». Il invoqua l'existence d'une nouvelle particule partageant l'énergie du processus b avec l'électron et le noyau. Afin de s'ajuster aux données expérimentales, cette nouvelle particule devait être électriquement neutre, de spin demi entier, et de masse inférieure à celle de l'électron. Cette particule, fut nommée plus tard neutrino, littéralement « petit neutre », par Fermi. Une fois créé, le neutrino s'échappait de la zone de détection à une vitesse très proche de celle de la lumière, et laissait croire, si on l'ignorait dans le bilan de la réaction, que la loi de conservation de l'énergie était violée. Peu de temps après, le génial Fermi formula une théorie mathématique des désintégrations b qui rendait parfaitement compte de tous les résultats expérimentaux. Il introduisit la notion de force faible (en comparaison à la force électromagnétique) qui transforme un proton en un neutron, en créant simultanément un électron et un anti-neutrino. Aussitôt, Hans Bethe et Rudolf Peierls suggérèrent une réaction permise par la théorie de Fermi pour détecter indirectement l'insaisissable : la capture d'un neutrino (ou anti-neutrino) par un noyau et l'émission simultanée d'un électron (ou anti-électron). Malheureusement la petitesse de la force faible semblait réduire leurs espoirs à néant ...
En 1951, les physiciens de Los Alamos Fred Reines et Clyde Cowan, qui travaillaient alors sur les essais nucléaires américains, songèrent utiliser la bouffée considérable de neutrinos électroniques émise dans la furie d'une explosion atomique[3] afin de détecter une poignée de neutrinos. La réaction la plus prometteuse était la désintégration b inverse, anti-ne + p à e+ + n, ou p est le noyau d'hydrogène (proton), e+ l'anti-électron (ou positron), et n le neutron ( figure 1). Ils usèrent de la technique des liquides scintillants, découverts quelques années auparavant. De tels liquides aromatiques servent à la fois de cible puisqu'ils contiennent énormément de protons et de milieu de détection car ils permettent de « matérialiser » les traces que laissent le positron et le neutron[4]. En effet, un bref flash de lumière visible (quelques nanosecondes) est émis chaque fois qu'une particule chargée ou un rayon gamma traverse le milieu. Cette lumière, dont l'intensité est proportionnelle à l'énergie des particules incidentes, est ensuite collectée par des capteurs ultrasensibles aux photons visibles, appelés tubes photomultiplicateurs (TPM). Les flashs lumineux sont alors convertis en signaux électriques et enregistrés pour l'analyse.
Après de longues réflexions, la faisabilité d'une telle expérience, à 20 mètres d'une explosion atomique, était en question, et les deux confrères se tournèrent vers une autre source de neutrinos plus facile à apprivoiser. Les réacteurs nucléaires fonctionnent sur le principe de la fission d'un mélange judicieux de noyaux dits fissiles, principalement l'uranium 235 et le plutonium 239. Baignés par un flux de neutrons dans le cœur d'un réacteur, ces noyaux se scindent en deux morceaux (ils fissionnent) tout en libérant de l'énergie, et quelques neutrons qui entretiennent la réaction ( Figure 12). L'inconvénient de la fission est que presque tous les fragments émis et les autres produits de réaction sont radioactifs, et se désintègrent jusqu'à atteindre une configuration stable[5]. Or, chaque désintégration radioactive b engendre un neutrino électronique (ou un anti-neutrino).
Les réacteurs sont ainsi des sources copieuses, cependant mille fois moins intense qu'une explosion nucléaire de 20 kilotonnes (à l'époque). En 1956, après plusieurs années d'efforts, Reines et Cowan installèrent un détecteur de 4 200 litres de liquide scintillant, et d'eau contenant une faible quantité de cadmium pour favoriser la détection des neutrons ( Figure 2), près du réacteur nucléaire de Savannah River, en Caroline du sud. Après quelques mois de prise de données ils identifièrent les interactions des anti-neutrinos électroniques. Le signal était 5 fois plus faible quand le réacteur était à l'arrêt pour maintenance. Après tous les tests de rigueur, la découverte fut annoncée par télégramme à Pauli en juin 1956. Reines obtint le prix Nobel de physique en 1995 (Cowan étant malheureusement décédé en 1974). Notons qu'au cours de cette expérience, Reines et Cowan mesurèrent aussi la probabilité d'interaction des neutrinos, grandeur couramment appelée section efficace, en conformité avec la prédiction de la théorie de Fermi.
Figure 1
Principe de détection des anti-ne dans l'expérience de Reines et Cowan. Un anti-ne interagit sur un noyau d'hydrogène de l'eau. Il y a production instantanée d'un positron et d'un neutron. Le positron s'annihile avec un électron du milieu, et deux photons gammas sont émis ; ces derniers sont détectés par leurs interactions dans le scintillateur liquide. Le neutron commence par ralentir par collisions, puis il est capturé par un noyau de Cadmium ; cette capture est suivie par l'émission de photons gammas qui sont détectés dans le scintillateur liquide.
Trois neutrinos
Dès les années 50 on savait qu'un muon se désintègre en un électron et deux neutrinos : m+ à e+ + n + n. On en suspectait qu'un neutrino était associé à l'électron (celui de Reines et Cowan) et l'autre au muon. En 1963, Léon Lederman, Mel Schwartz, et Jack Steinberger, réalisèrent une expérience ingénieuse à Brookhaven (Etats-Unis) pour déterminer si ces deux neutrinos sont identiques ou distincts.
Figure 2
Principe de l'expérience de mise en évidence du neutrino muoniques.
Ils utilisèrent un accélérateur de protons de 30 GeV[6] comme source de neutrinos. Un faisceau de protons dirigé sur une cible de béryllium produit une myriade de pions[7] par l'intermédiaire de l'interaction forte. Les pions chargés se désintègrent en muons et en neutrinos par interaction faible. Les muons se désintègrent à leur tour comme expliqué ci-dessus. Derrière une zone de désintégration, les expérimentateurs ajoutent un écran de terre ou de métal d'une dizaine de mètres d'épaisseur pour éliminer les particules indésirables. Grâce à leur formidable pouvoir de pénétration seuls les neutrinos jaillissent en sortie. L'expérience était agencée de telle sorte que la majorité de neutrinos arrivant en zone de détection provenait de la désintégration des pions. Le détecteur (une chambre à étincelles), placé à quelques dizaines de mètres, était adapté pour discriminer un électron d'un muon. En effet, un muon se matérialise par une longue trace continue, alors qu'un électron, deux cent fois plus léger, dessine une trajectoire plus erratique. L'expérience mit en évidence beaucoup plus des traces de type muonique que de traces de type électronique. Le neutrino produit lors de la désintégration d'un pion (positif) ne peut se transformer qu'en muon, mais pas en électron : p+ à m+ + nm. Si le neutrino électronique était identique au neutrino muonique on aurait découvert presque autant de traces de chaque saveur. Il existe donc un neutrino spécifiquement associé au muon, noté nm. Lederman, Schwartz, et Steinberger furent gratifiés du prix Nobel de physique en 1988 pour cette découverte.
Ce résultat permit non seulement de mettre en évidence une deuxième saveur de neutrino, mais en plus de démontrer l'existence de deux familles bien distinctes de leptons. Dans le MSPP il est d'usage d'associer un nombre quantique spécifique à chaque famille, appelé nombre leptonique électronique, muonique, ou tauique. Nous verrons par la suite que ce nombre leptonique, introduit de façon ad hoc dans le MSPP, n'est en fait pas toujours conservé.
Trois familles seulement existent dans le modèle standard, sans que l'on sache pourquoi. Le tableau serait donc incomplet si je ne mentionnais pas le neutrino tauique, noté nt, qui fut observé directement seulement en l'an 2000.
Les neutrinos dans le modèle standard
Au sein du MSPP, on regroupe les leptons selon les couples (e, ne), (m, nm), et (t, nt), qui définissent le secteur des leptons. Dans cet exposé, je passerai volontairement sous silence les subtilités relatives au spin et à la projection du spin du neutrino le long de sa trajectoire (même si celles-ci jouent un rôle capital dans l'interaction faible). Les interactions entre particules sont maintenant bien comprises, et dans le MSPP deux fermions interagissent en échangeant un boson[8]. L'interaction faible se modélise par les échanges d'un trio de bosons W+, W-, Z0. Contrairement au photon de masse nulle, ces trois bosons sont entre 80 et 100 fois plus lourds que le proton ! C'est ce qui explique la très faible portée de l'interaction faible.
Prenons maintenant l'exemple concret de la désintégration bêta ( Figure 3). La réaction n à p + e- + anti-ne est en fait la transformation d'un quark de type « down » ( d) du neutron en un quark de type « up » ( u) et un boson W-, qui se désintègre à son tour en une paire (e-, anti-ne). Le neutron composé de trois quarks ( u,d,d) devient le trio de quarks ( u,u,d), qui n'est autre qu'un proton. Les interactions qui font intervenir les W sont appelées « courant chargés », car ils transforment le neutrino en son lepton associé (ou inversement) en modifiant la charge électrique d'une unité. Les interactions impliquant le boson Z0 sont désignées « courants neutres » car elles laissent inchangés les deux fermions qui interagissent. Ces dernières sont plus subtiles et elles ont seulement été découvertes en 1973, au CERN, en utilisant un faisceau de neutrinos muoniques et une chambre à bulles en guise de détecteur. Enfin, en 1989, l'étude de la durée de vie du Z0 au collisionneur électron-positron du CERN (le LEP) a montré qu'il n'y a que trois saveurs de neutrinos légers se couplant avec la matière.
Figure 3
Désintégration b (de type -) du Brome 80 en Krypton 80, dans le cadre de la théorie de Fermi (à gauche), et la même réaction dans le cadre du MSPP (à droite). Dans les deux cas la réaction fondamentale est la conversion d'un quark (d) en un quark (u) avec émission d'un électron et d'un anti-ne.
Les sources de neutrinos
Fort heureusement pour les physiciens des particules, les sources de neutrinos sont diverses et variées. On distingue les sources naturelles et les sources artificielles. Il est tout aussi important d'identifier la saveur des neutrinos qui naissent de ces fontaines de particules, et de comprendre les mécanismes de production. J'ai déjà évoqué les explosions de bombes à fission et les réacteurs nucléaires qui émettent des anti-ne. Les accélérateurs de particules actuels permettent essentiellement de produire des nm ou anti-nm. Le corps humain contient 20 milligrammes de l'isotope 40 du potassium (émetteur b) : chaque jour, 400 millions de neutrinos s'échappent de nos os à une vitesse proche de celle de la lumière ! L'atmosphère est le siège de réactions produisant nm et ne et leurs antiparticules. Le soleil émet uniquement des ne. Certaines explosions d'étoiles (supernovae de type II) produisent une quantité astronomique de neutrinos des trois saveurs et de leurs antiparticules. Les noyaux actifs de galaxie où siègent de gigantesques trous noirs en font probablement de même. Enfin, un rayonnement fossile de neutrinos et d'anti-neutrinos des trois saveurs baigne l'univers depuis les premières secondes qui suivirent le Big-Bang.
Voyons maintenant comment certaines de ces sources sont exploitées pour percer les mystères de ces surprenants neutrinos.
Les neutrinos solaires : la fin d'une énigme
Le Soleil, plus massif et plus brillant que la majorité des étoiles, est au milieu de son cycle de vie. Il puise son énergie de la réaction de fusion de deux protons conduisant à la conversion de l'hydrogène en hélium en son cœur, en émettant deux ne: 4p + 2e- à 4He + 2ne + 27 MeV. Il est ainsi le siège d'un cycle compliqué de réactions, dont certaines produisent des ne ( Figure 4). Les principaux sont les neutrinos dits primordiaux de faible énergie, encore dénommés neutrinos « pp » (ne(pp), E

 

VIDEO          CANAL  U              LIEN


(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)

 
 
 
 

NANOSCIENCES

 

AU COEUR DES NANOSCIENCES


Des produits de plus en plus petits, plus légers, moins chers, des progrès dans les domaines des télécommunications, de la santé, de l'environnement : les nanosciences et les nanotechnologies sont au coeur de cette évolution (on parle même de « révolution »). A l'Institut des Nanosciences de Paris, des physiciens, des acousticiens, des opticiens, des chimistes unissent leurs efforts pour mettre en évidence et comprendre les propriétés nouvelles qui surgissent dans les matériaux lorsqu'ils sont confinés, jusqu'à l'échelle du nanomètre. Pour fabriquer, manipuler, observer et caractériser ces objets, les chercheurs développent des méthodes et des instruments toujours plus performants. Ils peuvent ainsi étudier les processus électroniques, les phénomènes de propagation acoustique ou optique et s'intéresser aux interfaces entre ces petits objets et leur environnement. Porteuses d'espoir pour les uns, de crainte pour les autres, les recherches dans le domaine des nanosciences suscitent des questionnements et nécessitent une réflexion éthique sur les évolutions futures et leur impact social.

Générique
réalisateur: Hervé Colombani images: Samia Serri, Jean-Paul Flourat montage: Micaëla Perez musique: Vincent Bühler mixage: Pierre Guignot producteur délégué: Michèle Brédimas producteur exécutif: Samia Serri Studio vidéo Université Paris 7 Denis Diderot

 

VIDEO              CANAL  U              LIEN


(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)

 
 
 
 

NANOSCIENCES

 

LES ARCHITECTES DE L'INVISIBLE


Biopuces et nano-robots mis au point par les architectes de l'invisible

Générique
Issaad RAMDANE 2001 Point du jour /DPA / cité des sciences et de l'industrie

 

VIDEO                CANAL  U              LIEN


(si la video n'est pas accéssible,tapez le titre dans le moteur de recherche de CANAL U.)

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon