ecole de musique piano
     
menu
 
 
 
 
 
 

Le Cern annonce avoir obtenu les signes d'une désintégration d'un boson de Higgs en deux muons

 

 

 

 

 

 

 

Le Cern annonce avoir obtenu les signes d'une désintégration d'un boson de Higgs en deux muons

Par Marine Benoit le 05.08.2020 à 19h00


Le Cern, par le biais de deux expériences, a annoncé de nouveaux résultats jamais obtenus jusqu'alors au Grand collisionneur de hadrons. Ces derniers mettent en évidence la désintégration du boson de Higgs en deux muons, un phénomène extrêmement rare.

La désintégration d'un boson de Higgs en muons a une chance de 1 sur 5.000 de se produire.

CERN/ATLAS-CMS
C’est une première au Grand collisionneur de hadrons (LHC, pour Large Hadron Collider) du Cern, plus grand et plus puissant accélérateur de particules au monde. Les expériences ATLAS et CMS — deux des cinq expériences que comprend le LHC, ont obtenu des indices inédits d’une désintégration du boson de Higgs en deux muons. Ces résultats ont été officiellement annoncés lundi 3 août 2020 lors de la 40e Conférence internationale de la physique des hautes énergies, qui se tient actuellement (et virtuellement) à Prague jusqu’au 6 août.

Les muons sont des particules élémentaires issues des rayons cosmiques les plus couramment observés sur Terre. Particulièrement abondants, on estime que toutes les secondes, plus de 100 muons nous traversent. Ils sont par exemple utilisés par les physiciens pour remplacer artificiellement les électrons qui créent les liaisons chimiques entre les atomes et assurent la cohésion de la matière. Les muons sont en réalité en tous points semblables aux électrons, à la différence qu’ils sont 200 fois plus lourds que ces derniers. Cet écart de masse les place dans la catégorie des particules élémentaires dites de deuxième génération (aux côtés des quarks charm et strange par exemple), quand les électrons, à la masse négligeable, appartiennent à la première génération — celle où se classent toutes les particules de la matière que l’on connaît. Il existe aussi des particules de troisième génération, à l’instar des leptons tau ou des quarks top, plus lourds encore que les particules de deuxième génération.

Interaction proportionnelle à la masse
Cette histoire de générations, et donc de masse, est cruciale pour comprendre toute l’importance de l’annonce du Cern. C’est en effet la toute première fois que l’on récolte des indices laissant à penser qu’un boson de Higgs a atteint un état final fait de deux particules élémentaires de deuxième génération. Jusqu’à présent, seules des désintégrations en des particules de troisième génération, beaucoup plus lourdes, avaient été observées (en deux quarks top ou bottom, en deux leptons tau…). "La désintégration d’un boson de Higgs donnait jusqu’ici toujours naissance à des particules de troisième génération", explique à Sciences et Avenir Stephane Willocq, physicien sur l’expérience Atlas et qui en deviendra le coordinateur en octobre prochain. "La désintégration en deux muons est un phénomène physique rare puisque selon nos prédictions, un seul boson de Higgs sur 5.000 environ suit ce processus."

RAPPEL. Qu’est-ce que le boson de Higgs ? Surnommée la "particule de Dieu", le boson de Higgs est considéré par les physiciens comme la clef de voûte de la structure fondamentale de la matière. C'est lui qui, quelques fractions de secondes après le Big Bang, a donné leur masse à toutes les autres particules de l'Univers. Retrouvez notre question de la semaine sur le sujet pour en savoir plus.
De tels indices vont donc dans le sens des prédictions du modèle standard de la physique : le boson de Higgs interagirait bien en fonction de la masse de la particules. "En partant de ce principe, nous nous attendions à une désintégration beaucoup plus rare en muons, ce qui semble être précisément le cas", poursuit Stephane Willocq. Il pourrait donc s’agir d’une importante confirmation de la nature de l’interaction entre le boson de Higgs et les particules élémentaires. Une interaction proportionnelle à la masse.

Une première étape
Il est toutefois important de préciser ici qu’il ne s’agit pas encore d’une "observation" à proprement parler, mais bien de la récolte de données statistiques allant dans le sens d’une désintégration d’un boson de Higgs en deux muons. Il faudra à ATLAS et CMS atteindre la sensibilité de 5 sigmas pour établir définitivement cette découverte. Pour le moment, la signification statistique de CMS s’élève à 3 sigmas. Autrement dit, les chances qu’il ne s’agisse que d’une simple fluctuation statistique et non de la désintégration du boson sont inférieures à 1/700. ATLAS, lui, a obtenu un niveau de 2 sigmas, ce qui correspond à une probabilité de 1/40. "Bien sûr, en combinant ces deux résultats, la probabilité de la fluctuation statistique est encore basse. Mais il reste encore une toute petite place à l’erreur, et nous devons atteindre forcément l’indice de confiance pour l’écarter", termine le scientifique.
Roberto Salerno, physicien CNRS à l’École polytechnique en charge de la coordination des manipulations sur CMS, fait une analogie pour mieux comprendre l’importance d’accumuler plus de données : "Si seulement une personne sur 5.000 porte des chaussures rouges, il faudra, pour pouvoir en observer 10, disposer d’un groupe d’au moins 50.000 personnes. Prouver que ce n’est rien d’autre que le boson de Higgs se désintégrant en deux muons, tout en le distinguant du bruit du fond, est un travail fastidieux de sélection des bons événements. Pour y parvenir, il faut  générer beaucoup, beaucoup de collisions."
Lors du fameux "Run III", prochaine phase d’exploitation du LHC qui devrait débuter en 2022, les chercheurs seront en mesure de doubler ou tripler cette quantité de données. Les Runs 4 et 5 débuteront, eux, vers 2027, et permettront de générer 10 fois plus de données. "Nous allons commencer à accumuler des données en 2022, et ce pendant trois années qui, on l’espère, seront suffisantes pour établir l’observation à un niveau statistique irréfutable", précise Roberto Salerno.

L'espoir d'une faille dans le modèle standard
Aujourd'hui, si la matière a une masse, c'est bien parce que les particules qui la composent ont interagi dans un passé lointain avec le boson de Higgs. Ce passé lointain correspond au moment où l'Univers était âgé de 10-10 secondes, lorsque la température frôlait les 1015 degrés. Avant cet instant précis, les particules n'avaient pas de masse. L'une des grandes interrogations de ce siècle est donc la suivante : pourquoi certaines particules ont plus interagi que d'autres avec le boson ? Pourquoi diable ont-elles acquis des masses différentes ? "C'est un problème vraiment très profond que l'on aimerait résoudre. Nous espérons trouver un jour la réponse au moyen d'autres théories au-delà du modèle standard. C’est justement l'une des raisons pour lesquelles nous faisons ce type d’expérience : nous souhaitons plus que tout trouver des failles dans le modèle standard", confie Stephane Willocq.

Il n'est pas non plus exclu qu'une connexion entre le boson de Higgs et la fameuse matière noire existe. "Nous avons l’espoir que le boson soit une nouvelle particule tout à fait spéciale, sans équivalent, au rôle unique. Nous espérons apprendre encore beaucoup de cette fascinante particule sans spin."

 

   DOCUMENT   sciences et avenir.fr    LIEN 

 
 
 
 

Le boson de Higgs se désintègre bien en quarks b, conformément à la théorie

 

 

 

 

 

 

 

Le boson de Higgs se désintègre bien en quarks b, conformément à la théorie

Par Azar Khalatbari le 03.09.2018 à 20h00

Prévu par la théorie, un mode de désintégration du boson de Higgs vient enfin d'être observé par les détecteurs CMS et Atlas.

Ce mode de désintégration du boson de Higgs n'avait jamais encore été observé

CMS ATLAS /CERN
C’est lui, c’est bien lui ! C’est bien le boson de Higgs, particule qui explique la masse de toutes les autres appartenant au "modèle standard" de la physique, qui a été découvert en 2012 par le Cern, ce qui avait valu le prix Nobel de physique à Peter Higgs et  François Englert (2013), les premiers à l'avoir décrit. S’il fallait encore une nouvelle preuve, la voici : le boson de Higgs se désintègre bien, comme prévu statistiquement par les théoriciens dans 60% des cas, en quark bottom - dit  quark b -, une autre particule élémentaire.  Ce sont les deux expériences Atlas et CMS, montées sur le LHC (le grand collisionneur de hadrons) du Cern, qui viennent de faire l'observation de ce mode de désintégration.

En effet, le 28 août dernier, six ans après la découverte du fameux boson au cours d’un séminaire interne au Cern, les deux expériences - qui avaient déjà permis la découverte du fameux boson, ont annoncé avoir repéré deux quarks b au sein du détecteur ainsi qu'ils l'ont publié dans le magazine Science News.  

Le produit de désintégration
Une observation très difficile à effectuer car d'autres désintégrations des particules créées au sein du LHC sont aussi susceptibles de produire des quark b. Il fallait donc que les chercheurs trouvent un moyen de distinguer ceux émis spécifiquement lors de la désintégration du Higgs. Or, comme souvent dans ce domaine, les particules ne sont pas observées directement, leur durée de vie n’étant que de quelques fractions de seconde, mais uniquement en procédant à un bilan des énergies de chacune d'entre elle. Et c'est ainsi que les chercheurs ont pu conclure qu’un boson de Higgs était bien passé dans le détecteur. Et qu'il s'était désintégré en quark b, conformément à la théorie qui avait prédit que ce mode de désintégration survenait dans 60% des cas.
Lors de sa découverte en 2012, le Higgs avait été repéré grâce à un autre mode de désintégration, en deux photons. Un cas de figure statistiquement plus rare, mais plus « facile » à observer.

 

   DOCUMENT   sciences et avenir.fr    LIEN 

 
 
 
 

Le calcul et l'ordinateur quantiques

 


 

 

 

 

 

Le calcul et l'ordinateur quantiques

Publié le 18 mai 2021

Si l'on ne dispose pas encore d’une véritable technologie d’ordinateur quantique, qui permettrait d'exploiter toute la puissance du calcul quantique, de nombreuses routes sont néanmoins explorées aujourd’hui. Toutes font encore face à des difficultés sans solution viable. Mais l’histoire du domaine a montré que des verrous considérés comme infranchissables finissaient par être levés. C’est pourquoi la recherche mondiale est plus active que jamais et les annonces publiques se multiplient, dans le cadre de ce qui est appelé aujourd’hui la "deuxième révolution quantique".

Le calcul quantique ambitionne d'utiliser les propriétés quantiques ultimes de la matière (la superposition, l'intrication et la non-localité) pour effectuer massivement des opérations sur des données grâce à l'ordinateur quantique. Il permettrait de ce fait de dépasser très largement les capacités offertes par les ordinateurs classiques.

LES QUBITS, AU COEUR DU CALCUL QUANTIQUE
Le calcul quantique s’appuie sur des qubits, pendants quantiques des bits classiques. D’un point de vue physique, les qubits sont des systèmes matériels pouvant être mis dans deux états quantiques distincts. Conformément aux lois de la physique quantique, le qubit peut être placé dans un ensemble continu de superpositions de ses deux états de base, contrairement au bit classique qui ne peut prendre que deux valeurs (0 ou 1).
Comme les bits classiques, les qubits peuvent être utilisés pour encoder une information et soumis à des portes quantiques (équivalents des portes logiques). 

QU'EST-CE QU'UN BIT QUANTIQUE ?
Dans un ordinateur classique, l’information est stockée dans un ensemble (registre) de cases mémoires, les bits, dont la valeur est soit 0, soit 1. Un bit quantique (qubit) a, quant à lui, deux états quantiques |0> et |1>, séparés par une différence d’énergie définissant sa fréquence (fQB), et peut être à la fois dans ces deux états. Au cours d’un algorithme (succession d'opérations dites « portes logiques »), le registre de qubits se trouve dans une superposition quantique de tous ses états possibles (|00...0>, |10...0>, |11...1>, |10...1>), permettant un calcul massivement parallèle.


Le fonctionnement d'un ordinateur quantique
    
Atouts et difficultés de la recherche sur le calcul quantique
La promesse d’un parallélisme massif
Grâce à ses propriétés quantiques (superposition et intrication), un registre de N qubits se trouve à un instant donné dans une superposition de ses 2N configurations de base. Un registre de N bits ne peut, lui, se trouver que dans une seule d’entre elles à la fois.

Toute opération appliquée à un registre de N qubits s'effectuerait donc en parallèle sur les 2N états, là où un ordinateur classique doit traiter l’opération de façon séquentielle. Ce parallélisme massif ouvre des horizons extrêmement prometteurs, laissant espérer une résolution beaucoup plus rapide de certains problèmes ou l’identification d’une solution à des problèmes aujourd’hui insolubles.


L'INTRICATION QUANTIQUE
L’intrication quantique est un phénomène dans lequel deux particules (ou groupes de particules) forment un système unique, et présentent des états quantiques dépendant l'un de l'autre quelle que soit la distance qui les sépare.


Décohérence et correction d’erreurs
De très nombreux obstacles physiques et technologiques se dressent toutefois sur la route du calcul quantique, à commencer par la fragilité de l’état de superposition qui lui est nécessaire. Toute interaction, aussi minime soit-elle, avec l’extérieur (que ce soit par le biais d’interactions environnementales ou de mesures effectuées sur le système) a pour effet de détruire la superposition quantique : c’est la décohérence. La difficulté s’aggrave à mesure que le nombre de qubits intriqués augmente : le temps de cohérence d’un état intriqué de N qubits est en effet environ N fois plus court que celui d’un seul qubit.

Or, les interactions avec l’environnement ne peuvent par ailleurs être réduites à zéro, car elles sont nécessaires pour appliquer des opérations logiques sur les qubits et en effectuer la lecture. En pratique, il faut donc corriger les erreurs.

L'histoire de l'ordinateur quantique
Au début des années 1980, le Nobel de physique Richard Feynman est le premier à pressentir les possibilités faramineuses d’un ordinateur capable de tirer parti des lois quantiques.
Dès les années 1990, plusieurs théoriciens démontrent que certains calculs verraient leur résolution accélérée dans des proportions inouïes s’il était possible de les implémenter sur des bits quantiques, aussi appelés qubits, plutôt que sur des bits classiques. À condition, bien sûr, de disposer d’un processeur quantique pour les utiliser, processeur dont personne ne sait à l’époque à quoi il pourrait ressembler.


Molécules en phase liquide, ions piégés par des faisceaux laser, impureté dans les solides… les idées commencent à fuser dans les laboratoires de physique pour définir ce qui pourrait devenir les briques de base d’un futur ordinateur quantique, à l’instar des transistors de la microélectronique classique.
    

QUELS SONT LES ENJEUX DE LA RECHERCHE SUR LE CALCUL ET L'ORDINATEUR QUANTIQUES ?

Au XXe siècle, la mise au jour de la physique quantique a révolutionné notre conception du monde mais aussi notre mode de vie avec ses applications : lasers, transistors, circuits intégrés.
Une deuxième révolution quantique advient à l’aube du XXIe siècle. Elle regroupe des recherches visant à concevoir et à réaliser des dispositifs de rupture qui exploitent les phénomènes physiques de la superposition et de l’intrication quantique. C’est un domaine en pleine expansion avec de très forts enjeux scientifiques et technologiques. En particulier, la réalisation d’un ordinateur quantique, dont le calcul est intrinsèquement parallèle et permet de traiter en un temps très réduit de grandes quantités d’information, avec des performances inaccessibles au calcul classique, permettrait des approches révolutionnaires pour résoudre certaines classes de problèmes. Parmi les applications possibles :


*         La chimie : simuler, in silico, de manière exacte, la structure et le fonctionnement de grosses molécules d’intérêt pour la pharmacologie ou pour l’agronomie. Avec les plus puissants ordinateurs actuels, il est possible de simuler des petites molécules mais il est souvent nécessaire de recourir à de fortes approximations dès que la taille du système étudié augmente.
*         Le Data Mining : Accélérer la recherche d’une information spécifique dans une vaste base de données.
*         L’optimisation de procédés de l’industrie 4.0 : trouver une solution optimale dans un système complexe multiparamétrique, comme par exemple la tournée la plus rapide d’un camion de livraison ou ajuster l’offre à la demande sur un réseau électrique très décentralisé.

*         L’intelligence artificielle : au cours de la phase d’apprentissage d’un système d’IA, telle qu’une reconnaissance d’images, les informations pourraient être simultanément reconnues et non de façon séquentielle comme c’est le cas avec des processeurs classiques (examiner une situation, puis une autre, etc.).
*        
OÙ EN EST LA RECHERCHE DANS LE DOMAINE DU CALCUL QUANTIQUE ?

La recherche fondamentale dans le domaine de l'information quantique a connu un essor important cette dernière décennie. Les enjeux dans ce domaine et la rupture technologique que présenterait un ordinateur quantique ont incité de grandes entreprises à investir d'importants moyens, en s'associant à des communautés scientifiques, ou en créant leurs propres laboratoires de recherche.
L'association de Google avec l'Université de Californie de Santa Barbara ou la collaboration annoncée sur dix ans du groupe lntel avec l'université technologique de Delft illustrent l'engouement pour cette thématique de recherche et la nécessité de construire un véritable partenariat public-privé sur le long terme. Atos-Bull, leader européen du calcul intensif, s'est aussi positionné activement sur la feuille de route de l'ordinateur quantique en réalisant un émulateur d'ordinateur quantique intégrant finement mémoire et calcul dans un serveur classique optimisé, et en créant une équipe spécialisée en logiciel adapté au quantique.


4 pistes de qubits en compétition dans le monde

Actuellement, 4 types de qubits sont à l’étude dans le monde : le qubit supraconducteur, le qubit silicium, le qubit à ions piégés et le qubit photonique.
*         Le qubit supraconducteur est pour le moment la technologie la plus avancée. Il correspond à l’état d’un courant supraconducteur qui traverse une barrière très fine grâce à l’effet Josephson (c’est-à-dire l’apparition d’un courant entre deux matériaux supraconducteurs séparés par une couche d’un matériau non supraconducteur). L’objectif est de créer, à très basse température, une superposition de deux états distincts d’un courant qui oscille à haute fréquence et traverse la barrière en une boucle supraconductrice. Cette technique est utilisée notamment par IBM, Google, Intel, D-Wave et le CEA.
*         Le qubit silicium, utilise, également à très basse température, la superposition (provoquée par un champ magnétique) du spin (une propriété quantique des particules qui n’a pas d’équivalent en physique classique) d’un électron. De petite taille (généralement 30 nanomètres), les qubits silicium pourraient ainsi être intégrés par millions voire milliards sur une même puce. Ils sont en outre compatibles avec les technologies CMOS (Complementary Metal Oxide Semiconductor : technologie de fabrication des composants électroniques), largement utilisées dans l’industrie microélectronique, ce qui leur donne un avantage compétitif pour la production en série. Cette approche est développée notamment par Intel et le CEA.<
*         Le qubit à ions piégés correspond à des orientations magnétiques d’ions, généralement de calcium, maintenus sous vide. Il fonctionne lui aussi à très basse température. Un laser sert à la mesure et exploite le phénomène de fluorescence des ions excités par le laser. Le magnétisme est utilisé pour l’activation des portes quantiques (qui sont les briques élémentaires d’un circuit quantique, fonctionnant sur quelques qubits). Certes difficilement industrialisables, les ions piégés peuvent s’intriquer plus librement et donc résoudre des calculs complexes plus facilement.
*         Enfin, le qubit photonique est, quant à lui, lui codé sur de nombreux paramètres indépendants servant à décrire l’état d’un photon (aussi appelés degrés de liberté) : polarisation, couleur, forme spatiale ou temporelle. Les portes quantiques sont réalisées à l’aide de dispositifs optiques avec des filtres à deux couleurs ou polarisants. Il faut un grand nombre de lasers pour piloter l’ensemble, ce qui est contraignant. L’avantage de cette option est que ces qubits fonctionnent à température ambiante.


Une accélération mondiale et un grand nombre d’initiatives publiques et privées
Plusieurs actions majeures à l'étranger (Etats-Unis, Royaume-Uni, Pays-Bas, Danemark) impliquent dès aujourd'hui de très grands industriels (Google, Intel…) et mobilisent des financements de plusieurs dizaines de millions d'euros.
Au niveau européen, un flagship sur l'ingénierie quantique a été décidé en 2016 et a démarré en 2018 avec l'ambition d'amener les technologies quantiques sur le marché. Le financement annoncé est d'au moins un milliard d'euros, apporté par la Commission européenne et les Etats membres sur dix ans.
A l'échelle nationale, Emmanuel Macron a présenté le 21 janvier 2021 le Plan quantique français, dont le Programme et équipements prioritaires de recherche dédié est coordonné par le CEA, le CNRS et l'INRIA.


Un grand nombre de voies à explorer pour espérer lever les verrous conceptuels et technologiques
Un grand nombre de voies de réalisation physique est développé en parallèle. Aucun consensus ni aucun argumentaire robuste n’existe aujourd’hui sur la solution la plus adaptée pour réaliser un ordinateur quantique comprenant plus d’une dizaine de qubits. Tous les systèmes étudiés jusqu’à présent se sont en effet heurtés aux problèmes de décohérence et de complexité rapidement croissante des dispositifs quand le nombre de qubits augmente : le temps de cohérence d’un état intriqué de N qubits est en effet environ N fois plus court que celui d’un seul qubit.
Or, les interactions avec l’environnement ne peuvent par ailleurs être réduites à zéro, car elles sont nécessaires pour appliquer des opérations logiques sur les qubits et en effectuer la lecture. En pratique, il faut donc corriger les erreurs. La seule architecture connue pour ce faire, appelée « code de surface », demande un très grand nombre de qubits physiques par qubit logique.
Ce problème de la correction d’erreurs est donc plus qu’ardu car ses difficultés sont d’ordre à la fois conceptuel et technologique, liant degrés de liberté, interactions, complexité, méthode d’adressage, méthode de mesure, décohérence. A ces questions s’ajoute la vaste problématique de l’algorithmique et de son implémentation pratique dans une architecture donnée (traitement des erreurs, langage de programmation…).

 

  DOCUMENT     cea         LIEN

 
 
 
 

Propriétés physico-chimiques de la matière

 

 

 

 

 

 

 

Propriétés physico-chimiques de la matière


Les propriétés chimiques d’un atome dépendent seulement du nombre et de la disposition des électrons dans leur nuage ; tous les isotopes d’un même élément ont donc les mêmes propriétés chimiques. Cependant, la légère différence de masse de leur noyau fait que leurs propriétés physiques se différencient quelque peu.

Publié le 1 juillet 2014


Du nuage électronique dépend la diversité matérielle.


PROPRIÉTÉS CHIMIQUES DE L'ATOME
Les électrons du nuage électronique d’un atome ne peuvent se comporter n’importe comment. S’il n’est pas possible de leur assigner des trajectoires bien définies, on peut en revanche décrire l’état dans lequel chacun se trouve grâce à quatre propriétés : leur énergie, leur moment cinétique, la projection de ce moment cinétique sur une direction donnée et leur spin.
La structure du nuage électronique qui résulte de la distribution de ces propriétés a deux conséquences.
*         La première est la répartition des symboles chimiques dans le tableau de Mendeleïev.
*         La seconde est la nature des propriétés chimiques des différents éléments.
*        
Certaines configurations de nuages électroniques sont particulièrement stables. De tels atomes ne réagissent pas chimiquement, ils sont inertes. Ce sont les atomes des gaz rares dont les symboles sont écrits dans la colonne la plus à droite du tableau de Mendeleïev.


Les molécules de l’aspirine (image 1) et du paracétamol (image 2) se ressemblent beaucoup. Elles sont toutes deux composées d’atomes de carbone (en gris), d’hydrogène (en blanc) et d’oxygène (en rouge). En bleu, un atome d’azote.


Les atomes à proximité des gaz rares tendent à modifier leur nuage électronique de façon à ce qu’il ressemble à celui d’un gaz rare. Pour cela, ils s’ionisent, en gagnant ou perdant un ou plusieurs électrons, ou établissent une liaison covalente avec d’autres atomes. Ils partagent alors la propriété de certains électrons.
La matière dite « organique », c’est-à-dire construite autour de la covalence des atomes de carbone, oxygène, azote et hydrogène, est une mine inépuisable de molécules.
Les autres atomes du tableau périodique ont des structures électroniques plus complexes. Ils s’organisent collectivement en s’associant par liaison métallique. Le métal obtenu est solide à température normale et conducteur de courant électrique.

PROPRIÉTÉS PHYSIQUES DE LA MATIÈRE
Toutes les propriétés physiques de la matière : dureté, malléabilité, ductilité, transparence, couleur, températures de changements d’états, caractère conducteur ou isolant… ainsi que toutes ses propriétés chimiques : acide ou base, oxydant ou réducteur, solvant ou soluté… sont dues aux différents comportements adoptés par les électrons dans les nuages électroniques.

On sait aujourd’hui organiser ces atomes de façon à obtenir des propriétés nouvelles, comme la supraconduction à haute température, des propriétés magnétiques renforcées, une miniaturisation des circuits électriques ou la possibilité d’y stocker de l’information.

Voir et sonder les atomes
De notre échelle à celle du micromètre, il est possible de former des images à l’aide des ondes lumineuses, en utilisant un microscope optique. Pour former les images d’objets plus petits, il faut utiliser des particules, comme des électrons, dont la longueur d’onde associée est plus petite que le micromètre. Le principe des microscopes électroniques est le même que celui des microscopes optiques (par exemple les microscopes électroniques à balayages MEB).

En poussant leurs performances à l’extrême, les chercheurs sont parvenus à descendre jusqu’à l’échelle atomique (0,1 nm). Depuis le début des années 1980, les microscopes à sonde locale ont vu le jour. Leur principe repose sur l’exploration d’une surface relativement plane par une sonde très fine qui interagit avec les atomes. On peut citer le microscope à effet tunnel (STM pour Scanning tunneling microscope) qui utilise un faible courant électrique passant entre l’échantillon et une pointe, le microscope à force atomique (AFM) qui utilise l’interaction mécanique entre l’échantillon et une pointe montée sur levier souple, et le microscope optique à champ proche qui exploite, à l’aide d’une fibre optique très fine, les ondes évanescentes au voisinage de la surface de l’échantillon.

Un dernier type est apparu récemment : le microscope à luminescence induite par effet tunnel (STL).

Tous ces microscopes permettent l’étude, à l’échelle atomique, de diverses molécules et de leur comportement sur différents substrats. Il n’est guère possible de former des images des noyaux atomiques. Il est cependant possible d’en produire en calculant la répartition des masses et des charges à l’intérieur des noyaux et en confrontant ces calculs à la mesure de certaines de leurs propriétés.

LES QUATRE INTERACTIONS FONDAMENTALES
Vidéo
Zoom sur deux instruments qui permettent de caractériser la matière à l'échelle nanométrique : le microscope à effet tunnel et le microscope à force atomique.
     

Pour rendre compte de tous les phénomènes auxquels ils ont accès, les physiciens ont besoin de ne faire intervenir que quatre forces, qu’ils jugent « fondamentales ». Quelles sont-elles ?
*         La gravitation, bien sûr, identifiée par Isaac Newton il y a plus de trois siècles ;
*         l’interaction électromagnétique, identifiée en tant que telle par James Clerk Maxwell dans la seconde moitié du XIXe siècle, et qui rend compte de la cohésion de la matière à notre échelle ;
*         l’interaction nucléaire faible, découverte dans les années 1930, qui gère certains processus radioactifs, notamment la radioactivité bêta ;
*         l’interaction nucléaire forte - découverte à peu près au même moment que l’interaction nucléaire faible - qui lie très solidement entre eux les constituants des noyaux atomiques.


La gravitation
La gravitation gouverne bien d’autres phénomènes, de la chute des corps au mouvement des planètes. Elle est également à l’origine de la formation des étoiles à partir du gaz primordial, qu’elle oblige à se contracter. Et, grâce à elle encore, les étoiles, une fois formées, s’attirent les unes les autres, formant ainsi des galaxies.
L’interaction gravitationnelle est attractive et de portée infinie (c’est-à-dire que la force qui existe entre deux masses n’est nulle que si ces deux masses sont séparées d’une distance infinie).
Nul écran ne pouvant en stopper l’influence, il est vain d’espérer l’amoindrir ou la supprimer. Mais son intensité est beaucoup plus faible que celle des autres interactions, si bien qu’on peut négliger ses effets à l’échelle des particules, soumises par ailleurs à des forces beaucoup plus intenses.

L’interaction électromagnétique
L'interaction électromagnétique est beaucoup plus intense que la gravitation. Elle agit de façon manifeste autour de nous puisqu’elle fait fonctionner tous nos appareils électroménagers.
Mais à un niveau plus fondamental, elle assure surtout la cohésion des atomes et des molécules, gouverne toutes les réactions chimiques et aussi les phénomènes optiques (puisque la lumière est constituée d’ondes électromagnétiques, structurées en photons). À l’instar de l’interaction gravitationnelle, elle a une portée infinie, mais, étant tantôt attractive, tantôt répulsive (selon le signe des charges électriques en présence), ses effets cumulatifs sont annulés à grande distance du fait de la neutralité globale de la matière.

L’interaction nucléaire faible
L'interaction nucléaire faible a une portée très courte, d’environ un milliardième de milliardième de mètre. Autant dire qu’il s’agit, comme la colle, d’une interaction de contact : deux particules ne peuvent interagir par elle que si elles se touchent quasiment. Elle est notamment responsable de la radioactivité bêta, par laquelle un neutron se désintègre en un proton et un électron. Comme son nom l’indique, l’interaction faible est caractérisée par une très faible intensité qui la rend difficile à observer. Mais cela ne l’empêche pas de jouer un rôle capital, notamment dans le Soleil, où elle régit les réactions de fusion des noyaux d’hydrogène.
Si elle disparaissait de l’Univers, notre étoile cesserait de briller…

L'interaction nucléaire forte
L’interaction nucléaire forte est la plus intense des quatre interactions fondamentales, mais elle est restée longtemps cachée. Les physiciens ont deviné son existence dans les années 1930, lorsqu’ils se sont rendus compte que la stabilité des noyaux atomiques avait quelque chose d’étonnant. Puisqu’ils portent des charges électriques de même signe, les protons au sein d’un noyau atomique se repoussent du fait de la force électrique qui tend à les séparer. Et pourtant, ils semblent très solidement attachés les uns aux autres. Par quoi donc est combattue leur répulsion électrique ? Aucune force classique ne pouvait expliquer cette cohésion nucléaire.
De là l’hypothèse, vérifiée depuis, qu’il existe au sein des noyaux atomiques une force très intense, l’interaction nucléaire forte, de portée très courte, environ un millionième de milliardième de mètre…
Cette force agit comme une sorte de glu entre deux nucléons (proton ou neutron) en contact l’un avec l’autre, mais dont la force s’affaiblit très rapidement dès qu’on les écarte un tant soit peu l’un de l’autre. Cela ne l’empêche pas d’être incroyablement puissante. Elle est par exemple capable d’arrêter, sur quelques millionièmes de milliardième de mètres, un proton lancé à cent mille kilomètres par seconde…


    DOCUMENT     cea         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 ] - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon