ecole de musique piano
     
menu
 
 
 
 
 
 

Les propriétés des lasers

 

 

 

 

 

 

 

Les propriétés des lasers


Pour remplir leur mission, les lasers changent de couleur, de puissance, émettent en continu ou par impulsions…


Publié le 30 juin 2015


LA COULEUR D'UN LASER
Elle est définie par le choix du milieu laser. Il existe des lasers de toutes les couleurs : rouge, bleu, vert… Certains d’entre eux sont même constitués de lumière invisible comme les ondes infrarouges ou ultraviolettes. Ces multiples couleurs font la beauté de nombreux spectacles son et lumière. La plupart des lasers ne peuvent émettre que sur une seule longueur d’onde. L’utilisation de cristaux possédant des propriétés optiques non linéaires permet de convertir la longueur d’onde d’un laser pour obtenir des faisceaux de longueur d’onde doublée ou triplée. Il existe de plus des lasers dont on peut faire varier continument la longueur d’onde sur une certaine plage. On dit qu’ils sont accordables. Leur milieu laser a longtemps été un liquide contenant des molécules de colorant qui, une fois excitées, ont la particularité d’émettre sur un grand intervalle de longueurs d’onde. Maintenant, ils tendent à être remplacés par les oscillateurs paramétriques optiques (OPO) et les diodes laser accordables, présentant l’avantage d’éviter l’utilisation de solvants. Les diodes laser sont les sources les plus couramment utilisées actuellement. Leur rendement énergétique élevé et leur fabrication peu coûteuse ont permis leur industrialisation massive.

LA PUISSANCE D'UN LASER
La puissance se définit classiquement comme la quantité d’énergie émise par unité de temps. Un laser délivrant un joule pendant une seconde aura une puissance d’un watt. Dans le cas des lasers continus, l’étendue des puissances de sortie va classiquement de 1 mW pour des petites diodes laser, à 50 kW pour les lasers de soudage.
Dans le cas de lasers impulsionnels, il faut distinguer :
*         la puissance moyenne délivrée, qui tient compte des intervalles de temps entre chaque impulsion,
*         la puissance de crête, qui est la puissance atteinte lors d’une l’impulsion.

Ainsi, un laser d’un watt délivrant sa lumière de façon continue aura une  puissance d’un watt ; mais s’il concentre une énergie d’un joule en une décharge lumineuse d’une milliseconde, sa puissance de crête va être multipliée par mille et atteindra un kilowatt.
En délivrant leur énergie sur des temps très courts (nanoseconde voire picoseconde ou même femtoseconde), certains lasers d’étude peuvent atteindre des puissances de crête extrêmement élevées (jusqu’à 10 petawatts).
Plus modeste, un laser industriel dédié au soudage, de puissance moyenne de 1 kW, dispose d’une puissance de crête de 25 kW.

L’INTENSITÉ D'UN LASER
L’intensité, c’est la puissance par unité de surface, qui s’exprime en nombre de watts par centimètre carré (W/cm2). Par exemple, l’intensité du Soleil peut atteindre 0,1 W/cm2. En focalisant cette lumière avec une loupe, celle-ci est portée à 100 W/cm2, ce qui suffit pour enflammer une feuille de papier. Le diamètre des faisceaux de lumière émis par les lasers (plusieurs dizaines de mm pour les lasers industriels) est souvent trop grand et leur intensité trop faible pour une utilisation directe efficace. Il faut focaliser les faisceaux pour augmenter leur intensité. Dans certains lasers, la focalisation est obtenue par des systèmes optiques à lentilles. D’autres utilisent des dispositifs à miroirs, plus rarement des montages à réseau de diffraction focalisant.
Un laser de 20 W focalisé sur quelques micromètres produit une intensité de l’ordre du milliard de W/cm2. Avec un laser impulsionnel de quelques mJ, on atteint très facilement les centaines de milliards de W/cm2. La focalisation est alors obtenue par des systèmes optiques plus ou moins complexes, constitués de lentilles et de miroirs, qui sont adaptés aux longueurs d’onde et aux fortes énergies utilisées. La focalisation est, par exemple, indispensable pour les opérations industrielles de perçage, soudage et découpage. Elle est aussi utile pour les lasers de puissance utilisés par les chercheurs pour étudier l’interaction lumière-matière.

LA COHÉRENCE D'UN LASER
La cohérence du laser regroupe les propriétés d’uni-directionnalité et de monophasage. C’est elle qui permet à la lumière laser de pouvoir être fortement concentrée, dans le temps et dans l’espace ; elle est souvent à la base des applications des lasers. Cette propriété va permettre le transfert et le transport d’informations comme pour la lecture des disques optiques ou les liaisons Internet, par faisceaux laser dans des fibres optiques. Les ondes lumineuses qui composent la lumière laser se propagent toutes dans la même direction, de manière parfaitement rectiligne.
Un faisceau laser est très peu divergent, ce qui le rend visible sur de grandes distances. Cette propriété est utilisée pour l’alignement des tracés de routes et de tunnels comme, par exemple, lors de la construction du tunnel sous la Manche ou de la tour Montparnasse. Les lasers servent aussi dans la télémétrie, c’est-à-dire la mesure de distances. Le faisceau laser atteint une cible, qui en renvoie une partie en sens inverse. La vitesse de la lumière étant connue, il est possible, en mesurant le temps mis par le faisceau laser pour faire l’aller-retour, de connaître la distance séparant la source laser d’un obstacle. Cette méthode a permis le calcul précis de la distance Terre-Lune. La diffusion par les poussières et les aérosols de l’atmosphère rend visible ce rayon lumineux jusque loin dans l’espace et en fait l’outil des spectacles laser.

 

 DOCUMENT     cea         LIEN

 
 
 
 

Demain, un ordinateur inspiré de notre cerveau?

 

 

 

 

 

 

 

Demain, un ordinateur inspiré de notre cerveau?

12.01.2018, par Hugo Leroux


Et si l’on réinventait l’ordinateur en s’inspirant des neurones du cerveau humain ? Grâce à des composants électroniques bio-inspirés, les chercheurs mettent en avant de nouveaux modèles pour booster les applications en intelligence artificielle.

Un neurone artificiel capable de reconnaître des chiffres prononcés par différentes personnes faisait l’objet d’une présentation très remarquée en septembre 2017. À l’heure des assistants intelligents de type Google Home et de la voiture autonome, pourquoi une performance aussi sommaire fut-elle annoncée comme une première mondiale par la célèbre revue Nature ?1 Parce que la révolution réside dans le composant lui-même : un neurone électronique, cylindre de métal mille fois plus fin qu’un cheveu et implémentable en circuit. Bref, un nano-neurone artificiel « en dur », à la différence de ces fameux réseaux de neurones virtuels qui, s’ils permettent actuellement de spectaculaires applications en intelligence artificielle (IA), désignent en réalité des fonctions mathématiques, des algorithmes, purement numériques et impalpables.
« D’autres nano-neurones artificiels “en dur” avaient déjà été mis au point, mais nous avons été les premiers à les faire fonctionner au sein d’une application », explique Julie Grollier, qui a dirigé ces travaux au sein de l’Unité mixte de physique CNRS-Thales2. Quelques mois plus tôt, en avril, un autre composant bio-inspiré était dévoilé dans Nature Communications3 par Vincent Garcia, chercheur au sein de la même unité, et ses collègues. Cette fois, il s’agissait d’une synapse artificielle, inspirée de celles qui relient les neurones du cerveau.
 


Ce cylindre de métal, mille fois plus fin qu’un cheveu, est le premier neurone artificiel «en dur» à avoir fonctionné au sein d'une application (vue en microscopie électronique à balayage). Ces travaux ont été dirigé par Julie Grollier, de l’Unité mixte de physique CNRS-Thales.

Laboratoire Spintronics Research Center, AIST Tsukuba, Japon
Partager

Une grosse économie d’énergie
À quoi bon cette nouvelle quincaillerie électronique alors que les réseaux de neurones virtuels font déjà merveille en intelligence artificielle (IA) ? Parce que ces derniers, redoutables pour classifier de gigantesques masses de données, sont aussi effroyablement gourmands en énergie… Un gaspillage lié à la structure même des machines sur lesquelles ils turbinent.
« Les ordinateurs traditionnels sur lesquels on les fait tourner sont fondés sur une architecture datant des années 1950 qui sépare la mémoire et le “centre de calcul” en deux blocs bien distincts, explique ainsi Damien Querlioz, chercheur au Centre de nanosciences et de nanotechnologies4. Dès lors, un calcul, même simple, nécessite parfois d’aller chercher des données stockées très loin à l’échelle de la microélectronique. Or, les réseaux de neurones virtuels ont la particularité d’effectuer des calculs, certes très simples, mais en quantité massive et de manière parallèle avec souvent beaucoup de redondances ». D’où, parfois, de terribles « embouteillages » énergivores pour accéder à la mémoire… C’est ainsi que le programme AlphaGo, l’IA de Google qui a récemment écrasé les plus grands champions de go, consomme dix mille fois plus d’énergie qu’un humain à la même table de jeu !
 
Le programme AlphaGo, qui a récemment écrasé les plus grands champions de go, consomme dix mille fois plus d’énergie qu’un humain à la même table de jeu !
« Grâce à ses circuits neurone-synapse, notre cerveau, lui, dispose d’une mémoire (“stockée” dans les synapses) placée au plus proche du “centre de calcul” (que symbolisent les neurones) », explique Damien Querlioz. Cette architecture très distribuée s’avère extrêmement efficace pour traiter en parallèle la myriade d’opérations simples que nécessite la reconnaissance de sons ou d’images. En revanche, elle est moins adaptée au calcul classique : « Pour les opérations arithmétiques par exemple, qui font appel à moins de calculs, mais plus complexes, et exécutés les uns après les autres, l’architecture bien centralisée des ordinateurs traditionnels reste imbattable en précision », poursuit le chercheur.
Si l’on parvient à construire des puces neuromorphiques, assemblage de composants artificiels mimant neurones et synapses biologiques, elles seront donc dédiées uniquement aux tâches d’IA où les excellents quoique trop dispendieux réseaux de neurones actuels sont cantonnés (reconnaissances de formes, de sons, etc.). Et l’éventuel ordinateur du futur qui en abriterait garderait précieusement ses microprocesseurs classiques. « En intégrant une puce neuromorphique, dédiée aux algorithmes de type réseau de neurones courants en IA, sur chaque processeur d’ordinateur ou de téléphone, on disposerait de processeurs moins énergivores », confirme Vincent Garcia.
 
Les géants de l’électronique ne s’y sont pas trompés : IBM, Intel, Qualcomm, tous développent leur propre puce neuromorphique. Leur approche peut sembler timide : neurones et synapses artificiels y sont construits à partir de transistors classiques en silicium. C’est également le parti pris d’Alain Cappy, de l’Institut de recherche sur les composants logiciels et matériels pour l’information et la communication avancée5.


L’équipe d'Alain Cappy utilise des transistors pour fabriquer ses neurones artificiels. Assemblés en circuit (à gauche), ceux-ci répondent à une excitation synaptique par des potentiels d’action (à droite, en vert) identiques à ceux obtenus avec des neurones biologiques.

A. CAPPY/ICIRCA-IEMN
Partager

« L’avantage de n’utiliser que des composants déjà existants est de pouvoir fabriquer plus rapidement des puces efficientes et industrialisables », commente le chercheur. Ce qui ne le dispense pas de toute originalité : là où les neurones de silicium mis en œuvre par les industriels nécessitent 20 à 30 transistors, l’équipe d’Alain Cappy a délibérément privilégié un modèle plus simple et économe de 6 transistors seulement. Résultat : « Il consomme cent fois moins d’énergie que les autres neurones artificiels du même type », se félicite le chercheur. Il fait également le pari d’une intégration totalement bio-inspirée : « L’idée est d’imiter le système yeux/cortex cérébral qui analyse si rapidement et efficacement l’image. Nous tentons ainsi d’intégrer ces neurones à la fois dans des capteurs visuels inspirés de la rétine biologique, et dans des puces de traitement agencées comme les colonnes de neurones de notre cortex cérébral », poursuit Alain Cappy. Cette architecture très interconnectée pourrait s’avérer performante pour l’implémentation de réseaux de neurones bien plus complexes et performants que les possibilités offertes par les solutions actuelles sous forme logicielle.
Une question de taille
La plupart des chercheurs misent cependant sur une approche plus révolutionnaire pour fabriquer les composants bio-inspirés eux-mêmes. « Les neurones construits avec des transistors classiques mesurent 100 micromètres de côté tandis que le nôtre mesure à peine 100 nanomètres de diamètre : c’est mille fois plus petit », se réjouit Julie Grollier. Or, la question de la taille se posera de manière aiguë quand on voudra les assembler par millions et fabriquer des puces valables. Pour construire leur nano-neurone, les chercheurs de l’Unité mixte de physique CNRS-Thales ont choisi la spintronique, une discipline utilisant le spin des électrons comme unité d’information (alors que l’électronique utilise la charge électrique des électrons).
 
Les neurones construits avec des transistors classiques mesurent 100 micromètres de côté tandis que le nôtre mesure à peine 100 nanomètres de diamètre : c’est mille fois plus petit.
 Le nano-neurone consiste en un empilement de deux couches de métaux ferromagnétiques prenant en sandwich une fine couche d’isolant électrique. « Lorsqu’on le soumet à un courant continu, les électrons passent à travers l’isolant par effet tunnel et leur spin fait tourner l’aimantation de la couche supérieure. Cela produit en sortie des oscillations électriques comparables aux signaux émis par les neurones de notre cerveau », résume Julie Grollier.
Pour développer leur propre nano-neurone, l’équipe de Laurent Cario, de l’Institut des matériaux Jean-Rouxel6, a de son côté misé sur les isolants de Mott. Ce matériau, dont le comportement physique est exploré dans le cadre de mémoires de nouvelles générations, pourrait constituer une alternative aux matériaux spintroniques : « Notre neurone a fait l’objet d’un brevet déposé en 2014 et nous essayons maintenant d’en améliorer la miniaturisation afin de faciliter son transfert industriel », précise Laurent Cario.
Imiter la plasticité des neurones
Présentes dans le cerveau en nombre dix mille fois plus important que les neurones, les synapses ont un rôle tout aussi capital. En particulier, les chercheurs tentent de reproduire une caractéristique de ces canaux interneurones : leur plasticité, c’est-à-dire leur capacité à se renforcer ou se déprécier au fil du temps pour favoriser le « câblage » entre les neurones utiles.


Vue d'artiste d’une synapse électronique : les petites sphères représentent les électrons circulant à travers l’oxyde, par analogie avec les neurotransmetteurs dans les synapses biologiques.

Sören Boyn/CNRS-Thales
Partager

Pour y parvenir, Vincent Garcia et son équipe ont choisi une couche ultra-mince d’un matériau ferroélectrique que les électrons traversent par effet tunnel : « Nous avons démontré que l’amplitude et la durée des impulsions que reçoit la synapse artificielle provoquent une variation de la résistance du matériau, donc de sa capacité à transmettre le courant tunnel. Cette propriété est très similaire à la plasticité des synapses biologiques », détaille le chercheur.
 
L’amplitude et la durée des impulsions que reçoit la synapse artificielle provoquent une variation de la résistance du matériau. Cette propriété est très similaire à la plasticité des synapses biologiques.

« De nombreux matériaux peuvent, sur application de certaines gammes de tensions, présenter ce type de propriétés de changement de résistivité », remarque Vincent Derycke, chercheur au sein du laboratoire Nimbe7. Oxydes de métal, matériaux spintroniques, ferroélectriques…, la palette de candidats « exotiques » (c’est-à-dire marginaux par rapport à ceux utilisés en microélectronique classique, fondée sur le silicium) est en effet très large. « Toute la question est : leurs changements de résistivité sont-ils exploitables pour bâtir des circuits efficaces ? Jusqu’ici, aucun matériau idéal ne s’est encore détaché ».
Avec son équipe, il s’est spécialisé dans une voie originale : l’électronique organique, qui vise à traiter l’information au sein de molécules (assemblages de quelques atomes seulement), et ainsi réduire encore les consommations énergétiques. « C’est comme cela que l’industrie a pu remplacer les LED par des équivalents organiques, les OLED, dans de nouvelles générations d’écrans plats », explique le chercheur. Ce dernier ne cache pas le côté exploratoire de cette piste : « Mis à part les OLED, l’électronique organique, qui promettait au début des années 2000 de révolutionner l’électronique, n’a pas tenu toutes ses promesses et demeure un domaine de recherche principalement fondamental. Si d’éventuels neurones ou synapses organiques, très économes en énergie, deviennent réalité, ce ne sera pas avant cinq ou dix ans ».
 
Le défi des circuits intégrés
Malgré une multitude de matériaux proposés pour l’ingénierie neuromorphique, tous les chercheurs butent pour l’instant sur le même obstacle : le passage à l’échelle. « Un composant seul peut présenter un comportement physique remarquable, mais ce bénéfice s’estompe parfois lorsque l’on en intègre des milliers », commente Damien Querlioz. Il suffit par exemple que la tension électrique arrivant à l’entrée de chaque composant varie légèrement pour ruiner l’intérêt d’une puce neuromorphique complexe. Or, « des milliers, voire des centaines de milliers de composants à intégrer ensemble, c’est pourtant le minimum si l’on veut mettre au point de premières applications commerciales », poursuit le jeune chercheur, médaille de bronze du CNRS en 2017 pour ses travaux sur ces futures architectures neuromorphiques.


Vue en microscopie électronique de memristors organiques mis au point par l’équipe de Vincent Derycke. Le halo sombre (sur la partie zoomée, en bas) montre l’extension du film organique greffé.

V.DERYCKE/CEA
Partager

Le contrôle fin de la tension d’entrée donne encore du fil à retordre aux chercheurs. C’est l’un des défis que se propose de relever l’équipe de Sylvain Saighi au sein du Laboratoire de l’intégration du matériau au système8. À partir de la synapse ferroélectrique de Vincent Garcia, dite « memristor», les chercheurs tentent de construire un circuit de 1024 x 100 éléments. À travers le projet européen Ulpec, impliquant notamment IBM, Bosch et la société parisienne Chronocam, ce circuit devrait ensuite être intégré et testé au sein d’une caméra embarquée dans la voiture autonome. Restera aussi à régler le problème de la production en série des composants : « Il nous faut maintenant montrer que l’on peut produire notre memristor sur les substrats silicium habituels des industriels de la microélectronique pour envisager une production à grande échelle », prévoit Sylvain Saïghi. Même ambition pour Julie Grollier. D’ailleurs, si son équipe a été la première à faire fonctionner des neurones artificiels bio-inspirés au sein d’une application, c’est parce qu’elle a usé d’un astucieux artifice : un seul nano-neurone a permis de reconstituer un circuit de 400 neurones grâce à la méthode de multiplexage temporel. « Un peu comme si un acteur s’enregistrait en train de jouer les 400 rôles d’un même film et qu’on les superposait au montage », illustre la chercheuse. Les circuits bien réels de centaines ou de milliers de neurones sont donc aujourd’hui attendus de pied ferme ! ♦
Lire aussi : « Des machines enfin intelligentes ? »
Notes
*         1.
« Neuromorphic computing with nanoscale spintronic oscillators », J. Torrejon et al., Nature, 2017, vol. 547 : 428-431 (publié en ligne le 27 juillet 2017). https://www.nature.com/articles/nature23011(link is external)
*         2.
Unité CNRS/Thales/Université Paris-Sud.
*         3.
« Learning through ferroelectric domain dynamics in solid-state synapses », S. Boyn et al., Nature Communications, 2017, vol. 8, publié en ligne le 3 avril 2017. https://www.nature.com/articles/ncomms14736(link is external)
*         4.
Unité CNRS/Université Paris-Sud/Université Paris-Saclay.
*         5.
Unité CNRS/Université de Lille 1.
*         6.
Unité CNRS/Université de Nantes.
*         7.
Nanosciences et innovation pour les matériaux, la biomédecine et l’énergie (CNRS/ CEA/Université Paris-Saclay).
*         8.
Unité CNRS/Bordeaux INP/Université de Bordeaux.

 

  DOCUMENT         CNRS         LIEN  
 

 
 
 
 

La datation par le carbone 14

 


 

 

 

 

La datation par le carbone 14

Publié le 27 janvier 2015

Dernière mise à jour : 04 mars 2022
 
Le carbone possède plusieurs formes – ou « isotopes » – parmi lesquelles le carbone 14, ou 14C. Cet élément est radioactif, et sa radioactivité décroît au fil du temps à un rythme parfaitement régulier. Les scientifiques s’en servent donc comme « chronomètre » pour estimer l’âge d’objets très variés : œuvres d’art, roches, fossiles… La datation au carbone 14 est ainsi utilisée dans de nombreux domaines scientifiques : des sciences de la Terre aux sciences du vivant, en passant par les sciences de l’Homme et de la société.

LE PRINCIPE DE LA DATATION

Le carbone 14 est un isotope radioactif du carbone. Sa période radioactive, temps au bout duquel la moitié de ces atomes s’est désintégrée en azote 14, est de 5 730 ans. Se formant dans la haute atmosphère de la Terre, il existe 1 atome de carbone 14 pour 1 000 milliards de carbone 12 (isotope non radioactif). Comme tout isotope du carbone, le carbone 14 se combine avec l’oxygène de notre atmosphère pour former alors du CO2 (dioxyde de carbone). Ce CO2 est assimilé par les organismes vivants tout au long de leur vie : respiration, alimentation… En mourant, ils n’en assimilent plus. La quantité de carbone 14 assimilé diminue alors au cours du temps de façon exponentielle tandis que celle de carbone 12 reste constante.


La datation repose sur la comparaison du rapport entre les quantités de carbone 12 et de carbone 14 contenues dans un échantillon avec celui d’un échantillon standard de référence. On déduit de cette comparaison « l’âge carbone 14 » de l’échantillon qu’on cherche à dater. Cet « âge carbone 14 » est ensuite traduit en âge réel (ou « âge calendaire »), en le comparant à une courbe-étalon, réalisée par les chercheurs à force de nombreuses mesures complémentaires. On peut ainsi en déduire l'âge de l’objet étudié et remonter jusqu'à 50 000 ans environ (au-delà, la technique n’est pas assez précise).

Méthodologie
*         Les chercheurs prélèvent un échantillon d’un objet (quelques grammes ou microgrammes) qu’ils veulent dater, et le préparent à travers une succession de réactions physico-chimiques.
*         On ne conserve que le carbone contenu dans l’échantillon.
*         Les chercheurs déterminent la quantité de carbone 14 par des mesures de radioactivité ou par spectrométrie de masse, et peuvent ainsi calculer « l’âge carbone 14 » de l’objet.
*         Il leur faut ensuite comparer cet « âge carbone 14 » à une courbe d’étalonnage pour relier cet âge relatif à un âge réel, et ainsi savoir depuis combien de temps l’objet existe.
*
Le carbone 14, de sa formation à sa désintégration
Les atomes d'azote (14N) qui composent la haute atmosphère interceptent une partie du rayonnement cosmique : des neutrons percutent les atomes et les transforment en atomes de carbone 14. En s'oxydant dans l'atmosphère, le carbone 14 forme du CO2. Les plantes incorporent le carbone 14 via le CO2, et le transmettent à tout organisme vivant – étant la base de toute chaîne alimentaire. Dès qu'un organisme meurt, il n'incorpore plus de carbone 14. Celui-ci n'est plus renouvelé, et va se désintégrer progressivement : le « décompte » de sa radioactivité se met alors en route.


ENJEUX : COMPRENDRE PAR LA DATATION LES GRANDS MÉCANISMES EN SCIENCES DE LA VIE ET DE LA TERRE
Utilisés comme chronomètres ou comme traceurs d’échange entre différents réservoirs de carbone, les « âges carbone 14 » sont utilisés dans une variété de domaines de recherche :
*         En histoire et archéologie : c’est un outil précieux et largement utilisé pour dater des échantillons organiques et construire une chronologie (en égyptologie par exemple).
*         En sismologie et volcanologie : les chercheurs déterminent ainsi la fréquence d’événements sismiques ou volcaniques et peuvent mieux évaluer les risques potentiels futurs.
*         En climatologie : le carbone 14 permet de suivre l’évolution du cycle du carbone, intimement lié aux variations climatiques et environnementales. Cette technique de datation permet, en étudiant des prélèvements de sédiments, de dresser une chronologie précise de l'enchaînement des événements climatiques passés.
*         En océanographie et agronomie : le carbone 14 sert de traceur environnemental. En datant certains fossiles océaniques ou les différents composés de la matière organique dans les sols, les scientifiques peuvent ainsi retracer la dynamique de la circulation océanique dans le passé, déterminer les temps de résidence du carbone dans les sols et ainsi aboutir à une meilleure compréhension du cycle du carbone.
*         Enfin, l'analyse du carbone 14 dans les écosystèmes permet l'étude de la radioactivité présente dans l’environnement.


RECHERCHE ET DÉVELOPPEMENT : AFFINER LES ESTIMATIONS  D’« ÂGE CARBONE »
Les chercheurs tentent d’améliorer les techniques de datation du carbone 14, et de les compléter avec d’autres approches (datation uranium-thorium, potassium-argon).
Historiquement les premières datations d’échantillons ont été faites avec des compteurs proportionnels à gaz (on mesure la radioactivité émise par le carbone 14, transformé auparavant en gaz carbonique).
Cette méthode a laissé la place à deux techniques complémentaires :
*         le détecteur à scintillation : ce détecteur mesure la radioactivité d’un échantillon en carbone 14 par la mesure de la lumière émise à chaque désintégration d’un atome de carbone 14. Cette méthode est donc une mesure directe de la radioactivité. Son défaut est la nécessité d’utiliser de grandes quantités de matière (plusieurs grammes) pour obtenir des mesures avec une précision suffisante, ce qui est très contraignant dans le cas où l’objet étudié est très fragile, petit ou précieux.
*         le spectromètre de masse par accélérateur (SMA) : cette technique a été développée pour la datation d’échantillons de petite quantité et/ou d’âge allant jusqu’à 50 000 ans. Elle compte directement le nombre d’atomes de carbone 14 présents dans un échantillon, permettant ainsi de consommer moins de matière (quelques microgrammes) que la technique précédente, et permettant de dater des objets plus anciens.
*
Ces techniques reposent toutes les deux sur une préparation minutieuse de la matière
à dater :
*         Préparation pour éliminer tout matériau contaminant par traitement mécanique et chimique,
*         Combustion ou hydrolyse des carbonates de la matière obtenue pour transformer le carbone en gaz carbonique,
*         Dans le cas du SMA : réduction du gaz carbonique pour obtenir du graphite qui est l’élément introduit dans le spectromètre.


Pourquoi la datation au carbone 14 est une mesure dite « relative » ?
La quantité de carbone 14 formé dans la haute atmosphère, bien qu’assez constante, peut connaître des variations. De même, cet élément ne se répartit pas uniformément sur Terre : la quantité assimilée par les organismes varie donc en fonction du contexte dans lequel vivait l’organisme (quantité formée en haute atmosphère, conditions environnementales, métabolisme, etc.).
Comme ces mécanismes sont variables, les « âges carbone 14 » sont relatifs : ils dépendent pour une part de l’âge de l’objet d’étude, mais également des conditions environnementales qui existaient alors. Pour pallier cela, les chercheurs ont établi une échelle de calibration des « âges carbone 14 » avec différentes mesures d’objets dont on connaît la date (datation absolue), pour les comparer avec les « âges carbone 14 » qu’ils obtiennent (datation relative).
Les isotopes du carbone
Le carbone possède 16 isotopes en tout. Le carbone 12 et le carbone 13 sont les plus abondants.

*         Carbone 12 - Abondance : ~ 98,99 % -  Neutrons : 6 - Protons : 6 - Signe distinctif : le plus abondant
*         Carbone 13 - Abondance : ~ 1,11 % - Neutrons : 7 - Protons : 6 - Signe distinctif : isotope stable (ne se désintègre pas)
*         Carbone 14 - Abondance : <0,01% - Neutrons : 8 - Protons : 6 - Signe distinctif : isotope radioactif.

Notions clés
*         Carbone 14 (14C) = isotope radioactif du carbone, dont la période radioactive est de
*         5 730 ans (temps au bout duquel la moitié de ces atomes s’est désintégrée en azote 14).
*         Le carbone 14 est ainsi utilisé pour dater des objets vieux de nos jours à 50 000 ans.
*         La datation au carbone 14 est utilisée à la fois pour connaître l’âge d’un objet ou d’un événement, mais aussi pour suivre des processus : le carbone 14 sert donc de "chronomètre" et de "traceur".
*         Cette technique est utilisée dans de nombreux domaines : l’archéologie, la climatologie, la vulcanologie, la sismologie, l’océanographie…

 

  DOCUMENT     cea         LIEN
 

 
 
 
 

ÉNERGIE

 

 

 

 

 

 

 

ÉNERGIE

Nous sommes tous entourés d'énergie : dans notre corps, notre maison, notre environnement... Elle est là, dans notre quotidien. Qu'est-ce que l'énergie ? Quelles sont les différentes formes de l'énergie ? Ses sources ? Que signifient les expressions "énergies primaires", "énergies secondaires", "énergies renouvelables", "énergies non-renouvelables", "énergies fossiles" ?

QU'EST-CE QUE L'ÉNERGIE ?
Le mot « énergie » vient du Grec Ancien « énergéia », qui signifie « La force en action ». Ce concept scientifique est apparu avec Aristote et a fortement évolué au cours du temps. Aujourd’hui, l’énergie désigne  « la capacité à effectuer des transformations ». Par exemple, l’énergie c’est ce qui permet de fournir du travail, de produire un mouvement, de modifier la température ou de changer l’état de la matière. Toute action humaine requiert de l’énergie : le fait de se déplacer, de se chauffer, de fabriquer des objets et même de vivre.


L’énergie est partout présente autour de nous : dans la rivière qui fait tourner la roue du moulin, dans le moteur d’une voiture, dans l’eau de la casserole que l’on chauffe, dans la force du vent qui fait tourner les éoliennes… et même dans notre corps humain.

Une énergie de qualité
Toutes les formes d’énergie n’ont pas la même « valeur ». Dans les machines, on distingue classiquement l’énergie mécanique, ou travail, de l’énergie thermique, ou chaleur. La première est beaucoup plus utile que la seconde. C’est elle qui permet de déplacer les objets ou de les déformer.
De son côté, la chaleur a tendance à se diluer dans la matière et seule une petite partie peut être transformée en énergie mécanique. C’est ce qui fait qu’une centrale électrique n’arrive à transformer qu’un tiers de la chaleur de son feu de charbon ou de ses fissions nucléaires en électricité, le reste étant inutilisable et rejeté à l’extérieur.

LES DIFFÉRENTES FORMES D'ÉNERGIE
L’énergie peut exister sous plusieurs formes. Parmi les principales :
*         L’énergie thermique, qui génère de la chaleur ;
*         L’énergie électrique ou électricité, qui fait circuler les particules – électrons - dans les fils électriques ;
*         L’énergie mécanique, qui permet de déplacer des objets ;
*         L’énergie chimique, qui lie les atomes dans les molécules ;
*         L’énergie de rayonnement ou lumineuse, qui génère de la lumière ;
*         L’énergie musculaire qui fait bouger les muscles.


Conservation de l'énergie
L’énergie se conserve. La quantité totale d'énergie dans un système donné ne change pas, on ne peut donc ni la créer, ni la détruire. L'énergie est transmise d'un élément vers un autre, souvent sous une forme différente.
Un exemple : quand on chauffe de l'eau, différentes transformations d’énergie ont lieu. En brûlant dans l’air, le bois libère son énergie chimique. Cette énergie se transforme en chaleur, l’énergie thermique, et en lumière, l’énergie de rayonnement. Lors de cette réaction, la quantité d'énergie totale ne change pas, elle change simplement de forme.
Un autre exemple : lorsqu’une voiture fonctionne, l’essence libère son énergie chimique en brûlant dans l’air. Elle chauffe le moteur et pousse les pistons (énergie thermique et énergie mécanique). Les pistons font tourner le moteur et les roues, transfert d’énergie mécanique, et la voiture se déplace (énergie cinétique). Au passage, la courroie fait tourner l’alternateur qui transforme une petite partie de l’énergie mécanique en électricité qui sera stockée dans la batterie.


LES SOURCES D'ÉNERGIE
L’énergie est issue de différentes sources d’énergie qui peuvent être classifiées en deux groupes : les énergies non renouvelables, dont les sources ont des stocks sur Terre limités et les énergies renouvelables qui dépendent d’éléments que la nature renouvelle en permanence.

Les diverses sources d'énergie

Votre navigateur ne permet pas de lire des vidéos.
télécharger : version vidéo |

Qu'est-ce qu'une énergie intermittente ?
Une énergie intermittente est une énergie pour laquelle les sources ne sont pas disponibles en permanence et dont la disponibilité varie fortement sans possibilité de contrôle. Les énergies solaire et éolienne sont définies comme intermittentes car leur efficacité varie en fonction de la météo et de paramètres extérieurs (jour/nuit).
Pour pallier à cette intermittence, il est nécessaire de stocker ces énergies. Le développement de technologies de stockage est un enjeu important de recherche et développement. 
Pour plus d’informations sur le stockage de l’énergie, consultez notre dossier « l’essentiel sur… le stockage stationnaire de l’énergie ».

Les sources d'énergie non renouvelables
Énergies fossiles
Dans les énergies non renouvelables, on trouve les énergies dites fossiles : ce sont les résidus des matières végétales et organiques accumulés sous terre pendant des centaines de millions d’années. Ces résidus se transforment en hydrocarbure (pétrole, gaz naturel et de schiste, charbon…). Pour pouvoir les exploiter, il faut puiser dans ces ressources qui ne sont pas illimitées, c’est pourquoi les énergies fossiles ne sont pas renouvelables.

Énergie nucléaire
L’énergie nucléaire est « localisée » dans le noyau des atomes. Dans les centrales nucléaires actuelles, on utilise la fission (cassure) des noyaux d’uranium, élément que l’on retrouve sur Terre dans les mines. Les mines d’uranium s’épuiseront un jour tout comme le charbon, le gaz et le pétrole.
Au rythme de l’utilisation des ressources actuellement exploitées, on estime les réserves de pétrole à 40 ans, de gaz naturel conventionnel à 60 ans et de charbon à 120 ans. Les réserves d’uranium, combustible de l’énergie nucléaire, à 100 ans avec les réacteurs actuels.
Le saviez-vous ?
L’énergie nucléaire a un excellent bilan carbone : elle ne génère pas de CO2. Cependant, la production d’électricité avec le nucléaire génère des déchets radioactifs, dont la gestion spécifique est encadrée par la Loi.

Les sources d'énergies renouvelables
Le soleil, le vent, l’eau, la biomasse et la géothermie sont des sources qui ne s’épuisent pas et sont renouvelées en permanence.
Biomasse et géothermie : quelles différences ?
La biomasse et la géothermie sont deux sources d’énergies bien distinctes.
La géothermie est l’énergie générée par la chaleur des profondeurs de la Terre et sa radioactivité. Le mot « géothermie » vient du grec « geo » (la terre) et « thermos » (la chaleur). On l’exploite pour chauffer des habitations grâce à des forages légers.
La biomasse a, quant à elle, pour source le Soleil dont l’énergie de rayonnement est transformée en énergie chimique par les matières organiques d’origine végétale (bois), animale, bactérienne ou fongique (champignons). Il existe des centrales « biomasse » qui produisent de l’électricité avec la combustion de matières organiques.
Parmi toutes ces sources d’énergie, on distingue les énergies primaires des énergies secondaires.

Énergie primaire
Une énergie primaire est une énergie brute n’ayant pas subi de transformation, dont la source se trouve à l’état pur dans l’environnement. Le vent, le Soleil, l’eau, la biomasse, la géothermie, le pétrole, le charbon, le gaz ou l’uranium sont des sources d’énergies primaires.
Énergie secondaire
On appelle « énergie secondaire » une énergie qui est obtenue par la transformation d’une énergie primaire.
Par exemple, l’électricité est une énergie secondaire qu’on obtient à partir de plusieurs énergies primaires : l’énergie solaire avec des panneaux, l’énergie nucléaire avec des réacteurs, l’énergie hydraulique avec des barrages ou encore l’énergie du vent avec des éoliennes. Il n’existe pas d’électricité à l’état naturel.
L’essence, le gasoil et les biocarburants sont également des énergies secondaires ; on les obtient par la transformation du pétrole, qui lui, est brut ou de la biomasse. L’hydrogène, qui n'existe pas à l'état pur, est également une énergie chimique secondaire car il faut le produire.

La domestication des sources d'énergie au fil du temps
La maîtrise des sources d’énergie par l’Homme remonte à 400 000 ans av. J-C. A l’époque, l’Homme apprend à maîtriser le feu. Puis, plus tard, il apprend à maîtriser le vent, l’eau avec des moulins….
Avec l’ère industrielle, l’Homme commence à exploiter des ressources fossiles (charbon, puis pétrole et gaz) et à développer des machines qui vont changer son mode de vie. Depuis, les besoins en énergie n’ont cessé d’augmenter.

En chiffres
81 % des besoins mondiaux en énergie primaire sont actuellement comblés par le pétrole, le charbon et le gaz.
Source : Données 2019 de l'Agence internationale de l'énergie
Énergie et puissance
On mesure l’énergie à l’aide d’une unité particulière nommée le joule. Son nom vient du physicien anglais James Prescott Joule. Un joule représente par exemple l'énergie requise pour élever une pomme de 100 grammes d'un mètre ou encore l'énergie nécessaire pour élever la température d'un gramme (un litre) d'air sec de un degré Celsius.
Dans le domaine de la nutrition, c’est la kilocalorie qui est utilisée. 1 kilocalorie équivaut à 4,2 kilojoules. Pour évaluer l’énergie utilisée sur une année, on utilise généralement la tonne équivalent pétrole, tep.
1 tep est égale à 41 868 000 000 joules.
La puissance correspond, quant à elle, à la vitesse à laquelle l'énergie est délivrée. Elle se mesure en watt, ce qui correspond à un joule par seconde.
Par exemple, si pour faire bouillir un litre d’eau, on utilise d’un côté une flamme d’un gros feu de bois et de l’autre, la flamme d’une bougie : dans les deux cas, la même quantité d’énergie sera utilisée pour faire bouillir l’eau. Seulement, ce sera fait plus rapidement avec un feu qu’avec une bougie. L'énergie est dégagée plus rapidement avec le feu de bois qu'avec la flamme de la bougie. Le feu de bois est donc plus puissant que la flamme de la bougie.

UTILISATION DES ÉNERGIES EN FRANCE ET ENVIRONNEMENT
L’énergie, en France, est surtout utilisée pour le transport, l’habitat (chauffage), l’industrie, le tertiaire et l’agriculture.
En chiffres

 
En 2019, un Français a en moyenne consommé 30 fois plus d’énergie qu’un habitant d’Afrique de l’Est.
Source : Connaissance des Énergies, d'après BP Statistical Review of World Energy
Bien que la dépendance énergétique de la France se soit réduite depuis 1973 grâce à la construction du parc nucléaire, son mix énergétique dépend encore fortement des énergies fossiles qui couvrent près de 50 % de la consommation d’énergie primaire. A eux seuls, le transport et l’habitat représentent en France près de 80 % de la consommation finale. Le bâtiment dépend à plus de 50 % [2] des combustibles fossiles et le transport à 95 % du pétrole. Ces deux secteurs sont à l’origine de plus de 50 % des émissions de CO2, l’un des principaux gaz à effet de serre.
Ces émissions impactent directement le climat en contribuant au réchauffement climatique. Face à ce défi climatique majeur, il devient indispensable de disposer de sources d’énergie à la fois compétitives et bas carbone (faiblement émettrices de gaz à effet de serre) et de faire évoluer le mix énergétique de la France.


Les défis énergétiques
Toute action humaine requiert de l’énergie. Depuis toujours, l’Homme a cherché à accéder à des sources d’énergie abondantes et peu chères pour satisfaire ses besoins. Mais depuis le début de la révolution industrielle, la société moderne utilise sans compter de l’énergie provenant de sources, qui sont, pour la plupart, non renouvelables. Conséquence, les ressources s’épuisent et la quantité d’émission de gaz à effet de serre dans l’atmosphère, issue de l’exploitation des ressources fossiles, menace le climat. Face à ces réalités, il devient nécessaire de :
*         Mieux gérer l’utilisation des énergies en faisant notamment moins de gaspillage ;
*         Repenser notre mix énergétique en utilisant des sources d’énergie bas carbone tels que le nucléaire et les énergies renouvelables ;
*         Améliorer les technologies de stockage de l’énergie (batteries, hydrogène) ;
*         Continuer à travailler sur les énergies du futur : nucléaire du futur (fission et fusion nucléaire), solaire, éolien, bioénergies.

 

DOCUMENT     cea         LIEN
 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon