ecole de musique piano
     
menu
 
 
 
 
 
 

Les applications de la radioactivité

 

 

 

 

 

 

 

Les applications de la radioactivité


La radioactivité est un moyen extraordinaire pour explorer l'être humain et l'environnement. Elle est également indispensable pour l'industrie, l'art et l'espace.

Publié le 17 décembre 2018

LES TRACEURS RADIOACTIFS
Les propriétés chimiques d'un isotope radioactif et d'un isotope stable du même élément chimique sont identiques ; la seule différence est que le radioisotope est instable. Cette instabilité provoque l'émission de rayonnements qu'il suffit de détecter pour suivre sa trace et localiser la molécule marquée.
Le marquage peut être effectué de deux manières :
*         en remplaçant un atome stable d'une molécule par un de ses isotopes radioactifs
*         en accrochant à une molécule un atome supplémentaire, radioactif.

Le radiotraceur est choisi en fonction de sa période radioactive, qui doit être suffisamment courte pour que la masse de traceur soit très faible mais corresponde à une activité détectable. Il est également choisi pour la nature et l'énergie des rayonnements émis.

POUR LA SANTÉ
Les possibilités offertes par les applications des traceurs radioactifs en recherche biologique et en médecine ont été l’un des facteurs essentiels du progrès médical au cours du XXe siècle. Elles ont permis l’avènement de la biologie moléculaire avec la détermination du code génétique, la caractérisation des réactions chimiques assurant le fonctionnement de la cellule ou encore la compréhension de ses mécanismes énergétiques. Elles ont également contribué à élargir les possibilités de diagnostic pour mieux détecter et guérir les maladies : c’est la médecine nucléaire.

        Télécharger l'infographie sur la scintigraphie
La méthode de marquage permet de suivre l’action d’une molécule (médicament…) dans un milieu donné (in vitro) ou dans l’organisme (in vivo) grâce à un traceur radioactif. Celui-ci est utilisé en très petites quantités, car les appareils de détection sont très sensibles. Le plus souvent, il est produit dans un cyclotron, la synthèse est faite en enceinte blindée, avant que la molécule marquée soit injectée au patient. Le traceur induit des doses dont les effets sont peu dangereux pour la santé si on les compare aux bénéfices de l’examen (voir dossier multimédia L’homme et les rayonnements). Comme leur période est courte (de quelques minutes à quelques jours), ils disparaissent rapidement de notre corps et de l'environnement.
Utiliser des molécules marquées avec un radionucléide émetteur gamma spécifique du métabolisme d’un organe ou d’une tumeur permet, grâce à une gamma caméra, de réaliser une image des sites où elles se sont fixées. Cette image fonctionnelle sert à vérifier le fonctionnement de l’organe ou localiser une tumeur et ses métastases éventuelles.

Quelques exemples :
*         Le sucre marqué au fluor 18, émetteur bêta plus, favorise la détection des tumeurs (qui se développent vite et dont les cellules sont très avides de sucre) par un examen appelé « PET Scan » (TEP en français, pour Tomographie par émission de positons) ;
*         Les zones de dysfonctionnement du cœur peuvent apparaître en réalisant l’image de la répartition d’une injection de thallium 201 lors d’une scintigraphie ;
*         L’injection d’une petite quantité d’iode 123 permet de faire une scintigraphie de la thyroïde (qui a une très grande affinité pour l’iode, stable ou radioactif).

La curiethérapie est également une application médicale des radionucléides. Cette technique consiste à disposer plus ou moins longtemps une source radioactive à proximité de tumeurs cancéreuses pour les irradier et les détruire, sans trop abîmer les zones saines périphériques. Il peut s’agir d’un implant chirurgical (bille d’iode 125 en porcelaine au contact de la prostate) ou d’un fil (d’iridium 192 par exemple) guidé dans un cathéter dont l’extrémité conduit au site tumoral à traiter.
Lorsque le traitement d'un cancer n’est pas possible par curiethérapie, les médecins ont recours à la radiothérapie externe. La source de rayonnements irradie la tumeur depuis l’extérieur de l’organisme. Aujourd’hui, les très fortes sources radioactives ne sont plus utilisées dans cette technique qui met plutôt en œuvre des accélérateurs d’électrons. Les médecins peuvent également utiliser la radiothérapie interne vectorisée (ou radiothérapie métabolique) en injectant des radioéléments de fortes activités qui viennent irradier un organe ciblé au plus près. Par exemple, l’injection d’une grande quantité d’iode 131 permet l’irradiation de la thyroïde.

Les chercheurs utilisent aussi la médecine nucléaire pour comprendre le fonctionnement des organes. Par exemple, les techniques mises en œuvre pour l’étude du cerveau révèlent directement les zones de celui-ci impliquées dans la vision, la mémorisation, l’apprentissage des langues ou le calcul mental.

POUR L’ÉTUDE DE L’ENVIRONNEMENT
La mesure de l’absorption du rayonnement émis par une source radioactive indique la densité ou l’épaisseur du milieu traversé entre la source et un détecteur. Grâce à cette jauge, il est possible de suivre en continu la teneur de matières en suspension dans l’eau d’un fleuve comme le Rhône, et ainsi réguler la purge de son barrage de façon à ne pas dépasser le niveau qui mettrait en péril la faune et la flore. Marquer un sédiment ou un polluant avec un radionucléide de période courte permet de le suivre à la trace. L’objectif : optimiser les tracés de routes ou d’autoroutes pour minimiser les risques de pollution, ou contrôler si les sites enfouis de stockage des déchets n’ont pas d’infiltration.

TP "Utilisation d'un appareil de gammagraphie GAM 80" à l’Institut national des sciences et techniques nucléaires de Cherbourg-Octeville. © F.Rhodes/CEA


Les chercheurs utilisent aussi le déplacement de radionucléides naturels ou artificiels pour suivre le déplacement de masses d’air, de masses d’eau… et analyser l’érosion des sols. Dans ce cas, ils recherchent des traces de césium 137, répandu dans l’atmosphère lors des essais des bombes thermonucléaires ou de l’accident de Tchernobyl et donc facilement datables, ou de plomb 210, descendant naturel du radon 222, tous deux traceurs du phénomène de sédimentation. Comme le plomb et le césium sont fortement retenus par les fines particules du sol, suivre leurs teneurs grâce aux rayonnements qu’ils émettent revient à suivre les mouvements de ces particules, c’est-à-dire l’érosion et la sédimentation.

DANS L'INDUSTRIE
L’industrie utilise de nombreux équipements opaques et produit de nombreux objets. Les rayonnements issus de certains radionucléides servent à mesurer en continu leur épaisseur ou leur densité : plus le nombre de rayonnements qui traversent l’équipement ou l’objet est faible, plus celui-ci est épais ou dense. L’étude porte en particulier sur le comportement de produits dans des conteneurs ou des tuyaux. Les industries concernées sont multiples : chimie, pétrole et pétrochimie, fabrication de ciment, d’engrais, de pâte à papier, métallurgie, travaux publics…
Lorsque les pièces à radiographier sont trop épaisses et denses, les générateurs de rayons X ne sont plus en mesure d’être utilisés. Les rayonnements gamma, qui sont plus énergétiques, émis par de fortes sources radioactives, permettent alors de réaliser des radiographies appelées gammagraphies.
Ces mêmes rayonnements peuvent stériliser des produits médicaux ou alimentaires ou allonger la durée de conservation de certains produits agroalimentaires. Les micro-organismes sont éliminés par des doses suffisantes pour les tuer, sans dégrader le produit lui-même. Les rayonnements émis par de fortes sources radioactives provoquent des réactions chimiques dans le matériau irradié ; la qualité des produits industriels tels que les isolants des câbles électriques, les gaines thermorétractables, les prothèses, les revêtements en téflon, les parquets en alliages de bois et de plastique, les pneus... sont ainsi améliorés.
Pour finir, les rayonnements issus de sources radioactives peuvent ioniser profondément les atomes d’une matière à caractériser. Les atomes irradiés retrouvent rapidement leur état d’origine en émettant des rayonnements caractéristiques. En mesurant l’énergie de ces rayonnements secondaires, il est possible de remonter à l’élément qui les a émis. Cette technique d’analyse élémentaire permet de connaître la composition de matériaux et produits de l’industrie.

AU SERVICE DE L'ART

Préparation du contrôle gammagraphique de la Vénus de Milo au musée du Louvre. © C.Dupont/CEA


La gammagraphie est utilisée pour mettre en évidence les consolidations des statues et situer les inserts métalliques et cavités. Des mesures indispensables avant tout déplacement de ces œuvres d'art !

Les rayonnements sont aussi utiles lors d'opérations de conservation et restauration d'objets en matériaux organiques (bois, cuir, fibres…). Comme dans l'industrie, la radiostérilisation débarrasse les statues en bois de tous les insectes xylophages qui pourraient y avoir fait leur nid. De même, les objets trop fragilisés peuvent être consolidés par imprégnation d'une résine, qui sera ensuite greffée au bois par rayonnement gamma.

Les sources radioactives servent aussi à l’analyse élémentaire des peintures de tableaux afin de remonter à la composition des pigments utilisés par l’artiste, expertiser des œuvres, voire détecter des copies de faussaires.

AU SERVICE DE L'ESPACE
Dans les explorations lointaines, la lumière du Soleil est trop faible pour pouvoir alimenter les panneaux solaires d’un vaisseau spatial.
Il faut alors utiliser un générateur d’électricité embarqué. Une source radioactive, comportant des radionucléides émetteurs alpha de très grande activité, dégage une chaleur constante, convertie en électricité par un thermocouple. Ces générateurs RTG (Radioisotope Thermoelectric Generator) utilisent principalement du plutonium 238.

Des sources radioactives sont également utiles pour l’analyse élémentaire des sols à bord des engins déposés sur la Lune, les planètes et les comètes.

LA DATATION
Certains radionucléides naturels constituent de véritables chronomètres pour remonter dans le temps. Des méthodes de datation ont été mises au point, fondées sur la décroissance de la radioactivité contenue dans les objets ou vestiges étudiés. On peut ainsi remonter jusqu’à des dizaines de milliers d’années dans le passé avec le carbone 14, voire bien davantage avec d’autres méthodes telles que la thermoluminescence ou la méthode uraniumthorium.

Les travaux de recherche sur l’évolution du climat reposent sur le carottage et l’analyse physicochimique de multiples archives naturelles : glaces polaires, sédiments, stalagmites… Les scientifiques utilisent la datation potassium-argon pour les roches et la datation uranium-thorium pour les dépôts calcaires.

La datation au Carbone 14

Le spectromètre de masse de l'accélérateur Artémis permet de dater la mort d’un échantillon organique (bois, os, charbons de bois, foraminifères, bouquets séchés, tissus…) jusqu’à 45 000 ans avant la mesure. En 15 ans, 47 000 échantillons ont ainsi été datés. © L. Godart/CEA
La datation au carbone 14 permet d’aborder l’histoire de l’Homme et de son environnement sur une période de 5 000 à 50 000 ans avant aujourd’hui. Le carbone est très répandu dans notre environnement ; il entre en particulier dans la constitution de la molécule de dioxyde de carbone présente dans l’atmosphère. Ce carbone est constitué principalement de carbone 12. Cependant, du fait de l’interaction permanente des rayonnements cosmiques dans l’atmosphère, une petite proportion assez constante de carbone 14 radioactif se trouve à l’état naturel.
Le rapport carbone14/carbone12 est équilibré entre l’atmosphère et le monde du vivant (animal, végétal…) durant toute la vie grâce aux échanges nécessaires à celle-ci (respiration, photosynthèse et alimentation). Après la mort d’un organisme, le carbone 14 n’est plus renouvelé par ces échanges. Il se désintègre petit à petit et sa proportion diminue. La mesure du rapport carbone 14/carbone 12 permet donc de dater la mort : moins il reste de carbone 14 dans le carbone du fossile, plus la mort est ancienne.

 

 DOCUMENT     cea         LIEN

 
 
 
 

DE L'ATOME AU CRISTAL : LES PROPRIÉTÉS ÉLECTRONIQUES DES MATÉRIAUX

 

 

 

 

 

 

 

DE L'ATOME AU CRISTAL : LES PROPRIÉTÉS ÉLECTRONIQUES DES MATÉRIAUX

Réalisation : 23 juin 2005 - Mise en ligne : 23 juin 2005
*         document 1 document 2 document 3
*         niveau 1 niveau 2 niveau 3
*
Descriptif
Métaux, semi-conducteurs, ou même supraconducteurs transportant un courant électrique sans aucune résistance, les matériaux présentent une diversité de propriétés électroniques remarquable, mise à profit dans de nombreuses applications qui font partie de notre quotidien. La chimie de l'état solide, en explorant les très nombreuses combinaisons entre éléments pour élaborer des structures de plus en plus complexes, nous invite à un véritable jeu de construction avec la matière, source de nouvelles découvertes. En même temps, le développement de techniques permettant d'élaborer, de structurer, et de visualiser ces matériaux à l'échelle de l'atome, ouvre d'immenses perspectives. Des lois de la mécanique quantique qui régissent le comportement d'un électron, aux propriétés d'un matériau à l'échelle macroscopique, c'est une invitation au voyage au coeur des matériaux que propose cette conférence.


Documents pédagogiques

Transcription de la 580e conférence de l'Université de tous les savoirs prononcée le 23 juin 2005
De l'atome au cristal : Les propriétés électroniques de la matière
Par Antoine Georges
Les ordres de grandeur entre l'atome et le matériau :
1. Il existe entre l'atome et le matériau macroscopique un très grand nombre d'ordres de grandeur, d'échelles de longueur. Prenons l'exemple d'un lingot d'or : quelqu'un muni d'une loupe très puissante pourrait observer la structure de ce matériau à l'échelle de l'atome : il verrait des atomes d'or régulièrement disposés aux nSuds d'un réseau périodique. La distance entre deux de ces atomes est de l'ordre de l'Angstrom, soit 10-10m. Ainsi, dans un lingot cubique de un millimètre de côté, il y a 10 millions (107) d'atomes dans chaque direction soit 1021 atomes au total ! Les échelles spatiales comprises entre la dimension atomique et macroscopique couvrent donc 7 ordres de grandeur. Il s'agit alors de comprendre le fonctionnement d'un système composé de 1021 atomes dont les interactions sont régies par les lois de la mécanique quantique.
2. Malheureusement, une telle loupe n'existe évidemment pas. Cependant, il est possible de voir les atomes un par un grâce à des techniques très modernes, notamment celle du microscope électronique à effet tunnel. Il s'agit d'une sorte de « gramophone atomique », une pointe très fine se déplace le long d'une surface atomique et peut détecter d'infimes changements de relief par variation du courant tunnel (voir plus loin). Cette découverte a valu à ses inventeurs le prix Nobel de physique de 1986 à Gerd Karl Binnig et Heinrich Rohrer (Allemagne).
3. Nous pouvons ainsi visualiser les atomes mais aussi les manipuler un par un au point de pouvoir « dessiner » des caractères dont la taille ne dépasse pas quelques atomes ! (Le site Internet www.almaden.ibm.com/vis/stm/gallery.html offre de très belles images de microscopie à effet tunnel). Cette capacité signe la naissance du domaine des nanotechnologies où la matière est structurée à l'échelle atomique.
4. Les physiciens disposent d'autres « loupes » pour aller regarder la matière à l'échelle atomique. Parmi elles, le synchrotron est un grand anneau qui produit un rayonnement lumineux très énergétique et qui permet de sonder la structure des matériaux, des molécules ou des objets biologiques, de manière statique ou dynamique. Les applications de ce genre de loupe sont innombrables en physique des matériaux, chimie, biologie et même géologie (par pour l'étude des changements structuraux des matériaux soumis à de hautes pressions).
5. Il existe encore bien d'autres « loupes » comme par exemple la diffusion de neutrons, la spectroscopie de photo-émission, la résonance magnétique... Dans la diffusion de neutrons, un neutron pénètre un cristal pour sonder la structure magnétique du matériau étudié.
La grande diversité des matériaux :
6. Ces différentes techniques révèlent la diversité structurale des matériaux, qu'ils soient naturels ou artificiels. Le sel de cuisine, par exemple, a une structure cristalline très simple. En effet, il est composé d'atomes de sodium et de chlore régulièrement alternés. Il existe également des structures plus complexes, comme par exemple les nanotubes de carbone obtenus en repliant des feuilles de graphite sur elles-mêmes ou la célèbre molécule C60 en forme de ballon de football composée de 60 atomes de carbone (fullerènes)
7. Tous ces matériaux peuvent être soit présents à l'état naturel soit élaborés de manière artificielle. Cette élaboration peut être faite plan atomique par plan atomique en utilisant une technique appelée « épitaxie par jet moléculaire » dans laquelle un substrat est bombardé par des jets moléculaires. Les atomes diffusent pour former des couches monoatomiques. Cette technique permet alors de fabriquer des matériaux contrôlés avec une précision qui est celle de l'atome.
8. La diversité des matériaux se traduit donc pas une grande diversité des structures, mais aussi de leurs propriétés électroniques. Par exemple, la résistivité (c'est-à-dire la capacité d'un matériau à s'opposer au passage d'un courant : R=U/I) varie sur 24 ordres de grandeurs entre de très bons conducteurs et un très bon isolant, ce qui est encore bien plus que les 7 ordres de grandeurs des dimensions spatiales. Il existe donc des métaux (qui sont parfois de très bons conducteurs), des isolants (de très mauvais conducteurs), des semi-conducteurs et même des supraconducteurs. Ces derniers sont des métaux, qui en dessous d'une certaine température, n'exercent aucune forme de résistance et ne dissipent aucune énergie. D'autres matériaux encore voient leur gradient thermique évoluer en fonction du courant qui les traverse, ceci permet par exemple de fabriquer du « froid » avec de l'électricité ou fabriquer de l'électricité avec de la chaleur, ce sont des thermoélectriques. Enfin, la résistivité de certains matériaux est fonction du champ magnétique dans lequel ils sont placés.
9. Ces diversités, autant structurales qu'électroniques, sont et seront de plus en plus mises à profit dans d'innombrables applications. Nous pouvons citer parmi elles, le transistor, le circuit intégré, le lecteur CD, l'imagerie par résonance magnétique etc. Derrière ces applications pratiques, il y a des problèmes de physique et de chimie fondamentales, et pour parfaitement comprendre l'origine de cette diversité, il faut remonter aux lois de la mécanique quantique. Il s'agit donc de jeter un pont entre l'échelle macroscopique et le monde quantique, à travers ces fameux 7 ordres de grandeurs. Particulièrement dans ce domaine, les sciences théoriques et expérimentales interagissent énormément. Nous allons donc partir de l'échelle atomique pour essayer de comprendre le comportement macroscopique d'un matériau.
De l'atome au matériau :
10. Commençons donc par la structure atomique. Un atome est composé d'un noyau, autour duquel gravitent des électrons. L'électron est environ 2000 fois plus léger que les protons et neutrons, constituants de base du noyau. La taille de cet ensemble est d'environ 10-10m (un Angstrom).
11. Le système {noyau+électron} semble comparable au système {Terre+soleil}, dans ce cas, l'électron tournerait sur une orbite bien régulière autour du noyau. Il n'en n'est rien. Même si les physiciens ont, pour un temps, cru au modèle planétaire de l'atome, nous savons depuis les débuts de la mécanique quantique que le mouvement de l'électron est bien différent de celui d'une planète !
12. La première différence notable est que l'électron ne suit pas une trajectoire unique. En fait, nous ne pouvons trouver l'électron qu'avec une certaine probabilité dans une région de l'espace. Cette région est appelée orbitale atomique. La forme de ce nuage de probabilités dépend de l'énergie de l'électron et de son moment cinétique. Si cette région est sphérique, on parle d'orbitale « s », (cas de l'atome d'hydrogène où seul un électron tourne autour du noyau). On parle d'orbitale « p » lorsque le nuage de probabilités est en forme de 8, (atome d'oxygène). Enfin, lorsque ce nuage prend une forme de trèfle à quatre feuilles, on parle d'orbitale « d » (atome de fer). Ainsi, il n'existe pas de trajectoires à l'échelle quantique, mais uniquement des probabilités de présence.
13. De plus, l'énergie d'un électron ne peut prendre que certaines valeurs bien déterminées, l'énergie est quantifiée (origine du terme quantique). La localisation de ces différents niveaux d'énergies et la transition entre ces niveaux par émission ou par absorption a été à l'origine de la mécanique quantique. Ces travaux ont valu à Niels Bohr le prix Nobel de physique de 1922. L'état d'énergie le plus bas est appelé état fondamental de l'atome. Il est par ailleurs possible d'exciter l'électron (avec de la lumière, par exemple) vers des niveaux d'énergie de plus en plus élevés. Ceci est connu grâce aux spectres d'émission et d'absorption de l'atome, qui reflètent les différents niveaux d'énergie possibles.
14. La troisième particularité du mouvement de l'électron est son Spin, celui-ci peut être représenté par une représentation imagée : l'électron peut tourner sur lui-même vers la gauche ou vers la droite, en plus de sa rotation autour du noyau. On parle de moment cinétique intrinsèque ou de deux états de Spin possibles. Pauli, physicien autrichien du XXéme siècle, formula le principe d'exclusion, à savoir qu'un même état d'énergie ne peut être occupé par plus de deux électrons de Spin opposé. Nous verrons plus loin qu'il est impossible de connaître l'état macroscopique d'un matériau sans tenir compte du principe d'exclusion de Pauli. Pour l'atome d'hélium par exemple, la première (et seule) couche contient deux atomes et deux seulement, il serait impossible de rajouter un atome dans cette couche, elle est dite complète.
15. On peut considérer grâce à ces trois principes (description probabiliste, niveaux d'énergies quantifiés et principe d'exclusion) que l'on remplit les couches électroniques d'un atome avec les électrons qui le constituent. Les éléments purs, dans la nature, s'organisent alors de manière périodique, selon la classification de Mendeleïev. Cette classification a été postulée de manière empirique bien avant le début de la mécanique quantique, mais cette organisation reflète le remplissage des couches atomiques, en respectant le principe d'exclusion de Pauli.
16. Un autre aspect du monde quantique est l'effet tunnel. Dans le microscope du même nom, cet effet est mis à profit pour mesurer une variation de relief. L'effet tunnel est une sorte de « passe-muraille quantique ». En mécanique classique, un personnage qui veut franchir un obstacle doit augmenter son niveau d'énergie au dessus d'un certain niveau. En mécanique quantique, en revanche, il est possible de franchir cet obstacle avec une certaine probabilité même si notre énergie est inférieure au potentiel de l'obstacle. Bien sûr, cette probabilité diminue à mesure que cette différence d'énergie augmente.
17. Cet effet tunnel assure la cohésion des solides, et permet aussi à un électron de se délocaliser sur l'ensemble d'un solide. Cet effet tunnel est possible grâce à la dualité de l'électron : il est à la fois une particule et une onde. On peut mettre en évidence cette dualité grâce à l'expérience suivante : une source émet des électrons un par un, ceux-ci ont le choix de passer entre deux fentes possibles. La figure d'interférence obtenue montre que, bien que les électrons soient émis un par un, ils se comportent de manière ondulatoire.
18. Les électrons des couches externes de l'atome (donc les moins fortement liés au noyau) vont pouvoir se délocaliser d'un atome à l'autre par effet tunnel. Ces « sauts », sont à l'origine de la cohésion d'un solide et permettent également la conduction d'un courant électronique à travers tout le solide.
19. Une autre conséquence de cet effet tunnel est que l'énergie d'un solide n'est pas une simple répétition n fois des niveaux d'énergie de chaque atome isolé. En réalité, il apparaît une série d'énergies admissibles qui se répartissent dans une certaine gamme d'énergie, cette gamme est appelée bande d'énergie permise. D'autres gammes restent interdites. Ainsi, si les atomes restent éloignés les uns des autres, les bandes d'énergies admises sont très étroites, mais à mesure que la distance inter-atomique diminue, ces bandes s'élargissent et le solide peut alors admettre une plus large gamme de niveaux d'énergie.
20. Nous pouvons penser, comme dans la classification périodique, que les électrons remplissent ces bandes d'énergies, toujours en respectant le principe d'exclusion de Pauli. L'énergie du dernier niveau rempli est appelée énergie du niveau de Fermi. La manière dont se place ce dernier niveau rempli va déterminer la nature du matériau (métal ou isolant). Si le niveau de Fermi se place dans une bande d'énergie admise, il sera très facile d'exciter les électrons, le matériau sera donc un métal. Si au contraire le niveau de Fermi se place dans une bande d'énergie interdite, il n'est pas possible d'exciter les électrons en appliquant une petite différence de potentiel, nous avons donc affaire à un isolant. Enfin, un semi-conducteur est un isolant dont la bande d'énergie interdite (« gap », en anglais), est suffisamment petite pour que l'on puisse exciter un nombre significatif de porteurs de charge simplement avec la température ambiante.
Nous voyons donc que l'explication de propriétés aussi courantes des matériaux repose sur les principes généraux de la mécanique quantique.
21. Ainsi, dans un solide constitué d'atomes dont la couche électronique externe est complète, les électrons ne peuvent sauter d'un atome à l'autre sans violer le principe d'exclusion de Pauli. Ce solide sera alors un isolant.
22-23. En réalité, les semi-conducteurs intrinsèques (les matériaux qui sont des semi-conducteurs à l'état brut) ne sont pas les plus utiles. On cherche en fait à contrôler le nombre de porteurs de charge que l'on va induire dans le matériau. Pour cela, il faut créer des états d'énergies très proches des bandes permises (bande de conduction ou bande de Valence). On introduit à ces fins des impuretés dans le semi-conducteur (du bore dans du silicium, par exemple) pour fournir ces porteurs de charges. Si on fournit des électrons qui sont des porteurs de charges négatifs, on parlera de dopage N. Si les porteurs de charges sont des trous créés dans la bande de Valence, on parlera de dopage P.
24. L'assemblage de deux semi-conducteurs P et N est la brique de base de toute l'électronique moderne, celle qui permet de construire des transistors (aux innombrables applications : amplificateurs, interrupteurs, portes logiques, etc.). Le bond technologique dû à l'invention du transistor dans les années 1950 repose donc sur tout l'édifice théorique et expérimental de la mécanique quantique. L'invention du transistor a valu le prix Nobel en 1956 à Brattain, Shockley et Bardeen. Le premier transistor mesurait quelques centimètres, désormais la concentration dans un circuit intégré atteint plusieurs millions de transistors au cm². Il existe même une célèbre loi empirique, proposée par Moore, qui observe que le nombre de transistors que l'on peut placer sur un microprocesseur de surface donnée double tous les 18 mois. Cette loi est assez bien vérifiée en pratique depuis 50 ans !
25. En mécanique quantique, il existe un balancier permanent entre théorie et expérience. La technologie peut induire de nouvelles découvertes fondamentales, et réciproquement.
Ainsi, le transistor à effet de champ permet de créer à l'interface entre un oxyde et un semi-conducteur un gaz d'électrons bidimensionnel, qui a conduit à la découverte de « l'effet Hall quantifié ».
26. Cette nappe d'électron présente une propriété remarquable : lorsqu'on applique un champ magnétique perpendiculaire à sa surface, la chute de potentiel dans la direction transverse au courant se trouve quantifiée de manière très précise. Ce phénomène est appelé effet Hall entier (Klaus von Klitzing, prix Nobel 1985) ou effet Hall fractionnaire (Robert Laughlin, Horst Stormer et Daniel Tsui, prix Nobel 1998).
27. L'explication de ces phénomènes fait appel à des concepts fondamentaux de la physique moderne comme le phénomène de localisation d'Anderson, qui explique l'effet des impuretés sur la propagation des électrons dans un solide. Nous voyons donc encore une fois cette interaction permanente entre technologie et science fondamentale.
La supraconductivité :
28. Il existe donc des métaux, des isolants, des semi-conducteurs. Il existe un phénomène encore plus extraordinaire : la supraconductivité. Il s'agit de la manifestation d'un phénomène quantique à l'échelle macroscopique : dans un métal « normal », la résistance tend vers une valeur finie non nulle lorsque la température tend vers 0 alors que dans un métal supraconducteur, la résistance s'annule en dessous d'une certaine température dite critique. Les perspectives technologiques offertes par la supraconductivité paraissent donc évidentes car il serait alors possible de transporter un courant sans aucune dissipation d'énergie. Le problème est de contrôler la qualité des matériaux utilisés, et il serait évidemment merveilleux de pouvoir réaliser ce phénomène à température ambiante...
29. La supraconductivité a été découverte par Kammerlingh Onnes en 1911 quand il refroidit des métaux avec de l'hélium liquide à une température d'environ 4 degrés Kelvin.
30. Ce phénomène ne fut expliqué que 46 ans plus tard, car il fallait tout l'édifice de la mécanique quantique pour réellement le comprendre. Nous devons cette explication théorique à Bardeen, Cooper et Schieffer à la fin des années 1950.
31. Dans un métal, il y a une source naturelle d'attraction entre les électrons. On peut imaginer que chaque électron déforme légèrement le réseau cristallin et y attire un autre électron pour former ce que l'on nomme une paire de Cooper. Ces paires peuvent échapper au principe d'exclusion de Pauli car elles ont un Spin 0. Elles se comportent alors comme des bosons et non plus comme des fermions, et s'écroulent dans un même état d'énergie pour former un état collectif. Le matériau a un comportement analogue à l'état de superfluide de l'hélium 4. Toutes ces paires de Cooper sont donc décrites par une unique fonction d'onde, c'est un état quantique macroscopique. Il existe donc de nombreuses propriétés qui révèlent cet état quantique à l'échelle du matériau.
32. A la fin des années 1950, la théorie de la supraconductivité est enfin comprise et le but est maintenant d'augmenter la température critique. Une véritable course est alors lancée, mais celle-ci n'eut pas que des succès. Alors que en 1911 Kammerlingh Onnes observait la supraconductivité du mercure à une température de 4K, à la fin des années 80, nous en étions encore à environ 30K. En 1986, cette température critique fait un bond considérable et se trouve aujourd'hui aux alentours des 140K. La température de l'azote liquide étant bien inférieure à ces 140K, il est désormais moins coûteux d'obtenir des supraconducteurs.
33. Ces supraconducteurs possèdent des propriétés étonnantes. Par exemple, un champ magnétique ne peut pénétrer à l'intérieur d'un matériau supraconducteur. Ceci permet de faire léviter un morceau de supraconducteur en présence d'un champ magnétique !
34. Cette « lévitation magnétique » offre de nouvelles perspectives : il est par exemple possible de faire léviter un train au dessus de ses rails, il faut alors très peu d'énergie pour propulser ce train à de grandes vitesses. Un prototype japonais a ainsi atteint des vitesses de plus de 500km/h.
Les supraconducteurs permettent de créer des champs magnétiques à la fois très intenses et contrôlés, et servent donc pour l'imagerie par résonance magnétique (IRM). Ceci offre bien sûr de nouvelles possibilités en imagerie médicale.
Les supraconducteurs peuvent être également utilisés pour créer de nouveaux outils pour les physiciens : dans le nouvel accélérateur de particules au CERN à Genève, les aimants sont des supraconducteurs.
35. L'année 1986 voit une véritable révolution dans le domaine de la supraconductivité. Bednorz et Muller découvrent en effet une nouvelle famille de matériaux supraconducteurs qui sont des oxydes de cuivre dopés. En l'absence de dopage, ces matériaux sont des isolants non-conventionnels, dans lesquels le niveau de Fermi semble être dans une bande permise (isolants de Mott). La température critique de ces supraconducteurs est bien plus élevée que dans les supraconducteurs conventionnels : le record est aujourd'hui de 138 degrés Kelvin pour un composé à base de mercure. C'est une très grande surprise scientifique que la découverte de ces nouveaux matériaux, il y a près de vingt ans.
Des matériaux aux propriétés étonnantes :
36. Ces sont donc des isolants d'un nouveau type, dits de Mott. Ces matériaux sont isolants non pas parce que leur couche extérieure est pleine mais parce que les électrons voulant sauter d'un atome à l'autre par effet tunnel se repoussent mutuellement.
37. La compréhension de la physique de ces matériaux étonnants est un grand enjeu pour les physiciens depuis une vingtaine d'années. En particulier, leur état métallique demeure très mystérieux et ne fait à ce jour pas le consensus de la communauté scientifique.
38. Il est également possible de fabriquer des métaux à partir de molécules organiques, nous obtenons alors des « plastiques métalliques » pouvant également devenir supraconducteurs en dessous d'une certaine température (découverte par Denis Jérome et son équipe à Orsay en 1981). Le diagramme de phase des supraconducteurs organiques est au moins voire plus compliqué que celui des oxydes métalliques.
39. Actuellement, des recherches sont menées sur des alliages ternaire, et quaternaires qui semblent offrir encore de nouvelles propriétés. Par exemple, les oxydes de manganèse ont une magnétorésistance colossale, c'est-à-dire que leur résistance varie beaucoup en présence d'un champ magnétique. Cette particularité pourrait être utilisée dans le domaine de l'électronique de Spin, où on utilise le Spin des électrons, en plus de leur charge pour contrôler les courants électriques. Les oxydes de Cobalt, quant à eux, présentent la propriété intéressante d'être des thermoélectriques (i.e capables de produire un courant électrique sous l'action d'un gradient de température).
Il existe donc de très nombreux défis dans ce domaine, ils sont de plusieurs types. D'abord, l'élaboration de structures peut permettre de découvrir de nouveaux matériaux aux nouvelles propriétés qui soulèvent l'espoir de nouvelles applications.
Mais il existe aussi des défis théoriques : est il possible de prédire les propriétés d'un matériau à partir des lois fondamentales ? Des progrès importants ont été réalisés durant la seconde partie du XXème siècle et ont valu à Walter Kohn le prix Nobel de chimie. Cependant, ces méthodes ne sont pas suffisantes pour prédire la physique de tous les matériaux, en particulier de ceux présentant de fortes corrélations entre électrons. Les puissances conjuguées de la physique fondamentale et calculatoire des ordinateurs doivent être mise à service de ce défi. Par ailleurs, de nouveaux phénomènes apparaissent dans ces matériaux qui amèneront certainement des progrès en physique fondamentale.
La chimie, la physique et l'ingénierie des matériaux et de leurs propriétés électroniques semblent donc avoir de beaux jours devant eux !

 

  VIDEO       CANAL  U         LIEN

 
 
 
 

Les étranges comportements thermiques du nanomonde

 

 

 

 

 

 

 

Les étranges comportements thermiques du nanomonde

30.11.2023, par Samuel Belaud, Délégation Rhône Auvergne
Mis à jour le 30.11.2023


Les recherches de Konstantinos Termentzidis et de son équipe dévoilent un monde fascinant où les lois de la thermique classique ne sont plus maîtresses. En levant le voile sur les échanges de chaleur entre un solide et un liquide à l'échelle nanométrique, les physiciens ouvrent la voie à des applications innovantes dans divers domaines industriels et technologiques.
Figurez-vous que l’effet Leidenfrost vous est familier ! Il se produit lorsque l’on verse de l’eau sur une surface très chaude, comme une poêle ou une plaque de cuisson. L’eau se met alors à danser et à former des gouttes rebondissantes, sans s’évaporer immédiatement.
Ce type d’interaction entre un liquide et un solide à l’échelle macroscopique est généralement bien caractérisé et décrit par les principes fondamentaux de la thermique. Parmi ceux-ci, la loi de Fourier, qui porte le nom du scientifique qui l’a formulée en 1822, permet de calculer la conduction thermique, c’est-à-dire la façon dont la chaleur se propage quand il y a une différence de température entre deux parties d’un même milieu ou entre deux milieux en contact. Cependant, à l’instar d’autres lois comme celle de Stefan-Boltzmann pour le rayonnement thermique, les développements fulgurants des nanotechnologies tendent à remettre en question leur applicabilité à de très petites échelles spatiales et temporelles.


Le chaos nano-thermique
 
Konstantinos Termentzidis, directeur de recherche au Centre d'énergétique et de thermique de Lyon1 (CETHIL), et son équipe ont récemment publié plusieurs articles permettant de percer les mystères du transport thermique à l’échelle nanométrique au sein de matériaux solides et de systèmes solides/liquides hybrides. Ils démontrent notamment qu’à cette échelle, la conductivité thermique prévue par la loi de Fourier n'est plus une propriété intrinsèque des matériaux, et que des comportements inattendus de dissipation de la chaleur apparaissent.
Le projet2 est né à la suite d’une curieuse idée soufflée par un collègue du physicien : créer un détecteur de pureté de vodka ! « Il était exaspéré par la faible qualité des breuvages qu’il trouvait, se rappelle le chercheur. Il a alors imaginé créer un dispositif nanoporeux léger, rapide et facile d’utilisation, pour mesurer le taux d’alcool et identifier les meilleurs liqueurs par rapport leurs signatures thermique unique ». Si l’idée n’a pas vu le jour, elle a été le point de départ d’une réflexion plus profonde sur les interactions entre un liquide (où la vodka devient de l’eau) et un solide d’échelle nanométrique.
À cette dimension - cent mille fois inférieure à l‘épaisseur d’un cheveu - les assemblages d’atomes ou de molécules présentent des propriétés physico-chimiques inhabituelles. Par exemple, le transfert d’énergie thermique au sein de nanomatériaux (ex. nanofils, nanotubes, super-réseaux, nanocomposites, matériaux nanoporeux, etc.) est très différent de celui observé aux échelles micro et macroscopique. « Nos recherches consistent à observer et simuler ces comportements qui échappent aux lois de la thermique classique, explique Konstantinos Termentzidis, pour ensuite les caractériser, les maîtriser et enfin améliorer la gestion de la chaleur dans les nanotechnologies ou les matériaux nanoporeux ».
Et de poursuivre : « nous avons par exemple observé un phénomène très particulier, relatif à la stratification des molécules d’eau à proximité de surfaces solides ». Dans le détail, les chercheurs ont constaté que la densité des molécules d’eau, ainsi que la quantité de liaisons d’hydrogène qui les relient3, variaient en s’éloignant de quelques nanomètres de la surface du solide. « Ce type de comportement pourrait expliquer les écarts de conductivité constatés à l’échelle nanométrique » avance le physicien.
 
Éviter le coup de chaud
 
Une fois ces phénomènes déroutants caractérisés, les chercheurs ont pu mener des expériences de fonctionnalisation de surface. Ce procédé consiste à modifier les propriétés de la surface d’un nanomatériau, afin d’optimiser ses performances ou de lui conférer de nouvelles fonctions, par exemple en termes d’adhérence, de réactivité, de biocompatibilité. « Dans notre cas, illustre Konstantinos Termentzidis, cela nous permet de jouer sur l’hydrophobicité et l’hydrophilie4 de surfaces, pour mieux contrôler les interactions thermiques entre liquides et solides à l’échelle nanométrique et éviter par exemple les effets de surchauffe qui contraignent beaucoup les nanotechnologies actuellement ».

Simulations d’interactions entre le solide nanoporeux (silicium - en jaune) et les molécules d’eau (en bleu et rouge). Les figures du haut sont en 2D, celles d’en bas en 3D. La dernière figure (d) simule le comportement habituel (amorphe) de l’eau dans ces conditions © Konstantinos Termentzidis
Cette technique offre un potentiel considérable pour optimiser les matériaux nanoporeux, qui sont ensuite utilisés dans une large gamme d'applications, allant des catalyseurs dans l'industrie pétrochimique et chimique, à la captation de CO2, en passant par le stockage d'énergie et la nanotechnologie médicale. La fonctionnalisation de surface est également essentielle au développement des dispositifs NEMS (systèmes micro électromécaniques nanométriques) et MEMS (systèmes micro électromécaniques).
Plus largement, les recherches que mènent ces scientifiques permettent de développer des modèles et des outils mieux adaptés à la gestion du transfert de chaleur dans les nanomatériaux et les systèmes complexes. C’est le cas notamment pour la microscopie thermique à balayage (ou scanning thermal microscopy, en anglais), dont la sonde qui permet de mesurer la conductivité thermique pourra être nettement améliorée. Avec cet outil ainsi optimisé, les chercheurs envisagent des progrès significatifs dans la compréhension du transport de l’énergie à l’échelle de l’infiniment petit.

Vers une nouvelle loi de la thermique ?
 
Il reste aux scientifiques certaines problématiques à résoudre avant de voir leurs travaux se concrétiser à l’échelle industrielle. Konstantinos Termentzidis explique par exemple que le phénomène d'augmentation inattendue de la conductivité thermique de l’eau au sein de systèmes nanoporeux qu’ils ont observés, est maximisé autour d’une température de 300 Kelvins (la température à laquelle les expériences sont menées). Cependant, les effets diminuent à des températures plus basses ou plus élevées. Comprendre comment et pourquoi ces comportements varient en fonction de la température est indispensable pour imaginer traduire ces recherches dans les nano-objets de demain.
D’ici-là, leur démonstration de l’inapplicabilité de la loi de Fourier à l'échelle nanométrique permet déjà à la recherche en physique d’avancer à grands pas. La construction d’une nouvelle loi est par conséquent attendue pour objectiver ces phénomènes dans une équation, qui soit admise et partagée par les chercheurs. Le physicien l’admet, « l’élaboration d’une nouvelle loi physique qui inclurait tous ces phénomènes exotiques observés à de petites échelles ne se décrète pas si aisément ». Il faut du temps, de la collaboration et surtout beaucoup de moyens pour y parvenir.
De ce point de vue,« la nano-thermique est très développée, notamment en France, aux Etats-Unis, au Japon et en Chine » rassure le chercheur. Les nouvelles connaissances5 que les scientifiques ont déjà produites et la force du réseau international de physiciens, chimistes et ingénieurs des matériaux spécialisés ouvrent la voie à de prochains bouleversements théoriques et technologiques.
---------------------------
Ces recherches ont été financées en tout ou partie, par l’Agence Nationale de la Recherche (ANR) au titre du projet ANR-Hotline-AAPG2018. Cette communication est réalisée et financée dans le cadre de l’appel à projet Sciences Avec et Pour la Société - Culture Scientifique Technique et Industrielle pour les projets JCJC et PPRC des appels à projets génériques 2018-2019 (SAPS-CSTI-JCJ et PRC AAPG 18/19).
 
Notes
*         1.
Unité CNRS, INSA Lyon, Université Claude-Bernard Lyon 1
*         2.
Le projet ANR HOTLINE, a été porté en collaboration avec des membres du Laboratoire énergie et mécanique théorique et appliquée - LEMTA (unité CNRS, université Lorraine) et l'Institut des nanotechnologies de Lyon (unité CNRS, CPE Lyon, Ecole Centrale de Lyon, INSA de Lyon et Université Claude Bernard Lyon 1)
*         3.
Liaison faible entre un atome d'hydrogène d’une molécule d’eau A avec un atome d'oxygène d’une molécule d’eau B
*         4.
Propriété d’une substance ayant une répulsion (hydrophobicité) ou une affinité (hydrophilie) pour l’eau
*         5.
Plusieurs autres phénomènes éloignés des lois classiques ont été observés ces dernières décennies : régime balistique et hydrodynamique de la chaleur, “seconde sound”, effets de tunneling, rectification thermique, effet d'interférence thermique, etc.

 


            DOCUMENT         CNRS         LIEN  

 

 
 
 
 

Pour un développement citoyen

 

 

 

 

 

 

 

Pour un développement citoyen

Les usages et les impacts des nanotechnologies font l’objet de nombreuses études portant sur la maîtrise des risques potentiels.

Publié le 1 juillet 2012

LES NANOTECHNOLOGIES : DES APPLICATIONS DANS TOUS LES DOMAINES
Les nanotechnologies devraient permettre de créer des objets rendant plus de services en utilisant moins de matière première et d’énergie. Elles pourraient ainsi amoindrir l’impact environnemental de certaines industries (comme celles liées à l’énergie) ou activités (comme les transports ou les technologies de l’information).
Parallèlement à leur apport dans le domaine des nouvelles technologies de l’énergie, elles contribueront à diminuer la consommation d’énergie en améliorant le rendement énergétique d’objets courants. Ainsi, citons des matériaux plus légers et résistants utilisés pour les véhicules, le remplacement des lampes à incandescence par des diodes électroluminescentes (beaucoup moins gourmandes en électricité), le remplacement des écrans cathodiques par des systèmes à cristaux liquides (dix fois moins consommateurs)… Enfin, un des enjeux, et non des moindres, est de développer des composants nanoélectroniques faible consommation pour des systèmes de calcul efficaces énergétiquement ; 13 % de l’électricité mondiale est aujourd’hui consacrée à ce secteur !
Les nanotechnologies peuvent contribuer à la détection des pollutions : des nano-capteurs fiables, rapides et peu onéreux permettront de traquer toutes sortes de molécules organiques ou minérales indésirables dans l'eau, l'air ou le sol. Une fois détectées, il faut remédier à ces pollutions ; qu'il s'agisse du traitement des eaux ou de la conception de nouveaux catalyseurs pour emprisonner les nanoparticules des fumées des moteurs d'automobiles, des réacteurs d'avions, des cheminées d'usines…

Un panel international de spécialistes a listé les dix applications des nanotechnologies jugées comme les plus intéressantes pour les pays en voie de développement : énergie (nouvelles cellules solaires et piles à combustible), agriculture (nanofertilisants), traitement de l'eau (filtration, décontamination, désalinisation), diagnostic médical, délivrance de médicaments, emballage et stockage des aliments, remédiation de la pollution atmosphérique, matériaux de construction, suivi de paramètres biologiques (glycémie, cholestérol), détection des insectes nuisibles et des vecteurs de maladies. Certaines d'entre elles ne sont pas trop compliquées, chères ou demandeuses d'infrastructures et peuvent être développées sur place. L'Inde, le Brésil ou la Chine y consacrent des investissements importants, et de nombreux autres pays, qui possèdent déjà une infrastructure universitaire et industrielle, comme l'Afrique du Sud, la Thaïlande ou l'Argentine font également de la recherche en nanotechnologies.

Des recherches en toxicologie évaluent les dangers réels ou supposés des nanotechnologies.

RISQUES POTENTIELS
La notion de risque lié aux nanotechnologies comporte deux aspects : le danger (issu de la toxicité) et l’exposition. Les recherches en toxicologie sont là pour évaluer les dangers réels ou supposés.
L'étude de la pollution urbaine recherche son impact sur la santé humaine, notamment les effets des particules ultrafines émises par les véhicules diesel. Sur le même schéma, d'autres études qui font état d'interactions entre nanoparticules et cellules incitent à la prudence en cas d’inhalation, de pénétration par voie cutanée ou digestive. Une démarche d’anticipation est donc mise en place.
Dans les ateliers de production et de mise en œuvre, si les nanoparticules sont constituées de matière toxique (métaux lourds par exemple), elles peuvent exposer les hommes aux mêmes risques que sous forme macroscopique. Un risque potentiel supplémentaire est lié aux propriétés spécifiques des nanoparticules : surface multipliée, réactivité chimique… Des recherches sont donc menées actuellement pour étudier le devenir des nanoparticules et nanofibres si elles étaient inhalées. Les bonnes pratiques de travail sont très similaires à celles recommandées pour tout produit chimique dangereux, mais elles revêtent une importance particulière en raison de la grande capacité de diffusion des nano-objets dans l'atmosphère. Dans le milieu industriel, il faut concevoir des procédés qui minimisent les étapes d’exposition potentielles, par exemple en réalisant la collecte des nano-objets en phase liquide afin de garantir leur non-diffusion en cas d’incident. Il faut aussi veiller à automatiser les étapes du procédé, capter les polluants à la source, filtrer l'air des locaux avant rejet dans l'atmosphère, et équiper individuellement chaque travailleur d'une protection respiratoire et cutanée.
Dans le cas du consommateur, il s’agit d’éviter qu’il soit mis en contact avec un produit potentiellement dangereux. Ainsi, tout est mis en œuvre pour que les produits grand public ne contiennent pas de nanoparticules libres et pour éviter qu’un produit n’en génère, par exemple lorsqu’il vieillit ou se dégrade.
Des questions se posent sur les effets potentiels des nanoparticules manufacturées dans l’environnement (comportement, mécanismes de dégradation) et l’impact de leur dispersion sur les écosystèmes (danger éventuel pour certaines espèces). Des recherches visant à étudier leur écotoxicité sont mises en place.
De nombreux états, comme les États-Unis et la France, se mobilisent pour évaluer et maîtriser les risques liés aux nanoparticules et leurs effets secondaires éventuels ; prenant en compte leurs caractéristiques, leurs possibles voies de contamination, les moyens de protection, les moyens de production, le comportement des nanoparticules dans l’environnement…

En Europe, le CEA s’est associé en 2005 avec des partenaires R&D de l’industrie chimique et technologique pour constituer un « projet intégré » baptisé Nanosafe 2. Ce projet se décompose en quatre axes de développement :
*         technologies de détection et de caractérisation des nanoparticules dès l’étape de production ;
*        
*         réseau international pour constituer une base de données sur les effets des nanoparticules sur l’organisme et l’environnement ;
*        
*         filières industrielles entièrement intégrées, dont l’objectif est de produire sans mettre en contact le précurseur de la nanoparticule (aérosol, gaz, liquide) et le composant final ;
*        
*         études d’analyses du cycle de vie et de filières de recyclage, afin de maîtriser les effets sur la santé et l’environnement, en association avec la Commission européenne de normalisation.
Des structures d'études
pour les nanos au CEA
*         OMNT : Observatoire des micro et nanotechnologies
La mission de cet observatoire, lancé en 2005 à l’initiative du CEA et du CNRS, consiste à réaliser en continu une veille scientifique et technologique dans le domaine des micro- et nanotechnologies. Il s’appuie pour ce faire sur un réseau de plus de 230 experts français et européens. Ainsi, il peut informer les organismes et ministères concernés et fournir aux industriels une information pertinente et actualisée.

*         LARSIM : Laboratoire des recherches sur les sciences de la matière
Le LARSIM a vu le jour au sein du CEA en 2007. Premier laboratoire du CEA dédié à la philosophie des sciences, le LARSIM a pour but d’étudier et de mieux faire comprendre les enjeux de la recherche scientifique contemporaine. Parallèlement à son travail sur la place de la science dans la société, le LARSIM mène un programme de recherche en fondements de la physique.

Pour la première fois, les répercussions sanitaires, environnementales et sociales sont considérées et étudiées parallèlement au développement des technologies et à la mise en place de méthodes sûres de production des nanoparticules. Cette simultanéité devrait permettre l’anticipation et la maîtrise des risques potentiels associés et faire évoluer des réglementations spécifiques en fonction des progrès des connaissances et des recherches en cours.

QUESTIONS ÉTHIQUES POSÉES PAR LES NANOSCIENCES ET LES NANOTECHNOLOGIES
Par rapport à la problématique des nanotechnologies, la réflexion éthique dépasse les limites de la pure déontologie, définie comme un ensemble de comportements et de règles professionnelles. L’éthique analyse les changements que la recherche scientifique introduit dans le monde, les responsabilités des chercheurs vis-à-vis de la société et les réactions que suscitent en son sein les nouveautés techniques. L’excellence scientifique et l’innovation doivent être accompagnées des mesures de précaution correspondant aux incertitudes sur les nouveaux produits issus des nanotechnologies. S’ils souhaitent assurer l’acceptabilité des fruits de leurs recherches, les chercheurs sont tenus à prendre en considération les intérêts des différents acteurs. De multiples rapports tentent ainsi d’évaluer les impacts potentiels des nanotechnologies sur la société, par exemple, le rapport britannique « Nano­sciences et nanotechnologies : opportunités et incertitudes » réalisé en 2004.
Il recommande d’appliquer le principe de précaution, tout comme le rapport du Comité de la prévention et de la précaution français en 2006, suivi par celui de l’Agence française de sécurité sanitaire et de l’environnement au travail. L’Office parlementaire d’évaluation des choix scientifiques et technologiques a organisé plusieurs concertations sur les nanotechnologies et établi un rapport « Nanosciences et progrès médical », incitant à mener les recherches sur les nano­sciences et nanotechnologies en parallèle avec celles sur les risques et impacts éventuels.
Depuis 2005, la Commission européenne a lancé un Plan stratégique européen afin de mener une réflexion approfondie sur les risques, les usages et les impacts des nanotechnologies. Mi-2007, elle a proposé l’adoption d’un code de conduite sur le même sujet, qui a été publié en février 2008. La Commission a également mis en place en mars 2008 le nouvel Observatoire européen des nanotechnologies.Pour la France, cet observatoire s’appuiera sur l’OMNT et le LARSIM.

 

  DOCUMENT     cea         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 ] - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon