ecole de musique piano
     
menu
 
 
 
 
 
 

Les animaux artificiels sont-ils pour demain?

 

 

 

 

 

 

 

Les animaux artificiels sont-ils pour demain?


mensuel 313
daté octobre 1998 -

Aucun agent artificiel ne peut aujourd'hui rivaliser avec le plus simple des animaux. Mais les « animats » conçus par les chercheurs possèdent des performances de plus en plus étonnantes. Une approche complémentaire de l'intelligence artificielle traditionnelle est en train de naître. Elle vise moins à reproduire l'intelligence de l'homme qu'à simuler les comportements adaptatifs qui permettent aux animaux de survivre.

Dans de nombreux domaines, le besoin d'utiliser des agents autonomes se fait sentir. Pour accomplir une mission donnée dans un environnement plus ou moins prévisible - par exemple partir à la recherche d'une information précise sur Internet ou aller explorer une planète lointaine -, il est en effet indispensable que de tels agents soient capables d'adapter leur comportement aux circonstances imprévues, et ce sans aucune intervention humaine. En d'autres termes, le succès de leur mission dépend de leur aptitude à exhiber des comportements adaptatifs. Aucun agent artificiel ne peut encore rivaliser de ce point de vue avec le moindre animal, aussi simple et primitif soit-il. Cependant, l'apparition de nouveaux paradigmes en informatique et en robotique - réseaux de neurones, algorithmes génétiques, robotique évolutionniste, par exemple - ainsi que les gains considérables en temps de calcul offerts par les ordinateurs modernes, ont permis d'avancer beaucoup dans cette direction. En particulier, de nombreux chercheurs s'attachent depuis une dizaine d'années à concevoir ce que nous avons appelé des « animats » - agents simulés sur ordinateur ou robots matériels - dont les lois de fonctionnement sont inspirées de mécanismes naturels, et dont les comportements présentent certaines des capacités d'autonomie et d'adaptation des animaux. Un animat est généralement équipé de senseurs, d'actuateurs, et d'un programme informatique constituant une architecture de contrôle qui relie ses perceptions à ses actions. Cette organisation lui permet d'assumer une certaine mission dans son environnement ou d'apprendre à réaliser le mieux possible une certaine tâche, tout en réussissant à « survivre » le plus longtemps possible. Cette survie dépend de variables essentielles dont l'évolution temporelle doit être maintenue dans une zone de viabilité idoine.
L'architecture de contrôle d'un animat peut être innée - au sens où elle a été programmée ou câblée par un humain - ou acquise - au sens où elle résulte d'un apprentissage survenu au cours de la vie individuelle de l'animat ou au cours de générations successives.

Des robots adaptatifs ont été conçus par Rodney Brooks et ses étudiants au laboratoire d'intelligence artificielle du Massachusetts Institute of Technology. Alors que la morphologie, le comportement et la mission de ces robots varient considérablement d'un individu à l'autre, leur architecture de contrôle obéit toujours aux mêmes principes. Pour l'essentiel, en effet, cette architecture est organisée en couches superposées, dont chacune est constituée d'un réseau d'automates comprenant divers dispositifs de temporisation et de mémorisation.
Chacune de ces couches relie des senseurs à des actuateurs et permet un comportement particulier ou une compétence spécifique, comme la locomotion, l'évitement d'obstacle ou la saisie d'un objet. La cohérence du comportement global du robot dépend d'une part des capacités comportementales de chaque couche et, d'autre part, de la possibilité offerte aux couches supérieures d'inhiber occasionnellement les ordres moteurs, mais non le fonctionnement interne, des couches inférieures. Une telle organisation permet d'empiler des couches dont chacune garantit la bonne exécution de certains comportements et un niveau de compétence déterminé, sans que les anciens comportements ou compétences soient compromis par les potentialités qu'apportent les couches nouvelles. Chaque couche réagit en parallèle aux stimuli environnementaux auxquels elle est connectée et le comportement d'ensemble est un comportement émergent qui résulte de l'interaction des comportements élémentaires. Il s'ensuit que de telles architectures de contrôle sont robustes et flexibles et qu'elles concurrencent efficacement les architectures robotiques traditionnelles1 fig. 1.
On peut, par exemple, supposer que c'est grâce à une architecture de contrôle de ce type que l'escargot marin Littorina neritoides assure sa survie. En effet, le comportement de cet organisme paraît dépendre de deux couches de contrôle basiques : l'une qui le pousse à remonter à la verticale et l'autre, qui éventuellement l'emporte sur la première, qui le pousse à fuir les endroits trop éclairés. Cependant, au contraire, lorsque l'escargot est en position renversée, il recherche la lumière, du moins tant qu'il est sous l'eau. Hors de l'eau, le comportement d'évitement de la lumière l'emporte à nouveau. Enfin, dans les zones trop dangereuses, parce que trop éloignées de la surface de l'eau, intervient un comportement d'urgence qui inhibe tous les autres et interdit à l'escargot de s'aventurer en zones sèches. L'interaction de ces comportements élémentaires permet à l'escargot de survivre plus ou moins longtemps, parce qu'il recherche effica- cement sa nourriture en explorant de préférence les zones où les algues qu'il consomme sont en plus forte concentration - les cavités au voisinage de la surface de l'eau - tout en évitant les zones éclairées où il court le plus grand risque de rencontrer des prédateurs.
Quoi qu'il en soit, c'est en utilisant ce genre d'architecture qu'un des robots conçus par l'équipe de Rodney Brooks, le robot à pattes Genghis , est capable de poursuivre indéfectiblement un humain en dépit de tous les obstacles que présente un terrain accidenté. De même, le robot Squirt , qui mesure environ 30 cm3, est capable de se cacher dans un endroit sombre lorsqu'un bruit retentit, puis de partir explorer l'environnement à la recherche des causes de ce bruit après qu'il a cessé. Quant à Herbert ,ilexploreinlassablement son lieu de travail, à la recherche des canettes de soda qui traînent et qu'il doit rapporter en un endroit prédésigné.
Une autre métaphore biologique qui inspire de nombreux travaux sur les animats est celle de la société d'insectes ou de l'intelligence en essaim. Ici, l'idée est d'utiliser une colonie d'animats, dans laquelle le comportement de chacun peut être très simple et apparemment peu adaptatif, mais dont le comportement collectif émergeant des interactions interindividuelles s'avère, lui, complexe et très adaptatif. En particulier, un tel comportement peut être maintenu même lorsqu'un individu, ou plusieurs, cessent partiellement ou complètement de fonctionner.

Une approche de ce type a été utilisée par Craig W. Reynolds, qui travaille actuellement au sein de la société Hypermedia Technologies, pour réaliser sur ordinateur des animations dans lesquelles des animats volants exhibent des comportements collectifs spectaculaires2. A chaque individu sont associées une direction et une vitesse de vol, ainsi que des capacités visuelles qui permettent de détecter à courte distance la présence d'un obstacle ou d'un congénère. De plus, son comportement ne dépend que de trois règles : maintenir une distance minimale par rapport aux animats environnants, ajuster sa vitesse à la leur, se déplacer en direction de la zone dans laquelle ils sont les plus nombreux.
Dans ce travail, alors que le comportement de chaque animat ne dépend que d'informations locales liées à ses voisins - aucun individu n'a une vision globale de tous les obstacles dans l'environnement, ni de la vitesse et de la position de tous les autres animats -, le comportement d'ensemble est coordonné et réaliste, comme celui d'un vol d'oiseaux. Les individus s'évitent mutuellement et, lorsque la trajectoire de l'un d'eux vient à s'écarter de celle du groupe, l'individu en question accélère son vol en direction de ses plus proches voisins et rejoint rapidement le groupe. De plus, en présence d'un obstacle, le vol peut se diviser temporairement en deux sous-groupes, qui contournent l'obstacle chacun de son côté, puis se réunissent à nouveau fig. 2. De tels comportements collectifs coordonnés sont entièrement émergents : ils ne découlent que des interactions entre animats individuels et n'ont pas été programmés expressément par l'animateur.
Une autre application de la métaphore de l'intelligence collective a été réalisée à l'Institut polytechnique de Milan3 et repose sur la constatation que les fourmis déposent des traces de phéromones sur le trajet qui les conduit à une nourriture nouvellement découverte. L'odeur correspondante attire d'autres fourmis qui, à leur tour, déposent des traces odorantes sur ce trajet et renforcent ainsi son effet attractif. A mesure que la source de nourriture est exploitée et diminue, de moins en moins de traces odorantes sont déposées et, petit à petit, la trajectoire correspondante est abandonnée par l'ensemble des fourmis. A la fin, le chemin le plus court est adopté.
Cette stratégie a inspiré un algorithme qui permet de résoudre un problème classique de recherche opérationnelle : celui du voyageur de commerce. Ce problème consiste à déterminer dans quel ordre il convient de visiter N villes dont on connaît la distance des trajets qui les relient deux à deux, de manière à minimiser la distance totale parcourue tout en s'interdisant de repasser deux fois au même endroit. Il apparaît que ce problème peut être résolu collectivement par une colonie de fourmis lâchée sur le réseau de ces N villes et dont les individus marquent les trajets qu'ils parcourent à tout moment. Au bout d'un temps plus ou moins long, dépendant du nombre de villes à visiter, on constate que la majorité des fourmis circule sur un chemin qui est, en fait, le parcours optimal recherché. On constate aussi que le temps mis pour découvrir cette solution est compétitif par rapport à celui que mettent les algorithmes traditionnellement utilisés en recherche opérationnelle. D'autres problèmes classiques d'ordonnancement* ont été résolus par des approches collectives de ce type.
Si l'architecture de contrôle d'un animat peut être entièrement conçue par un humain et rester ensuite figée, comme c'est le cas dans les exemples précédemment cités, il est également possible que son fonctionnement puisse se modifier par apprentissage, à mesure que l'animat interagit avec son environnement.

Deux modes principaux d'apprentissage caractérisent la recherche sur les animats : l'apprentissage associatif - un animat apprend, mémorise, et reconstitue un ensemble de stimuli en les associant les uns aux autres - et l'apprentissage par renforcement - un animat apprend à interagir avec son environnement de façon à ce que ses actions aient plus de chances d'être récompensées que d'être punies. L'apprentissage associatif a été utilisé par Maja Mataric«, de l'université de South California à Los Angeles, afin de permettre à un robot de construire une « carte cognitive » de son environnement4. Cette expression fait référence aux hypothèses de certains biologistes sur la façon dont les animaux mémorisent l'information qu'ils acquièrent sur l'organisation spatiale de leur environnement et l'utilisent pour se déplacer. Une telle information paraît présenter des composantes métriques et topologiques caractérisant les différents amers que l'animal apprend à distinguer dans son environnement. De plus, chez certains rongeurs du moins, cette information paraît être enregistrée dans une région particulière du cerveau, l'hippocampe, et mettre en oeuvre ce qu'il est convenu d'appeler des cellules de lieux, c'est-à-dire des neurones dont la décharge électrique n'intervient que lorsque l'animal occupe un certain emplacement dans son environnement.
Le robot de Mataric« est équipé de douze sonars qui le renseignent sur la distance de l'obstacle le plus proche dans une direction donnée, d'un compas qui lui fournit sa direction courante, et d'un équipement moteur qui lui permet de se déplacer en avant et en arrière, de tourner à droite et à gauche, et de s'arrêter sur place. Quant à son architecture de contrôle, elle est inspirée de l'approche de Brooks et met en oeuvre trois niveaux de compétence. Le premier combine de simples réflexes pour générer un comportement d'exploration émergent, au cours duquel le robot se déplace dans son environnement en suivant les contours des obstacles ou des murs qu'il contient. Le deuxième niveau est chargé d'analyser les informations sensorielles reçues par le robot pour détecter des amers le long des trajectoires parcourues. Enfin, le troisième niveau utilise ces amers pour construire la carte cognitive du robot et déterminer la trajectoire à parcourir pour rejoindre un but donné. Cette carte est codée sous la forme d'un graphe connectant des modules de calcul dont chacun représente un amer donné.
Par exemple, lorsque le robot explore l'environnement décrit sur la figure 3, il enregistre dans sa carte que la zone C4 est franchie alors qu'il se déplace vers l'est et que ses sonars lui indiquent la présence de deux obstacles à distance à peu près égale sur sa droite et sur sa gauche - ce qui suggère que l'amer C4 est une sorte de couloir. De la même manière, le robot enregistre qu'une rotation vers la droite le conduit dans une nouvelle zone, MD6, qui est franchie tandis qu'il se dirige vers le sud-est et qu'il perçoit un obstacle sur sa droite - ce qui suggère que l'amer MD6 est probablement un mur situé à la droite du robot.

Il s'ensuit que les modules de calcul tels que C4 et MD6 contenus dans la carte cognitive du robot jouent le rôle de cellules de lieux qui s'activent lorsque le robot traverse les zones correspondantes de l'environnement et qu'une telle carte permet au robot de connaître sa position à tout moment. De plus, comme les modules de calcul renseignent sur la taille des lieux qu'ils représentent, il est possible de déterminer le chemin le plus court allant de la position courante du robot à n'importe quel but précisé par l'expérimentateur. Pour ce faire, il suffit de déclencher un processus de diffusion d'activation au sein de la carte à partir du but désigné. Dans la mesure où la vitesse de diffusion d'un module de calcul à un autre dépend de la taille des régions correspondantes à traverser, la diffusion de l'activation au sein de la carte le long d'un parcours donné mettra d'autant plus de temps que le parcours correspondant dans l'environnement réel sera plus long. Par conséquent, la direction en provenance de laquelle l'activation atteint le module caractérisant la place courante au sein de la carte est la direction dans laquelle le robot doit se déplacer pour atteindre le but par le chemin le plus court.
L'architecture de contrôle conçue par Lashon Booker, aujourd'hui chez MITRE Corp., permet à un animat d'apprendre par essais et erreurs à poursuivre plusieurs buts et réalise ce que les éthologistes appellent un système motivationnel5. Ce travail s'inspire explicitement de la littérature scientifique sur le comportement animal. L'animat de Booker habite un environnement contenant des sources de récompenses et de punitions sous la forme d'objets perceptibles à distance, dont les uns sont programmés comme étant « comestibles » et les autres comme ayant un contact « douloureux ». Pour survivre, l'animat doit se nourrir et éviter la douleur. Il lui faut donc apprendre quelles sont les conséquences de ses actions afin de déterminer quelle action il est le plus approprié d'accomplir dans chaque situation. En d'autres termes, l'animat doit pouvoir élaborer un modèle de son monde. Pour ce faire, son architecture de contrôle présente une organisation hiérarchique organisée à partir de trois comportements « instinctifs » programmés comme tels de base - la locomotion, la recherche de nourriture et l'évitement de la douleur - et de deux mécanismes déclencheurs innés qui poussent l'animat à assouvir l'un ou l'autre de ses buts : se nourrir lorsqu'il est en présence de nourriture ou fuir un contact douloureux.

Cette architecture de contrôle repose sur un ensemble de règles manipulant des objets, des buts et des relations entre objets et buts. Elle permet à l'animat de s'adapter à son environnement en élaborant des « représentations internes » qui servent à classer les objets de l'environnement en catégories ayant une signification « affective » et auxquelles des réactions appropriées sont associées. A ce titre, elle a vocation à décrire les processus cognitifs sous-tendant le comportement de l'homme ou de certains animaux et elle s'oppose aux autres approches évoquées dans cet article, lesquelles ne nécessitent que de simples associations stimulus-réponse pour assurer un comportement adaptatif donné.
L'activité première de l'animat de Booker est d'explorer son environnement. Cette activité est interrompue quand un signal sensoriel ou un signal « motivationnel » lié à un centre « instinctif » inférieur active ce centre et déclenche le comportement d'appro- che ou d'évitement associé. Lorsqu'il arrive au contact d'un objet, l'animat « consomme » cet objet ou, au contraire, le fuit, en fonction de la nature de l'objet. Ceci a pour effet d'inactiver le centre instinctif concerné et de permettre à l'animat de reprendre son exploration.
Diverses capacités d'apprentissage associatif ou par renforcement ont été exploitées par Bruce Blumberg du MIT Media Lab dans le cadre d'un système informatique permettant à un humain d'interagir avec un animat, via un « miroir magique » dans lequel l'humain peut se voir et voir l'animation d'un chien de compagnie simulé appelé Silas 6 . Diverses techniques de vision artificielle servent à détecter en permanence la position dans l'espace de la tête, des mains et des pieds de l'humain et à reconnaître des gestes et postures caractéristiques. Ces informations sont utilisées par l'architecture de contrôle de Silas pour décider, en fonction des propres motivations de l'animat, comment il va réagir en temps réel aux mouvements de son partenaire. Ainsi a-t-il appris à s'asseoir ou à quémander une récompense en réaction à certains gestes de son maître. Un troisième partenaire, le docteur Puppet , peut être introduit dans le système et interagir avec les deux autres. En particulier, son visage manifeste ses émotions, lesquelles sont perceptibles à la fois par l'humain et par Silas . Par exemple, il prend un air triste lorsqu'il doit quitter la scène, un air gai lorsqu'il est autorisé à revenir, et il rit aux éclats lorsqu'il est chatouillé.
Parce que l'organisation du système nerveux d'un animal est le fruit de la sélection naturelle, et non de l'imagination d'un ingénieur, de nombreux chercheurs pensent que l'architecture de contrôle d'un animat ne devrait pas être conçue par un humain, mais devrait découler d'un processus de sélection artificielle qui adapterait cette architecture à l'environnement de l'animat et aux problèmes de survie particuliers qu'il doit résoudre. Ainsi de nombreux travaux simulent un processus évolutif qui, agissant sur les patrimoines génétiques des individus constituant une population d'animats, améliore de génération en génération l'adaptation de ces individus à leur environnement. Ces travaux mettent en oeuvre un processus de sélection artificielle qui tend à favoriser la reproduction d'individus bien adaptés au détriment de ceux qui le sont moins.

Une approche de ce type a été conduite par Karl Sims qui a fait évoluer à la fois l'architecture de contrôle et la morphologie de divers animats conçus sur ordinateur7. Par exemple, pour créer des animats sachant nager, il a codé dans le « patrimoine génétique » de chacun un système de deux graphes des ronds et des flèches emboîtés. Le premier graphe décrit la morphologie de l'ani- mat, supposé être constitué d'une hiérarchie de composants tridimensionnels rigides, éventuellement agencés en structures récursives ou répétitives. Chaque noeud de ce premier graphe contient un deuxième graphe qui décrit la partie du « système nerveux » de l'animat qui contrôle les mouvements du composant morphologique correspondant. Ces contrôleurs neuronaux utilisent des senseurs internes ou externes qui réagissent, par exemple, aux contacts extérieurs ou à l'intensité lumineuse ambiante. Ils utilisent également des « neurones » particuliers, susceptibles de délivrer en sortie des fonctions plus ou moins élaborées de leurs signaux d'entrée - telles que des sommes, des produits, des interpolations, des valeurs mémorisées, etc. Enfin, ces contrôleurs neuronaux utilisent des actuateurs dont chacun exerce une force musculaire à un endroit précis de l'anatomie de l'animat.
Le processus de sélection artificielle élaboré par Sims consiste à se donner une population d'animats dont le patrimoine génétique de chacun, c'est-à-dire le système de deux graphes emboîtés, est généré au hasard. Cette information est ensuite décodée et transformée en un animat fonctionnel dont la morphologie et l'architecture de contrôle sont testées dans un environnement de simulation aussi réaliste que possible.

Dans la mesure où ces mouvements sont plus ou moins adaptés à la natation, certains animats sont jugés plus performants que d'autres et sont autorisés par le programme à se reproduire dans la population, au sein de laquelle leurs descendants remplacent les individus les moins adaptés. Au cours de cette reproduction, le patrimoine génétique de deux parents sert à l'élaboration du patrimoine génétique d'un descendant, à diverses modifications très liées à l'intervention de mutations ou de mécanismes de crossing over *. Les individus de la nouvelle génération sont ensuite testés de la même manière : certains sont autorisés à se reproduire et à transmettre une partie de leur patrimoine génétique à la génération suivante, d'autres sont éliminés de la population, et ainsi de suite de génération en génération. Ce processus évolutif est arrêté lorsqu'un comportement suffisamment adapté a été obtenu chez au moins l'un des individus de la population.
Ces processus de sélection artificielle sont notamment utilisés dans le domaine nouveau de la robotique évolutionniste8 : il s'agit ici d'étudier comment faire évoluer sur des générations successives non de simples programmes, mais le matériel correspondant, soit au niveau de composants électroniques configurables utilisés dans les contrôleurs de robots, soit au niveau de la configuration de l'équipement sensori-moteur de ces robots, soit même au niveau de leur morphologie générale.
Les animats ne sont pas toujours l'incarnation passive de simples circuits réflexes. A l'instar des animaux, ils peuvent aller rechercher activement dans leur environnement l'information dont ils ont besoin, la mémoriser sous forme de « représentations internes » d'objets ou de relations causales, tirer bénéfice de ces représentations en les utilisant de façon adaptée et flexible. Les animats peuvent se mouvoir dans leur environnement, éviter les obstacles, attraper des objets, rejoindre des buts, manifester des « émotions ». Ils peuvent interagir et même communiquer, en vue de résoudre collectivement des tâches difficiles. Ils peuvent évoluer, se développer, apprendre, mémoriser et planifier.

Cependant, dans l'état actuel de la recherche, ces diverses capacités sont générées et étudiées isolément les unes des autres et il n'existe encore aucun animat possédant toutes ces fonctionnalités. Les difficultés correspondantes sont liées à des raisons aussi bien fondamentales - on ne connaît pas encore bien les mécanismes intégrateurs qui assurent l'autonomie et la cohérence multifonctionnelle d'un animal, aussi simple soit-il - qu'à des raisons pratiques - liées aux temps de calcul des simulations correspondantes ou aux limitations sensori-motrices des robots actuels. Les prochains progrès substantiels à attendre de la recherche sur les animats concernent des approches intégrées, capables d'exploiter les trois processus adaptatifs de l'apprentissage, du développement et de l'évolution.
Au-delà des applications pratiques évoquées au début de cet article, on peut espérer que ces progrès contribueront à l'avancement des sciences cognitives, en aidant à comprendre en quoi l'intelligence de l'homme s'explique à partir des comportements adaptatifs les plus simples hérités de l'animal, dans une perspective évolutionniste qui complète celle de l'intelligence artificielle traditionnelle. Alors que celle-ci cherche à expliquer directement quelles manipulations de symboles rendent compte des capacités cognitives élaborées propres à l'homme - comme la résolution de problèmes, le raisonnement logique, ou la compréhension du langage naturel - l'approche animat, elle, vise d'abord à comprendre comment ces capacités cognitives découlent de la simple aptitude ancestrale à survivre.

1R. Brooks, Science , 253 , 13, 1227, 1991.
2C.W. Reynolds, Computer Graphics , 21 , 4, 25, 1987.
3A. Colorni, M. Dorigo et V. Maniezzo, in Varela et Bourgine eds., Toward a practice of autonomous systems. Proceedings of the First European Conference on Artificial Life, The MIT Press, 1992.
4M. Mataric, I EEE Transactions on Robotics and Automation , 8 , 3, 304, 1992.
5L.B. Booker, Machine Learning , 3 , 161, 1988.
6
B.M. Blumberg, Old tricks, New Dogs : Ethology and Interactive Creatures , PhD thesis, MIT Media Lab, Cambridge, Massachusetts, 1997.
7K. Sims, in Brooks et Maes eds., Proceedings of the Fourth International Workshop on Artificial Life, The MIT Press, 1994.
8P. Husbands et J.-A. Meyer eds., Proceedings of The First European Workshop on Evolutionary Robotics - EvoRobot'98 , Springer Verlag, 1998.

NOTES
*Les PROBLÈMES D'ORDONNANCEMENT sont les problèmes dans lesquels on a plusieurs tâches à accomplir dans un certain ordre.

*Le CROSSING OVER désigne l'échange réciproque de matériel génétique entre chromosomes homologues. C'est le mécanisme responsable des recombinaisons génétiques.
SAVOIR
R. Pfeiffer, B. Blumberg, J.-A. Meyer et S.W. Wilson Eds., From animals to animats 5 : Proceedings of the Fifth International Conference on Simulation of Adaptative Behavior , The MIT Press, 1998.
H.L. Roitblat, J.-A. Meyer Eds., Comparative Approaches to Cognitive Science , The MIT Press, 1995.

 

  DOCUMENT      larecherche        LIEN  

 
 
 
 

La microélectronique : passer du design à la fabrication

 

 

 

 

 

 

 

La microélectronique : passer du design à la fabrication


Si les puces électroniques se retrouvent aujourd'hui dans de très nombreux objets de la vie quotidienne, c'est qu'elles sont fabriquées en série et contiennent des milliards de composants. Cette production fait appel à des technologies d'une extrême complexité et nécessite donc des infrastructures et des équipements très coûteux.

Publié le 18 octobre 2018


DU SABLE... POUR EXTRAIRE LE SILICIUM
De par ses propriétés de semiconducteur, le matériau de base des circuits intégrés est aujourd'hui encore le silicium. Extrait du sable (oxyde de silicium) par réduction chimique, il est cristallisé sous forme de barreaux de 20 ou 30 cm de diamètre, ensuite sciés en tranches de moins d’un millimètre d’épaisseur qui sont polies jusqu’à obtenir des surfaces lisses à 0,5 nanomètre près. C’est sur cette tranche, appelée wafer, que des centaines de puces sont fabriquées simultanément, grâce à la répétition ou la combinaison d’opérations élémentaires : traitement thermique, nettoyage, dépôt, photolithographie, gravure et dopage. Les dimensions les plus fines obtenues aujourd’hui industriellement permettent de disposer et de connecter des millions de composants de base - les transistors - par circuit, et de multiplier ainsi les fonctionnalités. Cette fabrication collective, qui fait chuter les coûts unitaires, est l’un des atouts majeurs de l’industrie microélectronique. Mais elle durcit aussi les exigences de production : une erreur de manipulation, quelques secondes en plus ou en moins et ce sont plusieurs centaines de circuits qui finissent à la poubelle…

LE DESIGN DES CIRCUITS
Impossible de concevoir un circuit de plusieurs millions d'éléments sans l'aide de l'ordinateur : tout concepteur de puces recourt à la CAO pour déterminer les principales fonctions, puiser des modules dans des bibliothèques informatisées, arranger ces modules les uns par rapport aux autres, simuler le fonctionnement global... L'exercice est long, difficile et incroyablement minutieux : en imaginant qu'un micro-processeur de 100 millions de transistors ait la taille d'un carré de 6 km de côté, chaque isolant de grille de transistor aurait une épaisseur d'un millimètre seulement !


6 étapes clés de fabrication
 1- Le traitement thermique


Réalisé dans des fours à des températures de 800 à 1 200° C, il permet de réaliser des couches d'oxyde et de nitrure de silicium par exemple, réarranger des réseaux cristallins ou effectuer certains dopages.   

2- Les dépôts


Ils apportent à la surface du silicium des couches conductrices ou isolantes : oxydes, nitrures, siliciures, tungstène, aluminium... Ils sont effectués par diverses techniques physiques ou chimiques : dépôt en phase vapeur (CVD), pulvérisation, épitaxie... 

3- La photolithographie


Etape-clé, elle consiste à reproduire dans la résine photosensible le dessin des circuits à réaliser. Ces motifs complexes sont générés en une seule exposition. La lumière d’une source lumineuse de très faible longueur d’onde (UV ou rayons X, pour les gravures les plus fines) y projette l’image d’un masque. Plus la résolution optique est poussée, plus la miniaturisation des circuits est améliorée. 

4- Le nettoyage

Les nombreuses opérations de nettoyage des tranches représentent presque un tiers du temps total de processus de fabrication. 


5- La gravure


A l’inverse du dépôt, la gravure enlève de la matière, toujours dans le but de réaliser un motif. Deux voies principales : la gravure dite humide, qui utilise des réactifs liquides, et la gravure sèche (ou gravure plasma) qui emploie des réactifs gazeux. En 2004, les gravures les plus fines en production mesuraient 130 nm. Dix ans après, elles n’étaient plus que de 14 nm ! 

6- Le dopage

Pour introduire au cœur du silicium les atomes qui vont modifier sa conductivité, les plaquettes sont chauffées entre 800 et 1 100° C dans des fours, en présence du gaz dopant, ou bombardées par implantation à travers un masque par un faisceau d’ions accélérés. Aujourd'hui, réaliser un circuit intégré complexe demande la succession de plusieurs centaines d'opérations. 

La photolithographie
Elle est limitée par les phénomènes de diffraction et de longueur d'onde du faisceau de lumière utilisé. Aujourd'hui, avec des détails de l'ordre de 10 à 20 nm, la photolithographie atteint ses limites techniques et des effets dus à la physique quantique perturbent le fonctionnement des circuits ; par exemple, des électrons sautent d'un « fil » à l'autre par effet tunnel. Les motifs peuvent aussi être gravés au moyen de faisceaux d'électrons, mais les dessins doivent alors être tracés les uns après les autres. La lithographie par faisceau d'électrons (E-beam) permet d'atteindre une résolution nanométrique, correspondant à leur longueur d'onde.


L'ENVIRONNEMENT DE LABORATOIRE
A l'échelle d'une puce, un minuscule grain de poussière représente un rocher qui bouche les chemins creusés pour la circulation des électrons. C'est pourquoi la fabrication a lieu en « salle blanche ». L'air est filtré et entièrement renouvelé 10 fois par minute. Il contient 100 000 à 1 million de fois moins de poussières que l'air extérieur. Les opérateurs portent en permanence une combinaison qui les couvre des pieds à la tête et retient les particules organiques et les poussières qu'ils génèrent naturellement. Les opérations de photolithographie nécessitent une ambiance appelée inactinique : les lampes utilisées, le plus souvent jaunes (la plage de longueur d'onde ultraviolette est retirée), n'ont pas ou peu d'effets photochimiques sur les résines photosensibles recouvrant les wafers.

LA PUCE

Pour finaliser la fabrication, une pellicule métallique est déposée aux endroits où le circuit devra être en contact avec les broches de sortie. Puis les circuits intégrés sont testés, directement sur le wafer. Enfin, celui-ci est découpé pour obtenir des puces, insérées dans un boîtier individuel de protection et reliées aux broches qui vont leur permettre de communiquer avec l'extérieur. Des tests de validation et de qualification, à différentes fréquences et températures, sont alors entrepris.


ZOOM SUR MINATEC

Initié par le CEA et l'Institut national polytechnique de Grenoble, soutenu par les collectivités locales et territoriales, Minatec est le premier pôle européen, et l'un des premiers mondiaux, dédié aux micro et nanotechnologies. Le site est constitué de 45 000 m2  de laboratoires, bureaux et salles blanches (8 000 m2) pour la nanoélectronique et les microsystèmes, une plateforme de nanocaractérisation (1 500 m2), un centre de développement, caractérisation et simulation de composants opto-électroniques, des chambres anéchoides, une plateforme de cybersécurité…
4 000 personnes environ y travaillent, parmi lesquelles 1 200 chercheurs, 1 000 étudiants, 200 enseignants-chercheurs et 1 000 emplois industriels directs.

 

   DOCUMENT     cea         LIEN

 
 
 
 

Les ondes électromagnétiques dans le domaine de la communication

 




 

 

 

 

 

Les ondes électromagnétiques dans le domaine de la communication

Publié le 31 mai 2018
       
Qu’est-ce qu’une onde électromagnétique ? Quelles sont les ondes qui nous permettent de communiquer quasi instantanément d’un bout à l’autre du monde ? En quoi les ondes radio jouent-elles un rôle fondamental dans les télécommunications ? Comment fonctionne un système mobile sans fil ? Quelles sont les différentes générations de réseaux mobiles ? Quels sont les enjeux et promesses de la 5G ? L’essentiel sur… les ondes électromagnétiques utilisées dans le domaine de la communication.

QU’EST-CE QU’UNE ONDE ÉLECTROMAGNÉTIQUE ?

Une onde électromagnétique est une catégorie d’ondes qui peut se déplacer dans un milieu de propagation comme le vide ou l’air, avec une vitesse avoisinant celle de la lumière, soit près de 300 000 kilomètres par seconde. Ces ondes sont par exemple produites par des charges électriques en mouvement. Elles correspondent aux oscillations couplées d’un champ électrique et d’un champ magnétique, dont les amplitudes varient de façon sinusoïdale au cours du temps.


Les ondes électromagnétiques transportent de l’énergie mais elles sont aussi capables de transporter de l’information. C’est pourquoi elles sont utilisées dans le domaine de la communication.
Concrètement, les ondes électromagnétiques servent à faire fonctionner les smartphones, les postes de radio, ou encore sont utilisées pour faire des radiographies du corps humain.  De même, la lumière visible est une onde électromagnétique ; elle nous permet de voir les couleurs.
Ces différentes ondes électromagnétiques se différencient et sont caractérisées par leur fréquence, c’est-à-dire le nombre d’oscillations en une seconde. La fréquence est exprimée en Hertz. Une autre caractéristique des ondes électromagnétiques est la longueur d’onde, c’est-à-dire la distance qui sépare deux oscillations de l'onde. Elle est inversement proportionnelle à la fréquence.
Les ondes électromagnétiques sont classées en fonction de leur fréquence dans ce que l’on appelle le « spectre électromagnétique ».


Dans l’ordre des longueurs d’ondes croissantes, on trouve :


Longueur d’onde (mètre)    Fréquence (Hertz)    Catégorie d'onde électromagnétique
< 10 picomètres (ie 1 000 milliards de fois plus petit qu’un mètre)    30 x 1018 Hz    Les rayons gamma, produits par des transitions nucléaires
10 picomètres – 10 nanomètres (ie 1 000 millions de fois plus petit qu’un mètre)    30 x 1018 – 30x1015 Hz    Les rayons X, qui permettent de faire des radiographies  du corps humain
10 nanomètres – 400 nanomètres    30x1015 - 750x1012 Hz    Les rayons ultra-violet (UV), qui proviennent majoritairement du Soleil et sont responsables par exemple du bronzage ou des coups de soleil.
400 – 800 nanomètres    750x1012 – 375x1012 Hz    La lumière visible avec toutes les couleurs de l’arc-en-ciel.
800 nanomètres – 0,1 millimètre    375x1012 – 3x1012 Hz    Les rayons infrarouges, qui captent la chaleur des objets, de l’environnement.
1 millimètre - 30 kilomètres    300x109Hz - 10Hz    Les ondes radio, responsables des moyens de télécommunications qu’on connaît aujourd’hui : les radars et satellites, le réseau Wi-Fi, le téléphone portable, la télévision hertzienne et la radio.


L’HISTOIRE DES SYSTÈMES ET RÉSEAUX
DE TÉLÉCOMMUNICATION
L’histoire des télécommunications commence en 1794, quand Claude Chappe met au point le télégraphe optique. Deux tours d’observations éloignées de plusieurs dizaines de kilomètres s’échangent des messages codés par les différentes positions d’un bras articulé placé en haut de la tour.
Il faudra attendre la fin du 19e siècle et la découverte de l’existence des ondes électromagnétiques par le physicien allemand Heinrich Hertz pour que se développe la transmission d’informations sans fil.
Depuis vingt ans, nous sommes entrés dans un monde où tout devient sans fil. Après la radio et la télévision, le téléphone a d’abord lâché son fil à la maison pour devenir mobile, nos ordinateurs communiquent aujourd’hui via le wi-fi. Début 2018, le monde compte plus de 4 milliards d’utilisateurs d’Internet et plusieurs millions de mails sont envoyés chaque seconde. Et ce n’est pas fini ! L’Internet des Objets se développe, et part à l’assaut de nouveaux secteurs comme la domotique, la santé connectée, l’usine du futur et les véhicules autonomes.

Le réseau 5G qui devrait être disponible en France vers 2020 connectera toujours plus d’objets sans fil, avec un meilleur débit et plus de rapidité. A la clé : une plus grande fiabilité de transmission.

LE PRINCIPE DE FONCTIONNEMENT
DE LA RADIO
Les ondes radio, qui servent à transmettre des informations, ont des fréquences comprises entre quelques kilos Hertz et 300 giga Hertz, c’est-à-dire 300 milliards d’oscillations par seconde.

Parmi les ondes qui passent par les postes de radio, on trouve :

*         La radio AM avec une fréquence de 106Hz et une portée de plusieurs centaines de kilomètres, autrefois très utilisée.
*         La radio FM avec une fréquence de 108Hz et une portée de quelques dizaines de kilomètres. La radio FM est la plus écoutée aujourd’hui.

Les antennes permettent de rayonner les ondes radio se propageant dans l’air. Pour diffuser une émission de radio par exemple, la voix de l'animateur est transformée en signal électrique par le micro. Ce signal électrique oscille au même rythme que la voix, on dit qu'ils ont la même fréquence. Cependant, cette fréquence est beaucoup trop basse pour que le signal soit transmis sous forme d'onde électromagnétique. Il est donc nécessaire de fabriquer un signal électrique alternatif à très haute fréquence transmis à l’antenne pour qu'elle émette d'abord une onde porteuse. Pour transporter la voix par exemple, il faut alors mélanger notre signal électrique de basse fréquence, celui qui correspond à la voix de l’animateur, au signal électrique de haute fréquence.

Il existe par exemple deux façons de faire :

*         Pour la radio AM, on change l’amplitude, c’est à dire la hauteur des oscillations du signal électrique en fonction du signal de la voix. L’onde porteuse est modulée en amplitude.
*        
*         Pour la radio FM, on change la fréquence, c’est à dire le nombre d’oscillations par secondes du signal électrique en fonction du signal de la voix. L’onde porteuse est modulée en fréquence. La modulation en fréquence est beaucoup plus fiable ; il y aura moins de grésillements qu'avec la modulation d'amplitude.

Dans les deux cas, l’antenne émet une onde électromagnétique modulée qui se propage jusqu'à une antenne réceptrice, comme celle intégrée dans les postes de radio. Ensuite, elle fait le travail inverse de l'antenne émettrice : elle transforme l'onde électromagnétique en signal électrique, ce dernier est démodulé, soit en amplitude soit en fréquence, puis amplifié et transformé en son par les enceintes.

COMMENT FONCTIONNE UN SYSTÈME MOBILE SANS FIL ?

Pour que nos fichiers ou SMS puissent parvenir jusqu’à leur destinataire, l’information à envoyer est d’abord codée en langage binaire (combinaisons de zéro et un) puis présentée en entrée de la carte électronique de l’émetteur du système de communication sans fil, par exemple un téléphone.

Ensuite, le signal numérique correspondant au message binaire est transformé en signal analogique à haute fréquence (fréquences radio). Ce dernier est envoyé à une antenne, qui se met alors à rayonner une onde électromagnétique se propageant dans l’air pour atteindre l’antenne relais la plus proche. L'onde est ensuite encore transformée en signal électrique, pour être transmise via des câbles ou des fibres optiques sur de très grandes distances, jusqu’à enfin atteindre l’antenne relais la plus proche du destinataire. Le processus de réception est le même que celui d’envoi, en inversé. La carte électronique du système de communication du récepteur décode le langage binaire pour afficher le SMS, l’image ou bien la vidéo.


LES DIFFÉRENTES GÉNÉRATIONS
DE RÉSEAUX MOBILES
De la 2G à la 5G
La fin des années 1990 sonne le début de l’ère des téléphones portables, le réseau dit « 2G » (ou GSM) est lancé. Il permet de transmettre la voix mais aussi des données numériques comme les SMS ou des messages multimédias, avec du contenu léger (MMS). Les réseaux GPRS et EDGE offrent un accès à Internet mais avec un débit très bas.

La 3G se commercialise au début des années 2000. Le débit est alors plus rapide que pour la 2G et les téléphones peuvent alors accéder à Internet beaucoup plus rapidement, même en mouvement.


En 2012, la 4G fait son arrivée en France, le débit maximal est multiplié par 100, ce qui permet le développement des objets connectés et des réseaux sociaux.

Le réseau 5G est prévu pour être disponible vers 2020. Il constituera une véritable rupture technologique, présentant de nombreuses innovations.
Il aura un débit 50 fois plus important que la 4G et le temps
d’acheminement des données sera beaucoup plus court qu’actuellement (jusqu’à 1ms, contre 10ms). La 5G pourra occuper des bandes de fréquence entre 800MHz et 56GHz. Les fréquences les plus hautes appartiennent au domaine des ondes millimétriques (allant de 30 à 300 GHz).
A ces fréquences-ci, l’atténuation des ondes avec la distance parcourue est plus importante mais les antennes sont plus petites que celles utilisées pour la 4G. Dans un même espace, il sera donc possible d'en associer beaucoup plus pour augmenter la puissance reçue (ou émise) dans certaines directions et ainsi, suivre plusieurs utilisateurs mobiles tout en limitant les interférences.

Le développement d’applications telles que les voitures autonomes ou les objets connectés devrait être facilité par la 5G.

 

   DOCUMENT     cea         LIEN

 
 
 
 

L'ESSENTIEL SUR... L'uranium

 



 

 

 

 

 

L'ESSENTIEL SUR...
L'uranium


Publié le 15 décembre 2017

L’uranium est un élément chimique radioactif présent à l’état naturel en quantité significative sur Terre. Il est essentiellement utilisé comme combustible dans les centrales nucléaires.
RESSOURCE MINIÈRE/ABONDANCE
La croûte terrestre contient en moyenne 2 à 3 grammes d’uranium par tonne. Cet élément est bien plus abondant que les métaux rares comme l’or ou l’argent.
L’eau de mer en contient environ 3,3 milligrammes par tonne.

Dans le sol, il est inégalement réparti mais des mines sont exploitées sur quasiment tous les continents. Les principaux pays disposant de ressources sont l’Australie, le Canada, le Kazakhstan, le Niger, la Namibie, la Russie et l’Afrique du sud.


Répartition des principales ressources d’uranium (en millier de tonnes) :

ISOTOPIE
Radioactivité
Les isotopes de l’uranium présents à l’état naturel sur la Terre se désintègrent principalement par émission de particules alpha, c’est à dire des rayonnements fortement atténués par un écran aussi mince qu’une feuille de papier. Cependant, leurs descendants radioactifs sont, eux, émetteurs de rayonnements bêta et gamma plus pénétrants.

L'uranium naturel
L’uranium naturel est composé des isotopes 234, 235 et 238. Leurs principales caractéristiques sont les suivantes :
    Composition isotopique de l'uranium naturel    Période radioactive (*)
234U    0,0056 %    2,46 x 105 an

235U    0,71 %    7,04 x 108 an
238U    99,28 %    4,47 x 109 an
(*) période de temps au terme de laquelle la moitié des atomes radioactifs présents initialement s’est désintégrée.

L’isotope 235 de l’uranium est dit « fissile », c’est-à-dire qu’il peut se casser en deux noyaux plus petits, sous l’effet d’un neutron. C’est ce qu’on appelle la fission nucléaire, réaction qui libère une grande quantité d’énergie. L’isotope 238 est dit « fertile » : lorsqu’il est heurté par un neutron, il peut le « capturer », générant du plutonium 239 lui-même fissile.

Autres isotopes
Les chercheurs en physique nucléaire s’intéressent aux noyaux lourds. Riches en neutrons et en protons, ils sont un objet d’étude idéal pour comprendre les lois physiques qui gouvernent ces objets et leurs interactions. Ils ont artificiellement fabriqué, puis caractérisé, plus de 25 isotopes différents de l’uranium. Certaines de ces espèces éminemment fugaces ont des durées de vie extrêmement courtes.

La séparation isotopique
Pour certaines applications, il est nécessaire de modifier la proportion de l’uranium naturel en isotope 235. Ainsi, la plupart des réacteurs nucléaires en fonctionnement dans le monde sont des réacteurs à eau légère qui requièrent un combustible dont la proportion en 235U est comprise entre 3% et 5%. Ceci nécessite donc d’enrichir l’uranium naturel en uranium 235. En France, cette opération de séparation isotopique est réalisée dans l’usine Georges Besse II (voir fiche « L’essentiel sur le cycle du combustible nucléaire »).
Des procédés industriels de séparation isotopique doivent être mis en œuvre. La production d’uranium enrichi s’accompagne alors d’une production d’uranium appauvri.


LES DIFFÉRENTES CATÉGORIES 
DE L'URANIUM

*         Uranium naturel (teneur en 235U égale à 0,71 %) : minerai.
*        


*         Uranium faiblement enrichi (teneur en 235U supérieure à 0,71 % et strictement inférieure à 20 %) : exploité dans le secteur électronucléaire.
*        


*         Uranium hautement enrichi (teneur 235U supérieure ou égale à 20 % : exploité dans les secteurs de la Défense, des réacteurs de recherche et de la médecine nucléaire.
*        


*         Uranium appauvri (teneur en 235U inférieure à 0,71 %) : exploité dans les réacteurs à neutrons rapides et dans l’armement conventionnel.

LE CONTRÔLE DE L’USAGE DE L’URANIUM
L’uranium est une matière nucléaire dont la sensibilité dépend de son taux d’enrichissement, dans la mesure où il peut être utilisé tant à des fins civiles que de défense.

A ce titre, il est soumis en France à un contrôle strict : sa détention est réglementée par le code de la défense.

Au niveau de l’Union Européenne, des contrôles sont exercés par la Commission européenne dans le cadre du chapitre VII du Traité Euratom afin de s’assurer que les matières nucléaires, dont l’uranium, sont utilisées conformément aux usages déclarés par leurs détenteurs. L’Agence internationale de l’énergie atomique (AIEA), quant à elle, effectue des contrôles de non-prolifération au niveau mondial afin de donner des garanties à la communauté internationale sur l’utilisation pacifique de ces matières.



QUELLES SONT LES PRINCIPALES UTILISATIONS DE L'URANIUM ?
Électronucléaire
L’uranium est utilisé comme combustible dans la plupart des réacteurs nucléaires industriels. Sous le flux de neutrons, il subit des fissions formant des noyaux de masse inférieure à celle de l’uranium et générant de nouveaux neutrons. Ces nouveaux neutrons peuvent à leur tour entraîner des fissions sur des atomes voisins, d’où la notion de « réaction en chaîne ».



Lors de ces réactions nucléaires de fission, la masse totale des atomes générés est inférieure à celle de l’atome initial. La différence est dissipée sous forme de chaleur qui est ensuite utilisée pour faire tourner des turbines générant de l’électricité.

Autres applications
Colorants
L’uranium naturel sous forme d’oxyde a été utilisé depuis l’Antiquité pour donner à des verres, des céramiques et des faïences de profonds reflets verts ou jaunes.

Armement conventionnel
Du fait de sa grande densité et dureté, l’uranium appauvri est aussi utilisé sous forme métallique dans des têtes d’obus conventionnels destinés à perforer le blindage de chars ou d’abris en béton.

Radioéléments pour le médical
L’uranium hautement enrichi peut être irradié dans des réacteurs de recherche pour la production de radioéléments (technetium-99) utilisés comme traceurs en imagerie médicale.

QUELS SONT LES EFFETS DE L'URANIUM DANS LE CORPS HUMAIN ?
L’uranium naturel est plus toxique du fait de ses propriétés de métal lourd qu’à cause de sa radioactivité.

Le comportement biologique de l’uranium dans l’organisme dépend :

*         De la forme chimique sous laquelle il est incorporé (un oxyde est beaucoup moins soluble qu’un nitrate) ;

*         Sa voie d’entrée dans l’organisme (inhalation ou ingestion).



En cas d’ingestion d’un composé soluble d’uranium, à peine quelques pourcents sont absorbés dans le sang ; le reste est éliminé dans les selles. La fraction absorbée dans le sang se dépose essentiellement dans le squelette et dans les reins. Cependant, c’est essentiellement dans les reins que se manifeste la toxicité – les effets néfastes – de l’uranium sur l’organisme.



Après inhalation, la majorité des particules inhalées insolubles se déposent au niveau des poumons. Toutefois, une faible fraction est solubilisée dans le sang.

Quelle que soit la voie d’entrée, après passage dans le sang, l’uranium est rapidement et majoritairement excrété dans l’urine. Le reste étant transféré vers les tissus : vers les reins où il est retenu de façon temporaire (quelques jours) et vers le squelette (où l’uranium peut rester plusieurs années). Les os constituent le site de rétention à long terme puisqu’on y retrouve environ 70 % de l’uranium contenu dans le corps chez des personnes exposées de manière chronique (c’est-à-dire en continu).


EFFET CANCÉROGÈNE DE L’URANIUM
Le Centre international de recherche sur le cancer (CIRC/OMS) classe par défaut tous les radionucléides émetteurs de rayonnement alpha, dont l’uranium, dans le groupe des éléments dont l’effet cancérogène est avéré (groupe 1 du CIRC). Cependant, s’agissant spécifiquement de l’uranium, le CIRC souligne que les études connues n’apportent pas de preuves suffisantes de son effet cancérogène chez l’Homme.
Par ailleurs, l’ATSDR (US-Agency for Toxic Substances and diseases registry), dans la mise à jour de son profil toxicologique de l’uranium (2013), rappelle que ni l’IARC (Agence internationale de recherche sur le cancer), ni l’EPA (Environmental Protection Agency) ont classé l’uranium naturel ou appauvri parmi les agents cancérogènes.

D'OÙ VIENT L'URANIUM ?
Fabriqué dans les étoiles
Il n’existe aucun noyau stable dont le numéro atomique serait supérieur à celui du bismuth (numéro atomique : 83). Pourtant, on trouve sur Terre des éléments plus lourds encore : le thorium et l’uranium. Ils sont radioactifs et ils ont été formés, au sein des étoiles, il y a plusieurs milliards d’années. C’est parce que leur période de décroissance radioactive est très grande (pour les isotopes de l’uranium naturel : des millions voire des milliards d’années selon les isotopes) qu’une partie de ces atomes est toujours présente jusqu’à notre ère.



Du fer jusqu’au bismuth, les atomes sont formés par des captures successives de neutrons. Ensuite, une décroissance radioactive de type « bêta-moins » (dans laquelle un neutron se transforme en proton) génère un élément de numéro atomique immédiatement supérieur.



Dans une supernova, c’est-à-dire une étoile super massive qui s’effondre sur elle-même en quelques millisecondes, la densité de matière extrême permet à un noyau de capturer plusieurs neutrons en une seule fois. Le noyau subit ensuite plusieurs transformations radioactives successives qui génèrent des éléments beaucoup plus lourds, dont l’uranium. Puis, dans un rebond explosif, la supernova explose et expulse ces noyaux dans le milieu interstellaire. Ils peuvent ensuite se rassembler autour d’une nouvelle étoile et s’agréger pour se retrouver dans les planètes comme notre Terre.



En revanche, dans une étoile comme notre Soleil, les densités de neutrons sont si faibles au point qu’il s’y produit moins d’une capture de neutron par décennie.

Sources d'uranium anthropique
Les engrais phosphatés utilisés en agriculture apportent de l’uranium dans les sols : à raison d'environ 100 kg d'engrais par hectare et par an, cet apport annuel peut être estimé à près de 1mg/m2.



L’extraction minière de l’uranium peut aussi représenter une voie d’apport dans l’environnement. Les nombreuses études internationales, réalisées sur le sujet, ont montré que la contamination environnementale reste toujours limitée et que les teneurs en uranium correspondantes sont celles de nombreux sites naturels.

L'URANIUM DANS L'ENVIRONNEMENT
L’uranium, est un élément naturel omniprésent dans notre environnement. Pour comprendre son comportement dans l’environnement, il est important de connaître sa chimie qui est complexe en raison notamment de ses différents états d’oxydation. Les deux états d’oxydation les plus importants sont l’uranium (IV) et l’uranium (VI). De manière générale, les composés d’uranium (IV) sont très insolubles, alors que ceux d’uranium (VI) présentent des solubilités plus variées.

Dans les eaux
Ainsi dans les eaux naturelles, l’uranium est stable sous deux états d’oxydation : l’état d’oxydation VI prédomine dans les milieux oxydés comme les eaux de surface, et l’état d’oxydation IV prédomine dans les milieux réduits, c’est-à-dire les eaux profondes dont l’oxygène est absent.
Selon la composition du milieu (pH, anions caractéristiques du milieu, conditions d’oxydo-réduction …), l’uranium peut être présent sous différentes formes chimiques dont la proportion va varier.

Dans les sols
Dans les sols comme dans les eaux, selon les conditions du milieu (oxydé ou réduit), l’uranium est présent sous différentes valences. L’uranium se trouve à l’état naturel à différentes concentrations dans les sols et les eaux ; il a également été mesuré dans des météorites à des teneurs variant de 90 à 360 microgramme par kilogramme  de matière.
Milieu    Concentration en mg/kg
Mer    0,003
Roche basaltique    0,5
Sol calcaire     1
Écorce terrestre    2
Roche granitique    5
Phosphate    100
Gisement uranifère    10 000
Le tableau suivant donne l'ordre de grandeur des concentrations d'uranium rencontrées naturellement dans différents milieux. Ce tableau illustre la grande disparité des concentrations d'uranium rencontrées dans la nature. Il démontre aussi et surtout l'omniprésence de cet élément sur Terre.


Migration de l'uranium dans l'environnement
Le comportement de l'uranium dans l'environnement dépend des conditions du milieu. Dans chaque système naturel, il existe des conditions spécifiques (pH, potentiel redox, force ionique, teneur en matière organique) pour lesquelles la mobilité de l'uranium est minimale. En milieu oxydant, l’uranium se trouve sous la valence VI, qui est la forme la plus stable et la plus mobile. En conditions anaérobies, il peut être réduit à la valence IV.


L'uranium a une mobilité moyenne dans les sols. En condition aérobie, il se complexe facilement avec la matière organique, les carbonates, les phosphates et les sulfates. La présence de substances humiques conduit à une fixation plus efficace de l'uranium dans les sols. Ceci peut conduire à l'existence de zones d'accumulation dans les horizons riches en matières organiques. La présence d'ions carbonates dans les sols conduit à la formation de composés chargés négativement, plus mobiles.
Ces mécanismes de complexation conditionnent le comportement de l'uranium dans les sols, ce qui explique que, dans les sols non remaniés, la répartition de l'uranium n'est pas homogène selon la profondeur du sol.


Réacteur nucléaire naturel
Certains sites géologiques favorisent la concentration de l’uranium dans les milieux naturels. Ainsi, la teneur en uranium peut atteindre plusieurs centaines de milligrammes par kilogramme de sol ou de roche dans des sites comme Cigar Lake au Canada, Pocos de Caldas au Brésil, El Berocal en Espagne. Des conditions hydrogéologiques favorables, associées à une concentration d'uranium adaptée, ont même conduit, il y a près de 2 milliards d'années, à l’existence de réacteurs nucléaires naturels tels que celui d’Oklo au Gabon.

Alimentation
La présence naturelle de l'uranium dans notre environnement conduit à l'ingestion quotidienne de cet élément par l’alimentation.

La présence d'uranium disponible dans les sols conduit à la présence d'uranium dans les végétaux qui s'y développent. Les concentrations dans les végétaux dépendent du type de sol et de la partie du végétal considérée ; en règle générale, l'uranium se retrouve en proportion plus importante dans les racines et les plantes que dans les graines. Chez les animaux, la présence d'uranium est liée à leur consommation de végétaux et de leur eau d'abreuvement, voire de l'ingestion directe de sol.

A partir de mesures d'uranium en dehors de l’influence d’installations nucléaires, l’UNSCEAR évalue l’activité dans l’air en 238U aux environs de 1 μBq.m-3.

L'absorption de l'uranium par inhalation est très faible et l'absorption par ingestion est de l'ordre de 1 à 4 µg par jour.

Compte tenu de l'existence de sols uranifères traversés par les eaux souterraines alimentant sources et puits, certaines eaux de boissons contiennent des concentrations d'uranium supérieures à 50 µg/L, voire supérieures à 7 800 µg/L dans certaines régions telles que la Finlande. En moyenne néanmoins, la quantité d’uranium apportée quotidiennement via l’alimentation est de l’ordre de quelques microgrammes, principalement par les coquillages et dans une moindre mesure, les légumes frais, les céréales et les poissons.

 

   DOCUMENT     cea         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon