ecole de musique piano
     
menu
 
 
 
 
 
 

DE L'ATOME AU CRISTAL : LES PROPRIÉTÉS ÉLECTRONIQUES DES MATÉRIAUX

 

 

 

 

 

 

Transcription de la 580e conférence de l'Université de tous les savoirs prononcée le 23 juin 2005

De l'atome au cristal : Les propriétés électroniques de la matière

Par Antoine Georges

Les ordres de grandeur entre l'atome et le matériau :

1. Il existe entre l'atome et le matériau macroscopique un très grand nombre d'ordres de grandeur, d'échelles de longueur. Prenons l'exemple d'un lingot d'or : quelqu'un muni d'une loupe très puissante pourrait observer la structure de ce matériau à l'échelle de l'atome : il verrait des atomes d'or régulièrement disposés aux nSuds d'un réseau périodique. La distance entre deux de ces atomes est de l'ordre de l'Angstrom, soit 10-10m. Ainsi, dans un lingot cubique de un millimètre de côté, il y a 10 millions (107) d'atomes dans chaque direction soit 1021 atomes au total ! Les échelles spatiales comprises entre la dimension atomique et macroscopique couvrent donc 7 ordres de grandeur. Il s'agit alors de comprendre le fonctionnement d'un système composé de 1021 atomes dont les interactions sont régies par les lois de la mécanique quantique.

2. Malheureusement, une telle loupe n'existe évidemment pas. Cependant, il est possible de voir les atomes un par un grâce à des techniques très modernes, notamment celle du microscope électronique à effet tunnel. Il s'agit d'une sorte de « gramophone atomique », une pointe très fine se déplace le long d'une surface atomique et peut détecter d'infimes changements de relief par variation du courant tunnel (voir plus loin). Cette découverte a valu à ses inventeurs le prix Nobel de physique de 1986 à Gerd Karl Binnig et Heinrich Rohrer (Allemagne).

3. Nous pouvons ainsi visualiser les atomes mais aussi les manipuler un par un au point de pouvoir « dessiner » des caractères dont la taille ne dépasse pas quelques atomes ! (Le site Internet www.almaden.ibm.com/vis/stm/gallery.html offre de très belles images de microscopie à effet tunnel). Cette capacité signe la naissance du domaine des nanotechnologies où la matière est structurée à l'échelle atomique.

4. Les physiciens disposent d'autres « loupes » pour aller regarder la matière à l'échelle atomique. Parmi elles, le synchrotron est un grand anneau qui produit un rayonnement lumineux très énergétique et qui permet de sonder la structure des matériaux, des molécules ou des objets biologiques, de manière statique ou dynamique. Les applications de ce genre de loupe sont innombrables en physique des matériaux, chimie, biologie et même géologie (par pour l'étude des changements structuraux des matériaux soumis à de hautes pressions).

5. Il existe encore bien d'autres « loupes » comme par exemple la diffusion de neutrons, la spectroscopie de photo-émission, la résonance magnétique... Dans la diffusion de neutrons, un neutron pénètre un cristal pour sonder la structure magnétique du matériau étudié.

La grande diversité des matériaux :

6. Ces différentes techniques révèlent la diversité structurale des matériaux, qu'ils soient naturels ou artificiels. Le sel de cuisine, par exemple, a une structure cristalline très simple. En effet, il est composé d'atomes de sodium et de chlore régulièrement alternés. Il existe également des structures plus complexes, comme par exemple les nanotubes de carbone obtenus en repliant des feuilles de graphite sur elles-mêmes ou la célèbre molécule C60 en forme de ballon de football composée de 60 atomes de carbone (fullerènes)

7. Tous ces matériaux peuvent être soit présents à l'état naturel soit élaborés de manière artificielle. Cette élaboration peut être faite plan atomique par plan atomique en utilisant une technique appelée « épitaxie par jet moléculaire » dans laquelle un substrat est bombardé par des jets moléculaires. Les atomes diffusent pour former des couches monoatomiques. Cette technique permet alors de fabriquer des matériaux contrôlés avec une précision qui est celle de l'atome.

8. La diversité des matériaux se traduit donc pas une grande diversité des structures, mais aussi de leurs propriétés électroniques. Par exemple, la résistivité (c'est-à-dire la capacité d'un matériau à s'opposer au passage d'un courant : R=U/I) varie sur 24 ordres de grandeurs entre de très bons conducteurs et un très bon isolant, ce qui est encore bien plus que les 7 ordres de grandeurs des dimensions spatiales. Il existe donc des métaux (qui sont parfois de très bons conducteurs), des isolants (de très mauvais conducteurs), des semi-conducteurs et même des supraconducteurs. Ces derniers sont des métaux, qui en dessous d'une certaine température, n'exercent aucune forme de résistance et ne dissipent aucune énergie. D'autres matériaux encore voient leur gradient thermique évoluer en fonction du courant qui les traverse, ceci permet par exemple de fabriquer du « froid » avec de l'électricité ou fabriquer de l'électricité avec de la chaleur, ce sont des thermoélectriques. Enfin, la résistivité de certains matériaux est fonction du champ magnétique dans lequel ils sont placés.

9. Ces diversités, autant structurales qu'électroniques, sont et seront de plus en plus mises à profit dans d'innombrables applications. Nous pouvons citer parmi elles, le transistor, le circuit intégré, le lecteur CD, l'imagerie par résonance magnétique etc. Derrière ces applications pratiques, il y a des problèmes de physique et de chimie fondamentales, et pour parfaitement comprendre l'origine de cette diversité, il faut remonter aux lois de la mécanique quantique. Il s'agit donc de jeter un pont entre l'échelle macroscopique et le monde quantique, à travers ces fameux 7 ordres de grandeurs. Particulièrement dans ce domaine, les sciences théoriques et expérimentales interagissent énormément. Nous allons donc partir de l'échelle atomique pour essayer de comprendre le comportement macroscopique d'un matériau.

De l'atome au matériau :

10. Commençons donc par la structure atomique. Un atome est composé d'un noyau, autour duquel gravitent des électrons. L'électron est environ 2000 fois plus léger que les protons et neutrons, constituants de base du noyau. La taille de cet ensemble est d'environ 10-10m (un Angstrom).

11. Le système {noyau+électron} semble comparable au système {Terre+soleil}, dans ce cas, l'électron tournerait sur une orbite bien régulière autour du noyau. Il n'en n'est rien. Même si les physiciens ont, pour un temps, cru au modèle planétaire de l'atome, nous savons depuis les débuts de la mécanique quantique que le mouvement de l'électron est bien différent de celui d'une planète !

12. La première différence notable est que l'électron ne suit pas une trajectoire unique. En fait, nous ne pouvons trouver l'électron qu'avec une certaine probabilité dans une région de l'espace. Cette région est appelée orbitale atomique. La forme de ce nuage de probabilités dépend de l'énergie de l'électron et de son moment cinétique. Si cette région est sphérique, on parle d'orbitale « s », (cas de l'atome d'hydrogène où seul un électron tourne autour du noyau). On parle d'orbitale « p » lorsque le nuage de probabilités est en forme de 8, (atome d'oxygène). Enfin, lorsque ce nuage prend une forme de trèfle à quatre feuilles, on parle d'orbitale « d » (atome de fer). Ainsi, il n'existe pas de trajectoires à l'échelle quantique, mais uniquement des probabilités de présence.

13. De plus, l'énergie d'un électron ne peut prendre que certaines valeurs bien déterminées, l'énergie est quantifiée (origine du terme quantique). La localisation de ces différents niveaux d'énergies et la transition entre ces niveaux par émission ou par absorption a été à l'origine de la mécanique quantique. Ces travaux ont valu à Niels Bohr le prix Nobel de physique de 1922. L'état d'énergie le plus bas est appelé état fondamental de l'atome. Il est par ailleurs possible d'exciter l'électron (avec de la lumière, par exemple) vers des niveaux d'énergie de plus en plus élevés. Ceci est connu grâce aux spectres d'émission et d'absorption de l'atome, qui reflètent les différents niveaux d'énergie possibles.

14. La troisième particularité du mouvement de l'électron est son Spin, celui-ci peut être représenté par une représentation imagée : l'électron peut tourner sur lui-même vers la gauche ou vers la droite, en plus de sa rotation autour du noyau. On parle de moment cinétique intrinsèque ou de deux états de Spin possibles. Pauli, physicien autrichien du XXéme siècle, formula le principe d'exclusion, à savoir qu'un même état d'énergie ne peut être occupé par plus de deux électrons de Spin opposé. Nous verrons plus loin qu'il est impossible de connaître l'état macroscopique d'un matériau sans tenir compte du principe d'exclusion de Pauli. Pour l'atome d'hélium par exemple, la première (et seule) couche contient deux atomes et deux seulement, il serait impossible de rajouter un atome dans cette couche, elle est dite complète.

15. On peut considérer grâce à ces trois principes (description probabiliste, niveaux d'énergies quantifiés et principe d'exclusion) que l'on remplit les couches électroniques d'un atome avec les électrons qui le constituent. Les éléments purs, dans la nature, s'organisent alors de manière périodique, selon la classification de Mendeleïev. Cette classification a été postulée de manière empirique bien avant le début de la mécanique quantique, mais cette organisation reflète le remplissage des couches atomiques, en respectant le principe d'exclusion de Pauli.

16. Un autre aspect du monde quantique est l'effet tunnel. Dans le microscope du même nom, cet effet est mis à profit pour mesurer une variation de relief. L'effet tunnel est une sorte de « passe-muraille quantique ». En mécanique classique, un personnage qui veut franchir un obstacle doit augmenter son niveau d'énergie au dessus d'un certain niveau. En mécanique quantique, en revanche, il est possible de franchir cet obstacle avec une certaine probabilité même si notre énergie est inférieure au potentiel de l'obstacle. Bien sûr, cette probabilité diminue à mesure que cette différence d'énergie augmente.

17. Cet effet tunnel assure la cohésion des solides, et permet aussi à un électron de se délocaliser sur l'ensemble d'un solide. Cet effet tunnel est possible grâce à la dualité de l'électron : il est à la fois une particule et une onde. On peut mettre en évidence cette dualité grâce à l'expérience suivante : une source émet des électrons un par un, ceux-ci ont le choix de passer entre deux fentes possibles. La figure d'interférence obtenue montre que, bien que les électrons soient émis un par un, ils se comportent de manière ondulatoire.

18. Les électrons des couches externes de l'atome (donc les moins fortement liés au noyau) vont pouvoir se délocaliser d'un atome à l'autre par effet tunnel. Ces « sauts », sont à l'origine de la cohésion d'un solide et permettent également la conduction d'un courant électronique à travers tout le solide.

19. Une autre conséquence de cet effet tunnel est que l'énergie d'un solide n'est pas une simple répétition n fois des niveaux d'énergie de chaque atome isolé. En réalité, il apparaît une série d'énergies admissibles qui se répartissent dans une certaine gamme d'énergie, cette gamme est appelée bande d'énergie permise. D'autres gammes restent interdites. Ainsi, si les atomes restent éloignés les uns des autres, les bandes d'énergies admises sont très étroites, mais à mesure que la distance inter-atomique diminue, ces bandes s'élargissent et le solide peut alors admettre une plus large gamme de niveaux d'énergie.

20. Nous pouvons penser, comme dans la classification périodique, que les électrons remplissent ces bandes d'énergies, toujours en respectant le principe d'exclusion de Pauli. L'énergie du dernier niveau rempli est appelée énergie du niveau de Fermi. La manière dont se place ce dernier niveau rempli va déterminer la nature du matériau (métal ou isolant). Si le niveau de Fermi se place dans une bande d'énergie admise, il sera très facile d'exciter les électrons, le matériau sera donc un métal. Si au contraire le niveau de Fermi se place dans une bande d'énergie interdite, il n'est pas possible d'exciter les électrons en appliquant une petite différence de potentiel, nous avons donc affaire à un isolant. Enfin, un semi-conducteur est un isolant dont la bande d'énergie interdite (« gap », en anglais), est suffisamment petite pour que l'on puisse exciter un nombre significatif de porteurs de charge simplement avec la température ambiante.
Nous voyons donc que l'explication de propriétés aussi courantes des matériaux repose sur les principes généraux de la mécanique quantique.

21. Ainsi, dans un solide constitué d'atomes dont la couche électronique externe est complète, les électrons ne peuvent sauter d'un atome à l'autre sans violer le principe d'exclusion de Pauli. Ce solide sera alors un isolant.

22-23. En réalité, les semi-conducteurs intrinsèques (les matériaux qui sont des semi-conducteurs à l'état brut) ne sont pas les plus utiles. On cherche en fait à contrôler le nombre de porteurs de charge que l'on va induire dans le matériau. Pour cela, il faut créer des états d'énergies très proches des bandes permises (bande de conduction ou bande de Valence). On introduit à ces fins des impuretés dans le semi-conducteur (du bore dans du silicium, par exemple) pour fournir ces porteurs de charges. Si on fournit des électrons qui sont des porteurs de charges négatifs, on parlera de dopage N. Si les porteurs de charges sont des trous créés dans la bande de Valence, on parlera de dopage P.

24. L'assemblage de deux semi-conducteurs P et N est la brique de base de toute l'électronique moderne, celle qui permet de construire des transistors (aux innombrables applications : amplificateurs, interrupteurs, portes logiques, etc.). Le bond technologique dû à l'invention du transistor dans les années 1950 repose donc sur tout l'édifice théorique et expérimental de la mécanique quantique. L'invention du transistor a valu le prix Nobel en 1956 à Brattain, Shockley et Bardeen. Le premier transistor mesurait quelques centimètres, désormais la concentration dans un circuit intégré atteint plusieurs millions de transistors au cm². Il existe même une célèbre loi empirique, proposée par Moore, qui observe que le nombre de transistors que l'on peut placer sur un microprocesseur de surface donnée double tous les 18 mois. Cette loi est assez bien vérifiée en pratique depuis 50 ans !

25. En mécanique quantique, il existe un balancier permanent entre théorie et expérience. La technologie peut induire de nouvelles découvertes fondamentales, et réciproquement.
Ainsi, le transistor à effet de champ permet de créer à l'interface entre un oxyde et un semi-conducteur un gaz d'électrons bidimensionnel, qui a conduit à la découverte de « l'effet Hall quantifié ».

26. Cette nappe d'électron présente une propriété remarquable : lorsqu'on applique un champ magnétique perpendiculaire à sa surface, la chute de potentiel dans la direction transverse au courant se trouve quantifiée de manière très précise. Ce phénomène est appelé effet Hall entier (Klaus von Klitzing, prix Nobel 1985) ou effet Hall fractionnaire (Robert Laughlin, Horst Stormer et Daniel Tsui, prix Nobel 1998).

27. L'explication de ces phénomènes fait appel à des concepts fondamentaux de la physique moderne comme le phénomène de localisation d'Anderson, qui explique l'effet des impuretés sur la propagation des électrons dans un solide. Nous voyons donc encore une fois cette interaction permanente entre technologie et science fondamentale.

La supraconductivité :

28. Il existe donc des métaux, des isolants, des semi-conducteurs. Il existe un phénomène encore plus extraordinaire : la supraconductivité. Il s'agit de la manifestation d'un phénomène quantique à l'échelle macroscopique : dans un métal « normal », la résistance tend vers une valeur finie non nulle lorsque la température tend vers 0 alors que dans un métal supraconducteur, la résistance s'annule en dessous d'une certaine température dite critique. Les perspectives technologiques offertes par la supraconductivité paraissent donc évidentes car il serait alors possible de transporter un courant sans aucune dissipation d'énergie. Le problème est de contrôler la qualité des matériaux utilisés, et il serait évidemment merveilleux de pouvoir réaliser ce phénomène à température ambiante...

29. La supraconductivité a été découverte par Kammerlingh Onnes en 1911 quand il refroidit des métaux avec de l'hélium liquide à une température d'environ 4 degrés Kelvin.

30. Ce phénomène ne fut expliqué que 46 ans plus tard, car il fallait tout l'édifice de la mécanique quantique pour réellement le comprendre. Nous devons cette explication théorique à Bardeen, Cooper et Schieffer à la fin des années 1950.

31. Dans un métal, il y a une source naturelle d'attraction entre les électrons. On peut imaginer que chaque électron déforme légèrement le réseau cristallin et y attire un autre électron pour former ce que l'on nomme une paire de Cooper. Ces paires peuvent échapper au principe d'exclusion de Pauli car elles ont un Spin 0. Elles se comportent alors comme des bosons et non plus comme des fermions, et s'écroulent dans un même état d'énergie pour former un état collectif. Le matériau a un comportement analogue à l'état de superfluide de l'hélium 4. Toutes ces paires de Cooper sont donc décrites par une unique fonction d'onde, c'est un état quantique macroscopique. Il existe donc de nombreuses propriétés qui révèlent cet état quantique à l'échelle du matériau.

32. A la fin des années 1950, la théorie de la supraconductivité est enfin comprise et le but est maintenant d'augmenter la température critique. Une véritable course est alors lancée, mais celle-ci n'eut pas que des succès. Alors que en 1911 Kammerlingh Onnes observait la supraconductivité du mercure à une température de 4K, à la fin des années 80, nous en étions encore à environ 30K. En 1986, cette température critique fait un bond considérable et se trouve aujourd'hui aux alentours des 140K. La température de l'azote liquide étant bien inférieure à ces 140K, il est désormais moins coûteux d'obtenir des supraconducteurs.

33. Ces supraconducteurs possèdent des propriétés étonnantes. Par exemple, un champ magnétique ne peut pénétrer à l'intérieur d'un matériau supraconducteur. Ceci permet de faire léviter un morceau de supraconducteur en présence d'un champ magnétique !

34. Cette « lévitation magnétique » offre de nouvelles perspectives : il est par exemple possible de faire léviter un train au dessus de ses rails, il faut alors très peu d'énergie pour propulser ce train à de grandes vitesses. Un prototype japonais a ainsi atteint des vitesses de plus de 500km/h.
Les supraconducteurs permettent de créer des champs magnétiques à la fois très intenses et contrôlés, et servent donc pour l'imagerie par résonance magnétique (IRM). Ceci offre bien sûr de nouvelles possibilités en imagerie médicale.
Les supraconducteurs peuvent être également utilisés pour créer de nouveaux outils pour les physiciens : dans le nouvel accélérateur de particules au CERN à Genève, les aimants sont des supraconducteurs.

35. L'année 1986 voit une véritable révolution dans le domaine de la supraconductivité. Bednorz et Muller découvrent en effet une nouvelle famille de matériaux supraconducteurs qui sont des oxydes de cuivre dopés. En l'absence de dopage, ces matériaux sont des isolants non-conventionnels, dans lesquels le niveau de Fermi semble être dans une bande permise (isolants de Mott). La température critique de ces supraconducteurs est bien plus élevée que dans les supraconducteurs conventionnels : le record est aujourd'hui de 138 degrés Kelvin pour un composé à base de mercure. C'est une très grande surprise scientifique que la découverte de ces nouveaux matériaux, il y a près de vingt ans.

Des matériaux aux propriétés étonnantes :

36. Ces sont donc des isolants d'un nouveau type, dits de Mott. Ces matériaux sont isolants non pas parce que leur couche extérieure est pleine mais parce que les électrons voulant sauter d'un atome à l'autre par effet tunnel se repoussent mutuellement.

37. La compréhension de la physique de ces matériaux étonnants est un grand enjeu pour les physiciens depuis une vingtaine d'années. En particulier, leur état métallique demeure très mystérieux et ne fait à ce jour pas le consensus de la communauté scientifique.

38. Il est également possible de fabriquer des métaux à partir de molécules organiques, nous obtenons alors des « plastiques métalliques » pouvant également devenir supraconducteurs en dessous d'une certaine température (découverte par Denis Jérome et son équipe à Orsay en 1981). Le diagramme de phase des supraconducteurs organiques est au moins voire plus compliqué que celui des oxydes métalliques.

39. Actuellement, des recherches sont menées sur des alliages ternaire, et quaternaires qui semblent offrir encore de nouvelles propriétés. Par exemple, les oxydes de manganèse ont une magnétorésistance colossale, c'est-à-dire que leur résistance varie beaucoup en présence d'un champ magnétique. Cette particularité pourrait être utilisée dans le domaine de l'électronique de Spin, où on utilise le Spin des électrons, en plus de leur charge pour contrôler les courants électriques. Les oxydes de Cobalt, quant à eux, présentent la propriété intéressante d'être des thermoélectriques (i.e capables de produire un courant électrique sous l'action d'un gradient de température).
Il existe donc de très nombreux défis dans ce domaine, ils sont de plusieurs types. D'abord, l'élaboration de structures peut permettre de découvrir de nouveaux matériaux aux nouvelles propriétés qui soulèvent l'espoir de nouvelles applications.
Mais il existe aussi des défis théoriques : est il possible de prédire les propriétés d'un matériau à partir des lois fondamentales ? Des progrès importants ont été réalisés durant la seconde partie du XXème siècle et ont valu à Walter Kohn le prix Nobel de chimie. Cependant, ces méthodes ne sont pas suffisantes pour prédire la physique de tous les matériaux, en particulier de ceux présentant de fortes corrélations entre électrons. Les puissances conjuguées de la physique fondamentale et calculatoire des ordinateurs doivent être mise à service de ce défi. Par ailleurs, de nouveaux phénomènes apparaissent dans ces matériaux qui amèneront certainement des progrès en physique fondamentale.
La chimie, la physique et l'ingénierie des matériaux et de leurs propriétés électroniques semblent donc avoir de beaux jours devant eux !

 

DOCUMENT       canal-u.tv     LIEN

 
 
 
 

NANOSCIENCES ...

 

 

 

 

 

 

 

Paris, 28 juin 2016
Première pierre du Centre de nanosciences et de nanotechnologies

Le Centre de nanosciences et de nanotechnologies (C2N, CNRS/Université Paris-Sud), créé au 1er juin 2016, regroupe deux laboratoires franciliens leaders dans leur domaine : le Laboratoire de photonique et de nanostructures (CNRS) et l'Institut d'électronique fondamentale (CNRS/Université Paris-Sud). La première pierre de ce nouveau laboratoire a été posée le mardi 28 juin 2016 sur le campus de l'université Paris-Saclay, en présence de Thierry Mandon secrétaire d'État chargé de l'Enseignement supérieur et de la Recherche. Cette nouvelle structure, qui hébergera la plus grande centrale de nanotechnologie francilienne du réseau national Renatech1, se place dans une perspective ambitieuse : constituer, en France, un laboratoire phare de niveau mondial pour la recherche en nanosciences et en nanotechnologies. Le C2N, avec son bâtiment de 18 000 m², représente le plus grand projet immobilier du CNRS depuis 1973. Conduit conjointement par le CNRS et l'université Paris-Sud depuis 2009, ce projet s'inscrit dans l'opération d'intérêt national Paris-Saclay portée par l'Etablissement public d'aménagement Paris-Saclay.
L'implantation du Centre de nanosciences et de nanotechnologies (C2N) au cœur du plateau de Saclay, dans le quartier de l'école Polytechnique, a été initiée dans le cadre du plan Campus en 2009. Elle permet de renforcer la dynamique de l'écosystème scientifique des nanosciences et nanotechnologies en Ile-de-France.

Le C2N mène ses recherches dans de nombreux domaines innovants dont la science des matériaux, la nanophotonique2, la nanoélectronique3, les nanobiotechnologies et les microsystèmes, ainsi que dans ceux des nanotechnologies (voir des exemples de travaux de recherche en fin de texte). Structuré en quatre départements scientifiques, le C2N aborde des recherches à la fois fondamentales et appliquées. Il représentera le pôle de référence en matière de nanosciences et nanotechnologies de l'université Paris-Saclay. Plus largement, à l'échelle européenne, il constituera l'un des plus grands centre académique de nanophotonique et, avec les acteurs locaux, l'un des plus grands consortiums en spintronique. Le C2N participe donc au rayonnement de la communauté à l'international. Ainsi l'université Paris-Sud vient d'être reconnue 42e établissement mondial en science des matériaux par le dernier classement de Shanghai en ingénierie (juin 2016).

Au cœur du projet du C2N, la salle blanche (2800 m²) de la centrale de technologie sera la plus grande plateforme de ce type à l'échelle nationale. Elle constituera le pôle francilien du réseau national des grandes centrales académiques Renatech, réseau d'infrastructures et de moyens lourds en micro et nanotechnologie. Cette centrale sera ouverte à l'ensemble des acteurs académiques et industriels du domaine des nanosciences et des nanotechnologies afin qu'ils puissent y développer leurs technologies. Un espace sera ainsi réservé à l'accueil d'entreprises, notamment des start-up et des PME, pour des développements technologiques spécifiques. La formation à la recherche sera également au centre des priorités du C2N, avec notamment la mise en place d'une salle blanche d'entraînement, en conditions réelles, réservée à la formation pratique d'étudiants, stagiaires, ingénieurs et chercheurs désireux d'apprendre.

Ce projet immobilier d'environ 92 millions d'euros a été financé à hauteur de 71 millions d'euros par le Programme d'investissements d'avenir, 12,7 millions d'euros par le CNRS, qui contribuera également au déménagement des deux laboratoires et au raccordement des équipements à hauteur de 4,3 millions d'euros. Le foncier s'élevant à 4,32 millions d'euros a été acquis par le CNRS en 2014. La conception du bâtiment a été confiée au groupement ARTELIA (structure ingénierie et bureau d'étude) et à l'atelier d'architecture Michel Rémon et le chantier à Bouygues Ouvrages Publics, Engie Axima, GER2I, Engie Ineo et Eurovia.

Les travaux ont débuté en novembre 2015 et se termineront à l'automne 2017. Les 18 000 m² du bâtiment, regroupant les laboratoires expérimentaux (3400 m²), les bureaux (2900 m²) et la salle blanche (2800 m²), accueilleront fin 2017 entre 410 et 470 personnes, réparties entre personnels permanents (chercheurs et enseignant-chercheurs, ingénieurs, techniciens et administratifs) et non permanents (doctorants, post doctorants, étudiants, techniciens stagiaires, visiteurs, etc.).


  DOCUMENT           cnrs       LIEN

 
 
 
 

LES ROBOTS SOCIAUX

 

Les premiers pas des robots sociaux


spécial robots - par Alexis Drogoul et Jean-Daniel Zucker dans mensuel n°350 daté février 2002 à la page 91 (2145 mots)
Après Aibo, les robots guides de musée et les robots nurse, des expérimentations mettent en présence une colonie de robots et des humains dans le cadre de leur vie quotidienne. Une perspective révolutionnaire.

PourquoiR2D2, un droïde non humanoïde, est-il régulièrement cité, dans les nombreux sondages réalisés à propos de Star Wars , comme l'un des personnages préférés des spectateurs, alors qu'il ne possède aucun des attributs que l'on prête traditionnellement, dans la littérature de science-fiction, aux robots « évolués » ? Il est certes doté d'un aspect plutôt sympathique et rassurant, mais son mode de locomotion est rudimentaire, ses possibilités de préhension ou d'action particulièrement pauvres, ses capacités de communication réduites à des sifflements et bourdonnements incompréhensibles sauf à quelques autres robots, qui sont nécessaires pour décrypter ce qu'il dit, et son « expressivité » ne va pas au-delà d'un clignotement de lampe sur sa face avant. Rien qui puisse réellement, à première vue, déclencher le moindre engouement ! Peut-être faut-il aller chercher ailleurs, alors, ce qui, en dépit de son altérité radicale, rend ce robot si attachant ... et si proche de nous.

La raison essentielle tient à la place qu'il occupe aux côtés des héros du film. Tout en étant très différent d'eux, physiquement et - sans doute - psychologiquement, il apparaît paradoxalement mieux intégré à leur communauté que les autres robots, dont la plupart ne sont bons qu'à servir d'esclaves artificiels. Dans la plupart des scènes où il se produit, ses faibles capacités d'action font qu'il a autant besoin de l'aide des hommes que ceux-ci ont besoin de ses connaissances concernant le monde « électronique », créant de la sorte l'impression troublante d'une égalité qui n'est pas simplement formelle. Son « autonomie » est en fait comparable à l'autonomie dont dispose chacun des êtres vivants présents dans Star Wars , car, bien que capable de prendre des décisions seul, il dépend en grande partie de son environnement social pour pouvoir fonctionner correctement. En ce sens, R2D2 est l'archétype de ce qu'il convient d'appeler un robot socialement situé ou robot social, pour faire court, robot autonome capable d'évoluer et prévu pour fonctionner quelles que soient ses fonctions au sein d' environnements socialisés , c'est-à-dire des milieux façonnés, contrôlés et occupés par les êtres humains, et essentiellement prévus pour eux. Cela sans qu'il ait besoin de « tricher » en jouant, par exemple, de son apparence physique : il est et reste aux yeux de tous un robot qui ne « singe » pas l'homme, à qui il est pourtant possible de conférer une individualité, voire une intentionnalité, aussi naturellement qu'aux autres personnages.

Droïdes de service. Il est possible de distinguer, dans son comportement, quelques-uns des traits fondamentaux qui pourraient servir à caractériser ce qui en fait un robot social. D'abord physiquement situé dans le même monde que ses utilisateurs, en interaction constante avec eux, il se montre capable de réagir et d'agir, avec ses moyens limités, de façon fluide et naturelle, au point qu'aucune de ses actions ne semble « hors de propos » ou déplacée. Il est également capable d'entretenir des relations personnalisées avec les autres personnages, relations qui s'appuient sur l'histoire des interactions qu'il a pu avoir avec eux.

Second point : bien qu'il fasse partie de la catégorie des « droïdes de service », il est parfaitement capable, dans les situations qui l'exigent, d'utiliser les autres protagonistes à son bénéfice. En ce sens, la relation d'instrumentalisation qu'il entretient avec ses « utilisateurs » n'est pas à sens unique : on se sert autant de lui qu'il sait se servir des autres, par exemple quand son état exige des réparations qu'il est incapable d'effectuer seul. Troisième point : son comportement évolue au fur et à mesure des situations auxquelles il est confronté, ce qui montre qu'il est capable d'apprendre, aussi bien par lui-même que par interaction avec les autres personnages. Nulle part, dans les différents films de la saga, ne voit-on ainsi un personnage être obligé de le « programmer » pour une mission particulière, alors que son comportement démontre une plasticité impressionnante. En l'absence de tout dialogue, il semble même capable de reconnaître les intentions des personnages qui l'entourent et d'agir en fonction de ces intentions. Enfin il apparaît, en dépit de son altérité fondamentale, comme parfaitement intégré au monde social qui l'entoure, et pas simplement comme le serait un objet ou un outil un peu sophistiqué. Il a une place à part entière dans le groupe, place reconnue par les autres, qui peut même évoluer en fonction des contextes. Cela démontre une acclimatation de longue date des humains dépeints dans le film à la présence de robots similaires, mais aussi une conscience, de sa part, du ou des rôles qui lui sont implicitement conférés dans un groupe.

Robot aspirateur. R2D2 n'est bien entendu qu'un exemple, qui plus est dans un monde totalement imaginaire, de robot social. Cependant, force est de reconnaître qu'il possède bon nombre des caractéristiques dont il conviendrait de doter les robots de service ou de loisir si nous voulons, un jour, que ceux-ci puissent opérer de façon naturelle et quotidienne dans notre environnement et soient, en dépit de leur autonomie, acceptés et appréciés par leurs utilisateurs de la même façon que ceux-ci les acceptent - et les apprécient - dans une oeuvre de fiction.

Dans le monde beaucoup plus terre à terre de l'industrie, l'adaptation de robots complètement asservis est réalisée a priori .Ils sont capables, une fois placés dans le bon environnement, de fonctionner en complète autarcie sans avoir à percevoir autre chose que ce qui concerne la tâche pour laquelle ils sont conçus. Quant aux robots dits autonomes, prévus pour des missions spécifiques dans des environnements non socialisés exploration, intervention dans des environnements lointains ou hostiles à l'homme, etc., ils sont, eux, conçus de manière à éviter d'avoir à appréhender toute la complexité de leur environnement. Leur comportement repose sur la perception de caractéristiques environnementales dont les propriétés intervalles de valeurs, limites de variation, fréquences de changement sont considérées comme connues de façon fiable. La complexité intrinsèque de leur milieu importe peu ; seule compte la complexité de ce qu'ils perçoivent de ce milieu. Aux yeux de Rocky, la complexité de la planète Mars est très faible : absence ou présence d'obstacles, absence ou présence de roches à filmer, absence ou présence d'une base.

Mais dès lors que des interactions répétées avec des humains, non prévues à l'avance, sont, soit nécessaires, soit inévitables dans le fonctionnement du robot, ces modèles ne sont plus valables1. Comment serait accepté un robot aspirateur autonome qui nécessiterait que les habitations soient conçues pour lui permettre de fonctionner correctement interdiction de déplacer les meubles, circuit immuable, murs peints de certaines couleurs, évacuation des lieux à chaque nettoyage, etc., ou qui ne tiendrait compte de rien d'autre que de la présence ou absence de poussière et ne se mette à fonctionner quand bon lui semble ? L'être humain a ceci de particulier qu'il est, lui, vraiment autonome donc difficilement contrôlable au même titre qu'un objet, que son comportement est souvent imprévisible à moins de percer toute la richesse de ses intentions et qu'il est peu enclin à se montrer coopératif, surtout avec des systèmes technologiques capables de bouleverser ses habitudes. Dans le même temps, cependant, l'être humain constitue une ressource d'une richesse incroyable qui, si elle est correctement exploitée par le robot, peut lui permettre de progresser de manière significative dans la réalisation de ses tâches.

Robots guides. La mise sur le marché, il y a deux ans, du robot Aibo de Sony a ouvert une ère nouvelle, en permettant, par le biais d'un instrument de loisir, de créer des situations de cohabitation entre hommes et robots qu'il est devenu possible d'étudier sur le long terme, tant sur le plan psychologique que sociologique lire l'article de Frédéric Kaplan p. 84. En revanche, le champ d'expérimentation ainsi ouvert reste limité. Aibo n'est déployé, en majorité, que dans des cellules familiales et pas des collectivités plus importantes ou plus variées dont le niveau socioprofessionnel est élevé et qui sont déjà pour la plupart parfaitement acclimatées à la sphère « technologique » sous toutes ses formes.

Plus intéressante est la mise en place des robots guides de musée2 imaginés par l'Institut de robotique de l'université Carnegie Mellon, aux Etats-Unis. Les robots Sage, puis Rhino et Minerva, ont été brièvement expérimentés en 1998 et 1999 respectivement dans le Dinosaur Hall du Carnegie Museum d'Histoire naturelle, au Deutsche Museum de Bonn et au Smithsonian's National Museum of American History. Même si elles ont été limitées dans le temps une ou deux semaines, ces expériences se sont révélées très riches d'enseignements sur le degré d'attention des usagers, leurs attentes, leur curiosité, leur interprétation du fonctionnement du robot, etc. et ont permis de donner naissance à d'autres travaux plus ambitieux, comme NurseBot, aussi à Carnegie Mellon, conçu pour assister les personnes âgées dans leurs tâches quotidiennes3. Dans tous ces travaux, cependant, les résultats obtenus sur l'acclimatation sont quelque peu dénaturés par l'emploi d'un seul et unique robot opérant au sein de groupes humains pour une période de temps assez courte. Il est vraisemblable, dans la perspective de la robotique de service, par exemple, que les usagers seront quotidiennement en contact avec plusieurs robots, qui seront eux-mêmes, sans doute, amenés à interagir les uns avec les autres.

Le projet MICRobES*4, que nous avons mis en place dans notre laboratoire, s'inscrit précisément dans cette perspective. Six droïdes se promènent librement dans les locaux du laboratoire, qui abrite bien d'autres spécialistes que les roboticiens impliqués dans le projet. Ils sont capables de recharger eux-mêmes leur batterie, de se localiser dans l'environnement et d'éviter les obstacles vivants et non vivants, ainsi que les endroits dangereux ascenseurs.... L'expérience a pour objet d'étudier l'évolution des relations hommes/robots dans cet espace partagé. Des sociologues du centre de sociologie de l'innovation de l'Ecole des mines CSI interrogent régulièrement les chercheurs du laboratoire, pour voir comment ils réagissent, à la longue plusieurs mois en présence de cette colonie du troisième type. Plusieurs questions, essentielles au développement d'une robotique sociale, sont abordées dans le cadre de ce projet : une personne réagit-elle de la même manière en présence d'un robot solitaire et d'un groupe de robots ? L'attribution de sens et d'intentionnalité se déroule-t-elle de la même façon ? L'acclimatation ou l'habituation à la présence des robots en est-elle facilitée ? Une grande attention est portée au détail des interactions entre hommes et robots, notamment par le biais de la classification des attitudes qu'adoptent les personnes concernées en présence des robots et sur l'évolution de ces attitudes dans le temps certains ferment leur porte dès qu'ils entendent un droïde arriver....

Concevoir des robots sociaux met ainsi profondément en cause l'orientation purement technologique, presque scientiste, qui est celle de la robotique depuis ses origines. Il n'est, en effet, pas interdit de penser que les problèmes de perception, d'action, de modélisation de l'environnement ou de planification qui se posent à des robots asservis ou complètement autonomes pourront être résolus par le développement incrémental de technologies toujours plus puissantes et robustes. En revanche, il est peu vraisemblable que ces technologies « internes » à la robotique permettent d'aborder facilement des problèmes d'interaction, d'apprentissage, d'acclimatation dont la solution repose, en partie, sur une compréhension fine et une utilisation contrôlée de la façon dont les êtres humains se comportent en présence d'artefacts autonomes ou semi-autonomes. Certes, l'aspect technologique sera toujours nécessaire. Il ne serait pas possible de parler de robots sociaux aujourd'hui sans les avancées spectaculaires réalisées ces dernières années dans le domaine de l'autonomie énergétique, des capteurs, des effecteurs, ou des interfaces d'interaction5,6. Mais, pas plus qu'il n'est possible d'imaginer le développement de robots démineurs dotés de « nez chimiques » sans le concours de chimistes, il ne paraît vraisemblable d'envisager le développement de robots sociaux sans le concours des sciences humaines concernées : sociologie, anthropologie, psychologie, ou éthologie.

Révolution. En définitive, les recherches actuellement menées dans ce domaine consistent à tenter de remettre systématiquement l' homme dans la boucle 7 , c'est-à-dire, par exemple, à considérer que, quel que soit le problème posé au robot, il ne possédera jamais, s'il fonctionne en présence d'êtres humains, qu'une partie de sa solution, l'autre étant entre les mains de ses utilisateurs et échappant, de fait, en partie à ses concepteurs. Cette perspective se traduit, sous ses airs anodins, par une véritable révolution en robotique : l'homme n'est plus un « obstacle » mobile et imprévisible, qu'il convient, au mieux, d'ignorer ou d'éviter, au pire de contrôler par tous les moyens adéquats, mais une ressource qu'il va être nécessaire d'apprivoiser au même titre que les autres ressources « naturelles » un substrat physique pour se déplacer, une station pour se recharger, etc. dont dispose le robot. A la différence près qu'il ne s'agit pas d'une ressource passive et que l'exploiter nous renverra forcément à des questions fondamentales sur notre cognition, individuelle et sociale, auxquelles nous ne savons pas forcément répondre aujourd'hui.

Par Alexis Drogoul et Jean-Daniel Zucker

 

DOCUMENT       larecherche.fr       LIEN

 
 
 
 

LES ROBOTS ET ...DARWIN

 

Darwin revisité par la sélection artificielle


spécial robots - par Dario Floreano dans mensuel n°350 daté février 2002 à la page 24 (3062 mots)
Un robot peut-il évoluer de manière autonome ? Tel est le champ d'étude de la robotique évolutionniste, qui s'attache à mettre au point des robots capables de s'adapter à leur environnement. Aujourd'hui, les performances de certains types de réseaux de neurones artificiels résultent effectivement d'un processus de sélection darwinien.

En dépit des progrès immenses que la robotique a connus au XXe siècle grâce aux développements de l'électronique, de l'informatique et des capteurs artificiels, la plupart des robots actuellement en fonction dans les usines ne diffèrent pas beaucoup des anciens automates. Ils sont toujours programmés pour accomplir exactement des séries d'actions prédéfinies. Peut-on dire de ces machines qu'elles sont intelligentes ? Pas vraiment : elles se bornent à traduire l'intelligence des ingénieurs qui les ont conçues et programmées. Dans son passionnant petit ouvrage intitulé Véhicules. Expériences de psychologie de synthèse , le neurophysiologiste Valentino Braitenberg envisageait a contrario , dès 1984, la possibilité d'aboutir à des robots « intelligents » par l'intermédiaire d'un processus évolutionniste voir l'encadré : « A l'origine de la robotique révolutionnaire ». Il voulait ainsi appliquer à la robotique l'idée de Darwin selon laquelle l'évolution de la vie biologique sur Terre résulte d'un processus de copie sélective avec erreurs aléatoires, sans participation d'un créateur conscient. C'est ce concept de robotique évolutionniste que certains chercheurs ingénieurs, biologistes et spécialistes des sciences cognitives tentent depuis quelques années de développer, en essayant de mettre au point des formes de vie robotique capables de s'adapter de manière autonome à leur environnement.

Au printemps 1994, deux équipes de chercheurs -la nôtre à l'Ecole polytechnique fédérale de Lausanne EPFL et celle dirigée par Inman Harvey à l'université du Sussex, à Brighton1 - ont réalisé les premiers robots ayant développé, par simulation mais sans intervention humaine, divers types de circuits neuronaux leur permettant de se déplacer de manière autonome dans des environnements réels. A la base de ces réalisations, deux postulats communs. Premièrement, la conception planifiée d'un robot ne permet pas de faire face à la complexité des interactions entre le robot et son environnement physique, ni d'élaborer les circuits neuronaux nécessaires à ces interactions. Au lieu de tenter de formaliser ces interactions pour ensuite structurer le cerveau du robot, pourquoi ne pas les laisser, sous la pression de certains critères de sélection, guider elles-mêmes l'évolution de ce dernier ? Deuxièmement, le processus évolutionniste appliqué aux robots est susceptible d'aboutir à des circuits neuronaux beaucoup plus simples que ceux en général dessinés par les ingénieurs appliquant des méthodes d'analyse formelle. La nature n'est-elle pas riche en exemples de circuits nerveux simples et pourtant responsables de comportements apparemment très complexes ?

Réseaux de neurones. Pour expérimenter l'évolution sans intervention humaine, notre équipe de l'EPFL a créé un robot mobile miniature baptisé Khepera à présent distribué par la société K-Team SA. Doté d'un corps circulaire de 6 centimètres de diamètre pour un poids de 70 grammes, il est équipé de deux roues et de huit capteurs lumineux simples répartis autour de son corps six à l'avant et deux à l'arrière fig. 1. Khepera est relié à un ordinateur par l'intermédiaire d'un câble suspendu au plafond et de contacteurs rotatifs spécialement conçus pour assurer sans rupture son alimentation électrique. L'enregistrement permanent de tous les mouvements du robot et de la structure de ses circuits neuronaux au cours de l'évolution permet d'analyser a posteriori le processus évolutionniste.

Par circuits neuronaux, il faut bien sûr comprendre « réseaux de neurones artificiels ». Ces derniers sont soit matérialisés sous forme de composants électroniques, soit, comme c'est le cas ici, simulés par informatique. Comme dans le monde du vivant, ces circuits sont composés d'un certain nombre de neurones interconnectés de façons diverses. Ce sont du reste ce nombre et la nature des interconnexions qui définissent la structure d'un circuit neuronal. L'analogie ne s'arrête pas là, puisque chaque neurone reçoit des signaux des neurones voisins via la propagation unidirectionnelle des signaux en question dans ses dendrites, et envoie ensuite son propre signal à d'autres neurones, via son unique axone.

Certains neurones sont activateurs - ils émettent un signal positif - tandis que d'autres sont inhibiteurs - ils émettent un signal négatif. Quelle que soit sa nature, ce signal de sortie est construit par comparaison entre la somme de signaux reçus par un neurone, et la valeur seuil qui a été attribuée à ce dernier pour qu'il réponde. Enfin, un « poids » est attribué à chaque point de connexion synapse entre un axone et une dendrite, poids qui selon les cas amplifie ou diminue le signal transitant à cet endroit. Le nombre et le type de neurones valeur seuil, nature du signal engendré, le profil des connexions et le poids attribué à chaque synapse sont codés informatiquement dans ce que l'on appelle le chromosome du robot - seconde analogie avec le monde du vivant. Ce chromosome est une chaîne de bits se succédant en séquences dénommées « gènes », dont chacune représente une propriété du circuit de neurones. Le premier gène, composé, par exemple, de 8 bits, code la présence et la connectivité d'un neurone donné dans le circuit. Le second gène, composé, par exemple, de 20 bits, code le poids attribué à chacune des connexions synaptiques au niveau des dendrites de ce même neurone. C'est l'ordinateur lui-même qui produit, de façon aléatoire, une première population de ces chromosomes artificiels. Chacun d'eux sert ensuite à programmer le réseau de neurones qui est relié, en entrée, aux capteurs sensoriels du robot, et en sortie, à ses roues, de façon à en gérer la vitesse de rotation. Chaque configuration est ensuite testée sur le robot pendant quelques minutes, au cours desquelles l'ordinateur évalue ses performances.

Sélection et reproduction. Dans une première expérience2, nous avons voulu développer la capacité du robot à avancer en ligne droite et à éviter les obstacles. Nous avons donc demandé à l'ordinateur de sélectionner, pour reproduction, les individus dont les roues tournaient à peu près dans la même direction mouvement en ligne droite et dont les capteurs étaient peu activés ce qui reflète l'éloignement du robot par rapport aux obstacles. Ces paramètres sont du reste les seules données injectées par la main humaine : tout le processus ultérieur est autogéré par un algorithme. Après avoir testé le chromosome de chaque individu de la population initiale sur un robot physique, les chromosomes les plus performants sont sélectionnés, puis reproduits de façon à obtenir une population de même taille que la population initiale. Ces copies sont alors, au hasard, agencées par paires : le chromosome de l'individu 8 est par exemple apparié au chromosome de l'individu 67. Un point est aléatoirement fixé le long de ces deux chromosomes, autour duquel ont lieu des échanges de séquence, sorte d'équivalent des mutations par recombinaison du monde vivant. De plus, la valeur des bits de chaque chromosome est basculée de 0 à 1 ou inversement suivant une probabilité très faible, créant ainsi des mutations ponctuelles. On obtient alors une nouvelle génération de chromosomes, à son tour testée et reproduite plusieurs fois fig. 2.

Premiers cas d'adaptation. Au bout de 50 générations ce qui correspondait à environ deux jours d'activité en continu, nous avons observé un robot capable de faire le tour complet du labyrinthe-test sans jamais heurter un obstacle. Le circuit obtenu par ce processus d'évolution s'est révélé être relativement simple, mais malgré tout plus complexe que les circuits conçus à la main pour accomplir des tâches similai-res : il mettait en effet à profit des connexions non linéaires entre les neurones moteurs pour empêcher le robot de se retrouver bloqué dans les coins. De plus, ce Khepera parfaitement circulaire comme tous ses confrères se déplaçait toujours dans la direction correspondant au plus grand nombre de capteurs. Pourtant, les premières générations étaient capables de se déplacer dans les deux sens. Mais les individus roulant avec la majeure partie des capteurs à l'arrière ont eu tendance à rester bloqués dans des coins parce qu'ils ne les percevaient pas bien : ils ont donc disparu de la population. Ce résultat a représenté un premier cas d'adaptation d'un réseau de neurones artificiels à la morphologie d'un robot dans un environnement donné.

Etait-il possible, par la voie de l'évolution, de développer des aptitudes cognitives plus complexes en exposant simplement les robots à des environnements plus stimulants ? Pour tenter de répondre à cette question, nous avons mis Khepera dans une enceinte où un chargeur de batterie est placé dans un coin, sous une source lumineuse2 ; nous l'avons ensuite laissé évoluer jusqu'à déchargement de ses batteries. Pour accélérer l'obtention des résultats du processus évolutif, nous avons procédé par simulation tant des batteries et de leur durée de charge seulement 20 secondes, que du chargeur, figuré quant à lui par une zone peinte en noir. Lorsque le robot y passait, ses batteries se rechargeaient automatiquement. Le critère d'adaptation était le même que dans l'expérience de navigation en ligne droite : rester en mouvement le plus possible tout en évitant les obstacles. Les robots qui parvenaient à trouver le chargeur de batterie vivaient plus longtemps et accumulaient donc davantage de capacités adaptatives. Au départ, la « rencontre » avec le chargeur de batterie découlait du hasard. Mais au bout de 240 générations, soit une semaine d'activité en continu, nous avons trouvé un robot capable de rejoindre le poste de charge deux secondes seulement avant le déchargement complet de ses batteries, puis de retourner immédiatement vers la partie centrale de l'enceinte, éloignée des parois. En analysant l'activité du circuit neuronal de ce robot lors de ses déplacements, nous avons observé que l'un de ses neurones, et un seul, présentait une caractéristique très particulière : son activation dépendait de la position et de l'orientation du robot dans l'environnement. Il ne dépendait pas, en revanche, du niveau de charge de la batterie. Autrement dit, ce neurone codait une représentation spatiale de l'environnement ce que les psychologues appellent parfois une « carte cognitive », tout comme certains neurones découverts par les neurophysiologistes dans le cerveau des rats qui explorent leur milieu. Dans un cas comme dans l'autre, il est tout aussi difficile d'expliquer pourquoi une telle évolution a eu lieu...

Encouragés par ces expériences, nous avons décidé de rendre l'environnement encore plus complexe en faisant évoluer simultanément deux robots en compétition l'un avec l'autre. Le groupe du Sussex avait déjà commencé à étudier, en simulation, la coévolution de prédateurs et de proies afin de voir s'il apparaissait dans les deux espèces des comportements de plus en plus complexes. Il avait ainsi montré que cette coévolution de deux populations en compétition modifie massivement le processus d'évolution, mais n'avait pu observer de résultats vraiment marquants quant au stade évolutif final. De notre côté, nous avons choisi de travailler en grandeur nature sur des robots morphologiquement différents3 : le robot prédateur est doté d'un champ visuel de 36 degrés et le robot proie, s'il est seulement muni de capteurs simples capables de déceler un objet distant de 2 centimètres, peut se déplacer deux fois plus vite que le prédateur. Ces robots sont mis à « coévoluer » dans une enceinte carrée, chaque paire proie-prédateur se déplaçant librement pendant deux minutes ou moins si le prédateur parvient à atteindre son but, le critère de sélection étant le délai précédant la collision fig. 1. Les résultats sont très surprenants. Au bout de 20 générations, le prédateur a acquis la capacité de rechercher la proie et de la poursuivre pendant que celle-ci s'échappe en se déplaçant dans toute l'enceinte. Cependant, comme la proie est plus rapide que lui, cette stratégie n'est pas toujours payante. Après 25 générations supplémentaires, il repère la proie à distance, puis finit par l'attaquer en anticipant sur sa trajectoire. Dès lors, la proie se met à se déplacer si vite le long des parois que le prédateur la manque souvent et va s'écraser sur une paroi. Encore 25 générations plus tard, le prédateur a mis au point la « stratégie de l'araignée ». Il se déplace lentement jusqu'à une paroi et attend la proie, qui bouge trop vite pour déceler à temps le prédateur et donc pour l'éviter !

Cependant, lorsque nous avons laissé coévoluer les deux espèces de robots encore plus longtemps, nous avons constaté qu'elles redécouvraient de vieilles stratégies qui se révélaient efficaces contre celles utilisées au même moment par l'opposant. Ce constat n'est pas surprenant : étant donné la simplicité de l'environnement, le nombre des stratégies possibles pour les deux espèces de robots est en effet limité. Même dans la nature, on observe que des hôtes et des parasites évoluant ensemble par ex-emple, des plantes et des insectes recyclent au fil des générations de vieilles stratégies. Stefano Nolfi, qui a travaillé avec nous sur ces expériences, a remarqué qu'en rendant l'environnement plus complexe par exemple, en ajoutant des objets dans l'enceinte, la diversité des stratégies mises au point par les robots était beaucoup plus grande et qu'il fallait plus longtemps avant que les deux espèces en reviennent à des stratégies anciennes. Des équipes de plus en plus nombreuses travaillent aujourd'hui sur les systèmes de coévolution, et je pense que c'est une voie très prometteuse d'une part pour développer l'intelligence du comportement chez les robots et d'autre part pour comprendre comment les espèces biologiques ont évolué jusqu'à leur stade actuel ou ont disparu au cours de l'histoire de la Terre.

Autres supports d'évolution. Dans les expériences décrites jusqu'ici, le processus d'évolution s'exerçait sur les caractéristiques du logiciel de commande du robot. Mais de fait, on peut envisager d'appliquer aux circuits électroniques eux-mêmes le processus évolutionniste permettant d'obtenir des comportements intéressants. Malheureusement, les électroniciens ont plutôt tendance à éviter les circuits trop complexes, fortement non linéaires et au comportement difficilement prévisible, alors que c'est justement de ce type de circuits dont une machine capable de comportements autonomes aurait sans doute besoin !

A l'université du Sussex, Adrian Thompson a développé des systèmes affranchis des contraintes usuelles de structure4. Il a utilisé un nouveau type de circuit électronique, le FPGA Field Programmable Gate Array, dont l'architecture des connexions internes peut être entièrement modifiée en quelques nanosecondes, en jouant sur le voltage traversant le circuit. La configuration d'un FPGA étant une chaîne binaire de 0 et de 1, A. Thompson a considéré cette chaîne comme un chromosome et l'a fait évoluer pour diverses applications, telles la discrimination des sons et même la commande de robots. Les circuits obtenus grâce à ce processus d'évolution demandent cent fois moins de composants que les circuits électroniques classiques conçus pour des tâches similaires, et font intervenir de nouveaux types de connexions. De plus, ces circuits sont sensibles à certains paramètres environnementaux tels que la température. Cette caractéristique, défavorable en électronique classique, constitue par contre un atout dans une optique évolutionniste, puisque cette sensibilité est une caractéristique de tous les organismes vivants. Le domaine de l'électronique évolutionniste était né et plusieurs chercheurs à travers le monde utilisent aujourd'hui l'évolution artificielle pour découvrir de nouveaux types de circuits, ou laissent les circuits évoluer vers de nouvelles conditions de fonctionnement.

Nous avons, jusqu'à présent, essentiellement traité de l'évolution du « système nerveux » des robots. Or, dans la nature, la forme du corps et la configuration sensori-motrice sont, elles aussi, soumises à évolution. Est-il possible que la répartition des capteurs d'un robot s'adapte à un circuit neuronal fixe et relativement simple ? L'équipe de Rolf Pfeifer a créé, au laboratoire d'intelligence artificielle de Zurich, le robot Eyebot dont l'oeil peut changer de configuration5. Le système visuel d'Eyebot, analogue dans son principe à celui de la mouche, est composé de plusieurs photorécepteurs directionnels dont l'angle peut être modifié par des moteurs fig. 3. Une fois Eyebot implémenté avec un circuit neuronal fixe et simple, les auteurs ont observé l'évolution de la position relative de ses capteurs dans une situation où le critère de sélection était de se maintenir à une distance donnée d'un obstacle. Les résultats expérimentaux ont confirmé les prédictions théoriques : l'évolution a conduit à une distribution des photorécepteurs plus dense vers l'avant du robot que sur les côtés. Les enseignements de cette expérience sont très importants : d'une part, la forme du corps joue un rôle majeur dans le comportement d'un système autonome, et il faut lui permettre d'évoluer en même temps que d'autres caractéristique du système ; d'autre part, une morphologie adaptée à l'environnement et aux comportements du robot permet d'alléger la complexité des calculs.

L'idée de faire évoluer simultanément la morphologie et les circuits neuronaux d'un robot autonome avait, elle, déjà été explorée en 1994 par Karl Sims, par simulation. Il n'y a pas longtemps qu'elle a été concrétisée sous forme matérielle6. Jordan Pollack et son équipe de Brandeis University ont fait coévoluer la morphologie et le circuit de neurones moteurs de robots composés de tiges de longueur variable, dont le critère d'adaptation est d'avancer le plus loin possible. Les chromosomes de ces robots contiennent les paramètres de commande d'une « imprimante » en trois dimensions, laquelle fabrique des corps de robots à partir d'un matériau thermoplastique. Ces derniers sont alors équipés de moteurs, et on les laisse évoluer librement tout en mesurant leur taux d'adaptation. L'évolution artificielle a produit des formes extérieures souvent innovantes qui évoquent des morphologies biologiques comme celles de poissons fig. 3.

Conditions d'amélioration. Quels que soient les progrès décrits ci-dessus, ils ne valent pourtant que dans un environnement assez simple. Si ce dernier ou les aptitudes requises pour y évoluer sont trop complexes, de telle sorte que tous les individus de la première génération ont une adaptation nulle, l'évolution ne peut pas sélectionner les bons éléments et donc accomplir le moindre progrès. L'une des solutions possibles consisterait à travailler avec des environnements et des critères d'adaptation initialement simples, mais se complexifiant au fil du temps. Cette solution suppose toutefois de consacrer davantage d'efforts à la mise au point de méthodes incrémentales d'évolution par étapes, méthodes qui seraient, dans une certaine mesure, capables de préserver les premières solutions découvertes et de bâtir à partir d'elles. Cela implique que nous sachions déterminer les paramètres initiaux convenables et le codage génétique à partir duquel l'évolution artificielle pourra produire des structures plus complexes. Un autre défi est, on l'a entrevu, celui de la fabrication matérielle. Malgré les résultats encourageants obtenus dans le domaine de l'évolution des circuits électroniques, nous sommes nombreux à considérer qu'il faut repenser radicalement le type de composants sur lesquels faire agir l'évolution artificielle. Dans cette optique, un renforcement des efforts de développement de circuits auto-assembleurs, qui imposent moins de contraintes au système en évolution, pourrait accélérer les progrès de la robotique évolutionniste.

Par Dario Floreano

 

DOCUMENT    larecherche.fr     LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon