|
|
|
|
 |
|
ÉNERGIE |
|
|
|
|
|
ÉNERGIE
Nous sommes tous entourés d'énergie : dans notre corps, notre maison, notre environnement... Elle est là, dans notre quotidien. Qu'est-ce que l'énergie ? Quelles sont les différentes formes de l'énergie ? Ses sources ? Que signifient les expressions "énergies primaires", "énergies secondaires", "énergies renouvelables", "énergies non-renouvelables", "énergies fossiles" ?
QU'EST-CE QUE L'ÉNERGIE ?
Le mot « énergie » vient du Grec Ancien « énergéia », qui signifie « La force en action ». Ce concept scientifique est apparu avec Aristote et a fortement évolué au cours du temps. Aujourd’hui, l’énergie désigne « la capacité à effectuer des transformations ». Par exemple, l’énergie c’est ce qui permet de fournir du travail, de produire un mouvement, de modifier la température ou de changer l’état de la matière. Toute action humaine requiert de l’énergie : le fait de se déplacer, de se chauffer, de fabriquer des objets et même de vivre.
L’énergie est partout présente autour de nous : dans la rivière qui fait tourner la roue du moulin, dans le moteur d’une voiture, dans l’eau de la casserole que l’on chauffe, dans la force du vent qui fait tourner les éoliennes… et même dans notre corps humain.
Une énergie de qualité
Toutes les formes d’énergie n’ont pas la même « valeur ». Dans les machines, on distingue classiquement l’énergie mécanique, ou travail, de l’énergie thermique, ou chaleur. La première est beaucoup plus utile que la seconde. C’est elle qui permet de déplacer les objets ou de les déformer.
De son côté, la chaleur a tendance à se diluer dans la matière et seule une petite partie peut être transformée en énergie mécanique. C’est ce qui fait qu’une centrale électrique n’arrive à transformer qu’un tiers de la chaleur de son feu de charbon ou de ses fissions nucléaires en électricité, le reste étant inutilisable et rejeté à l’extérieur.
LES DIFFÉRENTES FORMES D'ÉNERGIE
L’énergie peut exister sous plusieurs formes. Parmi les principales :
* L’énergie thermique, qui génère de la chaleur ;
* L’énergie électrique ou électricité, qui fait circuler les particules – électrons - dans les fils électriques ;
* L’énergie mécanique, qui permet de déplacer des objets ;
* L’énergie chimique, qui lie les atomes dans les molécules ;
* L’énergie de rayonnement ou lumineuse, qui génère de la lumière ;
* L’énergie musculaire qui fait bouger les muscles.
Conservation de l'énergie
L’énergie se conserve. La quantité totale d'énergie dans un système donné ne change pas, on ne peut donc ni la créer, ni la détruire. L'énergie est transmise d'un élément vers un autre, souvent sous une forme différente.
Un exemple : quand on chauffe de l'eau, différentes transformations d’énergie ont lieu. En brûlant dans l’air, le bois libère son énergie chimique. Cette énergie se transforme en chaleur, l’énergie thermique, et en lumière, l’énergie de rayonnement. Lors de cette réaction, la quantité d'énergie totale ne change pas, elle change simplement de forme.
Un autre exemple : lorsqu’une voiture fonctionne, l’essence libère son énergie chimique en brûlant dans l’air. Elle chauffe le moteur et pousse les pistons (énergie thermique et énergie mécanique). Les pistons font tourner le moteur et les roues, transfert d’énergie mécanique, et la voiture se déplace (énergie cinétique). Au passage, la courroie fait tourner l’alternateur qui transforme une petite partie de l’énergie mécanique en électricité qui sera stockée dans la batterie.
LES SOURCES D'ÉNERGIE
L’énergie est issue de différentes sources d’énergie qui peuvent être classifiées en deux groupes : les énergies non renouvelables, dont les sources ont des stocks sur Terre limités et les énergies renouvelables qui dépendent d’éléments que la nature renouvelle en permanence.
Les diverses sources d'énergie
Votre navigateur ne permet pas de lire des vidéos.
télécharger : version vidéo |
Qu'est-ce qu'une énergie intermittente ?
Une énergie intermittente est une énergie pour laquelle les sources ne sont pas disponibles en permanence et dont la disponibilité varie fortement sans possibilité de contrôle. Les énergies solaire et éolienne sont définies comme intermittentes car leur efficacité varie en fonction de la météo et de paramètres extérieurs (jour/nuit).
Pour pallier à cette intermittence, il est nécessaire de stocker ces énergies. Le développement de technologies de stockage est un enjeu important de recherche et développement.
Pour plus d’informations sur le stockage de l’énergie, consultez notre dossier « l’essentiel sur… le stockage stationnaire de l’énergie ».
Les sources d'énergie non renouvelables
Énergies fossiles
Dans les énergies non renouvelables, on trouve les énergies dites fossiles : ce sont les résidus des matières végétales et organiques accumulés sous terre pendant des centaines de millions d’années. Ces résidus se transforment en hydrocarbure (pétrole, gaz naturel et de schiste, charbon…). Pour pouvoir les exploiter, il faut puiser dans ces ressources qui ne sont pas illimitées, c’est pourquoi les énergies fossiles ne sont pas renouvelables.
Énergie nucléaire
L’énergie nucléaire est « localisée » dans le noyau des atomes. Dans les centrales nucléaires actuelles, on utilise la fission (cassure) des noyaux d’uranium, élément que l’on retrouve sur Terre dans les mines. Les mines d’uranium s’épuiseront un jour tout comme le charbon, le gaz et le pétrole.
Au rythme de l’utilisation des ressources actuellement exploitées, on estime les réserves de pétrole à 40 ans, de gaz naturel conventionnel à 60 ans et de charbon à 120 ans. Les réserves d’uranium, combustible de l’énergie nucléaire, à 100 ans avec les réacteurs actuels.
Le saviez-vous ?
L’énergie nucléaire a un excellent bilan carbone : elle ne génère pas de CO2. Cependant, la production d’électricité avec le nucléaire génère des déchets radioactifs, dont la gestion spécifique est encadrée par la Loi.
Les sources d'énergies renouvelables
Le soleil, le vent, l’eau, la biomasse et la géothermie sont des sources qui ne s’épuisent pas et sont renouvelées en permanence.
Biomasse et géothermie : quelles différences ?
La biomasse et la géothermie sont deux sources d’énergies bien distinctes.
La géothermie est l’énergie générée par la chaleur des profondeurs de la Terre et sa radioactivité. Le mot « géothermie » vient du grec « geo » (la terre) et « thermos » (la chaleur). On l’exploite pour chauffer des habitations grâce à des forages légers.
La biomasse a, quant à elle, pour source le Soleil dont l’énergie de rayonnement est transformée en énergie chimique par les matières organiques d’origine végétale (bois), animale, bactérienne ou fongique (champignons). Il existe des centrales « biomasse » qui produisent de l’électricité avec la combustion de matières organiques.
Parmi toutes ces sources d’énergie, on distingue les énergies primaires des énergies secondaires.
Énergie primaire
Une énergie primaire est une énergie brute n’ayant pas subi de transformation, dont la source se trouve à l’état pur dans l’environnement. Le vent, le Soleil, l’eau, la biomasse, la géothermie, le pétrole, le charbon, le gaz ou l’uranium sont des sources d’énergies primaires.
Énergie secondaire
On appelle « énergie secondaire » une énergie qui est obtenue par la transformation d’une énergie primaire.
Par exemple, l’électricité est une énergie secondaire qu’on obtient à partir de plusieurs énergies primaires : l’énergie solaire avec des panneaux, l’énergie nucléaire avec des réacteurs, l’énergie hydraulique avec des barrages ou encore l’énergie du vent avec des éoliennes. Il n’existe pas d’électricité à l’état naturel.
L’essence, le gasoil et les biocarburants sont également des énergies secondaires ; on les obtient par la transformation du pétrole, qui lui, est brut ou de la biomasse. L’hydrogène, qui n'existe pas à l'état pur, est également une énergie chimique secondaire car il faut le produire.
La domestication des sources d'énergie au fil du temps
La maîtrise des sources d’énergie par l’Homme remonte à 400 000 ans av. J-C. A l’époque, l’Homme apprend à maîtriser le feu. Puis, plus tard, il apprend à maîtriser le vent, l’eau avec des moulins….
Avec l’ère industrielle, l’Homme commence à exploiter des ressources fossiles (charbon, puis pétrole et gaz) et à développer des machines qui vont changer son mode de vie. Depuis, les besoins en énergie n’ont cessé d’augmenter.
En chiffres
81 % des besoins mondiaux en énergie primaire sont actuellement comblés par le pétrole, le charbon et le gaz.
Source : Données 2019 de l'Agence internationale de l'énergie
Énergie et puissance
On mesure l’énergie à l’aide d’une unité particulière nommée le joule. Son nom vient du physicien anglais James Prescott Joule. Un joule représente par exemple l'énergie requise pour élever une pomme de 100 grammes d'un mètre ou encore l'énergie nécessaire pour élever la température d'un gramme (un litre) d'air sec de un degré Celsius.
Dans le domaine de la nutrition, c’est la kilocalorie qui est utilisée. 1 kilocalorie équivaut à 4,2 kilojoules. Pour évaluer l’énergie utilisée sur une année, on utilise généralement la tonne équivalent pétrole, tep.
1 tep est égale à 41 868 000 000 joules.
La puissance correspond, quant à elle, à la vitesse à laquelle l'énergie est délivrée. Elle se mesure en watt, ce qui correspond à un joule par seconde.
Par exemple, si pour faire bouillir un litre d’eau, on utilise d’un côté une flamme d’un gros feu de bois et de l’autre, la flamme d’une bougie : dans les deux cas, la même quantité d’énergie sera utilisée pour faire bouillir l’eau. Seulement, ce sera fait plus rapidement avec un feu qu’avec une bougie. L'énergie est dégagée plus rapidement avec le feu de bois qu'avec la flamme de la bougie. Le feu de bois est donc plus puissant que la flamme de la bougie.
UTILISATION DES ÉNERGIES EN FRANCE ET ENVIRONNEMENT
L’énergie, en France, est surtout utilisée pour le transport, l’habitat (chauffage), l’industrie, le tertiaire et l’agriculture.
En chiffres
En 2019, un Français a en moyenne consommé 30 fois plus d’énergie qu’un habitant d’Afrique de l’Est.
Source : Connaissance des Énergies, d'après BP Statistical Review of World Energy
Bien que la dépendance énergétique de la France se soit réduite depuis 1973 grâce à la construction du parc nucléaire, son mix énergétique dépend encore fortement des énergies fossiles qui couvrent près de 50 % de la consommation d’énergie primaire. A eux seuls, le transport et l’habitat représentent en France près de 80 % de la consommation finale. Le bâtiment dépend à plus de 50 % [2] des combustibles fossiles et le transport à 95 % du pétrole. Ces deux secteurs sont à l’origine de plus de 50 % des émissions de CO2, l’un des principaux gaz à effet de serre.
Ces émissions impactent directement le climat en contribuant au réchauffement climatique. Face à ce défi climatique majeur, il devient indispensable de disposer de sources d’énergie à la fois compétitives et bas carbone (faiblement émettrices de gaz à effet de serre) et de faire évoluer le mix énergétique de la France.
Les défis énergétiques
Toute action humaine requiert de l’énergie. Depuis toujours, l’Homme a cherché à accéder à des sources d’énergie abondantes et peu chères pour satisfaire ses besoins. Mais depuis le début de la révolution industrielle, la société moderne utilise sans compter de l’énergie provenant de sources, qui sont, pour la plupart, non renouvelables. Conséquence, les ressources s’épuisent et la quantité d’émission de gaz à effet de serre dans l’atmosphère, issue de l’exploitation des ressources fossiles, menace le climat. Face à ces réalités, il devient nécessaire de :
* Mieux gérer l’utilisation des énergies en faisant notamment moins de gaspillage ;
* Repenser notre mix énergétique en utilisant des sources d’énergie bas carbone tels que le nucléaire et les énergies renouvelables ;
* Améliorer les technologies de stockage de l’énergie (batteries, hydrogène) ;
* Continuer à travailler sur les énergies du futur : nucléaire du futur (fission et fusion nucléaire), solaire, éolien, bioénergies.
DOCUMENT cea LIEN
|
|
|
|
|
 |
|
Une médecine à l'échelle nano |
|
|
|
|
|
Une médecine à l'échelle nano
Les nanotechnologies sont au service de la médecine pour la prévention, le diagnostic et le traitement.
Publié le 1 juillet 2012
De nombreuses recherches sont actuellement menées dans le domaine de la santé afin de disposer d’outils de prévention, de diagnostic ou de traitement, rapides et adaptés.
Il s’agit notamment de réaliser un diagnostic de plus en plus précoce et fin, de suivre et d’adapter les traitements en fonction de leur efficacité, ou encore de cibler précisément les médicaments vers les organes ou les tissus atteints, à moindre coût. Ces recherches visent aussi à optimiser les interventions chirurgicales. Enfin, elles permettront de suppléer aux fonctions altérées ou perdues tout en diminuant les risques d’effets secondaires liés aux traitements. Intervenant à l’échelle moléculaire, les nanosciences et les nanotechnologies présentent donc des atouts intéressants.
Les biopuces ou puces à ADN permettent aujourd’hui de tester des centaines de milliers de gènes.
UN DIAGNOSTIC PLUS RAPIDE
Les nanosciences permettent de mieux comprendre l’organisation et la structure des cellules, jusqu’aux protéines et à l'ADN. L’ADN est une molécule constituée de deux brins enroulés l’un autour de l’autre. Chaque brin est une succession de nucléotides. Chaque nucléotide est constitué de trois éléments liés entre eux : un phosphate, lié à un sucre pouvant porter quatre bases azotées différentes – l’adénine (A), la thymine (T), la cytosine (C) et la guanine (G). Comme sur un jeu de construction, un brin « s’apparie » à l’autre brin s’il y a complémentarité : A s’appariant avec T, et C avec G uniquement. En génétique, étudier cette imbrication (que l’on appelle « séquence ») et identifier les parties présentant des défauts ou des mutations permet de comprendre l’origine des maladies génétiques et la prédisposition de certaines personnes à des maladies données.
La puce à ADN
Des nanogouttes d'huile pour transporter les médicaments
Des nano-émulsions, développées par le CEA et le CNRS, pour des applications dans la vectorisation des médicaments, sont formées de gouttelettes d’huile. Le coeur de ces nano-émulsions peut contenir des substances actives. Non toxiques, elles sont « biocompatibles » et traversent les barrières biologiques pour atteindre la tumeur à traiter.
Les chercheurs travaillent également sur l’interface eau/huile pour augmenter la reconnaissance spécifique avec la tumeur.
L’ADN, support du génome humain, peut parfois présenter des défauts lors de sa reproduction. Sa mutation ou des incohérences peuvent alors induire la survenue de cancers. Trouver des technologies qui permettent de déceler des tumeurs à un stade très précoce, alors même qu’elles sont indécelables avec les moyens d’imagerie médicale actuels, est un enjeu majeur.
Le principe de fonctionnement des biopuces repose sur l’hybridation de l’ADN, selon laquelle les brins complémentaires se reconnaissent et s’apparient pour former une double hélice.
Par exemple, quand on cherche à identifier une séquence d’acide nucléique responsable d’une maladie :
* des fragments d’acides nucléiques, obtenus par synthèse chimique, reproduisent cette séquence et sont donc désignés par la terminologie « sondes ». Ils sont greffés selon un ordre précis sur un support solide en verre, en plastique ou en silicium pour former un réseau dense et régulier de microsurfaces. Chaque sonde peut contenir de 40 à 60 bases. Une puce peut contenir plusieurs centaines de milliers de sondes ;
* cet échantillon est traité chimiquement pour en extraire un acide nucléique appelé ARN messager ;
* dans un mélange biologique complexe, ces ARN messagers sont mis en contact avec les fragments d’acides nucléiques « sonde » et leurs liaisons sont analysées, par une méthode de fluorescence.
Le concept des puces à ADN date de 1990 et relève d’une approche pluridisciplinaire : microélectronique, chimie des acides nucléiques, microfluidique, biologie, bio-informatique, microsystèmes et analyse d’images.
L’objectif final est de proposer un traitement préventif avant l’apparition des premiers symptômes. Elles permettent maintenant de tester des centaines de milliers de gènes.
Elles ont l’avantage d’automatiser, de miniaturiser et de paralléliser les différentes étapes utilisées en biologie. Ainsi, sur une surface de quelques centimètres carrés, les expériences sont menées en quelques heures au lieu de plusieurs mois auparavant ou pourront être multipliées dans un temps donné.
Outre les diagnostics et les traitements préventifs, les biopuces servent également à déterminer la résistance aux antibiotiques de certains microbes ou bactéries et de poursuivre les recherches pour les améliorer. En recherche pharmaceutique, elles représentent des outils précieux pour mieux comprendre l’action des médicaments, leur efficacité ou leurs effets indésirables ou secondaires.
Dans la même famille, il existe les « laboratoires sur puce » ou « lab-on-chip ». Ce sont des laboratoires miniaturisés réalisant des analyses automatisées et en parallèle sur de très petits volumes, une goutte de sang de quelques nanolitres par exemple. Ils permettent de réduire les coûts (des réactifs et des solvants), les surfaces, l’énergie consommée.
De plus, comme ces laboratoires sur puce sont mobiles, ils peuvent tout à fait s’utiliser en dehors d’un laboratoire spécialisé, par un médecin en consultation par exemple. En cas d’infection, ils permettent d’identifier rapidement l’agent responsable (virus ou bactérie), de le caractériser et d’apporter rapidement un traitement efficace.
Ces microsystèmes sont également utilisés pour les contrôles agroalimentaires (comme le suivi des bactéries productrices de ferments lactiques) et environnementaux (analyse bactérienne de l’eau de consommation, détection d’agents infectieux dans l’alimentation, l’air ou l’eau).
Les « puces à cellules » ou « cell-on-chip » sont des microsystèmes qui sont destinés à manipuler très précisément dans toutes les directions spatiales possibles et à analyser individuellement des cellules vivantes inférieures ou égales à quelques microns. Cette technique permet l’étude à l’échelle d’une cellule des effets d’une drogue ou de la transfection d’un gène ou encore la compréhension des interactions entre cellules…
Sur une surface de quelques centimètres carrés, les analyses sont menées en quelques heures au lieu de plusieurs mois.
DES TRAITEMENTS PLUS EFFICACES
Pouvoir distribuer un médicament à la dose adéquate, précisément sur l’organe ou le tissu infecté, est un véritable enjeu. Grâce aux nanotechnologies, ce rêve pourrait devenir réalité.
Aujourd’hui, les médicaments pris par voie orale ou intraveineuse se dissolvent dans l’organisme avant d’atteindre leur cible. Il faut donc administrer une forte dose au patient pour être sûr qu’une dose résiduelle atteigne la zone malade.
De plus, certaines interactions avec des organes « sains » ainsi que des effets secondaires peuvent survenir. La conception de nano-transporteurs, utilisés pour la vectorisation des médicaments, présente deux intérêts : franchir les barrières biologiques et, grâce à un encapsulage, permettre aux molécules thérapeutiques d’atteindre leur cible sans aucune déperdition.
Les recherches en physique et en chimie tentent d’imaginer et de tester les formes de ces nano-transporteurs pour qu’ils protègent la substance active (le médicament) et que celle-ci soit libérée pendant un temps et dans un espace donnés. D’autres méthodes à l’étude consistent à intégrer les médicaments dans des nanocapsules qui libèrent leur contenu selon un temps calculé, suite à une stimulation de l’organisme ou extérieure. Par exemple, les troubles liés à l’insuline pourraient ainsi être plus facilement traités.
Utiliser des formulations médicamenteuses de la taille de nanoparticules (beaucoup plus petites que les cristaux couramment utilisés) permet une assimilation plus rapide et plus ciblée. Il est d’ailleurs possible, au moyen de marqueurs spécifiques, de suivre le parcours de ces nanoparticules dans l’organisme et de vérifier leur action sur les cellules malades.
En thérapeutique, l’un des intérêts de la miniaturisation des systèmes d’analyse est de pouvoir tester rapidement un très grand nombre de molécules dans des systèmes in vitro.
Ce criblage à haut débit permet d’identifier plus rapidement de bons candidats médicaments. En effet, actuellement, pour plus de 100 000 molécules testées in vitro, seules quelques-unes seront testées chez l’animal, in vivo. Ces microsystèmes permettent donc de disposer plus rapidement de traitements efficaces en évaluant un plus grand nombre de molécules.
AUTRES INNOVATIONS
Les greffes sont fréquemment rejetées par le système immunitaire du patient. Il est donc envisagé d’encapsuler les cellules greffées dans une membrane semi-perméable, constituée de matériau rendu biocompatible par l’emploi de nanocomposés sélectionnés. Les nanopores laisseraient ainsi entrer les substances nutritives et sortir les substances sécrétées par le greffon. En revanche, les anticorps, plus gros que les nanopores, ne pourraient pas passer la barrière.
Dans le cas des prothèses, l’objectif est de fabriquer des matériaux qui ne se dégradent pas et peuvent durer au-delà des dix ans actuels. Les recherches sont menées sur les nanomatériaux composites, plus résistants que les métaux.
Une autre voie étudie la possibilité d’aider un organe défaillant par un implant de taille nanométrique ou sa stimulation au moyen d’un maillage nanostructuré. En cultivant ses cellules in vivo, on peut aider ce tissu à se régénérer en créant des connexions nanométriques entre chaque cellule afin d’obtenir un ensemble construit et viable, comme cela a été pratiqué pour l’épiderme ou pour le cartilage.
DOCUMENT cea LIEN |
|
|
|
|
 |
|
intelligence artificielle |
|
|
|
|
|
intelligence artificielle
Consulter aussi dans le dictionnaire : intelligence
Ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine.
Avec l'intelligence artificielle, l'homme côtoie un de ses rêves prométhéens les plus ambitieux : fabriquer des machines dotées d'un « esprit » semblable au sien. Pour John MacCarthy, l'un des créateurs de ce concept, « toute activité intellectuelle peut être décrite avec suffisamment de précision pour être simulée par une machine ». Tel est le pari – au demeurant très controversé au sein même de la discipline – de ces chercheurs à la croisée de l'informatique, de l'électronique et des sciences cognitives.
Malgré les débats fondamentaux qu'elle suscite, l'intelligence artificielle a produit nombre de réalisations spectaculaires, par exemple dans les domaines de la reconnaissance des formes ou de la voix, de l'aide à la décision ou de la robotique.
INTELLIGENCE ARTIFICIELLE ET SCIENCES COGNITIVES
Au milieu des années 1950, avec le développement de l'informatique naquit l'ambition de créer des « machines à penser », semblables dans leur fonctionnement à l'esprit humain. L'intelligence artificielle (IA) vise donc à reproduire au mieux, à l'aide de machines, des activités mentales, qu'elles soient de l'ordre de la compréhension, de la perception, ou de la décision. Par là même, l'IA est distincte de l'informatique, qui traite, trie et stocke les données et leurs algorithmes. Le terme « intelligence » recouvre ici une signification adaptative, comme en psychologie animale. Il s'agira souvent de modéliser la résolution d'un problème, qui peut être inédit, par un organisme. Si les concepteurs de systèmes experts veulent identifier les savoirs nécessaires à la résolution de problèmes complexes par des professionnels, les chercheurs, travaillant sur les réseaux neuronaux et les robots, essaieront de s'inspirer du système nerveux et du psychisme animal.
LES SCIENCES COGNITIVES
Dans une optique restrictive, on peut compter parmi elles :
– l'épistémologie moderne, qui s'attache à l'étude critique des fondements et méthodes de la connaissance scientifique, et ce dans une perspective philosophique et historique ;
– la psychologie cognitive, dont l'objet est le traitement et la production de connaissances par le cerveau, ainsi que la psychologie du développement, quand elle étudie la genèse des structures logiques chez l'enfant ;
– la logique, qui traite de la formalisation des raisonnements ;
– diverses branches de la biologie (la biologie théorique, la neurobiologie, l'éthologie, entre autres) ;
– les sciences de la communication, qui englobent l'étude du langage, la théorie mathématique de la communication, qui permet de quantifier les échanges d'informations, et la sociologie des organisations, qui étudie la diffusion sociale des informations.
LE PROJET ET SON DÉVELOPPEMENT
L'IA trouve ses racines historiques lointaines dans la construction d'automates, la réflexion sur la logique et sa conséquence, l'élaboration de machines à calculer.
LES PRÉCURSEURS
Dès l'Antiquité, certains automates atteignirent un haut niveau de raffinement. Ainsi, au ier s. après J.-C., Héron d'Alexandrie inventa un distributeur de vin, au fonctionnement cybernétique avant la lettre, c'est-à-dire doté de capacités de régulation, et fondé sur le principe des vases communicants. Rapidement, les savants semblèrent obsédés par la conception de mécanismes à apparence animale ou humaine. Après les essais souvent fructueux d'Albert le Grand et de Léonard de Vinci, ce fut surtout Vaucanson qui frappa les esprits, en 1738, avec son Canard mécanique, dont les fonctions motrices et d'excrétion étaient simulées au moyen de fins engrenages. Quant à la calculatrice, elle fut imaginée puis réalisée par Wilhelm Schickard (Allemagne) et Blaise Pascal (France). Vers la même époque, l'Anglais Thomas Hobbes avançait dans son Léviathan l'idée que « toute ratiocination est calcul », idée qui appuyait le projet de langage logique universel cher à René Descartes et à Gottfried W. Leibniz. Cette idée fut concrétisée deux siècles plus tard par George Boole, lorsqu'il créa en 1853 une écriture algébrique de la logique. On pouvait alors espérer passer de la conception de l'animal-machine à la technologie de la machine-homme.
NAISSANCE ET ESSOR DE L'INFORMATIQUE
À partir de 1835, le mathématicien britannique Charles Babbage dressa avec l'aide de lady Ada Lovelace les plans de la « machine analytique », ancêtre de tous les ordinateurs, mais sans parvenir à la réaliser. Seul l'avènement de l'électronique, qui engendra d'abord les calculateurs électroniques du type ENIAC (electronic numerical integrator and computer) dans les années 1940, permit aux premières machines informatiques de voir enfin le jour, autour de 1950, avec les machines de Johann von Neumann, un mathématicien américain d'origine hongroise. Les techniques de l'informatique connurent des progrès foudroyants – ainsi, à partir de 1985, un chercheur américain conçut des connection machines, ensembles de micro-ordinateurs reliés entre eux qui effectuaient 1 000 milliards d'opérations par seconde –, et continuent aujourd'hui encore à enrichir l'IA.
La création, à partir des années 1990, des « réalités virtuelles », systèmes qui par l'intermédiaire d'un casque et de gants spéciaux donnent à l'utilisateur l'impression de toucher et de manipuler les formes dessinées sur l'écran, ainsi que les travaux sur les « hypertextes », logiciels imitant les procédés d'associations d'idées, vont également dans ce sens.
LE FONDATEUR
Un des théoriciens précurseurs de l'informatique, le mathématicien britannique Alan M. Turing, lança le concept d'IA en 1950, lorsqu'il décrivit le « jeu de l'imitation » dans un article resté célèbre. La question qu'il posait est la suivante : un homme relié par téléimprimante à ce qu'il ignore être une machine disposée dans une pièce voisine peut-il être berné et manipulé par la machine avec une efficacité comparable à celle d'un être humain ? Pour Turing, l'IA consistait donc en un simulacre de psychologie humaine aussi abouti que possible.
MISE EN FORME DE L'IA
La relève de Turing fut prise par Allen Newell, John C. Shaw et Herbert A. Simon, qui créèrent en 1955-1956 le premier programme d'IA, le Logic Theorist, qui reposait sur un paradigme de résolution de problèmes avec l'ambition – très prématurée – de démontrer des théorèmes de logique. En 1958, au MIT (Massachusetts Institute of Technology), John MacCarthy inventa le Lisp (pour list processing), un langage de programmation interactif : sa souplesse en fait le langage par excellence de l'IA (il fut complété en 1972 par Prolog, langage de programmation symbolique qui dispense de la programmation pas à pas de l'ordinateur).
L'élaboration du GPS (general problem solver) en 1959 marque la fin de la première période de l'IA. Le programme GPS est encore plus ambitieux que le Logic Theorist, dont il dérive. Il est fondé sur des stratégies logiques de type « analyse des fins et des moyens » : on y définit tout problème par un état initial et un ou plusieurs états finaux visés, avec des opérateurs assurant le passage de l'un à l'autre. Ce sera un échec, car, entre autres, le GPS n'envisage pas la question de la façon dont un être humain pose un problème donné. Dès lors, les détracteurs se feront plus virulents, obligeant les tenants de l'IA à une rigueur accrue.
LES CRITIQUES DU PROJET
Entre une ligne « radicale », qui considère le système cognitif comme un ordinateur, et le point de vue qui exclut l'IA du champ de la psychologie, une position médiane est certainement possible. Elle est suggérée par trois grandes catégories de critiques.
OBJECTION LOGIQUE
Elle repose sur le célèbre théorème que Kurt Gödel a énoncé en 1931. Celui-ci fait ressortir le caractère d'incomplétude de tout système formel (tout système formel comporte des éléments dotés de sens et de définitions très précis, mais dont on ne peut démontrer la vérité ou la fausseté : ils sont incomplets). Il serait alors vain de décrire l'esprit en le ramenant à de tels systèmes. Cependant, pour certains, rien n'indique que le système cognitif ne soit pas à considérer comme formel, car si l'on considère à la suite du philosophe autrichien Ludwig Wittgenstein qu'un être vivant est un système logique au même titre qu'une machine, on peut concevoir que l'esprit est « formel », qu'il connaît des limites, comme toute machine.
OBJECTION ÉPISTÉMOLOGIQUE
Un certain nombre de biologistes et d'informaticiens jugent l'IA classique prématurément ambitieuse. Pour eux, il faut d'abord parvenir à modéliser le fonctionnement de niveaux d'intégration du vivant plus simples (comportement d'animaux « simples », collecte d'informations par le système immunitaire ou encore communications intercellulaires) avant de s'attaquer à l'esprit humain.
OBJECTION PHILOSOPHIQUE
Pour John R. Searle, le système cognitif de l'homme est fondamentalement donneur de sens. Or la machine ne possède pas d'intentionnalité ; elle n'a pas de conscience. Un ordinateur peut manipuler des symboles mais ne peut les comprendre. Ainsi, l'IA travaillerait sur la syntaxe des processus de raisonnement (les règles combinatoires), pas sur leur sémantique (l'interprétation et la signification).
Hilary Putnam juge fallacieuse la description de la pensée faite par l'IA en termes de symboles et de représentations. Pour lui, une telle approche suppose une signification préétablie, alors que tout serait dans l'interprétation que fait l'esprit de la « réalité » extérieure. L'histoire des idées montre ainsi que la notion de « matière » n'a pas le même sens pour les philosophes de l'Antiquité grecque et pour les physiciens modernes. De même, de nombreux biologistes considèrent que les systèmes nerveux des différentes espèces animales font émerger de leur environnement des univers distincts. L'IA ignorerait donc ce phénomène de « construction active » de réalités multiples par le système cognitif.
Enfin, dans Ce que les ordinateurs ne peuvent pas faire (1972), Hubert L. Dreyfus souligne que la compréhension stricto sensu implique tout un sens commun. Faute de cerner de façon adéquate cette question, les programmes d'IA relèveraient de la contrefaçon – en revanche, le même auteur est assez séduit par les recherches sur les réseaux neuronaux.
LA RÉSOLUTION DE PROBLÈMES
Pour l'épistémologue Karl Popper, tout animal, en tant qu'être adapté à son milieu, est un problem solver. Si la résolution de problèmes n'est sans doute pas la seule marque fonctionnelle saillante de l'esprit humain, elle reste incontournable pour le modélisateur. Deux approches sont possibles dans la résolution d'un problème : celle de l'algorithme et celle de l'heuristique.
ALGORITHMES ET HEURISTIQUE
Les algorithmes sont des procédures mathématiques de résolution. Il s'agit d'une méthode systématique, qui donne par conséquent des résultats fiables. Mais une lourdeur déterministe marque ses limites. En l'employant pour certains problèmes, on peut en effet se trouver confronté au phénomène d'« explosion combinatoire ». Ce dernier cas est illustré par la fable indienne du « Sage et de l'Échiquier ». À un Sage, qui l'avait conseillé de manière avisée, le Roi proposa de choisir une récompense. Le vieil homme demanda simplement que l'on apporte un échiquier et que l'on dépose sur la première case un grain de blé, sur la seconde deux grains, et ainsi de suite, en mettant sur chaque nouvelle case une quantité de blé double de celle déposée sur la case précédente. Avec un rapide calcul, on imagine que le Roi regretta bien vite d'avoir accordé un don qui se révélait très coûteux, si ce n'est impossible, à honorer.
À l'opposé, l'heuristique est une méthode stratégique indirecte, qu'on utilise dans la vie courante. Elle résulte du choix, parmi les approches de la résolution, de celles qui paraissent les plus efficaces. Si son résultat n'est pas garanti, car elle n'explore pas toutes les possibilités, mais seulement les plus favorables, elle n'en fait pas moins gagner un temps considérable : lors de la résolution de problèmes complexes, l'usage de l'algorithme est impossible.
LE CAS EXEMPLAIRE DU JEU D'ÉCHECS
De tous les jeux, ce sont les échecs qui ont suscité les plus gros efforts de modélisation en IA. Dès 1957, l'informaticien Bernstein, sur la base des réflexions de Claude Shannon, l'un des pères de la Théorie de l'information, mit au point un programme pour jouer deux parties. Le programme GPS, en lequel Simon voyait la préfiguration d'un futur champion du monde électronique, annoncé à grand fracas pour l'année 1959, fut battu par un adolescent en 1960. À partir de cette époque fut développée toute la série des Chess Programs, jugés plus prometteurs. Pourtant ceux-ci reflètaient de manière plus que déficiente les heuristiques globalisantes des bons joueurs : en effet, dans ces jeux automatiques, les coups réguliers sont programmés sous forme d'algorithmes. Contrairement à la célèbre formule d'un champion des années 1930 : « Je n'étudie qu'un coup : le bon », l'ordinateur n'envisage pas son jeu à long terme ; il épuise successivement tous les états possibles d'un arbre mathématique. Son atout majeur est la « force brutale » que lui confèrent sa puissance et sa vitesse de calcul. Ainsi Belle, ordinateur admis en 1975 dans les rangs de la Fédération internationale d'échecs, pouvait déjà calculer 100 000 coups par seconde. Néanmoins, les programmes électroniques d'alors étaient encore systématiquement surpassés par les maîtres.
Deep Thought, un supercalculateur d'IBM, fut encore battu à plate couture en octobre 1989 par le champion du monde Garri Kasparov (la machine n'avait encore à cette époque qu'une capacité de jeu de 2 millions de coups par seconde). Ce projet Deep Thought avait mis en œuvre un budget de plusieurs millions de dollars et des ordinateurs hyperperformants, et bénéficié des conseils du grand maître américano-soviétique Maxim Dlugy. Les machines employées étaient encore algorithmiques, mais faisaient moins d'erreurs et effectuaient des calculs plus fins. L'équipe de Deep Thought chercha à dépasser le seuil du milliard de coups par seconde, car leur ordinateur ne calculait qu'environ cinq coups à l'avance, bien moins que leur concurrent humain : les connaisseurs estimèrent qu'il fallait porter ce chiffre à plus de sept coups. En fait, il apparut qu'il fallait concevoir des machines stratèges capables, en outre, d'apprentissage. Feng Hsiung Hsu et Murray Campbell, des laboratoires de recherche d'IBM, associés, pour la réalisation de la partie logicielle, au Grand-maître d'échecs Joël Benjamin, reprirent le programme Deep Thought – rebaptisé Deep Blue, puis Deeper Blue – en concevant un système de 256 processeurs fonctionnant en parallèle ; chaque processeur pouvant calculer environ trois millions de coups par seconde, les ingénieurs de Deeper Blue estiment qu'il calculait environ 200 millions de coups par seconde. Finalement, le 11 mai 1997, Deeper Blue l'emporta sur Garri Kasparov par 3 points et demi contre 2 points et demi, dans un match en six parties. Même si beaucoup d'analystes sont d'avis que Kasparov (dont le classement ELO de 2820 est pourtant un record, et qui a prouvé que son titre de champion du monde est incontestable en le défendant victorieusement par six fois) avait particulièrement mal joué, la victoire de Deeper Blue a enthousiasmé les informaticiens. Un des coups les plus étonnants fut celui où, dans la sixième partie, la machine choisit, pour obtenir un avantage stratégique, de faire le sacrifice spéculatif d'un cavalier (une pièce importante), un coup jusque-là normalement « réservé aux humains ». En 2002, le champion du monde Vladimir Kramnik ne parvenait qu'à faire match nul contre le logiciel Deep Fritz, au terme de huit parties, deux victoires pour l'humain et la machine et quatre matchs nuls. Une nouvelle fois, la revanche des neurones sur les puces n'avait pas eu lieu.
En 2016, le programme Alphago de Google Deepmind bat l'un des meilleurs joueurs mondiaux du jeu de go, Lee Sedol (ce jeu d'origine chinoise comprend bien plus de combinaisons que les échecs).
LES RÉSEAUX NEURONAUX
Dans un article paru en 1943, Warren McCulloch, un biologiste, et Walter Pitts, un logicien, proposaient de simuler le fonctionnement du système nerveux avec un réseau de neurones formels. Ces « neurones logiciens » sont en fait des automates électroniques à seuil de fonctionnement 0/1, interconnectés entre eux. Ce projet, s'il n'eut pas d'aboutissement immédiat, devait inspirer plus tard Johann von Neumann lorsqu'il créa l'architecture classique d'ordinateur.
UNE PREMIÈRE TENTATIVE INFRUCTEUSE
Il fallut attendre 1958 pour que les progrès de l'électronique permettent la construction du premier réseau neuronal, le Perceptron, de Frank Rosenblatt, machine dite connectionniste. Cette machine neuromimétique, dont le fonctionnement (de type analogique) cherche à approcher celui du cerveau humain, est fort simple. Ses « neurones », reliés en partie de manière aléatoire, sont répartis en trois couches : une couche « spécialisée » dans la réception du stimulus, ou couche périphérique, une couche intermédiaire transmettant l'excitation et une dernière couche formant la réponse. Dans l'esprit de son inventeur, le Perceptron devait être capable à brève échéance de prendre en note n'importe quelle conversation et de la restituer sur imprimante. Quantité d'équipes travailleront au début des années 1960 sur des machines similaires, cherchant à les employer à la reconnaissance des formes : ce sera un échec total, qui entraînera l'abandon des travaux sur les réseaux. Ceux-ci semblent alors dépourvus d'avenir, malgré la conviction contraire de chercheurs comme Shannon.
LES RÉSEAUX ACTUELS
En fait, l'avènement des microprocesseurs, les puces électroniques, permettra la réapparition sous forme renouvelée des réseaux à la fin des années 1970, générant un nouveau champ de l'IA en pleine expansion, le néoconnectionnisme. Les nouveaux réseaux, faits de processeurs simples, ne possèdent plus de parties à fonctions spécialisées. On leur applique un outillage mathématique issu pour l'essentiel de la thermodynamique moderne et de la physique du chaos.
Le cerveau humain est caractérisé par un parallélisme massif, autrement dit la possibilité de traiter simultanément quantité de signaux. Dans les réseaux aussi, de nombreux composants électroniques, les neuromimes, travaillent de manière simultanée, et la liaison d'un neuromime avec d'autres est exprimée par un coefficient numérique, appelé poids synaptique. On est cependant bien loin du système nerveux central de l'homme, qui comprend environ 10 milliards de cellules nerveuses et 1 million de milliards de synapses (ou connexions). Contrairement à ce qui se passe dans le cerveau, lors de l'envoi d'un signal les neuromimes activent toujours leurs voisins et n'ont pas la possibilité d'inhiber le fonctionnement de ceux-ci. Néanmoins, ces machines sont dotées de la capacité d'auto-organisation, tout comme les êtres vivants : elles ne nécessitent pas de programmation a posteriori. La mémoire peut survivre à une destruction partielle du réseau ; leurs capacités d'apprentissage et de mémorisation sont donc importantes. Si un micro-ordinateur traite l'information 100 000 fois plus vite qu'un réseau, ce dernier peut en revanche effectuer simultanément plusieurs opérations.
QUELQUES APPLICATIONS
La reconnaissance des formes (pattern recognition) est, avec celle du langage naturel, l'un des domaines où les réseaux excellent. Pour reconnaître des formes, un robot classique les « calculera » à partir d'algorithmes. Tous les points de l'image seront numérisés, puis une mesure des écarts relatifs entre les points sera faite par analyse de réflectance (rapport entre lumière incidente et lumière reflétée). Mieux encore, on mesurera l'écart absolu de chaque point par rapport à la caméra qui a fixé l'image.
Ces méthodes, qui datent de la fin des années 1960, sont très lourdes et s'avèrent inopérantes lorsque l'objet capté par la caméra se déplace. Le réseau, s'il n'est guère efficace pour un calcul, reconnaîtra une forme en moyenne 10 000 fois plus vite que son concurrent conventionnel. En outre, grâce aux variations d'excitation de ses « neurones », il pourra toujours identifier un visage humain, quels que soient ses changements d'aspect. Cela rappelle les caractéristiques de la mémoire associative humaine, qui coordonne de façon complexe des caractéristiques ou informations élémentaires en une structure globale mémorisée. Une autre ressemblance avec le système cognitif de l'homme est à relever : sur cent formes apprises à la suite, l'ordinateur neuronal en retiendra sept. Or, c'est là approximativement la « taille » de la mémoire à court terme, qui est de six items.
Les rétines artificielles, apparues en 1990, rendront progressivement obsolète la caméra en tant que principal capteur employé en robotique. Tout comme les cônes et les bâtonnets de l'il, ces « rétines » à l'architecture analogique transforment les ondes lumineuses en autant de signaux électriques, mais elles ignorent encore la couleur. Certaines d'entre elles ont la capacité de détecter des objets en mouvement. De telles membranes bioélectroniques seront miniaturisables à assez brève échéance.
Enfin, les réseaux de neurones formels sont aussi de formidables détecteurs à distance d'ultrasons ou de variations thermiques.
À l'aide d'un ordinateur classique, il est possible de simuler une lecture de texte avec un logiciel de reconnaissance de caractères, un lecteur optique et un système de synthèse vocale qui dira le texte. Mais certains ordinateurs neuronaux sont aussi capables de dispenser un véritable enseignement de la lecture. De même, couplé à un logiciel possédant en mémoire une vingtaine de voix échantillonnées dans une langue, un réseau forme un système efficace d'enseignement assisté par ordinateur, qui est capable de corriger l'accent de ses élèves !
INTELLIGENCE ARTIFICIELLE ET ÉDUCATION
À travers le langage logo, conçu par Seymour Papert (Max Planck Institute), l'IA a doté la pédagogie des jeunes enfants d'un apport majeur. En permettant une programmation simple, logo incite l'enfant à mieux structurer ses rapports aux notions d'espace et de temps, à travers des jeux. L'idée clé de logo repose sur le constat fait par Jean Piaget : l'enfant assimile mieux les connaissances quand il doit les enseigner à autrui, en l'occurrence à l'ordinateur, en le programmant.
Bien que cet outil informatique contribue à combler les retards socioculturels de certains jeunes, il est douteux, contrairement au souhait de ses promoteurs, qu'il puisse aider des sujets à acquérir des concepts considérés comme l'apanage de leurs aînés de plusieurs années. Les travaux de Piaget montrent en effet que les structures mentales se constituent selon une chronologie et une séquence relativement définies. Quelle que soit l'excellence d'une méthode, on ne peut pas enseigner n'importe quoi à n'importe quel âge.
PERSPECTIVES
La prise en compte de la difficulté à modéliser parfaitement l'activité intellectuelle a conduit certains praticiens de l'IA à rechercher des solutions beaucoup plus modestes mais totalement abouties, en particulier dans certaines applications de la robotique.
L'IA SANS REPRÉSENTATION DE CONNAISSANCE
Vers 1970, les conceptions théoriques de Marvin Minsky et Seymour Papert sur la « Société de l'esprit », parmi d'autres, ont fondé une nouvelle IA, l'IA distribuée, dite encore IA multiagents. Les tenants de cette approche veulent parvenir à faire travailler ensemble, et surtout de manière coordonnée, un certain nombre d'agents autonomes, robots ou systèmes experts, à la résolution de problèmes complexes.
Après avoir conçu des ensembles de systèmes experts simples associés, l'IA distribuée a également remodelé le paysage de la robotique, générant une IA sans représentation de connaissance.
Les robots dits de la troisième génération sont capables, une fois mis en route, de mener à bien une tâche tout en évitant les obstacles rencontrés sur leur chemin, sans aucune interaction avec l'utilisateur humain. Ils doivent cette autonomie à des capteurs ainsi qu'à un générateur de plans, au fonctionnement fondé sur le principe du GPS. Mais, à ce jour, les robots autonomes classiques restent insuffisamment aboutis dans leur conception.
Ce type de robotique semble à vrai dire à l'heure actuelle engagé dans une impasse : depuis le début des années 1980, aucun progrès notable ne s'est fait jour.
L'« ARTIFICIAL LIFE »
Le philosophe Daniel C. Dennett a proposé, à la fin des années 1980, une nouvelle direction possible pour la robotique. Plutôt que de s'inspirer de l'homme et des mammifères, il conseille d'imiter des êtres moins évolués, mais de les imiter parfaitement. Valentino Braitenberg s'était déjà engagé dans une voie similaire au Max Planck Institute, une dizaine d'années auparavant, mais ses machines relevaient d'une zoologie imaginaire. En revanche, depuis 1985, Rodney Brooks, du MIT, fabrique des robots à forme d'insecte ; ce sont les débuts de ce qu'on appelle artificial life.
Cette idée a été réalisable grâce à la réduction progressive de la taille des composants électroniques. Une puce de silicium sert donc de système nerveux central aux insectes artificiels de Brooks : pour l'instant, le plus petit d'entre eux occupe un volume de 20 cm3. Le chercheur est parti d'un constat simple : si les invertébrés ne sont guère intelligents, ils savent faire quantité de choses, et sont en outre extrêmement résistants. Travaillant sur la modélisation de réflexes simples de type stimulus-réponse, Brooks élude ainsi élégamment le problème, classique en IA, de la représentation des connaissances. Dans l'avenir, il voudrait faire travailler ses robots en colonies, comme des fourmis ou des abeilles ; ses espoirs aboutiront seulement si la miniaturisation des moteurs progresse. L'éthologie, ou science des comportements animaux, fait ainsi une entrée remarquée dans le monde de l'IA.
DOCUMENT larousse.fr LIEN |
|
|
|
|
 |
|
Réseau de neurones composé de memristors spintroniques |
|
|
|
|
|
Réseau de neurones composé de memristors spintroniques
Les réseaux de neurones convolutifs sont adaptés pour effectuer des taches cognitives telles que la reconnaissance d'images et de vidéos, ou le traitement du langage. Afin d'implémenter ces réseaux plus efficacement, les chercheurs de l'Irig ont intégré des dispositifs spintroniques dans une architecture combinant un réseau de neurones et un réseau binaire. Des outils spécifiques ont montré combien cette combinaison est moins complexe et consomme moins d'énergie.
Publié le 6 mars 2023
Les réseaux de neurones convolutifs (convolutional neural network CNN) sont efficaces pour réaliser certaines tâches comme la reconnaissance d’images ou de textes. Cependant, la conception classique d’un ordinateur dans lequel le processeur et la mémoire sont physiquement séparés, n’est pas compatible avec un réseau neuronal. En effet, les synapses échangent fréquemment les informations stockées dans la mémoire entre les neurones (on parle de poids synaptique) pour effectuer les calculs qui provoquent un fort ralentissement. Les chercheurs de l’Irig ont donc utilisé des dispositifs spintroniques qui permettent une implémentation parallèle des réseaux dans laquelle le calcul et le stockage sont intégrés dans un même bloc.
Les chercheurs ont développé des mémoires électroniques appelées memristors dont la résistance change de manière continue en fonction du courant appliqué. Dans une architecture mémoire appelée « crossbar », les memristors codent le poids synaptique comme une résistance électrique, afin d’effectuer les calculs avec des courants analogiques qui seront convertis en valeur numérique. Le but est de réaliser un réseau de neurones convolutifs à base de memristors, qui conserve les mêmes performances tout en minimisant la complexité et sans surcoût matériel. Cependant, le procédé de fabrication de ces dispositifs spintroniques étant récent, il restait encore à fiabiliser la précision du calcul. De plus, les poids synaptiques peuvent prendre uniquement deux états binaires qui rendent difficile l’accès à différents niveaux de résistance dans le but de mimer une synapse.
Pour contourner ces écueils, les chercheurs ont testé une architecture utilisant deux concepts. Le premier est un réseau d’ensemble, selon le concept de «sagesse des foules». Le réseau global y est remplacé par plusieurs petits réseaux moins précis mais beaucoup plus simples, qui sont entraînés avec différents échantillons extraits du même ensemble de données. Les résultats obtenus par ces réseaux sont ensuite comparés pour obtenir une décision, dont la précision est comparable avec celle d’un réseau unique.
Le second concept est un réseau de type binaire dans lequel les poids synaptiques prennent uniquement deux états, contrairement au réseau classique dont les poids varient de manière continue. Grâce à ces deux concepts, les dispositifs spintroniques permettent des calculs quasiment sans perte de précision.
Figure : Architecture des réseaux de neurones intégrant des memristors spintroniques (à gauche), avec un réseau de neurones d’ensemble (en haut) combiné avec un réseau de neurones binaire (à droite).
Cette solution a été évaluée sur différents jeux de données pour la reconnaissance d’images. L’architecture du réseau d’ensemble a permis une optimisation du coût matériel, car le nombre de neurones est réduit de 92 % et le nombre de synapses de 95 %, et ceci avec une précision semblable à celle d’un seul réseau convolutif équivalent. De plus, il a été observé une réduction de 95 % du nombre de cycles d’horloge et de 97 % du nombre d’accès à la mémoire. Et enfin, l’utilisation de dispositifs à couplage spin-orbite permet de diminuer encore de trois ordres de grandeur la consommation grâce à la réduction des courants de calcul.
Réseau de neurones convolutif (convolutional neural network CNN en anglais) est un réseau spécialement conçu pour traiter des images. Le réseau est constitué de plusieurs couches de neurones connectées entre elles.
Un memristor agit comme une mémoire électronique. Sa résistance change de manière permanente selon le courant qui lui est appliqué ; elle peut ensuite être lue comme une donnée.
Références
* Tchendjou GT, Danouchi K, Prenat G, and Anghel A
Spintronic memristor based binarized ensemble convolutional neural network architectures
IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems 2022.
DOCUMENT cea LIEN
|
|
|
|
|
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 ] Précédente - Suivante |
|
|
|
|
|
|