ecole de musique piano
     
menu
 
 
 
 
 
 

PREMIER CERVEAU ARTIFICIEL

 

Le premier cerveau artificiel "in silico"
Elena SenderPar Elena Sender

Publié le 08-10-2015 à 18h08

Historique : pour la première fois un échantillon de cerveau a été modélisé et fonctionne comme un vrai.
La première simulation virtuelle d’un cortex de rat. © EPFLLa première simulation virtuelle d’un cortex de rat. © EPFL


SIMULATION. Ils l’ont rêvé, ils l’ont fait. 82 chercheurs d’équipes internationales ont produit la première simulation virtuelle d’un cortex de rat, mimant parfaitement les neurones biologiques. Une petite portion du moins. Telle est l’information inédite que publie, en Une de la prestigieuse revue Cell, le consortium Blue Brain Project, le centre de simulation du Human Brain Project, hébergé par l’École polytechnique fédérale de Lausanne (EPFL).

Nous sommes encore loin du cerveau entier, bien sûr ! Nous parlons là de la simulation de 0,3 mm3 de tissu cérébral mais c’est déjà un exploit. Cet échantillon contient à lui seul 31 000 neurones, 8 millions de connexions formant 40 millions de synapses, parfaitement virtuels. Le tout fonctionnel comme un vrai ! Le modèle est désormais à disposition sur un portail Web public afin que les chercheurs du monde puissent l’utiliser.

“Cette publication constitue une magistrale preuve de concept pour la simulation du cerveau", se félicite Patrick Aebischer, président de l’EPFL qui a soutenu depuis le début le Blue Brain Project, fondé par Henri Markram et mis en œuvre par l’EPFL mais aussi des équipes de recherches en Israël, Espagne, Hongrie, États-Unis, Chine, Suède et Royaume Uni.

 

COLLECTE. Comment ont-ils fait ? Pendant deux décennies, véritable travail de fourmi, les scientifiques ont collecté des milliers de données anatomiques et physiologiques sur des cerveaux de rats. Ils ont consciencieusement décrit par le menu chaque neurone et chaque synapse ainsi que leurs interactions d’une zone bien particulière : le néocortex. C’est la couche fine qui recouvre les hémisphères cérébraux, siège des fonctions cognitives les plus évoluées, composé de six couches de neurones de types différents interconnectés. En réalisant des milliers d’expériences sur ces neurones et synapses, ils en ont défini les différents types et ont identifié des règles fondamentales qui régissent la manière dont les neurones sont agencés et connectés dans des microcircuits.

Puis, ces dix dernières années, les modélisateurs ont traduit ces données en équations mathématiques pour pouvoir les rendre plus vraies que nature dans le programme de simulation. Et, grâce à la puissance du supercalculateur Blue Gene (65 536 processeurs, 839 téraflops de performance, et 65 téraoctets de ram…) le modèle a pu s’animer.

“L’algorithme commence par mettre en place des modèles 3D réalistes de neurones dans un volume virtuel, en respectant la distribution mesurée de différents types de neurones à différentes profondeurs, explique Michael Reimann, un des auteurs principaux (EPFL) qui a développé l’algorithme utilisé pour prédire l’emplacement de près des  millions de synapses dans les microcircuits. Ensuite, il détecte tous les endroits où les branches des neurones se touchent — près de 600 millions. Puis il coupe systématiquement tous les contacts qui ne répondent pas à cinq règles biologiques de connectivité. Il reste 37 millions de contacts, qui sont les endroits où nous avons construit nos synapses-modèles.”

Ces outils informatiques sont prometteurs pour la recherche en neurosciences

Résultat : une stupéfiante colonne de milliers de neurones connectés qui tourne sur l’écran du moniteur. Mais surtout : les statistiques de connectivité du modèle simulé et les mesures expérimentales faites sur les tissus biologiques concordent ! Javier de Felipe, auteur de l’étude, de l’Université polytechnique de Madrid, l’assure en effet ; la reconstitution numérique correspond bien aux données fournies par les puissants microscopes électroniques obtenues par ailleurs.

“Ces outils informatiques, désormais à disposition des chercheurs du monde entier, sont prometteurs pour la recherche en neurosciences”, poursuit Patrick Aebischer. “C’est un jour spécial pour nous, et pour moi c’est un pic d’accomplissement personnel, confie également Idan Seguev, coauteur de l'étude, de l’Université hébraïque de Jérusalem. C’est un moment historique, la première fois qu’un circuit cérébral complet est reconstruit virtuellement. Nous pouvons l’utiliser pour faire de nombreuses prédictions, et surtout les données sont désormais en libre accès et disponibles pour tous.” L’objectif de ce modèle est, en effet, à partir de maintenant d’être utilisé par le plus grand nombre pour mener à bien des expériences.

Ce n’est pourtant qu’un début. Le modèle, imparfait, ne prend pas encore en compte les cellules gliales, aussi nombreuses que les neurones et nécessaires à leur métabolisme. Ni la plasticité, c’est-à-dire la capacité des neurones et de leurs connexions à être modifiés dans le temps. En outre, si la puissance des supercalculateurs disponible est suffisante d’après l’EPFL pour numériser un cerveau de rat complet, il faudra largement plus pour simuler un cerveau humain!

Quoi qu’il en soit, les chercheurs du Blue Brain Project au sein du Human Brain Project qui a été maintes fois controversé l’affirment : les reconstructions numériques et les simulations fournissent une nouvelle manière de faire des neurosciences, ce qu’on appelle les neurosciences in silico. “Tout a commencé avec Santiago Ramon y Cajal (1852-1934, ce histologiste qui décrivit l’anatomie du système nerveux), conclut Idan Segev. Mais sur le papier il n’y avait ni activité ni connectivité. Aujourd’hui nous avons bien plus. Il aurait été heureux.”


DOCUMENT        sciencesetavenir.fr      LIEN

 
 
 
 

INTELLIGENCE ARTIFICIELLE 3

 

Intelligence artificielle : quand la machine imite l’artiste


Certaines peignent à la façon des grands maîtres, d’autres improvisent sur du jazz… Dotés d’une forme d’imagination, certains programmes d’intelligence artificielle parviennent désormais à concurrencer l’esprit humain.
Abonnez vous à partir de 1 €  Réagir ClasserPartager (1 784)Tweeter
Le Monde.fr | 08.09.2015 à 16h37 • Mis à jour le 12.10.2015 à 16h22 | Par Morgane Tual

Cet article est le premier épisode d’une série consacrée à l’état des lieux de l’intelligence artificielle.
Un algorithme capable de générer des œuvres proches de celles de Picasso ou de Van Gogh : c’est ce qu’a récemment conçu une équipe de chercheurs allemands, qui détaillent leur invention dans un article publié fin août 2015. En analysant les tableaux de ces artistes prestigieux, la machine est capable « d’apprendre » leur style, grâce au deep learning, et de le calquer sur n’importe quelle photo. Avec un résultat impressionnant, obtenu en moins d’une heure.
image: http://s2.lemde.fr/image/2015/09/08/644x0/4749250_6_1e1b_le-programme-peut-transformer-n-importe-quelle_8f2e937040598250f444ded1bc1430d0.jpg
Le programme peut transformer n'importe quelle image et l'adapter dans le style d'un peintre.
Le programme peut transformer n'importe quelle image et l'adapter dans le style d'un peintre. LEON A. GATYS/ALEXANDER S. ECKER/MATTHIAS BETHGE
Les machines seraient-elles donc en mesure de concurrencer les hommes dans le domaine de la créativité ? Celle-ci fait partie, avec la conscience et les émotions, des attributs souvent avancés pour distinguer l’humain de la machine. Un programme serait-il capable de concevoir des peintures émouvantes, d’imaginer des histoires palpitantes ou de rivaliser avec le génie de composition de Mozart ? Des chercheurs en intelligence artificielle (IA) s’y emploient.
Lire : Comment le « deep learning » révolutionne l'intelligence artificielle

Question récurrente
Mais de quoi parle-t-on ? La notion de créativité fait l’objet de débats dans la communauté de recherche. S’agit-il de capacité artistique ? D’imagination ? D’inventivité ? Ou même de capacité à résoudre des problèmes ? Une question récurrente dans le domaine de l’IA, où la notion même d’intelligence fait l’objet de débats. « Quand Alan Turing a écrit son article fondateur sur l’intelligence artificielle, il fut confronté à ce problème de définition », explique Mark Riedl, chercheur en IA au Georgia institute of technology (à Atlanta, Etats-Unis). « Il a préféré inventer un test, qui, basiquement, dit que si le comportement d’une machine est impossible à distinguer de celui d’un être humain, alors la machine est considérée comme intelligente. »
Mark Riedl a suivi la même démarche pour la créativité, en concevant, en 2014, le test Lovelace 2.0. Dans cette expérience, les juges demandent à un programme de créer une œuvre (peinture, poésie, architecture…) en lui imposant un thème, non défini à l’avance. Aucune machine n’a pour l’instant réussi à le passer. Mais Mark Riedl pense que cela est possible. Pour lui, les machines sont déjà capables de créativité, dans une certaine mesure :
« Beaucoup de gens pensent à de grands artistes quand on utilise le terme de créativité. Mais chaque humain est créatif dans une certaine mesure, et cette créativité se manifeste au quotidien, des dizaines ou des centaines de fois par jour. Nous faisons preuve de créativité quand nous jouons au Pictionary, quand nous utilisons un trombone pour réparer une paire de lunettes ou quand nous trouvons un autre itinéraire pour rentrer chez nous si une route est fermée. Les ordinateurs sont déjà dotés de cette forme de créativité. »
Combiner des éléments déjà enregistrés
Mais au-delà, un certain nombre de programmes sont déjà capables de se montrer créatifs dans le domaine artistique, en faisant appel à une forme d’imagination. « Toute imagination est vue comme la recombinaison d’éléments de mémoire préexistants », explique Jean-Gabriel Ganascia, chercheur au laboratoire d’informatique de Paris-VI, dans son livre Idées reçues sur l’intelligence artificielle. Il cite comme exemple la licorne, « produit par excellence de notre imagination », qui combine deux êtres réels connus de l’homme : le cheval et le narval. La créativité artistique des machines va généralement fonctionner de cette façon, en combinant des éléments déjà enregistrés pour en créer de nouveaux. Avec des résultats intéressants.
Emily Howell compose de la musique classique
David Cope, professeur de musique et d’informatique à l’université de Californie, a travaillé ces dernières décennies sur une machine capable de composer de la musique classique. Son premier programme, baptisé EMI, « s’inspire » de grands compositeurs pour créer ses propres musiques. Concrètement, David Cope « nourrit » EMI de nombreuses musiques de Vivaldi, par exemple, qu’elle va analyser, dans le but d’identifier des motifs et des règles. A partir de ces schémas, elle est capable de confectionner ses propres compositions, dans un style proche de celui du compositeur.

David Cope a décidé d’aller plus loin en inventant un autre programme, baptisé Emily Howell. Il fonctionne de la même manière, mais se nourrit des créations d’EMI pour concevoir sa propre musique, ce qui donne un style plus « personnel », proche de la musique contemporaine. Emily Howell a sorti son premier album en 2010.

Shimon improvise sur du jazz
Sur un principe similaire, Shimon, conçu par le roboticien Guy Hoffman, est capable d’improviser en direct sur de la musique jazz, à partir d’un modèle statistique fondé sur les improvisations du pianiste Thelonious Monk. Dans cette vidéo, le robot s’adapte en temps réel à la musique, qu’il découvre, jouée par son concepteur.

Scheherazade écrit des histoires
Se nourrir des œuvres des autres pour repérer des récurrences : c’est aussi ce que fait Scheherazade, un programme capable de rédiger de courtes fictions d’un ou deux paragraphes. Son concepteur, Mark Riedl – l’inventeur du test Lovelace 2.0 –, la nourrit par exemple de récits de braquage de banque s’il souhaite qu’elle invente une histoire sur le sujet. « Elle n’utilise aucune connaissance préprogrammée, elle apprend tout ce qu’elle doit savoir pour créer son histoire. » Les récits produits sont, assure-t-il, « difficiles à distinguer de ceux écrits par les humains ».
Watson invente des recettes de cuisine
Cette technique a aussi permis à Watson, le programme d’intelligence artificielle star du constructeur IBM, de concocter des recettes de cuisine, après avoir en avoir analysé des milliers. Des chefs ont mis à exécution les recettes inventées par la machine, plus ou moins étranges, comme le cocktail à base de cidre et de pancetta, ou le burrito au bœuf agrémenté de chocolat et de fèves de soja. Les meilleures ont été rassemblées dans un livre, Cognitive Cooking with Chef Watson. « Ça ressemble à un restaurant très étrange de cuisine fusion » estime dans un article une journaliste de CNN qui a eu l’occasion de goûter cette cuisine. Une application est même disponible pour permettre aux internautes de « créer des plats uniques avec Watson ». Après une semaine de test, un blogueur, plutôt convaincu, a néanmoins précisé qu’il fallait faire quelques ajustements : « Demandez-vous si vous voulez vraiment ajouter de la purée de pommes de terre dans ces lasagnes ».
« Un point de vue unique » sur l’humanité
L’intelligence artificielle est donc d’ores et déjà capable de certaines formes de créativité, mais elle a néanmoins ses limites. « Si les humains peuvent être créatifs dans différents domaines, la plupart des algorithmes se concentrent sur une seule chose », souligne Mark Riedl. « Un générateur de poésie ne peut pas dessiner, par exemple. »
Mais surtout, la machine manque peut-être d’attributs propres à l’être humain, potentiellement essentiels pour égaler sa créativité. Pour Michael Cook, chercheur associé à l’université de Londres, à l’origine d’un programme capable d’inventer des jeux vidéo, les machines ne ressentent pas d’émotion, ce qui représente un frein à leur capacité créatrice :
« Ce genre de chose est vraiment importante pour la créativité – c’est comme ça qu’on se sent lié aux autres, qu’on est touché par des artistes. Nous comprenons souvent le travail des artistes en le comparant avec nos propres vies. Expérimenter la guerre, l’amour, avoir une histoire avec une ville, un pays… L’IA a du mal à avoir ce genre d’impact car nous partageons moins de choses avec elle qu’avec d’autres humains. »
Toutefois, souligne-t-il, cette différence fondamentale pourrait aussi représenter un avantage : « L’IA peut nous offrir un point de vue unique : un aperçu de l’humanité vu de l’extérieur. Nous n’avons pas vraiment commencé à l’exploiter, mais je crois qu’un jour, nous le ferons. »
Résultats étranges et imprévisibles
image: http://s1.lemde.fr/image/2015/09/08/644x0/4749253_6_8a8f_une-foret-vue-par-deep-dream_31748f9c02e5e7def67dabc31b22d4b7.jpg
Une forêt, vue par Deep Dream.
Une forêt, vue par Deep Dream. JOAN CAMPDERROS-I-CANAS
Enfin, l’intelligence artificielle pourrait aussi permettre aux humains d’en apprendre plus sur leur propre créativité… Une équipe de recherche de Google a ainsi inventé cette année un programme, Deep Dream, qui crée des images fantasmagoriques impressionnantes, évoquant les rêves, qui rappellent parfois les toiles du peintre néerlandais Jérôme Bosch. Ce programme n’a pourtant pas été conçu pour être créatif ; Deep Dream fait partie d’un projet de recherche sur l’apprentissage des machines.
Lire : On a testé pour vous… Deep Dream, la machine à rêves psychédéliques de Google

Créé par une équipe de Google, il est « nourri » de millions d’images, pour apprendre à y détecter des formes. Ensuite, en lui donnant une nouvelle image, les ingénieurs lui demandent : « quoi que tu voies, on en veut plus ! ». « Si un nuage ressemble un peu à un oiseau, le [programme] va le faire ressembler encore plus à un oiseau » expliquent-ils sur un blog. Et cela donne ces résultats étranges et imprévisibles, qui, plus de deux mois après, continuent à passionner les internautes.
L’expérience, aux résultats impressionnants, a ouvert de nouveaux questionnements aux chercheurs. Pour eux, Deep Dream « pourrait devenir un outil pour les artistes – une nouvelle manière de remixer des concepts visuels – ou peut-être même apporter un petit éclairage sur les racines du processus créatif en général. »
Lire dans la même série : Intelligence artificielle : une machine peut-elle ressentir de l’émotion ?

Lire aussi : Intelligence artificielle : une machine est-elle capable de philosopher ?

Morgane Tual

En savoir plus sur http://www.lemonde.fr/pixels/article/2015/09/08/intelligence-artificielle-les-machines-peuvent-elles-etre-creatives_4749254_4408996.html#GM6CrCbKTGUHO7KV.99

 

DOCUMENT         lemonde.fr       LIEN

 
 
 
 

INTELLIGENCE ARTIFICIELLE 2

 

Intelligence artificielle : une machine est-elle capable de philosopher ?


Alors qu’Apple vient encore d’améliorer son assistant vocal Siri, de quoi sont aujourd’hui capables les intelligences artificielles les plus avancées en matière de conversation ?
Abonnez vous à partir de 1 €  Réagir ClasserPartager (1 175)Tweeter
Le Monde.fr | 18.09.2015 à 19h57 • Mis à jour le 12.10.2015 à 16h23 | Par Morgane Tual

image: http://s2.lemde.fr/image/2015/09/18/644x0/4763041_6_88af_si-certains-programmes-sont-aujourd-hui_c988917af64edf0ad9ad514e405f9f43.jpg
Si certains programmes sont aujourd'hui capables de mener des conversations simples, ils sont encore très loin de comprendre leur sens.
Si certains programmes sont aujourd'hui capables de mener des conversations simples, ils sont encore très loin de comprendre leur sens.
Cet article fait partie d’une série consacrée à l’état des lieux de l’intelligence artificielle.
De C-3PO à HAL, en passant par l’héroïne virtuelle du film Her, le fantasme d’une intelligence artificielle (IA) aussi évoluée que celle de l’homme passe, dans l’imaginaire collectif, par une machine capable de communiquer naturellement avec son interlocuteur. Avec l’apparition, ces dernières années, d’outils tels que Siri, qu’Apple vient encore de peaufiner, au fond de nos poches, des progrès considérables semblent avoir été faits dans cette direction. Mais où en est-on vraiment ? Dans quelle mesure l’IA est-elle aujourd’hui capable de parler, de dialoguer, de répondre à nos questions et surtout, de comprendre le sens du langage ?
Un dialogue primaire
Les assistants vocaux Siri et Cortana (Microsoft) font partie des exemples les plus aboutis en la matière, capables de comprendre une grande partie de nos requêtes et d’y répondre. Mais ils atteignent très vite leurs limites : une question « mal » formulée ou ambiguë donnera une réponse insatisfaisante ou absurde. Et si vous vous éloignez des questions concrètes sur les horaires d’une séance de cinéma ou l’état de la circulation, ces intelligences artificielles vous répondront souvent par une pirouette préprogrammée : on est encore loin d’une discussion « naturelle » telle qu’on pourrait en avoir une avec un ami ou un droïde de protocole. Et cela ne devrait pas changer de sitôt.
La technologie derrière ces outils est similaire à celle utilisée par la plupart des « chatbots », ou agents conversationnels. En premier lieu, la machine repère des mots-clés dans la phrase de son interlocuteur. Elle va ensuite rechercher dans une base de données la réponse qui semble statistiquement la plus appropriée, en regardant avec quels contenus ces mots-clés sont régulièrement mis en relation. Ce principe n’est pas neuf : comme de nombreuses technologies liées à l’IA, il existait déjà dans les années 1980. Mais la masse de données désormais accessible, la puissance de calcul disponible et les progrès du « machine learning » (l’apprentissage des machines) ont considérablement changé la donne et rendu ces technologies bien plus efficaces.
Lire : Comment le « deep learning » révolutionne l'intelligence artificielle
Ainsi, l’IA star d’IBM, nommée Watson, a réalisé un petit exploit en 2011 en battant ses adversaires humains au jeu télévisé américain « Jeopardy! ». Dans ce classique de la télévision américaine, le présentateur lit une réponse et les participants doivent deviner la question qui s’y rapporte. Après deux jours de compétition, Watson avait écrasé ses concurrents – une étape symbolique dans l’histoire de l’intelligence artificielle.

En quête de sens
Mais malgré l’efficacité de ces technologies, « elles restent confinées à des domaines spécifiques», explique Gérard Sabah, chercheur retraité du CNRS, qui a consacré sa carrière aux questions d’IA et de langage. « Elles sont faites pour interroger Internet, et ne vont pas fonctionner pour des questions philosophiques complexes. » Des chercheurs de Google ont pourtant dévoilé en juin une IA capable, entre autres, de répondre à des questions sur le sens de la vie, sans que les réponses ne soient rédigées par les ingénieurs, comme c’est le cas pour Siri sur ce type de questions. Nourrie de 62 millions de phrases issues de sous-titres de films, elle utilise des techniques d’apprentissage pour piocher dans ces données et fournir des réponses la plupart du temps correctes, sur le fond comme sur la forme :
Humain — Qui est Skywalker ?
Machine — C’est un héros.
Humain — Le ciel est-il bleu ou noir ?
Machine — Bleu.
Humain — Combien de pattes a un chat ?
Machine — Quatre, je crois.
Humain — Quel est le but de la vie ?
Machine — Etre au service du plus grand bien.
Avec parfois quelques ratés :
Humain — Quel est ton travail ?
Machine — Je suis avocat.
Humain — Que fais-tu dans la vie ?
Machine — Je suis docteur.
Malgré les progrès conséquents de ces différents systèmes, ce type d’imperfection demeure. Des problèmes liés à un manquement profond de ces technologies, souligne Gérard Sabah :
« Les phrases produites sont correctes, car la machine part de phrases existantes et les modifie en remplaçant certains mots par rapport à la question posée. Mais il reste des incohérences, car les aspects sémantiques profonds ne sont pas pris en compte. Le résultat qui sort est la réponse statistique la plus probable, mais la machine ne la comprend pas. »
Le langage humain est un système de communication bien plus complexe que la programmation informatique ou le clic, qui ne comportent aucune ambiguïté. La connaissance nécessaire pour traiter le langage est vaste : vocabulaire, syntaxe, grammaire… Sans compter le fait que chaque mot possède plusieurs sens, que le langage évolue et que la signification d’une phrase diffère selon son contexte.
Pour parvenir à une IA capable de comprendre le sens du langage, multiplier la puissance de calcul et le nombre de données ne suffira pas, selon Gérard Sabah :
« Pour aller jusqu’au robot de science-fiction, il faudrait développer des méthodes permettant une véritable représentation du sens, et pas un mécanisme fondé sur les statistiques. Avant, on imaginait une IA désincarnée, séparée des aspects biologiques, culturels, sociologiques du monde… Or, il faut prendre en considération tous les aspects de la vie sociale pour avoir une vraie compréhension du sens. Les limites ne seront pas dépassées tant que la machine ne saura pas se référer à une expérience concrète dans le monde réel. »
La piste des robots
Et cela pourrait passer par la robotique. Le chercheur Luc Steels travaille depuis des années sur la question, au sein de l’institut de recherche Icrea en Espagne, après avoir fondé le laboratoire Sony CSL à Paris. Lui qualifie les systèmes actuels d’« idiots savants » et tente d’aller plus loin, en faisant expérimenter le monde à des intelligences artificielles :
« Prenez le mot “rouge”dans le dictionnaire. Sa définition est très différente de l’expérience du rouge. Avec cette définition, le système ne peut pas dire si un objet est rouge. Car le sens est lié à la relation entre le langage et le monde. Pour comprendre le langage, Wikipédia ne suffit pas : il faut ancrer l’agent intelligent dans le monde réel, avec un corps, des capteurs, la capacité d’interagir. »
Dans une de ses expériences, deux robots sont entourés d’objets. L’un prend l’initiative et prononce un mot, qu’il associe « dans sa tête » à l’un des objets. Ce mot, « bolima » dans la vidéo ci-dessous, est fabriqué au hasard. L’autre robot ne connaît pas sa signification : il désigne le mauvais objet. Le premier robot lui signale d’un signe de tête qu’il s’est trompé, puis lui indique l’objet qu’il appelle « bolima ». A partir de là, les deux robots se sont mis d’accord sur ce mot pour définir l’objet. En clair : ces agents perçoivent le monde de différents points de vue et apprennent de façon autonome à communiquer pour se comprendre, avec leur propre vocabulaire.
Voir cette expérience à 4’30 :

Un des anciens élèves de Luc Steels, Pierre-Yves Oudeyer, aujourd’hui directeur de recherches à l’Institut national de recherche en informatique et en automatique, travaille aussi sur la façon dont un groupe de robots est capable de se mettre d’accord sur un modèle linguistique. Dans l’expérience Ergo-robots qu’il a présentée à la Fondation Cartier en 2011, avec un design de David Lynch, cinq robots construisent une langue à partir des éléments qu’ils perçoivent dans leur environnement, comme des objets ou les mouvements des visiteurs. Ils produisent des mots au hasard, qu’ils associent chacun à un sens. « Au début, c’est le bazar, explique Pierre-Yves Oudeyer. Mais progressivement, certains mots vont se propager à toute la population de robots. »

Et quand l’expérience recommence à zéro et que les robots sont réinitialisés, un tout autre langage va se mettre progressivement en place. Ce type de recherche, en plus de faire progresser la recherche sur l’IA, permet aussi de travailler sur la question de l’origine du langage chez les humains.
Avec ces travaux, poursuit Luc Steels, « on essaie de voir comment des concepts peuvent émerger. On est dans l’interaction dans le temps, pas dans des données et des statistiques. Chaque individu développe une connaissance spécifique du monde. » Ce qui, selon Gérard Sabah, est indispensable pour comprendre le sens des mots :
« L’ensemble des connaissances est tel qu’on ne sait pas les représenter toutes dans un programme. Il faut qu’elles soient acquises petit à petit. Un enfant met des années à acquérir des représentations pertinentes sur le monde. On ne pourra obtenir des mécanismes intelligents que par l’apprentissage. »
En bref :
Ce dont l’intelligence artificielle est aujourd’hui capable :
Comprendre (à peu près) ce qu’on lui demande
S’exprimer correctement
Répondre à des questions simples
Ce qu’elle ne sait pas faire :
Comprendre le sens du langage
S’adapter au contexte
Les progrès qu’il reste à faire :
Expérimenter le monde pour comprendre le sens du langage
Inventer son propre langage

En savoir plus sur http://www.lemonde.fr/pixels/article/2015/09/18/intelligence-artificielle-une-machine-est-elle-capable-de-philosopher_4763043_4408996.html#2q5GOzLBU03avAHm.99

 

DOCUMENT       lemonde.fr       LIEN

 
 
 
 

INTELLIGENCE ARTIFICIELLE 1

 

Intelligence artificielle : une machine peut-elle ressentir de l’émotion ?


Certains programmes savent déjà les imiter à la perfection et même influer sur nos propres émotions.
Abonnez vous à partir de 1 €  Réagir ClasserPartager (696)Tweeter
Le Monde.fr | 12.10.2015 à 14h59 • Mis à jour le 12.10.2015 à 16h20 | Par Morgane Tual

Cet article fait partie d’une série consacrée à l’état des lieux de l’intelligence artificielle.
La science-fiction nous abreuve de robots autonomes, si perfectionnés qu’ils disposent d’une conscience, d’émotions et nous inspirent même de l’empathie, à l’instar des êtres humains. Mais loin de la littérature et d’Hollywood, qu’en est-il aujourd’hui dans les laboratoires du monde entier ? L’émotion, et la conscience, apparaissent comme des éléments essentiels pour fabriquer une machine à l’image de l’être humain. Mais elles font aussi partie des plus difficiles à conceptualiser.
« La vie intérieure, on ne sait pas ce que c’est »
Et c’est là que réside la plus grande difficulté : comment définir – et donc reproduire – l’émotion et la conscience ? « On ne sait pas ce que c’est que la conscience, on n’en connaît pas les fondements. On n’est donc pas capables de créer une machine consciente », tranche Jean-Gabriel Ganascia, chercheur au laboratoire d’informatique de Paris-VI et auteur de L’Intelligence artificielle (Editions Le Cavalier Bleu, collection Idées reçues, 2007). « Pour cela, il faudrait que la machine perçoive comme nous : la douleur, le plaisir… Et quand bien même, elle ne les percevra pas de la même manière que nous. »
Une analyse partagée par Jean-Michel Besnier, professeur de philosophie à la Sorbonne et spécialiste de l’intelligence artificielle :
« La vie intérieure, on ne sait pas ce que c’est. L’intelligence artificielle a donc fini par dépouiller la notion de conscience de la notion d’intériorité, et l’a définie simplement en termes de comportement : on peut l’imiter chez les machines. »
A défaut d’être capables de ressentir, les machines peuvent néanmoins simuler, en apparence, des émotions et une conscience : c’est sur ce sujet que se concentrent aujourd’hui les chercheurs en intelligence artificielle ; un domaine de recherche intitulé « informatique affective ». Car finalement, « quelle est la différence entre ressentir et donner les signes extérieurs du ressenti ? », interroge Jean-Michel Besnier :
« Ce sont les signaux qui comptent. En toute rigueur, votre intériorité, je ne sais pas si elle existe… Elle se manifeste à moi par des signes extérieurs. Je ne sais pas ce que c’est que de ressentir une émotion chez un autre être humain. Je peux ressentir de l’empathie, mais je peux aussi en ressentir face à un acteur, qui simule. Je ne peux pas savoir si ces signes émanent d’une intériorité ou d’une simulation. C’est pourquoi pour ceux qui fabriquent des machines, si elles sont capables de simuler, ça suffira. »
Simuler l’émotion
Catherine Pelachaud fait partie de ceux-là. Directrice de recherche au CNRS et à Télécom-ParisTech, elle fabrique depuis des années des « agents conversationnels », sortes d’avatars capables de discuter avec des êtres humains. Son champ de recherche concerne plus précisément les « comportements non verbaux », soit les signes extérieurs d’émotion transmis par l’avatar. « La machine ne ressent pas, mais elle peut transmettre, souligne la chercheuse. Le ressenti est du domaine de l’homme, et ça doit le rester ! Une machine est là pour pallier des besoins. Pour cela, la simulation peut suffire. »

Les « agents » qu’elle élabore accompagnent leurs paroles de gestes, de mouvements de la tête ou d’expressions du visage qui les rendent plus humains. Ils sont aussi capables de réagir aux émotions transmises par leur interlocuteur. « Dans la communication, le non verbal apporte énormément, il permet de mieux se comprendre. Sans ça, ce serait comme parler à un mur. Ça permet d’oublier qu’on parle à une machine. »
Et afficher une émotion est moins simple qu’il n’y paraît. « Ça peut aller jusqu’à des micro-expressions. Il y a plusieurs types de sourires : si vous pincez les lèvres, si vous plissez les yeux, cela aura différentes significations », explique Catherine Pelachaud.
La chercheuse en psychologie Sylwia Hyniewska a observé, par exemple, grâce à une expérience, que les propos d’agents incapables de soulever la partie externe de leurs sourcils étaient considérés par leurs interlocuteurs comme moins pertinents.
Malgré ce souci du détail, les avatars utilisés par les équipes de recherche en informatique affective ne semblent pas très réalistes. A l’heure où les entreprises d’effets spéciaux sont capables de réaliser des images de synthèses ultra-détaillées, pourquoi se contenter d’agents si schématiques ? « Contrairement au cinéma, qui a des animateurs pour peaufiner chaque expression, nos agents doivent être autonomes et réagir en temps réel », indique Catherine Pelachaud.
Mais surtout, si le réalisme est trop important, « on tombe dans la vallée de l’étrange », prévient-elle. Selon cette théorie du Japonais Masahiro Mori, les représentations très réalistes, mais toujours imparfaites, de l’homme, nous paraissent dérangeantes, voire monstrueuses. Nous serions, en revanche, beaucoup plus enclins à trouver sympathiques et à ressentir de l’empathie pour des représentations de l’humain bien plus schématiques.
Ce robot capable de simuler des émotions, empruntant ses traits à Albert Einstein et développé par l’entreprise Hanson Robotics, en est un bon exemple.

Détecter les émotions
Mais les programmes développés par l’informatique affective ne se contentent pas de mimer les émotions. Ils doivent aussi être en mesure de détecter celles des humains, et de s’y adapter en temps réel. Pour cela, ils observent et analysent les expressions et les mouvements de leur interlocuteur : s’il regarde ailleurs, s’il montre qu’il n’a pas compris, s’il manifeste un désaccord. Et ce n’est pas simple. Car en plus des émotions « de base », définies par le psychologue américain Paul Ekman (tristesse, joie, peur, colère, surprise, dégoût), il existe des émotions plus complexes à déchiffrer pour un programme.
Comment, par exemple, distinguer la surprise de l’étonnement ou la tension de l’anxiété ? Interpréter un haussement de sourcils n’est pas non plus aisé. Veut-il dire bonjour ? Signifie-t-il la surprise ? L’emphase ? « Pour cela, il faut des informations sur le contexte, et c’est très difficile », souligne la chercheuse. Le comprendre est pourtant indispensable pour répondre à ces signaux de façon appropriée. Sinon, l’agent risque de créer un malentendu, une incompréhension, voire de couper le dialogue.
Car en imitant l’émotion, les programmes les plus avancés sont aussi en mesure… de générer de l’émotion chez les humains. Ainsi, le projet européen Semaine, auquel participait Catherine Pelachaud, a donné des résultats surprenants. Les agents développés étaient chacun dotés d’un état émotionnel fort, comme la tristesse, la colère ou la joie. Objectif : amener leur interlocuteur, humain, vers le même état émotionnel qu’eux. « Il y a eu des interactions absolument incroyables », se souvient la chercheuse, qui a mené ces expériences il y a cinq ans.
« Face à un agent dépressif, le sujet montrait de l’empathie. Parfois, l’état émotionnel du sujet changeait au milieu de la conversation. J’étais surprise qu’il y ait des interactions aussi riches, aussi naturelles. Car nos personnages ne bougeaient pas beaucoup, le modèle était assez simple. Mais le fait que le comportement arrive avec le bon timing nous a montré que nous avions réussi à obtenir un élément essentiel de la communication non verbale. »

Des résultats qui posent aussi des questions éthiques : si un programme est capable de détecter et d’influencer les émotions d’un être humain, que doit-il en faire ? « Si la machine peut faire changer l’état émotionnel d’une personne, on peut imaginer qu’elle s’en serve à des fins commerciales par exemple », prévient Catherine Pelachaud.
D’autres cherchent à exploiter cet aspect d’une autre façon. L’Institut pour les technologies créatives de l’université de Californie du Sud est l’un des plus avancés dans ce champ de recherche en intelligence artificielle. Les agents qu’il a réussi à fabriquer combinent le langage, la communication non verbale et une apparence réaliste. L’équipe de recherche emploie même le terme d’« humains virtuels » pour les désigner. Parmi les différents modèles qu’ils ont conçus, SimSensei est une sorte de psychologue, capable de mener une conversation avec un patient, en s’intéressant à ses émotions. Mais attention, précise l’institut sur Youtube, « SimSensei n’est pas conçu pour la thérapie ou de diagnostic médical, mais se veut un outil pour appuyer les équipes médicales ».

Malgré les avancées dans le domaine de l’informatique affective, on est encore bien loin des prédictions de Ray Kurzweil, le « pape » du transhumanisme embauché par Google en 2012. Dans un entretien au magazine américain Wired en avril 2013, il prévoit qu’en 2029, des programmes seront capables « d’intelligence émotionnelle, d’être drôles, de comprendre des blagues, d’être sexy, aimants et de comprendre l’émotion humaine. (…) C’est ce qui sépare les ordinateurs et les humains aujourd’hui. Je crois que ce fossé va se refermer d’ici 2029. »
Lire aussi : Ray Kurzweil, le salarié de Google qui veut terrasser la mort

Une vision qui exaspère le philosophe Jean-Michel Besnier : « Je suis inquiet de voir que l’intelligence artificielle impose un point de vue de plus en plus simplificateur sur l’être humain, qu’on ne peut pas réduire à ces signaux. Pour comprendre les émotions humaines, moi, je préfère me plonger dans la littérature ! »
En bref :
Ce dont l’intelligence artificielle est aujourd’hui capable :
simuler des émotions
détecter les émotions des humains et y répondre en temps réel
influencer les émotions de son interlocuteur
Ce qu’on ne sait pas faire :
doter un programme de conscience
un programme capable de ressentir des émotions
Les progrès qu’il reste à faire :
distinguer des émotions complexes
créer des agents ou robots assez réalistes pour dépasser la « vallée de l’étrange »
s’adapter au contexte

En savoir plus sur http://www.lemonde.fr/pixels/article/2015/10/12/intelligence-artificielle-une-machine-peut-elle-ressentir-de-l-emotion_4787837_4408996.html#DL2XWLzbyrvV31JT.99

 

DOCUMENT         lemonde.fr        LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon