ecole de musique piano
     
menu
 
 
 
 
 
 

LES NEUTRINOS DÉFIENT LES PHYSICIENS

 


Les neutrinos défient les physiciens


LA PHYSIQUE du XXIe siècle - par Gilles Cohen-Tannoudji, Étienne Klein dans mensuel n°466 daté juin 2012 à la page 38 (2255 mots) | Gratuit
Les neutrinos, infimes particules, n'en finissent pas d'intriguer. De nouvelles expériences cherchent à mettre à l'épreuve des théories divergentes quant à leur nature et à ouvrir la voie à une « nouvelle physique ».

Le 23 septembre 2011, des chercheurs de l'expérience Opera, installée dans le laboratoire souterrain du Gran Sasso, en Italie, présentaient un résultat intrigant : les neutrinos semblaient pouvoir aller plus vite que la lumière !

Cette annonce, qui laissa les physiciens plutôt sceptiques, déclencha un enthousiasme médiatique considérable : Einstein se serait donc trompé ?

Opera est une expérience internationale, destinée à observer le phénomène d'« oscillation de neutrinos » dont on attend qu'il nous renseigne sur la masse encore inconnue de ces particules. Elle utilise un faisceau de neutrinos de haute énergie produit par l'un des accélérateurs du CERN, à Genève, dirigé vers un détecteur installé à Gran Sasso, à environ 730 kilomètres de distance. L'avance de 60 nanosecondes affichée par les neutrinos, révélée par ses mesures, était donc sans rapport direct avec son objectif principal.

Depuis, à l'issue d'un long travail de détective, deux sources d'erreur expérimentale ont été découvertes : une mauvaise connexion entre un GPS et un ordinateur avait réduit le temps de vol des neutrinos de 75 nanosecondes, tandis qu'une horloge vibrant plus vite que prévu l'avait augmenté de 15 nanosecondes... La somme des deux effets explique les 60 nanosecondes d'avance, indûment constatées.

Icarus, une autre expérience installée au Gran Sasso, et ayant des objectifs voisins de ceux d'Opera, n'avait d'ailleurs pas confirmé l'anomalie détectée par sa consoeur. Quelques mois auront donc suffi pour que les choses « rentrent dans le rang », c'est-à-dire pour qu'on ait l'assurance que les neutrinos, comme toutes les autres particules, respectent le droit canon mis en place en 1905 par la théorie de la relativité restreinte. En d'autres termes, la vitesse de la lumière demeure toujours cohérente avec son anagramme : elle « limite les rêves au-delà ».

Le rôle de l'anomalie
Cet épisode n'est pas dénué d'enseignements. D'abord, il rappelle, s'il en était encore besoin, que les erreurs sont possibles en science, notamment lorsque les expériences sont d'une très grande complexité. Il montre également qu'il peut toujours arriver que des données nouvelles obligent les chercheurs à réexaminer leurs connaissances les mieux établies. Même lorsqu'il ne s'agit finalement que d'une fausse alerte, cet exercice n'est jamais inutile.

L'annonce des résultats d'Opera a suscité de nombreux échanges entre physiciens de différentes spécialités. Les uns ont expliqué que ces résultats ne pouvaient être pris au sérieux. Soit pour des raisons théoriques, comme les physiciens américains Andrew Cohen et Sheldon Glashow, qui ont très vite montré que de tels neutrinos supraluminiques auraient de toute façon perdu la quasi-totalité de leur énergie, par une sorte de rayonnement de freinage, avant d'atteindre le détecteur d'Opera [1]. Soit parce que ces résultats étaient en contradiction flagrante avec d'autres observations, notamment celles faites lors de l'explosion d'une supernova nommée 1987A [2].

D'autres chercheurs ont traqué les failles possibles ou les biais éventuels de l'expérience, concernant par exemple la synchronisation des horloges, la prise en compte des erreurs statistiques, les incertitudes sur les instants d'émission des neutrinos... D'autres ont proposé des interprétations alternatives du résultat, s'interrogeant en particulier sur la notion de temps de vol en théorie de la relativité générale.

D'autres encore ont tenté de « recycler » d'anciennes théories, notamment celle des « tachyons », particules hypothétiques supraluminiques satisfaisant malgré tout aux postulats de la relativité restreinte [3], ou bien ont réexaminé le statut du principe de causalité dans un cadre relativiste. D'autres enfin ont cherché à rendre compte des résultats d'Opera, soit à partir d'une nouvelle physique impliquant des neutrinos authentiquement supraluminiques, soit à partir de théories physiques encore à l'ébauche, comme la théorie des supercordes qui envisage des dimensions supplémentaires d'espace-temps que les neutrinos auraient pu emprunter entre Genève et l'Italie...

Ces diverses réactions, mises ensemble, sont venues enrichir une sorte de leçon d'épistémologie que l'histoire de la physique nous a déjà largement enseignée : d'une façon générale, lorsque le résultat d'une expérience ou d'une observation constitue une « anomalie » au sens où il contredit les prédictions d'une théorie par ailleurs solidement éprouvée, trois sortes d'hypothèse peuvent être simultanément envisagées :

1 - Le résultat expérimental tient à une erreur de mesure, ou à une mauvaise interprétation des données, comme cela fut le cas pour Opera.

2 - Il existe une « entité » ou une « substance » non encore découverte dont l'existence permettrait d'annuler le désaccord entre la théorie et l'expérience. La solution consiste alors à compléter le mobilier ontologique de l'Univers au nom de l'universalité de lois physiques bien établies par ailleurs. C'est ainsi qu'a été formulée l'hypothèse de la « matière noire » (lire « L'insaisissable nature de la matière noire », p. 48), censée expliquer que les galaxies subissent l'effet gravitationnel de masses plus importantes que les seules masses visibles. Et comme nous allons le voir - ironie de l'histoire -, c'est précisément ce type d'hypothèse qui a permis la prédiction de l'existence du neutrino en 1930.

3 - Les lois physiques sur lesquelles s'étaient appuyées les prédictions théoriques ne sont pas aussi exactes qu'on l'avait cru. Dans ce cas, la solution du problème est de nature législative : il faut corriger les lois physiques, peut-être même bâtir une nouvelle théorie, radicalement différente de la précédente. Ainsi, l'anomalie de l'avance du périhélie de Mercure constatée au XIXe siècle n'a été résolue que grâce à l'élaboration, en 1915, d'une nouvelle théorie de la gravitation, la relativité générale d'Einstein. Aujourd'hui, certains physiciens tentent d'ailleurs de corriger cette théorie afin de rendre compte du mouvement des galaxies sans faire l'hypothèse qu'une matière noire existe.

Aucun de ces trois types d'hypothèse ne peut être écarté a priori. L'histoire de la physique montre en effet qu'il n'existe pas de recette systématique permettant de prévoir laquelle se révélera finalement être la bonne : des crises ont été résolues de façon législative, d'autres par des ajouts ontologiques, d'autres enfin se sont évanouies lorsqu'il a été constaté qu'elles provenaient d'erreur de mesure ou d'interprétation.

Reste que les mésaventures d'Opera - qui sont en réalité l'aventure même de la recherche - ne retirent rien au parfum de mystère qui continue d'entourer les neutrinos, ni aux enjeux fondamentaux qui leur sont aujourd'hui associés et qui ont trait, pour la plupart d'entre eux, à des questions liées à leur masse, que l'on cherche toujours à déterminer. Il faut dire que, depuis qu'ils sont entrés dans le champ de la physique, les neutrinos ont toujours eu le statut de particules un peu « à part ».

Le petit du neutron
Tout commença avec l'épineux problème que constituait à la fin des années 1920 l'un des trois types de radioactivité, celle dite « ß » : lorsqu'un noyau contient trop de neutrons pour être stable, il se transforme en un autre noyau en émettant un électron. Au cours de l'année 1930, cette transformation nucléaire semblait encore très énigmatique. Les mesures indiquaient que l'énergie de l'électron émis n'est pas chaque fois la même.Elle peut prendre une valeur quelconque, tantôt grande, tantôt petite, alors qu'on s'attendait à ce qu'elle ait une valeur bien précise, toujours la même, celle qui correspond précisément à la différence d'énergie entre le noyau initial et le noyau final.

Ces résultats semblaient violer la loi de conservation de l'énergie qui, dans une telle situation, indique que l'énergie de l'électron doit être parfaitement déterminée. Pour sauver cette loi essentielle de la physique, Wolfgang Pauli fit une hypothèse audacieuse : contrairement aux apparences, le noyau ne se désintègre pas en deux corps (un autre noyau et un électron), mais en trois. Une troisième particule, pensa-t-il, est émise simultanément, qui emporte l'énergie manquante.

Le premier physicien à prendre cette idée au sérieux fut Enrico Fermi, qui baptisa « neutrino » la particule de Pauli, ce qui signifie en italien quelque chose comme « petit du neutron ». En 1933, quelques mois après la découverte du neutron par James Chadwick, il mit à profit ces deux nouvelles particules - le neutron et l'hypothétique neutrino - pour élaborer l'une de ses plus belles oeuvres, la théorie de la désintégration ß, qui s'appuie sur deux hypothèses : le proton et le neutron sont deux états différents d'un même objet fondamental ; quant à l'électron expulsé, il ne préexiste pas dans le noyau mais il est créé en même temps que le neutrino, lors du processus de transformation d'un neutron du noyau en un proton. Ce « modèle de Fermi » ouvrira un chapitre très important de la physique de l'interaction nucléaire « faible », cette force responsable de la désintégration ß et de bien d'autres phénomènes qui ont cours dans le monde de l'infiniment petit. Il est le précurseur de ce que l'on appelle aujourd'hui le « modèle standard » de la physique des particules.

Peu à peu, au gré des discussions entre physiciens, les caractéristiques du neutrino s'affinèrent : il s'agit d'abord d'une particule de masse très faible, peut-être nulle, de même spin* que l'électron ; elle interagit, en outre, à peine avec la matière, ce qui la rend très difficilement détectable. De fait, l'existence de cette particule presque insaisissable ne sera confirmée que vingt-cinq ans plus tard, en 1956, par deux Américains, Frederick Reines et Clyde Cowan, qui sauront profiter du très haut flux de neutrinos émis par le coeur d'un des premiers réacteurs nucléaires américains, à Savannah River, en Caroline du Sud, pour en capturer quelques-uns.

Masse exacte
Et aujourd'hui encore, les neutrinos (car il y en a de plusieurs espèces, capables d'osciller de l'une à l'autre dès lors que leur masse est non nulle) continuent de défier les physiciens. Certaines de leurs propriétés nous échappent encore. Quelle est leur masse exacte ? Sont-ils leurs propres antiparticules ? Cette dernière énigme, vieille de quatre-vingts ans, attend toujours sa réponse, avec une impatience grandissante

Neutrino et antineutrino ?
Dans les années 1930, un jeune prodige de la physique, Ettore Majorana, a proposé une alternative séduisante à la théorie de l'antimatière que Paul Dirac avait formulée en 1931. Sa « théorie symétrique de l'électron et du positron » demeure au coeur de certaines études expérimentales menées aujourd'hui sur les neutrinos, qui pourraient déboucher sur des résultats révolutionnaires. Pour Paul Dirac, à chaque particule de matière, même dépourvue de charge électrique, est associée une antiparticule qui ne lui est pas identique. Majorana, lui, envisage les choses autrement : il propose une équation, différente de celle de Dirac, pour laquelle les particules neutres, sans charge électrique donc, sont nécessairement identiques à leurs propres antiparticules.

À ce jour, personne ne sait lequel de ces deux génies avait vu juste. Mais le neutrino, parce qu'il est la seule particule de matière qui soit à la fois élémentaire et électriquement neutre, pourrait trancher le débat. S'il avait une masse nulle, comme le supposait Pauli, le fait qu'il soit « de Dirac » ou « de Majorana » importerait peu, car cela ne conduirait à aucune différence de comportement. Mais on sait depuis 2001 que ce n'est pas le cas : Raymond Davis et Masatoshi Koshiba ont reçu en 2002 le prix Nobel pour avoir établi que les neutrinos sont bel et bien massifs, sans pouvoir toutefois préciser la valeur exacte de leur masse. Il n'est donc plus indifférent de savoir si les neutrinos sont identiques ou non à leur propre antiparticule, dès lors qu'on peut imaginer des expériences qui conduiraient à des résultats différents dans l'un et l'autre cas.

Mais comment faire ? Il arrive que des paires de neutrinos soient produites lors d'événements extrêmement rares, comme la « double désintégration ß » où, au lieu d'un électron et un neutrino comme dans la désintégration ß classique, ce sont simultanément deux électrons et deux neutrinos (en fait deux antineutrinos) qui sont émis par un noyau atomique [fig.1]. Cette désintégration, spécifique de certains noyaux tels le calcium 48, le germanium 76, le sélénium 82 et quelques autres, ne survient que très rarement (les demi-vies* radioactives de ces noyaux sont de l'ordre de 1020 ans ). Mais des physiciens essaient aujourd'hui de détecter des événements encore plus rares où seuls deux électrons seraient émis, c'est-à-dire sans émission d'aucun neutrino. Leur idée est que, si le neutrino était identique à sa propre antiparticule, il devrait pouvoir s'annihiler dès qu'il rencontre l'un de ses congénères, neutrino ou antineutrino, de sorte que les deux neutrinos émis par désintégration ß pourraient disparaître de l'état final.

Plusieurs expériences internationales sont actuellement sur les rangs pour traquer cette « double désintégration ß sans émission de neutrino ». Le premier démonstrateur de Supernemo devrait être installé au laboratoire de Modane dans le tunnel du Fréjus à la fin 2014. Gerda est déjà en développement dans le souterrain du Gran Sasso qui doit aussi héberger sa consoeur Cuore. D'autres expériences, Exo et Majorana, devraient démarrer aux États-Unis... Le principe est de rassembler la plus grande quantité d'atomes candidats, par exemple du sélénium 82 pour Supernemo, ou du germanium 76 pour Gerda, de les protéger du rayonnement cosmique dans un souterrain, et d'attendre patiemment qu'un tel phénomène se produise et se laisse détecter.

Cette nouvelle génération d'expériences vise à atteindre la centaine de kilogrammes de l'élément choisi, soit un ordre de grandeur de plus que la génération précédente. Selon la théorie de Dirac, cette nouvelle forme de radioactivité est rigoureusement impossible, alors qu'elle doit pouvoir être observée, selon la théorie de Majorana. Sans aucun doute, sa mise en évidence serait une découverte cruciale puisqu'elle obligerait à modifier le statut des neutrinos dans l'actuel modèle standard de la physique des particules et ouvrirait la voie à une « nouvelle physique ».

Par Gilles Cohen-Tannoudji, Étienne Klein

 

 DOCUMENT       larecherche.fr       LIEN

 
 
 
 

PREMIER CERVEAU ARTIFICIEL

 

Le premier cerveau artificiel "in silico"
Elena SenderPar Elena Sender

Publié le 08-10-2015 à 18h08

Historique : pour la première fois un échantillon de cerveau a été modélisé et fonctionne comme un vrai.
La première simulation virtuelle d’un cortex de rat. © EPFLLa première simulation virtuelle d’un cortex de rat. © EPFL


SIMULATION. Ils l’ont rêvé, ils l’ont fait. 82 chercheurs d’équipes internationales ont produit la première simulation virtuelle d’un cortex de rat, mimant parfaitement les neurones biologiques. Une petite portion du moins. Telle est l’information inédite que publie, en Une de la prestigieuse revue Cell, le consortium Blue Brain Project, le centre de simulation du Human Brain Project, hébergé par l’École polytechnique fédérale de Lausanne (EPFL).

Nous sommes encore loin du cerveau entier, bien sûr ! Nous parlons là de la simulation de 0,3 mm3 de tissu cérébral mais c’est déjà un exploit. Cet échantillon contient à lui seul 31 000 neurones, 8 millions de connexions formant 40 millions de synapses, parfaitement virtuels. Le tout fonctionnel comme un vrai ! Le modèle est désormais à disposition sur un portail Web public afin que les chercheurs du monde puissent l’utiliser.

“Cette publication constitue une magistrale preuve de concept pour la simulation du cerveau", se félicite Patrick Aebischer, président de l’EPFL qui a soutenu depuis le début le Blue Brain Project, fondé par Henri Markram et mis en œuvre par l’EPFL mais aussi des équipes de recherches en Israël, Espagne, Hongrie, États-Unis, Chine, Suède et Royaume Uni.

 

COLLECTE. Comment ont-ils fait ? Pendant deux décennies, véritable travail de fourmi, les scientifiques ont collecté des milliers de données anatomiques et physiologiques sur des cerveaux de rats. Ils ont consciencieusement décrit par le menu chaque neurone et chaque synapse ainsi que leurs interactions d’une zone bien particulière : le néocortex. C’est la couche fine qui recouvre les hémisphères cérébraux, siège des fonctions cognitives les plus évoluées, composé de six couches de neurones de types différents interconnectés. En réalisant des milliers d’expériences sur ces neurones et synapses, ils en ont défini les différents types et ont identifié des règles fondamentales qui régissent la manière dont les neurones sont agencés et connectés dans des microcircuits.

Puis, ces dix dernières années, les modélisateurs ont traduit ces données en équations mathématiques pour pouvoir les rendre plus vraies que nature dans le programme de simulation. Et, grâce à la puissance du supercalculateur Blue Gene (65 536 processeurs, 839 téraflops de performance, et 65 téraoctets de ram…) le modèle a pu s’animer.

“L’algorithme commence par mettre en place des modèles 3D réalistes de neurones dans un volume virtuel, en respectant la distribution mesurée de différents types de neurones à différentes profondeurs, explique Michael Reimann, un des auteurs principaux (EPFL) qui a développé l’algorithme utilisé pour prédire l’emplacement de près des  millions de synapses dans les microcircuits. Ensuite, il détecte tous les endroits où les branches des neurones se touchent — près de 600 millions. Puis il coupe systématiquement tous les contacts qui ne répondent pas à cinq règles biologiques de connectivité. Il reste 37 millions de contacts, qui sont les endroits où nous avons construit nos synapses-modèles.”

Ces outils informatiques sont prometteurs pour la recherche en neurosciences

Résultat : une stupéfiante colonne de milliers de neurones connectés qui tourne sur l’écran du moniteur. Mais surtout : les statistiques de connectivité du modèle simulé et les mesures expérimentales faites sur les tissus biologiques concordent ! Javier de Felipe, auteur de l’étude, de l’Université polytechnique de Madrid, l’assure en effet ; la reconstitution numérique correspond bien aux données fournies par les puissants microscopes électroniques obtenues par ailleurs.

“Ces outils informatiques, désormais à disposition des chercheurs du monde entier, sont prometteurs pour la recherche en neurosciences”, poursuit Patrick Aebischer. “C’est un jour spécial pour nous, et pour moi c’est un pic d’accomplissement personnel, confie également Idan Seguev, coauteur de l'étude, de l’Université hébraïque de Jérusalem. C’est un moment historique, la première fois qu’un circuit cérébral complet est reconstruit virtuellement. Nous pouvons l’utiliser pour faire de nombreuses prédictions, et surtout les données sont désormais en libre accès et disponibles pour tous.” L’objectif de ce modèle est, en effet, à partir de maintenant d’être utilisé par le plus grand nombre pour mener à bien des expériences.

Ce n’est pourtant qu’un début. Le modèle, imparfait, ne prend pas encore en compte les cellules gliales, aussi nombreuses que les neurones et nécessaires à leur métabolisme. Ni la plasticité, c’est-à-dire la capacité des neurones et de leurs connexions à être modifiés dans le temps. En outre, si la puissance des supercalculateurs disponible est suffisante d’après l’EPFL pour numériser un cerveau de rat complet, il faudra largement plus pour simuler un cerveau humain!

Quoi qu’il en soit, les chercheurs du Blue Brain Project au sein du Human Brain Project qui a été maintes fois controversé l’affirment : les reconstructions numériques et les simulations fournissent une nouvelle manière de faire des neurosciences, ce qu’on appelle les neurosciences in silico. “Tout a commencé avec Santiago Ramon y Cajal (1852-1934, ce histologiste qui décrivit l’anatomie du système nerveux), conclut Idan Segev. Mais sur le papier il n’y avait ni activité ni connectivité. Aujourd’hui nous avons bien plus. Il aurait été heureux.”


DOCUMENT        sciencesetavenir.fr      LIEN

 
 
 
 

INTELLIGENCE ARTIFICIELLE 3

 

Intelligence artificielle : quand la machine imite l’artiste


Certaines peignent à la façon des grands maîtres, d’autres improvisent sur du jazz… Dotés d’une forme d’imagination, certains programmes d’intelligence artificielle parviennent désormais à concurrencer l’esprit humain.
Abonnez vous à partir de 1 €  Réagir ClasserPartager (1 784)Tweeter
Le Monde.fr | 08.09.2015 à 16h37 • Mis à jour le 12.10.2015 à 16h22 | Par Morgane Tual

Cet article est le premier épisode d’une série consacrée à l’état des lieux de l’intelligence artificielle.
Un algorithme capable de générer des œuvres proches de celles de Picasso ou de Van Gogh : c’est ce qu’a récemment conçu une équipe de chercheurs allemands, qui détaillent leur invention dans un article publié fin août 2015. En analysant les tableaux de ces artistes prestigieux, la machine est capable « d’apprendre » leur style, grâce au deep learning, et de le calquer sur n’importe quelle photo. Avec un résultat impressionnant, obtenu en moins d’une heure.
image: http://s2.lemde.fr/image/2015/09/08/644x0/4749250_6_1e1b_le-programme-peut-transformer-n-importe-quelle_8f2e937040598250f444ded1bc1430d0.jpg
Le programme peut transformer n'importe quelle image et l'adapter dans le style d'un peintre.
Le programme peut transformer n'importe quelle image et l'adapter dans le style d'un peintre. LEON A. GATYS/ALEXANDER S. ECKER/MATTHIAS BETHGE
Les machines seraient-elles donc en mesure de concurrencer les hommes dans le domaine de la créativité ? Celle-ci fait partie, avec la conscience et les émotions, des attributs souvent avancés pour distinguer l’humain de la machine. Un programme serait-il capable de concevoir des peintures émouvantes, d’imaginer des histoires palpitantes ou de rivaliser avec le génie de composition de Mozart ? Des chercheurs en intelligence artificielle (IA) s’y emploient.
Lire : Comment le « deep learning » révolutionne l'intelligence artificielle

Question récurrente
Mais de quoi parle-t-on ? La notion de créativité fait l’objet de débats dans la communauté de recherche. S’agit-il de capacité artistique ? D’imagination ? D’inventivité ? Ou même de capacité à résoudre des problèmes ? Une question récurrente dans le domaine de l’IA, où la notion même d’intelligence fait l’objet de débats. « Quand Alan Turing a écrit son article fondateur sur l’intelligence artificielle, il fut confronté à ce problème de définition », explique Mark Riedl, chercheur en IA au Georgia institute of technology (à Atlanta, Etats-Unis). « Il a préféré inventer un test, qui, basiquement, dit que si le comportement d’une machine est impossible à distinguer de celui d’un être humain, alors la machine est considérée comme intelligente. »
Mark Riedl a suivi la même démarche pour la créativité, en concevant, en 2014, le test Lovelace 2.0. Dans cette expérience, les juges demandent à un programme de créer une œuvre (peinture, poésie, architecture…) en lui imposant un thème, non défini à l’avance. Aucune machine n’a pour l’instant réussi à le passer. Mais Mark Riedl pense que cela est possible. Pour lui, les machines sont déjà capables de créativité, dans une certaine mesure :
« Beaucoup de gens pensent à de grands artistes quand on utilise le terme de créativité. Mais chaque humain est créatif dans une certaine mesure, et cette créativité se manifeste au quotidien, des dizaines ou des centaines de fois par jour. Nous faisons preuve de créativité quand nous jouons au Pictionary, quand nous utilisons un trombone pour réparer une paire de lunettes ou quand nous trouvons un autre itinéraire pour rentrer chez nous si une route est fermée. Les ordinateurs sont déjà dotés de cette forme de créativité. »
Combiner des éléments déjà enregistrés
Mais au-delà, un certain nombre de programmes sont déjà capables de se montrer créatifs dans le domaine artistique, en faisant appel à une forme d’imagination. « Toute imagination est vue comme la recombinaison d’éléments de mémoire préexistants », explique Jean-Gabriel Ganascia, chercheur au laboratoire d’informatique de Paris-VI, dans son livre Idées reçues sur l’intelligence artificielle. Il cite comme exemple la licorne, « produit par excellence de notre imagination », qui combine deux êtres réels connus de l’homme : le cheval et le narval. La créativité artistique des machines va généralement fonctionner de cette façon, en combinant des éléments déjà enregistrés pour en créer de nouveaux. Avec des résultats intéressants.
Emily Howell compose de la musique classique
David Cope, professeur de musique et d’informatique à l’université de Californie, a travaillé ces dernières décennies sur une machine capable de composer de la musique classique. Son premier programme, baptisé EMI, « s’inspire » de grands compositeurs pour créer ses propres musiques. Concrètement, David Cope « nourrit » EMI de nombreuses musiques de Vivaldi, par exemple, qu’elle va analyser, dans le but d’identifier des motifs et des règles. A partir de ces schémas, elle est capable de confectionner ses propres compositions, dans un style proche de celui du compositeur.

David Cope a décidé d’aller plus loin en inventant un autre programme, baptisé Emily Howell. Il fonctionne de la même manière, mais se nourrit des créations d’EMI pour concevoir sa propre musique, ce qui donne un style plus « personnel », proche de la musique contemporaine. Emily Howell a sorti son premier album en 2010.

Shimon improvise sur du jazz
Sur un principe similaire, Shimon, conçu par le roboticien Guy Hoffman, est capable d’improviser en direct sur de la musique jazz, à partir d’un modèle statistique fondé sur les improvisations du pianiste Thelonious Monk. Dans cette vidéo, le robot s’adapte en temps réel à la musique, qu’il découvre, jouée par son concepteur.

Scheherazade écrit des histoires
Se nourrir des œuvres des autres pour repérer des récurrences : c’est aussi ce que fait Scheherazade, un programme capable de rédiger de courtes fictions d’un ou deux paragraphes. Son concepteur, Mark Riedl – l’inventeur du test Lovelace 2.0 –, la nourrit par exemple de récits de braquage de banque s’il souhaite qu’elle invente une histoire sur le sujet. « Elle n’utilise aucune connaissance préprogrammée, elle apprend tout ce qu’elle doit savoir pour créer son histoire. » Les récits produits sont, assure-t-il, « difficiles à distinguer de ceux écrits par les humains ».
Watson invente des recettes de cuisine
Cette technique a aussi permis à Watson, le programme d’intelligence artificielle star du constructeur IBM, de concocter des recettes de cuisine, après avoir en avoir analysé des milliers. Des chefs ont mis à exécution les recettes inventées par la machine, plus ou moins étranges, comme le cocktail à base de cidre et de pancetta, ou le burrito au bœuf agrémenté de chocolat et de fèves de soja. Les meilleures ont été rassemblées dans un livre, Cognitive Cooking with Chef Watson. « Ça ressemble à un restaurant très étrange de cuisine fusion » estime dans un article une journaliste de CNN qui a eu l’occasion de goûter cette cuisine. Une application est même disponible pour permettre aux internautes de « créer des plats uniques avec Watson ». Après une semaine de test, un blogueur, plutôt convaincu, a néanmoins précisé qu’il fallait faire quelques ajustements : « Demandez-vous si vous voulez vraiment ajouter de la purée de pommes de terre dans ces lasagnes ».
« Un point de vue unique » sur l’humanité
L’intelligence artificielle est donc d’ores et déjà capable de certaines formes de créativité, mais elle a néanmoins ses limites. « Si les humains peuvent être créatifs dans différents domaines, la plupart des algorithmes se concentrent sur une seule chose », souligne Mark Riedl. « Un générateur de poésie ne peut pas dessiner, par exemple. »
Mais surtout, la machine manque peut-être d’attributs propres à l’être humain, potentiellement essentiels pour égaler sa créativité. Pour Michael Cook, chercheur associé à l’université de Londres, à l’origine d’un programme capable d’inventer des jeux vidéo, les machines ne ressentent pas d’émotion, ce qui représente un frein à leur capacité créatrice :
« Ce genre de chose est vraiment importante pour la créativité – c’est comme ça qu’on se sent lié aux autres, qu’on est touché par des artistes. Nous comprenons souvent le travail des artistes en le comparant avec nos propres vies. Expérimenter la guerre, l’amour, avoir une histoire avec une ville, un pays… L’IA a du mal à avoir ce genre d’impact car nous partageons moins de choses avec elle qu’avec d’autres humains. »
Toutefois, souligne-t-il, cette différence fondamentale pourrait aussi représenter un avantage : « L’IA peut nous offrir un point de vue unique : un aperçu de l’humanité vu de l’extérieur. Nous n’avons pas vraiment commencé à l’exploiter, mais je crois qu’un jour, nous le ferons. »
Résultats étranges et imprévisibles
image: http://s1.lemde.fr/image/2015/09/08/644x0/4749253_6_8a8f_une-foret-vue-par-deep-dream_31748f9c02e5e7def67dabc31b22d4b7.jpg
Une forêt, vue par Deep Dream.
Une forêt, vue par Deep Dream. JOAN CAMPDERROS-I-CANAS
Enfin, l’intelligence artificielle pourrait aussi permettre aux humains d’en apprendre plus sur leur propre créativité… Une équipe de recherche de Google a ainsi inventé cette année un programme, Deep Dream, qui crée des images fantasmagoriques impressionnantes, évoquant les rêves, qui rappellent parfois les toiles du peintre néerlandais Jérôme Bosch. Ce programme n’a pourtant pas été conçu pour être créatif ; Deep Dream fait partie d’un projet de recherche sur l’apprentissage des machines.
Lire : On a testé pour vous… Deep Dream, la machine à rêves psychédéliques de Google

Créé par une équipe de Google, il est « nourri » de millions d’images, pour apprendre à y détecter des formes. Ensuite, en lui donnant une nouvelle image, les ingénieurs lui demandent : « quoi que tu voies, on en veut plus ! ». « Si un nuage ressemble un peu à un oiseau, le [programme] va le faire ressembler encore plus à un oiseau » expliquent-ils sur un blog. Et cela donne ces résultats étranges et imprévisibles, qui, plus de deux mois après, continuent à passionner les internautes.
L’expérience, aux résultats impressionnants, a ouvert de nouveaux questionnements aux chercheurs. Pour eux, Deep Dream « pourrait devenir un outil pour les artistes – une nouvelle manière de remixer des concepts visuels – ou peut-être même apporter un petit éclairage sur les racines du processus créatif en général. »
Lire dans la même série : Intelligence artificielle : une machine peut-elle ressentir de l’émotion ?

Lire aussi : Intelligence artificielle : une machine est-elle capable de philosopher ?

Morgane Tual

En savoir plus sur http://www.lemonde.fr/pixels/article/2015/09/08/intelligence-artificielle-les-machines-peuvent-elles-etre-creatives_4749254_4408996.html#GM6CrCbKTGUHO7KV.99

 

DOCUMENT         lemonde.fr       LIEN

 
 
 
 

INTELLIGENCE ARTIFICIELLE 2

 

Intelligence artificielle : une machine est-elle capable de philosopher ?


Alors qu’Apple vient encore d’améliorer son assistant vocal Siri, de quoi sont aujourd’hui capables les intelligences artificielles les plus avancées en matière de conversation ?
Abonnez vous à partir de 1 €  Réagir ClasserPartager (1 175)Tweeter
Le Monde.fr | 18.09.2015 à 19h57 • Mis à jour le 12.10.2015 à 16h23 | Par Morgane Tual

image: http://s2.lemde.fr/image/2015/09/18/644x0/4763041_6_88af_si-certains-programmes-sont-aujourd-hui_c988917af64edf0ad9ad514e405f9f43.jpg
Si certains programmes sont aujourd'hui capables de mener des conversations simples, ils sont encore très loin de comprendre leur sens.
Si certains programmes sont aujourd'hui capables de mener des conversations simples, ils sont encore très loin de comprendre leur sens.
Cet article fait partie d’une série consacrée à l’état des lieux de l’intelligence artificielle.
De C-3PO à HAL, en passant par l’héroïne virtuelle du film Her, le fantasme d’une intelligence artificielle (IA) aussi évoluée que celle de l’homme passe, dans l’imaginaire collectif, par une machine capable de communiquer naturellement avec son interlocuteur. Avec l’apparition, ces dernières années, d’outils tels que Siri, qu’Apple vient encore de peaufiner, au fond de nos poches, des progrès considérables semblent avoir été faits dans cette direction. Mais où en est-on vraiment ? Dans quelle mesure l’IA est-elle aujourd’hui capable de parler, de dialoguer, de répondre à nos questions et surtout, de comprendre le sens du langage ?
Un dialogue primaire
Les assistants vocaux Siri et Cortana (Microsoft) font partie des exemples les plus aboutis en la matière, capables de comprendre une grande partie de nos requêtes et d’y répondre. Mais ils atteignent très vite leurs limites : une question « mal » formulée ou ambiguë donnera une réponse insatisfaisante ou absurde. Et si vous vous éloignez des questions concrètes sur les horaires d’une séance de cinéma ou l’état de la circulation, ces intelligences artificielles vous répondront souvent par une pirouette préprogrammée : on est encore loin d’une discussion « naturelle » telle qu’on pourrait en avoir une avec un ami ou un droïde de protocole. Et cela ne devrait pas changer de sitôt.
La technologie derrière ces outils est similaire à celle utilisée par la plupart des « chatbots », ou agents conversationnels. En premier lieu, la machine repère des mots-clés dans la phrase de son interlocuteur. Elle va ensuite rechercher dans une base de données la réponse qui semble statistiquement la plus appropriée, en regardant avec quels contenus ces mots-clés sont régulièrement mis en relation. Ce principe n’est pas neuf : comme de nombreuses technologies liées à l’IA, il existait déjà dans les années 1980. Mais la masse de données désormais accessible, la puissance de calcul disponible et les progrès du « machine learning » (l’apprentissage des machines) ont considérablement changé la donne et rendu ces technologies bien plus efficaces.
Lire : Comment le « deep learning » révolutionne l'intelligence artificielle
Ainsi, l’IA star d’IBM, nommée Watson, a réalisé un petit exploit en 2011 en battant ses adversaires humains au jeu télévisé américain « Jeopardy! ». Dans ce classique de la télévision américaine, le présentateur lit une réponse et les participants doivent deviner la question qui s’y rapporte. Après deux jours de compétition, Watson avait écrasé ses concurrents – une étape symbolique dans l’histoire de l’intelligence artificielle.

En quête de sens
Mais malgré l’efficacité de ces technologies, « elles restent confinées à des domaines spécifiques», explique Gérard Sabah, chercheur retraité du CNRS, qui a consacré sa carrière aux questions d’IA et de langage. « Elles sont faites pour interroger Internet, et ne vont pas fonctionner pour des questions philosophiques complexes. » Des chercheurs de Google ont pourtant dévoilé en juin une IA capable, entre autres, de répondre à des questions sur le sens de la vie, sans que les réponses ne soient rédigées par les ingénieurs, comme c’est le cas pour Siri sur ce type de questions. Nourrie de 62 millions de phrases issues de sous-titres de films, elle utilise des techniques d’apprentissage pour piocher dans ces données et fournir des réponses la plupart du temps correctes, sur le fond comme sur la forme :
Humain — Qui est Skywalker ?
Machine — C’est un héros.
Humain — Le ciel est-il bleu ou noir ?
Machine — Bleu.
Humain — Combien de pattes a un chat ?
Machine — Quatre, je crois.
Humain — Quel est le but de la vie ?
Machine — Etre au service du plus grand bien.
Avec parfois quelques ratés :
Humain — Quel est ton travail ?
Machine — Je suis avocat.
Humain — Que fais-tu dans la vie ?
Machine — Je suis docteur.
Malgré les progrès conséquents de ces différents systèmes, ce type d’imperfection demeure. Des problèmes liés à un manquement profond de ces technologies, souligne Gérard Sabah :
« Les phrases produites sont correctes, car la machine part de phrases existantes et les modifie en remplaçant certains mots par rapport à la question posée. Mais il reste des incohérences, car les aspects sémantiques profonds ne sont pas pris en compte. Le résultat qui sort est la réponse statistique la plus probable, mais la machine ne la comprend pas. »
Le langage humain est un système de communication bien plus complexe que la programmation informatique ou le clic, qui ne comportent aucune ambiguïté. La connaissance nécessaire pour traiter le langage est vaste : vocabulaire, syntaxe, grammaire… Sans compter le fait que chaque mot possède plusieurs sens, que le langage évolue et que la signification d’une phrase diffère selon son contexte.
Pour parvenir à une IA capable de comprendre le sens du langage, multiplier la puissance de calcul et le nombre de données ne suffira pas, selon Gérard Sabah :
« Pour aller jusqu’au robot de science-fiction, il faudrait développer des méthodes permettant une véritable représentation du sens, et pas un mécanisme fondé sur les statistiques. Avant, on imaginait une IA désincarnée, séparée des aspects biologiques, culturels, sociologiques du monde… Or, il faut prendre en considération tous les aspects de la vie sociale pour avoir une vraie compréhension du sens. Les limites ne seront pas dépassées tant que la machine ne saura pas se référer à une expérience concrète dans le monde réel. »
La piste des robots
Et cela pourrait passer par la robotique. Le chercheur Luc Steels travaille depuis des années sur la question, au sein de l’institut de recherche Icrea en Espagne, après avoir fondé le laboratoire Sony CSL à Paris. Lui qualifie les systèmes actuels d’« idiots savants » et tente d’aller plus loin, en faisant expérimenter le monde à des intelligences artificielles :
« Prenez le mot “rouge”dans le dictionnaire. Sa définition est très différente de l’expérience du rouge. Avec cette définition, le système ne peut pas dire si un objet est rouge. Car le sens est lié à la relation entre le langage et le monde. Pour comprendre le langage, Wikipédia ne suffit pas : il faut ancrer l’agent intelligent dans le monde réel, avec un corps, des capteurs, la capacité d’interagir. »
Dans une de ses expériences, deux robots sont entourés d’objets. L’un prend l’initiative et prononce un mot, qu’il associe « dans sa tête » à l’un des objets. Ce mot, « bolima » dans la vidéo ci-dessous, est fabriqué au hasard. L’autre robot ne connaît pas sa signification : il désigne le mauvais objet. Le premier robot lui signale d’un signe de tête qu’il s’est trompé, puis lui indique l’objet qu’il appelle « bolima ». A partir de là, les deux robots se sont mis d’accord sur ce mot pour définir l’objet. En clair : ces agents perçoivent le monde de différents points de vue et apprennent de façon autonome à communiquer pour se comprendre, avec leur propre vocabulaire.
Voir cette expérience à 4’30 :

Un des anciens élèves de Luc Steels, Pierre-Yves Oudeyer, aujourd’hui directeur de recherches à l’Institut national de recherche en informatique et en automatique, travaille aussi sur la façon dont un groupe de robots est capable de se mettre d’accord sur un modèle linguistique. Dans l’expérience Ergo-robots qu’il a présentée à la Fondation Cartier en 2011, avec un design de David Lynch, cinq robots construisent une langue à partir des éléments qu’ils perçoivent dans leur environnement, comme des objets ou les mouvements des visiteurs. Ils produisent des mots au hasard, qu’ils associent chacun à un sens. « Au début, c’est le bazar, explique Pierre-Yves Oudeyer. Mais progressivement, certains mots vont se propager à toute la population de robots. »

Et quand l’expérience recommence à zéro et que les robots sont réinitialisés, un tout autre langage va se mettre progressivement en place. Ce type de recherche, en plus de faire progresser la recherche sur l’IA, permet aussi de travailler sur la question de l’origine du langage chez les humains.
Avec ces travaux, poursuit Luc Steels, « on essaie de voir comment des concepts peuvent émerger. On est dans l’interaction dans le temps, pas dans des données et des statistiques. Chaque individu développe une connaissance spécifique du monde. » Ce qui, selon Gérard Sabah, est indispensable pour comprendre le sens des mots :
« L’ensemble des connaissances est tel qu’on ne sait pas les représenter toutes dans un programme. Il faut qu’elles soient acquises petit à petit. Un enfant met des années à acquérir des représentations pertinentes sur le monde. On ne pourra obtenir des mécanismes intelligents que par l’apprentissage. »
En bref :
Ce dont l’intelligence artificielle est aujourd’hui capable :
Comprendre (à peu près) ce qu’on lui demande
S’exprimer correctement
Répondre à des questions simples
Ce qu’elle ne sait pas faire :
Comprendre le sens du langage
S’adapter au contexte
Les progrès qu’il reste à faire :
Expérimenter le monde pour comprendre le sens du langage
Inventer son propre langage

En savoir plus sur http://www.lemonde.fr/pixels/article/2015/09/18/intelligence-artificielle-une-machine-est-elle-capable-de-philosopher_4763043_4408996.html#2q5GOzLBU03avAHm.99

 

DOCUMENT       lemonde.fr       LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon