ecole de musique piano
     
menu
 
 
 
 
 
 

MODÈLES ET SIMULATIONS

 

Texte de la 15ème conférence de l'Université de tous les savoirs réalisée le 15 janvier 2000 par Daniel Parrochia


L'expérience dans les sciences : modèles et simulation


"Expérience", du verbe latin "experiri", faire l'essai de, s'introduit en français au XIIIème siècle avec Jean de Meung. Le mot "Expérimenter", du bas latin "experimentare", "essai", remonte au XIVème siècle. Au début du XVIème siècle apparaît en français l'adjectif "expérimental", mais la notion même d"'expérimentation" reste absente des dictionnaires jusqu'en 1824. Et ce n'est qu'en 1865, avec l'Introduction à l'étude de la médecine expérimentale de Claude-Bernard, que le recours à l'expérience trouvera toute son extension, au moment même où l'on s'efforce de transposer la méthodologie victorieuse des sciences de la nature dans le domaine des sciences de la vie.
Inexistante dans l'Antiquité, sous-estimée par Descartes, mais prépondérante dans les sciences à partir de Newton, l'expérience devient donc, à l'époque de Claude-Bernard, un des facteurs incontournables des sciences de la nature et de la vie.
Ce moment d'acmé est en même temps un point d'inflexion. Dans la physique du XIXème siècle, la détermination d'objets scientifiques repasse par la construction de modèles théoriques permettant d'aborder des champs nouveaux sur des bases formelles identiques.
Aujourd'hui, la simulation informatique des tests expérimentaux fait perdre son empiricité à l'expérience et semble la réinstaller en partie au sein du théorique. Quelles sont donc les limites de cette réintégration ? C'est ce que nous chercherons à définir.
1. La carence expérimentale de la science dans l'Antiquité et à la l'Âge classique
Dans l'Antiquité, sous l'influence de Platon, l'expérience est dévaluée et réduite à la simple observation, contingente et dépourvue de valeur probatoire. Le Thééthète (163 c) distingue soigneusement perception et connaissance, la seconde reposant sur la mémoire et mettant en oeuvre les mécanismes de réminiscence que le Ménon avait présentés autrefois comme solidaires de la rationalité.
Aristote lui-même n'a ni l'idée d'une critique de la perception sensible ordinaire, ni le sentiment de l'importance que peut revêtir pour la science une mesure exacte. Certes, ses traités biologiques révèlent qu'il pratiquait la dissection des animaux. Et sa Physique (II, 4) comme son Traité Du Ciel (II 13 294 b 30), contiennent bien quelques expérimentations. Celles-ci restent toutefois peu nombreuses et limitées. Comme le note Jean-Marie Leblond, «Aristote ne possédait pas des instruments assez perfectionnés et assez exacts pour que le travail de laboratoire put être bien fructueux pour lui» et son «penchant très marqué pour l'observation commune l'en éloignait» [réf 1].
Force est donc de constater que les deux plus grands philosophes de l'antiquité ne connaissent en fait ni méthode expérimentale ni modèles, ni procédés de simulation.
Au XVIIe siècle, dans la perspective anti-aristotélicienne qui est celle de Descartes, le sensible est dévalorisé et la voie mathématique déductive préconisée, en vue d'une physique quantitative fondée en raison. Dans le Traité du Monde et encore au début du Traité de l'Homme, cette déduction est même présentée comme la reconstitution d'un monde fictif, analogue du vrai, et dans lequel les hommes, les corps, les choses sont des automates simplifiés simulant les hommes, corps et choses réelles. Avec cette «fable du monde», le philosophe construit donc une maquette théorique, une sorte de «modèle» (de modulus, diminutif, de modus, moule) de la réalité.
Dans cette perspective déductive, les expériences ne jouent qu'un rôle fort limité, comme le montre bien le Discours de la Méthode [réf 2] :
(1) La nécessité des expériences est proportionnelle à l'avancement des connaissances. Au commencement, les expériences sont à manipuler avec prudence, de sorte que Descartes les restreint aux intuitions immédiates et rejette les expériences plus élaborées, alléguant ici deux explications : d'une part, l'impossibilité de leur assigner une cause quand on ignore les grands principes; d'autre part, le caractère contingent et variable du contexte expérimental.
(2) Quand la connaissance progresse, les expériences, certes, deviennent nécessaires, mais elles ont surtout un rôle d'adjuvant, et servent surtout à pallier les limites de la théorie pure. Les raisons de cette fonction sont multiples :
a) La première est liée à l'écart existant entre la puissance de la déduction mathématique, qui porte sur le possible et enveloppe l'indéfini (sinon l'infini), et la réalité toujours finie et limitée du monde existant. «Lorsque j'ai voulu descendre [aux choses] les plus particulières, écrit Descartes, il s'en est tant présenté à moi de diverses que je n'ai pas cru qu'il fût possible à l'esprit humain de distinguer les formes ou espèces de corps qui sont sur la terre d'une infinité d'autres qui pourraient y être si c'eût été le vouloir de Dieu de les y mettre». Objectivement, distinguer le réel du possible suppose donc un recours aux expériences.
Mais subjectivement, la visée eudémoniste de la science oblige à privilégier, parmi les faits déductibles possibles, ceux qui nous sont utiles. Or, pour distinguer, parmi les choses possibles, celles que nous pourrons, comme dit Descartes, «rapporter à notre usage», il convient «qu'on vienne au-devant des causes par les effets, et qu'on se serve de plusieurs expériences particulières».
b) Une seconde raison rend les expériences plus nécessaires au fur et à mesure que la connaissance s'avance, qui tient, cette fois-ci, dans l'écart entre la puissance de la nature et la simplicité des principes posés en tête de la déduction. «Il faut aussi que j'avoue, écrit Descartes, que la puissance de la nature est si ample et si vaste, et que ces principes sont si simples et si généraux, que je ne remarque quasi plus aucun effet particulier que d'abord je ne connaisse qu'il peut en être déduit en plusieurs diverses façons, et que ma plus grande difficulté est d'ordinaire de trouver en laquelle de ces façons il en dépend». Ici, l'explication est combinatoire : le nombre des chemins déductifs possibles étant supérieur à celui des chemins déductifs réels, les expériences doivent intervenir. Elles sont finalement, pour Descartes, l'«expédient» qui permet de faire le départ entre des couples de chemins déductifs possibles, dont un seul est réel.
Au bilan, l'expérience, joue donc un triple rôle : combler l'écart entre le possible et le réel; séparer l'utile de l'inutile et simplifier le graphe des déductions possibles, opérant ainsi sur la chaîne déductive une sorte de «stabilisation sélective». La théorie, virtuellement hésitante et bifurcante, est alors restreinte à certaines voies déductives privilégiées.
Cette méthodologie devait rencontrer de nombreux problèmes. Maupertuis, au siècle suivant, en démontra les inconséquences (l'impossible hypothèse des tourbillons). Mais Newton devait ruiner l'édifice cartésien déjà fortement ébranlé par les critiques de Leibniz, Malebranche ou Huygens Une science fondée sur les faits expérimentaux et non plus sur des principes abstraits allait se substituer à la déduction cartésienne. Que devient alors la notion d'expérience une fois ce grand retournement opéré ?
2. Vers le modèle et la simulation
Dès la fin du XVIIème siècle, sous l'influence de la philosophie empiriste de Locke, qui réhabilite la sensation et en fait la condition de toute nos idées, la synthèse géométrique cesse d'être l'idéal de tout savoir et la forme de la connaissance abandonne le paradigme hypothético-déductif pour une démarche analytique et génétique, associationniste et combinatoire. La mécanique newtonienne se déploie dans ce contexte où il n'est plus question de «feindre des hypothèses» et où les faits, mathématisés, deviennent rois. Au début du livre III des Principes mathématiques de la philosophie naturelle [réf 3], Newton énonce quatre règles qui constituent, jusqu'au XIXème siècle, la base de la méthode expérimentale en physique. Ces règles trahissent une opposition totale à Descartes :
1° «Les causes de ce qui est naturel ne doivent pas être admises en nombre supérieur à celui des causes vraies ou de celles qui suffisent à expliquer les phénomènes de ce qui est naturel.» On ne doit donc pas avoir plus de principes explicatifs qu'il n'est nécessaire. C'est la fin d'une conception où le possible était plus puissant que le réel.
2° Il faut, en second lieu, «assigner les mêmes causes aux effets naturels du même genre». Autrement dit, impossibilité de rapporter les mêmes effets à des séries causales différentes. La théorie ne peut pas, et ne doit pas, contenir de bifurcation.
3° Les corps sur lesquels on expérimente, sont un sous-ensemble témoin suffisamment invariant pour servir de base inductive : «Les qualités des corps qui ne peuvent être ni augmentées ni diminuées, et qui appartiennent à tous les corps sur lesquels on peut faire des expériences doivent être considérées comme les qualités de tous les corps en général».
Newton, qui étend prudemment les enseignements de l'expérience, en ne cessant pas de s'appuyer sur les faits, précise cependant «que l'on ne doit pas forger des rêveries à l'encontre du déroulement des expériences» [réf 4]. En toute circonstance, il préfère s'appuyer sur les faits les plus avérés : ainsi, à propos des corps, il tablera sur la notion de force d'inertie plutôt que sur la notion d'impénétrabilité, beaucoup plus vague.
4° La règle IV précise le sens expérimental de sa méthodologie : les propositions réunies par induction à partir des phénomènes doivent être tenues pour vraies tant que des hypothèses contraires ne leur font pas obstacle, ou tant que d'autres phénomènes ne viennent pas les rendre plus précises ou les affranchir des exceptions qu'elles pourraient contenir.
Ainsi, une proposition ne devient générale et ne se précise que par induction, et toujours parce que les phénomènes le permettent. L'expérience, comme observation et comme observation provoquée, c'est-à-dire comme expérimentation, devient la règle suprême de la philosophie naturelle.
Quest-ce qui a alors amené la science à infléchir à nouveau la méthode expérimentale dans les deux directions anticipées par Descartes : la construction de modèles et la mise en place de procédés de simulation ?
1) Au début du XIXème siècle, la mécanique newtonienne s'est complexifiée et décrit désormais des «systèmes» physiques.
La notion de système s'est introduite en physique à travers l'étude des forces et de l'équilibre [réf 5], et, comme un système physique va devoir être décrit par un système d'équations mathématiques, la notion de modèle n'est pas loin. A l'époque, la physique s'ouvre en outre à des domaines nouveaux non mécaniques (électrostatique, thermodynamique, électromagnétisme) qu'elle explore à partir des méthodes de la science connue, autrement dit de la mécanique. La mécanique, elle-même systémique, devient ainsi un réservoir de modèles, aussi bien de montages pratiques que de modèles théoriques.
La notion de modèle comme norme abstraite se développe alors en physique. Le modèle est ici un intermédiaire à qui les physiciens délèguent la fonction de connaissance, de réduction de l'encore-énigmatique à du déjà-connu, notamment en présence d'un champ d'études dont l'accès est difficilement praticable [réf.6].
Cette fonction de délégation du modèle le fait apparaître comme un instrument d'intelligibilité dont la fonction est triple :
a) Dans un monde complexe et déployé dans des régions hétérogènes et sur des échelles très différentes, le modèle, bien adapté à un niveau d'expérience particulier, permet encore d'intégrer les niveaux inférieurs.
b) Réalisant une économie (puisqu'il transpose une même méthodologie sur un autre champ), il abrège la science en l'augmentant et permet ainsi de faire plus avec moins.
c) Ramenant le nouveau à l'ancien, il justifie l'exportation des méthodes connues dans des champs inconnus.
2) Dès la seconde moitié du XIXème siècle, la méthode expérimentale sinstalle en biologie et en médecine.
Claude-Bernard, avec son Introduction à l'étude de la médecine expérimentale, est le grand théoricien de cette extension. Mais sa définition de la méthode expérimentale est restrictive : pour lui, celle-ci «ne fait pas autre chose que porter un jugement sur les faits qui nous entourent, à l'aide d'un criterium qui n'est lui-même qu'un autre fait, disposé de façon à contrôler le jugement et à donner l'expérience» [réf 7]. Or, faire éclater l'expérience en faits simples et penser qu'on peut juger d'un fait au moyen d'un autre fait va s'avérer insuffisant. De plus, le constat reste le premier moment de la méthode préconisée par Claude-Bernard même s'il précise, par ailleurs, que l'expérience scientifique n'est pas une observation passive mais provoquée, et insiste à juste titre sur l'art du raisonnement expérimental. En fait, dans le mouvement cyclique qui caractérise sa méthode, le constat est bien à la source de l'idée à partir de laquelle pourra s'instituer le raisonnement et se mettre en place des expériences, lesquelles seront à leur tour sources de nouvelles idées et inductrices d'un nouveau cycle. Or le fait constaté, pour Claude-Bernard, reste un fait granulaire : non seulement la méthode scientifique exige un «morcellement du domaine expérimental» [réf 8] mais elle est de part en part analytique et aboutit volontairement à la dissociation des phénomènes. «A l'aide de l'expérience, nous analysons, nous dissocions ces phénomènes afin de les réduire à des relations et à des conditions de plus en plus simples» [réf 9]. D'où, deux conséquences :
(1) Les progrès de la connaissance seront toujours dus à des décisions élémentaires heuristiques, à caractère discret : «Le choix heureux d'un animal, écrit Claude-Bernard, un instrument construit d'une certaine façon, l'emploi d'un réactif au lieu d'un autre, suffisent souvent pour résoudre les questions générales les plus élevées».
(2) Le privilège de l'analyse et l'élémentarité des faits, qui renvoient au fond encore à une épistémologie cartésienne, interdit la saisie des relations dialectiques entre les phénomènes : «de ce qui précède, note Claude-Bernard à là fin de son introduction sur le raisonnement expérimental, il résulte que, si un phénomène se présentait dans une expérience, avec une apparence tellement contradictoire qu'il ne se rattachât pas d'une manière nécessaire à des conditions d'existence déterminées, la raison devrait repousser le fait comme un fait non scientifique» [réf 10].
Mais là, Claude-Bernard théoricien de la méthode expérimentale est en retard sur Claude-Bernard praticien de la physiologie, théoricien des mécanismes de régulation et fondateur de la notion de milieu intérieur. Critiquant l'anatomie, dans ses Leçons de physiologie expérimentale appliquées à la médecine (Paris 1856, tome 2, 6), il notait déjà l'impossibilité de déduire d'un examen anatomique d'autres connaissances d'ordre fonctionnel que celles qu'on y avait importées : or parmi les connaissances importées par les anatomistes, il notait la présence de modèles concrets : «quand on a dit, par simple comparaison, écrivait-il, que la vessie devait être un réservoir servant à contenir des liquides, que les artères et les veines étaient des canaux destinés à conduire des fluides, que les os et les articulations faisaient office de charpente, de charnières, de levier, etc.», «on a rapproché des formes analogues et l'on a induit des usages semblables». Canguilhem, qui cite ce texte dans ses Etudes d'histoire des sciences [réf 11] constate pourtant que le mot «modèle», ici, n'est pas utilisé.
Mais ce que Claude-Bernard théoricien néglige va s'avérer de plus en plus nécessaire pour comprendre les mécanismes de régulation qu'il a lui-même mis en évidence comme expérimentateur. Au fur et à mesure que la biologie et la médecine progresseront, le caractère interrelié des phénomènes de la vie imposera la prise en compte de faits complexes, et parfois en eux-mêmes apparemment contradictoires ou, en tout cas, antagonistes. Dès lors, ce n'est plus simplement de modèles concrets, iconiques et analogiques dont on va avoir besoin. Ce sera, comme en physique, d'authentiques modèles mathématiques.
Avec la cybernétique de N. Wiener, puis la théorie des systèmes de Bertalanffy, ce genre d'approche va se développer, et la biologie, à différents niveaux, en fera grand usage.
Au niveau cellulaire, Monod, Jacob et Lwoff ont pu décrire les phénomènes métaboliques en supposant l'existence d'un mécanisme cybernétique impliquant l'action conjointe d'un inducteur et d'un répresseur [réf 12].
Au plan des mécanismes hormonaux, de même, des modèles ont pu être proposés pour expliquer les régulations croisées et les actions conjointes d'axes hormonaux antagonistes comme les axes anté- et post-hypophysaires, des actions stimulantes de l'axe défaillant existant conjointement à des actions inhibitrices de l'axe prédominant [réf 13].
Dans ces deux exemples, des situations dialectiques complexes ne deviennent intelligibles que par une modélisation.
Enfin, à un niveau beaucoup plus général, la pensée écologique depuis les années 1930, avec l'introduction des notions de système écologique et de réseau trophique, a imposé la construction de modèles pour saisir les réalités naturelles complexes et interreliées, notamment les comportements des vivants en relation avec leur milieu biotique et abiotiques [réf 14].
La modélisation s'est donc imposée en biologie, en médecine, et en écologie, à l'encontre des idées de Claude-Bernard.
3. Les rapports entre modélisation et simulation
Si modéliser, c'est déléguer la fonction de connaissance afin de représenter la réalité de façon à la fois économique et fiable, encore faut-il s'assurer que le modèle conserve un lien avec l'expérience. C'est la tâche de la simulation, notion aux connotations jadis négatives, et que Platon, dans la République (VI, 51le) réservait à un type de savoir dégradé, celui des images, plus bas degré de la réalité selon lui. A travers Gracian, Diderot, puis Nietzsche, s'opère progressivement un renversement qui réhabilite l'artifice et permet de faire aujourd'hui, l'«éloge de la simulation», cette capacité à reproduire numériquement et à générer de façon figurative et imagée des situations, des séquences, des processus identiques aux processus réels.
1) Modélisation et simulation
Selon Etienne Guyon [réf 15], modélisation et simulation restent des démarches distinctes. La modélisation, vu ses outils, garde plus de latitude par rapport au réel que la simulation. Les conditions du mimétisme absolu ne sont pas respectées puisque le modèle opère une simplification du phénomène, ne retenant que les variables les plus caractéristiques. Ceci constitue une approximation, mais qui suffit souvent pour réussir.
En regard de cette modélisation, la simulation semble une approche plus coûteuse, puisqu'elle invite à conserver tous les paramètres du problème initial. Ainsi, selon E. Guyon, le simulateur de vol ou de conduite place-t-il le pilote dans des conditions tout à fait semblables à celle qu'il aura à affronter dans la réalité. Mais ce sentiment est trompeur car le simulateur est un modèle réduit, une simplification de la réalité, restreinte à un poste de pilotage monté sur un système de venins hydrauliques.
La simulation présuppose donc la modélisation : elle joue sur le fait que, du point de vue de la représentation humaine, le même effet peut être produit de différentes façons, et notamment d'une manière plus économique que d'une autre.
Par conséquent, les deux méthodes doivent être jugées plus complémentaires qu'opposées.
2) Fonction de la simulation.
La simulation permet d'effectuer des tests et d'expérimenter sans danger, mais aussi, dans certaines branches de la physique appliquée, de pallier les déficiences de la théorie. Ainsi, en météorologie, où il n'est pas possible de connaître théoriquement le comportement de l'atmosphère (système dynamique évolutif sensible aux conditions initiales), à moyen ou long terme, on a recours à la modélisation et à la simulation. Des programmes de calculs résolvent les équations de façon approchée mais théoriquement aussi précise que l'on veut. A partir de la connaissance de l'état de l'atmosphère à un instant donné, on peut théoriquement calculer l'évolution de cette atmosphère, et faire des prévisions. Cette approche permet en outre l'expérimentation, le modèle numérique devenant un laboratoire virtuel dans lequel on peut tester des hypothèses. Par exemple, on y fait varier certain paramètre (quantité d'énergie solaire reçue, vitesse de rotation de la terre...) pour en étudier les conséquences sur le climat. Ces modèles numériques permettent en outre d'affiner la prévision à court terme en injectant périodiquement dans le modèle de nouvelles valeurs de mesure, en coefficientant ces dernières de telle manière qu'elles aient un poids plus important que les mesures plus anciennes et aboutissent à des prévisions plus fiables.
Même si la météorologie reste une science où les modèles sont encore approximatifs, les progrès de la couverture satellitaire et des différentes méthodes numériques et informatiques permettent aux météorologues de préciser les conditions initiales et de limiter l'impact du chaos déterministe et de la turbulence. D'incessants progrès ont été faits depuis les premiers modèles, qui datent des années 1950.
Nous pourrions évoquer encore bien des exemples où modélisation et simulation vont de pair, par exemple dans les sciences humaines. Lévi-Strauss, dans La Pensée Sauvage, avait déjà souligné l'importance de la notion de «modèle réduit», à propos de la pensée mythique qui propose une sorte de métaphore du monde. On est passé rapidement de la métaphore au modèle dans des disciplines comme l'analyse spatiale en géographie ou encore la dynamique économique, qui sont des secteurs dans lesquels la modélisation et la simulation se sont énormément développées.
3) Caractère créatif de ce couple modélisation-simulation
L'intelligence artificielle (I.A.) servira ici dexemple. Se proposant au départ de comprendre la nature de l'intelligence, les chercheurs ont dû se limiter à reconstituer des comportements intelligents (et une reconstitution n'est pas une explication). Le plus souvent, ils se sont même bornés à faire faire à un ordinateur des tâches pour lesquelles l'homme est encore aujourd'hui le meilleur. Il y a un triple affaiblissement du projet initial puisque c'est avouer que non seulement on ne connaîtra pas la nature de l'intelligence, non seulement le simulacre ne renversera pas le modèle et la copie, mais la copie restera une copie imparfaite et qui n'égalera pas le modèle humain. Cette évolution, qui sonne une sorte de retour à Platon et va donc d'une modélisation impossible à une simulation imparfaite, aurait pu à bon droit passer pour une régression aliénante. Or, selon Philippe Quéau, ce chemin apparaît au contraire libérateur :
(1) La nécessité où l'on se trouve, en I.A. comme d'ailleurs souvent en physique, de faire d'abord fonctionner le modèle pour tester sa cohérence interne avant de le valider, amène parfois à le nourrir de données arbitraires. Or cet éloignement de l'expérience réelle porte en lui une créativité potentielle. Dans cette expérimentation inédite, le modèle, suivant des trajectoires éventuellement imprévues, devient susceptible de potentialités nouvelles entraînant au delà du connu.
(2) Alors que le modèle, comme réduction, opérait une certaine forme de condensation de l'expérience, «la simulation, écrit Philippe Quéau, nécessite le déplacement, le remaniement, l'ordonnancement du modèle» [réf 16]. Ces mots de condensation et de déplacement sont ceux par lesquels Freud a décrit la logique de l'inconscient, qui est aussi celle du rêve. Philippe Quéau en déduit que le simulateur, qui condense et réduit, produit donc un rêve formel, libéré des contraintes de l'expérience sensorielle qui en fournit ordinairement les matériaux.
Une des applications bien connues est la synthèse d'image, où la création de mondes virtuels, de flores ou de faunes inventées mais mathématiquement crédibles - toute une «vie artificielle» -, semble plonger le réel dans un univers beaucoup plus riche dont il n'apparaît plus que comme l'un des possibles. Le modèle, qui condense le réel, débouche, grâce au simulateur, sur une amplification théorique de celui-ci.
Cette conclusion n'admet-elle aucune limite ?
S'il est vrai que la simulation informatique fait perdre son empiricité à l'expérience et tend à la réinstaller au sein du théorique, la question se pose de savoir si ce nouveau tournant nous ramène ou non au point de départ. Bachelard nous avait appris que le rationalisme devait s'appliquer. Mais la modélisation et la simulation semblent faire l'économie d'une application réelle. Le rationalisme devient-il fantasmé ?
Certes, la modélisation-simulation, comme condensation et déplacement, opère une amplification de l'expérience, qui fait de cette extension virtuelle du réel, comme le montre Gilles-Gaston. Granger [réf. 17], un réel reformulé et enrichi, ce qu'on pourrait appeler un surréel. Ce «surréalisme» de la science contemporaine n'est d'ailleurs que le pendant du surrationalisme des grandes théorie scientifiques du XXème siècle. Expérience et applications y sont moins réfutées que réduites à un support minimum, le symbolique remplaçant économiquement le matériel.
Mais une telle réduction-substitution n'est pas sans risque. D'abord, il convient de ne confondre ni les objets et leurs images, ni les simulations et la réalité : la simulation d'un incendie ne brûle personne, les aléas de «la vie sur l'écran» n'engendrent aucune souffrance. Les erreurs qu'on peut commettre avec ces outils, tout comme la difficulté de leur validation, nous rappellent leurs limites. Certaines simulations numériques comme les simulations des explosions nucléaires, qui remplacent apparemment avantageusement ces dernières, n'excluent pas des expériences réelles coûteuses. En outre, on peut encore s'interroger sur les dangers de la virtualisation. La virtualisation des explosions nucléaires a tendance à banaliser la bombe. Il n'est pas sûr qu'on y gagne beaucoup.
Toutes les simulations ne font pas encourir les mêmes dangers. Mais l'expérience scientifique moderne, modélisée et simulée, ne saurait occulter le recours à l'expérience réelle. La simulation moderne suscite des mondes virtuels dont la logique, qui tient parfois du rêve, pourrait se révéler celle du cauchemar si elle se déconnectait totalement de l'expérience sensible et si la matière symbolique devait définitivement remplacer la matière réelle. Mais nous n'en sommes pas là et le recours au sensible, aux infrastructures matérielles et aux coûts réels nous remet périodiquement, malgré l'excroissance surréaliste que nous avons créée, dans une perspective de rationalisme appliqué.

 

VIDEO       CANAL  U         LIEN

 

( si la vidéo n'est pas visible,inscrivez le titre dans le moteur de recherche de CANAL U )

 
 
 
 

LES MÉTAMATERIAUX

 

Démontrée théoriquement, la possibilité de se rendre invisible devient envisageable grâce aux recherches menées sur les métamatériaux et leurs propriétés extraordinaires.

Dans la mythologie grecque, Hadès devenait invisible grâce à son casque. Depuis, ce sont les super-héros, la science-fiction et Harry Potter qui ont popularisé le mythe. Aujourd'hui, les scientifiques ont pris le relais et l'invisibilité fait l'objet de très sérieuses recherches donnant lieu à une intense compétition entre différentes équipes dans le monde. Leur formule magique tient en un terme : indice de réfraction. Depuis Descartes et ses lois de l'optique, ce terme décrit le comportement de la lumière à l'interface de deux milieux. Un objet est visible s'il réfléchit complètement ou partiellement la lumière et devient invisible dès lors que son indice de réfraction est le même que celui du milieu ambiant. Ainsi, un bâton de verre transparent est visible puisque son indice de réfraction est de 1,5 quand celui de l'air ambiant est de 1. Il restera visible dans l'eau, dont l'indice est de 1,3. Mais plongé dans un milieu ambiant de même valeur que le verre, comme le glycérol, il disparaît aux yeux de l'observateur.
Pour aller plus loin qu'une expérience réalisable dans sa cuisine, il faut aller voir du côté des métamatériaux. Des produits composites qui n'existent pas à l'état naturel, mais possèdent des propriétés étonnantes. L'effet est spectaculaire, puisque, avec un indice de réfraction négatif, le rayon lumineux serait dévié de façon très importante.
Dès 1968, alors que ces métamatériaux n'existaient pas encore, un scientifique russe, Victor Veselago, avait pourtant théorisé leur utilisation. Notamment en l'appliquant à un domaine très éloigné de l'invisibilité : la fabrication de lentilles optiques d'une précision exceptionnelle. « Sa prédiction était qu'avec un indice de réfraction inférieur à zéro, on pourrait fabriquer une superlentille avec une surface plane et possédant une très bonne résolution », explique Christophe Sauvan, de l'Institut d'optique Graduate School, basé à Orsay, qui vient d'ouvrir un centre sur le campus de Bordeaux.
Au tournant des années 2000, le Britannique John Pendry, de l'Imperial College de Londres, imagine concrètement comment fabriquer des métamatériaux possédant cet indice négatif. En 2006, c'est lui qui franchit le pas et les applique à l'invisibilité. Son invention est un dispositif, appelé « cape », qui rend invisible l'objet placé à l'intérieur en détournant les ondes électromagnétiques. Un peu comme l'eau contourne un rocher dans la rivière pour reformer son flux en aval. L'objet de quelques centimètres placé à l'intérieur se trouve placé dans une sorte de trou noir optique, tandis que les ondes circulent dans l'épaisseur de la cape. « Les propriétés de ces métamatériaux permettent de courber les rayons lumineux et d'assurer l'absence de réflexion », précise Didier Lippens, professeur à l'Institut d'électronique, de microélectronique et de nanotechnologie (IEMN) de l'université de Lille.
Pourtant, on est encore loin de l'invisibilité telle que nous l'entendons avec la lumière : les expériences de John Pendry sur la cape d'invisibilité ont été faites dans le domaine des micro-ondes. La cape peut-elle aussi fonctionner dans le visible ? « C'est moins un problème théorique que technologique », explique Stefan Enoch, directeur de l'Institut Fresnel, qui dépend du CNRS et de l'université d'Aix-Marseille. Car les métamatériaux obéissent à une règle fondamentale : ils n'ont une action sur les ondes électromagnétiques que si leurs composants de base sont plus petits que la longueur de l'onde elle-même. Expérimenter l'invisibilité dans le domaine des micro-ondes (beaucoup plus grandes que les ondes lumineuses) est une chose. Passer à l'invisibilité dans le domaine de la lumière en est une autre. Les ondes du spectre visible sont comprises entre 400 et 800 nanomètres. Dès lors, fabriquer une cape suppose d'entrer dans le domaine des nanotechnologies, complexes à mettre en oeuvre. Ensuite, l'intérêt d'un tel dispositif en optique visible est actuellement limité par la taille infime des objets « de toute façon invisible à l'oeil nu », sourit Didier Dippens, qui précise : « De plus, ces capes d'invisibilité sont actuellement imparfaites et ne fonctionnent parfois que sous un certain angle. »
Applications multiples

Si l'invisibilité constitue un défi, les chercheurs travaillent à des projets plus immédiatement applicables. « Dès lors que l'on sait contrôler les ondes électromagnétiques, on peut s'attaquer à d'autres sujets, car les équations mathématiques sont les mêmes », résume Stefan Enoch. Et les métamatériaux constituent désormais un champ de recherche très actif. Certains espèrent ainsi découvrir des moyens de rendre les panneaux solaires plus efficaces. Les militaires sont évidemment très intéressés, notamment par l'application de ces technologies aux ondes radar. Au centre de recherche Paul-Pascal de Bordeaux (CNRS), les physiciens travaillent avec des chimistes spécialistes des nanoparticules afin de produire des métamatériaux de nouvelle génération. L'objectif du projet européen Metachem revient aux ambitions de Victor Veselago dans le domaine des lentilles optiques. « Ces superlentilles offriraient une meilleure résolution que les produits actuels », explique Philippe Barois, directeur de recherche au centre de recherche Paul-Pascal. Ils permettraient de fabriquer des microscopes optiques plus performants que ceux utilisés actuellement en biologie, sachant que les microscopes électroniques qui fonctionnent sous vide ne permettent pas d'observer des organismes vivants.
A Marseille, les chercheurs exploitent leurs connaissances des phénomènes ondulatoires pour les appliquer à la propagation de l'eau, dans la lutte contre les raz de marée. Une multitude de plots judicieusement disposés dans l'eau détourneraient les vagues de la zone à protéger. Ces travaux pourraient également s'appliquer aux tremblements de terre et aux ondes sismiques qu'ils produisent.

Au IVe siècle, déjà...

 

DOCUMENT      lesechos.fr     LIEN

 
 
 
 

LA PESTE

 

Peste

La peste est une maladie qui sévit toujours de nos jours en Afrique, Asie et Amérique et fait partie des maladies actuellement ré-émergentes dans le monde. Elle est soumise à une réglementation internationale. Le nombre de cas déclarés par l’OMS est en progression dans certaines régions. Au cours du XXème siècle, l’utilisation de traitements antibiotiques et le renforcement des mesures de santé publique ont réduit très fortement la morbidité et la mortalité dues à cette maladie, mais n’ont pas permis de la faire disparaître. La peste est une maladie des rongeurs, principalement véhiculée par le rat, et transmise à l’homme par piqûres de puces de rongeurs infectés. C’est le pasteurien Alexandre Yersin qui découvrit en 1894 le bacille responsable de la maladie, Yersinia pestis, bactérie d’une extrême virulence.
 
 
> Epidémiologie
> Aspects cliniques
> Traitements
> A l’Institut Pasteur
> Les équipes mobilisées
 
Epidémiologie
Près de 40 000 cas humains de peste ont été déclarés à l’OMS par 24 pays au cours des quinze dernières années. L’Afrique est le continent le plus touché, suivi par l’Asie. Les foyers de peste les plus importants se situent à Madagascar, en République Démocratique du Congo et en Tanzanie. En Asie, il s’agit de la Chine, de la Mongolie et du Vietnam. Sur le continent américain, le principal foyer se trouve au Pérou mais les Etats-Unis ne sont pas épargnés : des cas autochtones de peste humaine sont rapportés chaque année dans ce pays. Quelques cas surviennent également dans certains pays de l’ex-URSS. Aucun cas de peste n’a été signalé récemment en Océanie ou en Europe. En France, les derniers cas survenus datent de 1945 en Corse.
 
Une des caractéristiques des épidémies de peste est leur capacité à "s’éteindre" pendant plusieurs années avant de réapparaître brutalement sous forme épidémique. Une flambée épidémique de peste a ainsi touché la Tanzanie en 1991 (1293 cas) et le Myanmar en 1992 (528 cas). En Inde, une épidémie de peste pulmonaire a éclaté en 1994, alors que l’on croyait la maladie éradiquée depuis presque 30 ans. Presque simultanément à l’épidémie en Inde, des cas de peste bubonique (128 cas) ont été enregistrés au Mozambique après plus de 15 ans de silence, et se sont propagés au Zimbabwe et au Malawi tout proches. Presque au même moment, une épidémie est survenue au Pérou (1031 cas en 1993-1994). Malgré leur apparition rapprochée, il n’existe probablement pas de lien épidémiologique entre les épidémies asiatiques, américaines et africaines.Plus récemment (1997), des cas humains de peste sont survenus en Jordanie après 80 années de silence. Enfin, la peste est réapparue en Algérie, dans la région d’Oran en 2003, après une période de silence inter-épidémique de 50 ans. Une épidémie de peste pulmonaire a de plus éclaté dans une mine de diamants en République Démocratique du Congo en Décembre 2004 et une épidémie de grande ampleur s’est à nouveau produite dans ce pays en 2006.
 
Aspects cliniques
Chez l’homme, la maladie revêt deux formes principales: bubonique (contractée par piqûre de puce) et pulmonaire (transmise par voie aérienne). La peste bubonique, forme clinique la plus fréquente, est caractérisée, après une incubation de quelques jours, par un syndrome infectieux très sévère (forte fièvre, atteinte profonde de l’état général), accompagné d’une hypertrophie du ganglion lymphatique (bubon) drainant le territoire de piqûre de la puce. Dans 20 à 40% des cas, le bubon suppure et le malade guérit après un temps de convalescence assez long. Sinon, la maladie évolue vers une septicémie, très rapidement mortelle. Dans certains cas, le bacille atteint les poumons et la transmission inter-humaine du bacille a ensuite lieu par l’intermédiiare d’aérosols émis par le malade lors de la toux. Les sujets contacts développent alors une peste pulmonaire. En l’absence d’un traitement précoce et approprié, la peste pulmonaire est systématiquement mortelle en 3 jours
 
Traitements
La streptomycine, le chloramphenicol et les tétracyclines sont les antibiotiques de référence pour le traitement de la peste. Ce sont des antibiotiques parfaitement efficaces s’ils sont administrés à temps. Bien que le recul soit encore insuffisant, les fluoroquinolones semblent représenter une alternative tout à fait adaptée et efficace aux traitements précédents.
 
Les mesures prophylactiques
La chimioprophylaxie au moyen de tétracyclines ou de sulfamides, administrée précocement, est en général d’une très bonne efficacité pour l’entourage immédiat des sujets atteints de peste.
 
A l’Institut Pasteur
L’Unité des Yersinia étudie les facteurs de pathogénicité, l’évolution et la résistance aux antibiotiques de ce genre bactérien. Elle effectue des analyses de génomique fonctionnelle et de physiopathologie comparative, développe des méthodes moléculaires de typage, et a entrepris la mise au point d’un vaccin contre la peste. Ce laboratoire est également le Centre National de Référence des Yersinia et un Centre Collaborateur de l’OMS.
 
--
Illustration - Copyright Institut Pasteur
Légende - Foie de souris infecté par le bacille de la peste
 
--
Février 2007
- See more at: http://www.pasteur.fr/fr/institut-pasteur/presse/fiches-info/peste#sthash.i0gJdNcN.dpuf

 

DOCUMENT        pasteur.fr        LIEN

 
 
 
 

UNE NAVETTE SANS CHAUFFEUR

 

Paris , 7 novembre 2014


D'une caméra vidéo à une navette sans chauffeur


Un nouveau type de navette sans chauffeur a été mis au point grâce à une technologie innovante de guidage par vision artificielle qui permet une localisation fiable et peu coûteuse du véhicule sur la chaussée. Cette technologie, basée sur l'utilisation de simples caméras vidéo, a été développée par des chercheurs de l'Institut Pascal (CNRS/Université Blaise Pascal de Clermont-Ferrand/IFMA)1. Elle est au cœur de la navette autonome EZ-10 développée par Ligier Group2, qui sera dévoilée lors du Michelin Challenge Bibendum à Chengdu (Chine) du 11 au 14 novembre 2014.
Depuis les années 2000, de nombreuses sociétés cherchent à rendre autonomes les voitures à partir de technologies coûteuses et parfois peu fiables3. Les chercheurs de l'Institut Pascal ont décidé, en 2003, de travailler sur la conduite automatique de véhicules électriques urbains à partir de simples caméras vidéo. La technologie développée est fondée sur deux étapes. La première a pour objectif de repérer, dans une vidéo acquise lors d'un trajet initial réalisée en conduite manuelle, tous les points remarquables de l'environnement au voisinage de la trajectoire effectuée. La seconde correspond au mode automatique au cours duquel le véhicule contrôle en permanence sa trajectoire afin que les images délivrées par les caméras embarquées correspondent le plus possible à la séquence filmée initialement. La vidéo initiale joue donc le rôle d'un rail virtuel que doit respecter le véhicule lors de sa circulation en mode autonome.
Depuis 2006, les chercheurs de l'Institut Pascal, en collaboration avec Ligier Group, mettent au point des navettes automatiques sans chauffeur permettant de transporter jusqu'à 10 personnes à la façon d'un ascenseur horizontal pour de courts déplacements (de l'ordre du kilomètre). Ces véhicules, qui ont vocation à être déployés sur des sites dédiés (industries, aéroports, parcs d'attractions, etc.), sont capables de gérer des obstacles grâce à des télémètres lasers installés aux quatre coins du véhicule. La navette est ainsi capable de détecter la présence d'un obstacle à 50 mètres de distance et par ce biais d'adapter sa vitesse ou même de s'arrêter en fonction du danger potentiel. Les chercheurs comptent désormais s'intéresser à la gestion d'une flotte de cinq véhicules, sur le centre de technologie Europe Michelin-site de Ladoux. Leur objectif : faire face, en temps réel, à des demandes multiples et potentiellement synchrones émises par l'intermédiaire de bornes d'appel ou de smartphones et cela sur un site industriel étendu, à la manière d'un taxi automatique.
Cette technologie de localisation, fiable et peu coûteuse, sera dévoilée lors du Michelin Challenge Bibendum à Chengdu (Chine), du 11 au 14 novembre 2014. Equipée d'une rampe d'accès pour personne à mobilité réduite, la nouvelle navette EZ-10 se verra alors confier le transport des visiteurs en toute autonomie.

 

DOCUMENT           CNRS              LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon