ecole de musique piano
     
menu
 
 
 
 
 
 

LES PROBABILITÉS ET LE MOUVEMENT BROWNIEN

 

 

 

 

 

 

 

LES PROBABILITÉS ET LE MOUVEMENT BROWNIEN

"Le hasard est soumis à des lois, que le calcul des probabilités étudie d'un point de vue mathématique. La nature de ces lois est asymptotique, on ne peut rien déduire de la réalisation d'un événement aléatoire, seules les séries d'évènements ont une signification statistique, d'autant plus fiable que leur nombre est grand. Modéliser le hasard pour pouvoir faire des prévisions est un enjeu primordial. Dans de nombreuses situations il faut comprendre comment une source de "" bruit "" vient influencer le phénomène que l'on observe au cours du temps. Ce phénomène peut être un signal que l'on cherche à décrypter, la trajectoire d'une fusée que l'on veut guider, le cours d'une action en bourse, ou bien d'autres choses encore. Pour des raisons qui seront expliquées dans la conférence, le mouvement brownien fournit un modèle universel de bruit. On verra que les techniques mathématiques sophistiquées qui ont été développées pour étudier le mouvement brownien d'un point de vue théorique ont trouvé de nombreuses applications concrètes."




Il peut paraître paradoxal de parler de lois du hasard, car ce mot
évoque pour nous l'imprévisible, sur lequel nous n'avons aucune prise,
et pourtant le hasard obéit à des règles bien précises. La
connaissance de ces règles permet de faire des prédictions dans des
situations où l'on ne maîtrise pas toutes les données, parce qu'elles
sont trop nombreuses pour être connues en totalité. L'exemple le plus
visible, qui est devenu quasi-quotidien dans les sociétés
démocratiques modernes, est celui des sondages d'intention de vote qui
permettent de prédire le résultat d'une élection sans avoir à
interroger tous les électeurs. Comprendre la nature des lois du hasard
est indispensable si l'on veut connaître la portée et les limites de
ces méthodes. Tout d'abord il faut savoir que la nature de ces lois
est asymptotique: on ne peut pas déduire d'information
probabiliste de la réalisation d'un événement particulier, seules les
séries d'événements ont une signification statistique, d'autant plus
fiable que leur nombre est grand. Ainsi lorsqu'on jette une pièce de
monnaie en l'air, la symétrie de la pièce fait qu'il y a autant de
chances pour qu'elle retombe sur «~pile~» ou «~face~», mais cette
symétrie est brisée lorsque la pièce est retombée, et seule l'une des
deux alternatives est réalisée. L'équiprobabilité n'est observable que
si l'on répète l'expérience un grand nombre de fois: il est bien
connu qu'alors les fréquences d'apparition des «~pile~» et des
«~face~» se rapprochent de 1/2.  Cette observation se généralise pour
donner le résultat fondamental du calcul des probabilités, qui est la
loi des grands nombres.  Sous sa version la plus simple elle exprime
le fait que si l'on répète un grand nombre de fois une même expérience
aléatoire, dont le résultat est une valeur numérique, alors la moyenne
des résultats obtenus tend à se rapprocher de l'espérance mathématique
de l'expérience.  Cette espérance est, par définition, la somme
pondérée de tous les résultats possibles, chacun étant affecté d'un
poids égal à sa probabilité d'apparaître. Si nous reprenons l'exemple
du jeu de pile ou face, et si nous décidons de compter 1 pour chaque
face, et 0 pour chaque pile obtenus lors de lancers de pièces, la loi
des grands nombres nous assure que la moyenne des résultats obtenus,
qui ici est égale à la fréquence d'apparition des «~face~», se
rapproche de 1/2 quand le nombre de tirages devient grand,
conformément à l'expérience.
C'est la loi des grands nombres qui justifie les méthodes
d'échantillonnage utilisées en statistique, c'est elle encore qui
permet de savoir qu'à long terme un casino est toujours gagnant, et
même d'estimer son bénéfice futur. Enfin, on nomme aussi parfois, de
fa\c con plus générale, mais aussi moins précise, «~loi des grands
nombres~» tout résultat qui prédit le comportement déterministe, au
niveau macroscopique, d'un système composé d'un grand nombre
d'éléments microscopiques, interagissant de manière complexe et qui
échappent à une description détaillée.  C'est ainsi que les quantités
intensives de la thermodynamique classique (pression, température,
etc...) sont des moyennes, sur de petites régions de l'espace, de
quantités qui varient énormément sur des distances encore plus
petites.  Le comportement parfaitement prévisible, à notre échelle, de
ces moyennes, qui se traduit par les lois bien connues de la physique
des gaz, est un effet de cette loi des grands nombres plus
générale.
 
La loi des grands nombres n'a qu'une valeur asymptotique, on observe
donc lorsqu'on reste avec des nombres finis, des écarts par rapport au
comportement moyen attendu. Ces écarts eux aussi suivent des lois
précises, mais cette fois ce n'est plus leur valeur que l'on peut
prédire, seulement leur répartition statistique. Ainsi le théorème de
la limite centrale prédit que l'écart à la limite dans la loi des
grands nombres suit approximativement une loi gaussienne (décrite par
la fameuse «~courbe en cloche~») dont la variance, qui mesure
l'étalement de la courbe, est proportionnelle à l'inverse du nombre
d'expériences. Pour voir, en termes plus concrets, ce que cela
signifie, considérons l'expérience consistant à répéter « N » fois le
tirage d'une pièce de monnaie, « N »étant un nombre supposé très grand.
La quantité représente l'écart entre la fréquence théorique, 1/2, et la fréquence du nombre de faces observée pendant l'expérience, multiplié par un facteur de
renormalisation $2\sqrt{N}$.  Répétons cette expérience 200 fois (ce
nombre étant pris pour fixer les idées, cela revient donc à lancer
$200\times N$ fois la pièce), et répartissons les fréquences relatives
des résultats obtenus pour la quantité $E$ dans un histogramme, alors
on obtient typiquement un diagramme ressemblant à celui de la figure
1.

     \epsfxsize=8cm\epsfysize=8cm\epsfbox{TCL.ps}\caption{Le théorème
       de la limite centrale}\end{center}
 \end{figure}

 Les valeurs exactes des hauteurs des colonnes peuvent fluctuer en
 fonction de l'expérience, mais leur allure générale reste presque
 toujours proche de la courbe gaussienne, qui est le graphe de la
 fonction $e^{-x^2/2}/\sqrt{2\pi}$, tracé sur la figure, et aura
 tendance à s'y conformer encore plus précisément si le nombre
 d'expériences, qui ici était égal à 200, est augmenté.  Il est
 remarquable que la fa\c con dont les résultats se répartissent à la
 limite est indépendante de la nature de l'expérience que l'on répète.
 Cette universalité de la loi gaussienne est à l'origine de son
 intervention dans de nombreux problèmes de probabilités.  Le théorème
 de la limite centrale permet de donner des intervalles de confiance
 pour les estimations par échantillonnage, comme les sondages
 d'intention de vote.  Il permet aussi d'expliquer la «~loi des
 erreurs~» c'est-à-dire le fait que les erreurs de mesure des
 grandeurs physiques, qui ont de multiples causes indépendantes entre
 elles, tendent à se répartir suivant une distribution gaussienne.
 

 
 La loi des grands nombres et le théorème de la limite centrale, qui
 sont les deux résultats fondamentaux du calcul des probabilités,
 étaient en essence connus dès le dix-huitième siècle. Le
 développement de la théorie des probabilités aux dix-neuvième puis
 vingtième siècles a fait une place de plus en plus importante à
 l'étude des processus stochastiques, c'est à dire des phénomènes qui
 évoluent de fa\c con aléatoire au cours du temps. Parmi ces processus
 stochastiques, un rôle central est tenu par le mouvement brownien
 tant du point de vue de la théorie que de celui des applications. Je
 vais tenter dans cet exposé de présenter le mouvement brownien, et
 d'expliquer pourquoi et comment on l'utilise pour modéliser les
 phénomènes de bruit. Les applications technologiques de ces
 modélisations sont nombreuses, allant de l'aéronautique à la finance
 en passant par les télécommunications.
 
Le mouvement brownien


 L'observation du mouvement brownien est probablement aussi ancienne
 que l'invention du microscope, en fait il suffit d'observer de l'eau
 avec un fort grossissement pour y voir de petites particules en
 suspension agitées d'un mouvement désordonné et incessant. C'est le
 botaniste Brown qui, observant des particules de pollen à la surface
 de l'eau fit le premier, en 1827, une description précise de ce
 phénomène et lui laissa son nom. Une courbe comme celle représentée
 sur la figure 2, qui peut s'obtenir facilement par simulation sur un
 ordinateur personnel, représente un exemple typique de trajectoire
 d'une particule animée d'un mouvement brownien, observée pendant un
 intervalle de temps donné.

  \ Trajectoire
        d'une particule brownienne}
 
   Le caractère extrèmement irrégulier de ces trajectoires, qui
   apparaît clairement sur la figure, avait beaucoup intrigué ceux qui
   avaient observé ce phénomène à l'époque de Brown. Plusieurs
   hypothèses sur son origine furent proposées, dont certaines, de
   type vitaliste, supposaient que les particules possédaient une
   énergie propre qui les faisait se mouvoir, mais la véritable
   explication ne fut donnée qu'à la fin du siècle dernier, alors que
   la théorie de la structure atomique de la matière s'imposait au
   monde scientifique. Lorsqu'une petite particule solide est placée
   dans un fluide, elle est soumise au bombardement incessant des
   molécules qui composent le fluide. Ces molécules sont très petites
   par rapport à la particule (en pratique les particules en question
   ont une taille de l'ordre du micron, soit $10^{-3} mm$ alors que
   les molécules d'eau, par exemple, ont un diamètre de l'ordre de
   quelques Angström, soit $10^{-7}mm$), mais elles sont en très grand
   nombre, et leurs vitesses sont réparties dans l'espace de fa\c con
   isotrope, ce qui fait qu'en première approximation, par la loi des
   grands nombres, l'impulsion résultant de ces chocs est nulle.  Plus
   la particule est petite, moins elle subit de chocs par unité de
   temps, et plus elle est sensible aux écarts par rapport à la loi
   des grands nombres, si bien qu'en dessous d'une certaine taille les
   chocs cessent de se compenser exactement et produisent ce mouvement
   désordonné, dont la direction change de fa\c con incessante.  C'est
   Einstein qui le premier, en 1905, réussit à faire de cette
   observation une théorie physique quantitative.  La théorie
   d'Einstein fut bientôt confirmée expérimentalement par Jean Perrin,
   qui en déduisit la première détermination précise du nombre
   d'Avogadro (le nombre d'atomes contenus dans un gramme
   d'hydrogène).  Ces travaux, associés à ceux de Planck sur la
   radiation du corps noir, firent tomber les réticences des derniers
   sceptiques envers la théorie atomique, qui n'était pas à l'époque
   unanimement acceptée. Dans son mémoire, Einstein donne la
   description suivante du mouvement brownien:
 
   a) entre deux instants $s$ et $t$, le déplacement de la particule
   brownienne est aléatoire et suit une loi gaussienne de variance
   $D\times(t-s)$ où $D$ est un paramètre dépendant des
   caractéristiques physiques de la particule, comme la masse et le
   diamètre, et du fluide (viscosité, température, etc...).

 
 b) ce déplacement est indépendant du chemin parcouru par la particule
 avant le temps $s$.
 
La variance du a) est la valeur moyenne du carré de la
 distance entre les positions de la particule aux instants $s$ et $t$,
 et Einstein donne une formule explicite pour $D$.
 
 
 Ces deux propriétés caractérisent complètement le comportement
 statistique des particules browniennes.  Une conséquence importante
 est que la quantité que l'on doit mesurer, pour obtenir la valeur du
 paramètre $D$, est le déplacement quadratique moyen de la particule
 et non pas sa vitesse, qui n'est pas mesurable comme l'avaient
 observé depuis longtemps les expérimentateurs. C'est en mesurant la
 valeur de $D$ que Jean Perrin a pu estimer le nombre d'Avogadro.
 Comme nous le verrons plus loin, les lois d'Einstein sont très
 générales et concernent en fait une gamme de phénomènes beaucoup plus
 large que les particules en suspension dans un fluide. Leur
 universalité a la même origine que l'universalité de la loi
 gaussienne provenant du théorème de la limite centrale.

   {\it L'équation de la chaleur}
 
 
 Il résulte de la description donnée par Einstein que la probabilité
 de présence de la particule brownienne en un point suit une équation
 identique à celle qui régit la propagation de la chaleur, bien que
 ces phénomènes physiques soient tout à fait distincts l'un de
 l'autre. Cela se traduit concrètement de la manière suivante.
 Déposons une quantité de chaleur donnée en un point $x$ d'un corps
 homogène. Au bout d'un temps $t$, cette quantité de chaleur, en se
 répartissant dans le corps a fait monter la température en un point
 $y$ du corps, d'une quantité $\Delta T$. Oublions maintenant la
 quantité de chaleur et la température, et supposons qu'une particule
 animée d'un mouvement brownien soit placée au même point $x$, alors
 la probabilité (ou plus exactement la densité de probabilité, pour
 les puristes) $p(t,x,y)$ que cette particule se retrouve au point $y$
 au bout du même temps $t$ est proportionnelle à $\Delta T$, autrement
 dit
 $$p(t,x,y)=c\Delta T,$$
 le coefficient $c$ ne dépendant que des
 caractéristiques physiques du corps et pas des points $x$ et $y$ ou
 du temps $t$.  Outre la propagation de la chaleur, le mouvement
 brownien est également associé, toujours {\it via} les lois
 d'Einstein, au comportement des charges électriques à l'équilibre. Là
 encore je vais donner un exemple concret de l'interprétation
 brownienne d'un phénomène physique simple, illustré par la figure 3.

{la charge d'un point à la surface d'un corps conducteur est
         proportionnelle à la probabilité qu'une particule brownienne
         touche le corps en ce point.}


   Considérons un corps conducteur chargé électriquement.  En
   l'absence de champ électrique extérieur, les charges se
   répartissent spontanément à la surface du corps selon une
   configuration qui tend à minimiser l'énergie électrostatique.  Si
   maintenant une particule suivant les lois d'Einstein est lachée
   d'un point de l'espace situé très loin du corps alors la
   probabilité pour que l'endroit où elle touche pour la première fois
   le corps soit un point donné sur la surface est proportionnelle à
   la charge électrique de ce point dans la configuration d'équilibre.
   Ceci permet de relier le comportement du mouvement brownien avec
   certaines conséquences bien connues des lois de l'électrostatique,
   comme le principe du paratonnerre; en effet, la tendance du
   mouvement brownien à explorer l'espace autour de lui, bien visible
   sur la figure 2, fait qu'il a plus de chance, en s'approchant d'un
   corps de le toucher pour la première fois à un endroit où celui-ci
   présente une partie saillante. Traduit en termes électrostatiques,
   cela signifie que les charges électriques ont tendance à se
   concentrer dans les pointes, comme dans un paratonnerre.  Précisons
   encore une fois que ces phénomènes physiques ne sont reliés entre
   eux qu'à un niveau purement mathématique, celui des équations qui
   les décrivent, en particulier, le mouvement de la particule
   brownienne est supposé être totalement indépendant de la charge
   éventuelle du corps en question.
 

    {\it Théorie mathématique et applications technologiques}

 
  C'est N. Wiener qui le premier, dans les années 1920, montra que
  l'on pouvait définir de fa\c con rigoureuse un objet mathématique
  vérifiant les lois d'Einstein, en particulier il démontra que les
  trajectoires du mouvement brownien mathématique sont continues, et
  nulle part différentiables, ce qui signifie qu'à aucun instant la
  vitesse d'un mouvement brownien ne peut être définie, ses
  changements de direction étant trop rapides. Ceci confirme
  mathématiquement l'impossibilité de mesurer sa vitesse, observée par
  les expérimentateurs.  Ainsi, contrairement aux objets de la
  physique newtonienne classique, le mouvement brownien ne peut pas
  être décrit par des équations différentielles, néanmoins, il est
  possible de développer un calcul différentiel spécifique au
  mouvement brownien, le «~calcul stochastique~», inventé, pour des
  raisons purement théoriques par K. Itô dans les années 40. Ce calcul
  différentiel possède des règles propres, différentes de celles du
  calcul de Newton et de Leibniz, et traduit le caractère très
  irrègulier des trajectoires browniennes.  Il s'agit d'une des
  avancées majeures de la théorie moderne des processus stochastique,
  qui joue un rôle essentiel aussi bien dans la théorie que dans les
  applications, mais dont la présentation dépasse largement le cadre
  de cet exposé.
    

    L'origine de l'utilisation du mouvement brownien dans de
    nombreuses modélisations tient dans une remarque faite par L.
    Bachelier dans sa thèse sur la spéculation financière, parue en
    1900, soit un peu avant le mémoire de 1905 d'Einstein. Bachelier
    avait montré qu'un mouvement aléatoire dont le déplacement pendant
    un intervalle de temps infinitésimal $dt$ est de moyenne nulle, et
    de variance $D\times dt$, satisfait aux lois d'Einstein.  On peut
    donner à cette remarque une forme mathématique précise, connue
    sous le nom de «~théorème d'invariance de Donsker~». Je ne
    décrirai ce résultat, qui constitue une sorte de version dynamique
    du théorème de la limite centrale, mais je voudrais souligner
    qu'une conséquence importante en est qu'en faisant très peu
    d'hypothèses sur la nature d'un mouvement aléatoire, on montre que
    celui-ci doit satisfaire aux lois du mouvement brownien.
    Essentiellement, on en déduit qu'un objet soumis à une multitude
    d'influences, toutes de petite intensité, agissant indépendamment
    les unes des autres et constamment, se comporte comme une
    particule brownienne.  Cela justifie le recours au mouvement
    brownien mathématique pour modéliser les effets de perturbations
    aléatoires, de bruits dont la nature exacte ou la structure
    détaillée ne sont pas connues. Ces modélisations trouvent de
    nombreuses applications technologiques. Ainsi le guidage d'une
    fusée, ou d'un satellite, s'effectue à distance en modifiant sa
    trajectoire en fonction des données transmises par des capteurs
    placés à son bord.  La fusée est en effet constamment déviée de sa
    trajectoire théorique par des petites perturbations d'origines
    diverses par exemple atmosphériques, ou dues aux fluctuations
    locales du champ gravitationnel terrestre, et les communications
    entre la fusée et la base sont elles aussi entachées par des
    bruits d'origine électromagnétique.  Toutes ces perturbations ne
    peuvent être décrites exactement, mais il est naturel, pour les
    raisons mentionnées plus haut, d'avoir recours à un mouvement
    brownien pour les modéliser. On peut alors extraire du flux
    continu d'informations envoyées par la fusée une composante due au
    bruit, et rétablir la meilleure approximation possible de sa
    trajectoire réelle.  Le filtre de Kalman-Bucy est la plus ancienne
    des méthodes utilisées pour effectuer ce débruitage, ayant servi
    en particulier lors des premières missions Apollo de la NASA.
    Depuis cette époque la théorie du filtrage a fait des progrès
    notamment dans la résolution de problèmes dits «~non-linéaires~»
    où l'observation ne dépend plus linéairement du signal émis, avec
    d'importantes applications dans le domaine des télécommunications.
       
       
    L'idée originelle de Bachelier, qui était de modéliser par des
    marches au hasard les cours des actifs cotés en bourse a connu un
    développement spectaculaire ces dernières années, et le mouvement
    brownien fait désormais partie de l'attirail des financiers.
    Ainsi la formule de Black et Scholes est aujourd'hui
    universellement utilisée pour calculer la valeur des options
    proposées sur les marchés financiers. Rappelons qu'une option est
    un contrat à terme contingent, c'est-à-dire dont la réalisation
    est laissée à l'appréciation du client. Par exemple une option
    d'achat à six mois sur le dollar est un contrat qui permet au
    client d'une banque d'acheter, six mois aprés la date du contrat,
    une certaine quantité de dollars, à un taux de change fixé dans le
    contrat.  Évidemment, le client n'a intérêt à exercer son option
    que si le taux fixé par le contrat est inférieur au cours du
    dollar à l'échéance. Une telle option représente un contrat
    d'assurance contre les fluctuations des taux de change, et doit
    donc donner lieu au paiement d'une prime par le client, dont le
    calcul est l'objet de la formule de Black et Scholes.  Cette
    formule s'obtient par un raisonnement fondé sur le calcul
    stochastique, qui utilise une modélisation des cours des
    différents actifs par des mouvements browniens, ou des processus
    stochastiques très proches. Le paramètre $D$ des lois d'Einstein,
    qui est ici appelé volatilité, est une mesure de l'importance des
    fluctuations des cours, qui peut être évaluée statistiquement, et
    dont l'évolution au cours du temps peut être prise en compte dans
    des modèles plus sophistiqués.  Insistons encore sur le fait que
    toutes ces applications n'auraient pas pu voir le jour sans le
    développement des outils théoriques puissants inventés par Itô.
     

     {\it Perspectives actuelles}

   
Il est possible de considérer des mouvements browniens
   ayant lieu dans des espaces plus compliqués que l'espace euclidien
   usuel, comme des espaces courbes (ce qui se traduit par la
   variation du coefficient $D$ avec l'endroit où se trouve la
   particule, et la direction de son déplacement), des espaces munis
   de structures algébriques, comme des groupes, des espaces fractals,
   ou bien encore des espaces dont la structure est elle-même
   aléatoire, par exemple pour modéliser un milieu comportant des
   impuretés.  Le comportement du mouvement brownien reflète alors une
   partie de la structure de l'espace sous-jacent. On peut également
   s'intéresser au comportement de plusieurs particules browniennes
   interagissant, ou bien susceptibles de mourir et de se reproduire,
   comme dans certains modèles issus de la biologie.  Toutes ces
   généralisations font l'objet de recherches actives, mais le
   mouvement brownien ordinaire recèle encore bien des mystères. Les
   questions que l'on se pose à son sujet, et les outils utilisés pour
   l'étudier, dépendent fortement de la dimension de l'espace dans
   lequel il évolue. En dimension d'espace égale à un, la structure
   d'ordre de la droite réelle permet d'utiliser des méthodes
   combinatoires, ainsi que la théorie des fonctions spéciales, en
   lien avec les équations différentielles ordinaires. En dimension 2,
   c'est l'analyse complexe, et la théorie des fonctions analytiques
   qui prédominent. Il s'agit de domaines de recherches très
   dynamiques, et je terminerai cet exposé en évoquant un résultat
   mathématique obtenu très récemment.  L'examen de la figure 2 révèle
   le caractère extrèmement tortueux de la courbe brownienne.  On peut
   donner une mesure de la complexité de cette courbe en lui assignant
   un nombre, appelé «~dimension de Hausdorff~», dont on montre assez
   facilement qu'il est égal à deux, ce qui signifie que la courbe
   brownienne possède beaucoup de caractéristiques d'un espace à deux
   dimensions. Le bord de cette courbe est lui aussi un objet
   complexe, mais toutefois moins que la courbe tout entière.  Il y a
   une vingtaine d'années, B. Mandelbrot avait conjecturé, sur la foi
   de simulations informatiques, que la dimension de Hausdorff de ce
   bord devait être égale à 4/3. Il s'agit d'un problème
   mathématiquement beaucoup plus difficile que celui où l'on
   considère la courbe dans son entier, mais il vient d'être résolu
   grâce aux travaux de G. Lawler, O. Schramm et W. Werner.
   L'apparition d'un nombre rationnel simple comme ici 4/3 dans un
   problème aussi complexe est l'illustration de l'existence d'une
   profonde symétrie sous-jacente. La symétrie en jeu dans ce problème
   porte le nom d'«~invariance conforme~», et semble reliée, de fa\c
   con encore mystérieuse pour les mathématiciens, aux théories
   physiques, comme la théorie quantique des champs, qui tentent de
   décrire la structure de la matière à son niveau le plus
   élémentaire. Il ne fait pas de doute que l'exploration de ces
   relations donnera lieu a de nouvelles découvertes fondamentales.
   

   
RÉFÉRENCES
   
 
Ouvrages généraux

   

   
   N. Bouleau, Martingales et marchés financiers, O. Jacob, Paris,
   1998.

   
   
   C. Bouzitat, G. Pages, En passant par hasard : probabilités de tous
   les jours, Vuibert, Paris, 1999.
   

   
   I. Ekeland, Au hasard, la chance, la science et le monde, Point
   Sciences, Le Seuil, Paris 2000.
   


   
   J. Perrin, Les atomes, Gallimard, Paris 1970 (réédition).

   

   
   H. Poincaré, Calcul des probabilités, J. Gabay, Paris, 1987
   (réédition).
   




   
Quelques ouvrages plus spécialisés:
   



   
   P. Lévy, Processus stochastiques et mouvement brownien, Ed. Jacques
   Gabay (Les grands classiques Gauthier-Villars), 1992 (réédition).

   

                                          
   B. Oksendal, Stochastic differential equations, Springer Verlag,
   Berlin, 1998.

   

   
   D. Revuz, M. Yor, Continuous martingales and brownian motion,
   Springer Verlag, Berlin, 1991.

 

 VIDEO       CANAL  U         LIEN 

 























 

 
 
 
 

OXYGÈNE

 

 

 

 

 

 

 

oxygène

Consulter aussi dans le dictionnaire : oxygène
Cet article fait partie du dossier consacré à l'air.

Cycle de l'oxygène
Corps gazeux diatomique (O2) constituant en volume le cinquième de l'atmosphère terrestre et nécessaire à la respiration. Dans le langage courant, on parle abusivement d’« oxygène » pour désigner en réalité le dioxygène (gaz diatomique composé de deux atomes d’oxygène). Le terme « oxygène » devrait être réservé à l’élément chimique de symbole O.
*         Numéro atomique : 8
*         Masse atomique : 15,999 4
*         Température de fusion : − 218,4 °C
*         Température d'ébullition : − 182,96 °C
*         Densité : 1,105
CHIMIE
1. DÉCOUVERTE DE L’OXYGÈNE

       
L'oxygène fut découvert sous sa forme gazeuse (ou dioxygène) indépendamment par Carl Wilhelm Scheele en 1773 (mais il ne publia ses résultats qu’en 1777) et Joseph Priestley en 1774. L’histoire retient les noms des deux chimistes et la date de la première publication (1774). Toutefois, ni l’un ni l’autre ne se rendent compte de l’importance de leur découverte, en particulier pour expliquer les réactions de combustion qui impliquent la présence de dioxygène. C’est Antoine Laurent de Lavoisier qui établit les propriétés principales de ce gaz à partir de 1775. Il montra qu'il y avait de l’oxygène dans l'air et dans l'eau, et fit ressortir son rôle dans les combustions et la respiration. En démontrant que la combustion est un processus dans lequel une substance se combine avec le dioxygène, Lavoisier réfute la théorie du phlogistique (substance inventée près d'un siècle plus tôt par les chimistes allemands Johann Becher et Georg Stahl pour expliquer le phénomène de combustion) et contribue ainsi à l'avènement de la chimie moderne.

Antoine Laurent de Lavoisier

Par ailleurs, Lavoisier lui donna le nom « oxygène » (du grec oxys et genes, signifiant « qui produit de l’acide », parce l'oxygène apparaissait dans tous les acides connus à cette époque. Il montre également que l'oxygène de l'air se présente sous la forme d'un gaz diatomique (composé de 2 atomes d'oxygène, d'où sa formule chimique O2), et que c'est un élément chimique (corps pur simple).

2. ÉTAT NATUREL DE L’OXYGÈNE

atmosphère terrestre
L’oxygène est l’élément chimique le plus abondant sur Terre. En effet, la teneur en oxygène de l’atmosphère s’élève à environ 23 % (en masse), celle des océans à 86 %, celle de la croûte terrestre à 47 % et celle du corps humain à 60 %. On distingue généralement deux formes principales d’oxygène :
• l’oxygène sous forme élémentaire, c’est-à-dire sous forme de molécules constituées uniquement d’oxygène comme le dioxygène (O2) de l’air que l’on respire, ou l’ozone (O3) qui forme une couche fragile et vitale pour les êtres vivants car elle stoppe les rayonnements ultraviolets (UV) nocifs du Soleil ;
• l’oxygène sous forme de composés minéraux et organiques, appelés oxydes : la majorité des composés formés par l’oxygène sont des oxydes entrant dans la composition chimique des roches et des minéraux (silicates et carbonates), comme le quartz (dioxyde de silicium, de formule SiO2), l’hématite (Fe2O3), etc. Par ailleurs, l’oxygène apparaît dans la composition chimique d’une large gamme de composés organiques, tels que le dioxyde de carbone (CO2), l’éthanol (C2H5OH), l’aspirine (C9H8O4), le glucose (C6H12O6), etc.
→ chimie organique.

Principe de la photosynthèse
L'oxygène est un élément constitutif fondamental de la matière vivante, au même titre que le carbone, l'hydrogène et l'azote. C’est d’ailleurs l’un des constituants de l’ADN (molécule portant les informations génétiques dans les cellules des êtres vivants). Par ailleurs, l’oxygène est essentiel au cycle de la vie, car il intervient dans les processus biologiques fondamentaux que sont la photosynthèse (production de dioxygène par les plantes) et la respiration (absorption de dioxygène et rejet de dioxyde de carbone par les êtres vivants).

3. PROPRIÉTÉS CHIMIQUES ET PHYSIQUES DE L'OXYGÈNE
L'oxygène est, après le fluor, l'élément qui possède la plus forte électronégativité. Il a ainsi tendance à former l'anion O2− (dans les oxydes métalliques), à former, en combinaison avec les non-métaux, deux liaisons de covalence (H2O par exemple) ou à jouer le rôle d'accepteur en fixant un doublet d'électrons. Beaucoup de réactions auxquelles il participe sont exothermiques (réactions qui dégagent de la chaleur). Sa fixation est dite « combustion », en raison de la chaleur qu'elle dégage en général ; suivant les cas, cette combustion peut être vive ou lente. À l'exception des halogènes et de l'azote, tous les non-métaux peuvent brûler dans le dioxygène en donnant les oxydes les plus stables (H2O, SO2, etc.). Hormis l'or et le platine, les métaux peuvent également brûler dans le dioxygène, notamment les métaux alcalins et alcalino-terreux, le magnésium, l'aluminium, le zinc, le fer, etc. Beaucoup de métaux s'oxydent aussi à froid dans l'air, mais leur corrosion fait souvent intervenir la vapeur d'eau et le gaz carbonique de l'air.
Du point de vue de ses caractéristiques physiques, le dioxygène est un gaz incolore, inodore et sans saveur. Quand il est liquéfié (mis sous forme liquide), il est de couleur bleu pâle et devient légèrement magnétique. Dans les conditions normales de température et de pression (1 atm, 0 °C), l’oxygène bout à - 182,9 °C et fond à - 218,4 °C.

4. LES RÉACTIONS DE COMBUSTION

Combustion du carbone et du méthane
Les composés formés d'éléments combustibles sont en général eux-mêmes combustibles, notamment les combinaisons d'hydrogène et de carbone, c'est-à-dire les corps organiques. Leur combustion fournit de la vapeur d'eau et du gaz carbonique, mais, si le dioxygène est en quantité insuffisante, l'hydrogène brûle avant le carbone, qui se retrouve sous forme de noir de fumée. Il en est de même des composés du soufre, du phosphore, des métaux. De nombreux composés peuvent aussi subir une oxydation lente ; grâce à certains ferments, l'ammoniac se transforme en oxydes d'azote ; l'alcool éthylique, en acide acétique, etc.
Enfin, la respiration produit elle-même une oxydation de substances organiques dans les tissus vivants, ensemble de réactions qui libèrent l'énergie dont ceux-ci ont besoin.

5. PRÉPARATION ET UTILISATIONS DE L'OXYGÈNE

Production de l'oxygène liquide
Dans l'industrie, on prépare le dioxygène, en même temps que le diazote, par distillation fractionnée de l'air liquide. Il est stocké et livré gazeux dans des tubes d'acier, sous une pression de 200 bars, ou sous forme liquide dans des récipients isolants.
Le dioxygène est un produit d'une grande importance industrielle et pratique : sa production, à l'échelle mondiale, est d'environ 100 millions de tonnes par an, et la France y joue un rôle de premier plan en tant que producteur.

Convertisseur à oxygène
Depuis les années 1950, le dioxygène est utilisé à la place de l'air pour l'affinage de la fonte par oxydation contrôlée : cette opération permet d'éliminer partiellement le carbone de la fonte sortant du haut fourneau, et presque totalement le phosphore et le soufre, pour produire l'acier. Pour cette utilisation, un réseau d'oxyducs de 3 000 km a été construit en Europe occidentale.

Le dioxygène est également utilisé comme comburant dans les fusées spatiales (où il est stocké sous forme liquide) et dans les chalumeaux (soudage, oxycoupage, perforation du béton…). Il intervient aussi dans différentes applications médicales, où il est utilisé dans les traitements d’insuffisances respiratoires et en réanimation.
→ oxygénothérapie, oxygénothérapie hyperbare.

6. L'OXYGÈNE DANS LE CORPS HUMAIN

Échanges gazeux
Dans l'organisme, le dioxygène est véhiculé dans le sang après fixation sur l'hémoglobine des globules rouges. Ce dioxygène est cédé aux tissus, où il intervient dans la « respiration cellulaire » (réactions d'oxydoréduction productrices d'énergie).
On définit le taux sanguin d'oxygène par sa pression partielle (la pression partielle d'un gaz dans un mélange gazeux occupant un volume déterminé est égale à la pression qu'exercerait ce gaz s'il occupait seul ce volume). La pression partielle d'oxygène artériel (PaO2) est normalement de 90 à 100 millimètres de mercure, sachant qu'elle diminue avec l'âge. L'hypoxie (oxygénation insuffisante des tissus) entraîne un trouble de fonctionnement des cellules, pouvant aboutir à leur mort.

 

   DOCUMENT   larousse.fr    LIEN

 
 
 
 

AZOTE

 

 

 

 

 

 

 

azote

(du grec dzôê, vie)

Consulter aussi dans le dictionnaire : azote
Cet article fait partie du dossier consacré à l'air.
Corps gazeux (N2) à la température ordinaire, qui constitue environ les quatre cinquièmes en volume de l'air atmosphérique. (Élément chimique de symbole N.)


*         Numéro atomique : 7
*         Masse atomique : 14,006 7
*         Point d'ébullition : −195,8 °C
*         Point de fusion : −210 °C
*         Densité par rapport à l'air : 0,97
*
CHIMIE

DÉCOUVERTE DE L’AZOTE

L'azote a été découvert en 1772, par Daniel Rutherford et identifié comme corps simple par Antoine Laurent de Lavoisier en 1775. Il a également été étudié par Henry Cavendish en 1784, lors de ses travaux d’analyse de l’air.

ÉTAT NATUREL DE L’AZOTE
L'azote existe à l'état libre dans l'air, dont il constitue environ 78 % en volume, sous forme de molécules diatomiques (diazote N2). On le trouve également combiné dans les nitrates et les sels ammoniacaux. Il entre enfin dans la constitution des protéines et des acides nucléiques des êtres vivants.

PROPRIÉTÉS ET ACTIVITÉ CHIMIQUES
L'azote est un gaz incolore et inodore, difficile à liquéfier et peu soluble dans l'eau. À basse température, il est sans activité chimique, d'où son nom, mais le devient à haute température, où il passe à l'état monoatomique. Certaines de ses réactions sont d'une extrême importance, à cause du rôle que jouent ses composés dans la nature et dans l'industrie. Avec l'hydrogène à chaud, il donne de l'ammoniac, par une réaction réversible. Dans l'industrie, cette réaction de synthèse est réalisée à 550 °C, sous haute pression avec un catalyseur. Avec l'oxygène, l'azote donne, dans un arc électrique, le monoxyde d'azote NO.

PRÉPARATION
Dans l'industrie, la matière première, abondante et gratuite, est l'air. Par distillation fractionnée de l'air liquide, on obtient de l'azote qui renferme un peu d'oxygène, d'argon, de l'hélium et du néon du mélange de départ. On peut également priver l'air de son oxygène en l'utilisant pour la combustion du charbon ; on obtient alors de l'azote qui contient tous les gaz rares de l'air. Cet azote atmosphérique est livré en bouteilles d'acier, sous 200 atmosphères environ. Pour obtenir de l'azote pur (azote chimique), on chauffe vers 70 °C du nitrite d'ammonium. C'est en constatant que la densité de l'azote atmosphérique et celle de l'azote chimique étaient différentes qu'on a été amené à découvrir les gaz rares.

UTILISATIONS
Obtenu industriellement par distillation fractionnée de l'air liquide, l’azote est principalement utilisé dans la fabrication des engrais et de l'ammoniac, mais également comme atmosphère inerte dans le magasinage de liquides inflammables.
Comme liquide cryogénique, l'azote liquide a des applications alimentaires (congélation), médicales (conservation de tissus et organes, thérapie), industrielles (simulation spatiale, ébarbage, congélation des sols, etc.).
Par ailleurs, l'azote se combine avec divers métaux pour donner des nitrures ou des azotures.

LES OXYDES DE L'AZOTE
Endothermiques à partir de leurs éléments, ils sont peu stables à température modérée et peuvent jouer le rôle d'oxydants.

OXYDE NITREUX OU AZOTEUX, OU PROTOXYDE D'AZOTE N2O
C'est un gaz incolore et inodore, assez facile à liquéfier, produisant une excitation cérébrale (gaz hilarant) puis une anesthésie. Il se décompose à la chaleur en ses éléments et peut de ce fait entretenir des combustions vives.

MONOXYDE D'AZOTE OU OXYDE NITRIQUE NO
C'est un gaz incolore, difficile à liquéfier qui se décompose complètement au rouge vif et présente alors des propriétés comburantes. Au contact de l'oxygène, il s'oxyde spontanément en donnant de l'anhydride nitreux et du peroxyde d'azote. Il réduit ainsi le permanganate de potassium, l'acide nitrique concentré, etc. Il est obtenu dans l'industrie par synthèse directe dans l'arc électrique ou par oxydation catalytique de l'ammoniac, mais est aussitôt transformé en acide nitrique ou en acide nitreux. On le nomme aussi oxyde azotique (ou dioxonitrique II).

PEROXYDE OU DIOXYDE D’AZOTE NO2
C'est un liquide jaune pâle qui bout à 21 °C en émettant des vapeurs rouges dont la coloration augmente par chauffage. Cela provient de l'existence de deux variétés moléculaires : dimère N2O4, incolore et stable à froid, et monomère NO2, fortement coloré et se produisant à chaud par une réaction réversible. Dès 180 °C, la molécule NO2 se dissocie en NO et oxygène. Le peroxyde d'azote présente donc des propriétés comburantes et oxydantes qui le font employer comme ergol et pour réaliser des explosifs, dénommés panclastites. Au contact de l'eau, il se comporte comme un anhydride mixte.

ANHYDRIDE NITREUX N2O3
L’anhydride nitreux est obtenu à l'état liquide en mélangeant et en condensant des volumes égaux d'oxyde nitrique et de dioxyde d'azote. C'est un liquide bleu, qui bout vers 3 °C et qui se solidifie à − 102 °C. Très instable, il émet des vapeurs rutilantes, mélange de NO, de NO2 et de N2O2. Il possède à la fois les propriétés de l'oxyde nitrique et du dioxyde d'azote, c'est-à-dire qu'il peut se comporter comme un oxydant ou comme un réducteur (oxydoréduction). C'est un anhydride vrai qui correspond à l'acide nitreux HNO2. On le nomme aussi anhydride azoteux (ou dioxonitrique III).

ANHYDRIDE NITRIQUE N2O5
L’anhydride nitrique est préparé en déshydratant l'acide nitrique par l'anhydride phosphorique. C'est un solide blanc qui fond vers 30 °C en se décomposant. Le liquide obtenu est un mélange de N2O4 et N2O5. C'est un oxydant et un anhydride vrai. L'acide correspondant est l'acide nitrique (ou trioxonitrique V). L'anhydride nitrique est nommé aussi anhydride azotique. Les composés de l'anhydride nitrique jouent un rôle important dans l'industrie des engrais, des colorants et des explosifs.

LE CYCLE DE L'AZOTE

Élément essentiel des acides aminés, l'azote est l'un des quatre constituants universels de la matière vivante, avec le carbone, l'hydrogène et l'oxygène. Il constitue environ 80 % de la masse de l'atmosphère, mais seules quelques espèces vivantes dites prototrophes (bactéries libres ou symbiotiques du sol, cyanophycées) sont capables de l'absorber utilement. Les phototrophes (plantes vertes) se procurent l'azote dans l'eau ou dans le sol, surtout sous forme de nitrates. Une exception est constituée par les plantes dites enrichissantes, légumineuses surtout, qui hébergent des bactéries prototrophes dans les nodosités de leurs racines et dont l'enfouissement comme « engrais vert » enrichit le sol en azote. Les animaux utilisent l'azote contenu sous forme organique dans leurs proies animales ou végétales.
Excréments et cadavres rendent cet azote organique au sol, où une série d'actions microbiennes (ammonisation, nitrosation, nitratation) redonnent à cet élément la forme de nitrates, assimilables par les plantes. Mais des processus de dénitrification font équilibre à la fixation de l'azote dans le sol, de sorte qu'aucune évolution de la teneur de l'atmosphère en azote n'est constatée.

 

  DOCUMENT   larousse.fr    LIEN

 
 
 
 

LA MODÉLISATION DES MOLÉCULES DE LA VIE

 

 

 

 

 

 

 

LA MODÉLISATION DES MOLÉCULES DE LA VIE

Il y a plus de cent ans, les chimistes ont commencé à exploiter des modèles pour visualiser les molécules qu'ils manipulaient dans leurs tubes à essais. Les modèles physiques permettent de mieux comprendre la forme et la flexibilité des molécules, mais ils sont longs à construire, souvent chers, et ils ne donnent qu'une vue très approximative des molécules. De surcroît, ils sont peu adaptés à la représentation des grandes molécules qui caractérisent la vie et qui contiennent des milliers, voire des centaines de milliers, d'atomes. Depuis environ quarante ans, les ordinateurs offrent une alternative aux modèles physiques. Ils permettent de décrire les molécules (et les macromolécules) d'une façon beaucoup plus réaliste en tenant compte de l'ensemble des interactions qui peuvent avoir lieu entre ces espèces. Ils permettent non seulement de visualiser les molécules, mais aussi d'étudier leur dynamique et leurs interactions. La modélisation ne remplace pas l'expérimentation, mais elle aide à analyser des résultats et surtout à formuler de nouvelles hypothèses. J'illustrerai ces développements avec des exemples portant sur les acides nucléiques, et, en particulier, la double hélice d'ADN, sur les protéines et sur les complexes formés entre ces macromolécules. Je montrerai comment on peut approcher les molécules avec l'oeil de l'ingénieur civil, et comment les molécules sondent leurs propres propriétés mécaniques pour se reconnaître. Je parlerai aussi de la modélisation au service des physiciens qui ont appris à manipuler les molécules une à une, ou au service du biologiste "seigneur des anneaux". Je terminerai en parlant de l'avenir de la modélisation: est-ce que nous pouvons commencer déjà à simuler non seulement une ou deux molécules, mais plutôt les systèmes moléculaires organisés qui animent nos cellules ?

Texte de la 614e conférence de l'Université de tous les savoirs donnée le 21 juin 2006
Richard Lavery : « La modélisation des molécules de la vie »
Le besoin de modèles
Depuis toujours les scientifiques, comme les ingénieurs, les architectes et même les enfants, ont eu besoin de construire des modèles pour les aider à comprendre le monde complexe qui nous entoure. Néanmoins, les modèles dont je vais parler ici ont dû attendre la fin du dix-neuvième siècle pour voir le jour. La raison principale pour cela est que nous allons parler du monde des atomes et leurs assemblages pour former des molécules et des macromolécules. Même si l'existence des atomes a été postulée par le philosophe grec Démocrite [1], 400 ans avant notre ère, il a fallu attendre les années 1900 pour accumuler suffisamment d'évidence en faveur de l'existence des atomes pour convaincre le monde scientifique. A ce sujet, il est remarquable de noter que les chimistes, qui avaient utilisé les formules pour décrire la constitution des molécules depuis le début du dix-neuvième siècle (par exemple, H2O, deux "parts" d'hydrogène pour une "part" d'oxygène), ont été parmi les plus difficiles à convaincre que "part" pouvait se traduire par atome et ceci malgré les travaux de leurs illustres prédécesseurs, notamment Lavoisier et Dalton, en faveur de la théorie atomique [1].
C'est donc aux alentours de 1900 que les premiers modèles représentant le nombre et l'organisation spatiale des atomes au sein des molécules ont vu le jour. Ces modèles comme vous pouvez le voir dans l'illustration, ressemblent beaucoup aux modèles que l'on trouve dans les salles de cours et les laboratoires aujourd'hui. Il y a naturellement différents types de représentation pour satisfaire les besoins des utilisateurs. Certaines emploient des sphères tronquées pour illustrer l'espace occupé par chaque atome (modèles Corey-Pauling-Kolton ou CPK des années '50), tandis que d'autres se concentrent sur la conformation des liaisons qui sont représentées par des fils métalliques (modèles Dreiding des années 60).
De tels modèles fonctionnent bien pour des molécules composées de quelques dizaines d'atomes, mais posent des problèmes pour construire des macromolécules formées de milliers, voir de dizaines de milliers d'atomes. Cette difficulté se fait ressentir au début des années soixante quand les premières structures des protéines ont été obtenues par les cristallographes à Cambridge. A partir de ce moment, il a fallu chercher d'autres moyens de modélisation plus rapides à mettre en place, moins chers, et plus maniables. C'est l'ordinateur et le passage aux modèles virtuels qui a fourni la réponse. Mais avant de parler de ces développements il y un exemple remarquable de modélisation "classique" qui mérite discussion.

L'ADN - un exemple phare du vingtième siècle
L'histoire de l'ADN (acide désoxyribonucléique) commence en 1869 quand Friedrich Miescher isole une substance de noyaux des cellules humaines qu'il dénomme "nucléine". Il s'agit en fait d'un mélange complexe de protéines et d'ADN. Il faut attendre le travail des chimistes du vingtième siècle et notamment les efforts de Phoebus Levene à l'Institut Rockefeller à New York pour connaître la structure chimique de la molécule qui se révèle être de longues chaînes composées d'une alternance de phosphates et de sucres. Sur chaque sucre est accrochée une base. Quatre bases sont identifiées : adénine (A), cytosine (C), guanine (G) et thymine (T). En formulant l'hypothèse que ces quatre bases se répètent de façon régulière le long de la chaîne d'ADN (par exemple, ACGT-ACGT-ACGT-.....) Levene relègue l'ADN à la famille de polymères jouant probablement un rôle structural au sein de la cellule. Mais, Levene se trompe et comme Oswald Avery, un autre scientifique de l'Institut Rockefeller, montre en 1944, l'ADN a le pouvoir de transformer des bactéries. L'ADN porte donc le message génétique et une course est lancée pour trouver sa structure et comprendre son fonctionnement. Plusieurs informations sont connues. Chargaff démontre que les bases sont présentes dans des rapports fixes de telle façon que le rapport de concentrations [A]/[G] est égale au rapport [T]/[C]. Astbury et ensuite Rosalind Franklin obtiennent des clichées de diffraction des rayons X à partir des fibres d'ADN et démontrent que la molécule possède une structure hélicoïdale.
Linus Pauling, un des plus grands chimistes du vingtième siècle propose une structure qui ne peut pas être correcte puisqu'il met les bases à l'extérieur et les phosphates en contact au centre de la structure sans tenir compte du fait qu'ils sont chargés négativement et ne peuvent pas se rapprocher ainsi [2].
La solution est trouvée à Cambridge par un jeune biologiste américain James Watson et le physicien anglais Francis Crick. Leur collègue Jerry Donohue explique que la formule normalement employée pour les bases n'est probablement pas correcte. Ce changement est la clé. Watson, jouant avec des modèles des bases, voit qu'il peut les assembler par paire : A avec T, G avec C. Les deux paires ont exactement la même forme et elles peuvent être placées, non pas à l'extérieur de la structure hélicoïdale, mais au centre.
Il crée ainsi la fameuse double hélice qui est devenue une des icônes de notre époque [3]. La construction du modèle, guidée par les informations expérimentales, donne un résultat si simple et si beau qu'il est accepté immédiatement. La double hélice est non seulement compatible avec les données expérimentales, mais suggère également comment l'information génétique passe d'une cellule à une autre. En effet, il suffit de séparer les deux chaînes et de fabriquer de nouvelles doubles hélices en copiant l'information: A dans le premier chaîne donne son complément T, T dans le deuxième chaîne donne son complément A. Il est probable que nous ne verrons jamais plus un modèle moléculaire qui aura un tel impact.

L'arrivée des ordinateurs
Pour aller plus loin avec la modélisation des molécules de la vie, il a fallu une autre étape clé - l'arrivée des ordinateurs. L'envie de calculer plus vite et avec plus de précision a inspiré les ingénieurs depuis longtemps. Qu'il s'agit d'obtenir les tables logarithmiques sans erreur, d'effectuer des calculs de balistique, ou de comprendre une réaction de fission nucléaire, les capacités de calcul humaines sont rapidement dépassées. Quelques pionniers du dix-neuvième siècle comme Charles Babbage ont tenté de résoudre les problèmes à l'aide d'une machine [4]. Plus précisément, une machine "universelle" capable d'effectuer différents types de calcul en suivant une suite d'instructions. Des ingénieurs comme Jacquard travaillant pour l'industrie de soie à Lyon, ont fourni le moyen d'écrire de tels programmes sur des ensembles de cartes perforées. Les plans de Babbage ont été bon (la Musée des Sciences de Londres vient de construire et de faire marcher des éléments de l'ordinateur de Babbage, et notamment son imprimante) mais en 1850 il n'avait ni les bons matériaux ni des outils de fabrication suffisamment précis. Les ordinateurs ont réellement vu le jour pendant la deuxième guerre mondiale quant les calculs rapides sont devenus indispensables pour casser des codes et pour faire avancer le projet Manhattan vers la production de la bombe atomique.
La disponibilité des ordinateurs pour des travaux non militaires date des années soixante. Les chimistes et biologistes n'ont pas attendu pour profiter de leurs possibilités, non seulement pour effectuer des calculs, mais aussi pour créer une nouvelle façon de visualiser des molécules, d'abord par des images fixes imprimées sur papier et ensuite par des images animées grâce au couplage entre l'ordinateur et l'écran cathodique. Dès 1966, Cyrus Levinthal à MIT a mis au point un système capable de représenter la structure d'une protéine et de la manipuler dans l'espace [5]. Depuis, les moyens de visualisation ont progressé de façon remarquable et même un ordinateur familial permet de se plonger dans le monde fascinant des macromolécules biologiques à travers des représentations toujours plus belles. Je vous encourage d'ailleurs de se procurer un des logiciels de visualisation gratuits tels que VMD [6] et d'entreprendre votre propre voyage au sein des protéines et des acides nucléiques (dont les structures sont librement accessibles dans la banque RSCB). Les coordonnées de VMD et du RCSB sont indiquées dans la liste des sites internet ci-dessous.
En parallèle, avec le développement du graphisme, les logiciels permettant de modéliser mathématiquement le comportement des molécules ont vu le jour, initialement pour satisfaire les besoins de la spectroscopie en interprétant les spectres en termes de vibrations moléculaires et ensuite pour modéliser la structure, la dynamique et les interactions des molécules dans leur environnement biologique, c'est à dire, entourées de l'eau et d'ions et soumises aux effets de l'excitation thermique. Le développement de tels logiciels continue aujourd'hui en ciblant des représentations moléculaires toujours plus près de la réalité et la capacité de modéliser des systèmes toujours plus grands et plus complexes.

Les molécules
Qu'est qu'il faut pour créer une molécule virtuelle au sein de l'ordinateur ? Peut-on modéliser la dynamique d'une molécule, le processus d'assemblage d'un complexe multi-moléculaire ou le fonctionnement d'un enzyme ? Pour commencer à répondre à ces questions, il faut se rappeler que les molécules, même les macromolécules de la vie, sont très petites. Leur taille se mesure en dizaines de nanomètres (un nanomètre est un mille milliardième d'un mètre, 10-9 m) et il faut, par exemple, empiler 30,000 protéines pour atteindre l'épaisseur d'une feuille de papier ! A ces dimensions, c'est la mécanique quantique qui règne; les électrons forment un nuage de densité électronique autour des noyaux atomiques, et obéissent à la fameuse équation de Schrödinger. Dans ce monde quantique toute la chimie est possible, les électrons et les noyaux peuvent être perturbés par des interactions avec la lumière, d'autres rayonnements ou d'autres molécules et les électrons peuvent s'échanger entre différentes molécules en formant et en brisant des liaisons chimiques. Néanmoins, les calculs associés sont complexes et, malgré le progrès remarquable de la chimie quantique, ils sont encore prohibitifs pour la plupart des systèmes macromoléculaires.
Dans ce cas, si on accepte de se limiter aux études de la structure, la dynamique conformationnelle et les interactions physiques des macromolécules nous pouvons retourner vers la mécanique classique de Newton. Dans ce monde les atomes deviennent des billes (avec des tailles et des charges électrostatiques qui dépendent de leurs identités chimiques et de la molécule à la quelle ils appartiennent) et les liaisons chimiques deviennent des ressorts.
D'autres termes simples représentent la déformation des angles de valence, la rotation des angles dièdres et l'équilibre entre l'attractivité des atomes à longue portée et leur répulsion à courte portée. On crée ainsi un "champ de force" qui permet de calculer l'énergie d'un système moléculaire, d'optimiser sa structure en minimisant cette énergie ou encore de suivre sa dynamique à une température donnée (en intégrant l'équation de Newton Force = Masse x Accélération dans le temps). Quelques décennies de recherche ont permis de raffiner de champs de force suffisamment pour obtenir des résultats en bon accord avec l'expérience. Combinés avec la puissance croissant des ordinateurs, ils sont devenus un moyen efficace pour étudier le comportement des macromolécules biologiques. Nous retournerons vers la double hélice de l'ADN pour montrer un exemple.

Le physicien sonde l'ADN
Dans notre domaine, un des développements les plus excitants de ces dernières années a été la possibilité de manipuler directement une seule molécule [7]. L'ADN est un bon candidat pour de telles expériences puisque, malgré un diamètre de seulement deux nanomètres, sa longueur peut atteindre des centimètres. L'envie de manipuler une seule molécule résulte de l'observation que l'évaporation d'une gouttelette d'eau pouvait étirer l'ADN bien au delà de sa longueur naturelle [8]. Par la modification chimique des extrémités de la molécule (un sort de "scotch" moléculaire), il était ensuite possible d'attraper une molécule d'ADN et de la fixer sur une extrémité à une surface et sur l'autre à une microbille en polystyrène. En tirant sur la microbille il est devenu possible de suivre l'extension de la molécule et de mesurer les forces exercées. Les résultats ont été surprenants puisqu'il s'avère que l'ADN ne se comporte pas comme un ressort simple. Au delà d'une certaine force (environ 70 picoNewtons), la molécule est capable de presque doubler sa longueur sans que la force exercée augmente [9]. L'explication structurale de ce phénomène est venue de la modélisation. En étirant la double hélice dans le monde virtuel de l'ordinateur, nous avons constaté qu'il y a en fait deux chemins d'étirement, soit en déroulant la double hélice, soit en diminuant son diamètre par l'inclinaison des paires de bases. En réalité il est probable que ces deux chemins participent à former la structure étirée qui porte désormais le nom d'ADN-S (stretched DNA) [9, 10].
Par la suite, l'emploi d'une microbille magnétique a permis de contrôler à la fois l'étirement et l'enroulement de la molécule [11]. A nouveau les résultats ont été surprenants. En diminuant le nombre de tours de la double hélice on arrive à séparer les deux brins, mais en augmentant le nombre de tours on a constaté que la molécule s'allonge et qu'on pouvait atteindre une rotation de presque 160° entre les paires de bases successives (contre seulement 34° dans la conformation usuelle de l'ADN). La modélisation de se phénomène a permis de postuler une nouvelle forme de la double hélice qui se ressemble étrangement à la structure incorrecte proposée par Linus Pauling avant le succès de Watson et Crick. Cette structure, qui est maintenant appelé ADN-P (P pour Pauling) se distingue par la position des bases, qui sont à l'extérieure de la structure, tandis que les brins phosphodiesters sont entrelacés au centre [12].
Ces expériences et la modélisation qui a suivi ont montré la complexité de la mécanique de l'ADN. Elles ont aussi servi de base pour une nouvelle domaine scientifique, la physique des molécules uniques, qui continue de fournir des informations sur une gamme de systèmes biologiques (complexes protéine-ADN, la chromatine, les moteurs moléculaires, le fonctionnement des virus, ...) qui sont difficilement accessibles par d'autres types d'expérience.
Partir des ponts pour arriver aux protéines
Pour continuer sur le thème de la mécanique des macromolécules, j'aimerais parler un peu des protéines. Les protéines ont des structures plus complexes que l'ADN. D'abord, elles sont formées de polymères (polypeptides) composés de 20 types de sous unités différentes (les acides aminés), plutôt que seulement quatre types pour l'ADN (les nucléotides portant les bases A, C, G et T). Ensuite, dans la plupart des cas, le repliement de la chaîne des acides aminés conduit à des structures compactes et globulaires.
Cette complexité illustre l'importance de la structure des protéines, mais la structure seule n'est pas suffisante pour tout comprendre. On peut raisonnablement assumer que leurs propriétés mécaniques sont également importantes compte tenu des travaux accomplis par des protéines. Ainsi, plusieurs protéines appartiennent à la catégorie des enzymes et sont capables de catalyser des réactions chimiques avec une spécificité remarquable, d'autres jouent un rôle structural au sein de nos cellules et d'autres encore fonctionnent en tant que moteurs miniatures. Toutes ces taches nécessitent non seulement des structures particulières, mais aussi des propriétés mécaniques appropriées.
Nous avons tenté de mettre au point des techniques de modélisation pour étudier ces propriétés [13]. Plus précisément, à partir des fluctuations spatiales des acides aminés lors d'une simulation dynamique, nous avons pu calculer des constants de force correspondant à la difficulté de déplacer un résidu donné par rapport au reste de la structure [14]. Pour accélérer les calculs nous avons utilisé un modèle protéique plus simple comportant seulement quelques points pour chaque acide aminé (plutôt qu'une dizaine d'atomes) et nous avons également remplacé le champ de force classique avec de simples ressorts entre tous les résidus proches. Ainsi modélisée, la protéine ressemble à un objet élastique où la densité de ressorts reflète le repliement de la chaîne polypeptidique.

Compte tenu de la simplicité de notre modèle, nous étions surpris de voir que les propriétés mécaniques des différents résidus pouvaient varier de façon importante au sein d'une seule protéine. La figure montre se résultat à travers le "spectre" de constantes de force pour les acides aminés d'une péroxidase. Cette protéine contient un groupement heme qui joue un rôle central en catalysant la cassure d'une liaison péroxide, R-O-O-R', pour former deux alcools, R-OH et R'-OH, par l'addition de deux atomes d'hydrogène et de deux électrons. Un petit nombre de résidus sont particulièrement difficiles à déplacer et ont des constantes de force très élevées. Il s'avère que ces résidus sont exactement ceux qui maintiennent le groupement heme en place et sont donc des résidus clés pour le fonctionnement de la protéine.
Après l'étude d'environ 100 protéines, nous avons pu démontrer que les résidus ayant un rôle fonctionnel ont presque toujours des propriétés mécaniques exceptionnelles. Ils sont, dans l'ensemble, tenus de façon beaucoup plus rigide au sein de leurs structures protéiques que les autres résidus. Nous pouvons conclure que cette propriété est importante pour l'activité protéique et que l'évolution a choisi le repliement complexe de chaque protéine non seulement pour placer les résidus clés au bon endroit, mais aussi pour assurer qu'ils y restent.

L'avenir de la modélisation en biologie
Il est toujours dangereux de parler de l'avenir. Néanmoins, dans le domaine de la modélisation on peut faire deux prédictions concernant les développements possibles et souhaitables sans prendre trop de risques.
Premièrement, les ordinateurs vont continuer à progresser en puissance comme en capacité de stockage. Depuis les années quarante jusqu'à nos jours la puissance des processeurs a doublé environ tous les 18 mois. En même temps, les mémoires ont changé de quelques octets à des kilooctets, puis des mégaoctets, des gigaoctets et maintenant des téraoctets. Aujourd'hui certaines voitures ont plus de puissance de calcul que les capsules Apollo des années soixante-dix ! Au delà de la puissance des processeurs individuels, il est aussi devenu courrant d'assembler de dizaines, des centaines, voir des milliers de processeurs pour multiplier la puissance disponible. De telles machines sont traditionnellement construites dans les bâtiments des centres de calculs, mais il est aussi possible de créer une machine virtuelle composé d'ordinateurs indépendants. Les efforts de projets tels que "Screensaver Lifesaver". Ce projet cible la conception de nouveaux médicaments contre le cancer grâce aux calculs effectués par un logiciel de sauvegarde d'écran installé volontairement par des particuliers sur leurs propres PC (voir la liste des sites internet ci-dessous). Les résultats de Lifesaver montrent la puissance de cette approche puisque les calculs effectués ont largement dépassé la puissance des gros centres de calcul conventionnels avec plus de 450,000 heures de calcul sur un total de 3.5 millions de PC à travers le monde.

Deuxièmement, malgré la puissance de calcul qui sera disponible, elle sera toujours insuffisante pour modéliser toute la complexité des systèmes vivants. Aujourd'hui nos efforts portent sur une meilleure compréhension de la structure et de la dynamique de macromolécules individuelles, sur les interactions macromolécule-ligand ou sur les interactions entre deux macromolécules. En revanche, au sein de la cellule, chaque macromolécule se trouve en contact avec des dizaines d'autres dans un milieu hétérogène et dense qui, de surcroît, évolue dans le temps. La plupart de complexes qui se forment dans ce milieu impliquent de multiples macromolécules. Un nombre très important de petites molécules entre et sort des cellules et voyage entre les différents compartiments cellulaires pour passer des messages chimiques, tandis qu'un système de fibres et de moteurs se charge de déplacer des objets moléculaires plus encombrants et participe dans les mouvements et les interactions de la cellule. Finalement, les cellules sont protégées et partitionnées par des membranes lipidiques comportant une gamme impressionnante de canaux et de récepteurs qui se chargent de la communication avec le monde extracellulaire. Par comparaison, nos efforts de modélisation semblent un peu timides. Comprendre la complexité des systèmes vivants au niveau moléculaire nécessitera non seulement toute la puissance informatique disponible, mais aussi toute la créativité des chercheurs pour mettre au point de nouveaux modèles et de nouveaux algorithmes de modélisation.
Remerciements
La recherche aujourd'hui implique plus des équipes que des individus. Je souhaite remercier mes collègues qui ont contribué aux travaux présentés ici. Notamment, pour la modélisation des acides nucléiques et leur manipulation, Anne Lebrun et Krystyna Zakrzewska, et nos collègues de l'Ecole Normale Supérieure de Paris, Jean-François Allemand, David Bensimon, Didier Chatenay et Vincent Croquette, et pour l'étude de la mécanique des protéines, Fabien Cailliez, Isabelle Navizet, et Sophie Sacquin-Mora. Je remercie également les autres membres du Laboratoire de Biochimie Théorique à Paris avec qui j'ai eu le plaisir de travailler et le CNRS qui a fourni les moyens d'accomplir ce travail.

Quelques sites Internet
Charles Babbage et ses merveilleuses machines à calculer :
www.charlesbabbage.net
www.fourmilab.ch/babbage/sketch.html
L'histoire des ordinateurs :
www.hitmill.com/computers/computerhx1.html#BB
L'histoire de la visualisation des molécules sur ordinateur :
www.umass.edu/microbio/rasmol/history.htm
Le logiciel ORTEP :
http://www.ornl.gov/sci/ortep/ortep.html
Les impressionnantes images de David Goodsell :
www.scripps.edu/mb/goodsell/
Les calculs à très grand échelle pour lutter contre le cancer "Screensaver Lifesaver" : www.chem.ox.ac.uk/curecancer.html
"Imprimer" en trois dimensions :
3dmoleculardesigns.com/
La RCSB : les structures des protéines accessibles à tous:
www.rcsb.org
Visualiser les macromolécules chez vous avec VMD :
www.ks.uiuc.edu/Research/vmd/
Références
1. Pullman, B. (1998). The atom in the history of human thought (Oxford: Oxford University Press).
2. Pauling, L., and Corey, R.B. (1953). Structure of the nucleic acids. Nature 171, 346.
3. Watson, J.D., and Crick, F.H. (1953). Molecular structure of nucleic acids; a structure for deoxyribose nucleic acid. Nature 171, 737-738.
4. Swade, D. (2001). The cogwheel brain (London: Abacus).
5. Levinthal, C. (1966). Molecular model building by computer. Scientific American 214, 42-52.
6. Humphrey, W., Dalke, A., and Schulten, K. (1996). VMD: visual molecular dynamics. J Mol Graph 14, 33-38, 27-38.
7. Lavery, R., Lebrun, A., Allemand, J.-F., Bensimon, D., and Croquette, V. (2002). Structure and mechanics of single biomolecules: experiment and simulation. J Phys (Cond. Mat.) 14, R383-R414.
8. Bensimon, D., Simon, A.J., Croquette, V.V., and Bensimon, A. (1995). Stretching DNA with a receding meniscus: Experiments and models. Physical Review Letters 74, 4754-4757.
9. Cluzel, P., Lebrun, A., Heller, C., Lavery, R., Viovy, J.L., Chatenay, D., and Caron, F. (1996). DNA: an extensible molecule. Science 271, 792-794.
10. Lebrun, A., and Lavery, R. (1996). Modelling extreme stretching of DNA. Nucleic Acids Res 24, 2260-2267.
11. Strick, T.R., Allemand, J.F., Bensimon, D., and Croquette, V. (1998). Behavior of supercoiled DNA. Biophys J 74, 2016-2028.
12. Allemand, J.F., Bensimon, D., Lavery, R., and Croquette, V. (1998). Stretched and overwound DNA forms a Pauling-like structure with exposed bases. Proc Natl Acad Sci U S A 95, 14152-14157.
13. Navizet, I., Cailliez, F., and Lavery, R. (2004). Probing protein mechanics: residue-level properties and their use in defining domains. Biophys J 87, 1426-1435.
14. Sacquin-Mora, S., and Lavery, R. (2006). Investigating the local flexibility of functional residues in hemoproteins. Biophys J 90, 2706-2717.

 

   VIDEO       CANAL  U         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 ] - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon