ecole de musique piano
     
menu
 
 
 
 
 
 

Nano-ions photoactifs : deux réactions chimiques dans un seul réacteur !

 

 

 

 

 

 

 

Nano-ions photoactifs : deux réactions chimiques dans un seul réacteur !

Des chercheurs de l'ICSM et leurs partenaires proposent de coupler des réactions d'oxydation et de réduction dans un même réacteur, pour des procédés chimiques plus économiques et plus respectueux de l'environnement.

Publié le 9 mars 2022

Dans la famille des ions nanométriques, certains anions de type polyoxométalates ont des propriétés photocatalytiques de plus en plus exploitées pour réduire ou oxyder des fonctions organiques en phase liquide.
Les chercheurs de l'ICSM, en collaboration avec l'Université de Regensburg (Allemagne), proposent un concept économique de procédé REDOX. Il utilise deux solvants non miscibles dans lesquels se distribuent les formes oxydée et réduite d'un catalyseur unique, ce qui permet de séparer dans deux phases distinctes les réactions de réduction et d'oxydation.

Parmi les exemples étudiés, le cas le plus démonstratif est la double réaction suivante :
*         l'oxydation d'un colorant toxique pour l'environnement, le DR-13 de couleur rouge, dans la phase organique ;
*         la réduction d'une solution ionique d'argent en phase aqueuse.
Le photocatalyseur est l'acide phosphotungstique (H3PW12O40), disponible sur catalogue. Ce cluster ionique inorganique, de dimension nanométrique, porte trois charges négatives sous sa forme naturelle (3-). En raison de sa faible densité de charge, il est liposoluble et plutôt distribué dans la phase organique.

Quand il est activé sous rayonnement UV, il peut oxyder le colorant et se trouve lui-même réduit sous la forme 4-. Il devient hydrosoluble, migre en phase aqueuse et rend alors le milieu réducteur pour les ions métalliques en solution.
Une fois les ions réduits en métal précipitant dans le fond du réacteur, les nano-ions se retrouvent oxydés (forme 3-) et donc de nouveau liposolubles, et retournent dans la phase organique où ils peuvent à nouveau être photo-activés et poursuivre la double réaction jusqu'à son terme.

Ce réacteur peut être alimenté de manière indépendante en composés organiques et métalliques.

RÉFÉRENCES
* {2-phases 2-reactions 1-catalyst} concept for the sustainable performance of coupled reactions, Green Chemistry


 

  DOCUMENT     cea         LIEN
 

 
 
 
 

LES PROBABILITÉS ET LE MOUVEMENT BROWNIEN

 

 

 

 

 

 

 

LES PROBABILITÉS ET LE MOUVEMENT BROWNIEN

"Le hasard est soumis à des lois, que le calcul des probabilités étudie d'un point de vue mathématique. La nature de ces lois est asymptotique, on ne peut rien déduire de la réalisation d'un événement aléatoire, seules les séries d'évènements ont une signification statistique, d'autant plus fiable que leur nombre est grand. Modéliser le hasard pour pouvoir faire des prévisions est un enjeu primordial. Dans de nombreuses situations il faut comprendre comment une source de "" bruit "" vient influencer le phénomène que l'on observe au cours du temps. Ce phénomène peut être un signal que l'on cherche à décrypter, la trajectoire d'une fusée que l'on veut guider, le cours d'une action en bourse, ou bien d'autres choses encore. Pour des raisons qui seront expliquées dans la conférence, le mouvement brownien fournit un modèle universel de bruit. On verra que les techniques mathématiques sophistiquées qui ont été développées pour étudier le mouvement brownien d'un point de vue théorique ont trouvé de nombreuses applications concrètes."




Il peut paraître paradoxal de parler de lois du hasard, car ce mot
évoque pour nous l'imprévisible, sur lequel nous n'avons aucune prise,
et pourtant le hasard obéit à des règles bien précises. La
connaissance de ces règles permet de faire des prédictions dans des
situations où l'on ne maîtrise pas toutes les données, parce qu'elles
sont trop nombreuses pour être connues en totalité. L'exemple le plus
visible, qui est devenu quasi-quotidien dans les sociétés
démocratiques modernes, est celui des sondages d'intention de vote qui
permettent de prédire le résultat d'une élection sans avoir à
interroger tous les électeurs. Comprendre la nature des lois du hasard
est indispensable si l'on veut connaître la portée et les limites de
ces méthodes. Tout d'abord il faut savoir que la nature de ces lois
est asymptotique: on ne peut pas déduire d'information
probabiliste de la réalisation d'un événement particulier, seules les
séries d'événements ont une signification statistique, d'autant plus
fiable que leur nombre est grand. Ainsi lorsqu'on jette une pièce de
monnaie en l'air, la symétrie de la pièce fait qu'il y a autant de
chances pour qu'elle retombe sur «~pile~» ou «~face~», mais cette
symétrie est brisée lorsque la pièce est retombée, et seule l'une des
deux alternatives est réalisée. L'équiprobabilité n'est observable que
si l'on répète l'expérience un grand nombre de fois: il est bien
connu qu'alors les fréquences d'apparition des «~pile~» et des
«~face~» se rapprochent de 1/2.  Cette observation se généralise pour
donner le résultat fondamental du calcul des probabilités, qui est la
loi des grands nombres.  Sous sa version la plus simple elle exprime
le fait que si l'on répète un grand nombre de fois une même expérience
aléatoire, dont le résultat est une valeur numérique, alors la moyenne
des résultats obtenus tend à se rapprocher de l'espérance mathématique
de l'expérience.  Cette espérance est, par définition, la somme
pondérée de tous les résultats possibles, chacun étant affecté d'un
poids égal à sa probabilité d'apparaître. Si nous reprenons l'exemple
du jeu de pile ou face, et si nous décidons de compter 1 pour chaque
face, et 0 pour chaque pile obtenus lors de lancers de pièces, la loi
des grands nombres nous assure que la moyenne des résultats obtenus,
qui ici est égale à la fréquence d'apparition des «~face~», se
rapproche de 1/2 quand le nombre de tirages devient grand,
conformément à l'expérience.
C'est la loi des grands nombres qui justifie les méthodes
d'échantillonnage utilisées en statistique, c'est elle encore qui
permet de savoir qu'à long terme un casino est toujours gagnant, et
même d'estimer son bénéfice futur. Enfin, on nomme aussi parfois, de
fa\c con plus générale, mais aussi moins précise, «~loi des grands
nombres~» tout résultat qui prédit le comportement déterministe, au
niveau macroscopique, d'un système composé d'un grand nombre
d'éléments microscopiques, interagissant de manière complexe et qui
échappent à une description détaillée.  C'est ainsi que les quantités
intensives de la thermodynamique classique (pression, température,
etc...) sont des moyennes, sur de petites régions de l'espace, de
quantités qui varient énormément sur des distances encore plus
petites.  Le comportement parfaitement prévisible, à notre échelle, de
ces moyennes, qui se traduit par les lois bien connues de la physique
des gaz, est un effet de cette loi des grands nombres plus
générale.
 
La loi des grands nombres n'a qu'une valeur asymptotique, on observe
donc lorsqu'on reste avec des nombres finis, des écarts par rapport au
comportement moyen attendu. Ces écarts eux aussi suivent des lois
précises, mais cette fois ce n'est plus leur valeur que l'on peut
prédire, seulement leur répartition statistique. Ainsi le théorème de
la limite centrale prédit que l'écart à la limite dans la loi des
grands nombres suit approximativement une loi gaussienne (décrite par
la fameuse «~courbe en cloche~») dont la variance, qui mesure
l'étalement de la courbe, est proportionnelle à l'inverse du nombre
d'expériences. Pour voir, en termes plus concrets, ce que cela
signifie, considérons l'expérience consistant à répéter « N » fois le
tirage d'une pièce de monnaie, « N »étant un nombre supposé très grand.
La quantité représente l'écart entre la fréquence théorique, 1/2, et la fréquence du nombre de faces observée pendant l'expérience, multiplié par un facteur de
renormalisation $2\sqrt{N}$.  Répétons cette expérience 200 fois (ce
nombre étant pris pour fixer les idées, cela revient donc à lancer
$200\times N$ fois la pièce), et répartissons les fréquences relatives
des résultats obtenus pour la quantité $E$ dans un histogramme, alors
on obtient typiquement un diagramme ressemblant à celui de la figure
1.

     \epsfxsize=8cm\epsfysize=8cm\epsfbox{TCL.ps}\caption{Le théorème
       de la limite centrale}\end{center}
 \end{figure}

 Les valeurs exactes des hauteurs des colonnes peuvent fluctuer en
 fonction de l'expérience, mais leur allure générale reste presque
 toujours proche de la courbe gaussienne, qui est le graphe de la
 fonction $e^{-x^2/2}/\sqrt{2\pi}$, tracé sur la figure, et aura
 tendance à s'y conformer encore plus précisément si le nombre
 d'expériences, qui ici était égal à 200, est augmenté.  Il est
 remarquable que la fa\c con dont les résultats se répartissent à la
 limite est indépendante de la nature de l'expérience que l'on répète.
 Cette universalité de la loi gaussienne est à l'origine de son
 intervention dans de nombreux problèmes de probabilités.  Le théorème
 de la limite centrale permet de donner des intervalles de confiance
 pour les estimations par échantillonnage, comme les sondages
 d'intention de vote.  Il permet aussi d'expliquer la «~loi des
 erreurs~» c'est-à-dire le fait que les erreurs de mesure des
 grandeurs physiques, qui ont de multiples causes indépendantes entre
 elles, tendent à se répartir suivant une distribution gaussienne.
 

 
 La loi des grands nombres et le théorème de la limite centrale, qui
 sont les deux résultats fondamentaux du calcul des probabilités,
 étaient en essence connus dès le dix-huitième siècle. Le
 développement de la théorie des probabilités aux dix-neuvième puis
 vingtième siècles a fait une place de plus en plus importante à
 l'étude des processus stochastiques, c'est à dire des phénomènes qui
 évoluent de fa\c con aléatoire au cours du temps. Parmi ces processus
 stochastiques, un rôle central est tenu par le mouvement brownien
 tant du point de vue de la théorie que de celui des applications. Je
 vais tenter dans cet exposé de présenter le mouvement brownien, et
 d'expliquer pourquoi et comment on l'utilise pour modéliser les
 phénomènes de bruit. Les applications technologiques de ces
 modélisations sont nombreuses, allant de l'aéronautique à la finance
 en passant par les télécommunications.
 
Le mouvement brownien


 L'observation du mouvement brownien est probablement aussi ancienne
 que l'invention du microscope, en fait il suffit d'observer de l'eau
 avec un fort grossissement pour y voir de petites particules en
 suspension agitées d'un mouvement désordonné et incessant. C'est le
 botaniste Brown qui, observant des particules de pollen à la surface
 de l'eau fit le premier, en 1827, une description précise de ce
 phénomène et lui laissa son nom. Une courbe comme celle représentée
 sur la figure 2, qui peut s'obtenir facilement par simulation sur un
 ordinateur personnel, représente un exemple typique de trajectoire
 d'une particule animée d'un mouvement brownien, observée pendant un
 intervalle de temps donné.

  \ Trajectoire
        d'une particule brownienne}
 
   Le caractère extrèmement irrégulier de ces trajectoires, qui
   apparaît clairement sur la figure, avait beaucoup intrigué ceux qui
   avaient observé ce phénomène à l'époque de Brown. Plusieurs
   hypothèses sur son origine furent proposées, dont certaines, de
   type vitaliste, supposaient que les particules possédaient une
   énergie propre qui les faisait se mouvoir, mais la véritable
   explication ne fut donnée qu'à la fin du siècle dernier, alors que
   la théorie de la structure atomique de la matière s'imposait au
   monde scientifique. Lorsqu'une petite particule solide est placée
   dans un fluide, elle est soumise au bombardement incessant des
   molécules qui composent le fluide. Ces molécules sont très petites
   par rapport à la particule (en pratique les particules en question
   ont une taille de l'ordre du micron, soit $10^{-3} mm$ alors que
   les molécules d'eau, par exemple, ont un diamètre de l'ordre de
   quelques Angström, soit $10^{-7}mm$), mais elles sont en très grand
   nombre, et leurs vitesses sont réparties dans l'espace de fa\c con
   isotrope, ce qui fait qu'en première approximation, par la loi des
   grands nombres, l'impulsion résultant de ces chocs est nulle.  Plus
   la particule est petite, moins elle subit de chocs par unité de
   temps, et plus elle est sensible aux écarts par rapport à la loi
   des grands nombres, si bien qu'en dessous d'une certaine taille les
   chocs cessent de se compenser exactement et produisent ce mouvement
   désordonné, dont la direction change de fa\c con incessante.  C'est
   Einstein qui le premier, en 1905, réussit à faire de cette
   observation une théorie physique quantitative.  La théorie
   d'Einstein fut bientôt confirmée expérimentalement par Jean Perrin,
   qui en déduisit la première détermination précise du nombre
   d'Avogadro (le nombre d'atomes contenus dans un gramme
   d'hydrogène).  Ces travaux, associés à ceux de Planck sur la
   radiation du corps noir, firent tomber les réticences des derniers
   sceptiques envers la théorie atomique, qui n'était pas à l'époque
   unanimement acceptée. Dans son mémoire, Einstein donne la
   description suivante du mouvement brownien:
 
   a) entre deux instants $s$ et $t$, le déplacement de la particule
   brownienne est aléatoire et suit une loi gaussienne de variance
   $D\times(t-s)$ où $D$ est un paramètre dépendant des
   caractéristiques physiques de la particule, comme la masse et le
   diamètre, et du fluide (viscosité, température, etc...).

 
 b) ce déplacement est indépendant du chemin parcouru par la particule
 avant le temps $s$.
 
La variance du a) est la valeur moyenne du carré de la
 distance entre les positions de la particule aux instants $s$ et $t$,
 et Einstein donne une formule explicite pour $D$.
 
 
 Ces deux propriétés caractérisent complètement le comportement
 statistique des particules browniennes.  Une conséquence importante
 est que la quantité que l'on doit mesurer, pour obtenir la valeur du
 paramètre $D$, est le déplacement quadratique moyen de la particule
 et non pas sa vitesse, qui n'est pas mesurable comme l'avaient
 observé depuis longtemps les expérimentateurs. C'est en mesurant la
 valeur de $D$ que Jean Perrin a pu estimer le nombre d'Avogadro.
 Comme nous le verrons plus loin, les lois d'Einstein sont très
 générales et concernent en fait une gamme de phénomènes beaucoup plus
 large que les particules en suspension dans un fluide. Leur
 universalité a la même origine que l'universalité de la loi
 gaussienne provenant du théorème de la limite centrale.

   {\it L'équation de la chaleur}
 
 
 Il résulte de la description donnée par Einstein que la probabilité
 de présence de la particule brownienne en un point suit une équation
 identique à celle qui régit la propagation de la chaleur, bien que
 ces phénomènes physiques soient tout à fait distincts l'un de
 l'autre. Cela se traduit concrètement de la manière suivante.
 Déposons une quantité de chaleur donnée en un point $x$ d'un corps
 homogène. Au bout d'un temps $t$, cette quantité de chaleur, en se
 répartissant dans le corps a fait monter la température en un point
 $y$ du corps, d'une quantité $\Delta T$. Oublions maintenant la
 quantité de chaleur et la température, et supposons qu'une particule
 animée d'un mouvement brownien soit placée au même point $x$, alors
 la probabilité (ou plus exactement la densité de probabilité, pour
 les puristes) $p(t,x,y)$ que cette particule se retrouve au point $y$
 au bout du même temps $t$ est proportionnelle à $\Delta T$, autrement
 dit
 $$p(t,x,y)=c\Delta T,$$
 le coefficient $c$ ne dépendant que des
 caractéristiques physiques du corps et pas des points $x$ et $y$ ou
 du temps $t$.  Outre la propagation de la chaleur, le mouvement
 brownien est également associé, toujours {\it via} les lois
 d'Einstein, au comportement des charges électriques à l'équilibre. Là
 encore je vais donner un exemple concret de l'interprétation
 brownienne d'un phénomène physique simple, illustré par la figure 3.

{la charge d'un point à la surface d'un corps conducteur est
         proportionnelle à la probabilité qu'une particule brownienne
         touche le corps en ce point.}


   Considérons un corps conducteur chargé électriquement.  En
   l'absence de champ électrique extérieur, les charges se
   répartissent spontanément à la surface du corps selon une
   configuration qui tend à minimiser l'énergie électrostatique.  Si
   maintenant une particule suivant les lois d'Einstein est lachée
   d'un point de l'espace situé très loin du corps alors la
   probabilité pour que l'endroit où elle touche pour la première fois
   le corps soit un point donné sur la surface est proportionnelle à
   la charge électrique de ce point dans la configuration d'équilibre.
   Ceci permet de relier le comportement du mouvement brownien avec
   certaines conséquences bien connues des lois de l'électrostatique,
   comme le principe du paratonnerre; en effet, la tendance du
   mouvement brownien à explorer l'espace autour de lui, bien visible
   sur la figure 2, fait qu'il a plus de chance, en s'approchant d'un
   corps de le toucher pour la première fois à un endroit où celui-ci
   présente une partie saillante. Traduit en termes électrostatiques,
   cela signifie que les charges électriques ont tendance à se
   concentrer dans les pointes, comme dans un paratonnerre.  Précisons
   encore une fois que ces phénomènes physiques ne sont reliés entre
   eux qu'à un niveau purement mathématique, celui des équations qui
   les décrivent, en particulier, le mouvement de la particule
   brownienne est supposé être totalement indépendant de la charge
   éventuelle du corps en question.
 

    {\it Théorie mathématique et applications technologiques}

 
  C'est N. Wiener qui le premier, dans les années 1920, montra que
  l'on pouvait définir de fa\c con rigoureuse un objet mathématique
  vérifiant les lois d'Einstein, en particulier il démontra que les
  trajectoires du mouvement brownien mathématique sont continues, et
  nulle part différentiables, ce qui signifie qu'à aucun instant la
  vitesse d'un mouvement brownien ne peut être définie, ses
  changements de direction étant trop rapides. Ceci confirme
  mathématiquement l'impossibilité de mesurer sa vitesse, observée par
  les expérimentateurs.  Ainsi, contrairement aux objets de la
  physique newtonienne classique, le mouvement brownien ne peut pas
  être décrit par des équations différentielles, néanmoins, il est
  possible de développer un calcul différentiel spécifique au
  mouvement brownien, le «~calcul stochastique~», inventé, pour des
  raisons purement théoriques par K. Itô dans les années 40. Ce calcul
  différentiel possède des règles propres, différentes de celles du
  calcul de Newton et de Leibniz, et traduit le caractère très
  irrègulier des trajectoires browniennes.  Il s'agit d'une des
  avancées majeures de la théorie moderne des processus stochastique,
  qui joue un rôle essentiel aussi bien dans la théorie que dans les
  applications, mais dont la présentation dépasse largement le cadre
  de cet exposé.
    

    L'origine de l'utilisation du mouvement brownien dans de
    nombreuses modélisations tient dans une remarque faite par L.
    Bachelier dans sa thèse sur la spéculation financière, parue en
    1900, soit un peu avant le mémoire de 1905 d'Einstein. Bachelier
    avait montré qu'un mouvement aléatoire dont le déplacement pendant
    un intervalle de temps infinitésimal $dt$ est de moyenne nulle, et
    de variance $D\times dt$, satisfait aux lois d'Einstein.  On peut
    donner à cette remarque une forme mathématique précise, connue
    sous le nom de «~théorème d'invariance de Donsker~». Je ne
    décrirai ce résultat, qui constitue une sorte de version dynamique
    du théorème de la limite centrale, mais je voudrais souligner
    qu'une conséquence importante en est qu'en faisant très peu
    d'hypothèses sur la nature d'un mouvement aléatoire, on montre que
    celui-ci doit satisfaire aux lois du mouvement brownien.
    Essentiellement, on en déduit qu'un objet soumis à une multitude
    d'influences, toutes de petite intensité, agissant indépendamment
    les unes des autres et constamment, se comporte comme une
    particule brownienne.  Cela justifie le recours au mouvement
    brownien mathématique pour modéliser les effets de perturbations
    aléatoires, de bruits dont la nature exacte ou la structure
    détaillée ne sont pas connues. Ces modélisations trouvent de
    nombreuses applications technologiques. Ainsi le guidage d'une
    fusée, ou d'un satellite, s'effectue à distance en modifiant sa
    trajectoire en fonction des données transmises par des capteurs
    placés à son bord.  La fusée est en effet constamment déviée de sa
    trajectoire théorique par des petites perturbations d'origines
    diverses par exemple atmosphériques, ou dues aux fluctuations
    locales du champ gravitationnel terrestre, et les communications
    entre la fusée et la base sont elles aussi entachées par des
    bruits d'origine électromagnétique.  Toutes ces perturbations ne
    peuvent être décrites exactement, mais il est naturel, pour les
    raisons mentionnées plus haut, d'avoir recours à un mouvement
    brownien pour les modéliser. On peut alors extraire du flux
    continu d'informations envoyées par la fusée une composante due au
    bruit, et rétablir la meilleure approximation possible de sa
    trajectoire réelle.  Le filtre de Kalman-Bucy est la plus ancienne
    des méthodes utilisées pour effectuer ce débruitage, ayant servi
    en particulier lors des premières missions Apollo de la NASA.
    Depuis cette époque la théorie du filtrage a fait des progrès
    notamment dans la résolution de problèmes dits «~non-linéaires~»
    où l'observation ne dépend plus linéairement du signal émis, avec
    d'importantes applications dans le domaine des télécommunications.
       
       
    L'idée originelle de Bachelier, qui était de modéliser par des
    marches au hasard les cours des actifs cotés en bourse a connu un
    développement spectaculaire ces dernières années, et le mouvement
    brownien fait désormais partie de l'attirail des financiers.
    Ainsi la formule de Black et Scholes est aujourd'hui
    universellement utilisée pour calculer la valeur des options
    proposées sur les marchés financiers. Rappelons qu'une option est
    un contrat à terme contingent, c'est-à-dire dont la réalisation
    est laissée à l'appréciation du client. Par exemple une option
    d'achat à six mois sur le dollar est un contrat qui permet au
    client d'une banque d'acheter, six mois aprés la date du contrat,
    une certaine quantité de dollars, à un taux de change fixé dans le
    contrat.  Évidemment, le client n'a intérêt à exercer son option
    que si le taux fixé par le contrat est inférieur au cours du
    dollar à l'échéance. Une telle option représente un contrat
    d'assurance contre les fluctuations des taux de change, et doit
    donc donner lieu au paiement d'une prime par le client, dont le
    calcul est l'objet de la formule de Black et Scholes.  Cette
    formule s'obtient par un raisonnement fondé sur le calcul
    stochastique, qui utilise une modélisation des cours des
    différents actifs par des mouvements browniens, ou des processus
    stochastiques très proches. Le paramètre $D$ des lois d'Einstein,
    qui est ici appelé volatilité, est une mesure de l'importance des
    fluctuations des cours, qui peut être évaluée statistiquement, et
    dont l'évolution au cours du temps peut être prise en compte dans
    des modèles plus sophistiqués.  Insistons encore sur le fait que
    toutes ces applications n'auraient pas pu voir le jour sans le
    développement des outils théoriques puissants inventés par Itô.
     

     {\it Perspectives actuelles}

   
Il est possible de considérer des mouvements browniens
   ayant lieu dans des espaces plus compliqués que l'espace euclidien
   usuel, comme des espaces courbes (ce qui se traduit par la
   variation du coefficient $D$ avec l'endroit où se trouve la
   particule, et la direction de son déplacement), des espaces munis
   de structures algébriques, comme des groupes, des espaces fractals,
   ou bien encore des espaces dont la structure est elle-même
   aléatoire, par exemple pour modéliser un milieu comportant des
   impuretés.  Le comportement du mouvement brownien reflète alors une
   partie de la structure de l'espace sous-jacent. On peut également
   s'intéresser au comportement de plusieurs particules browniennes
   interagissant, ou bien susceptibles de mourir et de se reproduire,
   comme dans certains modèles issus de la biologie.  Toutes ces
   généralisations font l'objet de recherches actives, mais le
   mouvement brownien ordinaire recèle encore bien des mystères. Les
   questions que l'on se pose à son sujet, et les outils utilisés pour
   l'étudier, dépendent fortement de la dimension de l'espace dans
   lequel il évolue. En dimension d'espace égale à un, la structure
   d'ordre de la droite réelle permet d'utiliser des méthodes
   combinatoires, ainsi que la théorie des fonctions spéciales, en
   lien avec les équations différentielles ordinaires. En dimension 2,
   c'est l'analyse complexe, et la théorie des fonctions analytiques
   qui prédominent. Il s'agit de domaines de recherches très
   dynamiques, et je terminerai cet exposé en évoquant un résultat
   mathématique obtenu très récemment.  L'examen de la figure 2 révèle
   le caractère extrèmement tortueux de la courbe brownienne.  On peut
   donner une mesure de la complexité de cette courbe en lui assignant
   un nombre, appelé «~dimension de Hausdorff~», dont on montre assez
   facilement qu'il est égal à deux, ce qui signifie que la courbe
   brownienne possède beaucoup de caractéristiques d'un espace à deux
   dimensions. Le bord de cette courbe est lui aussi un objet
   complexe, mais toutefois moins que la courbe tout entière.  Il y a
   une vingtaine d'années, B. Mandelbrot avait conjecturé, sur la foi
   de simulations informatiques, que la dimension de Hausdorff de ce
   bord devait être égale à 4/3. Il s'agit d'un problème
   mathématiquement beaucoup plus difficile que celui où l'on
   considère la courbe dans son entier, mais il vient d'être résolu
   grâce aux travaux de G. Lawler, O. Schramm et W. Werner.
   L'apparition d'un nombre rationnel simple comme ici 4/3 dans un
   problème aussi complexe est l'illustration de l'existence d'une
   profonde symétrie sous-jacente. La symétrie en jeu dans ce problème
   porte le nom d'«~invariance conforme~», et semble reliée, de fa\c
   con encore mystérieuse pour les mathématiciens, aux théories
   physiques, comme la théorie quantique des champs, qui tentent de
   décrire la structure de la matière à son niveau le plus
   élémentaire. Il ne fait pas de doute que l'exploration de ces
   relations donnera lieu a de nouvelles découvertes fondamentales.
   

   
RÉFÉRENCES
   
 
Ouvrages généraux

   

   
   N. Bouleau, Martingales et marchés financiers, O. Jacob, Paris,
   1998.

   
   
   C. Bouzitat, G. Pages, En passant par hasard : probabilités de tous
   les jours, Vuibert, Paris, 1999.
   

   
   I. Ekeland, Au hasard, la chance, la science et le monde, Point
   Sciences, Le Seuil, Paris 2000.
   


   
   J. Perrin, Les atomes, Gallimard, Paris 1970 (réédition).

   

   
   H. Poincaré, Calcul des probabilités, J. Gabay, Paris, 1987
   (réédition).
   




   
Quelques ouvrages plus spécialisés:
   



   
   P. Lévy, Processus stochastiques et mouvement brownien, Ed. Jacques
   Gabay (Les grands classiques Gauthier-Villars), 1992 (réédition).

   

                                          
   B. Oksendal, Stochastic differential equations, Springer Verlag,
   Berlin, 1998.

   

   
   D. Revuz, M. Yor, Continuous martingales and brownian motion,
   Springer Verlag, Berlin, 1991.

 

 VIDEO       CANAL  U         LIEN 

 























 

 
 
 
 

OXYGÈNE

 

 

 

 

 

 

 

oxygène

Consulter aussi dans le dictionnaire : oxygène
Cet article fait partie du dossier consacré à l'air.

Cycle de l'oxygène
Corps gazeux diatomique (O2) constituant en volume le cinquième de l'atmosphère terrestre et nécessaire à la respiration. Dans le langage courant, on parle abusivement d’« oxygène » pour désigner en réalité le dioxygène (gaz diatomique composé de deux atomes d’oxygène). Le terme « oxygène » devrait être réservé à l’élément chimique de symbole O.
*         Numéro atomique : 8
*         Masse atomique : 15,999 4
*         Température de fusion : − 218,4 °C
*         Température d'ébullition : − 182,96 °C
*         Densité : 1,105
CHIMIE
1. DÉCOUVERTE DE L’OXYGÈNE

       
L'oxygène fut découvert sous sa forme gazeuse (ou dioxygène) indépendamment par Carl Wilhelm Scheele en 1773 (mais il ne publia ses résultats qu’en 1777) et Joseph Priestley en 1774. L’histoire retient les noms des deux chimistes et la date de la première publication (1774). Toutefois, ni l’un ni l’autre ne se rendent compte de l’importance de leur découverte, en particulier pour expliquer les réactions de combustion qui impliquent la présence de dioxygène. C’est Antoine Laurent de Lavoisier qui établit les propriétés principales de ce gaz à partir de 1775. Il montra qu'il y avait de l’oxygène dans l'air et dans l'eau, et fit ressortir son rôle dans les combustions et la respiration. En démontrant que la combustion est un processus dans lequel une substance se combine avec le dioxygène, Lavoisier réfute la théorie du phlogistique (substance inventée près d'un siècle plus tôt par les chimistes allemands Johann Becher et Georg Stahl pour expliquer le phénomène de combustion) et contribue ainsi à l'avènement de la chimie moderne.

Antoine Laurent de Lavoisier

Par ailleurs, Lavoisier lui donna le nom « oxygène » (du grec oxys et genes, signifiant « qui produit de l’acide », parce l'oxygène apparaissait dans tous les acides connus à cette époque. Il montre également que l'oxygène de l'air se présente sous la forme d'un gaz diatomique (composé de 2 atomes d'oxygène, d'où sa formule chimique O2), et que c'est un élément chimique (corps pur simple).

2. ÉTAT NATUREL DE L’OXYGÈNE

atmosphère terrestre
L’oxygène est l’élément chimique le plus abondant sur Terre. En effet, la teneur en oxygène de l’atmosphère s’élève à environ 23 % (en masse), celle des océans à 86 %, celle de la croûte terrestre à 47 % et celle du corps humain à 60 %. On distingue généralement deux formes principales d’oxygène :
• l’oxygène sous forme élémentaire, c’est-à-dire sous forme de molécules constituées uniquement d’oxygène comme le dioxygène (O2) de l’air que l’on respire, ou l’ozone (O3) qui forme une couche fragile et vitale pour les êtres vivants car elle stoppe les rayonnements ultraviolets (UV) nocifs du Soleil ;
• l’oxygène sous forme de composés minéraux et organiques, appelés oxydes : la majorité des composés formés par l’oxygène sont des oxydes entrant dans la composition chimique des roches et des minéraux (silicates et carbonates), comme le quartz (dioxyde de silicium, de formule SiO2), l’hématite (Fe2O3), etc. Par ailleurs, l’oxygène apparaît dans la composition chimique d’une large gamme de composés organiques, tels que le dioxyde de carbone (CO2), l’éthanol (C2H5OH), l’aspirine (C9H8O4), le glucose (C6H12O6), etc.
→ chimie organique.

Principe de la photosynthèse
L'oxygène est un élément constitutif fondamental de la matière vivante, au même titre que le carbone, l'hydrogène et l'azote. C’est d’ailleurs l’un des constituants de l’ADN (molécule portant les informations génétiques dans les cellules des êtres vivants). Par ailleurs, l’oxygène est essentiel au cycle de la vie, car il intervient dans les processus biologiques fondamentaux que sont la photosynthèse (production de dioxygène par les plantes) et la respiration (absorption de dioxygène et rejet de dioxyde de carbone par les êtres vivants).

3. PROPRIÉTÉS CHIMIQUES ET PHYSIQUES DE L'OXYGÈNE
L'oxygène est, après le fluor, l'élément qui possède la plus forte électronégativité. Il a ainsi tendance à former l'anion O2− (dans les oxydes métalliques), à former, en combinaison avec les non-métaux, deux liaisons de covalence (H2O par exemple) ou à jouer le rôle d'accepteur en fixant un doublet d'électrons. Beaucoup de réactions auxquelles il participe sont exothermiques (réactions qui dégagent de la chaleur). Sa fixation est dite « combustion », en raison de la chaleur qu'elle dégage en général ; suivant les cas, cette combustion peut être vive ou lente. À l'exception des halogènes et de l'azote, tous les non-métaux peuvent brûler dans le dioxygène en donnant les oxydes les plus stables (H2O, SO2, etc.). Hormis l'or et le platine, les métaux peuvent également brûler dans le dioxygène, notamment les métaux alcalins et alcalino-terreux, le magnésium, l'aluminium, le zinc, le fer, etc. Beaucoup de métaux s'oxydent aussi à froid dans l'air, mais leur corrosion fait souvent intervenir la vapeur d'eau et le gaz carbonique de l'air.
Du point de vue de ses caractéristiques physiques, le dioxygène est un gaz incolore, inodore et sans saveur. Quand il est liquéfié (mis sous forme liquide), il est de couleur bleu pâle et devient légèrement magnétique. Dans les conditions normales de température et de pression (1 atm, 0 °C), l’oxygène bout à - 182,9 °C et fond à - 218,4 °C.

4. LES RÉACTIONS DE COMBUSTION

Combustion du carbone et du méthane
Les composés formés d'éléments combustibles sont en général eux-mêmes combustibles, notamment les combinaisons d'hydrogène et de carbone, c'est-à-dire les corps organiques. Leur combustion fournit de la vapeur d'eau et du gaz carbonique, mais, si le dioxygène est en quantité insuffisante, l'hydrogène brûle avant le carbone, qui se retrouve sous forme de noir de fumée. Il en est de même des composés du soufre, du phosphore, des métaux. De nombreux composés peuvent aussi subir une oxydation lente ; grâce à certains ferments, l'ammoniac se transforme en oxydes d'azote ; l'alcool éthylique, en acide acétique, etc.
Enfin, la respiration produit elle-même une oxydation de substances organiques dans les tissus vivants, ensemble de réactions qui libèrent l'énergie dont ceux-ci ont besoin.

5. PRÉPARATION ET UTILISATIONS DE L'OXYGÈNE

Production de l'oxygène liquide
Dans l'industrie, on prépare le dioxygène, en même temps que le diazote, par distillation fractionnée de l'air liquide. Il est stocké et livré gazeux dans des tubes d'acier, sous une pression de 200 bars, ou sous forme liquide dans des récipients isolants.
Le dioxygène est un produit d'une grande importance industrielle et pratique : sa production, à l'échelle mondiale, est d'environ 100 millions de tonnes par an, et la France y joue un rôle de premier plan en tant que producteur.

Convertisseur à oxygène
Depuis les années 1950, le dioxygène est utilisé à la place de l'air pour l'affinage de la fonte par oxydation contrôlée : cette opération permet d'éliminer partiellement le carbone de la fonte sortant du haut fourneau, et presque totalement le phosphore et le soufre, pour produire l'acier. Pour cette utilisation, un réseau d'oxyducs de 3 000 km a été construit en Europe occidentale.

Le dioxygène est également utilisé comme comburant dans les fusées spatiales (où il est stocké sous forme liquide) et dans les chalumeaux (soudage, oxycoupage, perforation du béton…). Il intervient aussi dans différentes applications médicales, où il est utilisé dans les traitements d’insuffisances respiratoires et en réanimation.
→ oxygénothérapie, oxygénothérapie hyperbare.

6. L'OXYGÈNE DANS LE CORPS HUMAIN

Échanges gazeux
Dans l'organisme, le dioxygène est véhiculé dans le sang après fixation sur l'hémoglobine des globules rouges. Ce dioxygène est cédé aux tissus, où il intervient dans la « respiration cellulaire » (réactions d'oxydoréduction productrices d'énergie).
On définit le taux sanguin d'oxygène par sa pression partielle (la pression partielle d'un gaz dans un mélange gazeux occupant un volume déterminé est égale à la pression qu'exercerait ce gaz s'il occupait seul ce volume). La pression partielle d'oxygène artériel (PaO2) est normalement de 90 à 100 millimètres de mercure, sachant qu'elle diminue avec l'âge. L'hypoxie (oxygénation insuffisante des tissus) entraîne un trouble de fonctionnement des cellules, pouvant aboutir à leur mort.

 

   DOCUMENT   larousse.fr    LIEN

 
 
 
 

AZOTE

 

 

 

 

 

 

 

azote

(du grec dzôê, vie)

Consulter aussi dans le dictionnaire : azote
Cet article fait partie du dossier consacré à l'air.
Corps gazeux (N2) à la température ordinaire, qui constitue environ les quatre cinquièmes en volume de l'air atmosphérique. (Élément chimique de symbole N.)


*         Numéro atomique : 7
*         Masse atomique : 14,006 7
*         Point d'ébullition : −195,8 °C
*         Point de fusion : −210 °C
*         Densité par rapport à l'air : 0,97
*
CHIMIE

DÉCOUVERTE DE L’AZOTE

L'azote a été découvert en 1772, par Daniel Rutherford et identifié comme corps simple par Antoine Laurent de Lavoisier en 1775. Il a également été étudié par Henry Cavendish en 1784, lors de ses travaux d’analyse de l’air.

ÉTAT NATUREL DE L’AZOTE
L'azote existe à l'état libre dans l'air, dont il constitue environ 78 % en volume, sous forme de molécules diatomiques (diazote N2). On le trouve également combiné dans les nitrates et les sels ammoniacaux. Il entre enfin dans la constitution des protéines et des acides nucléiques des êtres vivants.

PROPRIÉTÉS ET ACTIVITÉ CHIMIQUES
L'azote est un gaz incolore et inodore, difficile à liquéfier et peu soluble dans l'eau. À basse température, il est sans activité chimique, d'où son nom, mais le devient à haute température, où il passe à l'état monoatomique. Certaines de ses réactions sont d'une extrême importance, à cause du rôle que jouent ses composés dans la nature et dans l'industrie. Avec l'hydrogène à chaud, il donne de l'ammoniac, par une réaction réversible. Dans l'industrie, cette réaction de synthèse est réalisée à 550 °C, sous haute pression avec un catalyseur. Avec l'oxygène, l'azote donne, dans un arc électrique, le monoxyde d'azote NO.

PRÉPARATION
Dans l'industrie, la matière première, abondante et gratuite, est l'air. Par distillation fractionnée de l'air liquide, on obtient de l'azote qui renferme un peu d'oxygène, d'argon, de l'hélium et du néon du mélange de départ. On peut également priver l'air de son oxygène en l'utilisant pour la combustion du charbon ; on obtient alors de l'azote qui contient tous les gaz rares de l'air. Cet azote atmosphérique est livré en bouteilles d'acier, sous 200 atmosphères environ. Pour obtenir de l'azote pur (azote chimique), on chauffe vers 70 °C du nitrite d'ammonium. C'est en constatant que la densité de l'azote atmosphérique et celle de l'azote chimique étaient différentes qu'on a été amené à découvrir les gaz rares.

UTILISATIONS
Obtenu industriellement par distillation fractionnée de l'air liquide, l’azote est principalement utilisé dans la fabrication des engrais et de l'ammoniac, mais également comme atmosphère inerte dans le magasinage de liquides inflammables.
Comme liquide cryogénique, l'azote liquide a des applications alimentaires (congélation), médicales (conservation de tissus et organes, thérapie), industrielles (simulation spatiale, ébarbage, congélation des sols, etc.).
Par ailleurs, l'azote se combine avec divers métaux pour donner des nitrures ou des azotures.

LES OXYDES DE L'AZOTE
Endothermiques à partir de leurs éléments, ils sont peu stables à température modérée et peuvent jouer le rôle d'oxydants.

OXYDE NITREUX OU AZOTEUX, OU PROTOXYDE D'AZOTE N2O
C'est un gaz incolore et inodore, assez facile à liquéfier, produisant une excitation cérébrale (gaz hilarant) puis une anesthésie. Il se décompose à la chaleur en ses éléments et peut de ce fait entretenir des combustions vives.

MONOXYDE D'AZOTE OU OXYDE NITRIQUE NO
C'est un gaz incolore, difficile à liquéfier qui se décompose complètement au rouge vif et présente alors des propriétés comburantes. Au contact de l'oxygène, il s'oxyde spontanément en donnant de l'anhydride nitreux et du peroxyde d'azote. Il réduit ainsi le permanganate de potassium, l'acide nitrique concentré, etc. Il est obtenu dans l'industrie par synthèse directe dans l'arc électrique ou par oxydation catalytique de l'ammoniac, mais est aussitôt transformé en acide nitrique ou en acide nitreux. On le nomme aussi oxyde azotique (ou dioxonitrique II).

PEROXYDE OU DIOXYDE D’AZOTE NO2
C'est un liquide jaune pâle qui bout à 21 °C en émettant des vapeurs rouges dont la coloration augmente par chauffage. Cela provient de l'existence de deux variétés moléculaires : dimère N2O4, incolore et stable à froid, et monomère NO2, fortement coloré et se produisant à chaud par une réaction réversible. Dès 180 °C, la molécule NO2 se dissocie en NO et oxygène. Le peroxyde d'azote présente donc des propriétés comburantes et oxydantes qui le font employer comme ergol et pour réaliser des explosifs, dénommés panclastites. Au contact de l'eau, il se comporte comme un anhydride mixte.

ANHYDRIDE NITREUX N2O3
L’anhydride nitreux est obtenu à l'état liquide en mélangeant et en condensant des volumes égaux d'oxyde nitrique et de dioxyde d'azote. C'est un liquide bleu, qui bout vers 3 °C et qui se solidifie à − 102 °C. Très instable, il émet des vapeurs rutilantes, mélange de NO, de NO2 et de N2O2. Il possède à la fois les propriétés de l'oxyde nitrique et du dioxyde d'azote, c'est-à-dire qu'il peut se comporter comme un oxydant ou comme un réducteur (oxydoréduction). C'est un anhydride vrai qui correspond à l'acide nitreux HNO2. On le nomme aussi anhydride azoteux (ou dioxonitrique III).

ANHYDRIDE NITRIQUE N2O5
L’anhydride nitrique est préparé en déshydratant l'acide nitrique par l'anhydride phosphorique. C'est un solide blanc qui fond vers 30 °C en se décomposant. Le liquide obtenu est un mélange de N2O4 et N2O5. C'est un oxydant et un anhydride vrai. L'acide correspondant est l'acide nitrique (ou trioxonitrique V). L'anhydride nitrique est nommé aussi anhydride azotique. Les composés de l'anhydride nitrique jouent un rôle important dans l'industrie des engrais, des colorants et des explosifs.

LE CYCLE DE L'AZOTE

Élément essentiel des acides aminés, l'azote est l'un des quatre constituants universels de la matière vivante, avec le carbone, l'hydrogène et l'oxygène. Il constitue environ 80 % de la masse de l'atmosphère, mais seules quelques espèces vivantes dites prototrophes (bactéries libres ou symbiotiques du sol, cyanophycées) sont capables de l'absorber utilement. Les phototrophes (plantes vertes) se procurent l'azote dans l'eau ou dans le sol, surtout sous forme de nitrates. Une exception est constituée par les plantes dites enrichissantes, légumineuses surtout, qui hébergent des bactéries prototrophes dans les nodosités de leurs racines et dont l'enfouissement comme « engrais vert » enrichit le sol en azote. Les animaux utilisent l'azote contenu sous forme organique dans leurs proies animales ou végétales.
Excréments et cadavres rendent cet azote organique au sol, où une série d'actions microbiennes (ammonisation, nitrosation, nitratation) redonnent à cet élément la forme de nitrates, assimilables par les plantes. Mais des processus de dénitrification font équilibre à la fixation de l'azote dans le sol, de sorte qu'aucune évolution de la teneur de l'atmosphère en azote n'est constatée.

 

  DOCUMENT   larousse.fr    LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon