ecole de musique piano
     
menu
 
 
 
 
 
 

I A 5

 


La reconnaissance des formes à l'épreuve des faits
mensuel 312
daté septembre 1998 - 


Née avec les ordinateurs, l'intelligence artificielle vise à reproduire les facultés humaines les plus élevées. Moins ambitieuse, la reconnaissance des formes se limite à la simulation des capacités humaines de perception, visuelles ou auditives. Force est de reconnaître que ces deux disciplines scientifiques n'ont pas tenu leurs promesses initiales. Les résultats ont longtemps tardé à sortir des laboratoires et à se manifester dans la vie quotidienne. Pourquoi ? Le développement récent d'un système industriel éclaire les obstacles, conceptuels et pratiques, qui se dressent sur le chemin des applications. Ce système est opérationnel dans un domaine particulièrement sensible aux erreurs d'interprétation : la reconnaissance des montants manuscrits sur les chèques bancaires !
Que signifie une loi physique ? En quoi explique-t-elle un phénomène, comment le prévoit-elle ?
Depuis Galilée, les mathématiques sont censées expliquer le monde et, à l'évidence, de très grands succès ont été obtenus par leur application dans tous les domaines de l'étude de la nature. On sait que, le plus souvent, des équations différentielles ou aux dérivées partielles sont au coeur de ces réussites. Et l'on sait également qu'il reste toujours à en calculer les solutions !
Dans les années 1940-1950, les ordinateurs ont été créés pour cela même. Bien que binaires, on s'aperçoit qu'ils permettent d'effectuer n'importe quelle opération d'analyse numérique. Mais, plus fondamentalement, ils sont capables de transformer toute chaîne de caractères en une autre chaîne de caractères par des « algorithmes », qu'on peut écrire dans des programmes et mettre en oeuvre avec des ordinateurs. De fait, cette faculté ouvre la voie à des modélisations inédites.
Aujourd'hui, avec les progrès inouïs des machines informatiques, nous voyons naître des modèles du deuxième type, appelés ainsi par opposition aux modèles mathématiques ou aux modèles de l'analyse numérique. Ces modèles, représentés par des programmes mettant en oeuvre des algorithmes, ne sont en rien des applications numériques de formules ou d'équations. Ils ont une existence propre, quasi indépendante de la culture de la physique mathématique, et ils permettent tout aussi légitimement d'expliquer ou de simuler des phénomènes naturels. Ils ont acquis droit de cité là où les mathématiques ne sont quasiment d'aucune aide, en biologie, en linguistique et, pour ce qui nous intéresse ici, en reconnaissance des formes. En 1966, dans la nouvelle formule d' Atomes , journal auquel a succédé La Recherche , j'avais exposé l'intérêt d'étudier et de construire des « opérateurs » de reconnaissance, matérialisés par des programmes exécutables par ordinateur1. L'énoncé du principe est simple : recueillir les données d'un capteur, c'est-à-dire une représentation le signifiant, et en obtenir une ou des interprétations les signifiés par l'exécution d'algorithmes. Le but ultime est la reproduction des capacités humaines de perception, visuelles ou auditives. Contrairement aux prévisions optimistes des pionniers de l'époque, dont je faisais partie, les problèmes ainsi posés se sont pourtant révélés très coriaces. Certains détracteurs ont même été jusqu'à affirmer l'impossibilité de les résoudre !


Dans ce domaine, comme dans bien d'autres, la preuve ultime de la validité des idées et des recherches et de leur intérêt se trouve dans la résolution d'un problème « réel », par opposition à celle d'un problème « d'école » restant confinée dans les laboratoires. La physique nucléaire aurait-elle connu un tel développement sans le bruit de la bombe et les centrales nucléaires ? Toute proportion gardée, la saisie industrielle par programme des montants de chèques n'est-elle pas une preuve de la validité des idées en matière de reconnaissance des formes ?


Dès son irruption sur la scène scientifique, l'intelligence artificielle avait affiché de hautes ambitions : reproduire avec des moyens informatiques toutes les facultés humaines, y compris les plus élevées, telles que le raisonnement logique, la compréhension du langage et le comportement. Moins ambitieuse, la discipline scientifique de la reconnaissance des formes RdF - Pattern Recognition, en anglais s'est développée depuis la fin des années 1960, en même temps que l'intelligence artificielle IA, et ceci au fur et à mesure de l'augmentation de la puissance et des capacités de mémoire des ordinateurs. Très tôt, dès le début des années 1970, les deux disciplines se sont séparées. Le fait était aussi regrettable qu'inévitable, étant donné les origines différentes des chercheurs de chaque domaine : les premiers IA provenaient des mathématiques tandis que les seconds RdF étaient en majorité des physiciens et des ingénieurs2. Malgré de nombreux efforts des uns et des autres, les résultats des premiers programmes d'IA ou de RdF se sont révélés très éloignés des performances humaines ou même animales. Pourquoi ? Nous avons souligné qu'une machine informatique programmable - un ordinateur - est capable d'opérer n'importe quelle transformation d'une donnée de départ, la représentation, en une image d'arrivée, une interprétation. C'est une machine « universelle » et elle est opérationnelle, c'est-à-dire qu'elle donne un résultat concret : une image, un texte, des chiffres. Toutefois, cette généralité se paye par des contraintes importantes : le volume de mémoire, le temps de calcul. Tout algorithme, en particulier un opérateur de reconnaissance, est en effet caractérisé par une complexité de calcul Ofn*, nombre d'opérations à effectuer en fonction du volume n des données d'entrée. La plupart des algorithmes utilisés en RdF sont exponentiels, leur complexité varie en Oean, ce qui les rend vite impraticables si n est un peu grand, quelle que soit la puissance de calcul et de mémoire à disposition.
Comment échapper à cette complexité ? On dispose de trois possibilités, non exclusives l'une de l'autre :
1. diminuer n, c'est-à-dire avoir affaire à des sous-images, donc à des sous-problèmes ;
2. décomposer le processus global de décision en niveaux multiples de décision ;
3. utiliser des opérateurs qui ne sont pas exponentiels, mais polynomiaux, en particulier linéaires. Ce faisant, on introduit nécessairement des erreurs mais, idée essentielle, on échange de la précision pour de la rapidité.


Toute opération de reconnaissance de formes s'organise ainsi selon des niveaux successifs fig. 1. A chaque niveau, une opération concrète permet de passer d'une représentation à une ou plusieurs interprétations, lesquelles vont constituer la représentation du niveau suivant. Chaque interprétation est plus abstraite, donc plus générale, et ce qui est gagné en abstraction est perdu en localisation. Avec un peu d'audace, on verrait là une analogie avec les relations d'incertitude de la physique quantique.
Les opérations de RdF apparaissent chaotiques, c'est-à-dire qu'une variation très petite de la donnée de départ peut faire basculer l'interprétation d'une décision à une autre. Ceci distingue particulièrement ces simulations, accomplies par ces opérateurs informatiques, de la perception humaine dont chacun sait, par expérience, qu'elle tolère des bruits et des déformations très importants. Pour éviter ce caractère chaotique, notre pratique nous a appris à introduire du « continu » là où l'algorithmique impose du « discret ». Faut-il s'en étonner si l'on se souvient que l'on tente en fait de simuler des processus analogiques* à l'aide de machines qui, par construction, sont d'essence binaire ?
Un caractère essentiel des décisions des différents niveaux est donc de ne pas conclure tout de suite par « vrai ou faux », mais d'affecter chaque possibilité de décision d'un coefficient de vraisemblance. Il s'agit d'entretenir l'ambiguïté sur l'interprétation et, autant que faire se peut, de retarder la décision définitive. Pour obtenir un optimum, une autre leçon de l'expérience consiste à utiliser, pour une même interprétation, plusieurs opérateurs de RdF élaborés selon des principes différents. Chacun fournit un résultat qui, pris isolément, est le plus souvent peu informatif, mais c'est leur combinaison qui devient pertinente. D'où d'intenses travaux visant à trouver la meilleure façon de combiner les données produites par ces opérateurs. En fait, il semble qu'une simple combinaison multiplicative de leurs résultats - l'addition des logarithmes, ce qu'en physiologie on appelle la loi de Fechner - soit voisine de l'optimum.


On souhaiterait bien sûr que de tels opérateurs puissent être créés par apprentissage automatique à partir de bases de données réelles. Malheureusement, cette direction de recherche n'a pas donné de résultats satisfaisants. Dans la pratique, les opérateurs de RdF sont le plus souvent programmés « à la main », suivant l'intuition et l'imagination du reconnaisseur. Seuls les réseaux de neurones* présentent une solution générale intéressante, mais leur mise en oeuvre est relativement lourde3.
On ne peut s'empêcher de rapprocher ces descriptions de ce que nous savons du cortex visuel humain : existence de couches multiples, multiplicité des neurones. Là s'arrêtent malheureusement les analogies : un cerveau n'est pas un ordinateur dans lequel on peut implanter un programme et, heureusement pour nous, ses opérations ne sont pas chaotiques...
Parmi les activités humaines, la perception visuelle ou auditive est un automatisme, en ce sens que nous ne pouvons la contrôler, au contraire par exemple des mouvements corporels ou de la pensée. Peut-on s'empêcher de reconnaître un objet visible ? Dans l'évolution du vivant, ces capacités essentielles sont arrivées très tôt les insectes sont de parfaits automates visuels par exemple, bien avant le contrôle volontaire. Ce dernier provient-il effectivement de l'addition, au cours de l'évolution, de niveaux similaires à ceux que nous avons décrits ? Là réside peut-être la cause des échecs répétés de l'intelligence artificielle, dont le paradigme s'inspire de la logique formelle, en particulier de la démonstration de théorème. Il suffisait, pensait-on, de trouver les règles logiques et d'appliquer des techniques inductives ou déductives pour simuler les activités humaines de traitement de l'information. Dans la réalité, à cause de leur caractère chaotique, les « systèmes experts » se révèlent inutilisables en dehors de cas d'école ou d'applications très limitées. Inspirée par la physique et l'expérimentation plus que par les mathématiques et les idées a priori, la RdF a pris une voie différente, largement expérimentale4. Peut-être suffisait-il d'écouter les leçons de l'ontogenèse pour se convaincre que la modélisation de l'humain passait d'abord par celle des facultés perceptives, et non par celle de la pensée logique ?
Comment parvient-on à résoudre un problème particulier de RdF, la reconnaissance de l'écriture manuscrite et, plus précisément, celle des chiffres et des lettres, mots et phrases sur les chèques bancaires ? Au départ, un capteur d'image - un réseau de diodes - fournit une matrice bidimensionnelle de valeurs numériques - une image dite « de niveaux de gris ». Chaque valeur correspond à la luminosité d'une petite zone.
Le terme de pixel* correspond à la fois à la zone en question et à sa valeur. Fixant un seuil, une image bitonale ou binaire s'en déduit en affectant un 1 aux valeurs supérieures à un seuil, un 0 aux valeurs inférieures. Cette opération de binarisation se fait soit au niveau du capteur lui-même, soit par programme.
Une valeur 0 ou 1 demande évidemment moins de mémoire d'ordinateur - un bit - qu'une valeur numérique de 64 niveaux 5 bits, ou 256 niveaux 7 bits. A titre d'exemple l'image d'un écran de PC demande environ un million de pixels. Pour la garder en mémoire, 1 Mo méga-octet est nécessaire. En général, la représentation d'un document écrit demande 200 dpi dots per inch ou 8 pixels/mm, soit environ 90000 pixels pour un chèque. Les contraintes de mémoire et de transmission amènent à représenter les images de chèques en binaire. Toutefois, l'opération de binarisation est délicate et, située en début de chaîne, elle comporte des défauts ayant des conséquences importantes sur l'ensemble du traitement. Dans le principe, il serait donc préférable de traiter des images primaires en « niveaux de gris » plutôt qu'en binaire. Mais l'opération se révèle encore trop coûteuse pour être réalisée industriellement.


Après binarisation de l'image, le traitement des informations met en oeuvre, à chaque niveau, deux principes qui se sont dégagés au cours de nos recherches : la segmentation-reconnaissance et le principe de régularité-singularité.
Nous avons indiqué la nécessité de segmenter les images en sous-images. Ainsi, sur un chèque, le montant numérique doit être segmenté en chiffres, le montant littéral en mots, les mots en lettres. Parfois, la segmentation est clairement définie : les objets à reconnaître sont connexes et séparés les uns des autres. Mais souvent ce n'est pas le cas. Il faut choisir entre différentes hypothèses de segmentation : elles sont évaluées en probabilités a priori et a posteriori par la reconnaissance de l'élément segmenté, y compris la non-reconnaissance « ce n'est pas une lettre », « ce n'est pas un mot ».... La segmentation implique la reconnaissance et inversement : les deux opérations ne sont pas séparables.


Que signifie notre second principe, la régularité-singularité ? Pour l'illustrer, plaçons-nous dans un autre domaine, celui de la reconnaissance de la parole. D'une façon générale, il est possible de décomposer un signal de parole en régions périodiques, qui correspondent aux voyelles. Celles-ci sont faciles à reconnaître : elles constituent les parties régulières du signal. En revanche, les consonnes, « accidents » des voyelles, sont les parties singulières, dont l'expérience montre qu'elles sont difficiles à localiser et identifier. L'idée consiste à détecter en priorité les parties régulières et à les retirer du signal. Il reste ainsi les parties singulières, bien localisées, et donc plus faciles à reconnaître. De même, pour une écriture, un mot manuscrit, mal et rapidement écrit, se réduit à une oscillation autour de l'horizontale, signal périodique, comparable aux voyelles de la parole bien que sans contenu en information utile fig. 2. Les « accidents » de cette partie régulière sont les parties singulières de l'écriture : ascendants, descendants, boucles, ligatures. La mise en oeuvre de ce principe est illustrée sur la figure 3 : la partie supérieure montre l'image d'origine et, en dessous, s'affiche la décomposition en parties singulières, que nous appelons les graphèmes, alternativement en blanc et en noir, après suppression de la partie dite régulière. D'une façon générale, un chiffre ou une lettre quelconque est constituée d'un à trois graphèmes. Ces graphèmes représentent les formes primitives de premier niveau.
La figure 4 donne le schéma général d'un système de reconnaissance d'un montant de chèque :
1. l'image bitonale du montant en chiffres est localisée l'absence de norme française sur sa position ne facilite pas la tâche et le fond est « nettoyé », c'est-à-dire qu'on ne retient que les traits identifiés comme tels par les programmes ;
2. les chiffres sont reconnus ; une liste de montants, ordonnés en valeurs de vraisemblance décroissantes, est obtenue ;
3. Si la valeur de vraisemblance de la tête de liste est suffisamment élevée, ce montant est retenu ; si cette valeur est trop faible, le chèque est rejeté et proposé à un observateur humain. Entre les deux valeurs seuils, on met en route la reconnaissance du montant littéral, nécessairement plus coûteuse en temps calcul ;
4. L'image du montant littéral est alors à son tour localisée et nettoyée ;
5. Le montant littéral est segmenté ; les mots sont reconnus. Une liste de montants, ordonnés en valeurs de vraisemblance décroissantes, est dressée ;
6. Combinant les informations indépendantes recueillies sur les chiffres et les lettres, on aboutit à une nouvelle liste de montants. Si une valeur de vraisemblance dépasse le seuil admissible, le montant est adopté ; sinon l'image du chèque est proposée à un opérateur humain.
Précisons quelques détails de ce processus. Que ce soit pour les chiffres ou les lettres, après l'extraction et le nettoyage du fond, les images binaires sont normalisées en taille et en inclinaison les écritures penchées sont redressées. Pour les lettres, la nature « imprimés ou bâtons » par rapport à « manuscrits » est détectée en France 20 % des chèques sont imprimés. Si l'écriture est manuscrite, une zone de lettres ne comportant ni partie ascendante ni partie descendante est déterminée : elle donne une information importante sur la nature des lettres « ce n'est probablement pas un b, ni un d, ni un p, etc. ». Enfin, on établit un graphe, c'est-à-dire une description d'un ensemble de points reliés entre eux par des traits fig. 5. Ce graphe est utilisé pour trouver les parties régulières, et donc, par complémentarité, les graphèmes, point essentiel de notre technique. A chaque étape, sont mis en oeuvre divers opérateurs de reconnaissance faisant appel à des techniques multiples mentionnons-les pour mémoire : classifieur de Bayes, silhouettage corrélation, programmation dynamique, automates probabilisés, Hidden Markov Models, réseaux de neurones. C'est à ce prix qu'on parvient à augmenter le résultat moyen final et à diminuer le caractère inévitablement chaotique de la programmation. Les opérateurs sont optimisés par un apprentissage statistique, en utilisant des bases d'images de chèques pour lesquels on dispose du montant saisi. Ces bases doivent être aussi larges que possible. Ainsi, pour la mise au point adaptative des réseaux de neurones du montant littéral, nous avons dû faire appel à 100 000 images de chèques. Un tel chiffre est nécessaire parce que la fréquence d'apparition des mots cent, mille, sept... est très inégale. Pour l'apprentissage du réseau de neurones de reconnaissance des caractères, il a fallu exploiter jusqu'à 400 000 exemples !


Là également diverge l'analogie avec les mécanismes humains. Si apprendre à lire demande beaucoup de temps, il suffit de présenter un seul exemple de caractère à un lecteur normal, pour qu'il soit capable de le reconnaître sous une infinité de représentations : la base d'apprentissage semble vraiment minimale. Sur une seule image de chèque, l'erreur de lecture d'un opérateur humain est très faible. Cette remarquable stabilité n'est malheureusement pas atteinte par notre système qui, en dépit des efforts accomplis, affiche un comportement parfois erratique sur une image isolée. Les taux de reconnaissance ne deviennent stables que sur un très grand nombre de chèques : par exemple, sur 1 000 chèques, la fluctuation des résultats peut dépasser 10 %. En revanche, sur des échantillons d'au moins 100 000 images de chèques, le taux de reconnaissance absolument stable est de l'ordre de 70 %, avec un taux d'erreur de 1 % voisin de celui des opérateurs humains. Ces performances sont atteintes dans un environnement industriel quotidien par un système Interchèque , de la société A2iA qui, pour fixer les idées, est constitué par une centaine de milliers de lignes de code, écrites en langage C, et s'exécute sous Windows NT 4.0 sur de simples PCs.5


Au terme de cette description, le lecteur aura peut-être l'impression qu'on lui a présenté les résultats d'un « bricolage », certes habile mais très spécifique. Et il aura raison ! Mais il se souviendra aussi que, selon François Jacob, le bricolage n'est pas étranger aux phénomènes de l'évolution du vivant : leur simulation devrait-elle l'être ? De fait, ce système de reconnaissance de l'écriture manuscrite sur des chèques bancaires n'a rien de générique. Il est spécifiquement adapté à cette tâche, même si sa conception a été guidée par les idées et les principes généraux que nous avons évoqués. Au-delà de cet exemple, il nous semble ainsi que s'ouvrent des perspectives de modélisation constructive de la vision et, plus largement, de la compréhension de nos mécanismes perceptifs, tout en restant conscient des différences considérables entre un ordinateur programmé et un cerveau. Jusqu'à présent, l'explication de la perception et des interprétations des sens était largement « philosophique ». Si une immense quantité de recherches a été faite par les physiologistes de la vision et de l'ouïe, nous savons peu de choses sur le fonctionnement du cerveau en tant que système d'information. D'où d'innombrables discussions sur ce qu'il faut entendre par le sens, c'est-à-dire l'interprétation d'un message extérieur. Sans prétendre que nos algorithmes « expliquent » la vision humaine, on peut penser que ce type de démarches introduit la méthode expérimentale dans un domaine dont l'état empirique rappelle celui de la médecine au début du XIXe siècle, avant que Claude Bernard y introduise la méthode expérimentale.


La science fait affecter des budgets gigantesques à des domaines tels que l'espace, la physique des particules, l'astrophysique, pour des retours que l'on peut parfois estimer minimes. En comparaison, les études qui concernent les mécanismes humains de compréhension et d'interprétation ne sont pratiquement pas soutenues alors que leur intérêt pour comprendre l'homme est extrême. Qu'est-ce que « communiquer » sinon interpréter des représentations ? Continuerons-nous à appréhender ces sujets avec la culture du passé ? En liaison avec les physiologistes, la voie de l'explication par la modélisation est ouverte. Comme l'a dit le prix Nobel Francis Crick, « il n'y a pas d'étude scientifique plus vitale pour l'avenir de l'homme que l'étude de son propre cerveau. Toute notre conception de l'Univers en dépend » .
1 J.-C. Simon, Atomes, 231 , 157, avril 1966.
2 R.O. Duda et P. Hart, Pattern Classification and Scene Analysis , Wiley Interscience 1974 ; K. Fukunaga, Pattern Recognition , Academic Press, 1972.
3 C.M. Bishop, Neural Network for Pattern Recognition , Oxford University Press, 1995.
4 J.-C. Simon, La Reconnaissance des formes par algorithmes , Masson, Paris, 1984.
5 S. Knerr et al ., The A2iA Intercheque System : Courtesy Amount and Legal Amount Recognition for French Checks, International Journal of Pattern Recognition and Artificial Analysis, vol. 11, n°4, 505-548, 1997.


NOTES
*O fn correspond à la partie dominante de la fonction fn quand n croît infiniment.
*Un signal est dit ANALOGIQUE s'il transcrit de façon continue, par une relation de proportionnalité, le message dont il est porteur. Les disques vinyles, par exemple, sont gravés par des procédés analogiques. En revanche, on sait que les disques compacts font appel à des procédés numériques où l'information est codée de façon discontinue, le signal étant représenté par une succession de 0 et de 1.
*Les RÉSEAUX DE NEURONES formels, inventés en 1943, n'ont que de très lointains rapports avec ce que l'on sait aujourd'hui du fonctionnement des neurones cérébraux. Schématiquement, un neurone formel est doté d'un nombre n d'entrées affectées chacune d'un poids ai i=1 à n, et d'une sortie S. Une mesure xi se présente sur chaque entrée : S vaut 1 si la somme des ai xi est supérieure à un seuil, 0 dans le cas contraire. La théorie des neurones formels porte sur l'assemblage de telles entités et sur les mécanismes d'apprentissage des poids ai.


*Un PIXEL est le résultat de mesure d'intensité donné par un capteur d'image - une diode par exemple - dans une petite surface ou un petit angle solide. C'est un échantillon d'amplitude. Regardant à la loupe une photo imprimée dans un journal, on voit qu'elle est constituée de tels éléments isolés dans des petits carrés. Si l'amplitude est 0 ou 1, on dit que le pixel - I'image - est binaire ou bitonale, sinon qu'elle est « en niveaux de gris ».

 

 DOCUMENT   larecherche.fr    LIEN

 
 
 
 

Pluie de mercure sur l'Arctique

 

 

 

 

 

 

 

Pluie de mercure sur l'Arctique
Christophe Ferrari dans mensuel 381
daté décembre 2004 -  Réservé aux abonnés du site


Les populations des contrées polaires sont-elles menacées par une pollution au mercure ? Sa présence de plus en plus forte dans la chaîne alimentaire des écosystèmes de haute latitude inquiète. En surveillant l'évolution de concentrations de ce polluant au-dessus des régions arctiques, les spécialistes de la chimie de l'atmosphère ont découvert un nouveau phénomène.
Depuis une vingtaine d'années, les concentrations en mercure, plus précisément de sa forme la plus toxique, le méthylmercure, n'ont cessé d'augmenter dans les écosystèmes arctiques, des poissons aux ours polaires en passant par les mammifères marins [1]. Dans les lacs canadiens, l'ensemble des espèces piscicoles ont dépassé les valeurs jugées limites* pour une consommation régulière. Et récemment, en Norvège, la viande de baleine a, pour la même raison, été interdite aux femmes enceintes.

Dès que l'on parle de pollution au mercure, surgit immédiatement le spectre de la contamination catastrophique de Minamata au Japon qui fit plus d'un millier de morts dans les années cinquante lire « Le spectre de Minamata », p. 40. On est heureusement bien loin d'une telle situation dans les régions de hautes latitudes. Mais pour fixer les idées une étude menée entre 1970 et 1992 sur 38 000 Canadiens nés et vivant sur l'ensemble du territoire a montré que 9 000 d'entre eux avaient des concentrations de méthylmercure dans le sang supérieures à 20 microgrammes par litre µg/l. Ces concentrations dépassaient les 100 µg/l chez 610 personnes, le seuil au-dessus duquel il existe un risque pour la santé selon les critères de l'Organisation mondiale de la santé au-delà de 330 µg/l, les dommages sont considérés irréversibles.

Cette situation préoccupante a conduit les spécialistes de la chimie de l'atmosphère polaire à s'interroger sur les causes de cette accumulation. En effet, si, dans le cas de l'intoxication de Minamata, l'origine de la pollution était connue, les raisons d'une augmentation des niveaux de ce polluant dans les écosystèmes arctiques restaient floues. Les écosystèmes de haute latitude, éloignés des sources d'émissions, tant naturelles qu'anthropiques lire « D'où vient le mercure ? », p. 38, ne doivent donc a priori leur mercure qu'aux seules retombées de la pollution atmosphérique globale.

Du ciel aux poissons

Dans l'atmosphère, le mercure se trouve essentiellement sous la forme de mercure élémentaire gazeux Hg°. Sa durée de vie est en moyenne d'un an, un laps de temps suffisant pour assurer une concentration quasi homogène, dans toute la troposphère*, d'environ 1,5 nanogramme par mètre cube ng/m3. Ce mercure élémentaire peut être oxydé et donner la forme divalente* et réactive du métal, qui se concentre facilement dans l'eau ou se fixe sur des particules. Celle-ci se dépose donc beaucoup plus facilement. Et ensuite, dans les eaux, les sols ou les sédiments, elle peut à son tour être transformée par des processus biologiques en méthylmercure. C'est cette forme toxique qui est ingérée par les organismes vivants. Elle s'accumule tout au long de la chaîne alimentaire et peut ainsi atteindre, en bout de chaîne, des concentrations un million de fois plus fortes que celles mesurées dans l'eau de surface.

C'était donc aux spécialistes de l'atmosphère polaire qu'il revenait de comprendre pourquoi ces retombées étaient aussi fortes dans les régions polaires. Une première voie s'est dessinée avec la découverte, en 1998, d'un phénomène atmosphérique très particulier, les « pluWIies de mercure ». Au printemps de cette année-là, William Schroeder, Alexandra Steffen et leurs collègues de l'agence gouvernementale « Environnement Canada », à Toronto, mesuraient simultanément les concentrations de mercure élémentaire et de l'ozone dans l'atmosphère à Alert, dans le Grand Nord du Canada [fig. 1]. Ce faisant, ils ont observé pour la première fois des chutes brutales de teneurs en mercure élémentaire gazeux [2]. En une dizaine de minutes, ces concentrations pouvaient passer de 1,5 ng/m3 à moins de 0,1 ng/m3, comme si l'atmosphère se vidait de son mercure élémentaire. Depuis ces premières observations, plusieurs équipes ont détecté et enregistré en différents sites de l'Arctique de telles pluies de mercure pouvant durer de quelques heures à quelques jours [fig. 1]. Elles font aujourd'hui l'objet d'un suivi régulier chaque année au printemps, de mars à juin, en différentes stations de mesure à Barrow en Alaska, à Station Nord au Groenland, à Kuujjuarapik au Québec et enfin à Ny-Älesund, au Spitzberg. Plus récemment, des collègues allemands, Ralf Ebinghaus et Christian Temme du GKSS de Hambourg en ont même observé en Antarctique, à la base de Nuymayer située près de la côte atlantique [3].

Tous ces enregistrements ont montré que les chutes de mercure élémentaire s'accompagnent toujours d'une forte diminution de l'ozone atmosphérique [fig. 2]. Ces fortes corrélations entre les concentrations de mercure élémentaire gazeux et d'ozone suggéraient une piste quant à l'origine de ces « pluies » : les mécanismes chimiques en jeu doivent impliquer ces deux molécules. En suivant cette piste, Steve Lindberg, du laboratoire américain d'Oak Ridge, a proposé un premier scénario au début des années 2000 : selon lui, le mercure élémentaire gazeux serait oxydé par des formes réactives du brome produites par les sels marins contenus dans la neige [4]. En effet, le bromure de sodium NaBr, un sel marin présent dans les embruns émis par les océans, peut être transformé chimiquement sur une surface gelée, les cristaux de glace par exemple, en molécules de brome Br2. Ce gaz est donc plus abondant au printemps quand l'eau, libérée des glaces, dégage plus d'embruns. De plus, dans les conditions d'insolation polaires printanières, les molécules de brome peuvent être facilement cassées par le rayonnement solaire. Or, les atomes de brome ainsi dissociés Br sont extrêmement réactifs vis-à-vis de l'ozone et du mercure. Ce serait donc eux qui oxyderaient le mercure élémentaire et détruiraient l'ozone, provoquant les pluies de mercure au cours du printemps arctique. Le mercure ainsi converti en sa forme divalente, qui, on l'a vu, se dépose plus rapidement, se déverserait sur les surfaces neigeuses et dans les premiers centimètres de neige. Et au moment de la fonte du manteau neigeux il passerait dans l'eau et pourrait alors être transformé en méthylmercure.

Les premières mesures de mercure divalent dans la neige attestent bien d'une accumulation soudaine, les quantités pouvant y être multipliées jusqu'à cinquante fois dans certains cas. Ce scénario a aussi été très vite conforté par les observations du satellite ERS-2 de l'Agence spatiale européenne, qui cartographie la distribution des composés chimiques dans la troposphère. Elles ont en effet révélé la présence de brome réactif, sous forme d'atomes isolés ou associés à de l'oxygène au moment des pluies de mercure. Si l'on considère l'épisode du 10 avril 2002 enregistré à Kuujjuarapik par exemple, la carte de l'hémisphère nord exhibe des concentrations de cette forme de brome particulièrement fortes ce jour-là, notamment dans la baie de Hudson, où se situe le site de mesure.

Influence océanique

Les pluies de mercure ont certes toujours été enregistrées en zone côtière, près des sources de brome. Cependant, la proximité de l'océan ne suffit pas à les déclencher. En effet, nos collègues allemands du GKSS de Hambourg, Ralf Ebinghaus en particulier, qui mesurent depuis une dizaine d'années maintenant le mercure élémentaire gazeux et l'ozone à Mace Head sur la côte ouest de l'Irlande, n'ont jamais enregistré ce type d'événements. Quelles sont alors les conditions qui président à ce type de réactions très particulières ?

Depuis la découverte des pluies de mercure en 1998 par William Schroeder, les spécialistes avaient uniquement porté leur attention sur l'atmosphère, négligeant un autre compartiment important dans ces régions, le manteau neigeux saisonnier. Dans le scénario de Steve Lindberg, la couche de neige ne joue qu'un rôle passif, libérant en fondant le métal dans les sols et les rivières. Mais est-elle si passive ?

En 2001, avec Aurélien Dommergue au laboratoire de glaciologie et géophysique de l'environnement à Grenoble, nous avons entrepris d'étudier de plus près ce manteau neigeux, non seulement pour cerner son rôle dans le déclenchement des pluies toxiques mais aussi pour évaluer ses capacités à stocker du mercure. Nous avons ainsi mis au point un système portable de prélèvement et d'analyse de la neige elle-même, et également de l'air piégé entre les cristaux appelé « air interstitiel » de manière à y suivre l'évolution du mercure [5].

Au printemps 2002, nous avons réalisé les deux premières campagnes de mesure en Arctique avec le soutien de l'institut Paul-Émile-Victor. L'une à Station Nord au Groenland et l'autre à Kuujjuarapik au Canada. Sur les deux sites, nous avons mesuré les concentrations de mercure élémentaire dans un manteau neigeux saisonnier de 100 à 120 centimètres d'épaisseur. Résultat : elles diminuent de manière exponentielle avec la profondeur, passant de 1,6 ng/m3 en surface à environ 0,1 ng/m3 à la base de la couche.

Une telle diminution peut s'expliquer uniquement par une transformation chimique du mercure gazeux sous l'effet des composés bromés dans l'air interstitiel de la neige [6]. Ce mercure divalent, produit par le manteau neigeux lui-même, s'ajoute ainsi à celui déposé par les pluies et renforce le rôle de puits de mercure de la neige. Même si ce deuxième apport joue à la marge en termes de flux, il représente environ 0,01 nanogramme par mètre carré par heure ng/m2/h.

Mais le rôle du manteau ne s'arrête pas là. Sur chacun de ces deux sites, nous avons aussi observé un autre phénomène dans l'air piégé. La concentration de mercure élémentaire gazeux y augmente au cours de la journée. Et ce, dès l'apparition des premiers rayons du soleil. Elle y dépasse même la concentration extérieure : il y a donc forcément aussi production de mercure élémentaire gazeux [7]. Cette production suit parfaitement le taux d'insolation et est beaucoup plus forte dans les premiers centimètres de la neige qu'en profondeur. Elle est donc très probablement liée à des phénomènes photochimiques. Ce gaz fabriqué dans l'air piégé s'échappe-t-il de la neige ? Nous avons évalué le flux qui repart vers l'atmosphère entre 1,6 et 6,5 ng/m2/h selon les conditions d'insolation qui varient d'un jour à l'autre en fonction de la couverture nuageuse, etc.

Comme nous ne pouvons pas encore établir un bilan des quantités échangées sur l'année ou la saison, il reste cependant difficile d'estimer le bilan global de ces deux phénomènes, imprégnation et réémission qui se produisent à l'intérieur du manteau neigeux.Cependant, au final, lors de la fonte de ce dernier au printemps, les mesures montrent que seulement 15 à 20 % du mercure est émis sous forme de gaz élémentaire vers l'atmosphère, alors que dans la neige la concentration en mercure réactif décroît de plus de 60 à 80 % [8].

Poumon de neigeLe manteau neigeux polaire est donc loin d'être inerte vis-à-vis du mercure et serait aussi un véritable réservoir tampon, le libérant sur une période courte au moment de la fonte de la neige. Qui plus est, capable d'être à la fois le siège d'une transformation chimique du mercure gazeux présent dans l'air interstitiel et celui d'une production de ce même mercure élémentaire, ce réservoir jouerait un double rôle. L'image qui vient à l'esprit est celle du poumon, un poumon qui d'une part respire et incorpore le mercure, et d'autre part expire et rejette du mercure.

Mais à quel rythme et en quelles proportions fait-il l'un ou l'autre ? À y regarder de plus près il apparaît qu'au moment des mesures sur le site groenlandais, le ­manteau neigeux se comportait plutôt comme un puits de mercure, oxydant plus de mercure élémentaire qu'il n'en réémettait. En revanche, sur le site canadien, c'est l'émission du mercure élémentaire qui dominait, sauf la nuit. Or, la principale distinction entre ces deux campagnes de mesures tenait aux conditions de température et d'insolation. Celle du Groenland s'est déroulée de la fin février à la fin mars, au tout début du lever de soleil polaire. Les températures de l'air oscillaient entre - 30 et - 45 °C, la neige atteignant quant à elle - 10 °C à 1 mètre de profondeur et - 25 °C à 20 centimètres. Au Canada, la campagne à Kuujjuarapik a eu lieu début avril, quand le soleil est déjà haut. L'air ambiant y avoisinait les - 5° à - 10 °C et le manteau - 8 °C à - 2 °C .

Plus encore que la présence de neige, la température et l'insolation seraient-elles les paramètres déterminants ? Nos dernières campagnes de mesures, menées avec Pierre-Alexis Gauchard et Olivier Magand, vont dans ce sens [9]. La plus récente, réalisée à bord du navire Polarstern dans l'océan Arctique au cours de l'été 2004, avait essentiellement pour but d'identifier les paramètres clés dans le déclenchement des pluies. Pendant plus d'un mois, du 14 juillet au 31 août, nous avons mesuré en continu le mercure élémentaire gazeux et l'ozone atmosphériques. Toutes les conditions étaient réunies pour que du brome gazeux soit émis, soit par l'eau de mer, libre entre les blocs de glace, soit par la neige déposée à la surface de ces blocs. Pourtant, nous n'avons observé aucune pluie ! Il y a bien eu émissions de brome, mais pas les conditions nécessaires pour transformer le brome gazeux en atomes réactifs.

Température décisive

Là encore, la différence essentielle par rapport à nos campagnes printanières tenait à la température, comprise entre - 5 °C et + 2 °C ; alors qu'il faisait moins de - 10 °C à - 15 °C lors des pluies de mercure enregistrées au Groenland et au Canada.

Nous sommes donc convaincus aujourd'hui que, pour activer la production de brome gazeux qui déclenche les pluies de mercure, le thermomètre doit descendre au-dessous de - 10 à - 15 °C degrés au printemps. Pour nous, la température et l'insolation sont donc bien les paramètres déterminants. De plus, une fois le mercure lessivé de l'atmosphère, ce seraient encore ces paramètres qui réguleraient le comportement du manteau neigeux : tantôt puits, tantôt source. Pour garder l'image du poumon, ces deux paramètres imposeraient un double rythme d'inspiration et d'expiration, au cours de la journée d'une part et saisonnier de l'autre, car au tout début du printemps l'irradiation solaire est plus faible qu'en pleine saison. Mais sur ce point, nous n'en sommes qu'au stade des hypothèses.

Quoi qu'il en soit, toutes ces avancées montrent que les conditions requises pour vider l'atmosphère de son mercure et le concentrer dans la neige sont très particulières. En découlent de nouvelles questions. On peut ainsi se demander si ce phénomène, que l'on croyait au départ assez courant aux hautes latitudes, n'est pas beaucoup plus restreint et local. Dans ce cas, il ne serait peut-être pas la bonne explication à la hausse de méthylmercure relevée dans ces écosystèmes. On peut aussi s'interroger sur l'ancienneté de ces phénomènes : ont-ils toujours existé ou au contraire sont-ils récents ? Nous travaillons actuellement sur ce point à Grenoble, notamment Xavier Faïn, en cherchant à détecter et à analyser les pluies de mercure du passé, un peu comme la paléoclimatologie reconstitue les anciens événements climatiques. Nous commençons également à étudier les accumulations de mercure dans les écosystèmes alpins, car pour l'instant les travaux étaient surtout focalisés sur les régions polaires. Par ailleurs, et c'est rassurant, les derniers inventaires des émissions de mercure à l'échelle globale montrent qu'elles seraient en légère diminution depuis 1990, en percevrons-nous bientôt les conséquences ?

EN DEUX MOTS

L'augmentation des teneurs en mercure observées ces dernières années dans les écosystèmes arctiques serait-elle liée à un phénomène atmosphérique propre à ces régions ? Cette hypothèse a été avancée récemment, après la découverte d'événements très particulier, « les pluies de mercure », qui, au cours du printemps arctique, déverseraient ce polluant sur la neige. En fondant, celle-ci libérerait le mercure dans les sols et rivières qui entrerait ainsi dans la chaîne alimentaire. De nouvelles études mettent l'accent sur le rôle actif du manteau neigeux : il pourrait concentrer et stocker le mercure avant de le relâcher en fondant, cela en fonction des conditions de température et d'insolation.

[1] R. Wagemann et al., The Science of the Total Environment, 186, 41, 1996.

[2] W.H. Schroeder et al., Nature, 394, 331, 1998.

[3] R. Ebinghaus et al., Environmental Science and Technology, 36, 1238, 2002.

[4] S.E. Lindberg et al., Environmental Science and Technology, 36, 1245, 2002.

[5] A. Dommergue et al., Analytical and Bioanalytical Chemistry, 375, 106, 2003.

[6] C.P. Ferrari et al., Geophys. Res. Lett., 31, L03401, 2004.

[7] A. Dommergue et al., Environmental Science and Technology, 37, doi: 10.1021/es026242b, 2003.

[8] A. Dommergue et al., Geophys. Res. Lett., 30 12, 1621, 2003.

[9] P.A. Gauchard et al., The Science of the Total Environment, sous presse.

NOTES
* Les valeurs limites des teneurs en mercure dans les poissons varient, selon les espèces et les pays, de 0,3 µg/g à 1 µg/g.

* La troposphère est la partie la plus basse de l'atmosphère. Elle s'étend en moyenne jusqu'à 12 kilomètres d'altitude.

* Le mercure divalent correspond à la forme oxydée au degré +II, c'est-à-dire qui a cédé deux électrons, d'où l'appellation HgII.
SAVOIR
Le site du laboratoire de glaciologie et géophysique de l'environnement où Christophe Ferrari travaille avec Claude Boutron : http://lgge.obs.ujf-grenoble.fr/

 Institut Paul-Émile-Victor : www.ifremer.fr/ifrtp/

 Cartes satellitaires G.O.M.E. : www-iup.physik.uni-bremen.de/gome/

 

  DOCUMENT   larecherche.fr    LIEN

 
 
 
 

ce que n'explique pas la physique

 

 

 

 

 

 

 

J.-M. Lévy-Leblond : ce que n'explique pas la physique
Propos recueillis par Olivier Postel-Vinay dans mensuel 349
daté janvier 2002 -  Réservé aux abonnés du site


Beaucoup de physiciens ont besoin de la conviction que le progrès scientifique nous conduira un jour sinon à l'explication totale des phénomènes, du moins à leur explication finale. La physique quantique nous rapprocherait du but. Mais conviction ne vaut pas preuve. Réflexion sur les pièges des mots.
La Recherche : Weinberg lire p. 25 espère que nous saurons un jour comprendre toutes les régularités de la nature. Pour lui, toutes ces régularités pourront être déduites de quelques principes. Nous allons, pense-t-il, vers une « explication finale ». Et vous ?

Jean-Marc Lévy-Leblond : Cette position m'intéresse d'un point de vue historique et psychologique, mais je n'y adhère pas. La conviction de Weinberg est partagée par beaucoup de physiciens et joue probablement un rôle moteur pour la physique. Il est possible que les grands « trouveurs » - dont Weinberg fait partie - aient besoin de se rassurer ainsi pour croire à la vérité et à la force de ce qu'ils découvrent. Mais cette conviction est aussi ancienne que la physique et elle a été déçue à répétition. Quand Newton parle de la gravitation « universelle », ce n'est pas seulement au sens où deux corps quelconques s'attirent universellement, c'est aussi, et plus profondément, on l'a un peu oublié, avec l'idée que c'est La loi universelle de la nature, qui va expliquer - moyennant éventuellement quelques modifications - l'ensemble de ses manifestations. Rappelons-nous aussi Lord Kelvin au début du siècle quand il affirmait qu'il n'y avait plus rien à découvrir en physique et qu'il ne restait qu'à ajouter quelques décimales aux constantes fondamentales. Il conseillait aux plus brillants jeunes gens de ne pas s'engager dans la carrière de physicien. Ce genre de conviction, à mon avis, n'est étayé sur rien d'autre qu'un acte de foi, un sentiment presque d'ordre religieux.

Votre scepticisme est-il surtout fondé sur l'argument historique, ou y a-t-il autre chose ?

Cela va plus loin. La position de Weinberg n'est rien d'autre qu'une conviction, il n'en propose aucune démonstration. Je ne peux donc lui opposer que ma propre conviction : à savoir, que le monde est beaucoup plus riche et compliqué que ne le pensent les physiciens et les hommes en général. Croire à la possibilité d'en toucher le fond du fond est peu crédible et présomptueux.

Voyez-vous quelque chose de spécifiquement américain dans la façon dont Weinberg aborde cette question ?

Pas à ce niveau-là. Ce qui me paraît assez spécifiquement américain, c'est la façon qu'a Weinberg d'évoquer le rapport entre les principes fondamentaux de la physique - sous-entendu de la science - et ceux de l'action humaine, y compris de la morale. Weinberg affirme bien qu'on ne peut pas étayer la morale sur la physique, on est heureux de l'entendre dire, mais le fait même qu'il éprouve le besoin de le préciser est assez typique d'un certain contexte culturel, qui a sans doute à voir avec le fondamentalisme biblique. Il me semble qu'en France et dans le monde latin en général personne n'aurait besoin d'affirmer une telle évidence !

Dans sa réflexion sur la possibilité d'une explication finale, Weinberg apporte malgré tout d'autres bémols. Il fait, par exemple, observer que si la chimie demeure une discipline à part entière, c'est que la mécanique quantique et le principe de l'attraction électrostatique ne suffisent pas à expliquer entièrement les phénomènes chimiques. Vous êtes bien sûr d'accord avec ce point de vue ?

Oui, mais j'irais plus loin. Si l'on en reste à la chimie, on voit bien que l'explication physique ne nous satisfait plus dès qu'une molécule est un peu compliquée. Dans le meilleur des cas, le physicien va pouvoir rendre compte du comportement de cette molécule à l'aide de calculs extrêmement lourds sur ordinateur. Mais ces calculs ne nous donneront pas une vraie compréhension du problème. Comprendre, c'est avoir le sentiment intime de saisir les mécanismes en jeu. Eugene Wigner* disait, un jour où on lui montrait effectivement de tels calculs informatiques qui décrivaient le comportement d'un système chimique : « Bon,d'accord, l'ordinateur a compris, mais moi j'aimerais bien comprendre aussi ! » La chimie dégage des concepts spécifiques, autonomes, comme celui de valence, qui à leur niveau rendent compte de façon beaucoup plus convaincante de la réalité.

Mais c'est vrai aussi de la physique elle-même, au niveau macroscopique. Pourquoi la thermodynamique reste-t-elle pertinente ? Parce qu'il ne suffit pas de savoir que la notion de température caractérise l'agitation thermique moyenne des milliards et des milliards de molécules qui remplissent la pièce où nous discutons pour disqualifier cette notion. Elle garde toute sa valeur conceptuelle comme facteur explicatif d'une situation macroscopique. Et on peut en dire autant de descriptions d'objets microscopiques mais non élémentaires, comme le noyau de l'atome. Les interactions élémentaires entre les constituants du noyau n'expliquent son comportement que grossièrement. Malgré les succès considérables de la physique des particules fondamentales ou considérées comme telles, il reste nécessaire d'attaquer les différents niveaux de la matière pour ce qu'ils sont. Il nous faut respecter cette autonomie des divers aspects de la réalité. Bien entendu, c'est encore plus vrai si l'on considère les rapports entre la physique et les sciences du vivant. Sans parler des sciences de la société.

Weinberg fait à cet égard une distinction qui remonte à Aristote et qui lui paraît essentielle, entre ce qui relève du principe et ce qui relève de l'accident. Quelle est selon vous la valeur explicative de cette distinction ?

Elle n'est pertinente que dans certaines limites. Nous ne disposons pas de critères nous permettant d'affirmer que tel principe n'est pas lui-même le résultat d'un accident. Et réciproquement, des lois qui peuvent nous sembler accidentelles, comme celles de la géologie ou encore le code génétique, que Weinberg évoque, ont aussi, à leur niveau, une valeur de principe. La notion d'accident appelle un regard critique au même titre que celle de principe. Je ne suis pas sûr que l'on puisse séparer de façon absolue, d'un côté l'élémentaire, qui relèverait des principes, et de l'autre le composite, le compliqué, qui - lui - relèverait de l'accidentel.

En faveur de cette distinction, Weinberg évoque malgré tout une idée non négligeable, c'est ce qu'il appelle « les brumes du temps ». A propos du code génétique, il dit qu'on ne saura peut-être jamais pourquoi il est ce qu'il est, car son origine se perd dans les brumes du temps. Donc dans un accidentel auquel nous n'aurons peut-être jamais accès. Qu'en pensez-vous ?

Que cet argument peut se retourner contre sa thèse maîtresse. Richard Feynman* avait avancé une fois l'idée, en plaisantant à moitié comme il le faisait souvent, que les régularités au niveau subatomique, en physique des particules, pouvaient être elles-mêmes non pas initiales et constitutives, mais le résultat d'une évolution primitive, dans un passé inaccessible. Il disait : « On a découvert de superbes symétries dans ce monde des particules - fort bien ! Mais il a fallu attendre Kepler pour que les belles symétries circulaires des orbites planétaires apparaissent comme approximatives et contingentes ; qu'est-ce qui nous prouve que les symétries du monde des particules sont constitutives ? » Apparemment personne n'a rien fait de cette idée pour l'instant, mais elle est intéressante, serait-ce au titre de contre argument : ce que Weinberg considère comme le plus fondamental pourrait n'être qu'accidentel, et se perdre dans « les brumes du temps ».

L'accident par excellence n'est-ce pas l'apparition de l'Univers ? Weinberg, Davies et la plupart des physiciens pensent que la physique quantique est capable de rendre compte de cet accident. Et vous ?

Je voudrais d'abord remarquer qu'il n'est pas besoin de la physique quantique pour disqualifier l'idée même d'origine de l'Univers. Ni les temps imaginaires de Hawking ni la super inflation ne sont nécessaires à cet égard. C'est déjà le fait de la cosmologie la plus traditionnelle, celle qui remonte aux équations de Friedmann-Lemaître, dans les années 1920. Ces équations décrivent l'évolution de l'Univers en fonction du temps. Elles peuvent être utilisées pour remonter du présent jusqu'à un instant que l'on peut appeler « origine » si l'on veut, mais où justement les- dites équations cessent d'être valables. Il s'agit d'une singularité mathématique. C'est dire que ce premier instant n'en est pas un ; il n'appartient pas à la gamme des temps. A cet égard, je suis toujours surpris que la comparaison ne soit pas devenue banale avec le zéro absolu de la température. Tous les physiciens sont d'accord pour dire que ce zéro n'est pas une température. C'est un zéro qui n'existe pas, qu'on peut approcher asymptotiquement d'aussi près qu'on veut mais sans jamais l'atteindre. Ce zéro absolu est par convention un nombre fini mais conceptuellement un infini. Pourquoi en irait-il différemment du temps zéro de l'Univers ? De fait, la théorie de l'expansion de l'Univers implique cette idée que l'instant premier n'en est pas un ; d'où il ressort inévitablement qu'il n'y a pas d'« avant »- Big Bang. Vous pouvez rembobiner le film autant que vous voulez, vous n'atteindrez jamais le Big Bang. La question de l'origine est une mauvaise question, due au fait que nous plaquons une représentation du temps liée à notre expérience quotidienne sur un domaine où elle est probablement inapplicable.

Est-ce à dire que le Big Bang échappe à toute forme de représentation ?

Non, je crois qu'on peut construire des représentations, mais après être passé par le détour du formalisme mathématique. Et il restera de toute manière cette ambiguïté irréductible liée à la notion d'origine. J'invite souvent mes étudiants à faire une expérience de pensée : imaginez que le monde dans lequel vous vivez soit un plan infini et que vous soyez isolé dans une tour, dans une cellule dont la fenêtre est grillagée. Les lointains sont perdus dans la brume, mais vous voyez ce qui se passe près de la tour. Une route y arrive, sur laquelle il y a des gens, des voitures qui vont et viennent. Votre seul instrument de mesure, ce sont les barreaux verticaux et horizontaux de votre fenêtre. Et vous observez sur ce carroyage que la route rétrécit à mesure qu'elle s'éloigne. Au début la route fait une largeur de carreau, puis une demi-largeur, et ainsi de suite mais à la fin vous ne savez plus parce qu'elle est noyée dans la brume. Et puis un jour la brume se dégage et vous constatez que la route, à l'horizon, devient un point. Ce point est parfaitement repérable à l'aide des coordonnées fournies par la grille, et rien ne vous empêche de le considérer comme l'origine de la route. Mais vous pouvez aussi comprendre que ce « point » se situe à l'horizon, à l'infini. Cette image montre qu'une échelle de mesure finie peut parfaitement rendre compte d'une grandeur infinie. Il n'est pas besoin de la physique quantique pour discuter cette aporie.

Je reviens à ma question : la physique peut-elle rendre compte de cet accident qu'est l'apparition de l'Univers, du temps, de l'espace, de la matière... ?

Tout dépend de ce que vous entendez par « rendre compte ». On peut imaginer que la physique puisse éventuellement donner un sens, dans un nouveau cadre théorique, à ce qu'il y a sous l'espace tel que nous le connaissons, avant le temps tel que nous le connaissons. Le physicien pourra peut-être créer des concepts appropriés et leur donner un nom : l'infra-espace, le pré-temps, que sais-je ? Mais en quoi cette réponse de physicien changera-t-elle quoi que ce soit à la question d'ordre méta physique que vous posez en réalité ? La physique ne peut répondre qu'en tant que physique.

Ne sommes-nous pas terriblement prisonniers des mots que nous utilisons ? Nous, à la fois les profanes et les scientifiques ?

C'est évident, et j'aurais tendance, à cet égard, à être assez sévère avec la physique et toute la science du XXe siècle. Je pense qu'elle s'est montrée quelque peu désinvolte dans son usage des mots, qu'elle ne les a pas pris assez au sérieux, qu'elle ne les a pas soumis à un regard suffisamment critique.

Les physiciens du XIXe siècle étaient beaucoup plus attentifs à ce problème. On peut lire dans les oeuvres de Maxwell le soin avec lequel il choisit les mots qu'il emploie, surtout quand il les emprunte à la langue courante. Maxwell est éminemment conscient du piège que peuvent représenter les mots. Pour revenir à la question de l'origine, les physiciens continuent, comme nous venons de le faire, à utiliser l'expression « Big Bang », alors qu'elle a été inventée par Fred Hoyle pour ridiculiser cette théorie, et que ces mots sont effectivement d'une absurdité totale. Du coup, les physiciens sont obligés de courir après ces mots et de les corriger : « M ais attention, ils ne veulent pas du tout dire ce que vous avez compris, ce n'est pas une explosion, ça n'a pas eu lieu en un point donné de l'espace, ni d'ailleurs à un moment donné... » . L'usage essentiellement publicitaire de tels vocables finit par occulter leur signification. Je ne crois pas qu'on puisse éviter le dilemme de base : soit on forme des néologismes sans écho dans la langue courante, soit on utilise des mots usuels qui sèment des malentendus. Mais il faut affronter ce dilemme de façon consciente et délibérée.

 

  DOCUMENT    larecherche.fr    LIEN

 
 
 
 

SUPRACONDUCTEURS

 

 

 

 

 

 

 

Des vibrations dans les supraconducteurs
Alain Sacuto, Maximilien Cazayous dans mensuel 404
daté janvier 2007 -  Réservé aux abonnés du site


Vingt ans après sa découverte, le phénomène de « supraconductivité à haute température » reste l'une des grandes énigmes de la physique. Peut-être plus pour longtemps, grâce à plusieurs techniques expérimentales qui commencent à porter leurs fruits.
EN DEUX MOTS À une température proche du zéro absolu, la plupart des métaux conduisent le courant sans perte d'énergie. Dans certains oxydes de cuivre, la « supraconductivité » se produit à des températures plus grandes, jusqu'à 165 kelvins environ. Les physiciens pensaient que ces deux types de supraconductivité étaient de nature différente, mais une série de résultats dessinent un nouveau scénario.

Il y a tout juste vingt ans, les travaux de Georg Bednorz et d'Alex Müller, des laboratoires d'IBM, à Zurich, faisaient sensation dans la communauté des physiciens. Le matériau dont ils étudiaient les propriétés, un oxyde de cuivre de la famille des « cuprates », propageait le courant électrique sans perte d'énergie à 34 kelvins. Appelé « supraconductivité », ce phénomène était connu depuis le début du XXe siècle, mais il n'avait été observé que sur des alliages métalliques au-dessous d'une vingtaine de kelvins.

Quelques mois plus tard, un cuprate supraconducteur jusqu'à 90 kelvins était identifié. Les physiciens se mirent alors à espérer la découverte prochaine de matériaux supraconducteurs à température ambiante 300 kelvins environ. Eu égard aux économies d'énergie que ceux-ci pourraient permettre, les physiciens n'étaient pas les seuls à s'enthousiasmer.

Encore fallait-il comprendre la nature physique de la supraconductivité à « haute température ». Très vite, en effet, celle-ci était apparue comme fondamentalement différente de la supraconductivité « classique ». Or, après vingt ans de recherches intensives on estime à plus de 100 000 le nombre de publications sur le sujet !, elle résiste toujours à la compréhension des physiciens. Toutefois, une série de résultats publiés en 2006 montrent que ce domaine de recherche arrive enfin à maturité. En particulier, les deux types de supraconductivité auraient finalement plus de points communs qu'on ne le pensait : certains concepts théoriques expliquant le phénomène « classique » conservent leur pertinence.

Paires de Cooper
La supraconductivité a été découverte en 1911, mais il fallut attendre 1957 pour qu'une interprétation microscopique soit établie : c'est la théorie « BCS », selon les initiales de ses inventeurs, les Américains John Bardeen, Leon Cooper et Robert Schrieffer [1] . Ils montraient que la supraconductivité appelée aujourd'hui « classique » résulte de l'appariement des électrons du matériau, qui forment des « paires de Cooper ».

Leur idée est la suivante. Un métal peut être représenté comme un réseau d'ions positifs immergés dans un bain d'électrons chargés négativement. Les ions sont entraînés par le passage d'un électron. Le réseau se déforme, ce qui crée localement un excès de charges positives. Un second électron est attiré par cet excès, qu'il entretient à son tour lors de son passage : les deux électrons se retrouvent ainsi appariés. L'énergie de liaison de cet appariement est appelée « gap supraconducteur ».

Au-delà d'une température dite « critique », l'énergie thermique responsable des déformations du réseau devient trop importante et perturbe ce mécanisme : les paires de Cooper sont brisées et l'état supraconducteur disparaît. Par conséquent, plus le gap supraconducteur est grand, plus l'énergie thermique nécessaire pour briser les paires est importante, et plus la température critique est élevée. Il existe ainsi une relation de proportionnalité directe entre le gap supraconducteur et la température critique.

Une implication directe est l'« effet isotopique » : lorsqu'un ion est remplacé par l'un de ses isotopes atomes de même charge mais de masse différente, la température critique est modifiée, car celle-ci dépend de la mobilité des ions du réseau, et donc de leur masse.

Au milieu des années 1980, la fabrication d'alliages métalliques permettant d'accroître la température critique en jouant sur la force du couplage entre les électrons et le réseau semble aboutir avec le germanate de triniobium, supraconducteur jusqu'à 23,3 kelvins. Une limite infranchissable, estiment les physiciens de l'époque... Mais en septembre 1986 Bednorz et Müller observent de la supraconductivité là où personne ne l'attend : une céramique composée d'oxygène, de cuivre, de baryum et de lanthane, qui possède un ordre magnétique microscopique et ne conduit pas le courant électrique ce que les physiciens nomment « isolant magnétique », mais qui devient supraconducteur au-dessous de 34 kelvins après un processus d'oxygénation [2] . Dès lors, les physiciens et les chimistes se mettent à tester la gamme des oxydes métalliques afin d'atteindre une température critique de plus en plus élevée [fig. 1] . Ces efforts culminent en 1994 avec la synthèse d'un matériau composé d'oxygène, de cuivre et de mercure, supraconducteur jusqu'à 165 kelvins - 108 °C.

Théorie inconnue
Quelle est la température critique limite ? Pourra-t-on synthétiser des supraconducteurs efficaces à température ambiante, ce qui entraînerait des économies d'énergie substantielles ? Personne ne le sait. Aucun modèle n'est jusqu'à présent parvenu à expliquer l'origine physique de la supraconductivité à haute température.

Comme dans la supraconductivité « classique », celle-ci se caractérise par l'existence de paires de Cooper et d'un gap supraconducteur. Mais l'analogie semble s'arrêter là, suggèrent des observations expérimentales réalisées dès la fin des années 1980. En particulier, l'appariement des électrons ne proviendrait pas des interactions avec le réseau. Premièrement, les tests d'effets isotopiques ne sont pas concluants. Deuxièmement, le gap ne semble pas suivre la température critique ; c'est même l'inverse qui est observé.

Troisièmement, des interactions magnétiques sont détectées entre les électrons. Particules chargées, les électrons possèdent aussi un moment magnétique intrinsèque dû au mouvement des électrons sur eux-mêmes : cette propriété leur permet d'interagir « magnétiquement » avec leur environnement proche. En outre, dans les supraconducteurs « classiques », l'énergie des paires de Cooper est la même dans toutes les directions de l'espace. Pour les cuprates, elle varie selon les directions considérées. On peut ainsi dessiner un diagramme représentant l'amplitude de cette énergie en fonction des coordonnées spatiales. Il a la forme d'une fleur à quatre pétales : nulle dans certaines directions appelées « nodales », l'énergie est très forte dans d'autres « antinodales ».

Quatrièmement, enfin, les cuprates sont des matériaux dont le comportement se révèle plus complexe que celui des supraconducteurs « classiques ». Ils peuvent se retrouver dans cinq états différents, décrits par un diagramme de « phase » [fig. 2] . Ces états sont obtenus en faisant varier la température et le nombre de particules portant le courant électrons et « trous d'électrons » * . Ce nombre augmente ou diminue lorsque l'on ajoute ou retire des atomes d'oxygène dans le matériau.

Dôme supraconducteur
Pour une large gamme de températures et un faible nombre de porteurs, on se trouve dans la phase isolante magnétique. Lorsque le nombre de porteurs augmente et pour des températures relativement basses, on rejoint la phase supraconductrice. Celle-ci a la forme d'un dôme, dont le contour décrit l'évolution de la température critique, et dont le sommet correspond à la température critique maximale du cuprate.

Au-dessus du dôme au-delà de la température critique, donc, on observe trois phases, dont l'apparition dépend du nombre de porteurs. Lorsque ce nombre est élevé, le matériau se comporte comme un bon métal, tels l'aluminium ou le cuivre. En le diminuant, on passe dans une phase dite de « métal étrange », qui s'écarte des lois régissant le comportement des métaux normaux. Enfin, pour un nombre de porteurs encore plus faible, une phase dite de « pseudo-gap » apparaît, où les interactions magnétiques de la phase isolante s'exercent encore sur les porteurs.

Ces observations concourent à forger un sentiment chez les physiciens : la supraconductivité « classique » et celle à haute température sont deux phénomènes fondamentalement différents. Des années durant, les propositions théoriques foisonnent... toutes sans succès ! Il faut dire que les oxydes métalliques sont des matériaux complexes, ce qui rend leur étude particulièrement difficile.

Cependant, ces trois dernières années ont apporté de nouveaux résultats expérimentaux, qui suscitent actuellement un revirement important : certains concepts de la théorie BCS auraient été trop vite rejetés. Ces résultats sont le fruit des progrès dans les techniques d'analyse spectroscopique. La fabrication des cuprates est également mieux contrôlée, ce qui permet de comparer, de manière fiable, les résultats obtenus par différentes techniques. Les groupes de recherche sont certes bien moins nombreux qu'au début des années 1990, mais ils sont plus expérimentés et disposent d'instruments mieux adaptés.

L'année 2006 a été particulièrement féconde. En mai, tout d'abord, des études conduites au CEA, à Saclay, sur la diffusion des neutrons dans les cuprates, montrent, dans la phase de pseudo-gap, la présence d'interactions magnétiques à l'échelle de la maille cristalline [3] . Celles que l'on observe dans l'état supraconducteur seraient alors un « résidu » des interactions du pseudo-gap. Ce résultat suggère l'existence d'une compétition entre les phénomènes physiques qui se manifestent dans le pseudo-gap et l'état supraconducteur.

Puis en août dernier, à l'université Cornell, aux États-Unis, des mesures réalisées par spectroscopie à effet tunnel révèlent les traces d'un couplage entre les électrons et le réseau dans l'état supraconducteur d'un cuprate [4] .

Ce couplage semble sensible à l'effet isotopique : les déformations du réseau d'ions joueraient ainsi encore un rôle dans le mécanisme de formation des paires de Cooper.

Au même moment, notre équipe de l'université

Paris-VII publie ses résultats de recherche [5] . Grâce à la spectroscopie Raman, qui permet de différencier le comportement des électrons dans différentes régions de l'espace en les excitant par un laser, nous observons une relation de proportionnalité directe entre le gap supraconducteur et la température critique, comme c'est le cas dans la théorie BCS.

Pourquoi n'avait-elle jamais été observée auparavant ? Parce que la forme, dans l'espace, de l'énergie caractéristique du pseudo-gap ressemble à s'y tromper à celle du gap supraconducteur. Nous avons contourné cette difficulté en étudiant le « bout » du gap qui est proche de la région nodale, zone qui n'est pas masquée par le pseudo-gap.

Les concepts de la théorie BCS refont ainsi surface dans le cadre d'un nouveau scénario où deux états de la matière, le pseudo-gap et l'état supraconducteur, coexisteraient et interagiraient. Ce dernier reste par ailleurs singulier, car il « jaillit » d'un isolant magnétique, ce qui questionne toujours les théoriciens. Quelle « colle » est responsable de la formation des paires de Cooper ? Est-ce une interaction magnétique, un couplage des électrons avec le réseau, ou une combinaison de deux ? Cette question suscite actuellement un débat passionné chez les physiciens.

Au vu des progrès récents, gageons que l'énigme de la supraconductivité à haute température sera bientôt résolue.
[1] J. Bardeen et al., Phys. Rev., 108, 1175, 1957.

[2] J. Bednorz et A. Müller, Z. Phys. B, 64, 189, 1986.


[3] B. Fauqué et al., Phys. Rev. Lett., 96, 197001, 2006.


[4] J. Lee et al., Nature, 442, 546, 2006.


[5] M. Le Tacon et al., Nature Physics, 8, 537, 2006.
NOTES
* Un trou d'électrons correspond à l'absence d'électrons impliqués dans la cohésion d'un réseau cristallin.
SAVOIR
N. Bontemps et C. Simon, Image de la physique, 98, 2005.

A. Bouzdine, « L'héritage de Lev Landau », La Recherche, janvier 2004, p. 60.

D. Roditchev et al., « Le premier supraconducteur double », La Recherche, novembre 2003, p. 40.

X. Grison et al., « De l'ordre dans les supraconducteurs », La Recherche, janvier 2001, p. 44.


  DOCUMENT       la recherche.fr      LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon