ecole de musique piano
     
menu
 
 
 
 
 
 

Qu'est-ce qu'une seconde ?

 

 

 

 

 

 

 

Qu'est-ce qu'une seconde ?

Par Erwan Lecomte le 16.11.2018 à 17h38
Lecture 6 min.

Chaque vendredi, Sciences et Avenir répond à une question posée par ses lecteurs. Cette semaine, quelle est l'origine de la seconde ? Comment sa durée a-t-elle été déterminée ?


"Qu’est qu’une seconde ? Comment cela a été déterminé ?" nous demande Marco Darnaud sur la page Facebook de Sciences et Avenir. Chaque semaine, nous sélectionnons une question que vous vous posez, et nous apportons une réponse. Merci pour votre insatiable curiosité.


Qu'il s'agisse d'agriculture, de voyages ou d'observation du monde, mesurer le temps a toujours été une nécessité pour les activités humaines. Dès l'antiquité nos ancêtres ont cherché à découper le temps en unités dénombrables. Le plus évident pour cela est de se baser sur l'observation de phénomènes cycliques tels que l'alternance jour et nuit, les phases de la Lune ou le passage des saisons. Très tôt, des calendriers décrivant ce rythme naturel des saisons sont mis en place par les premières civilisations. Tous ne comportent pas le même nombre de jours, mais certains, comme ceux des égyptiens, sont très voisins du nôtre. Ainsi, deux millénaires avant J.C., les Egyptiens comptaient déjà des années de 365 jours divisées en 12 mois de 30 jours.
Ces cycles ont servi de base pour découper le temps en unités suffisamment petites pour rythmer les activités au cours d'une journée. Le découpage d'une journée en 24 unités temporelles d'une heure est une notion très ancienne puisqu'elle remonte au moins à Ptolémée, brillant astronome de l'antiquité grecque. Dans son célèbre recueil de mathématiques et d'astronomie, l'"Amalgeste", écrit au deuxième siècle après J.C., il décrit des journées divisées en 24 heures. "Heures qui étaient sans doute mesurées à l'aide d'un cadran solaire" explique l'astronome et conseiller scientifique auprès du directeur du musée des Arts et Métiers, Denis Savoie. Mais là n'est pas le plus impressionnant. Ptolémée et ses contemporains avaient déjà compris à l'époque que la durée du "temps solaire" était variable d'une journée à l'autre.
"En effet, il ne s'écoule pas tout à fait 24h d'un jour à l'autre car la vitesse de rotation de la Terre n'est pas uniforme" détaille Denis Savoie. Et ce, du fait de plusieurs facteurs : l'inclinaison de l'axe de la Terre, ou encore le fait qu'elle se déplace plus vite sur son orbite légèrement elliptique lorsqu'elle est à son périgée (le point le plus proche du soleil) qu'à son apogée (le point le plus éloigné). "C'est la raison pour laquelle Ptolémée définit donc un 'temps solaire moyen' calculé sur l'année" poursuit Denis Savoie.

La base sexagésimale héritée des astronomes babyloniens
La notion de seconde n'est d'ailleurs pas étrangère à Ptolémée. Dans son œuvre il présente un sous-découpage des heures en minutes (correspondant à 1/60e d'une heure) et en secondes (correspondant à 1/60e de minute). Pourquoi découper l'heure en 60 fragments et pas 12, 20 ou 100 (ou tout autre nombre de votre choix) ? "Parce que l'astronomie grecque est une héritière de l'astronomie babylonienne qui effectuait tous ces calculs sur une base sexagésimale (en base 60)" raconte Denis Savoie.
L'une des hypothèses pour expliquer ce choix est que le système sexagésimal présente l'avantage de pouvoir être divisé facilement. En effet, 60 peut-être divisé par 60, 30, 20, 15, 12, 10, 6, 5, 4, 3, 2 et naturellement 1, et donner à chaque fois un nombre entier. Ce choix s'est imposé au monde de l'astronomie puis à la mesure du temps.
On notera toutefois quelques tentatives pour proposer des systèmes alternatifs. Pendant la révolution française, une tentative de décimalisation de l'heure a eu lieu. Les révolutionnaires ont tenté de mettre en place des journées de 10 heures découpées chacune en 100 minutes, elles-mêmes découpées en 100 secondes. Sur les quelques horloges décimales qui ont été construites à l'époque, une heure décimale équivalait à 144 minutes actuelles. Toutefois, ce système n'a survécu qu'environ 16 mois avant de tomber dans l'oubli.
Mais les astronomes de l'époque n'arrêtaient pas leur découpage du temps à la seconde. Cette dernière était également divisée en tierces (1/60e de seconde), elles-mêmes divisées en quartes (1/60e de tierce). "Il ne s'agissait là toutefois que d'une division théorique car aucun appareil de mesure n'était à l'époque assez précis pour mesurer précisément le temps ne serait-ce qu'à l'échelle de la seconde" poursuit Denis Savoie. Le premier appareil à avoir été capable de le faire n'est apparu que beaucoup plus tard. Il s'agit d'un pendule à balanciers mis au point en 1673 par le physicien néerlandais Christian Huygens.

De la Terre à l'atome
Cette mesure du temps (et de la seconde) liée à la rotation de la Terre va perdurer jusqu'au 19e siècle. Jusqu'en 1960 le Bureau International des Poids et des Mesures définissait encore la seconde comme étant une fraction de 1/86.400 du "jour solaire moyen" décrit par Ptolémée. Mais ce système de mesure est bancal. "Notamment parce que la rotation de la Terre se ralentit inexorablement (on parle de ralentissement "séculaire") à cause des marées océaniques, des alizés ou encore des mouvements géophysiques. La Terre n'est de ce fait pas un étalon fiable pour le temps" expose Denis Savoie.
Ce qui conduit le bureau à rapidement revoir cette définition pour en proposer une autre... À peine moins bancale car basée sur une année de référence, mais obscure à souhait dans son énonciation. En effet, en 1960, la seconde est désormais définie comme "la fraction 1/31.556.925,9747 de l'année tropique pour 1900 janvier 0 à 12 heures de temps des éphémérides." Ce "temps des éphémérides" survira pendant 7 ans jusqu'à laisser place à un nouveau référentiel beaucoup plus précis : la vibration des atomes.

Depuis cette date et aujourd'hui encore, la durée de la seconde est définie par la fréquence de vibration de l'atome de césium. Une seconde est représentée comme "la durée de 9.192.631.770 périodes de la radiation correspondant à la transition entre les deux niveaux hyperfins de l'état fondamental de l'atome de césium 133". Pourquoi ce chiffre ? "Tout simplement parce qu'il faut qu'il y ait toujours 86.400 secondes en 24 heures, et que ce nombre de vibrations est celui qui y correspond le mieux" explique Denis Savoie. De fait, la précision d'une horloge à césium est telle qu'elle mettrait une centaine de millions d'années à se décaler d'une seule seconde. Toutefois, la quête de précision étant sans fin, les horloges atomiques pourraient basculer dans une autre dimension en passant un jour du césium au strontium. Ces dernières, parce qu'elles battent plus vite, pourraient ne se décaler d'une seconde qu'au bout de 10 milliards d'années. 

 

  DOCUMENT   sciences et avenir.fr    LIEN

 
 
 
 

circuit électrique

 


 

 

 

 

circuit électrique

latin circuitus, de circuire, entourer

Consulter aussi dans le dictionnaire : circuit
Cet article fait partie du dossier consacré à l'électricité.

LES CARACTÉRISTIQUES DES CIRCUITS ÉLECTRIQUES
Un circuit électrique (ou réseau) comporte des éléments actifs, ou sources d'énergie (générateurs et récepteurs), et des éléments passifs pouvant être représentés par un certain nombre, soit fini (circuit à constantes localisées), soit infini (circuit à constantes réparties) d'éléments idéaux caractérisés par l'une des 4 grandeurs : résistance R, capacité C, inductance propre (ou self-inductance) L, inductance mutuelle M. La loi d'Ohm permet d'exprimer la tension v(t), différence de potentiel aux bornes de l'élément, en fonction du courant i(t) qui le parcourt.

Dans un circuit maillé, on appelle :
branche, une suite d'éléments connectés en série et traversés par le même courant ;
nœud, le point de concours de plusieurs branches ;
boucle, tout ensemble de branches formant un parcours fermé ;
arbre, tout ensemble connexe de branches joignant tous les nœuds sans former de boucles ;
liaison d'un arbre, toute branche du réseau n'appartenant pas à cet arbre ;
coarbre, l'ensemble des liaisons d'un arbre ;
maille, la boucle formée par l'adjonction d'une liaison à un arbre.

LES PRINCIPALES LOIS DES COURANTS
Les courants sont reliés par les deux lois de Kirchhoff : selon la loi des nœuds, la somme algébrique des courants aboutissant à un nœud est nulle et, selon la loi des boucles, la somme algébrique des tensions aux bornes des branches constituant une boucle est nulle.
En régime continu, une branche quelconque bb′ est caractérisée par sa force électromotrice (f.é.m.) équivalente E et sa résistance équivalente R ; en désignant par V la tension entre b et b′ et par I le courant passant de b à b′, la loi d'Ohm s'écrit V = + E + RI, les signes + et − dépendant du signe de la f.é.m.
En régime harmonique, les tensions et les courants sont des fonctions sinusoïdales du temps de pulsation ω = 2πf.
Les relations entre les valeurs complexes de la tension et du courant s'écrivent, en posant j2 = −1 :
pour une résistance R,

L'équation fondamentale du circuit magnétique, déduite du théorème d'Ampère, est la relation d'Hopkinson NI = ℛΦ, expression où NI est la force magnétomotrice du circuit (mesurée en A), Φ le flux d'induction (en Wb), et ℛ la réluctance (en H−1). La formule d'Hopkinson peut se généraliser à tous les circuits magnétiques, quelle que soit leur complexité.

 

 DOCUMENT   larousse.fr    LIEN

 
 
 
 

QU'EST-CE QUE LA RÉALITÉ VIRTUELLE ?

 



 

 

 

 

 

La réalité virtuelle  Publié le 12 décembre 2017

Nouveaux smartphones, casques de réalité virtuelle… aujourd’hui, tout le monde connaît de près ou de loin la réalité virtuelle. Elle permet de s’immerger, grâce à un ensemble de technologies, dans une reproduction numérique du monde réel ou dans un monde imaginaire. La réalité virtuelle est présente dans des domaines très variés allant du cinéma à la recherche, en passant par les jeux vidéo et l’industrie. Quelles sont les technologies associées à la réalité virtuelle ? Quels sont ses enjeux dans l’industrie et la recherche ? L’essentiel sur… la réalité virtuelle.

QU'EST-CE QUE LA RÉALITÉ VIRTUELLE ?
La réalité virtuelle s’appuie sur un ensemble de technologies qui immergent une personne dans une reproduction numérique du monde réel ou dans un monde imaginaire. Plus le nombre de sens mobilisés est important – la vue, l’ouïe et le toucher – et plus l’immersion est efficace.

Grâce à différents outils comme des lunettes stéréoscopiques (le même type de lunettes que pour regarder des films en 3D) ou un casque immersif, l’utilisateur peut se déplacer dans un environnement plus ou moins sophistiqué, en 3D. Il peut vivre également une expérience interactive en manipulant virtuellement des objets, jusqu’à en ressentir le poids et la texture. L’expérience peut être enrichie par des manettes, gants, volants ou autres interfaces haptiques, pour des interactions plus complexes. Toutes ces interactions avec l’environnement virtuel ont lieu en temps réel.

Au-delà des scènes visibles en images de synthèse, l’immersion peut intégrer un avatar, qui évolue dans la scène au gré des intentions de son utilisateur. Toutes ces performances sont rendues possibles grâce à d’importants développements logiciels et algorithmiques qui permettent de restituer fidèlement l’environnement et de simuler finement les interactions entre les différents objets de la scène virtuelle au millimètre et à quelques millisecondes près.

RÉALITÉ VIRTUELLE, 
AUGMENTÉE ET MIXTE, KÉSAKO ?

La réalité virtuelle est l’ensemble des technologies qui permettent une immersion dans une reproduction numérique du monde réel ou dans un monde imaginaire.
La réalité augmentée permet d’incruster, superposer à la scène réelle d’un flux vidéo capté par une caméra, des images virtuelles fixes ou animées en temps réel. Il existe déjà de telles applications dans le tourisme : monuments et restaurants sont ainsi montrés sous leur apparence d’il y a 500 ans ou décrits sur l’écran des smartphones en temps réel.
Un cran supplémentaire sera franchi avec la réalité mixte : il sera possible d’interagir avec un objet virtuel (personnages, objets, machines…) incrusté dans la captation vidéo de la scène réelle. Par exemple, on pourra étudier et valider l’utilisation d’un robot grâce à son avatar virtuel au stade de la conception, tout en le pilotant dans un environnement industriel réel.
 
L'HISTOIRE DE LA RÉALITÉ VIRTUELLE EN QUELQUES DATES CLÉS
La réalité virtuelle apparaît dans les années 50, d’abord dans le domaine du cinéma. Depuis, les progrès dans le domaine du numérique – logiciel, graphisme, algorithme, optimisation des capacités de calcul - ont permis de développer les technologies de réalité virtuelle dans de nombreux secteurs de l’économie. Aujourd’hui, la mise sur le marché de casques de réalité virtuelle (ou casques VR) permet aux industriels et au grand public des expériences immersives beaucoup plus accessibles.


Années 50-60

L’ancêtre de la réalité virtuelle est le Sensorama. Cette machine, imaginée en 1956, puis créée en 1962 par Morton Leonard Heilig, cinéaste, philosophe et documentariste permettait à son utilisateur de regarder un film en s’immergeant dans un univers 3D, comme s’il y était. La particularité de cette machine était qu’elle pouvait stimuler différents sens comme la vue, le toucher, l’ouïe et l’odorat. Cette machine est restée au stade de prototype car sa production aurait coûté trop cher.


En 1963, Ivan Sutherland, ingénieur en informatique, écrit un programme informatique nommé Sketchpad. Ce logiciel est considéré comme l’ancêtre des logiciels de conception assistée par ordinateur (CAO), aujourd’hui utilisés par tous ceux qui font de la 3D. Pour cette invention, Ivan Sutherland reçoit en 1988 le prix Turing, qui récompense une personne ayant contribué à la communauté informatique avec une importance technique majeure et durable.

De 1965 à 1968, Ivan Sutherland, et son étudiant Bob Sproull, développent un nouveau moyen de visualiser des images de synthèse : l’Ultimate Display, ou Épée de Damoclès. L’Épée de Damoclès était un casque avec détecteur de mouvement intégré. Il porte ce nom en raison du bras mécanique nécessaire pour traquer les mouvements de la tête.


Années 80-90
En 1984, le CEA et l’IRISA créent le premier système de réalité virtuelle à retour d’efforts dans le cadre du grand programme national de recherche en automatique, ARA. Il s’agissait d’utiliser en temps réel des modèles 3D de l’environnement d’un robot téléopéré. Une première dans le domaine de la recherche.

Parallèlement, Jaron Lanier, chercheur en informatique, et Thomas Zimmerman, l’inventeur du gant sensitif, fondent VPL Research en 1985, une société pionnière dans le domaine de réalité virtuelle. Ensemble, ils inventent plusieurs moyens d’explorer la réalité virtuelle dont le « Dataglove » en 1987, ou « gant de données ». Ce gant comporte des capteurs et permet à un utilisateur de saisir un objet virtuel et de le manipuler, en numérisant en temps réel les mouvements de la main. La société va également développer les premiers casques de réalité virtuelle de la NASA, le casque VIEW. Ce dernier permettait d’immerger les astronautes dans diverses situations spatiales et de les entraîner. Ce casque était accompagné d'une combinaison qui permettait un suivi complet des mouvements du corps.

L’expression « réalité virtuelle » fut proposée et utilisée pour la première fois en 1989, par Jaron Lanier, fondateur de la société VPL Research.


En 1995, le CEA propose au monde industriel le premier système de simulation de poste de travail robotisé à retour d’efforts en bénéficiant des avancées dans le domaine des calculateurs qui ont permis de représenter des environnements complexes en 3D et surtout en temps réel.

Ces avancées majeures ont permis de donner naissance à une véritable école française de réalité virtuelle industrielle qui, à partir du début des années 2000, a commencé à pénétrer les bureaux d’étude de tous les grands groupes industriels dans les secteurs de l’aéronautique et de l’automobile.

Aujourd'hui
Les progrès réalisés dans le domaine informatique améliorent toujours plus le réalisme et les interactions en temps réel de la réalité virtuelle. Parmi les innovations de rupture, la démocratisation des casques VR permet de réaliser des expériences immersives à moindre coût. En effet, il y a encore quelques années, le cave ou la salle immersive était l’unique moyen de réaliser de telles expériences. Mais ce moyen reste onéreux et lourd à mettre en œuvre. La réalité virtuelle est dans une phase de « révolution » et nombre de promesses sont encore à explorer.

LES OBJECTIFS DE LA RÉALITÉ VIRTUELLE
Pour répondre aux besoins et aux envies des industriels et du grand public, les moyens se déploient sans cesse pour rendre la réalité virtuelle encore plus performante et permettre davantage d’interactions.
En améliorant les technologies de réalité virtuelle, les chercheurs poursuivent plusieurs objectifs :



*         Voir et manipuler des objets imaginaires : les chercheurs et les utilisateurs peuvent laisser libre cours à leur créativité, et ainsi trouver des réponses à des questionnements qui étaient impossibles à résoudre sans réalité virtuelle.



*         Vérifier et valider les concepts, les process, les produits avant la réalisation d’un prototype. Tester une maquette numérique avant de passer à une maquette réelle permet d’économiser du temps et de l’argent.



*         Former à de nombreux métiers nécessite d’acquérir le « geste parfait » et les interfaces haptiques (bras articulés, manettes, gants, certains casques VR) participent à cet entraînement, par exemple pour des opérations de peinture, de pilotage d’avion, de chirurgie… voire d’apprentissage en auto-école.  La réalité virtuelle peut également aider à soigner les phobies : l’immersion à l’aide des casques de réalité virtuelle permet à des personnes atteintes de phobies, comme la peur de l’avion ou la peur des araignées, de dépasser leur peur. Ils sont aussi de précieux outils pour apprendre à réagir aux situations de crise et à divers aléas.



*         Étudier et diagnostiquer les postes de travail, établir leur cotation ergonomique, c’est-à-dire évaluer les postures des membres, du cou, et du tronc selon une grille d’observation. Les chercheurs peuvent, grâce à la réalité virtuelle, évaluer la pénibilité des tâches, repérer les postures pouvant entraîner des troubles musculo-squelettiques, et ainsi les prévenir. La réalité virtuelle permet aussi de déterminer si un geste humain est possible, compte tenu des contraintes de l’environnement où il sera réalisé et de mettre en place une éventuelle assistance cobotique.

*         Simuler le réel pour assurer la sécurité d’une activité.

LES DOMAINES D'APPLICATION DE LA RÉALITÉ VIRTUELLE

L'usine du futur
Le recours croissant au numérique est devenu incontournable pour optimiser l’outil de production, dès sa conception, mais aussi simuler la réalisation de tâches ou superviser le fonctionnement des robots. La réalité virtuelle et la réalité augmentée contribuent ainsi de façon croissante à la formation industrielle et à l’apprentissage de certaines techniques de maintenance.

Parmi les industries intéressées par les technologies de réalité virtuelle, de grands constructeurs automobiles et, pour la partie grand public, des concepteurs de salles d'arcade et de jeux vidéo avec lesquels sont menés des projets collaboratifs de serious game. Certaines sociétés spécialisées dans les outils d'évaluation HSE (Hygiène – Sécurité - Environnement) ont montré comment la cotation ergonomique pouvait contribuer à modifier le design d'un poste de travail.

Démantèlement nucléaire
La réalité virtuelle est utilisée par les acteurs de la filière nucléaire pour notamment intervenir en milieu « hostile ». Dans le cadre de projets de démantèlement nucléaire, les équipes peuvent utiliser des solutions logicielles (salle de réalité virtuelle 3D immersive) et technologiques (équipements téléopérés sur une maquette réelle à l’échelle 1) pour les aider à concevoir, tester et optimiser les scénarios de démantèlement. Concrètement, la salle immersive reconstitue en trois dimensions les chantiers de démantèlement à réaliser grâce à un robot, ainsi qu’une reproduction « image » du robot lui-même.
Un poste complet de téléopération (bras haptique à retour d’effort, baies de contrôle-commande...) similaire à ceux utilisés sur le terrain, permet aux téléopérateurs de se former ainsi que de tester les capacités du robot. Au-delà de la formation des opérateurs, la simulation et la modélisation sont très utiles pour préparer les interventions et définir les dispositifs de radioprotection nécessaires.

Recherche fondamentale
La réalité virtuelle intéresse aussi la recherche fondamentale. Par exemple, dans le domaine de la santé ou de l'archéologie, l'utilisation de la réalité virtuelle procure de nouvelles capacités de visualisation et d'interaction pour modéliser de nouvelles molécules ou se mettre 'à hauteur' de nos ancêtres dans leur environnement reconstitué.

 

 DOCUMENT     cea         LIEN

 
 
 
 

Les séismes

 


 

 

 

 

 

Les séismes
Publié le 26 avril 2017

La Terre est en perpétuel mouvement : elle bouge, parfois de manière brève et violente. Les séismes constituent des événements imprévisibles dont la prédiction reste inaccessible, y compris pour les plus grands experts. En France, comme dans la majorité des pays où le risque sismique existe, plusieurs organismes surveillent les mouvements de la Terre pour garantir au mieux la sécurité des populations en cas d’événements sismiques importants.
QU’EST-CE QU’UN SÉISME ?

L'écorce terrestre n'est pas homogène. Elle est constituée d’une douzaine de plaques épaisses de 10 à 80 kilomètres. Ces plaques se déplacent de quelques centimètres en moyenne par an en se frottant les unes contre les autres sous l’effet du mouvement de convection. Le mouvement de convection dans le manteau peut être comparé à un tapis roulant géant fait de roches plus ou moins visqueuses, qui peuvent entraîner les plaques en surface.


C'est ce mouvement qui entraîne le phénomène appelé « tectonique des plaques », qui fait dériver les continents. Ces déplacements provoquent la déformation de la croûte terrestre et l’accumulation de tensions dans la roche. Le séisme correspond à la libération brutale de ces tensions en un déplacement brusque du terrain le long d’une faille.

Lorsqu’il a lieu, un séisme libère de l’énergie en profondeur depuis son hypocentre qui correspond au centre de rupture le long de la faille. Il ne faut pas le confondre avec l’épicentre qui est l’endroit à la surface qui se trouve juste au-dessus de l’hypocentre.

Lors d'un tremblement de terre, une partie de l'énergie est libérée depuis l'hypocentre sous forme d'ondes sismiques. Il en existe plusieurs types: les ondes de compression (les plus rapides, qui font bouger le sol de haut en bas quand elles viennent des profondeurs de la Terre), les ondes de cisaillement (qui le font bouger latéralement) et les ondes de surface qui se propagent à la surface de la Terre et sont les plus destructrices. Suivant le type de sol rencontré, la vitesse et la direction des ondes peuvent varier.

COMMENT MESURE-T-ON UN SÉISME ?
Pour mesurer un tremblement de terre, les sismologues utilisent des sismomètres. Ces outils vont servir à enregistrer la durée et l’amplitude des ondes. Lorsque les données de plusieurs sismomètres sont croisées, il est possible de connaître la position et la puissance exacte du séisme.


Pour caractériser un séisme, deux échelles existent : la magnitude et l’intensité. La magnitude caractérise l’énergie libérée par le séisme, sur une échelle ouverte s’étendant jusqu’à 9 (et plus) pour les plus grands séismes. Plus la magnitude est élevée, plus l’énergie libérée par le séisme est importante. Dans le monde, la plus forte magnitude observée, à ce jour, est de 9,5 pour le séisme du Chili en 1960.

L’intensité va, quant-à-elle, mesurer, sur une échelle fermée allant de 0 à 12, l’importance des effets ressentis et des dommages provoqués par un séisme.

Historique

A ce jour, les cinq séismes les plus puissants de l’histoire contemporaine sont :
*         Le séisme de Valvidia, au Chili, le 22 mai 1960, de magnitude 9,5 ;
*         Le séisme de Sumatra, en Indonésie, le 26 décembre 2004, de magnitude 9,2 ;
*         Le séisme d’Anchorage, en Alaska, le 27 mars 1964, de magnitude 9,2 ;
*         Le séisme de la côte Pacifique de Tohoku, au Japon, le 11 mars 2011, de magnitude 9,0 ;
*         Le séisme de Kamtchatka, en Russie, le 4 novembre 1952, de magnitude 9,0.

    

Et les tsunamis ?
Un tsunami est généré par un séisme sous-marin ou côtier de faible profondeur (moins de 50 km de profondeur) et d’une magnitude d’au moins 6 sur l’échelle de Richter. L’amplitude du tsunami dépend de la magnitude du séisme. On considère alors qu’à partir d’une magnitude 8, un séisme peut générer un tsunami potentiellement dévastateur au niveau d’un océan.


DÉTECTER LES SÉISMES
DANS LE MONDE

Il n’est pas possible de prédire les séismes, pas plus que de les empêcher de se produire ni de contrôler leur puissance. La seule façon de diminuer le risque est de réduire la vulnérabilité des infrastructures humaines susceptibles d’être soumises à des séismes.

De très nombreuses stations sismiques couvrent par ailleurs le globe. Elles font partie de réseaux de dimension planétaire  (Iris, Geoscope…) ou de dimension régionale (tels que le réseau RESIF pour la France). Leurs données sont, en temps réel et de façon sécurisée (Internet, satellite, téléphone), mises à la disposition des organismes en charge d’émettre rapidement des alertes en cas de séisme (NEIC aux Etats-Unis, CSEM  en Europe…). Ce partage des données sismiques permet aussi à ces derniers de publier des catalogues de sismicité,  grâce auxquels on peut quantifier l’aléa sismique.

En France c’est le Département Analyse, Surveillance, Environnement (DASE) du CEA qui assure une mission de surveillance des séismes pour la France métropolitaine et qui alerte les autorités en cas de séisme susceptible d’être ressenti et en cas de tsunami consécutif à un fort séisme en mer, en Méditerranée, en Atlantique Nord-Est et dans le Pacifique.

Cette mission d’alerte aux tsunamis (24h/24) s’appuie sur des réseaux géophysiques robustes, garantissant un accès temps-réel et continu aux mesures, des capacités informatiques de traitement automatique des enregistrements et une expertise pour l’alerte. Elle met en œuvre du personnel dédié, travaillant 24h/24 et 7 jours sur 7.


PEUT-IL Y AVOIR DES SÉISMES EN FRANCE ?
En France, les forts séismes sont peu nombreux et ne se reproduisent que rarement au même endroit à l'échelle de la mémoire humaine. On ne peut donc avoir une image exhaustive de la sismicité potentielle d'une région à l'aide des seules données de sismicité instrumentale et historique. La France est un pays où l'aléa sismique est globalement plus faible que dans des pays comme le Japon ou, en Europe, la Grèce. Cependant, certaines régions sont plus sensibles que d'autres en métropole (Alpes, Provence, Pyrénées, Alsace). Outre-mer, les Antilles ont déjà connu et connaîtront encore des tremblements de terre dévastateurs.
 

COMMENT PEUT-ON SE PROTÉGER DES SÉISMES ?
En 2005, le gouvernement a lancé, sur la période 2005-2010, un programme national de prévention du risque sismique (PNPRS), dit « Plan Séisme ». Objectif : réduire la vulnérabilité de la France face au risque sismique, en favorisant une prise de conscience des citoyens, des constructeurs et des pouvoirs publics, mais aussi en mettant en place des dispositifs efficaces et en améliorant les savoir-faire et compétences existants.

La construction parasismique
Des règles existent depuis le début des années 1980 et ont été renforcées à la fin des années 1990. La signature, le 22 octobre 2010, des décrets relatifs à la prévention du risque sismique et à la définition du nouveau zonage sismique de la France marque une nouvelle étape avec un zonage plus précis et plus étendu et des règles renforcées.

Ainsi, depuis le 1er mai 2011, toutes les communes françaises relèvent d'une zone de sismicité (cinq zones en tout, de « très faible » à « forte »). Les normes s'appliquant aux maisons individuelles dépendent ainsi de l'appartenance à telle ou telle zone de sismicité. En revanche, les installations dites « sensibles » font l'objet de normes unifiées sur tout le territoire français, indépendamment de la zone de sismicité dans laquelle se situent ces installations.

 
QUELS SONT LES PROCHAINS DÉFIS DE LA SISMOLOGIE ?
En croisant les données du réseau mondial de détecteurs sismiques les chercheurs en sismologie cherchent à automatiser et extraire plus facilement des données d'analyse pertinentes à l'aide de supercalculateurs. En plus de ce travail, ils cherchent également à mieux comprendre le bruit environnant du manteau terrestre pour mieux connaître la structure interne de la Terre.

Des recherches sont également menées sur les séismes dits « lents » qui sont des frottements des plaques tectoniques (dans les zones de subduction) qui se traduisent par des séismes légers et progressifs sur plusieurs semaines. La compréhension de ce phénomène pourrait expliquer l'apparition de séismes plus violents voire même les prédire.

 

  DOCUMENT     cea         LIEN

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon