ecole de musique piano
     
menu
 
 
 
 
 
 

A D N - L'émergence d'outils et de disciplines

 

 

 

 

 

 

 

A D N


L'émergence d'outils et de disciplines


La connaissance de l'ADN et de son fonctionnement a fortement progressé ces dernières années grâce aux progrès technologiques.

Publié le 25 janvier 2018
       
L'évolution des technologies a été fulgurante. Dans les années 1990, il a fallu 13 ans pour séquencer les 3,3 milliards de bases du génome humain alors qu'aujourd'hui, une vingtaine de séquenceurs utilisés en simultané permettent de le faire en 15 minutes. Rapidité, faible coût et surtout faible quantité d'ADN requise ouvrent le champ à de nouvelles applications, notamment dans l'épigénétique et le diagnostic médical.

LE SÉQUENÇAGE
Des révolutions technologiques

En 40 ans, le séquençage a connu de vraies révolutions technologiques grâce aux avancées en physique, chimie et aux nanotechnologies. L'activité, coûteuse à ses débuts, a développé une organisation de type industriel et optimise les rendements grâce à des séquenceurs automatiques. Les dépôts d'échantillons se faisaient à la main sur les premiers séquenceurs à gel. Aujourd'hui, un séquenceur (destiné à analyser des génomes autres qu'humains) est intégré dans une clef USB et s'acquiert pour moins de 1 000 euros. La première technique largement utilisée dès 1977 a été la méthode Sanger, du nom du double prix Nobel de chimie qui l'a mise au point. À partir de 2005, apparaissent de nouvelles technologies de séquençage dites de 2e génération, tel que le pyroséquençage. Des millions de molécules, toutes issues du même échantillon, sont traitées en même temps ; c'est l'heure du séquençage haut débit ! Bien qu'elles aient toutes des spécificités très différentes, trois phases les caractérisent. La première, la préparation d'une collection d'ADN d'intérêt. La deuxième : l'amplification de l'ensemble des fragments afin de générer un signal suffisant pour que le séquenceur le détecte. Et enfin la phase de séquençage elle-même : pendant la synthèse du brin complémentaire, un signal est généré à chaque fois qu'un nouveau nucléotide est incorporé. Inconvénient : les séquences sont plus courtes et le taux d'erreur plus élevé que précédemment ; ce problème est aujourd'hui résolu sur les séquenceurs de dernière génération.
Les années 2010 voient se développer de nouvelles plateformes, dites de 3e  génération. Ces appareils sont si sensibles qu’ils sont capables de séquencer une seule molécule d’ADN en quelques dizaines de minutes ! La dernière innovation présente un avantage majeur : pas besoin de répliquer l'ADN ni d'utiliser de fluorochromes, substance chimique capable d'émettre de la lumière par fluorescence. Sous la forme d’une puce dotée de nanopores (des canaux qui traversent une membrane), la machine capte directement les signaux électriques de chaque base d'ADN qui traverse le canal et permet de séquencer en un temps record. Cette méthode est pour l’instant réservée à de petits génomes, pas au génome humain.

La course aux génomes

La quête des gènes débute dans les années 1970. Lire la séquence de l’ADN devient indispensable pour les étudier, comprendre leur fonction et déceler les mutations responsables de maladies. Objectif ultime : déchiffrer les quelques 3,3 milliards de bases (3 300 Mb) du génome humain. Le projet est aussi ambitieux et presque aussi fou que celui d’envoyer un homme sur la Lune ! Les chercheurs commencent par de petits génomes. En 1995, le premier séquencé et publié est celui d’Haemophilus influenzae (1,8 Mb), une bactérie responsable de la méningite chez l’enfant. Suivra en 1996 celui d’un génome eucaryote unicellulaire, la levure Saccharomyces cerevisiae (12,5 Mb). Puis ce sera le tour du ver Caenorhabditis elegans (97 Mb) en 1998.

En 30 ans, les séquenceurs ont vu leur capacité augmenter d'un facteur 100 millions !


Quant au projet "Human genome", il démarre officiellement en 1989, pour une durée prévue de 15 ans et un budget global estimé à 3 milliards de dollars. Plus de 20 laboratoires de 7 pays différents sont impliqués. Les deux plus importants sont le Sanger Center (Grande-Bretagne) et le Whitehead Institute (États-Unis). En 1997, la France s'équipe d'une plateforme nationale, le Genoscope, et prend en charge le chromosome 14. La version complète de la séquence du génome humain sera publiée en avril 2003, avec plusieurs années d'avance (les chercheurs la complètent encore aujourd'hui). La course aux génomes continue : en août 2016, la base de données génomique internationale, en libre accès sur le site Gold (Genome On Line Database), faisait état de 13 647 organismes séquencés et publiés.

LA GÉNOMIQUE FONCTIONNELLE
La quête des gènes ressemble souvent à une pêche miraculeuse ! Une fois détectés et annotés, leur fonction reste à vérifier et les conditions de leur expression à découvrir. C'est là que la génomique structurelle atteint ses limites et que la génomique fonctionnelle prend le relais.
Cette dernière dresse un inventaire qualitatif et quantitatif sur deux niveaux : le transcriptome et le protéome. Le premier désigne l’ensemble des transcrits (ARNm) et le deuxième l’ensemble des protéines fabriquées. Alors que le génome est unique pour un organisme donné, il existe autant de transcriptomes et de protéomes que de stades de développement cellulaire ! Grâce aux nouvelles technologies de séquençage, l’étude de l’ensemble des transcrits permet non seulement de réaliser un catalogue des gènes exprimés mais aussi de quantifier l’expression des gènes et de déterminer la structure de chaque transcrit à un moment donné. Une deuxième technologie, les puces à ADN, permet aussi d’étudier le transcriptome par l’observation simultanée de l’expression de plusieurs milliers de gènes dans une cellule ou un tissu donné. L’analyse d’un transcriptome peut, par exemple, indiquer le stade de développement d’un cancer et permettre ainsi d’adapter au mieux le traitement du patient.
LE GÉNOTYPAGE : Le génotypage cherche les différences dans la séquence des génomes d'individus d'une même espèce. Ces différences constituent des " marqueurs génétiques ". Pour les trouver, le génotypage fait appel à trois technologies différentes ; le séquençage, les puces à ADN et la spectrométrie de masse. Les marqueurs potentiellement intéressants sont ceux qui se transmettent au sein d'une famille de la même manière et en même temps que le gène impliqué dans une maladie. Les études génétiques à haut débit consistent à analyser des centaines de milliers de ces marqueurs sur des milliers d'individus afin d'identifier et localiser les gènes prédisposant à des pathologies


LA MÉTAGÉNOMIQUE
Les technologies de séquençage permettent aujourd’hui d’appréhender le génome de tous les organismes d’un même écosystème en même temps ; la génomique fait place à la métagénomique.

Le projet international  "MetaHIT ”, auquel participe le CEA, a pour objectif d’étudier le génome de l'ensemble des bactéries constituant la flore intestinale humaine. Lourde tâche : le métagénome contient 100 fois plus de gènes que le génome humain et 85 % des bactéries sont encore inconnues. Premier résultat obtenu en mars 2010 : le séquençage de l’ensemble des gènes révèle que chaque individu abrite au moins 170 espèces différentes de bactéries intestinales.
En avril 2011, les chercheurs font une découverte assez inattendue. Ce ne sont pas les 3 signatures bactériennes intestinales identifiées qui sont corrélées à l'origine géographique, à l’âge ou à la masse corporelle des individus mais bien quelques poignées… de gènes bactériens ! La preuve de concept est faite : ces derniers pourront être utilisés comme biomarqueurs pour aider au diagnostic des patients touchés par des maladies comme l’obésité ou la maladie de Crohn. En 2014, une nouvelle approche permet de reconstituer le génome de 238 espèces complètement inconnues. Les chercheurs ont également trouvé plus de 800 relations de dépendance qui permettent de mieux comprendre le fonctionnement global de cet écosystème intestinal.

L'ÉPIGÉNÉTIQUE
Peut-on tout expliquer par la génétique ? Dès 1942, Conrad Waddington souligne l'incapacité de cette discipline à expliquer le développement embryonnaire. Comment, en effet, expliquer la différence entre une cellule du foie et un neurone alors que toutes renferment le même programme ? Ce généticien désigne l'épigénétique comme le lien entre les caractères observables (phénotypes) et l'ensemble des gènes (génotypes).
Comparons l'organisme à une voiture ; la génétique serait l'établi sur lequel sont exposées toutes les pièces mécaniques et l'épigénétique la chaîne d'assemblage des différents éléments. Ainsi, l'épigénétique jouerait les chefs d'orchestre en indiquant pour chaque gène à quel moment et dans quel tissu il doit s'exprimer. Suite à la découverte des premiers mécanismes épigénétiques qui régulent l'expression des gènes, les chercheurs ont appris à « museler » un gène à des fins thérapeutiques.
Première méthode : par modification des protéines sur lesquelles s'enroule l'ADN. Le gène se compacte et devient alors inaccessible à la transcription ; il ne s'exprime plus. Seconde méthode : inactiver directement son ARNm avec des ARN interférence qui bloquent sa traduction. Depuis les années 1990, de nouvelles molécules associées à la régulation épigénétique sont découvertes. L'ensemble de ces molécules, le plus souvent trouvées dans l'ADN non-codant, forme l'épigénome. Complémentaire de la génétique, l'épigénétique donne une vue plus complète de la machinerie cellulaire et révèle une surprenante complexité dans les régulations de l'expression génique. Elle ouvre des perspectives dans la compréhension et le traitement de nombreuses maladies.

CNRGH et GENOSCOPE - Au sein de l'Institut de biologie François Jacob, ces deux services développent des stratégies et thématiques scientifiques distinctes, sur un socle de ressources technologiques communes. Le Centre national de recherche en génomique humaine (CNRGH) est axé sur la génomique humaine et la recherche translationnelle. Les recherches du Genoscope (aussi appelé Centre national de séquençage) portent sur l'exploration et l'exploitation de la biodiversité génomique et biochimique.

LE PROJET TARA
L'expédition « Tara Oceans » a débuté en septembre 2009. Pour explorer la diversité et évaluer la concentration du plancton, 40 000 prélèvements ont été réalisés. Leur analyse permet d'étudier l'effet du réchauffement climatique sur les systèmes planctoniques et coralliens, ses conséquences sur la vie marine et donc la chaîne alimentaire. Elle aidera à mieux comprendre l'origine de la vie sur Terre. Enfin, le plancton représente une ressource de biomolécules potentiellement intéressante pour la chimie verte, l'énergie ou encore la pharmacie. Le Genoscope est chargé de l'analyse génétique des 2 000 échantillons « protistes » et « virus » ! En mai 2016, la goélette est repartie pour l'expédition « Tara Pacific ».
Objectif : Mieux comprendre la biodiversité des récifs coralliens, leur capacité de résistance, d'adaptation et de résilience face aux changements climatiques et à la pollution et dégradations dues à l'Homme. À bord et à terre, les chercheurs continuent leur travail de séquençage pour établir une base de données de tous les échantillons prélevés.

 

    DOCUMENT     cea         LIEN
 

 
 
 
 

Les effets biologiques des rayonnements

 

 

 

 

 

 

 

L'HOMME ET LES RAYONNEMENTS
Les effets biologiques des rayonnements



A forte dose, les rayonnements ionisants sont dangereux pour la santé. Les effets sont variables selon les individus, les doses et les sources d’exposition.

Publié le 1 juillet 2014

L'ÉTUDE DES EFFETS DES RAYONNEMENTS
Les effets des rayonnements ultraviolets du Soleil sont bien connus du grand public. Si, à faibles doses, ils paraissent assez inoffensifs, à forte dose, certains peuvent présenter des dangers. Par exemple, des expositions prolongées au Soleil provoquent des coups de soleil, des brûlures dues à la présence des rayonnements ultraviolets.
À long terme, elles peuvent même être la cause de cancers. Les rayonnements ionisants contribuent à une ionisation des molécules présentes dans les organismes vivants. Selon la dose reçue et le type de rayonnements, leurs effets peuvent être plus ou moins néfastes pour la santé. Deux approches sont utilisées pour étudier leurs différents effets biologiques : l’épidémiologie et l’expérimentation sur des molécules ou cellules d’organismes vivants. L’épidémiologie consiste à observer les effets sur des populations qui ont subi des irradiations d’origine naturelle ou artificielle (populations d’Hiroshima et Nagasaki, premiers radiologues et travailleurs dans les mines d’uranium…).


Les effets sont variables selon les individus, les doses et les sources d’exposition (interne ou externe).
MESURES DE LA RADIOACTIVITÉ
Vidéo
 
Le becquerel
Un échantillon radioactif se caractérise par son activité qui est le nombre de désintégrations de noyaux radioactifs par seconde se produisant en son sein. L’unité d’activité est le becquerel, de symbole Bq.
1 Bq = 1 désintégration par seconde.

Le Becquerel

Le gray
L’unité qui permet de mesurer la quantité de rayonnements absorbés – ou dose absorbée – par un organisme ou un objet exposé aux rayonnements est le gray (Gy).
1 gray = 1 joule par kilo de matière irradiée.

Le sievert
Unité de la dose équivalente et de la dose efficace, le symbole est Sv. Le sievert permet d’évaluer le risque d’effets biologiques au niveau d’un organe (dose équivalente) ou de l’organisme entier en fonction de la radiosensibilité de chaque tissu (dose efficace).
L’unité la plus couramment usitée est le millisievert, ou millième de sievert (voir le dossier pédagogique sur la radioactivité).


Par ailleurs, grâce à l’expérimentation, les chercheurs observent les dégâts et les perturbations engendrés par les rayonnements ionisants sur l’ADN (très longue molécule présente dans les cellules vivantes, support de l’information génétique). Ils analysent aussi les mécanismes de réparation qu’une cellule est capable de mettre en jeu lorsque son ADN a été détérioré. L’épidémiologie et l’expérimentation permettent de mieux connaître les effets des rayonnements ionisants afin de définir des règles et des normes de radioprotection et de soigner les personnes ayant subi des irradiations accidentelles.

LES EFFETS IMMÉDIATS
Une forte irradiation par des rayonnements ionisants provoque des effets immédiats sur les organismes vivants comme, par exemple, des brûlures plus ou moins importantes. La dose absorbée (en grays) est utilisée pour caractériser ces effets immédiats, consécutifs à de fortes irradiations (accidentelles ou thérapeutiques pour soigner un cancer). Par exemple, les radiothérapeutes utilisent la dose absorbée pour quantifier l’énergie délivrée dans les tumeurs qu’ils traitent par irradiation
(cf. le tableau des effets liés à une irradiation homogène). Pourtant lors d’une radiothérapie, les médecins peuvent délivrer localement des doses allant jusqu’à 40 grays sur la tumeur à traiter.

LES EFFETS À LONG TERME
Les expositions à des doses plus ou moins élevées de rayonnements ionisants peuvent avoir des effets à long terme sous la forme de cancers et de leucémies. Ces effets se manifestent de façon aléatoire (que l’on ne peut pas prédire pour une personne donnée). Les rayonnements alpha, qui sont de grosses particules (noyaux d’hélium), sont rapidement freinés lorsqu’ils pénètrent à l’intérieur d’un matériau ou d’un tissu vivant et déposent leur énergie localement. Ils sont donc, à dose absorbée égale, plus perturbateurs que des rayonnements gamma ou X, lesquels pénètrent plus profondément la matière et étalent ainsi leur dépôt d’énergie.
Pour rendre compte de la nocivité plus ou moins grande des rayonnements à dose absorbée égale, il a fallu introduire pour chacun d’eux un “facteur de qualité”. En multipliant la dose absorbée (en grays) par ce facteur, on obtient une mesure de l’effet biologique d’un rayonnement reçu que l’on appelle la dose équivalente.
L’unité de dose équivalente, utilisée pour mesurer l’effet des rayonnements sur les tissus vivants, est le sievert (Sv).
Cependant, le risque biologique n’est pas uniforme pour l’ensemble de l’organisme. Il dépend de la radiosensibilité de l’organe irradié et les spécialistes définissent une nouvelle dose, la dose efficace (aussi exprimée en sieverts) qui tient compte de ces différences de sensibilité des organes et définit le risque d’apparition à long terme d’un cancer dans l’organisme entier.

LES MODES D'EXPOSITION AUX RAYONNEMENTS
Selon la manière dont les rayonnements atteignent l’organisme, on distingue deux modes d’exposition : externe ou interne.
*         L’exposition externe de l’homme aux rayonnements provoque une irradiation externe. Elle a lieu lorsque celui-ci se trouve exposé à des sources de rayonnements qui lui sont extérieures (substances radioactives sous forme de nuage ou de dépôt sur le sol, sources à usage industriel ou médical…). L’exposition externe peut concerner tout l’organisme ou une partie seulement de celui-ci. Elle cesse dès que l’on n’est plus sur la trajectoire des rayonnements (cas par exemple d’une radiographie du thorax).
*         L’exposition interne est possible lorsque des substances radioactives ont pu pénétrer à l’intérieur de l’organisme par inhalation, ingestion, blessure de la peau et se distribuent dans l'organisme. Celles-ci provoquent une irradiation interne et on parle alors de contamination interne. Cette dernière ne cesse que lorsque les substances radioactives ont disparu de l’organisme, après un temps plus ou moins long par élimination naturelle et décroissance radioactive (voir le dossier pédagogique sur la radioactivité) ou grâce à un traitement.

Les rayonnements peuvent affecter le corps humain par irradiation externe ou interne. © Yuvanoe/CEA

La décroissance radioactive est la suivante :
*         pour l’iode 131 (131I) : 8 jours ;
*         pour le carbone 14 (14C) : 5 700 ans ;
*         pour le potassium 40 (40K) : 1,3 milliard d’années.

Tous les radioéléments ne sont pas éliminés naturellement (urines…) à la même vitesse. Certains peuvent s’accumuler dans des organes spécifiques (os, foie…) avant d’être évacués du corps. Pour chacun des éléments radioactifs, on définit, en plus de sa période radioactive, une période biologique, temps au bout duquel la moitié de la masse d’une substance a été éliminée de l’organisme par des processus physiologiques.
On définit également une période effective pour un radionucléide donné. Celle-ci est fonction de la période physique et de la période biologique : c’est le temps nécessaire pour que l’activité du radionucléide considéré ait diminué de moitié, dans le corps, après correction de la décroissance radioactive du radionucléide.

L'EXPOSITION DE L'HOMME AUX RAYONNEMENTS
Pour en savoir plus

*         Tableau des sources d'exposition et leur effet

Pour apprécier à leur juste valeur les risques liés aux rayonnements ionisants, il est nécessaire de regarder l’exposition naturelle à laquelle l'Homme a été soumis. Tous les organismes vivants y sont adaptés et semblent capables de corriger, jusqu’à un certain degré, les dégâts dus à l’irradiation.

Qu’ils soient d’origine naturelle ou artificielle, les rayonnements ionisants produisent les mêmes effets sur la matière vivante.
En France, l’exposition annuelle de l’homme aux rayonnements ionisants est d’environ deux millisieverts. En plus de cette radioactivité naturelle, nous sommes exposés à des rayonnements provenant de sources artificielles. Ces rayonnements sont du même type que ceux émis par des sources naturelles et leurs effets sur la matière vivante sont, à dose égale, identiques. Ce sont essentiellement les radiographies médicales ou dentaires. Moins de 1 % provient d’autres sources comme les retombées des essais aériens des armes nucléaires et les retombées de l’accident de Tchernobyl.

L'EXPOSITION NATURELLE

Animation
De l'atome à la radioactivité

De l'atome à la radioactivité

Les rayonnements ionisants émanant de sources naturelles ont des origines diverses et se répartissent en trois principaux types :
*         les rayonnements cosmiques
Ils proviennent de l’espace extra-terrestre et en particulier du Soleil. En Europe, ils se traduisent, pour tous ceux qui vivent à une altitude voisine du niveau de la mer, par une irradiation moyenne d’environ 0,30 millisievert par an. Lorsqu’on s’élève en altitude, l’exposition aux rayonnements augmente ;
*         les éléments radioactifs contenus dans le sol
Il s’agit principalement de l’uranium, du thorium ou du potassium. Pour chacun de nous en France, ces éléments provoquent une irradiation moyenne d’environ 0,35 millisievert par an. Il faut noter que dans certaines régions de France et du monde, dont le sol contient des roches comme le granit, ces irradiations sont plus fortes ;
*         les éléments radioactifs naturels que nous absorbons en respirant ou en nous nourrissant
Des émanations gazeuses de certains produits issus de la désintégration de l’uranium contenu dans le sol tels que le radon, ou le potassium des aliments dont nous fixons une partie dans notre organisme provoquent chez chacun d’entre nous, en moyenne, une irradiation de 1,55 millisievert par an. La principale source d’irradiation naturelle est le radon 222, gaz naturel radioactif. Elle représente environ un tiers de l’irradiation reçue et augmente dans les régions granitiques.


L'EXPOSITION ARTIFICIELLE
Pour chaque habitant, l’exposition annuelle moyenne aux sources artificielles d’irradiation est d’environ 1 millisievert. Celles-ci sont en moyenne principalement :
*         les irradiations médicales
La dose efficace moyenne du fait des examens radiologiques à visée diagnostique (comme les radiographies médicales, dentaires et les scanners…) dépasse 1 mSv par an et par habitant ;
*         les activités industrielles non nucléaires
La combustion du charbon, l’utilisation d’engrais phosphatés, les montres à cadrans lumineux de nos grands-pères entraînent une irradiation de 0,01 millisievert par an ;
*         les activités industrielles nucléaires
Les centrales nucléaires, les usines de retraitement, les retombées des anciens essais nucléaires atmosphériques et de Tchernobyl, etc., exposent chaque homme à 0,002 millisievert par an.

 

   DOCUMENT     cea         LIEN

 
 
 
 

Modification des protéines : la myristoylation décodée à l’échelle de l’organisme

 

 

 

 

 

 

 

Modification des protéines : la myristoylation décodée à l’échelle de l’organisme

lundi 2 juillet 2018

Une équipe de l'Institut de biologie intégrative de la cellule, en collaboration avec l’Institut de chimie des substances naturelles et l’Ecole Polytechnique, a cartographié et quantifié pour la première fois, chez l’homme et la plante modèle Arabidopsis thaliana, le myristoylome, c’est-à-dire l’ensemble des protéines portant une étiquette constituée d'un acide gras qui cible ces protéines aux membranes. Ces données publiées dans les revues Nature Chemical Biology et Plant Cell permettent enfin d’élucider comment la machinerie de modification décrypte ses cibles.

Toute protéine subit des modifications, réversibles ou irréversibles, qui impactent son cycle de vie et sa fonction. Le nombre de modifications décrit pour une seule protéine peut varier de 0 à 100 et chaque espèce modifiée constitue une protéoforme. Plus de 400 modifications différentes contribuent à cette diversité. On estime que les génomes humains et des plantes qui contiennent environ 20 000 gènes peuvent générer plusieurs milliards de protéoformes, les modifications assurant ainsi une diversité extrêmement importante.

Parmi les modifications protéiques, la myristoylation (MYR) correspond à un des dispositifs les plus intrigants que les cellules utilisent pour positionner précisément les protéines dans des compartiments membranaires spécifiques. La modification consiste à ajouter à une extrémité d'une protéine une petite étiquette faite d'un acide gras appelé myristate. Cette étiquette confère un caractère huileux qui agit à la fois comme « code postal » et comme ancre aidant à « expédier » la protéine vers une membrane particulière tout en assurant la fixation stable autant de temps que nécessaire. Bien que cette étiquette soit cruciale pour la survie cellulaire et fondamentale dans des processus importants pour la santé et les pathologies, la MYR est l'une des modifications les plus difficiles à étudier et à décoder, le répertoire complet de MYR - le myristoylome - étant inconnu jusqu'à présent.

Une étude de l'équipe de Carmela Giglione à l'I2BC à Gif-sur-Yvette réalisée en collaboration avec deux autres équipes du plateau de Saclay (ICSN et Ecole Polytechnique) a réussi à cartographier pour la première fois des ensembles complets de protéines possédant une étiquette de MYR, et ce chez l’homme et le modèle de plante Arabidopsis thaliana. Ils ont surmonté un certain nombre d’obstacles critiques liés à l'analyse de la MYR en développant et en appliquant progressivement des approches complémentaires. Tout d’abord, les structures cristallines de l'enzyme humaine impliquée dans cette modification ardue associée à plusieurs cibles connues ont révélé des sites de liaison inattendus ; ceci a permis de comprendre le schéma général de reconnaissance du dispositif de la modification, resté insaisissable jusqu’alors. Les informations obtenues par ces données structurales ont été ensuite combinées à (i) la mise en place d’un test reconstitué permettant de mesurer à très grande échelle la MYR éventuelle d’une bibliothèque de mimes de toutes les protéines cibles possibles de la cellule, (ii) la mise au point d’algorithmes dédiés utilisant ces données et (iii) une analyse globale de la diversité des protéines subissant cette modification réalisée chez les deux organismes pour valider ces approches.
Les auteurs ont aussi réalisé en parallèle un profilage adapté des protéines membranaires pour révéler leur niveau de MYR. Ce protocole implique un fractionnement cellulaire combiné à une séparation à haute résolution des protéines avec l’identification des composants huileux par spectrométrie de masse couplée à des méthodes d'acquisition dépendant des données ciblant spécifiquement les peptides modifiés par MYR. Ce travail a révélé la distribution relative et quantitative de la plus grande partie des protéines avec MYR de la cellule. L’étude représente également le plus grand ensemble de données de protéines avec MYR identifiées in vivo à ce jour et il permet enfin de comprendre comment les protéines avec MYR sont distribuées dans différents compartiments subcellulaires. Enfin, ces études ont révélé que MYR implique un ensemble non négligeable de cibles chevauchantes possédant une autre modification N-terminale largement répandue, la N-alpha-acétylation. Ceci pose la question de la fonction cellulaire de protéoformes qui peuvent subir deux modifications distinctes. Enfin, les auteurs ont identifié les empreintes signature de l’ajout d’un autre acide gras, le palmitate. Ils ont découvert que cette PM est imprimé sur les gènes codant certaines protéines possédant MYR, ce qui permet la reconnaissance visuelle facile des séquences présentant les deux modifications. L’identification de la MYR que l’étude présente résout donc l’identification de la seconde modification.
Dans l'ensemble, ces études récentes permettent (i) d'accéder à la face largement cachée de l'une des modifications protéiques les plus intrigantes des organismes pluricellulaires, (ii) d'identifier plus d'un millier de nouvelles protéines la portant et (iii) en révéler le caractère hétérogène dans les deux organismes étudiés.

Figure : Etapes principales de l’apprentissage progressif utilisé pour identifier exhaustivement toutes les cibles de la modification à l’échelle du protéome entier L’identification de la structure de la NMT humaine complexée à plusieurs substrats (A) permet d’identifier et de mesurer sur des substrats issus des protéomes de plante et de l’homme leur capacité ex vivo à être modifiés (B). Ces données permettent de compiler visuellement le profil de reconnaissance (C) et d’entrainer des algorithmes de prédictions (D) basés sur la définition de frontières entre les substrats (« Myr ») et les autres (« 0 »). Pour vérifier la pertinence des données prédites, des analyses en spectrométrie de masse ciblées sont réalisées sur chaque organisme (E). Chez la plante, des mesures fines permettent de déterminer dans chaque compartiment les quantités relatives de chaque forme (F). Enfin, un schéma général impliquant d’autres modifications permet de visualiser la complexité du phénomène (G).
© Thierry Meinnel & Carmela Giglione

Références :
*         Structural and genomic decoding of human and plant myristoylomes reveals a definitive recognition pattern. Castrec B, Dian C, Ciccone S, Ebert CL, Bienvenut WV, Le Caer JP, Steyaert JM, Giglione C, Meinnel T.
Nature Chemical Biology 2018 14: 671-679 doi: 10.1038/s41589-018-0077-5. Epub 2018 Jun 11
*         Targeted Profiling of Arabidopsis thaliana Subproteomes Illuminates Co- and Posttranslationally N-Terminal Myristoylated Proteins. Majeran W, Le Caer JP, Ponnala L, Meinnel T, Giglione C. Plant Cell. 2018 Mar;30(3):543-562. doi: 10.1105/tpc.17.00523. Epub 2018 Feb 16.
*         Lipid Anchor: Postal Code for Proteins on the Road to Membranes
*
Contacts :
*         Thierry Meinnel Tél. +33 169824680
*         Carmela Giglione Tél. +33 169824644 Institut de biologie intégrative de la cellule 
UMR9198 (CNRS/CEA/Université Paris-Sud 
91198 Gif/Yvette

 

    DOCUMENT         CNRS         LIEN  
 

 
 
 
 

De la génétique humaine à la dépollution de la planète

 

 

 

 

 

 

 

De la génétique humaine à la dépollution de la planète

18.03.2020, par Grégory Fléchet

Lauréat de la médaille d’or du CNRS en 2008, Jean Weissenbach a permis à la génétique d’entrer dans une nouvelle ère, avant de s’intéresser à la décontamination de l’environnement par les bactéries. Rencontre avec un scientifique d'exception.

Au début des années 1990, vous avez acquis une renommée internationale en réalisant la première carte génétique humaine à haute résolution. Dans quelles circonstances êtes-vous parvenu à mettre au point ce qui allait devenir un outil de référence pour la biologie moléculaire ?
Jean Weissenbach1 : D’une certaine manière, ce projet est la concrétisation d’intenses discussions avec le généticien Daniel Cohen. En 1990, celui-ci dirige le Centre d’étude du polymorphisme humain de l’hôpital Saint-Louis et entretient des relations étroites avec l’équipe du Téléthon et l’Association française contre les myopathies (AFM). Nous proposons alors à l’AFM un grand projet de cartographie du génome humain comprenant une carte physique et une carte génétique. À l’époque, le Téléthon est en pleine ascension ce qui va nous permettre de disposer de moyens financiers sans précédent pour relever ce challenge. En 1992, soit deux ans après le lancement du projet, nous avons publié les premières versions de ces cartes du génome humain.
 
À quels défis avez-vous dû faire face tout au long de cette véritable épopée scientifique ?
J.W. : Il s’agissait d’un projet créé ex nihilo pour lequel il a donc fallu concevoir un laboratoire dans son intégralité, mais aussi former toute une équipe d’ingénieurs et de techniciens au travail inédit que constituait la réalisation d’une carte génétique. Pour autant, nous n’avancions pas totalement à l’aveugle puisque l’ensemble de la démarche de biologie moléculaire sur laquelle reposait notre méthode de cartographie avait pu être testé à plus petite échelle au Centre d’étude du polymorphisme humain. Ce projet était aussi inédit de par sa gouvernance, puisque toutes les décisions se prenaient au sein même du Généthon dont le financement était presque intégralement assuré par l’AFM. Ce mode de fonctionnement, à la fois très centralisé et non démocratique, nous a permis d’être très réactifs à chaque étape importante du projet, le moindre besoin de matériel étant par exemple satisfait dans la journée par l’administration du Généthon.
 
Luc Morvan / AFM-Téléthon

Pour réaliser cette carte génétique, vous vous êtes appuyé sur l’utilisation de marqueurs microsatellites. Pour quelles raisons cette stratégie s’est-elle avérée payante ?
J.W. : La qualité et la densité de ces marqueurs, qui sont en fait de courtes séquences répétitives de nucléotides variant beaucoup d’un individu à l’autre, ont été des éléments déterminants dans l’aboutissement de ce projet. Dans le cadre des études familiales qui était le nôtre, ces séquences microsatellites donnaient notamment beaucoup plus d’informations que les marqueurs RFLP (Restriction Fragment Length Polymorphism) majoritairement utilisés jusqu’ici.
 
À partir de la carte génétique, des centaines de gènes associés à des maladies génétiques ont pu être identifiés.
J.W. : L’établissement de cette carte a en effet constitué une étape essentielle vers la mise en évidence de gènes impliqués dans ce type de pathologies. À l’époque, seuls les gènes responsables des maladies les plus fréquentes avaient pu être localisés sur le génome. Repérer ne serait-ce qu’un seul gène nécessitait d’étudier un grand nombre de familles sur le plan génétique, or nous ne disposions pas de telles cohortes. Détenir pour la première fois une carte à haute résolution couvrant l’ensemble du génome humain a donc grandement facilité le diagnostic de ces maladies génétiques.
 
Vous avez ensuite participé au grand projet international de séquençage du génome humain. Quel fut, dans ce domaine, le rôle de la France à travers le Genoscope, ce centre national de séquençage que vous avez dirigé de 1997 à 2007 ?
J.W. : Après avoir contribué à la phase préliminaire du séquençage du génome humain par l’élaboration de la carte génétique, nous avons effectivement monté le Genoscope, qui a participé au séquençage proprement dit. Ce travail a débuté en 1996 avec la création d’un consortium public international regroupant les centres de séquençage nationaux des différents pays impliqués dans le projet « Génome humain ».
Dans le cadre de ce consortium, l’équipe du Genoscope s’est attaquée au séquençage du chromosome 14 qui contient entre autres des gènes de notre système immunitaire. Bien que notre participation fut modeste, ce chromosome ne représentant que 3 % du génome humain, elle fut menée avec rigueur puisque dès 2003, nous avons réussi à établir sa séquence d’un seul tenant, c’est-à-dire sans aucun « trou ». À titre de comparaison, la première version du génome entier obtenue en 2000 comptait plus de 200 000 lacunes génétiques, tandis que la version finale du projet public achevée en 2004 en comportait encore environ 300.


Séquençage du chromosome 14. Une équipe de chercheurs du Genoscope a réussi à établir un séquençage d'un seul tenant en 2003.

Patrick ALLARD/REA
Partager

Vous avez ensuite réorienté les travaux du Genoscope vers la microbiologie environnementale. Pourquoi ce choix ?
J.W. : J’ai pris la décision de recentrer une partie des activités scientifiques du Genoscope vers les micro-organismes de l’environnement à partir de l’an 2000, bien que nous ayons eu l’occasion de séquencer des génomes microbiens antérieurement. Le séquençage de tous ces génomes m’a soudainement fait prendre conscience que nous alimentions les bases de données de séquences d’ADN pour tout un tas d’espèces sans connaître le rôle d'un grand nombre de gènes. Chez les bactéries, il existe par ailleurs de nombreux gènes qui codent pour des enzymes susceptibles d’être utilisées dans le domaine des biotechnologies. Or, l’analyse des séquences des premiers génomes bactériens et ceux étudiés par la suite au Genoscope montrait que la fonction de 30 à 50 % des gènes identifiés était totalement inconnue.
 
Quels enseignements a-t-on tiré des premiers séquençages de génomes bactériens ?
J.W. : Cela a tout d’abord permis de constater qu’il existait une très grande plasticité génétique entre les différentes souches d’une même espèce bactérienne ; certains gènes étant propres à chaque souche. Au sein d’un même génome de bactérie, le séquençage a aussi montré que des gènes aux fonctions particulières sont parfois regroupés sous forme d’îlots. Certains de ces groupes de gènes sont responsables de la pathogénicité des micro-organismes tandis que d’autres leur confèrent des propriétés métaboliques spécifiques. Un tel regroupement facilite la transmission d’ensembles de gènes entre souches bactériennes, voire d’une espèce à l’autre. C’est ce que l’on nomme le transfert horizontal, et cela a aussi été mis en évidence grâce au séquençage.


Chacune des 96 pointes de ce robot prélève une colonie bactérienne ayant intégré un fragment de l'ADN à séquencer et l'inocule dans une plaque 96 puits remplie de milieu nutritif. Ces plaques sont mises ensuite à pousser pour multiplier chacun des clones et donc, in fine, multiplier les copies de chacun des fragments de l'ADN à séquencer. L'ensemble de ces clones constitue la "banque" d'ADN du Genoscope.

Hubert RAGUET /CNRS Photothèque


L’un des axes de recherche actuels du laboratoire Génomique métabolique, que vous avez dirigé jusqu’en 2009, concerne l’identification de nouvelles activités enzymatiques chez les bactéries.
J.W. : L’étude de génomes bactériens s’est en premier lieu focalisée sur les organismes pathogènes et un petit nombre de bactéries pouvant être cultivées en laboratoire. Mais il faut savoir qu’une fraction bien plus importante de micro-organismes ne peut être cultivée. Avec l’appui de la métagénomique, qui permet de séquencer la plupart des génomes de micro-organismes peuplant un milieu donné, nous sommes désormais en mesure de réaliser des inventaires d’espèces dans tous les environnements de la biosphère. Ces investigations à grande échelle permettent entre autres de découvrir des gènes codant pour de nouveaux catalyseurs biologiques d’intérêt industriel. Elles ont également pour but de répertorier les fonctions des innombrables gènes microbiens qu’il reste à découvrir.
Sur quelles thématiques en lien avec la microbiologie environnementale avez-vous travaillé au sein du laboratoire Génomique métabolique ?
J.W. : Nous avons commencé par étudier les flores bactériennes de l'épuration des eaux usées, où nous avons identifié de nouvelles divisions bactériennes et séquencé, il y a plus de dix ans, le premier génome d'une bactérie anaérobie non cultivée. Grâce à l'analyse de ce génome, nous avons pu identifier les gènes manquants de la voie métabolique de dégradation anaérobie de la lysine, un aminoacide très abondant lors de la digestion anaérobie des boues d'épuration.
 
Avec l’appui de la métagénomique (...), nous sommes désormais en mesure de réaliser des inventaires d’espèces dans tous les environnements de la biosphère.

Dans le domaine de la microbiologie environnementale, la plus grande contribution de notre laboratoire reste à ce jour le projet Tara Océans. Ce programme de recherche a en effet permis d'obtenir un catalogue des gènes des bactéries du monde marin qui s'approche d'un inventaire complet. En ce qui concerne les protistes du plancton océanique, des organismes unicellulaires pourvus d'un noyau, Tara Océans a mis en évidence une diversité exceptionnelle de plus de 150 000 espèces dont un tiers n'appartient à aucun groupe taxonomique connu. Les résultats du projet montrent aussi que les approches écologiques classiques sont loin de rendre compte de la diversité de ce plancton marin eucaryote.
Plus récemment, vous vous êtes intéressé aux processus de biodégradation de la chlordécone, qui entre dans la constitution d’un pesticide organochloré devenu tristement célèbre aux Antilles2. Quel était l’objectif de ces travaux ?
J.W. : La chlordécone est une molécule très difficile à dégrader à cause de sa structure en forme de cube très compacte et des nombreux atomes de chlore présents à sa surface. Nous avons donc voulu savoir ce qu’il advenait de cet organochloré une fois qu’il se retrouve dans l’environnement. Par des approches de microbiologie, nous avons recherché des bactéries du sol capables de dégrader la chlordécone. Une fois identifiées, ces bactéries ont été mises en culture en présence de la substance chimique afin de la métaboliser pour pouvoir ensuite en analyser les produits de dégradation. L’action des bactéries aboutit à divers produits de transformation, dont un ne comporte plus que cinq atomes de chlore contre dix pour la molécule de départ.
D’autres investigations menées sur les sols provenant des Antilles nous ont permis de retrouver certains de ces produits de biodégradation dans des sols contaminés par la chlordécone. Ces conclusions laissent espérer que cette pollution sera réduite plus rapidement que prévu par l’action de micro-organismes présents dans les sols de la Martinique et de la Guadeloupe.


En novembre dernier vous avez publié Dépolluer la planète, qui aborde justement la question des pollutions environnementales et la possibilité de les traiter en mettant à profit le métabolisme de certaines bactéries. Quel est le point de départ de ce livre ?

J.W. : Celui-ci coïncide avec le choix du laboratoire Génomique métabolique d’appliquer des techniques de métagénomique à ces milieux très particuliers que sont les boues activées des stations d’épuration. Il s’agissait alors d’identifier les bactéries présentes tout au long de ce processus biologique qui est à la base de la première industrie biotechnologique mondiale. Au fil du temps et des travaux du laboratoire, j’ai fini par m’intéresser à la question de la bioremédiation au sens large. Cet ouvrage propose donc une sorte de synthèse des processus microbiens capables de dégrader ou neutraliser des substances chimiques qui se retrouvent dans la nature. À ce propos, il faut garder à l’esprit que sans l’action des micro-organismes de l’environnement, l’abondance de molécules chimiques produites tout au long de l’histoire de l’humanité aurait depuis longtemps compromis la survie de notre espèce.
Comment fonctionne plus précisément la bioremédiation ?
J.W. : Elle repose sur un principe à l'œuvre depuis l'apparition de la vie sur Terre, à savoir la dégradation et la transformation par les organismes vivants de la très grande majorité des composés chimiques présents dans la biosphère.

Après une marée noire, des espèces de bactéries naturellement présentes dans les océans sont capables de proliférer et de consommer certains hydrocarbures, limitant ainsi les conséquences de la catastrophe sur les écosystèmes marins.

La bioremédiation réunit tout un ensemble de procédés visant à dépolluer les sols, les sédiments, les eaux de surface et souterraines. Ces méthodes s'appuient sur l'utilisation de bactéries, de champignons ou de végétaux ainsi que sur les enzymes produites par ces espèces. Des roseaux peuvent par exemple être plantés aux abords d'une étendue d'eau pour en extraire les phosphates présents en trop grande quantité. Après une marée noire, des espèces de bactéries naturellement présentes dans les océans sont capables de proliférer et de consommer certains hydrocarbures, limitant ainsi les conséquences de la catastrophe sur les écosystèmes marins.

Si le champ d'application de la bioremédiation semble très large, que peut-on véritablement attendre de cette méthode de dépollution ?
J.W. : Elle pourrait faciliter la réhabilitation d'une partie des millions de sites contaminés par nos activités industrielles à travers la planète. Rien que sur le territoire français, la base de données Basias recense plus de 340 000 sites potentiellement pollués, soit une superficie totale d'environ 100 000 hectares. En cas de pollution par des métaux, la remédiation par les plantes et leur système racinaire reste le procédé le plus approprié. Pour les polluants organiques il existe, en théorie, plus de possibilités. Mais chaque site est à considérer comme un cas d'espèce où il faut commencer par une évaluation des méthodes les plus adaptées qui ne seront jamais idéales. D'une manière générale, la bioremédiation n'est pas une panacée. De plus, ses effets sont lents à s'établir et l'élimination de la totalité d'un polluant est rarissime, voire illusoire. Les échecs ou les succès mitigés sont d'ailleurs nombreux.

À l'inverse, ce sont des méthodes peu perturbantes pour le milieu et souvent peu onéreuses. Dans tous les cas, il importe que ce processus aboutisse à des molécules du métabolisme qui pourront ainsi être recyclées par le vivant car il arrive parfois que des intermédiaires de biodégradation soient eux aussi toxiques, voire plus toxiques que le produit de départ. En outre, tous les polluants ne peuvent être traités par bioremédiation. Les composés plastiques en sont sans doute l'illustration la plus frappante. Ces polymères synthétiques sont présents sur Terre depuis trop peu de temps pour que des micro-organismes capables de les utiliser comme source de nourriture aient pu émerger par le biais de l'évolution. ♦
À lire
Dépolluer la planète, Jean Weissenbach, CNRS Éditions, coll. « De vive voix », novembre 2019.
 
Notes
*         1.
Directeur de recherche CNRS au laboratoire Génomique métabolique (CNRS/Université Evry-Val-d'Essonne/CEA)
*         2.
La chlordécone est le constituant principal d’un insecticide éponyme. Entre 1972 et 1993, cette substance qui appartient au groupe des organochlorés comme le DDT a été répandue en grande quantité sur les bananeraies de la Guadeloupe et de la Martinique pour lutter contre le charançon noir du bananier. À la fois très toxique et susceptible de persister dans l’environnement durant des décennies, voire des siècles, la chlordécone est suspectée d’être à l’origine de la forte augmentation de cancers de la prostate qui frappe les Antilles françaises.

 

  DOCUMENT         CNRS         LIEN  
 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon