ecole de musique piano
     
menu
 
 
 
 
 
 

NOS DENTS ...

 

NOS  DENTS ...

 

 DOCUMENT       sciencesetavenir.fr      LIEN

 
 
 
 

MUTATION , ÉVOLUTION , ET SÉLECTION

 

Mutation, Evolution et Sélection.
Par Miroslav Radman

Texte de la 427e Conférence de l'Université de Tous les Savoirs donnée le 6 juillet 2002

De nouvelles perspectives d'application pour les sciences de l'évolution.
Depuis quelques années, la science de l'évolution, traditionnellement très théorique, abstraite, académique, donne lieu à de très grandes nouveautés expérimentales et a même des implications en biotechnologie et en biomédecine. On peut ainsi utiliser des méthodes directement inspirées de l'évolution naturelle pour faire évoluer des molécules d'intérêt industriel ou pharmaceutique. On est également aujourd'hui capable d'observer l'évolution de populations bactériennes en temps réel ou encore la dynamique des gènes dans des embryons. Dans une phrase célèbre, Dobzhansky explique que la biologie n'a de sens qu'à la lumière de l'évolution. L'idée est que le but unique de la vie c'est la vie elle-même, la survie et que la grande stratégie de la survie, c'est l'évolution. Nous aimerions donc apprendre de l'évolution cette stratégie, pour connaître mieux la vie mais aussi pour pouvoir mettre en place une évolution qui nous sera utile et bénéfique.

« Imperfection », efficacité et robustesse des stratégies évolutives.
Tout être vivant, de la bactérie jusqu'à l'homme doit, pour survivre, éviter de se faire manger de l'extérieur, par les prédateurs ; il doit également éviter de se faire manger de l'intérieur par les parasites, éviter de perdre la compétition avec ses congénères et, lorsqu'il a évité toutes ces sources de mort, développer une robustesse de l'organisme face à un environnement physique souvent très agressif. Cette robustesse constitue la clé de la survie à long terme. Les stratégies de l'évolution ont une origine moléculaire qui date de près de 4 milliards d'années. On trouve des séquences dans les génomes, des bactéries jusqu'à l'homme, qui sont des preuves très convaincantes d'une origine commune de tous les organismes vivants. En cherchant à savoir comment la simplicité originelle a pu donner naissance à des individus complexes comme l'homme, on ne trouvera toutefois pas la beauté, la perfection, la finesse que notre esprit pourrait être tenté d'anticiper mais plutôt l'efficacité.
Taux d'erreur lors de la synthèse de l'ADN, des ARN et des protéines.
Les protéines sont les macromolécules responsables de quasiment tout le travail cellulaire. Le taux d'erreur dans la synthèse des protéines est de l'ordre de 1-3 10-4. Dans l'espèce humaine, on a pu estimer expérimentalement que 30% des protéines sont dégradées après leur synthèse parce que le système de contrôle qualité les a détectées - à tort ou à raison - comme défectueuses. On imagine mal un tel taux d'erreur dans une chaîne de production automobile, mais on verra plus loin l'intérêt de cette imperfection naturelle. Le taux d'erreur dans la transcription synthèse d'ARN messager est cohérent avec ce taux d'erreur en aval dans la traduction, de l'ordre de 10-5. Le taux d'erreur dans la réplication de l'information génétique (copie d'ADN en ADN) est par contre de l'ordre de 10-10, ce qui en fait un processus 1 million de fois plus fidèle que la synthèse des protéines. On pourrait en fait faire mieux pour les protéines. Ainsi, les bactéries qui résistent à l'antibiotique streptomycine ont une mutation qui leur confère une fidélité plus haute dans la synthèse des protéines. Il y a cependant un coût à cette fidélité, ces bactéries poussant beaucoup moins vite. L'efficacité est donc privilégiée par rapport à la fidélité.

Stress prévisible et stress imprévisible.
Certains stress sont « prévisibles », par exemple, pour les bactéries, le choc osmotique, le choc thermique (chaud et froid), le choc oxydatif (créé par des macrophages, par exemple). Il y a dans le génome des bactéries des éléments de programme qui permettent de faire face à ces stress, qui ont été rencontrés à de nombreuses reprises au cours de l'histoire évolutive. Les bactéries qui ont survécu aux stress du passé sont aujourd'hui capables de détecter ces stress prévisibles : quand un stress prévisible apparaît, les bactéries activent un mécanisme de survie approprié. Le système d'évolution inductible, le système SOS est mis en action lorsque l'ADN ne peut pas se répliquer car il porte trop de lésions. Le système SOS déclenche la synthèse de polymérases peu fidèles qui sont capables de copier l'ADN défectueux et permettent de sortir du blocage initial, au prix de quelques mutations.
Pour survivre des milliards d'années, une adaptation à des stress imprévisibles est également nécessaire. Le futur est complètement imprévisible, surtout pour les bactéries. Du point de vue des stratégies moléculaires, à l'opposé des mécanismes très spécialisés, efficaces et fragiles (peu robustes) développés face au stress prévisible, les bactéries ont adopté des mécanismes généralistes, flexibles, qui permettent de faire face à l'incertitude inhérente au stress imprévisible. Concrètement, les bactéries créent alors de la diversité aveugle, gaspillent et payent ainsi une sorte d'assurance « tout risque ». On peut en déduire que dans ces conditions, s'il y a un « Grand Concepteur », ce n'est pas le concepteur des produits de l'évolution, c'est le concepteur de la méthode, de la stratégie de l'évolution. Le dernier retrait de Dieu !

Mutation, sélection et biodiversité.
La stratégie de base pour faire face à l'adversité inconnue, est représentée à la figure 1 Le schéma est général et s'applique à l'évolution des tumeurs, des bactéries, des immunoglobulines, des espèces. Dans une population de bactéries, avec un taux d'erreur de 10-10, une bactérie sur 300 environ porte une nouvelle mutation (le génome d'une bactérie typique fait environ 5 106 paires de bases). Normalement, lorsqu'on discute la biodiversité, il y a une connotation politiquement correcte, on respecte la biodiversité. Dans la vie, la biodiversité devient utile au moment où elle va être réduite à presque rien. Par exemple, si on part d'une population de un milliard de bactéries qui sont issues d'une seule bactérie et qu'on les frappe de sélection létale, avec un antibiotique comme l'ampicilline, si la population porte des mutations, un petit nombre de bactéries (1, 2 ... 10) résistantes seront sélectionnées parce qu'elles portaient par hasard une mutation qui leur confère la résistance à l'antibiotique et pourront survivre. Si on laisse pousser ces quelques bactéries, et qu'on frappe les milliards de bactéries qui en sont issues avec un autre antibiotique quelconque, une de ces bactéries aura, par hasard, reçu une mutation qui lui permettra de survivre et développé ainsi deux résistances. Les stratégies évolutives visent essentiellement à mettre en place des mécanismes adaptatifs de survie aux stress. Dans le cas des tumeurs, ce n'est pas une sélection létale, c'est plutôt une sélection compétitive (partie droite de la figure 1) : une cellule qui acquiert une mutation relâchant un des nombreux freins présents au cours du cycle cellulaire, se divise à chaque génération un peu plus vite que les autres et finit par s'imposer au sein de la tumeur. Ce type de sélection compétitive a aussi lieu chez les bactéries dans la nature, en l'absence d'antibiotiques. La biodiversité apparaît ainsi comme le substrat pour la sélection, les mutations sont comme une « assurance-Vie » qui permet de gagner la survie lorsque la population entière est frappée par une sélection létale. Les espèces évoluent de la même façon. La biodiversité permet ainsi à la vie de perdurer malgré de grandes catastrophes. La biodiversité est issue de l'imperfection des mécanismes de réplication de l'ADN, ainsi que des transferts génétiques horizontaux entre espèces proches (création d'individus mosaïques par ajout de blocs de gènes étrangers à l'espèce ayant évolué de manière indépendante des gènes existants). Le danger des monoclones est ainsi l'absence de robustesse liée à l'absence de biodiversité.


Paradigmes lamarckien, darwinien et bactérien.
Il y a deux grands paradigmes historiques dans l'évolution : le paradigme darwinien et le paradigme lamarckien. La figure 2 représente la biodiversité par une courbe en cloche. Le paradigme lamarckien dit que si l'environnement change et qu'une version (allèle) A d'un gène ne permet plus la survie, il y a une évolution intelligente : on construit à partir d'un allèle A un allèle B qui permet la survie. Le paradigme darwinien dit qu'il y a une grande diversité naturelle dans la population ; si B est préexistant dans cette diversité, les bactéries qui portent cet allèle survivent ; si B n'est pas préexistant dans la diversité, la population entière s'éteint simplement. Ainsi le paradigme darwinien exclut l'intelligence, le choix « à la carte ».
Le paradigme « bactérien », encore appelé néo-darwinien, que j'ai élaboré avec mes collègues François Taddei et Ivan Matic, est intermédiaire entre le paradigme lamarckien et le paradigme bactérien. Il n'inclut pas l'intelligence du lamarckisme, mais inclut le stress, qui active des gènes de sauvetage, de survie, jusque là éteints, silencieux. Grâce à ces gènes, le système commence à muter davantage : en cas de catastrophe, avant de mourir, on « essaye une dernière opération génétique désespérée » et on fait exploser la biodiversité : au lieu des taux d'erreurs de 10-10, on augmente le taux d'erreur de 1000 fois, à 10-7. Le résultat est plutôt bon : même si on n'a pas l'intelligence de pouvoir construire B sur mesure, cette évolution inductible multiplie par 1000 la probabilité que l'allèle B soit présent dans la population.


Les mutateurs.
La figure 3 illustre le phénomène de la sélection du deuxième ordre. Cette expérience démontre l'énorme adaptabilité génétique des bactéries : comme disait le célèbre évolutionniste Steven G Gould, les bactéries sont de loin les organismes ayant le plus de succès sur la terre, adaptées à tout, vivant dans toutes sortes de conditions horribles, jusqu'aux eaux bouillantes des geysers. Cette adaptabilité des bactéries à une énorme variété de milieu est précisément notre problème lorsque les bactéries sont pathogènes. On étale des bactéries sur une boîte de Pétri, un tapis qui en contient de l'ordre de 10 milliards. On transfère ces bactéries sur une boîte de gelose qui contient l'antibiotique ampicilline. Seule une bactérie sur 10 à 100 millions survivra. On laisse pousser ces bactéries survivantes 24 heures, chacune donne naissance à environ 10 millions de bactéries. On met ensuite la boîte en contact avec une deuxième boîte, qui contient un autre antibiotique, différent. On sélectionne ainsi une deuxième résistance. On itère l'opération pour sélectionner une troisième propriété : la capacité à se nourrir de lactose. On évalue ensuite le taux de mutation dans les clones bactériens à chaque étape. On observe alors qu'une bactérie sur 100 000 mute 100 à 1000 fois plus vite que les autres. On appelle ces bactéries des mutateurs. Après la première sélection, 1% des bactéries sont des mutateurs, après la deuxième sélection, 50% en sont et après la troisième sélection, toutes les bactéries sont des mutateurs. Ainsi par le biais de cette sélection qui visait trois capacités spécifiques (résistance à deux antibiotiques distincts, capacité de métaboliser le lactose) les bactéries n'ont pas seulement « appris » cette triple capacité, elles ont appris une méthode qui leur permet de muter plus vite, et donc les prépare à faire face beaucoup plus efficacement à des problèmes nouveaux.
Le défaut des bactéries mutateurs est expliqué à la figure 4 Il y a trois types de mécanismes pour maintenir la fidélité au cours de la réplication, chez les bactéries comme chez l'homme. Le premier est un nettoyage des lésions chimiques apparaissant naturellement dans l'ADN qui va être copié, à cause du métabolisme oxydatif ou des radiations par exemple. Les lésions chimiques sont réparées, coupées à gauche et à droite et remplacées, par l'activité d'une ADN polymérase. Un deuxième mécanisme s'occupe des nucléotides, A, T, G, C, substrats de base pour la synthèse de l'ADN ; il assure un taux d'erreur de l'ordre de 10-7 dans ces briques de base. Un dernier mécanisme est un système de contrôle qualité de ce qui vient d'être fabriqué. Ce système compare systématiquement la copie et l'original. A chaque fois que la copie n'est pas conforme à l'original, la copie est corrigée conformément à l'original. Ce système est efficace à 99.9%, et assure donc un taux d'erreur global de l'ordre de 10-10. La majorité des mutateurs perd ce mécanisme, ce qui explique qu'ils ont 1000 fois plus de mutations que la moyenne de la population. En outre, les mutateurs ont des taux de recombinaison plus élevé que la normale et sont donc plus susceptibles que les bactéries sauvages de donner lieu à des individus mosaïques. Avec Ivan Matic, nous avons analysé des bactéries issues d'environnements naturels (hôpitaux, etc.) et calculé que 1% des bactéries naturelles sont des mutateurs. La figure 5 montre une autre expérience. On prend une bactérie Escherichia coli cultivée depuis 1922 en laboratoire. Ces bactéries n'ont donc pas poussé depuis longtemps dans leur milieu naturel, l'intestin d'un mammifère. On introduit ces bactéries identiques dans des souris qui sont stériles, qui ne contiennent au départ aucune bactérie. Rapidement, il y a 20 % des souris ne contenant que les bactéries mutatrices.
Si on met en compétition des bactéries normales et des mutateurs dans ces souris, qui sont pour elles un milieu nouveau, on observe à chaque fois que ce sont les bactéries mutateurs qui s'imposent et s'adaptent le plus rapidement. Si on part d'un ratio mutateurs / sauvage de 1, au bout de quelques jours, il y a 100 000 fois plus de mutateurs que de sauvages. La figure 6 montre le résultat de simulations. En ordonnée, le fitness, la valeur sélective, concrètement la vitesse de survie. On voit qu'au cours du temps la vitesse de croissance augmente au gré de l'acquisition de mutations qui relâchent des freins, et atteint finalement une asymptote, fitness maximale du génome dans l'environnement. La simulation montre que les mutateurs atteignent cette vitesse de croissance maximale beaucoup plus vite que les autres. Ceci se fait au prix de quelques morts, mais n'affecte pas la mortalité générale. Etre un mutateur peut être un inconvénient pour l'individu, et un avantage pour la population. On peut à ce titre comparer les mutateurs à des « expériences pilotes ». A court terme, face à n'importe quel défi évolutif (antibiotiques...) on observe que les mutateurs gagnent face aux bactéries normales. Par exemple, des chercheurs madrilènes on observé que dans les poumons de patients atteints de mucoviscidose et traités en permanence avec des antibiotiques, la moitié de la population est constituée de mutateurs. A terme, les mutateurs paieront le prix des erreurs qui ont permis leur succès.
Nous avons cherché, dans le génome des bactéries, des traces qui prouveraient que dans le passé elles ont évolué à deux vitesses : quand la vie est dure, un taux de mutation élevé et quand la vie est facile, un taux de mutation faible. La figure 7 présente l'espace des séquences observé au gré des mutations. En l'absence de sélection létale, les bactéries vivent une marche sûre et lente vers un fitness amélioré. Les mutateurs au contraire accumulent les mutations beaucoup plus vite, s'adaptent vite, mais la létalité associée à l'érosion de leur génome les condamne à long terme. On a observé que la sexualité des bactéries, les échanges de gènes, permettent à des mutateurs de redevenir non mutateurs. Des mutateurs adaptés peuvent aussi transmettre le gène qui a permis leur succès à des non mutateurs. Disposer d'une fraction de mutateurs est alors un avantage pour la population toute entière.


Conclusion.
Du point de vue de la vitesse d'évolution, de mutation, la vie se passe entre deux extrêmes mortels. Le premier, un conservatif total, avec aucune mutation, condamne les bactéries dès qu'une série de stress importants apparaissent. Le second extrême - trop de mutation - a été fabriqué en laboratoire et ceci n'est pas viable même à court terme : des levures ou des bactéries mutatrices modifiées pour produire 100 000 fois plus de mutations que des cellules normales.
Ainsi le taux de mutation optimal est une fonction de l'environnement : si la vie est facile, le taux de mutation optimal est zéro : le génome est parfaitement adapté, l'environnement ne change pas et on ne change pas le génome ; si la vie est très difficile, le taux de mutation optimal peut devenir énorme (exemple du virus du SIDA).
On pense pour finir au principe de la Reine Rouge de Lewis Caroll : la Reine Rouge est en train de courir tout le temps. Lorsqu'elle arrive au pays de la Reine Rouge, pour pouvoir lui parler, Alice doit courir aussi. Au bout de vingt minutes Alice est épuisée par sa course et interpelle la Reine car elle se rend compte qu'elle est toujours en face du même arbre qu'au départ. La Reine lui explique alors que dans son pays, pour simplement rester sur place il faut courir. C'est en quelque sorte ce que font les bactéries depuis des milliards d'années : elles « courent » génétiquement tellement vite qu'elles réussissent à s'adapter à tout environnement et à tous les antibiotiques que nous avons fabriqués.

 

 VIDEO       CANAL  U         LIEN

 

 ( si la vidéo n'est pas visible,inscrivez le titre dans le moteur de recherche de CANAL U )

 
 
 
 

TRANSGENÈSE , MUTAGENÈSE ET GÉNOMIQUE FONCTIONNELLE CHEZ LES MAMMIFÈRES

 

Texte de la 29ème conférence de l'Université de tous les savoirs réalisée le 29 janvier 2000 par Daniel Metzger


Transgenèse, mutagenèse et génomique fonctionnelle


Introduction
Un des objectifs de la biologie moderne est de comprendre comment un organisme complexe comme l'homme se développe à partir d'une cellule, vit dans son environnement et se reproduit. Il est clair qu'un programme génétique régit ces évènements, et que l'ADN est le support de l'information. La compréhension des mécanismes qui régulent la prolifération et la différenciation cellulaires à l'état normal et pathologique est donc d'importance majeure. Les cellules acquièrent au cours du développement des fonctions variées, notamment en exprimant des protéines différentes. La transgenèse et la mutagenèse sont des outils puissants pour étudier ces évènements complexes. Ils permettent également de réaliser des modèles animaux de pathologies humaines, de proposer des diagnostics et de mettre au point des thérapies. Enfin, la transgenèse peut être utilisée comme moyen de production de molécules biologiques d'intérêt.
L'ADN est une macro-molécule constituée de quatre éléments de base, les nucléotides A, T, C et G. Il est localisé dans le noyau des cellules sous forme bicaténaire et constitue les chromosomes. Les gènes sont constitués de séquences d'ADN qui codent pour les protéines et de séquences d'ADN régulatrices (promoteur/enhancer), qui permettent de réguler l'expression de la région codante. Une machinerie cellulaire permet de transcrire l'information contenue dans le gène en une molécule monocaténaire, qu'on appelle l'ARN messager (ARNm). L'ARNm commande l'enchaînement d'acides aminés dans un ordre déterminé, et permet ainsi la synthèse de protéines spécifiques ayant des fonctions structurales, de signalisation ou une activité enzymatique.
Chaque individu possède un patrimoine génétique différent. Le génotype désigne l'information caractéristique qui est contenue dans son génome. Le phénotype est constitué des caractéristiques physiques visibles de cet individu, qui sont déterminées par sa constitution génétique.
L'étude des gènes et des fonctions des protéines
Différentes disciplines permettent d'étudier la fonction des gènes et des protéines.
- La biochimie permet d'étudier la structure et la fonction des protéines in vitro.
- La pharmacologie permet d'analyser la fonction des protéines en modifiant leurs propriétés par des ligands.
- La génétique, par mutagenèse et transgenèse, modifie le génotype pour analyser le phénotype résultant de cette modification. Ceci peut être réalisé avec des lignées cellulaires ou des animaux comme la drosophile, le nématode, le poulet ou la souris.
D'ici quelques années, les séquences complètes du génome de l'homme et de la souris seront établies. Ceci permettra de mettre en évidence des dizaines de milliers de gènes inconnus, dont il faudra trouver la fonction au niveau moléculaire, tissulaire, ainsi que dans l'organisme entier. Aux techniques classiques de biologie moléculaire et de génétique, s'ajoutent la bio- informatique qui est un outil puissant de comparaison et d'analyse des séquences d'ADN. La transgenèse vient compléter cet éventail avec le formidable potentiel qu'elle offre de pouvoir
2
modifier à la demande n'importe quel gène, et ainsi de pouvoir étudier sa fonction physiologique au niveau de l'organisme entier .
La souris comme modèle animal
Pour comprendre la fonction des gènes, il est essentiel de réaliser des études génétiques. La souris est un très bon modèle animal, car relativement proche de l'homme. En effet, c'est un mammifère, et la taille de son génome et le nombre de ses gènes sont similaires à ceux de l'homme. L'élevage de la souris est relativement aisé grâce à sa petite taille, sa maturité sexuelle rapide (six à huit semaines), sa période de gestation relativement courte (trois semaines), et son coût modéré. De plus, des techniques permettant de modifier le génome par transgenèse "classique" dans le but de surexprimer un gène ou d'exprimer un gène muté, et par invalidation spécifique de gènes sont disponibles dans cet organisme. Ces outils génétiques, que nous allons décrire, permettent non seulement sur le plan fondamental de mieux comprendre la fonction des gènes, mais également de produire des animaux qui portent des mutations similaires à celles présentes dans des maladies génétiques humaines. Ainsi, l'identification des gènes responsables de déficiences chez la souris permet non seulement de faciliter les diagnostics et la compréhension de maladies humaines, mais également de créer des modèles animaux permettant de réaliser des essais thérapeutiques pour faciliter la mise en place de traitements.
La transgenèse classique
La transgenèse "classique" permet l'insertion d'un fragment d'ADN dans le génome et l'expression du gène qu'il porte. Pour établir un organisme transgénique pour un gène donné par transgenèse "classique", celui-ci est tout d'abord cloné et modifié in vitro afin de permettre son expression. Le mini-gène (ou transgène) est injecté dans le pronucléus mâle de l'œuf fécondé de la souris, qui est ensuite réimplanté dans une mère porteuse [figure 1]. Les souriceaux issus de ces œufs sont analysés pour vérifier la présence et l'expression du transgène. Le transgène est en général intégré au hasard dans le génome. Les souris portant le mini-gène dans la lignée germinale sont sélectionnées pour établir des lignées transgéniques. Les mini-gènes sont utilisés en général pour exprimer une protéine d'intérêt. Pour diriger son expression, la séquence codante de l'ADN doit être précédée d'une séquence d'ADN promotrice. La transgenèse permet également d'étudier les séquences promotrices. En plaçant le promoteur en amont d'une séquence codante d'une protéine facilement visualisable (enzyme, protéine fluorescente, etc.), il est aisé de déterminer les types cellulaires dans lesquels le gène est exprimé, et les séquences d'ADN spécifiant cette expression. Certains promoteurs sont actifs dans toutes les cellules, alors que d'autres ne sont actifs que dans des types cellulaires donnés. De plus, ils peuvent être actifs seulement pendant certains stades de développement ou de la vie adulte, ou être inductibles.
Les manipulations génétiques chez la souris nécessitent un équipement spécialisé et un personnel hautement qualifié. Pour établir une lignée de souris transgénique il faut près d'un an. Malgré ces difficultés, cette approche est largement utilisée. Notons cependant que cette technologie ne permet pas d'abolir l'expression du gène endogène. A la fin des années 1980, une autre technologie, permettant d'inactiver un gène donné ou de le remplacer par un gène muté, a été mise en place.

 

 VIDEO       CANAL  U         LIEN

 
 
 
 

BIOTECHNOLOGIES

 

Texte de la 356e conférence de l’Université de tous les savoirs donnée le 21 décembre 2000.
Les nouvelles technologies en recherche biologique
Par Christophe Thurieau

Introduction
Un médicament contient une ou plusieurs molécules actives qui, administré à l’homme, provoque des modifications d’un état précédemment pathologique ou normal. Le concept de la clef et de la serrure, selon lequel un médicament actif se lie spécifiquement à une cible biologique, est ancien, et lié à Emile Fisher en 1894. Il a fallut attendre les années 60 pour que ce modèle soit enfin appliqué de façon remarquable par le pharmacologue britannique Sir James Black (devenu depuis prix Nobel). En effet, à partir de ses observations, notamment, en partant du constat que l’adrénaline, hormone surrénalienne déjà identifiée avait sur le cœur 2 catégories d’effets parfaitement distinctes, dits ? et ?, il a émis l’hypothèse que ces effets résultaient très probablement de l’action sur des récepteurs spécifiques et différents. De ces recherches, sont nés le premier ?-bloquant (anti-hypertenseur) et plus tard le premier anti-H2, la cimétidine, apport majeur au traitement des ulcères gastro-duodénaux. Dès lors une approche réellement rationnelle de la mise au point du médicament s’est établie.

Avec les progrès de la biologie cellulaire, incluant notamment la culture de lignées cellulaire et l’application du concept clef serrure, des techniques d’évaluation du niveau d’association d’un ligand avec sa cible (un récepteur ou une enzyme) dites techniques de binding (ou tests de liaison) ont pu être réalisées et permettre ainsi d’identifier des composés chimiques lorsque ceux-ci empêchent la fixation du ligand naturel.
Cependant, le point de départ de la recherche pharmaceutique a toujours été la connaissance d’un ligand (clef), qu’elle soit issue d’un produit naturel, ou qu’elle soit le résultat d’une synthèse chimique, la cible étant soit inconnue, soit identifiée tardivement dans le développement, voire après celui-ci. Aujourd’hui, les méthodes biotechnologiques permettent l’inversion de ce processus, en identifiant souvent les cibles avant même que soit connu le ligand naturel qui y est attaché. Cette approche nécessite la mise en place de concepts et d’instruments entièrement nouveaux.
En effet, les avancées scientifiques et techniques considérables de ces dernières années en biologie moléculaire, biologie cellulaire et biochimie permettent de découvrir un grand nombre de composants biologiques nouveaux dont la fonction physiologique n’est pas connue. La découverte de ces nouvelles entités biologiques génère de nouvelles cibles ou pistes potentielles de recherche.
Ces technologies innovantes, devenues progressivement disponibles depuis le début des années 90, sont en train de révolutionner les processus de découverte en biologie et en conséquence les stratégies de recherche de nouveaux médicaments.
La nouvelle stratégie de découverte des médicaments.
L’accès à ces données, l’identification de la fonction de ces acteurs bio-moléculaires fait appel aujourd’hui à un panel de technologies nouvelles résultant du mariage de techniques propres à l’informatique, la chimie, la microélectronique et de la bio-robotique.

La génomique
La génomique peut être définie comme la discipline dédiée à l’identification de l’ensemble des gènes du patrimoine génétique (le génome) et à l’élucidation de leur fonction. On parle aujourd’hui de génomique structurale (connaissance de la séquence des gènes) et de génomique fonctionnelle (analyse de la fonction). Le challenge est énorme car il s’agit de pouvoir comprendre l’organisation et la fonction de plus de 100 000 gènes et plus encore de déterminer comment les produits de ces gènes que sont les protéines interagissent pour assurer le fonctionnement d’une cellule.
Pour traiter cette augmentation exponentielle et complexe de données, des technologies révolutionnaires, les puces ADN, sont développées (Figure 1). L’étude de la dynamique de la cellule et du génome impose en effet de pouvoir analyser simultanément un mélange complexe de plusieurs dizaines de milliers de gènes dont les niveaux d’expression varient de 1 à 10 000 transcrits (ARNm) par cellule. Les puces à ADN résultent de la combinaison des techniques de miniaturisation propres à la microélectronique, de la chimie, de la biologie moléculaire et de l’informatique.
Figure 1 Les puces à ADN- Analyse de l’expression d’un grand nombre de séquences.
La puce ADN est constituée d’un réseau dense et régulier de micro surfaces, les unités d’hybridation (UH) gravées sur un support plan. Chaque UH est greffée avec des molécules simple brin d’ADN. Le rôle de chaque UH est de reconnaître, dans un mélange appliqué sur la surface de la puce, une séquence particulière, par réaction d’hybridation entre séquences complémentaires (base de la biologie moléculaire). Les molécules greffées sur la puce constituent les sondes et les ADN en solution, marqués par exemple par fluorescence, sont les cibles. A l’issue de chaque réaction d’hybridation, les signaux émis sur chaque UH sont mesurés et analysés. Le traitement des données d’intensité permet l’évaluation de la concentration des cibles cellulaires. Les plus hautes densités réalisées à ce jour sont d’environ 105 à 106 UH/cm2 (UH de 30 à 10 ?m de côté) et sont adaptées à la quantification de l’expression d’un grand nombre des gènes d’un type cellulaire donné (10 000 à 50 000 gènes exprimés). Les applications actuelles (séquençage du génome, analyse des transcrits, criblage de mutations) sont déjà révélatrices des immenses potentialités des puces ADN et de l’avenir promis à ces technologies.
Des applications futures très prometteuses verront très probablement le jour avec principalement :
- Études sur la diversité génétique humaine et l’histoire des migrations des populations.
- Recherche accélérée dans les maladies d’origine génétique ; Etudes d’association et recherche de facteurs de risques
- Analyses du spectre d’action de nouveaux médicaments (potentiel thérapeutique, effets secondaires, définition des doses, diagnostic…).
La génomique a permis l’éclosion de nouvelles disciplines dont la pharmacogénétique, étude des variations héréditaires de la réponse aux médicaments en terme d’efficacité et de toxicité. De grands programmes de pharmacogénomique sont aujourd’hui engagés, ayant pour objectif de différencier des populations d’individus répondeurs ou non répondeurs à un médicament. Cette nouvelle discipline nécessite le recours à une carte physique ultra fine du génome humain. La recherche de populations « génétiquement homogènes » est un enjeu majeur qui donnera un avantage compétitif considérable dans l’établissement d’une telle carte.

La Protéomique
Le développement des techniques de purification et d’analyses biochimiques permettent aujourd’hui d’envisager l’étude des produits des gènes que sont les protéines (Figure 2).
Figure 2 : La Protéomique- Séparation et identification des protéines cellulaires.
Il s’agit de pouvoir développer des cartographies de ces acteurs moléculaires au sein de la cellule. Les protéines contenues dans un extrait cellulaire sont séparées selon leur poids moléculaire et leur charge nette globale par électrophorèse bidimensionnelle. L’identification de ces protéines est réalisée par élution de celles-ci des gels d’électrophorèses, digestion enzymatique et analyse en spectrométrie de masse des fragments obtenus. Une comparaison des spectres obtenus avec des banques de données spectrales permet de déterminer si ces protéines sont connues.
Une image de la « population » protéique en réponse à un état cellulaire déterminé, est ainsi obtenue. Il est possible de réaliser et de comparer un grand nombre de ces cartes dans le but de repérer, et de lier une production anormale de certaines protéines à une situation pathologique.
La chimie combinatoire

Avant l’ère de la chimie combinatoire, les capacités de synthèses chimiques étaient limitées à une ou quelques molécules par semaine pour un chimiste, alors que pour obtenir un médicament candidat, il fallait disposer de plusieurs dizaines voire centaines d’analogues de la molécule active de départ.
La chimie combinatoire consiste à synthétiser en parallèle, et par des moyens très automatisés, des familles de produits ou chimiothèques (libraries), construites par assemblage de blocs de construction (building blocks pour les Anglo-saxons) ou monomères qui portent des fonctionnalités chimiques qui vont interagir avec la cible. Ces techniques permettent de générer un grand nombre de molécules et d’augmenter considérablement leur diversité.
Cette approche peut être comparée à un immense jeu de cubes, de couleurs et de tailles différentes. Chacun de ces cubes est disponible en quantité infinie et le joueur effectue, une multitude de combinaisons entre ces cubes. Parmi l'ensemble des combinaisons possibles, il retiendra la construction conforme à un objectif déterminé. Le joueur éliminera toutes les autres constructions inutiles. En prenant par exemple comme cubes des acides aminés, naturels ou artificiels, avec 20 éléments de base, les possibilités de combinaisons sont égales à 20n, n étant le nombre d'acides aminés de la construction, autrement dit, de la molécule. Pour une molécule constituée de 2 acides aminés, le nombre de possibilités d'organiser ces 20 acides aminés est de 20 x 20. Si c'est une molécule de 3 acides aminés, ce nombre passe à 20 x 20 x 20 etc.… A la différence du jeu de cubes, en laboratoire, la synthèse automatisée et systématique d'un grand nombre de molécules est réalisée en parallèle et en simultané. Les molécules ainsi construites, ainsi « synthétisées », sont toutes conservées dans des bibliothèques chimiques, ou « chimiothèques ». Chaque molécule, chaque « construction », est ensuite testée vis à vis de cibles biologiques (enzymes, hormones, récepteurs membranaires…) à l’aide de systèmes robotiques de mesure ultrarapide, appelé « criblage à haut débit ».
Le champ d’application de la chimie combinatoire s’étend d’ores et déjà au-delà du domaine des sciences de la vie. En chimie minérale, des banques combinatoire d’oxydes mixtes ont été réalisées, et ont permis de découvrir des composés magnéto résistants et supraconducteurs entièrement nouveaux.
Le criblage pharmacologique à haut rendement

Le criblage systématique de molécules d’origines diverses (chimie de synthèse, produits naturels, micro-organismes…) sur des cibles biologiques a toujours constitué une approche de choix utilisée par l’industrie pharmaceutique dans la découverte de nouveaux médicaments. De nombreux médicaments comme l’anticancéreux « Taxol », l’immunosuppresseur « Cyclosporin » ou l’antihyperlipidémiant « Sinvastatin » illustrent les succès obtenus par cette approche.
Les développements récents de la chimie combinatoire générant un nombre important de molécules avec un haut degré de diversité structurale et les progrès en robotique et en informatique scientifique, ont placé les techniques de criblage à haut rendement (HTS pour High Throughput Screening) au centre du procédé de découverte de molécules actives sur ces nouvelles cibles.
Les tests biologiques, mis au point à partir de la cible identifiée, ont ainsi évolué dans des formats permettant la mesure rapide d’activité de quelques milliers de molécules par jour au milieu des années 1990 à plusieurs dizaines de milliers par jour aujourd’hui.
Cette augmentation importante des capacités de tests est liée à une progression très rapide de la miniaturisation des technologies de détection et de prélèvement de liquide qui permettent d’assurer la manipulation avec reproductibilité de volumes de l’ordre du millionième de litre.
Figure 3 : Plate forme robotique de test biologique à haut débit
Ce criblage à haut rendement n’est possible que par la mise en place d’un laboratoire faisant appel aux derniers développements de la robotique et de l’informatique (Figure 3). L’unité de base de travail du système est une plaque de microtitration qui suivant la configuration permet le test de 96 à 1034 produits de façon simultanée.
Le protocole correspondant au test à effectuer est programmé grâce à un logiciel spécialement développé. Chaque étape de ce protocole est apprise par le système et la localisation précise et l’accessibilité des différents appareils est définie pour le bras robotique. Ces systèmes effectuent les tâches répétitives d’un test biologique comme la distribution des réactifs et des composants biologiques, les incubations, la filtration le séchage, et la lecture des résultats et assure le débit de plusieurs milliers de mesures par jour sur une cible biologique sélectionnée. Grâce à un outil informatique puissant l’analyse du flux très important d’informations provenant de ces programmes de criblage permet d’établir des corrélations rapides entre structures chimiques et activité biologiques.
Les molécules actives ainsi identifiées lors de ces premiers tests sont utilisées comme modèle pour concevoir et synthétiser de nouvelles familles de molécules plus actives et plus sélectives pour la cible biologique considérée. Cette approche itérative est effectuée jusqu’à l’obtention de composés ayant le profil d’activité recherché. L’objectif est d’identifier rapidement un candidat médicament qui pourra être testé sur des espèces animales et éventuellement lors d’essais cliniques chez l’homme.
Les technologies de test à haut débit sont en pleine évolution et aujourd’hui elles s’étendent à des domaines de complexité croissante. En effet, l’objectif est de pouvoir réaliser des mesures d’activités d’une même molécule sur différents paramètres cellulaires avec la même rapidité et reproductibilité que sur des composants biologiques isolés comme les récepteurs et les enzymes. Ces techniques sont basées sur de l’application des marqueurs de fluorescences dans les tests biologiques et sur le développement d’algorithmes de traitement d’image. En réponse à des stimuli particuliers plusieurs mécanismes intracellulaires peuvent être analysés comme l’internalisation de récepteurs, le trafic intracellulaire, l’activation de certains gènes et bien sur la viabilité et la motilité cellulaire.

Conclusion
Les informations provenant des programmes de séquençage du génome humain nous permettent de prédire que celui ci est composé de 100 000 à 120 000 gènes. L’identification de la structure et de la fonction de ces gènes représente un challenge sans précédent. De l’étude de leur structure et de leur fonction pourront naître 5 000 à 10 000 nouvelles cibles biologiques potentielles pour le développement de futurs agents thérapeutiques. C’est pour pouvoir relever ce défi, que les laboratoires de recherche s’emploient à développer et à mettre en place un grand nombre de technologies innovantes.

 

VIDEO       CANAL  U         LIEN


 ( si la vidéo n'est pas visible,inscrivez le titre dans le moteur de recherche de CANAL U )

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 ] Précédente - Suivante
SARL ORION, Création sites internet Martigues, Bouches du Rhone, Provence, Hébergement, référencement, maintenance. 0ri0n
Site réalisé par ORION, création et gestion sites internet.


Google
Accueil - Initiation musicale - Instruments - Solf�ège - Harmonie - Instruments - Musiques Traditionnelles - Pratique d'un instrument - Nous contacter - Liens - Mentions légales / Confidentialite

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon