archée
                 • • •  revue d'art en ligne : arts médiatiques & cyberculture


Génomique et transcriptomique, une histoire en train de s’écrire.

Pascal Barbry

section cybertheorie

Pascal Barbry, directeur de l'Institut de Pharmacologie Moléculaire et Cellulaire de Sophia-Antipolis, a participé au cycle de conférences « le vivant et l’artificiel » (2008 MAMAC Nice France) consacré aux enjeux de l’art et de l’esthétique dans le contexte du développement des biotechnologies. Brigitte Mathis, coordinatrice de la programmation, a retranscrit son intervention en évoquant les perspectives liées à la génomique et la transcriptomique.

Pour entrer dans le vif du sujet et aller directement à ce que je crois profondément, je vais prendre l’exemple suivant : il nous serait impossible de digérer si nous n'avions pas, dans notre intestin, des bactéries qui participent au processus de digestion. Ceci révèle le fait que nous sommes symbiotiques avec de nombreux autres organismes. En tant que tels nous ne sommes pas simplement humains, nous sommes aussi autres choses. Cette notion est intéressante et devient de plus en plus importante à notre époque, précisément avec tout ce qui s'est passé récemment en biologie.

L'objet de mon exposé va être de vous faire « un déballage » quelque peu technique de ce qu'on est capable de faire aujourd’hui dans ce domaine, en utilisant un vocabulaire en « ique » pour nous ramener à l’idée évoquée précédemment, idée qui peut effectivement donner un sens précis au concept de la vie, grâce aux approches technologiques.

Génomique, transcriptomique et autres « iques » sont des mots à la mode. Lorsqu’on s’intéresse au génome (ADN) il s’agit de génomique, lorsqu’on s’intéresse à l’échelon intermédiaire que sont les ARN, il s’agit de transcriptomique, si on s'intéresse aux protéines, c’est alors de la protéomique que l’on parle, et si on s’intéresse au produit de ces protéines, on est dans la métabolomique 1. À ceci il faut évidemment ajouter la bio-informatique qui joue aussi un rôle important. En réalité, en arrière-fond de ces technologies, les notions de base sont assez simples à appréhender, mais elles nous projettent souvent dans des dimensions vertigineuses.

Cet alphabet élémentaire qui nous constitue. 

Pour présenter les lois fondamentales de la biologie, considérons l'ADN qui est ce noyau dans lequel se trouve l’information génétique. Cet ADN peut être transcrit en ARN, et cet ARN peut être traduit en protéines. La voie royale, telle qu'elle avait été annoncée par Jacques Monod 2 est que les informations génétiques contenues dans l’ADN, situé dans le noyau de la cellule, sont lues par un système qui permet de transférer chacune de ces informations aux lieux mêmes (dans la cellule) où elles sont attendues, afin de fabriquer des protéines aptes à réaliser chacune un certain travail. Il y a un nombre fini de gènes chez l'homme, d’un ordre de grandeur de 30 milliers. La cellule peut fabriquer un nombre considérable de protéines du fait que des petites modifications peuvent se produire durant la transcription d’un gène, dans ce cas « l’épissage alternatif » permettra d’obtenir des versions différentes mais malgré tout très proches de la même protéine 3. Mais lorsqu'on regarde un système aussi simple que celui-là, il y a des choses vertigineuses qui arrivent. Si on débobine tout l'ADN contenu à l’état naturel dans le noyau cellulaire d’une taille de deux à trois microns, on obtiendra une double chaîne linéaire de deux mètres. On peut imaginer que la cellule a déjà fait un travail considérable pour réussir à agglomérer tout cela sous la forme d’une « pelote », en gardant accessible uniquement ce qui est important pour elle dans son contexte particulier, qui n’est pas forcément le même s’il s’agit d’une cellule sanguine, d’une cellule nerveuse ou d’une cellule musculaire. En arrière-fond il y a des choses extrêmement importantes que l'on peut imaginer et qui vont faire que la protéine que j'ai décrite, sur la droite du schéma ci-dessus, sera effectivement localisée à cet endroit précis de la cellule et non pas ailleurs. Des choses similaires se produisent concernant les ARN, elles sont en train d’être mises en évidence actuellement par les chercheurs. Cela ouvre sur une complexité supplémentaire du système.

Crick 36 ans et Watson 24 ans devant la maquette de l’ADN

La structure des deux mètres d’ADN est bien connue et a été clarifiée dans les années 1950-1960 par Crick et Watson 4. Il est étonnant de voir que cet alphabet élémentaire qui nous constitue soit si mal connu du grand public alors que c’est à partir de lui que l’on est fait ! Il est composé de quatre entités chimiques, quatre bases représentées par les lettres A, T, C et G qui servent à écrire un code de quelques gigas, soit un milliard de nucléotides qui vont s’enchaîner pour former un génome humain avec la particularité que ces quatre bases sont capables de réagir entre elles. Représentées, sur le schéma ci-dessous, on voit les deux chaînes qui constituent l’ADN. On observe qu’elles sont face à face et qu’il y a toujours une lettre A en face d’une lettre T et une lettre C en face d’une lettre G. Cela signifie que si on connaît une chaîne on peut ainsi obtenir la deuxième. C’est un avantage qui a permis notamment de mettre en place le système de réplication, puisque finalement on peut copier à l'identique : il suffit de débobiner, de séparer les deux brins et d’apporter des oligonucléotides, qui compléteront spontanément en une image parfaite chacun des deux brins, pour obtenir deux unités de la molécule d’ADN initiale.


Ces explications tentent de simplifier la compréhension du processus. La séparation de deux fils de deux mètres, pour créer une nouvelle bride, peut poser quelques problèmes, mais la cellule dispose de toute une panoplie d'enzymes, de petits ouvriers, qui sont capables de contribuer au bon déroulement de ce dédoublement, et en effet cela fonctionne assez bien.

LaPCR : la technique initiale de l’élaboration du séquençage des gènes. 

Kary Mullis

L'une des techniques majeures de la biologie moléculaire inventée dans les années 1980 par Kary Mullis porte le nom de « Polymerase Chain Reaction » ou PCR. Cette technique est basée sur un principe extrêmement simple qui consiste à utiliser une logique d’amplification exponentielle (de puissance N) par exemple : « si je réplique une première fois un gène, j’obtiendrais 2 copies, deux fois j’en obtiendrais, quatre, je vais ainsi avoir à la fin une quantité énorme de chaînes d'ADN. Kary Mullis a eu le prix Nobel de chimie pour l’invention de cette technique. C’est grâce à la PCR qu'il a été possible de commencer à construire des cartes de plus en plus précises du génome humain et de faire des analyses d'empreintes d’ADN, notamment en médecine légale. Cela a eu aussi un certain succès dans le monde, puisque dans les années 1990 même le film Jurassik Park évoque le fait que les dinosaures sont reconstitués par PCR à partir d'un échantillon de sang contenu dans un morceau d’ambre. Ce fut donc la première technique qui a conduit à une élaboration de plus en plus systématique et rationnelle du séquençage des gènes. On avait la possibilité de récupérer très rapidement des informations sur des gènes qui avaient une importance particulière, par exemple, le gène de l'insuline, et ceux responsables de maladies génétiques. Les gènes étudiés et toutes les informations ont finit par fournir un système relativement cohérent qui a été utilisé par la suite dans des projets de plus grande ampleur.


Représenté par les schémas ci-dessus, la réaction chimique de la PCR, qu'il est important de bien saisir, se passe ainsi : on a un fragment d'ADN, un morceau double brin, composé de sa séquence et de son inverse complémentaire (en haut et en bas sur le schéma) sur lequel on provoque une série d’événements. On commence par chauffer la solution qui le contient, ceci provoque un décollement des deux brins, ensuite, on rajoute des petites séquences (connues sous le nom de primers) qui se fixeront aux bouts de chacun des deux brins séparés de la séquence. Il suffit ensuite de descendre de quelques degrés la température pour leur permettre de s'attacher à chacun des monomères (ou brins) suite à cela une enzyme – une polymérase issue d'une bactérie qui vit à très haute température – va combler l'espace vide avec les oligonucléotides 5 adéquats et ainsi permettre de reproduire en double et à l’identique ce fragment d’ADN du départ. Ce processus renouvelé une trentaine de fois permet d’obtenir un milliard de copies de ce morceau d’ADN en deux heures et nous amène à une échelle suffisante de quantité de matières manipulable.

Le séquençage du génome humain 

L’apparition de la technique de PCR fut considérable. Elle a généré, dans les années 1990, le désir de réaliser le séquençage du génome humain, qui, au moyen de cette technique était un projet délirant. À l’époque je m’opposai à cette idée, je trouvai cela insensé et je pensai même que l’idée venait de gens qui avaient acheté des séquenceurs et cherchaient à les rentabiliser. Je trouvai que cela représentait des dépenses considérables pour peu de résultats. Mais, malgré tout, les 50 millions de dollars dépensés pour décrypter le génome humain, ont permis de créer une cartographie de référence, grâce à laquelle on a pu comparer tous les nouveaux cas qui se sont présentés. A posteriori, il est certain que cela a été une avancée majeure. On observe ainsi ces dernières années, une évolution et une course aux technologies. Dans les années 1975 Sanger 6a inventé une méthode de séquençage selon une technique, nécessitant d’immenses gels (comme support physique) qui permettait d’identifier les différents oligonucléotides constituant le gène étudié, on pouvait ainsi « reconstruire » la séquence. Cette technique se réalisait à la main et on réussissait à obtenir 500 bases dans une journée 7. Puis il y a eu des systèmes par électrophorèse capillaire qui, ont permis d’automatiser cette technique. Ce type d'appareil existe encore dans notre laboratoire et on l’utilise pour faire quelques dizaines ou centaines de milliers de bases chaque année. Ensuite est apparue une nouvelle génération d’appareils avec des systèmes relativement proches des puces à ADN. On peut ainsi gérer deux giga bases dans seule une expérience, ce qui est sensiblement le format de la taille d'un génome humain. Ceci est très important parce que cela signifie que, dans cinq ou dix ans, on sera capable de faire la même expérience que le séquençage « à 50 millions de dollars » pour un coût de 1000 dollars, ou mille euros ! On séquencera probablement le génome de chaque patient atteint d’un cancer pour repérer exactement toutes les anomalies qu'il présente. On pourra, éventuellement, retirer des informations qui permettront d’établir le type de traitement nécessaire à soigner sa maladie.


Revenons à ce que l’on a évoqué au début de cette présentation : le plus important n’est pas uniquement l’humain, mais la perception de la biodiversité, de tout ce qu’elle contient, et de ce tout ce que l’on peut en appréhender. Si l’on va sur certains sites comme ceux du NCBI ou de Ensembl , –sites américain ou européen dans lesquels ces informations génomiques sont stockées, – on ne trouvera pas que les génomes de Crick et de Watson – tous deux superstars de la biologie moléculaire qui ont été séquencés entièrement– on y trouvera également le génome de 73 eucaryotes, de 556 bactéries, de 51 archées, de 1500 virus séquencés entièrement. On constate ainsi que la perception de la biodiversité qu’on a, n’en est qu’à son stade embryonnaire. Les informations ne sont pas encore tout à fait mises en relief, mais c'est une dimension intéressante de la recherche et, à l’aide de ce type de projets, on aura très probablement une vision plus complète de ce qu’il peut se passer dans le vivant. À l’aide de ces méthodes, certains projets se sont développés qui consistent à répertorier tous les types de bactéries présents dans des stations d’épuration d’eau ou bien dans la mer. Des informations très intéressantes apparaissent qui renvoient à la notion que dans le vivant tout est « possible », que la nature utilise toutes les combinaisons qui fonctionnent même si certaines s’avèrent négatives pour l’homme.


De nouveaux outils, les puces à ADN ou bio-puces. 

Ainsi malgré les critiques portées à l’endroit du séquençage, on a fini par comprendre que quelque chose de formidable s'était passé. C’est-à-dire qu'on avait effectivement la possibilité de concevoir et d'appréhender les problèmes biologiques d'une façon un peu différente que celles qui avaient été utilisées jusqu'à présent. Pendant des années on était très finaliste. On avait un petit système et on avait chacun notre molécule. J’ai passé quinze ans de ma vie à faire des expériences sur quatre ou cinq gènes, j’ai fait des choses honorables mais j’avais placé ces cinq gènes au centre d’un univers, en disant qu’ils pouvaient tout faire, ils étaient effectivement associés à des maladies génétiques, à des problèmes d’hypertension artérielle et à des tas de choses différentes. Mais, à force de les observer, j’étais incapable de regarder ce qu'il y avait autour. Avec le séquençage du génome complet on est arrivé à la situation où l’on pouvait décemment imaginer fabriquer des petites « étiquettes » capables de reconnaître chacune des molécules et chacun des gènes.


C'est à partir de là qu'est apparue l'idée des puces à ADN. Il y a de l'ordre de 300 000 copies d’ARN dans une cellule humaine, elles reflètent l’expression génique de cette cellule, dans une situation donnée. Pour répertorier les gènes exprimés et les proportions de leurs expressions, et apporter également en tant que moyen de visualisation des images interprétables, permettant les comparaisons avec d’autres situations (physiologiques ou pathologiques), des nouvelles technologies sont apparues. Ce sont les nanotechnologies et, notamment, les mécanismes utilisés pour fabriquer des circuits intégrés qui ont été appliqués directement aux biotechnologies par une société qui s'appelle Afflymetrix. Cette compagnie a utilisé des supports de verre. Pour les fabriquer, on utilise des systèmes de cache exactement comme pour fabriquer les semi-conducteurs et on synthétise, par étapes chimiques successives, des séquences précises d’oligonucléotides que l’on dépose chacune dans un des « nano puits » réalisés à la surface de la lame. On a ainsi des centaines de milliers de sondes de gènes, qui sont capables de correspondre chacune à un ARN ou à un acide nucléique différent. On est capable au bout du compte de récupérer une information sur l'ensemble de toutes les séquences qui seront ensuite déposées sur ses plaques. Il suffit, dans un deuxième temps, de venir, appliquer les échantillons qui nous intéressent d’étudier, comme dans cet exemple où un ARN, purifié à partir une cellule de malade et un ARN purifié à partir d'un ARN de référence, eux-mêmes marqués avec des molécules fluorescentes. Ces ARN pourront se coller aux séquences correspondantes présentes sur la lame 8. C’est le principe général des puces à ADN et à partir de cela, on fait une opération fascinante où la complexité du vivant est projetée sur un espace fini. Cet espace est de dimension 25 000, 30 000 ou100 000, et correspond à autant de sondes que l'on a déposées. Ce qui est merveilleux c’est que cette technique, permet de rendre accessible à un formalisme mathématique une situation vivante et très complexe, composée de 30 000 à 100 000 données différentes par cas.

Les voies ouvertes sur la lecture des gènes et de leur expression. 

Les techniques utilisées auparavant dans les laboratoires nécessitaient plusieurs jours pour analyser un seul gène alors qu’actuellement, en un seul jour, on peut analyser l'ensemble d'un génome d'humain ou de souris sans avoir recours à une instrumentation délirante. On a, sur le schéma ci-dessous, tout ce qu'on a besoin pour permettre des analyses compliquées. La présence d’un gène se visualise par une émission fluorescente à l’endroit où la séquence correspondante connue a été fixée sur la puce. L’appareil de lecture des biopuces récupère des niveaux de signal et nous propose ce que l’on voit sur l’image ci-contre : ici on compare deux substrats, sur la même sonde, lorsque l’un des deux s’accroche, le spot est vert, lorsque c’est l’autre, il est rouge, lorsque les deux s’accrochent, il apparaît en jaune. Cette détection de niveau d'expression est assez fiable. Avec ces technologies, on observe que les acides nucléiques sont un monde en soi accessible par plusieurs entrées possibles. Et si l’on s’intéresse aux mécanismes dynamiques qui se produisent dans une cellule, on portera l’analyse sur les ARN. Par exemple, si on traite une cellule avec de l'aspirine ou si on ajoute un sucre pour la nourrir ou un autre traitement de ce genre, on peut obtenir des indications sur l’évolution de son métabolisme, sur sa prolifération, ou sur sa mort, grâce à des indications fournies par les ARN dont l’expression sera altérée, c’est-à-dire qu’elle sera augmentée ou diminuée .


Autre approche du monde des acides nucléiques, la lecture de l'ADN donne une image un peu plus stable de ce qui peut se passer dans la cellule. Dans certaines maladies génétiques des morceaux d'ADN seront absents, c’est le cas de la myopathie de Duchenne où il manque des énormes séquences géniques et des parties de chromosome, mais il est possible d'identifier ces altérations au niveau de l'ADN et de permettre d’établir un diagnostic. Ces anomalies sont repérées depuis de nombreuses années par caryotypage mais cette méthode est compliquée à réaliser. Une longue formation est nécessaire afin qu’un technicien soit capable de faire ce genre de manipulation correctement, car cela demande plusieurs mois et le résultat exige une interprétation souvent difficile à faire. Par contre, les techniques des biopuces sont automatisables. Cela veut dire qu’au lieu d'avoir un laboratoire de vingt personnes, qui font des observations au microscope dans des conditions pénibles, on aura une structure différente, beaucoup plus légère qui sera capable de réaliser des diagnostics nettement plus précis.


D’autre part ces altérations peuvent être beaucoup plus subtiles et la maladie peut être provoquée par une mutation ponctuelle et non repérable par le caryotypage. Par exemple, la forme majeure de la mucoviscidose – maladie à laquelle je me suis longtemps intéressée – présente une délétion de trois bases dans l’ADN qui enlève l'expression d'un acide aminé dans la molécule finale qui en compte normalement 1480. C'est quelque chose d'extrêmement ténu et pourtant les malades sont confrontés à une pathologie sans issue. Mais à présent, nous avons les techniques nécessaires, pour détecter ces infimes altérations. De plus c’est un moyen de détection systématique de modifications du nombre de copies d'ADN largement applicable à l'échelle génomique dans le cas, par exemple, des patients atteints de cancer : un chromosome, lorsqu’il présente un niveau normal d’expression possède deux copies pour chacun des gènes. Lorsqu’il est anormal, il présente des délétions (des copies absentes) ou des amplifications géniques (des copies en trop). Actuellement on peut obtenir une analyse quantitative d'un nombre de copies d'ADN à haute résolution et voir exactement la position sur le chromosome dans lequel il y a ces amplifications ou ces délétions, y compris dans des régions qu'on ne savait pas modifiées. On peut comparer cela avec des données cliniques et fournir un bon diagnostic et une bonne indication de médicament, en fonction de la nature des modifications génétiques observées.



Les voies ouvertes sur la classification des espèces vivantes et le décryptage des pathologies. 


Au début, on utilisait la C.G.H., c'est-à-dire l'hybridation d'ADN génomique, pour étudier la délétion de gènes entiers. En réalité, on sait très bien que dans le génome humain – comme dans ceux des autres espèces – il peut y avoir aussi des polymorphismes à l’échelon nucléotidique, les SNP (Single Nucléotide Polylorphisms) 9, c’est-à-dire il y aura une seule base qui va changer entre un individu A et un individu B et pourtant ces deux individus seront normaux et sains. Une nouvelle voie de recherche apparaît donc grâce aux biopuces qui permettent de repérer les SNP et d’observer ces différences entre les individus d’une population. En fait ces polymorphismes sont très nombreux entre deux êtres humains « identiques ». Plus de dix millions de ces polymorphismes ont été identifiés. Ils peuvent être relativement fréquents. Plusieurs études apparaissent en ce moment, dans lesquelles les vieilles lois de Mendel sont confirmées 10. Ainsi on travaille à déterminer les gènes associés au « white » et les gènes associés au « red ».


Dans une publication récente, on apprend que des scientifiques ont fait une étude impensable comme s’ils cherchaient « une aiguille dans une botte de foin ! », en fait ils ont récupéré les ADN génomiques d'une quinzaine de milliers de personnes atteintes de différentes pathologies comme des désordres neurologiques, des maladies coronariennes, la maladie de Krone et l’hypertension. Pour chaque cas ils ont cherché à repérer s’il y avait une zone (locus) particulière sur ces ADN qui pourrait être caractéristique de la maladie dont les sujets étaient atteints. Au bout de la lecture de 15 000 puces ils ont trouvé sur des loci précis des scores statistiques très forts (en vert sur le schéma), dans le cas de la  maladie de Krone, de l'arthrite rhumatoïde, du diabète de type I, et de type II. Pour d'autres pathologies par contre ils n’ont rien pu mettre en évidence, comme pour l’hypertension et les désordres bipolaires. L'utilisation de ces techniques offre des perspectives intéressantes pour l'étude du déterminisme génétique des maladies, telles l'arthrite rhumatoïde et le diabète de type I. En utilisant ces nouvelles technologies et en les combinant à d’autres types de techniques plus anciennes, on pourra bientôt rendre des diagnostics plus rapidement et donner la possibilité d'intervenir beaucoup plus efficacement dans le traitement de certaines maladies.


Pour terminer on peut ainsi relever deux faits marquants :

- Premièrement lorsqu’on analyse un grand nombre de puces, on obtient un très grand nombre de données, une quantité d'informations qui est absolument phénoménale, sur laquelle on peut travailler pendant des années. Il y a donc une nécessité à développer des outils informatiques adaptés permettant de stocker et d'organiser toutes ces données. Il s’agit aussi de constituer des bases de connaissances partageables entre laboratoires. On utilise les technologies issues du Web et nous créons des serveurs, des bases de données et des logiciels afin d’obtenir des interprétations pertinentes, tel que nous le réalisons à Mediante 11ou comme le font d’autres plateformes génomiques 12.

- Deuxièmement, il s’estavéré que dans la structure du génome humain, on considérait initialement qu'il y avait peut-être 2 à 5 % de séquences codantes sur la quarantaine de milliers de gènes et le reste était dédaigneusement appelé Junk DNA (ADN poubelle). En fait, on se rend compte, d'après les plus récents résultats obtenus que dans les Junk ADN, il y a des pépites. Cette situation est assez étonnante car c’est dans ces fractions que le biochimiste jetait, que l’on a trouvé ces nouveaux types d'ARN, dits ARN non codant et ils s’avèrent jouer des rôles tout à fait considérables dans des pathologies comme dans la maladie d'Alzheimer ou dans le cancer, lors de la phase de développement de la maladie.

En conclusion, on observe qu’unnouveau monde apparaît grâce au développement de ces nouvelles technologies et que la multitude d’informations, qu’elles nous livrent, nous permet des avancées extraordinaires en nous donnant la possibilité de construire quelque chose d’extrêmement important pour l’avenir de l’humanité.

 

NOTE(S)

1 Le Dictionary of immunology. de Miroslav Ferencík, Jozef Rovensky, Hubert Roux, Vladimir Matha, 2004, Elsevier Masson, nous donne les définitions des termes génomiques, transcriptomique et méta-bolomique.

2 En 1965, il reçoit le Prix Nobel de physiologie ou de médecine avec François Jacob et André Lwoff pour ses travaux en génétique. Il postule puis mettra en évidence l'existence d'une molécule servant de lien entre le génome (ADN) et les protéines : l'ARN messager En 1989, l'existence de la transcriptase inverse bactérienne fut confirmée par S. Inouye et W. Maas aux USA.

3 une définition et un exemple d’épissage alternatif : les produits du gène tropomyosine sur le site de l’Université Pierre et Marie Curie, la Science à Paris.

4 Dans le numéro du 25 avril 1953 de la revue Nature, deux jeunes chercheurs publiaient un petit article d'une seule page qui allait marquer le monde de la génétique et de la biologie moléculaire. James D. Watson et Francis H. Crick y décrivent leur proposition de structure pour la molécule d'Acide DésoxyriboNucléique (ADN) :… " Nous n'avons pu nous empêcher de remarquer que l'assemblage par paires spécifiques que nous postulons suggère immédiatement un possible mécanisme de copie du matériel génétique. » …Cet article est disponible gratuitement sur le site de la revue Nature.

5 Les oligonucléotides sont des courtes séquences de nucléotides (ARN ou ADN) simple brin et longs de quelques dizaines de bases. Ils sont en général obtenus par synthèse chimique.

6 Frederick Sanger réalise le séquençage du premier génome, celui d'un virus bactérien en 1977. Attribution du prix Nobel de chimie à Frederick Sanger et Walter Gilbert, inventeurs respectifs de deux techniques de séquençage en 1980.

7 La méthode de séquençage selon Sanger, sous format Power Point, réalisé par Stéphan Mazurier, Lycée Libergier, de Reims, France.

8 Lorsqu’un échantillon inconnu est introduit, il se lie aux séquences complémentaires, il suffit alors de repérer, grâce à la fluorescence, dans quelles cases l’union a lieu pour connaître quels gènes sont exprimés dans les cellules étudiées.

Le principe des biopuces expliqué sur le site de l’IFR 50 signalisation et pathologie, Biopuces à ADN [consulté le 20 juillet 2008] disponible sur http://ifr50.fr/fr/Biopuces.html

9 pour en savoir plus sur les SNP (à prononcer snip) : Université Pierre et Marie Curie, La Science à Paris, Repérage moléculaire : SNP : [consulté le 20 juillet 2008 ] disponible sur : http://www.edu.upmc.fr/sdv/masselot_05001/polymorphisme/snp.html

10 pour en savoir plus sur les lois de Mendel : Planète Gène, la génétique et vous [consulté le 20 juillet 2008] disponible sur http://www.planetegene.com/rubrique/notions-cles/historique

11 MEDIANTE, développée par K. Le Brigand et P.Barbry de l’IPMC à Nice/Sophia Antipolis constitue la plate-forme bioinformatique du programme ResoGen. Elle sert d’appui bio-informatique au projet de production de puces pangénomiques chez l’homme et chez la souris, mis en place par le Réseau National Genopole. Elle constitue un entrepôt de données transcriptome , avec un module d'annotation et de recherche sur les expériences biopuces, un module de fouille de données et un module médiateur dédié aux ontologies. L'entrepôt de données permet de stocker et d'organiser toutes les données représentant la mémoire d'expériences d'analyse du transcriptome (MEAT) sur les puces du réseau national. Le module MEAT-Annot&Search permet de constituer une base de connaissances consistant entre autres en une base d’annotations sémantiques sur ces expériences (en particulier sur l’interprétation de leurs résultats) ou sur des articles de référence utiles pour l’aide à l’interprétation des résultats de ces expériences. Le module de fouille (MEAT-Miner) fournit des outils d'extraction de connaissances intégrant les informations mémorisées dans MEAT pour l'analyse des résultats d'expériences. Le module médiateur (MEAT-Onto) gére les ontologies locales nécessaires aux deux modules précédents.

12 Comme par exemple la plate-forme de bio-informatique de la génopole Montpellier Languedoc Roussillon.

 

NOTICE BIOGRAPHIQUE

Pascal Barbry

Pascal Barbry est directeur de l'Institut de Pharmacologie Moléculaire et Cellulaire, Unité Mixte de Recherche (CNRS etUNS), situé sur le Site de Sophia-Antipolis. L'IMPC a un effectif de 156 personnes composé de 81 chercheurs 52 ingénieurs, techniciens, administratifs et 23 étudiants, répartis sur 17 équipes de recherche. Les activités de l'équipe « Physiologie Génomique des Eucaryotes » de Pascal Barbry portent sur la « transcriptomique expérimentale » et les développements méthodologiques autour des puces à ADN produites par une plate-forme et des outils de fouille de données associés. La plate-forme, identifiée par le Réseau National des Génopoles, le RIO (Réunion Inter Organismes, qui regroupe le CEA, le CNRS, l'INRA et l'INSERM), et la Canceropôle PACA , a été certifiée ISO9001 version 2000 pour la fabrication et l'hybridation de puces à ADN en juin 2006. Elle procède aussi à la fabrication de puces pangénomiques et a élaboré une puce comportant l'ensemble des séquences connues de miRNA matures, toutes espèces confondues (~1500 séquences distinctes, couvrant l'ensemble des séquences matures de miRNA. Toute l'information associée à ces sondes est accessible librement sur une base de données baptisée Mediante . Par l'analyse de profils d'expression génique, nouvel outil d'étude du génome pour déchiffrer la diversité biologique et clinique des pathologies, l'équipe de P. Barbry, fournit un cadre au diagnostic moléculaire des cancers hématologiques44. L'obtention d'une quantité importante d'informations dans le cadre de ses approches transcriptomiques a rendu nécessaire la mise en place d'outils de fouille de données. Cette approche s'appuie sur les technologies du web sémantique pour extraire des connaissances à partir de documents textuels fournis par les utilisateurs, en se basant sur des ontologies existantes ou des annotations sémantiques d'articles scientifiques.

 

SITE(S) CONNEXE(S)

La plateforme transcriptome de Nice-Sophia antipolis : Microarray [consulté le 20 juillet 2008] disponible sur : http://www.microarray.fr/index.php?action=projet.

Linus Pauling and the Race for DNA, l’histoire documentée de l’ADN. Grâce à plus de 800 documents numérisés, des photographies, des extraits audio et des extraits vidéo, ce site raconte les détails à bout de souffle de la poursuite de la découverte de la structure en double hélice de l'ADN [consulté le 20 juillet 2008]. Disponible sur : http://osulibrary.oregonstate.edu/specialcollections/coll/pauling/dna/index.html

Ensembl [consulté le 20 juillet 2008]. Disponible sur http://www.ensembl.org/index.html

NCBI [consulté le 20 juillet 2008]. Disponible sur http://www.ncbi.nlm.nih.gov/

ADN : qui quoi où quand pourquoi comment et combien … Une nouvelle ère pour l’ADN. Un blog créé dans le cadre du Diplôme Universitaire de Journalisme Médical de l'université Paris Descartes.

Glossaire :

Quelques définitions issues du Glossaire de génétique moléculaire - INRIA Rennes. [consulté le 20 juillet 2008] disponible sur  http://www.inra.fr/agenae/glossaire.pdf

Allèle : l'une des séquences alternatives possible (variant génétique) de l'ADN à une position donnée (locus). L'ensemble des allèles possibles en un locus traduit le polymorphisme de ce locus. Chez les organismes diploïdes, un allèle est hérité du père, l’autre de la mère.

Amorce (primer) : court fragment d’ADN (oligonucléotide) qui, hybridé avec une molécule simple brin d'acide nucléique, permet à une enzyme (polymérase) d'initier la synthèse du brin complémentaire. Utilisée en particulier dans des réactions de PCR et dans la synthèse d’ADNc.

ARN messager ou ARNm (messenger RNA ou mRNA) : molécule d’ARN simple brin synthétisée à partir d’une séquence d’ADN (transcription) correspondant à un gène. Après différentes étapes de maturation elle permettra la synthèse d’une protéine (traduction) correspondant au gène de départ.

Base : un des constituants des nucléotides, eux-mêmes constituants des acides nucléiques (ADN et ARN). C’est sur cette molécule que repose l’identification du nucléotide et par suite celle de la succession des nucléotides d’un fragment d’acide nucléique (séquence).

Caryotype : représentation et ordonnancement (selon leur taille) des chromosomes du noyau d'une cellule, obtenus par microscopie ou microphotographie.

Épissage (splicing) : processus de maturation de l’ARN après sa synthèse à partir de l’ADN (transcription) conduisant à l’ARN messager. Cette étape élimine certaines parties de la séquence du gène appelées introns et accole les parties restantes appelées exons.

Locus (au pluriel, en toute rigueur, loci) (locus, loci) : région sur la molécule d’ADN (chromosome). La taille de cette région peut être quelconque (de 1 à des centaines de nucléotides).

Nucléotide : élément de base d’une molécule d’acide nucléique (ADN ou ARN), constitué d’un sucre (ribose pour l'ARN et désoxyribose pour l'ADN), d'un groupement phosphate et d'une base azotée. Il existe quatre nucléotides différents pour l'ADN, définis selon la base azotée qu’ils contiennent : adénine (A), thymine (T), guanine (G), cytosine (C) et quatre nucléotides différents pour l'ARN : uracile (U), guanine (G), cytosine (C), adénine (A). La séquence d’une molécule d’acide nucléique est définie par la succession des bases résultant de l'enchaînement des nucléotides de la molécule.

Oligonucléotide : court fragment d’ADN, constitué de quelques (une ou plusieurs dizaines) molécules élémentaires (nucléotides).

 

ARTICLES COMPLÉMENTAIRES

Robin Meier - 10/2008 Fish, installation pour poissons vivants et ordinateurs : l'interaction et l'apprentissage entre le vivant et l'artificiel.

Józef Bury - 10/2008 La culture cybernétique et les démarches expérimentales dans l'art des pays de l'Est. L'exemple de la Pologne

Marcin Sobieszczanski - 10/2008 Humain, transhumain ! Banalisation du dépassement de l'espèce humaine

Norbert Hillaire - 10/2008 Présentation du thème « le vivant et l’artificiel»

Paul Antoine Miquel - 10/2008 La rationalité aux limites et les limites de la rationalité : la question de l’intégrité et de l’existence de l’espèce humaine.*

Frédéric Alemany - 06/2008 Azimuth, installation interactive et comportementale

Jens Hauser - 06/2008 Art biotechnique : Entre métaphore et métonymie

Daniel Aberdam - 06/2008 Cellules souches embryonnaires humaines : entre modèle du développement embryonnaire et potentiel en thérapie cellulaire. Espoirs, limites et éthique.

Brigitte Mathis et Marcin Sobieszczanski - 06/2008 Présentation du thème « le vivant et l’artificiel »

Anne de Brugerolle - 06/2008 SkinEthic, reconstruction cellulaire et bio ingénierie tissulaire

Mathilde Tassel - 06/2008 « sk-interfaces », « la peau comme interface »

 

haut de la page / retour à la page d'accueil /

 


 

Cette publication a été rendue possible grâce au soutien financier d'Hexagram, du groupe de recherche des arts médiatiques (GRAM), de la Faculté des arts de l'UQAM, de la Chaire du Canada en esthétique et poétique de l'UQÀM (CEP), ainsi qu'à une subvention, pour une quatorzième année consécutive, du Conseil des arts du Canada (CAC).