Vers le site Automates Intelilgents
La Revue mensuelle n° 99
Robotique, vie artificielle, réalité virtuelle

Information, réflexion, discussion
logo admiroutes

Tous les numéros


Archives
(classement par rubriques)

Image animée
 Dans La Revue
 

Retour au sommaire

Automates Intelligents s'enrichit du logiciel Alexandria.
Double-cliquez sur chaque mot de cette page et s'afficheront alors définitions, synonymes et expressions constituées de ce mot. Une fenêtre déroulante permet aussi d'accéder à la définition du mot dans une autre langue (22 langues sont disponibles, dont le Japonais).

 

Article
Une approche darwinienne de l'ontogenèse
par Jean-Jacques Kupiec,
Centre Cavaillès, Ecole normale supérieure
07/09/2009

Jean-Jacques Kupiec est l'auteur de "L'origine des individus", editions Fayard. Le temps des sciences (2008).
La version anglaise de l'ouvrage est parue sous le titre "The Origin of Individuals chez World Scientific", en mars 2009.
Nous Jean-Jaques Kupiec de cet article.

Automates Intelligents

1 Introduction : L'ordre par l'ordre.

Depuis ses débuts la génétique a été dominée par un déterminisme strict. Au XIXe siècle, pour Weismann, il existait une structure moléculaire contenue dans le noyau des cellules qu'il appelait le plasma germinatif déterminant entièrement les propriétés des êtres vivants. Pour Mendel et Morgan les gènes étaient censés gouverner les caractères héréditaires d'une manière tout aussi rigoureuse. Ce déterminisme fut ensuite adopté par les biologistes du XXe siècle et l'analyse qu'en fit Schrödinger dans son livre « Qu'est-ce que la vie ? » (1944) eut une influence prépondérante sur le développement de la biologie moléculaire. Dans la première partie de son livre il souleva la question de l'origine de l'ordre dans les systèmes naturels et il en conclut qu'il existe une différence fondamentale entre la physique et la biologie portant sur les principes premiers de ces sciences. Selon lui la physique serait soumise à un « principe d'ordre à partir du désordre » alors qu'un « principe d'ordre à partir de l'ordre » régirait la biologie.

Au niveau microscopique les molécules des systèmes physiques sont soumises à l'agitation thermique et donc au hasard brownien. Mais, à notre niveau macroscopique les mêmes systèmes peuvent être décrits par des lois déterministes. Cela est dû au nombre immense de particules impliquées dans ces systèmes. Du fait de la loi des grands nombres, la variabilité devient négligeable et le système semble se comporter de manière déterministe alors que les lois sous-jacentes sont probabilistes. Toute la physique statistique fonctionne selon ce schéma. La diffusion fournit un exemple caractéristique. Les molécules et les atomes individuels se déplacent par une marche au hasard mais au niveau macroscopique la diffusion est décrite par les lois déterministes de Fick. Un tel « principe d'ordre à partir du désordre » peut-il également fonctionner en biologie ? Selon Schrödinger et les biologistes moléculaires la réponse est négative. Du fait de leur nombre trop petit, si les molécules biologiques étaient soumises au hasard brownien la variabilité des phénomènes physiologiques serait trop grande, incompatible avec la très grande précision et la reproductibilité qui les caractérisent. Il doit donc exister, selon Schrödinger, un « principe d'ordre à partir de l'ordre » qui permet aux protéines d'échapper au hasard brownien et de se comporter de manière très précise. Ce principe correspond à ce que nous appelons aujourd'hui l'information génétique. Ainsi, les molécules biologiques, au lieu de se comporter de manière purement statistique comme celles d'un système physique, seraient dirigées d'une manière strictement déterminée par les instructions correspondant à cette information génétique contenue dans les gènes.

Un tel principe soulève immédiatement la question des modalités concrètes de la mise en œuvre de l'information génétique. Par quel processus matériel l'organisme virtuel codé dans les gènes est-il transformé en un être réel ? Comment les signaux biologiques véhiculent-ils l'information ? Schrödinger suggéra l'existence de lois physiques particulières à la biologie mais à partir des années 1960, ce fut la propriété d'auto-assemblage sétéréospécifique des protéines qui fut mise en avant par les biologistes moléculaires pour régler ce problème. La propriété de stéréospécificité induirait des interactions moléculaires rigoureusement ordonnées. De par les contraintes de forme et de charge électrique liées à leur structure tri-dimensionnelle, les protéines se reconnaîtraient et interagiraient spécifiquement, comme les pièces d'un puzzle, chaque protéine n'ayant qu'un seul partenaire moléculaire, ou un nombre défini très limité, excluant ainsi toute possibilité combinatoire et tout hasard dans ces interactions (Figure 1). Or, la structure tridimensionnelle des protéines dépend de leur séquence en acides aminés et celle-ci dépend elle-même de la séquence en nucléotides de l'ADN. L'information génétique contrôlerait ainsi les processus biologiques par l'intermédiaire de ces phénomènes d'interaction moléculaire spécifique. Cette propriété d'auto-assemblage stéréospécifique a d'abord été proposée par Caspar et Klug (1962) pour expliquer la morphogenèse de particules virales, puis elle a été utilisée pour expliquer tous les phénomènes de morphogenèse cellulaire. Mais, son utilisation a été encore plus générale puisqu'elle sert aussi d'explication aux phénomènes de régulation de l'expression des gènes et de la signalisation cellulaire. Selon cette conception, des réseaux de gènes ou de protéines dont la structure dépend des propriétés d'interactions spécifiques entre ADN et protéines ou entre protéines expliqueraient le fonctionnement des cellules. Le modèle de régulation spécifique de l'opéron lactose chez la bactérie E. Coli proposé par Jacques Monod et François Jacob au début des années 1960 (Jacob et Monod, 1961) constitue le point de départ de cette conception. Dans ce modèle strictement déterministe, un gène est actif ou réprimé selon qu'il interagit spécifiquement avec une protéine activatrice ou un répressive. Par complexification de ce modèle, le programme génétique des organismes pluricellulaires a été conçu comme une cascade de tels signaux spécifiques « on » ou « off » régulant séquentiellement l'activité des gènes et constituant l'équivalent de circuits cybernétiques (Monod et Jacob, 1961). La signalisation cellulaire quant à elle est expliquée par le même type de mécanisme. Les signaux activent des récepteurs cellulaires qui déclenchent des cascades d'interactions moléculaires intracellulaires aboutissant à la réponse de la cellule, la spécificité de cette réponse dépendant de la spécificité des interactions moléculaires. Ainsi dans cette théorie, l'organisation biologique, la précision des mécanismes cellulaires et la reproductibilité de l'ontogenèse sont assurées par cet ordre moléculaire sous-jacent. Le principe de l'ordre par l'ordre de Schrödinger s'incarne par la constitution des ces réseaux de protéines qui expliqueraient tous les phénomènes du vivant au niveau macroscopique.

Figure 1 : Stéréospécificité et réductionnisme génétique.
A. la propriété de stéréospécificité met en œuvre le principe de l'ordre par l'ordre: comme dans un puzzle les protéines se reconnaissent spécifiquement selon leur forme et leur charge électrique. A partir d'un ensemble donné de protéines, une seule structure (phénotype) peut se former. B. Ce principe est à la base du réductionnisme génétique : les gènes codent spécifiquement pour les protéines, celles-ci se reconnaissent spécifiquement et forment les cellules. A leur tour, les cellules se reconnaissent grâce aux signaux spécifiques qu'elles échangent et s'organisent en tissus, qui à leur tour forment les organes … Chaque niveau d'organisation est ainsi produit par les interactions spécifiques du niveau inférieur, du gène jusqu'au phénotype.


Cette théorie permet de comprendre la rationalité du programme de recherche de la biologie moléculaire depuis les années 1960. Puisque tout phénomène biologique correspond à une cascade d'interactions moléculaires, pour le comprendre il faut isoler au moins une molécule (ou le gène correspondant) impliqué dans ce phénomène et à partir de là rechercher les molécules partenaires avec lesquelles elle interagit pour reconstituer le réseau d'interactions moléculaires.

Dans le présent article, nous allons exposer les données les plus récentes obtenues dans l'étude des interactions moléculaires pour montrer qu'elles ne possèdent pas le haut niveau de spécificité attendu. Nous analyserons également les conséquences de ce fait expérimental pour la compréhension de l'organisation biologique. Nous serons ainsi amenés à décrire les principes généraux de la théorie de l'ontophylogenèse et ses modèles d'application au problème de la différenciation cellulaire.

2 Le manque de spécificité des protéines.

Les programmes de recherche visant à identifier les réseaux de protéines et de gènes ont permis les progrès considérables de la biologie moléculaire. Un très grand nombre de protéines impliquées dans des phénomènes normaux ou pathologiques comme le développement embryonnaire ou le cancer ont été identifiées. Parallèlement, pour chacune de ces protéines, les partenaires moléculaires ont été identifiés. Il est donc devenu possible d'évaluer si les protéines possèdent le niveau de spécificité nécessaire au bon fonctionnement des réseaux qu'elles constituent. Nous allons voir que c'est loin d'être le cas. Contrairement à ce qui était prédit, elles peuvent interagirent avec de nombreux partenaires moléculaires.

Ce manque de spécificité des protéines est vérifié pour des protéines impliquées dans tous les phénomènes biologiques. Il affecte des enzymes dans leurs relations avec leurs substrats et des anticorps ou des récepteurs de lymphocytes T dans leurs relations avec les antigènes (voir par exemple : Mundorff et coll., 2000 ; Garcia et coll., 1998 ; Sperling et coll., 1983 ; Manivel et coll., 2002 ; Amrani et coll., 2001 ; Hausmann et coll., 1999 ). De manière encore plus significative en ce qui concerne la régulation des processus biologiques et l'organisation des êtres vivants, le manque de spécificité affecte également les protéines impliquées dans la signalisation cellulaire et l'expression des gènes (voir par exemple : D'Ari et Casadesus, 1998 ; Manivel et coll., 2000 ; Guggenmos et coll., 2004 ; Dutoit et coll., 2002 ; Hunter, 2000 ; Bray, 2003 ; Moggs et Orphanides, 2001 ; Biggin, 2001 ; Nan et coll., 1997 ; etc.). Les cas décrits dans la littérature sont innombrables et il n'est pas utile de les décrire un par un. En effet, il existe aujourd'hui des données globales sur la structure des résaux de protéines qui démontrent sans équivoque le manque de spécificité des protéines. Nous allons donc exposer ces résultats globaux, nous présenterons ensuite les causes et les conséquences du manque de spécificité des protéines en les illustrant avec des exemples précis.

Les réseaux d'interactions entre protéines ont été étudiés globalement dans plusieurs organismes comme la levure, la drosophile ou l'homme (Bork et coll., 2004). On a tracé les cartes de toutes les interactions qui peuvent avoir lieu dans une cellule. Ces études des protéomes à grande échelle ne sont pas encore absolument exhaustives mais les résultats qu'elles apportent sont déjà tout à fait significatifs. Les réseaux d'interactions protéiques possèdent une structure caractérisée par une région centrale où la densité de connexion est la plus forte. Elle est constituée par environ 10% du nombre total des protéines qui peuvent se lier à des centaines d'autres partenaires. A la périphérie des réseaux la connectivité est moins forte mais sur l'ensemble des réseaux elle est en moyenne comprise entre 7 et 8. De ce fait, toutes les voies d'interactions protéiques, impliquées dans le métabolisme la signalisation ou l'expression des gènes, sont interconnectées avec de très nombreux points de contact entre elles (Barabasi et Oltvai, 2004 ; Albert, 2005).

Ces études globales confirment donc les résultats qui avaient été obtenus dans celles restreintes à des protéines particulières. Contrairement à ce qui était prédit de nombreuses protéines peuvent interagir avec de nombreux partenaires moléculaires.

3 Les causes du manque de spécificité moléculaire.

Il existe de multiples causes au manque de spécificité des protéines. Elles sont de différentes natures et elles agissent de concert.

3.1 La multiplicité des domaines d'interactions

Les protéines interagissent via des domaines d'interaction (Hunter, 2000). Ce sont des motifs structuraux correspondant en général à des séquences longues de 40 à 150 d'acides aminés. Il en existe un grand nombre correspondant à des séquences différentes. Une cause du manque de spécificité tient au fait que le même domaine peut être porté par de nombreuses protéines . La séquence codant pour le domaine appelé SH2 est présente 115 fois dans le génome humain et la séquence du domaine SH3 de est présente 253 fois (Pawson et Nash, 2003). De plus, ces domaines répétés reconnaissent souvent des séquences de liaison très courtes ne mesurant que quatre à dix acides aminés. Elles sont elles-mêmes de ce fait présentes dans une multitude de protéines qui sont autant de partenaires moléculaires possibles. Ainsi, le domaine SH3 reconnaît la séquence d'acides aminés P-X-X-P . De nombreux autres domaines d'interaction propices à de telles combinatoires ont été identifiés (Castagnoli et coll., 2004).

3.2 La plasticité des sites d'interaction

Une autre cause de non spécificité moléculaire détruit la conception que nous nous faisons d'une interaction moléculaire entre deux entités bien définies. Non seulement les mêmes domaines d'interaction sont présents dans de nombreuses protéines mais un même domaine protéique peut se lier à des ligands différents. Le domaine appelé MH2 des protéines SMAD en fournit un exemple. Ces protéines sont utilisées dans la transduction de signaux entre la membrane cellulaire et le noyau où elles modulent l'activité de plusieurs gènes. Pendant ce transfert leur domaine MH2 interagit avec de nombreux partenaires portant des séquences de liaison différentes (Pawson et Nash, 2003). Ce phénomène multiplie la combinatoire des interactions possibles et remet en cause de la vision statique de la stéréospécificité. En effet, pour un même domaine les ligands possibles peuvent être très différents par leur forme, leur taille et leur composition en acides aminés. Il y a un nombre croissant d'arguments qui indiquent que ce phénomène est dû au fait qu'un site d'interaction protéique n'est pas une entité statique mais dynamique. Sa structure tridimensionnelle n'est pas rigide mais flexible. Elle change constamment de conformation. Une protéine en solution serait en réalité une population constituée d'un mélange de plusieurs conformations en équilibre dynamique, chacune possédant une « spécificité » potentielle particulière. Les structures déduites par cristallisation ne sont en fait que des images figées qui élimine cette diversité de conformations. Dans cette perspective, ce n'est pas la structure pré-existante de la protéine qui détermine ses interactions futures mais le ligand qui stabilise une de ces conformations (Ma et coll., 2002).

3.3 Les protéines désordonnées

Il y a une cause de non spécificité encore plus radicale. Nous l'avons déjà souligné, la biologie moléculaire repose sur l'idée que les protéines possèdent une structure tridimensionnelle bien définie et que l'organisation biologique macroscopique provient de cet ordre microscopique. Ce dogme est aujourd'hui battu en brèche. Il est démontré qu'une très grande fraction des protéomes correspond à des protéines qui contiennent des régions intrinsèquement désordonnées, incapables de générer par elles-mêmes des structures secondaires. Dans ces protéines, les régions désordonnées forment en général plus de la moitié de la protéine et souvent la totalité. Elles ne sont pas accessoires. Au contraire, les protéines n'acquièrent une structure fonctionnelle que lorsque les régions désordonnées sont stabilisées grâce à l'interaction avec une autre molécule. Du fait de leur très grande plasticité, elles peuvent interagir avec de nombreux partenaires en adoptant une conformation et une fonction différentes dans chaque cas (Wright and Dyson, 1999 ; Dunker and Obradovic, 2001 ; Dyson and Wright, 2005 ; Dunker et coll., 2005). Par exemple, HMGA est une protéine nucléaire intrinsèquement totalement désordonnée. Elle joue un rôle important dans la structuration des chromosomes, de la chromatine, ainsi que la transcription d'au moins 45 gènes. Pour cela, elle interagit avec les structures chromosomiques, les nucléosomes et au moins 18 facteurs de transcription différents. Dans chacun de ces cas l'interaction avec un partenaire différent lui confère une structure fonctionnelle particulière. On peut citer un autre cas notoire. La protéine p21 est connue pour son rôle essentiel dans le cycle cellulaire. Elle inhibe différents complexes cycline-Cdk grâce à des conformations variables stabilisées par les interactions. Il ne s'agit pas de cas isolés. Aujourd'hui des centaines de cas de protéines, pouvant changer de structure et de fonction par un tel mécanisme d'interaction structurante, sont connus (Beckett, 2004). La composition en acides aminés, l'hydrophobicité et la charge électrique confèrent aux protéines désordonnées une signature caractéristique qui permet de bien les différencier des protéines structurées. Grâce à des algorithmes appropriés il est possible d'analyser des génomes entiers ou des banques de séquences protéiques et de déterminer la fraction correspondant à des protéines désordonnées. Elles forment 36 à 63 % des génomes chez les eucaryotes et seulement 7 à 33% chez les procaryotes et les archobactéries. Le désordre protéique est donc corrélé positivement avec la multicellularité (Dunker et coll., 2000). Il est aussi significativement amplifié dans les protéines de la signalisation et celles impliquées dans le cancer (Iakoucheva et coll., 2002), dans les facteurs de transcription (Liu et coll., 2006) et dans les « protéines centrales » des réseaux protéiques (Haynes et coll., 2006). Ces études démontrent que le désordre protéique n'est pas un phénomène marginal. Au contraire, il est amplifié dans la signalisation cellulaire et la transcription des gènes.

Ces protéines remettent radicalement en cause l'idée classique que nous nous faisons de la relation entre le gène, la structure et la fonction d'une protéine. Pour elles, l'ordre ne dépend pas de leur séquence codée dans l'ADN mais des rencontres qu'elles font dans la cellule. Leur structure et leur fonction ne sont pas écrites dans le génome, préexistantes et immuables, mais sont produites par les processus cellulaires en temps réel. Il n'est pas envisageable que le programme génétique puisse déterminer précisément les rencontres intermoléculaires. Certaines données suggèrent même fortement qu'il y entre une part inévitable de probabilité. Dans le cas extrême, la même rencontre intermoléculaire peut produire des effets différents parce que les deux partenaires peuvent interagir de manière variable induisant des conformations et des fonctions différentes. Le choix entre ces options semble alors aléatoire (Haarman et coll., 2003).

3.4 La spécificité n'est pas un concept expérimental

Finalement, il y a un problème épistémologique lié à l'utilisation de la stéréospécificité en tant que concept. Les protéines ne peuvent pas être spécifiques tout simplement parce que ce concept n'est pas pertinent pour décrire la réalité expérimentale. Il impose de lui-même un ordre arbitraire au regard que nous posons sur la nature, même si cet ordre n'existe pas réellement. En effet, il s'agit d'une notion qualitative alors que dans la pratique nous analysons les interactions moléculaires avec des paramètres quantitatifs. La spécificité suit la règle du « tout ou rien » ; selon le mode de pensée qu'elle impose, deux molécules sont ou ne sont pas spécifiques l'une de l'autre. Mais, le réel n'est pas conforme à cette logique aristotélicienne et à cette manière ordonnée de découper le monde de manière discontinue. Une interaction moléculaire se mesure par les constantes d'équilibre du complexe que forment les molécules. Aucune interaction n'est absolument stable. Ce qui est mesuré est la durée de vie moyenne, plus ou moins grande, du complexe entre deux événements de dissociation. Plus l'affinité est forte, plus le complexe sera stable et plus sa durée de vie moyenne sera longue. Une molécule donnée peut toujours interagir avec de nombreux partenaires avec des affinités variables plus ou moins grandes. A cause de ce caractère quantitatif et continu des affinités moléculaires, l'expérimentateur doit alors obligatoirement fixer un seuil en deçà duquel il considère l'interaction comme non spécifique. Mais, cela ne signifie pas que les interactions faibles n'existent pas et qu'elles n'ont pas lieu dans l'organisme.

Cette démarche est subjective. Elle conduit à un biais dans notre appréciation de la réalité et à une contradiction. Rien ne nous permet de décréter, a priori, qu'une interaction faible n'a pas d'effet biologique. Il se peut même qu'une interaction faible répétée souvent ait plus d'effets biologiques qu'une interaction forte se produisant rarement. Mêmes si les interactions faibles n'ont pas de conséquences physiologiques directes, par le simple fait qu'elles ont lieu, elles entrent en compétition avec les interactions fortes dont elles affectent la cinétique. Elles contribuent donc aussi à déterminer l'état d'un système biologique. Malgré cela, nous opérons toujours une sélection arbitraire qui laisse de côté les interactions faibles.

Pour s'assurer qu'une interaction est vraiment pertinente il est possible de vérifier qu'elle se produit in vivo dans son contexte cellulaire d'origine afin de laisser de côté les interactions qui ne sont détectées qu'in vitro (von Mering et coll., 2002). Mais, cette stratégie est aussi biaisée car nous ne mesurons plus la capacité intrinsèque de la protéine à former des liaisons, due à sa structure physique. D'autres facteurs présents dans la cellule participent toujours à la liaison détectée in vivo. Ce sont des cofacteurs moléculaires ou la structure de la cellule qui favorise certaines interactions.

L'utilisation du concept de spécificité conduit donc à sous-estimer les possibilités physiques d'interaction des molécules biologiques parce qu'il ne capte pas les aspects quantitatifs et continus de ce phénomène.

4 Conséquences du manque de spécificité moléculaire.

Le manque de spécificité des protéines repose avec acuité la question de l'origine de l'ordre dans les êtres vivants posée par Schrödinger. En effet, il rend les mécanismes de régulation biologique beaucoup plus difficile à comprendre. Dans le cadre du principe de l'ordre par l'ordre, nous pensions pouvoir les expliquer par des cascades linéaires d'interactions moléculaires clairement définies. Mais, cette conception se heurte au fait que les cascades d'interactions sont interconnectées entre elles grâce aux interactions multiples des protéines. On peut citer deux exemples précis pour illustrer ce problème.

Le premier exemple montre comment à partir d'un signal il y a activation de plusieurs cascades différentes qui divergent. La protéine Ras joue un rôle important dans le contrôle de la multiplication cellulaire. Elle influence aussi d'autres processus comme la différenciation et l'apoptose. Elle agit comme un relais dans le transfert de différents signaux extra-cellulaires tels que les facteurs de croissance, les cytokines ou les hormones. Dans un premier temps, on a réussi à caractériser une cascade linéaire d'interactions qui, de la membrane cellulaire jusqu'au noyau, implique successivement la protéine Raf et une série de kinases pour aboutir à l'activation du facteur de transcription Elk-1. On a alors cru avoir élucidé la chaîne causale expliquant le rôle de Ras dans la multiplication cellulaire. Mais, ce schéma simple s'est compliqué lorsqu'on a découvert que Ras n'interagissait pas uniquement avec Raf mais avec au minimum huit autres effecteurs impliqués dans plusieurs cascades activant de nombreux facteurs de transcription. Du fait de ces activations multiples, la protéine Ras a des effets pléiotropiques et son action sur la multiplication cellulaire est un processus beaucoup plus compliqué qui doit dépendre d'un équilibre précis entre tous ces effets (Campbell et coll., 1998). Mais, cela soulève une nouvelle question : comment cet équilibre est-il contrôlé ?

Si d'un côté la régulation biologique apparaît horriblement complexe, d'un autre côté elle pourrait sembler très simple. En effet, il y a relativement peu de voies de signalisation au regard du nombre énorme des signaux qu'une cellule peut recevoir et des situations auxquelles elle doit faire face. Le deuxième exemple montre comment, grâce à la multiplicité des interactions moléculaires, les mêmes voies sont réutilisées par des signaux différents pour transporter leur information et aboutir à des réponses adaptées de la cellule. Cet exemple montre aussi comment une même cascade de signaux produit des effets différents. La levure Sacharomyces cerevisae utilise trois kinases , Fus3, Hog1 et Kss1 pour répondre à la phérormone sexuelle, à la pression osmotique et induire la croissance filamenteuse. Les trois voies qui activent ces kinases partagent plusieurs parties communes faites des mêmes protéines et pourtant, selon que c'est l'un ou l'autre des signaux qui les activent, elles n'aboutissent qu'à l'une des trois réponses (Schartz et Madhani, 2004). On peut schématiser cet exemple et le problème qu'il pose (Figure 2). Trois signaux A, B, C convergent pour utiliser non spécifiquement la même voie de signalisation, puis divergent et provoquent trois réponses spécifiques A', B', C', respectivement. Pourquoi chaque signal induit-il une réponse unique au lieu des trois réponses possibles ?


Figure 2 : Le manque de spécificité dans la signalisation cellulaire.
Les voies de signalisation, faites de cascades de réactions biochimiques, partagent des parties communes. Ici, les trois signaux A, B et C activent les trois réponses A', B' et C' en passant par le même « tronc commun ». Dans ces conditions, comment le signal peut-il être véhiculé spécifiquement de sa source à sa cible ?

La même question se pose également pour la régulation de l'expression des gènes. Comment le programme génétique peut-il fonctionner si les interactions entre les protéines régulatrices et leurs séquences cibles dans l'ADN ne sont pas spécifiques ? Citons à nouveau des exemples typiques. Les séquences d'interaction entre protéines régulatrices de la transcription et leurs séquences cibles dans l'ADN ne sont longues que de six à vingt nucléotides. De nombreuses copies en sont présentes dans le génome, permettant de multiples interactions. C'est le cas des gènes Hox qui déterminent plusieurs étapes du développement embryonnaire. Les facteurs de transcription qu'ils codent activent de nombreux gènes impliqués dans la différenciation de l'embryon précoce ou des membres chez les vertébrés et les insectes. Pourtant, ces protéines ne présentent pas de spécificité au niveau de leur liaison à l'ADN. Les séquences qu'elles reconnaissent ne sont longues que de six nucléotides et à cause de leur haute fréquence elles sont présentes dans tous les gènes (Gehring et coll., 1994). De ce fait, in vitro, elles sont capables de se lier à tous les gènes alors qu'elles ne le font que dans un nombre restreint in vivo (Carr et Biggin, 1999 ; Biggin, 2001).

On peut citer un cas encore plus spectaculaire. MeCp2 est une protéine qui réprime l'activité des gènes en reconnaissant le dinucléonide CG méthylé. Cette cible est présente quarante millions de fois dans un génome de mammifère alors qu'il n'y a qu'un million de molécules de MeCp2 (Nan et coll., 1997).

L'étude systématique des protéomes montre que ce sont toutes les voies de signalisation et de régulation d'une cellule qui sont interconnectées. Le problème doit donc être généralisé au fonctionnement global des réseaux cellulaires. Comment un signal particulier peut-il induire une réponse précise au lieu d'activer toutes les fonctions cellulaires et provoquer un brouillage de tous les effets possibles ? Comment dans ces conditions la cellule peut-elle fonctionner ? Pour résoudre ce problème, on suggère en général que le fonctionnement des réseaux moléculaires est lui-même soumis à une dynamique spatio-temporelle. De ce fait, ce ne sont pas les mêmes parties des réseaux qui seraient actives en même temps aux différents points de la cellule, engendrant de cette manière des réponses spécifiques.

5 La contradiction du déterminisme génétique

Une série de mécanismes a été proposée pour expliquer cette régulation spatio-temporelle des réseaux de protéines qui permettrait de compenser le manque de spécificité des protéines.

Il y a tout d'abord la compartimentation des cellules. Les protéines, selon leur type, seraient confinées dans des compartiments cellulaires particuliers. Cela restreindrait la combinatoire des interactions possibles car certaines molécules ne pourraient pas se rencontrer. Cette compartimentation peut être amplifiée jusqu'à obtenir une micro-compartimentation grâce aux protéines « scaffold ». Ces protéines se lient avec toutes les protéines impliquées dans une même voie de signalisation. De ce fait elles se trouvent concentrées localement et réagissent préférentiellement les unes avec les autres. La séparation temporelle serait due au fait que les protéines ne s'expriment pas avec les mêmes cinétiques temporelles, certaines protéines ne sont donc pas présentes en même temps dans la cellule, ce qui restreint la combinatoire d'interactions possibles.

Un autre mécanisme invoque l'existence de combinaisons de cofacteurs ou de voies de signalisation, qui agissant de concert, permettraient une régulation spécifique et, finalement, il est aussi supposé que ces cellules peuvent répondre spécifiquement selon l'intensité des signaux qu'elles reçoivent.

L'ensemble de ces mécanismes est étayé par des données expérimentales, mais force est de constater qu'ils mettent à mal le « principe de l'ordre par l'ordre » qui est la base du déterminisme génétique. En effet ils déplacent l'explication de la spécificité biologique sur le niveau cellulaire global. Ce n'est plus le niveau moléculaire qui explique le niveau cellulaire mais l'inverse parce que tous ces mécanismes supposent qu'il existe déjà une cellule organisée exprimant des protéines de manière précise, régulée spatialement et temporellement. L'explication apportée par ces mécanismes est circulaire : l'organisation cellulaire est précisément le résultat du processus d'ontogenèse qu'il faut expliquer. Nous sommes donc confrontés ici au paralogisme finaliste classique qui consiste à inverser la cause et l'effet. Et, de fait, il s'agit d'une contradiction totale du déterminisme génétique (Figure 3).

Figure 3 : La contradiction du déterminisme génétique
A : D'après la génétique, l'état moléculaire d'un système détermine son état macroscopique.
B : Or c'est les données récentes suggèrent que c'est l'état macroscopique (phénotype), la structure cellulaire, qui contraint les protéines à interagir de manière spécifique. L'organisation provient donc de la structure macroscopique (du phénotype) et non des gènes et des protéines. C'est une négation totale du postulat fondateur de la génétique !

Aujourd'hui, il est admis qu'il existe un « bruit » aléatoire au niveau de l'expression des gènes. Certains chercheurs acceptent même l'idée que ce « bruit » joue un rôle positif en améliorant les propriétés des réseaux de gènes, en leur permettant par exemple de générer différents états d'expression génique. Cependant, la notion de réseau reste intacte. On considère toujours qu'il existe une certaine structure rigide sous-jacente aux systèmes biologiques (le réseau) qui en expliquent les propriétés. On est donc toujours dans le « principe de l'ordre par l'ordre », dans un déterminisme du génome. Mais, étant donné l'ampleur du manque de spécificité des protéines dont la démonstration expérimentale ne fait que s'accroître au fur et à mesure que s'affinent les techniques d'observation, il devient légitime de questionner ce principe. On peut même se demander s'il n'est pas plus conforme à la réalité de l'inverser et de considérer qu'il n'y a pas de réseau spécifique, même « bruité », sous-jacent aux cellules. Il existe bien des chaînes de réaction moléculaires mais au lieu d'être la cause des processus cellulaires, elles en seraient plutôt le résultat. Dans cette nouvelle perspective, qui découle directement des faits expérimentaux, les processus moléculaires ne sont pas spécifiques, mais ils sont soumis à des contraintes macroscopiques qui permettent de trier les interactions moléculaires et de produire une organisation cellulaire.

6 Le principe de l'ontophylogenèse

On comprend bien d'après l'analyse que nous venons de faire que, pour résoudre la contradiction causée par le manque de spécificité des protéines, la biologie a besoin d'un cadre théorique nouveau qui intègre l'action de la structure cellulaire des êtres.

La théorie de l'ontophylogenèse consiste précisément à tirer les conséquences du manque de spécificité des protéines et de la nécessité d'intégrer l'action du niveau cellulaire dans l'explication de l'ontogenèse. De fait, si la structure cellulaire trie les interactions moléculaires non spécifiques au cours de l'ontogenèse, cela implique que la synthèse évolutive classique doit être modifiée car l'ontogenèse et la phylogenèse ne forment plus qu'un seul et même processus. Comme nous pouvons le voir dans la figure 4A, dans le cadre de la synthèse évolutive classique, l'évolution et l'ontogenèse sont deux processus distincts. La sélection naturelle s'exerce sur les phénotypes (structures cellulaires ou multicellulaires) qui sont produits par les programmes génétiques codés dans l'ADN. Dans ce cadre, la sélection naturelle n'agit pas dans l'ontogenèse. Elle ne fait que trier indirectement les mutations associées avec certains phénotypes. Mais, si nous intégrons le fait que la structure cellulaire trie les interactions moléculaires (Figure 4B), dans la mesure où elle est elle-même triée et façonnée par la sélection naturelle, nous devons en déduire que la sélection naturelle, via cette structure cellulaire, agit dans l'ontogenèse : les interactions moléculaires sont triées par la structure cellulaire (ou multicellulaire) qui est elle-même triée par la sélection naturelle. Donc, au final, la sélection naturelle trie les interactions moléculaires. De ce fait, l'ontogenèse et la phylogenèse ne forment qu'un seul processus. Dans le cadre de la synthèse évolutive classique (Figure 4A), il n'y a pas de continuité causale entre ontogenèse et phylogenèse : les deux aboutissent au phénotype adulte (structure cellulaire ou multicellulaire) mais restent séparés. Par contre, lorsque nous intégrons l'action de la structure cellulaire sur les interactions moléculaires, l'ontogenèse devient bidirectionnelle (Figure 4B). Il s'agit d'un processus qui va en même temps du « bas vers le haut » (« bottom-top ») et du « haut vers le vas » (« top-bottom ») dans lequel il existe une continuité causale allant de la sélection naturelle jusqu'au niveau moléculaire.

Figure 4 : L'extension de la synthèse évolutive.
A : La synthèse évolutive classique. Ontogenèse et phylogenèse sont causalement séparées.
B : L'ontophylogenèse. L'ontogenèse et la phylogenèse ne forment qu'un seul processus. La sélection naturelle agit dans l'ontogenèse via la structure cellulaire.

Evidemment, une telle extension du champ d'application du darwinisme bouleverse la théorie synthétique de l'évolution en vigueur. L'ontophylogenèse heurte notre mode de pensée habituel. Dans son cadre, l'ontogenèse, au lieu d'être le résultat d'un mécanisme déterministe contrôlé par les gènes, est comprise comme un processus intrinsèquement probabiliste au niveau des interactions entre molécules, en effet le manque de spécificité des protéines a pour effet d'induire des possibilités combinatoires multiples dans les interactions moléculaires. Chacune de ces combinaisons possède une certaine probabilité de se réaliser mais le processus d'ontogenèse est soumis à une sélection provenant de la structure cellulaire (ou multicellulaire), qui est elle-même sélectionnée par l'environnement de l'organisme. En réalité, l'idée d'une ontogenèse résultant de règles sélectives darwiniennes n'est pas absolument nouvelle. Dans l'Antiquité, Empédocle (490-435 av. J.-C.) avait lui aussi recours à un mélange de hasard et de sélection pour l'expliquer. Au XIXe siècle, l'embryologiste Roux a écrit un livre intitulé La Lutte des parties dans l'organisme (1881), dans lequel il postulait un phénomène de compétition darwinienne entre les composants de l'organisme. Cette théorie est restée largement méconnue et Roux l'abandonna pour adopter un point de vue déterministe. Au XXe siècle, le darwinisme a connu d'autres applications dans des domaines spécialisés de la biologie. En immunologie, la synthèse des anticorps est le résultat d'un mécanisme sélectif. Grâce à la variabilité des gènes qui fabriquent les anticorps, chaque cellule immunitaire synthétise un anticorps différent. L'antigène ne fait que stimuler la multiplication de la cellule synthétisant l'anticorps qui le neutralise (Jerne, 1955). Dans le cas du système nerveux, la construction des circuits de cellules neurales semble aussi se faire par une « sélection neuronale ». Selon les théories proposées par Changeux et Danchin (1973), puis Edelman (1978), dans un premier temps les neurones s'associeraient au hasard grâce aux immenses possibilités combinatoires de leurs extrémités (synapses et dendrites), en créant de très nombreux circuits. Dans un deuxième temps, seuls les circuits permettant une réponse adéquate aux stimuli reçus par l'organisme seraient conservés. Cependant, malgré ces exceptions notables, l'embryogenèse et la physiologie ont toujours été dominées par des théories déterministes. L'ontophylogenèse va plus loin. Non seulement nous suggérons que le mécanisme fondamental de l'ontogenèse est conceptuellement analogue à la sélection naturelle parce qu'il combine le hasard moléculaire et la sélection cellulaire, mais nous pensons aussi qu'il est une véritable extension de cette sélection naturelle, celle qui produit l'évolution des espèces, à l'intérieur des populations cellulaires qui constituent le milieu intérieur des êtres vivants.

7 La différenciation cellulaire.

Nous allons maintenant préciser comment l'ontophylogenèse permet d'expliquer la différenciation des cellules, l'expression des gènes et l'organisation des tissus pendant l'embryogenèse.

Dans ce cadre théorique général, l'expression aléatoire des gènes, causées par la non spécificité des interactions moléculaires dans les noyaux cellulaires, permet aux cellules de changer d'état sans être dirigées par des signaux émanant d'un programme génétique. Cependant, elles ne sont pas livrées à un probabilisme absolu. Il existe également une contrainte sélective qui opère un tri parmi la diversité d'états cellulaires aléatoires et dirige l'embryogenèse vers l'état adulte (Figure 5). Chaque cellule d'un organisme se trouve dans un micro-environnement particulier qui lui permet de se multiplier et de se différencier. Ce micro-environnement déterminé par la structure multicellulaire de l'embryon, est caractérisé par les concentrations des métabolites auxquels la cellule a accès. Le métabolisme doit être compris ici au sens large, ce sont toutes les réactions et tous les échanges biochimiques, y compris des molécules considérées habituellement comme des signaux. En fonction des variations de ce micro-environnement, les cellules qui expriment un phénotype adéquat sont sélectionnées ou stabilisées. De là proviennent les différenciations cellulaires à l'origine des tissus constituant un être adulte. Cette théorie s'appuie sur de nombreuses données expérimentales. Nous nous contenterons ici de n'en donner que quelques exemples. Depuis longtemps on sait qu'il y a une grande variabilité dans les cinétiques de différenciation de nombreuses lignées cellulaires, conforme à la prédiction d'un modèle probabiliste dans lequel les cellules ont une probabilité de se différencier à chaque cycle cellulaire. Les premières observations allant dans ce sens ont été obtenues par Jim Till (1964) et ses collègues sur les cellules hématopoiétiques. Aujourd'hui, l'expression aléatoire des gènes est un phénomène démontré (Kaern et coll., 2005). De plus, il existe aussi des données qui confortent directement l'hypothèse d'une sélection darwinienne à l'intérieur de l'organisme. Gines Morata et ses collègues ont démontré qu'il existe une véritable compétition entre cellules pour éviter l'apoptose pendant le développement de l'aile de la drosophile. Cette compétition se fait vis-à-vis d'un facteur de survie appelé decapentaplegic et elle fait partie intégrante du processus d'embryogenèse de cet organe. Ce facteur est habituellement considéré comme un signal mais dans le cadre de ce mécanisme darwinien il agit véritablement comme une ressource. Dans cette compétition les cellules au métabolisme le plus actif accaparent decapentaplegic, prolifèrent plus rapidement et l'emportent au détriment des cellules moins actives qui sont soumises à l'apoptose. Cette adaptation des cellules à leur micro-environnement dépend du taux d'expression de certains gènes. Par exemple, les cellules qui expriment le gène d-myc à un niveau plus élevé sont des « super-compétitrices » dont le taux de multiplication est très élevé (Moreno et coll., 2004).

Figure 5 : La différenciation cellulaire dans le cadre de l'ontophylogenèse.
La non spécificité des interactions moléculaires génèrent de manière aléatoire une diversité d'interactions et de structures moléculaires, qui conduisent notamment, dans le noyau des cellules, à l'expression aléatoire des gènes. De cette manière se créent des cellules différentes. Dans cette figure, selon que c'est l'événement aléatoire a ou b qui se produit, la cellule indifférenciée se transforme en cellule de type A ou B. La sélection s'exerce sur ce processus probabiliste. Les cellules, via les molécules qu'elles synthétisent et qui diffusent créent des micro-environnement auxquelles elles doivent s'adapter. Dans cette figure, cela conduit à la sélection réciproque de la cellule A par la cellule B et réciproquement.


Toutes ces observations, démontrant la composante probabiliste de la différenciation cellulaire, de l'expression des gènes et les phénomènes de compétition entre cellules ont été obtenues indépendamment les unes des autres sur des systèmes expérimentaux différents. Pour valider le modèle darwinien de manière plus précise, il manque encore un ensemble de données qui démontreraient que ces phénomènes sont intriqués de manière causale dans un même système expérimental, et ces observations devraient ensuite être généralisées. Cependant, les données existantes démontrent déjà que le darwinisme cellulaire est une théorie reposant sur une base expérimentale solide et que l'on peut définir un programme de recherche pour la tester.

Une autre méthode permet de tester la pertinence d'une théorie. Il s'agit de la simulation numérique. Elle consiste à créer un modèle informatique d'un phénomène selon un mode de fonctionnement correspondant à la théorie en question. L'ordinateur permet créer des phénomènes virtuels que l'on peut analyser plus facilement et plus rapidement qu'un phénomène réel en faisant varier systématiquement tous les paramètres du modèle. Cette technique ne prouve pas que la théorie simulée est forcément vraie dans la nature mais elle permet d'étudier ses propriétés intrinsèques et d'évaluer sa plausibilité. Elle permet de mettre à jour des comportements non triviaux et de faire des prédictions qui peuvent à leur tour être testées sur un système réel. Il s'agit en quelque sorte d'expériences de pensée qu'il serait très difficile de faire sans l'aide de l'ordinateur à cause du très grand nombre de paramètres impliqués dans les systèmes biologiques. Nous avons réalisé ce type d'étude avec des physiciens de l'université Pierre et Marie Curie (Paris-6). Nous avons simulé des cellules soumises aux règles du modèle darwinien. L'information que nous recherchions dans cette simulation était de savoir si le modèle darwinien est capable de générer des tissus organisés. Nous avons donc modélisé un système darwinien minimal fait de deux types cellulaires Rouge et Vert correspondant à l'activité de deux gènes r et v. A chaque pas de simulation une cellule peut mourir ou se diviser ou activer l'un des deux gènes avec une certaine probabilité. C'est la composante probabiliste du modèle. Mais, ces trois processus dépendent également de l'environnement cellulaire. C'est la composante stabilisatrice ou sélective. En effet, les cellules exprimant les gènes r ou v synthétisent des molécules R ou V respectivement. Ces molécules diffusent dans l'espace où prolifèrent les cellules. Chacune de ces cellules se trouve ainsi dans un environnement caractérisé par les concentrations locales en molécules R et V. Ces concentrations déterminent aussi bien la probabilité de différenciation que la survie et la prolifération des cellules. D'une part, il y a une autostabilisation de l'expression génétique correspondant à une boucle de rétroaction positive : le gène r est actif dans une cellule, plus il y a de molécules R dans son environnement plus sa probabilité de changer et d'exprimer le gène v diminue jusqu'à la stabilisation complète de l'expression de r. Elle a alors atteint son état différencié Rouge. Il en est de même pour les cellules vertes qui sont stabilisées par les molécules V qu'elles fabriquent. L'importance de telles rétroactions positives dans l'établissement d'états stables d'expression génétique a déjà été montrée (Lewis et coll., 1977). Elles correspondent, en général, à une propriété connue d'autoactivation de nombreux gènes codant pour des facteurs de transcription. Il s'agit ici d'une autostabilisation qui pourrait également dépendre des modifications épigénétiques des protéines de la chromatine. Dans le modèle il y a donc une fonction qui relie la probabilité d'exprimer r ou v dans une cellule à la concentration en molécules R ou V présente dans environnement immédiat. La fonction utilisée est une fonction dite de Fermi-Dirac qui permet de décrire un large éventail de situations. D'autre part, il y a dans le modèle une interdépendance des cellules. On sait que les cellules des êtres multicellulaires échangent des facteurs de croissance qui sont nécessaires à leur survie ou à leur prolifération. Une telle contrainte a été intégrée : une cellule rouge a besoin de métaboliser des molécules V fabriquées par des cellules vertes pour se multiplier. Cela ne sera donc possible que là où les molécules V sont présentes en quantité suffisante. Si non, la cellule devient quiescente, ou meurt si la quantité de molécules V présente est inférieure à un certain seuil nécessaire à la survie. De la même manière, une cellule verte a besoin de molécules R fabriquées par les cellules rouges pour survivre et se multiplier. Les molécules R et V sont donc l'équivalent de facteurs des croissance pléiotropiques qui sont soit des facteurs de différenciation soit des facteurs de survie ou de prolifération selon les cellules sur lesquelles ils agissent.

La simulation de ce modèle démontre qu'il possède les propriétés principales attendues d'une théorie de l'embryogenèse. Lorsqu'on laisse croître une population de cellules soumises à ces règles de fonctionnement, on observe un scénario similaire à chaque fois que l'on répète l'expérience. A partir de 16 cellules initiales dont le gène exprimé est choisi au hasard, il se forme une bicouche régulière de cellules rouges et vertes (Figure 6).


Figure 6 : Formation d'une bicouche cellulaire.
Lorsque la bicouche atteint son état de développement maximal (D), elle cesse de croître même si on laisse la simulation se poursuivre (E). Or, dans le programme informatique il n'y a aucune condition spécifiant l'arrêt de la prolifération cellulaire. Il s'agit d'une propriété spontanée du modèle darwinien imprévisible sans l'aide de la simulation.

Cette bicouche croît, jusqu'à atteindre son état de développement maximal. Lorsqu'elle a atteint ce « stade adulte », elle cesse de croître, même si on laisse la simulation se poursuivre. Le modèle génère systématiquement cette structure ordonnée invariante caractérisée par les deux couches adjacentes de cellules rouges et vertes et sa croissance est finie, comme celle d'un être vivant. L'analyse démontre que la production de cette structure dépend d'un équilibre entre l'autostabilisation de l'expression génétique et l'interdépendance pour la prolifération. En effet, si on supprime l'une ou l'autre, le système perd toutes ses propriétés d'organisation. Au lieu de générer la bicouche cellulaire, les cellules sont prises dans une croissance anarchique infinie (Figure 7). Un résultat analogue peut être obtenu si l'on modifie la valeur quantitative d'un seul des paramètres qui règlent ces processus. Par exemple les paramètres de la fonction de Fermi-Dirac ou la vitesse de diffusion des molécules. Il s'agit là d'un résultat remarquable qui était difficilement prévisible : l'inhibition de la croissance de la structure cellulaire est produite par l'action conjointe de deux processus (l'autostabilisation et l'interdépendance) qui sont, au départ, sans rapport avec le contrôle de la prolifération cellulaire. Dans le programme informatique il n'y a aucune condition spécifiée pouvant conduire à une telle inhibition. Il s'agit donc d'une propriété spontanée du modèle darwinien. Grâce à ce résultat nous avons pu faire des expériences de simulation qui abordent la question de la prolifération cellulaire sous un angle tout à fait nouveau.

Figure 7 : L'équilibre sélectif.
A. Si on supprime l'autostabilisation de l'expression des gènes ou l'interdépendance entre les cellules, le système perd ses propriétés d'organisation. Les cellules sont prises dans une croissance infinie qui envahit toute la matrice. B. Des résultats analogues sont obtenus si l'on modifie l'équilibre des valeurs quantitatives du modèle en changeant un seul paramètre (ici la vitesse de diffusion des molécules). C. Dans certains cas, des structures de forme différente peuvent être générées.

Selon la théorie du programme génétique, la prolifération des cellules est contrôlée par des signaux d'activation ou d'inhibition. Avec le modèle darwinien, comme nous l'avons vu, le processus est tout à fait différent. Il n'y a pas de différence entre le système en croissance et le système à l'état stationnaire qui serait liée à la présence de signaux spécifiques du contrôle de la prolifération. La population cellulaire cesse de croître lorsqu'elle atteint un état d'équilibre et cet état dépend de la valeur quantitative des paramètres du modèle. Les mutations qui, dans un organisme réel, surviendraient dans des protéines impliquées dans l'autostabilisation ou l'interdépendance changeraient les valeurs des paramètres qui règlent ces processus. Par exemple une mutation dans un facteur de transcription impliqué dans l'autostabilisation modifierait son affinité pour sa séquence cible dans l'ADN et, conséquemment, dans le modèle le paramètre d'autostabilisation de l'expression génétique serait également modifié. La simulation d'un tel événement démontre que l'équilibre de la bicouche cellulaire est alors rompu et que la prolifération reprend. Lorsqu'à partir d'une bicouche cellulaire ayant atteint son état d'équilibre on change la valeur du paramètre d'autostabilisation, on assiste à une reprise locale de la prolifération provoquant l'apparition progressive de masses de cellules évoquant des tumeurs (Figure 8). De même une mutation pourrait changer les propriétés de diffusion d'une protéine. Dans notre modèle informatique cela revient à changer la valeur du paramètre réglant la vitesses de diffusion des molécules. La simulation montre que dans ce cas cela induit un déséquilibre dans la répartition des molécules qui provoque également une croissance incontrôlée détruisant la bicouche cellulaire.

Figure 8 : Reprise de la prolifération cellulaire par rupture de l'équilibre.
A. Une bicouche « normale » est formée. B. Le paramètre d'autostabilisation de l'expression des gènes est modifié suite à une mutation. Du fait de la rupture de l'équilibre entre les paramètres du modèle, l y a une reprise localisée de la prolifération des cellules. C. et D. La prolifération donne naissance à des masses de cellules au phénotype non stabilisé, relâchées dans l'environnement de la bicouche.

Dans ce nouveau modèle de la prolifération cellulaire le rôle des mutations n'est pas nié mais il ne consiste pas, comme supposé par la théorie classique des mutations somatiques, à permettre à une cellule initiale, devenue anormale du fait de la mutation, d'échapper au contrôle de la prolifération exercé par le programme génétique de l'organisme. Au contraire, les mutations participent en premier lieu à la destruction de l'équilibre global de l'organisme, ce qui provoque secondairement une reprise localisée de la prolifération à partir d'une cellule. Ces mutations détruisant l'équilibre global ne se produisent pas forcément dans la cellule cancéreuse mais également dans son micro-environnement. Ce résultat de la simulation est en accord avec de nombreuses données récentes qui démontrent le rôle du micro-environnement dans la cancérogenèse (Capp, 2005).

Finalement, nous avons testé l'impact de la stochasticité et de la mort cellulaire sur les performances du modèle. Il est possible, pour certaines valeurs d'un paramètre de la fonction de Fermi-Dirac contrôlant la probabilité d'expression des gènes, de créer des versions du modèle dans lesquelles le passage entre une probabilité P = 1 et P = 0 d'exprimer un gène se fait sans transition par une fonction en « marche d'escalier ». On se trouve alors dans le cas d'un mécanisme déterministe. Nous avons donc pu comparer des versions déterministes et probabilistes du modèle, tous les autres paramètres étant par ailleurs maintenus constants. Cette analyse a montré que lorsqu'on répète la simulation un grand nombre de fois, il y a moins de variabilité dans la cinétique de formation de la bicouche si le modèle est stochastique. Ce résultat démontre que, contrairement à l'intuition commune, la stochasticité améliore la reproductibilité de l'organisation tissulaire. Cela est dû à la souplesse qu'elle introduit dans le comportement des cellules. Nous avons également créé une version du modèle dans laquelle la mort cellulaire a été supprimée. Dans ce cas, la bicouche peut toujours se créer mais avec un taux d'échec nettement supérieur. Cela est dû au fait que la mortalité cellulaire permet d'éliminer des cellules non adaptées à leur environnement local qui gênent la mise en place de l'équilibre entre cellules rouges et vertes. Le modèle darwinien apporte donc également une explication très forte à son origine évolutive : la mort ou la différenciation cellulaire sont deux effets différents produits par le même mécanisme sélectif gouvernant la dynamique des cellulaires embryonnaires.

8 Conclusion

Les données expérimentales acquises récemment par la biologie moléculaire démontrent que les protéines ne sont pas spécifiques et il faut invoquer l'action de la structure cellulaire pour expliquer l'organisation biologique. Cela contredit les fondements du déterminisme génétique. L'ontophylogenèse permet de lever cette contradiction. Elle intègre le rôle de la structure cellulaire et elle conduit à une nouvelle manière de concevoir la différenciation cellulaire selon un processus fait de hasard moléculaire, notamment dans l'expression des gènes, et de sélection cellulaire.

Les résultats de nos simulations démontrent que Schrödinger s'est trompé : un ordre tissulaire peut parfaitement être produit par un mécanisme biologique fondé sur l'expression stochastique des gènes et la sélection. Les simulations permettent également apporter des éléments de réponse à la question « Qu'est-ce que la vie ? » posée par Schrödinger. Il pensait que les lois habituelles de la physique fondée sur le hasard brownien ne s'appliquent pas en biologie. C'est inexact. Les molécules biologiques sont soumises aux lois probabilistes comme les molécules des systèmes physiques. Mais, les molécules biologiques ne sont pas soumises à un comportement purement statistique découlant de la loi des grands nombres. La vie est constituée de systèmes aléatoires biaisés. D'une part la sélection naturelle exerce une contrainte sur l'organisation des tissus. D'autre par le fonctionnement probabiliste de l'ADN modifie la composition qualitative et quantitative d'une cellule en protéines et influe sur la probabilité des événements qui peuvent s'y produire. Tous les événements ne sont donc pas équiprobables. Certains très favorisés ont la plus haute probabilité de se réaliser. Ce sont eux qui produisent les êtres vivants organisés que nous sommes.

Notes
(1) Les cellules reçoivent de leur environnement des signaux divers. Chez les bactéries, les signaux chimiotactiques indiquent une source de nourriture ou un danger. Chez les êtres multicellulaires, des signaux favorisent la multiplication ou la différenciation des cellules. Dans ces processus de signalisation, la première étape consiste en la liaison du signal porté par une molécule chimique extracellulaire avec une molécule réceptrice localisée dans la membrane de la cellule. Cette liaison active le domaine ce récepteur membranaire qui déclenche alors une cascade d'interactions moléculaires à l'intérieur de la cellule, assurant la transduction du signal. Bien que les cellules doivent répondre de manière précise aux signaux qu'elles reçoivent, la non spécificité affecte aussi bien la liaison du récepteur à la molécule extracellulaire apportant le signal que les réactions qui le transduisent à l'intérieur de la cellule.

(2) On parle d'expression des gènes pour signifier qu'un gène est actif ou pas c'est-à-dire que la protéine qu'il code est fabriquée ou pas. Les interactions entre les protéines du noyau de la cellule et des séquences de liaison dans l'ADN contrôlent de phénomène d'expression génétique.

(3) Le mot spécificité est l'un des plus utilisés dans la littérature biologique dans des sens variés qui ne sont pas toujours précisés. Afin d'éviter tout malentendu il faut le redéfinir. Nous nous référons au sens originel de la stéréospécificité (chapitre 3). La stéréospécificité implique que les molécules ne sont capables que d'interactions uniques, ou en nombre limité, déterminées par leur structure tridimensionnelle.

(4) Même si le contexte dans lequel est inséré un domaine restreint partiellement ses possibilités de liaison à d'autres protéines.

(5) P=proline et X=n'importe quel acide aminé.

(6) Une kinase est une enzyme qui modifie les protéines en leur ajoutant des atomes de phosphore.

(7) Ou dans les régions régulatrices de ces gènes.

Références

- Albert R. (2005) Scale-free networks in cell biology. Journal of Cell Science 118: 4947-4957.

- Amrani A, Serra P, Yamanouchi J, Trudeau JD, Tan R, Elliott JF, Santamaria P. (2001) Expansion of the antigenic repertoire of a single T cell receptor upon T cell activation. The Journal of Immunology 167: 655-666.

- D'Ari R, Casadesus J. (1998) Underground metabolism. Bioessays 20: 181-186.

- Barabási AL, Oltvai ZN. (2004) Network biology: understanding the cell's functional organization. Nature Reviews Genetics 5: 101-113.

- Beckett D. (2004) Functional switches in transcription regulation; molecular mimicry and plasticity in protein-protein interactions. Biochemistry 43: 7983-7991.

- Biggin MD. (2001) To bind or not to bind. Nature Genetics 28: 303-304.

- Bork P, Jensen LJ, von Mering C, Ramani AK, Lee I, Marcotte EM. (2004) Protein interaction networks from yeast to human. Current Opinion in Structural Biology 14: 292-299.
Bray D, (2003) Molecular prodigality. Science 299: 1189-1190.

- Campbell SL, Khosravi-Far R, Rossman KL, Clark GJ, Der CJ. (1998) Increasing complexity of Ras signaling. Oncogene 17: 1395-1413

- Capp JP. (2005) Stochastic gene expression, disruption of tissue averaging effects and cancer as a disease of development. Bioessays 27: 1277-1285.

- Carr A, Biggin MD. (1999 ) A comparison of in vivo and in vitro DNA-binding specificities suggests a new model for homeoprotein DNA binding in Drosophila embryos. EMBO Journal 18:1598-1608.

- Caspar DLD, Klug A. (1962) Physical principles in the construction of regular viruses. Cold Spring Harbor Symposia on Quantitative Biology 27:1-24.

- Castagnoli L, Costantini A, Dall'Armi C, Gonfloni S, Montecchi-Palazzi L, Panni S, Paoluzi S, Santonico E, Cesareni G. (2004) Selectivity and promiscuity in the interaction network mediated by protein recognition modules. FEBS Letters 567: 74-79.

- Changeux JP, Courrège P, Danchin A. (1973) A theory of the epigenesis of neuronal networks by selective stabilization of synapses. Proceedings of the National Academy of Sciences USA 70: 2974-2978.

- Dunker AK, Obradovic Z, Romero P, Garner EC, Brown CJ. (2000) Intrinsic protein disorder in complete genomes. Genome Informatics 11: 161-171.

- Dunker AK, Obradovic Z. (2001) The protein trinity--linking function and disorder.
Nature Biotechnology 19: 805-6.

- Dunker AK, Cortese MS, Romero P, Iakoucheva LM, Uversky VN. (2005) Flexible nets. The roles of intrinsic disorder in protein interaction networks. FEBS Journal 272: 5129-5148.

- Dutoit V, Rubio-Godoy V, Pittet MJ, Zippelius A, Dietrich PY, Legal FA, Guillaume P, Romero P, Cerottini JC, Houghten RA, Pinilla C, Valmori D. (2002 ) Degeneracy of antigen recognition as the molecular basis for the high frequency of naive A2/Melan-a peptide multimer(+) CD8(+) T cells in humans. Journal of Experimental Medecine 196: 207-16.

- Dyson HJ, Wright PE. (2005) Intrinsically unstructured proteins and their functions. Nature Reviews Molecular Cell Biology 6:197-208.

- Edelman GM, Mountcastle VB. The mindfull brain. MIT Press, Cambridge, MA.

- Garcia KC, Degano M, Pease LR, Huang M, Peterson PA, Teyton L, Wilson IA. (1998) Structural basis of plasticity in T cell receptor recognition of a self peptide-MHC antigen.
Science 279: 1166-1172.

- Gehring WJ, Qian YQ, Billeter M, Furukubo-Tokunaga K, Schier AF, Resendez-Perez D, Affolter M, Otting G, Wüthrich K. (1994) Homeodomain-DNA recognition. Cell 78: 211-223.

- Guggenmos J, Schubart AS, Ogg S, Andersson M, Olsson T, Mather IH, Linington C. (2004) Antibody cross-reactivity between myelin oligodendrocyte glycoprotein and the milk protein
butyrophilin in multiple sclerosis. The Journal of Immunology 172:661-668.

- Haarmann CS, Green D, Casarotto MG, Laver DR, Dulhunty AF. (1999) The random-coil 'C' fragment of the dihydropyridine receptor II-III loop can activate or inhibit native skeletal ryanodine receptors. Biochemistry Journal 372: 305-316.

- Hausmann S, Martin M, Gauthier L, Wucherpfennig KW. (1999) Structural features of autoreactive TCR that determine the degree of degeneracy in peptide recognition. The Journal of Immunology 162: 338-344.

- Haynes C, Oldfield CJ, Ji F, Klitgord N, Cusick ME, Radivojac P, Uversky VN, Vidal M, Iakoucheva LM. (2006) Intrinsic disorder is a common feature of hub proteins from four eukaryotic interactomes. PLoS Compututational Biology 2: e100.

- Hunter T. (2000) Signaling--2000 and beyond. Cell 100: 113-127.

Jacob F, Monod J. (1961) Genetic regulatory mechanisms in the synthesis of proteins. Journal of Molecular Biology 3: 318-356.

- Jerne, NK. (1955) The natural-selection theory of antibody formation
Proceedings of the National Academy of Sciences USA 41: 849-857.

- Iakoucheva LM, Brown CJ, Lawson JD, Obradovic Z, Dunker AK. (2002) Intrinsic disorder in cell-signaling and cancer-associated proteins. Journal of Molecular Biology 323: 573-584.

- Kaern M, Elston TC, Blake WJ, Collins JJ. (2005) Stochasticity in gene expression: from theories to phenotypes. Nature Reviews Genetics 6 :451-64.

- Kupiec JJ. (2008) L'origine des individus, Fayard.

- Lewis J, Slack JM, Wolpert L. (1977) Thresholds in development. Journal of Theoretical Biology 65: 579-590.

- Liu J, Perumal NB, Oldfield CJ, Su EW, Uversky VN, Dunker AK. (2006) Intrinsic disorder in transcription factors. Biochemistry 45: 6873-6888.

- Ma B, Shatsky M, Wolfson HJ, Nussinov R. (2002) Multiple diverse ligands binding at a single protein site: a matter of pre-existing populations. Protein Science 11: 184-197.

- Manivel V, Sahoo NC, Salunke DM, Rao KV. (2000) Maturation of an antibody response is governed by modulations in flexibility of the antigen-combining site.
Immunity 13: 611-620.

- Manivel V, Bayiroglu F, Siddiqui Z, Salunke DM, Rao KVS. (2002) The primary antibody repertoire represents a linked network of degenerate antigen specificities. The Journal of Immunology 169: 888-897.

- Moggs JG, Orphanides G. (2001) Estrogen receptors: orchestrators of pleiotropic cellular response. EMBO reports 21: 775-781.

- Moreno E, Basler K, Morata G. (2002) Cells compete for decapentaplegic survival factor to prevent apoptosis in Drosophila wing development. Nature 416: 755-759.

- Monod J, Jacob F. (1961) General conclusions: Teleonomic mechanisms in cellular metabolism, growth and differentiation. Cold Spring Harbor Symposia in Quantitative Biology XXVI: 487-499

- Mundorff EC, Hanson MA, Varvak A, Ulrich H, Schultz PG, Stevens RC. (2000) Conformational effects in biological catalysis: an antibody-catalysed Oxy-Cope rearrangement Biochemistry 39 : 627-632.

- Nan X, Campoy FJ, Bird A. (1997) MeCP2 is a transcriptional repressor with abundant binding sites in genomic chromatin. Cell 88: 471-81.

- Pawson T, Nash P. (2003) Assembly of cell regulatory systems through protein interaction domains. Science 300: 445-452.

- Roux W. (1881, réédition 2007) Der Kampf der Teile im Organismus. VDM, Saarbrücken, Germany.

- Schrödinger E. (1944, réédition 1993) Qu'est-ce que la vie. Seuil, Paris.

- Sperling R, Francus T, Siskind GW. (1983) Degeneracy of antibody specificity. The Journal of Immunology 131: 882-885.

- Till JE, McCulloch EA, Siminovitch L. (1964) A stochastic model of stem cell proliferation, based on the growth of spleen colony-forming cells. Proceedings of the National Academy of Sciences U S A. 51: 29-36.

- von Mering C, Krause R, Snel B, Cornell M, Oliver SG, Fields S, Bork P. (2002) Comparative assessment of large-scale data sets of protein-protein interactions. Nature 417: 399-403.

- Wright PE, Dyson HJ. (1999) Intrinsically unstructured proteins: re-assessing the protein structure-function paradigm. Journal of Molecular Biology 293: 321-331.

 

Retour au sommaire