Louise Desrenards on Sun, 6 Mar 2005 08:35:19 +0100 (CET) |
[Date Prev] [Date Next] [Thread Prev] [Thread Next] [Date Index] [Thread Index]
[nettime-fr] une nouvelle théorie de l'embryogenèse et du cancer |
En route vers le changement paradigmatique radical... http://www.vivantinfo.com/numero9/hasard_selection.html http://www.criticalsecret.com/jeanjacqueskupiec/ Dans "Vivant" Entretien Le darwinisme cellulaire, une nouvelle théorie de l'embryogenèse et du cancer Voilà cinq ans, le livre « Ni Dieu ni gène », signé par Jean-Jacques Kupiec et Pierre Sonigo, avait fait du bruit dans la communauté des biologistes francophones. Prenant le contrepied des vues déterministes qui alimentent la biologie depuis des décennies, il popularisait l'idée que le hasard joue un rôle moteur dans la différenciation cellulaire et, par là, dans le développement des organismes vivants. Aujourd'hui, J.J. Kupiec, épaulé par le physicien Bertrand Laforge, affine sa théorie grâce à une publication reposant sur des travaux de simulation informatique. Avec des perspectives quant aux mécanismes et au traitement de la cancérogenèse. V. Jean-Jacques Kupiec, vous avez élaboré dans les années 1980 une théorie dite de hasard-sélection. Elle explique la naissance de différents types cellulaires à partir d'un seul en s'écartant des modèles déterministes, pour lesquels les cellules se différencient parce qu'elles ont reçu une information spécifique leur « disant » de se transformer d'une façon donnée. Jean-Jacques Kupiec Les scientifiques essaient toujours d'« aller au large », de donner le plus d'extension possible à leurs idées, qu'ils appellent alors des théories. Dans notre cas, il serait plus raisonnable de parler de modèle. Le modèle de hasard sélection que j'ai proposé en 1981 s'attaque à la question de la différenciation cellulaire, un phénomène primordial de l'embryogenèse. Je l'ai appelé a posteriori modèle darwinien, parce qu'il ressemble à la théorie darwinienne de l'évolution. Comme elle, il suggère que le hasard est créateur d'une diversité sur laquelle opère la sélection naturelle. Dans mon modèle, le hasard crée de la diversité cellulaire grâce à l'expression aléatoire, probabiliste, des gènes ; parallèlement, il y a sélection de l'un des états cellulaires ainsi produits, par le jeu des interactions entre cellules. V. Charles Darwin en 1854, cinq ans avant la publication de L'origine des espèces. Pourquoi s'écarter des modèles déterministes ? Parce qu'ils butent sur une impossibilité logique. Ils supposent qu'il y aurait d'emblée une asymétrie, une hétérogénéité entre cellules : une cellule doit dès le départ être différente des autres puisqu'elle synthétise un signal que les autres ne produisent pas. Or un bon cadre théorique de la différenciation cellulaire devrait expliquer l'émergence d'une hétérogénéité à partir d'une situation d'homogénéité. La réponse classique des embryologistes est de dire que l'asymétrie existe bien au départ : les divisions cellulaires initiales de la cellule ouf sont asymétriques, ou bien l'ouf comporte un gradient de concentration de certaines protéines, le gradient morphogénétique. Cela suppose dans le premier cas que quelque chose détermine l'asymétrie des clivages, mais on n'explique pas ce que c'est, et dans le deuxième cas que l'hétérogénéité est déjà présente dans la cellule ouf, sans en préciser l'origine. La seule solution pour sortir de cette impossibilité logique est d'admettre que les cellules peuvent elles-mêmes se différencier spontanément. Dès lors que l'on sort du cadre déterministe, les interactions cellulaires apparaissent non plus comme des inducteurs de la différenciation, mais comme des éléments de stabilisation de la différenciation. Votre travail récent réalisé par simulation informatique [1] semble corroborer le modèle de hasard-sélection en montrant qu'un système organisé, une bicouche de cellules, peut être généré spontanément à partir de deux types cellulaires, en présence de facteurs de croissance (voir l'encadré ci-dessous). V. Comment en êtes-vous venus à la simulation informatique ? Bertrand Laforge Peut-être le mieux est-il de reprendre l'histoire à son début. J'ai eu l'occasion de rencontrer Jean-Jacques Kupiec en mars 1999, lors des Rencontres de Moriond, aux Arcs (Savoie), où se tenaient en parallèle une conférence internationale de physique et un colloque francophone de biologie. Deux soirées étaient consacrées à des échanges entre physiciens et biologistes. Lors de l'une d'elles, Jean-Jacques Kupiec a exposé le travail qu'il avait réalisé sur les aspects historiques et méthodologiques de la biologie, et finalement son modèle d'expression aléatoire des gènes. Je me suis aperçu que ce modèle correspondait à la vision latente que j'avais de la biologie ; Kupiec parlait mon langage. Je suis physicien, je sais que les lois qui régissent les systèmes au niveau atomique ont une nature aléatoire, que les prédictions que l'on peut effectuer sur l'évolution de tels systèmes sont statistiques : on ne peut jamais prédire l'état futur du système, mais seulement estimer la probabilité d'un état. En revanche, dans des systèmes macroscopiques, dans lesquels le nombre d'atomes est très grand, des phénomènes reproductibles apparaissent, qui correspondent à des moyennes de distributions d'un grand nombre d'événements aléatoires. C'est une illustration de la loi des grands nombres qui fait que la probabilité d'obtenir pile ou face en lançant une pièce un grand nombre de fois avoisine 0,5, alors qu'il est pourtant impossible de prédire quel sera le résultat de chaque lancer. En physique, on peut décrire ce que l'on appelle les « transitions de phase » de la matière à grande échelle (ses changements d'état), par exemple les transitions magnétiques des matériaux, par du hasard local qui s'organise, c'est-à-dire la fluctuation de variables dont la moyenne produit un effet tangible au niveau macroscopique. Lors de cette soirée, je me suis rendu compte que les biologistes présents manifestaient une totale incompréhension de ces notions probabilistes. Ils ne comprenaient pas que le hasard puisse produire quelque chose de reproductible au niveau de l'organisme. Il m'est apparu alors qu'une manière simple de les convaincre serait de faire des simulations sur ordinateur. C'est ce que j'ai proposé à Kupiec. Nous avons rapidement commencé à construire un modèle in silico avec l'aide d'un stagiaire de maîtrise puis de DEA, David Guez. Jean-Jacques Kupiec La simulation informatique me convenait bien. Les données qui soutiennent une vision probabiliste de la différenciation cellulaire se sont accumulées depuis quarante ans. Pour qu'elles soient prises en compte, digérées et interprétées par les scientifiques, il faut montrer qu'elles peuvent parfaitement trouver leur place dans un cadre théorique adéquat. C'est ce que nous permet de faire la simulation informatique. Une simulation pour un changement de paradigme Le modèle de hasard-sélection prédit que les cellules se différencient avant tout en raison d'événements stochastiques internes tels que l'activation aléatoire des gènes. De manière concomitante, des interactions cellulaires stabilisent les phénotypes qui émergent. Chaque gène d'une cellule ne serait pas systématiquement activé en présence de son « activateur » ou systématiquement inhibé en présence de son « répresseur » ; il aurait seulement une certaine probabilité d'être activé ou d'être « réprimé ». Cette probabilité changerait avec les variations de la concentration locale des facteurs de transcription qui régulent l'expression du gène. Selon Jean-Jacques Kupiec, ces variations tiendraient elles-mêmes au déplacement par diffusion le long de la molécule d'ADN, au sein de la chromatine, des molécules régulatrices. Les paramètres en jeu Pour tester ce modèle, Bertrand Laforge, J.J. Kupiec et leurs collaborateurs ont conçu une simulation informatique dont les ingrédients sont les suivants. Une population cellulaire comprend deux types de cellules, A et B, différenciés par leurs couleurs et le type de protéine qu'ils synthétisent. Les cellules A peuvent se transformer en cellules B, et inversement. La probabilité de cette transformation est fonction de la concentration en molécules S, synthétisées par chaque cellule. Ces molécules peuvent être des facteurs de croissance, de différenciation, de division ou de survie pour les cellules, qui diffusent passivement dans les compartiments cellulaires et entre les cellules (une approximation par rapport à la réalité, mais qui ne change pas la signification globale du système, indiquent les auteurs). Ces molécules S ont deux actions possibles : soit elles stabilisent (c'est-à-dire facilitent la survie) des cellules qui les ont synthétisées (autostabilisation), soit elles stabilisent les cellules qui ne les ont pas produites, celles de l'autre type (interstabilisation). Cependant, pour survivre, chaque cellule d'un type a besoin de molécules S produites par l'autre type. C'est l'« interdépendance pour la prolifération ». Les ingrédients ainsi posés, la simulation du modèle consiste à faire varier la valeur des paramètres correspondants : nombre de molécules S synthétisées, nombre de molécules S consommées, longueur de diffusion libre des molécules S, rythme de leur dégradation, taux d'autostabilisation, d'interstabilisation, taux de division cellulaire et de mort cellulaire, etc. Le contrôle de la proliferation cellulaire se fait par l'équilibre entre les paramètres du modèle. Les chercheurs ont constaté que pour toute une gamme de valeurs des paramètres, une structure formée de deux couches de cellules, l'une de cellules A, l'autre de cellules B, se développe. Dans le jeu de paramètres nominal étudié, la formation de cette structure se produit dans 79 % des cas. La structure en bicouche prend longitudinalement une allure différente à chaque simulation, mais se stabilise toujours alors qu'aucun paramètre n'a introduit un arrêt de croissance. En revanche, si la simulation informatique supprime la mort cellulaire (les cellules continuent à vivre même si la quantité de facteurs trophiques est insuffisante), la structure cellulaire ne se forme plus que dans 50 % des cas. La mort cellulaire semble donc jouer un rôle positif dans la formation de la bicouche, qui expliquerait son origine évolutive. Ce résultat accrédite la thèse du darwinisme cellulaire : les cellules sont sélectionnées en fonction de leur environnement. Celles qui sont adaptées survivent, celles qui ne le sont pas meurent. Ainsi, à l'origine, la différenciation et la mort cellulaires auraient été deux effets d'un même processus : la sélection naturelle opérant au niveau cellulaire. Equilibre et cancer Cependant, le résultat le plus spectaculaire est sans doute celui-ci : la modification des paramètres de l'autostabilisation ou de la diffusion provoque une croissance anarchique de la bicouche qui finit par envahir tout l'espace disponible, à la manière d'un tissu cancéreux (voir la figure ci-dessus). Les chercheurs en concluent que l'organisation tissulaire ne résulte pas de valeurs normales de paramètres cellulaires, mais d'un rapport entre ces valeurs qui permet de créer un équilibre. Cet équilibre traduit aussi bien les influences du génome que celles du micro-environnement des cellules. V. Selon Laforge et Kupiec, le cancer correspond à la destruction de cet équilibre. Un fonctionnement tissulaire normal pourrait être rétabli en agissant sur l'un ou plusieurs des paramètres stabilisateurs qui participent à l'équilibre et non plus seulement, comme le prévoit la théorie classique, en inhibant, en rétablissant ou en réparant un facteur que l'on a trouvé muté ou surexprimé. Pourquoi ne pas tester aussi le modèle sur du vivant ? Bertrand Laforge Peut-être est-ce une déformation professionnelle de physicien. Mais quand on veut mettre en évidence qu'une hypothèse est licite, la simulation est idéale, d'autant plus qu'une cellule vivante est extrêmement complexe : l'ordinateur permet de savoir exactement quelles sont les propriétés que l'on met dans le système expérimental et de maîtriser parfaitement celui-ci. On peut de proche en proche perfectionner le modèle, en regardant à chaque étape ce que les propriétés mises en jeu sont alors capables de générer. C'est du réductionnisme méthodologique très efficace. Bien évidemment, cette démarche n'a de sens que si elle s'inscrit dans le contexte des connaissances expérimentales de la biologie moléculaire et de l'embryogenèse. Jean-Jacques Kupiec En fait, l'approche informatique et l'approche expérimentale sont indispensables et complémentaires. La simulation permet de voir si le modèle produit quelque chose de compatible avec ce que l'on connaît de la réalité. L'expérience permet de mesurer en direct des modifications cellulaires et moléculaires. J'ai d'ailleurs effectué un travail expérimental en 2003, en collaboration avec Thomas Heams, qui effectuait sa thèse, afin de quantifier la variabilité stochastique d'expression de gènes sur un modèle cellulaire : des cellules de neuroblastome en culture. Et nous avons confirmé que l'expression du récepteur de l'insuline varie fortement et aléatoirement d'une cellule à une autre [2], ce qui va dans le sens d'autres publications. Reste la critique plus facile affirmant qu'une simulation informatique d'un modèle ne peut décrire la complexité du vivant ? Bertrand Laforge C'est oublier que la compréhension du monde qui nous entoure repose essentiellement sur des modèles. Affirmer que les électrons existent n'est jamais qu'un modèle de la réalité physique qui nous permet de rendre intelligibles les faits expérimentaux. En biologie aussi, il n'y a jamais que des concepts qui ne traduisent pas exactement la réalité concrète sous-jacente ; ils n'en sont qu'une approximation. Cela admis, il est logique en biologie d'utiliser la méthode d'analyse la plus économique, c'est-à-dire, en l'absence de lois spécifiques du Vivant démontrées, de concevoir des modèles reposant sur ce que l'on connaît des lois de la physique et de la chimie. S'il s'avère qu'elles ne peuvent répondre aux problèmes posés par le Vivant, il sera toujours temps de parler de lois spécifiques du Vivant. Mais nous n'en sommes pas là. Votre modèle probabiliste peut-il coexister avec le modèle classique du programme génétique ? En 1998, vous écriviez par exemple, Jean-Jacques Kupiec, qu'« il est possible que certains gènes fonctionnent selon le modèle d'expression aléatoire, alors que d'autres gènes fonctionneraient selon un modèle classique » [3]. Jean-Jacques Kupiec Un événement régi par une logique déterministe est un cas limite du modèle probabiliste pour lequel la probabilité de l'événement est égale à 1. Dans les systèmes biologiques tels que nous les concevons, soumis à une dynamique aléatoire, il peut y avoir des cas où la probabilité d'un événement avoisine 1. Ainsi, la probabilité de l'expression d'un gène dépend de la concentration locale de facteurs de transcription qui activent cette cible ; dès lors, dans des conditions saturantes, la probabilité d'expression sera proche de 1. Néanmoins, le système restera probabiliste au sens où les événements physico-chimiques sous-jacents sont des interactions de molécules soumises au hasard brownien. On est donc dans un cas comparable à la physique : des événements macroscopiques peuvent être décrits par des équations de nature déterministe, alors qu'au niveau moléculaire chaque particule a un comportement aléatoire et suit des lois probabilistes. V. D'où vient finalement la réticence à considérer le rôle structurant du hasard pour les organismes alors qu'il est admis pour la théorie de l'évolution, qui est la pièce maîtresse de la biologie ? Jean-Jacques Kupiec Historiquement, il a été très difficile d'admettre que le hasard est le moteur de l'évolution. Il nous est encore plus difficile d'accepter qu'il puisse être à la source de notre propre genèse individuelle. La réticence est du même ordre. L'embryologie a été dominée par les conceptions déterministes depuis l'Antiquité. Pour la période plus récente, cette réticence provient également en partie du livre du physicien autrichien Erwin Schrödinger (1887-1961) « Qu'est-ce que la vie ? » publié en 1944 [4]. Il a profondément influencé les biologistes moléculaires à la suite de Max Delbrück et de Watson et Crick [5]. Schrödinger, prix Nobel 1933 pour ses travaux de physique quantique, se demandait si la loi des grands nombres, autrement dit la production d'effets constants par le jeu d'un très grand nombre d'événements aléatoires constituant un phénomène, pouvait permettre de comprendre l'organisation du Vivant. Or, en partant de l'observation de l'époque que les gènes comportaient peu d'atomes et que leur nombre était petit, il en a conclu qu'ils ne pouvaient se conformer à la loi des grands nombres, que les atomes les constituant n'étaient pas soumis au hasard brownien. Bertrand Laforge En fait Schrödinger se trompait, on le sait maintenant. Le nombre de constituants moléculaires et d'interactions dans une cellule est gigantesque, de l'ordre du nombre d'Avogadro (6,02 x 10 puissance 23). Il n'y a aucune raison de nier l'existence d'une forte variabilité des phénomènes moléculaires sur lesquels des comportements moyens très reproductibles peuvent émerger. Malgré ce constat, la plupart des biologistes ne se posent pas la question de la dynamique des processus d'expression de gènes. Ils mettent l'accent sur la structure, pas sur la structuration. Ils oublient le rôle de la variabilité, c'est-à-dire la dispersion des valeurs d'un paramètre dans le temps. Ainsi lorsque des embryologistes parlent de l'embryon, ils évoquent les stades de développement deux cellules, quatre cellules, etc., pour signifier que le processus d'embryogenèse suit un déroulement temporel similaire d'un embryon à un autre. Ils gomment par là les différences qualitatives et quantitatives qui peuvent exister d'un embryon à un autre ; ou s'ils les observent, ils les considèrent comme négligeables. Cela étant dit, la dynamique aléatoire ne suffit pas à produire un système cohérent. Notre simulation le confirme. Cette dynamique ne permet d'évoluer vers quelque chose de reproductible que si elle est contrainte. Prenons une image : si je me déplace au hasard, je n'aurai pas la même trajectoire selon que je parcours un couloir étroit ou un environnement ouvert : dans le premier cas, mon itinéraire sera déterminé et j'atteindrai la sortie à coup sûr ; dans le second cas, sans contraintes, la variabilité de parcours sera très grande. Dans une cellule, les contraintes applicables à la dynamique aléatoire des paramètres sont multiples : elles sont internes, depuis la structure de la chromatine, de l'ADN, des gènes et des ARN, jusqu'aux structures intracellulaires (complexes protéiques, cytosquelette, etc.). Elles sont aussi externes : hormones, signaux moléculaires, interactions cellulaires, facteurs physico-chimiques environnementaux (pression, température, facteurs nutritifs,.), et aussi endogènes, liées à l'émergence de la structure globale en développement. Cette notion de « contraintes » est utile car elle relie bien le microscopique et ses lois physico-chimiques au monde macroscopique et à l'environnement. De manière heuristique, elle permet d'intégrer le darwinisme classique et l'ensemble des processus biologiques micro, méso et macroscopiques dans un cadre théorique unique dont la formalisation est encore à faire. V. Justement votre travail de simulation a produit une nouveauté quant à ce que provoquent ces contraintes, par rapport au modèle tel qu'il se présentait : la notion d'équilibre sélectif. Jean-Jacques Kupiec Dans la première version du modèle, le hasard intervenait dans la détermination des types cellulaires ; puis se produisait une sélection par stabilisation de l'un des ces types grâce à deux types d'interactions : soit de l'interstabilisation (une cellule fabrique un signal moléculaire qui stabilise le phénotype d'une autre cellule) ; soit de l'autostabilisation (une même cellule stabilise son phénotype, par exemple par auto-régulation d'un gène). Les deux interactions ont été simulées d'abord indépendamment. On s'est immédiatement aperçu qu'elles engendraient des résultats différents. Dans l'interstabilisation, des structures de petite taille étaient favorisées : une cellule a besoin des autres cellules pour être stabilisée ; plus elles sont proches, plus vite la cellule est stabilisée dans un état donné. Dans l'autostabilisation, les structures produites sont plus grandes. Pour la deuxième version du modèle, nous avons donc couplé l'autostabilisation avec une forme d'interstabilisation, que nous avons appelée « l'interdépendance pour la prolifération ». V. Fait étonnant, vous montrez que les structures se stabilisent sous forme de bicouches alors qu'il n'y a aucun élément déterminant dans les ingrédients de départ ? Jean-Jacques Kupiec Nous sommes allés là largement au-delà de ce nous voulions faire initialement. En effet, la structure cesse de croître alors que le programme informatique ne spécifie aucune condition d'arrêt de croissance. Il se produit un état d'équilibre spontané entre les deux processus d'autostabilisation et d'interdépendance. Or l'arrêt de croissance est une propriété que l'on attend d'une théorie de l'embryogenèse. Cette question du contrôle de la prolifération est fondamentale pour la compréhension du cancer. V. L'hypothèse classique sur le cancer est que des mutations de signaux entraînent une prolifération ou une différenciation anormales. En quoi votre résultat en diffère-t-il ? Jean-Jacques Kupiec L'hypothèse classique de la cancérisation propose que les cellules se mettent à proliférer ou arrêtent de se diviser parce qu'elles reçoivent des signaux dans un sens ou dans l'autre. Or nos simulations suggèrent que l'arrêt de croissance ne résulte pas d'un signal «stop » mais simplement d'un équilibre quantitatif des différents paramètres qui règlent les processus de croissance. Si l'on modifie cet équilibre en changeant la valeur quantitative de certains paramètres, les cellules recommencent à pousser d'une façon qui évoque le phénomène cancéreux (voir l'encadré précédent). Si la prolifération ne tient qu'à un équilibre entre paramètres, ne devrait-on pas être envahi par le cancer, puisque l'équilibre bascule facilement vers le déséquilibre ? Bertrand Laforge Pas forcément. Un équilibre physique ou physico-chimique peut être extrêmement robuste. Par exemple, il est très difficile d'inverser l'équilibre de l'aimantation. Jean-Jacques Kupiec L'équilibre n'a pas plus de raison d'être altéré dans notre configuration que dans le cadre de la théorie classique. Les valeurs quantitatives d'équilibre en question sont par exemple les constantes d'association ou de dissociation entre un facteur de transcription et sa cible dans l'ADN. Elles découlent de la structure de l'ADN et possèdent donc des valeurs fixes, déterminées au niveau atomique. V. Peut-être plus important, vous suggérez que cette notion d'équilibre peut donner lieu à de nouvelles pistes thérapeutiques. Comment cela ? Jean-Jacques Kupiec L'idée est que l'organisation tissulaire résulte d'un équilibre qui peut être atteint avec différents jeux de paramètres. Si un gène est muté et que la protéine correspondante diffuse moins dans la cellule et le milieu, la théorie classique dira qu'il faut rétablir la protéine sauvage ; on fera donc de la thérapie génique. Selon notre modèle, si par exemple, la mutation correspond à une altération de l'un des processus nécessaires à l'équilibre, l'interdépendance pour la prolifération ; on pourrait donc rétablir l'équilibre grâce à une action sur l'autre processus, l'autostabilisation du gène, en modifiant par exemple l'interaction d'un facteur de transcription avec sa cible. Bertrand Laforge Une autre explication de la cancérisation est la suivante : si un agent cancérigène a une certaine affinité pour une molécule qui diffuse dans le micro-environnement, leur association crée localement des structures moléculaires plus grosses qui diffusent plus lentement ou plus du tout, et cela désorganise le tissu. Des cancers pourraient donc naître en l'absence de mutation, par suite de l'interaction d'un agent environnemental avec une molécule essentielle à l'équilibre tissulaire. V. La mort cellulaire joue aussi un rôle primordial dans l'équilibre que vous décrivez. Jean-Jacques Kupiec C'est un résultat important et relativement inattendu, même si l'on savait que la mort cellulaire est nécessaire à beaucoup de processus qui structurent le Vivant. Dans notre modèle, si les cellules ne métabolisent pas assez de facteurs de signalisation ou de facteurs trophiques, elles meurent. Mais si l'on empêche la mort cellulaire, le taux de formation de la bicouche de cellules diminue. La mort cellulaire améliore donc la viabilité de la bicouche. Cette observation renforce l'idée que la différenciation cellulaire tire son origine de la sélection naturelle : les cellules non adaptées à leur environnement local meurent ; empêchées de mourir, elles provoquent un déséquilibre qui entrave la structuration du système. C'est une façon darwinienne d'expliquer que la mort cellulaire ait été maintenue au cours de l'évolution. Nul besoin de faire appel à la notion d'instructions internes de mort cellulaire ou à celle de programme génétique. Si vous vous opposez au dogme du programme génétique en biologie, cela veut-il dire que vous vous rapprochez des partisans de l'auto-organisation, qui la contestent également ? Ceux-ci pensent que le Vivant est capable de s'organiser, de faire émerger de la nouveauté de lui-même, en raison de propriétés intrinsèques qui le rendent capable de réagir à des perturbations aléatoires externes ou internes. Jean-Jacques Kupiec Le concept d'auto-organisation est devenu très à la mode mais l'on ne comprend plus vraiment ce qu'il signifie. Ce courant, qui date des années soixante, est une application à la biologie de la théorie de l'information et de la cybernétique, ou de la thermodynamique. Il a connu plusieurs variantes portées principalement par Henri Atlan, Ilya Prigogine et Stuart Kauffman. Toutes ces variantes s'opposent au paradigme du programme génétique de la biologie moléculaire, mais aussi au rôle de la sélection naturelle, jugée insuffisante pour expliquer la complexité du Vivant. Des propriétés spontanées des cellules produiraient de la complexité. On retrouve au fond dans ce concept le principe du lamarckisme, une tendance spontanée à la complexification, mais aussi un néo-finalisme transparent dans l'idée d'« états attracteurs » qui guideraient les organismes dans leur développement. J'ajoute que ce courant n'a jamais pu déboucher sur des modèles précis de fonctionnement des êtres vivants permettant d'intégrer les données concrètes acquises par la biologie, comme l'expression stochastique des gènes. Le modèle de différenciation proposé par Henri Atlan fait appel à un principe de diminution de la redondance. Il se réfère à la redondance génétique. Mais ce modèle est oublié aujourd'hui. Il ne faut donc pas confondre notre modèle de hasard-sélection avec de l'auto-organisation. Cela relèverait d'une grande confusion intellectuelle. Nous proposons au contraire une extension du rôle de la sélection naturelle : un darwinisme interne à l'organisme, découlant du hasard et de contraintes environnementales ou intracellulaires telles que la structure de l'ADN. V. Votre travail va-t-il déboucher sur d'autres publications ? Jean-Jacques Kupiec Bien sûr, oui ! Je ne vais pas m'arrêter en si bon chemin, et Bertrand est d'attaque également. Cependant, je profite de cette question pour rappeler que nous avons nous-mêmes nos contraintes. En France, il ne se passe pas six mois sans qu'un rapport ou un colloque fasse l'apologie de l'interdisciplinarité. Depuis cinq ans, nous avons réalisé un travail interdisciplinaire sans nous poser de questions de politique scientifique, mais simplement parce que nous en ressentions la nécessité scientifique. Or nous n'avons pas reçu le moindre soutien institutionnel. Aucun organisateur de colloque sur l'interdisciplinarité biologie-physique n'a songé à nous inviter. J'ai fait toute une série de demandes de financement sur des aspects expérimentaux ou de simulation. Toutes ont été refusées. Est-ce normal ? C'est uniquement grâce à la volonté de Bertrand Laforge que nous avons pu développer cette recherche sur le hasard-sélection en biologie. Notre travail a tout de même débouché sur une publication de trente pages dans une grande revue ! Aujourd'hui, les articles sur l'expression stochastique des gènes fleurissent dans des revues prestigieuses telles que Nature, Science ou Cell. Il serait quand même bon que la France ne reste pas à la traîne. Propos recueillis par Jean-Jacques Perrier Jean-Jacques Kupiec est chercheur Inserm au sein du Centre Cavaillès de l'Ecole normale supérieure, à Paris. Bertrand Laforge est maître de conférence au Laboratoire de physique nucléaire et des hautes énergies (LPNHE), CNRS/IN2P3, Université Pierre et Marie Curie, Paris. [1] B. Laforge, D. Guez, M. Martinez et JJ. Kupiec (2005) Modeling embryogenesis and cancer: an approach based on an equilibrium between the autostabilization of stochastic gene expression and the interdependence of cells for proliferation, Progress in Biophysics and Molecular Biology, à paraître en avril 2005. Accessible sur Science Direct pour le résumé ou le texte complet (abonnés) [2] T. Heams, J.J. Kupiec (2003) Modified 3'-end amplification PCR for gene expression analysis in single cells, Biotechniques 34: 712-714. [3] J.J. Kupiec (1998) Un mécanisme de hasard-sélection pourrait expliquer la différenciation de plusieurs types cellulaires, médecine/sciences 14: 115-121. [4] E. Schrödinger (1944) What Is Life? The Physical Aspect of the Living Cell, Cambridge University Press, Cambridge. Trad. Qu'est-ce que la vie ?, Seuil, Points sciences, 1993. [5] K.R. Dronamraju (1999) Erwin Schrödinger and the Origins of Molecular Biology, Genetics 153: 1071-1076. En ligne ici Pour aller plus loin JJ. Kupiec et P. Sonigo (2000) Ni Dieu ni gène. Pour une autre théorie de l'hérédité, Seuil, Paris, 2e éd. Points Sciences, 2003. J.J. Kupiec (2004) Vers un darwinisme cellulaire, in: J. Dubessy et al. (eds) Les matérialismes (et leurs détracteurs), Syllepse, Paris, pp 237-236. B. Laforge (2004) Prolégomènes à une nouvelle théorie du vivant, in: J. Dubessy et al. (eds) Les matérialismes (et leurs détracteurs), Syllepse, Paris, pp. 263-278. T. Heams (2004) Biologie moléculaire : affronter la crise de la cinquantaine, in: J. Dubessy et al. (eds) Les matérialismes (et leurs détracteurs), Syllepse, Paris, pp. 237-262. Publications récentes sur l'expression stochastique des gènes : T. Hoang (2004) The origin of hematopoietic cell type diversity, Oncogene 23(43):7188-98. R.D. Phair et al. (2004) Global nature of dynamic protein-chromatin interactions in vivo: three-dimensional genome scanning and dynamic interaction networks of chromatin proteins, Mol Cell Biol. 24(14):6393-402. En ligne ici J.A. Izaguirre et al. (2004) CompuCell, a multi-model framework for simulation of morphogenesis, Bioinformatics 20(7):1129-37. A. Paldi (2003) Stochastic gene expression during cell differentiation: order from disorder?, Cell Mol Life Sci. 60(9):1775-8. W.J. Blake et al. (2003) Noise in eukaryotic gene expression, Nature 422(6932):633-7. J.M. Levsky, R.H. Singer (2003) Gene expression and the myth of the average cell, Trends Cell Biol 13:4-6. Sur l'auto-organisation : S.P. Atamas (1996) Self-organization in computer simulated selective systems, Biosystems 39: 143-151. S. Camazine, J.L. Deneubourg, N.R. Franks, J. Sneyd, G. Theraulaz, E. Bonabeau (2001) Self-Organization in Biological Systems, Princeton University Press, 2e éd. 2003, 560 p. A. Kurakin (2005) Self-organization vs Watchmaker: stochastic gene expression and cell differentiation, Dev Genes Evol. 215(1):46-52. © Vivant Editions < n e t t i m e - f r > Liste francophone de politique, art et culture liés au Net Annonces et filtrage collectif de textes. <> Informations sur la liste : http://nettime.samizdat.net <> Archive complèves de la listes : http://amsterdam.nettime.org <> Votre abonnement : http://listes.samizdat.net/wws/info/nettime-fr <> Contact humain : nettime-fr-owner@samizdat.net