UP' Magazine L'innovation pour défi

bio innovations

Inventions génétiques bizarroïdes à l'Académie des sciences

L’Académie des sciences fête ses 350 ans. La grande dame réunit ses troupes de biologistes pour rendre hommage à Gregor Mendel (le pionnier des travaux sur l’hérédité) et à ses dignes descendants.
 
Du 11 au 13 septembre, se sont succédées à la tribune de l’Institut de France les plus grandes figures de la génétique actuelle :  Jean Weissenbach qui signale « combien il reste d’inconnues quand on se tourne vers des espèces non manipulables », Edith Heard grande spécialiste de l’épigénétique, Alain Fischer en quête de thérapies génétiques efficaces, Stanislas Dusko Ehrlich passionné du microbiote, ces microbes en nous qui apporte un deuxième génome trop longtemps ignoré…. 
Parmi eux, Emmanuelle Charpentier, une des découvreuses du système Crispr-Cas9, présent chez les bactéries pour se défendre des virus, raconte la frénésie mondiale pour designer à façon, toutes sortes de génomes :« C’est une sorte de recette standard mais ajustable et versatile qui peut booster les traitements des cancers, les maladies du sang, témoigne la microbiologiste aujourd’hui basée à Berlin (Institut Max Planck d’infectiologie). Je veux que ces technologies soient utilisées à bon escient ».
 
 

LIRE AUSSI DANS UP' : Une biologiste française invente l’arme absolue pour corriger, améliorer ou rééditer la vie

LIRE USSI DANS UP' : Ingénierie génétique : fortes crispations sur CRISPR 

Le foisonnement de toutes ces précieuses présentations qui fixe le paysage actuel d’une génétique encore bien mystérieuse n’est pas réservé aux seuls auditeurs présents mais sera disponibles en ligne dès le 20 septembre sur le site vidéo de l’Académie.

LIRE AUSSI DANS UP' : CRISPR : Révolution dans l’histoire humaine ou méga bombe à retardement ? 

En plongeant au sein de ce patrimoine génétique des êtres vivants, on est frappé par la diversité des stratégies et inventions de la nature toujours en évolution. Quand on écoute Susanna Coelho, de la station biologique de Roscoff (CNRS, UPMC), expliquer l’origine et l’évolution des sexes à partir de ses travaux sur les algues brunes, ou Gertraud Burger évoquer les « gènes morcelés » pour lesquels la cellule a inventé un arsenal chimique pour réaliser une expression cohérente, on saisit l’incroyable créativité de la chimie du vivant.
 
Des échanges insoupçonnés méritent d’être pointés comme l’explique Thierry Heidmann (Institut Gustave Roussy), lauréat de la médaille de l’innovation du CNRS en 2016 qui étudie les virus qui ont contribué à notre génome. « 9% du génome des mammifères est composé des vestiges de rétrovirus, raconte-t-il. On les appelle ‘virus engogènes’. La plupart son inactifs mais certains sont fort utiles come ceux qui codent pour les syncytines, protéines qui contribuent à la formation du placenta ».
Son équipe vient de publier un résultat étonnant : ces gènes capturés par nos ancêtres donnent aux mâles une masse musculaire supérieure à celle des femelles. Fluidité et interdépendance des vivants donc…
 
Jean-Claude Mounolou - qui a contribué aux recherches pionnières sur la génétique mitochondriale de la levure – insiste « j’aimerais que mes petits-enfants comprennent que l’humain n’est pas un achèvement «.
 
En clôture de cet anniversaire, un des plus grands penseurs des théories et informations biologiques, Antoine Danchin, normalien et fondateur d’AMAbiotics, évoque le mystère de cet ADN utile et non codant.
 
Le récent résultat de Craig Venter – publié en mars 2016 - qui a construit un génome minimal de bactérie Mycoplasma genitalium - avec seulement 473 gènes-  intrigue : parmi ces gènes, 41 % participent à l’expression du génome, 18 % à la structure et aux fonctions de la membrane, 17 % au métabolisme et 7 % à la préservation de l’information génétique. Mais la fonction de 149 gènes reste inconnue, ce qui représente presque un tiers du matériel génétique ! « Ce résultat montre tout ce que nous ignorons encore », souligne Antoine Danchin.
 
Soucieux de pointer la responsabilité des chercheurs, Jean-Claude Ameisen , président du Comité consultatif national d’éthique, a intitulé son exposé final « La volonté que la liberté de l’autre soit ». Le thème est engageant, à une époque où les visions de l’avenir divergent et où la tolérance à « l’autre différent » est menacée. Comment organiserons-nous la cohabitation des projets, quand le fondateur de Paypal Peter Thiel engage ses amis transhumanistes à s’extraire des réglementations étatiques pour fonder des villes flottantes ? Qui va réguler (et comment ?) les nouvelles techniques d’édition qui donnent le pouvoir d’exterminer des espèces jugées indésirables ou menaçantes (comme les moustiques vecteurs du zika) ?
 
Emmanuelle Charpentier insiste : « Je sais que les interventions sur l’ADN inquiètent. Il faudrait s’accorder sur les définitions utilisées comme l’OGM – généralement basée sur l’insertion d’un ADN étranger. La référence au « naturel » est aussi souvent mal interprétée : nous sommes tous des entités génétiques modifiées ! Ce qui compte ce sont les raisons pour lesquelles utiliser l’outil Crispr-Cas9. Il faut que le produit final soit acceptable, conforme aux défis auxquels nous sommes confrontés ». Et Emmanuelle Charpentier ajoute : « Je mange bio, je roule à vélo, je veux contribuer à un développement durable : la technologie Crispr-Cas9 est aussi un instrument qui doit permettre l’innovation dans les sciences du vivant ».
 
 

 

OGM

Un OGM n’est jamais « naturel »

Nous poursuivons notre série d’interviews présentant les enjeux majeurs du FESTIVAL VIVANT dont UP' Magazine est partenaire. Yves Bertheau s’exprime ici sur la brûlante question des nouvelles techniques d’édition (ou New breeding techniques/ NBT). Démissionnaire du Comité scientifique du Haut Conseil des biotechnologies (HCB), il détaille ici les défis d’une évaluation et d’une traçabilité des « nouveaux OGM » ou produits NBT.
Yves Bertheau est biochimiste et phytopathologiste, directeur de recherche Inra au MNHN . Spécialiste des OGM et de leur traçabilité, il a coordonné un programme européen (Co-Extra) sur la coexistence des cultures OGM et non OGM.
 
 
UP' : Les nouvelles techniques de sélection utilisant notamment la méthode Crispr/cas9 brouillent les frontières entre OGM et non-OGM. Au lieu de greffes génétiques, on opère des "copier-coller" sur le génome comme cela peut se passer naturellement. Pour autant, peut-on considérer le résultat comme naturel ? Est-ce pertinent de continuer à se référer à cela pour dire qu'il n'y a pas de danger ? Peut-on les appeler "nouveaux OGM " ?
 
Yves Bertheau : La question de la frontière entre OGM et non-OGM nécessite en premier lieu de définir le terme d'OGM. Si, comme l’entendent généralement les biologistes, un OGM résulte d’une modification d’un génome par introduction par l'homme de réactifs spécifiques, alors ceci concerne aussi bien les OGM issus des techniques des années 70 que ceux issus de la majorité des « nouvelles » techniques de modifications des génomes comme les méthodes Crispr. Ces nouvelles techniques constituent une évolution importante dans la gamme des outils d’étude du génome par leur facilité d'usage et leur versatilité, mais n'échappent pas au côté artificiel de leur mise en œuvre par l'homme.
 
En sus, si par « greffes génétiques », vous entendez insertion de séquences génétiques issues d’espèces non sexuellement reliées à une espèce soumise à manipulation génétique et par « copier-coller », celles de séquences issues d’espèces sexuellement compatibles, il faut rappeler que les méthodes Crispr-Cas permettent l’insertion de n’importe quelle séquence, quelle que soit l’espèce d’origine, qu’elle soit par ailleurs une très proche copie de celle d’origine, partiellement remaniée ou totalement synthétique.
Crispr-Cas fait partie de ces « nouvelles » techniques dites « d’édition », discutées au niveau communautaire, qui constituent en fait un ensemble assez hétérogène dont les points communs sont le désir d’améliorer la précision des méthodes de modification des génomes et de contourner des réglementations OGM actuelles.  Par de nombreux aspects, les connaissances mises en avant pour ce point réglementaire relèvent désormais plutôt des décennies passées. C’est ainsi que si l’on considère, par exemple, la greffe entre OGM et non OGM, les connaissances actuelles sur la mobilité des petits ARN non codants et leur capacité à induire de manière héritable des modifications à distance dans tous les tissus, dont les produits consommés, conduisent à classer ces constructions comme des assemblages OGM.
 
Méfions-nous des simplifications !
 
Enfin plus généralement, méfions-nous des présentations volontairement sur-simplifiées de ces techniques. Crispr-Cas correspond en fait à un très vaste ensemble de variantes, que ce soit au niveau des ARN, des protéines apportées ou des acides nucléiques codant pour elles, d’expression transitoire ou non, insérés ou pas, elles-mêmes éventuellement combinées avec d’autres techniques en vue de modifications génétiques et épigénétiques. Les innombrables combinaisons possibles rendent impossible toute évaluation a priori.
 
Pour répondre à votre question, il n’existe donc aucun brouillage de la frontière entre OGM et non-OGM : les organismes issus de ces nouvelles techniques sont bien génétiquement modifiés par l'homme et donc par là même des OGM. La présentation médiatique des technologies à base de Crispr, qui tend à faire passer les produits de ces modifications comme naturels, ne correspond pas à la réalité scientifique et technique de leur utilisation. Cette présentation médiatique focalisée sur la modification voulue à un endroit précis (insertion, délétion, épimutation, réarrangement de séquences issues ou non d’espèces sexuellement compatibles...) oblitère de surcroît – par l’effet réverbère utilisé - de nombreux autres aspects qui font que cet ensemble complexe de techniques participe bien au continuum des techniques de production d’OGM.
 
Attention effets collatéraux !
 
En effet, les techniques à base de Crispr-Cas et autres (ZFN, TALEN, RdDM, OdM...), vantées pour leur spécificité de ciblage, induisent aussi de nombreuses modifications hors-cibles (off-targets) en raison de la présence de séquences cibles plus ou moins similaires à de nombreux autres endroits des génomes. En second lieu, les systèmes Crispr-Cas nécessitent, comme les autres techniques de modification du génome, de mettre en contact le génome cible et les réactifs. Les techniques de vectorisation (d'entrée des réactifs) au travers de micro-injections, virus ou bactéries vecteurs, électroporation, bombardement de particules... induisent également de nombreuses mutations et épimutations. Ces mêmes techniques sont utilisées en transgénèse classique, au sens de la directive 2001/18 et rapprochent à nouveau ces nouveaux OGM des anciens.
Enfin, les nombreuses autres techniques connexes, telles que la ‘protoplastisation’, la sélection des cellules transformées, les cultures cellulaires, la régénération des plantes sont toutes communes à la production des OGM, nouveaux ou anciens. Elles sont de même toutes inductrices de mutations et d’épimutations.
 
Signalons au passage que, tant les nombreuses restrictions d’usage (liées aux tissus, espèces, séquences PAM, différences in vitro et in vivo, faible efficacité...) des nouvelles techniques de modification du génome que celles liées par exemple à la régénération des plantes ne permettent pas de revendiquer des applications généralisées, au contraire de ce qu’on peut souvent lire dans les médias. Ces nouvelles techniques ne sont pas des couteaux suisses universels.
Il est dès lors impossible de parler de résultat naturel sauf à oublier toutes les modifications non intentionnelles du génome et ces restrictions d’usage.
 
Tenter d’éliminer toutes ces modifications non intentionnelles du reste du génome implique de nombreux rétrocroisements (4 à 14 selon le degré de « propreté » visé) avec au mieux l’espérance d’éliminer 90% de ces modifications non désirées, ce qui laisse pour certaines espèces cultivées des millions de nucléotides non épurés. Ce « nettoyage » suppose également que les modifications non intentionnelles ne soient pas trop proches de traits désirés ou présents sur des portions du génome sujettes à des distorsions de ségrégation. Vouloir s’assurer de la réduction de ces modifications non intentionnelles nécessite également des séquençages de génome dont la fiabilité varie selon les techniques et plateformes de séquençage, les logiciels d’assemblage et de recherches de variants de différents types... 
Malgré le degré de précision de la modification ciblée et des améliorations en cours, à la reproductibilité inconnue pour ces dernières, les nouvelles techniques ne paraissent donc pas suffisamment matures. Elles manquent dramatiquement de cadres d’évaluation des risques acceptés et un minimum normés. Ces rapides considérations soulignent que même des « ségrégants négatifs », obtenus par rétrocroisements à partir d’OGM, doivent rester dans le champ d’application de la directive 2001/18.
 
Des espèces modifiées qu’on ne peut pas assimiler à des espèces « naturelles »
 
Peut-on dès lors considérer le résultat de ces techniques, et donc des Crispr-Cas, comme naturel ? Non, et ce, à deux titres. D'une part, les techniques ne sont pas aussi maîtrisées que le suggèrent bien des présentations qui en sont faites et elles engendrent de nombreuses mutations et épimutations non intentionnelles, et par là potentiellement des changements de caractéristiques de la plante. D'autre part, le processus de manipulation génétique est évidemment artificiel, le résultat demeure donc artificiel dans le contexte de l'évolution et de l'écologie.
 
Y-a-t-il danger pour autant ? Ne confondons pas risque et danger. Le premier se réfère à la probabilité de survenue d’effets néfastes tandis que le second se réfère à la qualité intrinsèque des produits considérés. Un produit dangereux issu des nouvelles techniques de modification du génome ne serait soit pas autorisé, soit autorisé dans des conditions restreintes, visant à réduire l’exposition des populations et/ou de l’environnement à ce produit en fonction de leur vulnérabilité. Encore faut-il que la procédure d’évaluation existe pour identifier cette dangerosité.
Découlant de la réponse à la première partie de cette question, différents risques seront à évaluer : ceux dus directement à la modification souhaitée, comme des pléiotropies, et à ses conséquences non intentionnelles sur l'organisme, ceux dus aux méthodes afférentes et d’autres dus à l’accélération de la modification des caractères par l’homme, sans compter les effets environnementaux consécutifs à leur dissémination.
 
Nous manquons de capacités d’évaluation
 
Les nouveaux OGM, résultant d’une des « nouvelles » méthodes de modification du génome, doivent donc pouvoir bénéficier d’une étude au cas par cas, comme dans le cas des OGM relevant déjà du champ d’application de la directive 2001/18. La meilleure connaissance scientifique des effets du processus de mutagénèse de cellules végétales en culture amène également à reconsidérer le statut des mutants obtenus in vitro qui sont actuellement exclus du champ d’application de la directive 2001/18.
Toute modification importante, pour ne pas dire violente, du génome, en particulier in vitro, devrait être considérée autant à l’aune de nos connaissances de l’évolution des organismes et des écosystèmes que de celles sur les mécanismes moléculaires. Les connaissances qui s’accumulent quant aux mobilités intra-plante et intra-animale ou au travers de muqueuses intestinales, d’acides nucléiques mobiles inducteurs d’effets épigénétiques, distaux et héritables par exemple au travers des fruits, conduisent à recommander (i) l’application du principe de précaution aux applications commerciales, (ii) au développement de procédures nouvelles d’évaluation des risques et (iii) à tout le moins à des analyses au cas par cas améliorées par rapport aux dossiers OGM actuels.
 
Comme dans le cas des nanotechnologies, les applications technologiques commerciales ont précédé les capacités d’évaluation des risques. C’est ainsi que l’AESA  en est encore à commander en 2016 une revue systématique sur les ARN non codants, qui peuvent être utilisés en combinaison ou non avec les systèmes Crispr, et à lancer des études quant à la possible méthodologie d’évaluation des risques liés à l’épigénétique.
 
Au-delà des changements de pratiques agricoles induits par les nouveaux traits introduits, les modifications génétiques rapides, radicales et souvent irréversibles doivent être considérées avec prudence, alors que la sélection classique liée la conservation de ressources génétiques constituent encore la meilleure source d’amélioration de la production et d’adaptation aux changements environnementaux. Il est à craindre que les plantes ne constituent un ballon d’essai, pour tester des technologies dont l’application à l’homme est loin d’être acceptable.
 
Personnellement, j'observe que les mêmes arguments techniques et économiques utilisés ces dernières décennies pour les premiers OGM et pour le clonage animal, servent à défendre cette évolution de techniques, avec toujours :
•             la même confusion entre science et applications,
•             les mêmes postures de politiques et industriels quant au progrès, à l’innovation et à la compétitivité,
•             le même retard entre méthodologies d’évaluation des risques et applications commerciales qui fait que l’AESA a dû ces dernières années repréciser les cadres d’évaluation dont les bonnes approches statistiques,
•             les mêmes « effets réverbères » quant à la communication mise en jeu,
•             la même volonté de politiques que leur choix a priori soit couvert par un début d’onction scientifique
•             et finalement une information biaisée pour les citoyens, profanes...
 
L’histoire des techniques serait-elle en France un éternel recommencement ?

LIRE AUSSI DANS UP' : CRISPR: entre peur et euphorie, la bataille de l'éthique bat son plein

UP' : Comment pourrait-on organiser l'évaluation de ces semences génétiquement modifiées ? Le Haut Conseil aux Biotechnologies a été organisé selon 2 collèges : le Comité scientifique et le Comité économique éthique et social, est-ce une bonne idée de séparer les deux types d'analyse ?
 
YB : L'évaluation de ces semences génétiquement modifiées requiert de nombreux champs d’expertise. Au vu du faible nombre d’experts mobilisables en situations controversées, du temps nécessaire à consacrer à une évaluation de qualité et des moyens contraints – financiers et humains entre autres - en appui, il est évident que les moyens doivent être affectés à une seule structure. Le HCB paraît dès lors le mieux placé au point de vue scientifique, si des moyens supplémentaires lui étaient alloués et si le CSBT , structure nécessaire à l’évaluation post-commercialisation des effets non intentionnels des OGM commercialisés et à la coordination avec d’autres surveillances biologiques du territoire, renaissait de ses cendres, fut-ce au sein de l’ANSES. Ceci sans parler des points de vue éthique, économique et social, puisque le HCB est la seule structure qui permet à ces champs d'être discutés entre porteurs d’intérêts.
 
Historiquement, l’expérience de la CGB  avait permis de constater que l’expertise pratiquée manquait à la fois de moyens - financiers, humains - et d’un cadre adéquat : les associations de consommateurs, de protection de l’environnement, etc., se plaignaient de discussions trop techniques en dehors des préoccupations du public.
 
L’idée de deux « cercles », traduite au HCB par les deux Comités d’expertise, l’un d’expertise scientifique et l’autre plus général d’expression des courants d’une société démocratique, ce dernier appuyé autant que de besoin par des groupes de travail d’experts ad-hoc, fut avancée par Marie-José Nicoli (UFC-Que Choisir). Elle fut reprise dans la conférence de citoyens de 1998 et le rapport de 1999 de P. Kourilsky et G. Viney sur le principe de précaution. L’ensemble a abouti à la loi de 2008, instaurant HCB et CSBT, dans le droit fil du Grenelle de l’environnement.
 
Toute innovation technique, toute application des résultats de la recherche, nécessite la prise en compte des désirs et choix de la société, au risque de son rejet. Cette prise en compte devrait éviter certains verrous technologiques, comme par exemple la disparition des semences commerciales non-OGM, et permettre la coexistence de différents modes de vie et de production.
 
La séparation en deux comités avec des analyses séparées participe donc du débat démocratique, qui se doit d’être transparent, pluraliste et contradictoire, et doit être maintenue. Mais les capacités d’expertise socio-économique, juridique et éthique du CEES devraient pouvoir être plus facilement et plus rapidement appuyées par la création, au fur et à mesure des besoins ressentis, de groupes de travail appropriés. De plus, à l’instar de l’ANSES, un comité de déontologie indépendant devrait être créé. Il permettrait d’éviter les détournements de procédure, favoriser le pluralisme et la transparence, appliquer le règlement intérieur, contrôler les conflits d’intérêts et leur application sans langue de bois, comme le rappelait récemment un groupe de réflexion interne sur la gouvernance.
 
Utiliser positivement les dissensus
 
Deux problèmes se posent pourtant, qui nécessitent des aménagements et surtout des formations tant des experts, des porteurs d’intérêts que du personnel du secrétariat du HCB.
 
La première difficulté est la place concrètement accordée aux dissensus dans le travail d'un comité d'experts et dans ses productions finales. Loin d’affaiblir l’expertise, cet exercice permet au contraire d’approfondir la réflexion et de distinguer clairement ce qui est connu avec un bon degré de certitude de ce qui comporte encore des incertitudes et constitue majoritairement une extrapolation. Dès lors, le CS pourrait ne plus être considéré comme un lieu de controverse opaque et surtout d’influence de lobbies qui fait que nombre d’experts refusent d’y participer tandis que d’autres au contraire s’y investissent, mais plutôt comme porteurs d’intérêts. En fait, posséder une formation de scientifique ne suffit pas pour comprendre que l’évaluation du risque ne consiste pas à tenter de le gérer, prérogative du politique, et que croyances personnelles et relations avec des porteurs d’intérêts ne doivent pas oblitérer l’esprit critique. Les notions de conflits et liens d’intérêt devraient être formellement décrits, afin de bien faire comprendre que ceux-ci ne se résument pas à des financements personnels directs mais recouvrent d’autres formes comme des liens financiers professionnels, des liens institutionnels ou relationnels, des intérêts intellectuels et industriels...
 
Du côté du CEES que je connais moins, il paraît là aussi nécessaire de former les représentants de porteurs d’intérêts dont certains, à l’évidence, paraissent plus présents pour affirmer des positions de principe, forcément divergentes, que pour rechercher des solutions innovantes.
 
UP' : La Commission européenne doit statuer prochainement sur ces "Nouveaux OGM". Faudrait-il revoir la directive 2001-18 ? Comment pensez-vous souhaitable d'organiser la réglementation
 
YB : La Commission européenne devait effectivement livrer fin 2015 son interprétation en droit. Reportée par la suite à mi 2016 puis à fin 2016, la date de remise de cette interprétation a récemment été repoussée sine die, apparemment en raison de pressions très fortes.
 
Mais la question de revoir la directive 2001/18 n'avait jamais été mise sur la table, du moins par les pouvoirs publics, ce qui peut se comprendre car cette directive est assez claire : tout est question d'interprétation.
Revoir la directive 2001/18 pour ces nouveaux OGM relèverait donc d’une décision politique, que les mêmes politiques, beaucoup ayant déjà leur opinion arrêtée quant à l’intérêt de ces techniques, demandent aux scientifiques d’oindre d’un vernis scientifique d’acceptabilité.
 
Fondamentalement, la directive 2001/18 et les directives et règlements en découlant ne paraissent pas nécessiter de modifications drastiques. Etant donné les modifications non intentionnelles dues aux techniques connexes, des effets hors-cibles des nouvelles techniques de modifications du génome, et des limites des méthodes de détection de ces effets ou de leur suppression, il convient d’examiner attentivement chacune des variantes et combinaisons de ces techniques de modification du génome puis leur résultat. Dès lors, le cadre général des OGM doit continuer à s’appliquer tant aux techniques qu'aux produits issus de ces techniques, que ce soit pour l’évaluation des risques que pour les autres éléments (traçabilité, coexistence, culture versus importation...). Ces nouveaux OGM, y compris les ségrégants négatifs ou les produits issus de greffes entre OGM et non-OGM, avec leurs ARN mobiles induisant des modifications héritables dans les autres parties, ou les techniques RdDM  et OdM , devraient donc entrer dans le champ d’application de la directive 2001/18.
 
S’aligner sur la définition des OGM du Protocole de Carthagène
 
De façon à éviter qu’à l’avenir des questionnements similaires apparaissent à chaque évolution des techniques, il serait par contre utile que soit réaffirmé le principe que toutes les modifications in vitro aboutissent à des OGM auxquelles cette directive doit être appliquée. Ce serait se mettre en conformité avec la définition des organismes vivants modifiés, fournie par le Protocole de Carthagène que l'Union européenne a ratifié en 2000 !
 
Pratiquement, un effort important doit être aussi entrepris pour rattraper rapidement le retard pris sur les procédures d’évaluation du risque et de surveillance des effets non intentionnels après commercialisation.  Comment évaluer l’effet des ARN non codants mobiles ? Plus généralement, comment évaluer les risques associés aux modifications épigénétiques ? Quelles procédures consensuelles de prédiction des off-targets ? Quels outils (génomes de référence...) développer pour détecter ces off-targets ou assembler correctement les séquences issues des séquençages à haut débit ? Voici quelques-uns des obstacles à lever, au travers d’un minimum de normalisation, pour une bonne évaluation des risques inhérents à ces nouvelles techniques incluant les Crispr-Cas.
 
Dès lors, les structures existantes comme le HCB paraissent les mieux adaptées à évaluer ces produits bénéficiant ainsi d’une capitalisation des acquis et des compétences, dans une période de moyens contraints alors que les experts manquent. Dans un même souci de mutualisation des moyens et compétences, la structure de surveillance biologique du territoire post-commercialisation pourrait s’adjoindre aux activités de phytovigilance de l’ANSES. Le transfert de l’évaluation vers d’autres structures entrainerait un retard considérable dans le développement des procédures, la mise en place des instances, le tout avec un accroissement des coûts d’évaluation sans compter des risques forts de contestation sociétale.
 
Propos recueillis par

 

guerre biologique

Zika est juste le premier front de la guerre biologique du XXIe siècle

Un article paru le 24 août dans Foreign Policy Magazine* souligne les effets explosifs de la biologie de synthèse en matière de défense. La contamination par le virus Zika illustre les risques de pandémie, dès lors que l’on ne connaît pas l’ennemi ! Comment envisager de mettre en œuvre la dissuasion dans ce domaine où les signes de malveillance sont indéchiffrables ? Quels moyens déployer pour décoder une attaque et identifier l’adversaire ? Autant de défis qui exigent une coordination nationale et internationale aujourd’hui, à peine amorcée.
 
Il y a de nombreux défis en matière de sécurité nationale aux États-Unis, mais trop souvent notre attention est exclusivement focalisée sur les menaces terroristes, la géopolitique et les cyberattaques.
Alors que le pays affronte l'arrivée du virus Zika et envisage des interdictions de voyage vers Miami, il est temps d'avoir un débat approfondi sur les menaces posées par la biologie. 
Certes, nos vies sont de plus en plus enchâssées dans le cybermonde. Le superordinateur que vous transportez est un synthétiseur de toutes les connaissances (la photographie, l'art, la musique, et les données du monde). Il est aussi une sorte de machine à rayons X qui peut fournir des indications sur les plus profonds recoins de nos vies personnelles : nos préférences, des choix, des moments intimes, la santé, les achats et en effet notre caractère.
Mais l'impact de toutes ces données est bien peu de choses en comparaison de ce qui se prépare sur le chemin de la révolution biologique. Les développements biotechniques détermineront le cours du XXIème siècle. Ebola, Zika et l'émergence de bactéries super résistantes aux antibiotiques sont les premiers signaux des menaces à venir. La plupart des scientifiques pensent que les technologies biologiques vont introduire les ruptures les plus radicales - à la fois pratique et éthique - dans notre vie quotidienne.

Les risques de la biologie synthétique dépassent les dangers de l'ère atomique

Un élément principal de la révolution biologique sera son impact sur la sécurité au sens large du terme, ainsi que sur le domaine plus spécifique de l'activité militaire. Ces deux préoccupations font partie du travail effectué par les différents laboratoires à travers le monde, y compris ici aux États-Unis à Johns Hopkins Applied Physics Lab, où je contribue comme senior fellow.
Certains des progrès les plus prometteurs faits à JHU APL et ailleurs concernent six domaines : les connexions cerveau-machine qui permettraient l'utilisation des membres déconnectés ; l’identification rapide de maladies en réponse à des épidémies naturelles ou artificielles ; l'intelligence artificielle pour des drones d'attaque autonomes ; l’amélioration des performances humaines, y compris la réduction significative des besoins de sommeil, l'augmentation de l'acuité mentale ; l'amélioration des phanères et la peau «armure» ; et enfin le recours à l'édition CRISPR –Cas, très facile d’usage désormais pour optimiser les génomes (greffes de capacités nouvelles).

Rester dans les limites morales

La question la plus importante est de savoir comment poursuivre convenablement ces recherches tout en restant dans les limites légales, morales et politiques que notre société doit définir alors qu’elle est bien peu informée. Les scientifiques ressemblent à des soldats en patrouille dans un terrain non balisé, qui est parfois illuminé par un éclair, révélant un sol plus raide et plus dangereux à venir.
Les États-Unis doivent développer une bio-stratégie cohérente car les efforts nationaux de recherche en biologie auront des implications internationales. La diplomatie internationale, qui a structuré le droit de la mer, examine les cadres possibles pour réguler le cybermonde, et pourrait servir de modèle utile. Un défi majeur pour cette diplomatie est que toute nation ou organisation transnationale, ou même tout individu aura bientôt accès - si ce n’est pas le cas déjà - à des outils biologiques qui permettent la manipulation des organismes vivants.
L'essor des technologies de biologie synthétique à bas prix, la baisse du coût du séquençage de l'ADN, et la diffusion des connaissances à travers l'Internet créent les conditions d'un événement biologique. On connaît l’explosion de contaminations terribles comme ce fut le cas avec la grippe espagnole, il y a presque un siècle (1918). Selon certaines estimations, près de 40% de la population mondiale a été infectée, avec un taux de mortalité de 10 à 20%. Si l’on extrapole à la population mondiale actuelle, cela équivaudrait à plus de 400 millions de morts.

400 millions de morts d’un coup : quel régime de dissuasion contre la bio terreur ?

Le plus inquiétant serait que des nations-voyous ou des groupes transnationaux violents s’emparent de ces technologies et les utilisent pour créer des armes biologiques de destruction massive.
Chercheur à l'Université Johns Hopkins, Josh Wolfe a souligné : « Les armes biologiques naturelles sont limitées par les caractéristiques des agents qui ne peuvent pas être conditionnés en arsenal. Mais les constructions de biologie synthétique peuvent se prêter à la fabrique d’armes ».
Josh Wolfe se concentre sur la capacité de détecter rapidement les menaces biologiques synthétiques, les analyser, et, peut-être plus important encore, les attribuer - c'est-à-dire, identifier quel laboratoire ou quelle nation est la source de la construction. La recherche de Wolfe pourrait fournir aux gouvernements des informations suffisantes sur les attaques biologiques pour leur permettre de développer des réponses cohérentes - et ainsi jeter les bases d'un régime de dissuasion international. (Dissuader les organisations terroristes d'utiliser de telles armes biologiques si elles étaient en mesure de construire ou de les obtenir serait une tâche beaucoup plus ardue.) 
 
Il y a trois éléments clés pour établir une vigilance contre la bio terreur. Premièrement, nous avons besoin d'une approche internationale qui vise à limiter la prolifération des technologies très dangereuses. C’est un point difficile car les indices capables de révéler des intentions agressives n’existent pas contrairement aux armes nucléaires qui exigent des installations spécifiques. Même le repérage du commerce de gènes de virulence n’est pas suffisant pour alerter… ou suspecter de la malveillance (NDLR : des laboratoires académiques ont construit de toutes pièces les génomes de virus synthétiques de la polyo et de la grippe espagnole, sans être suspectés de bio terrorisme).
 
Deuxièmement, il faut organiser la coopération dans le cas de contagion ou d'une menace biologique transnationale. Troisièmement, le processus interagences du gouvernement américain doit devenir plus apte à répondre à la fois aux progrès scientifiques et aux défis de sécurité. À l'heure actuelle, la politique fédérale relative à un tel travail est organisée en silos, ce qui empêche de répondre rapidement ou efficacement. Une partie du travail est faite par les Centers for Disease Control and Prevention, ou par le ministère de la Sécurité intérieure, et d'autres responsabilités et capacités sont affectées au ministère de la Santé et des Services sociaux. Parallèlement à tout cela, le ministère de la Défense a développé sa propre capacité assez complexe. Sans une coordination forte, le pays reste aujourd’hui à risque important.

La militarisation de la biologie arrive…

Enfin, cette vigilance exige un niveau puissant de coopération public-privé. Une grande partie des avancées technologiques viendront des entreprises de biotechnologies situées notamment autour de Boston. Il faut les associer à ce défi de sécurité avec les centres gouvernementaux et universitaires comme Johns Hopkins, sans étouffer indûment l'innovation.
Des modèles dans le monde de la cybersécurité existent. En outre, il est impératif d'ouvrir un débat plus large sur l'impact futur des modifications biologiques. En tant que citoyens, nous passons beaucoup trop de temps axé sur l'information et les cybertechnologies. La militarisation de la biologie vient rapidement. Et notre capacité à contrôler ce processus - ou non - déterminera notre destin.
 
James Stavridis, amiral de l’U.S. Navy, commandant de l’OTAN et doyen de l'École Fletcher de droit et de diplomatie à l'Université Tufts.
Texte traduit par Dorothée Browaeys
 
* Fondé il y a quarante ans par Samuel Huntington, Foreign Policy Magazine réalise une veille sur les principaux enjeux mondiaux. En 2013, ce media a été acheté par Graham Holdings Company,  anciennement le Washington Post Company.
 
 
 

 

écologie-économie

Quand économie rime avec écologie

En préparation des trois journées de colloque du FESTIVAL VIVANT  (15-16-17 septembre), nous publions trois regards successifs sur les trois thèmes : Bioéconomie, Biotechs et sociétés, Biodesign. Nous commençons avec Martino Nieddu qui témoigne de l’émergence de nouveaux modèles d’innovation des entreprises qui utilisent des bioressources.
Martino Nieddu est directeur du laboratoire d’économie et gestion REGARDS à l’Université de Reims Champagne-Ardenne. Il mène des recherches sur la « chimie doublement verte », les trajectoires scientifiques et les business model dans le champ de la bioéconomie.
UP' Magazine est partenaire du Festival vivant 2016
 
Vous êtes économiste et vous voyez une forte mobilisation des entreprises pour exploiter les biomasses. Chimie verte, économie circulaire, ce mouvement de la bioéconomie peut-il être vertueux en évitant de détruire encore davantage les écosystèmes ?
 
Il faut nuancer la mobilisation des entreprises en faveur du développement de l’usage des ressources renouvelables végétales. Celle-ci reste marginale et cantonnée aux efforts des acteurs historiques : les grandes coopératives agricoles (par ex. Vivescia et Sofiproteol en France), les papetiers (par ex. Tembec au Canada ou dans les Landes ou les papetiers d’Europe du Nord), les entreprises transformant traditionnellement l’amidon (Roquette Frères) ou la cellulose (Borregaard), les multinationales de collecte de céréales (Cargill), les entreprises de la chimie qui avaient déjà des produits biosourcés (Arkema avec ses polyamides à base d’huile de Ricin) ou les entreprises fournisseurs d’enzymes pour des process biotechs (Novozymes).
 
Les autres firmes, tout en déployant une activité exploratoire en chimie verte et en chimie du végétal peuvent être considérées au regard de leurs engagements comme en position d’attente. Celle-ci est active, certes, avec des tests non négligeables de produits, mais la part des produits biosourcés reste anecdotique dans des firmes comme Dupont de Nemours ou BASF.
En effet, on sait faire depuis très longtemps une chimie du végétal. Mais celle-ci n’est ni nécessairement verte a priori, ni spontanément viable économiquement. Les grands mouvements débutés après le premier choc pétrolier, ont surtout visé à « reparcourir en chemin inverse » la grande substitution par les matières premières d’origine fossile que la raffinerie de pétrole avait réalisée : produire des biocarburants liquides et refaire les matières plastiques issues de pétrole mais par voie biosourcée (l’éthylène vert qui rencontre un succès grandissant auprès de firmes souhaitant exhiber rapidement une amélioration du bilan carbone de leurs bouteilles ou emballages plastiques, ou des produits à « étiquette verte »).
 
On peut donc considérer que la bioéconomie est confrontée à deux défis :
Le premier, contre-intuitif lorsqu’on parle de développement durable, est celui de l’intensification. Un des arguments des chimistes en faveur des ressources fossiles dans les années 1960 était que celles-ci libéraient des surfaces pour l’alimentation ; renouer avec un usage des ressources végétales, non seulement pour nourrir les humains et les animaux, mais aussi pour leur fournir les matériaux pour les habiller, pour l’habitat, fournir des emballages, des plastiques divers, de l’énergie suppose en effet une intensification sans précédent des procédés agricoles et industriels.
Le deuxième défi est celui des produits attendus. On peut imaginer deux scénarios extrêmes. Le premier est un scénario de substitution où la ressource agricole est mobilisée pour faire les mêmes produits intermédiaires que la chimie de commodités traditionnelle, afin d’obtenir les mêmes produits finis (on fait alors du cracking comme dans la raffinerie pétrochimique, par ex. pour obtenir le même butadiène destiné aux caoutchoucs synthétiques). Le second est un scénario dans lequel on revisiterait les fonctionnalités attendues sur certains objets pour satisfaire des besoins sociaux ; l’objectif de la chimie du végétal serait alors de chercher à atteindre ces fonctions à partir de la « fonctionnalisation » de la richesse des structures complexes proposées par la nature. Cette voie impose bien sûr, un investissement massif sur les procédures d’éco-conception qui sont au fondement des principes de chimie verte.
 
Pouvez-vous citer deux ou trois exemples d'entreprises qui inventent de nouveaux modèles d'innovation en intégrant les valeurs sociales et écologiques dans leurs priorités ? Quelles sont leurs visions du vivant ?
 
Les modèles d’innovation durable ne peuvent en fait se concevoir au niveau d’une entreprise unique, mais dans l’articulation de business model d’entreprises et de modèles d’innovation de niveau méso-économique.
On peut illustrer cela par deux exemples :
1 - Le site de Pomacle-Bazancourt regroupe des entreprises industrielles livrant des produits alimentaires (sucre, amidons modifiés, additifs alimentaires ou non alimentaires (biocarburants, CO2, molécules à haute valeur ajoutée), et des entreprises de recherche (ARD qui développe une plate-forme d’open-innovation accueillant d’autres entreprises), dans une perspective de bioraffinerie. Les acteurs du site ont engagé dès le début des années 2000 une réflexion sur les flux matières et énergie, en raisonnant à la fois sur le complexe industriel, sur les terres agricoles attenantes, et les réserves en eau. Dans une perspective d’écologie industrielle, les acteurs cherchent à optimiser les flux de matières et d’énergie en installant des boucles d’économie circulaire sur le territoire.
2 - La firme italienne Novamont a cherché à théoriser dans son business model la stratégie d’économie circulaire. Elle se refuse à produire sur base végétale des produits équivalents à des produits pétrosourcés, si ceux-ci ont déjà des organisations qui en permettent le recyclage. Elle sélectionne donc ses voies d’exploration en matière d’innovation, en les dirigeant vers des thermoplastiques biodégradables et compostables. Cette théorisation en termes d’économie circulaire - le retour des plastiques d’origine biosourcée à la terre - conduit donc la firme à considérer comme une opportunité économique les limites écologiques de la planète, dans une belle formule « le pouvoir des limites » qu’elle souhaite mettre au fondement de son business model. Dans celui-ci, elle souhaite promouvoir une bioraffinerie territorialisée, basée sur l’utilisation en chimie verte de plantes autochtones (comme le chardon de Sardaigne).
 
Comment les pouvoirs publics peuvent-ils inciter à une transition vers une bioéconomie soutenable ? Quels sont les prémisses ?
 
Le premier défi pour les pouvoirs publics se situe dans l’ordre de la réglementation. Les complexes agro-industriels produisent à la fois de l’alimentaire et du non alimentaire, avec au sein de ces complexes des boucles de réutilisation (par ex. en alimentation animale de co-produits de l’activité de fractionnement des bioraffineries). Les technologies mises en œuvre sauf à imaginer des process en univers confiné - qui ne le sont jamais tout à fait - doivent donc être compatibles entre usages alimentaires et non alimentaires, et avec une fin de vie permettant le « retour à la terre ». Ceci qui suppose pour les pouvoirs publics de maîtriser une connaissance fine des process, pour en déduire des réglementations à mettre en œuvre dans une perspective d’économie circulaire.
Si l’on reprend les attendus de la communication de la Commission européenne au parlement (dans sa note stratégique sur la bioéconomie du 13 février 2012 (COM(2012) 60 final), intitulée « L’INNOVATION AU SERVICE D’UNE CROISSANCE DURABLE : UNE BIOECONOMIE POUR L’EUROPE » , la bioéconomie vise à la fois à réindustrialiser les vieilles régions industrielles et à promouvoir une croissance verte.
 
Les promesses de la bioéconomie selon la Commission européenne : « Afin de faire face à l'augmentation de la population mondiale, à l'épuisement rapide de nombreuses ressources, aux pressions environnementales accrues et au changement climatique, l'Europe doit adopter une approche radicalement différente de la production, de la consommation, du traitement, du stockage, du recyclage et de l'élimination des ressources biologiques. La stratégie Europe 2020 préconise de développer la bioéconomie comme élément clé d'une croissance verte et intelligente en Europe. En effet, les progrès de la recherche en matière de bioéconomie et l'adoption d'innovations permettront à l'Europe de mieux gérer ses ressources biologiques renouvelables, de créer de nouveaux marchés et de diversifier l'offre de denrées alimentaires et de bioproduits. Il y a de grands avantages à instaurer en Europe une bioéconomie car celle-ci permettrait de préserver et de stimuler la croissance économique et l'emploi dans les zones rurales, côtières et industrielles, de limiter la dépendance vis-à-vis des combustibles fossiles et d'accroître la durabilité économique et environnementale de la production primaire et des industries de transformation. La bioéconomie contribue donc significativement à la réalisation des objectifs des initiatives phares d'Europe 2020 « Une Union pour l'innovation » et « Une Europe efficace dans l'utilisation des ressources ». » (Communication de la Commission, 13-02-2012, COM(2012) 60 final, p.3)
 
Néanmoins, toute l’histoire de l’agriculture s’est faite sur la base de l’adaptation des hommes aux contraintes naturelles. Ceci a conduit à la très grande diversité des paysages agraires que l’on a connue avant l’ère agro-industrielle. L’enjeu de la bioéconomie devient donc celui de l’articulation de pratiques agro-écologiques (une double intensification économique et écologique, dirait Michel Griffon), et de réindustrialisation écologique, dans une perspective d’économie circulaire et de chimie verte. Or la très grande variété des territoires agricoles conduit à des niveaux de productivité différents et à des couples [produit végétal renouvelable/territoire] différents si l’on respecte les caractéristiques agro-écologiques de ces territoires - sauf à vouloir traiter la matière première végétale comme un pétrole vert qui peut être indifféremment importé des zones rentières de ce nouvel « or noir ».
Le deuxième défi pour les pouvoirs publics est donc de sortir d’un modèle unique, pour imaginer les dispositifs permettant à des complexes territoriaux - à niveaux de productivités différents - de déployer des formes diverses de bioéconomies viables en fonction des caractéristiques de ces territoires.
Le troisième défi pour les pouvoirs publics est celui de la promotion d’un « capital patient » pour porter les projets bioéconomiques. Il faut sept à dix ans pour sortir un process du laboratoire.  Et si l’on reprend les pas de temps du développement des plastiques, on obtient des pas de temps d’une vingtaine d’années, voire d’une trentaine d’années pour obtenir, par voie d’amélioration incrémentale, les fonctionnalités attendues. Les produits d’origine végétale sont à l’aube de cette « fonctionnalisation ».
 
Le Festival vivant a lieu du 15 au 17 septembre 2016 sur le Campus de l'Université Paris-Diderot, 15 rue Hélène Brion - 75013 - Paris
 
Propos recueillis par 

 

Gene drive

Le forçage génétique pour éliminer les espèces

Changer les règles de la génétique. Tel est le pouvoir de la technique dite « gene drive » (ou forçage génétique) qui permet de propager un caractère à 100% parmi les descendants (au lieu de 50%). Cette « ingénierie massue » intéresse les responsables de santé publique confrontés aux moustiques vecteurs de maladies ou les gestionnaires de territoires envahis par des prédateurs. Alors que se tient cette semaine à Hawaii, le Congrès mondial sur la conservation, les clans adverses vont s’affronter sur ce sujet. Des opposants au Gene Drive ont publié une lettre ouverte. Le débat sera vif aussi à Cancun en décembre prochain car il est à l’ordre du jour des négociations de la Convention sur la biodiversité des Nations Unies.
 
Faire mourir en masse des populations envahissantes ou menaçantes.  L’idée progresse depuis une dizaine d’année pour lutter notamment contre les rongeurs qui pullulent dans les îles. Karl Campbell, a mené des programmes d’éradication des rats et souris dans une douzaine des îles des Galapagos. Traditionnellement, on recourt aux pesticides pour tuer ces animaux qui menacent les tortues légendaires. Mais les résultats sont souvent insuffisants : une simple femelle porteuse de petits est capable de régénérer très vite la population.
 
En 2011 le service américain de la vie sauvage et des poissons a amorcé un plan pour exterminer les souris des îles Farallones, situées à une quarantaine de kilomètres au large de la ville de San Francisco. Il a été proposé des aspersions par hélicoptères de produits tueurs de rongeurs. Mais le public n’a pas voulu appuyer cette démarche, au vu des effets collatéraux : empoisonnement des prédateurs, pollution des eaux marines par le produits toxique, perturbation des oiseaux par les hélicoptères…Malgré l’appui des scientifiques, le projet est resté dans les limbes, sans financement et les souris ont continué à proliférer.

Et s’il y avait un moyen plus « propre » d’intervenir

John Godwin, neurobiologiste à l’Université de Caroline du Nord a pensé qu’on pouvait imaginer une solution génétique à cette pullulation néfaste pour une île paradisiaque. Avec ses collègues, Fred Gould, entomologiste – qui avait déjà manipulé les moustiques pour les empêcher de transmettre le paludisme et la dengue - et David Threadgill, généticien chez Texas A&M, spécialiste des modèles cancer de souris, il a entrepris de manipuler le génome de la souris Mus musculus.
 
Celui-ci n’a plus de secret : ce fut le second mammifère après l’homme à voir son patrimoine génétique totalement séquencé en 2002. La démarche poursuivie par les chercheurs a été de manipuler génétiquement les mâles afin qu’ils ne puissent plus produire de descendance. La création d’une distorsion de genres dans les populations est appelée démarche « sans filles ».
 
Ils ont très vite été confrontés à un problème : comment assurer la propagation rapide du gène « suicidaire » introduit quand celui-ci crée – la plupart du temps - des désavantages.

Exploiter un bug viral

Habituellement, les processus évolutifs aboutissent à ce que chaque nouveau-né hérite de la moitié des gènes de chacun de ses parents. Et les gènes défavorables percent moins que les autres du fait de la pression de sélection sur le long terme. Mais un généticien américain, Austin Burt a identifié des éléments génétiques dits « égoïstes » et a réussi - – depuis 2003 - à exploiter ces séquences qui se propagent même si elles sont délétères.
 
La recette est devenue très simple : attacher la séquence qui va stériliser le descendant à un gène égoïste, insérer le tout dans les gamètes (cellules sexuelles) des souris mâles et le tour est joué.  Cette technique appelée « gene drive » utilise les outils CRISPR/cas9 et court-circuite les règles de l’évolution. Elle permet une propagation très rapide du gène désiré.
 
Un programme de biocontrôle génétique des rongeurs invasifs (GBIRd –Genetic Biocontrol of Invasive Rodents) est soutenu par cinq partenaires : US Island Conservation, USDA, Texas A&M, North Carolina State University,  CSIRO. L’objectif est d’être prêt pour le moment de l’autorisation prévue en 2020

Faut-il utiliser la massue technique du « gene drive » pour exterminer moustiques, souris ou poissons invasifs ? 

L’Université de Hawaii envisage de recourir à ce « forçage génétique » pour lutter contre le paludisme aviaire qui affecte certains oiseaux (Honeycreeper). C’est le moustique Culex quinquefasciatus  qui est visé. Vecteur de diverses maladies dont le paludisme aviaire dû à Plasmodium relictum, ce moustique peut être éradiqué par trois techniques : les mâles rendus stériles par irradiation, la transgénèse ou l’approche gene drive. L'équipe de Andrea Crisanti à l'Imperial College de Londres, a utilisé cette technique de forçage pour détruire un gène nécessaire à la fertilité féminine.
 
La puissance de l’outil est telle que certains pensent à l’utiliser pour exterminer des chauve-souris ou des amphibiens par des attaques de champignons rendus virulents.
 
En avril dernier, s’est tenu à Sausalito (Californie) un séminaire sur ces nouvelles « solutions génomiques » pour les problèmes de conservation. Il a été organisé par Revive and Restore, fondé par Ryan Phelan et son mari Stewart Brand avec l’appui de la  Long Now Foundation. Son objectif : ressusciter les espèces disparues ou en voie d’extinction comme le mammouth laineux ou le pigeon voyageur. Parmi les sponsors on trouve Autodesk, Zygote Ventures, USDA, Wyss institute…Se sont donnés rendez-vous à ce meeting George Church (Wyss Institute) le pape de la discipline, Rob Carlson (Biodesic) et des responsables d’Oxitech (la société qui fabrique des moustiques transgéniques expérimentés au Brésil), d’Amyris, de Google...

La génétique au secours des espèces envahissantes ou… en danger

Faire revivre des espèces en voies d’extinctions comme le mammouth laineux, le pigeon voyageur, le furet aux pattes noires, le Heath hen… requiert des mêmes leviers génétiques. Certains utilisent le terme de « Crispr Zoo », tant l’édition de gènes (par la technologie Crispr/cas9) pour désigner ces êtres qui pourraient sortir de cette des-extinction (Voir les 15 conférences TEDx sur le sujet). Mais les avis sont très contrastés vis-à-vis de ces techniques.
« Devons-nous utiliser le gene drive pour stopper les espèces invasives ? » interroge la journaliste californienne Alison Hawkes.
Les craintes résident dans le manque de connaissances que nous avons pour connaître les effets d’une éradication. Car un écosystème est en équilibre et toute modification peut générer des effets en chaine : repeuplement par une espèces cousines, prolifération des espèces consommées par l’animal éradiqué…

Que maîtrise-t-on au juste, quand on manipule ainsi un écosystème ?

C’est dans cet esprit que les représentants d’associations comme ETC Group, Les Amis de la Terre… et plusieurs leaders environnements comme Jane Goodal, DBE, le généticien David Suzuki, le prospectiviste Fritjof Capra, l’entomologiste et présidente  du réseau européen de scientifiques pour la responsabilité sociale et environnementale (ENSSER) Angelika Hilbeck, la physicien et activiste indienne Vandana Shiva et le biologiste Nell Newman,  demandent un moratoire de facto sur le recours au gene drive. Ils lancent un « Appel pour une protection des espèces avec conscience ». Le détail des préoccupations a été explicité par un groupe de travail de la société civile consacré au gene drive. 
Une des craintes de ces activistes est que le gène égoïste (de stérilité) s’échappe vers des espèces bénéfiques ou qu’il ait des conséquences imprévues. Nous n’avons pas de moyens de réparer de tels dégâts, souligne l’article du New Scientist paru en juin dernier sur ce sujet.
 
Cet article est publié en partenariat avec Le Festival Vivant

 

Loading...
Loading...