UP' Magazine L'innovation pour défi

Séisme en Italie

Que sait-on vraiment des séismes ?

Le tremblement de terre qui a eu lieu le 24 août dans le centre de l'Italie entraîne, comme toujours en pareil cas, son cortège de chiffres macabres et d'images de désolation. Et toujours la même question : peut-on prévoir un tel séisme ? Une question toujours sans réponse qui souligne notre impuissance devant les forces de la nature. Deux sismologues tentent dans cet article de nous expliquer la nature d'un séisme et les pistes de recherche en cours pour la prévention ou au moins l'alerte de ce type d'événements.

La mobilisation scientifique pour la prédiction des séismes ne date pas d’hier. Après le séisme en Alaska de 1964 et dans le cadre d’un effort international, les chercheurs américains avaient demandé la mise en place d’un grand projet national sur la prévision des séismes.

Le titre du projet contenait bien les termes « prévision des séismes » mais la revue Science (Walsh, 1965) notait alors qu’il s’agissait d’une part de donner, avec une grande chance de succès, l’alerte quelques heures ou quelques jours avant les grands séismes, et d’autre part de développer des techniques qui permettent de limiter les pertes humaines et les dégâts même si le premier objectif n’était pas atteint.

L'opinion publique a été plus sensible aux promesses de la prévision qu’à celle de la mitigation. Malgré les immenses avancées dans la compréhension des séismes et de leurs effets catastrophiques, les annonces optimistes des années soixante ont créé une profonde déception vis-à-vis de l’échec apparent de la prévision des séismes.

Sémantique des séismes

Il faut ici aborder des questions sémantiques et d’objectifs. S’agit-il de la prévision de l’occurrence d’un séisme, de la prévision des mouvements du sol potentiellement dangereux ou de la prévision d’une catastrophe ?

Heureusement, tous les séismes n’amènent pas de destructions, et un des objectifs fondamentaux de la sismologie est de comprendre où et pourquoi les destructions se produisent. Il nous faut aussi préciser l’échelle de temps de la prévision : est-ce qu’un séisme est imminent (c’est à dire une annonce dans les secondes, les heures, ou les jours avant l’évènement) ? Où est-il probable qu’un séisme se produise dans les années ou les décennies à venir ?

Chacune de ces prévisions peut être utile, suivant les conditions géographiques et socio-économiques. Même si nous ne savons pas prévoir les séismes, la possibilité de prévoir les mouvements du sol qui vont se produire et les annoncer juste avant que les vibrations destructrices ne se produisent peut être d’une grande utilité.

Cela permet de mettre en sécurité des installations critiques et surtout alerter les populations. Cette forme d’alerte, après le séisme, mais avant ses effets à distance, est déjà mise en pratique dans des régions à haut risque.

Les vibrations sismiques que nous ressentons pendant les séismes et qui peuvent détruire des bâtiments se sont en fait propagées dans les roches en profondeur parfois sur de grandes distances. Ces ondes sismiques se propagent rapidement, mais les plus destructives d’entre elles (les ondes de cisaillement) ne sont pas les plus rapides des ondes élastiques et se propagent bien moins vite que les signaux électromagnétiques.moins vite que les signaux électromagnétiques.

 

Alerte par smartphone. UC Berkeley/YouTube

Quand un séisme se produit, des vibrations sont détectées près de la source et cette information peut être transmise presque instantanément vers des centres où elle sera traitée automatiquement ; ils pourront alors émettre des alertes dans les secondes qui suivent l’émission, donc avant les vibrations destructrices.

Sismologie en temps réel

Ces techniques sont mises en œuvre sous le nom de sismologie en temps réel et de tels systèmes sont opérationnels dans différentes régions du monde (Japon, Italie, Californie, Mexique…). Bien sûr, ces systèmes ne nécessitent pas de prévision.

Sur le long terme, (depuis les années jusqu’aux décades), la géophysique fournit les outils indispensables à un management rationnel des ressources qui doivent potentiellement être affectées à la sûreté sismique. Dans le même temps, les analyses quantitatives des effets des séismes permettent de comprendre les conditions locales qui gouvernent la distribution des dégâts. Ces études offrent des éléments précieux pour adapter les modes de construction et l’aménagement du territoire aux conditions géologiques locales.

En ce sens la sismologie permet d’adopter des politiques de développement orientées vers la sécurité des populations. De grands progrès ont été faits et continuent à s’accomplir, mais il est difficile pour le public d’apprécier l’efficacité d’approches comme l’analyse probabiliste de l’aléa sismique car cette forme de « prévision » s’exprime sous la forme de probabilités à long terme, alors que la vision sensible des séismes est celle des images de destruction qui apparaissent régulièrement dans les médias.

Vision déterministe

La vision publique de la prévision sismique est typiquement déterministe, une réponse binaire à la question de l’occurrence d’un séisme dans un délai de quelques heures à quelques jours, précisément l’échelle de temps pour laquelle aucune réelle avance opérationnelle n’a été faite. Les raisons en tiennent à la complexité des processus physiques à la source des séismes.

Les séismes sont des instabilités de glissements qui se produisent dans la situation critique où la résistance au glissement de la faille – la friction – est proche des forces élastiques résultant de la déformation lente des roches. Bien que nous ne le percevions pas dans notre expérience quotidienne, la Terre est en évolution permanente. Les couches profondes subissent de lents mouvements de convection où les matériaux chauds remontent vers la surface, se refroidissent en plaques rigides puis replongent, donnant naissance en surface à la tectonique des plaques.

 

Les plaques tectoniques. USGS/Wikipédia

Les vitesses des plaques sont de l’ordre du centimètre par an. Lorsqu’un séisme se produit, les deux faces de la faille glissent localement à une vitesse relative de l’ordre d’un mètre par seconde, ce qui représente plus d’un milliard de fois la vitesse constante du mouvement des plaques.

En d’autres termes, les séismes destructeurs se produisent en quelques secondes, mais sont le résultat d’une lente évolution qui s’est étendue sur des dizaines, des centaines ou des milliers d’années. Le temps pendant lequel les mouvements de la Terre ont été mesurés est si court que nous n’avons pas d’espoir de savoir avec précision quand un état critique résultant d’une longue évolution sera atteint.

Phase préparatoire

Néanmoins, des études expérimentales et théoriques suggèrent que la rupture pourrait être précédée par une évolution rapide qui se développerait dans un laps de temps beaucoup plus court que celle de la préparation tectonique. Cette phase préparatoire, souvent appelée initiation, n’est pas observée systématiquement avec les méthodes géophysiques actuelles et on pourrait raisonnablement craindre que cette recherche de signaux précurseurs soit sans espoir considérant la méconnaissance de l’amplitude et de la durée de ces phénomènes. Pourtant des découvertes récentes ouvrent des perspectives plus positives.

 

Géosenseur EarthScope. Bdelisle/Wikipédia

La géodésie et la sismologie ont fait de grands progrès dans leur capacité à détecter de faibles changements dans les roches en profondeur. Les stations GPS en continu et les techniques de traitement récentes détectent des mouvements de plus en plus petits. Les stations GPS et sismologiques sont installées progressivement en d’importants réseaux denses, sous la forme de grandes antennes aux capacités de détection sans précédent.

Séismes lents

Ces dernières années, ces efforts ont été couronnés par la découverte de nouveaux processus de déformation. Le plus spectaculaire a été celui de l’existence de séismes lents. Ces séismes lents sont des épisodes de glissement en profondeur avec des vitesses de glissement intermédiaires entre celles des plaques et celles des séismes normaux. Les séismes lents les plus grands ont une magnitude supérieure à 7.5 (mesurée de manière équivalente à celle des séismes) pour des durées de plusieurs mois et on assiste à de plus en plus d’observations indiquant l’existence de séismes lents avec une diversité de magnitudes.

Cette découverte indique que la Terre se déforme avec des processus d’échelles de temps entre les extrêmes représentées par celle de la tectonique des plaques et celle des séismes. Les déformations transitoires récemment découvertes sous la forme de séismes lents peuvent être étudiées avec les méthodes de la géodésie spatiale (GPS, INSAR…).

Une analyse détaillée des enregistrements sismiques a montré que ces déformations sont aussi associées à une forme de faible grincement consistant en une superposition de micro-évènements sismiques. Ces observations suggèrent que nous pourrons dans le futur détecter et caractériser les faibles déformations en profondeur indiquant la préparation des grands séismes.

Il restera, on le sait, un long chemin avant de parler de prévision, mais les géophysiciens persévèrent dans leurs avancées pour comprendre notre Terre en évolution permanente. Aujourd’hui, bien comprendre les séismes est certainement la meilleure manière de vivre avec eux, de se préparer, de connaître notre vulnérabilité et d’adopter des politiques de prévention qui permettent de vivre dans des environnements garantissant la sécurité optimale de tous.

Michel Campillo, Sismologue, professeur à l'Université Grenoble-Alpes, Institut universitaire de France, Université Grenoble Alpes

Rob van der Hilst, Sismologue, professeur au Massachusetts Institute of Technology, Massachusetts Institute of Technology

La version originale de cet article a été publiée sur The Conversation.

image d'en-tête : Des secouristes recherchent des blessés dans les gravats à Arcuata del Tronto (centre de l'Italie) après un tremblement de terre le 24 août 2016. - Sandro Perozzi/AP/SIPAThe Conversation

 

 

Droit des robots

Faut-il un droit des robots ?

Si l’on s’en tient à son étymologie, le mot « robot » se rapporte à une entité anthropomorphe, car ce mot a d’abord été employé pour désigner un automate humanoïde dans une pièce du tchèque Karel Čapek, RUR, les Robots universels de Rossum, créée en 1921. Mais depuis quelques années, le terme est utilisé en des sens bien plus larges.
L’expression d’« intelligence artificielle » est, pour l’instant, trompeuse ; le robot n’est pas intelligent au sens humain. Et c’est bien cette différence psychologique fondamentale que le juriste devrait intégrer dans son raisonnement lorsqu’il va chercher à appliquer les principes juridiques fondamentaux ou à rédiger des conventions.

On parle aujourd’hui de robots pour désigner des machines-outils, des véhicules automatiques, des logiciels d’aide à la décision, des traders automatiques, des drones, des machines chirurgicales, des exosquelettes, voire des téléphones cellulaires (tous ces robots posent, au demeurant, de nombreux problèmes, ne serait-ce qu’en raison de la mémoire externe qu’ils peuvent, peu à peu, devenir pour les individus).

Les « vrais » robots

Nous pensons néanmoins qu’il serait préférable de conserver au terme de « robot » un sens plus proche de ses origines, à savoir « celui qui imite le vivant », celui qui désigne un humanoïde (androïde) ou, à la rigueur, un animaloïde, voire un végétaloïde.

C’est, en effet, celui-là qui trouve un écho dans l’inconscient collectif depuis le Golem, celui-là qui a justifié tous les fantasmes, toutes les terreurs, mais aussi de nombreuses créations artistiques.

Certains de ces robots se rapprochent le plus possible de l’apparence humaine ou animale, d’autres s’en éloignent, mais se rattachent à l’aspect humain, comme le font des personnages fictifs de bandes dessinées ou de dessins animés. La confusion n’est pas alors parfaite, mais l’assimilation inconsciente demeure.

Certains n’ont pas d’autre vocation que ludique ; mais beaucoup d’entre eux sont censés réaliser une ou plusieurs actions sociales (aide physique, intellectuelle ou psychologique) aux côtés de l’humain (assistance aux personnes vulnérables, notamment aux personnes âgées, aide à l’éducation des plus jeunes). On parle alors de « robots sociaux », sous-catégorie des robots de service.

Un robot de compagnie pour les enfants hospitalisés (vidéo Euronews, mars 2016).

La frayeur entretenue

La crainte grandit de voir, peu à peu, des robots s’humaniser en acquérant une intelligence artificielle, interactive et apprenante, tirant des leçons de leur expérience, s’individualisant au fil du temps, voire commençant à contenir des éléments vivants (ordinateur ou éclairage d’origine biologique).

Réciproquement, l’on s’inquiète de la robotisation progressive des humains (prothèses diverses, implants, y compris dans le cerveau). Mais l’idée, à la fois effrayante et séduisante, qu’un jour les deux mouvements pourraient se rejoindre, demeure, en l’état, une fiction. Et le juriste a bien plus à se soucier d’un troisième mouvement, celui de la manipulation du vivant par la génétique.

Le droit, toujours

L’avocat Alain Bensoussan milite de longue date pour que soit conférée aux robots humanoïdes une personnalité juridique, située quelque part entre le statut des meubles protégés (les animaux), celui des personnes morales et celui des personnes physiques.

L’état de la science nous pousse à penser que, pour l’instant, cette approche demeure prématurée.

Conférence TED d’Alain Bensoussan (novembre 2015)
 

Qui a vu un match de football « disputé » entre robots humanoïdes comprend que l’on est, non seulement loin de la créature monstrueuse qui risque de détruire son créateur, mais encore loin également d’une entité réellement « pensante ».

Nous n’y croirons que lorsqu’un robot-footballeur sera inculpé à l’occasion d’un match truqué. Nous sommes, pour l’instant, dans le « marionnettisme » évolué et numérisé, pas dans la création divine.

À notre sens, attribuer une responsabilité au robot (fût-il interactif et apprenant), lui accorder un patrimoine, peut paraître, en l’état de la science, infiniment plus anormal que d’accorder pareilles titularités aux animaux dont on sait qu’ils sont considérés comme des biens sensibles, voire aux plantes dont on sait qu’elles peuvent adopter une forme de « raisonnement » (opportunisme, défense commune contre un prédateur, etc.).

La question de la responsabilité

L’approche juridique actuelle, face à ces robots qui ressemblent à l’humain et vivent à ses côtés, est, en réalité, probablement, plus simple qu’il n’y paraît. Essentiellement deux questions se posent : celle de la responsabilité et celle du respect de la vie privée.

Quant à la responsabilité contractuelle (au profit des acheteurs ou locataires des robots) la difficulté tient « seulement » en la détermination du responsable : constructeur ou programmateur.

Pour la responsabilité délictuelle (au profit de tiers, victimes d’un préjudice né d’un dysfonctionnement du robot), celle de l’utilisateur final peut, en sus, éventuellement, être recherchée.

Quant au respect de la vie privée, il s’agit de savoir ce que vont devenir les multiples informations que le robot va recueillir sur la personne humaine qu’il côtoie. La question se pose avec encore plus d’acuité si le robot est connecté.

On devrait, juridiquement, savoir résoudre ces problèmes, grâce aux stipulations des contrats (dans lesquels on peut insérer des règles morales, telles les fameuses trois lois d’Asimov) ou par les textes existants tels qu’interprétés par les juges. Faire des lois nouvelles n’est pas toujours indispensable. La spécificité de la matière nous semble résider ailleurs.

L’auteur de science-fiction américano-russe Isaac Asimov énonce les trois lois de la robotique (YouTube, 2009)
 

Imitation et émotion

L’humain, qui parfois s’éprend de simples objets, est, a fortiori, susceptible de s’attacher à un robot humanoïde ou animaloïde. Il va en conséquence lui prêter des sentiments réciproques, alors que le robot ne fait que singer, qu’imiter l’humain, par des sons, des gestes, ou des mouvements du « visage », attitudes programmées face à telle parole ou tel signe, qu’il est appelé à reconnaître grâce à ses capteurs sonores ou visuels.

L’expression d’« intelligence artificielle » est, pour l’instant, trompeuse ; le robot n’est pas intelligent au sens humain, surtout si l’on accepte l’idée que l’intelligence est de l’ordre de la génétique ; s’il s’agit bien de raisonnements, même de plus en plus sophistiqués (on songe à la victoire d’AlphaGo au jeu de go), si le robot dispose de couches successives de silicium de plus en plus nombreuses, d’une mémoire autobiographique, il ne comprend pas pour autant, il n’a pas conscience de ce qu’il fait.

La Rachel du film «Blade Runner» est-elle un replicant ? (vidéo Movieclips, 2011)
 

De plus, il lui manquera toujours l’élément sentimental, la souffrance, le plaisir et les imperfections, qui sont à la fois un inconvénient (l’humain peut commettre plus de fautes que le robot et il peut avoir moins de capacités sensorielles), mais aussi une formidable différence en termes d’empathie, de solidarité du vivant et d’adaptabilité aux imprévus de l’environnement et de l’évolution.

Et c’est bien cette différence psychologique fondamentale que le juriste devrait intégrer dans son raisonnement lorsqu’il va chercher à appliquer les principes juridiques fondamentaux ou à rédiger des conventions.

Didier Guével, Professeur de droit privé et sciences criminelles, Université Paris 13 – USPC

La version originale de cet article a été publiée sur The Conversation.

 

The Conversation

 

Elon Musk : « Vous me prenez pour un dingue ? »

C’est par cette question que commence la biographie qu’Ashlee Vance consacre à l’un des hommes les plus puissants de la planète. Elon Musk, moins connu que Steve Jobs ou Bill Gates, mais de la même veine, est celui qui affirme vouloir changer le monde et qui en a les moyens. L’inventeur de PayPal, de Tesla, de Space X et de l’Hyperloop. L’homme qui rêve de sauver l’humanité en l’envoyant sur… Mars. Un visionnaire mégalo pour certains, génial pour d’autres, qui révolutionne les industries les plus traditionnelles avec fracas et transforme en or tout ce qu’il touche. Un homme controversé et admiré, qui ne laisse pas indifférent.
 
Transformer les humains en colons de l’espace, tel est explicitement le but de la vie d’Elon Musk. Il aime affirmer : « J’aimerais mourir en me disant que l’humanité a de beaux jours devant elle ». Son goût pour les choses impossibles a fait de Musk une divinité de la Silicon Valley. Il en a conservé en grande partie l’éthique (agir vite, éviter les hiérarchies bureaucratisées, inventer des machines fantastiques qui constituent de véritables avancées). Et une vision qui lui sert de credo et de moteur pour toutes ses entreprises ; un objectif radical qui lui sert de principe unificateur : coloniser Mars, faire de l’humanité une espèce multi planétaire… Pour la sauver d’elle-même.
Vision délirante diront certains. Pour d’autres, Musk a produit ce qui manque à beaucoup de créateurs d’entreprise : une vision du monde qui ait un sens.
 
Elon Musk est une force de la nature. 1m85, une carrure d’athlète, moitié play-boy, moitié cow-boy de l’espace, il se déplace lentement, mais pense vite, très vite. Né en Afrique du Sud il y a quarante-quatre ans, il n’a pas perdu de temps pour démontrer ses qualités de visionnaire. Jeune étudiant il rédige un mémoire remarqué sur l’énergie solaire, parle de voitures électriques et de fusées réutilisables. Du délire, disent ses condisciples, mais lui affirme suivre depuis toujours le même plan directeur.

PayPal

Il devient américain en 1994 et crée sa première startup aussitôt en Silicon Valley. Une petite société qui invente ce qui deviendra plus tard Google Map : un système de cartographie permettant d’identifier des lieux et des itinéraires.  Mais la prouesse technologique n’est pas le moteur principal de Mulk. Ce qu’il veut, c’est changer le monde et d’abord changer les industries du monde. Il s’attaque donc à une forteresse apparemment inexpugnable : la banque. Il invente un système de paiement de personne à personne qui permet d’envoyer de l’argent en indiquant simplement l’adresse électronique du destinataire. Son objectif : rompre avec les banques apathiques dont les ordinateurs mettaient des journées entières à traiter des règlements. Il invente un système agile où les transactions se font d’un clic de souris. PayPal était né. Le franc-tireur a visé juste et devient vite multimillionnaire. En 2002, il vend PayPal à eBay pour 1,5 milliard de dollars et empoche, à titre personnel, 250 millions de dollars. Suffisamment pour commencer à réaliser ses rêves les plus fous.

Space X

Son rêve de conquête spatiale va pouvoir devenir une réalité. Il crée aussitôt Space X dans la banlieue de Los Angeles. Un immense hangar revêtu de blanc immaculé mélangeant, dans le même lieu, les meilleurs cerveaux des universités américaines avec les soudeurs et mécaniciens qui fabriquaient le matériel. Tous ensemble pour forger le rêve le plus fou : révolutionner l’industrie aérospatiale et construire des fusées low costs, réutilisables.
L’objectif donné par Musk à ses troupes est clair : construire le moteur de fusée le meilleur et le plus économique, en optimisant tous les processus, pour sortir des fusées plus vite et moins cher que n’importe qui d’autre. L’analyse de Musk était simple : l’industrie aérospatiale traditionnelle fabriquait des produits extrêmement coûteux, des Ferrari, alors que des Twingo pouvaient suffire.
Après des séries d’échecs, de remises en question où tout devait être repensé jusqu’au moindre rivet, après des lancements hasardeux successifs, après avoir frôlé la faillite, l’abandon, à force de persévérance et d’innovation, Space X est aujourd’hui une entreprise à succès qui rivalise avec les fusées de la NASA ou d’Ariane Espace. Ses lanceurs sont considérés comme fiables et peuvent revenir à leur point de départ ; ce que personne au monde ne sait encore faire. Dans son rêve de conquête spatiale, Musk a désormais son armée de fusées, prêtes sur leurs pas de tirs.
 
Mais ce qui est plus important encore, c’est que Musk a révolutionné l’image de l’espace. Si quelqu’un sait observer, c’est bien lui. Il constate que l’industrie de l’espace a rendu l’espace ennuyeux. Les russes, qui dominent l’envoi de personnes et d’objets dans l’espace utilisent des équipements vieux de dizaines d’années. Les boutons et les cadrans de l’exigüe capsule Soyouz n’ont apparemment pas changé depuis le vol inaugural en 1966. Il observe que les pays nouveaux venus dans la course à l’espace imitent les équipements russes et américains avec une précision absurde. Elon Musk veut changer aussi cela et apporter de l’air et de l’innovation à une industrie rouillée. En procédant ainsi, il innove sans complexes et attire les meilleurs talents. C’est une des clés de son succès.

Tesla

Envoyer des fusées dans l’espace ne comble pas encore cet inventeur toujours sur la brèche. Il veut affronter un autre secteur industriel, un secteur lourd, ancien et de taille : l’automobile. On lui rappelle bien vite que la dernière création d’entreprise réussie dans cette industrie aux États-Unis est celle de Chrysler : elle remonte à 1925. Cette mise en garde ne l’effraie pas un instant. Ici aussi, il observe.
À force de voir à la télévision des publicités pour des automobiles, on ne peut plus y faire attention.  Les annonces serinent les mêmes messages depuis des décennies et vantent les petits détails, le porte-gobelet ou le coffre plus vaste.  Pour cet innovateur insatiable, ce n’est pas suffisant ; l’industrie automobile est tombée bien bas.
 
Sa révolution c’est la voiture électrique. Et pas n’importe quelle voiture électrique. Il sort en 2012 une berline de luxe, tout électrique, capable de parcourir 435 km en pleine autonomie. Une auto qui a du nerf (100 km/h en 4.4 secondes) et de l’allure. La mécanique bruyante du moteur a disparu, elle roule en silence, elle est dotée de fonctions inédites : poignées de porte encastrées qui sortent de la carrosserie quand le conducteur s’approche, commandes réunies au volant sous les doigts, écran tactile, espace dégagé, archi-sécurisée… Bref, une auto de classe. Chère, c’est vrai (100 000 dollars) mais quelle voiture !
 
Pourtant la vraie révolution n’est pas dans la voiture. N’importe quel industriel avisé pourrait construire ce type d’automobile. Elon Muk vise plus loin et veut révolutionner l’écosystème de l’automobile. Il supprime les concessionnaires, les réparateurs, les visites régulières, tout ce que les automobilistes connaissent depuis que la voiture existe. La Tesla est vendue en direct sur le web ou dans des boutiques rappelant les Apple Store. Il n’y a pas de garage. Si vous constatez une anomalie, ou souhaitez obtenir les dernières versions avec de nouvelles fonctions, la voiture est automatiquement upgradée, à distance. Car cette voiture est un ordinateur roulant.
 
Pour en recharger la batterie, Musk imagine d’installer des hyperchargeurs sur toutes les autoroutes d’Amérique puis du monde. Rechargement gratuit.
Pour l’auteur de la biographie, Ashlee Vance, « Musk voulait construire une automobile qui ne souffrirait aucun compromis. Il l’a fait. Puis, dans une sorte de judo entrepreneurial, il a bousculé des décennies de critiques contre les automobiles électriques. [Sa} voiture était la meilleure voiture. Point barre. »

Hyperloop

Elon Musk est un innovateur féroce. Après la banque, l’industrie aérospatiale et l’industrie automobile, le voilà vouloir révolutionner l’industrie ferroviaire ! En août 2013, il dévoile l’Hyperloop. Cet engin est un grand tube pneumatique faisant circuler à une vitesse proche de celle du son (1 300 km/h) des capsules en sustentation électromagnétique avec des voyageurs. Son premier projet : relier Los Angeles à San Francisco en moins de trente minutes.

LIRE DANS UP’ : Hyperloop : pour changer le monde du voyage

L’idée lui est venue en observant, encore une fois, le projet de TGV entre les deux grandes villes de Californie. Un projet archaïque à 60 milliards de dollars pour le TGV le plus lent du monde avec le coût au kilomètre le plus élevé. L’Hyperloop coûte entre 6 et 10 milliards de dollars, il va plus vite qu’un avion et permettrait un flux de voyageurs beaucoup plus important pour un prix de billet hyper-compétitif. Il tient tellement à ce projet que, pour le faire avancer plus vite, il l’ouvre en open source à toutes les bonnes volontés.  Les premiers tests grandeur réelle auront lieu courant 2016.
 
 
Elon Musk crée de façon tellement insatiable des automobiles, des panneaux solaires, des fusées, des hyperloops qu’on en oublierait presque que ces projets sont annexes à ses yeux. Pour lui la technologie est la meilleure voie à suivre pour l’amélioration de l’humanité. Ses innovations lui ont apporté gloire et fortune mais son but ultime est de faire des humains une espèce interplanétaire. Son biographe précise « Certains peuvent trouver cela idiot, mais c’est sans nul doute sa raison de vivre. Musk est convaincu que la survie de l’homme dépend de la colonisation d’une autre planète et qu’il doit consacrer sa vie à cet objectif ».  Et cet objectif n’est, pour Musk, pas si lointain que cela. Il prédit : « Je pense que vers 2025 Space X aura développé un propulseur et un vaisseau spatial capables d’emporter vers Mars des gens et des chargements en grande quantité. » Mais il est aussi (relativement) réaliste et connaît les difficultés d’une conquête martienne : « Il faudra un jour chauffer Mars si l’on veut en faire une planète comme la Terre, et je n’ai pas de plan pour cela. Dans le meilleur des cas cela prendra beaucoup de temps. Je ne sais pas combien, entre un siècle et mille ans. Il y a zéro chance pour que Mars devienne une autre Terre au cours de ma vie. Enfin, pas zéro, mais 0.001% de chance, et pour cela, il faudrait prendre des mesures drastiques. »

LIRE DANS UP : Une bombe atomique pour rendre Mars habitable

Dans le secteur des technologies, on compare volontiers la motivation et les ambitions de Musk à celles de Bill Gates et Steve Jobs. Certains osent presque imaginer une manipulation génétique qui aurait permis à Bill et Steve de faire un enfant ensemble et cet enfant serait Elon !  C’est ce que déclare Edward Jung, ingénieur surdoué de la Silicon Valley, actuellement patron des architectures logicielles de Microsoft qui connaît bien les trois génies de la Valley. Un autre observateur éclairé surenchérit : « Il est un mélange amélioré des deux ».
 

LIRE : Ashlee Vance, Elon Musk, Tesla PayPal, Space X : l’entrepreneur qui va changer le monde, Eyrolles, 24,90 euros. 

Cet article a été publié originellement le 12 février 2016
 
 

 

Plante modifiée génétiquement

Modifier génétiquement une plante n’est pas anodin

Actuellement, plusieurs nouvelles techniques de modification génétique font l’objet de discussion, pour déterminer si les produits qui en seront issus seront, ou non, réglementés comme les OGM transgéniques. Cet article d’Eric Meunier de la revue inf’OGM nous permet de comprendre certains des risques potentiels liés à la seule mise en œuvre d’une technique de modification génétique, quelle qu’elle soit, sur une culture de cellules végétales.
 
Les techniques de modification génétique, nouvelles ou anciennes, ne sont pas totalement maîtrisées : si elles permettent d’apporter certains nouveaux caractères à un être vivant (comme la capacité à tolérer un herbicide), elles produisent également de façon non intentionnelle d’autres modifications dénommées « hors-cible » (off-target en anglais) car ayant lieu en d’autres endroits du génome que celui initialement ciblé.
 
Le 7 avril 2016, comme en écho aux remarques d’Yves Bertheau, ex-membre du Haut Conseil des Biotechnologies (HCB), formulées depuis décembre 2015, Jean-Christophe Pagès, président du Comité Scientifique (CS) du HCB, expliquait à l’Office parlementaire sur l’évaluation des choix scientifiques et techniques (OPECST) à propos d’une de ces nouvelles techniques, Crispr/Cas9, qu’il « faut ne pas oublier quelles sont les difficultés de son application [...] en particulier in vivo chez l’animal dans la mesure où il faut apporter une matrice et on a actuellement de gros soucis de vectorisation pour pouvoir le faire.
In vitro, en culture, en revanche, c’est quelque chose de beaucoup plus aisé et c’est la raison pour laquelle la majorité des applications sont des applications de recherche et éventuellement des applications pour lesquelles on peut reconstituer des organismes à partir de culture in vitro, et là ça concerne effectivement certaines plantes »… Des propos qui interpellent car, à y regarder de plus près, l’avis du CS du HCB du 4 février 2016 - devenu depuis rapport provisoire - ne fait pas état de telles difficultés in vivo, ou de telles « facilités » de mise en œuvre in vitro.

LIRE DANS UP’ : CRISPR : Révolution dans l’histoire humaine ou méga bombe à retardement ?

Dans les différentes étapes du processus de modification génétique. Nous allons nous intéresser à l’étape dite de vectorisation qu’évoque Jean-Christophe Pagès, qui consiste à apporter dans une cellule le matériel destiné à générer la modification génétique souhaitée. Mais aussi aux étapes préalables à cette phase de vectorisation qui s’avèrent être sources de stress capables d’induire des mutations et des épimutations (voir encadré ci-dessous).
 

Mutation, épimutation : de quoi parle-t-on ?
Une mutation est couramment définie comme une modification de l’information génétique contenue dans un organisme, que ce soit sous forme d’ADN ou d’ARN. Les mutations sont héréditaires. Elles peuvent être « silencieuses », c’est-à-dire n’avoir aucune implication dans le métabolisme de l’organisme. Elles peuvent aussi affecter l’expression d’un ou plusieurs gènes, modifiant le métabolisme.
Les épimutations appartiennent à la famille des mutations affectant l’expression d’une séquence génétique mais qui ne sont pas dues à une modification de la séquence génétique elle-même. Elles peuvent par exemple être dues à un changement de la composition chimique de briques de base de l’ADN, les nucléotides.

Préparation des cellules à transformer

La première étape avant de pouvoir introduire du matériel dans des cellules (la vectorisation dont parle J.-C. Pagès) consiste à préparer les cellules végétales. Les techniciens de laboratoire vont casser la paroi des cellules, voire l’enlever complètement. Les cellules végétales dont la paroi a disparu, ou protoplastes, deviennent donc transformables et les biologistes peuvent alors faire entrer toute une panoplie d’outils comme des grosses protéines, des ARN et/ou des ADN codant dans ces cellules. Or, comme le rappelle Yves Bertheau, cette « simple » formation de protoplastes induit des mutations et épimutations, un phénomène abondamment observé dans la littérature scientifique [1].

La simple mise en culture de cellules induit des mutations

La deuxième étape consiste à cultiver ces protoplastes. Or le fait même de mettre en culture des cellules est générateur de mutations et épimutations. Le plus étonnant est qu’une bibliographie scientifique montre que les mécanismes à la base de l’apparition de ces mutations et épimutations restent encore assez méconnus malgré des décennies d’utilisation [2]. Ce phénomène, appelé variation somaclonale, est tel qu’il a d’ailleurs été utilisé par des semenciers pour créer une « diversité génétique » nécessaire pour « améliorer » des plantes, pour reprendre un élément de langage des semenciers.
 
Le Groupement national des industries semencières (GNIS) explique ainsi que « la variation somaclonale est la modification observée chez certaines cellules, après un long cycle de cultures in vitro sans régénération. Elles ne sont plus alors identiques à la plante mère. Cette variation peut être due à une modification du génome nucléaire ou du génome des organites cytoplasmiques ».
 
En d’autres termes, les plantes obtenues à partir de ces cellules auront des caractéristiques différentes. Le GNIS apporte une dernière précision intéressante : « les modifications de caractères obtenues sont peu stables et ne se retrouvent pas toujours dans la plante régénérée, ou dans sa descendance ». La raison ? Des modifications apparues (épimutations) peuvent faire disparaître les mutations obtenues [3]… Comme nous l’explique Yves Bertheau, « il paraît difficile dans de telles conditions de prévoir quels impacts peut avoir cette étape de mise en culture de cellules lors de la mise en œuvre d’une nouvelle technique de modification génétique ».

La vectorisation, enfin...

Cellules préparées et mises en cultures, nous voilà enfin prêts à introduire le matériel destiné à générer la modification souhaitée. Selon les techniques, ce matériel peut consister en protéines et/ou séquences génétiques de type ARN ou ADN – molécule plus fréquemment utilisée dans le cas des plantes - codant (oligonucléotides, plasmides, virus…). Les méthodes utilisées pour faire pénétrer ce matériel dans les cellules consistent tout simplement à faire des trous dans les membranes restantes (cytoplasmique et nucléaire) de la cellule. Or, comme nous l’explique Yves Bertheau, faire de tels trous induit, là encore, des mutations et des épimutations [4]. Surtout, le chercheur estime qu’il est impossible de prévoir une grille générale d’appréciation des risques. Car il faut choisir entre plusieurs techniques de vectorisation, entre différents types de matériel, le tout selon les séquences génétiques à introduire et les espèces ciblées. Au final, seule une analyse au cas par cas comme prévu pour les OGM permet d’évaluer les potentiels risques liés à tous ces effets non intentionnels.

Le rapport provisoire du CS du HCB silencieux sur ces mutations

Dans un article publié en 2011, des scientifiques ont estimé que 35% de tous les effets non intentionnels observés suite à une modification génétique de la variété de riz Senia par transgenèse sont dus au processus même de transformation des cellules [5]. Le phénomène n’est donc pas anodin.
 
Étonnamment, et malgré les déclarations de son Président devant l’OPECST, le comité scientifique du HCB n’a pas fait état de ces risques dans son rapport provisoire sur les risques liés aux nouvelles techniques. Si la question de la « vectorisation » est bien abordée dans les fiches du CS de chaque technique, il s’agit seulement de faire état des moyens de mise en œuvre d’une technique et de décrire comment le matériel est introduit dans les cellules. Nulle part il n’est fait état des mutations et épimutations qui peuvent émerger à chacune des étapes comme nous venons de le voir. Le HCB étant composé d’un comité d’experts scientifiques, on attend de ce comité qu’il discute et explique, pas qu’il ignore ces points. D’autant que la vectorisation – pour ne parler que de ce qui est évoqué dans le rapport du CS – n’apparaît pas complètement au point selon les techniques, le même CS notant ainsi pour la mutagenèse dirigée par oligonucléotides que « de nombreuses molécules ou mélanges moléculaires sont en cours d’essais pour améliorer la vectorisation qui fonctionne relativement bien in vitro mais très peu sur des organismes entiers (Liang et al., 2002) » [6].

Sélectionner et régénérer les cellules « modifiées » n’est pas sans effet

Du fait de leur faible, voire très faible, efficacité de transformation [7], les techniques de modification génétique impliquent en aval de sélectionner les cellules ayant effectivement été modifiées. Cette sélection se fait en utilisant des marqueurs qui permettent de différencier les cellules : gène de résistance à des antibiotiques ou à des herbicides (les cellules sont alors plongées dans un bain d’antibiotiques ou d’herbicides et seules les cellules réellement modifiées survivent), gène qui permet la croissance de la cellule en présence d’une molécule habituellement toxique ou encore gène qui permet aux cellules d’utiliser une source de carbone normalement non métabolisable... ou tout autre marqueur qui sera persistant ou supprimé en bout de course [8]. Mais la suppression de ces marqueurs de sélection se fait par des techniques plus ou moins fiables et précises et qui donc peuvent induire potentiellement des toxicités cellulaires et autres réarrangements chromosomiques [9], laisser des empreintes [10] et produire des sites de recombinaisons (lieux d’échanges de séquence génétique entre deux brins d’ADN) aux effets non prévisibles [11]. Des techniques qui ne sont par ailleurs pas forcément possibles pour toutes les espèces végétales.
 
À partir de ces cellules sélectionnées, des plantes doivent ensuite être régénérées. Une nouvelle étape de cultures cellulaires qui fera appel à diverses hormones de synthèse, et pourra aussi induire à nouveau des mutations et des épimutations avec réarrangements ou non de chromosomes [12].
 
Qu’il s’agisse de l’étape de modification génétique en elle-même, des étapes préalables, ou des étapes postérieures, toutes induisent des mutations ou épimutations, appelées effets hors-cible. Mais, on peut entendre dans les couloirs que finalement ces (épi)mutations ne seraient pas présentes dans la plante commercialisée. La raison ? L’étape suivante, dite de rétrocroisement, permettrait de se débarrasser de tous ces effets non intentionnels...

La théorie à la base du rétrocroisement

Rappelons le principe général : une entreprise qui souhaite mettre sur le marché une variété génétiquement modifiée (qu’elle soit légalement considérée comme OGM ou pas) ne va pas modifier directement le génome d’une des variétés « élites » mais celui d’une variété plus commune. Une fois la modification obtenue, l’entreprise va alors croiser une première fois la variété commune génétiquement modifiée (GM) avec la variété élite commercialement intéressante. Elle recroisera ensuite les descendants avec la variété élite initiale jusqu’à ce que ces descendants soient considérés (à partir d’une analyse statistique) quasiment similaires (on parle de variété quasi-isogénique ou de ségrégants négatifs) à la variété élite. La différence entre la variété élite et la nouvelle variété est supposée n’être « quasiment » que la seule séquence modifiée.
 
Le GNIS explique ainsi que, au dernier croisement, « la part [du génome provenant] de la lignée élite est de 96,88%, on estime alors que la lignée obtenue est suffisamment proche de la lignée élite. On tend vers l’obtention d’une lignée isogénique, ne différant de la lignée élite que par un seul gène [celui contenant la modification] ». On notera ici qu’un pourcentage de 96,88 % laisse encore beaucoup de place aux mutations, épimutations et réarrangements potentiels pour certaines plantes cultivées dont le génome est très grand comme le blé : pour environ 17 milliards de paires de base constituant le génome du blé, les 3,12% restants représentent tout de même plus de 500 millions de paires de bases...

Les limites de la théorie

La théorie sous-jacente au « nettoyage » des effets hors-cible grâce au rétrocroisement se fonde sur l’hypothèse suivante : les effets non intentionnels apparus aux étapes antérieures sont suffisamment éloignés de la région où a eu lieu la modification génétique désirée. En effet, plus ces effets hors cibles sont proches, plus la probabilité est grande que les effets non désirés soient transmis avec la modification génétique à chaque croisement. D’un nombre minimum de sept, le nombre de croisements nécessaires pourrait alors monter à plus de 14 pour essayer de s’en débarrasser.
 
Mais, outre ce problème de proximité des effets hors cible avec la séquence génétique modifiée, la confiance que l’on peut avoir dans cette théorie est également relativisée par deux autres phénomènes biologiques. D’une part, des séquences génétiques peuvent exister et évoluer en blocs plus ou moins importants. Ces blocs étant transmis tels quels à la descendance, les effets hors-cibles contenus dans ces blocs resteront alors avec la séquence génétique modifiée à chaque croisement. D’autre part, certaines séquences génétiques ont la capacité de « s’imposer » lors de la formation des gamètes. Dites « égoïstes », ces séquences vont être contenues dans un plus grand nombre de gamètes qu’attendu et, de génération en génération, elles seront toujours présentes dans la descendance. Si les effets hors-cible apparaissent dans de telles séquences, il sera moins aisé de s’en débarrasser [13].
 
Ces éléments impliquent donc qu’une nécessaire vérification au cas par cas paraît nécessaire. A l’heure actuelle, seule la législation sur les plantes transgéniques requiert de telles vérifications au cas par cas avec un ensemble d’analyses le plus complet qu’il soit (avec des déficiences néanmoins rappelons-le). En effet, le séquençage du génome ne permet pas de répondre à la question de la présence ou non d’effets hors-cible du fait des limites inhérentes à ce type d’analyse (cf. encadré ci-dessous).
 

Le séquençage et les outils informatiques associés ? Tout sauf un gage de certitude !
Le 7 avril, lors de l’audition organisée par l’Office parlementaire sur l’évaluation des choix scientifiques et techniques (OPECST), André Choulika, PDG de Cellectis, affirmait à propos des effets hors-cible « reséquencer intégralement [le génome des plantes], c’est vachement important […] parce que dans l’approbation, on vous redemande la séquence intégrale ». Sauf que, à bien y regarder, les résultats de séquençage obtenus sont loin d’une fiabilité absolue.
Le séquençage dit de « nouvelle génération », est aujourd’hui relativement peu cher et rapide. Mais plusieurs « problèmes » émaillent sa mise en œuvre, la lecture et l’utilisation des résultats.
Tout d’abord, plusieurs étapes du séquençage lui-même « parasitent » la fiabilité du résultat final. Il faut savoir extraire correctement l’ADN, le découper en morceaux puis séquencer ces derniers à l’aide de diverses plateformes et méthodes. Or, ces plateformes et méthodes sont assez différentes les unes des autres, tant en termes de limites que de fiabilité de résultats [14].
Il faut ensuite lire ces résultats en tentant de remettre bout à bout les séquences lues pour reconstituer le génome en entier. Puis, les séquences obtenues sont comparées avec d’autres considérées comme « de référence » et stockées dans des bases de données qui contiennent déjà elles-mêmes des erreurs [15].
Autant d’étapes qui introduisent une importante imprécision dans les résultats finaux de détection d’effets non intentionnels et donc d’évaluation des risques, les incertitudes quant aux séquences augmentant avec des génomes polyploïdes ou aux nombreuses séquences répétées [16]. Sans compter qu’en bout de course, les mutations repérées peuvent ne pas s’avérer de la même importance biologique [17]...
De nombreux articles résument les difficultés rencontrées à chaque étape, comparent les méthodes, plateformes [18] et logiciels associés [19], discutent de normes de référence (« gold standards ») et normes à mettre en place pour fiabiliser le processus complet [20]. Bref, comme le soulignent ces auteurs, autant de techniques et d’étapes qui sont en cours d’amélioration car non parvenues à maturité, en pleine évolution et nécessitant donc nombre de vérifications pour des évaluations au cas par cas.
Selon de nombreux chercheurs, savoir faire face à l’accumulation de très nombreux résultats (un de ces fameux « big data »), dont certains avec de multiples erreurs, et les utiliser avec rigueur est un des défis de la biologie moléculaire actuelle. D’ailleurs, devant le scepticisme soulevé face à tout résultat de séquençage, les demandes minimales des relecteurs d’articles scientifiques sont telles que de plus en plus de chercheurs sont maintenant obligés de présenter des résultats de séquençages de plus longues séquences pour assurer du sérieux de leurs résultats bruts [21].

Nous avons, au cours de cet article, évoqué les mutations et épimutations parmi les effets non intentionnels de ces biotechnologies modernes. On peut dès lors observer que prétendre détecter et éliminer tous les effets non intentionnels des nouvelles techniques relève plus de l’acte de foi que de la science établie. Surtout, face à ce constat des effets potentiels, des limites du rétrocroisement et de celles du séquençage, on peut douter en toute bonne foi de la capacité des sélectionneurs à éliminer tous les effets hors-cible puis à détecter efficacement et rapidement les mutations et épimutations restantes par séquençage. On peut dès lors s’étonner du silence du Comité scientifique du Haut Conseil des Biotechnologies (HCB) sur tous ces points dans son premier rapport publié en février 2016 sur les impacts liés aux nouvelles techniques de modification génétique.
 
Eric Meunier, Inf’OGM
 
 
[1] « Stress induces plant somatic cells to acquire some features of stem cells accompanied by selective chromatin reorganization », Florentin, A. et al. (2013), Developmental Dynamics, 242(10), 1121-1133 ;
« Developmental stage specificity and the role of mitochondrial metabolism in the response of Arabidopsis leaves to prolonged mild osmotic stress », Skirycz, A. et al., (2010). Plant Physiology, 152(1), 226-244 ;
« Arabidopsis mesophyll protoplasts : a versatile cell system for transient gene expression analysis », Yoo, S.-D.et al. (2007). Nat. Protocols, 2(7), 1565-1572.
 
[2] « Cell culture-induced gradual and frequent epigenetic reprogramming of invertedly repeated tobacco transgene epialleles », Krizova, K. et al., (2009). Plant Physiology, 149(3), 1493-1504 ;
« Extended metAFLP approach in studies of tissue culture induced variation (TCIV) in triticale », Machczyńska, J. et al., (2014). Molecular Breeding, 34(3), 845-854 ;
« Tissue culture-induced novel epialleles of a Myb transcription factor encoded by pericarp color1 in maize », Rhee, Y. et al., (2010). Genetics, 186(3), 843-855 ;
« Transformation-induced mutations in transgenic plants : analysis and biosafety implications », Wilson, A.K. et al., (2006). Biotechnol Genet Eng Rev, 23(1), 209-238 ;
« A whole-genome analysis of a transgenic rice seed-based edible vaccine against cedar pollen allergy », Kawakatsu, T. et al., (2013).. DNA Research 20, 623-631 ;
« Recent progress in the understanding of tissue culture-induced genome level changes in plants and potential applications », Neelakandan et al.,, 2012,. Plant Cell Reports, 31(4), 597-620
 
[3] « Meiotic transmission of epigenetic changes in the cell-division factor requirement of plant cells », Meins, F. et al., (2003). Development, 130(25), 6201-6208.
 
[4] « Cell biology : delivering tough cargo into cells », Marx, V. (2016). Nat Meth, 13(1), 37-40.
 
[5] « Only half the transcriptomic differences between resistant genetically modified and conventional rice are associated with the transgene », Montero, M. et al., (2011). Plant Biotechnology Journal, 9(6), 693-702.
 
[6] Rapport du CS du HCB, page 50
 
[7] « Less is more : strategies to remove marker genes from transgenic plants », Yau, Y.Y. et al, (2013), BMC Biotechnology.
 
[8] « Alternatives to Antibiotic Resistance Marker Genes for In Vitro Selection of Genetically Modified Plants – Scientific Developments, Current Use, Operational Access and Biosafety Considerations », Breyer et al (2014) Critical Reviews in Plant Sciences, Vol 33, Issue 4, 286-330
« Suitability of non-lethal marker and marker-free systems for development of transgenic crop plants : present status and future prospects », Manimaran et al (2011) Biotechnol Adv. 29(6), 703-14
« Effects of antibiotics on suppression of Agrobacterium tumefaciens and plant regeneration from wheat embryo », Han, S-N. et al, (2004), Journal of Crop Science and Biotechnology 10, 92-98.
 
[9] Certains de ces systèmes peuvent persister comme éléments circulaires extra-chromosomiques durant plusieurs générations (ex. du blé).
 
[10] utilisables en identification (ex : empreinte d’excision de transposon, recombinaisons) de l’évènement de transformation
 
[11] Biotechnology 13., ibid.
 
[12] « Recent progress in the understanding of tissue culture-induced genome level changes in plants and potential applications », Neelakandan, A.K. et al, (2012), Plant Cell Reports 31, 597-620
« Regeneration in plants and animals : dedifferentiation, transdifferentiation, or just differentiation ? », Sugimoto, K. et al, (2011), Trends in Cell Biology 21, 212-218.
 
[13] « Distorsions de ségrégation et amélioration génétique des plantes (synthèse bibliographique) », Diouf, F.B.H. et al , (2012), Biotechnologie Agronomie Société Et Environnement, 16(4), 499-508
« Quantitative trait locus mapping can benefit from segregation distortion », Xu, S. (2008), Genetics, 180(4), 2201-2208
« Genetic map construction and detection of genetic loci underlying segregation distortion in an intraspecific cross of Populus deltoides », Zhou, W et al, (2015), PLoS ONE, 10(5), e0126077
 
[14] « Next generation sequencing technology : Advances and applications », Buermans, H.P.J. et al, (2014), Biochimica et Biophysica Acta (BBA) - Molecular Basis of Disease, 1842(10), 1932-1941
« Next-generation sequencing platforms », Mardis, E.R. (2013), Annual Review of Analytical Chemistry, 6(1), 287-303
« Applications of next-generation sequencing. Sequencing technologies - the next generation », Metzker, M.L. (2010), Nature Reviews Genetics, 11(1), 31-46.
 
[15] « Next-generation sequence assembly : four stages of data processing and computational challenges », El-Metwally, S. et al, (2013), PLoS Comput Biol 9, e1003345
« Systematic comparison of variant calling pipelines using gold standard personal exome variants », Hwang, S. et al, (2015), Scientific reports 5, 17875
« Sequence assembly demystified », Nagarajan, N. et al, (2013), Nat Rev Genet 14, 157-167.« Improving the quality of genome, protein sequence, and taxonomy databases : a prerequisite for microbiome meta-omics 2.0 », Pible, O. et al, (2015). Proteomics 15, 3418-3423
« Theoretical analysis of mutation hotspots and their DNA sequence context specificity », Rogozin, I.B. et al, (2003), Mutation Research/Reviews in Mutation Research 544, 65-85
 
[16] « Sequencing technologies and tools for short tandem repeat variation detection », Cao, M.D. et al, (2014), Briefings in Bioinformatics
 
[17] « Open chromatin reveals the functional maize genome », Rodgers-Melnick, E. et al, (2016). Proceedings of the National Academy of Sciences 113, E3177-E3184
« Evolutionary patterns of genic DNA methylation vary across land plants », Takuno, S. et al, (2016), Nature Plants 2, 15222.
 
[18] « Systematic comparison of variant calling pipelines using gold standard personal exome variants », Hwang, S., et al, (2015), Scientific reports 5, 17875
« Principles and challenges of genome-wide DNA methylation analysis », Laird, P.W. (2010), Nature Reviews Genetics 11, 191-203
« Performance comparison of whole-genome sequencing platforms », Lam, H.Y.K. et al (2012), Nat Biotech 30, 78-82
« Low concordance of multiple variant-calling pipelines : practical implications for exome and genome sequencing », O’Rawe, J. et al, (2013), Genome Medicine 5, 1-18.
 
[19] « Next-generation sequence assembly : four stages of data processing and computational challenges », El-Metwally, S. et al, (2013), PLoS Comput Biol 9, e1003345
 
[20] « Rapid evaluation and quality control of next generation sequencing data with FaQCs », Lo, C.-C. Et al, (2014), BMC Bioinformatics 15, 1-8
 
[21] « Droplet barcoding for massively parallel single-molecule deep sequencing », Lan, F. et al, (2016), Nat Commun 7
 

 

Dopage

Dopage et culte de la performance, un couple inséparable

Les Jeux olympiques de Rio s’annoncent sur fond d’une affaire de dopage dans le sport russe et de soupçons visant plusieurs pays africains ou caribéens. Les rumeurs et scandales de dopage sont inséparables des compétitions sportives. Lors des Jeux de 1904 déjà, le coureur Thomas Hicks n’aurait probablement pas remporté le marathon sans l’injection pendant la course de doses de strychnine, un produit prohibé depuis. Le premier cas de dopage avéré date des Jeux de 1968 à Mexico, quand furent inaugurés les tests antidopage.

Depuis lors, la lutte contre le dopage s’est considérablement développée, mais le phénomène ne semble pas reculer. Comment expliquer la persistance du dopage en dépit des actions menées pour l’éradiquer ? Qu’est-ce qui conduit au dopage ? La lutte antidopage s’attaque-t-elle réellement aux racines du problème ?

Contrôler toujours plus les sportifs

La lutte antidopage consiste principalement à repérer et à sanctionner les sportifs qui prennent des substances illicites en vue d’améliorer leurs performances, et à punir leurs entourages (encadrement sportif, technique, médical) s’ils sont complices. Cette politique de contrôle est complétée par des actions préventives, visant à informer les sportifs, notamment les jeunes, sur les dangers sanitaires du dopage et à les sensibiliser aux règles éthiques sportives. Mais cette prophylaxie reste diffuse et peu visible, tandis que le volet répressif, qui cible les sportifs les plus performants, a été continûment renforcé.

La coordination de la lutte antidopage a franchi un palier à la fin des années 1990 quand le Comité international olympique (CIO) a initié la création d’une Agence mondiale antidopage (AMA) indépendante. En 2004, un Code mondial antidopage a été instauré, qui harmonise les politiques et réglementations des organisations sportives du monde entier.

Ce code énonce des standards dans différents domaines : l’organisation des contrôles, les protocoles des laboratoires d’analyse, la liste des substances et méthodes interdites, la réglementation des autorisations d’usage à des fins thérapeutiques, etc. Depuis 2005, les athlètes ont l’obligation saisir dans une base de données (le système ADAMS) les informations sur leur localisation, afin de se rendre accessibles en permanence à d’éventuels contrôleurs. La surveillance des sportifs est donc constamment resserrée.

 

En 2012, aux Jeux olympiques de Londres, la moitié des athlètes a été contrôlée. Alistair Ross/Flickr

En outre, la performance des tests est sans cesse améliorée – ce qui permet de détecter de nouvelles substances, ou des prises administrées selon des protocoles sophistiqués qui les rendaient indétectables jusque-là. De plus, les échantillons urinaires et sanguins sont désormais conservés, afin d’effectuer des tests rétrospectifs en utilisant des méthodes inexistantes au moment des prélèvements.

La course au dopage

Actuellement plus de 200 000 échantillons sont analysés chaque année sous l’égide de l’AMA, parmi lesquels 1 % environ est positif. L’athlétisme arrive en tête dans le palmarès des violations des règles antidopage (17 % des cas en 2014), devant le culturisme, le cyclisme et la musculation. Ce classement ne reflète pas le poids des pratiques dopantes, car chaque discipline compte un nombre différent de pratiquants d’élite (cibles prioritaires des contrôles) et la lutte antidopage y a une ampleur très variable.

Depuis l’introduction de contrôles, des cas positifs ont été décelés à chaque olympiade. Seule exception, les Jeux de 1980 à Moscou, toutefois connus comme les « Jeux des pharmaciens » en référence au dopage d’État découvert après la chute des régimes socialistes est-européens. La surveillance des athlètes est désormais resserrée : aux Jeux de 2012 à Londres plus de la moitié d’entre eux ont été contrôlés, et ils ont été avertis que des contrôleurs pouvaient à tout moment faire irruption dans leur chambre.

 

En 1988, à Séoul, Ben Johnson « l’emporte » sur Carl Lewis. DPMS/Flickr

Parallèlement, les pratiques dopantes se réinventent constamment : le dopage sanguin est jalonné par les différentes générations d’EPO jusqu’aux transfusions sanguines ; les stéroïdes à l’origine de l’affaire Balco – obligeant Marion Jones à rendre ses cinq médailles conquises aux Jeux de 2000 à Sydney – n’ont rien à voir avec ceux du premier grand scandale de dopage, celui de Ben Johnson, vainqueur du 100 mètres des Jeux de 1988 à Séoul.

Derrière la course à la performance se déroule une course au dopage, qui recourt à des innovations constantes (en termes de produits et de protocoles) afin d’échapper à des contrôles eux aussi de plus en plus performants. La clé est l’innovation, ce qui implique des investissements financiers, et ce qui réserve l’accès au dopage sécurisé et (quasi) indétectable aux athlètes d’élite, à ceux qui peuvent en assumer les coûts économiques.

Une triche individuelle ?

La lutte antidopage ne parvient pas à éliminer le fléau. Mais elle puise sa légitimité dans le ciblage des athlètes, objets de surveillance, de contrôles, de sanctions. Deux figures du sportif dopé émergent des affaires.

La première est celle de la transgression involontaire des règles, par erreur, inattention ou méconnaissance. Les athlètes contrôlés positifs mobilisent parfois cette figure, arguant qu’ils ont ingéré des aliments pollués, qu’ils ignoraient que le produit était interdit, qu’ils ont été abusés par leur entourage, qu’ils ont omis de modifier leur déclaration de localisation à la suite d’événements inopinés, etc. L’argument est celui de la bonne foi. Et il est parfois jugé recevable par la justice sportive.

 

Maria Sharapova, exclue pour deux ans de toute compétition pour la prise de meldonium, qu’elle conteste. Ian Gampon/Flickr

La seconde figure, contre laquelle est construite la lutte antidopage, est celle de la déviance volontaire, de la tricherie délibérée, de la fraude intentionnelle. Le sportif dopé doit être sanctionné, car il enfreint le principe d’égalité des concurrents devant l’épreuve sportive. En transgressant cette règle fondamentale, il menace l’édifice sportif dans son ensemble. Car la compétition sportive repose sur une morale méritocratique : chacun doit concourir en mobilisant ses seules qualités personnelles et en les développant par l’entraînement. Les performances sont alors le résultat des talents et du travail.

Selon cette morale, c’est le plus méritant qui gagne, alors que le dopage procure un avantage concurrentiel immoral et illégitime. L’égalité démocratique est le socle de la compétition et du système sportif. Et la lutte antidopage entretient cette idéalisation, car en concentrant l’attention sur une rupture d’égalité désignée comme illégitime elle occulte, et légitime, d’autres inégalités, économiques par exemple. C’est pourquoi les athlètes dopés doivent être sanctionnés. C’est pourquoi la lutte contre le dopage prend principalement la forme d’une lutte contre les dopés, désignés comme des tricheurs.

Une contrainte systémique

Mais les racines du dopage sont plus profondes, plus structurelles et moins individuelles, plus systémiques et moins isolées. Il n’est pas une addition de déviances délibérées pratiquées par des tricheurs ; il est une conséquence de la recherche de performance sportive et du travail qu’elle implique. Or les conditions du travail sportif sont largement ignorées par la lutte antidopage, alors qu’elles pèsent lourdement sur la vie des sportifs de haut niveau.

Le dopage n’est pas une simple déviance individuelle délibérée, parce que l’expérience du travail sportif est envahie par l’exigence de performance et de résultats. Pour s’y plier, il faut résister à de fortes charges d’entraînement, repousser les seuils de la douleur, affronter les blessures, traverser des périodes « sans », dominer les moments de doute, maintenir une hygiène de vie rigoureuse, répondre aux injonctions des entraîneurs, atteindre les objectifs, etc.

Il faut surmonter ces épreuves constantes pour se maintenir dans le monde sportif où la performance est envahissante, où elle est la mesure de la valeur, et où elle est la condition de la survie. Et ce culte de la performance est d’autant plus exigeant que les conditions d’emplois sont fragiles et les engagements contractuels précaires. Dès lors, le dopage n’est pas seulement une pratique qui vise de manière directe la performance. Il soutient, plus largement, l’engagement dans le sport de haut niveau, en favorisant la récupération physique, la remédiation psychique, l’intégration sociale, la résilience. Il est une réponse à un ensemble de contraintes, physiques, psychologiques, contractuelles.

À cet égard le sport n’est pas bien différent de nombre d’autres milieux professionnels où les pressions sont fortes et où la prise de substances psychoactives (stupéfiants, alcool, médicaments, les produits varient) permet de tenir ou d’être performant : la liste est longue, depuis les traders jusqu’aux ouvriers, en passant par les milieux artistiques ou les étudiants de filières hypersélectives, etc. La sociologie du travail enseigne que de fortes contraintes professionnelles favorisent le recours à des produits de soutien, qui dans le milieu sportif sont étiquetés comme dopage.

En faire le constat, ce n’est pas excuser ou justifier le dopage, d’autant que celui-ci expose les athlètes à de sérieux risques pour leur santé. Mais seule une meilleure compréhension des ressorts du recours au dopage peut permettre d’améliorer une action répressive largement inefficace. Cela exige de rompre avec une vision individualisante et moralisatrice qui érige l’athlète dopé en tricheur cynique, pour prendre en compte les propriétés du travail sportif afin de mettre en débat ce que celui-ci fait aux sportifs de haut niveau. À moins que la méritocratie sportive idéalisée ne soit un obstacle, culturel et institutionnel, empêchant de considérer le dopage autrement.

Didier Demazière, Sociologue, directeur de recherche au CNRS (CSO), Sciences Po – USPC

La version originale de cet article a été publiée sur The Conversation.

The Conversation

 

Promenade des anglais

Le dangereux écho de Daech sur les esprits désaxés

Tuerie d'Orlando, massacre de Nice, attaque dans un train en Allemagne : si chaque attentat est revendiqué ou adoubé par l'organisation État Islamique, les profils des tueurs posent de plus en plus questions et illustrent la force de la propagande mortifère du groupe djihadiste sur des individus apparemment désaxés.
 
Un Américain d'origine afghane qui a tué 49 personnes le 12 juin dans une boîte gay en Floride avant d'être abattu par la police, était violent, homophobe, radical, et... apparaissait aussi comme un homosexuel refoulé, selon les témoignages.
 
Le Tunisien qui a écrasé 84 personnes au volant de son camion le soir du 14 juillet à Nice reste encore une énigme pour les enquêteurs. "Un individu très éloigné des considérations religieuses, ne pratiquant pas, mangeant du porc, buvant de l'alcool, consommant de la drogue et ayant une vie sexuelle débridée", mais qui avait manifesté "un intérêt récent pour la mouvance djihadiste radicale", a énoncé lundi le procureur de Paris. Un homme de 74 ans entendu par les enquêteurs est même présenté par certains comme un de ses amants. 
 
Et en Allemagne, où un très jeune - 17 ans - demandeur d'asile afghan a attaqué lundi soir à la hache des voyageurs dans un train, les autorités se refusent à toute spéculation : arrivé dans le pays il y a deux ans en tant que mineur non accompagné, il était inconnu des services de renseignement.
 
Dans une tribune publiée mardi par le journal Libération, l'historien Olivier Christin évoque ces "massacres où se mêlent convictions religieuses, hostilités aux interventions en Syrie et en Irak, antisémitisme, mais aussi frustrations personnelles, haine de soi et aspiration au suicide".
"La cause EI accueille toutes les colères", résume-t-il, en y voyant "une rupture radicale dans l'histoire du terrorisme religieux et politique, qui a longtemps conféré une place centrale aux questions d'organisation et de formulation doctrinale".

« Idéologie fanatique et mortifère »

Le groupe État Islamique a compris le profit qu'il peut tirer de ses appels incessants au passage à l'action contre "les mécréants", confiait récemment à l'AFP le psychologue universitaire Patrick Amoyel, qui travaille sur les phénomènes de radicalisation. 
"Ils savent que plus ils occupent l'espace médiatique, plus ils vont avoir d'écho soit dans des populations radicalisables soit dans des populations psychopathiques", expliquait-il.
 
"C'est cette idéologie fanatique et mortifère qui peut conduire certains individus à passer à l'acte, sans avoir besoin de se rendre en Syrie et sans avoir besoin d'instructions précises", a souligné lundi le procureur de Paris, évoquant le défi nouveau posé par ce "terrorisme de proximité".
 
La propagande de l'organisation djihadiste, répercutée à l'infini sur internet dans des vidéos soigneusement mises en scènes de décapitations, de tortures, des appels aux meurtres répétés comme une Litanie, est d'autant plus efficace lorsqu'elle s'adresse à "des personnalités perturbées ou des individus fascinés par l'ultra-violence", a relevé M. Molins.
 
"Ceux qui détestent leurs collègues ou méprisent les homosexuels en raison de leur propre insécurité peuvent revêtir leurs actions de la bannière sanglante de l'État islamique", écrit dans le magazine américain Time William McCants, chercheur au centre de réflexion américain Brookings Institution.
 
Il reste cependant difficile de démêler convictions idéologiques et motifs personnels et inconscients, reconnaît le chercheur, évoquant des tueurs "pas vraiment de l'EI, mais à peu près de l'EI, sans lien organisationnel avec eux, mais avec le meurtre en commun".
 
Reste que, selon l'expert-psychiatre français Daniel Zagury, dans les cas d'actes djihadistes, les malades mentaux sont peu nombreux, environ 10% des cas. "Les autres sont soit de petits délinquants avec un pois chiche dans la tête, qui ont eu une première vie de toxicos, de trafic, et se rachètent une deuxième vie qui lave la première dans l'islam radical ; soit, les plus dangereux, des sujets strictement normaux qui ont un engagement idéologique sans passé délinquant, éventuellement avec des études, très déterminés". 
 
 

 

Loading...
Loading...