UP' Magazine L'innovation pour défi

intelligence artificielle

Convocation de la psychanalyse dans le monde de l'intelligence artificielle

Au moyen de cet article nous aimerions présenter le travail de Paul Jorion sur les systèmes intelligents, puis ouvrir cette présentation sur les réseaux de neurones, puisque ces deux parties s’inscrivent dans une histoire commune continuée, celle de l’intelligence artificielle, qui en est à ses débuts, mais déjà traversée de ruptures.
Photo : Film Ex Machina de Alex Garland, 2015
 
« Et d’une certaine manière, moi je n’ai pas vraiment regretté de quitter l’intelligence artificielle à ce moment-là, au moment où je l’ai quittée, parce que je m’étais engagé dans une voie absolument différente de tout le monde. On verra si un jour on appelle ça « novateur », mais à ce moment-là, bon, j’ai fait la chose qui surprenait tout le monde. Les gens qui travaillaient autour de moi, ils avalaient des gros traités de logique formelle, et moi j’ai dit : « Eh bien, on va prendre Freud et Lacan et on va faire marcher une machine à partir de ça. » Voilà ! Alors, c’était l’époque où dans le domaine des scientifiques – je ne parle pas de la société dans son ensemble – la psychanalyse, ça passait pour un truc de charlatans. Ça va changer, bien entendu, on va se rendre compte que la psychologie dont on a besoin dans ce domaine de l’intelligence artificielle, et ça, je l’ai déjà dit dans mon bouquin que j’ai écrit en 89, « Principes des systèmes intelligents », le type de psychologie dont on a besoin pour rendre des machines intelligentes, c’est le type de compréhension qui vient de Freud, de Lacan, de Mélanie Klein, enfin un certain nombre de personnes qui ont réfléchi à ces trucs-là. »  
Paul Jorion, tiré de son blog - 5 déc 2014 (Le temps qu’il fait).

Paul Jorion

Langage, langage-machine, pensée, apprentissage et  personnalité

« Machine learning », machines auto-apprenantes
 
La séance inaugurale de la chaire annuelle du Collège de France : informatique et sciences numériques a eu lieu au début du mois de février 2016. Menée par Yann Lecun, elle portait sur l’intelligence artificielle, et plus précisément sur l’apprentissage profond, encore appelé « deep learning » [1]. Il se passe donc quelque chose du côté des machines qui trouve à se faire entendre d’une institution étatique comme pour en valider, légitimer l’importance enfin prise en considération ; une chose qui par ailleurs tend à venir effacer une limite jusque-là tenue pour inattaquable et qui séparait le sujet humain de la machine par rapport à la possibilité de l’auto-organisation, et, pour en simuler de plus en plus parfaitement et finement les effets [2] à travers l’activité noétique de l’apprentissage. Ainsi, une dernière étape serait en passe d’être  atteinte [3], et une autre vieille séparation tomberait plus ou moins totalement (qui jouait l’auto-organisation évolutive du vivant contre la fixité des programmes des machines car jusqu’à présent celles-ci n’étaient pas capables d’évoluer et d’apprendre par elles-mêmes, il fallait les superviser), effet dont il est difficile de prévoir les conséquences sur les sociétés (en terme métaphysique, social, affectif, catégorial, économique, technique). Mais cela est déjà réfléchi, analysé, discuté dans les divers endroits du monde et il se pourrait que chaque société ne réagisse pas de la même façon au défi lancé par ces machines et à celui de leur intégration au corps social, cela en fonction de la singularité des régimes axiomatiques propres à chacune.
 
Informatique et effet d’intelligence
 
Au moment où nous écrivons ce papier nous n’avons pas écouté les conférences dont nous faisons mention plus haut, mais nous voudrions partir de là, de cet événement institutionnel pour parler d’un livre qui fut écrit par Paul Jorion (par ailleurs anthropologue et économiste) en 1989 et qui porte le titre : "Principes des systèmes intelligents" [4], parce que celui-ci a opéré sur nous comme une véritable secousse. Il nous semble avoir abordé - parmi les tous premiers - l’intelligence artificielle d’une autre façon, articulant plusieurs éléments (dont certains mêmes peuvent apparaître étrangers à la discipline informatique) mais qui concourent à construire ce qu’il appelle : l’effet d’intelligence.
 
 
« Effet d’intelligence » [5], car Jorion ne se demande pas ce qu’est l’intelligence, il ne cherche pas à en fournir une définition achevée ni à en dégager une essentialité, mais plutôt à repérer ce qui dans le réel est tenu par les humains pour de l’intelligence, ce qui fait impression d’intelligence. C’est donc du point de vue du vécu humain, du point de vue phénoménal et immanent pourrait-on dire qu’il aborde le problème. En procédant ainsi, il se demande quelles conditions doivent être remplies par les systèmes machines inorganiques dans leurs opérations internes pour que les humains puissent dire une fois placés devant : – cet ordinateur est intelligent, il pense, son intelligence est semblable à la mienne. Et nous verrons que dans les principes qu’il a dégagés pour parvenir à cet effet de similarité, certains sont devenus par la suite, les principes fondamentaux des branches filles des systèmes intelligents « princeps », et dont toutes ont la particularité de s’éloigner – à des degrés divers - des systèmes experts, pour être des systèmes auto-apprenants ou encore évolutionnaires.
Nous reviendrons sur ces systèmes un peu plus tard ; suivons pour le moment les traces de Paul Jorion qui vont nous mener – par la problématique du langage et de sa conceptualisation à travers la psychanalyse entre autre, c’est cela qui nous parut étrange et qui nous intéressa en première instance - vers les systèmes apprenants que l’on appelle aujourd’hui les réseaux de neurones ainsi que la méthode : programme génétique [6].
 
On pense parce que l’on parle ?
 
Dans son introduction, Paul Jorion s’interroge sur le langage, sa place par rapport à la pensée et il se demande, en terme de chronologie - si l’on pense parce que l’on parle, ou si l’on parle parce que l’on pense ? Et face à cette alternative, il choisira de poser et questionner l’antériorité des mots, de poser que la pensée émerge à partir des mots et il formule sa problématique ainsi : « Autrement dit, et si la pensée résultait de l’auto-organisation de mots ? » Ce qui sera l’hypothèse de son livre. Une hypothèse forte.
Hypothèse qui lui servira pour développer un autre type de modélisation du langage dans les systèmes intelligents et sur lesquels il va d’ailleurs lui-même travailler [7].  Un autre langage donc, et qui « serait comme la production d’un discours cohérent résultant de l’exercice dynamique de contraintes sur un espace de mots. ». Il faut alors trouver comment structurer les machines pour qu’elles puissent suivre une telle procédure et pour qu’elles puissent se mettre en mouvement dans un tel espace.
 
Lorsqu’un humain s’adresse à une machine et lui pose une question, c’est pour obtenir une réponse, une information qu’il ne possède pas, mais cette réponse dit Paul Jorion, peut être de deux types. Soit elle ne surprend pas et répond simplement à la question et à l’attente du questionneur. Soit elle surprend et donne l’impression que la machine a saisi plus que l’explicite de l’énoncé, et « qu’elle confronte l’humain au débordement habituel du désir par rapport à la demande ».
Cela pour montrer que si nous voulons qu’une machine donne d’elle-même une impression autre que machinique, il faut qu’on la structure selon certaines caractéristiques dans lesquelles, par ailleurs, pointent étrangement des notions qu’on retrouve dans le champ de la psychanalyse. Mais nous précisons que ce n’est pas le cas avec toutes les caractéristiques. Nous allons les énumérer succinctement.
 
Première caractéristique : obligation pour un système intelligent de disposer d’un savoir (une base de données), puis d’être à même de transmettre son savoir (interface en langue naturelle orientée sortie), puis d’être à même d’acquérir un savoir (extraire une connaissance de ce que l’utilisateur ou l’environnement lui transmettent, grâce à un parseur et un module d’apprentissage), puis savoir interroger l’utilisateur, puis ne pas imposer son savoir mais le négocier (arriver à déterminer le degré d’adhésion de l’interlocuteur), et enfin avoir une personnalité propre.
Certaines caractéristiques, on l’observe, semblent malaisées à attribuer à une machine et participent de  l’effet que Paul Jorion appelle : intention, c’est-à-dire que le système a pris une initiative. Il n’a pas eu un comportement « machinique » habituel, et par ailleurs il a proposé l’information la plus pertinente ici, c’est-à-dire la plus fine par rapport au contexte, il s’éloigne du stéréotype. La dernière caractéristique est celle qui est de plus haut niveau, c’est elle qui donnerait cette impression qu’une « personne », qu’une pensée et une intelligence comme humaine s’y trouvent[8]. La machine aurait donc une personnalité et serait capable d’auto-organisation.
 
 
Mais comment construire une telle machine ?
 
Des systèmes symboliques aux systèmes sémantiques : un pas vers l’associationnisme
Tout d’abord, il faut préciser que les systèmes intelligents qui en seraient capables, ne sont pas ceux que l’on appelle les systèmes experts (dit encore symboliques, ce que sont nos ordinateurs actuels), mais d’après Jorion, des systèmes sémantiques devenus mnésiques. Un système mnésique repose sur plusieurs postulats en ce qui concerne à la fois le langage, la mémoire et les affects. Nous allons donner des précisions quant à chacun de ses aspects au cours de l’article.
 
Concentrons-nous d’abord sur le langage
Prenons un discours. Soit nous pouvons l’envisager du côté de la signification [9], soit nous pouvons l’envisager du côté du signifiant et plus encore comme un parcours séquentiel à l’intérieur d’un espace de signifiants (indépendamment de leur signification), c’est-à-dire pour reprendre les mots de Paul Jorion, que le langage serait « comme un chemin tracé sur un lexique compris comme la liste de tous les mots d’une langue ». Mais alors une question se pose, si ce n’est pas la signification des mots qui importe pour leur association, et si ce n’est pas ce à quoi ils renverraient du monde et des choses qui importe, selon quelles règles associatives pouvons-nous alors les articuler en tenant compte par ailleurs du plan de linéarité temporelle qu’est la parole, la phrase ou l’énoncé ?
Plusieurs options se présentent. La méthode dite du singe : « qui explore les tirages d’une vaste combinatoire ». La méthode dite des règles : « qui se donne a priori un ensemble tout fait de contraintes auxquelles le parcours sera soumis. Cette méthode nous la connaissons bien puisque c’est là que nous retrouvons les différentes contraintes : d’ordre syntaxique (l’ensemble des mots de la langue sont partagés en partie du discours), d’ordre  sémantique qui correspond à l’organisation interne de la langue, ex le verbe «  penser » exige comme sujet un substantif dénotant un être animé. D’ordre pragmatique, c’est la dimension proprement dialectique qui pose que d’une phrase ne peut pas suivre une autre phrase dont le sens est sans rapport ou qui la contredit. Cela correspond au sujet des topiques de l’organon  d’Aristote.
Puis pour finir les contraintes d’ordre logique. Mais comme le dit Jorion : « cette méthode demande qu’avant même de pouvoir générer une phrase, il aura fallu construire un système immense en termes de règles et de métarègles stockées et qui exige pour un simple fonctionnement un temps de traitement inacceptable. »
Le cerveau humain ne fonctionne pas comme cela. La production d’une phrase pour un être humain ne prend que quelques dixièmes de seconde. Il faut donc envisager la dernière méthode, celle du : coup par coup, et c’est là que nous retrouverons une intuition de la psychanalyse (celle de l’association libre) par rapport au langage, et aux signifiants. Ici, nul n’est besoin de définir des règles a priori, il faut seulement un principe qui permette de déterminer une fois que l’on a posé un mot, lequel pourra être le suivant. Et « on peut imaginer que soient en place de manière constante des chenaux et des chréodes, des passages privilégiés pour se rendre d’un mot à un autre ». Ici, il faut donc raisonner en terme de trace, comme si pour aller d’un endroit à un autre, d’un mot à un autre, nous empruntions toujours le même petit chemin et qu’à force la végétation se soit arasée, le passage d’un mot à un autre renforcé, et pour la suite, en découlerait une facilité d’association [10] ; Paul Jorion pense que le cheminement de la pensée s’effectue de la même façon, à savoir qu’une fois posé le point de départ, en l’occurrence, un mot, et bien le chemin qui se déploie à sa suite est en quelque sorte indiqué et c’est lui que nous emprunterions plutôt que de couper à travers la forêt, c’est-à-dire plutôt que de choisir un nouveau mot ( la poésie, elle essaie de sortir de ces chenaux). Mais ajoutons tout de suite, que ce chemin n’est pas de toute éternité déjà présent, qu’il est le résultat d’une vie singulière, d’une construction, d’un apprentissage et d’une mémoire qui se constitue tout au long d’une vie. Pour le dire autrement nous ne naissons pas avec déjà conçus tous ces chemins, mais seulement une structure qui en permet la progressive instauration, cette structure étant le réseau de nos neurones et de nos synapses (nous y reviendrons un peu plus tard). Et déjà nous pouvons saisir que le lien de concaténation des signifiants, n’est pas le résultat d’une application de règles a priori ( comme pourrait le laisser supposer la grammaire que l’on apprend à l’école) mais d’un frayage plus ou moins souvent réalisé entre deux signifiants au cours d’une vie (selon les paramètres de l’apprentissage qui  en font la singularité individuelle), et par là nous voyons le lien direct qui s’effectue, entre le fait de passer d’un signifiant à un autre, et la mémoire, car le frayage dont nous avons parlé relève de la mémoire.
 
Ressaisissons maintenant rapidement les choses pour pouvoir poursuivre
La première hypothèse suivie fut :
– Des signifiants émerge la pensée et non l’inverse [11]
La deuxième hypothèse fut :
– Ce qui détermine l’intensité des liens entre les différents signifiants (on abandonne le plan de la signification) lorsqu’ils font discours, c’est-à-dire le passage de l’un à l’autre dans un énoncé, c’est une association, non pas axiomatique et a priori, pas non plus une combinatoire aléatoire, mais le fait de créer une facilité de passage, un renforcement, une habitude de liens, et en cela la mémoire joue un rôle primordial.
 
Associationnisme
 
A partir de là, nous pouvons envisager les choses sous l’angle de l’associationnisme pour qui, « il n’est que simple gradation de la remémoration à la génération d’un discours ordinaire, en passant par le raisonnement ». Nous pouvons penser ici à un terme posé par Freud au moment où il s’est départi de l’hypnose au profit justement de : « l’association libre », dont, et nous citons Paul Jorion, « Loriginalité par rapport à la doctrine d’un langage de la pensée, c’est de s’être rendu compte que ce qui peut être étudié avec toute la rigueur scientifique, ce n’est pas l’association des idées, mais l’association des images et surtout dans leur supposition matérielle ».
Nous insistons, c’est important, car ce dont on se préoccupe alors ce n’est plus de l’association des signifiés mais de celle des signifiants qui font bascule vers d’autres signifiants.  Et par ailleurs, il faut encore ajouter que, si nous sommes bien inscrits avec cette théorie à l’intérieur d’un espace de mots, il n’est pas possible comme le dit Paul Jorion : « de ne pas s’occuper d’un élément qui joue un rôle essentiel dans les enchaînements associatifs, à savoir la production d’images, car c’est ce qui se passe chez l’être humain. En effet, certains mots ont une capacité à évoquer une image, « ex : quand nous entendons « pommes », nous hallucinons l’image d’une ou plusieurs pommes ».
 
 
Suivant cela il y a donc plusieurs modalités d’enchaînements possibles : De mot à mot, de mot à image, d’image à mot, d’image à image. Et cela encore sous deux régimes, sous le régime de l’inconscient (intuitif et automatique) et sous le régime de la conscience. Paul Jorion déclinera encore les différents types d’enchaînements associatifs qui peuvent être : Matériels (acoustiques, graphiques), sémantiques (synonymie, inclusion, connexion simple, traduction, etc.), mais ajoute-t-il : « il est peut-être mieux de se passer de ce mécanisme pour la modélisation d’un système intelligent». Est-ce à dire que nous irions trop loin dans le mimétisme, parce que ce serait trop compliqué à traduire pour l’instant dans une structure machine ou… nous ne savons pas mais Paul Jorion de conclure provisoirement que « pour les langues qui nous sont familières (il montre ailleurs dans le livre comment pour le langage chinois par exemple cela fonctionne autrement), l’enchaînement associatif -qui est requis ici en tant que modèle pour les systèmes intelligents, reflète des relations d’inclusions, d’attribution et de synonymie exprimées à l’aide de la copule « être », et de « connexion simple » exprimée à l’aide de la copule « avoir », cela même qu’il va falloir essayer d’implémenter dans la machine.
 
L’associationnisme dont il a été question ici, et qui peut servir de modèle pour construire un nouveau type de système intelligent, pour autant ne traite que d’un aspect du problème car il faut encore penser le milieu dans lequel il peut se déployer, et nous passons à la problématique de la structure, à celle de l’espace, à celle de la topologie qui devra être traduite en termes d’objets mathématiques.
 
Mais ce milieu, quel est-il ?
Structure évolutive (P-dual d’un graphe).
D’abord il doit être réseau mnésique [12], c’est-à-dire qu’il doit stocker des signifiants de la manière la plus économique, mais il faut ajouter qu’à son début, puisque nous essayons de construire des machines qui imitent l’intelligence humaine, il faut aussi et paradoxalement que ce réseau n’existe pas « trop », qu’il ne soit pas déjà formé/achevé et ce, comme pour un tout petit enfant où ce qui est mis en mémoire est encore assez réduit. Et la question se pose de l’inscription  d’une première trace mnésique qui agira comme germe, car le réseau va évoluer, apprendre et se modifier, sinon il serait comme un système expert, comme nos ordinateurs, ce dont nous essayons précisément de nous éloigner. Et c’est à partir du chenal, que l’on va poser des exigences pour parvenir à cet effet.
 
Le chenal (passage d’un signifiant à l’autre) ne  doit plus s’effectuer selon la séquence « sommet/arc/sommet », mais « arc/sommet/ arc ». Ce qui fait du réseau sémantique, un réseau mnésique [13]. Cette transformation est rendue possible grâce à un nouvel objet mathématique le « P-dual » d’un graphe. Nous ne maîtrisons pas cet objet et renvoyons donc le lecteur à d’autres travaux s’il souhaite approfondir cet aspect.
Mais en terme opératoire cela permet deux choses très importantes, tout d’abord la délocalisation des signifiants, on ne pense plus leur situation à tel endroit, mais plutôt leur situation entre tel et tel endroit. Ajoutons tout de même que le phénomène de délocalisation ne peut être complet, c’est-à-dire qu’aucune représentation ne peut être entièrement délocalisée. Et deuxièmement la distribution, qui permet au signifiant de s’inscrire dans une multiplicité d’enchaînements associatifs, inscription qui n’aura pas pour autant dans chaque cas le même poids. Paul Jorion prend cet exemple : « le signifiant ‘’pomme ’’ » est pondéré différemment s’il apparaît entre ‘’prune’’ et ‘’poire’’ et s’il apparaît entre ‘’Eve’’ et ‘’Adam’’. La charge affective peut être différente, et si on traduit cela en terme d’adhésion, cela veut dire que l’insertion d’un signifiant dans telle ou telle chaîne associative ne reçoit pas la même intensité, il y a des enchaînements associatifs qu’on accepte de remettre en question et d’autres pour lesquels c’est beaucoup plus difficile. Paul Jorion qualifie les premiers de « savoir », en ce qui les concerne on peut accepter sans trop se faire violence de les modifier, par exemple c’est ce que fait la science quotidiennement lorsqu’elle émet des énoncés de vérité, qu’elle modifie par la suite, lorsque la théorie précédente se trouve infirmée ou qu’elle est devenue moins efficace en terme de puissance de généralisation face à la nouvelle. En revanche, il y a des enchaînements associatifs, et on l’observe bien chez l’être humain, qui coûtent énormément lorsqu’on doit les remettre en cause, parfois c’est même impossible ; Paul Jorion appelle ces enchaînements des « croyances » et nous citons : « la croyance au contraire [du savoir] est d’inscription centrale et seulement modifiable de manière « catastrophique » ; par la conversion, qu’il faut considérer alors comme modification des connexions existant entre les éléments qui sont chronologiquement les premiers. La conversion s’observe bien entendu chez les êtres humains, généralement au prix d’une consommation énergétique tout à fait considérable, c’est ce que Freud appelle la « Nachträglichkeit », l’après-coup de telles restructurations.
 
Ainsi, si nous voulons construire une intelligence artificielle qui imite en ses effets l’intelligence humaine, c’est tout cela qu’il faut prendre en considération et qu’il faut essayer de modéliser dans la structure machine. Un réseau mnésique, ainsi que l’appelle Paul Jorion, doit posséder en sus des systèmes informatiques dits « experts », deux traits : la capacité d’apprentissage et la capacité à négocier avec l’utilisateur en fonction – ce dont nous venons de parler- des degrés d’adhésion que celui-ci prête à ses énoncés. Il faut donc que la machine soit capable en quelque sorte de « percevoir » la charge affective, et le degré d’enracinement d’un énoncé dans le réseau mnésique de son interlocuteur, ce n’est que se faisant qu’elle pourra donner l’impression à l’humain qu’une semblable intelligence (même si machinique) se tient face à lui, ou encore qu’une personne se tient face à lui. Nous avions posé au tout début de l’article, qu’il fallait que le système intelligent ait « comme » une personnalité. Il faut donc aussi lui implémenter une modélisation de la psyché humaine. C’est pourquoi la psychologie et la psychanalyse doivent rencontrer l’informatique. Et c’est ce que tente Paul Jorion.
Maintenant retraçons le parcours ici effectué avant d’ouvrir vers ce que nous annoncions, à savoir les réseaux de neurones.
 
Effet de personnalité : structure ouverte et frayage
 
La nouvelle intelligence artificielle doit faire effet d’intelligence, de personnalité. Pour cela, elle doit imiter le fait humain qui reste toujours (disons dans des conditions plus ou moins normales et sereines) un système ouvert, auto-apprenant, qui se modifie par lui-même et au contact des autres et du monde, mais qui possède un caractère, et donc aussi une sorte de noyau structurel peu modifiable. Il faudra arriver à simuler ces deux aspects ; évolutif et figé.
Le réseau mnésique de la machine devra posséder une structure (le P-dual d’un graphe) dans laquelle les signifiants viendront s’ajouter au fur et à mesure de l’exercice de la machine, eux-mêmes pouvant modifier en retour les associations déjà tracées entre les signifiants présents, ainsi que se modifier eux-mêmes.
 
 
Par ailleurs, cette structure mnésique très ouverte (incomparablement plus ouverte que celle des systèmes experts) devra, pour ne pas partir en « tout sens » comme le dit Paul Jorion, être : « domestiquée ». C’est-à-dire que le discours engendré ne pourra pas être, en chacune de ses bifurcations, le résultat d’un choix hasardeux. Il faudra que le parcours soit « informé », « motivé ». Qu’il soit, à l’intérieur de l’espace du lexique, un sous-espace de parcours privilégiés, et cette motivation du choix s’opérera selon deux paramètres [14].
 
Tout d’abord selon l’affect. Paul Jorion va prendre modèle sur la théorie des affects de Freud pour donner sa structure singulière au réseau mnésique, en tant que c’est cette charge affective qui orienterait les passages d’un signifiant à l’autre, en tant aussi que ce serait lui le responsable de la dynamique et de la plus ou moins profonde inscription du signifiant dans le réseau mnésique et donc par-là, de sa propre structure. Pour Freud tout enregistrement d’un percept (visuel, auditif) passe par le système limbique qui lui donne cette petite charge affective, et qui fait qu’il s’inscrit plus ou moins fortement en nous (pensons à la madeleine de Proust et à l’enchaînement associatif qui s’en est suivi en terme d’énoncé romanesque des dizaines d’années plus tard). Car pour Freud : « la mémoire est représentée par les frayages entre les neurones […] le frayage dépend de la qualité d’excitation qui traverse le neurone au cours du processus, et le nombre de fois où le processus se répète ».
Ainsi, on peut penser que ce sont les impressions qui ont agi le plus fortement sur nous qui nous déterminent le plus, qui nous font dire telle chose plutôt que telle autre, qui nous font associer un signifiant avec un autre. Il faudra donc pour orienter le choix lors d’une bifurcation au sein de la machine, donner comme une pondération affective, et transposer ce que Freud nomme la « Bahnung » (le frayage) de la psyché humaine, en renforcement hebbien [15] dans la machine.
Ainsi, on stockerait dans la machine au niveau de l’arc deux valeurs, l’impédance qui correspondrait à la valeur d’affect et la résistance qui serait l’inverse du frayage et ce faisant, on associe à l’arc, non pas une valeur mais un vecteur. Mais par ailleurs, avec l’affect, ce qui entre en jeu, c’est la perception et donc la représentation du monde à travers les organes et les tissus d’un corps [16]. Il va donc falloir que la machine s’équipe d’une interface qui soit en prise avec les phénomènes du monde et qu’elle ne soit plus seulement une machine de langage. Cela sera le cas avec les machines de type « réseau de neurones »,  et nous pensons entre autre au perceptron.
 
Machines interfacées et néoténie
 
En 1989, Paul Jorion développe dans son livre : principes des systèmes intelligents, une autre approche de l’intelligence artificielle, et plutôt que d’en rester à des systèmes déjà entièrement programmés et figés au moyen de structures logiques, il propose de faire de ces machines des machines néoténiques qui seraient capables de s’auto-organiser, d’apprendre, de négocier leur savoir, au fond d’avoir comme une biographie et une personnalité ; et cela, selon des principes empruntés, à la fois à la théorie du langage (abandon du problème de la signification, mise en avant du coup par coup, et du postulat que :  « le sens c’est l’usage » [17]), mais encore à la théorie de la psyché de Freud, Lacan et Klein (l’associationnisme avec l’idée de « l’association libre » des signifiants dans la théorie de l’inconscient, puis celle de la charge affective qui structure la matrice mnésique par frayage), et encore en partant d’une base anatomique (la structure du cortex cérébral : neurones et synapses dont la formalisation mathématique est le P-dual).
 
En s’appuyant sur cette approche, se développeront ce que l’on appelle aujourd’hui les réseaux de neurones ou les réseaux évolutionnaires, que nous allons maintenant présenter succinctement. Cependant, il n’est pas sûr que ce qui nous avait tant saisi (et plu) à la lecture du livre de Jorion, à savoir la présence de la dimension Psychanalytique dans l’intelligence artificielle, c’est-à-dire celle des affects, et de l’inconscient, soit reprise et retravaillée au sein des réseaux de neurones, car il semblerait plutôt qu’une bascule vers le biologique ait été opérée. Le modèle de la dynamique des affects semble être passé en retrait au profit du biologique. Au profit, (peut-être ?) d’une tendance bio-réductionniste ?

Biomimétisme mais réductionnisme ?

Modélisation de la structure humaine et implémentation dans les machines
 
Le problème, ici, est toujours celui de l’intelligence et de l’imitation de ses effets par la machine mais envisagé un peu différemment.
D’un côté donc, des neurones, des cellules gliales, des capillaires, du sang, des synapses ; de l’autre du matériel minéral, des conducteurs ou semi-conducteurs, de l’électricité, et des algorithmes.
Comparaison très sommaire mais qui pose les éléments en présence ou en leur rapport en inadéquation. Car à priori entre les deux, peu de rapport, si ce n’est par l’intermédiaire de la modélisation. C’est donc la modélisation qui a permis d’effectuer le passage de l’un à l’autre, de l’humain à la machine, au moyen de ce qu’on appelle le biomimétisme des « réseaux de neurones ». Les chercheurs et les chercheuses ont pris pour point de départ la structure du cerveau, et en ont réalisé un modèle en s’intéressant plus particulièrement à deux aspects. Premièrement à la manière dont les neurones sont interconnectés, structurés, et deuxièmement à ce lieu de passage et de modification de l’information qu’est la synapse.[18]Nous trouvons dans le que sais-je : les réseaux de neurones écrit par F. Blayo,  M. Verleysen  cette définition des réseaux de neurones : « Les réseaux de neurones sont une métaphore des structures cérébrales (modélisées) : des assemblages de constituants élémentaires, qui réalisent chacun un traitement simple mais dont l’ensemble fait émerger des propriétés globales digne d’intérêt.
 
 
L’ensemble est un système parallèle fortement interconnecté
 
L’information détenue par le réseau est distribuée à travers l’ensemble des constituants, et non localisée dans une partie de la mémoire sous la forme d’un symbole. Enfin un réseau de neurones ne se programme pas pour réaliser une tâche, mais il est entraîné sur des données acquises, grâce à un mécanisme d’apprentissage qui agit sur les constituants du réseau. »
Une fois cette modélisation de haut niveau [19] réalisée, ils ont alors tenté de la traduire sur un plan algorithmique [20]. Mais pour cela encore fallait-il postuler que l’intelligence humaine est calcul, c’est-à-dire postuler que la raison et la pensée humaine se réduisent à du calcul ce qu’avait refusé Paul Jorion, lorsqu’il avait tenté de modéliser la part inconsciente de la pensée humaine, la part de son désir, et de ce qui relève de l’affect pour l’implémenter dans la machine. Ainsi, la machine se donne pour structure celle du cortex humain, et dans le même temps on pose que, lorsque l’humain pense, ce qu’il fait c’est qu’il calcule. Il y a comme cela, une sorte de mouvement d’influence, de va-et-vient, qui va de la machine à l’humain et de l’humain à la machine. Et nous pouvons trouver une origine à un tel postulat dans les propos du philosophe anglais du 17° siècle Thomas Hobbes ; dans son Léviathan voici ce que nous pouvons lire : « raisonner n’est que conclure d’une addition de parties à une somme totale ou de la soustraction d’une somme d’une autre à un reste (…) Ces opérations ne sont pas particulières aux nombres ; elles intéressent toutes les espèces de choses susceptibles de s’ajouter les unes aux autres. (…) […] En somme partout où il y a de la place pour l’addition et la soustraction il y a aussi place pour la raison…la raison n’est en ce sens que le calcul des noms généraux convenus pour marquer et signifier nos pensées, je dis les marquer quand nous pensons pour nous-mêmes, et les signifier quand nous démontrons nos calculs à d’autres. » [21]
Voici donc à peu près posés les éléments à partir desquels travaillent les chercheurs : neurones, synapses et calcul.
 
Nous allons maintenant passer rapidement en revue les étapes importantes qui ont permis au champ de l’intelligence artificielle de prendre forme et de donner lieu au réseau de neurones.
Au départ il y a les travaux d’Herbert Spencer lorsqu’il montre de quelle manière une structure nerveuse contrôle un muscle.
Ensuite, il y a le concept de mémoire associative [22] qui démontre que la fréquence de la conjonction d’évènements tend à renforcer les liens entre leurs représentations cérébrales et que le rappel d’une idée tend à en appeler une autre.
Puis il y a l’apport de D. Hebb dont nous avons déjà parlé, qui interprète l’apprentissage comme la modification dynamique des poids synaptiques.
Puis encore, la loi « du tout ou rien » découverte dans les années 20 par Edgar Douglas Adrian [23]qui montre que le neurone n’est excité que si un seuil est atteint. C’est-à-dire que même si un neurone est stimulé, il se peut qu’il n’y ait pas de potentiel, ni de signal en sortie, et cela parce que la stimulation (en fréquence) aura été trop faible. Cette découverte est particulièrement importante en ce qu’elle permet de relier la biologie à la logique, de faire point de passage entre les deux, puisque cette loi « du tout ou rien » est similaire dans sa forme (qui transforme un processus physiologique continue en un processus discontinu et binaire) à celle des tableaux de vérité de la logique des prédicats (qui est binaire) et donc par suite formellement proche des outils de la logique mathématique. Et d’ailleurs en 1943 on voit paraître un article qui porte le titre : « A logical calculus of ideas immanent in nervous activity » [24].
Ces éléments sont à la base du connexionnisme [25], lui-même situé (sur un plan épistémologique) à l’intersection de la neurobiologie, de la psychologie, et du développement de la logique mathématique [26]. Le but était de parvenir à faire correspondre une structure biologique modélisée à une structure logique binaire.
Ce croisement (en quelque sorte) a donné naissance aux machines appelées « réseau de neurones ».
 
Celles-ci, contrairement aux systèmes précédents (les ordinateurs construits selon l’architecture de Von Neumann) « ne supposent pas que l’on connaisse la solution du problème à traiter, plus précisément, la procédure à suivre pour l’atteindre ou l’approcher » [27]. «  Les réseaux neuronaux s’inscrivent dans un cadre différent : la représentation des données est indirecte et répartie à travers un ensemble de connexions et de poids synaptiques. Auto-organisée, elle est apte à des représentations de haut-niveau (concepts). Pour conclure on peut dire que : « la capacité de traitement de l’information est dynamique à travers la modulation, la création ou la destruction des liens neuronaux. (…) que ces réseaux « s’adaptent et apprennent, qu’ils savent généraliser, regrouper ou classer l’information et ceci du seul fait de leur structure et de leur dynamique, mais pour l’heure ils doivent être considérés comme un complément aux méthodes traditionnelles » [28] car on ne sait pas remonter la chaîne de leur raisonnement et on ne sait pas non plus, avec exactitude pourquoi ils donnent telle ou telle réponse. En quelque sorte, on n’arrive pas à les comprendre et ils échappent.
Présentons maintenant rapidement la structure de ces réseaux de neurones.
 
Réseau de neurones
 
Tout d’abord un réseau de neurones c’est une topologie. La mise en place d’éléments au sein d’un espace et c’est cet espace, sa configuration qui déterminera la potentialité du réseau. Ainsi un réseau non-bouclé et un réseau récurrent n’auront pas les mêmes possibilités, un réseau monocouche et un réseau multicouche non plus. On peut trouver des représentations de ces réseaux sur internet si l’on veut se faire une idée. Ici, pour illustrer notre propos, nous prendrons le perceptron qui est l’un des premiers modèles [29]. Il est constitué d’unités sensitives sensibles à des stimulations physiques diverses, d’unités d’association (connexions entrantes et sortantes), d’une unité de réponse (qui génère une réponse en dehors du réseau), et d’une matrice d’interaction qui définit des coefficients de couplage entre les différentes unités.
 
La particularité de ces systèmes c’est qu’ils sont apprenants, « c’est-à-dire que les stimulations externes induisent – via des mécanismes divers- des transformations [30] internes modifiant les réponses à l’environnement». Il faut encore ajouter que les unités de sens de ces systèmes (« les neurones/synapses) fonctionnent selon trois modalités : compétition, coopération, et adaptation.
Mais le problème avec ces systèmes, c’est qu’il faut encore les superviser lors de l’apprentissage. Il faut en quelque sorte encore qu’un être humain les « entraîne », or l’étape suivante est celle des réseaux apprenant non-supervisés, avec les réseaux qu’on appelle « évolutionnaires », nous les avions annoncés au tout début de l’article.
 
Réseaux évolutionnaires
 
Ces réseaux évolutionnaires n’ont plus besoin d’être supervisés lors de l’apprentissage. Ici, l’adaptation et l’auto-organisation est envisagée, non plus tellement du point de vue de l’apprentissage justement, mais dans une perspective darwinienne, du point de vue du code génétique. Selon la théorie de l’évolution, les organismes vivants se sont adaptés à leur environnement grâce à la modification et à la recombinaison de leur patrimoine génétique. Et c’est cela que les informaticiens essaient actuellement de modéliser et d’implémenter dans la machine. Nous voyons que le cadre épistémologique s’est déplacé depuis que nous avons commencé cet article.
Au départ avec Paul Jorion nous avions un cadre multidisciplinaire où même la psychanalyse (ce qui nous avait énormément intéressé) avait été prise en compte, puis avec les réseaux de neurones cette dimension a disparu, ne reste plus que l’apprentissage compris comme pondération synaptique, phénomène de récurrence et retro-propagation de gradient, et pour finir maintenant avec les réseaux évolutionnaires dans un cadre purement biologique et génétique (cela est rendu possible parce qu’on se représente le génome comme de l’information, c’est-à-dire qu’on fait travailler les unités de sens du génome dans le même sens que les unités de sens en informatique, on rabat l’une sur l’autre, c’est une perspective mais il pourrait y en avoir d’autres). Ainsi, ce que l’on observe c’est une dynamique qui s’apparente à un réductionnisme biologique. Mais avant de finir, exposons les principes qui régissent les réseaux évolutionnaires.
 
Principes des réseaux évolutionnaires : néoténie, aléatoire et auto-génération du code
 
« L’idée de base consiste à construire, sur une base aléatoire et/ou heuristique, un ensemble de solutions potentielles à un problème donné. » [31] Ce qui interpelle ici, c’est l’expression : « un ensemble de solutions potentielles », comme si on constituait une réserve de solutions en vue d’un tri qui s’effectuerait au fur et à mesure, comme si l’approche du résultat, progressive, devait s’effectuer par le jeu des mutations » [32].
Habituellement, ce que l’on fait c’est que l’on va directement à la solution, c’est-à-dire que dans l’intention même on cherche « la solution ». Mais ici, non, l’intention est autre. On commence par générer aléatoirement une population et le « matériel génétique » de cette population -qui dans ce cas est codée sous la forme d’une chaîne de bits et non de bases azotées-, représente un ensemble de solutions potentielles au problème posé. Ensuite, une fois que ces individus (chaînes de bits aléatoirement constituées) sont générés on calcule pour chacun un score (niveau d’adaptation), là, si l’objectif est atteint, alors a lieu la sortie de l’algorithme. Ensuite on sélectionne des reproducteurs en fonction des scores (c’est une sorte de sélection génétique et on entend peut-être les échos de l’eugénisme et ceux d’une diminution de la biodiversité). Puis on construit des descendants par l’application de différents opérateurs génétiques (croisement, mutation). Puis, pour finir, on procède au remplacement de la population par les descendants.
 
Nous voyons que les algorithmes évolutionnaires « fonctionnent en tirant parti de la diversité d’une population pour évoluer vers la solution recherchée. Au départ on n’a aucun moyen de connaître la direction à suivre, et on construit une population aléatoire.» [33] Ce que ces algorithmes évolutionnaires permettent c’est d’engendrer des programmes informatiques, et anecdotes surprenante : il n’est pas rare que les algorithmes découverts soient au moins équivalents à ceux construits par les humains. Le cas le plus étonnant est celui de la redécouverte, à partir des données sur le mouvement des planètes de la troisième loi de Kepler, redécouverte qui au cours de la progression de l’algorithme est passée par l’une des conjonctures initiales du savant allemand.
 
Dans le futur avec ces réseaux, les programmes informatiques seront de plus en plus générés automatiquement et de moins en moins construits (si le processus ne rencontre pas une limitation dont on n’aurait pas encore pu tenir compte).
Pour conclure nous pouvons dire que les réseaux évolutionnaires sont des réseaux de neurones mais qui sont axés sur trois finalités principales. Premièrement, celle qui veut substituer aux poids synaptiques du problème de l’apprentissage, un algorithme génétique (pool de solutions potentielles constitué d’individus constitués de chaîne de bits). Deuxièmement, celle qui veut remplacer les procédures manuelles (présence humaine) d’essais/erreur (apprentissage supervisé) par un apprentissage non-supervisé, grâce toujours à l’algorithme génétique, et troisièmement, l’évolution non pas des paramètres, mais de l’évolution du codage des paramètres, c’est-à-dire en quelque sorte que cela amène à trouver la règle d’adaptation la mieux adaptée à l’adaptation, on recule encore d’un cran.
 
Ainsi, nous arrivons au terme de ce parcours qui nous a vus partir du livre de Paul Jorion et de son geste : la convocation de la psychanalyse dans le monde de l’intelligence artificielle pour ouvrir les systèmes intelligents à l’auto-organisation et à l’apprentissage en fonction du couple affect/mémoire, c’est-à-dire pour faire en sorte que les systèmes possèdent une personnalité et une biographie, à une situation où le modèle biologico-génétique prime, lui-même sous-tendu par le paradigme de l’information.
Alors il resterait bien sûr, à parler de ce paradigme de l’information qui fut le grand absent de cet article et ce n’est peut-être pas pour rien.
 
Juliette Wolf
Tous nos remerciements à la revue Temps marranes n°30 dans lequel est paru l'original de cet article
 
[1] L’apprentissage profond relève du « machine learning » ou « apprentissage statistique » qui est un champ d’étude qui concerne la conception l’analyse, le développement et l’implémentation de méthodes permettant à une machine (au sens large) d’évoluer par un processus systématique, et ainsi de remplir des tâches difficiles ou impossibles à remplir par des moyens algorithmiques plus classiques. Les algorithmes utilisés permettent, dans une certaine mesure, à un système piloté par ordinateur (un robot éventuellement), ou assisté par ordinateur, d’adapter ses analyses et ses comportements en réponse, en se fondant sur l’analyse de données empiriques provenant d’une base de données ou de capteurs. Plusieurs modes d’apprentissage sont mis en jeu : l’apprentissage supervisé, l’apprentissage non-supervisé, et l’apprentissage semi-supervisé.
[2] En octobre 2015, le programme alphaGo ayant appris à jouer au jeu de go par la méthode du deep learning a battu par 5 parties à 0 le champion européen Fan Hui[3]. En mars 2016, le même programme a battu le champion du monde Lee Sedol 4 parties à 1.  Information extraite d’un article de wikipédia
[3] Nous reprenons la distinction tripartite de Bernard Stiegler pour qui trois époques peuvent être dégagées dans l’histoire de l’évolution du rapport homme-machine: le temps où les machines se sont mises à « faire » à notre place, ce qui est pour l’auteur la strate du « savoir-faire », par exemple la machine du métier à tisser de Vaucansson, l’époque où les machines se sont mises à nous remplacer aussi dans notre « savoir vivre-ensemble » : par exemple avec la télévision, puis l’époque où les machines se sont mises à nous remplacer pour les activités de pensée, c’est la dernière strate, celle de la noèse, du « savoir-savoir » et que nous atteindrions aujourd’hui avec les machines du type : « machines apprenantes »
[4] Principes des systèmes intelligents. Paul Jorion. ed du croquant, 2012.
[5] Cette notion d’effet, nous la retrouvons chez Baruch Spinoza (1632-1677). Philosophe et tailleur de lentilles pour lunettes et microscope.
[6] Il ne s’agit pas du génome, mais d’une nouvelle façon de générer du code.  Ce n’est plus l’utilisateur humain mais la machine elle-même au moyen d’une combinatoire aléatoire de populations binaires qui génère des « individus solutions », c’est-à-dire une sortie algorithmique efficace.
[7] Nous faisons référence à  ses travaux sur Anella : Associative Network with Emerging Logical and Learning Abilities
[8] La série real human (la première saison) était une bonne mise en jeu de cette problématique. Quels rapports les humains vont-ils entretenir avec leurs robots qui auront désormais une apparence humaine et une intelligence identique –voire supérieure- à la leur ? Un rapport de maître-esclave, un rapport d’égalité ? De peur ? De rejet ? De jalousie ?
[9] Paul Jorion dit à propos de la signification : « le problème ce n’est pas que nous ne comprenons pas le fonctionnement de cette chose que nous appelons signification, c’est plutôt que nous ne savons pas ce qu’elle est. Autrement dit, nous ne savons pas ce que le mot veut dire, car si la signification est la chose à laquelle le mot renvoie, il y a peu de mots qui ont un significat. Exemple avec le mot liberté, à quelle chose « liberté » renvoie, ce n’est pas évident de le déterminer, on voit qu’il est ici plus question de définition, d’un sous-réseau du réseau mnésique, et que c’est une convention.
[10] Cette facilité de passage, est ce que les chercheurs des systèmes intelligents de type réseau de neurones vont appeler le renforcement progressif, par auto-modification du poids synaptique (la récurrence) et qui est en lien étroit avec la problématique de l’apprentissage puis donc, celle de l’auto-organisation.
[11] Nous citons Paul Jorion : « Mes paroles me surprennent moi-même et m’enseignent ma pensée ». La pensée ne serait qu’une reconstruction opérée sur la base des paroles prononcées.
[12] C’est ce qui donnera le terme de « réseau de neurones » pour les systèmes les plus récents.
[13] Dans un réseau sémantique les signifiants sont placés aux sommets, par exemple : « un perroquet » et les couleurs de relation – par exemple «  est un », sont placés dans les arcs (les arcs sont des sortes de liens). C’est le contraire dans un réseau mnésique. Les couleurs de relations sont au sommet et les signifiants sont au niveau des arcs.
[14] Le premier paramètre : l’affect, nous en parlons dans cet article, mais le deuxième paramètre si nous n’en parlons pas, ce n’est pas parce que nous avons oublié mais parce que nous n’avons pas très bien compris de quoi il retourne. Paul Jorion parle de gravité, au sens de gravitation, de ce qui attire vers le bas. Nous laissons donc le lecteur et la lectrice dans l’obligation d’aller voir par eux-mêmes. C’est ici un manque, nous en sommes conscients.
[15] Hebbs (1904-1985) est psychologue et neuropsychologue canadien. Il va tenter de trouver une alternative au « behaviorisme », et ce faisant met en évidence le renforcement synaptique par simultanéité. Mais ce qui est intéressant c’est que Freud l’avait déjà postulé : « Or, il existe une loi fondamentale d’association par simultanéité [qui] donne le fondement de toutes les connexions entre neurones PSI. […]. La charge s’avère équivalente au frayage, par rapport au passage de la quantité (Q’n) ». Dans «  Naissance de la psychanalyse”, PARIS, PUF 1979.
[16] Spinoza a montré en quoi l’affect est comme une fibre dédoublée. Nous le citons : « j’entends par affect les affections du corps par lesquelles sa puissance d’agir est accrue ou réduite, secondée et réprimée, et en même temps que ces affections, leurs idées. » L’affect est à la fois un événement corporel  (affection) et la conscience de cet événement.
[17]  cf. Wittgenstein.
[18] La synapse est une jonction fonctionnelle entre deux neurones, mais qui se traduit en terme topologique par un petit vide inter-membranaire. Elle permet le passage des neurotransmetteurs (pour les neurones chimiques) qui traduit le potentiel d’action du neurone afférent en un potentiel d’action pour le neurone efférent (potentiel qui peut devenir nul, voire même s’inverser). Les synapses jouent donc un rôle de premier plan dans le codage de l’information nerveuse.
[19] C’est une modélisation de haut niveau parce que c’est au niveau de la cellule dans sa globalité (le neurone et les synapses), insérés dans le réseau de l’ensemble cortical, qu’on se situe et non pas, par exemple, au niveau des échanges d’ions le long de la membrane. Mais on aurait pu faire ce choix.
[20] Peut-être faut-il attendre encore un peu pour qu’une hybridation plus prononcée devienne concrète, une convergence qui tendrait à une homéostasie en proportion, entre des supports biologiques et des supports « inorganique minéral ».
[21] Réseaux de neurones, une introduction. J.P Rennard. Ed Vuibert (2006).
[22] W. James (1842-1910).
[23] E.D Adrian est médecin et éléctrophysiologiste anglais.
[24] W. McCulloch Et W. Pitts.
[25] Nous précisons que le connexionnisme n’est qu’une des formes du biomimétisme appliquée à l’intelligence artificielle. Il y a encore par exemple : l’approche « animat », « animal-like » ou  l’I.A distribuée.
[26] Influencé par Whitehead et Russell pour qui, il fallait refonder les mathématiques sur la seule base logique, cf. Leur livre :  Principia mathematica  publié en 1910-1913 .
[27] Réseaux de neurones, une introduction. J.P Rennard. Ed Vuibert (2006).
[28] Ibid.
[29] Wikipedia
[30] Réseaux de neurones, une introduction. J.P Rennard. Ed Vuibert (2006).
[31] Ibid.
[32] Ibid.
[33] Ibid.
 
 
 
 

 

Stromatolithes

La vie est apparue sur Terre bien plus tôt qu’on ne le pensait. Et avec elle, l’information.

3,7 milliards d'années ! C'est l’âge de la vie sur Terre, révélé par la découverte de concrétions minérales formées par des bactéries dénichées au fond des glaces. Des géologues australiens viennent en effet de découvrir au Groenland des traces d’une activité microbienne remontant à 3,7 milliards d’années, soit 200 millions d’années de plus que les records précédents trouvés dans des roches d’Australie ou d’Afrique du Sud. Et 800 millions d’années environ seulement après la formation de la planète. L’origine de la vie sur Terre, une question qui hante les esprits depuis que l’homme est en mesure de penser.
 
La vision moderne que la plupart d’entre nous avons de l’origine de la Vie est, au fond, assez poétique. Elle décrit le spectacle des milliards de milliards de particules qui naviguent et jouent au billard dans l’immense espace de l’Univers et se mêlent un jour d’assembler un objet présentant une propriété particulière ; il se produit alors un événement inouï qui résonne dans le vide astral. Cet événement est la faculté pour un objet de se reproduire ou plus exactement, la faculté de se répliquer, c'est-à-dire d’utiliser ce qui se trouve à sa portée pour fabriquer une copie exacte – hormis quelques erreurs mineures inévitables dans toute reproduction – de l’entité tout juste née. La Vie, si l’on tente de la définir au regard de nos connaissances actuelles, est ce phénomène par lequel des molécules complexes s’assemblent, tirent matière et énergie de leur environnement et se reproduisent.
 
Ce saut dans le temps de 200 millions d’années qu’offre la nouvelle étude publiée par la revue Nature prouve que la vie a pu apparaître très tôt sur Terre, dans des conditions difficiles, avec une atmosphère dépourvue d’oxygène, un bombardement formidable de météorites, un rayonnement solaire intense et destructeur…
Incidemment, cela relance l’intérêt des missions martiennes qui explorent des terrains dont l’âge correspond justement à celui des roches étudiées au Groenland. Les robots pourraient y trouver des traces plus visibles et nombreuses que les quelques vestiges fossiles mises au jour sur Terre.

L’aurore archaïque de la vie

En 1986, William Schopf de l’Université de Californie à Los Angeles découvrait, dans des formations géologiques d’Australie Occidentale vieilles de 3,5 milliards d’années, les traces d’assemblages que sont les premiers organismes vivants. Ces organismes primitifs nés au fond de lacs et de lagunes correspondent vraisemblablement à ce que seront plus tard les bactéries et les algues. Ces premières formes de vie, dont les reliques sont gravées dans les couches rocheuses calcaires ou siliceuses (les stromatolithes que l’on vient de découvrir au Groenland), sont extrêmement rudimentaires ; elles ne sont qu’un avant-goût des formes plus complexes qui naîtront bien vite, mais elles comptaient déjà un nombre de sujets supérieur au nombre d’êtres humains ayant jamais existé.
 
Longtemps restés mystérieux et considérés comme rudimentaires, ce n’est que très récemment que les progrès de la biologie moléculaire ont fait apparaître que ces organismes vivants tapis au fond des âges ne sont pas si rustiques que cela ; ils possèdent un caractère éminemment complexe. Ils sont les briques du jeu de construction de la vie, présentes et indispensables, encore aujourd’hui, dans toutes les structures vivantes sur cette planète. La cellule vivante la plus archaïque n’est pas un simple amas de molécules, assemblé plus ou moins au hasard ; c’est une structure qui fonctionne selon un projet.
 
 
Les stromatolithes dont nous retrouvons les traces géologiques étaient fabriqués par des colonies de cyanobactéries faisant partie de la classe des « procaryotes ». Dans l’aurore archaïque de leur existence, ces organismes, si sommaires qu’ils n’avaient pas encore réussi à confiner leur ADN dans le noyau de leur unique cellule, avaient pourtant appris à s’organiser selon un projet, en divisant notamment leurs fonctions. Certains membres de ces colonies étaient chargés d’opérer la photosynthèse en stockant l’énergie solaire dans des molécules spécifiques ; d’autres prélevaient dans leur environnement la substance nécessaire à leur alimentation et rejetaient les déchets potentiellement toxiques dans des décharges. Un autre groupe enfin était destiné à se nourrir de ces déchets pour éviter la contamination des autres membres de la colonie.

Stratégie d’exploration et de conquête

Tous ces organismes interdépendants les uns des autres construisaient un abri de forme généralement circulaire pour les héberger. L’architecture de ces constructions est considérable au regard de la taille microscopique de ces organismes : les édifices atteignent et dépassent parfois deux mètres de longueur. Les restes fossilisés de ces stromatolithes témoignent indéniablement d’une vie organisée : elles sont construites en ondulations autour d’un centre précis. Ce sont ces abris primitifs dont on a retrouvé les traces au Groenland.
 
Cette forme est la caractéristique d’organismes menant une stratégie d’exploration et de conquête pour l’alimentation que l’on retrouve dans un grand nombre d’espèces bactériennes. James A. Shapiro est considéré comme une référence en matière de biologie moléculaire ; il a intitulé fort opportunément une de ses publications scientifiques Les bactéries sont petites mais pas stupides. Il y démontre que la biologie moléculaire moderne a découvert « un vaste royaume de machinerie intracellulaire complexe, de transduction de signal, de réseaux régulés et de processus sophistiqués de contrôle » que l’on ne soupçonnait absolument pas quand les premières recherches sur la vie furent menées. En effet, des générations entières de scientifiques ont considéré les bactéries comme des organismes peu dignes d’intérêt, cellules solitaires bataillant dans la jungle impitoyable des entités microscopiques. Il n’en est rien. Les bactéries, même les plus primitives, sont dotées de systèmes d’information et remplissent une fonction sociale : la communication.

Intelligence connectée

Les recherches les plus récentes démontrent que les premières communautés de bactéries avaient développé les toutes premières formes de ce que nous appellerions aujourd’hui, dans un raccourci anthropomorphique, une « intelligence connectée ». En effet, ces organismes vivants primitifs, avaient, dès l’origine, tissé entre eux de véritables liens de communication par l’intermédiaire de moyens de signalisation variés – chimiques, génétiques, physiques – capables de diffuser des messages sur une longue distance.
 
Toute cette machinerie relativement sophistiquée, ce « réseau créatif de survie », remplissait un objectif primordial : observer l’environnement pour en prévenir les dangers, détecter les opportunités, s’en nourrir et prospérer. La créativité bactérienne s’exprimait avec talent dans la maîtrise des signaux d’attraction et de répulsion. Lorsque l’environnement autour d’elles était stérile ou hostile, elles émettaient à destination de leurs congénères des signaux appropriés. Les bactéries s’avançant dans les terrae incognitae de leur milieu, le balisait d’informations chimiques extrêmement précieuses pour leur survie et leur croissance. Dès l’origine de la vie, les premiers organismes manipulaient déjà de l’information. Face au monde chaque fois changeant et dangereux qui les entourait, le « génie génétique » de ces micro-organismes allait s’avérer une formidable machine d’adaptation et d’expansion.
 
 
 
Image d’en-tête : stromatolithes en Australie 

 

Séisme en Italie

Que sait-on vraiment des séismes ?

Le tremblement de terre qui a eu lieu le 24 août dans le centre de l'Italie entraîne, comme toujours en pareil cas, son cortège de chiffres macabres et d'images de désolation. Et toujours la même question : peut-on prévoir un tel séisme ? Une question toujours sans réponse qui souligne notre impuissance devant les forces de la nature. Deux sismologues tentent dans cet article de nous expliquer la nature d'un séisme et les pistes de recherche en cours pour la prévention ou au moins l'alerte de ce type d'événements.

La mobilisation scientifique pour la prédiction des séismes ne date pas d’hier. Après le séisme en Alaska de 1964 et dans le cadre d’un effort international, les chercheurs américains avaient demandé la mise en place d’un grand projet national sur la prévision des séismes.

Le titre du projet contenait bien les termes « prévision des séismes » mais la revue Science (Walsh, 1965) notait alors qu’il s’agissait d’une part de donner, avec une grande chance de succès, l’alerte quelques heures ou quelques jours avant les grands séismes, et d’autre part de développer des techniques qui permettent de limiter les pertes humaines et les dégâts même si le premier objectif n’était pas atteint.

L'opinion publique a été plus sensible aux promesses de la prévision qu’à celle de la mitigation. Malgré les immenses avancées dans la compréhension des séismes et de leurs effets catastrophiques, les annonces optimistes des années soixante ont créé une profonde déception vis-à-vis de l’échec apparent de la prévision des séismes.

Sémantique des séismes

Il faut ici aborder des questions sémantiques et d’objectifs. S’agit-il de la prévision de l’occurrence d’un séisme, de la prévision des mouvements du sol potentiellement dangereux ou de la prévision d’une catastrophe ?

Heureusement, tous les séismes n’amènent pas de destructions, et un des objectifs fondamentaux de la sismologie est de comprendre où et pourquoi les destructions se produisent. Il nous faut aussi préciser l’échelle de temps de la prévision : est-ce qu’un séisme est imminent (c’est à dire une annonce dans les secondes, les heures, ou les jours avant l’évènement) ? Où est-il probable qu’un séisme se produise dans les années ou les décennies à venir ?

Chacune de ces prévisions peut être utile, suivant les conditions géographiques et socio-économiques. Même si nous ne savons pas prévoir les séismes, la possibilité de prévoir les mouvements du sol qui vont se produire et les annoncer juste avant que les vibrations destructrices ne se produisent peut être d’une grande utilité.

Cela permet de mettre en sécurité des installations critiques et surtout alerter les populations. Cette forme d’alerte, après le séisme, mais avant ses effets à distance, est déjà mise en pratique dans des régions à haut risque.

Les vibrations sismiques que nous ressentons pendant les séismes et qui peuvent détruire des bâtiments se sont en fait propagées dans les roches en profondeur parfois sur de grandes distances. Ces ondes sismiques se propagent rapidement, mais les plus destructives d’entre elles (les ondes de cisaillement) ne sont pas les plus rapides des ondes élastiques et se propagent bien moins vite que les signaux électromagnétiques.moins vite que les signaux électromagnétiques.

 

Alerte par smartphone. UC Berkeley/YouTube

Quand un séisme se produit, des vibrations sont détectées près de la source et cette information peut être transmise presque instantanément vers des centres où elle sera traitée automatiquement ; ils pourront alors émettre des alertes dans les secondes qui suivent l’émission, donc avant les vibrations destructrices.

Sismologie en temps réel

Ces techniques sont mises en œuvre sous le nom de sismologie en temps réel et de tels systèmes sont opérationnels dans différentes régions du monde (Japon, Italie, Californie, Mexique…). Bien sûr, ces systèmes ne nécessitent pas de prévision.

Sur le long terme, (depuis les années jusqu’aux décades), la géophysique fournit les outils indispensables à un management rationnel des ressources qui doivent potentiellement être affectées à la sûreté sismique. Dans le même temps, les analyses quantitatives des effets des séismes permettent de comprendre les conditions locales qui gouvernent la distribution des dégâts. Ces études offrent des éléments précieux pour adapter les modes de construction et l’aménagement du territoire aux conditions géologiques locales.

En ce sens la sismologie permet d’adopter des politiques de développement orientées vers la sécurité des populations. De grands progrès ont été faits et continuent à s’accomplir, mais il est difficile pour le public d’apprécier l’efficacité d’approches comme l’analyse probabiliste de l’aléa sismique car cette forme de « prévision » s’exprime sous la forme de probabilités à long terme, alors que la vision sensible des séismes est celle des images de destruction qui apparaissent régulièrement dans les médias.

Vision déterministe

La vision publique de la prévision sismique est typiquement déterministe, une réponse binaire à la question de l’occurrence d’un séisme dans un délai de quelques heures à quelques jours, précisément l’échelle de temps pour laquelle aucune réelle avance opérationnelle n’a été faite. Les raisons en tiennent à la complexité des processus physiques à la source des séismes.

Les séismes sont des instabilités de glissements qui se produisent dans la situation critique où la résistance au glissement de la faille – la friction – est proche des forces élastiques résultant de la déformation lente des roches. Bien que nous ne le percevions pas dans notre expérience quotidienne, la Terre est en évolution permanente. Les couches profondes subissent de lents mouvements de convection où les matériaux chauds remontent vers la surface, se refroidissent en plaques rigides puis replongent, donnant naissance en surface à la tectonique des plaques.

 

Les plaques tectoniques. USGS/Wikipédia

Les vitesses des plaques sont de l’ordre du centimètre par an. Lorsqu’un séisme se produit, les deux faces de la faille glissent localement à une vitesse relative de l’ordre d’un mètre par seconde, ce qui représente plus d’un milliard de fois la vitesse constante du mouvement des plaques.

En d’autres termes, les séismes destructeurs se produisent en quelques secondes, mais sont le résultat d’une lente évolution qui s’est étendue sur des dizaines, des centaines ou des milliers d’années. Le temps pendant lequel les mouvements de la Terre ont été mesurés est si court que nous n’avons pas d’espoir de savoir avec précision quand un état critique résultant d’une longue évolution sera atteint.

Phase préparatoire

Néanmoins, des études expérimentales et théoriques suggèrent que la rupture pourrait être précédée par une évolution rapide qui se développerait dans un laps de temps beaucoup plus court que celle de la préparation tectonique. Cette phase préparatoire, souvent appelée initiation, n’est pas observée systématiquement avec les méthodes géophysiques actuelles et on pourrait raisonnablement craindre que cette recherche de signaux précurseurs soit sans espoir considérant la méconnaissance de l’amplitude et de la durée de ces phénomènes. Pourtant des découvertes récentes ouvrent des perspectives plus positives.

 

Géosenseur EarthScope. Bdelisle/Wikipédia

La géodésie et la sismologie ont fait de grands progrès dans leur capacité à détecter de faibles changements dans les roches en profondeur. Les stations GPS en continu et les techniques de traitement récentes détectent des mouvements de plus en plus petits. Les stations GPS et sismologiques sont installées progressivement en d’importants réseaux denses, sous la forme de grandes antennes aux capacités de détection sans précédent.

Séismes lents

Ces dernières années, ces efforts ont été couronnés par la découverte de nouveaux processus de déformation. Le plus spectaculaire a été celui de l’existence de séismes lents. Ces séismes lents sont des épisodes de glissement en profondeur avec des vitesses de glissement intermédiaires entre celles des plaques et celles des séismes normaux. Les séismes lents les plus grands ont une magnitude supérieure à 7.5 (mesurée de manière équivalente à celle des séismes) pour des durées de plusieurs mois et on assiste à de plus en plus d’observations indiquant l’existence de séismes lents avec une diversité de magnitudes.

Cette découverte indique que la Terre se déforme avec des processus d’échelles de temps entre les extrêmes représentées par celle de la tectonique des plaques et celle des séismes. Les déformations transitoires récemment découvertes sous la forme de séismes lents peuvent être étudiées avec les méthodes de la géodésie spatiale (GPS, INSAR…).

Une analyse détaillée des enregistrements sismiques a montré que ces déformations sont aussi associées à une forme de faible grincement consistant en une superposition de micro-évènements sismiques. Ces observations suggèrent que nous pourrons dans le futur détecter et caractériser les faibles déformations en profondeur indiquant la préparation des grands séismes.

Il restera, on le sait, un long chemin avant de parler de prévision, mais les géophysiciens persévèrent dans leurs avancées pour comprendre notre Terre en évolution permanente. Aujourd’hui, bien comprendre les séismes est certainement la meilleure manière de vivre avec eux, de se préparer, de connaître notre vulnérabilité et d’adopter des politiques de prévention qui permettent de vivre dans des environnements garantissant la sécurité optimale de tous.

Michel Campillo, Sismologue, professeur à l'Université Grenoble-Alpes, Institut universitaire de France, Université Grenoble Alpes

Rob van der Hilst, Sismologue, professeur au Massachusetts Institute of Technology, Massachusetts Institute of Technology

La version originale de cet article a été publiée sur The Conversation.

image d'en-tête : Des secouristes recherchent des blessés dans les gravats à Arcuata del Tronto (centre de l'Italie) après un tremblement de terre le 24 août 2016. - Sandro Perozzi/AP/SIPAThe Conversation

 

 

Droit des robots

Faut-il un droit des robots ?

Si l’on s’en tient à son étymologie, le mot « robot » se rapporte à une entité anthropomorphe, car ce mot a d’abord été employé pour désigner un automate humanoïde dans une pièce du tchèque Karel Čapek, RUR, les Robots universels de Rossum, créée en 1921. Mais depuis quelques années, le terme est utilisé en des sens bien plus larges.
L’expression d’« intelligence artificielle » est, pour l’instant, trompeuse ; le robot n’est pas intelligent au sens humain. Et c’est bien cette différence psychologique fondamentale que le juriste devrait intégrer dans son raisonnement lorsqu’il va chercher à appliquer les principes juridiques fondamentaux ou à rédiger des conventions.

On parle aujourd’hui de robots pour désigner des machines-outils, des véhicules automatiques, des logiciels d’aide à la décision, des traders automatiques, des drones, des machines chirurgicales, des exosquelettes, voire des téléphones cellulaires (tous ces robots posent, au demeurant, de nombreux problèmes, ne serait-ce qu’en raison de la mémoire externe qu’ils peuvent, peu à peu, devenir pour les individus).

Les « vrais » robots

Nous pensons néanmoins qu’il serait préférable de conserver au terme de « robot » un sens plus proche de ses origines, à savoir « celui qui imite le vivant », celui qui désigne un humanoïde (androïde) ou, à la rigueur, un animaloïde, voire un végétaloïde.

C’est, en effet, celui-là qui trouve un écho dans l’inconscient collectif depuis le Golem, celui-là qui a justifié tous les fantasmes, toutes les terreurs, mais aussi de nombreuses créations artistiques.

Certains de ces robots se rapprochent le plus possible de l’apparence humaine ou animale, d’autres s’en éloignent, mais se rattachent à l’aspect humain, comme le font des personnages fictifs de bandes dessinées ou de dessins animés. La confusion n’est pas alors parfaite, mais l’assimilation inconsciente demeure.

Certains n’ont pas d’autre vocation que ludique ; mais beaucoup d’entre eux sont censés réaliser une ou plusieurs actions sociales (aide physique, intellectuelle ou psychologique) aux côtés de l’humain (assistance aux personnes vulnérables, notamment aux personnes âgées, aide à l’éducation des plus jeunes). On parle alors de « robots sociaux », sous-catégorie des robots de service.

Un robot de compagnie pour les enfants hospitalisés (vidéo Euronews, mars 2016).

La frayeur entretenue

La crainte grandit de voir, peu à peu, des robots s’humaniser en acquérant une intelligence artificielle, interactive et apprenante, tirant des leçons de leur expérience, s’individualisant au fil du temps, voire commençant à contenir des éléments vivants (ordinateur ou éclairage d’origine biologique).

Réciproquement, l’on s’inquiète de la robotisation progressive des humains (prothèses diverses, implants, y compris dans le cerveau). Mais l’idée, à la fois effrayante et séduisante, qu’un jour les deux mouvements pourraient se rejoindre, demeure, en l’état, une fiction. Et le juriste a bien plus à se soucier d’un troisième mouvement, celui de la manipulation du vivant par la génétique.

Le droit, toujours

L’avocat Alain Bensoussan milite de longue date pour que soit conférée aux robots humanoïdes une personnalité juridique, située quelque part entre le statut des meubles protégés (les animaux), celui des personnes morales et celui des personnes physiques.

L’état de la science nous pousse à penser que, pour l’instant, cette approche demeure prématurée.

Conférence TED d’Alain Bensoussan (novembre 2015)
 

Qui a vu un match de football « disputé » entre robots humanoïdes comprend que l’on est, non seulement loin de la créature monstrueuse qui risque de détruire son créateur, mais encore loin également d’une entité réellement « pensante ».

Nous n’y croirons que lorsqu’un robot-footballeur sera inculpé à l’occasion d’un match truqué. Nous sommes, pour l’instant, dans le « marionnettisme » évolué et numérisé, pas dans la création divine.

À notre sens, attribuer une responsabilité au robot (fût-il interactif et apprenant), lui accorder un patrimoine, peut paraître, en l’état de la science, infiniment plus anormal que d’accorder pareilles titularités aux animaux dont on sait qu’ils sont considérés comme des biens sensibles, voire aux plantes dont on sait qu’elles peuvent adopter une forme de « raisonnement » (opportunisme, défense commune contre un prédateur, etc.).

La question de la responsabilité

L’approche juridique actuelle, face à ces robots qui ressemblent à l’humain et vivent à ses côtés, est, en réalité, probablement, plus simple qu’il n’y paraît. Essentiellement deux questions se posent : celle de la responsabilité et celle du respect de la vie privée.

Quant à la responsabilité contractuelle (au profit des acheteurs ou locataires des robots) la difficulté tient « seulement » en la détermination du responsable : constructeur ou programmateur.

Pour la responsabilité délictuelle (au profit de tiers, victimes d’un préjudice né d’un dysfonctionnement du robot), celle de l’utilisateur final peut, en sus, éventuellement, être recherchée.

Quant au respect de la vie privée, il s’agit de savoir ce que vont devenir les multiples informations que le robot va recueillir sur la personne humaine qu’il côtoie. La question se pose avec encore plus d’acuité si le robot est connecté.

On devrait, juridiquement, savoir résoudre ces problèmes, grâce aux stipulations des contrats (dans lesquels on peut insérer des règles morales, telles les fameuses trois lois d’Asimov) ou par les textes existants tels qu’interprétés par les juges. Faire des lois nouvelles n’est pas toujours indispensable. La spécificité de la matière nous semble résider ailleurs.

L’auteur de science-fiction américano-russe Isaac Asimov énonce les trois lois de la robotique (YouTube, 2009)
 

Imitation et émotion

L’humain, qui parfois s’éprend de simples objets, est, a fortiori, susceptible de s’attacher à un robot humanoïde ou animaloïde. Il va en conséquence lui prêter des sentiments réciproques, alors que le robot ne fait que singer, qu’imiter l’humain, par des sons, des gestes, ou des mouvements du « visage », attitudes programmées face à telle parole ou tel signe, qu’il est appelé à reconnaître grâce à ses capteurs sonores ou visuels.

L’expression d’« intelligence artificielle » est, pour l’instant, trompeuse ; le robot n’est pas intelligent au sens humain, surtout si l’on accepte l’idée que l’intelligence est de l’ordre de la génétique ; s’il s’agit bien de raisonnements, même de plus en plus sophistiqués (on songe à la victoire d’AlphaGo au jeu de go), si le robot dispose de couches successives de silicium de plus en plus nombreuses, d’une mémoire autobiographique, il ne comprend pas pour autant, il n’a pas conscience de ce qu’il fait.

La Rachel du film «Blade Runner» est-elle un replicant ? (vidéo Movieclips, 2011)
 

De plus, il lui manquera toujours l’élément sentimental, la souffrance, le plaisir et les imperfections, qui sont à la fois un inconvénient (l’humain peut commettre plus de fautes que le robot et il peut avoir moins de capacités sensorielles), mais aussi une formidable différence en termes d’empathie, de solidarité du vivant et d’adaptabilité aux imprévus de l’environnement et de l’évolution.

Et c’est bien cette différence psychologique fondamentale que le juriste devrait intégrer dans son raisonnement lorsqu’il va chercher à appliquer les principes juridiques fondamentaux ou à rédiger des conventions.

Didier Guével, Professeur de droit privé et sciences criminelles, Université Paris 13 – USPC

La version originale de cet article a été publiée sur The Conversation.

 

The Conversation

 

Elon Musk : « Vous me prenez pour un dingue ? »

C’est par cette question que commence la biographie qu’Ashlee Vance consacre à l’un des hommes les plus puissants de la planète. Elon Musk, moins connu que Steve Jobs ou Bill Gates, mais de la même veine, est celui qui affirme vouloir changer le monde et qui en a les moyens. L’inventeur de PayPal, de Tesla, de Space X et de l’Hyperloop. L’homme qui rêve de sauver l’humanité en l’envoyant sur… Mars. Un visionnaire mégalo pour certains, génial pour d’autres, qui révolutionne les industries les plus traditionnelles avec fracas et transforme en or tout ce qu’il touche. Un homme controversé et admiré, qui ne laisse pas indifférent.
 
Transformer les humains en colons de l’espace, tel est explicitement le but de la vie d’Elon Musk. Il aime affirmer : « J’aimerais mourir en me disant que l’humanité a de beaux jours devant elle ». Son goût pour les choses impossibles a fait de Musk une divinité de la Silicon Valley. Il en a conservé en grande partie l’éthique (agir vite, éviter les hiérarchies bureaucratisées, inventer des machines fantastiques qui constituent de véritables avancées). Et une vision qui lui sert de credo et de moteur pour toutes ses entreprises ; un objectif radical qui lui sert de principe unificateur : coloniser Mars, faire de l’humanité une espèce multi planétaire… Pour la sauver d’elle-même.
Vision délirante diront certains. Pour d’autres, Musk a produit ce qui manque à beaucoup de créateurs d’entreprise : une vision du monde qui ait un sens.
 
Elon Musk est une force de la nature. 1m85, une carrure d’athlète, moitié play-boy, moitié cow-boy de l’espace, il se déplace lentement, mais pense vite, très vite. Né en Afrique du Sud il y a quarante-quatre ans, il n’a pas perdu de temps pour démontrer ses qualités de visionnaire. Jeune étudiant il rédige un mémoire remarqué sur l’énergie solaire, parle de voitures électriques et de fusées réutilisables. Du délire, disent ses condisciples, mais lui affirme suivre depuis toujours le même plan directeur.

PayPal

Il devient américain en 1994 et crée sa première startup aussitôt en Silicon Valley. Une petite société qui invente ce qui deviendra plus tard Google Map : un système de cartographie permettant d’identifier des lieux et des itinéraires.  Mais la prouesse technologique n’est pas le moteur principal de Mulk. Ce qu’il veut, c’est changer le monde et d’abord changer les industries du monde. Il s’attaque donc à une forteresse apparemment inexpugnable : la banque. Il invente un système de paiement de personne à personne qui permet d’envoyer de l’argent en indiquant simplement l’adresse électronique du destinataire. Son objectif : rompre avec les banques apathiques dont les ordinateurs mettaient des journées entières à traiter des règlements. Il invente un système agile où les transactions se font d’un clic de souris. PayPal était né. Le franc-tireur a visé juste et devient vite multimillionnaire. En 2002, il vend PayPal à eBay pour 1,5 milliard de dollars et empoche, à titre personnel, 250 millions de dollars. Suffisamment pour commencer à réaliser ses rêves les plus fous.

Space X

Son rêve de conquête spatiale va pouvoir devenir une réalité. Il crée aussitôt Space X dans la banlieue de Los Angeles. Un immense hangar revêtu de blanc immaculé mélangeant, dans le même lieu, les meilleurs cerveaux des universités américaines avec les soudeurs et mécaniciens qui fabriquaient le matériel. Tous ensemble pour forger le rêve le plus fou : révolutionner l’industrie aérospatiale et construire des fusées low costs, réutilisables.
L’objectif donné par Musk à ses troupes est clair : construire le moteur de fusée le meilleur et le plus économique, en optimisant tous les processus, pour sortir des fusées plus vite et moins cher que n’importe qui d’autre. L’analyse de Musk était simple : l’industrie aérospatiale traditionnelle fabriquait des produits extrêmement coûteux, des Ferrari, alors que des Twingo pouvaient suffire.
Après des séries d’échecs, de remises en question où tout devait être repensé jusqu’au moindre rivet, après des lancements hasardeux successifs, après avoir frôlé la faillite, l’abandon, à force de persévérance et d’innovation, Space X est aujourd’hui une entreprise à succès qui rivalise avec les fusées de la NASA ou d’Ariane Espace. Ses lanceurs sont considérés comme fiables et peuvent revenir à leur point de départ ; ce que personne au monde ne sait encore faire. Dans son rêve de conquête spatiale, Musk a désormais son armée de fusées, prêtes sur leurs pas de tirs.
 
Mais ce qui est plus important encore, c’est que Musk a révolutionné l’image de l’espace. Si quelqu’un sait observer, c’est bien lui. Il constate que l’industrie de l’espace a rendu l’espace ennuyeux. Les russes, qui dominent l’envoi de personnes et d’objets dans l’espace utilisent des équipements vieux de dizaines d’années. Les boutons et les cadrans de l’exigüe capsule Soyouz n’ont apparemment pas changé depuis le vol inaugural en 1966. Il observe que les pays nouveaux venus dans la course à l’espace imitent les équipements russes et américains avec une précision absurde. Elon Musk veut changer aussi cela et apporter de l’air et de l’innovation à une industrie rouillée. En procédant ainsi, il innove sans complexes et attire les meilleurs talents. C’est une des clés de son succès.

Tesla

Envoyer des fusées dans l’espace ne comble pas encore cet inventeur toujours sur la brèche. Il veut affronter un autre secteur industriel, un secteur lourd, ancien et de taille : l’automobile. On lui rappelle bien vite que la dernière création d’entreprise réussie dans cette industrie aux États-Unis est celle de Chrysler : elle remonte à 1925. Cette mise en garde ne l’effraie pas un instant. Ici aussi, il observe.
À force de voir à la télévision des publicités pour des automobiles, on ne peut plus y faire attention.  Les annonces serinent les mêmes messages depuis des décennies et vantent les petits détails, le porte-gobelet ou le coffre plus vaste.  Pour cet innovateur insatiable, ce n’est pas suffisant ; l’industrie automobile est tombée bien bas.
 
Sa révolution c’est la voiture électrique. Et pas n’importe quelle voiture électrique. Il sort en 2012 une berline de luxe, tout électrique, capable de parcourir 435 km en pleine autonomie. Une auto qui a du nerf (100 km/h en 4.4 secondes) et de l’allure. La mécanique bruyante du moteur a disparu, elle roule en silence, elle est dotée de fonctions inédites : poignées de porte encastrées qui sortent de la carrosserie quand le conducteur s’approche, commandes réunies au volant sous les doigts, écran tactile, espace dégagé, archi-sécurisée… Bref, une auto de classe. Chère, c’est vrai (100 000 dollars) mais quelle voiture !
 
Pourtant la vraie révolution n’est pas dans la voiture. N’importe quel industriel avisé pourrait construire ce type d’automobile. Elon Muk vise plus loin et veut révolutionner l’écosystème de l’automobile. Il supprime les concessionnaires, les réparateurs, les visites régulières, tout ce que les automobilistes connaissent depuis que la voiture existe. La Tesla est vendue en direct sur le web ou dans des boutiques rappelant les Apple Store. Il n’y a pas de garage. Si vous constatez une anomalie, ou souhaitez obtenir les dernières versions avec de nouvelles fonctions, la voiture est automatiquement upgradée, à distance. Car cette voiture est un ordinateur roulant.
 
Pour en recharger la batterie, Musk imagine d’installer des hyperchargeurs sur toutes les autoroutes d’Amérique puis du monde. Rechargement gratuit.
Pour l’auteur de la biographie, Ashlee Vance, « Musk voulait construire une automobile qui ne souffrirait aucun compromis. Il l’a fait. Puis, dans une sorte de judo entrepreneurial, il a bousculé des décennies de critiques contre les automobiles électriques. [Sa} voiture était la meilleure voiture. Point barre. »

Hyperloop

Elon Musk est un innovateur féroce. Après la banque, l’industrie aérospatiale et l’industrie automobile, le voilà vouloir révolutionner l’industrie ferroviaire ! En août 2013, il dévoile l’Hyperloop. Cet engin est un grand tube pneumatique faisant circuler à une vitesse proche de celle du son (1 300 km/h) des capsules en sustentation électromagnétique avec des voyageurs. Son premier projet : relier Los Angeles à San Francisco en moins de trente minutes.

LIRE DANS UP’ : Hyperloop : pour changer le monde du voyage

L’idée lui est venue en observant, encore une fois, le projet de TGV entre les deux grandes villes de Californie. Un projet archaïque à 60 milliards de dollars pour le TGV le plus lent du monde avec le coût au kilomètre le plus élevé. L’Hyperloop coûte entre 6 et 10 milliards de dollars, il va plus vite qu’un avion et permettrait un flux de voyageurs beaucoup plus important pour un prix de billet hyper-compétitif. Il tient tellement à ce projet que, pour le faire avancer plus vite, il l’ouvre en open source à toutes les bonnes volontés.  Les premiers tests grandeur réelle auront lieu courant 2016.
 
 
Elon Musk crée de façon tellement insatiable des automobiles, des panneaux solaires, des fusées, des hyperloops qu’on en oublierait presque que ces projets sont annexes à ses yeux. Pour lui la technologie est la meilleure voie à suivre pour l’amélioration de l’humanité. Ses innovations lui ont apporté gloire et fortune mais son but ultime est de faire des humains une espèce interplanétaire. Son biographe précise « Certains peuvent trouver cela idiot, mais c’est sans nul doute sa raison de vivre. Musk est convaincu que la survie de l’homme dépend de la colonisation d’une autre planète et qu’il doit consacrer sa vie à cet objectif ».  Et cet objectif n’est, pour Musk, pas si lointain que cela. Il prédit : « Je pense que vers 2025 Space X aura développé un propulseur et un vaisseau spatial capables d’emporter vers Mars des gens et des chargements en grande quantité. » Mais il est aussi (relativement) réaliste et connaît les difficultés d’une conquête martienne : « Il faudra un jour chauffer Mars si l’on veut en faire une planète comme la Terre, et je n’ai pas de plan pour cela. Dans le meilleur des cas cela prendra beaucoup de temps. Je ne sais pas combien, entre un siècle et mille ans. Il y a zéro chance pour que Mars devienne une autre Terre au cours de ma vie. Enfin, pas zéro, mais 0.001% de chance, et pour cela, il faudrait prendre des mesures drastiques. »

LIRE DANS UP : Une bombe atomique pour rendre Mars habitable

Dans le secteur des technologies, on compare volontiers la motivation et les ambitions de Musk à celles de Bill Gates et Steve Jobs. Certains osent presque imaginer une manipulation génétique qui aurait permis à Bill et Steve de faire un enfant ensemble et cet enfant serait Elon !  C’est ce que déclare Edward Jung, ingénieur surdoué de la Silicon Valley, actuellement patron des architectures logicielles de Microsoft qui connaît bien les trois génies de la Valley. Un autre observateur éclairé surenchérit : « Il est un mélange amélioré des deux ».
 

LIRE : Ashlee Vance, Elon Musk, Tesla PayPal, Space X : l’entrepreneur qui va changer le monde, Eyrolles, 24,90 euros. 

Cet article a été publié originellement le 12 février 2016
 
 

 

Plante modifiée génétiquement

Modifier génétiquement une plante n’est pas anodin

Actuellement, plusieurs nouvelles techniques de modification génétique font l’objet de discussion, pour déterminer si les produits qui en seront issus seront, ou non, réglementés comme les OGM transgéniques. Cet article d’Eric Meunier de la revue inf’OGM nous permet de comprendre certains des risques potentiels liés à la seule mise en œuvre d’une technique de modification génétique, quelle qu’elle soit, sur une culture de cellules végétales.
 
Les techniques de modification génétique, nouvelles ou anciennes, ne sont pas totalement maîtrisées : si elles permettent d’apporter certains nouveaux caractères à un être vivant (comme la capacité à tolérer un herbicide), elles produisent également de façon non intentionnelle d’autres modifications dénommées « hors-cible » (off-target en anglais) car ayant lieu en d’autres endroits du génome que celui initialement ciblé.
 
Le 7 avril 2016, comme en écho aux remarques d’Yves Bertheau, ex-membre du Haut Conseil des Biotechnologies (HCB), formulées depuis décembre 2015, Jean-Christophe Pagès, président du Comité Scientifique (CS) du HCB, expliquait à l’Office parlementaire sur l’évaluation des choix scientifiques et techniques (OPECST) à propos d’une de ces nouvelles techniques, Crispr/Cas9, qu’il « faut ne pas oublier quelles sont les difficultés de son application [...] en particulier in vivo chez l’animal dans la mesure où il faut apporter une matrice et on a actuellement de gros soucis de vectorisation pour pouvoir le faire.
In vitro, en culture, en revanche, c’est quelque chose de beaucoup plus aisé et c’est la raison pour laquelle la majorité des applications sont des applications de recherche et éventuellement des applications pour lesquelles on peut reconstituer des organismes à partir de culture in vitro, et là ça concerne effectivement certaines plantes »… Des propos qui interpellent car, à y regarder de plus près, l’avis du CS du HCB du 4 février 2016 - devenu depuis rapport provisoire - ne fait pas état de telles difficultés in vivo, ou de telles « facilités » de mise en œuvre in vitro.

LIRE DANS UP’ : CRISPR : Révolution dans l’histoire humaine ou méga bombe à retardement ?

Dans les différentes étapes du processus de modification génétique. Nous allons nous intéresser à l’étape dite de vectorisation qu’évoque Jean-Christophe Pagès, qui consiste à apporter dans une cellule le matériel destiné à générer la modification génétique souhaitée. Mais aussi aux étapes préalables à cette phase de vectorisation qui s’avèrent être sources de stress capables d’induire des mutations et des épimutations (voir encadré ci-dessous).
 

Mutation, épimutation : de quoi parle-t-on ?
Une mutation est couramment définie comme une modification de l’information génétique contenue dans un organisme, que ce soit sous forme d’ADN ou d’ARN. Les mutations sont héréditaires. Elles peuvent être « silencieuses », c’est-à-dire n’avoir aucune implication dans le métabolisme de l’organisme. Elles peuvent aussi affecter l’expression d’un ou plusieurs gènes, modifiant le métabolisme.
Les épimutations appartiennent à la famille des mutations affectant l’expression d’une séquence génétique mais qui ne sont pas dues à une modification de la séquence génétique elle-même. Elles peuvent par exemple être dues à un changement de la composition chimique de briques de base de l’ADN, les nucléotides.

Préparation des cellules à transformer

La première étape avant de pouvoir introduire du matériel dans des cellules (la vectorisation dont parle J.-C. Pagès) consiste à préparer les cellules végétales. Les techniciens de laboratoire vont casser la paroi des cellules, voire l’enlever complètement. Les cellules végétales dont la paroi a disparu, ou protoplastes, deviennent donc transformables et les biologistes peuvent alors faire entrer toute une panoplie d’outils comme des grosses protéines, des ARN et/ou des ADN codant dans ces cellules. Or, comme le rappelle Yves Bertheau, cette « simple » formation de protoplastes induit des mutations et épimutations, un phénomène abondamment observé dans la littérature scientifique [1].

La simple mise en culture de cellules induit des mutations

La deuxième étape consiste à cultiver ces protoplastes. Or le fait même de mettre en culture des cellules est générateur de mutations et épimutations. Le plus étonnant est qu’une bibliographie scientifique montre que les mécanismes à la base de l’apparition de ces mutations et épimutations restent encore assez méconnus malgré des décennies d’utilisation [2]. Ce phénomène, appelé variation somaclonale, est tel qu’il a d’ailleurs été utilisé par des semenciers pour créer une « diversité génétique » nécessaire pour « améliorer » des plantes, pour reprendre un élément de langage des semenciers.
 
Le Groupement national des industries semencières (GNIS) explique ainsi que « la variation somaclonale est la modification observée chez certaines cellules, après un long cycle de cultures in vitro sans régénération. Elles ne sont plus alors identiques à la plante mère. Cette variation peut être due à une modification du génome nucléaire ou du génome des organites cytoplasmiques ».
 
En d’autres termes, les plantes obtenues à partir de ces cellules auront des caractéristiques différentes. Le GNIS apporte une dernière précision intéressante : « les modifications de caractères obtenues sont peu stables et ne se retrouvent pas toujours dans la plante régénérée, ou dans sa descendance ». La raison ? Des modifications apparues (épimutations) peuvent faire disparaître les mutations obtenues [3]… Comme nous l’explique Yves Bertheau, « il paraît difficile dans de telles conditions de prévoir quels impacts peut avoir cette étape de mise en culture de cellules lors de la mise en œuvre d’une nouvelle technique de modification génétique ».

La vectorisation, enfin...

Cellules préparées et mises en cultures, nous voilà enfin prêts à introduire le matériel destiné à générer la modification souhaitée. Selon les techniques, ce matériel peut consister en protéines et/ou séquences génétiques de type ARN ou ADN – molécule plus fréquemment utilisée dans le cas des plantes - codant (oligonucléotides, plasmides, virus…). Les méthodes utilisées pour faire pénétrer ce matériel dans les cellules consistent tout simplement à faire des trous dans les membranes restantes (cytoplasmique et nucléaire) de la cellule. Or, comme nous l’explique Yves Bertheau, faire de tels trous induit, là encore, des mutations et des épimutations [4]. Surtout, le chercheur estime qu’il est impossible de prévoir une grille générale d’appréciation des risques. Car il faut choisir entre plusieurs techniques de vectorisation, entre différents types de matériel, le tout selon les séquences génétiques à introduire et les espèces ciblées. Au final, seule une analyse au cas par cas comme prévu pour les OGM permet d’évaluer les potentiels risques liés à tous ces effets non intentionnels.

Le rapport provisoire du CS du HCB silencieux sur ces mutations

Dans un article publié en 2011, des scientifiques ont estimé que 35% de tous les effets non intentionnels observés suite à une modification génétique de la variété de riz Senia par transgenèse sont dus au processus même de transformation des cellules [5]. Le phénomène n’est donc pas anodin.
 
Étonnamment, et malgré les déclarations de son Président devant l’OPECST, le comité scientifique du HCB n’a pas fait état de ces risques dans son rapport provisoire sur les risques liés aux nouvelles techniques. Si la question de la « vectorisation » est bien abordée dans les fiches du CS de chaque technique, il s’agit seulement de faire état des moyens de mise en œuvre d’une technique et de décrire comment le matériel est introduit dans les cellules. Nulle part il n’est fait état des mutations et épimutations qui peuvent émerger à chacune des étapes comme nous venons de le voir. Le HCB étant composé d’un comité d’experts scientifiques, on attend de ce comité qu’il discute et explique, pas qu’il ignore ces points. D’autant que la vectorisation – pour ne parler que de ce qui est évoqué dans le rapport du CS – n’apparaît pas complètement au point selon les techniques, le même CS notant ainsi pour la mutagenèse dirigée par oligonucléotides que « de nombreuses molécules ou mélanges moléculaires sont en cours d’essais pour améliorer la vectorisation qui fonctionne relativement bien in vitro mais très peu sur des organismes entiers (Liang et al., 2002) » [6].

Sélectionner et régénérer les cellules « modifiées » n’est pas sans effet

Du fait de leur faible, voire très faible, efficacité de transformation [7], les techniques de modification génétique impliquent en aval de sélectionner les cellules ayant effectivement été modifiées. Cette sélection se fait en utilisant des marqueurs qui permettent de différencier les cellules : gène de résistance à des antibiotiques ou à des herbicides (les cellules sont alors plongées dans un bain d’antibiotiques ou d’herbicides et seules les cellules réellement modifiées survivent), gène qui permet la croissance de la cellule en présence d’une molécule habituellement toxique ou encore gène qui permet aux cellules d’utiliser une source de carbone normalement non métabolisable... ou tout autre marqueur qui sera persistant ou supprimé en bout de course [8]. Mais la suppression de ces marqueurs de sélection se fait par des techniques plus ou moins fiables et précises et qui donc peuvent induire potentiellement des toxicités cellulaires et autres réarrangements chromosomiques [9], laisser des empreintes [10] et produire des sites de recombinaisons (lieux d’échanges de séquence génétique entre deux brins d’ADN) aux effets non prévisibles [11]. Des techniques qui ne sont par ailleurs pas forcément possibles pour toutes les espèces végétales.
 
À partir de ces cellules sélectionnées, des plantes doivent ensuite être régénérées. Une nouvelle étape de cultures cellulaires qui fera appel à diverses hormones de synthèse, et pourra aussi induire à nouveau des mutations et des épimutations avec réarrangements ou non de chromosomes [12].
 
Qu’il s’agisse de l’étape de modification génétique en elle-même, des étapes préalables, ou des étapes postérieures, toutes induisent des mutations ou épimutations, appelées effets hors-cible. Mais, on peut entendre dans les couloirs que finalement ces (épi)mutations ne seraient pas présentes dans la plante commercialisée. La raison ? L’étape suivante, dite de rétrocroisement, permettrait de se débarrasser de tous ces effets non intentionnels...

La théorie à la base du rétrocroisement

Rappelons le principe général : une entreprise qui souhaite mettre sur le marché une variété génétiquement modifiée (qu’elle soit légalement considérée comme OGM ou pas) ne va pas modifier directement le génome d’une des variétés « élites » mais celui d’une variété plus commune. Une fois la modification obtenue, l’entreprise va alors croiser une première fois la variété commune génétiquement modifiée (GM) avec la variété élite commercialement intéressante. Elle recroisera ensuite les descendants avec la variété élite initiale jusqu’à ce que ces descendants soient considérés (à partir d’une analyse statistique) quasiment similaires (on parle de variété quasi-isogénique ou de ségrégants négatifs) à la variété élite. La différence entre la variété élite et la nouvelle variété est supposée n’être « quasiment » que la seule séquence modifiée.
 
Le GNIS explique ainsi que, au dernier croisement, « la part [du génome provenant] de la lignée élite est de 96,88%, on estime alors que la lignée obtenue est suffisamment proche de la lignée élite. On tend vers l’obtention d’une lignée isogénique, ne différant de la lignée élite que par un seul gène [celui contenant la modification] ». On notera ici qu’un pourcentage de 96,88 % laisse encore beaucoup de place aux mutations, épimutations et réarrangements potentiels pour certaines plantes cultivées dont le génome est très grand comme le blé : pour environ 17 milliards de paires de base constituant le génome du blé, les 3,12% restants représentent tout de même plus de 500 millions de paires de bases...

Les limites de la théorie

La théorie sous-jacente au « nettoyage » des effets hors-cible grâce au rétrocroisement se fonde sur l’hypothèse suivante : les effets non intentionnels apparus aux étapes antérieures sont suffisamment éloignés de la région où a eu lieu la modification génétique désirée. En effet, plus ces effets hors cibles sont proches, plus la probabilité est grande que les effets non désirés soient transmis avec la modification génétique à chaque croisement. D’un nombre minimum de sept, le nombre de croisements nécessaires pourrait alors monter à plus de 14 pour essayer de s’en débarrasser.
 
Mais, outre ce problème de proximité des effets hors cible avec la séquence génétique modifiée, la confiance que l’on peut avoir dans cette théorie est également relativisée par deux autres phénomènes biologiques. D’une part, des séquences génétiques peuvent exister et évoluer en blocs plus ou moins importants. Ces blocs étant transmis tels quels à la descendance, les effets hors-cibles contenus dans ces blocs resteront alors avec la séquence génétique modifiée à chaque croisement. D’autre part, certaines séquences génétiques ont la capacité de « s’imposer » lors de la formation des gamètes. Dites « égoïstes », ces séquences vont être contenues dans un plus grand nombre de gamètes qu’attendu et, de génération en génération, elles seront toujours présentes dans la descendance. Si les effets hors-cible apparaissent dans de telles séquences, il sera moins aisé de s’en débarrasser [13].
 
Ces éléments impliquent donc qu’une nécessaire vérification au cas par cas paraît nécessaire. A l’heure actuelle, seule la législation sur les plantes transgéniques requiert de telles vérifications au cas par cas avec un ensemble d’analyses le plus complet qu’il soit (avec des déficiences néanmoins rappelons-le). En effet, le séquençage du génome ne permet pas de répondre à la question de la présence ou non d’effets hors-cible du fait des limites inhérentes à ce type d’analyse (cf. encadré ci-dessous).
 

Le séquençage et les outils informatiques associés ? Tout sauf un gage de certitude !
Le 7 avril, lors de l’audition organisée par l’Office parlementaire sur l’évaluation des choix scientifiques et techniques (OPECST), André Choulika, PDG de Cellectis, affirmait à propos des effets hors-cible « reséquencer intégralement [le génome des plantes], c’est vachement important […] parce que dans l’approbation, on vous redemande la séquence intégrale ». Sauf que, à bien y regarder, les résultats de séquençage obtenus sont loin d’une fiabilité absolue.
Le séquençage dit de « nouvelle génération », est aujourd’hui relativement peu cher et rapide. Mais plusieurs « problèmes » émaillent sa mise en œuvre, la lecture et l’utilisation des résultats.
Tout d’abord, plusieurs étapes du séquençage lui-même « parasitent » la fiabilité du résultat final. Il faut savoir extraire correctement l’ADN, le découper en morceaux puis séquencer ces derniers à l’aide de diverses plateformes et méthodes. Or, ces plateformes et méthodes sont assez différentes les unes des autres, tant en termes de limites que de fiabilité de résultats [14].
Il faut ensuite lire ces résultats en tentant de remettre bout à bout les séquences lues pour reconstituer le génome en entier. Puis, les séquences obtenues sont comparées avec d’autres considérées comme « de référence » et stockées dans des bases de données qui contiennent déjà elles-mêmes des erreurs [15].
Autant d’étapes qui introduisent une importante imprécision dans les résultats finaux de détection d’effets non intentionnels et donc d’évaluation des risques, les incertitudes quant aux séquences augmentant avec des génomes polyploïdes ou aux nombreuses séquences répétées [16]. Sans compter qu’en bout de course, les mutations repérées peuvent ne pas s’avérer de la même importance biologique [17]...
De nombreux articles résument les difficultés rencontrées à chaque étape, comparent les méthodes, plateformes [18] et logiciels associés [19], discutent de normes de référence (« gold standards ») et normes à mettre en place pour fiabiliser le processus complet [20]. Bref, comme le soulignent ces auteurs, autant de techniques et d’étapes qui sont en cours d’amélioration car non parvenues à maturité, en pleine évolution et nécessitant donc nombre de vérifications pour des évaluations au cas par cas.
Selon de nombreux chercheurs, savoir faire face à l’accumulation de très nombreux résultats (un de ces fameux « big data »), dont certains avec de multiples erreurs, et les utiliser avec rigueur est un des défis de la biologie moléculaire actuelle. D’ailleurs, devant le scepticisme soulevé face à tout résultat de séquençage, les demandes minimales des relecteurs d’articles scientifiques sont telles que de plus en plus de chercheurs sont maintenant obligés de présenter des résultats de séquençages de plus longues séquences pour assurer du sérieux de leurs résultats bruts [21].

Nous avons, au cours de cet article, évoqué les mutations et épimutations parmi les effets non intentionnels de ces biotechnologies modernes. On peut dès lors observer que prétendre détecter et éliminer tous les effets non intentionnels des nouvelles techniques relève plus de l’acte de foi que de la science établie. Surtout, face à ce constat des effets potentiels, des limites du rétrocroisement et de celles du séquençage, on peut douter en toute bonne foi de la capacité des sélectionneurs à éliminer tous les effets hors-cible puis à détecter efficacement et rapidement les mutations et épimutations restantes par séquençage. On peut dès lors s’étonner du silence du Comité scientifique du Haut Conseil des Biotechnologies (HCB) sur tous ces points dans son premier rapport publié en février 2016 sur les impacts liés aux nouvelles techniques de modification génétique.
 
Eric Meunier, Inf’OGM
 
 
[1] « Stress induces plant somatic cells to acquire some features of stem cells accompanied by selective chromatin reorganization », Florentin, A. et al. (2013), Developmental Dynamics, 242(10), 1121-1133 ;
« Developmental stage specificity and the role of mitochondrial metabolism in the response of Arabidopsis leaves to prolonged mild osmotic stress », Skirycz, A. et al., (2010). Plant Physiology, 152(1), 226-244 ;
« Arabidopsis mesophyll protoplasts : a versatile cell system for transient gene expression analysis », Yoo, S.-D.et al. (2007). Nat. Protocols, 2(7), 1565-1572.
 
[2] « Cell culture-induced gradual and frequent epigenetic reprogramming of invertedly repeated tobacco transgene epialleles », Krizova, K. et al., (2009). Plant Physiology, 149(3), 1493-1504 ;
« Extended metAFLP approach in studies of tissue culture induced variation (TCIV) in triticale », Machczyńska, J. et al., (2014). Molecular Breeding, 34(3), 845-854 ;
« Tissue culture-induced novel epialleles of a Myb transcription factor encoded by pericarp color1 in maize », Rhee, Y. et al., (2010). Genetics, 186(3), 843-855 ;
« Transformation-induced mutations in transgenic plants : analysis and biosafety implications », Wilson, A.K. et al., (2006). Biotechnol Genet Eng Rev, 23(1), 209-238 ;
« A whole-genome analysis of a transgenic rice seed-based edible vaccine against cedar pollen allergy », Kawakatsu, T. et al., (2013).. DNA Research 20, 623-631 ;
« Recent progress in the understanding of tissue culture-induced genome level changes in plants and potential applications », Neelakandan et al.,, 2012,. Plant Cell Reports, 31(4), 597-620
 
[3] « Meiotic transmission of epigenetic changes in the cell-division factor requirement of plant cells », Meins, F. et al., (2003). Development, 130(25), 6201-6208.
 
[4] « Cell biology : delivering tough cargo into cells », Marx, V. (2016). Nat Meth, 13(1), 37-40.
 
[5] « Only half the transcriptomic differences between resistant genetically modified and conventional rice are associated with the transgene », Montero, M. et al., (2011). Plant Biotechnology Journal, 9(6), 693-702.
 
[6] Rapport du CS du HCB, page 50
 
[7] « Less is more : strategies to remove marker genes from transgenic plants », Yau, Y.Y. et al, (2013), BMC Biotechnology.
 
[8] « Alternatives to Antibiotic Resistance Marker Genes for In Vitro Selection of Genetically Modified Plants – Scientific Developments, Current Use, Operational Access and Biosafety Considerations », Breyer et al (2014) Critical Reviews in Plant Sciences, Vol 33, Issue 4, 286-330
« Suitability of non-lethal marker and marker-free systems for development of transgenic crop plants : present status and future prospects », Manimaran et al (2011) Biotechnol Adv. 29(6), 703-14
« Effects of antibiotics on suppression of Agrobacterium tumefaciens and plant regeneration from wheat embryo », Han, S-N. et al, (2004), Journal of Crop Science and Biotechnology 10, 92-98.
 
[9] Certains de ces systèmes peuvent persister comme éléments circulaires extra-chromosomiques durant plusieurs générations (ex. du blé).
 
[10] utilisables en identification (ex : empreinte d’excision de transposon, recombinaisons) de l’évènement de transformation
 
[11] Biotechnology 13., ibid.
 
[12] « Recent progress in the understanding of tissue culture-induced genome level changes in plants and potential applications », Neelakandan, A.K. et al, (2012), Plant Cell Reports 31, 597-620
« Regeneration in plants and animals : dedifferentiation, transdifferentiation, or just differentiation ? », Sugimoto, K. et al, (2011), Trends in Cell Biology 21, 212-218.
 
[13] « Distorsions de ségrégation et amélioration génétique des plantes (synthèse bibliographique) », Diouf, F.B.H. et al , (2012), Biotechnologie Agronomie Société Et Environnement, 16(4), 499-508
« Quantitative trait locus mapping can benefit from segregation distortion », Xu, S. (2008), Genetics, 180(4), 2201-2208
« Genetic map construction and detection of genetic loci underlying segregation distortion in an intraspecific cross of Populus deltoides », Zhou, W et al, (2015), PLoS ONE, 10(5), e0126077
 
[14] « Next generation sequencing technology : Advances and applications », Buermans, H.P.J. et al, (2014), Biochimica et Biophysica Acta (BBA) - Molecular Basis of Disease, 1842(10), 1932-1941
« Next-generation sequencing platforms », Mardis, E.R. (2013), Annual Review of Analytical Chemistry, 6(1), 287-303
« Applications of next-generation sequencing. Sequencing technologies - the next generation », Metzker, M.L. (2010), Nature Reviews Genetics, 11(1), 31-46.
 
[15] « Next-generation sequence assembly : four stages of data processing and computational challenges », El-Metwally, S. et al, (2013), PLoS Comput Biol 9, e1003345
« Systematic comparison of variant calling pipelines using gold standard personal exome variants », Hwang, S. et al, (2015), Scientific reports 5, 17875
« Sequence assembly demystified », Nagarajan, N. et al, (2013), Nat Rev Genet 14, 157-167.« Improving the quality of genome, protein sequence, and taxonomy databases : a prerequisite for microbiome meta-omics 2.0 », Pible, O. et al, (2015). Proteomics 15, 3418-3423
« Theoretical analysis of mutation hotspots and their DNA sequence context specificity », Rogozin, I.B. et al, (2003), Mutation Research/Reviews in Mutation Research 544, 65-85
 
[16] « Sequencing technologies and tools for short tandem repeat variation detection », Cao, M.D. et al, (2014), Briefings in Bioinformatics
 
[17] « Open chromatin reveals the functional maize genome », Rodgers-Melnick, E. et al, (2016). Proceedings of the National Academy of Sciences 113, E3177-E3184
« Evolutionary patterns of genic DNA methylation vary across land plants », Takuno, S. et al, (2016), Nature Plants 2, 15222.
 
[18] « Systematic comparison of variant calling pipelines using gold standard personal exome variants », Hwang, S., et al, (2015), Scientific reports 5, 17875
« Principles and challenges of genome-wide DNA methylation analysis », Laird, P.W. (2010), Nature Reviews Genetics 11, 191-203
« Performance comparison of whole-genome sequencing platforms », Lam, H.Y.K. et al (2012), Nat Biotech 30, 78-82
« Low concordance of multiple variant-calling pipelines : practical implications for exome and genome sequencing », O’Rawe, J. et al, (2013), Genome Medicine 5, 1-18.
 
[19] « Next-generation sequence assembly : four stages of data processing and computational challenges », El-Metwally, S. et al, (2013), PLoS Comput Biol 9, e1003345
 
[20] « Rapid evaluation and quality control of next generation sequencing data with FaQCs », Lo, C.-C. Et al, (2014), BMC Bioinformatics 15, 1-8
 
[21] « Droplet barcoding for massively parallel single-molecule deep sequencing », Lan, F. et al, (2016), Nat Commun 7
 

 

Loading...
Loading...