UP' Magazine L'innovation pour défi

Axel Kahn

Axel Kahn : "Que restera-t-il de l’esprit humain dans ce nouvel ordre numérique des choses ?"

J’ai abordé dans deux articles récents de mon blog les bouleversements intellectuels, sociaux et individuels liés à l’intervention de plus en plus massive et experte des « machines à penser », englobant sous ce terme l’intelligence artificielle servie par les big data et leurs algorithmes d’exploitation, dotée d’une capacité d’amélioration autonome de plus en plus vive et contrôlante, le cas échéant, des robots de plus en plus performants.

Dans « À quoi l’économie participative participe-t-elle ? », j’aborde la remise en question désormais de la notion de spécialisation et de compétence ; dans Intelligence humaine, intelligence artificielle : des vases communicants ?, je propose que la cause d’une tendance bien documentée depuis le début du XXIe siècle à la baisse des scores moyens aux tests de quotient intellectuel (QI) pourrait être que, intimidés par leur puissance, nos concitoyens laissent de plus en plus aux machines le soin de réaliser des tâches qui, lorsqu’ils les réalisaient eux-mêmes, contribuaient à développer leur mémoire et leur vivacité intellectuelle, paramètres qui interviennent dans les performances de QI.

En résumé, la masse des données stockées et stockables dans des mémoires informatiques est presque infinie, des supports durables sinon éternels sont en voie de développement rapide pour les conserver, là encore presque indéfiniment. Des algorithmes qui permettent d’interroger avec une subtilité croissante ces masses de données sont en développement permanent.

Grâce à des systèmes mimant certains principes de fonctionnement (mais bien entendu pas la nature) des circuits neuronaux, ces dispositifs gardent la mémoire des tâches qu’ils réalisent et des problèmes rencontrés, ils peuvent le cas échéant interagir avec d’autres ensembles de même type auxquels ils sont connectés, et accroître de la sorte et de manière autonome leurs performances, élargir le spectre de leurs possibilités. Il s’ensuit que l’innovation algorithmique et le perfectionnement des procédures deviennent dès lors potentiellement autonomes et, à terme, ne dépendront plus obligatoirement de l’intervention humaine.

La puissance de semblables systèmes est en théorie supérieure à celles de l’esprit humain pour toutes les tâches dont la réalisation repose sur la mémoire et la capacité de tester rationnellement un grand nombre d’hypothèses, d’autant que des éléments de stratégie réflexive, au départ d’origine humaine, sont susceptibles d’une amélioration progressive autonome. C’est pourquoi la machine est désormais appelée à l’emporter sur les meilleurs spécialistes concernés, et cela de manière irréversible, dans le jeu d’échec, de Go et toute autre activité de ce type. En effet, un appareil capable de prévoir les innombrables coups possibles d’un adversaire et le mérite comparé de toutes les répliques envisageables des dizaines de coups à l’avance est à l’évidence invincible, sa stupide capacité quantitative l’emportant sur la plus brillante des subtilités des joueurs expérimentés.

 

Le match Alphago – Lee Sedol. Prachatai/Flickr

Approche numérique et quantitative

Dans le champ scientifique, l’approche numérique et quantitative s’est imposée dans de très nombreux domaines ; j’ai déjà cité le clonage des gènes, les enquêtes de motivation des consommateurs et des électeurs, les études épidémiologiques. Sans ces outils nouveaux, pas d’astrophysique, de physique des particules, pas de modélisation des nouveaux modèles de voitures ou d’avions, etc. Les approches numériques modernes sont déjà, de manière balbutiante, et seront plus encore dans le futur à la base d’une révolution profonde des pratiques et de l’exercice médical.

En effet, aucun médecin, même le plus perspicace, doté d’une expérience exhaustive, ne pourra jamais à terme, pour parvenir au diagnostic difficile d’affections exceptionnelles qu’il n’a encore jamais rencontré, rivaliser avec des systèmes informatiques autoévolutifs. De plus, les perfectionnements impressionnants de l’imagerie ultrasonore, sa capacité aujourd’hui à non seulement voir mais aussi palper les organes, les innombrables robots d’analyse permettent de prévoir une intervention humaine de plus en plus limitée pour l’élucidation d’un diagnostic, l’établissement d’un pronostic et la déduction de la meilleure thérapeutique en fonction des paramètres relevés.

La question se pose par conséquent du champ – ou simplement du créneau – qui restera l’apanage de l’esprit l’humain dans ce nouvel ordre numérique des choses. Les premières réponses intuitives sont de l’ordre de l’émotion et de la fulgurance créative. Considérons tout d’abord l’émotion. Elle résulte en principe d’une interaction entre le corps et le psychisme, créée souvent par une perception et une sensation, ou bien le souvenir qui en reste imprimé dans la mémoire.

Or, la machine n’a pas de corps, elle ne ressent pas la rougeur qui enflamme les joues, la moiteur des aisselles et des paumes, elle ne sait ce qu’est la sensation de la tumescence des organes génitaux, ce que peut signifier le cœur qui se met à battre la chamade, la gorge qui « se noue », la notion du plaisir lui est étrangère. On peut bien entendu programmer une machine à ressentir des émotions « électroniques » mais nous n’avons nulle certitude sur la signification réelle du dispositif pour l’économie « psychique » de la machine, terme dont l’utilisation est ici contestable puisque l’univers psychique résulte d’un dialogue du corps et de l’esprit.

Pablo Picasso a déclaré que l’art était sexué ou n’était pas, affirmation en grande partie évidente. Or, l’intelligence artificielle est par essence asexuée, même si les programmateurs y introduisent des paramètres de genre, de toute façon ici déconnectés des sensations et des émotions. Jusqu’à plus amplement informé, le monde du corps, de la sexualité, des émotions et de l’art restent par conséquent l’apanage de l’humain. Le champ de l’émotion, élément important de la relation du médecin et de son malade, prendra sans doute dans l’avenir d’une pratique informatisée et robotisée de la médecine une place essentielle dans le rôle des praticiens, ce qui amènera à repenser en profondeur l’enseignement de la discipline.

L’analyse prospective basée sur les outils de connexion, les big data et les algorithmes est aujourd’hui la méthode principale d’accès à la prédiction des comportements individuels, en particulier à la motivation et aux déterminants d’achat des consommateurs. Ainsi, a-t-on suivi les différentes actions quotidiennes de quelques milliers de femmes enceintes : à quelle heure envoient-elles leur premier coup de téléphone, se connectent-elles sur les réseaux, quels sites consultent-elles, quels achats font-elles, où se déplacent-elles à l’extérieur, quels spectacles les attirent-elles, que lisent-elles, consomment-elles, etc. Et cela pendant plusieurs mois.

Les données sont stockées et des algorithmes dédiés créés, appliqués à la population féminine générale. Entre 95 et 98 % des femmes reconnues par les algorithmes sont enceintes et sont démarchées pour l’acquisition de produits de grossesse et de maternité. Le chiffre important est ici celui de 2 à 5 % des comportements individuels qui apparaissent échapper à la puissance des algorithmes. Ce phénomène d’un petit pourcentage de personnes dont les décisions et comportements échappent aux prévisions de l’analyse prospective la plus poussée conduit à formuler une hypothèse : et si cette petite proportion était la manifestation de l’aptitude humaine à la déviance, à l’originalité, à l’imprévisibilité, à la fulgurance créative ? Et s’il en avait de tous temps été ainsi ?

Fulgurance créative

L’immense majorité de notre vie se passe à refaire ce qu’on a toujours fait, ce qu’on nous a appris, à reproduire à l’identique ce qui existe déjà. Cela vaut aussi pour nombre d’œuvres ou l’imitation l’emporte sur l’innovation créative. De nombreux livres, qui ne sont pas simplement des romans de gare, ressassent à l’envie des situations éprouvées pour lesquelles l’appétence du public est notoire. Il en va de même pour nombres d’objets d’arts plastiques, de tableaux peints. Je n’ai aucun doute qu’un jour les « nègres » chargés de cette production, et si cela devient économiquement rentable, seront remplacés par des machines numériques dûment programmées et apprenant toujours grâce aux enquêtes sur l’évolution des goûts des gens.

Mais parfois, la fulgurance créative se manifeste « à la marge », un chef d’œuvre le cas échéant naît. Cela, c’est le domaine authentique de la créativité artistique, une des spécificités de l’esprit humain façonné par ses interactions avec les manifestations du corps, leur perception, les sensations et les émotions qu’elles engendrent, et ce monde-là, celui de la perception du beau, condition de sa création, n’apparaît pas accessible à la machine. Le même type de raisonnement vaut pour la fulgurance scientifique, la gravitation de Newton, la relativité d’Einstein, l’intuition mathématique d’un Ferdinand Jamin, etc.

Pour terminer, un mot de la morale, que l’on aurait volontiers tendance à ajouter aux spécificités irréductibles de l’humain. Cela n’est en réalité pas certain. Bien entendu, il est aisé d’injecter à un appareil les règles déontologiques ou les normes morales en vigueur. Mais qu’en est-il de l’acquisition spontanée par une société d’ordinateurs et de robots dotés d’intelligence artificielle d’un comportement altruiste, de l’établissement de relations électives. On peut en réalité la concevoir. Imaginons un groupe de dispositifs numériques soumis à un phénomène de sélection en fonction de leur niveau de performance.

Faisons maintenant l’hypothèse que ces machines interagissent et apprennent les unes des autres, ce qui accroît leur puissance et leur succès évolutif puisque, plus savantes, elles seront par là sélectionnées, les autres éliminées. Alors, les appareils qui auront le mieux échangé, ceux qui auront développé une vraie affinité « pour autrui », qui en d’autres termes seront dotés de la meilleure compétence sociale, seront les vainqueurs de la sélection, eux et leurs aptitudes à l’échange et à l’entraide dont la résonance morale apparaît évidente.

Après cette mise au point sur les relations entre l’homme et la machine, je suis conscient qu’il ne s’agit là que d’un « point d’étape », que l’univers numérique comporte encore beaucoup d’inconnues, la principale étant bien sûr de se demander si cela fera sens un jour de parler de « vie in silico ».

Axel Kahn, Directeur de recherche à l’INSERM, ancien président de l’Université Paris Descartes, généticien et essayiste, Université Paris Descartes – USPC

La version originale de cet article a été publiée sur The Conversation.

The Conversation

 

Donald Trump

Avec Trump, ça craint aussi pour l’innovation et le climat

Donald Trump est devenu le quarante-cinquième président des États-Unis. Ce que le monde craignait est arrivé. Les conséquences de l’accession au pouvoir de ce symbole de la montée en puissance de l’autoritarisme sont encore incalculables. Ce qui semble sûr, c’est que l’innovation et le climat vont en prendre un sacré coup.
 
En juillet dernier, 150 entrepreneurs, investisseurs et dirigeants de la high-tech américaine, tous ceux qui font le gratin de la Silicon Valley, avaient publié une lettre ouverte au vitriol. Parmi les signataires de cette lettre ouverte, on retrouvait des stars et des légendes : Steve Wozniak, le cofondateur d’Apple avec Steve Jobs, le fondateur de Twitter, celui d’eBay, de Wikipedia, etc. Un véritable who’s who de l’Internet et de l’économie numérique. La victoire du candidat républicain lors de l’élection présidentielle serait « désastreuse pour l’innovation ». 
 
Une lettre ouverte qui s’avère être un coup d’épée dans l’eau car la décision que de nombreux américains redoutaient est désormais entérinée. Elle ne fait pas le bonheur de tout le monde.
 
Trump n’est pas compatible avec les idéaux de ceux qui travaillent pour l’innovation : « Sa vision s’oppose à l’échange d’idées, à la libre circulation des personnes et aux relations productives avec le reste du monde qui sont vitales pour notre économie et représentent les fondations de l’innovation et de la croissance ».
La volonté affichée maintes fois par le candidat de fermer en partie Internet au nom de la sécurité nationale est pointée. Selon les stars de la high tech américaine, « Cela démontre à la fois un piètre jugement et l’ignorance de la manière dont fonctionnent les nouvelles technologies ».
 
L’autre sujet du courroux concerne l’immigration, sujet sur lequel Donald Trump a des positions pour le moins tranchées. Or la Silicon Valley est un melting pot où toutes la nationalité du monde se côtoient et travaillent ensemble. Chacun a sa chance de réussir, quelle que soit son origine. Cette pratique est devenue un emblème de la high-tech américaine à tel point qu’une demande récurrente des patrons de sociétés technologiques est l’élévation du quota d’immigrés pour assurer des postes d’ingénieurs hautement qualifiés. Les signataires soulignent : « Nous croyons qu’une politique progressiste en matière d’immigration nous aidera à attirer certains des plus brillants esprits sur Terre — des scientifiques, des entrepreneurs et des créateurs. En fait, 40 % des sociétés du classement de Fortune 500 ont été fondées par des immigrés ou par leurs enfants ».
 
Du côté du climat, l’arrivée de Trump au pouvoir laisse présager des jours sombres. Le futur président américain a maintes fois juré que, contre vents et marées, il demanderait la révision de l’engagement américain par rapport à l’Accord de Paris. "Des conneries", "un canular", … Ces derniers mois, le républicain Donald Trump a multiplié les déclarations contestant l'existence du réchauffement et le rôle de l'homme dans ce phénomène. "Je suis à Los Angeles et il gèle, le réchauffement est un canular total !", tweetait-t-il un jour de décembre.
 
"Tous les progrès que nous avons faits, entre autres, sur le climat (...) seront dans la balance mardi", a prévenu vendredi Barack Obama dans une interview télévisée. "Il serait malheureux que l'extraordinaire rôle moteur joué par les États-Unis ces dernières années s'arrête", dit le Maldivien Thoriq Ibrahim, porte-parole des petits Etats insulaires.
 
Mais Trump pourra-t-il vraiment engager une sortie de l'accord de Paris, un "Parexit", comme 400 scientifiques américains l'ont déjà baptisé dans une lettre ouverte exhortant leur pays à respecter ses engagements. Le pacte, en vigueur depuis vendredi, prévoit que les pays ayant ratifié - dont les États-Unis - ne pourront le dénoncer avant quatre ans (dont un de préavis).
 
Cependant rien n'empêche concrètement de tourner les talons, note Teresa Ribera, directrice de l'Institut du développement durable (Iddri) à Reuters : "Le Canada a bien quitté Kyoto! Et l'accord de Paris ne prévoit pas de sanction". Un départ américain n'invaliderait pas l'accord, soulignent les juristes interrogés par l'AFP. Mais "ce serait l'excuse parfaite (pour d'autres acteurs) de dire 'on s'en fiche'!". Pour elle, la seule élection de Trump menacerait le processus de paralysie, en tout cas d'un retard dommageable.
 
Pour le quotidien Les Echos, plus qu'une sortie formelle de l'accord, Trump risque surtout de ne pas appliquer les engagements pris par Obama, prévoient les experts. Aux mineurs américains craignant pour leur emploi, il a déjà promis qu'il supprimerait les mesures rendant obsolètes les vieilles centrales au charbon. Il a aussi promis de relancer l'extraction offshore de pétrole et de gaz.
 
 
Source Reuters
Image d’en-tête : CHIP SOMODEVILLA
 

 

Donald Trump autoritarisme

Les autoritaristes montent en puissance. Trump en est un symptôme

Vu de ce côté de l’Atlantique, cela ressemble à un mystère : pourquoi l’électorat américain soutient-il ce qui apparaît comme une extrême droite, populiste, remuante, et sans expérience politique réelle ? Comment expliquer ce courant qui embrasse des vues extrêmes et souvent bizarres, portées par un personnage semblant venu de nulle part et soudain devenu si populaire ? Ces questions on ne se les pose pas seulement aux États-Unis. En Europe aussi, des phénomènes analogues sont en train de se produire et interrogent. Le cas Trump est un signal qu’il faut prendre au sérieux pour comprendre ce qui se passe un peu partout dans le monde et dans notre pays en particulier. Il est le symptôme d’une force latente qui émerge : les autoritaristes.
UP’, le magazine des temps qui changent, ne peut manquer de s’interroger sur ce phénomène, à cinq jours des élections américaines.
 
Comment comprendre l’ascension énigmatique de Trump et surtout les soutiens qu’il agrège en bouleversant toutes les lignes démographiques qui délimitent habituellement les candidats : l’éducation, le revenu, l'âge, et même la religion ? Plus étrange encore que la montée de Trump, est la libération de la parole. Comment comprendre ces masses immenses de partisans du milliardaire américain, qui vont au-delà de lui dans l’outrance, et prennent des positions jamais vues de mémoire d’américain. Un sondage récent pour CBS News révélait que 75 % des électeurs républicains soutenaient l’interdiction des musulmans aux États-Unis. Un autre sondage de PPP révélait qu’un tiers des électeurs de Trump voulait interdire les gays et lesbiennes du pays. Ils sont 20 % à regretter que Lincoln ait libéré les esclaves !
 
Si le succès de Trump semble avoir pris tout le monde par surprise, il se trouve tout de même un petit groupe de chercheurs moins surpris que les autres. Un groupe qui, à la frontière des politologues et des psychologues, faisait depuis une quinzaine d’années un parallèle inquiétant entre les facteurs qui ont jadis permis, en Europe, l’émergence rapide de chefs autoritaires aux idées extrêmes —Hitler, Mussolini— et des paramètres similaires aux États-Unis.

L’autoritarisme, une force politique latente

Parmi ces chercheurs, deux universitaires politologues américains avaient vu venir le phénomène Trump dès 2009. Marc Hetherington et Jonathan Weiler avaient en effet publié en 2009 un livre qui suscite aujourd’hui un grand intérêt, Authoritarianism and Polarization in American Politics. Grâce à une série d’expériences et d’analyses de données électorales, ils sont arrivés à une conclusion surprenante : ce qui structure la polarisation de la vie politique américaine, ce n’est pas les variables traditionnelles souvent citées ou les systèmes de découpage électoral, ou le poids de l’argent des candidats. Non, ce qui structure la politique est une variable passée inaperçue mais qui touche pourtant un immense groupe électoral : l’autoritarisme (authoritarianism en anglais).
 
Les auteurs estiment qu’en se positionnant sur les valeurs traditionnelles de la loi et de l’ordre, le parti Républicain a ouvert une brèche qui a attiré plus ou moins inconsciemment une vaste population d’américains prônant des tendances autoritaires. Cette tendance s’est accélérée ces dernières années du fait des changements économiques et démographiques et notamment l’immigration. Cette tendance de fond a alors été activée brutalement et a fait émerger des groupes de plus en plus nombreux de citoyens recherchant un leader fort, capable de préserver le statu quo et éliminer les menaces qu’ils ressentent. Leur volonté est d’imposer un ordre à un monde qu’ils perçoivent comme étant de plus en plus étranger.
 
C’est sur cette tendance de fond que Trump a bâti sa popularité, en incarnant un leadership autoritaire des plus classiques : une autorité simple, puissante et punitive. Les électeurs voient en Trump celui qui incarne cette tendance, et le portent au pinacle, au point de faire imploser si ce n’est exploser le parti républicain lui-même.

Trump est un révélateur

Les autoritaristes, qui émergent en masse dans l’électorat américain, ont trouvé dans Trump le leader idéal, suffisamment fort pour défier les menaces avec vigueur, voire brutalité. Un leader aux caractéristiques totalement différentes de celles que l’on connaît dans la politique américaine, capable de bousculer toutes les normes de l’acceptabilité.
Trump n’est donc pas qu’un simple candidat. C’est le révélateur d’un mouvement tectonique extrêmement puissant. Pour les politologues qui ont mené cette étude, Donald Trump pourrait être juste le précurseur de nombreux autres Trump dans la politique américaine.  Et ailleurs.
 
Intrigué par ce phénomène révélé il y a près de sept ans par les deux universitaires, le magazine Vox a voulu approfondir la question en menant, en collaboration avec l’institut de sondage Morning Consult et d’autres médias de Washington, une grande enquête électorale. Les résultats qu’ils ont obtenus sont stupéfiants.
Ce qui apparaît avec une clarté remarquable est que Trump est incontestablement un symptôme : celui de la montée de l’autoritarisme. Ce n’est pas Trump qui est remarquable, mais ce qu’il révèle.

Qu’est-ce que l’autoritarisme ?

Depuis des années des chercheurs à la croisée des sciences politique et de la psychologie sociale se sont penchés sur le phénomène et notamment celui du nazisme, et ont posé cette question lancinante : comment les gens viennent-ils à adopter, en si grand nombre et si rapidement, les opinions politiques extrêmes qui semblent coïncider avec la peur des minorités et avec le désir d'un leader fort ?
 
Pour répondre à cette question, les théoriciens étudient ce qu'ils appellent l’autoritarisme : non pas les leaders eux-mêmes, mais plutôt le profil psychologique des personnes qui, dans les bonnes conditions, désireront certains types de politiques extrêmes et chercheront des leaders forts pour les mettre en œuvre. Cette recherche a culminé en 2005 avec la publication de l’ouvrage de l’Australienne Karen Stenner, professeur en psychologie politique, The Authoritarian Dynamic.
 
Selon cet auteur, il existe des sous-ensembles d’individus qui développent des tendances autoritaires latentes. Ces tendances sont « activées » ou déclenchées par ce qu’elles considèrent comme des menaces physiques ou des menaces mettant en péril la société. Dans ces circonstances, ces individus, quelle que soit leur appartenance sociale ou politique antérieure, sont conduits à désirer et soutenir des politiques extrêmes et des leaders forts.
Comme le résume Jonathan Haidt, de l’Université de New York :
« Dans le cas d’une menace, ils appellent à fermer les frontières, à jeter dehors ceux qui sont différents et punir ceux qui sont moralement déviants. »

Au-delà des clivages habituels

Pour les politologues, ce que l’on peut nommer les « autoritaristes » constituent un véritable ensemble qui existe indépendamment de Trump ou d’un leader spécifique, qui se situe à un autre niveau que celui des habituels clivages ou familles politiques mais qui persistent comme une force latente dans la société. Ce qui les caractérise principalement est leur recherche d’un ordre dans le chaos du monde. Toutes les situations qui représentent un danger pour le maintien de cet ordre (diversité, afflux d’étrangers, dégradation perçue de valeurs anciennes, etc…) sont vécues comme autant de menaces qu’ils ressentent personnellement et qui compromettent leur sécurité la plus élémentaire.
Dans ce cas, sans tenir compte de catégories idéologiques ou partisanes traditionnelles, ils affluent vers celui qui saura, par la force de son tempérament et des actions décisives, les protéger de ces menaces. Donald Trump joue ce personnage à tel point qu’il en est devenu l’incarnation archétypale.
 
Pour Karen Stenner, « autoritarisme » ne doit pas être confondu avec « conservatisme ». Cette confusion serait la raison pour laquelle les analyses politiques traditionnelles n’auraient pas vu venir le phénomène Trump. Le conservatisme se définit par une aversion à l’égard du changement ; c’est un mouvement qui peut englober des individus d’ethnies et de religions différentes, pour autant qu’ils entrent dans le cadre des « valeurs traditionnelles ». Alors que l’autoritarisme se définit par une aversion à l’égard de groupes perçus comme responsables de cette menace : il ne s’agit pas, à proprement parler de racisme, mais plutôt du ciblage d’un bouc émissaire du moment —et en ce moment, aux États-Unis, c’est le musulman ou l’Hispanique.
La caractéristique principale de ce groupe des « autoritaristes » est qu’il est transpartisan. Il se situe au-delà du clivage gauche-droite, et recrute ses partisans sur les franges de droite comme de gauche des échiquiers politiques. Aux États-Unis, ce groupe polarise la vie politique au-delà de la distinction entre républicains et démocrates. Certes le parti républicain en génère la plus grosse partie, notamment à cause de son virage à droite avec l’ascension du Tea Party, mais tous les autoritaristes ne se reconnaissent pas dans le Tea Party.

Une force considérable mais inaperçue

Plusieurs chercheurs ont essayé de comprendre pourquoi ce groupe de citoyens ne s’est pas manifesté plus tôt, pourquoi est-il passé presque inaperçu alors qu’il possède une taille considérable. Comme ils n’émergent pas facilement des sondages par des questions telles que « avez-vous peur des musulmans », des politologues comme Stanley Feldman ont donc commencé dans les années 1990 à poser des questions plus pointues, telle que « qu’est-ce qui est le plus important pour un enfant : être indépendant ou avoir du respect pour les aînés ». Des questions qui, par fragments, tentent de dégager un portrait impressionniste des valeurs par lesquelles une personne se définit. C’est de ces sondages que s'est dégagée l’image d'un courant de fond « autoritariste » passé inaperçu et qui n’aurait attendu que les bonnes circonstances pour être « activé ».
 
Combien sont-ils ? Avec le tiers des votes dans les primaires républicaines, Trump a-t-il fait le plein, ou bien le mouvement peut-il continuer de croître ? Et dans l’hypothèse où Trump perde, que va-t-il se passer après l’élection de 2016 ? Le magazine Vox a tenté de répondre à ces questions dans une enquête exclusive. Il s’en dégage que 44% des Blancs se retrouvent dans les cases « beaucoup » ou « très » autoritaristes, mais qu’ils ne votent pas tous —ou plus précisément, que leur vote sera orienté s’ils perçoivent, ou non, une menace. Or il se dégage justement aujourd'hui qu’ils sont plus nombreux à avoir beaucoup plus peur de l’État islamique, de la Russie ou de l’Iran que d’un accident de voiture, par exemple. Ils sont aussi plus nombreux à avoir peur du changement social : 44% définissent le mariage gai comme « une menace pour le pays ». Ils sont surtout républicains —mais un tiers seraient démocrates. Il s’agit, en bref, d’un mouvement « qui existe indépendamment de Trump », écrit la journaliste Amanda Taub dans Vox : « Si Trump perd l’élection, ça n’éliminera pas les menaces et les changements sociaux qui activent « l’appel à l’action » de l’autoritarisme. Les autoritaristes chercheront des candidats qui leur donneront le leadership fort, punitif, qu’ils désirent. Ce qui veut dire que Donald Trump pourrait être le premier de plusieurs Trump en politique américaine, avec des implications profondes pour le pays ».
 
 
Sans nul doute, cette analyse n’est pas exclusive aux États-Unis. Les mouvements autoritaristes émergent partout en Europe ; en France, le Front national qui cherche à cristalliser ce courant latent, occupe une part importante de l’électorat. Ce que ces études enseignent c’est le caractère latent de ces mouvements. Ils ne sont pas forcément conduits par les personnalités politiques (elles ne sont que des « déclencheurs »), ces forces ne peuvent s’inscrire sur les échiquiers politiques traditionnels (elles sont sous-jacentes), ni dans les catégories dans lesquelles on les place habituellement, par facilité, comme le populisme par exemple (le populisme est la haine des élites ; or le milliardaire Trump en est le parangon), leurs réactions sont imprédictibles car elles participent de la logique du chaos plus que de celle de la raison. Avec les crises qui se télescopent —économiques, des réfugiés, des États-nations, des partis politiques, menaces du terrorisme islamiste—  les conditions chimiques de la précipitation de ce composant latent apparaissent plus que jamais réunies.  
 
Illustration : Gage Skidmore, Javier Zarracina/Vox
 

 

intelligence artificielle

Convocation de la psychanalyse dans le monde de l'intelligence artificielle

Au moyen de cet article nous aimerions présenter le travail de Paul Jorion sur les systèmes intelligents, puis ouvrir cette présentation sur les réseaux de neurones, puisque ces deux parties s’inscrivent dans une histoire commune continuée, celle de l’intelligence artificielle, qui en est à ses débuts, mais déjà traversée de ruptures.
Photo : Film Ex Machina de Alex Garland, 2015
 
« Et d’une certaine manière, moi je n’ai pas vraiment regretté de quitter l’intelligence artificielle à ce moment-là, au moment où je l’ai quittée, parce que je m’étais engagé dans une voie absolument différente de tout le monde. On verra si un jour on appelle ça « novateur », mais à ce moment-là, bon, j’ai fait la chose qui surprenait tout le monde. Les gens qui travaillaient autour de moi, ils avalaient des gros traités de logique formelle, et moi j’ai dit : « Eh bien, on va prendre Freud et Lacan et on va faire marcher une machine à partir de ça. » Voilà ! Alors, c’était l’époque où dans le domaine des scientifiques – je ne parle pas de la société dans son ensemble – la psychanalyse, ça passait pour un truc de charlatans. Ça va changer, bien entendu, on va se rendre compte que la psychologie dont on a besoin dans ce domaine de l’intelligence artificielle, et ça, je l’ai déjà dit dans mon bouquin que j’ai écrit en 89, « Principes des systèmes intelligents », le type de psychologie dont on a besoin pour rendre des machines intelligentes, c’est le type de compréhension qui vient de Freud, de Lacan, de Mélanie Klein, enfin un certain nombre de personnes qui ont réfléchi à ces trucs-là. »  
Paul Jorion, tiré de son blog - 5 déc 2014 (Le temps qu’il fait).

Paul Jorion

Langage, langage-machine, pensée, apprentissage et  personnalité

« Machine learning », machines auto-apprenantes
 
La séance inaugurale de la chaire annuelle du Collège de France : informatique et sciences numériques a eu lieu au début du mois de février 2016. Menée par Yann Lecun, elle portait sur l’intelligence artificielle, et plus précisément sur l’apprentissage profond, encore appelé « deep learning » [1]. Il se passe donc quelque chose du côté des machines qui trouve à se faire entendre d’une institution étatique comme pour en valider, légitimer l’importance enfin prise en considération ; une chose qui par ailleurs tend à venir effacer une limite jusque-là tenue pour inattaquable et qui séparait le sujet humain de la machine par rapport à la possibilité de l’auto-organisation, et, pour en simuler de plus en plus parfaitement et finement les effets [2] à travers l’activité noétique de l’apprentissage. Ainsi, une dernière étape serait en passe d’être  atteinte [3], et une autre vieille séparation tomberait plus ou moins totalement (qui jouait l’auto-organisation évolutive du vivant contre la fixité des programmes des machines car jusqu’à présent celles-ci n’étaient pas capables d’évoluer et d’apprendre par elles-mêmes, il fallait les superviser), effet dont il est difficile de prévoir les conséquences sur les sociétés (en terme métaphysique, social, affectif, catégorial, économique, technique). Mais cela est déjà réfléchi, analysé, discuté dans les divers endroits du monde et il se pourrait que chaque société ne réagisse pas de la même façon au défi lancé par ces machines et à celui de leur intégration au corps social, cela en fonction de la singularité des régimes axiomatiques propres à chacune.
 
Informatique et effet d’intelligence
 
Au moment où nous écrivons ce papier nous n’avons pas écouté les conférences dont nous faisons mention plus haut, mais nous voudrions partir de là, de cet événement institutionnel pour parler d’un livre qui fut écrit par Paul Jorion (par ailleurs anthropologue et économiste) en 1989 et qui porte le titre : "Principes des systèmes intelligents" [4], parce que celui-ci a opéré sur nous comme une véritable secousse. Il nous semble avoir abordé - parmi les tous premiers - l’intelligence artificielle d’une autre façon, articulant plusieurs éléments (dont certains mêmes peuvent apparaître étrangers à la discipline informatique) mais qui concourent à construire ce qu’il appelle : l’effet d’intelligence.
 
 
« Effet d’intelligence » [5], car Jorion ne se demande pas ce qu’est l’intelligence, il ne cherche pas à en fournir une définition achevée ni à en dégager une essentialité, mais plutôt à repérer ce qui dans le réel est tenu par les humains pour de l’intelligence, ce qui fait impression d’intelligence. C’est donc du point de vue du vécu humain, du point de vue phénoménal et immanent pourrait-on dire qu’il aborde le problème. En procédant ainsi, il se demande quelles conditions doivent être remplies par les systèmes machines inorganiques dans leurs opérations internes pour que les humains puissent dire une fois placés devant : – cet ordinateur est intelligent, il pense, son intelligence est semblable à la mienne. Et nous verrons que dans les principes qu’il a dégagés pour parvenir à cet effet de similarité, certains sont devenus par la suite, les principes fondamentaux des branches filles des systèmes intelligents « princeps », et dont toutes ont la particularité de s’éloigner – à des degrés divers - des systèmes experts, pour être des systèmes auto-apprenants ou encore évolutionnaires.
Nous reviendrons sur ces systèmes un peu plus tard ; suivons pour le moment les traces de Paul Jorion qui vont nous mener – par la problématique du langage et de sa conceptualisation à travers la psychanalyse entre autre, c’est cela qui nous parut étrange et qui nous intéressa en première instance - vers les systèmes apprenants que l’on appelle aujourd’hui les réseaux de neurones ainsi que la méthode : programme génétique [6].
 
On pense parce que l’on parle ?
 
Dans son introduction, Paul Jorion s’interroge sur le langage, sa place par rapport à la pensée et il se demande, en terme de chronologie - si l’on pense parce que l’on parle, ou si l’on parle parce que l’on pense ? Et face à cette alternative, il choisira de poser et questionner l’antériorité des mots, de poser que la pensée émerge à partir des mots et il formule sa problématique ainsi : « Autrement dit, et si la pensée résultait de l’auto-organisation de mots ? » Ce qui sera l’hypothèse de son livre. Une hypothèse forte.
Hypothèse qui lui servira pour développer un autre type de modélisation du langage dans les systèmes intelligents et sur lesquels il va d’ailleurs lui-même travailler [7].  Un autre langage donc, et qui « serait comme la production d’un discours cohérent résultant de l’exercice dynamique de contraintes sur un espace de mots. ». Il faut alors trouver comment structurer les machines pour qu’elles puissent suivre une telle procédure et pour qu’elles puissent se mettre en mouvement dans un tel espace.
 
Lorsqu’un humain s’adresse à une machine et lui pose une question, c’est pour obtenir une réponse, une information qu’il ne possède pas, mais cette réponse dit Paul Jorion, peut être de deux types. Soit elle ne surprend pas et répond simplement à la question et à l’attente du questionneur. Soit elle surprend et donne l’impression que la machine a saisi plus que l’explicite de l’énoncé, et « qu’elle confronte l’humain au débordement habituel du désir par rapport à la demande ».
Cela pour montrer que si nous voulons qu’une machine donne d’elle-même une impression autre que machinique, il faut qu’on la structure selon certaines caractéristiques dans lesquelles, par ailleurs, pointent étrangement des notions qu’on retrouve dans le champ de la psychanalyse. Mais nous précisons que ce n’est pas le cas avec toutes les caractéristiques. Nous allons les énumérer succinctement.
 
Première caractéristique : obligation pour un système intelligent de disposer d’un savoir (une base de données), puis d’être à même de transmettre son savoir (interface en langue naturelle orientée sortie), puis d’être à même d’acquérir un savoir (extraire une connaissance de ce que l’utilisateur ou l’environnement lui transmettent, grâce à un parseur et un module d’apprentissage), puis savoir interroger l’utilisateur, puis ne pas imposer son savoir mais le négocier (arriver à déterminer le degré d’adhésion de l’interlocuteur), et enfin avoir une personnalité propre.
Certaines caractéristiques, on l’observe, semblent malaisées à attribuer à une machine et participent de  l’effet que Paul Jorion appelle : intention, c’est-à-dire que le système a pris une initiative. Il n’a pas eu un comportement « machinique » habituel, et par ailleurs il a proposé l’information la plus pertinente ici, c’est-à-dire la plus fine par rapport au contexte, il s’éloigne du stéréotype. La dernière caractéristique est celle qui est de plus haut niveau, c’est elle qui donnerait cette impression qu’une « personne », qu’une pensée et une intelligence comme humaine s’y trouvent[8]. La machine aurait donc une personnalité et serait capable d’auto-organisation.
 
 
Mais comment construire une telle machine ?
 
Des systèmes symboliques aux systèmes sémantiques : un pas vers l’associationnisme
Tout d’abord, il faut préciser que les systèmes intelligents qui en seraient capables, ne sont pas ceux que l’on appelle les systèmes experts (dit encore symboliques, ce que sont nos ordinateurs actuels), mais d’après Jorion, des systèmes sémantiques devenus mnésiques. Un système mnésique repose sur plusieurs postulats en ce qui concerne à la fois le langage, la mémoire et les affects. Nous allons donner des précisions quant à chacun de ses aspects au cours de l’article.
 
Concentrons-nous d’abord sur le langage
Prenons un discours. Soit nous pouvons l’envisager du côté de la signification [9], soit nous pouvons l’envisager du côté du signifiant et plus encore comme un parcours séquentiel à l’intérieur d’un espace de signifiants (indépendamment de leur signification), c’est-à-dire pour reprendre les mots de Paul Jorion, que le langage serait « comme un chemin tracé sur un lexique compris comme la liste de tous les mots d’une langue ». Mais alors une question se pose, si ce n’est pas la signification des mots qui importe pour leur association, et si ce n’est pas ce à quoi ils renverraient du monde et des choses qui importe, selon quelles règles associatives pouvons-nous alors les articuler en tenant compte par ailleurs du plan de linéarité temporelle qu’est la parole, la phrase ou l’énoncé ?
Plusieurs options se présentent. La méthode dite du singe : « qui explore les tirages d’une vaste combinatoire ». La méthode dite des règles : « qui se donne a priori un ensemble tout fait de contraintes auxquelles le parcours sera soumis. Cette méthode nous la connaissons bien puisque c’est là que nous retrouvons les différentes contraintes : d’ordre syntaxique (l’ensemble des mots de la langue sont partagés en partie du discours), d’ordre  sémantique qui correspond à l’organisation interne de la langue, ex le verbe «  penser » exige comme sujet un substantif dénotant un être animé. D’ordre pragmatique, c’est la dimension proprement dialectique qui pose que d’une phrase ne peut pas suivre une autre phrase dont le sens est sans rapport ou qui la contredit. Cela correspond au sujet des topiques de l’organon  d’Aristote.
Puis pour finir les contraintes d’ordre logique. Mais comme le dit Jorion : « cette méthode demande qu’avant même de pouvoir générer une phrase, il aura fallu construire un système immense en termes de règles et de métarègles stockées et qui exige pour un simple fonctionnement un temps de traitement inacceptable. »
Le cerveau humain ne fonctionne pas comme cela. La production d’une phrase pour un être humain ne prend que quelques dixièmes de seconde. Il faut donc envisager la dernière méthode, celle du : coup par coup, et c’est là que nous retrouverons une intuition de la psychanalyse (celle de l’association libre) par rapport au langage, et aux signifiants. Ici, nul n’est besoin de définir des règles a priori, il faut seulement un principe qui permette de déterminer une fois que l’on a posé un mot, lequel pourra être le suivant. Et « on peut imaginer que soient en place de manière constante des chenaux et des chréodes, des passages privilégiés pour se rendre d’un mot à un autre ». Ici, il faut donc raisonner en terme de trace, comme si pour aller d’un endroit à un autre, d’un mot à un autre, nous empruntions toujours le même petit chemin et qu’à force la végétation se soit arasée, le passage d’un mot à un autre renforcé, et pour la suite, en découlerait une facilité d’association [10] ; Paul Jorion pense que le cheminement de la pensée s’effectue de la même façon, à savoir qu’une fois posé le point de départ, en l’occurrence, un mot, et bien le chemin qui se déploie à sa suite est en quelque sorte indiqué et c’est lui que nous emprunterions plutôt que de couper à travers la forêt, c’est-à-dire plutôt que de choisir un nouveau mot ( la poésie, elle essaie de sortir de ces chenaux). Mais ajoutons tout de suite, que ce chemin n’est pas de toute éternité déjà présent, qu’il est le résultat d’une vie singulière, d’une construction, d’un apprentissage et d’une mémoire qui se constitue tout au long d’une vie. Pour le dire autrement nous ne naissons pas avec déjà conçus tous ces chemins, mais seulement une structure qui en permet la progressive instauration, cette structure étant le réseau de nos neurones et de nos synapses (nous y reviendrons un peu plus tard). Et déjà nous pouvons saisir que le lien de concaténation des signifiants, n’est pas le résultat d’une application de règles a priori ( comme pourrait le laisser supposer la grammaire que l’on apprend à l’école) mais d’un frayage plus ou moins souvent réalisé entre deux signifiants au cours d’une vie (selon les paramètres de l’apprentissage qui  en font la singularité individuelle), et par là nous voyons le lien direct qui s’effectue, entre le fait de passer d’un signifiant à un autre, et la mémoire, car le frayage dont nous avons parlé relève de la mémoire.
 
Ressaisissons maintenant rapidement les choses pour pouvoir poursuivre
La première hypothèse suivie fut :
– Des signifiants émerge la pensée et non l’inverse [11]
La deuxième hypothèse fut :
– Ce qui détermine l’intensité des liens entre les différents signifiants (on abandonne le plan de la signification) lorsqu’ils font discours, c’est-à-dire le passage de l’un à l’autre dans un énoncé, c’est une association, non pas axiomatique et a priori, pas non plus une combinatoire aléatoire, mais le fait de créer une facilité de passage, un renforcement, une habitude de liens, et en cela la mémoire joue un rôle primordial.
 
Associationnisme
 
A partir de là, nous pouvons envisager les choses sous l’angle de l’associationnisme pour qui, « il n’est que simple gradation de la remémoration à la génération d’un discours ordinaire, en passant par le raisonnement ». Nous pouvons penser ici à un terme posé par Freud au moment où il s’est départi de l’hypnose au profit justement de : « l’association libre », dont, et nous citons Paul Jorion, « Loriginalité par rapport à la doctrine d’un langage de la pensée, c’est de s’être rendu compte que ce qui peut être étudié avec toute la rigueur scientifique, ce n’est pas l’association des idées, mais l’association des images et surtout dans leur supposition matérielle ».
Nous insistons, c’est important, car ce dont on se préoccupe alors ce n’est plus de l’association des signifiés mais de celle des signifiants qui font bascule vers d’autres signifiants.  Et par ailleurs, il faut encore ajouter que, si nous sommes bien inscrits avec cette théorie à l’intérieur d’un espace de mots, il n’est pas possible comme le dit Paul Jorion : « de ne pas s’occuper d’un élément qui joue un rôle essentiel dans les enchaînements associatifs, à savoir la production d’images, car c’est ce qui se passe chez l’être humain. En effet, certains mots ont une capacité à évoquer une image, « ex : quand nous entendons « pommes », nous hallucinons l’image d’une ou plusieurs pommes ».
 
 
Suivant cela il y a donc plusieurs modalités d’enchaînements possibles : De mot à mot, de mot à image, d’image à mot, d’image à image. Et cela encore sous deux régimes, sous le régime de l’inconscient (intuitif et automatique) et sous le régime de la conscience. Paul Jorion déclinera encore les différents types d’enchaînements associatifs qui peuvent être : Matériels (acoustiques, graphiques), sémantiques (synonymie, inclusion, connexion simple, traduction, etc.), mais ajoute-t-il : « il est peut-être mieux de se passer de ce mécanisme pour la modélisation d’un système intelligent». Est-ce à dire que nous irions trop loin dans le mimétisme, parce que ce serait trop compliqué à traduire pour l’instant dans une structure machine ou… nous ne savons pas mais Paul Jorion de conclure provisoirement que « pour les langues qui nous sont familières (il montre ailleurs dans le livre comment pour le langage chinois par exemple cela fonctionne autrement), l’enchaînement associatif -qui est requis ici en tant que modèle pour les systèmes intelligents, reflète des relations d’inclusions, d’attribution et de synonymie exprimées à l’aide de la copule « être », et de « connexion simple » exprimée à l’aide de la copule « avoir », cela même qu’il va falloir essayer d’implémenter dans la machine.
 
L’associationnisme dont il a été question ici, et qui peut servir de modèle pour construire un nouveau type de système intelligent, pour autant ne traite que d’un aspect du problème car il faut encore penser le milieu dans lequel il peut se déployer, et nous passons à la problématique de la structure, à celle de l’espace, à celle de la topologie qui devra être traduite en termes d’objets mathématiques.
 
Mais ce milieu, quel est-il ?
Structure évolutive (P-dual d’un graphe).
D’abord il doit être réseau mnésique [12], c’est-à-dire qu’il doit stocker des signifiants de la manière la plus économique, mais il faut ajouter qu’à son début, puisque nous essayons de construire des machines qui imitent l’intelligence humaine, il faut aussi et paradoxalement que ce réseau n’existe pas « trop », qu’il ne soit pas déjà formé/achevé et ce, comme pour un tout petit enfant où ce qui est mis en mémoire est encore assez réduit. Et la question se pose de l’inscription  d’une première trace mnésique qui agira comme germe, car le réseau va évoluer, apprendre et se modifier, sinon il serait comme un système expert, comme nos ordinateurs, ce dont nous essayons précisément de nous éloigner. Et c’est à partir du chenal, que l’on va poser des exigences pour parvenir à cet effet.
 
Le chenal (passage d’un signifiant à l’autre) ne  doit plus s’effectuer selon la séquence « sommet/arc/sommet », mais « arc/sommet/ arc ». Ce qui fait du réseau sémantique, un réseau mnésique [13]. Cette transformation est rendue possible grâce à un nouvel objet mathématique le « P-dual » d’un graphe. Nous ne maîtrisons pas cet objet et renvoyons donc le lecteur à d’autres travaux s’il souhaite approfondir cet aspect.
Mais en terme opératoire cela permet deux choses très importantes, tout d’abord la délocalisation des signifiants, on ne pense plus leur situation à tel endroit, mais plutôt leur situation entre tel et tel endroit. Ajoutons tout de même que le phénomène de délocalisation ne peut être complet, c’est-à-dire qu’aucune représentation ne peut être entièrement délocalisée. Et deuxièmement la distribution, qui permet au signifiant de s’inscrire dans une multiplicité d’enchaînements associatifs, inscription qui n’aura pas pour autant dans chaque cas le même poids. Paul Jorion prend cet exemple : « le signifiant ‘’pomme ’’ » est pondéré différemment s’il apparaît entre ‘’prune’’ et ‘’poire’’ et s’il apparaît entre ‘’Eve’’ et ‘’Adam’’. La charge affective peut être différente, et si on traduit cela en terme d’adhésion, cela veut dire que l’insertion d’un signifiant dans telle ou telle chaîne associative ne reçoit pas la même intensité, il y a des enchaînements associatifs qu’on accepte de remettre en question et d’autres pour lesquels c’est beaucoup plus difficile. Paul Jorion qualifie les premiers de « savoir », en ce qui les concerne on peut accepter sans trop se faire violence de les modifier, par exemple c’est ce que fait la science quotidiennement lorsqu’elle émet des énoncés de vérité, qu’elle modifie par la suite, lorsque la théorie précédente se trouve infirmée ou qu’elle est devenue moins efficace en terme de puissance de généralisation face à la nouvelle. En revanche, il y a des enchaînements associatifs, et on l’observe bien chez l’être humain, qui coûtent énormément lorsqu’on doit les remettre en cause, parfois c’est même impossible ; Paul Jorion appelle ces enchaînements des « croyances » et nous citons : « la croyance au contraire [du savoir] est d’inscription centrale et seulement modifiable de manière « catastrophique » ; par la conversion, qu’il faut considérer alors comme modification des connexions existant entre les éléments qui sont chronologiquement les premiers. La conversion s’observe bien entendu chez les êtres humains, généralement au prix d’une consommation énergétique tout à fait considérable, c’est ce que Freud appelle la « Nachträglichkeit », l’après-coup de telles restructurations.
 
Ainsi, si nous voulons construire une intelligence artificielle qui imite en ses effets l’intelligence humaine, c’est tout cela qu’il faut prendre en considération et qu’il faut essayer de modéliser dans la structure machine. Un réseau mnésique, ainsi que l’appelle Paul Jorion, doit posséder en sus des systèmes informatiques dits « experts », deux traits : la capacité d’apprentissage et la capacité à négocier avec l’utilisateur en fonction – ce dont nous venons de parler- des degrés d’adhésion que celui-ci prête à ses énoncés. Il faut donc que la machine soit capable en quelque sorte de « percevoir » la charge affective, et le degré d’enracinement d’un énoncé dans le réseau mnésique de son interlocuteur, ce n’est que se faisant qu’elle pourra donner l’impression à l’humain qu’une semblable intelligence (même si machinique) se tient face à lui, ou encore qu’une personne se tient face à lui. Nous avions posé au tout début de l’article, qu’il fallait que le système intelligent ait « comme » une personnalité. Il faut donc aussi lui implémenter une modélisation de la psyché humaine. C’est pourquoi la psychologie et la psychanalyse doivent rencontrer l’informatique. Et c’est ce que tente Paul Jorion.
Maintenant retraçons le parcours ici effectué avant d’ouvrir vers ce que nous annoncions, à savoir les réseaux de neurones.
 
Effet de personnalité : structure ouverte et frayage
 
La nouvelle intelligence artificielle doit faire effet d’intelligence, de personnalité. Pour cela, elle doit imiter le fait humain qui reste toujours (disons dans des conditions plus ou moins normales et sereines) un système ouvert, auto-apprenant, qui se modifie par lui-même et au contact des autres et du monde, mais qui possède un caractère, et donc aussi une sorte de noyau structurel peu modifiable. Il faudra arriver à simuler ces deux aspects ; évolutif et figé.
Le réseau mnésique de la machine devra posséder une structure (le P-dual d’un graphe) dans laquelle les signifiants viendront s’ajouter au fur et à mesure de l’exercice de la machine, eux-mêmes pouvant modifier en retour les associations déjà tracées entre les signifiants présents, ainsi que se modifier eux-mêmes.
 
 
Par ailleurs, cette structure mnésique très ouverte (incomparablement plus ouverte que celle des systèmes experts) devra, pour ne pas partir en « tout sens » comme le dit Paul Jorion, être : « domestiquée ». C’est-à-dire que le discours engendré ne pourra pas être, en chacune de ses bifurcations, le résultat d’un choix hasardeux. Il faudra que le parcours soit « informé », « motivé ». Qu’il soit, à l’intérieur de l’espace du lexique, un sous-espace de parcours privilégiés, et cette motivation du choix s’opérera selon deux paramètres [14].
 
Tout d’abord selon l’affect. Paul Jorion va prendre modèle sur la théorie des affects de Freud pour donner sa structure singulière au réseau mnésique, en tant que c’est cette charge affective qui orienterait les passages d’un signifiant à l’autre, en tant aussi que ce serait lui le responsable de la dynamique et de la plus ou moins profonde inscription du signifiant dans le réseau mnésique et donc par-là, de sa propre structure. Pour Freud tout enregistrement d’un percept (visuel, auditif) passe par le système limbique qui lui donne cette petite charge affective, et qui fait qu’il s’inscrit plus ou moins fortement en nous (pensons à la madeleine de Proust et à l’enchaînement associatif qui s’en est suivi en terme d’énoncé romanesque des dizaines d’années plus tard). Car pour Freud : « la mémoire est représentée par les frayages entre les neurones […] le frayage dépend de la qualité d’excitation qui traverse le neurone au cours du processus, et le nombre de fois où le processus se répète ».
Ainsi, on peut penser que ce sont les impressions qui ont agi le plus fortement sur nous qui nous déterminent le plus, qui nous font dire telle chose plutôt que telle autre, qui nous font associer un signifiant avec un autre. Il faudra donc pour orienter le choix lors d’une bifurcation au sein de la machine, donner comme une pondération affective, et transposer ce que Freud nomme la « Bahnung » (le frayage) de la psyché humaine, en renforcement hebbien [15] dans la machine.
Ainsi, on stockerait dans la machine au niveau de l’arc deux valeurs, l’impédance qui correspondrait à la valeur d’affect et la résistance qui serait l’inverse du frayage et ce faisant, on associe à l’arc, non pas une valeur mais un vecteur. Mais par ailleurs, avec l’affect, ce qui entre en jeu, c’est la perception et donc la représentation du monde à travers les organes et les tissus d’un corps [16]. Il va donc falloir que la machine s’équipe d’une interface qui soit en prise avec les phénomènes du monde et qu’elle ne soit plus seulement une machine de langage. Cela sera le cas avec les machines de type « réseau de neurones »,  et nous pensons entre autre au perceptron.
 
Machines interfacées et néoténie
 
En 1989, Paul Jorion développe dans son livre : principes des systèmes intelligents, une autre approche de l’intelligence artificielle, et plutôt que d’en rester à des systèmes déjà entièrement programmés et figés au moyen de structures logiques, il propose de faire de ces machines des machines néoténiques qui seraient capables de s’auto-organiser, d’apprendre, de négocier leur savoir, au fond d’avoir comme une biographie et une personnalité ; et cela, selon des principes empruntés, à la fois à la théorie du langage (abandon du problème de la signification, mise en avant du coup par coup, et du postulat que :  « le sens c’est l’usage » [17]), mais encore à la théorie de la psyché de Freud, Lacan et Klein (l’associationnisme avec l’idée de « l’association libre » des signifiants dans la théorie de l’inconscient, puis celle de la charge affective qui structure la matrice mnésique par frayage), et encore en partant d’une base anatomique (la structure du cortex cérébral : neurones et synapses dont la formalisation mathématique est le P-dual).
 
En s’appuyant sur cette approche, se développeront ce que l’on appelle aujourd’hui les réseaux de neurones ou les réseaux évolutionnaires, que nous allons maintenant présenter succinctement. Cependant, il n’est pas sûr que ce qui nous avait tant saisi (et plu) à la lecture du livre de Jorion, à savoir la présence de la dimension Psychanalytique dans l’intelligence artificielle, c’est-à-dire celle des affects, et de l’inconscient, soit reprise et retravaillée au sein des réseaux de neurones, car il semblerait plutôt qu’une bascule vers le biologique ait été opérée. Le modèle de la dynamique des affects semble être passé en retrait au profit du biologique. Au profit, (peut-être ?) d’une tendance bio-réductionniste ?

Biomimétisme mais réductionnisme ?

Modélisation de la structure humaine et implémentation dans les machines
 
Le problème, ici, est toujours celui de l’intelligence et de l’imitation de ses effets par la machine mais envisagé un peu différemment.
D’un côté donc, des neurones, des cellules gliales, des capillaires, du sang, des synapses ; de l’autre du matériel minéral, des conducteurs ou semi-conducteurs, de l’électricité, et des algorithmes.
Comparaison très sommaire mais qui pose les éléments en présence ou en leur rapport en inadéquation. Car à priori entre les deux, peu de rapport, si ce n’est par l’intermédiaire de la modélisation. C’est donc la modélisation qui a permis d’effectuer le passage de l’un à l’autre, de l’humain à la machine, au moyen de ce qu’on appelle le biomimétisme des « réseaux de neurones ». Les chercheurs et les chercheuses ont pris pour point de départ la structure du cerveau, et en ont réalisé un modèle en s’intéressant plus particulièrement à deux aspects. Premièrement à la manière dont les neurones sont interconnectés, structurés, et deuxièmement à ce lieu de passage et de modification de l’information qu’est la synapse.[18]Nous trouvons dans le que sais-je : les réseaux de neurones écrit par F. Blayo,  M. Verleysen  cette définition des réseaux de neurones : « Les réseaux de neurones sont une métaphore des structures cérébrales (modélisées) : des assemblages de constituants élémentaires, qui réalisent chacun un traitement simple mais dont l’ensemble fait émerger des propriétés globales digne d’intérêt.
 
 
L’ensemble est un système parallèle fortement interconnecté
 
L’information détenue par le réseau est distribuée à travers l’ensemble des constituants, et non localisée dans une partie de la mémoire sous la forme d’un symbole. Enfin un réseau de neurones ne se programme pas pour réaliser une tâche, mais il est entraîné sur des données acquises, grâce à un mécanisme d’apprentissage qui agit sur les constituants du réseau. »
Une fois cette modélisation de haut niveau [19] réalisée, ils ont alors tenté de la traduire sur un plan algorithmique [20]. Mais pour cela encore fallait-il postuler que l’intelligence humaine est calcul, c’est-à-dire postuler que la raison et la pensée humaine se réduisent à du calcul ce qu’avait refusé Paul Jorion, lorsqu’il avait tenté de modéliser la part inconsciente de la pensée humaine, la part de son désir, et de ce qui relève de l’affect pour l’implémenter dans la machine. Ainsi, la machine se donne pour structure celle du cortex humain, et dans le même temps on pose que, lorsque l’humain pense, ce qu’il fait c’est qu’il calcule. Il y a comme cela, une sorte de mouvement d’influence, de va-et-vient, qui va de la machine à l’humain et de l’humain à la machine. Et nous pouvons trouver une origine à un tel postulat dans les propos du philosophe anglais du 17° siècle Thomas Hobbes ; dans son Léviathan voici ce que nous pouvons lire : « raisonner n’est que conclure d’une addition de parties à une somme totale ou de la soustraction d’une somme d’une autre à un reste (…) Ces opérations ne sont pas particulières aux nombres ; elles intéressent toutes les espèces de choses susceptibles de s’ajouter les unes aux autres. (…) […] En somme partout où il y a de la place pour l’addition et la soustraction il y a aussi place pour la raison…la raison n’est en ce sens que le calcul des noms généraux convenus pour marquer et signifier nos pensées, je dis les marquer quand nous pensons pour nous-mêmes, et les signifier quand nous démontrons nos calculs à d’autres. » [21]
Voici donc à peu près posés les éléments à partir desquels travaillent les chercheurs : neurones, synapses et calcul.
 
Nous allons maintenant passer rapidement en revue les étapes importantes qui ont permis au champ de l’intelligence artificielle de prendre forme et de donner lieu au réseau de neurones.
Au départ il y a les travaux d’Herbert Spencer lorsqu’il montre de quelle manière une structure nerveuse contrôle un muscle.
Ensuite, il y a le concept de mémoire associative [22] qui démontre que la fréquence de la conjonction d’évènements tend à renforcer les liens entre leurs représentations cérébrales et que le rappel d’une idée tend à en appeler une autre.
Puis il y a l’apport de D. Hebb dont nous avons déjà parlé, qui interprète l’apprentissage comme la modification dynamique des poids synaptiques.
Puis encore, la loi « du tout ou rien » découverte dans les années 20 par Edgar Douglas Adrian [23]qui montre que le neurone n’est excité que si un seuil est atteint. C’est-à-dire que même si un neurone est stimulé, il se peut qu’il n’y ait pas de potentiel, ni de signal en sortie, et cela parce que la stimulation (en fréquence) aura été trop faible. Cette découverte est particulièrement importante en ce qu’elle permet de relier la biologie à la logique, de faire point de passage entre les deux, puisque cette loi « du tout ou rien » est similaire dans sa forme (qui transforme un processus physiologique continue en un processus discontinu et binaire) à celle des tableaux de vérité de la logique des prédicats (qui est binaire) et donc par suite formellement proche des outils de la logique mathématique. Et d’ailleurs en 1943 on voit paraître un article qui porte le titre : « A logical calculus of ideas immanent in nervous activity » [24].
Ces éléments sont à la base du connexionnisme [25], lui-même situé (sur un plan épistémologique) à l’intersection de la neurobiologie, de la psychologie, et du développement de la logique mathématique [26]. Le but était de parvenir à faire correspondre une structure biologique modélisée à une structure logique binaire.
Ce croisement (en quelque sorte) a donné naissance aux machines appelées « réseau de neurones ».
 
Celles-ci, contrairement aux systèmes précédents (les ordinateurs construits selon l’architecture de Von Neumann) « ne supposent pas que l’on connaisse la solution du problème à traiter, plus précisément, la procédure à suivre pour l’atteindre ou l’approcher » [27]. «  Les réseaux neuronaux s’inscrivent dans un cadre différent : la représentation des données est indirecte et répartie à travers un ensemble de connexions et de poids synaptiques. Auto-organisée, elle est apte à des représentations de haut-niveau (concepts). Pour conclure on peut dire que : « la capacité de traitement de l’information est dynamique à travers la modulation, la création ou la destruction des liens neuronaux. (…) que ces réseaux « s’adaptent et apprennent, qu’ils savent généraliser, regrouper ou classer l’information et ceci du seul fait de leur structure et de leur dynamique, mais pour l’heure ils doivent être considérés comme un complément aux méthodes traditionnelles » [28] car on ne sait pas remonter la chaîne de leur raisonnement et on ne sait pas non plus, avec exactitude pourquoi ils donnent telle ou telle réponse. En quelque sorte, on n’arrive pas à les comprendre et ils échappent.
Présentons maintenant rapidement la structure de ces réseaux de neurones.
 
Réseau de neurones
 
Tout d’abord un réseau de neurones c’est une topologie. La mise en place d’éléments au sein d’un espace et c’est cet espace, sa configuration qui déterminera la potentialité du réseau. Ainsi un réseau non-bouclé et un réseau récurrent n’auront pas les mêmes possibilités, un réseau monocouche et un réseau multicouche non plus. On peut trouver des représentations de ces réseaux sur internet si l’on veut se faire une idée. Ici, pour illustrer notre propos, nous prendrons le perceptron qui est l’un des premiers modèles [29]. Il est constitué d’unités sensitives sensibles à des stimulations physiques diverses, d’unités d’association (connexions entrantes et sortantes), d’une unité de réponse (qui génère une réponse en dehors du réseau), et d’une matrice d’interaction qui définit des coefficients de couplage entre les différentes unités.
 
La particularité de ces systèmes c’est qu’ils sont apprenants, « c’est-à-dire que les stimulations externes induisent – via des mécanismes divers- des transformations [30] internes modifiant les réponses à l’environnement». Il faut encore ajouter que les unités de sens de ces systèmes (« les neurones/synapses) fonctionnent selon trois modalités : compétition, coopération, et adaptation.
Mais le problème avec ces systèmes, c’est qu’il faut encore les superviser lors de l’apprentissage. Il faut en quelque sorte encore qu’un être humain les « entraîne », or l’étape suivante est celle des réseaux apprenant non-supervisés, avec les réseaux qu’on appelle « évolutionnaires », nous les avions annoncés au tout début de l’article.
 
Réseaux évolutionnaires
 
Ces réseaux évolutionnaires n’ont plus besoin d’être supervisés lors de l’apprentissage. Ici, l’adaptation et l’auto-organisation est envisagée, non plus tellement du point de vue de l’apprentissage justement, mais dans une perspective darwinienne, du point de vue du code génétique. Selon la théorie de l’évolution, les organismes vivants se sont adaptés à leur environnement grâce à la modification et à la recombinaison de leur patrimoine génétique. Et c’est cela que les informaticiens essaient actuellement de modéliser et d’implémenter dans la machine. Nous voyons que le cadre épistémologique s’est déplacé depuis que nous avons commencé cet article.
Au départ avec Paul Jorion nous avions un cadre multidisciplinaire où même la psychanalyse (ce qui nous avait énormément intéressé) avait été prise en compte, puis avec les réseaux de neurones cette dimension a disparu, ne reste plus que l’apprentissage compris comme pondération synaptique, phénomène de récurrence et retro-propagation de gradient, et pour finir maintenant avec les réseaux évolutionnaires dans un cadre purement biologique et génétique (cela est rendu possible parce qu’on se représente le génome comme de l’information, c’est-à-dire qu’on fait travailler les unités de sens du génome dans le même sens que les unités de sens en informatique, on rabat l’une sur l’autre, c’est une perspective mais il pourrait y en avoir d’autres). Ainsi, ce que l’on observe c’est une dynamique qui s’apparente à un réductionnisme biologique. Mais avant de finir, exposons les principes qui régissent les réseaux évolutionnaires.
 
Principes des réseaux évolutionnaires : néoténie, aléatoire et auto-génération du code
 
« L’idée de base consiste à construire, sur une base aléatoire et/ou heuristique, un ensemble de solutions potentielles à un problème donné. » [31] Ce qui interpelle ici, c’est l’expression : « un ensemble de solutions potentielles », comme si on constituait une réserve de solutions en vue d’un tri qui s’effectuerait au fur et à mesure, comme si l’approche du résultat, progressive, devait s’effectuer par le jeu des mutations » [32].
Habituellement, ce que l’on fait c’est que l’on va directement à la solution, c’est-à-dire que dans l’intention même on cherche « la solution ». Mais ici, non, l’intention est autre. On commence par générer aléatoirement une population et le « matériel génétique » de cette population -qui dans ce cas est codée sous la forme d’une chaîne de bits et non de bases azotées-, représente un ensemble de solutions potentielles au problème posé. Ensuite, une fois que ces individus (chaînes de bits aléatoirement constituées) sont générés on calcule pour chacun un score (niveau d’adaptation), là, si l’objectif est atteint, alors a lieu la sortie de l’algorithme. Ensuite on sélectionne des reproducteurs en fonction des scores (c’est une sorte de sélection génétique et on entend peut-être les échos de l’eugénisme et ceux d’une diminution de la biodiversité). Puis on construit des descendants par l’application de différents opérateurs génétiques (croisement, mutation). Puis, pour finir, on procède au remplacement de la population par les descendants.
 
Nous voyons que les algorithmes évolutionnaires « fonctionnent en tirant parti de la diversité d’une population pour évoluer vers la solution recherchée. Au départ on n’a aucun moyen de connaître la direction à suivre, et on construit une population aléatoire.» [33] Ce que ces algorithmes évolutionnaires permettent c’est d’engendrer des programmes informatiques, et anecdotes surprenante : il n’est pas rare que les algorithmes découverts soient au moins équivalents à ceux construits par les humains. Le cas le plus étonnant est celui de la redécouverte, à partir des données sur le mouvement des planètes de la troisième loi de Kepler, redécouverte qui au cours de la progression de l’algorithme est passée par l’une des conjonctures initiales du savant allemand.
 
Dans le futur avec ces réseaux, les programmes informatiques seront de plus en plus générés automatiquement et de moins en moins construits (si le processus ne rencontre pas une limitation dont on n’aurait pas encore pu tenir compte).
Pour conclure nous pouvons dire que les réseaux évolutionnaires sont des réseaux de neurones mais qui sont axés sur trois finalités principales. Premièrement, celle qui veut substituer aux poids synaptiques du problème de l’apprentissage, un algorithme génétique (pool de solutions potentielles constitué d’individus constitués de chaîne de bits). Deuxièmement, celle qui veut remplacer les procédures manuelles (présence humaine) d’essais/erreur (apprentissage supervisé) par un apprentissage non-supervisé, grâce toujours à l’algorithme génétique, et troisièmement, l’évolution non pas des paramètres, mais de l’évolution du codage des paramètres, c’est-à-dire en quelque sorte que cela amène à trouver la règle d’adaptation la mieux adaptée à l’adaptation, on recule encore d’un cran.
 
Ainsi, nous arrivons au terme de ce parcours qui nous a vus partir du livre de Paul Jorion et de son geste : la convocation de la psychanalyse dans le monde de l’intelligence artificielle pour ouvrir les systèmes intelligents à l’auto-organisation et à l’apprentissage en fonction du couple affect/mémoire, c’est-à-dire pour faire en sorte que les systèmes possèdent une personnalité et une biographie, à une situation où le modèle biologico-génétique prime, lui-même sous-tendu par le paradigme de l’information.
Alors il resterait bien sûr, à parler de ce paradigme de l’information qui fut le grand absent de cet article et ce n’est peut-être pas pour rien.
 
Juliette Wolf
Tous nos remerciements à la revue Temps marranes n°30 dans lequel est paru l'original de cet article
 
[1] L’apprentissage profond relève du « machine learning » ou « apprentissage statistique » qui est un champ d’étude qui concerne la conception l’analyse, le développement et l’implémentation de méthodes permettant à une machine (au sens large) d’évoluer par un processus systématique, et ainsi de remplir des tâches difficiles ou impossibles à remplir par des moyens algorithmiques plus classiques. Les algorithmes utilisés permettent, dans une certaine mesure, à un système piloté par ordinateur (un robot éventuellement), ou assisté par ordinateur, d’adapter ses analyses et ses comportements en réponse, en se fondant sur l’analyse de données empiriques provenant d’une base de données ou de capteurs. Plusieurs modes d’apprentissage sont mis en jeu : l’apprentissage supervisé, l’apprentissage non-supervisé, et l’apprentissage semi-supervisé.
[2] En octobre 2015, le programme alphaGo ayant appris à jouer au jeu de go par la méthode du deep learning a battu par 5 parties à 0 le champion européen Fan Hui[3]. En mars 2016, le même programme a battu le champion du monde Lee Sedol 4 parties à 1.  Information extraite d’un article de wikipédia
[3] Nous reprenons la distinction tripartite de Bernard Stiegler pour qui trois époques peuvent être dégagées dans l’histoire de l’évolution du rapport homme-machine: le temps où les machines se sont mises à « faire » à notre place, ce qui est pour l’auteur la strate du « savoir-faire », par exemple la machine du métier à tisser de Vaucansson, l’époque où les machines se sont mises à nous remplacer aussi dans notre « savoir vivre-ensemble » : par exemple avec la télévision, puis l’époque où les machines se sont mises à nous remplacer pour les activités de pensée, c’est la dernière strate, celle de la noèse, du « savoir-savoir » et que nous atteindrions aujourd’hui avec les machines du type : « machines apprenantes »
[4] Principes des systèmes intelligents. Paul Jorion. ed du croquant, 2012.
[5] Cette notion d’effet, nous la retrouvons chez Baruch Spinoza (1632-1677). Philosophe et tailleur de lentilles pour lunettes et microscope.
[6] Il ne s’agit pas du génome, mais d’une nouvelle façon de générer du code.  Ce n’est plus l’utilisateur humain mais la machine elle-même au moyen d’une combinatoire aléatoire de populations binaires qui génère des « individus solutions », c’est-à-dire une sortie algorithmique efficace.
[7] Nous faisons référence à  ses travaux sur Anella : Associative Network with Emerging Logical and Learning Abilities
[8] La série real human (la première saison) était une bonne mise en jeu de cette problématique. Quels rapports les humains vont-ils entretenir avec leurs robots qui auront désormais une apparence humaine et une intelligence identique –voire supérieure- à la leur ? Un rapport de maître-esclave, un rapport d’égalité ? De peur ? De rejet ? De jalousie ?
[9] Paul Jorion dit à propos de la signification : « le problème ce n’est pas que nous ne comprenons pas le fonctionnement de cette chose que nous appelons signification, c’est plutôt que nous ne savons pas ce qu’elle est. Autrement dit, nous ne savons pas ce que le mot veut dire, car si la signification est la chose à laquelle le mot renvoie, il y a peu de mots qui ont un significat. Exemple avec le mot liberté, à quelle chose « liberté » renvoie, ce n’est pas évident de le déterminer, on voit qu’il est ici plus question de définition, d’un sous-réseau du réseau mnésique, et que c’est une convention.
[10] Cette facilité de passage, est ce que les chercheurs des systèmes intelligents de type réseau de neurones vont appeler le renforcement progressif, par auto-modification du poids synaptique (la récurrence) et qui est en lien étroit avec la problématique de l’apprentissage puis donc, celle de l’auto-organisation.
[11] Nous citons Paul Jorion : « Mes paroles me surprennent moi-même et m’enseignent ma pensée ». La pensée ne serait qu’une reconstruction opérée sur la base des paroles prononcées.
[12] C’est ce qui donnera le terme de « réseau de neurones » pour les systèmes les plus récents.
[13] Dans un réseau sémantique les signifiants sont placés aux sommets, par exemple : « un perroquet » et les couleurs de relation – par exemple «  est un », sont placés dans les arcs (les arcs sont des sortes de liens). C’est le contraire dans un réseau mnésique. Les couleurs de relations sont au sommet et les signifiants sont au niveau des arcs.
[14] Le premier paramètre : l’affect, nous en parlons dans cet article, mais le deuxième paramètre si nous n’en parlons pas, ce n’est pas parce que nous avons oublié mais parce que nous n’avons pas très bien compris de quoi il retourne. Paul Jorion parle de gravité, au sens de gravitation, de ce qui attire vers le bas. Nous laissons donc le lecteur et la lectrice dans l’obligation d’aller voir par eux-mêmes. C’est ici un manque, nous en sommes conscients.
[15] Hebbs (1904-1985) est psychologue et neuropsychologue canadien. Il va tenter de trouver une alternative au « behaviorisme », et ce faisant met en évidence le renforcement synaptique par simultanéité. Mais ce qui est intéressant c’est que Freud l’avait déjà postulé : « Or, il existe une loi fondamentale d’association par simultanéité [qui] donne le fondement de toutes les connexions entre neurones PSI. […]. La charge s’avère équivalente au frayage, par rapport au passage de la quantité (Q’n) ». Dans «  Naissance de la psychanalyse”, PARIS, PUF 1979.
[16] Spinoza a montré en quoi l’affect est comme une fibre dédoublée. Nous le citons : « j’entends par affect les affections du corps par lesquelles sa puissance d’agir est accrue ou réduite, secondée et réprimée, et en même temps que ces affections, leurs idées. » L’affect est à la fois un événement corporel  (affection) et la conscience de cet événement.
[17]  cf. Wittgenstein.
[18] La synapse est une jonction fonctionnelle entre deux neurones, mais qui se traduit en terme topologique par un petit vide inter-membranaire. Elle permet le passage des neurotransmetteurs (pour les neurones chimiques) qui traduit le potentiel d’action du neurone afférent en un potentiel d’action pour le neurone efférent (potentiel qui peut devenir nul, voire même s’inverser). Les synapses jouent donc un rôle de premier plan dans le codage de l’information nerveuse.
[19] C’est une modélisation de haut niveau parce que c’est au niveau de la cellule dans sa globalité (le neurone et les synapses), insérés dans le réseau de l’ensemble cortical, qu’on se situe et non pas, par exemple, au niveau des échanges d’ions le long de la membrane. Mais on aurait pu faire ce choix.
[20] Peut-être faut-il attendre encore un peu pour qu’une hybridation plus prononcée devienne concrète, une convergence qui tendrait à une homéostasie en proportion, entre des supports biologiques et des supports « inorganique minéral ».
[21] Réseaux de neurones, une introduction. J.P Rennard. Ed Vuibert (2006).
[22] W. James (1842-1910).
[23] E.D Adrian est médecin et éléctrophysiologiste anglais.
[24] W. McCulloch Et W. Pitts.
[25] Nous précisons que le connexionnisme n’est qu’une des formes du biomimétisme appliquée à l’intelligence artificielle. Il y a encore par exemple : l’approche « animat », « animal-like » ou  l’I.A distribuée.
[26] Influencé par Whitehead et Russell pour qui, il fallait refonder les mathématiques sur la seule base logique, cf. Leur livre :  Principia mathematica  publié en 1910-1913 .
[27] Réseaux de neurones, une introduction. J.P Rennard. Ed Vuibert (2006).
[28] Ibid.
[29] Wikipedia
[30] Réseaux de neurones, une introduction. J.P Rennard. Ed Vuibert (2006).
[31] Ibid.
[32] Ibid.
[33] Ibid.
 
 
 
 

 

Stromatolithes

La vie est apparue sur Terre bien plus tôt qu’on ne le pensait. Et avec elle, l’information.

3,7 milliards d'années ! C'est l’âge de la vie sur Terre, révélé par la découverte de concrétions minérales formées par des bactéries dénichées au fond des glaces. Des géologues australiens viennent en effet de découvrir au Groenland des traces d’une activité microbienne remontant à 3,7 milliards d’années, soit 200 millions d’années de plus que les records précédents trouvés dans des roches d’Australie ou d’Afrique du Sud. Et 800 millions d’années environ seulement après la formation de la planète. L’origine de la vie sur Terre, une question qui hante les esprits depuis que l’homme est en mesure de penser.
 
La vision moderne que la plupart d’entre nous avons de l’origine de la Vie est, au fond, assez poétique. Elle décrit le spectacle des milliards de milliards de particules qui naviguent et jouent au billard dans l’immense espace de l’Univers et se mêlent un jour d’assembler un objet présentant une propriété particulière ; il se produit alors un événement inouï qui résonne dans le vide astral. Cet événement est la faculté pour un objet de se reproduire ou plus exactement, la faculté de se répliquer, c'est-à-dire d’utiliser ce qui se trouve à sa portée pour fabriquer une copie exacte – hormis quelques erreurs mineures inévitables dans toute reproduction – de l’entité tout juste née. La Vie, si l’on tente de la définir au regard de nos connaissances actuelles, est ce phénomène par lequel des molécules complexes s’assemblent, tirent matière et énergie de leur environnement et se reproduisent.
 
Ce saut dans le temps de 200 millions d’années qu’offre la nouvelle étude publiée par la revue Nature prouve que la vie a pu apparaître très tôt sur Terre, dans des conditions difficiles, avec une atmosphère dépourvue d’oxygène, un bombardement formidable de météorites, un rayonnement solaire intense et destructeur…
Incidemment, cela relance l’intérêt des missions martiennes qui explorent des terrains dont l’âge correspond justement à celui des roches étudiées au Groenland. Les robots pourraient y trouver des traces plus visibles et nombreuses que les quelques vestiges fossiles mises au jour sur Terre.

L’aurore archaïque de la vie

En 1986, William Schopf de l’Université de Californie à Los Angeles découvrait, dans des formations géologiques d’Australie Occidentale vieilles de 3,5 milliards d’années, les traces d’assemblages que sont les premiers organismes vivants. Ces organismes primitifs nés au fond de lacs et de lagunes correspondent vraisemblablement à ce que seront plus tard les bactéries et les algues. Ces premières formes de vie, dont les reliques sont gravées dans les couches rocheuses calcaires ou siliceuses (les stromatolithes que l’on vient de découvrir au Groenland), sont extrêmement rudimentaires ; elles ne sont qu’un avant-goût des formes plus complexes qui naîtront bien vite, mais elles comptaient déjà un nombre de sujets supérieur au nombre d’êtres humains ayant jamais existé.
 
Longtemps restés mystérieux et considérés comme rudimentaires, ce n’est que très récemment que les progrès de la biologie moléculaire ont fait apparaître que ces organismes vivants tapis au fond des âges ne sont pas si rustiques que cela ; ils possèdent un caractère éminemment complexe. Ils sont les briques du jeu de construction de la vie, présentes et indispensables, encore aujourd’hui, dans toutes les structures vivantes sur cette planète. La cellule vivante la plus archaïque n’est pas un simple amas de molécules, assemblé plus ou moins au hasard ; c’est une structure qui fonctionne selon un projet.
 
 
Les stromatolithes dont nous retrouvons les traces géologiques étaient fabriqués par des colonies de cyanobactéries faisant partie de la classe des « procaryotes ». Dans l’aurore archaïque de leur existence, ces organismes, si sommaires qu’ils n’avaient pas encore réussi à confiner leur ADN dans le noyau de leur unique cellule, avaient pourtant appris à s’organiser selon un projet, en divisant notamment leurs fonctions. Certains membres de ces colonies étaient chargés d’opérer la photosynthèse en stockant l’énergie solaire dans des molécules spécifiques ; d’autres prélevaient dans leur environnement la substance nécessaire à leur alimentation et rejetaient les déchets potentiellement toxiques dans des décharges. Un autre groupe enfin était destiné à se nourrir de ces déchets pour éviter la contamination des autres membres de la colonie.

Stratégie d’exploration et de conquête

Tous ces organismes interdépendants les uns des autres construisaient un abri de forme généralement circulaire pour les héberger. L’architecture de ces constructions est considérable au regard de la taille microscopique de ces organismes : les édifices atteignent et dépassent parfois deux mètres de longueur. Les restes fossilisés de ces stromatolithes témoignent indéniablement d’une vie organisée : elles sont construites en ondulations autour d’un centre précis. Ce sont ces abris primitifs dont on a retrouvé les traces au Groenland.
 
Cette forme est la caractéristique d’organismes menant une stratégie d’exploration et de conquête pour l’alimentation que l’on retrouve dans un grand nombre d’espèces bactériennes. James A. Shapiro est considéré comme une référence en matière de biologie moléculaire ; il a intitulé fort opportunément une de ses publications scientifiques Les bactéries sont petites mais pas stupides. Il y démontre que la biologie moléculaire moderne a découvert « un vaste royaume de machinerie intracellulaire complexe, de transduction de signal, de réseaux régulés et de processus sophistiqués de contrôle » que l’on ne soupçonnait absolument pas quand les premières recherches sur la vie furent menées. En effet, des générations entières de scientifiques ont considéré les bactéries comme des organismes peu dignes d’intérêt, cellules solitaires bataillant dans la jungle impitoyable des entités microscopiques. Il n’en est rien. Les bactéries, même les plus primitives, sont dotées de systèmes d’information et remplissent une fonction sociale : la communication.

Intelligence connectée

Les recherches les plus récentes démontrent que les premières communautés de bactéries avaient développé les toutes premières formes de ce que nous appellerions aujourd’hui, dans un raccourci anthropomorphique, une « intelligence connectée ». En effet, ces organismes vivants primitifs, avaient, dès l’origine, tissé entre eux de véritables liens de communication par l’intermédiaire de moyens de signalisation variés – chimiques, génétiques, physiques – capables de diffuser des messages sur une longue distance.
 
Toute cette machinerie relativement sophistiquée, ce « réseau créatif de survie », remplissait un objectif primordial : observer l’environnement pour en prévenir les dangers, détecter les opportunités, s’en nourrir et prospérer. La créativité bactérienne s’exprimait avec talent dans la maîtrise des signaux d’attraction et de répulsion. Lorsque l’environnement autour d’elles était stérile ou hostile, elles émettaient à destination de leurs congénères des signaux appropriés. Les bactéries s’avançant dans les terrae incognitae de leur milieu, le balisait d’informations chimiques extrêmement précieuses pour leur survie et leur croissance. Dès l’origine de la vie, les premiers organismes manipulaient déjà de l’information. Face au monde chaque fois changeant et dangereux qui les entourait, le « génie génétique » de ces micro-organismes allait s’avérer une formidable machine d’adaptation et d’expansion.
 
 
 
Image d’en-tête : stromatolithes en Australie 

 

Séisme en Italie

Que sait-on vraiment des séismes ?

Le tremblement de terre qui a eu lieu le 24 août dans le centre de l'Italie entraîne, comme toujours en pareil cas, son cortège de chiffres macabres et d'images de désolation. Et toujours la même question : peut-on prévoir un tel séisme ? Une question toujours sans réponse qui souligne notre impuissance devant les forces de la nature. Deux sismologues tentent dans cet article de nous expliquer la nature d'un séisme et les pistes de recherche en cours pour la prévention ou au moins l'alerte de ce type d'événements.

La mobilisation scientifique pour la prédiction des séismes ne date pas d’hier. Après le séisme en Alaska de 1964 et dans le cadre d’un effort international, les chercheurs américains avaient demandé la mise en place d’un grand projet national sur la prévision des séismes.

Le titre du projet contenait bien les termes « prévision des séismes » mais la revue Science (Walsh, 1965) notait alors qu’il s’agissait d’une part de donner, avec une grande chance de succès, l’alerte quelques heures ou quelques jours avant les grands séismes, et d’autre part de développer des techniques qui permettent de limiter les pertes humaines et les dégâts même si le premier objectif n’était pas atteint.

L'opinion publique a été plus sensible aux promesses de la prévision qu’à celle de la mitigation. Malgré les immenses avancées dans la compréhension des séismes et de leurs effets catastrophiques, les annonces optimistes des années soixante ont créé une profonde déception vis-à-vis de l’échec apparent de la prévision des séismes.

Sémantique des séismes

Il faut ici aborder des questions sémantiques et d’objectifs. S’agit-il de la prévision de l’occurrence d’un séisme, de la prévision des mouvements du sol potentiellement dangereux ou de la prévision d’une catastrophe ?

Heureusement, tous les séismes n’amènent pas de destructions, et un des objectifs fondamentaux de la sismologie est de comprendre où et pourquoi les destructions se produisent. Il nous faut aussi préciser l’échelle de temps de la prévision : est-ce qu’un séisme est imminent (c’est à dire une annonce dans les secondes, les heures, ou les jours avant l’évènement) ? Où est-il probable qu’un séisme se produise dans les années ou les décennies à venir ?

Chacune de ces prévisions peut être utile, suivant les conditions géographiques et socio-économiques. Même si nous ne savons pas prévoir les séismes, la possibilité de prévoir les mouvements du sol qui vont se produire et les annoncer juste avant que les vibrations destructrices ne se produisent peut être d’une grande utilité.

Cela permet de mettre en sécurité des installations critiques et surtout alerter les populations. Cette forme d’alerte, après le séisme, mais avant ses effets à distance, est déjà mise en pratique dans des régions à haut risque.

Les vibrations sismiques que nous ressentons pendant les séismes et qui peuvent détruire des bâtiments se sont en fait propagées dans les roches en profondeur parfois sur de grandes distances. Ces ondes sismiques se propagent rapidement, mais les plus destructives d’entre elles (les ondes de cisaillement) ne sont pas les plus rapides des ondes élastiques et se propagent bien moins vite que les signaux électromagnétiques.moins vite que les signaux électromagnétiques.

 

Alerte par smartphone. UC Berkeley/YouTube

Quand un séisme se produit, des vibrations sont détectées près de la source et cette information peut être transmise presque instantanément vers des centres où elle sera traitée automatiquement ; ils pourront alors émettre des alertes dans les secondes qui suivent l’émission, donc avant les vibrations destructrices.

Sismologie en temps réel

Ces techniques sont mises en œuvre sous le nom de sismologie en temps réel et de tels systèmes sont opérationnels dans différentes régions du monde (Japon, Italie, Californie, Mexique…). Bien sûr, ces systèmes ne nécessitent pas de prévision.

Sur le long terme, (depuis les années jusqu’aux décades), la géophysique fournit les outils indispensables à un management rationnel des ressources qui doivent potentiellement être affectées à la sûreté sismique. Dans le même temps, les analyses quantitatives des effets des séismes permettent de comprendre les conditions locales qui gouvernent la distribution des dégâts. Ces études offrent des éléments précieux pour adapter les modes de construction et l’aménagement du territoire aux conditions géologiques locales.

En ce sens la sismologie permet d’adopter des politiques de développement orientées vers la sécurité des populations. De grands progrès ont été faits et continuent à s’accomplir, mais il est difficile pour le public d’apprécier l’efficacité d’approches comme l’analyse probabiliste de l’aléa sismique car cette forme de « prévision » s’exprime sous la forme de probabilités à long terme, alors que la vision sensible des séismes est celle des images de destruction qui apparaissent régulièrement dans les médias.

Vision déterministe

La vision publique de la prévision sismique est typiquement déterministe, une réponse binaire à la question de l’occurrence d’un séisme dans un délai de quelques heures à quelques jours, précisément l’échelle de temps pour laquelle aucune réelle avance opérationnelle n’a été faite. Les raisons en tiennent à la complexité des processus physiques à la source des séismes.

Les séismes sont des instabilités de glissements qui se produisent dans la situation critique où la résistance au glissement de la faille – la friction – est proche des forces élastiques résultant de la déformation lente des roches. Bien que nous ne le percevions pas dans notre expérience quotidienne, la Terre est en évolution permanente. Les couches profondes subissent de lents mouvements de convection où les matériaux chauds remontent vers la surface, se refroidissent en plaques rigides puis replongent, donnant naissance en surface à la tectonique des plaques.

 

Les plaques tectoniques. USGS/Wikipédia

Les vitesses des plaques sont de l’ordre du centimètre par an. Lorsqu’un séisme se produit, les deux faces de la faille glissent localement à une vitesse relative de l’ordre d’un mètre par seconde, ce qui représente plus d’un milliard de fois la vitesse constante du mouvement des plaques.

En d’autres termes, les séismes destructeurs se produisent en quelques secondes, mais sont le résultat d’une lente évolution qui s’est étendue sur des dizaines, des centaines ou des milliers d’années. Le temps pendant lequel les mouvements de la Terre ont été mesurés est si court que nous n’avons pas d’espoir de savoir avec précision quand un état critique résultant d’une longue évolution sera atteint.

Phase préparatoire

Néanmoins, des études expérimentales et théoriques suggèrent que la rupture pourrait être précédée par une évolution rapide qui se développerait dans un laps de temps beaucoup plus court que celle de la préparation tectonique. Cette phase préparatoire, souvent appelée initiation, n’est pas observée systématiquement avec les méthodes géophysiques actuelles et on pourrait raisonnablement craindre que cette recherche de signaux précurseurs soit sans espoir considérant la méconnaissance de l’amplitude et de la durée de ces phénomènes. Pourtant des découvertes récentes ouvrent des perspectives plus positives.

 

Géosenseur EarthScope. Bdelisle/Wikipédia

La géodésie et la sismologie ont fait de grands progrès dans leur capacité à détecter de faibles changements dans les roches en profondeur. Les stations GPS en continu et les techniques de traitement récentes détectent des mouvements de plus en plus petits. Les stations GPS et sismologiques sont installées progressivement en d’importants réseaux denses, sous la forme de grandes antennes aux capacités de détection sans précédent.

Séismes lents

Ces dernières années, ces efforts ont été couronnés par la découverte de nouveaux processus de déformation. Le plus spectaculaire a été celui de l’existence de séismes lents. Ces séismes lents sont des épisodes de glissement en profondeur avec des vitesses de glissement intermédiaires entre celles des plaques et celles des séismes normaux. Les séismes lents les plus grands ont une magnitude supérieure à 7.5 (mesurée de manière équivalente à celle des séismes) pour des durées de plusieurs mois et on assiste à de plus en plus d’observations indiquant l’existence de séismes lents avec une diversité de magnitudes.

Cette découverte indique que la Terre se déforme avec des processus d’échelles de temps entre les extrêmes représentées par celle de la tectonique des plaques et celle des séismes. Les déformations transitoires récemment découvertes sous la forme de séismes lents peuvent être étudiées avec les méthodes de la géodésie spatiale (GPS, INSAR…).

Une analyse détaillée des enregistrements sismiques a montré que ces déformations sont aussi associées à une forme de faible grincement consistant en une superposition de micro-évènements sismiques. Ces observations suggèrent que nous pourrons dans le futur détecter et caractériser les faibles déformations en profondeur indiquant la préparation des grands séismes.

Il restera, on le sait, un long chemin avant de parler de prévision, mais les géophysiciens persévèrent dans leurs avancées pour comprendre notre Terre en évolution permanente. Aujourd’hui, bien comprendre les séismes est certainement la meilleure manière de vivre avec eux, de se préparer, de connaître notre vulnérabilité et d’adopter des politiques de prévention qui permettent de vivre dans des environnements garantissant la sécurité optimale de tous.

Michel Campillo, Sismologue, professeur à l'Université Grenoble-Alpes, Institut universitaire de France, Université Grenoble Alpes

Rob van der Hilst, Sismologue, professeur au Massachusetts Institute of Technology, Massachusetts Institute of Technology

La version originale de cet article a été publiée sur The Conversation.

image d'en-tête : Des secouristes recherchent des blessés dans les gravats à Arcuata del Tronto (centre de l'Italie) après un tremblement de terre le 24 août 2016. - Sandro Perozzi/AP/SIPAThe Conversation

 

 

Loading...
Loading...