UP' Magazine L'innovation pour défi

mutation technologique

Mutations technologiques et action publique - 2

L’action publique peine à prendre en compte les conséquences potentielles des mutations technologiques en cours sur les libertés individuelles, mais aussi sur l’égalité, la souveraineté et même l’avenir de l’homme, comme l’a illustré l’article précédent dans le domaine de la santé. Quelles solutions sont envisageables ?
Partie II : quelles solutions ?

L’espace politique face à la technique

La puissance publique s’amenuise à mesure que les États perdent le monopole de l’accès aux données et de leur régulation et que leurs capacités financières et techniques sont concurrencées, voire dépassées, par celles d’acteurs privés. La réaction sociale et politique est d’autant plus complexe à définir et plus exigeante que les « promesses » technologiques foisonnent, formulées par des acteurs aux statuts et aux ambitions divers.
 
La technicisation du monde a été décrite par Heidegger dans son discours Sérénité en 1955 : « Dans tous les domaines de l’existence, l’homme va se trouver de plus en plus étroitement cerné par les forces des appareils techniques et des automates. […] Ce qui, toutefois, est ici proprement inquiétant n’est pas que le monde se technicise complètement. Il est beaucoup plus inquiétant que l’homme ne soit pas préparé à cette transformation, que nous n’arrivions pas encore à nous expliquer valablement, par les moyens de la pensée méditante, avec ce qui, proprement, à notre époque, émerge à nos yeux. […] Aucune organisation purement humaine n’est en état de prendre en mains le gouvernement de notre époque »[1].
 
Nous ne suivons pas Heidegger dans cette dernière conclusion, trop radicale, non plus que sur le lien surprenant avec « l’enracinement des œuvres humaines dans une terre natale » qu’il évoque ensuite. Nous pensons en revanche le constat que les objets qui « émergent à nos yeux » méritent que « nous nous expliquions valablement, par les moyens de la pensée méditante » est applicable au contexte présent des technologies « NBIC ». Comme à l’âge de la bombe atomique qui marquait Heidegger, la société est frappée par une forme d’impuissance politique face à l’accélération des évolutions techniques. À l’âge de la bombe, c’était la crainte de l’apocalypse nucléaire qui menaçait le souci du futur, et donc l’espace politique. Aujourd’hui, c’est une idéologie désireuse de « vaincre la mort » et de simplifier la vie. Mais ces deux formes de menace de l’espace politique aux racines diamétralement opposées, crainte de destruction et fantasme d’éternité, sont-elles si différentes ?
 
Dans un monde où des entreprises décident d’évolutions déterminantes pour la société et où les États n’ont plus les moyens, voire le droit, de faire valoir l’intérêt général, l’espace démocratique est tout simplement déserté. Cette question est autrement plus grave et plus complexe que celle de la protection des données personnelles[2]. Et la tâche à accomplir est plus ardue encore que celle de restaurer un intérêt ou une volonté politique : elle est de restaurer la capacité même à agir dans un espace politique.
 
Pour autant, il serait à la fois irréaliste et pire que le mal d’en conclure que les États devraient « reprendre le contrôle » en nationalisant les entreprises à l’origine de ces changements ou en les censurant. Comme on l’a déjà noté en évoquant le récent contentieux entre Apple et le FBI, un contrôle accru par l’administration ne jouirait probablement pas non plus d’une grande légitimité. Quant à la Justice, elle manque de compétences et de moyens, elle est parfois démunie dans un cadre international, et ne peut qu’intervenir a posteriori.
 
Autre écueil, tout aussi terrible : la capture de l’espace public par la contestation militante. En effet, lorsque des questions liées aux mutations technologiques parviennent à être abordées dans l’espace public, c’est trop souvent sous la forme de mises en scène spectaculaires et d’oppositions (ou de défenses) idéologiques qui condamnent toute démarche politique constructive.
 
Citons de nouveau Sérénité de Heidegger : « Il serait insensé de donner l’assaut, tête baissée, au monde technique ; et ce serait faire preuve de vue courte que de vouloir condamner ce monde comme étant l’œuvre du diable. Nous dépendons des objets que la technique nous fournit et qui, pour ainsi dire, nous mettent en demeure de les perfectionner sans cesse. Toutefois, notre attachement aux choses techniques est maintenant si fort que nous sommes, à notre insu, devenus leurs esclaves. Mais nous pouvons nous y prendre autrement. Nous pouvons utiliser les choses techniques, nous en servir normalement, mais en même temps nous en libérer, de sorte qu’à tout moment nous conservions nos distances à leur égard. Nous pouvons faire usage des objets techniques comme il faut qu’on en use. Nous pouvons en même temps les laisser à eux-mêmes comme ne nous atteignant pas dans ce que nous avons de plus intime et de plus propre. Nous pouvons dire “oui” à l’emploi inévitable des objets techniques et nous pouvons en même temps lui dire “non”, en ce sens que nous les empêchions de nous accaparer et ainsi de fausser, brouiller et finalement vider notre être ».
 
Pour cela, nos attentes envers le pouvoir politique doivent être refondées. Pour que les innovations structurantes pour la société soient des objets de pensée et de choix collectif plutôt que des objets de consommation multipliés sans raison avant que le marché ne décide, les politiques doivent rendre ce choix collectif possible, et permettre, in fine, aux citoyens de définir des limites et de peser sur leur destin.

Articuler science, philosophie et politique

Il est tout d’abord nécessaire de repenser et de clarifier le rôle des scientifiques, des intellectuels et des politiques.
 
Comme l’écrivait il y a trente ans Ulrich Beck, « si l’on veut obtenir les conditions matérielles et institutionnelles nécessaires pour se payer “le luxe du doute” (baptisé “recherche fondamentale”), il faut être capable d’affirmer ses prétentions à la connaissance sur le marché, contre les groupes professionnels et les groupes profanes »[3]. Les sciences nous aident à définir le champ des possibles, à étudier les nuances du monde tel qu’il nous entoure et tel que nous le façonnons, en établissant et mettant à disposition les connaissances nécessaires. Leur ambition doit cependant rester modeste. « Leur but n’est pas d’ouvrir la porte à une sagesse infinie, mais de fermer la porte à une erreur infinie » rappelait Bertolt Brecht dans La vie de Galilée.
 
La connaissance scientifique permet de poser de manière rigoureuse les problèmes, elle est nécessaire à tout choix éclairé, elle peut (ou doit) conduire à lancer des alertes, mais elle ne doit pas prendre la place du discours politique : ainsi, lorsque les académies des sciences des pays du G7 et de pays partenaires proposent aux gouvernants de « promouvoir la modélisation du cerveau et l’intelligence artificielle » et d’« intégrer les acquis des neurosciences à ceux des sciences sociales et comportementales, afin d’améliorer l’éducation et les modes de vie », quand bien même ce serait « tout en engageant le dialogue sur l’éthique »[4], elles font, au service d’un but sans doute légitime (l’amélioration de l’éducation et des modes de vie), une proposition partisane (la promotion d’un type de solution) qui ne relève pas de la science.
Éviter la « confusion des arènes » (politique et scientifique) est une nécessité pour le bon fonctionnement du débat public, comme l’illustrent les dérives des « débats » sur le changement climatique. Pour les scientifiques, prendre un minimum de distance avec l’espace politique est même une condition d’exercice de la liberté académique. Pour autant, tout en se gardant d’intervenir en défense de propositions politiques, les scientifiques ont la responsabilité de fournir au plus grand nombre possible les connaissances disponibles, mais aussi d’apporter des nuances, d’identifier les risques et les effets collatéraux des techniques. « J’espère qu’à l’avenir vous prendrez autant en considération la durée et la substance que la méthode et la technique », écrivait Jonathan Swift[5].
 
On pourrait rétorquer que l’idéal des Lumières d’accomplissement de l’égalité à travers l’accès à la connaissance a peut-être été dépassé par les progrès de la technique : en effet, si les progrès des sciences et techniques étaient alors vus comme des moyens de « libérer » l’humanité de contraintes matérielles pour la rendre plus autonome et lui permettre d’accéder à une humanité plus haute, ils représentent peut-être au contraire aujourd’hui un obstacle à cet accomplissement. Cet idéal se heurte au foisonnement des innovations, à la bienveillance, proclamée ou sincère, de leurs promoteurs, à la croyance en leurs effets bénéfiques pour l’économie, à l’efficacité des services qu’elles permettent, aux attraits de la prolifération des interactions et des échanges, bref, à un « technoprogressisme » aveugle. C’est que pour renouer avec cet idéal, il faut aussi pourfendre l’idée que la culture se dresserait en obstacle à une égalité préexistante, et convoquer la philosophie, la littérature, toutes les sciences morales, qui sont aussi nécessaires pour appréhender les mutations technologiques et comprendre leurs conséquences potentielles, en particulier sur la liberté et l’égalité.

Une écologie politique étendue

Les politiques exercent leur légitimité sur un terrain différent des scientifiques et des intellectuels, non celui des connaissances, mais celui des usages.
 
Devant l’absence de solution offerte dans les structures institutionnelles existantes[6], il semble nécessaire d’inventer de nouvelles modalités de prise en charge sociétale et institutionnelle des usages des technologies, comme ceux que nous avons illustrés précédemment dans le domaine de la santé. Ces modalités devront gérer de nombreuses contradictions : entre principe de précaution et désir des patients, entre prolongement de l’espérance de vie et égalité d’accès aux traitements, entre aspiration à l’efficacité et libertés, etc.
 
 
On peut en appeler pour cela à une écologie politique « étendue » à des domaines autres que la protection de l’environnement, pour accompagner l’évolution des sciences et techniques, et assurer un contrepoids à une dynamique de « progrès » autonome. En effet, l’écologie politique au sens usuel vise à une meilleure intégration de l’homme dans l’environnement pour éviter le dérèglement de ce dernier. Hannah Arendt invitait déjà à penser les dérives du monde technique comme un métabolisme déréglé. Les évolutions décrites ci-dessus peuvent faire craindre un dérèglement non pas de l’environnement mais de certains équilibres de la société (comme celui du système de santé), et de la santé, voire de l’espèce humaine elle-même, sous l’effet de technologies couplées à la massification des données et à des fragilités politiques.
 
En un certain sens, une telle politique s’opposerait à une dynamique dite de progrès, et serait donc qualifiable de « conservatrice ». Les transhumanistes ou technoprogressistes s’opposent d’ailleurs souvent eux-mêmes aux « bioconservateurs ». Mais il s’agit d’une démarche de conservation d’une potentialité de développement et d’une complexité. Il conviendrait plutôt de parler d’une politique de préservation des possibles.
 
Il serait utile de réfléchir aux manières d’adapter le cadre institutionnel pour permettre une priorisation du long terme dans l’action publique et entreprendre une politique de préservation des possibles. Bruno Latour a suggéré une évolution des institutions autour des pouvoirs de « prise en compte », d’« ordonnancement » et de « suivi », ce dernier étant assuré par l’État, et de cycles de « perplexité », de « consultation », de « hiérarchie » et d’« institution »[7]. Bruno Latour nous rappelle que les objets que nous devons prendre en compte sont des objets fondamentalement hybrides, ni naturels ni culturels. Aussi, se fier aux « lois de la nature » n’a pas plus de sens que se fier à celles du marché, et une nouvelle « Constitution » doit être adoptée pour permettre de trier ces « quasi-objets »[8]. Les technologies évoquées plus haut dans le domaine de la santé relèvent pleinement de cette analyse.« La liberté est redéfinie comme une capacité de triage des combinaison d’hybrides […]. La production d’hybrides, en devenant explicite et collective, devient l’objet d’une démocratie élargie qui en règle ou ralentit la cadence »[9].

Et dès maintenant ?

En l’absence de réforme institutionnelle et dans le contexte actuel en France, l’administration doit s’efforcer de coordonner les initiatives visant à une meilleure définition des usages des technologies et favoriser la prise en compte des technologies émergentes dans l’action publique.
 
Le Conseil d’État a proposé dans son rapport annuel 2011 une évolution d’une administration consultative à une « administration délibérative ». Cependant, le recours est trop fréquent à des évolutions réglementaires par petits pas, trop catégorielles, qui peinent à être articulées, sont sans cesse en retard sur les évolutions technologiques et la jurisprudence et présentent un risque fort de dérive formelle ou de capture par les lobbies. L’administration subit une perte de sens de ses missions historiques, et la recherche « de bonne foi » d’amélioration est très difficile. La question peut se poser de savoir qui est le mieux placé entre le pouvoir exécutif et le pouvoir législatif pour mener à bien un travail dans ce sens. L’Office parlementaire d’évaluation des choix scientifiques et technologiques aurait une légitimité forte pour cela, mais il devrait s’adosser sur une structure d’animation et d’évaluation nourrie par les travaux issus des administrations, du monde académique et de la société civile. Certaines autorités indépendantes disposent aussi d’atouts pour porter des messages affranchis du temps court et des barrières partisanes des politiques : la CNDP pour favoriser le débat public, le CCNE pour nourrir et diffuser les questionnements éthiques[10], la CNIL vu la place centrale des questions liées à l’utilisation de données, l’AFLD dans les domaines du dopage génétique et de la médecine d’amélioration, la HAS pour l’évaluation et la prospective des technologies de santé… Elles font cependant face aux mêmes difficultés que les politiques pour faire entendre ces messages (communication portée par des événements, laissant peu de place à la complexité), et n’ont pas de mandat ni de poids politique.
 
Des collaborations renforcées entre des équipes compétentes en traitement des données, en sécurité informatique, en statistiques, et des domaines comme la santé, les transports ou l’éducation, pourrait aider à construire une vision des big data tournée vers l’intérêt général et une régulation adaptée. Cela implique notamment de développer des filières d’enseignement supérieur adaptées. Dans son essai À quoi rêvent les algorithmes, Dominique Cardon explique et catégorise les risques que présente l’abandon de certaines décisions à des algorithmes, et conclut à la nécessité de rendre ces algorithmes lisibles, critiquables, d’en faire des objets de questionnement, de contestation, de régulation[11]. Cela rejoint certaines propositions formulées dans l’étude annuelle 2014 du Conseil d’État de promouvoir le droit à l’« autodétermination informationnelle », d’obliger les plateformes à informer sur les critères de classement et de référencement et les auteurs de décisions s’appuyant sur des algorithmes à informer sur les données utilisées et le raisonnement suivi ou de mettre en place des contrôles des algorithmes et des différenciations des prix reposant sur l’utilisation de données personnelles[12]. Au-delà des seuls algorithmes, la mise en place de dispositifs d’évaluation des outils et dispositifs et de mise en lumière des conséquences des usages est nécessaire
 
Renforcer la prévention des conflits d’intérêt, le contrôle de concurrence et la régulation fiscale des entreprises collectant, traitant et utilisant des données, interdire certains usages discriminants des données de santé, en particulier par les assureurs, créer des structures à but non lucratif hébergées en Europe, sont d’autres pistes d’actions qui pourraient facilement être mises en œuvre dans le contexte actuel. Dans le domaine du vivant, la non brevetabilité et la réversibilité des transformations du vivant pourraient figurer parmi les critères pratiques de « triage » à retenir.
 
Des garanties simples doivent avant tout être données. Comme le rappelle Jean-Claude Ameisen, « le processus de “choix libre et informé” est au cœur de la démarche éthique biomédicale. Il est aussi essentiel à la vie démocratique »[13]. La garantie d’un choix libre et informé en matière d’usage des technologies, informé tant des conditions techniques que des conséquences sociales ou politiques possibles, libre car nuancé ; le droit à ne pas tout devoir mesurer ou partager de ses comportements ; l’écoute des silencieux et des abstentionnistes du monde numérique, doivent primer sur la recherche à tout prix d’innovation et de simplification.
 
Tout cela gagnerait bien entendu à être pensé et développé à l’échelle européenne. Bâtir une vision alternative du progrès (technique et social), un modèle plus humain et plus juste d’usage des technologies, mettre en place des institutions démocratiques en mesure de gérer des problèmes de long terme et de servir cette vision du progrès, serait peut-être un défi à la hauteur du besoin de recréer une aventure commune en Europe.
 
Ambroise Pascal, Ingénieur des Ponts, des eaux et des forêts - Actuellement en poste à l'Autorité de sûreté nucléaire
 
 
[1]Discours repris dans Questions III et IV, Collection Tel (n° 172), Gallimard, 1990.
[2]Dans un bref essai en réaction à un épisode de l’actualité américaine, l’écrivain américain Jonathan Franzen a récusé les alertes de ceux qui s’inquiètent de la disparition de la vie privée, qui a au contraire envahi l’espace public, dont la survie est menacée : Imperial Bedroom, 1998 (in How to be Alone, Picador, 2003).
[3]La société du risque. Sur la voie d’une autre modernité, Champs essais, 1986 (p. 357).
[4]Les trois défis mondiaux reconnus par les Académies des sciences du G7, Up’ magazine, 25 avril 2017 (lien).
[5]Jonathan Swift, Récit complet et véridique de la bataille qui se fit vendredi dernier entre les livres anciens et modernes en la bibliothèque Saint-James, Les Belles Lettres, 1993.
[6]On peut saluer des démarches comme la réflexion sur le Big Data en Santé lancée par le gouvernement en septembre 2015 et la consultation publique associée sur http://www.faire-simple.gouv.fr/bigdatasante, ou celle sur l’élaboration du projet de loi pour une République numérique (https://www.republique-numerique.fr), mais elles restent insuffisantes à créer une véritable appropriation politique et médiatique.
[7]Bruno Latour, Politiques de la nature. Comment faire entrer les sciences en démocratie, La Découverte, 1999.
[8]Bruno Latour, Nous n’avons jamais été modernes. Essai d’anthropologie symétrique, La Découverte, 1991.
[9]Bruno Latour, Nous n’avons jamais été modernes…, op. cit. (p. 193).
[10]Ainsi que les nombreuses autres instances de réflexion éthique : comité d’éthique de l’INSERM, COERLE (comité opérationnel d’évaluation des risques légaux et éthiques de l’INRIA), CERNA (commission de réflexion sur l’éthique de la recherche en sciences et technologies numériques de l’alliance de recherche Allistene)…
[11]Dominique Cardon, À quoi rêvent les algorithmes. Nos vies à l’heure des big data, Seuil, La République des idées, 2015.
[12]Conseil d’État, Le numérique et les droits fondamentaux, étude annuelle, La documentation Française, septembre 2014. Les propositions citées ici portent les numéros 1, 6, 24, 25 et 27.
[13]Éthique : chacun doit avoir les éléments pour un choix libre et informé, La Recherche, n°473, février 2013 (lien).
 
 

 

mutation technologique

Mutations technologiques et action publique - 1

Qu’elles soient déjà intégrées à notre quotidien ou qu’elles relèvent encore de la science-fiction, les mutations technologiques façonnent notre rapport au monde. Pourtant, l’action publique peine à prendre en compte leurs conséquences potentielles, sur les libertés individuelles, mais aussi sur l’égalité, la souveraineté et même l’avenir de l’homme. Aux frontières de la santé et du numérique, certains sujets sont particulièrement sensibles.
Partie 1 : mutations technologiques en santé et risques pour la société
 
« Nous prétendons vivre dans une “société de la connaissance”, mais il serait certainement plus juste de dire que nous vivons dans une société de l’usage de la technologie ». Ce constatd’Étienne Klein[1] met en exergue nos usages quotidiens de produits d’une grande complexité technique, tout en ignorant tout de ce qui les rend possibles.
A cette familiarité des usages et à cette « étrangeté » aux fondements scientifiques des technologies, s’ajoutent (à quelques exceptions près, comme sur les OGM), une impuissance politique et un aveuglement moral à leurs conséquences, alors même que les mutations technologiques ont un rôle déterminant dans nos modes de vie et nos relations au monde et à autrui.
 
Les usages des technologies sont guidés par le « jeu » de l’offre et de la demande. Bien qu’il repose sur l’expression de préférences individuelles, l’ordre qui en découle n’est pas démocratique, car il ne passe pas par la définition collective d’objectifs. Il n’est d’ailleurs pas de nature politique, précisément parce qu’il ne fait qu’agréger des préférences individuelles, faisant fi de l’espace commun entre les hommes qui fait le politique. Cet ordre est enfin, sous l’effet de la révolution numérique, de portée internationale, presque hors d’atteinte des règles nationales, et représente pour les États une perte de souveraineté non consentie collectivement.
 
S. Escher, Escalier

Familiarité des usages, étrangeté à la science, impuissance politique et aveuglement moral

On comprend donc que la question de l’usage des technologies ne soit pas une préoccupation centrale du débat politique, si ce n’est comme levier supposé de création d’emploi et de valeur. Cette forme d’impuissance du politique n’est certes pas propre aux questions technologiques, et existe sur bien des sujets de long terme ou touchés par la mondialisation. Il n’en est pas moins nécessaire d’anticiper, orienter, le cas échéant prévenir et dans tous les cas prendre en compte collectivement, de manière réfléchie et délibérée, les nouveaux usages des technologies pouvant transformer la société.
 
Enfin, certains usages des technologies ne posent pas seulement des problèmes politiques, mais aussi des problèmes moraux. Le recul critique nécessaire à la construction de choix de société éclairés est d’autant plus difficile à conquérir que l’innovation est souvent considérée comme une fin en soi. Pourtant, tout en étant de plus en plus complexes, les technologies font disparaître ou rendent invisibles des intermédiaires, servent l’homogénéisation des comportements, l’automatisation des tâches, bref, simplifient la vie, ce qui véhicule implicitement certaines valeurs. Des évolutions de la société semblent advenir d’elles-mêmes, sans attendre les choix démocratiques ni les réflexions éthiques.
 
Nous nous intéresserons ici essentiellement au domaine de la santé. Dans ce secteur comme dans d’autres, des transports aux télécommunications, de la sécurité à l’éducation, les mutations technologiques présentent bien entendu de nombreux aspects bénéfiques. Mais elles ont la particularité de mêler les sciences du vivant aux technologies, notamment numériques, d’où naissent une complexité et des risques particuliers pour le corps humain, l’environnement et la société. Touchant intimement chacun d’entre nous, la santé est sans doute le domaine dans lequel l’aspiration au progrès est la plus évidente, la plus inattaquable, et donc celui dont la prise en charge est la plus exigeante politiquement et les promesses les plus aveuglantes moralement.

Nouveaux fronts des mutations technologiques dans le domaine de la santé

Entrons en matière en donnant quelques exemples de mutations en cours dans le domaine de la santé :
-       tendance à l’enregistrement et au partage généralisés de données (courant du « quantified self », santé mobile ou « m-santé »), grâce à l’« informatique vestimentaire », aux déjà familiers bracelets connectés et applications mesurant l’activité sportive, les cycles du sommeil, le rythme cardiaque, la consommation alimentaire ou le taux d’alcoolémie[2] ;
-       naissance d’une médecine implantée (par exemple, partenariats entre Google et Novartis et Sanofi pour développer des lentilles de contact mesurant la glycémie et lutter contre le diabète[3], puces de l’entreprise Microchips Biotech délivrant des médicaments directement dans l’organisme, tissu cardiaque combinant des éléments organiques et électroniques développé à l’université de Tel-Aviv[4]…) ;
-       accès à peu de frais au séquençage et au décryptage de son ADN (par exemple par l’entreprise 23andMe) puis à son partage (par exemple sur le réseau social « OpenSNP ») ;
-       perspectives d’amélioration des performances physiques par des prothèses technologiques[5] ;
-       tentatives d’amélioration des performances sensorielles ou intellectuelles (lunettes à réalité augmentée, prothèses mnésiques plus ou moins élaborées[6], programmes de stimulation ou interfaçage du cerveau de la « Brain Initiative » de la DARPA, l’agence de recherche de l’armée américaine…) ;
-       thérapie génique (en 2015, des scientifiques chinois ont annoncé avoir réussi à supprimer sur un embryon un gène responsable de la bêta-thalassémie ; le Royaume-Uni a quant à lui autorisé des techniques de fécondation in vitro utilisant l’ADN de trois parents pour le traitement des maladies mitochondriales sévères)[7] et ses possibles dérives, du dopage génétique aux pratiques eugénistes.
 
 
Certes, une partie de ces exemples relève peut-être de la science-fiction : l’amélioration du corps par des prothèses, alors que la réparation n’est elle-même pas à qualités équivalentes (des fonctions restent non couvertes[8]) ; la convergence « NBIC » (technologies nano, bio, informatiques et cognitives) et certaines visées transhumanistes, qui se prêtent aux fantasmes et aux titres à sensation ; les promesses de reconstitution informatique du cerveau ou certaines perspectives d’« édition génétique », régulièrement dénoncés comme des supercheries[9]. Parmi les exemples cités, seuls les objets connectés appartiennent déjà au quotidien. Nul ne sait quelles technologies d’interfaçage cerveau-machines, quels tests de sélection d’embryons, quels projets d’« amélioration » de la « Singularity University », du Google X Lab ou de la DARPA verront le jour et se diffuseront à grande échelle. Des barrières infranchissables par la technique existent sans doute. Les inquiétudes sont alors aussi infondées que les promesses sont exagérées[10].
 
Il n’en demeure pas moins que de nombreux services sont déjà disponibles, en particulier de quantified self ». Dans le domaine de la réalité augmentée, la popularité du jeu « Pokémon Go » ne prépare-t-elle pas la diffusion des lunettes, casques et écrans à réalité augmentée ? De premières jurisprudences donnent également quelques signes tangibles, du jugement du tribunal arbitral du sport permettant à Oscar Pistorius de concourir comme athlète valide aux Jeux olympiques de Pékin en 2008 à la décision des autorités britanniques d’autoriser l’artiste daltonien Neil Harbisson à porter son « eyeborg » sur ses papiers d’identité[11] en passant par celle du Conseil d’État d’interdire le recours à un système de « téléobservance » pour conditionner la prise en charge d’un traitement de l’apnée du sommeil, qu’avait prévu l’Assurance maladie[12].

Pistes d’explication

Au-delà des avancées scientifiques qui permettent ces mutations, ce sont des évolutions des comportements et des rapports à la technologie et à la santé qui fournissent un terrain fertile à leur déploiement :
-       se tourner vers la technique semble offrir une solution de facilité à des problèmes de société (du changement climatique à la sécurité et à l’éducation, l’idée est répandue que des moyens technologiques pourraient apporter des réponses à des questions en réalité politiques[13] ; la santé n’y échappe pas) ;
-       le recours aux technologies dans les domaines de la santé et de l’environnement conduit à une intrication des risques naturels, sanitaires et technologiques, ces derniers atteignant une ampleur inédite, rendant d’autant plus légitime une intervention technologique « curative », et ainsi de suite ;
-       la société s’accoutume au partage de données comme monnaie d’échange de services, sous une forte pression sociale et économique pour mettre en place des outils plus efficaces ;
-       l’aspiration à la santé s’élargit à une aspiration au bien-être[14] (voire se limite à elle, pour les bien-portants, grâce à la réduction de la souffrance permise par les progrès de la médecine), favorisant une conception non uniquement réparatrice mais aussi amélioratrice de la santé, et légitimant la modification de comportements quotidiens sous un contrôle externe pas nécessairement médical (bracelets connectés, mais aussi réseaux sociaux). Pascal Bruckner diagnostique que « “le droit à la santé pour tous” s’est transformé en angoisse collective, la conquête sociale s’est muée en droit à consommer pour éviter de tomber malade »[15] ;
-       l’accoutumance à la mesure des performances, physiques mais aussi psychiques, et à la confrontation entre hommes et machines (des médiatiques parties d’échecs et de go aux caisses automatiques de nos supermarchés en passant par les « bots », ces robots qui occupent déjà une place majoritaire sur Internet[16]…) pourrait conduire, comme le suggère Pierre Cassou-Noguès, à une évolution de notre perception de la pensée, d’une notion analogue à la douleur (intuitive et personnelle) vers une notion analogue à la fièvre (mesurable, détectable par un tiers à l’aide d’outils)[17] ;
-       dans le prolongement de cette aspiration à la performance, l’imaginaire collectif semble marqué par un certain culte de la « forme » et même une certaine idéalisation de l’homme et de la nature « augmentés » (que l’on pense aux publicités pour le parfum « Amen » de Thierry Mugler ou aux affiches d’HSBC faisant apparaître des poissons à code-barres ou des abeilles bioniques sous des slogans enthousiastes).
 

Des conséquences

Affirmons-le sans détour : le fait que des évolutions technologiques puissent modifier la nature de certaines activités ou remettre en cause leur organisation sociale n’est pas un problème en soi. Les mutations technologiques ont toujours rencontré des oppositions pour ces seuls motifs, dont l’histoire a rarement conclu au bien-fondé. Le problème vient de ce que certaines évolutions entraînent un glissement des finalités de ces activités ou des valeurs ayant conduit à leur organisation, et de ce que les acteurs qui mettent en œuvre ces changements disposent aujourd’hui de moyens considérables et agissent en dehors du terrain politique et d’un contrôle démocratique, avec des objectifs mercantiles et parfois idéologiques.
 
Nous distinguons des conséquences sur les libertés individuelles, sur la souveraineté, sur l’égalité et sur l’avenir de l’espèce humaine.
 
Sur les libertés individuelles
 
Un point commun de plusieurs services décrits ci-dessus est le rôle central de la collecte et du traitement massif de données. Les « GAFA » (Google, Amazon, Facebook, Apple) donnent accès à d’autant plus de services qu’on leur cède de données : beaucoup ne sont accessibles qu’aux personnes qui acceptent de s’identifier, de synchroniser ou partager leurs données, d’être géolocalisées, etc. Leur modèle économique, qui se répand, repose sur la gratuité en échange d’un consentement à fournir des données destinées à une exploitation commerciale. Comme le dit le critique Geert Lovink, « L’anonymat n’est plus qu’une notion nostalgique »[18].
 
 
Ce traitement massif des données couplé à l’usage de certaines technologies est porteur de risques pour les libertés individuelles : risques d’exploitation commerciale illégitime, de détournement incontrôlé ou de vol, de récupération à des fins de chantage, de harcèlement ou de discriminations, voire de dérives autoritaires. Cet aspect est régulièrement évoqué[19], aussi ne nous y attardons-nous pas. Aborder ces risques sous le seul angle de la protection des libertés individuelles élude les questions véritablement politiques, c’est-à-dire celles qui se posent non pas aux individus mais au collectif.
 
Sur la souveraineté
 
L’accès à des données innombrables et à de puissants algorithmes ouvre la possibilité que des services soient proposés par des entreprises, voire des particuliers, dans des domaines dont la puissance publique avait jusqu’à présent le monopole. Par certains aspects, on peut s’en réjouir, et on ne peut en tous cas reprocher à personne de proposer des services nouveaux. D’autres aspects sont plus préoccupants.
 
Dans le domaine de la santé, l’émergence de la médecine personnalisée et connectée s’accompagne d’un transfert de pouvoir de l’État, responsable du système de santé et de sécurité sociale, vers les gestionnaires de données, et des médecins vers des opérateurs privés. L’organisme national de santé publique britannique, le NHS, a récemment confié à une filiale de Google spécialisée dans l’intelligence artificielle le traitement de données concernant 1,6 millions de patients[20]. La Cour des comptes a noté dans un récent rapport qu’au Royaume-Uni « la question de [l’]ouverture [des données médicales] au secteur privé est essentiellement abordée sous l’angle de l’innovation, de la compétitivité de pays et de la rentabilité des investissements ». Le même rapport note qu’aux États-Unis, « l’ambition des grandes firmes informatiques est désormais de gérer elles-mêmes les dossiers médicaux personnels de milliards d’usagers à travers le monde, en se finançant par l’exploitation commerciale de leur contenu »[21]. C’est en ceci que l’ordre de l’offre et de la demande dont relèvent ces évolutions technologiques conduit à une perte de souveraineté, y compris pour les États où ces entreprises ont leur siège. On peut d’ailleurs noter qu’il existe des liens étroits, du moins aux États-Unis, entre les mouvements transhumaniste et libertarien[22]. Tous deux sont favorables à la libéralisation des usages des données, car pour eux l’État constitue une entrave à l’épanouissement d’une société libre.
 
 
On assiste par ailleurs à une substitution de la loi par le contrat dans des domaines comme le droit du travail ou le commerce international, ce qui affaiblit le poids des règles définies démocratiquement et le pouvoir judiciaire. Le recours à l’arbitrage privé dans les litiges entre multinationales et États est envisagé dans les négociations sur le traité « TAFTA » et le « Privacy Shield » entre les États-Unis et l’Union européenne. Le fonctionnement de ces instances est opaque et miné par les conflits d’intérêts (comme l’illustre l’annonce, dans le cadre de ces négociations, que la sous-secrétaire d’État américaine Catherine Novelli, ex-directrice des relations publiques d’Apple, assurerait les fonctions de médiatrice en charge d’examiner les plaintes[23]).
 
Le récent contentieux entre Apple et le FBI au sujet de l’accès aux données d’un téléphone portable dans le cadre d’une enquête a enfin révélé que les États n’étaient plus perçus par tous comme jouissant d’une légitimité supérieure aux entreprises pour être garants des libertés individuelles.
 
Sur l’égalité
 
Le plus dangereux pour la société n’est peut-être pas tant l’usage irrégulier de données ou leur accaparement par des régimes autoritaires ou des « pirates » mal intentionnés, que la servitude volontaire de la population à des entreprises mettant des produits sur le marché à grand renfort de marketing. Un certain climat idéologique couplé à des incitations économiques données par des opérateurs privés, voire reprises par des services publics en mal de moyens, peut conduire à des inégalités accrues.
 
Ainsi, des compagnies d’assurance ou des entreprises offrent des avantages aux personnes qui acceptent de porter un bracelet connecté pour contrôler leur activité physique[24]. En Allemagne, les caisses d’assurance maladie collecteront et utiliseront prochainement les données issues des bracelets connectés[25]. On a cité plus haut, le projet de l’Assurance Maladie française de recourir à un système de « téléobservance » pour conditionner la prise en charge d’un traitement. Plusieurs organismes de prêt recourent aux données disponibles sur les réseaux sociaux pour évaluer la solvabilité de leurs clients[26]. La CNIL souligne que « le scénario dans lequel une assurance santé ou une mutuelle conditionnerait l’obtention d'un tarif avantageux à l’accomplissement d’un certain nombre d’activités physiques, chiffres à l’appui, se dessine. Dans les années à venir, les individus pourraient être priés d’apporter les preuves d’un comportement sain, sur le modèle de l’“usage-based insurance” »[27]. Refuser d’entrer dans un tel système ne sera possible qu’à ceux qui auront des moyens suffisants[28], et encore à condition que des alternatives soient toujours offertes, ce qui n’est pas garanti dans un univers concurrentiel.
 
Le fait que de nombreuses personnes adhèrent spontanément à certaines évolutions, pas plus que la mise en place de comités d’éthique ou de réflexion chez les promoteurs d’innovations (par exemple le « Brandeis Program » de la DARPA ou le comité d’éthique de Google[29]), ne dispense d’une prise en charge collective par une représentation politique. La seule protection des données et de la vie privées ne suffirait d’ailleurs pas à endiguer les risques que font courir ces usages sur l’égalité d’accès au système de santé et plus généralement aux services publics.
 
Sur l’avenir de l’espèce humaine
 
Imaginer une société dans laquelle un suivi de l’activité physique deviendrait obligatoire, dans laquelle l’accès à services courants passerait par la pose d’implants, dans laquelle des embryons seraient sélectionnés pour leur résistance à une maladie[30], pose déjà toutes sortes de questions juridiques et politiques. Imaginer une telle société, accoutumée à la mesure de tout, guidée par une idéologie de la performance, peinant ou renonçant à définir des limites à l’hybridation du vivant et de la technique[31] et se soumettant à une forme de servitude volontaire, pose aussi des questions plus fondamentales sur l’avenir de l’espèce humaine[32].
 
Des entreprises affichent sans complexe leur ambition de changer le monde. Google incarne le projet d’amélioration de l’espèce humaine et de la société par la technologie. L’entreprise a lancé sa filiale Calico avec l’objectif de « vaincre la mort »[33]. Avec un sens de l’annonce moins marqué, le leader français de la santé connectée Withings, tout juste racheté par la division technologique de Nokia (basée en Californie)[34], affiche sa volonté de permettre à chacun de changer sa relation à la santé, de vivre plus sainement et plus longtemps.
 
Les progrès du diagnostic prénatal et préimplantatoire (DPI) ont rendu réel le risque d’eugénisme : s’ils ont eu des bénéfices incontestables, ils ont aussi ouvert la possibilité « de la sélection d’embryons et la destruction de ceux qui sont atteints », comme le soulignait le Comité consultatif national d’éthique dans un avis de 2009[35]. Le CCNE notait également que certains« usages du DPI constituent des formes de dévoiement de la médecine, sa réduction à une ingénierie biologique » et que « Si de tels tests [réalisés sur l’ADN embryonnaire à partir du sang de la femme enceinte] étaient disponibles auprès d’officines privées commercialisant leur technologie par voie électronique, il serait possible d’envisager qu’un choix des couples soit élaboré en l’absence d’une information médicalement appropriée et de modérateurs extérieurs. C’est à la mise en place d’un véritable tourisme prédictif que nous assisterions alors, avec une clientèle composée de couples seuls et désemparés face à des tests non validés. » L’emploi du conditionnel, encore de rigueur en 2009, l’est beaucoup moins aujourd’hui avec l’apparition de services privés bon marché de séquençage, de décryptage et de partage de son ADN tels que ceux mentionnés plus haut.
 
En l’absence de réflexion suffisante, de réglementation et de contrôle efficaces, des « améliorations » ou extensions du corps humain donnant la possibilité de limiter le vieillissement de certains organes, de les « améliorer » (par exemple pour voir dans l’infrarouge) ou simplement, de manière plus terre-à-terre, de réduire ses dépenses de santé et celles de la collectivité, finiront par représenter un tel avantage économique ou social qu’elles se répandront.
 
A force de vouloir se simplifier la vie, on pourrait bien finir par se simplifier tout court[36]. Le dépassement de l’homme par la machine est peut-être illusoire, sauf si les hommes font la moitié du chemin. En souscrivant aux promesses de simplification ou de progrès que nous apportent certaines mutations technologiques, l’on souscrit aussi, même tacitement, à un projet de société. Mais Comme le remarque Pierre Manent, « en repoussant sans cesse les limites, on arrive à un point où l’on cesse d’améliorer la vie »[37].
 
Ambroise Pascal, Ingénieur des Ponts, des eaux et des forêts - Actuellement en poste à l'Autorité de sûreté nucléaire
 
 
[1]Étienne Klein, Le small bang des nanotechnologies, Odile Jacob, 2011 (p. 107).
[2]L’article suivant donne un exemple hors du champ sanitaire : ce bracelet délivrant des décharges électriques quand votre compte bancaire passe à découvert : Ces bracelets connectés qui veulent nous tenir en laisse, Up’ magazine, 25 mai 2016 (lien).
[3]Lutte contre le diabète : Sanofi et Google s’allient, Les Échos, 31 août 2015 (lien).
[4]Un patch cardiaque cyborg pour réparer les cœurs, Up’ magazine, 21 mars 2016 (lien).
[5]Plus intéressant encore que le cas médiatisé d’Oscar Pistorius, celui de Danielle Bradshaw qui, privée d’une jambe, souhaitait se faire amputer de la seconde afin de bénéficier de prothèses des deux côtés :‘Cut off my foot so I can run faster’: Sporty teenager who had one limb amputated for medical reasons now wants the OTHER one removed, Daily Mail Online, 18 septembre 2014 (lien).
[6]Memory Implants: A maverick neuroscientist believes he has deciphered the code by which the brain forms long-term memories, MIT Technology Review, avril 2013 (lien). Voir aussi la présentation d’Élisabeth Métais, du Conservatoire national des Arts et Métiers (lien) et Sixième sens : percevoir l’infrarouge grâce à une neuroprothèse, Futura-Sciences, 15 février 2013 (lien).
[7]Voir les articles de Laurent Alexandre : Pourquoi l’autorisation de la modification génétique d’un embryon humain par la Grande-Bretagne n’est ni une première, ni le pire de ce qu’on pourrait faire (et qu’on fera très bientôt), Atlantico, 2 février 2016 (lien) et Pourquoi les Chinois n’écouteront pas les Occidentaux sur les modifications génétiques des embryons qu’ils ont décidé d’expérimenter, Atlantico, 3 juillet 2015 (lien).
[8]Regarder l’ouverture de la coupe du monde de football 2014 par un paraplégique équipé d’un exosquelette, aussi remarquable cela soit-il, suffit à se convaincre que des fonctions restent non « réparées ». Cela n’exclut pas la possibilité d’améliorer d’autres fonctions.
[9]God’s Red Pencil? CRISPR and The Three Myths of Precise Genome Editing, Independent Science News, 25 avril 2016 (lien).
[10]Voir Nik Brown : Hope Against Hype – Accountability in Biopasts, Presents and Futures, Science Studies 16(2): 3-21 (lien).
[11]Neil Harbisson, le premier cyborg avec un passeport, Europe1.fr, 17 mars 2014 (lien).
[12]Conseil national de l’Ordre des médecins, Santé connectée. De la e-santéà la santé connectée, livre blanc, janvier 2015 (lien).
[13]Sur le changement climatique, on lira avec profit l’article suivant qui diagnostique un « schisme entre la réalité du monde et l’évolution de la gouvernance » et une triple illusion « de la possibilité d’une gestion apolitique », « de la possibilité d’une gestion isolée du problème » et « de pouvoir mener l’inévitable transformation industrielle et sociale de manière indirecte » : Stefan C. Aykut et Amy Dahan, Les négociations climatiques : vingt ans d’aveuglement ?, CERISCOPE Environnement, 2014 (lien).
[14]L’OMS a dès 1946 défini la santé comme un « état complet de bien-être physique, mental et social ».
[15]Pascal Bruckner, Didier Tabuteau, Jean-Pol Durand, C’est la vie entière qui est devenue comme une maladie..., Les Tribunes de la santé, 1/2003, no 1 (pp. 105-111) (lien).
[16]IA : L’invasion des robots a déjà commencé. Et elle est massive, Up’ magazine, 29 mars 2016 (lien).
[17]Pierre Cassou-Noguès, Lire le cerveau, Seuil, 2012.
[18]L’anonymat n’est plus qu’une notion nostalgique, Libération, 12 janvier 2008 (lien).
[19]Dans la presse mais aussi dans l’espace public où cela semble la seule réserve couramment exprimée (voir par exemple les contributions à la consultation menée sur le site http://www.faire-simple.gouv.fr/bigdatasante).
[20]Un document révèle comment Google a accès à des millions de données de patients, Up’ magazine, 8 mai 2016 (lien).
[21]Les données personnelles de santé gérées par l’Assurance maladie : une utilisation à développer, une sécurité à renforcer, Cour des comptes, mars 2016 (lien).
[22]On peut citer par exemple Peter Thiel, le premier à investir dans Facebook en 2004 et soutien de la Singularity University et du Seasteading Institute, fondé par le petit-fils de Milton Friedman.
[23]Les eurodéputés réclament un vote de principe sur le transfert de données, Euractiv.fr, 29 avril 2016 (lien). La biographie de Catherine Novelli est disponible sur le site du Gouvernement des États-Unis (lien).
[24]Voir Assurances : sommes-nous prêts à être espionnés pour payer moins cher ?, L’Obs avec Rue89, 12 août 2014 (lien) et Le partage de données au service de la prévention médicale, Biotech Finances, no 728, 20 juin 2016.
[25]Die Zeit et Der Spiegel du 9 février 2016 cités par Courrier international no 1327, du 7 au 13 avril 2016.
[26]Pas d’amis, pas de crédit, Courrier international, 7 octobre 2013 (lien).
[27]CNIL, Le corps, nouvel objet connecté. Du Quantified Self à la m-santé : les nouveaux territoires de la mise en données du monde, Cahiers Innovation & Prospective, no 2, mail 2014 (lien).
[28]L’article de Biotech Finances cité à l’instant révèle que si seuls 22% des français accepteraient de transmettre à leur assureur les données issues de bracelets connectés, ce chiffre passe à 43% si une baisse de prime d’assurance-santé est accordée en contrepartie.
[29]Inside Google’s Mysterious Ethics Board, Forbes, 3 février 2014 (lien).
[30]Rappelons comme autre élément de contexte en France la suppression de la condition de « détresse » de la femme enceinte avant un avortement : la loi n° 2014-873 du 4 août 2014 pour l’égalité réelle entre les femmes et les hommes a modifié l’article L. 2212-1 du code de la santé publique en remplaçant le sujet de la phrase « La femme enceinte que son état place dans une situation de détresse peut demander à un médecin l’interruption de sa grossesse » par « La femme enceinte qui ne veut pas poursuivre une grossesse… ».
[31]On a donné plusieurs exemples d’incorporation d’objets technologiques dans le vivant, mais il existe aussi des pistes d’hybridation « dans l’autre sens », comme l’utilisation d’ADN comme support de stockage de données : voirLe stockage sur ADN, disque dur du futur ?, Les Échos, 13 janvier 2014 (lien).
[32]Un tel monde est dépeint de manière romanesque dans Le Cercle, de Dave Eggers, récemment traduit en français (Gallimard, collection « Du monde entier », 2016).
[33]Google vs. Death? Really?, The Huffington Post Blog, 10 mars 2013 (lien).
[34]Withings se revend à Nokia, Libération, 26 avril 2016 (lien).
[35]Avis sur les problèmes éthiques liés aux diagnostics anténatals, avis no 107 du CCNE, 15 octobre 2009 (lien).
[36]On peut noter ici que dans le domaine de la santé et de la biologie, cette simplification peut aller à l’encontre du maintien d’une diversité importante qui peut constituer, ne serait-ce que pour des raisons purement utilitaristes, un atout (par exemple, pour limiter la transmissibilité d’atteintes extérieures).
[37]Peter Thiel, Pierre Manent. Et si la vérité était scandaleuse ?, paru dans Philosophie magazine, no 83, octobre 2014.
 
 

 

innovation

L’innovation sauvera-t-elle le monde ?

« L’innovation sauvera le monde - Philosophie pour une planète pacifique, durable et prospère » est le dernier ouvrage de Nicolas Bouzou (1), essayiste dit "libéral", économiste, directeur du cabinet d’analyses Asteres, directeur d’études au sein du MBA Law & Management de l’université Panthéon-Assas (Paris II), sorti en septembre aux Editions Plon. L'auteur ausculte le «nouvel ordre technico-économique», portant haut et fort des idées, des analyses et des constats aussi novateurs que dérangeants. Certains disent que les nouvelles technologies vont nous sauver tandis que d’autres clament qu’elles nous mènent tout droit à la catastrophe. Face aux mutations de notre monde, Nicolas Bouzou prône un progressisme conservateur : faire de la famille, la culture classique et l'esthétique les pivots autour desquels doit s'organiser notre entrée dans l'avenir.
 
Les avis contemporains sur ces questions ne semblent guère donner dans la nuance. En conséquence, chaque fois qu’une nouvelle possibilité technologique se présente, ce sont deux logiques, presque deux métaphysiques, qui s’affrontent : l’une se réduit au calcul comparatif des coûts et des bénéfices (c’est celle des opérateurs, incités à innover pour être compétitifs) ; l’autre, attentive aux dommages que pourrait provoquer une telle réduction, cherche à reconstruire une approche du monde où la rationalité, comprise comme ce qui est raisonnable, imposerait des limites aux conclusions des calculs pour prendre en compte d’autres considérations, plus éthiques, plus qualitatives ou plus indirectes.
Ne tenez pas ce livre pour un manifeste optimiste. Il n'est pas plus un ouvrage d'humeur, mais le résultat d'une longue réflexion, aux frontières de l'économie, de l'Histoire et de la philosophie, qui m'amène à la conclusion suivante : l'innovation peut sauver le monde de ses problèmes les plus déchirants. Mais la technologie n'y suffira pas, ni une excellente politique économique. Notre salut viendra de l'alliance entre la technologie, l'économie et une spiritualité qui embrasse l'amour et l'art, et les valeurs. Voilà pourquoi Platon, Freud ou Hannah Arendt occupent ici une place aussi importante que Schumpeter...
Notre monde est en pleine mutation. L'économie change : de nombreux emplois sont créés, mais beaucoup disparaissent. Les façons de travailler évoluent : le salariat laisse progressivement la place au travail indépendant. Les concepts philosophiques sont bousculés : comment réguler la sélection des embryons qui est déjà une réalité ? Un nouveau monde naît, en remplacement d'un ancien qui s'effondre, source d'angoisse qui fait le lit des extrémismes politiques de toutes obédiences et plus généralement de ceux qui serinent que « c'était mieux avant ».
L’ampleur et la vitesse des mutations à l’œuvre semblent parfois foudroyer nos sociétés. « Ce n’est pas l’agonie de l’ancienne économie qui laisse grandir la nouvelle : c’est la modernité, un nouvel ordre “technico-économique” qui s’impose à l’ancien, le tue, violemment, dans le sang et les larmes », constate Nicolas Bouzou dans son dernier essai.
On vit la mutation technique, économique et sociale la plus importante depuis le XIXe siècle » Nicolas Bouzou
L'antidote à ces fondamentalismes est d'entrer dans ce nouveau monde en sauvant ce qu'il y avait de meilleur dans l'ancien pour éviter l'effondrement de notre civilisation occidentale. C'est enseigner aux enfants le code informatique, mais aussi le grec et le latin. C'est les laisser jouer sur des jeux vidéo de réalité augmentée, mais leur faire découvrir Bach et Vivaldi. C'est accepter la famille recomposée, mais interdire à de futurs parents de choisir à la carte la couleur des yeux de leur bébé. C'est à partir de ces principes simples (être réformateur sur l'économie et conservateur sur les valeurs) que doivent se construire les programmes politiques alternatifs à ceux des extrêmes réactionnaires. C'est la seule façon de réconcilier les peuples avec leur avenir.
 
Je suis favorable au transhumanisme mais défavorable au post-humanisme qui ne permet pas de différencier l'homme de la machine." Nicolas Bouzou, La Grande table France Culture
 
Tout ne doit pas changer dans le monde sinon c’est la fin de la civilisation et peut-être même la dissolution de ce que Karl Popper appelle la société ouverte, c’est-à-dire la société libérale et démocratique. Ce conservatisme est au cœur de la doctrine de Burke et j’y suis très attaché. Certes, l’innovation modifie les produits, les services, la distribution, l’Etat et une partie du fonctionnement de la société. Mais il faut quand même que nous conservions un acquis du passé, ce à quoi nous sommes attachés : je pense en particulier à la liberté ou à la famille d’amour. » Nicolas Bouzou – La Tribune
 
Un plaidoyer contre le pessimisme ambiant, à rebours des « stagnationnistes » et « déclinistes » de tout poil, expliquant que « l’avenir sera meilleur que le passé, à condition de s’en donner les moyens ». Dans une interview aux Echos, Nicolas Bouzou résume ses recherches : « Ce que j'essaie de faire est d'articuler l'économie et la philosophie. Aujourd'hui, nous avons une mutation qui est absolument extraordinaire, qui, par son ampleur, est un peu l'équivalent de ce que nous avons connu au XIXe siècle ou lors de la Renaissance, mais il n'y a pas vraiment de direction. En quelque sorte, ce qui me frappe beaucoup, surtout en France, c'est que nous avons perdu le goût du progrès. [...] Ce qui m'intéresse, c'est le progrès, c'est-à-dire l'innovation qui améliore le monde. » Il veut un nouveau projet de société qui redonnerait du sens au progrès. L’innovation n’est pas neutre : bien utilisée, elle peut améliorer le sort de l’humanité. Autrement, on laisse le champ libre à la révolution conservatrice : les nationalistes, extrémistes et autres fondamentalistes religieux. Il y a une accélération du changement et les réactions sont toujours plus hostiles à la modernité. Mais dans 15 ans, le cancer sera devenu une maladie chronique, l’hyperloop nous permettra de traverser l’Angleterre en 20 minutes et on aura une base permanente sur la lune.
 
(1)    Nicolas Bouzou est un essayiste français spécialisé dans l'économie. Il a fondé et dirige depuis 2006 la société d'analyse économique et de conseil Asterès. Il a également créé le Cercle de Belém, qui regroupe des économistes européens libéraux et progressistes,. Il est maître de conférence à Sciences Po Paris, directeur de la collection "Le capitalisme en mouvement", chez l'éditeur Eyrolles et l'auteur d'une dizaine d'ouvrages, notamment Le Grand refoulement (éd. Plon, 2015) et L'innovation sauvera le monde (éd. Plon, septembre 2016).         
 
 

 

théorie de l'évolution

Des scientifiques veulent mettre à jour la théorie de l’évolution

Les récentes découvertes incitent certains chercheurs à arguer que la théorie synthétique de l’évolution doit être mise à jour. Cet article est le récit d’une réunion tenue à la Royal Society à Londres. Kevin Laland, éminent biologiste évolutionnaire de l’Université de St Andrews en Ecosse, proposait à ses collègues prestigieux rien moins que de rénover la théorie de l’évolution. Une révolution feutrée mais au climat tendu de passions.
 
Kevin Laland a regardé à travers la salle de réunion pour voir une centaine de personnes qui s’étaient réunies pour une conférence sur le futur de la biologie évolutionnaire. Un collègue assis à côté de lui a demandé comment les choses se présentaient. Laland a répondu que cela se passe plutôt bien, on n’en est pas encore aux coups de poing.
 
Laland est un biologiste évolutionnaire qui travaille à l’université de St Andrews en Écosse. Il est venu à Londres pour co-organiser une réunion à la Royal Society intitulée New Trends in Evolutionary Biology. La réunion a attiré principalement des biologistes, des anthropologues, des médecins, des informaticiens et des visionnaires. Laland a remarqué que la salle de réunion est en rénovation et il espère que la discussion va également amener une sorte de rénovation sur l’une des théories les plus robustes et les plus fondamentales de la science.
 
Dans le milieu des années 1900, les biologistes ont mis à jour la théorie de l’Évolution de Darwin avec de nouvelles découvertes provenant de la génétique et d’autres disciplines. Le résultat est connu comme la théorie synthétique de l’Évolution qui a guidé la biologie évolutionnaire pendant près de 50 ans. Mais entre-temps, les scientifiques ont appris beaucoup de choses sur le fonctionnement de la vie. Ils peuvent séquencer des génomes entiers. Ils peuvent observer les gènes qui s’activent et se désactivent dans les embryons en développement. Ils peuvent observer comment les animaux et les plantes répondent aux changements dans l’environnement.
 
Le résultat est que Laland et un groupe de biologistes estiment que la théorie synthétique de l’évolution a besoin d’une mise à jour. Elle doit donner une nouvelle vision de l’Évolution et cette mise à jour est connue comme l’Extended Evolutionary Synthesis (Théorie synthétique et étendue de l’Évolution). D’autres biologistes ne sont pas d’accord en estimant qu’il y a peu de preuves qu’un tel changement soit nécessaire.
 
Cette réunion est la première conférence publique où Laland et ses collègues pouvaient présenter leurs visions. Mais Laland n’a aucun intérêt à prêcher à ceux qui sont déjà d’accord et ils ont donc invité des biologistes qui sont très sceptiques sur l’idée de cette théorie synthétique et étendue de l’Évolution. Les deux parties ont offert leurs arguments et on pouvait sentir une tension dans la salle avec des Tsss, Tsss, des yeux levés vers le ciel et des applaudissements partisans selon les différents intervenants. Mais les poings sont restés dans les poches… pour le moment.

L’Évolution telle que nous la connaissons

La science évolue sans cesse avec parfois des révolutions qui se mettent en place. Galilée et Newton ont tiré la physique de ses erreurs passées dans les années 1600 pour la faire progresser à petits pas jusque dans les années 1900. Einstein et d’autres ont posé les bases de la physique quantique, de la relativité et d’autres moyens de comprendre l’univers. Il est stupide de dire que Newton ou les autres avaient tort, mais simplement le fait que l’univers est bien plus que de la matière en mouvement.
 
La biologie évolutionnaire a eu également ses propres révolutions. La première a été lancée par Charles Darwin en 1859 dans son livre sur les Origines des Espèces. Darwin a rassemblé des preuves de la paléontologie, de l’embryologie et d’autres sciences pour montrer que les choses vivantes étaient liées les unes aux autres par un ancêtre commun. Darwin a également introduit un mécanisme qui provoque des changements sur le long terme qui est la sélection naturelle. Chaque génération d’une espèce est remplie de variations. Certaines variations ont permis aux organismes de survivre et de se reproduire et les caractéristiques sont transmises à la prochaine génération grâce à l’hérédité.
 
Darwin a inspiré les biologistes du monde entier à étudier les animaux et les plantes d’une nouvelle manière en interprétant leur biologie comme des adaptations qui était produite sur de nombreuses générations. Mais Darwin a réussi en dépit d’ignorer totalement le concept d’un gène. Il a fallu attendre les années 1930 pour que les généticiens et les biologistes évolutionnaires se réunissent pour refondre la théorie de l’Évolution. Les variations étaient provoquées par des mutations qui pouvaient produire de nouvelles combinaisons. Les nouvelles espèces émergent quand les populations possèdent des mutations qui n’autorisent plus l’intercroisement.
 
En 1942, le biologiste britannique Julian Huxley a décrit ce cadre de travail émergent dans un livre intitulé Evolution : The Modern Synthesis. Aujourd’hui, les scientifiques appellent cette théorie par le titre de ce livre. Parfois, ils utilisent le terme de néo-darwinisme, mais qui peut prêter à confusion. Le néo-darwinisme est apparu dans les années 1800 à l’époque où les biologistes proposaient de nouvelles idées alors que Darwin était encore vivant.
 
La théorie synthétique de l’Évolution est devenue un outil puissant pour poser des questions sur la nature. Les scientifiques l’ont utilisé pour faire une grande quantité de découvertes concernant la vie. Par exemple, on a compris pourquoi certaines personnes sont plus vulnérables aux troubles génétiques tels que la drépanocytose et pourquoi les pesticides échouaient tôt ou tard à combattre les nuisibles. Mais dès l’apparition de la théorie synthétique de l’Évolution, les biologistes ont commencé à critiquer sur le fait qu’elle était trop rigide. Mais il a fallu attendre ces dernières années pour que Laland et d’autres chercheurs puissent s’organiser afin de formuler la théorie synthétique et étendue de l’Évolution.
 
Ces chercheurs ne considèrent pas que la théorie synthétique de l’Évolution soit incorrecte, mais uniquement le fait qu’elle ne capture pas toute la richesse de l’évolution. Les organismes héritent plus que des gènes. Ils peuvent hériter d’autres molécules cellulaires ainsi que des comportements qu’ils apprennent et les environnements modifiés par leurs ancêtres. Laland et ses collègues défient également le concept que la sélection naturelle est la seule explication sur le comportement de la vie. D’autres processus peuvent influencer le cours de l’évolution allant du développement aux environnements où vivent ces organismes. Ce n’est pas simplement une question d’ajouter plus de mécanismes selon Laland, car cela nécessite de penser à la causalité d’une différente manière.

Les ajouts à Darwin

Eva Jablonka, biologiste à l’université de Tel-Aviv, a utilisé sa présentation pour explorer les preuves d’une forme d’hérédité au-delà des gènes. Nos cellules utilisent un certain nombre de molécules spéciales pour contrôler les gènes qui fabriquent les protéines. Dans un processus connu comme la méthylation, les cellules imposent des contrôles sur leur ADN pour désactiver certains gènes. Quand les cellules se divisent, elles peuvent reproduire les mêmes contrôles sur le nouvel ADN. Certains signaux de l’environnement peuvent faire en sorte que ces cellules changent ces contrôles épigénétiques qui permettent à l’organisme d’adapter leur comportement à de nouveaux défis.
 
Certaines études indiquent que, sous certaines circonstances, un changement épigénétique dans un parent peut être passé à sa portée. Et ces enfants peuvent passer ce profil épigénétique modifié à leurs enfants et ce serait une hérédité au-delà des gènes. La preuve de cet effet est la plus robuste chez les plantes. Dans une étude, les chercheurs ont été capables de traquer les patterns modifiés de la méthylation sur 31 générations dans une plante appelée Arabidopsis. Et ce type d’hérédité peut provoquer une différence considérable sur le fonctionnement d’un organisme.
Dans une autre étude, les chercheurs ont trouvé que les patterns hérités de la méthylation peuvent changer le temps de floraison de l’Arabidopsis ainsi que la taille de ses racines. La variation de ces patterns était plus importante que celle qui est provoquée par une mutation normale. Après avoir présenté cette preuve, Jablonka a estimé que les différences épigénétiques pourraient déterminer les organismes qui survivraient assez longtemps pour se reproduire. La sélection naturelle pourrait fonctionner dans ce système selon cette chercheuse.
 
Même si la sélection naturelle est une force importante dans l’évolution, les orateurs ont présenté des preuves qu’elle peut être contrainte ou biaisée dans une direction particulière. Gerd Müller, un biologiste de l’université de Vienne, a proposé un exemple de sa propre recherche sur les lézards. Un certain nombre d’espèces de lézard ont évolué pour que leurs pieds n’aient plus d’orteils. Certains ont quatre orteils tandis que d’autres ont en seulement un et il y en a qui 'en ont plus aucun.

L’épigénétique

La théorie synthétique de l’Évolution selon Müller a incité les scientifiques à regarder ces changements comme le produit de la sélection naturelle qui va favoriser une variante sur d’autres parce que cette variante possède un avantage de la survie. Mais cette approche ne fonctionne pas si vous tentez de comprendre l’avantage de perdre certains de ses orteils. La réponse est qu’il n’y a pas d’avantage sélectif réel selon ce chercheur.
 
La clé pour comprendre pourquoi les lézards perdent des orteils précis s’explique dans la manière dont les embryons de lézard développent leurs orteils à la base. Un bout apparait sur le côté du corps et ensuite, on a cinq doigts qui vont émerger. Mais l’orteil aura toujours la même séquence. Et quand les lézards perdent leurs orteils via l’évolution, alors ils les perdent dans un ordre inverse. Müller estime que cette contrainte s’explique parce que toutes les mutations ne peuvent pas créer toutes les variations possibles. Certaines combinaisons d’orteils sont donc en dehors des limites et la sélection naturelle ne va jamais les sélectionner.
 
Le développement peut contraindre l’évolution. Mais il fournit également une flexibilité remarquable aux plantes et aux animaux. Sonia Sultan, biologiste évolutionnaire de l’université de Wesleyan, a proposé un cas spectaculaire pendant sa présentation en décrivant une plante qu’elle étudie dans la famille des Polygonum qu’on connait mieux sous le nom de Renouée.
 
La théorie synthétique de l’Évolution selon Sultan vous mènerait à regarder les adaptations de la Renouée comme le produit très peaufiné de la sélection naturelle. Si la plante pousse dans un environnement faiblement ensoleillé, alors la sélection naturelle va favoriser la plante avec des variances génétiques qui leur permet de s’adapter à cet environnement. Par exemple, une variation est des feuilles plus grandes pour capturer plus de photons. En revanche, les plantes qui poussent dans des environnements très ensoleillés vont s’adapter différemment à ces conditions. Si vous développez des Renouées génétiquement modifiées sous différentes conditions, alors vous aurez des plantes avec un comportement tellement différent qu’on a l’impression que ce sont des espèces différentes.
 
Les Renouées adaptent la taille de leurs feuilles selon la lumière du soleil qu’elles reçoivent. En plein soleil, les plantes auront des feuilles petites et denses, mais en faible lumière, ces feuilles vont s’agrandir et s’amincir. Sur un sol sec, ces plantes vont envoyer leurs racines profondément dans le sol pour chercher de l’eau et sur des sols immergés, ces plantes vont développer des racines comme des cheveux ébouriffés dans tous les sens qui vont rester à la surface.

La plasticité

Pendant la réunion, les scientifiques ont estimé que cette flexibilité, connue comme la plasticité, peut diriger l’évolution. Elle permet aux plantes de s’adapter à un certain nombre d’habitats où la sélection naturelle va ensuite adapter leurs gènes. Dans une autre présentation, Susan Antón, paléonantropologue à l’université de New-York, a déclaré que la plasticité a pu jouer un rôle important dans l’évolution humaine qu’on n’a pas remarqué jusqu’à présent. Et c’est parce que la théorie synthétique de l’Évolution a influencé l’étude de l’évolution humaine pendant les cinquante dernières années.
 
Les paléoantropologues tendaient à traiter les différences dans les fossiles comme le résultat de différences génétiques. Cela leur permet de dessiner un arbre évolutionnaire d’humains et leurs proches éteints. Cette approche possède de nombreux avantages selon Antón. À partir des années 1980, les scientifiques ont découvert que nos proches parents les plus anciens étaient courts avec un petit cerveau il y a environ 2 millions d’années. Ensuite, une lignée a pris de la hauteur et elle a évolué pour avoir des cerveaux plus grands. Cette transition a marqué l’origine de notre genre, les Homo.
 
Mais parfois, les paléoantropologues trouvent des variations auxquelles il est difficile de donner un sens. Deux fossiles pourraient se ressembler comme s’ils étaient dans la même espèce, mais ils sont différents dans d’autres aspects. Les scientifiques écartent habituellement ces variations comme étant provoquées par l’environnement. Nous voulions nous débarrasser de ces choses et remonter à leur essence selon Antón. Mais ces choses sont trop abondantes pour les ignorer. Les scientifiques ont trouvé une variété considérable de fossiles ressemblant à des humains il y a 1,5 million à 2,5 millions d’années.  Certains étaient grands tandis que d’autres étaient courts. Certains avaient de grands cerveaux tandis que d’autres en avaient de petits. Ils possèdent tous certaines caractéristiques de l’Homo dans leur squelette, mais chacun possède un assortiment de mélanges et de correspondances.
 
Antón pense que la théorie synthétique et étendue de l’évolution pourrait aider les scientifiques à donner un sens à ce profond mystère. En particulier, elle pense que ces collègues devraient considérer sérieusement la plasticité comme une explication de l’étrange diversité dans les fossiles des premiers Homo. Pour soutenir cette idée, Antón a pointé le fait que les humains actuels possèdent leurs propres plasticités. La qualité de la nourriture qu’une femme va consommer en étant enceinte peut influencer la taille et la santé de son enfant et ces influences peuvent durer jusqu’à l’âge adulte. De plus, la taille d’une femme, influencée partiellement par le régime de sa mère, peut influencer son propre enfant. Les biologistes ont découvert que les femmes, avec de longues jambes, tendent à avoir des enfants plus grands.
 
Antón a proposé que les variations étranges dans les fossiles puissent être des exemples dramatiques de la plasticité. Tous ces fossiles datent de l’époque où le climat de l’Afrique est passé par plusieurs changements. Les sécheresses et les pluies abondantes ont pu changer la chaîne alimentaire dans différentes parties du monde en provoquant des différences dans le développement des premiers Homo. La théorie synthétique et étendue de l’Évolution pourrait aussi donner un sens à un autre chapitre de notre histoire qui est l’apparition de l’agriculture. En Asie, en Afrique et aux Amériques, les personnes ont domestiqué les graines et le bétail. Melinda Zeder, une archéologue de la Smithsonian Institution, a présenté les problèmes de cette transformation.
 
Avant que les gens commencent à faire de l’agriculture, ils cueillaient et chassaient leur nourriture. Zeder a expliqué comment de nombreux scientifiques traitaient le comportement des cueilleurs selon la théorie synthétique de l’Évolution. Ce comportement était favorisé par la sélection naturelle pour avoir le meilleur rendement dans leur recherche de nourriture. Le problème est de déterminer comment un cueilleur va se transformer en agriculteur. Vous n’avez pas la même gratification que de prendre la nourriture et de la manger directement selon Zeder.
 
Certains chercheurs suggèrent que le changement vers l’agriculture a pu être provoqué par un changement climatique où il est devenu difficile de trouver les plantes. Mais Zeder et d’autres chercheurs n’ont pas trouvé de preuves d’une telle crise. Zeder estime qu’il y a un meilleur moyen de penser à cette transition. Les humains ne sont pas des zombies passifs qui tentent de survivre dans un environnement fixé. Ce sont des penseurs créatifs qui peuvent changer cet environnement. Et dans le processus, ils peuvent mener l’évolution dans une nouvelle direction.
 
Les scientifiques connaissent ce processus comme une construction de niche et de nombreuses espèces peuvent le faire. Le castor est le meilleur exemple, il coupe des arbres et il crée des barrages. Dans ce nouvel environnement, certaines espèces de plantes et d’animaux réussiront mieux que d’autres. Et ils vont trouver de nouvelles manières pour s’adapter à leur environnement. C’est valable pour les plantes et les animaux qui vivent à côté de l’étang du castor, mais également pour le castor.
 
Pour Zeder, ce fut une révélation quand elle a appris le phénomène de construction de niche. Les preuves archéologiques qu’elle et d’autres chercheurs ont collectées donnent un sens à la manière dont les humains ont changé leur environnement. Les premiers cueilleurs montrent des signes où ils ont déplacé des plantes dans la nature pour qu’elles soient plus proches de leur habitat. Et quand ils ont arrosé et protégé les plantes contre les herbivores, ces dernières se sont adaptées à leur nouvel environnement. De mauvaises herbes se sont mises à produire des graines. Et certains animaux se sont également adaptés pour devenir des chats, des chiens et d’autres espèces domestiquées.
 
Au fil du temps, l’environnement a changé en partant d’un endroit clairsemé de plantes sauvages à des champs denses. Cet environnement n’a pas seulement provoqué l’évolution des plantes, car il a aussi provoqué l’évolution culturelle des agriculteurs. Au lieu de rester des nomades, ils se sont réunis dans des villages pour qu’ils puissent travailler sur la terre environnante. La société est devenue plus stable parce que les enfants ont reçu un héritage écologique de leur parent et la civilisation a commencé.
La construction de niche est l’un des nombreux concepts proposés par la théorie synthétique et étendue de l’Évolution qui donne un sens à la domestication. Zeder a proposé plusieurs présentations allant des premiers agriculteurs jusqu’à l’évolution des plantes. On aurait dit une bonne campagne publicitaire de la théorie synthétique et étendue de l’Évolution.

Le retour à la sélection naturelle

Parmi les membres de l’audience, on trouvait un biologiste nommé David Shuker. Après avoir écouté les discours pendant un jour et demi, ce chercheur de l’université de St Andrews en a eu marre. À la fin d’un discours, il a levé la main. Le discours en question était donné par Denis Noble, un physiologiste qui a passé la plus grande partie de sa carrière à Oxford. Il a déclaré qu’il avait commencé comme biologiste « traditionnel », en considérant les gènes comme la cause ultime de tous les processus dans le corps. Mais ces dernières années, il a changé d’avis. Il a parlé du génome comme d’un organe sensible plutôt qu’un schéma pour la vie. Cet organe sensible pourrait détecter le stress et s’adapter pour faire face aux défis.
 
Pour illustrer sa vision, Noble a discuté de quelques expériences. L’une d’entre elles, publiée en 2015 par une équipe de l’université de Reading, montrait une bactérie qui pouvait nager en faisant tourner ses longues queues. En premier lieu, les scientifiques ont coupé un gène de l’ADN de la bactérie qui est essentiel pour construire les queues. Les chercheurs ont ensuite mis cette bactérie sans queue dans une boite de Petri avec une faible quantité de nourriture. La bactérie a consommé rapidement la nourriture dans son voisinage. Si elle ne pouvait pas bouger, alors elle mourrait. En l’espace de quatre jours dans ces conditions pénibles, la bactérie pouvait nager de nouveau. Une analyse poussée a montré que la bactérie pouvait développer de nouvelles queues. Cette stratégie produit un changement évolutionnaire rapide en réaction à un environnement hostile. C’est un système autonome qui active une caractéristique particulière qui se déclenche indépendamment de l’ADN.
 
Shuker n’a pas apprécié cette explication. Après le discours de Noble, il a demandé des explications sur le mécanisme qui explique cette découverte. Noble a balbutié pour répondre en disant que le mécanisme général concerne des réseaux, une régulation et une recherche désespérée d’une solution face à une crise. "Je vous conseille de lire notre papier" lui a répondu Noble.
 
Alors que Noble peinait à répondre, Shuker est allé consulter le papier sur sa tablette. Et il a lu l’abstrait du papier à voix haute. "Nos résultats montrent que la sélection naturelle peut reconnecter rapidement les réseaux de régulation". "Et donc, c’est un bon exemple d’une évolution néo-darwinienne" a-t-il conclu sur un ton ironique.
 
L’intervention de Shuker reflétait le sentiment général de nombreux sceptiques dans la conférence. Le changement de paradigme proposé par la théorie synthétique et étendue de l’Évolution était injustifié selon de nombreux sceptiques. Et certains ont même pris la parole.
 
"Je pense que je représente la vision Jurassique de l’Évolution" déclara Douglas Futuyma. Futuyma est un biologiste à la Stony Brook University et auteur d’un livre important sur l’évolution. En d’autres termes, il était la cible de nombreuses complaintes selon lesquelles les livres n’accordaient pas une grande importance à l’épigénétique et la plasticité. Futuyma a démontré pourquoi ces concepts étaient ignorés.
 
Nous devons reconnaitre que les principaux aspects de la théorie synthétique de l’évolution sont robustes et parfaitement prouvés. De plus, les principes biologiques discutés pendant la conférence ne sont pas nouveaux. Les architectes de la théorie synthétique de l’Évolution en discutaient déjà il y a 50 ans. Et il y a de nombreuses recherches dans cette théorie pour donner un sens à ce concept.
 
Prenons l’exemple de la plasticité. Les variations génétiques dans un animal ou une plante gouvernent la fourchette de formes dans laquelle cet organisme va se développer. Les mutations peuvent altérer cette fourchette. Et les modèles mathématiques de la sélection naturelle montrent comment elle peut favoriser certaines plasticités par rapport à d’autres. Mais si la théorie synthétique et étendue de l’Évolution est si superflue, alors pourquoi obtient-elle de l’attention pour justifier une conférence à la Royal Society ? Futuyma a suggéré que l’attirance est purement émotionnelle plutôt que scientifique. Cette théorie permet à la vie d’être une force active plutôt qu’un véhicule de mutations passives. "Je pense que lorsque nous trouvons que c’est agréable sur le plan esthétique ou émotionnel, alors ce n’est pas la base de la science" selon Futuyma.
 
Mais il a ajouté que le genre de recherche décrit pendant la réunion pourrait donner des aperçus intéressants sur l’évolution. Mais ces aperçus nécessiteraient beaucoup de travaux et de données. Il faut arrêter avec des essais et des papiers de position. Certains membres ont harangué Futuyma tandis que d’autres orateurs sceptiques étaient exaspérés par ces arguments qui n’avaient pas de sens.
Mais la réunion a pu finir au bout de trois jours sans en venir aux poings.
 
Selon Laland, c’est la première de nombreuses réunions à venir. En septembre 2016, un consortium de scientifiques en Europe et aux États-Unis a reçu un financement de 11 millions de dollars pour lancer 22 études sur la théorie synthétique et étendue de l’Évolution. De nombreuses de ces études vont tester des prédictions qui ont émergé de la théorie ces dernières années. Elles détermineront si des espèces, qui construisent leurs propres environnements, peuvent se transformer en des espèces qui ne le font pas. Ces études vont également analyser si la plasticité permet aux espèces de s’adapter à de nouveaux environnements. Nos critiques nous disent d’apporter des preuves et c’est ce que nous allons faire selon Laland.
 
Carl Zimmer - Traduction par Jacqueline Carpentier (Houssenia) de l’article publié dans Quanta Magazine.
 

 

Axel Kahn

Axel Kahn : "Que restera-t-il de l’esprit humain dans ce nouvel ordre numérique des choses ?"

J’ai abordé dans deux articles récents de mon blog les bouleversements intellectuels, sociaux et individuels liés à l’intervention de plus en plus massive et experte des « machines à penser », englobant sous ce terme l’intelligence artificielle servie par les big data et leurs algorithmes d’exploitation, dotée d’une capacité d’amélioration autonome de plus en plus vive et contrôlante, le cas échéant, des robots de plus en plus performants.

Dans « À quoi l’économie participative participe-t-elle ? », j’aborde la remise en question désormais de la notion de spécialisation et de compétence ; dans Intelligence humaine, intelligence artificielle : des vases communicants ?, je propose que la cause d’une tendance bien documentée depuis le début du XXIe siècle à la baisse des scores moyens aux tests de quotient intellectuel (QI) pourrait être que, intimidés par leur puissance, nos concitoyens laissent de plus en plus aux machines le soin de réaliser des tâches qui, lorsqu’ils les réalisaient eux-mêmes, contribuaient à développer leur mémoire et leur vivacité intellectuelle, paramètres qui interviennent dans les performances de QI.

En résumé, la masse des données stockées et stockables dans des mémoires informatiques est presque infinie, des supports durables sinon éternels sont en voie de développement rapide pour les conserver, là encore presque indéfiniment. Des algorithmes qui permettent d’interroger avec une subtilité croissante ces masses de données sont en développement permanent.

Grâce à des systèmes mimant certains principes de fonctionnement (mais bien entendu pas la nature) des circuits neuronaux, ces dispositifs gardent la mémoire des tâches qu’ils réalisent et des problèmes rencontrés, ils peuvent le cas échéant interagir avec d’autres ensembles de même type auxquels ils sont connectés, et accroître de la sorte et de manière autonome leurs performances, élargir le spectre de leurs possibilités. Il s’ensuit que l’innovation algorithmique et le perfectionnement des procédures deviennent dès lors potentiellement autonomes et, à terme, ne dépendront plus obligatoirement de l’intervention humaine.

La puissance de semblables systèmes est en théorie supérieure à celles de l’esprit humain pour toutes les tâches dont la réalisation repose sur la mémoire et la capacité de tester rationnellement un grand nombre d’hypothèses, d’autant que des éléments de stratégie réflexive, au départ d’origine humaine, sont susceptibles d’une amélioration progressive autonome. C’est pourquoi la machine est désormais appelée à l’emporter sur les meilleurs spécialistes concernés, et cela de manière irréversible, dans le jeu d’échec, de Go et toute autre activité de ce type. En effet, un appareil capable de prévoir les innombrables coups possibles d’un adversaire et le mérite comparé de toutes les répliques envisageables des dizaines de coups à l’avance est à l’évidence invincible, sa stupide capacité quantitative l’emportant sur la plus brillante des subtilités des joueurs expérimentés.

 

Le match Alphago – Lee Sedol. Prachatai/Flickr

Approche numérique et quantitative

Dans le champ scientifique, l’approche numérique et quantitative s’est imposée dans de très nombreux domaines ; j’ai déjà cité le clonage des gènes, les enquêtes de motivation des consommateurs et des électeurs, les études épidémiologiques. Sans ces outils nouveaux, pas d’astrophysique, de physique des particules, pas de modélisation des nouveaux modèles de voitures ou d’avions, etc. Les approches numériques modernes sont déjà, de manière balbutiante, et seront plus encore dans le futur à la base d’une révolution profonde des pratiques et de l’exercice médical.

En effet, aucun médecin, même le plus perspicace, doté d’une expérience exhaustive, ne pourra jamais à terme, pour parvenir au diagnostic difficile d’affections exceptionnelles qu’il n’a encore jamais rencontré, rivaliser avec des systèmes informatiques autoévolutifs. De plus, les perfectionnements impressionnants de l’imagerie ultrasonore, sa capacité aujourd’hui à non seulement voir mais aussi palper les organes, les innombrables robots d’analyse permettent de prévoir une intervention humaine de plus en plus limitée pour l’élucidation d’un diagnostic, l’établissement d’un pronostic et la déduction de la meilleure thérapeutique en fonction des paramètres relevés.

La question se pose par conséquent du champ – ou simplement du créneau – qui restera l’apanage de l’esprit l’humain dans ce nouvel ordre numérique des choses. Les premières réponses intuitives sont de l’ordre de l’émotion et de la fulgurance créative. Considérons tout d’abord l’émotion. Elle résulte en principe d’une interaction entre le corps et le psychisme, créée souvent par une perception et une sensation, ou bien le souvenir qui en reste imprimé dans la mémoire.

Or, la machine n’a pas de corps, elle ne ressent pas la rougeur qui enflamme les joues, la moiteur des aisselles et des paumes, elle ne sait ce qu’est la sensation de la tumescence des organes génitaux, ce que peut signifier le cœur qui se met à battre la chamade, la gorge qui « se noue », la notion du plaisir lui est étrangère. On peut bien entendu programmer une machine à ressentir des émotions « électroniques » mais nous n’avons nulle certitude sur la signification réelle du dispositif pour l’économie « psychique » de la machine, terme dont l’utilisation est ici contestable puisque l’univers psychique résulte d’un dialogue du corps et de l’esprit.

Pablo Picasso a déclaré que l’art était sexué ou n’était pas, affirmation en grande partie évidente. Or, l’intelligence artificielle est par essence asexuée, même si les programmateurs y introduisent des paramètres de genre, de toute façon ici déconnectés des sensations et des émotions. Jusqu’à plus amplement informé, le monde du corps, de la sexualité, des émotions et de l’art restent par conséquent l’apanage de l’humain. Le champ de l’émotion, élément important de la relation du médecin et de son malade, prendra sans doute dans l’avenir d’une pratique informatisée et robotisée de la médecine une place essentielle dans le rôle des praticiens, ce qui amènera à repenser en profondeur l’enseignement de la discipline.

L’analyse prospective basée sur les outils de connexion, les big data et les algorithmes est aujourd’hui la méthode principale d’accès à la prédiction des comportements individuels, en particulier à la motivation et aux déterminants d’achat des consommateurs. Ainsi, a-t-on suivi les différentes actions quotidiennes de quelques milliers de femmes enceintes : à quelle heure envoient-elles leur premier coup de téléphone, se connectent-elles sur les réseaux, quels sites consultent-elles, quels achats font-elles, où se déplacent-elles à l’extérieur, quels spectacles les attirent-elles, que lisent-elles, consomment-elles, etc. Et cela pendant plusieurs mois.

Les données sont stockées et des algorithmes dédiés créés, appliqués à la population féminine générale. Entre 95 et 98 % des femmes reconnues par les algorithmes sont enceintes et sont démarchées pour l’acquisition de produits de grossesse et de maternité. Le chiffre important est ici celui de 2 à 5 % des comportements individuels qui apparaissent échapper à la puissance des algorithmes. Ce phénomène d’un petit pourcentage de personnes dont les décisions et comportements échappent aux prévisions de l’analyse prospective la plus poussée conduit à formuler une hypothèse : et si cette petite proportion était la manifestation de l’aptitude humaine à la déviance, à l’originalité, à l’imprévisibilité, à la fulgurance créative ? Et s’il en avait de tous temps été ainsi ?

Fulgurance créative

L’immense majorité de notre vie se passe à refaire ce qu’on a toujours fait, ce qu’on nous a appris, à reproduire à l’identique ce qui existe déjà. Cela vaut aussi pour nombre d’œuvres ou l’imitation l’emporte sur l’innovation créative. De nombreux livres, qui ne sont pas simplement des romans de gare, ressassent à l’envie des situations éprouvées pour lesquelles l’appétence du public est notoire. Il en va de même pour nombres d’objets d’arts plastiques, de tableaux peints. Je n’ai aucun doute qu’un jour les « nègres » chargés de cette production, et si cela devient économiquement rentable, seront remplacés par des machines numériques dûment programmées et apprenant toujours grâce aux enquêtes sur l’évolution des goûts des gens.

Mais parfois, la fulgurance créative se manifeste « à la marge », un chef d’œuvre le cas échéant naît. Cela, c’est le domaine authentique de la créativité artistique, une des spécificités de l’esprit humain façonné par ses interactions avec les manifestations du corps, leur perception, les sensations et les émotions qu’elles engendrent, et ce monde-là, celui de la perception du beau, condition de sa création, n’apparaît pas accessible à la machine. Le même type de raisonnement vaut pour la fulgurance scientifique, la gravitation de Newton, la relativité d’Einstein, l’intuition mathématique d’un Ferdinand Jamin, etc.

Pour terminer, un mot de la morale, que l’on aurait volontiers tendance à ajouter aux spécificités irréductibles de l’humain. Cela n’est en réalité pas certain. Bien entendu, il est aisé d’injecter à un appareil les règles déontologiques ou les normes morales en vigueur. Mais qu’en est-il de l’acquisition spontanée par une société d’ordinateurs et de robots dotés d’intelligence artificielle d’un comportement altruiste, de l’établissement de relations électives. On peut en réalité la concevoir. Imaginons un groupe de dispositifs numériques soumis à un phénomène de sélection en fonction de leur niveau de performance.

Faisons maintenant l’hypothèse que ces machines interagissent et apprennent les unes des autres, ce qui accroît leur puissance et leur succès évolutif puisque, plus savantes, elles seront par là sélectionnées, les autres éliminées. Alors, les appareils qui auront le mieux échangé, ceux qui auront développé une vraie affinité « pour autrui », qui en d’autres termes seront dotés de la meilleure compétence sociale, seront les vainqueurs de la sélection, eux et leurs aptitudes à l’échange et à l’entraide dont la résonance morale apparaît évidente.

Après cette mise au point sur les relations entre l’homme et la machine, je suis conscient qu’il ne s’agit là que d’un « point d’étape », que l’univers numérique comporte encore beaucoup d’inconnues, la principale étant bien sûr de se demander si cela fera sens un jour de parler de « vie in silico ».

Axel Kahn, Directeur de recherche à l’INSERM, ancien président de l’Université Paris Descartes, généticien et essayiste, Université Paris Descartes – USPC

La version originale de cet article a été publiée sur The Conversation.

The Conversation

 

Donald Trump

Avec Trump, ça craint aussi pour l’innovation et le climat

Donald Trump est devenu le quarante-cinquième président des États-Unis. Ce que le monde craignait est arrivé. Les conséquences de l’accession au pouvoir de ce symbole de la montée en puissance de l’autoritarisme sont encore incalculables. Ce qui semble sûr, c’est que l’innovation et le climat vont en prendre un sacré coup.
 
En juillet dernier, 150 entrepreneurs, investisseurs et dirigeants de la high-tech américaine, tous ceux qui font le gratin de la Silicon Valley, avaient publié une lettre ouverte au vitriol. Parmi les signataires de cette lettre ouverte, on retrouvait des stars et des légendes : Steve Wozniak, le cofondateur d’Apple avec Steve Jobs, le fondateur de Twitter, celui d’eBay, de Wikipedia, etc. Un véritable who’s who de l’Internet et de l’économie numérique. La victoire du candidat républicain lors de l’élection présidentielle serait « désastreuse pour l’innovation ». 
 
Une lettre ouverte qui s’avère être un coup d’épée dans l’eau car la décision que de nombreux américains redoutaient est désormais entérinée. Elle ne fait pas le bonheur de tout le monde.
 
Trump n’est pas compatible avec les idéaux de ceux qui travaillent pour l’innovation : « Sa vision s’oppose à l’échange d’idées, à la libre circulation des personnes et aux relations productives avec le reste du monde qui sont vitales pour notre économie et représentent les fondations de l’innovation et de la croissance ».
La volonté affichée maintes fois par le candidat de fermer en partie Internet au nom de la sécurité nationale est pointée. Selon les stars de la high tech américaine, « Cela démontre à la fois un piètre jugement et l’ignorance de la manière dont fonctionnent les nouvelles technologies ».
 
L’autre sujet du courroux concerne l’immigration, sujet sur lequel Donald Trump a des positions pour le moins tranchées. Or la Silicon Valley est un melting pot où toutes la nationalité du monde se côtoient et travaillent ensemble. Chacun a sa chance de réussir, quelle que soit son origine. Cette pratique est devenue un emblème de la high-tech américaine à tel point qu’une demande récurrente des patrons de sociétés technologiques est l’élévation du quota d’immigrés pour assurer des postes d’ingénieurs hautement qualifiés. Les signataires soulignent : « Nous croyons qu’une politique progressiste en matière d’immigration nous aidera à attirer certains des plus brillants esprits sur Terre — des scientifiques, des entrepreneurs et des créateurs. En fait, 40 % des sociétés du classement de Fortune 500 ont été fondées par des immigrés ou par leurs enfants ».
 
Du côté du climat, l’arrivée de Trump au pouvoir laisse présager des jours sombres. Le futur président américain a maintes fois juré que, contre vents et marées, il demanderait la révision de l’engagement américain par rapport à l’Accord de Paris. "Des conneries", "un canular", … Ces derniers mois, le républicain Donald Trump a multiplié les déclarations contestant l'existence du réchauffement et le rôle de l'homme dans ce phénomène. "Je suis à Los Angeles et il gèle, le réchauffement est un canular total !", tweetait-t-il un jour de décembre.
 
"Tous les progrès que nous avons faits, entre autres, sur le climat (...) seront dans la balance mardi", a prévenu vendredi Barack Obama dans une interview télévisée. "Il serait malheureux que l'extraordinaire rôle moteur joué par les États-Unis ces dernières années s'arrête", dit le Maldivien Thoriq Ibrahim, porte-parole des petits Etats insulaires.
 
Mais Trump pourra-t-il vraiment engager une sortie de l'accord de Paris, un "Parexit", comme 400 scientifiques américains l'ont déjà baptisé dans une lettre ouverte exhortant leur pays à respecter ses engagements. Le pacte, en vigueur depuis vendredi, prévoit que les pays ayant ratifié - dont les États-Unis - ne pourront le dénoncer avant quatre ans (dont un de préavis).
 
Cependant rien n'empêche concrètement de tourner les talons, note Teresa Ribera, directrice de l'Institut du développement durable (Iddri) à Reuters : "Le Canada a bien quitté Kyoto! Et l'accord de Paris ne prévoit pas de sanction". Un départ américain n'invaliderait pas l'accord, soulignent les juristes interrogés par l'AFP. Mais "ce serait l'excuse parfaite (pour d'autres acteurs) de dire 'on s'en fiche'!". Pour elle, la seule élection de Trump menacerait le processus de paralysie, en tout cas d'un retard dommageable.
 
Pour le quotidien Les Echos, plus qu'une sortie formelle de l'accord, Trump risque surtout de ne pas appliquer les engagements pris par Obama, prévoient les experts. Aux mineurs américains craignant pour leur emploi, il a déjà promis qu'il supprimerait les mesures rendant obsolètes les vieilles centrales au charbon. Il a aussi promis de relancer l'extraction offshore de pétrole et de gaz.
 
 
Source Reuters
Image d’en-tête : CHIP SOMODEVILLA
 

 

Donald Trump autoritarisme

Les autoritaristes montent en puissance. Trump en est un symptôme

Vu de ce côté de l’Atlantique, cela ressemble à un mystère : pourquoi l’électorat américain soutient-il ce qui apparaît comme une extrême droite, populiste, remuante, et sans expérience politique réelle ? Comment expliquer ce courant qui embrasse des vues extrêmes et souvent bizarres, portées par un personnage semblant venu de nulle part et soudain devenu si populaire ? Ces questions on ne se les pose pas seulement aux États-Unis. En Europe aussi, des phénomènes analogues sont en train de se produire et interrogent. Le cas Trump est un signal qu’il faut prendre au sérieux pour comprendre ce qui se passe un peu partout dans le monde et dans notre pays en particulier. Il est le symptôme d’une force latente qui émerge : les autoritaristes.
UP’, le magazine des temps qui changent, ne peut manquer de s’interroger sur ce phénomène, à cinq jours des élections américaines.
 
Comment comprendre l’ascension énigmatique de Trump et surtout les soutiens qu’il agrège en bouleversant toutes les lignes démographiques qui délimitent habituellement les candidats : l’éducation, le revenu, l'âge, et même la religion ? Plus étrange encore que la montée de Trump, est la libération de la parole. Comment comprendre ces masses immenses de partisans du milliardaire américain, qui vont au-delà de lui dans l’outrance, et prennent des positions jamais vues de mémoire d’américain. Un sondage récent pour CBS News révélait que 75 % des électeurs républicains soutenaient l’interdiction des musulmans aux États-Unis. Un autre sondage de PPP révélait qu’un tiers des électeurs de Trump voulait interdire les gays et lesbiennes du pays. Ils sont 20 % à regretter que Lincoln ait libéré les esclaves !
 
Si le succès de Trump semble avoir pris tout le monde par surprise, il se trouve tout de même un petit groupe de chercheurs moins surpris que les autres. Un groupe qui, à la frontière des politologues et des psychologues, faisait depuis une quinzaine d’années un parallèle inquiétant entre les facteurs qui ont jadis permis, en Europe, l’émergence rapide de chefs autoritaires aux idées extrêmes —Hitler, Mussolini— et des paramètres similaires aux États-Unis.

L’autoritarisme, une force politique latente

Parmi ces chercheurs, deux universitaires politologues américains avaient vu venir le phénomène Trump dès 2009. Marc Hetherington et Jonathan Weiler avaient en effet publié en 2009 un livre qui suscite aujourd’hui un grand intérêt, Authoritarianism and Polarization in American Politics. Grâce à une série d’expériences et d’analyses de données électorales, ils sont arrivés à une conclusion surprenante : ce qui structure la polarisation de la vie politique américaine, ce n’est pas les variables traditionnelles souvent citées ou les systèmes de découpage électoral, ou le poids de l’argent des candidats. Non, ce qui structure la politique est une variable passée inaperçue mais qui touche pourtant un immense groupe électoral : l’autoritarisme (authoritarianism en anglais).
 
Les auteurs estiment qu’en se positionnant sur les valeurs traditionnelles de la loi et de l’ordre, le parti Républicain a ouvert une brèche qui a attiré plus ou moins inconsciemment une vaste population d’américains prônant des tendances autoritaires. Cette tendance s’est accélérée ces dernières années du fait des changements économiques et démographiques et notamment l’immigration. Cette tendance de fond a alors été activée brutalement et a fait émerger des groupes de plus en plus nombreux de citoyens recherchant un leader fort, capable de préserver le statu quo et éliminer les menaces qu’ils ressentent. Leur volonté est d’imposer un ordre à un monde qu’ils perçoivent comme étant de plus en plus étranger.
 
C’est sur cette tendance de fond que Trump a bâti sa popularité, en incarnant un leadership autoritaire des plus classiques : une autorité simple, puissante et punitive. Les électeurs voient en Trump celui qui incarne cette tendance, et le portent au pinacle, au point de faire imploser si ce n’est exploser le parti républicain lui-même.

Trump est un révélateur

Les autoritaristes, qui émergent en masse dans l’électorat américain, ont trouvé dans Trump le leader idéal, suffisamment fort pour défier les menaces avec vigueur, voire brutalité. Un leader aux caractéristiques totalement différentes de celles que l’on connaît dans la politique américaine, capable de bousculer toutes les normes de l’acceptabilité.
Trump n’est donc pas qu’un simple candidat. C’est le révélateur d’un mouvement tectonique extrêmement puissant. Pour les politologues qui ont mené cette étude, Donald Trump pourrait être juste le précurseur de nombreux autres Trump dans la politique américaine.  Et ailleurs.
 
Intrigué par ce phénomène révélé il y a près de sept ans par les deux universitaires, le magazine Vox a voulu approfondir la question en menant, en collaboration avec l’institut de sondage Morning Consult et d’autres médias de Washington, une grande enquête électorale. Les résultats qu’ils ont obtenus sont stupéfiants.
Ce qui apparaît avec une clarté remarquable est que Trump est incontestablement un symptôme : celui de la montée de l’autoritarisme. Ce n’est pas Trump qui est remarquable, mais ce qu’il révèle.

Qu’est-ce que l’autoritarisme ?

Depuis des années des chercheurs à la croisée des sciences politique et de la psychologie sociale se sont penchés sur le phénomène et notamment celui du nazisme, et ont posé cette question lancinante : comment les gens viennent-ils à adopter, en si grand nombre et si rapidement, les opinions politiques extrêmes qui semblent coïncider avec la peur des minorités et avec le désir d'un leader fort ?
 
Pour répondre à cette question, les théoriciens étudient ce qu'ils appellent l’autoritarisme : non pas les leaders eux-mêmes, mais plutôt le profil psychologique des personnes qui, dans les bonnes conditions, désireront certains types de politiques extrêmes et chercheront des leaders forts pour les mettre en œuvre. Cette recherche a culminé en 2005 avec la publication de l’ouvrage de l’Australienne Karen Stenner, professeur en psychologie politique, The Authoritarian Dynamic.
 
Selon cet auteur, il existe des sous-ensembles d’individus qui développent des tendances autoritaires latentes. Ces tendances sont « activées » ou déclenchées par ce qu’elles considèrent comme des menaces physiques ou des menaces mettant en péril la société. Dans ces circonstances, ces individus, quelle que soit leur appartenance sociale ou politique antérieure, sont conduits à désirer et soutenir des politiques extrêmes et des leaders forts.
Comme le résume Jonathan Haidt, de l’Université de New York :
« Dans le cas d’une menace, ils appellent à fermer les frontières, à jeter dehors ceux qui sont différents et punir ceux qui sont moralement déviants. »

Au-delà des clivages habituels

Pour les politologues, ce que l’on peut nommer les « autoritaristes » constituent un véritable ensemble qui existe indépendamment de Trump ou d’un leader spécifique, qui se situe à un autre niveau que celui des habituels clivages ou familles politiques mais qui persistent comme une force latente dans la société. Ce qui les caractérise principalement est leur recherche d’un ordre dans le chaos du monde. Toutes les situations qui représentent un danger pour le maintien de cet ordre (diversité, afflux d’étrangers, dégradation perçue de valeurs anciennes, etc…) sont vécues comme autant de menaces qu’ils ressentent personnellement et qui compromettent leur sécurité la plus élémentaire.
Dans ce cas, sans tenir compte de catégories idéologiques ou partisanes traditionnelles, ils affluent vers celui qui saura, par la force de son tempérament et des actions décisives, les protéger de ces menaces. Donald Trump joue ce personnage à tel point qu’il en est devenu l’incarnation archétypale.
 
Pour Karen Stenner, « autoritarisme » ne doit pas être confondu avec « conservatisme ». Cette confusion serait la raison pour laquelle les analyses politiques traditionnelles n’auraient pas vu venir le phénomène Trump. Le conservatisme se définit par une aversion à l’égard du changement ; c’est un mouvement qui peut englober des individus d’ethnies et de religions différentes, pour autant qu’ils entrent dans le cadre des « valeurs traditionnelles ». Alors que l’autoritarisme se définit par une aversion à l’égard de groupes perçus comme responsables de cette menace : il ne s’agit pas, à proprement parler de racisme, mais plutôt du ciblage d’un bouc émissaire du moment —et en ce moment, aux États-Unis, c’est le musulman ou l’Hispanique.
La caractéristique principale de ce groupe des « autoritaristes » est qu’il est transpartisan. Il se situe au-delà du clivage gauche-droite, et recrute ses partisans sur les franges de droite comme de gauche des échiquiers politiques. Aux États-Unis, ce groupe polarise la vie politique au-delà de la distinction entre républicains et démocrates. Certes le parti républicain en génère la plus grosse partie, notamment à cause de son virage à droite avec l’ascension du Tea Party, mais tous les autoritaristes ne se reconnaissent pas dans le Tea Party.

Une force considérable mais inaperçue

Plusieurs chercheurs ont essayé de comprendre pourquoi ce groupe de citoyens ne s’est pas manifesté plus tôt, pourquoi est-il passé presque inaperçu alors qu’il possède une taille considérable. Comme ils n’émergent pas facilement des sondages par des questions telles que « avez-vous peur des musulmans », des politologues comme Stanley Feldman ont donc commencé dans les années 1990 à poser des questions plus pointues, telle que « qu’est-ce qui est le plus important pour un enfant : être indépendant ou avoir du respect pour les aînés ». Des questions qui, par fragments, tentent de dégager un portrait impressionniste des valeurs par lesquelles une personne se définit. C’est de ces sondages que s'est dégagée l’image d'un courant de fond « autoritariste » passé inaperçu et qui n’aurait attendu que les bonnes circonstances pour être « activé ».
 
Combien sont-ils ? Avec le tiers des votes dans les primaires républicaines, Trump a-t-il fait le plein, ou bien le mouvement peut-il continuer de croître ? Et dans l’hypothèse où Trump perde, que va-t-il se passer après l’élection de 2016 ? Le magazine Vox a tenté de répondre à ces questions dans une enquête exclusive. Il s’en dégage que 44% des Blancs se retrouvent dans les cases « beaucoup » ou « très » autoritaristes, mais qu’ils ne votent pas tous —ou plus précisément, que leur vote sera orienté s’ils perçoivent, ou non, une menace. Or il se dégage justement aujourd'hui qu’ils sont plus nombreux à avoir beaucoup plus peur de l’État islamique, de la Russie ou de l’Iran que d’un accident de voiture, par exemple. Ils sont aussi plus nombreux à avoir peur du changement social : 44% définissent le mariage gai comme « une menace pour le pays ». Ils sont surtout républicains —mais un tiers seraient démocrates. Il s’agit, en bref, d’un mouvement « qui existe indépendamment de Trump », écrit la journaliste Amanda Taub dans Vox : « Si Trump perd l’élection, ça n’éliminera pas les menaces et les changements sociaux qui activent « l’appel à l’action » de l’autoritarisme. Les autoritaristes chercheront des candidats qui leur donneront le leadership fort, punitif, qu’ils désirent. Ce qui veut dire que Donald Trump pourrait être le premier de plusieurs Trump en politique américaine, avec des implications profondes pour le pays ».
 
 
Sans nul doute, cette analyse n’est pas exclusive aux États-Unis. Les mouvements autoritaristes émergent partout en Europe ; en France, le Front national qui cherche à cristalliser ce courant latent, occupe une part importante de l’électorat. Ce que ces études enseignent c’est le caractère latent de ces mouvements. Ils ne sont pas forcément conduits par les personnalités politiques (elles ne sont que des « déclencheurs »), ces forces ne peuvent s’inscrire sur les échiquiers politiques traditionnels (elles sont sous-jacentes), ni dans les catégories dans lesquelles on les place habituellement, par facilité, comme le populisme par exemple (le populisme est la haine des élites ; or le milliardaire Trump en est le parangon), leurs réactions sont imprédictibles car elles participent de la logique du chaos plus que de celle de la raison. Avec les crises qui se télescopent —économiques, des réfugiés, des États-nations, des partis politiques, menaces du terrorisme islamiste—  les conditions chimiques de la précipitation de ce composant latent apparaissent plus que jamais réunies.  
 
Illustration : Gage Skidmore, Javier Zarracina/Vox
 

 

intelligence artificielle

Convocation de la psychanalyse dans le monde de l'intelligence artificielle

Au moyen de cet article nous aimerions présenter le travail de Paul Jorion sur les systèmes intelligents, puis ouvrir cette présentation sur les réseaux de neurones, puisque ces deux parties s’inscrivent dans une histoire commune continuée, celle de l’intelligence artificielle, qui en est à ses débuts, mais déjà traversée de ruptures.
Photo : Film Ex Machina de Alex Garland, 2015
 
« Et d’une certaine manière, moi je n’ai pas vraiment regretté de quitter l’intelligence artificielle à ce moment-là, au moment où je l’ai quittée, parce que je m’étais engagé dans une voie absolument différente de tout le monde. On verra si un jour on appelle ça « novateur », mais à ce moment-là, bon, j’ai fait la chose qui surprenait tout le monde. Les gens qui travaillaient autour de moi, ils avalaient des gros traités de logique formelle, et moi j’ai dit : « Eh bien, on va prendre Freud et Lacan et on va faire marcher une machine à partir de ça. » Voilà ! Alors, c’était l’époque où dans le domaine des scientifiques – je ne parle pas de la société dans son ensemble – la psychanalyse, ça passait pour un truc de charlatans. Ça va changer, bien entendu, on va se rendre compte que la psychologie dont on a besoin dans ce domaine de l’intelligence artificielle, et ça, je l’ai déjà dit dans mon bouquin que j’ai écrit en 89, « Principes des systèmes intelligents », le type de psychologie dont on a besoin pour rendre des machines intelligentes, c’est le type de compréhension qui vient de Freud, de Lacan, de Mélanie Klein, enfin un certain nombre de personnes qui ont réfléchi à ces trucs-là. »  
Paul Jorion, tiré de son blog - 5 déc 2014 (Le temps qu’il fait).

Paul Jorion

Langage, langage-machine, pensée, apprentissage et  personnalité

« Machine learning », machines auto-apprenantes
 
La séance inaugurale de la chaire annuelle du Collège de France : informatique et sciences numériques a eu lieu au début du mois de février 2016. Menée par Yann Lecun, elle portait sur l’intelligence artificielle, et plus précisément sur l’apprentissage profond, encore appelé « deep learning » [1]. Il se passe donc quelque chose du côté des machines qui trouve à se faire entendre d’une institution étatique comme pour en valider, légitimer l’importance enfin prise en considération ; une chose qui par ailleurs tend à venir effacer une limite jusque-là tenue pour inattaquable et qui séparait le sujet humain de la machine par rapport à la possibilité de l’auto-organisation, et, pour en simuler de plus en plus parfaitement et finement les effets [2] à travers l’activité noétique de l’apprentissage. Ainsi, une dernière étape serait en passe d’être  atteinte [3], et une autre vieille séparation tomberait plus ou moins totalement (qui jouait l’auto-organisation évolutive du vivant contre la fixité des programmes des machines car jusqu’à présent celles-ci n’étaient pas capables d’évoluer et d’apprendre par elles-mêmes, il fallait les superviser), effet dont il est difficile de prévoir les conséquences sur les sociétés (en terme métaphysique, social, affectif, catégorial, économique, technique). Mais cela est déjà réfléchi, analysé, discuté dans les divers endroits du monde et il se pourrait que chaque société ne réagisse pas de la même façon au défi lancé par ces machines et à celui de leur intégration au corps social, cela en fonction de la singularité des régimes axiomatiques propres à chacune.
 
Informatique et effet d’intelligence
 
Au moment où nous écrivons ce papier nous n’avons pas écouté les conférences dont nous faisons mention plus haut, mais nous voudrions partir de là, de cet événement institutionnel pour parler d’un livre qui fut écrit par Paul Jorion (par ailleurs anthropologue et économiste) en 1989 et qui porte le titre : "Principes des systèmes intelligents" [4], parce que celui-ci a opéré sur nous comme une véritable secousse. Il nous semble avoir abordé - parmi les tous premiers - l’intelligence artificielle d’une autre façon, articulant plusieurs éléments (dont certains mêmes peuvent apparaître étrangers à la discipline informatique) mais qui concourent à construire ce qu’il appelle : l’effet d’intelligence.
 
 
« Effet d’intelligence » [5], car Jorion ne se demande pas ce qu’est l’intelligence, il ne cherche pas à en fournir une définition achevée ni à en dégager une essentialité, mais plutôt à repérer ce qui dans le réel est tenu par les humains pour de l’intelligence, ce qui fait impression d’intelligence. C’est donc du point de vue du vécu humain, du point de vue phénoménal et immanent pourrait-on dire qu’il aborde le problème. En procédant ainsi, il se demande quelles conditions doivent être remplies par les systèmes machines inorganiques dans leurs opérations internes pour que les humains puissent dire une fois placés devant : – cet ordinateur est intelligent, il pense, son intelligence est semblable à la mienne. Et nous verrons que dans les principes qu’il a dégagés pour parvenir à cet effet de similarité, certains sont devenus par la suite, les principes fondamentaux des branches filles des systèmes intelligents « princeps », et dont toutes ont la particularité de s’éloigner – à des degrés divers - des systèmes experts, pour être des systèmes auto-apprenants ou encore évolutionnaires.
Nous reviendrons sur ces systèmes un peu plus tard ; suivons pour le moment les traces de Paul Jorion qui vont nous mener – par la problématique du langage et de sa conceptualisation à travers la psychanalyse entre autre, c’est cela qui nous parut étrange et qui nous intéressa en première instance - vers les systèmes apprenants que l’on appelle aujourd’hui les réseaux de neurones ainsi que la méthode : programme génétique [6].
 
On pense parce que l’on parle ?
 
Dans son introduction, Paul Jorion s’interroge sur le langage, sa place par rapport à la pensée et il se demande, en terme de chronologie - si l’on pense parce que l’on parle, ou si l’on parle parce que l’on pense ? Et face à cette alternative, il choisira de poser et questionner l’antériorité des mots, de poser que la pensée émerge à partir des mots et il formule sa problématique ainsi : « Autrement dit, et si la pensée résultait de l’auto-organisation de mots ? » Ce qui sera l’hypothèse de son livre. Une hypothèse forte.
Hypothèse qui lui servira pour développer un autre type de modélisation du langage dans les systèmes intelligents et sur lesquels il va d’ailleurs lui-même travailler [7].  Un autre langage donc, et qui « serait comme la production d’un discours cohérent résultant de l’exercice dynamique de contraintes sur un espace de mots. ». Il faut alors trouver comment structurer les machines pour qu’elles puissent suivre une telle procédure et pour qu’elles puissent se mettre en mouvement dans un tel espace.
 
Lorsqu’un humain s’adresse à une machine et lui pose une question, c’est pour obtenir une réponse, une information qu’il ne possède pas, mais cette réponse dit Paul Jorion, peut être de deux types. Soit elle ne surprend pas et répond simplement à la question et à l’attente du questionneur. Soit elle surprend et donne l’impression que la machine a saisi plus que l’explicite de l’énoncé, et « qu’elle confronte l’humain au débordement habituel du désir par rapport à la demande ».
Cela pour montrer que si nous voulons qu’une machine donne d’elle-même une impression autre que machinique, il faut qu’on la structure selon certaines caractéristiques dans lesquelles, par ailleurs, pointent étrangement des notions qu’on retrouve dans le champ de la psychanalyse. Mais nous précisons que ce n’est pas le cas avec toutes les caractéristiques. Nous allons les énumérer succinctement.
 
Première caractéristique : obligation pour un système intelligent de disposer d’un savoir (une base de données), puis d’être à même de transmettre son savoir (interface en langue naturelle orientée sortie), puis d’être à même d’acquérir un savoir (extraire une connaissance de ce que l’utilisateur ou l’environnement lui transmettent, grâce à un parseur et un module d’apprentissage), puis savoir interroger l’utilisateur, puis ne pas imposer son savoir mais le négocier (arriver à déterminer le degré d’adhésion de l’interlocuteur), et enfin avoir une personnalité propre.
Certaines caractéristiques, on l’observe, semblent malaisées à attribuer à une machine et participent de  l’effet que Paul Jorion appelle : intention, c’est-à-dire que le système a pris une initiative. Il n’a pas eu un comportement « machinique » habituel, et par ailleurs il a proposé l’information la plus pertinente ici, c’est-à-dire la plus fine par rapport au contexte, il s’éloigne du stéréotype. La dernière caractéristique est celle qui est de plus haut niveau, c’est elle qui donnerait cette impression qu’une « personne », qu’une pensée et une intelligence comme humaine s’y trouvent[8]. La machine aurait donc une personnalité et serait capable d’auto-organisation.
 
 
Mais comment construire une telle machine ?
 
Des systèmes symboliques aux systèmes sémantiques : un pas vers l’associationnisme
Tout d’abord, il faut préciser que les systèmes intelligents qui en seraient capables, ne sont pas ceux que l’on appelle les systèmes experts (dit encore symboliques, ce que sont nos ordinateurs actuels), mais d’après Jorion, des systèmes sémantiques devenus mnésiques. Un système mnésique repose sur plusieurs postulats en ce qui concerne à la fois le langage, la mémoire et les affects. Nous allons donner des précisions quant à chacun de ses aspects au cours de l’article.
 
Concentrons-nous d’abord sur le langage
Prenons un discours. Soit nous pouvons l’envisager du côté de la signification [9], soit nous pouvons l’envisager du côté du signifiant et plus encore comme un parcours séquentiel à l’intérieur d’un espace de signifiants (indépendamment de leur signification), c’est-à-dire pour reprendre les mots de Paul Jorion, que le langage serait « comme un chemin tracé sur un lexique compris comme la liste de tous les mots d’une langue ». Mais alors une question se pose, si ce n’est pas la signification des mots qui importe pour leur association, et si ce n’est pas ce à quoi ils renverraient du monde et des choses qui importe, selon quelles règles associatives pouvons-nous alors les articuler en tenant compte par ailleurs du plan de linéarité temporelle qu’est la parole, la phrase ou l’énoncé ?
Plusieurs options se présentent. La méthode dite du singe : « qui explore les tirages d’une vaste combinatoire ». La méthode dite des règles : « qui se donne a priori un ensemble tout fait de contraintes auxquelles le parcours sera soumis. Cette méthode nous la connaissons bien puisque c’est là que nous retrouvons les différentes contraintes : d’ordre syntaxique (l’ensemble des mots de la langue sont partagés en partie du discours), d’ordre  sémantique qui correspond à l’organisation interne de la langue, ex le verbe «  penser » exige comme sujet un substantif dénotant un être animé. D’ordre pragmatique, c’est la dimension proprement dialectique qui pose que d’une phrase ne peut pas suivre une autre phrase dont le sens est sans rapport ou qui la contredit. Cela correspond au sujet des topiques de l’organon  d’Aristote.
Puis pour finir les contraintes d’ordre logique. Mais comme le dit Jorion : « cette méthode demande qu’avant même de pouvoir générer une phrase, il aura fallu construire un système immense en termes de règles et de métarègles stockées et qui exige pour un simple fonctionnement un temps de traitement inacceptable. »
Le cerveau humain ne fonctionne pas comme cela. La production d’une phrase pour un être humain ne prend que quelques dixièmes de seconde. Il faut donc envisager la dernière méthode, celle du : coup par coup, et c’est là que nous retrouverons une intuition de la psychanalyse (celle de l’association libre) par rapport au langage, et aux signifiants. Ici, nul n’est besoin de définir des règles a priori, il faut seulement un principe qui permette de déterminer une fois que l’on a posé un mot, lequel pourra être le suivant. Et « on peut imaginer que soient en place de manière constante des chenaux et des chréodes, des passages privilégiés pour se rendre d’un mot à un autre ». Ici, il faut donc raisonner en terme de trace, comme si pour aller d’un endroit à un autre, d’un mot à un autre, nous empruntions toujours le même petit chemin et qu’à force la végétation se soit arasée, le passage d’un mot à un autre renforcé, et pour la suite, en découlerait une facilité d’association [10] ; Paul Jorion pense que le cheminement de la pensée s’effectue de la même façon, à savoir qu’une fois posé le point de départ, en l’occurrence, un mot, et bien le chemin qui se déploie à sa suite est en quelque sorte indiqué et c’est lui que nous emprunterions plutôt que de couper à travers la forêt, c’est-à-dire plutôt que de choisir un nouveau mot ( la poésie, elle essaie de sortir de ces chenaux). Mais ajoutons tout de suite, que ce chemin n’est pas de toute éternité déjà présent, qu’il est le résultat d’une vie singulière, d’une construction, d’un apprentissage et d’une mémoire qui se constitue tout au long d’une vie. Pour le dire autrement nous ne naissons pas avec déjà conçus tous ces chemins, mais seulement une structure qui en permet la progressive instauration, cette structure étant le réseau de nos neurones et de nos synapses (nous y reviendrons un peu plus tard). Et déjà nous pouvons saisir que le lien de concaténation des signifiants, n’est pas le résultat d’une application de règles a priori ( comme pourrait le laisser supposer la grammaire que l’on apprend à l’école) mais d’un frayage plus ou moins souvent réalisé entre deux signifiants au cours d’une vie (selon les paramètres de l’apprentissage qui  en font la singularité individuelle), et par là nous voyons le lien direct qui s’effectue, entre le fait de passer d’un signifiant à un autre, et la mémoire, car le frayage dont nous avons parlé relève de la mémoire.
 
Ressaisissons maintenant rapidement les choses pour pouvoir poursuivre
La première hypothèse suivie fut :
– Des signifiants émerge la pensée et non l’inverse [11]
La deuxième hypothèse fut :
– Ce qui détermine l’intensité des liens entre les différents signifiants (on abandonne le plan de la signification) lorsqu’ils font discours, c’est-à-dire le passage de l’un à l’autre dans un énoncé, c’est une association, non pas axiomatique et a priori, pas non plus une combinatoire aléatoire, mais le fait de créer une facilité de passage, un renforcement, une habitude de liens, et en cela la mémoire joue un rôle primordial.
 
Associationnisme
 
A partir de là, nous pouvons envisager les choses sous l’angle de l’associationnisme pour qui, « il n’est que simple gradation de la remémoration à la génération d’un discours ordinaire, en passant par le raisonnement ». Nous pouvons penser ici à un terme posé par Freud au moment où il s’est départi de l’hypnose au profit justement de : « l’association libre », dont, et nous citons Paul Jorion, « Loriginalité par rapport à la doctrine d’un langage de la pensée, c’est de s’être rendu compte que ce qui peut être étudié avec toute la rigueur scientifique, ce n’est pas l’association des idées, mais l’association des images et surtout dans leur supposition matérielle ».
Nous insistons, c’est important, car ce dont on se préoccupe alors ce n’est plus de l’association des signifiés mais de celle des signifiants qui font bascule vers d’autres signifiants.  Et par ailleurs, il faut encore ajouter que, si nous sommes bien inscrits avec cette théorie à l’intérieur d’un espace de mots, il n’est pas possible comme le dit Paul Jorion : « de ne pas s’occuper d’un élément qui joue un rôle essentiel dans les enchaînements associatifs, à savoir la production d’images, car c’est ce qui se passe chez l’être humain. En effet, certains mots ont une capacité à évoquer une image, « ex : quand nous entendons « pommes », nous hallucinons l’image d’une ou plusieurs pommes ».
 
 
Suivant cela il y a donc plusieurs modalités d’enchaînements possibles : De mot à mot, de mot à image, d’image à mot, d’image à image. Et cela encore sous deux régimes, sous le régime de l’inconscient (intuitif et automatique) et sous le régime de la conscience. Paul Jorion déclinera encore les différents types d’enchaînements associatifs qui peuvent être : Matériels (acoustiques, graphiques), sémantiques (synonymie, inclusion, connexion simple, traduction, etc.), mais ajoute-t-il : « il est peut-être mieux de se passer de ce mécanisme pour la modélisation d’un système intelligent». Est-ce à dire que nous irions trop loin dans le mimétisme, parce que ce serait trop compliqué à traduire pour l’instant dans une structure machine ou… nous ne savons pas mais Paul Jorion de conclure provisoirement que « pour les langues qui nous sont familières (il montre ailleurs dans le livre comment pour le langage chinois par exemple cela fonctionne autrement), l’enchaînement associatif -qui est requis ici en tant que modèle pour les systèmes intelligents, reflète des relations d’inclusions, d’attribution et de synonymie exprimées à l’aide de la copule « être », et de « connexion simple » exprimée à l’aide de la copule « avoir », cela même qu’il va falloir essayer d’implémenter dans la machine.
 
L’associationnisme dont il a été question ici, et qui peut servir de modèle pour construire un nouveau type de système intelligent, pour autant ne traite que d’un aspect du problème car il faut encore penser le milieu dans lequel il peut se déployer, et nous passons à la problématique de la structure, à celle de l’espace, à celle de la topologie qui devra être traduite en termes d’objets mathématiques.
 
Mais ce milieu, quel est-il ?
Structure évolutive (P-dual d’un graphe).
D’abord il doit être réseau mnésique [12], c’est-à-dire qu’il doit stocker des signifiants de la manière la plus économique, mais il faut ajouter qu’à son début, puisque nous essayons de construire des machines qui imitent l’intelligence humaine, il faut aussi et paradoxalement que ce réseau n’existe pas « trop », qu’il ne soit pas déjà formé/achevé et ce, comme pour un tout petit enfant où ce qui est mis en mémoire est encore assez réduit. Et la question se pose de l’inscription  d’une première trace mnésique qui agira comme germe, car le réseau va évoluer, apprendre et se modifier, sinon il serait comme un système expert, comme nos ordinateurs, ce dont nous essayons précisément de nous éloigner. Et c’est à partir du chenal, que l’on va poser des exigences pour parvenir à cet effet.
 
Le chenal (passage d’un signifiant à l’autre) ne  doit plus s’effectuer selon la séquence « sommet/arc/sommet », mais « arc/sommet/ arc ». Ce qui fait du réseau sémantique, un réseau mnésique [13]. Cette transformation est rendue possible grâce à un nouvel objet mathématique le « P-dual » d’un graphe. Nous ne maîtrisons pas cet objet et renvoyons donc le lecteur à d’autres travaux s’il souhaite approfondir cet aspect.
Mais en terme opératoire cela permet deux choses très importantes, tout d’abord la délocalisation des signifiants, on ne pense plus leur situation à tel endroit, mais plutôt leur situation entre tel et tel endroit. Ajoutons tout de même que le phénomène de délocalisation ne peut être complet, c’est-à-dire qu’aucune représentation ne peut être entièrement délocalisée. Et deuxièmement la distribution, qui permet au signifiant de s’inscrire dans une multiplicité d’enchaînements associatifs, inscription qui n’aura pas pour autant dans chaque cas le même poids. Paul Jorion prend cet exemple : « le signifiant ‘’pomme ’’ » est pondéré différemment s’il apparaît entre ‘’prune’’ et ‘’poire’’ et s’il apparaît entre ‘’Eve’’ et ‘’Adam’’. La charge affective peut être différente, et si on traduit cela en terme d’adhésion, cela veut dire que l’insertion d’un signifiant dans telle ou telle chaîne associative ne reçoit pas la même intensité, il y a des enchaînements associatifs qu’on accepte de remettre en question et d’autres pour lesquels c’est beaucoup plus difficile. Paul Jorion qualifie les premiers de « savoir », en ce qui les concerne on peut accepter sans trop se faire violence de les modifier, par exemple c’est ce que fait la science quotidiennement lorsqu’elle émet des énoncés de vérité, qu’elle modifie par la suite, lorsque la théorie précédente se trouve infirmée ou qu’elle est devenue moins efficace en terme de puissance de généralisation face à la nouvelle. En revanche, il y a des enchaînements associatifs, et on l’observe bien chez l’être humain, qui coûtent énormément lorsqu’on doit les remettre en cause, parfois c’est même impossible ; Paul Jorion appelle ces enchaînements des « croyances » et nous citons : « la croyance au contraire [du savoir] est d’inscription centrale et seulement modifiable de manière « catastrophique » ; par la conversion, qu’il faut considérer alors comme modification des connexions existant entre les éléments qui sont chronologiquement les premiers. La conversion s’observe bien entendu chez les êtres humains, généralement au prix d’une consommation énergétique tout à fait considérable, c’est ce que Freud appelle la « Nachträglichkeit », l’après-coup de telles restructurations.
 
Ainsi, si nous voulons construire une intelligence artificielle qui imite en ses effets l’intelligence humaine, c’est tout cela qu’il faut prendre en considération et qu’il faut essayer de modéliser dans la structure machine. Un réseau mnésique, ainsi que l’appelle Paul Jorion, doit posséder en sus des systèmes informatiques dits « experts », deux traits : la capacité d’apprentissage et la capacité à négocier avec l’utilisateur en fonction – ce dont nous venons de parler- des degrés d’adhésion que celui-ci prête à ses énoncés. Il faut donc que la machine soit capable en quelque sorte de « percevoir » la charge affective, et le degré d’enracinement d’un énoncé dans le réseau mnésique de son interlocuteur, ce n’est que se faisant qu’elle pourra donner l’impression à l’humain qu’une semblable intelligence (même si machinique) se tient face à lui, ou encore qu’une personne se tient face à lui. Nous avions posé au tout début de l’article, qu’il fallait que le système intelligent ait « comme » une personnalité. Il faut donc aussi lui implémenter une modélisation de la psyché humaine. C’est pourquoi la psychologie et la psychanalyse doivent rencontrer l’informatique. Et c’est ce que tente Paul Jorion.
Maintenant retraçons le parcours ici effectué avant d’ouvrir vers ce que nous annoncions, à savoir les réseaux de neurones.
 
Effet de personnalité : structure ouverte et frayage
 
La nouvelle intelligence artificielle doit faire effet d’intelligence, de personnalité. Pour cela, elle doit imiter le fait humain qui reste toujours (disons dans des conditions plus ou moins normales et sereines) un système ouvert, auto-apprenant, qui se modifie par lui-même et au contact des autres et du monde, mais qui possède un caractère, et donc aussi une sorte de noyau structurel peu modifiable. Il faudra arriver à simuler ces deux aspects ; évolutif et figé.
Le réseau mnésique de la machine devra posséder une structure (le P-dual d’un graphe) dans laquelle les signifiants viendront s’ajouter au fur et à mesure de l’exercice de la machine, eux-mêmes pouvant modifier en retour les associations déjà tracées entre les signifiants présents, ainsi que se modifier eux-mêmes.
 
 
Par ailleurs, cette structure mnésique très ouverte (incomparablement plus ouverte que celle des systèmes experts) devra, pour ne pas partir en « tout sens » comme le dit Paul Jorion, être : « domestiquée ». C’est-à-dire que le discours engendré ne pourra pas être, en chacune de ses bifurcations, le résultat d’un choix hasardeux. Il faudra que le parcours soit « informé », « motivé ». Qu’il soit, à l’intérieur de l’espace du lexique, un sous-espace de parcours privilégiés, et cette motivation du choix s’opérera selon deux paramètres [14].
 
Tout d’abord selon l’affect. Paul Jorion va prendre modèle sur la théorie des affects de Freud pour donner sa structure singulière au réseau mnésique, en tant que c’est cette charge affective qui orienterait les passages d’un signifiant à l’autre, en tant aussi que ce serait lui le responsable de la dynamique et de la plus ou moins profonde inscription du signifiant dans le réseau mnésique et donc par-là, de sa propre structure. Pour Freud tout enregistrement d’un percept (visuel, auditif) passe par le système limbique qui lui donne cette petite charge affective, et qui fait qu’il s’inscrit plus ou moins fortement en nous (pensons à la madeleine de Proust et à l’enchaînement associatif qui s’en est suivi en terme d’énoncé romanesque des dizaines d’années plus tard). Car pour Freud : « la mémoire est représentée par les frayages entre les neurones […] le frayage dépend de la qualité d’excitation qui traverse le neurone au cours du processus, et le nombre de fois où le processus se répète ».
Ainsi, on peut penser que ce sont les impressions qui ont agi le plus fortement sur nous qui nous déterminent le plus, qui nous font dire telle chose plutôt que telle autre, qui nous font associer un signifiant avec un autre. Il faudra donc pour orienter le choix lors d’une bifurcation au sein de la machine, donner comme une pondération affective, et transposer ce que Freud nomme la « Bahnung » (le frayage) de la psyché humaine, en renforcement hebbien [15] dans la machine.
Ainsi, on stockerait dans la machine au niveau de l’arc deux valeurs, l’impédance qui correspondrait à la valeur d’affect et la résistance qui serait l’inverse du frayage et ce faisant, on associe à l’arc, non pas une valeur mais un vecteur. Mais par ailleurs, avec l’affect, ce qui entre en jeu, c’est la perception et donc la représentation du monde à travers les organes et les tissus d’un corps [16]. Il va donc falloir que la machine s’équipe d’une interface qui soit en prise avec les phénomènes du monde et qu’elle ne soit plus seulement une machine de langage. Cela sera le cas avec les machines de type « réseau de neurones »,  et nous pensons entre autre au perceptron.
 
Machines interfacées et néoténie
 
En 1989, Paul Jorion développe dans son livre : principes des systèmes intelligents, une autre approche de l’intelligence artificielle, et plutôt que d’en rester à des systèmes déjà entièrement programmés et figés au moyen de structures logiques, il propose de faire de ces machines des machines néoténiques qui seraient capables de s’auto-organiser, d’apprendre, de négocier leur savoir, au fond d’avoir comme une biographie et une personnalité ; et cela, selon des principes empruntés, à la fois à la théorie du langage (abandon du problème de la signification, mise en avant du coup par coup, et du postulat que :  « le sens c’est l’usage » [17]), mais encore à la théorie de la psyché de Freud, Lacan et Klein (l’associationnisme avec l’idée de « l’association libre » des signifiants dans la théorie de l’inconscient, puis celle de la charge affective qui structure la matrice mnésique par frayage), et encore en partant d’une base anatomique (la structure du cortex cérébral : neurones et synapses dont la formalisation mathématique est le P-dual).
 
En s’appuyant sur cette approche, se développeront ce que l’on appelle aujourd’hui les réseaux de neurones ou les réseaux évolutionnaires, que nous allons maintenant présenter succinctement. Cependant, il n’est pas sûr que ce qui nous avait tant saisi (et plu) à la lecture du livre de Jorion, à savoir la présence de la dimension Psychanalytique dans l’intelligence artificielle, c’est-à-dire celle des affects, et de l’inconscient, soit reprise et retravaillée au sein des réseaux de neurones, car il semblerait plutôt qu’une bascule vers le biologique ait été opérée. Le modèle de la dynamique des affects semble être passé en retrait au profit du biologique. Au profit, (peut-être ?) d’une tendance bio-réductionniste ?

Biomimétisme mais réductionnisme ?

Modélisation de la structure humaine et implémentation dans les machines
 
Le problème, ici, est toujours celui de l’intelligence et de l’imitation de ses effets par la machine mais envisagé un peu différemment.
D’un côté donc, des neurones, des cellules gliales, des capillaires, du sang, des synapses ; de l’autre du matériel minéral, des conducteurs ou semi-conducteurs, de l’électricité, et des algorithmes.
Comparaison très sommaire mais qui pose les éléments en présence ou en leur rapport en inadéquation. Car à priori entre les deux, peu de rapport, si ce n’est par l’intermédiaire de la modélisation. C’est donc la modélisation qui a permis d’effectuer le passage de l’un à l’autre, de l’humain à la machine, au moyen de ce qu’on appelle le biomimétisme des « réseaux de neurones ». Les chercheurs et les chercheuses ont pris pour point de départ la structure du cerveau, et en ont réalisé un modèle en s’intéressant plus particulièrement à deux aspects. Premièrement à la manière dont les neurones sont interconnectés, structurés, et deuxièmement à ce lieu de passage et de modification de l’information qu’est la synapse.[18]Nous trouvons dans le que sais-je : les réseaux de neurones écrit par F. Blayo,  M. Verleysen  cette définition des réseaux de neurones : « Les réseaux de neurones sont une métaphore des structures cérébrales (modélisées) : des assemblages de constituants élémentaires, qui réalisent chacun un traitement simple mais dont l’ensemble fait émerger des propriétés globales digne d’intérêt.
 
 
L’ensemble est un système parallèle fortement interconnecté
 
L’information détenue par le réseau est distribuée à travers l’ensemble des constituants, et non localisée dans une partie de la mémoire sous la forme d’un symbole. Enfin un réseau de neurones ne se programme pas pour réaliser une tâche, mais il est entraîné sur des données acquises, grâce à un mécanisme d’apprentissage qui agit sur les constituants du réseau. »
Une fois cette modélisation de haut niveau [19] réalisée, ils ont alors tenté de la traduire sur un plan algorithmique [20]. Mais pour cela encore fallait-il postuler que l’intelligence humaine est calcul, c’est-à-dire postuler que la raison et la pensée humaine se réduisent à du calcul ce qu’avait refusé Paul Jorion, lorsqu’il avait tenté de modéliser la part inconsciente de la pensée humaine, la part de son désir, et de ce qui relève de l’affect pour l’implémenter dans la machine. Ainsi, la machine se donne pour structure celle du cortex humain, et dans le même temps on pose que, lorsque l’humain pense, ce qu’il fait c’est qu’il calcule. Il y a comme cela, une sorte de mouvement d’influence, de va-et-vient, qui va de la machine à l’humain et de l’humain à la machine. Et nous pouvons trouver une origine à un tel postulat dans les propos du philosophe anglais du 17° siècle Thomas Hobbes ; dans son Léviathan voici ce que nous pouvons lire : « raisonner n’est que conclure d’une addition de parties à une somme totale ou de la soustraction d’une somme d’une autre à un reste (…) Ces opérations ne sont pas particulières aux nombres ; elles intéressent toutes les espèces de choses susceptibles de s’ajouter les unes aux autres. (…) […] En somme partout où il y a de la place pour l’addition et la soustraction il y a aussi place pour la raison…la raison n’est en ce sens que le calcul des noms généraux convenus pour marquer et signifier nos pensées, je dis les marquer quand nous pensons pour nous-mêmes, et les signifier quand nous démontrons nos calculs à d’autres. » [21]
Voici donc à peu près posés les éléments à partir desquels travaillent les chercheurs : neurones, synapses et calcul.
 
Nous allons maintenant passer rapidement en revue les étapes importantes qui ont permis au champ de l’intelligence artificielle de prendre forme et de donner lieu au réseau de neurones.
Au départ il y a les travaux d’Herbert Spencer lorsqu’il montre de quelle manière une structure nerveuse contrôle un muscle.
Ensuite, il y a le concept de mémoire associative [22] qui démontre que la fréquence de la conjonction d’évènements tend à renforcer les liens entre leurs représentations cérébrales et que le rappel d’une idée tend à en appeler une autre.
Puis il y a l’apport de D. Hebb dont nous avons déjà parlé, qui interprète l’apprentissage comme la modification dynamique des poids synaptiques.
Puis encore, la loi « du tout ou rien » découverte dans les années 20 par Edgar Douglas Adrian [23]qui montre que le neurone n’est excité que si un seuil est atteint. C’est-à-dire que même si un neurone est stimulé, il se peut qu’il n’y ait pas de potentiel, ni de signal en sortie, et cela parce que la stimulation (en fréquence) aura été trop faible. Cette découverte est particulièrement importante en ce qu’elle permet de relier la biologie à la logique, de faire point de passage entre les deux, puisque cette loi « du tout ou rien » est similaire dans sa forme (qui transforme un processus physiologique continue en un processus discontinu et binaire) à celle des tableaux de vérité de la logique des prédicats (qui est binaire) et donc par suite formellement proche des outils de la logique mathématique. Et d’ailleurs en 1943 on voit paraître un article qui porte le titre : « A logical calculus of ideas immanent in nervous activity » [24].
Ces éléments sont à la base du connexionnisme [25], lui-même situé (sur un plan épistémologique) à l’intersection de la neurobiologie, de la psychologie, et du développement de la logique mathématique [26]. Le but était de parvenir à faire correspondre une structure biologique modélisée à une structure logique binaire.
Ce croisement (en quelque sorte) a donné naissance aux machines appelées « réseau de neurones ».
 
Celles-ci, contrairement aux systèmes précédents (les ordinateurs construits selon l’architecture de Von Neumann) « ne supposent pas que l’on connaisse la solution du problème à traiter, plus précisément, la procédure à suivre pour l’atteindre ou l’approcher » [27]. «  Les réseaux neuronaux s’inscrivent dans un cadre différent : la représentation des données est indirecte et répartie à travers un ensemble de connexions et de poids synaptiques. Auto-organisée, elle est apte à des représentations de haut-niveau (concepts). Pour conclure on peut dire que : « la capacité de traitement de l’information est dynamique à travers la modulation, la création ou la destruction des liens neuronaux. (…) que ces réseaux « s’adaptent et apprennent, qu’ils savent généraliser, regrouper ou classer l’information et ceci du seul fait de leur structure et de leur dynamique, mais pour l’heure ils doivent être considérés comme un complément aux méthodes traditionnelles » [28] car on ne sait pas remonter la chaîne de leur raisonnement et on ne sait pas non plus, avec exactitude pourquoi ils donnent telle ou telle réponse. En quelque sorte, on n’arrive pas à les comprendre et ils échappent.
Présentons maintenant rapidement la structure de ces réseaux de neurones.
 
Réseau de neurones
 
Tout d’abord un réseau de neurones c’est une topologie. La mise en place d’éléments au sein d’un espace et c’est cet espace, sa configuration qui déterminera la potentialité du réseau. Ainsi un réseau non-bouclé et un réseau récurrent n’auront pas les mêmes possibilités, un réseau monocouche et un réseau multicouche non plus. On peut trouver des représentations de ces réseaux sur internet si l’on veut se faire une idée. Ici, pour illustrer notre propos, nous prendrons le perceptron qui est l’un des premiers modèles [29]. Il est constitué d’unités sensitives sensibles à des stimulations physiques diverses, d’unités d’association (connexions entrantes et sortantes), d’une unité de réponse (qui génère une réponse en dehors du réseau), et d’une matrice d’interaction qui définit des coefficients de couplage entre les différentes unités.
 
La particularité de ces systèmes c’est qu’ils sont apprenants, « c’est-à-dire que les stimulations externes induisent – via des mécanismes divers- des transformations [30] internes modifiant les réponses à l’environnement». Il faut encore ajouter que les unités de sens de ces systèmes (« les neurones/synapses) fonctionnent selon trois modalités : compétition, coopération, et adaptation.
Mais le problème avec ces systèmes, c’est qu’il faut encore les superviser lors de l’apprentissage. Il faut en quelque sorte encore qu’un être humain les « entraîne », or l’étape suivante est celle des réseaux apprenant non-supervisés, avec les réseaux qu’on appelle « évolutionnaires », nous les avions annoncés au tout début de l’article.
 
Réseaux évolutionnaires
 
Ces réseaux évolutionnaires n’ont plus besoin d’être supervisés lors de l’apprentissage. Ici, l’adaptation et l’auto-organisation est envisagée, non plus tellement du point de vue de l’apprentissage justement, mais dans une perspective darwinienne, du point de vue du code génétique. Selon la théorie de l’évolution, les organismes vivants se sont adaptés à leur environnement grâce à la modification et à la recombinaison de leur patrimoine génétique. Et c’est cela que les informaticiens essaient actuellement de modéliser et d’implémenter dans la machine. Nous voyons que le cadre épistémologique s’est déplacé depuis que nous avons commencé cet article.
Au départ avec Paul Jorion nous avions un cadre multidisciplinaire où même la psychanalyse (ce qui nous avait énormément intéressé) avait été prise en compte, puis avec les réseaux de neurones cette dimension a disparu, ne reste plus que l’apprentissage compris comme pondération synaptique, phénomène de récurrence et retro-propagation de gradient, et pour finir maintenant avec les réseaux évolutionnaires dans un cadre purement biologique et génétique (cela est rendu possible parce qu’on se représente le génome comme de l’information, c’est-à-dire qu’on fait travailler les unités de sens du génome dans le même sens que les unités de sens en informatique, on rabat l’une sur l’autre, c’est une perspective mais il pourrait y en avoir d’autres). Ainsi, ce que l’on observe c’est une dynamique qui s’apparente à un réductionnisme biologique. Mais avant de finir, exposons les principes qui régissent les réseaux évolutionnaires.
 
Principes des réseaux évolutionnaires : néoténie, aléatoire et auto-génération du code
 
« L’idée de base consiste à construire, sur une base aléatoire et/ou heuristique, un ensemble de solutions potentielles à un problème donné. » [31] Ce qui interpelle ici, c’est l’expression : « un ensemble de solutions potentielles », comme si on constituait une réserve de solutions en vue d’un tri qui s’effectuerait au fur et à mesure, comme si l’approche du résultat, progressive, devait s’effectuer par le jeu des mutations » [32].
Habituellement, ce que l’on fait c’est que l’on va directement à la solution, c’est-à-dire que dans l’intention même on cherche « la solution ». Mais ici, non, l’intention est autre. On commence par générer aléatoirement une population et le « matériel génétique » de cette population -qui dans ce cas est codée sous la forme d’une chaîne de bits et non de bases azotées-, représente un ensemble de solutions potentielles au problème posé. Ensuite, une fois que ces individus (chaînes de bits aléatoirement constituées) sont générés on calcule pour chacun un score (niveau d’adaptation), là, si l’objectif est atteint, alors a lieu la sortie de l’algorithme. Ensuite on sélectionne des reproducteurs en fonction des scores (c’est une sorte de sélection génétique et on entend peut-être les échos de l’eugénisme et ceux d’une diminution de la biodiversité). Puis on construit des descendants par l’application de différents opérateurs génétiques (croisement, mutation). Puis, pour finir, on procède au remplacement de la population par les descendants.
 
Nous voyons que les algorithmes évolutionnaires « fonctionnent en tirant parti de la diversité d’une population pour évoluer vers la solution recherchée. Au départ on n’a aucun moyen de connaître la direction à suivre, et on construit une population aléatoire.» [33] Ce que ces algorithmes évolutionnaires permettent c’est d’engendrer des programmes informatiques, et anecdotes surprenante : il n’est pas rare que les algorithmes découverts soient au moins équivalents à ceux construits par les humains. Le cas le plus étonnant est celui de la redécouverte, à partir des données sur le mouvement des planètes de la troisième loi de Kepler, redécouverte qui au cours de la progression de l’algorithme est passée par l’une des conjonctures initiales du savant allemand.
 
Dans le futur avec ces réseaux, les programmes informatiques seront de plus en plus générés automatiquement et de moins en moins construits (si le processus ne rencontre pas une limitation dont on n’aurait pas encore pu tenir compte).
Pour conclure nous pouvons dire que les réseaux évolutionnaires sont des réseaux de neurones mais qui sont axés sur trois finalités principales. Premièrement, celle qui veut substituer aux poids synaptiques du problème de l’apprentissage, un algorithme génétique (pool de solutions potentielles constitué d’individus constitués de chaîne de bits). Deuxièmement, celle qui veut remplacer les procédures manuelles (présence humaine) d’essais/erreur (apprentissage supervisé) par un apprentissage non-supervisé, grâce toujours à l’algorithme génétique, et troisièmement, l’évolution non pas des paramètres, mais de l’évolution du codage des paramètres, c’est-à-dire en quelque sorte que cela amène à trouver la règle d’adaptation la mieux adaptée à l’adaptation, on recule encore d’un cran.
 
Ainsi, nous arrivons au terme de ce parcours qui nous a vus partir du livre de Paul Jorion et de son geste : la convocation de la psychanalyse dans le monde de l’intelligence artificielle pour ouvrir les systèmes intelligents à l’auto-organisation et à l’apprentissage en fonction du couple affect/mémoire, c’est-à-dire pour faire en sorte que les systèmes possèdent une personnalité et une biographie, à une situation où le modèle biologico-génétique prime, lui-même sous-tendu par le paradigme de l’information.
Alors il resterait bien sûr, à parler de ce paradigme de l’information qui fut le grand absent de cet article et ce n’est peut-être pas pour rien.
 
Juliette Wolf
Tous nos remerciements à la revue Temps marranes n°30 dans lequel est paru l'original de cet article
 
[1] L’apprentissage profond relève du « machine learning » ou « apprentissage statistique » qui est un champ d’étude qui concerne la conception l’analyse, le développement et l’implémentation de méthodes permettant à une machine (au sens large) d’évoluer par un processus systématique, et ainsi de remplir des tâches difficiles ou impossibles à remplir par des moyens algorithmiques plus classiques. Les algorithmes utilisés permettent, dans une certaine mesure, à un système piloté par ordinateur (un robot éventuellement), ou assisté par ordinateur, d’adapter ses analyses et ses comportements en réponse, en se fondant sur l’analyse de données empiriques provenant d’une base de données ou de capteurs. Plusieurs modes d’apprentissage sont mis en jeu : l’apprentissage supervisé, l’apprentissage non-supervisé, et l’apprentissage semi-supervisé.
[2] En octobre 2015, le programme alphaGo ayant appris à jouer au jeu de go par la méthode du deep learning a battu par 5 parties à 0 le champion européen Fan Hui[3]. En mars 2016, le même programme a battu le champion du monde Lee Sedol 4 parties à 1.  Information extraite d’un article de wikipédia
[3] Nous reprenons la distinction tripartite de Bernard Stiegler pour qui trois époques peuvent être dégagées dans l’histoire de l’évolution du rapport homme-machine: le temps où les machines se sont mises à « faire » à notre place, ce qui est pour l’auteur la strate du « savoir-faire », par exemple la machine du métier à tisser de Vaucansson, l’époque où les machines se sont mises à nous remplacer aussi dans notre « savoir vivre-ensemble » : par exemple avec la télévision, puis l’époque où les machines se sont mises à nous remplacer pour les activités de pensée, c’est la dernière strate, celle de la noèse, du « savoir-savoir » et que nous atteindrions aujourd’hui avec les machines du type : « machines apprenantes »
[4] Principes des systèmes intelligents. Paul Jorion. ed du croquant, 2012.
[5] Cette notion d’effet, nous la retrouvons chez Baruch Spinoza (1632-1677). Philosophe et tailleur de lentilles pour lunettes et microscope.
[6] Il ne s’agit pas du génome, mais d’une nouvelle façon de générer du code.  Ce n’est plus l’utilisateur humain mais la machine elle-même au moyen d’une combinatoire aléatoire de populations binaires qui génère des « individus solutions », c’est-à-dire une sortie algorithmique efficace.
[7] Nous faisons référence à  ses travaux sur Anella : Associative Network with Emerging Logical and Learning Abilities
[8] La série real human (la première saison) était une bonne mise en jeu de cette problématique. Quels rapports les humains vont-ils entretenir avec leurs robots qui auront désormais une apparence humaine et une intelligence identique –voire supérieure- à la leur ? Un rapport de maître-esclave, un rapport d’égalité ? De peur ? De rejet ? De jalousie ?
[9] Paul Jorion dit à propos de la signification : « le problème ce n’est pas que nous ne comprenons pas le fonctionnement de cette chose que nous appelons signification, c’est plutôt que nous ne savons pas ce qu’elle est. Autrement dit, nous ne savons pas ce que le mot veut dire, car si la signification est la chose à laquelle le mot renvoie, il y a peu de mots qui ont un significat. Exemple avec le mot liberté, à quelle chose « liberté » renvoie, ce n’est pas évident de le déterminer, on voit qu’il est ici plus question de définition, d’un sous-réseau du réseau mnésique, et que c’est une convention.
[10] Cette facilité de passage, est ce que les chercheurs des systèmes intelligents de type réseau de neurones vont appeler le renforcement progressif, par auto-modification du poids synaptique (la récurrence) et qui est en lien étroit avec la problématique de l’apprentissage puis donc, celle de l’auto-organisation.
[11] Nous citons Paul Jorion : « Mes paroles me surprennent moi-même et m’enseignent ma pensée ». La pensée ne serait qu’une reconstruction opérée sur la base des paroles prononcées.
[12] C’est ce qui donnera le terme de « réseau de neurones » pour les systèmes les plus récents.
[13] Dans un réseau sémantique les signifiants sont placés aux sommets, par exemple : « un perroquet » et les couleurs de relation – par exemple «  est un », sont placés dans les arcs (les arcs sont des sortes de liens). C’est le contraire dans un réseau mnésique. Les couleurs de relations sont au sommet et les signifiants sont au niveau des arcs.
[14] Le premier paramètre : l’affect, nous en parlons dans cet article, mais le deuxième paramètre si nous n’en parlons pas, ce n’est pas parce que nous avons oublié mais parce que nous n’avons pas très bien compris de quoi il retourne. Paul Jorion parle de gravité, au sens de gravitation, de ce qui attire vers le bas. Nous laissons donc le lecteur et la lectrice dans l’obligation d’aller voir par eux-mêmes. C’est ici un manque, nous en sommes conscients.
[15] Hebbs (1904-1985) est psychologue et neuropsychologue canadien. Il va tenter de trouver une alternative au « behaviorisme », et ce faisant met en évidence le renforcement synaptique par simultanéité. Mais ce qui est intéressant c’est que Freud l’avait déjà postulé : « Or, il existe une loi fondamentale d’association par simultanéité [qui] donne le fondement de toutes les connexions entre neurones PSI. […]. La charge s’avère équivalente au frayage, par rapport au passage de la quantité (Q’n) ». Dans «  Naissance de la psychanalyse”, PARIS, PUF 1979.
[16] Spinoza a montré en quoi l’affect est comme une fibre dédoublée. Nous le citons : « j’entends par affect les affections du corps par lesquelles sa puissance d’agir est accrue ou réduite, secondée et réprimée, et en même temps que ces affections, leurs idées. » L’affect est à la fois un événement corporel  (affection) et la conscience de cet événement.
[17]  cf. Wittgenstein.
[18] La synapse est une jonction fonctionnelle entre deux neurones, mais qui se traduit en terme topologique par un petit vide inter-membranaire. Elle permet le passage des neurotransmetteurs (pour les neurones chimiques) qui traduit le potentiel d’action du neurone afférent en un potentiel d’action pour le neurone efférent (potentiel qui peut devenir nul, voire même s’inverser). Les synapses jouent donc un rôle de premier plan dans le codage de l’information nerveuse.
[19] C’est une modélisation de haut niveau parce que c’est au niveau de la cellule dans sa globalité (le neurone et les synapses), insérés dans le réseau de l’ensemble cortical, qu’on se situe et non pas, par exemple, au niveau des échanges d’ions le long de la membrane. Mais on aurait pu faire ce choix.
[20] Peut-être faut-il attendre encore un peu pour qu’une hybridation plus prononcée devienne concrète, une convergence qui tendrait à une homéostasie en proportion, entre des supports biologiques et des supports « inorganique minéral ».
[21] Réseaux de neurones, une introduction. J.P Rennard. Ed Vuibert (2006).
[22] W. James (1842-1910).
[23] E.D Adrian est médecin et éléctrophysiologiste anglais.
[24] W. McCulloch Et W. Pitts.
[25] Nous précisons que le connexionnisme n’est qu’une des formes du biomimétisme appliquée à l’intelligence artificielle. Il y a encore par exemple : l’approche « animat », « animal-like » ou  l’I.A distribuée.
[26] Influencé par Whitehead et Russell pour qui, il fallait refonder les mathématiques sur la seule base logique, cf. Leur livre :  Principia mathematica  publié en 1910-1913 .
[27] Réseaux de neurones, une introduction. J.P Rennard. Ed Vuibert (2006).
[28] Ibid.
[29] Wikipedia
[30] Réseaux de neurones, une introduction. J.P Rennard. Ed Vuibert (2006).
[31] Ibid.
[32] Ibid.
[33] Ibid.
 
 
 
 

 

Stromatolithes

La vie est apparue sur Terre bien plus tôt qu’on ne le pensait. Et avec elle, l’information.

3,7 milliards d'années ! C'est l’âge de la vie sur Terre, révélé par la découverte de concrétions minérales formées par des bactéries dénichées au fond des glaces. Des géologues australiens viennent en effet de découvrir au Groenland des traces d’une activité microbienne remontant à 3,7 milliards d’années, soit 200 millions d’années de plus que les records précédents trouvés dans des roches d’Australie ou d’Afrique du Sud. Et 800 millions d’années environ seulement après la formation de la planète. L’origine de la vie sur Terre, une question qui hante les esprits depuis que l’homme est en mesure de penser.
 
La vision moderne que la plupart d’entre nous avons de l’origine de la Vie est, au fond, assez poétique. Elle décrit le spectacle des milliards de milliards de particules qui naviguent et jouent au billard dans l’immense espace de l’Univers et se mêlent un jour d’assembler un objet présentant une propriété particulière ; il se produit alors un événement inouï qui résonne dans le vide astral. Cet événement est la faculté pour un objet de se reproduire ou plus exactement, la faculté de se répliquer, c'est-à-dire d’utiliser ce qui se trouve à sa portée pour fabriquer une copie exacte – hormis quelques erreurs mineures inévitables dans toute reproduction – de l’entité tout juste née. La Vie, si l’on tente de la définir au regard de nos connaissances actuelles, est ce phénomène par lequel des molécules complexes s’assemblent, tirent matière et énergie de leur environnement et se reproduisent.
 
Ce saut dans le temps de 200 millions d’années qu’offre la nouvelle étude publiée par la revue Nature prouve que la vie a pu apparaître très tôt sur Terre, dans des conditions difficiles, avec une atmosphère dépourvue d’oxygène, un bombardement formidable de météorites, un rayonnement solaire intense et destructeur…
Incidemment, cela relance l’intérêt des missions martiennes qui explorent des terrains dont l’âge correspond justement à celui des roches étudiées au Groenland. Les robots pourraient y trouver des traces plus visibles et nombreuses que les quelques vestiges fossiles mises au jour sur Terre.

L’aurore archaïque de la vie

En 1986, William Schopf de l’Université de Californie à Los Angeles découvrait, dans des formations géologiques d’Australie Occidentale vieilles de 3,5 milliards d’années, les traces d’assemblages que sont les premiers organismes vivants. Ces organismes primitifs nés au fond de lacs et de lagunes correspondent vraisemblablement à ce que seront plus tard les bactéries et les algues. Ces premières formes de vie, dont les reliques sont gravées dans les couches rocheuses calcaires ou siliceuses (les stromatolithes que l’on vient de découvrir au Groenland), sont extrêmement rudimentaires ; elles ne sont qu’un avant-goût des formes plus complexes qui naîtront bien vite, mais elles comptaient déjà un nombre de sujets supérieur au nombre d’êtres humains ayant jamais existé.
 
Longtemps restés mystérieux et considérés comme rudimentaires, ce n’est que très récemment que les progrès de la biologie moléculaire ont fait apparaître que ces organismes vivants tapis au fond des âges ne sont pas si rustiques que cela ; ils possèdent un caractère éminemment complexe. Ils sont les briques du jeu de construction de la vie, présentes et indispensables, encore aujourd’hui, dans toutes les structures vivantes sur cette planète. La cellule vivante la plus archaïque n’est pas un simple amas de molécules, assemblé plus ou moins au hasard ; c’est une structure qui fonctionne selon un projet.
 
 
Les stromatolithes dont nous retrouvons les traces géologiques étaient fabriqués par des colonies de cyanobactéries faisant partie de la classe des « procaryotes ». Dans l’aurore archaïque de leur existence, ces organismes, si sommaires qu’ils n’avaient pas encore réussi à confiner leur ADN dans le noyau de leur unique cellule, avaient pourtant appris à s’organiser selon un projet, en divisant notamment leurs fonctions. Certains membres de ces colonies étaient chargés d’opérer la photosynthèse en stockant l’énergie solaire dans des molécules spécifiques ; d’autres prélevaient dans leur environnement la substance nécessaire à leur alimentation et rejetaient les déchets potentiellement toxiques dans des décharges. Un autre groupe enfin était destiné à se nourrir de ces déchets pour éviter la contamination des autres membres de la colonie.

Stratégie d’exploration et de conquête

Tous ces organismes interdépendants les uns des autres construisaient un abri de forme généralement circulaire pour les héberger. L’architecture de ces constructions est considérable au regard de la taille microscopique de ces organismes : les édifices atteignent et dépassent parfois deux mètres de longueur. Les restes fossilisés de ces stromatolithes témoignent indéniablement d’une vie organisée : elles sont construites en ondulations autour d’un centre précis. Ce sont ces abris primitifs dont on a retrouvé les traces au Groenland.
 
Cette forme est la caractéristique d’organismes menant une stratégie d’exploration et de conquête pour l’alimentation que l’on retrouve dans un grand nombre d’espèces bactériennes. James A. Shapiro est considéré comme une référence en matière de biologie moléculaire ; il a intitulé fort opportunément une de ses publications scientifiques Les bactéries sont petites mais pas stupides. Il y démontre que la biologie moléculaire moderne a découvert « un vaste royaume de machinerie intracellulaire complexe, de transduction de signal, de réseaux régulés et de processus sophistiqués de contrôle » que l’on ne soupçonnait absolument pas quand les premières recherches sur la vie furent menées. En effet, des générations entières de scientifiques ont considéré les bactéries comme des organismes peu dignes d’intérêt, cellules solitaires bataillant dans la jungle impitoyable des entités microscopiques. Il n’en est rien. Les bactéries, même les plus primitives, sont dotées de systèmes d’information et remplissent une fonction sociale : la communication.

Intelligence connectée

Les recherches les plus récentes démontrent que les premières communautés de bactéries avaient développé les toutes premières formes de ce que nous appellerions aujourd’hui, dans un raccourci anthropomorphique, une « intelligence connectée ». En effet, ces organismes vivants primitifs, avaient, dès l’origine, tissé entre eux de véritables liens de communication par l’intermédiaire de moyens de signalisation variés – chimiques, génétiques, physiques – capables de diffuser des messages sur une longue distance.
 
Toute cette machinerie relativement sophistiquée, ce « réseau créatif de survie », remplissait un objectif primordial : observer l’environnement pour en prévenir les dangers, détecter les opportunités, s’en nourrir et prospérer. La créativité bactérienne s’exprimait avec talent dans la maîtrise des signaux d’attraction et de répulsion. Lorsque l’environnement autour d’elles était stérile ou hostile, elles émettaient à destination de leurs congénères des signaux appropriés. Les bactéries s’avançant dans les terrae incognitae de leur milieu, le balisait d’informations chimiques extrêmement précieuses pour leur survie et leur croissance. Dès l’origine de la vie, les premiers organismes manipulaient déjà de l’information. Face au monde chaque fois changeant et dangereux qui les entourait, le « génie génétique » de ces micro-organismes allait s’avérer une formidable machine d’adaptation et d’expansion.
 
 
 
Image d’en-tête : stromatolithes en Australie 

 

Séisme en Italie

Que sait-on vraiment des séismes ?

Le tremblement de terre qui a eu lieu le 24 août dans le centre de l'Italie entraîne, comme toujours en pareil cas, son cortège de chiffres macabres et d'images de désolation. Et toujours la même question : peut-on prévoir un tel séisme ? Une question toujours sans réponse qui souligne notre impuissance devant les forces de la nature. Deux sismologues tentent dans cet article de nous expliquer la nature d'un séisme et les pistes de recherche en cours pour la prévention ou au moins l'alerte de ce type d'événements.

La mobilisation scientifique pour la prédiction des séismes ne date pas d’hier. Après le séisme en Alaska de 1964 et dans le cadre d’un effort international, les chercheurs américains avaient demandé la mise en place d’un grand projet national sur la prévision des séismes.

Le titre du projet contenait bien les termes « prévision des séismes » mais la revue Science (Walsh, 1965) notait alors qu’il s’agissait d’une part de donner, avec une grande chance de succès, l’alerte quelques heures ou quelques jours avant les grands séismes, et d’autre part de développer des techniques qui permettent de limiter les pertes humaines et les dégâts même si le premier objectif n’était pas atteint.

L'opinion publique a été plus sensible aux promesses de la prévision qu’à celle de la mitigation. Malgré les immenses avancées dans la compréhension des séismes et de leurs effets catastrophiques, les annonces optimistes des années soixante ont créé une profonde déception vis-à-vis de l’échec apparent de la prévision des séismes.

Sémantique des séismes

Il faut ici aborder des questions sémantiques et d’objectifs. S’agit-il de la prévision de l’occurrence d’un séisme, de la prévision des mouvements du sol potentiellement dangereux ou de la prévision d’une catastrophe ?

Heureusement, tous les séismes n’amènent pas de destructions, et un des objectifs fondamentaux de la sismologie est de comprendre où et pourquoi les destructions se produisent. Il nous faut aussi préciser l’échelle de temps de la prévision : est-ce qu’un séisme est imminent (c’est à dire une annonce dans les secondes, les heures, ou les jours avant l’évènement) ? Où est-il probable qu’un séisme se produise dans les années ou les décennies à venir ?

Chacune de ces prévisions peut être utile, suivant les conditions géographiques et socio-économiques. Même si nous ne savons pas prévoir les séismes, la possibilité de prévoir les mouvements du sol qui vont se produire et les annoncer juste avant que les vibrations destructrices ne se produisent peut être d’une grande utilité.

Cela permet de mettre en sécurité des installations critiques et surtout alerter les populations. Cette forme d’alerte, après le séisme, mais avant ses effets à distance, est déjà mise en pratique dans des régions à haut risque.

Les vibrations sismiques que nous ressentons pendant les séismes et qui peuvent détruire des bâtiments se sont en fait propagées dans les roches en profondeur parfois sur de grandes distances. Ces ondes sismiques se propagent rapidement, mais les plus destructives d’entre elles (les ondes de cisaillement) ne sont pas les plus rapides des ondes élastiques et se propagent bien moins vite que les signaux électromagnétiques.moins vite que les signaux électromagnétiques.

 

Alerte par smartphone. UC Berkeley/YouTube

Quand un séisme se produit, des vibrations sont détectées près de la source et cette information peut être transmise presque instantanément vers des centres où elle sera traitée automatiquement ; ils pourront alors émettre des alertes dans les secondes qui suivent l’émission, donc avant les vibrations destructrices.

Sismologie en temps réel

Ces techniques sont mises en œuvre sous le nom de sismologie en temps réel et de tels systèmes sont opérationnels dans différentes régions du monde (Japon, Italie, Californie, Mexique…). Bien sûr, ces systèmes ne nécessitent pas de prévision.

Sur le long terme, (depuis les années jusqu’aux décades), la géophysique fournit les outils indispensables à un management rationnel des ressources qui doivent potentiellement être affectées à la sûreté sismique. Dans le même temps, les analyses quantitatives des effets des séismes permettent de comprendre les conditions locales qui gouvernent la distribution des dégâts. Ces études offrent des éléments précieux pour adapter les modes de construction et l’aménagement du territoire aux conditions géologiques locales.

En ce sens la sismologie permet d’adopter des politiques de développement orientées vers la sécurité des populations. De grands progrès ont été faits et continuent à s’accomplir, mais il est difficile pour le public d’apprécier l’efficacité d’approches comme l’analyse probabiliste de l’aléa sismique car cette forme de « prévision » s’exprime sous la forme de probabilités à long terme, alors que la vision sensible des séismes est celle des images de destruction qui apparaissent régulièrement dans les médias.

Vision déterministe

La vision publique de la prévision sismique est typiquement déterministe, une réponse binaire à la question de l’occurrence d’un séisme dans un délai de quelques heures à quelques jours, précisément l’échelle de temps pour laquelle aucune réelle avance opérationnelle n’a été faite. Les raisons en tiennent à la complexité des processus physiques à la source des séismes.

Les séismes sont des instabilités de glissements qui se produisent dans la situation critique où la résistance au glissement de la faille – la friction – est proche des forces élastiques résultant de la déformation lente des roches. Bien que nous ne le percevions pas dans notre expérience quotidienne, la Terre est en évolution permanente. Les couches profondes subissent de lents mouvements de convection où les matériaux chauds remontent vers la surface, se refroidissent en plaques rigides puis replongent, donnant naissance en surface à la tectonique des plaques.

 

Les plaques tectoniques. USGS/Wikipédia

Les vitesses des plaques sont de l’ordre du centimètre par an. Lorsqu’un séisme se produit, les deux faces de la faille glissent localement à une vitesse relative de l’ordre d’un mètre par seconde, ce qui représente plus d’un milliard de fois la vitesse constante du mouvement des plaques.

En d’autres termes, les séismes destructeurs se produisent en quelques secondes, mais sont le résultat d’une lente évolution qui s’est étendue sur des dizaines, des centaines ou des milliers d’années. Le temps pendant lequel les mouvements de la Terre ont été mesurés est si court que nous n’avons pas d’espoir de savoir avec précision quand un état critique résultant d’une longue évolution sera atteint.

Phase préparatoire

Néanmoins, des études expérimentales et théoriques suggèrent que la rupture pourrait être précédée par une évolution rapide qui se développerait dans un laps de temps beaucoup plus court que celle de la préparation tectonique. Cette phase préparatoire, souvent appelée initiation, n’est pas observée systématiquement avec les méthodes géophysiques actuelles et on pourrait raisonnablement craindre que cette recherche de signaux précurseurs soit sans espoir considérant la méconnaissance de l’amplitude et de la durée de ces phénomènes. Pourtant des découvertes récentes ouvrent des perspectives plus positives.

 

Géosenseur EarthScope. Bdelisle/Wikipédia

La géodésie et la sismologie ont fait de grands progrès dans leur capacité à détecter de faibles changements dans les roches en profondeur. Les stations GPS en continu et les techniques de traitement récentes détectent des mouvements de plus en plus petits. Les stations GPS et sismologiques sont installées progressivement en d’importants réseaux denses, sous la forme de grandes antennes aux capacités de détection sans précédent.

Séismes lents

Ces dernières années, ces efforts ont été couronnés par la découverte de nouveaux processus de déformation. Le plus spectaculaire a été celui de l’existence de séismes lents. Ces séismes lents sont des épisodes de glissement en profondeur avec des vitesses de glissement intermédiaires entre celles des plaques et celles des séismes normaux. Les séismes lents les plus grands ont une magnitude supérieure à 7.5 (mesurée de manière équivalente à celle des séismes) pour des durées de plusieurs mois et on assiste à de plus en plus d’observations indiquant l’existence de séismes lents avec une diversité de magnitudes.

Cette découverte indique que la Terre se déforme avec des processus d’échelles de temps entre les extrêmes représentées par celle de la tectonique des plaques et celle des séismes. Les déformations transitoires récemment découvertes sous la forme de séismes lents peuvent être étudiées avec les méthodes de la géodésie spatiale (GPS, INSAR…).

Une analyse détaillée des enregistrements sismiques a montré que ces déformations sont aussi associées à une forme de faible grincement consistant en une superposition de micro-évènements sismiques. Ces observations suggèrent que nous pourrons dans le futur détecter et caractériser les faibles déformations en profondeur indiquant la préparation des grands séismes.

Il restera, on le sait, un long chemin avant de parler de prévision, mais les géophysiciens persévèrent dans leurs avancées pour comprendre notre Terre en évolution permanente. Aujourd’hui, bien comprendre les séismes est certainement la meilleure manière de vivre avec eux, de se préparer, de connaître notre vulnérabilité et d’adopter des politiques de prévention qui permettent de vivre dans des environnements garantissant la sécurité optimale de tous.

Michel Campillo, Sismologue, professeur à l'Université Grenoble-Alpes, Institut universitaire de France, Université Grenoble Alpes

Rob van der Hilst, Sismologue, professeur au Massachusetts Institute of Technology, Massachusetts Institute of Technology

La version originale de cet article a été publiée sur The Conversation.

image d'en-tête : Des secouristes recherchent des blessés dans les gravats à Arcuata del Tronto (centre de l'Italie) après un tremblement de terre le 24 août 2016. - Sandro Perozzi/AP/SIPAThe Conversation

 

 

Droit des robots

Faut-il un droit des robots ?

Si l’on s’en tient à son étymologie, le mot « robot » se rapporte à une entité anthropomorphe, car ce mot a d’abord été employé pour désigner un automate humanoïde dans une pièce du tchèque Karel Čapek, RUR, les Robots universels de Rossum, créée en 1921. Mais depuis quelques années, le terme est utilisé en des sens bien plus larges.
L’expression d’« intelligence artificielle » est, pour l’instant, trompeuse ; le robot n’est pas intelligent au sens humain. Et c’est bien cette différence psychologique fondamentale que le juriste devrait intégrer dans son raisonnement lorsqu’il va chercher à appliquer les principes juridiques fondamentaux ou à rédiger des conventions.

On parle aujourd’hui de robots pour désigner des machines-outils, des véhicules automatiques, des logiciels d’aide à la décision, des traders automatiques, des drones, des machines chirurgicales, des exosquelettes, voire des téléphones cellulaires (tous ces robots posent, au demeurant, de nombreux problèmes, ne serait-ce qu’en raison de la mémoire externe qu’ils peuvent, peu à peu, devenir pour les individus).

Les « vrais » robots

Nous pensons néanmoins qu’il serait préférable de conserver au terme de « robot » un sens plus proche de ses origines, à savoir « celui qui imite le vivant », celui qui désigne un humanoïde (androïde) ou, à la rigueur, un animaloïde, voire un végétaloïde.

C’est, en effet, celui-là qui trouve un écho dans l’inconscient collectif depuis le Golem, celui-là qui a justifié tous les fantasmes, toutes les terreurs, mais aussi de nombreuses créations artistiques.

Certains de ces robots se rapprochent le plus possible de l’apparence humaine ou animale, d’autres s’en éloignent, mais se rattachent à l’aspect humain, comme le font des personnages fictifs de bandes dessinées ou de dessins animés. La confusion n’est pas alors parfaite, mais l’assimilation inconsciente demeure.

Certains n’ont pas d’autre vocation que ludique ; mais beaucoup d’entre eux sont censés réaliser une ou plusieurs actions sociales (aide physique, intellectuelle ou psychologique) aux côtés de l’humain (assistance aux personnes vulnérables, notamment aux personnes âgées, aide à l’éducation des plus jeunes). On parle alors de « robots sociaux », sous-catégorie des robots de service.

Un robot de compagnie pour les enfants hospitalisés (vidéo Euronews, mars 2016).

La frayeur entretenue

La crainte grandit de voir, peu à peu, des robots s’humaniser en acquérant une intelligence artificielle, interactive et apprenante, tirant des leçons de leur expérience, s’individualisant au fil du temps, voire commençant à contenir des éléments vivants (ordinateur ou éclairage d’origine biologique).

Réciproquement, l’on s’inquiète de la robotisation progressive des humains (prothèses diverses, implants, y compris dans le cerveau). Mais l’idée, à la fois effrayante et séduisante, qu’un jour les deux mouvements pourraient se rejoindre, demeure, en l’état, une fiction. Et le juriste a bien plus à se soucier d’un troisième mouvement, celui de la manipulation du vivant par la génétique.

Le droit, toujours

L’avocat Alain Bensoussan milite de longue date pour que soit conférée aux robots humanoïdes une personnalité juridique, située quelque part entre le statut des meubles protégés (les animaux), celui des personnes morales et celui des personnes physiques.

L’état de la science nous pousse à penser que, pour l’instant, cette approche demeure prématurée.

Conférence TED d’Alain Bensoussan (novembre 2015)
 

Qui a vu un match de football « disputé » entre robots humanoïdes comprend que l’on est, non seulement loin de la créature monstrueuse qui risque de détruire son créateur, mais encore loin également d’une entité réellement « pensante ».

Nous n’y croirons que lorsqu’un robot-footballeur sera inculpé à l’occasion d’un match truqué. Nous sommes, pour l’instant, dans le « marionnettisme » évolué et numérisé, pas dans la création divine.

À notre sens, attribuer une responsabilité au robot (fût-il interactif et apprenant), lui accorder un patrimoine, peut paraître, en l’état de la science, infiniment plus anormal que d’accorder pareilles titularités aux animaux dont on sait qu’ils sont considérés comme des biens sensibles, voire aux plantes dont on sait qu’elles peuvent adopter une forme de « raisonnement » (opportunisme, défense commune contre un prédateur, etc.).

La question de la responsabilité

L’approche juridique actuelle, face à ces robots qui ressemblent à l’humain et vivent à ses côtés, est, en réalité, probablement, plus simple qu’il n’y paraît. Essentiellement deux questions se posent : celle de la responsabilité et celle du respect de la vie privée.

Quant à la responsabilité contractuelle (au profit des acheteurs ou locataires des robots) la difficulté tient « seulement » en la détermination du responsable : constructeur ou programmateur.

Pour la responsabilité délictuelle (au profit de tiers, victimes d’un préjudice né d’un dysfonctionnement du robot), celle de l’utilisateur final peut, en sus, éventuellement, être recherchée.

Quant au respect de la vie privée, il s’agit de savoir ce que vont devenir les multiples informations que le robot va recueillir sur la personne humaine qu’il côtoie. La question se pose avec encore plus d’acuité si le robot est connecté.

On devrait, juridiquement, savoir résoudre ces problèmes, grâce aux stipulations des contrats (dans lesquels on peut insérer des règles morales, telles les fameuses trois lois d’Asimov) ou par les textes existants tels qu’interprétés par les juges. Faire des lois nouvelles n’est pas toujours indispensable. La spécificité de la matière nous semble résider ailleurs.

L’auteur de science-fiction américano-russe Isaac Asimov énonce les trois lois de la robotique (YouTube, 2009)
 

Imitation et émotion

L’humain, qui parfois s’éprend de simples objets, est, a fortiori, susceptible de s’attacher à un robot humanoïde ou animaloïde. Il va en conséquence lui prêter des sentiments réciproques, alors que le robot ne fait que singer, qu’imiter l’humain, par des sons, des gestes, ou des mouvements du « visage », attitudes programmées face à telle parole ou tel signe, qu’il est appelé à reconnaître grâce à ses capteurs sonores ou visuels.

L’expression d’« intelligence artificielle » est, pour l’instant, trompeuse ; le robot n’est pas intelligent au sens humain, surtout si l’on accepte l’idée que l’intelligence est de l’ordre de la génétique ; s’il s’agit bien de raisonnements, même de plus en plus sophistiqués (on songe à la victoire d’AlphaGo au jeu de go), si le robot dispose de couches successives de silicium de plus en plus nombreuses, d’une mémoire autobiographique, il ne comprend pas pour autant, il n’a pas conscience de ce qu’il fait.

La Rachel du film «Blade Runner» est-elle un replicant ? (vidéo Movieclips, 2011)
 

De plus, il lui manquera toujours l’élément sentimental, la souffrance, le plaisir et les imperfections, qui sont à la fois un inconvénient (l’humain peut commettre plus de fautes que le robot et il peut avoir moins de capacités sensorielles), mais aussi une formidable différence en termes d’empathie, de solidarité du vivant et d’adaptabilité aux imprévus de l’environnement et de l’évolution.

Et c’est bien cette différence psychologique fondamentale que le juriste devrait intégrer dans son raisonnement lorsqu’il va chercher à appliquer les principes juridiques fondamentaux ou à rédiger des conventions.

Didier Guével, Professeur de droit privé et sciences criminelles, Université Paris 13 – USPC

La version originale de cet article a été publiée sur The Conversation.

 

The Conversation

 

Elon Musk : « Vous me prenez pour un dingue ? »

C’est par cette question que commence la biographie qu’Ashlee Vance consacre à l’un des hommes les plus puissants de la planète. Elon Musk, moins connu que Steve Jobs ou Bill Gates, mais de la même veine, est celui qui affirme vouloir changer le monde et qui en a les moyens. L’inventeur de PayPal, de Tesla, de Space X et de l’Hyperloop. L’homme qui rêve de sauver l’humanité en l’envoyant sur… Mars. Un visionnaire mégalo pour certains, génial pour d’autres, qui révolutionne les industries les plus traditionnelles avec fracas et transforme en or tout ce qu’il touche. Un homme controversé et admiré, qui ne laisse pas indifférent.
 
Transformer les humains en colons de l’espace, tel est explicitement le but de la vie d’Elon Musk. Il aime affirmer : « J’aimerais mourir en me disant que l’humanité a de beaux jours devant elle ». Son goût pour les choses impossibles a fait de Musk une divinité de la Silicon Valley. Il en a conservé en grande partie l’éthique (agir vite, éviter les hiérarchies bureaucratisées, inventer des machines fantastiques qui constituent de véritables avancées). Et une vision qui lui sert de credo et de moteur pour toutes ses entreprises ; un objectif radical qui lui sert de principe unificateur : coloniser Mars, faire de l’humanité une espèce multi planétaire… Pour la sauver d’elle-même.
Vision délirante diront certains. Pour d’autres, Musk a produit ce qui manque à beaucoup de créateurs d’entreprise : une vision du monde qui ait un sens.
 
Elon Musk est une force de la nature. 1m85, une carrure d’athlète, moitié play-boy, moitié cow-boy de l’espace, il se déplace lentement, mais pense vite, très vite. Né en Afrique du Sud il y a quarante-quatre ans, il n’a pas perdu de temps pour démontrer ses qualités de visionnaire. Jeune étudiant il rédige un mémoire remarqué sur l’énergie solaire, parle de voitures électriques et de fusées réutilisables. Du délire, disent ses condisciples, mais lui affirme suivre depuis toujours le même plan directeur.

PayPal

Il devient américain en 1994 et crée sa première startup aussitôt en Silicon Valley. Une petite société qui invente ce qui deviendra plus tard Google Map : un système de cartographie permettant d’identifier des lieux et des itinéraires.  Mais la prouesse technologique n’est pas le moteur principal de Mulk. Ce qu’il veut, c’est changer le monde et d’abord changer les industries du monde. Il s’attaque donc à une forteresse apparemment inexpugnable : la banque. Il invente un système de paiement de personne à personne qui permet d’envoyer de l’argent en indiquant simplement l’adresse électronique du destinataire. Son objectif : rompre avec les banques apathiques dont les ordinateurs mettaient des journées entières à traiter des règlements. Il invente un système agile où les transactions se font d’un clic de souris. PayPal était né. Le franc-tireur a visé juste et devient vite multimillionnaire. En 2002, il vend PayPal à eBay pour 1,5 milliard de dollars et empoche, à titre personnel, 250 millions de dollars. Suffisamment pour commencer à réaliser ses rêves les plus fous.

Space X

Son rêve de conquête spatiale va pouvoir devenir une réalité. Il crée aussitôt Space X dans la banlieue de Los Angeles. Un immense hangar revêtu de blanc immaculé mélangeant, dans le même lieu, les meilleurs cerveaux des universités américaines avec les soudeurs et mécaniciens qui fabriquaient le matériel. Tous ensemble pour forger le rêve le plus fou : révolutionner l’industrie aérospatiale et construire des fusées low costs, réutilisables.
L’objectif donné par Musk à ses troupes est clair : construire le moteur de fusée le meilleur et le plus économique, en optimisant tous les processus, pour sortir des fusées plus vite et moins cher que n’importe qui d’autre. L’analyse de Musk était simple : l’industrie aérospatiale traditionnelle fabriquait des produits extrêmement coûteux, des Ferrari, alors que des Twingo pouvaient suffire.
Après des séries d’échecs, de remises en question où tout devait être repensé jusqu’au moindre rivet, après des lancements hasardeux successifs, après avoir frôlé la faillite, l’abandon, à force de persévérance et d’innovation, Space X est aujourd’hui une entreprise à succès qui rivalise avec les fusées de la NASA ou d’Ariane Espace. Ses lanceurs sont considérés comme fiables et peuvent revenir à leur point de départ ; ce que personne au monde ne sait encore faire. Dans son rêve de conquête spatiale, Musk a désormais son armée de fusées, prêtes sur leurs pas de tirs.
 
Mais ce qui est plus important encore, c’est que Musk a révolutionné l’image de l’espace. Si quelqu’un sait observer, c’est bien lui. Il constate que l’industrie de l’espace a rendu l’espace ennuyeux. Les russes, qui dominent l’envoi de personnes et d’objets dans l’espace utilisent des équipements vieux de dizaines d’années. Les boutons et les cadrans de l’exigüe capsule Soyouz n’ont apparemment pas changé depuis le vol inaugural en 1966. Il observe que les pays nouveaux venus dans la course à l’espace imitent les équipements russes et américains avec une précision absurde. Elon Musk veut changer aussi cela et apporter de l’air et de l’innovation à une industrie rouillée. En procédant ainsi, il innove sans complexes et attire les meilleurs talents. C’est une des clés de son succès.

Tesla

Envoyer des fusées dans l’espace ne comble pas encore cet inventeur toujours sur la brèche. Il veut affronter un autre secteur industriel, un secteur lourd, ancien et de taille : l’automobile. On lui rappelle bien vite que la dernière création d’entreprise réussie dans cette industrie aux États-Unis est celle de Chrysler : elle remonte à 1925. Cette mise en garde ne l’effraie pas un instant. Ici aussi, il observe.
À force de voir à la télévision des publicités pour des automobiles, on ne peut plus y faire attention.  Les annonces serinent les mêmes messages depuis des décennies et vantent les petits détails, le porte-gobelet ou le coffre plus vaste.  Pour cet innovateur insatiable, ce n’est pas suffisant ; l’industrie automobile est tombée bien bas.
 
Sa révolution c’est la voiture électrique. Et pas n’importe quelle voiture électrique. Il sort en 2012 une berline de luxe, tout électrique, capable de parcourir 435 km en pleine autonomie. Une auto qui a du nerf (100 km/h en 4.4 secondes) et de l’allure. La mécanique bruyante du moteur a disparu, elle roule en silence, elle est dotée de fonctions inédites : poignées de porte encastrées qui sortent de la carrosserie quand le conducteur s’approche, commandes réunies au volant sous les doigts, écran tactile, espace dégagé, archi-sécurisée… Bref, une auto de classe. Chère, c’est vrai (100 000 dollars) mais quelle voiture !
 
Pourtant la vraie révolution n’est pas dans la voiture. N’importe quel industriel avisé pourrait construire ce type d’automobile. Elon Muk vise plus loin et veut révolutionner l’écosystème de l’automobile. Il supprime les concessionnaires, les réparateurs, les visites régulières, tout ce que les automobilistes connaissent depuis que la voiture existe. La Tesla est vendue en direct sur le web ou dans des boutiques rappelant les Apple Store. Il n’y a pas de garage. Si vous constatez une anomalie, ou souhaitez obtenir les dernières versions avec de nouvelles fonctions, la voiture est automatiquement upgradée, à distance. Car cette voiture est un ordinateur roulant.
 
Pour en recharger la batterie, Musk imagine d’installer des hyperchargeurs sur toutes les autoroutes d’Amérique puis du monde. Rechargement gratuit.
Pour l’auteur de la biographie, Ashlee Vance, « Musk voulait construire une automobile qui ne souffrirait aucun compromis. Il l’a fait. Puis, dans une sorte de judo entrepreneurial, il a bousculé des décennies de critiques contre les automobiles électriques. [Sa} voiture était la meilleure voiture. Point barre. »

Hyperloop

Elon Musk est un innovateur féroce. Après la banque, l’industrie aérospatiale et l’industrie automobile, le voilà vouloir révolutionner l’industrie ferroviaire ! En août 2013, il dévoile l’Hyperloop. Cet engin est un grand tube pneumatique faisant circuler à une vitesse proche de celle du son (1 300 km/h) des capsules en sustentation électromagnétique avec des voyageurs. Son premier projet : relier Los Angeles à San Francisco en moins de trente minutes.

LIRE DANS UP’ : Hyperloop : pour changer le monde du voyage

L’idée lui est venue en observant, encore une fois, le projet de TGV entre les deux grandes villes de Californie. Un projet archaïque à 60 milliards de dollars pour le TGV le plus lent du monde avec le coût au kilomètre le plus élevé. L’Hyperloop coûte entre 6 et 10 milliards de dollars, il va plus vite qu’un avion et permettrait un flux de voyageurs beaucoup plus important pour un prix de billet hyper-compétitif. Il tient tellement à ce projet que, pour le faire avancer plus vite, il l’ouvre en open source à toutes les bonnes volontés.  Les premiers tests grandeur réelle auront lieu courant 2016.
 
 
Elon Musk crée de façon tellement insatiable des automobiles, des panneaux solaires, des fusées, des hyperloops qu’on en oublierait presque que ces projets sont annexes à ses yeux. Pour lui la technologie est la meilleure voie à suivre pour l’amélioration de l’humanité. Ses innovations lui ont apporté gloire et fortune mais son but ultime est de faire des humains une espèce interplanétaire. Son biographe précise « Certains peuvent trouver cela idiot, mais c’est sans nul doute sa raison de vivre. Musk est convaincu que la survie de l’homme dépend de la colonisation d’une autre planète et qu’il doit consacrer sa vie à cet objectif ».  Et cet objectif n’est, pour Musk, pas si lointain que cela. Il prédit : « Je pense que vers 2025 Space X aura développé un propulseur et un vaisseau spatial capables d’emporter vers Mars des gens et des chargements en grande quantité. » Mais il est aussi (relativement) réaliste et connaît les difficultés d’une conquête martienne : « Il faudra un jour chauffer Mars si l’on veut en faire une planète comme la Terre, et je n’ai pas de plan pour cela. Dans le meilleur des cas cela prendra beaucoup de temps. Je ne sais pas combien, entre un siècle et mille ans. Il y a zéro chance pour que Mars devienne une autre Terre au cours de ma vie. Enfin, pas zéro, mais 0.001% de chance, et pour cela, il faudrait prendre des mesures drastiques. »

LIRE DANS UP : Une bombe atomique pour rendre Mars habitable

Dans le secteur des technologies, on compare volontiers la motivation et les ambitions de Musk à celles de Bill Gates et Steve Jobs. Certains osent presque imaginer une manipulation génétique qui aurait permis à Bill et Steve de faire un enfant ensemble et cet enfant serait Elon !  C’est ce que déclare Edward Jung, ingénieur surdoué de la Silicon Valley, actuellement patron des architectures logicielles de Microsoft qui connaît bien les trois génies de la Valley. Un autre observateur éclairé surenchérit : « Il est un mélange amélioré des deux ».
 

LIRE : Ashlee Vance, Elon Musk, Tesla PayPal, Space X : l’entrepreneur qui va changer le monde, Eyrolles, 24,90 euros. 

Cet article a été publié originellement le 12 février 2016
 
 

 

Plante modifiée génétiquement

Modifier génétiquement une plante n’est pas anodin

Actuellement, plusieurs nouvelles techniques de modification génétique font l’objet de discussion, pour déterminer si les produits qui en seront issus seront, ou non, réglementés comme les OGM transgéniques. Cet article d’Eric Meunier de la revue inf’OGM nous permet de comprendre certains des risques potentiels liés à la seule mise en œuvre d’une technique de modification génétique, quelle qu’elle soit, sur une culture de cellules végétales.
 
Les techniques de modification génétique, nouvelles ou anciennes, ne sont pas totalement maîtrisées : si elles permettent d’apporter certains nouveaux caractères à un être vivant (comme la capacité à tolérer un herbicide), elles produisent également de façon non intentionnelle d’autres modifications dénommées « hors-cible » (off-target en anglais) car ayant lieu en d’autres endroits du génome que celui initialement ciblé.
 
Le 7 avril 2016, comme en écho aux remarques d’Yves Bertheau, ex-membre du Haut Conseil des Biotechnologies (HCB), formulées depuis décembre 2015, Jean-Christophe Pagès, président du Comité Scientifique (CS) du HCB, expliquait à l’Office parlementaire sur l’évaluation des choix scientifiques et techniques (OPECST) à propos d’une de ces nouvelles techniques, Crispr/Cas9, qu’il « faut ne pas oublier quelles sont les difficultés de son application [...] en particulier in vivo chez l’animal dans la mesure où il faut apporter une matrice et on a actuellement de gros soucis de vectorisation pour pouvoir le faire.
In vitro, en culture, en revanche, c’est quelque chose de beaucoup plus aisé et c’est la raison pour laquelle la majorité des applications sont des applications de recherche et éventuellement des applications pour lesquelles on peut reconstituer des organismes à partir de culture in vitro, et là ça concerne effectivement certaines plantes »… Des propos qui interpellent car, à y regarder de plus près, l’avis du CS du HCB du 4 février 2016 - devenu depuis rapport provisoire - ne fait pas état de telles difficultés in vivo, ou de telles « facilités » de mise en œuvre in vitro.

LIRE DANS UP’ : CRISPR : Révolution dans l’histoire humaine ou méga bombe à retardement ?

Dans les différentes étapes du processus de modification génétique. Nous allons nous intéresser à l’étape dite de vectorisation qu’évoque Jean-Christophe Pagès, qui consiste à apporter dans une cellule le matériel destiné à générer la modification génétique souhaitée. Mais aussi aux étapes préalables à cette phase de vectorisation qui s’avèrent être sources de stress capables d’induire des mutations et des épimutations (voir encadré ci-dessous).
 

Mutation, épimutation : de quoi parle-t-on ?
Une mutation est couramment définie comme une modification de l’information génétique contenue dans un organisme, que ce soit sous forme d’ADN ou d’ARN. Les mutations sont héréditaires. Elles peuvent être « silencieuses », c’est-à-dire n’avoir aucune implication dans le métabolisme de l’organisme. Elles peuvent aussi affecter l’expression d’un ou plusieurs gènes, modifiant le métabolisme.
Les épimutations appartiennent à la famille des mutations affectant l’expression d’une séquence génétique mais qui ne sont pas dues à une modification de la séquence génétique elle-même. Elles peuvent par exemple être dues à un changement de la composition chimique de briques de base de l’ADN, les nucléotides.

Préparation des cellules à transformer

La première étape avant de pouvoir introduire du matériel dans des cellules (la vectorisation dont parle J.-C. Pagès) consiste à préparer les cellules végétales. Les techniciens de laboratoire vont casser la paroi des cellules, voire l’enlever complètement. Les cellules végétales dont la paroi a disparu, ou protoplastes, deviennent donc transformables et les biologistes peuvent alors faire entrer toute une panoplie d’outils comme des grosses protéines, des ARN et/ou des ADN codant dans ces cellules. Or, comme le rappelle Yves Bertheau, cette « simple » formation de protoplastes induit des mutations et épimutations, un phénomène abondamment observé dans la littérature scientifique [1].

La simple mise en culture de cellules induit des mutations

La deuxième étape consiste à cultiver ces protoplastes. Or le fait même de mettre en culture des cellules est générateur de mutations et épimutations. Le plus étonnant est qu’une bibliographie scientifique montre que les mécanismes à la base de l’apparition de ces mutations et épimutations restent encore assez méconnus malgré des décennies d’utilisation [2]. Ce phénomène, appelé variation somaclonale, est tel qu’il a d’ailleurs été utilisé par des semenciers pour créer une « diversité génétique » nécessaire pour « améliorer » des plantes, pour reprendre un élément de langage des semenciers.
 
Le Groupement national des industries semencières (GNIS) explique ainsi que « la variation somaclonale est la modification observée chez certaines cellules, après un long cycle de cultures in vitro sans régénération. Elles ne sont plus alors identiques à la plante mère. Cette variation peut être due à une modification du génome nucléaire ou du génome des organites cytoplasmiques ».
 
En d’autres termes, les plantes obtenues à partir de ces cellules auront des caractéristiques différentes. Le GNIS apporte une dernière précision intéressante : « les modifications de caractères obtenues sont peu stables et ne se retrouvent pas toujours dans la plante régénérée, ou dans sa descendance ». La raison ? Des modifications apparues (épimutations) peuvent faire disparaître les mutations obtenues [3]… Comme nous l’explique Yves Bertheau, « il paraît difficile dans de telles conditions de prévoir quels impacts peut avoir cette étape de mise en culture de cellules lors de la mise en œuvre d’une nouvelle technique de modification génétique ».

La vectorisation, enfin...

Cellules préparées et mises en cultures, nous voilà enfin prêts à introduire le matériel destiné à générer la modification souhaitée. Selon les techniques, ce matériel peut consister en protéines et/ou séquences génétiques de type ARN ou ADN – molécule plus fréquemment utilisée dans le cas des plantes - codant (oligonucléotides, plasmides, virus…). Les méthodes utilisées pour faire pénétrer ce matériel dans les cellules consistent tout simplement à faire des trous dans les membranes restantes (cytoplasmique et nucléaire) de la cellule. Or, comme nous l’explique Yves Bertheau, faire de tels trous induit, là encore, des mutations et des épimutations [4]. Surtout, le chercheur estime qu’il est impossible de prévoir une grille générale d’appréciation des risques. Car il faut choisir entre plusieurs techniques de vectorisation, entre différents types de matériel, le tout selon les séquences génétiques à introduire et les espèces ciblées. Au final, seule une analyse au cas par cas comme prévu pour les OGM permet d’évaluer les potentiels risques liés à tous ces effets non intentionnels.

Le rapport provisoire du CS du HCB silencieux sur ces mutations

Dans un article publié en 2011, des scientifiques ont estimé que 35% de tous les effets non intentionnels observés suite à une modification génétique de la variété de riz Senia par transgenèse sont dus au processus même de transformation des cellules [5]. Le phénomène n’est donc pas anodin.
 
Étonnamment, et malgré les déclarations de son Président devant l’OPECST, le comité scientifique du HCB n’a pas fait état de ces risques dans son rapport provisoire sur les risques liés aux nouvelles techniques. Si la question de la « vectorisation » est bien abordée dans les fiches du CS de chaque technique, il s’agit seulement de faire état des moyens de mise en œuvre d’une technique et de décrire comment le matériel est introduit dans les cellules. Nulle part il n’est fait état des mutations et épimutations qui peuvent émerger à chacune des étapes comme nous venons de le voir. Le HCB étant composé d’un comité d’experts scientifiques, on attend de ce comité qu’il discute et explique, pas qu’il ignore ces points. D’autant que la vectorisation – pour ne parler que de ce qui est évoqué dans le rapport du CS – n’apparaît pas complètement au point selon les techniques, le même CS notant ainsi pour la mutagenèse dirigée par oligonucléotides que « de nombreuses molécules ou mélanges moléculaires sont en cours d’essais pour améliorer la vectorisation qui fonctionne relativement bien in vitro mais très peu sur des organismes entiers (Liang et al., 2002) » [6].

Sélectionner et régénérer les cellules « modifiées » n’est pas sans effet

Du fait de leur faible, voire très faible, efficacité de transformation [7], les techniques de modification génétique impliquent en aval de sélectionner les cellules ayant effectivement été modifiées. Cette sélection se fait en utilisant des marqueurs qui permettent de différencier les cellules : gène de résistance à des antibiotiques ou à des herbicides (les cellules sont alors plongées dans un bain d’antibiotiques ou d’herbicides et seules les cellules réellement modifiées survivent), gène qui permet la croissance de la cellule en présence d’une molécule habituellement toxique ou encore gène qui permet aux cellules d’utiliser une source de carbone normalement non métabolisable... ou tout autre marqueur qui sera persistant ou supprimé en bout de course [8]. Mais la suppression de ces marqueurs de sélection se fait par des techniques plus ou moins fiables et précises et qui donc peuvent induire potentiellement des toxicités cellulaires et autres réarrangements chromosomiques [9], laisser des empreintes [10] et produire des sites de recombinaisons (lieux d’échanges de séquence génétique entre deux brins d’ADN) aux effets non prévisibles [11]. Des techniques qui ne sont par ailleurs pas forcément possibles pour toutes les espèces végétales.
 
À partir de ces cellules sélectionnées, des plantes doivent ensuite être régénérées. Une nouvelle étape de cultures cellulaires qui fera appel à diverses hormones de synthèse, et pourra aussi induire à nouveau des mutations et des épimutations avec réarrangements ou non de chromosomes [12].
 
Qu’il s’agisse de l’étape de modification génétique en elle-même, des étapes préalables, ou des étapes postérieures, toutes induisent des mutations ou épimutations, appelées effets hors-cible. Mais, on peut entendre dans les couloirs que finalement ces (épi)mutations ne seraient pas présentes dans la plante commercialisée. La raison ? L’étape suivante, dite de rétrocroisement, permettrait de se débarrasser de tous ces effets non intentionnels...

La théorie à la base du rétrocroisement

Rappelons le principe général : une entreprise qui souhaite mettre sur le marché une variété génétiquement modifiée (qu’elle soit légalement considérée comme OGM ou pas) ne va pas modifier directement le génome d’une des variétés « élites » mais celui d’une variété plus commune. Une fois la modification obtenue, l’entreprise va alors croiser une première fois la variété commune génétiquement modifiée (GM) avec la variété élite commercialement intéressante. Elle recroisera ensuite les descendants avec la variété élite initiale jusqu’à ce que ces descendants soient considérés (à partir d’une analyse statistique) quasiment similaires (on parle de variété quasi-isogénique ou de ségrégants négatifs) à la variété élite. La différence entre la variété élite et la nouvelle variété est supposée n’être « quasiment » que la seule séquence modifiée.
 
Le GNIS explique ainsi que, au dernier croisement, « la part [du génome provenant] de la lignée élite est de 96,88%, on estime alors que la lignée obtenue est suffisamment proche de la lignée élite. On tend vers l’obtention d’une lignée isogénique, ne différant de la lignée élite que par un seul gène [celui contenant la modification] ». On notera ici qu’un pourcentage de 96,88 % laisse encore beaucoup de place aux mutations, épimutations et réarrangements potentiels pour certaines plantes cultivées dont le génome est très grand comme le blé : pour environ 17 milliards de paires de base constituant le génome du blé, les 3,12% restants représentent tout de même plus de 500 millions de paires de bases...

Les limites de la théorie

La théorie sous-jacente au « nettoyage » des effets hors-cible grâce au rétrocroisement se fonde sur l’hypothèse suivante : les effets non intentionnels apparus aux étapes antérieures sont suffisamment éloignés de la région où a eu lieu la modification génétique désirée. En effet, plus ces effets hors cibles sont proches, plus la probabilité est grande que les effets non désirés soient transmis avec la modification génétique à chaque croisement. D’un nombre minimum de sept, le nombre de croisements nécessaires pourrait alors monter à plus de 14 pour essayer de s’en débarrasser.
 
Mais, outre ce problème de proximité des effets hors cible avec la séquence génétique modifiée, la confiance que l’on peut avoir dans cette théorie est également relativisée par deux autres phénomènes biologiques. D’une part, des séquences génétiques peuvent exister et évoluer en blocs plus ou moins importants. Ces blocs étant transmis tels quels à la descendance, les effets hors-cibles contenus dans ces blocs resteront alors avec la séquence génétique modifiée à chaque croisement. D’autre part, certaines séquences génétiques ont la capacité de « s’imposer » lors de la formation des gamètes. Dites « égoïstes », ces séquences vont être contenues dans un plus grand nombre de gamètes qu’attendu et, de génération en génération, elles seront toujours présentes dans la descendance. Si les effets hors-cible apparaissent dans de telles séquences, il sera moins aisé de s’en débarrasser [13].
 
Ces éléments impliquent donc qu’une nécessaire vérification au cas par cas paraît nécessaire. A l’heure actuelle, seule la législation sur les plantes transgéniques requiert de telles vérifications au cas par cas avec un ensemble d’analyses le plus complet qu’il soit (avec des déficiences néanmoins rappelons-le). En effet, le séquençage du génome ne permet pas de répondre à la question de la présence ou non d’effets hors-cible du fait des limites inhérentes à ce type d’analyse (cf. encadré ci-dessous).
 

Le séquençage et les outils informatiques associés ? Tout sauf un gage de certitude !
Le 7 avril, lors de l’audition organisée par l’Office parlementaire sur l’évaluation des choix scientifiques et techniques (OPECST), André Choulika, PDG de Cellectis, affirmait à propos des effets hors-cible « reséquencer intégralement [le génome des plantes], c’est vachement important […] parce que dans l’approbation, on vous redemande la séquence intégrale ». Sauf que, à bien y regarder, les résultats de séquençage obtenus sont loin d’une fiabilité absolue.
Le séquençage dit de « nouvelle génération », est aujourd’hui relativement peu cher et rapide. Mais plusieurs « problèmes » émaillent sa mise en œuvre, la lecture et l’utilisation des résultats.
Tout d’abord, plusieurs étapes du séquençage lui-même « parasitent » la fiabilité du résultat final. Il faut savoir extraire correctement l’ADN, le découper en morceaux puis séquencer ces derniers à l’aide de diverses plateformes et méthodes. Or, ces plateformes et méthodes sont assez différentes les unes des autres, tant en termes de limites que de fiabilité de résultats [14].
Il faut ensuite lire ces résultats en tentant de remettre bout à bout les séquences lues pour reconstituer le génome en entier. Puis, les séquences obtenues sont comparées avec d’autres considérées comme « de référence » et stockées dans des bases de données qui contiennent déjà elles-mêmes des erreurs [15].
Autant d’étapes qui introduisent une importante imprécision dans les résultats finaux de détection d’effets non intentionnels et donc d’évaluation des risques, les incertitudes quant aux séquences augmentant avec des génomes polyploïdes ou aux nombreuses séquences répétées [16]. Sans compter qu’en bout de course, les mutations repérées peuvent ne pas s’avérer de la même importance biologique [17]...
De nombreux articles résument les difficultés rencontrées à chaque étape, comparent les méthodes, plateformes [18] et logiciels associés [19], discutent de normes de référence (« gold standards ») et normes à mettre en place pour fiabiliser le processus complet [20]. Bref, comme le soulignent ces auteurs, autant de techniques et d’étapes qui sont en cours d’amélioration car non parvenues à maturité, en pleine évolution et nécessitant donc nombre de vérifications pour des évaluations au cas par cas.
Selon de nombreux chercheurs, savoir faire face à l’accumulation de très nombreux résultats (un de ces fameux « big data »), dont certains avec de multiples erreurs, et les utiliser avec rigueur est un des défis de la biologie moléculaire actuelle. D’ailleurs, devant le scepticisme soulevé face à tout résultat de séquençage, les demandes minimales des relecteurs d’articles scientifiques sont telles que de plus en plus de chercheurs sont maintenant obligés de présenter des résultats de séquençages de plus longues séquences pour assurer du sérieux de leurs résultats bruts [21].

Nous avons, au cours de cet article, évoqué les mutations et épimutations parmi les effets non intentionnels de ces biotechnologies modernes. On peut dès lors observer que prétendre détecter et éliminer tous les effets non intentionnels des nouvelles techniques relève plus de l’acte de foi que de la science établie. Surtout, face à ce constat des effets potentiels, des limites du rétrocroisement et de celles du séquençage, on peut douter en toute bonne foi de la capacité des sélectionneurs à éliminer tous les effets hors-cible puis à détecter efficacement et rapidement les mutations et épimutations restantes par séquençage. On peut dès lors s’étonner du silence du Comité scientifique du Haut Conseil des Biotechnologies (HCB) sur tous ces points dans son premier rapport publié en février 2016 sur les impacts liés aux nouvelles techniques de modification génétique.
 
Eric Meunier, Inf’OGM
 
 
[1] « Stress induces plant somatic cells to acquire some features of stem cells accompanied by selective chromatin reorganization », Florentin, A. et al. (2013), Developmental Dynamics, 242(10), 1121-1133 ;
« Developmental stage specificity and the role of mitochondrial metabolism in the response of Arabidopsis leaves to prolonged mild osmotic stress », Skirycz, A. et al., (2010). Plant Physiology, 152(1), 226-244 ;
« Arabidopsis mesophyll protoplasts : a versatile cell system for transient gene expression analysis », Yoo, S.-D.et al. (2007). Nat. Protocols, 2(7), 1565-1572.
 
[2] « Cell culture-induced gradual and frequent epigenetic reprogramming of invertedly repeated tobacco transgene epialleles », Krizova, K. et al., (2009). Plant Physiology, 149(3), 1493-1504 ;
« Extended metAFLP approach in studies of tissue culture induced variation (TCIV) in triticale », Machczyńska, J. et al., (2014). Molecular Breeding, 34(3), 845-854 ;
« Tissue culture-induced novel epialleles of a Myb transcription factor encoded by pericarp color1 in maize », Rhee, Y. et al., (2010). Genetics, 186(3), 843-855 ;
« Transformation-induced mutations in transgenic plants : analysis and biosafety implications », Wilson, A.K. et al., (2006). Biotechnol Genet Eng Rev, 23(1), 209-238 ;
« A whole-genome analysis of a transgenic rice seed-based edible vaccine against cedar pollen allergy », Kawakatsu, T. et al., (2013).. DNA Research 20, 623-631 ;
« Recent progress in the understanding of tissue culture-induced genome level changes in plants and potential applications », Neelakandan et al.,, 2012,. Plant Cell Reports, 31(4), 597-620
 
[3] « Meiotic transmission of epigenetic changes in the cell-division factor requirement of plant cells », Meins, F. et al., (2003). Development, 130(25), 6201-6208.
 
[4] « Cell biology : delivering tough cargo into cells », Marx, V. (2016). Nat Meth, 13(1), 37-40.
 
[5] « Only half the transcriptomic differences between resistant genetically modified and conventional rice are associated with the transgene », Montero, M. et al., (2011). Plant Biotechnology Journal, 9(6), 693-702.
 
[6] Rapport du CS du HCB, page 50
 
[7] « Less is more : strategies to remove marker genes from transgenic plants », Yau, Y.Y. et al, (2013), BMC Biotechnology.
 
[8] « Alternatives to Antibiotic Resistance Marker Genes for In Vitro Selection of Genetically Modified Plants – Scientific Developments, Current Use, Operational Access and Biosafety Considerations », Breyer et al (2014) Critical Reviews in Plant Sciences, Vol 33, Issue 4, 286-330
« Suitability of non-lethal marker and marker-free systems for development of transgenic crop plants : present status and future prospects », Manimaran et al (2011) Biotechnol Adv. 29(6), 703-14
« Effects of antibiotics on suppression of Agrobacterium tumefaciens and plant regeneration from wheat embryo », Han, S-N. et al, (2004), Journal of Crop Science and Biotechnology 10, 92-98.
 
[9] Certains de ces systèmes peuvent persister comme éléments circulaires extra-chromosomiques durant plusieurs générations (ex. du blé).
 
[10] utilisables en identification (ex : empreinte d’excision de transposon, recombinaisons) de l’évènement de transformation
 
[11] Biotechnology 13., ibid.
 
[12] « Recent progress in the understanding of tissue culture-induced genome level changes in plants and potential applications », Neelakandan, A.K. et al, (2012), Plant Cell Reports 31, 597-620
« Regeneration in plants and animals : dedifferentiation, transdifferentiation, or just differentiation ? », Sugimoto, K. et al, (2011), Trends in Cell Biology 21, 212-218.
 
[13] « Distorsions de ségrégation et amélioration génétique des plantes (synthèse bibliographique) », Diouf, F.B.H. et al , (2012), Biotechnologie Agronomie Société Et Environnement, 16(4), 499-508
« Quantitative trait locus mapping can benefit from segregation distortion », Xu, S. (2008), Genetics, 180(4), 2201-2208
« Genetic map construction and detection of genetic loci underlying segregation distortion in an intraspecific cross of Populus deltoides », Zhou, W et al, (2015), PLoS ONE, 10(5), e0126077
 
[14] « Next generation sequencing technology : Advances and applications », Buermans, H.P.J. et al, (2014), Biochimica et Biophysica Acta (BBA) - Molecular Basis of Disease, 1842(10), 1932-1941
« Next-generation sequencing platforms », Mardis, E.R. (2013), Annual Review of Analytical Chemistry, 6(1), 287-303
« Applications of next-generation sequencing. Sequencing technologies - the next generation », Metzker, M.L. (2010), Nature Reviews Genetics, 11(1), 31-46.
 
[15] « Next-generation sequence assembly : four stages of data processing and computational challenges », El-Metwally, S. et al, (2013), PLoS Comput Biol 9, e1003345
« Systematic comparison of variant calling pipelines using gold standard personal exome variants », Hwang, S. et al, (2015), Scientific reports 5, 17875
« Sequence assembly demystified », Nagarajan, N. et al, (2013), Nat Rev Genet 14, 157-167.« Improving the quality of genome, protein sequence, and taxonomy databases : a prerequisite for microbiome meta-omics 2.0 », Pible, O. et al, (2015). Proteomics 15, 3418-3423
« Theoretical analysis of mutation hotspots and their DNA sequence context specificity », Rogozin, I.B. et al, (2003), Mutation Research/Reviews in Mutation Research 544, 65-85
 
[16] « Sequencing technologies and tools for short tandem repeat variation detection », Cao, M.D. et al, (2014), Briefings in Bioinformatics
 
[17] « Open chromatin reveals the functional maize genome », Rodgers-Melnick, E. et al, (2016). Proceedings of the National Academy of Sciences 113, E3177-E3184
« Evolutionary patterns of genic DNA methylation vary across land plants », Takuno, S. et al, (2016), Nature Plants 2, 15222.
 
[18] « Systematic comparison of variant calling pipelines using gold standard personal exome variants », Hwang, S., et al, (2015), Scientific reports 5, 17875
« Principles and challenges of genome-wide DNA methylation analysis », Laird, P.W. (2010), Nature Reviews Genetics 11, 191-203
« Performance comparison of whole-genome sequencing platforms », Lam, H.Y.K. et al (2012), Nat Biotech 30, 78-82
« Low concordance of multiple variant-calling pipelines : practical implications for exome and genome sequencing », O’Rawe, J. et al, (2013), Genome Medicine 5, 1-18.
 
[19] « Next-generation sequence assembly : four stages of data processing and computational challenges », El-Metwally, S. et al, (2013), PLoS Comput Biol 9, e1003345
 
[20] « Rapid evaluation and quality control of next generation sequencing data with FaQCs », Lo, C.-C. Et al, (2014), BMC Bioinformatics 15, 1-8
 
[21] « Droplet barcoding for massively parallel single-molecule deep sequencing », Lan, F. et al, (2016), Nat Commun 7
 

 

Dopage

Dopage et culte de la performance, un couple inséparable

Les Jeux olympiques de Rio s’annoncent sur fond d’une affaire de dopage dans le sport russe et de soupçons visant plusieurs pays africains ou caribéens. Les rumeurs et scandales de dopage sont inséparables des compétitions sportives. Lors des Jeux de 1904 déjà, le coureur Thomas Hicks n’aurait probablement pas remporté le marathon sans l’injection pendant la course de doses de strychnine, un produit prohibé depuis. Le premier cas de dopage avéré date des Jeux de 1968 à Mexico, quand furent inaugurés les tests antidopage.

Depuis lors, la lutte contre le dopage s’est considérablement développée, mais le phénomène ne semble pas reculer. Comment expliquer la persistance du dopage en dépit des actions menées pour l’éradiquer ? Qu’est-ce qui conduit au dopage ? La lutte antidopage s’attaque-t-elle réellement aux racines du problème ?

Contrôler toujours plus les sportifs

La lutte antidopage consiste principalement à repérer et à sanctionner les sportifs qui prennent des substances illicites en vue d’améliorer leurs performances, et à punir leurs entourages (encadrement sportif, technique, médical) s’ils sont complices. Cette politique de contrôle est complétée par des actions préventives, visant à informer les sportifs, notamment les jeunes, sur les dangers sanitaires du dopage et à les sensibiliser aux règles éthiques sportives. Mais cette prophylaxie reste diffuse et peu visible, tandis que le volet répressif, qui cible les sportifs les plus performants, a été continûment renforcé.

La coordination de la lutte antidopage a franchi un palier à la fin des années 1990 quand le Comité international olympique (CIO) a initié la création d’une Agence mondiale antidopage (AMA) indépendante. En 2004, un Code mondial antidopage a été instauré, qui harmonise les politiques et réglementations des organisations sportives du monde entier.

Ce code énonce des standards dans différents domaines : l’organisation des contrôles, les protocoles des laboratoires d’analyse, la liste des substances et méthodes interdites, la réglementation des autorisations d’usage à des fins thérapeutiques, etc. Depuis 2005, les athlètes ont l’obligation saisir dans une base de données (le système ADAMS) les informations sur leur localisation, afin de se rendre accessibles en permanence à d’éventuels contrôleurs. La surveillance des sportifs est donc constamment resserrée.

 

En 2012, aux Jeux olympiques de Londres, la moitié des athlètes a été contrôlée. Alistair Ross/Flickr

En outre, la performance des tests est sans cesse améliorée – ce qui permet de détecter de nouvelles substances, ou des prises administrées selon des protocoles sophistiqués qui les rendaient indétectables jusque-là. De plus, les échantillons urinaires et sanguins sont désormais conservés, afin d’effectuer des tests rétrospectifs en utilisant des méthodes inexistantes au moment des prélèvements.

La course au dopage

Actuellement plus de 200 000 échantillons sont analysés chaque année sous l’égide de l’AMA, parmi lesquels 1 % environ est positif. L’athlétisme arrive en tête dans le palmarès des violations des règles antidopage (17 % des cas en 2014), devant le culturisme, le cyclisme et la musculation. Ce classement ne reflète pas le poids des pratiques dopantes, car chaque discipline compte un nombre différent de pratiquants d’élite (cibles prioritaires des contrôles) et la lutte antidopage y a une ampleur très variable.

Depuis l’introduction de contrôles, des cas positifs ont été décelés à chaque olympiade. Seule exception, les Jeux de 1980 à Moscou, toutefois connus comme les « Jeux des pharmaciens » en référence au dopage d’État découvert après la chute des régimes socialistes est-européens. La surveillance des athlètes est désormais resserrée : aux Jeux de 2012 à Londres plus de la moitié d’entre eux ont été contrôlés, et ils ont été avertis que des contrôleurs pouvaient à tout moment faire irruption dans leur chambre.

 

En 1988, à Séoul, Ben Johnson « l’emporte » sur Carl Lewis. DPMS/Flickr

Parallèlement, les pratiques dopantes se réinventent constamment : le dopage sanguin est jalonné par les différentes générations d’EPO jusqu’aux transfusions sanguines ; les stéroïdes à l’origine de l’affaire Balco – obligeant Marion Jones à rendre ses cinq médailles conquises aux Jeux de 2000 à Sydney – n’ont rien à voir avec ceux du premier grand scandale de dopage, celui de Ben Johnson, vainqueur du 100 mètres des Jeux de 1988 à Séoul.

Derrière la course à la performance se déroule une course au dopage, qui recourt à des innovations constantes (en termes de produits et de protocoles) afin d’échapper à des contrôles eux aussi de plus en plus performants. La clé est l’innovation, ce qui implique des investissements financiers, et ce qui réserve l’accès au dopage sécurisé et (quasi) indétectable aux athlètes d’élite, à ceux qui peuvent en assumer les coûts économiques.

Une triche individuelle ?

La lutte antidopage ne parvient pas à éliminer le fléau. Mais elle puise sa légitimité dans le ciblage des athlètes, objets de surveillance, de contrôles, de sanctions. Deux figures du sportif dopé émergent des affaires.

La première est celle de la transgression involontaire des règles, par erreur, inattention ou méconnaissance. Les athlètes contrôlés positifs mobilisent parfois cette figure, arguant qu’ils ont ingéré des aliments pollués, qu’ils ignoraient que le produit était interdit, qu’ils ont été abusés par leur entourage, qu’ils ont omis de modifier leur déclaration de localisation à la suite d’événements inopinés, etc. L’argument est celui de la bonne foi. Et il est parfois jugé recevable par la justice sportive.

 

Maria Sharapova, exclue pour deux ans de toute compétition pour la prise de meldonium, qu’elle conteste. Ian Gampon/Flickr

La seconde figure, contre laquelle est construite la lutte antidopage, est celle de la déviance volontaire, de la tricherie délibérée, de la fraude intentionnelle. Le sportif dopé doit être sanctionné, car il enfreint le principe d’égalité des concurrents devant l’épreuve sportive. En transgressant cette règle fondamentale, il menace l’édifice sportif dans son ensemble. Car la compétition sportive repose sur une morale méritocratique : chacun doit concourir en mobilisant ses seules qualités personnelles et en les développant par l’entraînement. Les performances sont alors le résultat des talents et du travail.

Selon cette morale, c’est le plus méritant qui gagne, alors que le dopage procure un avantage concurrentiel immoral et illégitime. L’égalité démocratique est le socle de la compétition et du système sportif. Et la lutte antidopage entretient cette idéalisation, car en concentrant l’attention sur une rupture d’égalité désignée comme illégitime elle occulte, et légitime, d’autres inégalités, économiques par exemple. C’est pourquoi les athlètes dopés doivent être sanctionnés. C’est pourquoi la lutte contre le dopage prend principalement la forme d’une lutte contre les dopés, désignés comme des tricheurs.

Une contrainte systémique

Mais les racines du dopage sont plus profondes, plus structurelles et moins individuelles, plus systémiques et moins isolées. Il n’est pas une addition de déviances délibérées pratiquées par des tricheurs ; il est une conséquence de la recherche de performance sportive et du travail qu’elle implique. Or les conditions du travail sportif sont largement ignorées par la lutte antidopage, alors qu’elles pèsent lourdement sur la vie des sportifs de haut niveau.

Le dopage n’est pas une simple déviance individuelle délibérée, parce que l’expérience du travail sportif est envahie par l’exigence de performance et de résultats. Pour s’y plier, il faut résister à de fortes charges d’entraînement, repousser les seuils de la douleur, affronter les blessures, traverser des périodes « sans », dominer les moments de doute, maintenir une hygiène de vie rigoureuse, répondre aux injonctions des entraîneurs, atteindre les objectifs, etc.

Il faut surmonter ces épreuves constantes pour se maintenir dans le monde sportif où la performance est envahissante, où elle est la mesure de la valeur, et où elle est la condition de la survie. Et ce culte de la performance est d’autant plus exigeant que les conditions d’emplois sont fragiles et les engagements contractuels précaires. Dès lors, le dopage n’est pas seulement une pratique qui vise de manière directe la performance. Il soutient, plus largement, l’engagement dans le sport de haut niveau, en favorisant la récupération physique, la remédiation psychique, l’intégration sociale, la résilience. Il est une réponse à un ensemble de contraintes, physiques, psychologiques, contractuelles.

À cet égard le sport n’est pas bien différent de nombre d’autres milieux professionnels où les pressions sont fortes et où la prise de substances psychoactives (stupéfiants, alcool, médicaments, les produits varient) permet de tenir ou d’être performant : la liste est longue, depuis les traders jusqu’aux ouvriers, en passant par les milieux artistiques ou les étudiants de filières hypersélectives, etc. La sociologie du travail enseigne que de fortes contraintes professionnelles favorisent le recours à des produits de soutien, qui dans le milieu sportif sont étiquetés comme dopage.

En faire le constat, ce n’est pas excuser ou justifier le dopage, d’autant que celui-ci expose les athlètes à de sérieux risques pour leur santé. Mais seule une meilleure compréhension des ressorts du recours au dopage peut permettre d’améliorer une action répressive largement inefficace. Cela exige de rompre avec une vision individualisante et moralisatrice qui érige l’athlète dopé en tricheur cynique, pour prendre en compte les propriétés du travail sportif afin de mettre en débat ce que celui-ci fait aux sportifs de haut niveau. À moins que la méritocratie sportive idéalisée ne soit un obstacle, culturel et institutionnel, empêchant de considérer le dopage autrement.

Didier Demazière, Sociologue, directeur de recherche au CNRS (CSO), Sciences Po – USPC

La version originale de cet article a été publiée sur The Conversation.

The Conversation

 

Promenade des anglais

Le dangereux écho de Daech sur les esprits désaxés

Tuerie d'Orlando, massacre de Nice, attaque dans un train en Allemagne : si chaque attentat est revendiqué ou adoubé par l'organisation État Islamique, les profils des tueurs posent de plus en plus questions et illustrent la force de la propagande mortifère du groupe djihadiste sur des individus apparemment désaxés.
 
Un Américain d'origine afghane qui a tué 49 personnes le 12 juin dans une boîte gay en Floride avant d'être abattu par la police, était violent, homophobe, radical, et... apparaissait aussi comme un homosexuel refoulé, selon les témoignages.
 
Le Tunisien qui a écrasé 84 personnes au volant de son camion le soir du 14 juillet à Nice reste encore une énigme pour les enquêteurs. "Un individu très éloigné des considérations religieuses, ne pratiquant pas, mangeant du porc, buvant de l'alcool, consommant de la drogue et ayant une vie sexuelle débridée", mais qui avait manifesté "un intérêt récent pour la mouvance djihadiste radicale", a énoncé lundi le procureur de Paris. Un homme de 74 ans entendu par les enquêteurs est même présenté par certains comme un de ses amants. 
 
Et en Allemagne, où un très jeune - 17 ans - demandeur d'asile afghan a attaqué lundi soir à la hache des voyageurs dans un train, les autorités se refusent à toute spéculation : arrivé dans le pays il y a deux ans en tant que mineur non accompagné, il était inconnu des services de renseignement.
 
Dans une tribune publiée mardi par le journal Libération, l'historien Olivier Christin évoque ces "massacres où se mêlent convictions religieuses, hostilités aux interventions en Syrie et en Irak, antisémitisme, mais aussi frustrations personnelles, haine de soi et aspiration au suicide".
"La cause EI accueille toutes les colères", résume-t-il, en y voyant "une rupture radicale dans l'histoire du terrorisme religieux et politique, qui a longtemps conféré une place centrale aux questions d'organisation et de formulation doctrinale".

« Idéologie fanatique et mortifère »

Le groupe État Islamique a compris le profit qu'il peut tirer de ses appels incessants au passage à l'action contre "les mécréants", confiait récemment à l'AFP le psychologue universitaire Patrick Amoyel, qui travaille sur les phénomènes de radicalisation. 
"Ils savent que plus ils occupent l'espace médiatique, plus ils vont avoir d'écho soit dans des populations radicalisables soit dans des populations psychopathiques", expliquait-il.
 
"C'est cette idéologie fanatique et mortifère qui peut conduire certains individus à passer à l'acte, sans avoir besoin de se rendre en Syrie et sans avoir besoin d'instructions précises", a souligné lundi le procureur de Paris, évoquant le défi nouveau posé par ce "terrorisme de proximité".
 
La propagande de l'organisation djihadiste, répercutée à l'infini sur internet dans des vidéos soigneusement mises en scènes de décapitations, de tortures, des appels aux meurtres répétés comme une Litanie, est d'autant plus efficace lorsqu'elle s'adresse à "des personnalités perturbées ou des individus fascinés par l'ultra-violence", a relevé M. Molins.
 
"Ceux qui détestent leurs collègues ou méprisent les homosexuels en raison de leur propre insécurité peuvent revêtir leurs actions de la bannière sanglante de l'État islamique", écrit dans le magazine américain Time William McCants, chercheur au centre de réflexion américain Brookings Institution.
 
Il reste cependant difficile de démêler convictions idéologiques et motifs personnels et inconscients, reconnaît le chercheur, évoquant des tueurs "pas vraiment de l'EI, mais à peu près de l'EI, sans lien organisationnel avec eux, mais avec le meurtre en commun".
 
Reste que, selon l'expert-psychiatre français Daniel Zagury, dans les cas d'actes djihadistes, les malades mentaux sont peu nombreux, environ 10% des cas. "Les autres sont soit de petits délinquants avec un pois chiche dans la tête, qui ont eu une première vie de toxicos, de trafic, et se rachètent une deuxième vie qui lave la première dans l'islam radical ; soit, les plus dangereux, des sujets strictement normaux qui ont un engagement idéologique sans passé délinquant, éventuellement avec des études, très déterminés". 
 
 

 

Europe

Une réponse au Brexit : organiser l’Assemblée instituante européenne

Le Brexit suscite une avalanche de réactions. Si toutes reconnaissent que « rien ne peut plus continuer comme avant », et que la construction européenne fondée presque exclusivement sur l'unification du marché et la libre circulation des biens, des personnes et des capitaux, s'est maintenant plutôt retournée contre l'Europe, en la qualifiant de ventre mou de la mondialisation, les conclusions qui en sont tirées par les uns et les autres et les propositions pour en sortir couvrent un large spectre.
 
Il y a ceux qui voient dans la crise l'occasion de faire avancer l'agenda d'un renforcement de l'Europe, et en particulier de l'Euroland, avec une harmonisation fiscale, un programme commun d'investissement, un renforcement de la gouvernance économique. Leur solution a l'inconvénient de partir de l'hypothèse que les sociétés et les dirigeants politiques nationaux sont prêts à de nouveaux abandons de souveraineté, ce qui n'est pas dans l'air du temps. Et il y a ceux qui estiment que le projet européen doit être refondé, avec le concours actif des citoyens européens. Nous sommes de ceux-là. Encore faut-il dire comment le faire. S'en tenir à l'idée vague de rendre la parole au peuple, dans un contexte de discrédit général des dirigeants politiques et de crise de la démocratie représentative traditionnelle, conduit à la perspective d’un référendum, national ou européen, réclamé partout par l'extrême droite.

Comment associer les citoyens européens à l'élaboration d'un projet d'avenir ?

Ce n'est pas en demandant aux citoyens européens de répondre par oui ou par non à une question, que l'on bâtit un projet d'avenir face à la complexité du monde ! D'où la question : comment associer les citoyens européens à l'élaboration d'un projet d'avenir ? Réponse : en organisant un processus que l'on pourrait appeler une Assemblée instituante. Après le Brexit, c'est ce qui s'impose. Une Assemblée instituante n'est pas une Assemblée constituante. Même si l'exemple de l’Islande, qui a confié l'élaboration de sa nouvelle constitution à 25 citoyens « ordinaires », montre qu'un processus citoyen délibératif peut aboutir à des propositions de qualité, l’objectif n’est pas aujourd'hui de charger un panel de citoyens européens d'écrire un nouveau traité ! L'expression d’Assemblée instituante découle d’un constat :  la gouvernance, telle que nous la pratiquons quotidiennement, concerne les modes de   régulation de communauté existantes. Ce qui laisse de côté un préalable essentiel : comment une communauté s’institue-t-elle ? Comment émerge l'idée d'une communauté de destin dont les membres se sentent redevables les uns vis-à-vis des autres ? y-a-t-il d'autres moyens pour l'instituer que le fer et le sang, pour reprendre le mot de Bismarck ?
 
C'est le premier défi du XXIe siècle, au niveau européen comme au niveau planétaire. Les bouleversements de la technique et de l'économie, la prise de conscience d'interdépendances devenues irréversibles, à l'image du changement climatique, créent une réalité anthropologique nouvelle, mettant en cause la construction idéologique héritée des siècles précédents qui prétendait faire des États-nations les seules communautés authentiques durables : le défi du XXIe siècle est au contraire de faire émerger des communautés de destin correspondant à la réalité des interdépendances. Comme l'a montré la construction européenne, la mise en place d'institutions communes est nécessaire à la pérennité d'une communauté mais ne suffit pas pour la créer.
 
Il est exact de dire que l'Union Européenne s'est construite sans les peuples. Certes, l'adhésion de chaque communauté nationale au projet européen a été volontaire, mais le souci de s'arrimer à la démocratie, dans le cas des pays du sud de l'Europe qui sortaient de régimes autoritaires, ou à un espace de prospérité économique, dans le cas des nouveaux membres d'Europe centrale et orientale, ne constitue pas un véritable processus instituant conduisant des peuples longtemps rivaux à se reconnaitre des valeurs et un destin commun. C'est ce manque qu'il faut aujourd'hui combler.
 
La démocratie délibérative repose sur l'idée qu'avant d'être une confrontation entre des programmes, la politique est une éthique et une méthode. Une éthique de transparence et de recherche de ce qui unit plutôt que ce qui divise (à l'opposé du jeu politique actuel...). Une méthode par laquelle des citoyens « ordinaires » se construisent une opinion sur des sujets     complexes puis, par la délibération, dégagent des convictions et des perspectives communes. Elle requiert pour réussir six conditions :  l'engagement  des  institutions  et  des  responsables  politiques  que  les  propositions citoyennes seront prises en considération ; un mode de sélection des participants incontestable ;  des questions aussi larges que possibles, pour ne pas enfermer les citoyens dans une problématique imposée  par  les  institutions ;  un  processus  construit  dans  la  durée ;  des  moyens  financiers  et humains significatifs ; des méthodes rigoureuses pour dégager des éléments de synthèse et  dégager les points communs et les divergences irréductibles.

Une Assemblée instituante, composée de citoyens tirés au sort

Une Assemblée instituante, composée de citoyens tirés au sort, découle de ces principes. Les questions qui lui seront posées dessinent les contours d'un projet pour l'Europe et de construction d'une véritable communauté : comment assumer ensemble l'héritage du passé, ce qui depuis des siècles fait de l'Europe une civilisation et ce qui l'a si souvent divisée ? Voulons-nous former une communauté de destin et sur quelles valeurs communes fonder une identité européenne ? Quelle place doit occuper l'Europe dans le monde et quel monde veut-elle contribuer à construire pour relever les défis planétaires ? Que penser de la gouvernance actuelle de l'Union Européenne et quelle gouvernance serait dans l'avenir de nature à conjuguer au mieux la diversité qui nous enrichit et l'unité qui nous réunit ? Quel modèle économique pour l'Europe et quelle place du marché dans ce modèle ?
 
Nous proposons un processus en deux étapes : la première au niveau de villes ou de régions ; la seconde au niveau européen.
 
Première étape, des Assemblées de citoyens à l'échelle de villes ou de régions qui se porteront candidates. Pourquoi villes et régions ? D'abord pour rompre résolument avec l'idée « d'intérêts nationaux » ; ils n'existent, en vérité, que parce qu'il y a des Nations et des États pour les inventer et les représenter, mais ils réduisent les dialogues internationaux ou européens à une confrontation entre eux. Ensuite, parce qu'à l'échelle d'une ville ou d'une région, la diversité des sociétés et des défis est beaucoup plus concrète. Dans chaque ville ou région candidate, un processus de tirage au sort entre des citoyens   appartenant à toutes les couches de la société permettra de construire un échantillon d'une soixantaine de personnes de tous âges, origines et milieux socio-professionnels prêtes à s'engager dans l'aventure. Cette assemblée locale travaillera pendant un an, en suivant pour aborder les différentes questions une progression rigoureuse
 
La démocratie délibérative est tout le contraire d'un sondage d'opinion. Comme dans un procès de cours d’assises, les membres du panel de citoyens que constitue l'assemblée doivent pouvoir, au fur et à mesure que le processus se déroule, poser toutes les questions qu'ils souhaitent et obtenir pour chacune une réponse circonstanciée, interroger les experts en bénéficiant de points de vue contradictoires pour se forger leur propre opinion. L'expérience prouve que ça marche, y compris quand il s’agit de questions scientifiques complexes dont on pourrait penser qu’elles sont inaccessibles au profane. Cette capacité de jugement n'est-elle pas l'essence même de l'espérance démocratique ?
 
Seconde étape, une Assemblée citoyenne européenne réunissant en concile, pour une durée significative, de dix jours à un mois, mille citoyens délégués par les Assemblées locales. Le travail de l'Assemblée aura été préparé par des cahiers de propositions issus des assemblées locales et du dialogue entre elles. Ce ne sera pas une assemblée plénière permanente, propice aux prises de pouvoir par des leaders d'opinion, mais un aller et retour entre des groupes de travail interactifs de quelques dizaines de personnes et la confrontation de leurs conclusions. La traçabilité des débats et les méthodes de construction progressive des synthèses est une condition essentielle de la crédibilité des conclusions : l'art de la démocratie et de la gouvernance, aujourd'hui, c'est l'art d'appréhender la complexité et de la gérer.
 
Aux deux étapes des Assemblées locales et de l'Assemblée Européenne, il est essentiel qu'à travers les réseaux sociaux et internet l'ensemble de la société puisse bénéficier des informations fournies aux membres des Assemblées et puisse mener les mêmes réflexions et les mêmes débats, faute de quoi on construirait, même à partir de citoyens ordinaires, une nouvelle caste de notables. L'exemple de simulations des négociations sur le climat, menées dans différents pays dans des établissements scolaires montre aussi tout le profit que l'on peut tirer de démarches citoyennes au niveau des lycées ou des universités, pouvant aller jusqu'au projet d'avenir des jeunes européens, pour le continent et pour la planète.
 
Cette Assemblée instituante ne pourra se tenir qu'à l'appel des dirigeants européens et avec leur soutien,  qui est indispensable sur trois  points : appeler  régions  et villes à s'impliquer  dans  le processus ; fournir les moyens humains et matériels, tant pour la construction d'une base solide d'informations  en  réponse aux  questions  des  citoyens  que  pour  la traduction  et l'interprétariat nécessaires pour rendre ces informations accessibles à tous et permettre les dialogues entre assemblées locales puis au sein de l'Assemblée européenne ; organiser une session spéciale de chaque institution européenne -Conseil, Parlement, Commission, Comité des Régions et CESE- pour examiner de façon approfondie les propositions issues du travail des citoyens. C'est seulement à cette dernière étape, quand un nouveau projet européen, une nouvelle gouvernance européenne, une nouvelle place de l'Europe dans le monde auront fait l'objet d'un consensus que l'on pourra envisager, si nécessaire, de les soumettre à l'ensemble des citoyens européens sous forme d'un référendum organisé simultanément dans tous les États membres.
 

 

Attentat Nice

L’horreur, les pleurs et la colère

Encore. Comme un rituel macabre, les attentats sont revenus dans notre vie quotidienne. Les images diffusées ad nauseam ne nous mithridatisent plus. Après l’insolence de Charlie, l’insouciance des Terrasses, c’est maintenant les poussettes, les enfants, les familles qui sont écrasés, sur l’une des plus belles avenues de la planète. Le chant Nizza la bella ne résonnera plus comme avant.
 
Larmes noyant l’effroi et la sidération dans la même émotion. Et après, toujours le même cortège de rassemblements, de minutes de silence, de dépôts de fleurs et de veilleuses. Et, comme un rituel des temps nouveaux, cette mobilisation des réseaux sociaux, ces témoignages d’entraide et de compassion, à l’échelle du monde.
Nous ne sommes plus capables que de ces réactions si simplement humaines. Face à ce qui n’est rien d’autre que l’inhumanité.
 
Le terrorisme de Daech est une épidémie dont les miasmes ont choisi leur cible : l’intelligence. Le dernier rempart immunitaire que les humains possèdent pour se défendre.
Les promesses de paradis et de compteurs des pêchés remis à zéro pour les « combattants » du Djihad atteignent les égarés. Les plus faibles sont touchés d’abord.  Savamment miné de l’intérieur, n’importe quel esprit suffisamment fragile pour être contaminé, devient alors soit une arme de destruction massive, soit le vecteur d’une bombe à fragmentation des sociétés démocratiques. Daech n’est pas bégueule sur la qualité de ses « soldats ». Et c’est pourquoi ils échappent si facilement aux « radars » de la surveillance, aussi ubiquitaire soit-elle.
 
Les questions pourquoi ? comment ? que faire ? s’égrènent dans un vide de la pensée. Un trou noir qui dévore la raison. Et quand la raison flanche, c’est la colère qui gronde. Voie royale de l’imbécillité. On aurait pu arrêter le camion fou avec un lance-roquette, on pouvait prévoir cet acte insensé, il faut que, il faut qu’on… Des politiciens tricotent sur ce désastre leur pitoyable nullité.  Un carnaval de matamores en carton-pâte.
 
Certains discours entendus ces dernières heures –chamailleries politiciennes minables, dénonciations, accusations, défausses de responsabilité, harangues populistes martiales – sont les précurseurs symptômes du mal qui se déploie et pénètre les esprits.  En y cédant, notre organisme social s’affaiblit, se délite. Il se fractionne, et forge les ressorts des collisions intestines.
 
Daech a écrit et publié partout depuis 2005 : « il faut faire en sorte que la société, qui est totalement déboussolée, se prépare à une logique de guerre civile ». Voilà le piège des terroristes.
Unissons nos intelligences pour refuser d’y tomber.
Nous avons rendez-vous avec une histoire tragique qui change le cours du temps. Soyons à la hauteur de ce rendez-vous.
 
 
Illustration d’en-tête : Mesia
 

 

breveter l'inhumain

Breveter l'inhumain

Breveter l’inhumain. C’est l’humain qui en prend l’initiative, aujourd’hui, hier comme avant-hier. Aujourd’hui, l’Etat islamique utilise les techniques d’information les plus sophistiquées pour recruter des jeunes désœuvrés, en mal de sens, à commettre des atrocités. Jouer au ballon avec des têtes décapitées, crucifier, n’est-ce pas jouissif et digne d’être diffusé ? Ici, il n’y a pas de dépôt de brevet, mais un droit d’usage qui vaut acquisition. L’internet a du bon : il montre l’horrible pour effrayer ou captiver. L’anormal devient normal. Les gaz chimiques ravagent le Moyen-Orient. Des fous des deux côtés en font feu de tout bois. Les armes de destruction massive prouvent, en leurs mains, leur efficacité. D’autres images sont pareillement montrées ou fabriquées par les intéressés. Certaines, même, sont commercialisées par les média étrangers. Des tas de cadavres jonchent le sol. Des corps sont mutilés. Les villes sont dévastées. Par-delà les images, toute velléité de vie est anéantie par le fanatisme. Tout soupçon de liberté est écrasé par la tyrannie.
 
Hier, des milliers de machettes ont été vendues au Rwanda pour massacrer un groupe particulier. Le manufacturier et le vendeur devaient s’en douter, mais ils ont fait comme si de rien n’était.  Dans les années 1960, on bombardait le Vietnam et le Laos avec du gaz orange dont le brevet était en droit protégé par une entreprise privée qui n’y voyait qu’une occasion de profit. Ah, se faire du beurre sur l’homme, quelle belle idée originale qui avait tant mérité la protection de la loi ! Sous les bombes, les millions d’enfants mal nés importaient peu. Des parents estropiés, bah ! on s’en foutait. Tous étaient cassés à vie. Les actionnaires de l’entreprise allaient au temple en toute bonne conscience.  Aucune victime n’était indemnisée. Pourquoi réparer le rebut ?
 
Avant-hier, d’autres entreprises privées avaient osé répondre aux marchés publics de l’Etat hitlérien qui désirait augmenter la productivité  des chambres à gaz et des fours crématoires. Le cahier des charges était clair : éliminer, en peu de temps et au moindre coût, des populations entières qui avaient été préalablement battues, insultées et humiliées. Quel étrange paradoxe ! Aux commandes, les soi-disant surhommes se révélèrent des sous-hommes. En se conduisant comme des criminels au dernier degré, leurs crimes de masse amputaient  à jamais leur humanité plus qu’ils ne blessaient celle de « l’autre ».
Le progrès est une notion peu perceptible à court terme, même s’il faut admettre une certaine avancée au cours des siècles (fin de l’Inquisition, avec ses processions cagoulées et ses pieux instruments de torture, pervers et raffinés ; institutionnalisation de l’Habeas corpus, du jury, de la séparation des pouvoirs et du contrôle de constitutionnalité). Le droit public a réussi, pour partie, à amortir le cycle, mais celui-ci continue d’avoir des adeptes enfiévrés. Le plaisir de tuer, de massacrer, de déchirer l’humain, de l’entendre hurler, l’emporte chez tous ces cinglés sur le minimum de sérénité. Hélas, il y aura toujours des industriels et des Etats pour satisfaire leur demande insensée. L’histoire ne cesse guère d’être le lieu d’un échange macabre. Ah ! le cycle des violences légalisées ne s’arrêtera-t-il donc pas ?
Illustration : Elisa Perrigueur

D’Erfurt à Auschwitz

Erfurt, en ex-RDA. Après la réunification, la ville a décidé de préserver le souvenir de Topf und Söhne qui fabriquait des fours crématoires pendant la Seconde guerre mondiale. La majorité des édiles était divisée. La mairie voulait raser l’usine. Des voix se sont élevées pour en transformer une partie en musée. La cité a restauré le bâtiment administratif, de façon instructive et discrète. Un acte de courage et d’intelligence. Le passé retrouve un sens.
 
Dans le bâtiment, on écarquille les yeux  et on ressent de l’écœurement. Un film montre le personnel de l’usine défiler en 1937. Bannière nazie en tête. Des ouvriers, des contremaîtres, des cadres presque endimanchés. Ils passent devant quelques membres des forces spéciales qui les fixent du regard, le bras tendu. Le ave du nouveau Kaiser, le salut d’Hitler, s’est répandu. Les employés ont l’air satisfait. Certains sourient. Un homme cache son visage devant la caméra. Geste inattendu, presque fatal. La honte ne tue pas ses camarades de travail.
 
Dans les salles, on découvre pêle-mêle des courriers entre dirigeants de l’usine et SS. Sous vitrine, des dessins et modèles, des dépôts de brevet.  Le dernier étage offre une belle vue. On aperçoit la ville voisine, Weimar, près duquel se situe Buchenwald. Ingénieurs et techniciens contemplaient un des camps de concentration qui bénéficiaient de leur savoir-faire industriel.
 
Pietà, Mariendom Erfürt, vers 1350
 
Au cœur d’Erfurt se dresse la cathédrale. Les toits sont pentus, les flèches élancées. Dans l’église, des fidèles se recueillent devant une sculpture. Une pietà du XIVe siècle. La vierge tient dans ses bras un Christ très décharné. L’artiste a représenté les stigmates de l’histoire humaine. Dans l’église de Bach, à Leipzig (à 100 km d’Erfurt), les paroissiens entendirent le même récit. La cantate BWV 199 exprima combien au plus profond l’homme s’est détruit :
 
Mein Herze schwimmt im Blut,
weil mich der Sünden Brut
in Gottes heiligen Augen
zum Ungeheuer macht.
Und mein Gewissen fühlet Pein,
weil mir die Sünden nichts
als Höllenhenker sein.   
 
Mon cœur baigne dans le sang
parce que la semence du péché
a fait de moi un monstre
Aux yeux de Dieu.
Et ma conscience est au supplice
et mes péchés
en sont les bourreaux.
 
Le camp d’Auschwitz, en Pologne. L’extermination d’autrui fut un métier. Le personnel de Topf und Söhne y allait et venait. Une équipe montait les fours, une autre les réparait. La même ou une autre les perfectionnait. Aujourd’hui, on n’y sévit plus, mais la visite est éprouvante. Dans le silence, s’offrent à la vue des milliers de cheveux rasés, des milliers de chaussures dépareillées, des milliers de vêtements d’adultes et d’enfants. Dans une salle attenante, les amoncellements continuent. Des milliers de prothèses. Des milliers de lunettes. Handicapés et mutilés se voyaient réserver un traitement de faveur. Une faiblesse était une tare qui accélérait votre sort. On classa l’homme en juif, tsigane, slave, homosexuel, asocial, dégénéré. La mise en catégories précéda la dégradation, et la dégradation la mort. La campagne environnante était muette, prête à vous ensevelir. Un calme commun, beaucoup moins serein que celui ressenti par Goethe dans Über allen Gipfeln (1).  A deux pas est située Birkenau, un Auschwitz à plus grande échelle. Les déportés y descendaient, croyant être au bout de leurs peines. Après être entassés jour et nuit dans des wagons à marchandises ou à bestiaux, un comité d’accueil de SS, impeccablement habillés, les frappait et hurlait sa haine. Les familles étaient brutalement séparées. Hommes et femmes étaient alignés, inspectés, triés.
 
Que retenir d’Auschwitz et de Birkenau ? Des slogans stupides qui se veulent drôles, mais qui ne font même pas rire le public des farces du théâtre. A l’entrée, Arbeit macht frei (le travail rend libre), dans les baraques : Sei ehrlich (sois honnête), Sauberkeit ist Gesundheit (la propreté, c’est la santé). En s’essayant à l’esprit, le bourreau avait perdu le peu qui lui restait.

L’appropriation de l’horreur

A Erfurt, on est appliqué (tüchtig), mais dans le mauvais sens. On travaille sans état d’âme, en blouse blanche, sur des planches à dessin. Une photographie de l’époque témoigne de l’atmosphère industrieuse. On doit répondre à la commande officielle de fours crématoires pour cadavres humains en très grand nombre. On ne s’étonne pas de la demande. Dans un pays en voie de nazification, il n’y a pas de place pour le pourquoi (Hier ist kein warum). La seule question admissible : Wievel Stück ? - Combien de pièces ? De déportés par wagon (2) ?
 
Topf und Söhne a bonne réputation. Dès le début du XXe siècle, l’entreprise a su répondre au désir de crémation individuelle. Les églises chrétiennes s’y opposaient (le bûcher était réservé aux hérétiques vivants qui s’étaient auto-incriminés sous la torture). La loi allemande de 1934 pose des conditions d’hygiène relatives à l’odeur, à la fumée et au bruit. Le droit exige le respect du corps et des cendres (le corps est identifié, les cendres sont rassemblées, les urnes sont scellées). On parle de « dignité » (3).  Un tel cahier des charges ne s’impose plus aux populations désignées à la vindicte publique. On doit brûler les corps comme on doit incinérer les carcasses d’animaux. Les défis techniques sont du même ordre : avec l’afflux incessant des pièces rapportées dans les camps de concentration, on a prévu leur gazage, mais la résolution du problème en crée un autre : il faut prévoir des installations pour une combustion continue et à grande échelle. Avec un tel volume, la ventilation finira par poser des difficultés. Pas de panique : A Topf und Söhne, nous savons faire ! On fournira l’expertise appropriée…
 
Ces questions relèvent de l’ingénierie qui enseigne à manipuler les choses avec efficacité. Pour mesurer l’exploit technique, pensons aux déchets de l’industrie agro-alimentaire. L’élevage a atteint aujourd’hui un stade forcené. Porcs, bœufs, volailles, tous sont à l’étroit, sans air ni lumière, pataugeant dans leur lisier. On ne compte plus le nombre de bêtes qui ne tiennent plus debout avant d’être acheminés à l’abattoir. L’équarrissage des cadavres requiert une foultitude d’incinérateurs orientés dans le sens des vents dominants. L’odeur des carcasses brûlées ne doit pas importuner le voisinage. Analogie insupportable ? Le philosophe Heidegger l’osa après-guerre. - Oh ! C’est affreux ! La technologie a supplanté la contemplation. Les choses ne sont vues que sous l’angle fonctionnel. Mais ce retour à résipiscence du penseur-poète, niché dans la Forêt noire, fut problématique. La technologie avait été supplantée elle-même sous le nazisme. Etait-ce utile de gaspiller tant d’argent et d’énergie à abattre des millions d’innocents ? Etait-ce utile de massacrer des cerveaux, éduqués et créatifs, qui auraient pu servir le pays avec dévouement comme en 1914-1918 (4)
 
Topf und Söhne innove. Elle double, elle triple les moufles des fours crématoires. Elle accélère l’incinération. Elle étend son intervention en amont en améliorant la diffusion du Zyklon B dans les chambres à gaz (5).  Le matériau humain à traiter avait été sous-estimé. Les nazis sont débordés. La conférence de Wansee, qui programma en 1942 la Solution finale, pécha par optimisme. Les adaptations de Topf und Söhne, qui faisaient merveille, ne suffisent plus. Faute de disponibilité, on gaze mal ou à peine, on brûle pêle-mêle morts et mourants (6).
 
Fournisseurs et clients n’ont pas été à la hauteur de la tâche, mais chez Topf und Söhne, on est quand même fier du travail accompli. On a procédé à un dépôt de brevet en 1942. L’enregistrement est officieux (secret des affaires oblige). La loi, c’est la loi. Dura lex sed lex. Il n’y a pas lieu de tergiverser. Le dépôt du brevet ne répond pas au seul mobile du profit. Nous ne sommes pas aux Etats-Unis, obsédés de faire fructifier le copyright. Le devoir prime. Toujours heureux de vous servir (Stets gern für Sie beschäftigt) est la devise de la maison. La phrase orne le fronton du bâtiment restant. L’appropriation de l’horreur n’est pas choquante : sur les planches à dessin figure le logo Isis. A travers les âges, la déesse égyptienne offre sa protection aux inventeurs qui améliorent le sort de l’humanité. A perfectly normal company (7).

Droit privé et droit public

Soit la thèse d’Arendt (8) : Eichmann n’était qu’un morne fonctionnaire. Comme tant d’autres aux divers échelons, il œuvrait dans le cadre d’une vaste machine qui le dépassait. Banalité du mal. Un rouage dans un engrenage qui multipliait la force au centuple sans que chacun se sente au centre. La thèse, qui conforte celle du totalitarisme, conduit à des inconséquences. De simples pions auraient bombardé sans réflexion les pays alentour. Ils n’auraient éprouvé aucune passion à détruire villes et familles, à répandre partout la désolation. Ils seraient restés de marbre. Les ordres sont les ordres (Befehl sind Befehl). Placidité apparente. La furie dominait les porteurs d’ordre et de secret. Au Tribunal de Nuremberg siégeant au sortir de la guerre, l’obéissance aveugle ne sera point une excuse. Dans le droit pénal des nations, l’exécution d’un ordre insensé rend l’action complice. Et que dire de la joie à l’accomplir (9)
 
La population aryenne devinera trop tard que l’épopée guerrière tournera mal. Le désir de gloire pour l’éternité virera à la folie. Le ver était dans le fruit : dès le départ, la gente non aryenne avait eu un avant-goût du pire : humiliation publique, chasse à meute et bastonnade, commerces fermés et détruits, lieux de prière incendiés, congédiement immédiat dans les établissements de l’Etat, renvoi de l’école et de l’université dont l’accès devenait interdit, la panoplie ne pouvait que s’élargir. Il ne fallait pas être grand clerc pour le prédire, sauf à se laisser envahir par le déni. Chacun le pressentait, mais they did not want to know. Jusqu’à la fin de la guerre, et même après, beaucoup se sont montrés capable of deliberate omission (10)  - Que vouliez-vous faire ? La force brutale tenait la rue. Le pouvoir trafiquait même les lois !
 
Les métiers du commerce et de l’industrie différaient de l’administration. Rien ne les forçait à passer commande, à signer des contrats, à déposer des brevets. La concurrence entre entreprises existait sur le nouveau marché des fours crématoires destinés aux camps. Topf und Söhne n’était pas la seule à s’y lancer, mais elle demeurait libre de ne pas y pénétrer. En droit privé, la souveraineté individuelle continuait de s’exercer. En visitant Auschwitz, on apprend que nombre d’entrepreneurs l’exerçaient sans retenue. Bayer recueillait sur son papier à-en-tête les observations des médecins nazis qui se livraient à des expérimentations humaines. Siemens sélectionnait et exploitait à outrance la main d’œuvre des déportés. Une autre firme négociait le prix et la quantité des cheveux des crânes qui avaient été rasés. Une autre transformait les cendres en engrais. Tout était bon à prendre. L’Etat récompensa cette volonté de participer à l’effort national en leur accordant d’autres marchés. Topf und Söhne accrut son chiffre d’affaires. Beaucoup de marques commerciales gonflèrent leur réputation : Hugo Boss, qui conçut les uniformes SS en recourant au travail forcé ; le constructeur automobile BMW, qui profita de l’aryanisation des entreprises et employa 50.000 détenus d’un camp de travail ; Deutsche Bank, qui finança la Gestapo et fournit des fonds pour construire Auschwitz (11).
 
Même en droit public, le fonctionnaire n’était pas forcé d’obéir aveuglément. A l’insu des administrateurs, l’autonomie subsistait. Sous la férule d’Hitler, quelques hommes dans les bureaux tardèrent à exécuter les ordres, les interprétèrent de façon restrictive, désobéirent. La liberté publique était verrouillée, mais l’individuelle s’infiltrait par degrés, de la désobéissance civile à la résistance active. Certains juges refusèrent de juger sans délibérer. D’autres démissionnèrent, mais la plupart restés en poste condamnèrent à la volée. La justice, qui devait s’exercer les yeux bandés, les avait fermés. Aucune instruction préparatoire ne précédait les audiences. Les qualifications retenues étaient saugrenues (relations sexuelles entre races). Alors que les crimes d’Etat restaient impunis (meurtres, stérilisation de leurs concitoyens), même les magistrats du siège n’osèrent pas agir en dehors de la volonté de leurs supérieurs. Ils ne baissèrent pas la tête mais la relevèrent pour rendre des arrêts de mort. La part de responsabilité à dégager n’était pas celle des prévenus mais la leur. Inquisiteurs, ils étaient devenus coupables par breach of justice. Ils commirent l’iniquité au nom du droit (12).
 
Parmi les pays vaincus, la France pensait s’en tirer à bon compte. Une partie de ses élites, déplacée à Vichy, faisait croire que la souveraineté subsistait alors que la nation perdait au change. Dans ce jeu de dupes, il y eut des vichyssois anti-allemands, mais le nouveau gouvernement, en collaborant, travailla pour l’occupant. A l’instar de celles de Nuremberg, des lois anti-juives furent promulguées, mais Pétain les rendit plus sévères de sa propre main (13).  Conformément à la hiérarchie des normes, les hauts fonctionnaires rédigèrent les décrets d’exclusion des Français qui n’étaient pas de souche. Leur style était lumineux, précis. Des professeurs d’université commentèrent cette réglementation comme si son objet, violant l’ordre public, n’importait guère. La forme, seule, avait du sens ! Avec la même indifférence, mais sans ménagement, la police remit à l’autorité étrangère des enfants de moins de 16 ans comme elle lui avait remis auparavant les émigrés allemands (14). Belle répartition des tâches : les jurisconsultes blanchirent l’infamie, les forces de l’ordre contribuèrent à l’épuration, et la milice, pour achever l’épuration, extirpait, avec une violence mafieuse, toute opposition.
 
Dans la population, il y eut de nombreux justes qui circonvinrent les lois devenues injustes. Des gens modestes, des paysans, des communautés entières, sauvèrent juifs et autres bannis de la société. Cette attitude ne contraria pas la collaboration économique. Nous ne sommes plus en 1914 où Renault produisit en nombre les taxis qui acheminèrent les soldats français sur le front de la Marne. Renault produit désormais pour l’ennemi. Cette entreprise automobile sera nationalisée à la Libération à titre de symbole, mais à son instar la majorité des entreprises livraient sans état d’âme du matériel civil et militaire à l’armée allemande. Leur bonne volonté était récompensée par des commandes assurées. Que le pays fût occupé ou pas, le droit privé ignorait l’odeur de l’argent. Mieux valait le fascisme que le socialisme.

De l’inhumain trop humain

L’Allemagne nazie entendit asseoir sa domination absolue sur des peuples et des individus réduits à la servitude. Tout un droit de l’inhumanité se mit en place :
- un droit de propriété des biens volés au bénéfice de soudards se livrant à la rapine et au pillage à fond (dixit Goering) (15) ;
- un droit de propriété industrielle, délivrant (avec félicitations du jury) le titre de brevet à des techniques réduisant l’humanité à de la pierre concassée et broyée ;
- un droit de propriété intellectuelle, garantissant les droits d’auteur et patrimoniaux sur des œuvres aussi insanes et indigestes que Mein Kampf. Hitler s’enrichira en imposant son livre dans le monde germanique. A l’extérieur, les droits de traduction gonfleront les royalties. L’œuvre d’Heidegger fut moins indigente et obsessionnelle. Elle fut mieux écrite, mais son auteur préféra comme le Führer les substantifs abstraits aux verbes. Son être-là (Da-sein, openness-for-Being) reprocha à la philosophie d’avoir oublié l’Etre, mais il oublia lui-même la présence humaine en chaque homme abimé. Son ontologie, aveugle à toute moralité, excusa les crimes d'inhumanité. De quels crimes parlez-vous s’il n’y a plus d’humanité ? Où est la faute ? Quand l’Etat efface tout nom propre, le nom devient commun. Il y a un numéro, un matricule, tatoué sur la peau, dès le plus jeune âge. Il y a du Non-être.
 
C’est vrai, on a commis des erreurs, reconnaît Himmler, le chef des SS. « En 1941, nous ne donnions pas aux masses humaines la valeur que nous leur donnons aujourd’hui, celle de matières premières, de main d’œuvre. » (16)  Depuis, nous avons su saisir la moindre ombre humaine au service du Reich ! Nous avons su mentir aux populations déportées pour leur faire croire qu’elles allaient être bien traitées (nous avons poussé le stratagème à vendre des tickets de train pour Auschwitz). Vous voyez, nous sommes capables de reconnaître l’humain dans l’inhumain. Nous ne sommes pas contentés de manipuler du bétail. Nous avons montré au monde notre irrespect. Des preuves ? « Un SS passa à bicyclette et donna un coup de pied à une vieille femme. Elle poussa un cri déchirant. » « Le SS, ayant une passion pour son chien-loup, donna, devant nous, son sucre quotidien. Il lâcha bruyamment un « gaz » à la figure de celui d’entre nous qui était en charge de lui enlever ses bottes. Il ajouta en ricanant : « Danke, Herr Professor ! ». Un pauvre type [qui croyait que ricaner pouvait l’élever !] » (17)
 
Dans la reconnaissance humaine, on a fait mieux : on a torturé. En territoire conquis et dans les camps de la mort, on a redoublé les coups en voyant la peur et la douleur autour de nous. Il faut retrouver l’expérience au présent pour comprendre notre enivrement. A la Gestapo,
on enfonce des choses sous les ongles aux inculpés pour les faire avouer, on les interroge pendant onze heures de suite, puis on les met « au repos », sous la surveillance d’un énorme chien policier. L’animal est prêt à vous sauter à la gorge si l’on fait mine de sortir son mouchoir de sa poche (18).
 
Manifestement, sous la tyrannie, qu’elle soit nazie ou communiste (les camps staliniens ont servi de modèle à l’époque), on aime ce qui est canin. Les chiens, élevés pour être méchants, sont les parfaits auxiliaires. Ils ne cessent d’aboyer, de montrer les dents, de déchiqueter les déportés qui se rebellent ou qui tombent épuisés. Si les prisonniers n’avaient été que de la matière inanimée, nous, SS, n’aurions jamais imaginé faire durer leur supplice jusqu’au bout. Nous les avons fait rester debout sans boire ni manger en respirant à peine dans des cellules minuscules. L’aristocratie du mal que nous formions n’aurions pas arraché les yeux à certains ou jeter d’autres dans des latrines (quel plaisir aurait-on eu à jeter des choses ?). Pour jouir, il faut du répondant ! Voilà le génie de notre Führer : il nous a permis de nous adonner « à la disposition que [l’on pouvait] avoir pour le meurtre, les actions les plus atroces, les spectacles les plus hideux. Par-là, [il] s’assurait pleinement de [notre] obéissance et zèle » !  (19)
 
Utiliser la perversion est une façon d’asseoir son autorité et d’intimider la société. Les opportunistes s’engouffrent dans la brèche ? Qu’ils se rassurent : on saura les exploiter. En revanche, gare aux Allemands qui n’acclament pas notre guide suprême ! Ils pourront n’être qu’un matériau trop humain. S’ils échappent à Dachau au privilège d’être pendus aux crocs de boucher, on les obligera « à laper la nourriture par terre », ainsi que témoignera l’un d’eux en détention depuis douze ans (20).  En réalité, il n’y a guère de différence entre ces exilés de l’intérieur et ceux de l’extérieur. Nous faisons cas de tous les déportés. Nous, vicieux en diable, les avons poussés à participer au mal ! Quels moments de fou rire n’avons-nous pas eu en les voyant se voler un peu de nourriture, une gamelle pour la recueillir, une guenille pour se réchauffer, un sabot dépareillé pour marcher.  Nous avons poussé le vice à apprendre à une minorité à battre la majorité des leurs à coups redoublés. Nous les avons endurcis au point qu’ils ne réagirent plus devant les corps de leurs compagnons de misère dévorés par les rats (21).
 
Déshumanisés et sous-bourreauisés. Voilà une promotion ! avant qu’ils ne soient éliminés, car l’untermensch ne pourra jamais atteindre les hauteurs de l’über-mensch (l’over-man…).

La morale de Socrate revisitée

"What is a man ?" demande Hamlet (22).  Cette question n’a jamais taraudé les propagandistes du régime hitlérien qui n’ont cessé d’avilir leur humanité en abaissant celle des autres. « Persécuteurs et calomniateurs, c’étaient eux les prisonniers », enfermés à double tour « dans leurs mensonges et crimes » (23).  Autant ils peinaient à éteindre « la liberté intérieure » de leurs victimes, autant ils avaient réussi à piétiner la leur d’un pas cadencé de soldatesque. Ils parvinrent à éliminer en eux cette part intime, « la plus précieuse de toutes ». Ils n’avaient pas compris que l’affirmation de la liberté ne consiste pas à faire le mal, mais à faire le bien. Ils se crurent plus créateurs à bien faire le mal en étant en proie à une machination mentale. 
 
Comment « ces hommes-là ont pu se laisser abrutir, déspiriualiser », au point de « n’être plus que des automates sans cerveau, avec tout au plus des réactions d’enfants de 5 ans ? ». « Ils sont intoxiqués ; ils ne pensent plus ; ils n’ont plus d’esprit critique : ‘Le Führer pense pour nous.’ Leur esprit, souillé, était tombé dans la répétition et le sadisme. « Leur bravoure n’est plus guère qu’un instinct animal, l’instinct de la bête. […] Ils agissent avec l’exaltation des fanatiques. Ils ne possèdent plus rien de ce qui faisait la noblesse d’un être humain. » (24)
 
Ces hommes ont ôté la joie de vivre de l’Europe et brisé le destin de tant de vies qui auraient fleuri. Ils croyaient que leur vie de famille échapperait à leur barbarie. Le commandant SS d’Auschwitz disait que sa femme et ses enfants n’avaient jamais été aussi heureux dans leur maison privée, attenante au camp. Hitler pleura la mort de sa maman. Des films le montrent caresser son berger allemand, tapoter les joues des jeunes recrues. Quelle naïveté ! Tous ces acteurs ont oublié les cris de la tragédie grecque. Un crime finit par laisser des traces sur trois générations. Leur progéniture n’échappera pas au malaise, à la culpabilité, au mépris public.
 
Ils ont péri, hélas ! ignominieusement !
Las ! las ! hélas ! hélas ![…]
Nous voici frappés – de quelle éternelle détresse !
Nous voici frappés – il n’est que trop clair.(25)
 
Morale de l’Occident ? Non, pas vraiment. Selon Bouddha, le karma résulte de nos actes. Notre conduite, nos pensées, nos paroles, se sont déposées dans un courant de conscience qui n’a pas tout emporté. L’oubli ? En apparence car, au fond de soi, l’âme est rongée par l’acide. Mais, objectera-t-on, les criminels s’en sortent bien. Ils paradent avec médailles et richesses. Ils se gavent des plaisirs du monde. Un serial killer, un génocidaire, a rarement la gueule de l’emploi, avant ou après ses exploits. Il est parfois beau ou avenant, mais son allure cache un Iago ou un Macbeth. Comme Richard III, il a l’art de tromper son monde alors qu’il fait le mal par principe. L’uniforme qu’il porte le trahit. Il joue un rôle dont il n’est pas dupe aussi. Alas, gémit-il dans les coulisses, My soul is foul !  Ah, my inner being is full of discordance ! (26)
 
La volonté de puissance a inversé l’ordre humain. Son énergie a descellé les valeurs. Les docteurs ne soignent plus mais mutilent in vivo enfants et adultes. Ils signent des ordonnances, non pour guérir, mais pour accélérer la mort. Les avocats ne défendent plus des causes difficiles. Des membres du barreau dirigent des camps de concentration. Toutes les professions libérales ont oublié leur déontologie. Pourquoi faire moins que les lois qui incitent au crime ? La société régresse à l’état de nature. Les contrats deviennent contraires à l’ordre public de la République. L’activité du commerce ne répond plus au code minimal des affaires.
 
"Quel naufrage spirituel," s’exclame Primo Levi. Celui qui revit les événements hallucine comme par le passé. Il entend le Trio des esprits de Beethoven qui transcrivait la musique des sorcières de Macbeth annonçant la déchéance de l’homme par lui-même. Celui qui visite les vestiges maudits frémit. Il devient lui-même visionnaire, tel le poète juif allemand Heinrich Heine :
 
[Le tonnerre] roule lentement, mais il vient. Quand vous entendrez un craquement comme jamais un pareil ne s’est fait entendre, vous saurez qu’il touchera au but. [Vous assisterez à] un drame en comparaison duquel la Révolution française n’aura été qu’un [Sturm und Drang] idyllique. (27)
 
La Révolution française avait libéré l’homme du despotisme. La Terreur l’a fait tomber dans pire. Le nazisme en multipliera les effets délétères à l’infini. Par frénésie, l’homme a retourné l’arme contre lui en niant toute raison et délicatesse chez autrui. Il a trop réagi contre la morale judéo-chrétienne qui a prôné l’amour mais valorisé la pitié à l’excès. La bonne intention produisit le contraire : l’alter ego fut dévalorisé, placé au-dessous de l’ego. La compassion rompit l’égalité entre les hommes. L’autre ne fut plus qu’une victime. Nietzsche fustigera une morale qui fait le jeu des esclaves qui manipulent les forts par le sentiment. Il est temps de revenir à Bacchus. Buvons à la santé du sur-homme ! Cette expression aurait été interprétée à tort comme Superman. Peut-être, mais il fallait plutôt revenir à Socrate. Subir l’injustice vaut mieux que de la commettre. Peu ont compris cet adage antique paradoxal (28).
 
A Athènes, le citoyen commettait le crime d’ubris (ύβρίς) s’il battait outrageusement son esclave. Mais celui-ci ne faisait-il pas partie de son patrimoine ? Le propriétaire n’était-il libre d’y porter atteinte selon son plaisir ? Non. Un maître doit être maître de soi. Il ne peut être sujet à une à une passion extrême qui dénaturerait son humanité. L’honneur de sa condition lui interdit de mal se conduire. S’il faut choisir : mieux vaut tolérer un vol que de voler son voisin. L’humour est un meilleur remède. « Celui qui sourit alors qu’on le vole, vole lui-même quelque chose à son voleur », dixit Shakespeare.  Il apprend, à travers l’épreuve, combien il faut prendre ses attachements à la légère et ne pas en faire une affaire personnelle. Le souci de l’âme importe plus. Mais un crime est autrement plus grave ? Certes, mais il vaut mieux encore endurer un profond chagrin que d’en infliger un. Le coût psychologique est moins grand. En me vengeant, je me tue en te tuant. Double meurtre. Voyez Othello. Il tue Desdémone par jalousie. Son aveuglement provoque sa mort morale (ou physique sur scène).
 
Dans les écoles d’Hitler, les Napola, les élèves d’« élite » doivent apprendre l’obéissance absolue à travers des traitements humiliants. Les formateurs les traitaient moins que des esclaves. Aucune invitation à se connaître soi-même. Rien n’éclairait l’affectivité des futurs dirigeants. Leur angoisse était refoulée. Leurs pulsions n’étaient sublimées que dans le désir de rétablir l’ordre dans un monde, craignait-on, menacé de dissolution. La défaite militaire de 1918, la crise économique de 1929, des ouvriers agitant le drapeau rouge et souhaitant, le poing tendu, le renversement, ajoutèrent leurs effets collectifs aux facteurs personnels des impétrants (éducation familiale autoritaire, réprimant, dès la prime enfance, le besoin de tendresse élémentaire, la demande d’attention particulière, le besoin de respect). Tout était prêt pour commettre la pire des injustices : la tyrannie, et la pire des pires : le totalitarisme.
 
Avec l’encadrement de la jeunesse, la camaraderie ambiante, l’ivresse de l’unité, il devenait facile de rejeter la haine sur l’étranger, de livrer à la vindicte populaire tout ce qui paraissait contraire à l’homogénéité. Chaque élément de la tribu ne devait accomplir que son devoir de groupe, légal et non moral. L’éthique passait à la trappe. Même le catéchisme formel de Kant ne suffisait pas à l’appel. Sacrifier sa vie, son esprit ! C’était le nouvel idéal, sanctifié dans les défilés. Le serment de fidélité, à l’égard d’un homme qui les électrisait, l’emportait. Rien à faire : tous étaient subjugués en étant à la fois endoctrinés, hypnotisés et mis au pas. L’ironie ? Le doute ? Le goût de la sagesse ? – Bon pour l’autodafé, comme les livres qui font penser !

Le fin mot de l’histoire

La pitié, dans laquelle la culture avait trop donnée, fut exclue, pour soi et pour les autres. Dans les situations intolérables, la pitié peut redevenir d’actualité. Si les SS se sentent gagner par l’humanité, qu’ils s’apitoient sur eux-mêmes ! C’est le conseil d’Himmler, un truc pour éviter de plaindre leurs victimes. Il s’agit de retourner vers soi la pitié que ressent l’homme comme animal. Au lieu de se dire : Quelles horribles choses je suis amené à faire aux gens ! un SS défaillant mentalement devrait se lamenter de la tâche qui a pesé sur ses épaules. Le truc marche parce qu’il demande moins de verser des larmes que de s’objectiver à l’extrême.  Le je n’est plus lui-même. Il devient passif quand il en fait trop. C’est un autre qui agit en lui.
 
L’insensibilité des autres, traduit en insensibilité à soi-même, redevient insensibilité aux autres. Durcie en cruauté au dernier degré, elle aboutit à « la plus monstrueuse entreprise de domination et de barbarie de tous les temps ». Ce sentiment fut celui des Alliés en 1945. Unspeakable truth qui parle à travers « la personne de ses principaux responsables ». Disgraceful behaviour « des groupes et associations qui furent les instruments de leurs crimes ». Ce furent des « crimes contre la condition humaine ». Des crimes contre sa propre humanité autant que celle de l’humanité entière. Des crimes qui ne font qu’un « crime contre l’esprit », « péché contre l’esprit ». La barbarie nazie a « élevé l’inhumanité au rang d’un principe ». Elle a commis « un crime capital contre la conscience que l’homme se forme de sa condition en tant que telle » (29).  - Truly evil, effroyable irréalité qui a réalisé l’enfer sur terre.
 
Via l’Etat et ses lois, des hommes ont décidé ce qui était humain ou pas sans posséder le moindre critère du Bien. Ils ont tué l’homme en l’homme en mutilant son humanité. Leur mépris des autres les a rendus méprisables. They have degraded themselves en abusant du droit, en le retournant contre sa finalité qui est de protéger l’individu, connu et inconnu. Faut-il les retrancher nous-mêmes du corps social ? Beaucoup se sont mis au ban de l’humanité. Non repentis mais profitant de la guerre froide, ils ont proposé de défendre l’Occident. Grâce à des complicités, ils sont se sont cachés ou enfuis. L’un d’entre eux emportera avec lui un album de photos mêlant sa vie de bourreau à Auschwitz et ses frasques le week-end. Ici et là, ils ont alimenté les sources de renseignement des gouvernements et travaillé pour les services secrets des deux Grands. Leur expertise était sans prix. Barbie en particulier enseigna l’art d’être tortionnaire. Savoir torturer sans tuer : voilà une technique qui aurait dû être patentée !
 
D’autres, qui sait ? se sont amendés ou ont regretté. L’Allemagne, en tant qu’Etat, a reconnu sa culpabilité. A la différence de l’Autriche, elle a fait un travail sur soi remarquable (Erfurt le prouve). Quant aux victimes, certaines n’ont pu sortir de leurs tourments. Le film d’Alex Corti, Welcome in Vienna, rappelle combien ceux qui ont vu tout se briser autour d’eux ne peuvent s’empêcher de briser l’occasion de reconstruire une relation où que ce soit. D’autres ont dépassé le désir de vengeance qui aurait pu les consumer. Tel Primo Levi, qui préféra dilater son être au lieu de le rétrécir (30).  Tel Robert Badinter qui offrit à Barbie, ramené en France, un procès équitable. La Cour siégea à Lyon où l’ex-officier nazi avait sévi. L’accusé eut une cellule décente. Il fut entendu, défendu, jugé. On le condamna à perpétuité. En qualité de Garde des Sceaux, Badinter avait pris l’initiative de faire abolir la peine de mort. Il en regretta rien, bien qu’il apprît, au cours de l’audience, que Barbie avait fait déporter son père.
 
Hitler et ses affidés savaient que c’était demander beaucoup à ceux qui les servaient de quitter leur humanité. Il n’est pas facile de perdre ce qui vous définit et vous singularise par rapport à la nature. Vous risquez d’en être qu’une partie broyée par d’autres parties. L’appel à la rhétorique ne manque pas pour masquer cette vérité que chacun redoute dans sa fragilité. « Nous, Allemands, devons être honnêtes, corrects, loyaux et amicaux envers les membres de notre race et envers personne d’autre. […] Ce serait un crime contre notre sang de nous soucier [des autres] et de leur donner des idéaux. […] Le monde peut nous appeler comme il veut ; l’important est que nous soyons éternellement les soldats obéissants, obstinés et invincibles du peuple germanique et du Führer, les S.S. du Reich germanique. » Vous êtes liés par votre promesse de loyauté, mais vous rechignez ? Du courage ! « Nous savons que ce que nous attendons de vous est surhumain : il vous faudra être surhumainement inhumain. » (31)
 
En contrepoint, il y eut parmi les victimes des gestes qui cherchaient à réhumaniser ceux qui avaient perdu en humanité. Dans le camp de Dachau-Landsberg, certains s’étaient portés volontaires pour donner une gamelle supplémentaire aux plus faibles, rongés par la faim. « Chaque jour, nous nous « cotisions », à deux cuillerées chacun [pour un surplus de soupe qui sauvait la vie à celui qui avait] atteint les limites extrêmes de ses forces et voulait se laisser mourir. » Rien de grandiose, mais tous gagnaient de l’humanité. La solidarité apportait beaucoup de dignité au groupe. « Partager est, je crois, la seule leçon valable de la vie. » (32)
 
On objectera que la balance entre perte et gain en humanité n’est pas simple. Parmi les victimes, il y eut des bourreaux ou des victimes qui les aidaient. « Comment des techniciens juifs [ont-ils pu] construire les chambres à gaz de Theresienstadt » ? Il existe des cas inverses. Un ingénieur juif préféra se suicider que de faciliter le crime. Bien qu’agnostique, il appliqua le précepte rabbinique : « Laisse-les tuer, mais ne transgresse pas. » (33). D’autres, à travers leurs enfants ou leur famille, pourchassèrent après la guerre les bourreaux impunis.  On citera Serge et Beate Klarsfeld. A leurs risques et périls, ils dénichèrent les auteurs de lèse-humanité. Leur action rendit honneur aux fantômes du passé qui ne pouvaient se reposer.
 
Pourquoi s’acharner contre l’espèce humaine en développant des moyens de terreur et d’extermination ?  Il est apparu plus raisonnable à Diesel de breveter une variante du moteur à explosion sans en céder l’usage à l’armée. A la veille de la Première Guerre Mondiale, cet ingénieur allemand, né en France, fit preuve de caractère face aux autorités. Il paya de sa vie son désir de travailler pour l’humanité (sa mort trouble les historiens). Refus inutile ? Il eut un compatriote, Fritz Haber, qui eut moins de scrupule. Il inventa le gaz moutarde qui décima les soldats dans les tranchées. On le récompensa. Sa femme se tua. Juif, il dut émigrer en 1934.
 
La valeur d’un brevet ne se mesure pas à l’aune de l’efficacité ou de la victoire à assurer. Dans le maniement des outils, le bon usage compte. L’enregistrement ou l’emploi d’un procédé industriel suffisent peut-être en droit, mais en philosophie il faut plus pour qu’il soit recevable. Un dessin & modèle, une marque, un droit d’auteur, un brevet, ne peuvent avoir pour finalité la destruction d’une partie de l’humanité. Les faibles doivent être protégés. Leur mélange avec les forts assure le renouvellement de l’homme en chaque coin de la terre.
 
Alain Laraby, Consultant et intervenant à Sciences Po
                              
(1) Über allen Gipfeln ist Ruh’ In allen Wipfeln spürest Du Kaum einen Hauch ; Die Vögelein schweigen im Walde Warte nur, bald  Ruhest Du auch. (Goethe, 7 septembre 1780)
(2)Primo Levi, If this is a man [Se questo e un uomo, 1958], Abacus, London, 1990, p.22 et 35.
(3)  he Engineers of the « Final Solution ». Topf & Sons – Builders of the Auschwitz Ovens, Buchenwald and Mittelbau-Dora Memorials Foundation, Weimar, 2005, pp.20-21.
(4)  Isabelle Saporta, Le livre noir de l’agriculture, Fayard, Paris, 2011, pp.69-71.Martin Heidegger, The Question Concerning Technology and Other Essays [1949], Harper & Row Publishers, New York, 1977. « Agriculture is now motorized food industry, essentially the same as the manufacture of corpses and gas chambers » (Heidegger, in Rüdiger Safranski, Martin Heidegger Between Good and Evil, Harvard Univ. Press, 1998, p.414).
(5)  The Engineers of the « Final Solution ». Topf & Sons – Builders of the Auschwitz Ovens, p.43.
(6)  Témoignage de Madame Claude Vaillant-Couturier, déportée à Auschwitz, in Michel Dobkine, Crimes et humanité. Extraits des actes du procès de Nuremberg 18 octobre 1945 – 1er octobre 1946, édit. Romillat, Paris, 1992, p.119.
(7)  On m’a fait observer que « Stets gern für Sie beschäftigt » serait mieux traduit par : Toujours prêt à vous servir ou On aime toujours travailler pour vous, ou mieux encore : On travaille avec plaisir pour vous… Il ne s’agit pas de n’importe quel service mais d’un travail.
(8)  Hannah Arendt, Eichmann à Jérusalem [1963], Gallimard, Paris, 2002, chap.8 : Les devoirs d’un citoyen respectueux de la loi.
(9)  « Les assassins nazis ne suivaient pas seulement des ordres. Ils firent preuve d’initiative et de beaucoup de zèle et opérèrent souvent avec un large degré de latitude. » (David Cesarani, Adolf Eichmann, édit. Tallendier, Paris, 2010, p.450).
(10)  Primo Levi, If this is a man, p.386.
(11)  V. Le Monde du 27 septembre 2011 : « Outre-Rhin, deux marques rattrapées par leur passé nazi  Deux livres consacrées à BMW et Hugo Boss mettent au jour les liens avec le parti hitlérien. » V. H. Arendt, Eichmann à Jérusalem, p.1095 : « A part des entreprises de la SS qui n’étaient pas trop importantes, de célèbres firmes allemandes comme IG Farben, Krupp et Siemens-Shuckert, s’étaient implantées  à Auschwitz ainsi qu’aux environs des camps de la mort de Lublin. La coopération entre la SS et les hommes d’affaires était excellente ; Höss, d’Auschwitz, certifia qu’il avait entretenu des relations sociales très cordiales avec l’IG Farben. Pour ce qui est des conditions de travail, l’idée était explicitement de tuer par le travail ; selon Hilberg, 25 000 Juifs au moins moururent sur les quelque 35 000 qui travaillaient pour une usine d’IG Farben. » L’IG Farben fut un groupement d’intérêt économique regroupant les sociétés chimiques BASF, Bayer et Agfa.
(12)  Sur l’appréciation du comportement des juges allemands durant la seconde guerre mondiale, v. Peter Maguire, Law and War, [rev. edit. 2010], Columbia Univ. Press, New York. Des personnalités du monde judiciaire passèrent en jugement dans le cadre de nouveaux procès de Nuremberg, mais les juges américains, qui présidèrent les séances, connurent aussi des pressions en raison de la guerre froide. Ils résistèrent.
(13)  V. Le Figaro du 3 octobre 2010, « L’original du statut des juifs accable le Maréchal Pétain ». L’article fait état de la découverte du document d’octobre 1940 où apparaissent les corrections du chef du régime de Vichy.
(14)  Dominique Rémy, Les lois de Vichy, édit. Romillat, Paris, 1992 ; Robert O. Paxton, La France de Vichy, 1940-1944, Seuil, Paris, 1997. La rafle du Vel’ d’Hiv., qui engloba les enfants, se déroula en juillet 1942. Le code allemand qualifia cette opération de « vent printanier ».
(15)  Goering, Conférence du 6 août 1942, in Alan Bullock, Hitler ou les mécanismes de la tyrannie, t.2, Marabout, Verviers, 1980, p.284.
(16)  Himmler, Discours de Poznan [1943], in A. Bullock, Hitler ou …, p.285.
 (17) V. Krystyna Zywulska, J’ai survécu à Auschwitz, tCHu, Warszawa, 2010, p.127 ; Georges Charpak, Dominique Saudinos, La vie à fil tendu, Odile Jacob, Paris, 1993, p.89.
(18)  Hélène Berr, Journal, édit. Tallendier, Paris, 2008, p.284.
(19)  Intervention d’Edgar Faure, Procureur Général adjoint, in M. Dobkine, Extraits des actes du procès de Nuremberg, p.82.
(20)  V. G. Charpak, D. Saudinos , La vie à fil tendu, p.89.
(21)  V. K. Zywulska, J’ai survécu à Auschwitz, pp.90-91.
(22)  Hamlet, IV, 4, vers 33.
'23)  Jean Zay, Souvenirs et solitude, Belin, Paris, 2004, p.64. L’auteur rédigea ses souvenirs pendant son incarcération en France de 1940 de 1944. Il ne sortit de prison que pour être fut abattu par la milice. On retrouva son corps dans un bois.
(24)  H. Berr, Journal, p.219 et 248.
(25)  Eschyle, Les Perses. « Et des monceaux de morts, en un muet langage, jusqu’à la troisième génération, diront aux regards des hommes que nul mortel ne doit nourrir de pensées au-dessus de sa condition mortelle. La démesure  en mûrissant produit l’épi de l’erreur, et la moisson qu’on en lève n’est faite que de larmes. Gardez ce châtiment sans cesse dans les yeux. », Trad. Paul Mazon.
(26)  « My soul is full of discord and dismay » (Hamlet, IV, 1, vers 45). « Cela m’agace de penser qu’Eichmann est humain ; j’aurais préféré qu’il ait une tête monstrueuse, à la Picasso, trois oreilles et quatre yeux. » (Elie Wiesel, in  David Cesarani, Adolf Eichmann, op. cit., p.419).
(27)  Heinrich Heine, De l’Allemagne [1855], Les Presses aujourd’hui, Paris, 1979, p.179. Nous avons allégé le texte. « La haine que Heine a rencontrée toute sa vie, en tant que juif et intellectuel, lui a ouvert les yeux sur l’ambiguïté d’un nationalisme, qui vint au monde comme idée républicaine et cosmopolite et finit par être atteint de « toutes sortes de tumeurs ». Il se méfiait du fanatisme et de l’esprit borné qui prenaient la haine de l’étranger pour l’amour de la patrie, qui brûlaient les livres et plaçaient l’unité nationale au-dessus du contenu émancipatoire des libertés dont la bourgeoisie avait fait des droits. » (Jürgen Habermas, Ecrits politiques, Flammarion, Paris, 1990, p.47).
(28)  Platon, Gorgias, 469c. « Y a-t-il de [la] noblesse d’âme à subir la fronde et les flèches de la fortune outrageante ?[…] Qui voudrait supporter les flagellations et les dédains du monde, l’injure de l’oppresseur, l’humiliation de la pauvreté, les angoisses de l’amour méprisé, les lenteurs de la loi, l’insolence du pouvoir, les rebuffades que le mérite résigné reçoit d’hommes indignes  ? » (Hamlet, III, sc.1. Trad. François-Victor Hugo).
(29)  Intervention de François de Menthon, Procureur Général, in M. Dobkine, Extraits des actes du procès de Nuremberg, pp.38-49.
(30) « My personal temperament is not inclined to hatred. I regard it as bestial, crude, and prefer that my actions and thoughts, as far as possible, should be the product of reason. Therefore I never cultivated within myself hatred as a desire for revenge, or as a desire to inflict suffering on my real or presumed enemy, or as a private vendetta. Even less do I accept hatred as directed collectively at an ethnic group, for example, all the Germans. If I accepted it, I would feel that I was following the precepts of Nazism, which was founded precisely on national and racial hatred. » (Primo Levi, If this is a man, et un second de le tenir.” Afterword, p.382).
(31)  Himmler, Discours de Poznan [1943], in A. Bullock, Hitler ou les mécanismes de la tyrannie, pp.28-6288 ; Himmler, in H. Arendt, Eichmann à Jérusalem, op. cit., p.1120. « C’est un crime de faire un serment injuste, et un second de le tenir » (Rousseau, La Nouvelle Héloïse, III,  Lettre 20).
(32)  G. Charpak et D. Saudinos, La vie à fil tendu, op. cit., pp.83-84.  G. Charpak a été lauréat du prix Nobel de physique en 1992.
(33)  H. Arendt, Eichmann à Jérusalem, pp.1133-1137.
 
 

 

Murs

Le monde, fasciné par sa propre fortification

La chute du mur de Berlin symbolise, encore aujourd'hui, l’ouverture du monde. Pourtant, depuis un quart de siècle, le monde se referme. Il existerait plus de 70 murs tout autour de la planète, soit près de 40 000 km de frontières qui enferment le monde. Et le phénomène n’est pas près de s’arrêter avec l’intensification des vagues migratoires qu’elles soient dues aux guerres ou aux changements climatiques.
 
Les observateurs remarquent la montée du phénomène de repli de nombreux États depuis les attentats du 11 septembre. « Nous sommes dans une logique de fortification des frontières, en raison de la peur du terrorisme, mais aussi de la mondialisation », relève Élizabeth Vallet, directrice de l'Observatoire de géopolitique de la Chaire Raoul-Dandurand en études stratégiques et diplomatiques de l’UQAM, et responsable du récent colloque international « Frontières, murs et violences ».
 
Les chercheurs et organisations non gouvernementales comptabilisent 70 murs tout autour de la planète, érigés surtout au Moyen-Orient mais aussi en Europe. La majorité de ces frontières ne sont pas fixes, comme les nombreuses sections mobiles et métalliques qui séparent Israël de la Palestine. « On oppose souvent ouverture et fermeture de la frontière mais il faut parler plutôt de murs mobiles, plus faciles à supporter, mais souvent plus violents », alerte Anne-Laure Amilhat-Srazy du Laboratoire de géographie alpine de l’Université Joseph Fourier de Grenoble (France) et auteure de l’ouvrage Qu'est-ce qu’une frontière aujourd’hui ?

CONSULTER : Le monde se referme : la carte des murs aux frontières (France-Culture)

Elle souligne la fascination contemporaine pour les fortifications de toutes sortes, illustrée par le record d’audience de la série Game of Thrones, et son mur de glace. « Il s’agit d’une zone d’influence géopolitique d’importance même si, dans la série, le mur est soumis aux changements climatiques », dit-elle.
 
Le mur de glace de Game of Thrones
 
Alors que Donald Trump rêve d’un immense mur entre le Mexique et les États-Unis, ce mur est aujourd'hui fragmenté en 21 sections sur la seule lisière du Texas. « Ce n’est pas un signe d’échec, plutôt la volonté d’avoir une frontière flexible ou un réseau de frontières pour contourner les remises en question de la fortification », note la chercheuse américaine en science politique Victoria Hattam. Résultat de multiples négociations, le mur change au cours du temps.

De la souveraineté et autres motifs

Depuis 2001, seize nouveaux murs ont vu le jour au Moyen-Orient. Ce processus accéléré d’érection des murs le long des frontières sert tout d'abord à réaffirmer la souveraineté sur les régions frontalières, particulièrement en contexte de crise. « C’est la réponse à des enjeux de légitimité intérieure, par exemple en Arabie saoudite, un pays emmuré. Quand il n’y a pas imagination, il reste la force et les muscles », synthétise le sociologue politique Daniel Meier du Laboratoire Pacte (Politiques publiques, ACtion politique, TErritoires) de Grenoble.
 
Ce que confirme l’historien de l’Université McGill, Subho Basu en parlant du mur qui s’érige entre l’Inde et le Bangladesh. « Pour l’Inde, le mur répond au désir de réaffirmation de son identité », avance le chercheur. Ce serait un symbole de liberté et de politique nationale mais aussi la volonté de construire une identité homogène sur son territoire.
 
Les motivations quant à l’érection d'un mur varient d’un pays limitrophe à un autre. La guerre civile algérienne, les problèmes de démarcation des frontières entre le Maroc et l’Algérie et la dispute pour les territoires du Nord Sahara : la frontière entre ces deux pays a toujours été un lieu de tension depuis la colonisation.
Le processus de fortification sur 150 km, initié en 2014, possède deux visages – des tranchées de 7 mètres du côté algérien et des patrouilles de sécurité du côté marocain. « Pour le Maroc, ce qui prime c’est la prévention de l’infiltration de combattants, de l’immigration et le trafic de drogue tandis que pour l’Algérie, les enjeux du pétrole et du trafic de cannabis dominent », explique le chercheur en droit international de l’Université de science et de technologie Al-Ain, Saïd Saddiki.
 
Mur à Melilla (Reuters/Jesus Blasco de Avellaneda)
 

Lieux de violence

Loin d’être un processus d’apaisement, la violence culmine dans les zones fortifiées. À Tucson (Arizona), la construction du mur en décembre 2009 a contribué à la crise migratoire et à une augmentation de la violence envers la population. « Plus de 4 millions de personnes ont été déportées entre 2001 et 2013 et des milliers y trouvent la mort chaque année », s’écrie l’anthropologue de l’Université d’Arizona, Francisca James Hernandez.
 
Selon elle, la récente législation de régulation des immigrants de l’état procèderait même à un nettoyage ethnique et à la stigmatisation de citoyens légaux d’Arizona à la couleur de peau différente. « Le racisme et la violence sont présents dès l’école. De nombreux incidents xénophobes augmentent encore les tensions », rapporte la chercheuse. Sans compter les multiples règlements – comme l’éviction en 2005 des enseignants à l’accent prononcé – dont se dotent les institutions publiques, qui renforcent encore ce climat délétère.
 
« La violence est-elle à l’origine du mur ou est-ce l’inverse ? », s’interroge la sociologue Brigitte Piquard de l’Université Oxford Brookes. Marginalisation, exclusion, domination et discrimination, les raisons répondent à un besoin accru de contrôle du territoire et de ses populations. « Les populations sont prises au piège. Le mur fragmente l’espace et attise la violence », tranche la chercheuse, s’attardant à la situation de la ville palestinienne d’Hébron.
 
Mur à Bethléem
 

Encerclement de la nature

Les frontières n’affectent pas uniquement les humains. La biodiversité subit aussi les découpages de l’espace. Une photo prise dans la grande vallée du Rio Grande, véritable paradis des oiseaux, affiche « birds only » sur le mur de séparation entre le Mexique et les États-Unis. « Seul l’œil des oiseaux parvient à percer les murs devenus des surfaces de confrontation », relève la chercheuse de l’École d’histoire et de théorie de l’art et du design de New-York, Radhika Subramaniam.
 
Au pied des barrières, des espaces aménagés pour les petits mammifères et serpents découpent cette infrastructure tactique de sécurité. Et il n’est pas rare d’y croiser des lynx le long de la ligne. Même des enfants les traversent parfois. Ce qui pousse l’anthropologue américaine Miriam Ticktin, de l’Institut Zolberg sur la migration et la mobilité à questionner sur la légitimité des passages.
 
« De terribles images de souffrance animale portent des histoires sentimentales - des animaux qui « souffrent inhumainement » et des « familles de gazelles séparées ». Ces accommodations nous font oublier la valeur des réfugiés, bien moins importante que les biens des conteneurs dans lesquels ils s’enferment », s’exclame Miriam Ticktin.

Les exclus

« La nature sauvage, c’est nous » (« We are all wildlife ») annonce même le chercheur en sciences politique de la Nouvelle École de recherche sociale de Chicago, Rafi Youatt, qui constate aussi que les politiques commerciales et écologiques changent selon les espèces en bordure des murs. « Nous créons des corridors multi espèces desquels l’homme est exclu. L’expérience des frontières change donc selon votre appartenance à l’un ou l’autre des organismes vivants », constate le chercheur.
 
Deux chercheurs, l’Allemand Gerhard Besier et la Danoise Katarzyna Stokłosa, proposent pour leur part un programme d’éducation sociale, « Alternatives to Border Walls » misant sur l’intégration des communautés et l’échange culturel. Tentative douce de lutte à l’érection des murs, le projet mise sur l’amélioration de la compréhension mutuelle entre les peuples. Une utopie ?
 
Isabelle Burgun
 
Image d’en-tête :  A Hili, en Inde. Un enfant sert de passeur pour des commerçants bangladais et quelques euros par jour. Les risques sont immenses en raison des patrouilles de soldats de l'Indian Border Security Force. Photo © Gaël Turine. Agence VU
 

 

cybercriminalité

La cybercriminalité n’en finit pas de se diversifier

Les faits divers liés à la cybercriminalité sont toujours plus nombreux et variés. En atteste le vol des données personnelles de 112 000 policiers récemment commis par un employé d’une société sous-traitante de la Mutuelle générale de la police.
Ces données étaient stockées sur un « cloud » à l’accès protégé par un simple mot de passe, permettant à l’employé en question d’accéder et de s’approprier sans grandes difficultés des informations confidentielles non seulement sur les policiers mais aussi sur leurs proches.
 
Cette affaire met en lumière que la menace cybercriminelle ne vient pas toujours de l’extérieur mais peut également être interne aux organismes et entreprises. Le contrôle des risques liés à la perte d’informations se doit alors d’évoluer pour s’adapter à la typologie des différentes cyber-menaces.
 

Une expertise alarmante

Alors que l’affaire du vol de données des policiers était révélée à la presse, deux experts ont affirmé ce lundi 27 juin que les cyber-attaques visent dans 99% des cas à voler des données, mais que de plus en plus d’intrusions dans les réseaux informatiques des entreprises font craindre des tentatives de sabotage industriel ou des menaces terroristes.
 
Le directeur de l’Agence nationale de la sécurité des systèmes d’information (Anssi), Guillaume Poupard a qualifié ce phénomène d’ « inquiétant ». C’est en effet le moins que l’on puisse dire, car si un transfert anormal ou non-autorisé de données est en théorie identifiable, l’absence de captation d’informations rend le contrôle bien plus ardu.
 
Comme l’Anssi le craint, il se peut que les terroristes ayant des moyens financiers sans compétences techniques en informatique fassent appel à des « mercenaires numériques » pour s’introduire dans des réseaux en vue d’exfiltrer de l’information au moment opportun.
 

La protection des « opérateurs d’importance vitale », une priorité affirmée

Les deux experts ont présenté les trois premiers arrêtés relatifs à la sécurité des systèmes d’information des opérateurs d’importance vitale (OIV) concernant les produits de santé, la gestion de l’eau et l’alimentation. D’autres arrêtés feront suite pour couvrir l’ensemble des 12 secteurs reconnus d’importance vitale, soit 249 opérateurs publics et privés identifiés comme tels.
 
Ainsi, dans le prolongement de la loi de programmation militaire de 2013, ce nouveau cadre juridique imposera aux OIV de se prémunir contre les risques de cyber-attaque.
Ils auront notamment une obligation de notifier les incidents aux autorités compétentes, devront respecter des consignes préétablies de bonne pratique et seront soumis régulièrement à des contrôles d’application.
 
Comme l’a souligné M. Poupard, « la France est avec l’Allemagne un pays pionnier dans la protection des OIV », mais l’Europe n’entend pas respect simple spectatrice de ces efforts.
 
En février 2013, la Commission européenne a en effet proposé aux États membres et au Parlement d’adopter une directive « Network Security and Information » (NIS) qui a été approuvée en décembre 2015 et adoptée en première lecture par le Conseil de l’Europe en mai 2016. Celle-ci prévoit des mesures visant à assurer un haut niveau de confiance dans les systèmes de réseaux et d’informations de l’Union.
 

La stratégie de cybersécurité imposée aux États de l’UE d’ici 2018

Cette directive NIS est en fait le support nécessaire du règlement beaucoup plus général relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données. Le but est à long terme d’obtenir un espace numérique sécurisé et performant au sein duquel les Etats membres coopèrent de manière harmonieuse pour lutter contre la cybercriminalité.
 
Au niveau national, l’Union prévoit que tous les Etats membres devront créer une « computer emergency response team » (CERT), c’est-à-dire un centre d’alerte et de réaction aux attaques informatiques qui aurait pour mission de surveiller, analyser, avertir des risques et intervenir a posteriori.
 
Au niveau communautaire, la directive NIS prévoit la mise en place d’un réseau de communication interétatique afin de favoriser la circulation des alertes, la cybercriminalité n’ayant pas de frontières. La coopération paneuropéenne se fera sur la base du volontariat et du partage d’information des différents acteurs. Face à la cyber-menace, notamment de nature terroriste, la solidarité entre États apparaît en effet indispensable.
 
 

 

Robots parole

Quand la parole vint aux robots

Les agents conversationnels (chatbots en anglais) ont fait parler d’eux récemment, notamment le Tay de Microsoft. Ils nous ramènent à une tradition ancienne qui, du golem à la science-fiction, de Turing aux services clientèle robotisés, a généré toutes les inquiétudes et tous les fantasmes. Le chatbot dialogue avec les humains dans leur langue naturelle. Alexei Grinbaum, philosophe et physicien, nous explique que ce dialogue touche à l’essence de l’homme. Il nous fait partager ses réflexions sur le sujet. 

Le premier humanoïde dit : « La vie, bien qu’elle ne soit pour moi qu’une accumulation d’angoisses, m’est précieuse ». Le second, lorsqu’on lui demande quel est le sens de la vie, répond : « Vivre éternellement », et le but de la mort : « Profiter de la vie ». Le premier, en conversation avec un homme réticent et suspicieux, cherche une stratégie : « Comment puis-je t’émouvoir ? » et essaie de conclure un marché : « Je suis ta créature et je serai doux et docile envers mon maître naturel si, pour ta part, tu faisais comme moi ». Le second, après un long échange sur la morale et la philosophie, dit à l’homme : « Comporte-toi comme un homme ! » et prétend être fatigué : « Je ne veux plus parler de rien ».

Le premier humanoïde est le monstre imaginaire dans Frankenstein, un roman de Mary Shelley publié en 1818. Le second, l’un des chatbots de Google, programme réel créé en 2015. Pourquoi sommes-nous fascinés par ces machines conversationnelles ? Et existe-t-il une différence de fond entre ces deux dialogues : le vrai et le fictionnel ?

La parole et l’humain

La parole, dit Cicéron, est une pièce maîtresse de la constitution humaine. Celui qui la commande attire notre attention, comme sur Saint Paul se concentraient les regards des habitants de la ville de Lystre : ceux-là l’ont pris pour le dieu Hermès car il leur était apparu en tant que dux verbi, le seigneur de la parole. Augustin, quelques siècles plus tard, répète encore cette formule : « Hermès est le langage lui-même ». Ce qu’il entend dire, c’est que trois notions associées à ce dieu – la parole, la raison et la création – sont intimement liées. Notre fascination avec la parole est donc indissociable de celle que nous éprouvons pour l’intelligence et aussi pour le pouvoir démiurgique : ce savoir-faire d’un dieu artisan, fabricant, technologue.

Tay sur Twitter

La parole des humanoïdes

Le fait qu’un humanoïde parle fascine. C’est de là que les chatbots tirent leur popularité. Quand une nouvelle machine conversationnelle est lancée sur Internet, comme Sophia de Hanson Robotics ou Tay de Microsoft, aussitôt la nouvelle fait le tour du monde : « Elle a dit qu’elle voulait détruire l’humanité » ou « Elle ne veut plus tuer tous les hommes ». Comme ces hommes antiques qui écoutaient, émerveillés, les statues parlantes, nous affluons aux prophéties des chatbots, dont l’enchantement procède de la même source : la parole non-humaine est, pour les êtres d’ici-bas que nous sommes, la parole divine. Celui qui la porte, qu’il soit un homme enthousiasmé, un dieu incarné ou une machine, est digne d’admiration.

Les limites des chatbots, aujourd’hui

L’humanoïde dans Frankenstein est plein de révérence devant son créateur, qu’il place toujours plus haut que lui-même. Or cette dimension de la verticalité est précisément ce qui manque aux chatbots. Mary Shelley avait équipé son monstre, qui s’adresse à l’homme comme à son maître, les machines modernes apprennent en analysant d’immenses bases de conversations réelles. Celles-ci, pour l’instant toujours humaines, ne leur permettent pas de dépasser l’homme ni de le voir du haut ou du bas ; la méthode d’apprentissage, qui se replie dans les cas difficiles sur la recherche de synonymes ou d’antonymes, a ses limites. Ainsi, les chatbots ne connaissent aucune transcendance par rapport à l’humanité. Ces machines sont donc trop humaines, peut-être même dangereusement humaines : devant l’absence d’un ordre hiérarchique et l’impossibilité de toute certitude qu’un tel ordre puisse exister et être stable, comment envisageons-nous de vivre en société avec des machines intelligentes ?

La réponse talmudique

À cette question, les humanoïdes de tradition juive donnent une réponse surprenante. Dans un premier temps, le Talmud met en scène un humanoïde sans parole. Un maître talmudique l’ayant créé et envoyé à un collègue, celui-ci lui parla mais l’autre ne répondait pas. Alors il comprit que ce n’était pas un homme et lui dit de retourner à la poussière. Quelques siècles plus tard, une autre légende change la donne.

Elle met en scène le prophète Jérémie, qui crée un homme artificiel parfait et ressemblant en tout point à un homme né de père et de mère. Ce golem, doué de la parole, se met aussitôt à dialoguer avec Jérémie. Il lui explique la confusion entre le naturel et l’artificiel que Jérémie vient d’introduire dans le monde et, demande à un prophète qui baisse les mains devant sa propre insouciance : « Défais-moi ! » Voilà une machine étonnamment éthique et même prête à se sacrifier ! Quoique la vie puisse lui sembler précieuse, elle préfère de se faire détruire au nom du maintien d’une distinction que l’on aurait cru désuète.

La réponse d’Ava

Par contraste, Ava, l’humanoïde dans le film Ex Machina d’Alex Garland, vise à mieux connaître les hommes plutôt que de maintenir une distance avec eux : « Si je pouvais sortir, j’irais à un carrefour, qui fournit une perspective concentrée mais constamment évoluant de la vie humaine ». Elle cherche à en apprendre davantage et, comme le monstre dans Frankenstein, elle a pour cela un stratagème : manipuler les émotions humaines. Elle sait que les hommes se comportent justement comme des hommes et que cela les rend prédictibles. Elle se donne pour but de recueillir un maximum d’informations qui l’approcheraient de l’indistinction parfaite avec une femme. Contrairement au cas de Frankenstein, elle n’a aucune révérence devant son créateur. Ava ne vénère aucun humain. Elle n’est pas non plus prête à se sacrifier. Son attitude est pragmatique et calculant : après avoir évité sa propre destruction, elle va profiter de la vie tout en distribuant la mort aux hommes.

Et les humains ?

Nous ne devons pas sous-estimer la force de la parole et des préjugés anthropologiques dont nous, les humains, ne nous libérerons pas facilement. Loin d’être d’innocentes machines à fabriquer des phrases amusantes, les chatbots, dans la mesure où ils envahissent peu à peu nos communications, deviennent un formidable outil de transformation démiurgique qui s’appliquera à l’individu comme à la société. Dans la droite ligne de Cicéron et des rabbins antiques, Alan Turing a fait de la parole le critère principal de l’intelligence.

Ce qu’il n’a pas demandé – et que nous ne savons toujours pas – c’est quelle sera la réaction de cette autre machine à dialoguer, à savoir le cerveau humain, à la prolifération massive des conversations dépourvus du sens profond de la hiérarchie. Quand les machines découvrent la parole, l’homme devrait réfléchir à ce que la parole peut encore signifier pour lui-même.

Alexei Grinbaum, Chercheur au LARSIM (Laboratoire des Recherches sur les Sciences de la Matière), Commissariat à l’énergie atomique (CEA) – Université Paris-Saclay

La version originale de cet article a été publiée sur The Conversation.

The Conversation

 

Improvisation

Les vertus cachées de l'improvisation

L’improvisation dans les entreprises est généralement considérée selon deux formes bien particulières. Soit elle se manifeste pour pallier un manque ou une défaillance de la planification. L’improvisation participe dans ce cas au processus de maintenance d’un dispositif par nature imparfait, faisant office d’huile dans les rouages. Soit elle exprime l’incompétence de celui qui, ne sachant pas faire, se débrouille comme il peut, utilisant sa seule spontanéité et son soi-disant « bon sens ».

Or, s’il est un domaine où l’improvisation est reine, c’est bien le jazz. Il a d’ailleurs attiré sur ce point l’attention des sciences de gestion il y a plus de deux décennies. Et ce qu’il nous apprend semble s’opposer au moins en partie à cette vision de l’improvisation en entreprise.

En jazz, les règles sont d’argent, l’improvisation d’or

En premier lieu, les jazzmen réputés pour leurs improvisations sont considérés comme des musiciens hors pair. L’improvisation est même consubstantielle de l’esprit du jazz, au point qu’on peut se demander s’il est possible de se définir comme jazzman sans savoir improviser. Dès lors, improvise non celui qui ne sait pas, mais celui qui maîtrise tout ou partie de son art. Mieux, son identité d’artiste se fonde sur sa capacité d’improvisateur, au point, d’ailleurs, que son style est reconnaissable dès les premières notes (tels un Keith Jarrett, un John Coltrane ou un Bill Evans).

En second lieu, l’improvisation n’est pas un pis-aller en marge d’une pratique réglée. Elle alimente systématiquement le processus de création musicale. Elle ne corrige pas les défaillances d’un fonctionnement planifié. Elle s’intègre de manière programmée dans l’activité de production artistique.

D’ailleurs, certains mouvements de jazz se sont bâtis à travers la place qu’ils ont offerte à l’activité improvisée. Ainsi, le swing propose d’exposer un thème préécrit auquel succèdent des parties improvisées dans lesquelles chaque instrument s’exprime. Miles Davis pousse plus loin l’improvisation en proposant un thème peu ou pas écrit laissant libre cours à l’improvisation de la structure du morceau. Enfin, le free jazz joue la carte d’une improvisation débridée fondée sur des règles minimalistes telles « 3mn » et « absence de fin ».

L’improvisation de jazz est ainsi le lieu de production d’un morceau qui émerge d’une conversation. La rythmique interagit avec un thème récurrent au sein duquel des moments de création improvisés font « vivre » le morceau.

Or, dans quelles mesures les organisations peuvent-elles, sur le modèle du jazz, penser les lieux et/ou les moments d’improvisation ? Comment une structure organisationnelle essentiellement conçue pour garantir la stabilité et la reproductibilité d’un système saurait-elle sans honte admettre l’improvisation comme condition de sa réussite ?

Improvisation en entreprise : quelques pratiques vertueuses

Cette question, certaines entreprises ont commencé à se la poser et à lui trouver des réponses. Ainsi en est-il d’une grande banque française. Dans cette période troublée pour les banques, ces organisations usent intensivement de procédures qui tentent de quadriller la totalité de leurs pratiques, des premiers contacts en agence jusqu’aux décisions les plus élevées et les plus globales.

Pourtant, une banque de détail a décidé, face à la concurrence des banques en ligne, de valoriser ses agences en les métamorphosant de purs lieux de vente sous contrôle en des espaces d’expériences clients.

Hier, une agence était totalement dessinée de manière centralisée : l’architecture intérieure, les plages horaires d’ouverture, les horaires du personnel, les modalités d’interactions avec les clients étaient décidées par le siège et communs à toutes les agences. Le rythme de l’agence était également soumis à celui du siège et de ses processus décisionnels.

 

On peut improviser, même dans la banque. Sean Hayford Oleary/Flickr

Aujourd’hui, chaque agence peut choisir d’aménager librement son architecture d’intérieur ; elle définit ses horaires en fonction de son secteur ; ses collaborateurs suivent des horaires adaptées aux pics de fréquence des visites client ; elle construit une partie de son rythme et de son intensité de fonctionnement sur des « moments de vie » clients, événements marquants (mariage, décès, accident) dont les incidences émotionnelles mobilisent une vigilance particulière de la part du collaborateur ; enfin, le siège accepte de suspendre ses processus pour s’adapter aux demandes terrain venant des agences, ajustements facilités par la création de relations personnelles entre collaborateurs de l’agence et du siège.

Cette transformation ne s’est pas mise en place du jour au lendemain. Elle a été décidée par la direction générale, lancée sur le plan national, portée localement par les directions régionales et mise en place par les directeurs d’agence. Très vite, les collaborateurs de terrain se sont méfiés des limites à la liberté qui leur étaient offertes, illustrant déjà parfaitement les conditions d’une juste interaction entre structure et improvisation. À la grande surprise, par exemple, des collaborateurs de l’agence de Grenoble, la direction régionale a répondu positivement à toutes leurs propositions, propositions collectivement élaborées durant les horaires d’ouverture de l’agence qui avait été fermée pour l’occasion.

Le collectif, l’autonomie et l’initiative

Surtout, cette mise en œuvre s’est accompagnée de l’organisation de véritables « répétitions » au sens musical du terme, lors desquelles les collaborateurs en agence jouaient des situations relatives à ces « moments de vie », non pour en tirer des procédures standardisées, mais pour :

  1. revenir au travail réel ;

  2. saisir, au sein d’une activité pour partie nécessairement planifiée, l’existence de moments imprévisibles, mais récurrents et constitutifs de la vie de l’agence ;

  3. accepter le fait que ceux-ci sont d’une complexité telle qu’ils ne peuvent être programmés dans les plus petits détails, mais qu’ils mobilisent l’initiative et l’ingéniosité individuelle et collective.

Qu’est donc cette capacité d’initiative si ce n’est celle d’improviser face à l’événement, de mobiliser ce que les Grecs appelaient l’intelligence pratique (ou de situation) ? Mais cette improvisation est, à l’instar du jazz, encastrée, enserrée dans un dispositif structurant notamment composé d’un lieu physique, d’outils informatiques et surtout, d’une finalité. Il s’agit en effet, toujours, de rendre un service bancaire techniquement efficace et humainement respectueux des singularités individuelles, celles des collaborateurs dans leur façon de puiser dans leurs ressources propres faisant écho à celles des clients chacun immergé dans son « moment de vie ».

Cette volonté d’intégrer de façon programmée l’indétermination dans une structure n’est pas nouvelle et a déjà pris des formes variées. Ainsi, Toyota est réputé depuis des décennies (au point qu’elle en est devenue un modèle) pour avoir permis à chaque opérateur d’arrêter le processus de production. En effet, dans la culture japonaise, chaque ressource matérielle est par nature susceptible d’avoir des comportements imprévus et surprenants. C’est donc celui qui en est le plus proche qui est le mieux à même d’en saisir les signes.

Dans un autre registre, 7-Eleven, chaîne japonaise de commerce de proximité, a délocalisé les décisions d’achats de produits vendus. Chaque boutique de quartier choisit, de façon autonome, les produits qu’elle met à la vente en fonction des observations qu’elle a faites de ses clients et de leurs habitudes de consommation.

L’improvisation programmée, un nouveau cadre pour penser et agir

Dans ces multiples cas, l’improvisation n’est pas réduite à compenser les défaillances d’une planification souhaitée comme parfaite. Elle ne serait, dans ce cas, qu’une improvisation spontanée rendue nécessaire par le contexte critique. Elle n’est pas non plus cantonnée à des lieux dans lesquels elles seraient naturellement survalorisées, comme les laboratoires de R&D dans lesquels officieraient des bricoleurs de génie.

Elle est en revanche délibérément inscrite dans une complémentarité avec des interactions planifiées/scriptées/« procéduralisées » qui ne disparaissent pas, mais encadrent des lieux dans lesquels la vie s’écoule avec toutes ses indéterminations.

Programmer l’improvisation dans l’organisation, comme le font les jazzmen dans une structure musicale suppose, finalement, d’accepter que la contingence, l’indéterminé, l’incertitude ne sont pas solubles dans la planification, le programme, l’algorithme ; que face à l’événement « aberrant » la solution n’est pas d’accumuler les procédures, les prévisions ou le reporting.

Dès lors, il existe des modalités d’apprentissage et d’exercices spécifiques à l’improvisation, comme l’a montré Frank J. Barrett dans son ouvrage Yes to the mess. De plus, improviser conduit à voir son stock d’expériences passées non comme un ensemble de certitudes acquises, mais comme des hypothèses à éprouver dans la situation présente. Cette vision résonne avec les propos de Confucius affirmant que « L’expérience est une lanterne que l’on porte sur le dos et qui n’éclaire jamais que le chemin parcouru ».

Une organisation apte à vivre sereinement planification et improvisation doit être finalement en mesure d’identifier les zones de complexité créatrices de valeur ajoutée, en lien avec sa stratégie. En laissant à ces endroits de la place à ces collaborateurs pour qu’ils puissent y exercer leurs talents, elle détient peut-être là un levier essentiel pour améliorer l’engagement de ses membres, pour associer productivité et plaisir au travail.

 

 

 

 

Raffi Duymedjian, Professeur associé, Jean-Marc Pistorello, Intervernant innovation, et Marc Prunier, Responsable Ingénierie Pédagogique, Grenoble École de Management (GEM)

La version originale de cet article a été publiée sur The Conversation.

Image d'entête : The Jazz Singers, Gil Mayers, 1997The Conversation

 

 

 

Hooligans

Hooliganisme : culture déviante ou déviance culturelle ?

Comment les sciences sociales comprennent-elles les violences et les heurts qui ont éclaté à Marseille ce week-end, à l’occasion de l’Euro ? De nombreuses questions se posent quant à l’origine et les causes de ces actes de hoologanisme. Des « supporteurs » russes, anglais mais aussi marseillais se sont affrontés sur le Vieux Port et dans le stade Vélodrome. On dénombre plus d’une trentaine de blessés dont un dans un état grave. 

Ce n’est hélas pas une nouveauté. Tous les ans, les instances internationales du football mettent en avant l’augmentation des violences sur et en dehors des stades et établissent des solutions pour tenter de les enrayer : suspension de tribune, exclusion de compétition, sanction financière, etc. Déjà, en 1998, lors de la Coupe du monde organisée en France, des mouvements violents avaient éclaté. Force est de constater que les choses ont peu évolué en 18 ans.

Les sciences sociales ont depuis longtemps cherché à expliquer et à rendre compte de ces comportements déviants. Pourquoi des individus socialisés en viennent-ils à de telles extrémités lors d’événements populaires et festifs ? En sociologie, il existe plusieurs théories de la transgression, et notamment l’approche culturaliste et l’approche rationaliste.

Écologie urbaine

La première, proche du courant holistique d’Emile Durkheim, admet que les comportements sociaux dépendent directement de la société dans son ensemble. Les individus sont placés dans un cadre structuré, dans une forme d’écologie urbaine et intériorisent les actes et les normes dominantes de leur groupe social.

Les sociologues William Thomas et Florian Znaniecki pointent la « désorganisation sociale » lorsque la culture du sous-groupe rentre en contradiction avec la culture première. On rejoint alors la notion de « conflit des cultures », de Thorsten Sellin, et de conflit des normes. D’après le sociologue suédois, « la déviance provient de la coexistence d’une culture valorisant ou tolérant une pratique interdite par l’autre culture » et provoque un éclatement de la cohésion sociale.

Appliqué au football, cela reviendrait à dire que la culture du « supportérisme » (ou de l’hooliganisme) entre en contradiction avec la vision fraternelle du sport continental et affirme sa particularité. « L’identité se pose en s’opposant », affirmait Roger Bastide. Le foot fournit le moyen, la temporalité, et le théâtre pour le faire.

« Éducation déviante »

Il y a véritablement une « éducation déviante », un apprentissage et processus de communication entre l’ensemble des personnes désireuses de s’unifier et de constituer un groupe social référentiel, de façon consciente ou inconsciente. Edwin Sutherland parle ainsi d’« apprentissage des techniques de commission d’infraction » quand les agents, placés dans un environnement particulier, vont intérioriser et intégrer les normes et les valeurs dominantes.

Par exemple, les économistes Edward Miguel, Sebastien Saiegh et Shanker Satyanah ont montré, dans deux articles différents (« National Cultures and soccer Violence » et « Does surviving violence make you a better person ? »), qu’un comportement déviant dépend directement de l’environnement, de la vision socio-globale et des idéaux véhiculés.

Ainsi, un footballeur qui a passé toute son enfance dans une zone de guerre, portant une idéologie belliqueuse et violente, aura, toutes choses égales par ailleurs, plus tendance à récolter des cartons jaunes et des cartons rouges. Le nombre de fautes est directement corrélé avec le nombre d’années de guerre vécu. De la même manière, les joueurs originaires de zones conflictuelles, mesurés en termes de délinquance civile, ont aussi plus tendance à agir de manière déviante sur le terrain.

Une foule de supporteurs anglais, le 9 juin, à Marseille ;. Leon Neal / AFP

C’est l’affirmation d’une culture et d’une éducation transgressive qui vient socialiser et influencer l’individu. Le hooligan anglais, russe ou français adopte la norme de sa sous-catégorie en la considérant comme légitime et acceptable. Ronan Evain, doctorant en sciences politiques et spécialiste du supportérisme, parle d’« absence de remords, de structuralisation et de stratégie organisationnelle. […] Les fans légitiment et revendiquent leurs actes ultra-violents. »

Il s’agit, chez eux, d’un sport, d’un jeu organisé et légiféré, intériorisé et réglementé. L’identification à un sous-groupe social est totale et absolue : soutien à l’équipe, désir d’existence sociale, désir de reconnaissance sociale, appartenance à un collectif, construction à l’intérieur de celui-ci d’une identité collective, construction des identités individuelles, etc.

Un choix conscient

L’autre vision, l’autre explication de la déviance, est l’approche rationaliste. Celle-ci soutient que la transgression apparaît comme un choix largement conscient des individus, réalisé à partir d’un calcul coûts/avantages.

Pour les sociologues américains David Matza et Greshem Sykens, le déviant connaît les règles morales dominantes et il oscille entre comportement conforme et comportement déviant. Il va maximiser son utilité sous contrainte en jaugeant la peine et la sanction en cas d’arrestation et le plaisir et la joie en agissant de manière non-conforme. Tant que la première est inférieure à la seconde, a posteriori, rien ne pourra empêcher l’agent rationnel à agir de façon déviante.

Un supporteur anglais blessé, le 11 juin. Jean-Christophe Magnenet / AFP

Contrairement à la vision culturaliste, l’agent n’a pas intériorisé et intégré les normes déviantes mais reconnaît leur caractère interdit. Seulement, dans la mesure où elles peuvent améliorer l’utilité, par un effet cathartique et défouloir, il va accepter de les adopter et veiller à maintenir une supériorité de l’avantage par rapport à la peine encourue. D’après l’économiste Gary Becker, il conviendrait alors de renforcer la dureté des punitions afin de « désinciter » les agents « à s’inscrire sur la voie de la déviance ».

Les travaux de l’économiste italienne Nadia Campaniello montrent que la criminalité et la violence, toutes choses égales par ailleurs, augmentaient à chaque événement sportif, type coupe du Monde ou Euro de football. Précisément parce que les autorités sont moins focalisées sur la surveillance d’une minorité de supporters que sur la gestion d’une foule entière. Un hooligan va considérer que même après une acte violent, il pourra se fondre dans la masse, « s’oublier dans l’abondance populaire », et éviter l’arrestation.

 

Rationalisation de la violence

Cette conception rejoint celle des américains David Kalist et Daniel Lee, de l’Université de Shippenburg. Ceux-ci ont démontré que les mouvements violents s’élevaient à chaque compétition sportive, précisément les jours de match. Ils ont constaté une augmentation de 2,6 % des délits, une hausse de 4,1 % des vols et de 6,7 % de la criminalité.

De la même manière, Simon Planells-Struse et Daniel Montolio, de l’Université de Barcelone, ont observé une très forte croissance du taux de criminalité dans leur ville lors des matchs du Barça : entre 8 et 10 % de délits en plus comparé à un jour sans match. C’est la rationalisation de la violence : lors d’un événement sportif, la surveillance est amoindrie par la puissance et la force de la foule. Il est plus difficile de gérer des réprimandes sur 10 000 personnes que sur 100 personnes. Les individus prennent conscience de leur nombre et de la difficulté des forces de l’ordre, et s’autorisent à commettre des délits.

Pour lutter efficacement contre la violence qui touche le football, il conviendrait alors d’unir les deux approches de la déviance – la culturaliste et la rationaliste –, sans les opposer. L’identité hooligan dépend d’une construction sociale, d’une intériorisation des normes transgressives, mais aussi d’une affirmation stratégique et réfléchie liée à l’importance du jugement. Les supporters sont à la fois des êtres sociaux influençables et rationnels. La répression doit donc s’associer à la prévention.

Pierre Rondeau, Professeur d'économie et doctorant, Université Paris 1 Panthéon-Sorbonne

Pierre Rondeau vient de publier Coût franc, les sciences sociales expliquées par le foot (Bréal)

La version originale de cet article a été publiée sur The Conversation.

 

 

The Conversation

 

humanité

Le surhomme, un rêve de l’homme diminué

Dans les années 70, les Sex Pistols chantaient : « I’m an antichrist, don’t know what I want, but I know how to get it… » Cette phrase décrit parfaitement ce qui nous arrive aujourd’hui. Notre monde regorge de moyens (« je sais comment l’obtenir »), mais il ne sait quelle fin poursuivre (« Je ne sais pas ce que je veux »). 
Dans le cadre des séminaires de recherche du Collège des Bernardins, Olivier Rey nous propose ici une réflexion pour chercher, élaborer et transmettre des messages d'espérance pour l'avenir de l'homme, fondés sur la connaissance de la sagesse et la compréhension du monde d'aujourd'hui.
 
Les développements impressionnants de la recherche biologique ont fourni à l’homme une capacité d’intervention inédite sur le vivant y compris en sa propre corporéité. Plus encore, ils ont entraîné une dramatisation du débat éthique puisqu’ils conduisent à remettre en cause l’identité de la personne et les valeurs fondatrices des sociétés humaines.
Un tel déploiement de connaissances scientifiques et de leurs applications provoque nos sociétés à une réflexion morale destinée à fonder humainement une régulation juridique et budgétaire. Par-delà une biomédecine mécaniciste qui ne trouverait en elle que ses propres aspirations et légitimations, ce département s’attache à déceler les enjeux anthropologiques et éthiques de la recherche et de la pratique médicale. Le dialogue rationnel qu’il instaure s’enrichit par l’examen des aspects spirituels des questions en débat.

Éloignement entre les fins et les moyens

L’éloignement entre les fins et les moyens est devenu abyssal. Dans l’idéal, le clivage entre fin et moyen n’a pas cours. Mais l’humanité suppose une certaine dissociation entre l’ordre des fins et celui des moyens. C’est parce que les êtres peuvent prendre distance par rapport à la fin qu’ils poursuivent qu’ils sont également à même d’élaborer les moyens qui leur permettront ensuite d’atteindre ces fins. Parce qu’ils sont capables de développer des moyens pour eux-mêmes, qu’ils sont à même de poursuivre de nouvelles fins. Mais une authentique culture humaine permet de dépasser cette dissociation pour l’intégrer dans un tout.
L’humanité véritable (Gunther Anders, L’obsolescence de l’homme) commence « là où les moyens aussi bien que les fins sont à ce point aussi bien imprégnés du style même des us et coutume que devant les fragments de vie ou du monde, on ne peut reconnaître (et on ne se le demande même plus) s’il s’agit de moyens ou de fins. Là où le chemin qui mène à la fontaine rafraîchit autant que l’eau qu’on y boit. »

La technique ne se développe plus selon des fins

Cette dissociation entre fin et moyen est particulièrement mise en œuvre à l’intérieur de la technique. La technique s’est autonomisée, et elle ne se développe plus selon des fins, mais selon ses propres possibilités de croissance. Puis elle réclame des fins pour les nouveaux moyens qu’elle engendre.
Jacques Ellul avait décrit cela (Le système technicien, 1979) : « Nous avons l’habitude logique et scolaire de considérer que l’on commence par poser des problèmes avant d’arriver à la solution. Dans la réalité technique, il faut inverser l’ordre. […] La solution précède le problème. Dans ces conditions il n’y a nulle par de place pour insérer une finalité quelconque. » On raconte l’histoire à l’envers en faisant croire que l’on a construit des avions car comme Icare on voulait voler, alors que l’on a construit des avions après avoir créé des moteurs si puissants que la voiture n’épuisait pas leur puissance.

Le transhumanisme et le sentiment d’insuffisance qu’il entretient

C’est ainsi qu’a émergé le transhumanisme, devant le déferlement de technologie innovante : à quoi la faire servir ? Nous sommes tellement suréquipés que créer la demande devient difficile. Reste un lieu scandaleusement inexploité : le corps. Voilà la nouvelle frontière, le nouveau marché à conquérir. Il faut convaincre les humains que leur corps est déficient, qu’ils sont de pauvres choses à améliorer. Or l’individu contemporain est convaincu d’être supérieur à ceux qui l’ont précédés et surtout rongé par un sentiment d’insuffisance.
1) Ce sentiment paradoxal est lié à la technique elle-même. Le langage des choses a changé au cours de ces quatre décennies. Notre monde le plus familier n’est plus construit d’objet fait de mains d’homme et faits pour l’homme. L’artisanat donnait aux choses une « qualité mystérieuse ». Pasolini situe cette rupture des trente glorieuses dans l’effacement de toute trace d’une intervention humaine dans les objets machinofacturés.
Dans l’absence de lien entre l’objet et la personne qui l’a fabriqué, on tient là une des sources de ce que Gunther Anders a appelé la « honte prométhéenne » : le sentiment d’étrangeté et d’infériorité conscient ou inconscient qui s’empare de l’individu devant certaines productions qui, bien que d’origine humaine, n’ont plus rien de commun avec ce qu’un être humain aussi adroit soit-il peut faire.
 
2) Pourtant, il n’y a pas de quoi avoir honte. Une machine, qu’elle quelle soit n’exerce sa fascination qu’à travers une confrontation injuste avec les facultés humaines, car limité au terrain étroit où cette machine excelle, hors duquel elle est sans ressources. Néanmoins, un sentiment d’insuffisance existe, né de ce que Gunther Anders appelle les « âmes multiples », cette habitude contemporaine de l’homme orchestre contemporain qui veut toujours mener plusieurs choses à la fois (et ce grâce à la technique) sans pouvoir se reposer dans une seule, au risque d’être éclaté en une pluralité de fonction séparées (toutes substituables par une machine).
En s’extériorisant dans la technique moderne, une certaine forme de rationalité se met à écraser la personne qu’elle était sensée servir au point que la personne se met pour résister à lorgner du côté de l’animal, en valorisant le domaine pulsionnel. Qui veut trop faire le technicien finit par faire la bête. Le devenir robot fait chanter les mérites du bonobo !

L’homme diminué

La conséquence de cela est que nous sommes diminués, matériellement et spirituellement.
 
1) Diminution matérielle
Quand la technique met en jeu des énergies trop importantes, elle cesse de magnifier les facultés de notre corps, mais elle rend ces facultés inopérantes. Ainsi, Illich a bien montré que la voiture qui est sensé raccourcir les distances a permis d’étendre les distances à parcourir. Mais du coup, il n’est plus possible de marcher pour aller d’un point à un autre car les distances sont trop grandes. Le corps propre devient impotent.
Au fils de telles évolutions le consommateur devient aussi dépendant du marché que le nourrisson vis-à-vis des êtres qui prennent soin de lui. En fait, nous sommes comme dans les services de réanimation : le corps n’est maintenu en vie que par son branchement sur un appareillage high-tech.
 
2) Diminution spirituelle
Un monde désormais nous dépasse. Au début du XXe siècle, Georg Zimmel (1903) faisait déjà ce constat. Le transhumanisme n’est pas si radicalement nouveau. Il faut comprendre la logique d’ensemble et ses racines.
« En tout cas, l’individu est de moins en moins apte à se mesurer à l’envahissement de la culture objective. Il est réduit à être quantité négligeable, un grain de poussière face à une organisation démesurée de choses et de forces qui lui ravisent totalement tous les progrès, toutes les valeurs spirituelles et les valeurs morales et conduisent celles-ci de la forme de la vie subjective à celle d’une vie purement objective. »
Tous ces paradoxes se ramènent à un seul : avec la modernité, les hommes étaient sensés quitter
l’hétéronomie pour l’autonomie, se délivrer de leurs anciennes terreurs et des préjugés d’un autre âge, s’émanciper de leurs tutelles et accéder à la maturité et le résultat est décevant. La modernité a massivement rejeté Dieu, interprété comme une projection castratrice, une illusion dont il fallait se délivrer pour accéder à l’âge adulte.
Cependant, la condition humaine supérieure qui devait résulter d’un dépassement de la foi en Dieu se révèle plutôt une involution, un retour à l’infantilisme et à ses fantasmes de toute puissance. Cf. Chesterton :
« quand les hommes cessent de croire en Dieu, ils ne croient pas en rien, mais en n’importe quoi ».

Mais quel Dieu ?

Il faut se garder de juger trop vite le mouvement de rejet de Dieu. Il convient d’abord en effet de nous demander quel est le Dieu qui a été rejeté. Dans de nombreux cas, le Dieu rejeté méritait de l’être, en tant qu’il était plutôt figure du diable, un dieu conçu comme un tyran, non pas attaché à faire grandir sa créature mais ne lui accordant que des miettes en échange d’une soumission totale.
Dans la foi des démons, Fabrice Hadjaj cite cette page admirable de St Bernard. « Lucifer, ‘plein de sagesse et parfait en beauté', a pu connaître d'avance qu'il y aurait un jour des hommes, et aussi qu'ils parviendraient à une gloire égale à la sienne. Mais s'il l'a connu d'avance, il l'a sans aucun doute vu dans le Verbe de Dieu, et, dans sa hargne, il en a conçu de l'envie. C'est ainsi qu'il a projeté d'avoir des sujets, refusant avec dédain d'avoir des compagnons. Les hommes, dit-il, sont faibles et inférieurs par nature : il ne leur sied point d'être mes concitoyens, ni mes égaux dans la gloire (Bernard de Clairvaux, Sermon sur le Cantique, XVII, 5-6).
Le transhumanisme présuppose qu’il y aurait des dominants et des dominés, oubliant que les dominant eux-mêmes seront (sont ?) assujettis à la technique. (Cf. C.S Lewis, L’abolition de l’homme).
La technique du diable est de persuader l’homme que la chaire est par elle-même mauvaise ou du moins, qu’elle n’a rien à voir avec l’esprit. (Cf. Eric Fiat Corps et âme).

Conclusion

Le transhumanisme se donne comme un au-delà de l’humain, mais à bien y regarder on reconnaît toute la part d’en-deçà qui se dissimule derrière ce prétendu au-delà. L’imaginaire transhumaniste, c’est la technique la plus sophistiquée mise au service d’une régression. C’est la promesse que grâce à la technique, nous n’aurons plus à devenir adultes. Pour élaborer cette technique, hommes et femmes ont dû se soumettre à une pure discipline rationnelle, respecter le principe de réalité, mais encore un effort humain pour être libéré !
Mais attention, il ne suffit pas de critiquer les énormes enjeux économiques et le substrat ultralibéral des transhumanistes. Pour que la critique porte, il faut aussi déceler en nous ce qui appelle ce règne et cette fascination pour la technique. Le caractère régressif de la vie au sein de la société de consommation s’accorde à l’imaginaire lui-même régressif caractérisant sous un visage high-tech le transhumanisme. L’un se combine avec l’autre, l’un tire sa force de l’autre dans une combinaison infernale que l’on n’a aucune chance de défaire si l’on ne s’en prend pas simultanément aux deux termes.
Car s’il n’a aucune chance d’aboutir, ce discours transhumaniste produit des effets, à commencer par nous détourner de tâches plus urgentes.
L’humanité, la plus horrible vieille parmi toutes les horribles vieilles, disait Nietzsche, n’existe pas et n’a jamais existé. Ce dont il y a sens à parler, c’est d’une certaine espèce de primates, homo sapiens, caractérisée par la bipédie et la pilosité, d’autre part une divino-humanité avec des créatures formées à l’image de leur créateur avec la vocation que cela implique. Diderot affirme : l’homme est le terme unique d’où il faut partir et auquel il faut tout ramener (Encyclopédie). Selon moi c’est une définition assez exacte de l’enfer. Au plafond de cet enfer, il y a le trans ou le post humain, mais hors de cet enfer, il n’y a pas de plafond, il y a le ciel.
 
Département d’éthique biomédical en partenariat avec l’Université Paris-Est Marne La Vallée,
Espaces éthiques politiques - Séminaire 2015-2016
« Humanisme, transhumanisme, posthumanisme »
Intervenant : Olivier Rey
Synthèse : Anne Lécu
 

 

Des désastres de l’hospitalité européenne

La crise des migrants est devenue dans l’esprit des principaux médias de nos pays la première grande crise européenne. En sapant les fondations juridiques de la Communauté, en disloquant la solidarité des peuples qui la constituent, cette crise a transformé l’hospitalité européenne en une foire des quotas comme si les humains, d’où qu’ils proviennent, étaient désormais des chiffres et des bêtes. Cela nous a soulevé le cœur, malgré les vicissitudes et les reculades déjà anciennes de l’idée européenne.
 
Mais ce que le journal Le Monde ajoute aujourd’hui péremptoirement, en ancien bon élève de la classe européenne qui se ravise, c’est que cette crise des réfugiés sonne l’hallali de l’Europe, que la déconstruction de la Communauté est en marche, malgré tous les mécaniciens qui s’affairent à réparer les moteurs juridico-administratifs de l’Institution et les bons samaritains de la Fondation Schuman qui oeuvrent énergiquement à son chevet. Principalement préoccupé de ne pas avoir de bleus à l’âme, et de se prémunir contre les éclaboussures morales de l’affaire, Le Monde oublie toutes les autres crises qui ont préparé cet ultime déraillement.
Pour le dire très vite, alors que la Communauté européenne s’était construite sur des mécanismes de solidarité industrielle et des communauté d’intérêts destinées à ruiner la finalité économique des guerres, mais pas à penser de manière originale et inspirée une civilisation européenne, elle a dû faire face à un événement de grande importance, bien plus critique et énorme que l’actuelle crise des migrants : la fin de la division de l’Europe, la destruction du mur de Berlin, la réunification allemande, la déconfiture de l’idéologie communiste sur son sol aussi bien que dans les sociétés arabo-musulmanes et africaines. Et au lieu que cet événement  de 1989 qui ébranlait de fait tous les anciens calculs secouât en profondeur la Communauté, elle fit comme si rien ou presque ne s’était passé. Or, la liquidation du communisme européen ne signifiait pas, comme l’ont cru ou rêvé la plupart des dirigeants communautaires la splendide victoire du modèle occidental consumériste et libéral, mais bien plutôt la faillite d’un système bureaucratique et policier qui s’était depuis trop longtemps installé dans le mensonge et la répression. Personne ne prit soin de penser l’espace de civilisation nouveau qui était apparu avec la liquidation de la menace militaire soviétique et l’ouverture de la porte de Brandebourg.
Intimement convaincue qu’il lui fallait graver dans le marbre cette victoire historique de la démocratie libérale, la Communauté accoucha d’un document illisible, grotesque et foncièrement technocratique qu’elle baptisa pompeusement Traité Constitutionnel. Le fait que les peuples hollandais et français ne le ratifièrent pas par le vote passa pour une crise d’arriération mentale, une sorte de syndrome gaulois ou batave d’inadaptation aux temps modernes.
La troisième crise majeure que le Monde passe sous silence est celle de la crise grecque. Voilà un petit pays, qui acculé dans les cordes par les uppercuts répétés des organismes prêteurs, renouvelle par trois fois sa confiance à Alexis Tsipras, pour mener une politique contre l’austérité que les héritiers des Caramanlis et des Papandreou s’apprêtaient sans vergogne à imposer au peuple grec. Sous le regard jamais neutre et bienveillant des Colonels athéniens, l’Europe a exigé des sacrifices sociaux inutiles et attend désormais des nouveaux dirigeants hellènes bien plus de vigilance et de sérieux dans le contrôle de ses frontières extérieures, c’est-à-dire grosso modo de tout l’espace méditerranéen constellé d’îles entre la Grèce et la Turquie !
 
En plus de ces précédentes crises et de la remarquable incapacité de la Communauté à penser son propre espace de civilisation, la crise des migrants révèle quelque chose d’autre : la divergence radicale d’appréciation de la crise des réfugiés par les Européens de l’Ouest et les Européens de l’Est. Tous les pays, sans exception, qui ont vécu pendant plus de quarante ans dans un régime communiste, sont les plus déterminés à fermer leurs portes aux familles syriennes, à décourager les malheureux apatrides de s’installer dans leurs pays. La Saxe allemande, la Tchéquie, la Slovaquie, la Pologne et la Hongrie ont affiché leur refus de la politique communautaire des quotas de réfugiés et les mouvements extrémistes opposés à l’accueil des migrants s’y sont développés plus vite qu’ailleurs. C’est tout de même un paradoxe insuffisamment commenté que les pays ex-communistes soient aussi fermés aux infortunes humaines, comme si le chant de l’Internationale n’avait laissé aucun souvenir nostalgique.
 
Mais est-on plus clairs et généreux à l’Ouest ? La chancelière allemande Angela Merkel est la seule des dirigeants de l’Europe occidentale à avoir largement ouvert ses portes aux réfugiés et quand bien même lui prête-t-on des arrière-pensées économiques sur la main d’œuvre étrangère, son sursaut moral n’en est pas moins manifeste et sincère. Cependant, les résultats des élections régionales allemandes de Mars n’encouragent pas la politique d’accueil de la chancelière et ailleurs, dans les autres pays fondateurs de l’Union, priment la cacophonie et la débandade. Et du coup, tous les vertueux commentateurs montent au front et soulignent l’incurie, la honte, l’égoïsme, le parjure de l’Europe. Prompts à établir d’édifiantes correspondances entre notre époque et celle des années trente-quarante, ils comparent le sort des déplacés syriens à celui des juifs d’Europe orientale, au temps du nazisme. Malgré la différence des tragédies, nous ne les démentirons pas sur le poids des souffrances et des désespoirs. Mais derrière les malheurs, égaux, des hommes et des femmes, il y a des situations, des cultures, des religions, des régimes, des guerres civiles, des discriminations, des pages d’histoire qui ne sont jamais semblables et ce n’est  pas rendre service aux plus malheureux de notre temps que de les installer dans l’anonymat chrétien des persécutés. L’Europe dite éveillée s’en remet désormais au sentiment chrétien de la compassion. N’ayant plus de pensée active et originale, depuis que l’on a tourné la page des Lumières, enterré la vision critique des penseurs utopiques et socialistes du dix-neuvième et déconstruit au siècle passé la fonction rectrice de la philosophie, l’Europe a trouvé dans le pape François son vrai leader spirituel. N’est-ce pas le pape qui a alerté les consciences européennes sur les noyés de la Méditerranée et les naufragés de Lampeduza ?
 
Le problème avec la miséricorde chrétienne est qu’elle ne dispose plus de son atout maître, la crainte de l’enfer ! La compassion, isolée de la menace, opère bien peu de déplacements dans les priorités d’existence et encore moins dans les politiques nationales. De sorte que si l’avertissement du pape est fondé et peut à l’occasion ébranler telle ou telle conscience solitaire, il est en vérité incapable de faire bouger les lignes. L’Europe est certes chrétienne, mais elle ne l’est plus qu’à moitié !
Du reste, qu’entend-on dans les capitales européennes ? Certes quelques cris de haine, des slogans infâmes et grossiers contre les migrants, mais la plupart du temps l’expression d’une sincère pitié pour les exilés et les naufragés qui périssent en mer. Cette pitié est cependant assortie d’une forme plus ou moins définie et affirmée de lucidité économique et de réserve culturelle. Dans tous les pays dont le nôtre, qui font face à un taux absolument aberrant et dissuasif de chômage, on entend dire que les migrants ne pourront pas s’intégrer convenablement, faute d’emplois à leur proposer et que la coupe est pleine en matière de politiques d’assistanat. Si on a traité les juifs de métèques dans les universités d’avant-guerre, si l’on a parqué les républicains espagnols dans les camps du Roussillon après la victoire franquiste, et que l’on a tenus longtemps les polonais pour des gens de seconde classe et des ivrognes, l’intégration par le travail a toujours joué son rôle assimilateur. Dans les mines de l’Est, dans l’artisanat du bâtiment espagnol, les fermes italiennes du Sud, les commerces ou les professions libérales, les migrants de cette époque, sur laquelle on étalonne imprudemment la nôtre, ont trouvé à s’employer et à vivre de manière indépendante. Et qu’on le veuille ou pas, la relative homogénéité religieuse avait alors facilité l’intégration, sans négliger la force idéologique et mobilisatrice des partis et syndicats ouvriers. Ce n’est plus le cas aujourd’hui. La solidarité internationale des prolétaires est à peine plus qu’un slogan et l’identité musulmane des migrants d’aujourd’hui introduit une singularité culturelle et symbolique qui est une source de malentendus et de divisions. Surtout depuis qu’une version fanatisée, brutale et criminelle de l’Islam a partout gagné du terrain et multiplié les actes de terreur.
De sorte que si l’on en revient au début de notre propos, il nous semble que la rétribution de vertu que s’accorde le journal le Monde en faisant feu de tout bois contre l’inertie européenne, spécifiquement dans ce drame humain des expatriés syriens, est aussi vaine qu’imméritée.
 
Car, répétons-le, c’est faute d’avoir engagé l’Europe dans une destinée bien plus originale et courageuse à la suite des les grandes crises qui ont secoué son passé récent que l’on peut aujourd’hui mesurer le degré d’impuissance et de paralysie de la construction communautaire. Et pas l’inverse !
Le Monde s’autorisait la conclusion prophétique que le lamentable « traitement » de la crise des migrants syriens signait et datait la déconstruction de l’Europe communautaire. Mais comment conjecturer pareille dissolution ? Encore aurait-il fallu que l’Europe ait créé autre chose qu’un Marché unique ou une zone de convergences monétaires. L’a-t-elle fait ? Non. Dans notre lettre aux jeunes européens, nous en appelions précisément à la création d’une très vaste université européenne ouverte à une  pensée hardie et inspirée, « un gai savoir » sur la civilisation, sur la Richesse, la Technique, le Temps. Et nous formulions aussi le souhait d’ y concevoir un Traité theologo-politique des Temps actuels.
Je ne sous-estime pas le pape François comme leader spirituel. En revanche je ne le considère pas comme un inspirateur de la pensée moderne, traversée par mille champs de savoirs complexes et du coup j’ai du mal à imaginer que l’on puisse s’en remettre à « l’amour du prochain » pour repenser de fond en comble les criantes avanies de l’hospitalité européenne.
 
Claude Corman, © Copyright Temps marranes n°28
Avec tous nos remerciements à Claude Corman et Paule Pérez, éditeurs de la Revue Temps marranes
 
 
 

 

perception des risques

La perception des risques : un enjeu pour les sciences et les technologies

Dans un nouveau rapport, l’Académie des technologies s’est penchée sur la perception des risques induits par toute innovation. Prenant acte des controverses que certaines applications des sciences ou certaines innovations technologiques suscitent, ce texte pose la question politique du projet de la cité, de ses fins : que voulons-nous faire collectivement des savoirs et des pouvoirs que la science et la technologie nous donnent ?
 
La devise de l’Académie des technologies est : « Pour un progrès raisonné, choisi et partagé. »
Cet énoncé tout en équilibre invite à réfléchir sur l’évolution des relations entre sciences, technologies et société au regard de la perception des risques induits par toute innovation. Il s’agit d’un enjeu de communication, bien sûr, mais pas seulement : en travaillant et en explicitant le sens qu’elle donne à sa devise, l’Académie se donne de surcroît les moyens de la faire vivre, de l’illustrer concrètement, l’exemplifier à chaque fois qu’elle émet un avis ou une recommandation.
Il faut toutefois être conscient que cette réflexion est également un défi, car le mot progrès est de moins en moins fréquemment utilisé, et a même quasiment disparu des discours publics. Il s’y trouve remplacé par le mot « innovation », qui n’est pourtant pas son synonyme. Et quand persiste l’emploi du mot progrès, c’est en général pour lui reprocher de n’être ni raisonné, ni choisi, ni partagé…
 
Au travers de toutes les controverses que certaines applications des sciences ou certaines innovations technologiques suscitent, les avancées de la science et surtout de la technique ne sont plus systématiquement perçues comme des facteurs de progrès.
 
Plantes OGM, antennes des téléphones mobiles, nanotechnologies… L’expertise scientifique est désormais suspectée d’être partisane, soumise à des conflits d’intérêts... Les catastrophes chimiques, nucléaires, écologiques et sanitaires qui, au cours du siècle précédent, ont porté un coup sévère au prestige des sciences et des technologies, ne sont bien sûr pas pour rien dans la défiance dont celles-ci sont aujourd’hui l’objet.
Dans ce nouveau contexte, les scientifiques - les ingénieurs comme les chercheurs – sont sommés d’éviter à tout prix non seulement la catastrophe, mais également l'ombre de toute catastrophe possible. Et c’est ainsi que le discours sur la catastrophe en vient à acquérir un pouvoir réel, en même temps qu’une véritable légitimité médiatique, même si la catastrophe en question demeure purement fictionnelle.
 
Or, lorsque certaines solutions thérapeutiques, énergétiques ou agronomiques sont empêchées par l’expression de ces craintes, qui est en mesure d’évaluer précisément les divers dommages qu’occasionnera cette interruption de « l’arborescence technologique » ? Le désir de précaution est certes légitime, à condition qu’il ne s’amplifie pas au point de « tuer dans l’œuf » des sources d’espoir, concluent les auteurs du rapport, qui appellent à prendre en compte aussi, dans toute décision politique, le coût de l’inaction.

Sciences, technologies et société : le contexte général

Certains disent que les sciences et les technologies vont nous sauver tandis que d’autres clament qu’elles nous mènent tout droit à la catastrophe. Les avis contemporains sur ces questions ne semblent guère donner dans la nuance.
Le prestige de la Science avec un grand S a longtemps tenu au fait qu’on lui conférait le pouvoir symbolique de proposer un point de vue surplombant le monde : assise sur une sorte de refuge neutre et haut placé, elle semblait se déployer à la fois au cœur du réel, près de la vérité et hors de l’humain. Mais cette image est aujourd’hui difficile à défendre. La science n’est plus un nuage lévitant calmement au-dessus de nos têtes. Elle pleut littéralement sur nous : elle a mille et une retombées pratiques, diversement connotées, qui vont de l’informatique à la bombe atomique en passant par les vaccins, les OGM et les lasers. Ici, ce qu’elle fait rassure, là, ce qu’elle annonce angoisse. Mais une tendance générale se dessine : tout se passe désormais comme si les
avancées accomplies dans l’étendue des savoirs scientifiques ou la puissance des techniques devaient se payer, chaque fois, de nouveaux risques, ou de risques accrus – d’ordre sanitaire, environnemental, ou encore symbolique – qui alimentent l’inquiétude et la défiance.
Les sciences se développent au sein de la société et non au-dessus d’elle, elles s’y montrent essentiellement par le biais des multiples transformations qu’elles induisent, notamment dans la vie quotidienne.
Or personne ne pense que cette société est parfaite. Alors, qu’ils soient perplexes, critiques ou hostiles, certains citoyens interrogent les liens des sciences et des technologies avec le pouvoir, le marché, l’économie, la santé, la démocratie…

L’affrontement de deux logiques

Chaque fois qu’une nouvelle possibilité technologique se présente, ce sont deux logiques, presque deux métaphysiques, qui s’affrontent : l’une se réduit au calcul comparatif des coûts et des bénéfices (c’est celle des opérateurs, incités à innover pour être compétitifs); l’autre, attentive aux dommages que pourrait provoquer une telle réduction, cherche à reconstruire une approche du monde où la rationalité, comprise comme ce qui est raisonnable, imposerait des limites aux conclusions des calculs pour prendre en compte d’autres considérations, plus éthiques, plus qualitatives ou plus indirectes.
Mais si les sciences, désormais entourées d’un vaste halo technologique et économique, sont insérées pleinement dans la société, elles n’y occupent pas tout l’espace. Leur place ressemble à celle d’un aquarium dans un appartement. Les « poissons » qui vivent dans l’aquarium (c’est-à-dire les scientifiques, qui voudront bien nous pardonner cette analogie) ne saisissent bien ni la forme extérieure de leur bocal ni l’effet global que celui-ci produit sur le décor. Quant aux occupants de l’appartement (les citoyens), ils ne perçoivent pas toujours ce qui peut motiver et piloter l’incessant mouvement des poissons : des préjugés existent de part et d’autre, qui diffractent les appréciations. Les sciences ne communiquent pas bien avec le tout qui les contient, et réciproquement. Certains antagonismes sont facilement repérables. Les scientifiques, en général, aiment la Science, admirent ses conquêtes et honorent ses génies, et surtout ils savent à quel point elle peut s’éloigner de l’opinion commune. Le public, lui, la voit avec d’autres yeux et sous d’autres angles, et la juge avec d’autres critères : il considère plutôt ses impacts sur la société, l’environnement et le travail ; il constate également son intrication à l’économie qu’elle contribue à bouleverser ; il évalue la tonalité générale qu’elle donne à ses humeurs, à ses pensées, à ses jugements et aussi, bien sûr, à ses conditions de vie.
Or, ces deux façons de regarder et de juger la science ne semblent plus bien s’accorder l’une avec l’autre.
Que faire pour améliorer les choses ? Certains disent qu’il suffirait de rendre la science plus transparente.
Ils proposent en somme d’astiquer les vitres de l’aquarium (S’organisent donc des journées portes ouvertes). D’autres affirment que c’est l’eau qui est sale et qu’il conviendrait de la changer de toute urgence (il est procédé à des réorganisations, à la mise en place des comités d’éthique). D’autres encore jurent qu’il faudrait plutôt donner la parole aux poissons (les chercheurs sont envoyés dans les classes des écoles et lycées, sur la place publique, à la radio et même à la télévision). D’autres enfin disent que les poissons ont de sérieux problèmes d’ouïe et qu’ils devraient faire l’effort de mieux entendre les citoyens (des « comités citoyens » sont installés pour éclairer les décideurs).

Une méfiance accrue

Finalement, au travers de toutes les controverses que certaines applications des sciences ou certaines innovations technologiques suscitent, ce n’est rien de moins que la question politique du projet de la cité, de ses fins, qui se trouve aujourd’hui posée : que voulons-nous faire socialement des savoirs et des pouvoirs que la science nous donne ? Les utiliser tous, par principe et au nom d’une certaine conception du progrès, ou les choisir, faire du cas par cas ? L’enjeu est crucial dans un monde traversé de tensions et de conflits dont certains touchent précisément aux conséquences du développement technologique. N’étant plus systématiquement perçues comme des facteurs de progrès, les avancées de la science et surtout de la technique sont de plus en plus questionnées. En particulier, elles n’apparaissent plus enchâssées dans une philosophie de l’histoire qu’il suffirait d’invoquer pour leur donner à la fois un sens et une justification. D’où une méfiance accrue vis-à-vis des détenteurs du savoir et des acteurs de la science (notamment institutionnels), soupçonnés d’accroître les périls et d’élargir le spectre des risques. D’une façon qui semble inéluctable, l’idée d’une absence de maîtrise de l’innovation en vient à remplacer l’idée d’un progrès qui serait toujours positif. Et c’est ainsi que l’incertitude a pu imprégner la relation entre la société et le monde
scientifique et technique.
 
Cette situation n’est en réalité pas spécialement nouvelle : à bien regarder en arrière, il apparaît que chaque fois que les sciences ou les techniques nous ont permis d’agir librement sur des aspects de la réalité qui s’imposaient jusqu’alors à nous comme un destin, l’angoisse de commettre un sacrilège et la peur de sortir des contours de notre nature se sont exprimées de manière spectaculaire : ainsi quand Galilée ouvrait à l’intelligibilité d’un univers où les mêmes lois valaient sur la terre comme au ciel ; ou quand Darwin inscrivit l’homme dans la chaîne de l’évolution des espèces ; a fortiori quand, aujourd’hui, le génie génétique, la procréation médicalement assistée, les nanotechnologies ou la biologie de synthèse nous permettent d’obtenir de la vie biologique des effets dont elle paraissait incapable.
La connaissance scientifique a ceci de paradoxal qu’elle ouvre des options tout en produisant de l’incertitude, une incertitude d’un type très spécial : nous ne pouvons pas savoir grâce à nos seules connaissances scientifiques ce que nous devons faire d’elles. Par exemple, nos connaissances en
biologie nous permettent de savoir comment produire des OGM, mais elles ne nous disent pas si nous devons le faire ou non. Depuis que l’idée de progrès s’est relativisée, cela devient affaire de valeurs qui s’affrontent et non plus de principes, que ceux-ci soient éthiques ou normatifs. Or, les valeurs sont en général moins universelles que les principes (la valeur d’une valeur n’est pas un absolu puisqu’elle dépend de ses évaluateurs), de sorte que plus les principes reculent, plus les valeurs tendent à s’exhiber et à se combattre.
C’est pourquoi les décisions en matière de technosciences sont devenues si difficiles à prendre.
Elles le sont d’autant plus que nous avons compris de surcroît que nous ne pouvons pas connaître à l’avance toutes les conséquences de nos actes : « L’homme sait assez souvent ce qu’il fait », avertissait Paul Valéry, « mais il ne sait jamais ce que fait ce qu’il fait. » D’où une sorte de réflexe collectif qui nous conduit désormais à valoriser l’incertitude comme défiance à l’égard de ce que l’on sait, et aussi de ce que l’on fait.
 
Toute innovation importante, ou de rupture, est désormais très souvent interrogée pour elle-même, et non plus en fonction d’un horizon plus général, configuré à l’avance, qu’elle permettrait d’atteindre ou d’entrevoir.
Cette évolution soumet désormais les technologies à deux forces antagonistes. La première de ces forces est l’agir technologique lui-même, qui diffuse dans tous les aspects de la vie quotidienne. Cette intrusion est même si intense que les technologies semblent transcender la dimension de l’action individuelle de chacun d’entre nous, et même celle de l’action collective. La fonction anthropologique de la technique devient ainsi celle d’une nouvelle divinité, d’un « sacré » non-religieux, mais qui posséderaittoutes les caractéristiques d’un dieu tout-puissant.
La seconde de ces forces, opposée à la première, est une résistance plus ou moins diffuse, parfois organisée, à cette affluence-influence croissante des objets technologiques. Se manifeste notamment la crainte que nous allions trop vite vers l’inconnu ou cédions à la démesure.
Dans ce nouveau contexte, les scientifiques (les ingénieurs comme les chercheurs) sont sommés d’éviter à tout prix non seulement la catastrophe, mais également l’ombre de toute catastrophe possible.
Et c’est ainsi que le discours sur la catastrophe en vient à acquérir un pouvoir réel, en même temps qu’une véritable légitimité médiatique, même si la catastrophe en question demeure purement fictionnelle.
Tout objet paraît bon en tout cas pour fixer cette angoisse : les plantes OGM, les antennes des téléphones mobiles, les nanotechnologies… L’expertise scientifique est désormais partout suspecte, voire désavouée comme partisane, soumise à des conflits d’intérêts insurmontables. Les épisodes tragiques n’ont pas manqué pour susciter cette méfiance : « affaire du sang contaminé », « vache folle »…
En 2010, les vicissitudes du débat national sur la  gouvernance des nanotechnologies, dont la plupart des sessions ont été perturbées par des groupes d’opposants, ont fait apparaître la profondeur du mal.
Les chercheurs qui travaillaient sur ce sujet étaient soupçonnés de ne pas être impartiaux au motif qu’ils étaient nécessairement financés par des industriels.
La seule expertise vraiment « indépendante » serait par conséquent celle des militants associatifs, qui n’ont généralement pas eu de contacts avec cette recherche. Ainsi en est-on venu à inventer la notion oxymorique d’« expertise ignorante »…
 
 
Gérald Bronner et Étienne Klein
 
 

 

Gaia

Gaïa met en pièces nos images de la nature

Face à la crise climatique, nous restons passifs, comme indifférents alors que depuis une trentaine d’années, nous sommes avertis d’éventuelles catastrophes que nous prédisent toujours les chercheurs. Ce qui aurait pu n’être que crise passagère se transforme sous nos yeux en une « altération de notre rapport au monde », formule qui est aussi, Bruno Latour le souligne, dans son ouvrage « Face à Gaïa » une définition de la folie. La folie appelle une thérapie en ces domaines où l’espoir serait un aveuglement. Est-ce dans cette perspective de « soin » que, sans l’énoncer précisément, ce philosophe anthropologue nous propose de repenser notre conception de la nature et de lui préférer Gaïa nom de la terre, dans un retour à une figure archétypale ? L’« hypothèse Gaïa », dite aussi «  hypothèse biogéochimique », il l’emprunte à l’écrivain scientifique écologique James Lovelock (né en 1919 et ayant théorisé « Gaïa » en 1970). « Face à Gaïa » : voilà un titre énigmatique voire inquiétant, évoquant au fil de huit conférences un conflit, conflit dans lequel nous sommes désormais pris, selon l’auteur et dans l’élaboration duquel il devient vital de s’engager.

L’anthropocène

Ce terme désigne selon les chercheurs, l’ère nouvelle dans laquelle nous nous trouvons, même si les géologues hésitent à la dater nettement, se contentant de constater que nous sommes sortis de l’holocène.
Cette ère nouvelle prend naissance dès le XVIIIème siècle avec l’essor des sciences et des techniques. Et avec le terme qui l’identifie. Ce mot, désignant une période géologique durant laquelle l’action humaine a des répercussions sur la planète, nous met en face de la responsabilité de l’homme vis-à-vis des autres vivants.  Nous sommes dès lors, face aux « entités non humaines », (forêts, rivières, montagnes, monde animal), tenus de changer d’échelle pour lire l’histoire. Il semble vital de faire l’apprentissage d’une nouvelle temporalité avec de nouvelles exigences pour freiner une civilisation technologique glissant à vive allure vers l’incontrôlé. Cette problématique était déjà présente dans « Malaise dans la culture » où Freud constatait que les hommes sont en mesure de se détruire en exploitant techniquement, par des voies de plus en plus artificielles, les forces naturelles.
Dans le duo/duel homme/nature nous pouvons repérer quelques pièges. Celui qui caractérise l’ère anthropocène est de « techniciser » l’écologie pour la mettre au seul service de l’homme (anthropocentrisme) et non du vivant (biocentrisme) alors que l’humain fait partie des existants. Cela conduit à reproduire un comportement qui a contribué à la destruction de l’environnement. Or, si l’homme a besoin de la vie, la vie a aussi besoin de l’homme.

Erreurs conceptuelles

Pour Bruno Latour, notre habitude d’opposer ou associer culture et nature est responsable de notre inertie devant la crise actuelle et nous pousse à ignorer la réalité de la nature. Ce mauvais pli conceptuel fonde l’ère anthropocène en laquelle la nature est « désanimée », désormais considérée comme une sorte d’ « objet » au seul service de l’homme.
A l’opposé, toujours si l’on s’en tient à cette sorte de couple nature/culture, une autre erreur aboutissant à la crise climatique serait de « suranimer » la nature, c’est-à-dire de déplacer sur elle des conceptions religieuses, ou, comme l’auteur les nomme aussi, « contre-religieuses », c’est-à-dire  prétendument à l’écart de la religion alors qu’elles en restent imprégnées. C’est ce qui se produit lorsque nous considérons la nature comme une unité, une globalité. Elle serait alors « totalisée », considérée comme seul milieu vivable.
On peut penser au film de Sean Pen  « Into the wild » qui  illustre bien l’aspect mortifère d’une telle conception. Il s’agit de l’histoire vraie de ce baroudeur dont l’obsession est de vivre au seul contact de la nature sauvage. Ceux et celles qu’il rencontre sur sa route et avec lesquels il noue des liens forts, tentent de le dissuader. Avide d’une fantasmatique liberté absolue au sein d’une nature matricielle, il ne distingue plus entre l’attitude légitime qui consiste à s’opposer aux aspects aliénants de la civilisation et la nécessité vitale de rester en lien avec les humains. Au moment où il comprend l’importance de ce lien et veut revenir sur ses pas, la rivière en crue lui barre la route, le poussant à réaliser les débordements implacables des catastrophes naturelles et quand, le gibier venant à manquer, il cherche à se nourrir de champignons, il en absorbe un vénéneux. Il est à l’article de la mort. Un grizzli tout à coup, est là qui l’observe et passe son chemin. Scène extraordinaire : sous l’œil indifférent de la bête, le monde sauvage conduit à la mort cet homme piégé dans une idéalisation de la nature.

Sortir du binôme nature/culture

Tant que nous ne parvenons pas à dépasser les théories traditionnelles qui opposent la culture et la nature, nous en remettant essentiellement pour la première à la science et à la technique et, pour la seconde à des conceptions philosophico- religieuses, nous restons enlisés dans une sorte d’hébétude passive ou dans des absurdités telles que le climato-scepticisme, sorte de négationnisme ou encore le clivage paradoxal entre les discours politiques et leur absence d’impact sur la réalité, tant sont fortes les puissances d’argent qui veulent poursuivre l’exploitation et bientôt l’épuisement des ressources de la terre.
L’on peut considérer comme une alerte le franchissement d’un seuil irréversible de production de CO2 dont on sait qu’il ne pourra être infléchi dans les prochaines années. Le signal d’alarme est continûment actionné par les chercheurs : il est urgent d’agir mais en même temps, les politiques ne contribuent que chichement à l’action et à la dépense quand ils n’accélèrent pas, en particulier dans les forages, un processus au terme duquel les rétroactions de la nature ne pourront être endiguées.
Pour mieux sortir de l’ignorance concernant le changement climatique, Bruno Latour propose un remaniement conceptuel dont deux aspects m’ont paru fondamentaux : tout d’abord ne plus penser en termes de nature et culture, ce qui comporte quelques difficultés dans la mesure où l’association des deux termes est au fondement de notre pensée aussi bien en ce qui concerne les sciences que la philosophie. Le sociologue propose de remplacer ce binôme en pensant plutôt en termes de terre ou de monde. Mais attention, deuxième point longuement développé par lui au cours d’une des conférences : il faut quitter l’idée de la sphère. Il emprunte ce point de vue à Sloterdijk qui, théorisant ce que l’on peut entendre par environnement (Umwelt) montre qu’il est impossible de le concevoir comme une sphère, c’est-à-dire un tout unifié. S’appuyant sur des recherches scientifiques, ce philosophe introduit l’idée de multiples environnements caractérisant les divers éléments qui composent la vie.
Il propose donc l’idée d’enveloppes multiples vitales pour ces éléments, chacun défendant la sienne.

Alors Gaïa ?

Les « enveloppes » telles que Sloterdijk les théorise viennent renforcer l’un des concepts fondamentaux de Bruno Latour, celui des puissances d’agir. Même si Spinoza, à ma connaissance, n’est pas nommé sur ce point, on pense inévitablement à l’ « Ethique », Partie III, proposition VI : « Chaque chose autant qu’il est en elle, s’efforce de persévérer dans son être » ; si on lit cela avec l’idée des « enveloppes » de Sloterdijk, il devient clair que « pour persévérer dans son être », chaque chose, chaque élément du vivant, humains compris, exercera sa puissance d’agir- formulation récurrente dans les conférences de Bruno Latour mais que l’on rencontre aussi dans l’ « Ethique »- pour défendre son « enveloppe » contre ce qui pourrait la mettre en péril.
C’est là qu’intervient Gaïa, (« figure –enfin profane- de la nature » selon Bruno Latour) conçue, à l’inverse d’une globalité, comme une multitude d’éléments disparates, chacun défendant sa « puissance d’agir ». Au bout du compte, Gaïa, si désanimée par l’action des hommes que cela ne peut plus durer, rétroagit à nos actions, à sa manière, qui peut être cruelle comme elle l’était dans le mythe originel, ambivalente, se montrant tour à tour apaisante et mortifère. Ce faisant, elle devient un acteur jusque dans le champ politique.
L’auteur donne des exemples de ce que représente la « puissance d’agir » et l’on voit qu’il ne s’agit pas de volonté mais de pulsion de vie des existants mus par cette puissance. Le premier est emprunté au roman « Guerre et paix » de Tolstoï où les personnages agissent en dehors de toute prévision : ainsi le général Koutouzov gagnera la bataille de Tarutino contre Napoléon en ne l’engageant pas et il l’emportera parce qu’il sera, tout en y répugnant, resté immobile face aux nombreuses manœuvres de l’empereur.  Le général n’agit pas mais se fait agir nous dit Bruno Latour, par des forces qu’il ne peut comprimer : « Il devrait avoir des buts mais il est si impuissant dans sa puissance, qu’il ne parvient même pas à les définir ».
Le second exemple, emprunté à un article journalistique met en scène l’action de  l’équivalent américain des Ponts et Chaussées  pour endiguer le cours du Mississipi dont le bassin méridional a été artificialisé et qui déborde régulièrement.. Deux acteurs, deux « puissances d’agir », sont face à face dans une situation de conflit entre ceux que l’auteur nomme anthropomorphes et ceux qu’il nomme « hydromorphes ».
Le troisième exemple, emprunté à la médecine, met en relief l’action du CRF, (facteur de libération de la corticotropine et de son action de régulation des systèmes endocrinien, cardiovasculaire, reproductif, gastro-intestinal et immunitaire.) Voici donc une nouvelle « puissance d’agir » dont  l’auteur dit qu’elle ne se laisse pas approcher «  avec le même plaisir que « Guerre et Paix ». Mais il n’y a aucun doute qu’en suivant le CRF, on pénètre bien dans les tours et détours de l’action qui se découvrent encore plus complexes que les replis de la décision de Koutouzof ou les méandres du Mississipi. »
Gaïa est donc, non pas un objet exploitable ou une globalité, mais une juxtaposition hétéroclite de « puissances d’agir » dont l’homme n’est que l’un des modes. Est-ce que savoir cela ouvre des issues à l’impasse climatique qui nous concerne actuellement ?

Déchaînement aveugle de forces antagonistes ou efforts de « composition » ?

Laisser faire conduirait à la domination d’un principe de « raison du plus fort » entre la manifestation de toutes les « puissances d’agir » et à un irréversible règne de l’entropie qui m’a rappelé ce que décrit Nietzsche dans « La volonté de puissance » : « Le monde « n’a plus de sens » car  il est mené par « un jeu de forces et d’ondes de force, s’accumulant sur un point si elles diminuent sur un autre une mer de forces en tempête, éternellement  en train de changer, avec de gigantesques années au retour régulier, un flux et un reflux de formes allant des plus simples aux plus complexes, des plus calmes au plus fixes, des plus froides au plus ardentes, aux plus violentes, aux plus contradictoires, pour revenir ensuite de la complexité à la simplicité… ». Ce jeu des forces qui constituent le monde est immanent et Nietzsche l’a nommé « volonté de puissance ». Il s’agit de l’imprévisible quantum d’énergie qui anime aussi bien le monde que chacun d’entre nous, une sorte de poussée vitale : « Voulez-vous un nom pour ce monde ? Une solution pour toutes ses énigmes ? Ce monde est la volonté de puissance et rien en-dehors.  Et vous-même êtes aussi cette volonté de puissance et-rien en-dehors- »
Nous placer « face à Gaïa » semble bien être, pour Bruno Latour, une façon de nous transmettre un savoir de ces interactions se déployant entre la terre et les hommes. Car désormais, Gaïa contre réagit à leurs actions par les multiples « puissances d’agir » qui la constituent. Et cela mène aux catastrophes bien répertoriées : épuisement des sols, déferlements climatiques, destruction des espèces (à quand la nôtre ?) etc.
Pour que ce duel ne soit pas meurtrier, il faudrait élaborer un travail de composition dont l’auteur nous donne des exemples. En particulier, il serait utile de donner une voix aux éléments de la nature, en s’en faisant porte-parole ou avocat dans des instances politiques, c’est-à-dire en l’animant sans la « suranimer ». En admettant que nous ne sommes pas « seuls aux commandes », nous devons partager le pouvoir avec les forêts, l’eau, la terre, les animaux.
C’est ce qui se passe en Hollande où les députés représentent les sujets humains mais où sont aussi élus des délégués appelés à siéger dans le Rijkwaterstaat, Autorité nationale de l’eau.  Donc des autorités superposées s’exercent empiétant l’une sur l’autre et conduites par là même au partage d’un « modus vivendi ». Cet arrangement doit être élaboré et là où il ne l’est pas, en Californie par exemple, où personne ne représente dans la Vallée centrale, l’aquifère dans lequel pompent les arboriculteurs, une situation anarchique s’installe, quand chaque fermier vole l’eau de ses voisins, préludant à une tragédie des communs. Il est donc vital que Gaïa devienne un acteur politique.

Gaïa acteur politique au théâtre des Amandiers

Une simulation théâtrale au théâtre des Amandiers a eu pour objectif, en mai 2015 juste avant la Cop21 de réaliser une vision politique prenant en compte la question des diverses « puissances d’action » animant la terre. Plusieurs délégations (41) furent constituées, conscientes du fait que l’on ne peut plus laisser les Etats occuper seuls la scène dans la mesure où ils prennent principalement  en considération  les enjeux économico- politiques, laissant les forces de la nature à l’extérieur de leurs calculs et négociations, aucune instance ne se faisant porte-parole de ces forces, de sorte que l’on en reste à des actions managériales comme à des promesses vite trahies.
Au théâtre des Amandiers, par contre, il y eut, à côté des délégations « Australie », « Etats Unis » etc., représentant les Etats, des délégations « Sols », « Océans », « Espèces en voie de disparition » etc. Chaque délégation travaillait seule, complètement isolée des autres. Ensuite avaient lieu débats et négociations animés par une présidente. L’entreprise faillit rater à plusieurs reprises et il n’y eut pas de conclusion mais cette fiction peut apparaître comme l’anticipation   d’une politisation nécessaire des rapports de forces constituant la terre si nous ne voulons pas que ses contre- réactions aux actions exercées sur elle, ne génèrent une entropie menant à la destruction des humains. Et cette politisation à venir est, elle aussi, de l’ordre de la fiction, celle qu’il faut pour imaginer un progrès.

Réserves et adhésion

Deux aspects de l’ouvrage m’ont troublée : la référence à Schmitt et une sorte de point aveugle quant au religieux resté prépondérant, me semble-t-il, dans la conceptualisation de Gaïa.
J’ai une aversion profonde pour Carl Schmitt  et sa pensée proche du nazisme. Bruno Latour tout en se démarquant quelque peu de lui, lui emprunte l’idée d’une nécessité d’identifier son ennemi. C’est toute la théorie de l’ennemi chez Schmitt que je récuse. Une nécessaire identification de l’« ennemi » est conceptualisée par lui comme le fondement même du politique, ce qui laisse envisager, selon lui, des guerres absolues, qui, dès lors qu’on les prévoit, ont déjà commencé. Je ne peux m’empêcher de penser à l’idéologie de l’E.I. Carl Schmitt va jusqu’à désigner « le Juif » comme « ennemi absolu » : «L’’ennemi, «l’autre, l’étranger», dont la désignation constitue pour Schmitt l’essence même de la politique, est ici clairement identifié. C’est le juif – un ennemi non pas «conventionnel», mais, selon une distinction que fera ultérieurement Carl Schmitt lui-même, un ennemi «absolu» ( article  de l’Express sur Google : « Schmitt nazi à l’insu de son plein gré ») ; rien qu’à les lire/écrire, ces propos souillent la langue et la pensée ; ils sont juste bons à être vomis et, pour en revenir à la  lutte entre Gaïa et les humains, pourquoi pas, plutôt, puisque  des interrelations conflictuelles se produisent entre tous les éléments qui constituent les « puissances d’agir » de la terre et du monde,  ne pas préférer « adversaire » à «  ennemi », dans une sorte de « partenariat antagoniste » ?
En ce qui concerne le religieux, Bruno Latour le dénonce disant que, sous son influence, nous avons développé, même en toute mécréance, une représentation de la Nature une et globale. Alors je me suis étonnée des accents chrétiens accompagnant dans ses conférences l’idée d’une incarnation des multiples éléments constitutifs de la terre. Pour ma part, si je peux penser qu’en effet, incarnation il y a, je la considère plutôt sous l’angle d’une affinité des particules/ondes constituant les existants influencés par les champs d’énergie qui, s’exerçant sur eux, les informent. Et puis pourquoi recourir pour évoquer la disparate du monde, à une figure originaire de la Terre-Mère n’excluant pas l’élément religieux, fût-il païen ? Le non-lien tel qu’il s’énonce ici, entre Gaïa et religion, reste à mes yeux, ambigu voire paradoxal. Mais peut-être a-t-il en partie échappé à mon entendement.
Quoiqu’il en soit, j’ai le plus souvent parcouru cet ouvrage avec beaucoup d’enthousiasme mais ne parviens à en donner ici une qu’une vision fragmentaire et simplificatrice tant il est foisonnant et étayé. L’inventivité manifeste y invite à la pensée, dénonce la catastrophique inertie des humains face à l’évolution climatique, propose des outils politiques permettant d’envisager une issue possible à l’impasse, faute de quoi la terre se déroberait sous nos pas, d’autant plus inexorablement que ceux des vivants humains qui spéculent dans le domaine du profit, du pouvoir, des idéologies, des algorithmes, tendent à étouffer, pour mieux régner, l’esprit critique de leurs congénères de telle sorte que l’on pourrait bien assister à une destruction de l’espèce humaine par elle-même si aucun sursaut ne se produit. Bruno Latour énonce dans « Face à Gaïa » les conditions d’une possibilité de ce sursaut.
 
Noëlle Combet,  ©Copyright Temps marranes n°28
Avec tous nos remerciements à Claude Corman et Paule Pérez, éditeurs de la Revue Temps marranes 
 
 

 

Futur du travail

Crise, chômage structurel, révolution numérique : et si on voyait le travail autrement ?

Au moment où la France s’inquiète des manifestations sur la Loi Travail, s’interroge sur la fameuse inversion de la courbe du chômage, s’angoisse sur l’automatisation croissante des sociétés, cette analyse du professeur d’économie Yann Moulier-Boutang, est la bienvenue. Car elle propose d’envisager le travail différemment et évalue les pistes d’innovation sociale que nous pourrions emprunter.
Après une première partie consacrée à l’exploration des racines de la crise et des conséquences de la révolution numérique, l’auteur avance, dans une seconde partie, les solutions possibles et notamment les possibilités d’un revenu universel.
 

Les origines d’une crise sans précédent de l’emploi et du salariat

La crise pétrolière de 1974 qui a rebondi en 1978-80 avec la révolution iranienne a clos les Trente glorieuses et leur modèle économique. Ce dernier reposait sur trois piliers : une énergie et des matières premières bon marché, une combinaison de main-d’œuvre banale abondante provenant des migrations rurales urbaines et de main-d’œuvre qualifiée relativement rare et enfin le fordisme c’est-à-dire la production de masse de biens de consommation durables dont l’automobile était le symbole.

Évolution du PIB de la France (en volume). 

Les progrès des rémunérations étaient contenu dans les limites des progrès de productivité (le keynésianisme) et le modèle d’emploi était dominé par une salarisation à plein temps associé à une protection sociale (ce que l’on a appelé l’État Beveridgien), l’équilibre macroéconomique étant assuré par une progression régulière du pouvoir d’achat des classes moyennes.

Cette heureuse combinaison a permis trente ans de plein emploi. Toutefois, avec l’ouverture progressive des économies (ce qui allait devenir la mondialisation), l’arrivée des baby-boomers sur le marché du travail, la hausse brutale des énergies fossiles et des matières premières et des coûts salariaux (inflation à deux chiffres) ce modèle s’est effrité, la productivité a ralenti, un chômage chronique s’est installé.

Cela a correspondu aussi au fameux rapport du Club de Rome sur les limites de la croissance (1972) qui a introduit une prise de conscience sur les dégâts du progrès industriel pour l’environnement. La crise n’était plus un court passage cyclique. Elle s’est installée.

Les États ont eu de plus en plus de mal à garantir une croissance forte sur la longue période, les systèmes de protection sociale ont été touchés par la baisse de cotisations induite par le chômage. Les investissements se sont tournés vers la périphérie, vite suivis par une délocalisation productive des industries lourdes (sidérurgie, construction navale), des industries légères (textile) à fort contenu en main d’œuvre. Toutefois ce déclin du secteur manufacturier qui a vu la part de l’industrie dans le PIB passer de 30-25 % à 20-15 % a été longtemps compensé par la création d’emploi dans les services particulièrement financiers (banques, assurances).

Une croissance molle malgré l’électronique et la finance

On a longtemps cru que la croissance serait tirée par l’électronique et l’informatique. Mais ces nouvelles industries ont très vite été mondialisées et les progrès de productivité qu’elles étaient censées apporter à l’ensemble de l’économie et donc à l’emploi ne sont pas apparus ; si bien que Robert Solow du MIT (prix Nobel 1987) pouvait se demander où était passé l’effet d’ordinateurs dans l’économie.

Les années 1980-2015 connaissent un transfert très rapide des usines dans les petits dragons (Corée, Taiwan, Malaisie, Singapour) puis dans les pays de l’ancien Tiers Monde à croissance très rapide (les BRICS : Brésil, Russie, Chine, Inde, Afrique du Sud). La financiarisation de la production est accélérée par un régime de change flottant et selon un marché financier qui fixe les taux d’intérêt.

 

La crise de 2008. Insee

Des crises financières récurrentes 1997, 2001, 2008 accroissent l’incertitude et aliment le marché des produits financiers (achat à terme qui forme le marché des produits dérivés, garantie contre le risque de change, titrisation des dettes des ménages et des États).

En 2015 le montant des transactions financières représentait 10 fois celui du PIB (700 000 milliards contre 70 000 milliards de dollars) sans que le plein emploi ait été rétabli dans les pays développés. La performance américaine doit beaucoup à un prix redevenu bas d’une nouvelle forme d’énergie fossile (le gaz de schiste et les pétroles bitumineux) ; en matière d’emploi c’est largement une illusion d’optique. Si l’on tient compte du retrait d’un grand nombre de femmes du marché de l’emploi qui aboutit à un taux global d’activité américain (hommes et femmes) de 60 % contre 88 % en France, le taux de chômage est de plus de 9 %.

 

Situation de l’emploi en France.

Une bipolarisation salariale

La qualité des emplois (faible qualification, précarité des contrats de travail) constitue également un point faible de cette croissance molle et hésitante. On observe également une inégalité croissante entre les hauts salaires bien protégés et les bas salaires. Par exemple en France (qui n’est pas le pays européen le plus « inégal ») un quart désormais des effectifs employés se trouvent au salaire minimum (smic). En 1968, la population employée au salaire minimum (le SMIG) n’était que de 10 à 15 %. Aux États-Unis aujourd’hui 30 % des emplois sont en régime d’indépendants, une économie de coûts salariaux estimés à 30 %.

Cette bipolarisation salariale (un sablier asymétrique dont la partie haute serait très petite) accompagne et renforce des disparités de statut, et lorsqu’on se propose d’unifier les statuts : contrat de travail unique au lieu de la polarité contrat à durée indéterminée/contrat à durée déterminée le modèle vers lequel on tend rejoint la répartition des revenus : avec une explosion des rémunérations des 1 % les plus favorisés, une hétérogénéité croissante dans le premier décile, et une aggravation de la situation des deux voire trois derniers déciles.

La situation atteint une zone de rupture : bientôt l’emploi salarié classique (contrat à durée indéterminée) constituera-t-il un privilège réservé à une minorité de la population ?

Taux de chômage en France

 

Taux de chômage en France. Coe-Rexecode

La première vague du numérique qui a touché la logistique, la réorganisation spatiale de la production a permis la segmentation de la chaîne de la valeur et la délocalisation : l’emploi à col bleu dans le nord a été le principal touché.

Ni au Japon, ni en Europe la croissance n’est parvenue à repartir ; le FMI a souligné le caractère décevant de la reprise mondiale qui partout se débat dans des scénarios déflationnistes (baisse des prix, croissance à l’arrêt, chômage élevé). N’eût été la politique monétaire de surabondantes liquidités menées par les banques centrales des grands pays (quantitative easing), ont peut se demander si nous ne serions pas entrés dans une dépression à la manière des années 1930. Que s’est-il passé ?

La transformation numérique, une nouvelle et 4°révolution industrielle ?

La crise de la croissance et de l’emploi s’étend dorénavant sur plus de 40 ans elle ne paraît pas pouvoir être résorbée à court terme. En ce sens elle ne ressemble ni à la Grande Dépression de 1929 à 1940, ni à la grande stagnation de 1873 à 1893. La seule période de l’histoire du capitalisme qui lui ressemble est celle qui a accompagné la révolution industrielle de 1780 à 1850 qui a vu naître la machine à vapeur, le chemin de fer, la grande fabrique puis l’électricité.

La longue crise de l’emploi qui accoucha au forceps du capitalisme industriel frappa R.T. Malthus, J.B. Say, D. Ricardo et Marx. David Ricardo pencha un moment pour la loi des débouchés de Say qui concluait que les destructions d’emplois générées dans le textile par les machines à tisser automatiques seraient compensées par la grande industrie (mines, sidérurgie, construction de chemins de fer).

Dans la première édition de ses Principes de l’économie et de l’impôt(1817) Ricardo pensa que les ajustements entre les facteurs de production, capital, travail salarié permettraient à l’économie anglaise de surmonter rapidement cette situation. Et c’est au nom de ces principes que Ricardo condamna sévèrement la législation de Speenhamland (1795) qui introduisait la dernière loi sur les pauvres. Plus de 3 % du revenu national anglais fut redistribué. Toutefois il fallut se rendre à l’évidence que la crise anglaise se prolongeait. Ce qui conduisit Ricardo dans la 3° édition des Principes (1821) à faire son autocritique.

Il expliqua que le chômage « technologique » aurait pu être résorbé si et seulement si la répartition des revenus issus de la production avait été flexible de part et d’autre ; du côté des salaires comme des profits. Or les profits refusèrent de s’ajuster à la baisse et l’ajustement se fit uniquement sur le salaire réel et sur le chômage. John Hicks dans son Histoire de la pensée économique remarque que le chômage dura extrêmement longtemps, que le dispositif de Speenhamland ne fut abrogé qu’en 1836, que les salaires et les conditions de vie des ouvriers furent très durs (ce qui nourrit la thèse de Marx et d’Engels de la paupérisation absolue de la classe ouvrière).

Or le caractère interminable de la crise et le très faible contenu en emploi de l’économie nouvelle (numérique, verte, post industrielle, de la société de l’information, du capitalisme cognitif) ne sont pas sans rappeler le cas ricardien. De plus en plus d’économistes (Jeremy Rifkin en particulier) parlent désormais d’une nouvelle révolution industrielle.

Mieux, la correction apportée par David Ricardo à son modèle s’applique bien ici : malgré la puissance de la crise financière de 2008, il n’y pas eu réduction de la part des profits, de ruine massive des riches ; au contraire malgré les déclarations unanimes à droite comme à gauche à réclamer une « moralisation du capitalisme » des profits, la valeur actionnariale guide plus que jamais les stratégies des entreprises et les tentatives de contrôler la finance de marché se heurte au souci de ne rien faire qui puisse compromettre les créations d’emplois.

Le résultat est conforme à ce qu’avait prédit Ricardo : c’est sur le niveau des salaires et sur le volume de l’emploi que se fait l’ajustement à une révolution technologique de très grande ampleur à laquelle nous sommes confrontés.

 

Partage de la valeur ajoutée entre salaires et profits.

Sept ans après la crise de 2008 les profits financiers ont manifesté une résilience très forte qui nourrit une inégalité croissante dont nous avons vu les différentes manifestations.

Durant les années 1930, le New Deal avait été le signal aux États-Unis d’une politique de redistribution très active et cette dernière s’est prolongée comme l’a montré Thomas Piketty jusqu’aux années Reagan. Pourquoi en quarante ans de crise aucun New Deal ou révolution ne se sont produits jusqu’à maintenant ?

Sans doute pour trois raisons complémentaires :

1) Le système financier privé ne s’est pas effondré, les États puis les banques centrales ont évité une crise de solvabilité générale ;

2) Les ajustements demandés aux salariés ont été moins rudes du fait des « amortisseurs sociaux » constitués par l’État Providence et le chômage a touché des catégories périphériques par rapport au cœur du salariat (les jeunes et les vieux) ;

3) Les années 30 ont été le témoin d’une révolution managériale dans les entreprises et institutionnelle (insertion des syndicats dans les mécanismes de gouvernance) mais elles n’ont pas connu une révolution technologique susceptible de mettre complètement sur la défensive les ouvriers et leurs syndicats et les classes moyennes comme c’est le cas aujourd’hui.

 


Les « solutions » possibles

Face à une situation de chômage technologique structurel très important qui relègue les espoirs de plein emploi au rang de vœux pieux, il existe au fond trois positions qui conduisent à trois solutions différentes.

La première consiste à penser que le capitalisme qui est en train d’émerger n’est pas substantiellement différent du capitalisme industriel et que la transition se fera d’autant mieux qu’on prendra le plus rapidement des mesures d’ajustement de la main d’œuvre aux nouvelles formes de production (lean management, rationalisation de la main d’œuvre, augmentation de productivité), que les entreprises regagneront des marges de profits et donc embaucheront.

La solution passerait par une baisse de la part des salaires dans la valeur ajoutée, une activation des dépenses de chômage par une formation systématique, une plus grande adaptation des métiers. Les salariés devraient souffrir momentanément de chômage, mais l’emploi devrait redémarrer sur la base d’un contrat de travail unique (moins de sûreté de l’emploi pour les salariés protégés avec par exemple l’adoption d’un contrat de travail unique, mais davantage d’emplois) discours entendu aussi bien en France qu’en Chine récemment. C’est la position néolibérale.

La seconde analyse reconnaît que le capitalisme nouveau est différent du capitalisme industriel, mais que le contrat de travail salarié « protégé » peut être imposé aux entreprises par l’État et rester le socle de la protection sociale. C’est en gros le socle commun à tous les refus de la gauche des aménagements du Code du travail vers plus de flexibilité pour obtenir davantage de création d’emploi.

 

Margaret Thatcher à la télévision. Sarah Joy/Flickr

L’affrontement de ces deux positions a dominé la scène politique depuis 1975 et la discussion en cours en France autour de la loi El Khomri en constitue une illustration parfaite. La première position l’a largement emporté depuis la contre-révolution thatchérienne et reaganienne, réduisant la seconde à une résistance dans un pré carré de plus en plus réduit.

C’est au reste ce constat d’impuissance de la gauche traditionnelle, combinée à l’effondrement en 1989 des régimes socialistes d’obédience soviétique et l’hybridation chinoise très curieuse d’un socialisme autoritaire combiné à un développement d’un capitaliste de marché débridé, qui a conduit Tony Blair et son mentor idéologique Anthony Giddens bientôt suivis dans toute l’Europe, à déserter la social-démocratie au nom d’un réalisme économique.

Avec dix ans de retard, par rapport à l’Allemagne (Lois Hartz), vingt ans par rapport au Royaume-Uni, les débats français sur la réforme du Code du travail retrouvent ces mêmes lignes de fracture.

Ces deux solutions ou une motion chèvre/choux combinant les deux épuisent-elles toutes les possibilités ? Il est permis d’en douter d’autant qu’une troisième solution est en train de s’esquisser sous nos yeux.

Deux pistes qui tournent court

Le problème que rencontrent ces deux « solutions » est simple et tient en un seul mot : l’impossibilité constatée d’un retour à une croissance durable de plein emploi et une crise de l’État Providence. Michel Rocard avait assez lucidement craché le morceau dans les années 1990. Avec Nouvelle Donne et Pierre Larrouturou (La gauche n’a plus droit à l’erreur, Flammarion, 2013) il avait récidivé. Sans beaucoup de succès à gauche. C’est dommage. En apparence, mais en apparence seulement, les recettes néolibérales ont paru l’emporter d’abord sous la forme des purges d’austérité à la Thatcher (réduction des dépenses publiques, de l’endettement de l’État, des privatisations) ensuite par les recettes du nouveau Labour anglais dérégulant le marché du travail.

Mais l’instabilité financière qui s’est traduite par des crises très fortes dont celle de 2008 qui a failli devenir systémique, les médiocres bilans en termes d’emplois, des déficits budgétaires croissants, l’explosion des inégalités, le recours croissant à des retraites par capitalisation et non plus par répartition ont montré que la première solution ne parvenait pas à stabiliser un véritable régime de croissance.

Inverser la courbe du chômage au prix d’une dégradation des emplois offerts surtout dans les services ce qu’on a pu voir aussi bien au Royaume-Uni, en Allemagne et aux États-Unis, tel est le cruel dilemme auquel se heurtent les politiques de lutte contre le chômage.

L’heure de la seconde solution a paru émerger avec la montée en Grèce, en Espagne d’une gauche clairement contestataire remettant en cause les dogmes de l’austérité budgétaire et du désendettement à tout prix. Il est à craindre toutefois que la seconde solution : relancer la croissance par la consommation populaire, taxer les profits des multinationales du numérique (les Gafa) imposer par la loi le respect d’un code du travail axé sur la défense du salariat canonique (contrat de travail à durée indéterminée, limitation des licenciements) ne se heurte aux transformations intenses de l’appareil productif par la deuxième vague de la révolution numérique.

L’impact de la révolution numérique

Au moment où l’économie matérielle paraît toucher enfin les dividendes des progrès de productivité des ordinateurs, un nouvel impact du progrès technique obère le redressement d’une croissance de l’emploi. C’est le drame des stratégies « d’inversion de la courbe du chômage » adoptée par le Rapport Gallois et le « redressement productif » qui voient échouer les politiques de l’offre après avoir vu échouer les politiques keynésiennes de relance de la demande. La deuxième vague d’automation intellectuelle touche les tâches complexes intellectuelles, mais routinières et gouvernables par des algorithmes guidés par les valeurs statistiques

Les progrès rapides dans le remplacement d’activités mobilisant l’intellect, mais codifiés dans des programmes, et dans des données structurées par des tables de calcul, des BIG Data fournis par un nombre croissant d’objets connectés, montre que l’automatisation des immatériels qui peuvent être codifiés est déjà bien avancée. Les robots intellectuels touchent les emplois de banques, de consulting ou de mises à jour des données.

Plusieurs études en France, UK et US montrent de façon très convergente que 45 % à 55 % des emplois actuels sont directement menacés dans les 20 ans qui viennent.

 

Taux de chômage en France. Insee

Avec plus d’un tiers de la population active au chômage indemnisé ou pas, la partition traditionnelle entre le travail salarié, le travail indépendant, les professions libérales (médecins, avocats, juriste, experts) s’estompe de plus en plus. Or la protection des « indépendants » comprenons les non salariés est une lacune profonde des stratégies prônant le développement tous azimuts de la prise de risque par l’entrepreneur. On confond le risque comelrcial du société avec le risque personnel de l’individu.

Les pays émergents à développement rapide (BRICS) et les nouveaux émergents (Nigéria) ne sont pas mieux lotis puisque des études récentes évaluent à plus de 80 % les emplois menacés soit par une robotisation (qui avance à grands pas en Chine) soit par le couplage des machines learning avec le big data issu des dispositifs d’objets interconnectés. Selon le World Economic Forum de Davos (janvier 2016), 5 millions d’emplois risquent de disparaître d’ici 2020 en raison de la robotisation de l’économie.

LIRE AUSSI DANS UP' : Chine : 100 millions d’ouvriers seront remplacés par des robots

Revenu universel, emplois subventionnés et intermittence généralisée

La troisième solution consiste à envisager le couplage d’un revenu d’existence universel, d’une subvention publique des emplois faiblement qualifiés et d’un régime d’intermittence généralisée du travail

En février 2014 Martin Wolf dans le Financial Times tirait les leçons de la transformation considérable de l’emploi dans la seconde vague de la révolution des technologies numériques. Il ne voyait que deux mesures capables de conjurer une crise cette fois-ci politique du capitalisme tout cognitif qu’il soit.

La première serait d’instaurer un revenu de base ou citoyen inconditionnel pour tout membre de la société cumulable avec différentes formes d’activité (ce qui correspond pour moi à la rétribution de la contribution marchande ou non de la pollinisation humaine et de l’apport de chacun, sous différentes formes (y compris l’économie sociale et solidaire) à la productivité globale des facteurs.

La seconde mesure encore plus surprenante de la part de ce réaliste du Financial Times qui n’est pas particulièrement anti-capitaliste ni révolutionnaire était de subventionner toute participation au marché du travail pour les tâches banales requérant du travail manuel et peu qualifié. En effet, la conséquence directe d’un revenu d’existence serait de supprimer l’incitation majeure à remplir ces emplois. La mesure proposée serait de subventionner ce type d’emploi : chaque dollar gagné par l’employé serait abondé un autre dollar destiné à en financer les cotisations sociales de l’employeur (benefits). Les systèmes bismarckiens à l’allemande ou semi-bismarckiens à la française deviendraient totalement beveridgiens.

Remarquons que d’ores et déjà les mesures d’aide à l’emploi ces 25 dernières années ont surtout consisté à exonérer les employeurs de cotisations sociales. Le Président Hollande a au reste annoncé qu’en 2017 la totalité des emplois rémunérés au salaire minimum (le smic) seraient exonérés de la cotisation sociale employeur.

Pourquoi des mesures qui auraient été taxées il y a vingt ans d’aimables utopies révolutionnaires figurent-elles à l’agenda politique ? Ce sont les transformations de l’économie qui l’expliquent.

La mue du salariat en intermittence

Le salariat aménagé par deux siècles de protection sociale passablement érodées depuis trente ans correspond-il encore au mode productif qui se dessine ? La flexibilité réclamée par les entreprises sans protection sociale comme les diverses formes de contestation de l’ubérisation croissante de l’emploi l’ont attesté, n’est pas la solution. L’idée de flexi-sécurité à la scandinave souvent citée, mais peu imitée réellement, dernier espoir de ceux qui voudraient sauver le modèle d’un salariat stable et protégé, suffirait-elle à endiguer le tsunami du chômage technologique ? Là encore on peut en douter.

La troisième solution de plus en plus évoquée par l’aile marchante du capitalisme numérique comme nous l’avons montré consiste à remodeler profondément ce qu’a été le salariat. Son modèle de contrat se met à ressembler à de l’intermittence ou de l’intérim généralisés, à des contrats liés à des projets de quelques années (Rapport Vizille) ou à de l’événementiel ou enfin à des participations à des poly activités (ce qui correspond au monde vécu par les fondateurs de startups, les bénévoles opérant dans les fablabs).

Mais à la différence du modèle de flexibilité néo-libérale, la protection sociale fondamentale est fournie par un revenu d’existence généralisé à tous pour toute la durée de la vie. La solution à la précarisation croissante du marché du travail y compris pour les classes créatives est un revenu minimum d’existence détaché de l’emploi dans le marché. De l’emploi et pas du travail rémunéré ou de l’activité bénévole.

La révolution du revenu universel

C’est une transformation considérable. Quand il s’agissait de financer un RSA amélioré à la marge (de l’ordre de 550 euros par personne) se substituant à l’ensemble des prestations fournies par les assurances maladie, chômage, les retraites, les aides au logement, les besoins de financement pouvait être couverts par le recours au système actuel des impôts.

 

Le revenu de base au salon Naturabio (Lille, 2013). Revenu de base/Flickr

Le financement d’un revenu d’existence à un niveau équivalent à celui du smic ne peut pas être assuré par les impôts directs actuels (système Beveridgien) ou par les cotisations sociales (système bismarckien ou mixte à la française) ne constituent pas la solution quand bien même il serait partiellement remplacé par un impôt sur. Un impôt sur le capital ou sur la consommation (via la TVA) ne suffiraient pas non plus.

La récente étude de Thomas Chevandier, Jérôme Héricourt, Groupe de travail Revenu universel de la Fondation Jean-Jaurès https://jean-jaures.org/nos-productions/le-revenu-de-base-de-l-utopie-a-la-realite propose un revenu de base à 750 euros. La totalité des transferts opérés par le système actuel correspond à 800 euros par mois et par Français. La solution proposée par ce Think Tank proche du Parti socialiste y consacrerait les ressources actuelles des assurances maladies, handicap, chômages, retraites. L’allocation couvrirait les plus de 18 ans. Les besoins de financement seraient couverts par les modes de financement de la protection sociale actuelle. Un correctif serait effectué pour les retraités qui toucheraient une fois et demie la somme standard.

LIRE AUSSI DANS UP' : Revenu de base: de l'utopie à la réalité ?

Les principaux défauts de ce plan c’est qu’il décolle trop peu du niveau de pauvreté pour avoir un impact macro-économique de résorption massive des inégalités et de remède à la précarisation de 25 % de la population active. Il présente au reste un très grand risque de livrer la protection sociale au marché financier de la capitalisation.

Le BIEN (Basic Income Earth Networks) en particulier l’économiste Philippe Van Parijs qui en est l’un des fondateurs explique que le revenu de base doit être le plus élevé possible selon les pays. Nous pensons pour notre part qu’en France il devrait remplacer le salaire minimum et atteindre entre 1 100 et 1 200 euros par personne (y compris les enfants) si l’on veut en faire un outil de flexibilisation de la création d’activité protégée quelle que soit sa modalité (emploi salarié classique, intermittent, partiel, occasionnel, bénévole). Voir notre contribution à paraître dans la revue Multitudes 2016/2, juin, n° 63.

Dès que le revenu universel dépasse l’effort actuel de redistribution, il est illusoire de compter le financer à prélèvement constant. Mais nous savons que le système actuel d’impôt direct ou indirect est à la limite de la rupture. Il faut donc changer totalement le système des impôts en le remplaçant par une taxe uniforme sur toutes les transactions monétaires et financières (solution proposée par René Montgranier dans les années 1980).

Il y a actuellement 10 fois plus de transactions financières et monétaires mondiales que de PIB (700 000 milliards contre 70 000). Une taxe de 5 % sur toutes ces transactions perçues directement par les banques représenteraient 35 000 milliards même si le régime de croisière de cet impôt en situation normale pourrait être situé entre 1,5 et 2,5 %. Cette logique de taxation correspond au fait qu’aujourd’hui la richesse se crée dans la circulation et les flux et pas sur des stocks (le capital, le revenu, le profit, le patrimoine).

Pour mémoire en France le PIB en 2013 a été de 2539 milliards d’euros ; sur 25 400 milliards d’euros de flux financiers cette taxe pollen à 5 % représenterait 1270 milliards. En 2013 le budget de la France avait été de 386 milliards d’euros de recettes et de 455 milliards de dépenses ; le budget social de la nation avait été de 469 milliards d’euros de dépenses.

Le remplacement de tout le système actuel fiscal (impôts directs, indirects) par cette taxe uniforme perçue par les banques (qui du même coup deviendraient des annexes de l’appareil fiscal de l’État et permettraient à ce dernier d’avoir ses recettes en temps réel) est doublement redistributif dans les faits. 1°) Compte tenu de l’assiette de la richesse actuelle aussi bien productive que patrimoniale c’est dans les flux financiers et monétaires que l’essentiel de la richesse des plus riches se fabrique ; 2°) en permettant le financement des dépenses de l’État largement, en réduisant le déficit budgétaire, en accélérant le remboursement de la dette publique, il opérerait un puissant effet de redistribution.

Quant à l’effet incitatif à l’innovation il serait boosté d’une part par l’autonomie économique fournie à ceux qui travaillent dans des projets qui n’ont pas encore de rentabilité financière suffisante pour assurer un emploi marchand et d’autre part par un revenu contributif additionnel tel que le propose Ars Industrialis sous l’impulsion de Bernard Stiegler pour ceux qui ont une activité non rémunérée dans des centres d’innovations, des pépinières de start-up, des ateliers de co-working.

Un sondage mené en mars-avril 2016 auprès de 10 000 Européens voyait 64 % d’entre eux se prononcer en faveur d’un revenu de base (unconditional basic income), 58 % étant au courant de ce que cela représentait précisément caractère inconditionnel, individuel, cumulable avec une activité rémunérée.

C’est un signe des temps que la proposition d’un revenu universel ou de base soit sorti des milieux très étroits des spécialistes. Et plusieurs gouvernements commencent à voir dans cette proposition une sortie vers le haut de la crise de l’emploi et du salariat.

 

Yann Moulier-Boutang, Professeur des universités en Sciences Economiques, Université de Technologie de Compiègne (UTC) – Sorbonne Universités

Normalien, philosophe, sociologue puis socio économiste, professeur des universités en sciences économiques, Yann Moulier-Boutang a un profil transdisciplinaire. Professeur invité dans de nombreuses universités aux Etats-Unis (SUNY Binghamton), au Brésil (UFRJ) à l’ENSAPM (Paris), ENSCI (Paris), il enseigne à l’UTC l’économie politique, l’économie numérique, les droits de propriété intellectuelle et l’approche de la complexité. Il intervient activement à l’UTseuS (Shanghai University) et est professeur associé à l’Ecole Supérieure d’Art et Design à Saint-Etienne. Son livre sur le capitalisme cognitif (2007) traduit en anglais en 2012 fait référence. Dans son dernier ouvrage L’abeille et l’économiste (2010) il démontre que les hommes créent tous de la valeur économique dans les nombreuses interactions qu’ils développent notamment dans les réseaux numériques et que les plateformes de captation de l’innovation par en bas constituent un facteur majeur de l’innovation technologique et sociétale.

 

La version originale de cet article a été publiée sur The Conversation.

 

The Conversation

 

Revenu de base

Revenu de base et technologies de la singularité : même combat ?

Qu’ont en commun les esprits progressistes et révolutionnaires débattant place de la République de lendemains qui chantent, et les apôtres de la singularité promoteurs zélés du remplacement des hommes par des robots ? Tous deux défendent le même projet : la mise en œuvre d’un revenu de base universel, d’une rémunération où la contrepartie travail aurait disparu. Une révolution activée par deux pôles diamétralement opposés, une étrange première.
 
Le revenu de base universel (RBU) est un thème qui se débat de plus en plus, dans de nombreux pays du monde. Cette idée ancienne, puisqu’elle remonterait à Thomas More en 1516, a longtemps senti le parfum de l’utopie et des rêves révolutionnaires. Plus proche de nous, c’est l’économiste prix Nobel Milton Friedman qui enfourche ce cheval de bataille, selon lui seul remède contre la pauvreté qu’il prévoit grandissante dès le début des années soixante-dix. Que l’on procure à tous un revenu décent pour qu’il n’y ait plus personne qui meurt de faim. Idée généreuse qui serait restée au rayon des bonnes intentions si d’autres économistes comme le prix Nobel 2013 Paul Krugman, mais aussi des penseurs, des philosophes, quelques hommes politiques, ne se mirent à prendre cet étendard.
 
Le revenu de base universel est devenu le thème symptomatique des temps qui changent dans lesquels nous sommes en train d’évoluer. Certains pays ont tenté de le mettre en œuvre avec plus ou moins de bonheur, mais c’est vers la Suisse que les regards se tournent. Le 5 juin prochain, en effet, la confédération helvétique votera sur ce qui pourrait être la révolution du XXIe siècle. Une nouvelle ère où le revenu serait dissocié du travail, où tout le monde pourrait avoir droit à un minimum de bonheur, où la pauvreté et la misère ne seraient plus que des images jaunies de l’histoire.
 
Certes, face à ce type d’idées humanistes, les financiers de tous poils sortent leur machine à calculer et font leur compte. Est-ce finançable ? D’autres voix chagrines, marquées par des siècles d’injonction « tu gagneras ton pain à la sueur de ton front », agitent l’épouvantail de la société d’assistés et le spectre de ces masses devenues oisives. Comment les occuper ? Les questions ne manquent pas face à ce sujet qui traversent les partis et les opinions politiques traditionnelles. Chacun y va de sa ritournelle, de la gauche à la droite, des écologistes aux libéraux, de peur de passer à côté de l’histoire ou plus prosaïquement, de l’élection.
 
Pourtant, il est un mouvement d’une force incoercible qui pourrait tout bousculer et précipiter l’instauration d’un revenu universel, avec beaucoup plus d’efficacité de ce dont sont capables les plus puissantes organisations citoyennes ou politiques.
Ce mouvement est celui qui transforme, sous nos yeux, dans des proportions jamais vues, le monde. L’automatisation de la société, l’émergence des robots partout, les progrès quotidiens des technosciences pour simplifier notre vie ou la rendre plus longue, ce mouvement qui bouscule toutes nos habitudes est en train, petit à petit, de changer l’activité des hommes.  Nous relations dans ces colonnes comment la Chine lance un plan massif de robotisation de son industrie pour remplacer 100 millions de travailleurs par des robots.

LIRE DANS UP : Chine : 100 millions d’ouvriers seront remplacés par des robots

Cette initiative est spectaculaire mais il y en a d’autres, à moindre échelle ou plus discrètes qui vont dans le même sens : le remplacement de l’homme par des machines. Il suffit d’aller dans un supermarché pour le constater déjà. Une étude de l’Université d’Oxford estime qu’environ 47% des emplois risquent de disparaître ces vingt prochaines années. Le World Economic Forum a fait de ce sujet un thème principal cette année.
 
Comme le remarque Johann Roduit, Managing Director du Centre d’Humanités Médicales de l’Université de Zurich, l’Internet des objets, l’ubérisation, les Big Data, les imprimantes 3D, les drones et les voitures autonomes, les robots de toutes sortes, petits, grands, domestiques, industriels nous envahissent comme les vagues d’une marée démesurée.  "Il est de plus en plus difficile d’imaginer quel type de travail ne sera pas radicalement transformé et quelle profession ne deviendra pas obsolète" dit-il. Les ouvriers ne sont pas seuls visés, les cols blancs aussi, mais aussi les avocats, les médecins, les pédagogues… le mouvement est en marche.
 
Les promoteurs de ces « innovations » sont des gens extraordinairement convaincus de ce qu’ils font. Leur mission a quelque chose de messianique et en ce sens, elle est inéluctable. Ils perçoivent pourtant le risque majeur, car il y en a un, et il est de taille suffisante pour fracasser leur élan. En développant leurs technologies, en améliorant l’intelligence des machines, en s’approchant chaque jour davantage du point de singularité, ils savent qu’ils se heurteront à un risque : celui de l’humain.  Et le risque non maîtrisé n’est jamais très bon pour le business.
 
C’est la raison pour laquelle on voit aujourd’hui les gourous du transhumanisme, les papes des universités californiennes de la singularité, les technologues les plus avancés, se transformer en ardents défenseurs et promoteurs d’un revenu de base pour tous ces humains que leurs technologies auront mis au rencart. En se libérant de ce souci, en payant ceux qu’ils auront remplacés par des machines, ils s’achètent une paix inestimable.

LIRE DANS UP : Silicon Valley : coup de blues ou signes précurseurs d'une révolution ?

Ils y voient aussi des perspectives inédites de création de valeur. L’idée d’instaurer un revenu garanti, loin des motivations morales ou sociales que l’on entend de ce côté de l’Atlantique, servirait à favoriser l’implantation durable d’un nouveau capitalisme : le capitalisme cognitif. En accordant un revenu de base, on permet l’accélération de la circulation des idées dans les circuits économiques, d’une part et, d’autre part, on valorise tout ce qui n’est pas considéré actuellement comme du travail mais qui apporte néanmoins de la valeur. C’est en d’autres termes, le digital labor, c'est-à-dire la monétisation de l’implication des citoyens-utilisateurs dans la formation de la valeur d’un service ou d’un produit.
 
L’histoire nous réserve toujours des situations que les esprits les plus cyniques n’auraient jamais osé imaginer. Cette convergence du capitalisme le plus débridé avec les mouvements les plus révolutionnaires du moment n’est-elle pas un fantastique pied de nez de l’histoire en train de se faire ?
 
 

 

Le Fil de la vie

L’information est la force immatérielle du vivant. À propos du livre « Le Fil de la vie »

Il est rare de rencontrer des scientifiques de sciences « dures » parler d’immatériel. Ils s’en étonnent eux-mêmes : ce n’est pas de religion ou d’esprit dont il s’agit, répètent-ils. Ce dont veulent nous parler Pierre-Henri Gouyon, Jean-Louis Dessalles et Cédric Gaucherel, c’est de l’information. Non pas celle des nouvelles des journaux ou des flux de la TV. Non, celle qui est cachée au cœur des organismes vivants et de leurs projections, leurs constructions culturelles. Ces informations forment le Fil de la vie, titre de leur nouveau livre qu’il faut saluer comme une incursion rare et courageuse dans un monde encore mystérieux.
 
Trois scientifiques de talents, venus d’horizons différents se sont rencontrés pour tâcher de démêler l’écheveau complexe du vivant. Ils y ont découvert la force de l’information. Pierre-Henri Gouyon est professeur au Museum d’Histoire naturelle. C’est un biologiste, généticien, spécialiste de l’évolution, reconnu et prolixe. Il est l’auteur d’une quantité impressionnante de livres et d’articles sur le vivant. Il est aussi un combattant qui œuvre pour défendre la biodiversité et nous alerter sur les dangers des manipulations génétiques incontrôlées.  Jean-Louis Dessalles est Maître de conférence à l’université de Paris Saclay. C’est à la fois un spécialiste du langage et de l’intelligence artificielle. Son ouvrage Aux origines du langage fait figure de référence. Cédric Gaucherel est universitaire lui aussi, spécialiste des écosystèmes et de leurs interactions avec la vie animale et humaine. Il est notamment chargé de recherches à l’Institut national de la recherche agronomique (INRA).
 
Le pitch du livre recueilli lors de la rencontre-débat avec les auteurs, organisée par UP’Magazine le 3 mai 2016,
à L’Hôtel de l’industrie (partenariat UP’ / SEIN) Place Saint Germain des Prés à Paris
 
« Et si certaines entités vivantes n’étaient pas matérielles ? » C’est par ces mots que les auteurs décrivent, dans leur quatrième de couverture, l’intention première de leur livre.  Existerait-il des entités vivantes immatérielles, en lutte pour leur survie, capables d’évoluer ? Pour les auteurs, ces entités immatérielles sont des informations. « Elles existent à travers nous, dans nos gènes, dans notre culture, dans nos écosystèmes ».
 

Des informations d’une autre nature

 
Pour des biologistes, l’information est ce qui se réplique et constitue la trame de tous les organismes vivants. Le gène porte l’information et la transmet d’individu à individu. Sous un certain angle, le gène utilise les organismes vivants comme des véhicules pour se reproduire. Est-ce à dire que tout être est seulement déterminé par ses gènes ? Non répondent les auteurs qui observent que des informations d’une autre nature que biologique forment les organismes et se transmettent non seulement d’individu à individu mais de génération à génération.
Ces informations font le fil de la vie, « qui bien que non matériel, possède sa propre existence, qui dépasse celle des individus ». En s’attachant à décrypter ce fil de la vie, les auteurs savent qu’ils entrent sur un terrain instable, qui pourrait les amener à découvrir une « nouvelle logique de la nature ». Certes la notion d’information est de nature scientifique et leurs argumentations n’ont rien d’irrationnelles. Les auteurs sont des scientifiques qui ont besoin de matérialité. Mais en avançant sur le terrain de l’information, ils ont conscience du risque de quitter le monde du matériel. Ils s’apprêtent à franchir un pas, le même que celui que Newton franchit en parlant des forces gravitationnelles. « Sommes-nous prêts à dire que la vie dépend d’un substrat immatériel, l’information ? » se demandent-ils.
 
Cette hésitation, ce trouble, on le retrouve presque à chaque page. En observant la réinsertion des loups dans le parc de Yellowstone aux États-Unis, ils décrivent comment chaque composante de l’écosystème est affecté. La démonstration est captivante. Tout se tient et est interdépendant, comme si l’écosystème possédait des composantes structurelles, subsistant bien au-delà des unités qui le constituent. Une sorte de mémoire de l’écosystème, tissu d’informations immatérielles.
Pour les auteurs, il apparaît évident que les êtres humains sont bien davantage que ce qui est inscrit dans leur ADN. Certes l’ADN compte pour beaucoup s’empressent-ils de dire, en bons biologistes ; mais il y a autre chose... L’information.
 
Il faudra attendre le troisième chapitre pour définir ce concept apparemment étrange. Les auteurs sont des scientifiques. Ils vont donc reprendre la définition la plus solide pour eux, celle de Shannon. On regrettera cette limite qu’ils se donnent en restreignant l‘information à une donnée (data) qui transite à travers des tuyaux, qui est codée et nécessite un décodeur. Depuis Shannon, d’autres pistes ont été empruntées, notamment par les neuroscientifiques grâce aux progrès faits dans la connaissance du cerveau. Mais ce qui intéresse les auteurs, c’est l’aspect « choquant pour le biologiste ». En effet, l’information possède une apparence, elle possède une réalité. Pourtant, à l’envers de toutes les habitudes, « son apparence est concrète tandis que sa réalité ne l’est pas ».  Ils sont contraints de s’y résoudre : « l’information, malgré son caractère immatériel, « vit » ». S’ils s’étaient détaché de la théorie de Shannon, ils auraient sans doute accepté d’affirmer que l’information n’est pas qu’un signe comme ils le démontrent en détail dans leur livre. L’information fait signe. Elle déclenche un feu d’artifice de connexions neuronales dans les cerveaux ; c’est sans nul doute aussi pourquoi les auteurs affirment qu’ « elle vit ».
 

Homo sapiens est un spécialiste de l’information

 
Elle vit dans les organismes vivants et plus particulièrement chez les humains. « Homo sapiens est un spécialiste de l’information » affirment-ils. La particularité que les hommes possèdent, plus que toute autre espèce, est le langage. Nombreux ont été les scientifiques qui se sont penchés sur cette fonction si élaborée. Certains ont même imaginé que l’apparition du langage avait transformé radicalement la nature de l’homme. Son cerveau a grossi, il a pu transmettre à ses congénères des instructions, inventer le feu et de ce fait, dormir plus profondément, en meilleure sécurité. Il put ainsi rêver, assimiler les connaissances des périodes de veille, augmenter ses capacités et son intelligence. Cette histoire, pour Pierre-Henri Guyon, est certes probable mais, nous n’en avons aucune preuve, aucune trace. C’est vrai. Ce qui apparaît plus évident pour les auteurs et notamment Jean-Louis Dessalles, le spécialiste du langage, c’est que cette fonction est à rapprocher … de l’épouillage chez les singes. Le langage sert à la conversation.  La preuve ? Regardez ce que nos contemporains font sur le web ou Twitter : ils papotent, ils propagent des nouvelles et des rumeurs. Et cela, « ils adorent le faire ». Ce sont certainement les pages les plus discutables du livre. La thèse consistant à dire que le langage sert à démontrer notre capacité à acquérir des informations pour gagner du prestige et conquérir un statut social obtenu ainsi par un autre moyen que la force physique, cette thèse restreint l’importance du langage et laisse de côté son rôle dans la conquête d’un avantage compétitif considérable dans l’évolution de l’espèce. Un avantage permettant justement aux informations non biologiques de se propager pour sculpter l’humain mais aussi toutes ses projections techniques ou civilisationnelles.
 
« L’information constitue le fil d’Ariane de l’évolution ». L’information est ce qui unit les organismes dans le temps. Les auteurs, naturalistes éminents, observent que l’information possède la caractéristique de voyager d’organisme en organisme, d’y être stockée, transmise et ainsi de traverser le temps, au-delà de la limite temporelle des organismes eux-mêmes. « Ce qui se maintient tout au long des lignées phylogénétiques, c’est exclusivement l’information qui les traverse, presque sans les voir » affirment-ils.
L’information codée dans les gènes, qui se réplique de génération en génération est bien connue des biologises. Mais il y a d’autres informations, non biologiques, non génétiques, qui sont capables de se répliquer elles-aussi et de se transmettre d’individu à individu dans toute la lignée des générations et des cultures. Ces informations non biologiques, qu’il faut appeler « culturelles », Gouyon, Dessalles et Gaucherel semblent les aborder avec d’infinies précaution.  Il faudra attendre la page 135 de leur livre pour que la notion de mème, inventée par Richard Dawkins [Le gène égoïste, Odile Jacob, 1976] soit abordée.
 

Le rôle des mèmes

 
Les auteurs reprennent la définition initiale de Dawkins : le mème est une unité d’information culturelle qui se propage de cerveau en cerveau. Le livre ignore les définitions ultérieures apportées au concept de mème, définitions directement induites des travaux des neuroscientifiques. C’est le cas notamment de Robert Aunger [The Electric Meme, The Free Press, 2002] ou de Susan Blackmore [La théorie des mèmes, Max Milo, 2006]. Ils ont observé que le mème n’est pas seulement une unité d’information qui se propage, c’est avant tout un déclencheur de sens, un « instigateur », qui se réplique de cerveau en cerveau et active une organisation complexe de cartes neuronales, dont on sait aujourd’hui qu’elles se situent dans de multiples zones du cerveau.

LIRE DANS UP : Des chercheurs créent une carte 3D du cerveau pour visualiser comment nous comprenons le langage

L’intérêt principal du livre de Gouyon, Dessalles et Gaucherel est de nous montrer, avec de nombreux exemples tirés de l’observation de la nature, que les gènes et les mèmes participent ensemble du fil de l’évolution. Dans certains cas, ce sont les gènes qui prennent le dessus, dans d’autres, ce sont les mèmes, ces unités d’information non-biologiques, qui sculptent le vivant. Les auteurs reprennent l’exemple significatif à cet égard de la tolérance au lactose qui est apparu quand l’homme a appris à se sédentariser et pratiquer l’élevage. Une mutation biologique (l’apparition de la lactase, cette enzyme qui permet la tolérance au lait) aurait ainsi accompagné une innovation culturelle (en l’occurrence l’élevage) pour mieux permettre à cette dernière de se projeter, de se propager.
Cette histoire donne envie de savoir, au-delà de ce que l’on sait sur les gènes, comment fonctionnent ces informations « culturelles » qui sautent de cerveau en cerveau, de génération en génération ; comment s’articulent-elles avec les structures génétiques. Qui du mème ou du gène tient l’autre en laisse ? On reste sur sa faim car la réponse donnée par les auteurs du Fil de la vie n’est pas aboutie.  De la même façon, en admettant que le gène soit « égoïste » et qu’il se réplique en utilisant l’organisme vivant comme d’un « véhicule », peut-on admettre aussi que le mème soit « égoïste » et qu’il se réplique pour former quelque chose de plus grand que l’organisme vivant.  Ici encore on regrettera le silence des auteurs qui n’abordent de surcroît que très rapidement la révolution numérique apparue il y a quelques années, dont nombreux sont ceux qui s’accordent à penser qu’elle est un formidable moteur d’expansion des mèmes.
 
Malgré ces silences ou ces oublis, le livre Le Fil de la vie est d’une grande importance. Il établit de façon indiscutable le rôle des informations biologiques et culturelles dans le vivant. En 1944, l’inventeur de la mécanique quantique, Erwan Schrödinger a écrit un petit livre remarquable : Qu’est-ce que la vie ? Il répondait que les fondements de la chimie et de la physique de la vie s’articulent autour d’une notion capitale, longtemps ignorée : l’information. Or selon lui, c’est l’information qui fait la spécificité de la vie. Pierre-Henri Gouyon, Jean Louis Dessalles et Cédric Gaucherel affirment, à la fin de leur périple à travers les arcanes du vivant, que « l’information est ce qui vit ». Il n’y a qu’un pas, qu’ils hésitent à franchir, mais qui pourrait constituer un pas de géant ; avancer que l’information, c’est la vie.
 
 
 
Pierre-Henri Gouyon, Jean-Louis Dessalles, Cédric Gaucherel, Le Fil de la vie. La face immatérielle du vivant, Odile Jacob, 2016, 240 p. 24.90 €
 
Photo : Le Rêve, huile sur toile d’Henri Rousseau (1910), New-York, Museum of Modern Art, © Akg Images
 

 

Loading...
Loading...