UP' Magazine L'innovation pour défi

Trump Tower

Post-vérité, l'ère de l'indifférence

M’interrogeant sur la « post-vérité », ou ce qu’on appelle ainsi, j’ouvrai la page Wikipédia fort documentée et anormalement longue (détaillée et passionnante) pour une notion aussi récente. Sans doute la longueur des articles du net sur le net est-elle à proportion de la contemporanéité, pour ne pas dire de l’actualité bien que les deux notions aient tendance à fusionner, du concept. Un concept encore assez mal défini, et qui fut forgé en réaction à une série d’événements politiques et géopolitiques dont le mensonge de Bush Junior à propos des armes de destruction massive en Irak est le préalable, mais dont la multiplication, de la propagande du Brexit au grand déballage de « Bullshit » de Trump sont la consécration.

Raison pour laquelle l’expression d’ère « post-vérité » a été élue « mot de l’année 2016 » par le dictionnaire d’Oxford, qui la définit ainsi :

« ce qui fait référence à des circonstances dans lesquelles les faits objectifs ont moins d’influence pour modeler l’opinion publique que les appels à l’émotion et aux opinions personnelles. »

Le mot de l’année 2016

Ère post-vérité, ère de l’indifférence

Et si j’utilise le terme de « bullshit », c’est que Wikipédia me rappelle justement le titre de l’article du philosophe américain Harry Frankfurt, publié en 1986 : « De l’art de dire des conneries », où il distingue le mensonge qui s’appuie sur une reconnaissance de la vérité et la connerie qui se fiche éperdument de la simple distinction entre vérité et mensonge.

Entretien avec Harry Frankfurt à Princeton.

Or cette indifférence à la vérité a été très précisément analysée par Hannah Arendt dans « vérité et politique » où elle revient en philosophe sur le monde qu’Orwell avait décrit en romancier. C’est même là son point central, et je ne résiste pas à la tentation de la citer,

« … le résultat d’une substitution cohérente et totale de mensonges à la vérité de fait n’est pas que les mensonges seront maintenant acceptés comme vérité, ni que la vérité sera diffamée comme mensonge, mais que le sens par lequel nous nous orientons dans le monde réel – et la catégorie de la vérité relativement à la fausseté compte parmi les moyens mentaux de cette fin – se trouve détruit. » (« Vérité et politique », dans La crise de la culture, folio poche p. 327-328).

Autrement dit, le danger de la post-vérité n’est pas le mensonge, qui en soit peut même constituer une forme de liberté par rapport au factuel, mais bien l’indifférence à la distinction entre mensonge et vérité. Nous parlons ici de « vérité de fait », et si la prétention à la vérité peut aussi être un danger pour le politique en ce que le réel est soumis à des interprétations diverses et contradictoires, elle doit demeurer une idée régulatrice à moins de sombrer dans un parfait cynisme.

Hannah Arendt

Les traces du totalitarisme

Si Hannah Arendt me semble être une source stimulante pour comprendre l’ère post-vérité, ce n’est pas seulement parce qu’elle a écrit ce texte en 1964, (et déjà, dans les Origines du totalitarismes publié en 1951 elle en faisait état) et qu’à ce titre, on peut admettre soit qu’elle était visionnaire, soit que le concept de post-vérité remonte malheureusement bien plus loin que les lubies d’un Donald Trump adossées à l’exponentielle prolifération de la rumeur et de l’opinion indépendamment de tout fact checking que représente la Toile ; la post-vérité est la vérité de tout totalitarisme, autrement dit de toute politique où l’idéologie tend à se substituer intégralement au réel.

Totalitarisme dont l’école de Francfort, et Hannah Arendt elle-même montrent que certaines de ses tendances perdurent en démocratie, du fait de la structure de masse : la masse est la condition de possibilité du régime totalitaire, elle l’est aussi du capitalisme libéral – la publicité par exemple substituant là aussi à la valeur réelle d’une chose, une simple image, et peu importe que cette image soit fausse.

Homme privé – homme public

Hannah Arendt (Oct. 14, 1906 – 1975). Ryohei Noda

Revenons alors à la deuxième raison pour laquelle j’en appelle à Hannah Arendt, et à sa conception de la vie privée dans son opposition à la vie publique qu’elle emprunte à la philosophie grecque – ce qu’elle expose dans la Condition de l’homme moderne, paru en 1958 ; opposition qui me semble particulièrement pertinente pour comprendre la victoire de l’ère post-vérité.

Les Grecs distinguaient la vie privée et la vie publique de façon très différente de la nôtre, qui a vu émerger le phénomène du social, dépassant, voire abolissant cette distinction : la vie privée est celle de l’homme économique, indépendamment de son inscription dans le monde humain, c’est-à-dire le monde où l’on produit du sens reconnu et manifeste, des objets, et des œuvres, et tout ce qui, étant public, transcende l’homme privé aliéné à la seule nature.

« Vivre une vie entièrement privée, c’est avant tout être privé de choses essentielles à une vie véritablement humaine : être privé de la réalité qui provient de ce que l’on est vu et entendu par autrui, être privé d’une relation “objective” avec les autres, qui provient de ce que l’on est relié aux objets communs, être privé de la possibilité d’accomplir quelque chose de plus permanent que la vie. La privation tient à l’absence des autres ; en ce qui les concerne l’homme privé n’apparaît point, c’est donc comme s’il n’existait pas. » écrit Hannah Arendt (éd. Pocket, p. 99).

Et voilà que l’homme privé est devenu tout puissant. Tout puissant, mais demeurant privé, privé de cette transcendance qui caractérise le monde humain. L’ascension de l’homme économique est allée de pair avec la destruction du monde commun et du politique tout à la fois. Or « la réalité » est étroitement liée à l’idée de monde commun comme seul lieu d’une véritable existence humaine. C’est dans cet espace-là que peut avoir encore du sens la notion de vérité de fait, dans sa relation à la réalité humaine (et non scientifique) :

« Notre sens du réel dépend entièrement de l’apparence, et donc de l’existence d’un domaine public où les choses peuvent apparaître en échappant aux ténèbres de la vie cachée ».

Et dans « apparence », il ne faut pas entendre l’apparaître dans son opposition à l’être, mais au contraire comme sa révélation.

« Pour nous l’apparence – ce qui est vu et entendu par autrui comme par nous mêmes – constitue la réalité. Comparées à la réalité que confèrent la vue et l’ouïe, les plus grandes forces de la vie intime – les passions, les pensées, les plaisirs des sens – mènent une vague existence d’ombres tant qu’elles ne sont pas transformées (arrachées au privé, désindividualisées pour ainsi dire) en objets dignes de paraître en public. (…). C’est la présence des autres voyant ce que nous voyons, entendant ce que nous entendons, qui nous assure de la réalité du monde et de nous-mêmes (…) ».

« Moi en miroirs » (« me reflected »). Brian Snelson

Mise en scène du « moi privé »

Mais si l’individu privé, non pas dans sa singularité mais dans son conformisme, se substitue, à travers sa duplication, et la guise de relation que constitue le réseau, au monde commun, si la structure de « masse », remplace la notion de « commun » corrélative de pluralité, alors la réalité en effet n’a plus lieu d’être, sinon à s’éparpiller en de multiples points de vue, dont la vue ne porte pas sur une réalité commune, comme le proposerait le modèle monadologique de Leibniz, mais sur le point de vue lui-même, dans un reflet à l’infini de l’œil : le point de vue qui ne reflète plus le monde, mais bien le moi privé.

Et de fait, c’est encore le moi privé que la télévision vient mettre en scène aujourd’hui, non seulement celui d’anonymes qui par ce biais deviennent ce qu’il est convenu d’appeler des « people » ou « demi-people », exposant leur intimité et déplaçant ce qui auparavant n’était pas digne d’appartenir à la sphère publique, vers ce nouvel espace, où les choses apparaissent, mais délestées de toute possibilité de transcendance.

Cet espace d’apparaître est devenu le champ du public, et de ce fait la mort du public. Le privé l’a emporté, cédant la place à l’intimité de l’homme politique au détriment de son discours – aux émotions et à la psychologie au détriment de la pensée.

À ce titre, je citerais volontiers la phrase de Guy Carcassonne, constitutionnaliste, et trouvée sur Wikipédia, tiré du papier d’Éric Aeschimann dans Libération le 14 juillet 2004 :

« À tort ou à raison, les hommes politiques ont l’impression que l’appréciation que les Français vont porter sur eux ne sera pas liée à la qualité de ce qu’ils disent, mais à la rapidité et à l’intensité de leur émotion. »

ou encore Claude Poissenot dans The Conversation du 22 novembre 2016 :

« Les individus sont désormais définis par un « moi émotionnel ». Devenir soi-même est devenu une norme. (…) Le populisme de « l’après-vérité » (est) un effet pervers de la modernité qui invite les individus à se construire eux-mêmes »

Faillite du commun, faillite du langage

L’homme privé était jadis l’esclave. Il l’est encore aujourd’hui. C’est l’esclavage qui est devenu public, et de ce fait vertu. L’aliénation à des « valeurs » qui n’ont rien de partageable en tant que valeurs communes, puisqu’elles consacrent l’individualisme – ce qui est « à moi » et non aux autres, de la richesse à l’enfance, de la femme ou des enfants à la coiffure. Bref, tout ce qui était exclu du champ du politique et du monde humain par les Grecs.

La réalité commune qui définissait le monde humain, champ de l’action et de la parole, a fait faillite : chacun a la sienne, les communautés ont les leurs, les algorithmes s’occupent de ne les faire jamais se rencontrer. Faillite de l’idée même de vrai, et de toute prétention à établir quelque chose de commun à partir du réel.

Car pour établir quelque chose de commun, encore faut-il parler le même langage : faillite donc du langage qui s’est déconnecté de sa vocation à dire, au profit d’un simple accompagnement d’émotions, et qui pourrait en réalité se réduire à des interjections ou des onomatopées, mais auxquelles on a rajouté des story tellings. Le plaisir du récit n’a pas totalement disparu.

Car si l’on est dans une ère post-vérité, c’est donc qu’on est dans une ère post-langage. Certes, déjà les sophistes usaient du langage comme d’un simple outil de pouvoir, au demeurant fort rémunérateur (cf. Les Zemmour qui en font profession et gagnent très bien leur vie, à proportion de leurs outrances – l’outrance est aujourd’hui économiquement rentable) – ce qui tendrait à relativiser le préfixe de « post ».

Il semble pourtant que le phénomène se soit accentué. Et s’il est vrai que la Raison est soumise à un perpétuel mouvement dialectique, disons que nous sommes confrontés à sa figure la plus triste, à sa fixité la plus morbide, avant qu’elle-même ne se réinvente pour se libérer de ce qu’elle est devenue : la technique autonome d’un côté, la crédulité dans la parole humaine et sa valeur de l’autre.

Platon s’était érigé contre les sophistes pour asseoir l’idée du vrai qui sauverait et le logos et la pensée ; Descartes s’était érigé contre les sceptiques pour sauver la philosophie et la science ; c’est lors de crises majeures de la vérité que la philosophie s’est refondée. On peut espérer voir surgir le nouveau héraut du « critère ».

La reconnaissance du vrai contre l’opinion

Petit guide de la « post-vérité ». Phil Venditti

Pourtant, la société de masse semble être un phénomène nouveau au regard des millénaires passés, et rendre le différend d’autant plus irréductible : car lorsque le commun n’est plus, lorsque le moi est érigé en norme et dupliqué à l’envi, lorsque les réseaux et la toile offrent aux pulsions la possibilité d’immédiatement s’exprimer, lorsqu’il n’est plus de sanction face au mensonge puisqu’il se présente comme une opinion et que l’opinion est devenue toute puissante (le moi émotionnel étant son fondement inattaquable), puisque l’émotion elle-même n’entre pas dans le champ de la vérité ni celle du mensonge, et se dégage ainsi de tout débat pour le remplacer, dans ces conditions, qu’importe en effet la vérité ?

Ou la tentative d’ajuster ses propos à une réalité qui serait communément reconnue ? Comment résister à l’autonomie pure du discours qui se détache de ses conditions de validation ou de vérification. L’acte même de vérification est rendu caduc par l’indifférence au vrai.

Cette indifférence n’est pas universellement partagée, bien sûr, et il demeure des soldats de la reconnaissance du Vrai (parfois même fanatiques), qui vérifient incessamment, prennent des risques, recoupent leurs sources, mais la conséquence de leur action n’aura d’intérêt que pour ceux qui tiennent la vérité pour une valeur commune.

Les négationnistes ne font pas autre chose : le principe de contradiction n’a pas de prise sur eux ; la démonstration scientifique, le témoignage humain, rien ne peut les faire changer d’avis puisque leur avis relève d’une croyance, dont la clé d’intelligibilité n’est pas à chercher du côté de la passion scientifique, mais d’une passion d’un autre ordre. Le réel n’a pas de prise sur eux. Comme il n’en a pas sur les électeurs de Trump ou de Marine Le Pen.

La démocratie contre le « mensonge complet »

La vraie question devient alors : qu’est-ce que l’avenir d’une démocratie si ce que Arendt appelle la « vérité de fait » n’a plus lieu d’être ? Car « la possibilité du mensonge complet et définitif, qui était méconnu aux époques antérieures, est le danger qui naît de la manipulation des faits ».

Qu’en sera-t-il en outre pour les historiens, si

« Les chances qu’a la vérité de fait de survivre à l’assaut du pouvoir sont effectivement très minces : elle est toujours en danger d’être mise hors du monde, par des manœuvres, non seulement pour un temps, mais, virtuellement, pour toujours. » (p. 294) ; et en effet, « qu’est-ce qui empêche ces histoires, images et non-faits nouveaux de devenir un substitut adéquat de la réalité et de la factualité ? »
(Arendt, « Vérité et politique » p. 323)

La version originale de cet article a été publiée sur The Conversation.

 

 

The Conversation

 

Facebook

Facebook : Les grandes manœuvres

C’est la numéro 2 de Facebook, Sheryl Sandberg, qui s’est déplacée en personne pour annoncer la bonne nouvelle : le géant des réseaux sociaux va investir dans des startups françaises spécialistes des données individuelles, reconnaissant ainsi le talent de notre pays dans le digital. Cocorico ! Une annonce à quelques millions de dollars investis dans Station F, le projet ambitieux initié par Xavier Niel pour incuber à grande échelle nos meilleures pousses technologiques. En même temps, quelques autres poignées de dollars pour soutenir la création à Science po Paris d’un centre d’innovation des politiques publiques. En arrière-plan, le débauchage par Mark Zuckerberg, le boss de Facebook, des meilleurs talents américains en marketing politique nouvelle génération. Et puis, ces confidences discrètes sur la nouvelle appétence de Zuck pour la grande politique. Alors, au moment où un Donald Trump improbable devient président des États-Unis, Facebook prépare-t-il les grandes manœuvres pour conquérir, au prochain coup, la Maison Blanche ? Mark Zuckerberg, prochain président américain ? Yes he can !
 
Grand tralala et faste municipal pour accueillir Sheryl Sandberg, la COO, n° 2 de Facebook, mardi à la Halle Freycinet à Paris. Sur ce lieu de 34000 m2 imaginé par Xavier Niel pour incuber les meilleures pépites des nouvelles technologies, inauguration de l’espace Station F. Avec un F pour France ou Facebook, peu importe.
 
Facebook n’a pas la réputation d’être particulièrement philanthrope. Si le réseau social mise sur ce creuset des startups parisiennes, c’est pour dénicher « des projets qui valorisent les données pour créer des services utiles à la vie quotidienne, à la santé, aux transports et à l'éducation » indique le communiqué publié à l’occasion de cet événement. Remarquons, au passage, que ces secteurs ne sont pas choisis au hasard : ce sont les piliers de tout bon programme politique. Depuis longtemps déjà, Facebook sait que la maîtrise des données est affaire de pouvoir. Le politique ne peut plus se passer de ceux qui savent utiliser les empreintes numériques des citoyens. Rien n’est donc trop cher pour mieux traiter celles-ci, les décortiquer, les analyser et en tirer la substantifique moelle. Or Facebook est convaincu que la réputation de la France dans la qualité de ses ingénieurs data n’est plus à faire. Déjà, l’année dernière, le réseau avait créé son laboratoire dédié à l’intelligence artificielle à Paris. A cette occasion, il avait recruté quelques-uns de nos meilleurs cerveaux en la matière, au premier rang desquels figure Yann Le Cunn, grand maître du deep learning. Le choix de Paris et de l’incubateur de Xavier Niel n’est donc pas anodin car c’est là que Facebook recrutera, pour ses propres intérêts, la crème de la crème.

LIRE DANS UP : La guerre des cerveaux

Que Facebook investisse dans l’analyse des données et l’intelligence artificielle est finalement tout ce qu’il y a de plus normal. Le géant des données vient chercher du sang neuf là où il se trouve.  Néanmoins, hasard du calendrier ou pas, en même temps, une autre annonce tombe, avec certes moins d’éclat médiatique, mais singulièrement lourde d’intérêt. Facebook a décidé d’investir aussi dans la nouvelle École d’Affaires publiques de Sciences Po Paris. Tout le monde connaît Sciences po mais qu’est donc cette École d’Affaires publiques ? Yann Algan en est le doyen ; il a expliqué le champ de sa mission dans un article publié le 14 janvier dernier par Challenges. Pour lui, il ne s’agit rien de moins, avec cette École, que de faire la révolution ! Une révolution qui fera « évoluer le rôle de l’État vers un État-plateforme, une action publique 3.0 co-construite entre les citoyens et les services publics sur des plateformes. Le levier fondamental de cette transformation repose sur la capacité des plateformes à collecter des données en nombre et à les exploiter pour offrir de nouveaux services aux utilisateurs dans des conditions radicalement différentes, impliquant une co-production avec les usagers et les entreprises, en tirant tout le parti de la créativité de la multitude pour améliorer la vie des citoyens ». On comprend mieux l’intérêt de Facebook pour cette École : les données sont au cœur de sa mission.
 
Pour Yann Algan, l’enjeu est stratégique : « Le moment est venu de dessiner les contours futurs de l’État et de nos institutions en scellant une alliance nouvelle entre tous les savoirs, notamment les sciences humaines et sociales, et les technologies, pour dessiner de nouvelles politiques au service de l’intérêt général. » S’inspirant des méthodes de la Silicon Valley, Sciences Po inaugure aujourd’hui « un incubateur de politiques publiques pour former les responsables de demain à trouver des solutions innovantes et concrètes aux politiques publiques. » Un incubateur financé, entre autres acteurs institutionnels plus classiques, par… Facebook.
 
Révolutionner les politiques publiques est une idée qui trotte dans la tête de Mark Zuckerberg depuis quelques temps. En 2015 déjà, Wikileaks avait révélé les rêves politiques du patron de Facebook. Un email adressé à John Podesta le directeur de campagne d’Hillary Clinton et ancien chef de cabinet de la Maison Blanche sollicitait un entretien. Ce courrier, signé par Sheryl Sandberg, celle-là même qui vient d’annoncer ses investissements parisiens, contenait un passage éloquent : « Il [Marck Zuckerberg] est    particulièrement volontaire pour rencontrer quiconque pourrait l’aider à comprendre comment faire bouger les curseurs sur les questions de politiques publiques dont il se soucie. Il souhaite rencontrer des personnes qui puissent nourrir sa compréhension des opérations politiques pour changer les politiques publiques afin de poursuivre ses objectifs sociaux (comme l’immigration, l’éducation, et la recherche). »
 
Plus récemment, le 10 janvier dernier, Zuckerberg annonce sur son réseau avoir recruté David Plouffe, l’ancien directeur de campagne de Barack Obama. Une semaine auparavant, à l’occasion de ses vœux et de l’exposé de ses « bonnes résolution pour 2017 », le patron de Facebook écrivait que son « challenge » pour 2017 sera « d’aller à la rencontre des gens dans chaque État des États-Unis ». Une résolution qui avait les allures d’une pré-campagne électorale. Il n’en fallait pas plus pour qu’USA Today titre : « Mark Zuckerberg envisage-t-il de se lancer dans la course à la Maison Blanche ? »
 
Cette idée est-elle si fantaisiste que cela ? Mark Zuckerberg, après Trump, pourrait-il être président des États-Unis ? Dans un monde où l’intelligence artificielle se répand partout, où la donnée est le nerf de la guerre, le patron de Facebook n’est pas plus illégitime qu’un "petit" – en comparaison de la fortune de Zuckerberg – milliardaire de l’immobilier. Déjà il gouverne un pays de plus d’un milliard et demi d’âmes : son réseau social. Déjà, il est reçu comme un chef d’État dans tous les coins de la planète. Déjà ses décisions sociétales, économiques ou éditoriales représentent un impact et un poids politique inouï. Alors Zuck Président ? C’est possible. Mais, comme s’en inquiète le magazine Wired « De grands barons des médias ont déjà occupé de hautes fonctions politiques. Mais un baron des médias sociaux s'il était élu président, constituerait une expérience sans aucun précédent en politique et dans la capacité de contrôler nos perceptions. ».
En 2020, année électorale aux États-Unis, Mark Zuckerberg fêtera ses 36 ans ; l’âge légal pour se présenter aux élections présidentielles. Les grandes manœuvres ont commencé.
 
 

 

innovation disruptive

Répondre à l'innovation disruptive - Actions critiques

Une vague d’innovations déferle, portée par le numérique et demain par d’autres technologies émergentes (les « NBIC » (1)) , qui crée de nouveaux marchés et bouleverse l’économie de nombreux secteurs. Face à ces innovations disruptives, l’État doit définir sa position : un parti pris attentiste aurait un coût économique et social considérable et pourrait conduire à une perte de souveraineté. S'adapter aux nouvelles technologies ou les subir ?
Dans le cadre de ses missions d’anticipation et de concertation, France Stratégie lance le projet 2017/2027, visant à éclairer les enjeux de la prochaine élection présidentielle et propose donc une note analytique présentant deux options de solutions pour les pouvoirs publics : ouvrir le champ à l’expérimentation, en fixant les bornes à l’intérieur desquelles les innovateurs peuvent tester leurs idées avec l’appui des pouvoirs publics, ou édicter des principes généraux (soft regulation) et laisser les entreprises se lancer. La seconde option permet sans doute plus d’innovation, mais elle comporte également plus de risque et de responsabilité pour les entreprises.
Dans tous les cas, le partage d’informations avec les pouvoirs publics sera nécessaire pour garantir le respect des règles fondamentales (libertés, sécurité, etc.) et, au terme de ce premier déploiement, pour adapter la réglementation. 

Diagnostic

Le début du XXIe siècle est marqué par la transition numérique, une vague d’innovations technologiques puissante, susceptible d’affecter en profondeur et dans un laps de temps très court nos sociétés. Être capable de saisir cette vague comme une opportunité pour se transformer, plutôt que de la subir, dépend de notre attitude devant ce qu’il est convenu d’appeler l’innovation disruptive. Face à des marchés d’innovation radicale, où les premiers arrivés peuvent acquérir des positions dominantes décisives, et faire disparaître au passage d’autres marchés et les acteurs économiques installés, rester en retrait et voir venir peut entraîner des coûts économiques et sociaux considérables. Répondre à l’innovation disruptive suppose de prendre des risques, donc d’accepter d’éventuels échecs, de faire face à leurs possibles conséquences négatives et d’être capable d’en tirer toutes les leçons. Ce positionnement concerne aussi bien les citoyens, les entreprises que la puissance publique. Si nous n’incorporons pas l’innovation de façon proactive, cette dernière finira tout de même par s’imposer, de façon encore plus disruptive.
 
De nombreux exemples, récents ou à venir, illustrent à la fois l’ampleur des enjeux et les difficultés rencontrées par les pouvoirs publics pour fixer une ligne de réponse qui permette à toutes les entreprises, celles qui portent l’innovation comme celles qui la subissent, d’anticiper les évolutions du marché et d’investir dans un cadre suffisamment prévisible. Aujourd’hui, les nouveaux acteurs voient d’une part leur essor freiné par un cadre réglementaire qui peine à intégrer des modèles d’organisation inédits et encore très minoritaires, notamment du fait de la résistance qu’imposent les entreprises en place. Et d’autre part, il est facilité par la présence de zones grises dans la réglementation qui leur donnent un avantage concurrentiel par rapport aux acteurs installés.
 
Dans le secteur des mobilités, les plateformes numériques telles que Uber ou Blablacar ont considérablement augmenté l’offre de service, en élargissant la brèche engagée dans le monopole des taxis par les véhicules de transport avec chauffeur (+ 12 000 VTC en trois ans en Île-de-France) ou en assurant des trajets délaissés par la SNCF. Face à ces transformations, les pouvoirs publics oscillent entre encouragement (ouverture aux VTC) et protection des acteurs existants (rapport Thévenoud) [2]. Au final, les expérimentations se font sous l’impulsion des plateformes, mais de façon chaotique (soubresauts dans le prix des licences de taxi, service UberPop finalement interdit, tensions sur le partage des revenus entre plateforme et chauffeurs) : les pouvoirs publics courent derrière.
 
La voiture sans chauffeur a également bénéficié d’une adaptation réglementaire [3]. Cependant, les vrais défis sont encore à venir et l’évolution réglementaire (responsabilité en cas d’accident, droit du travail, fiscalité…) sera encore fortement sollicitée lorsque les véhicules autonomes viendront bouleverser les secteurs du transport de marchandises ou de la mobilité (transport routier, taxi, bus, etc.). Si nous ne sommes pas capables de répondre suffisamment rapidement à ces besoins d’évolution réglementaire, des véhicules autonomes pourraient arriver plus rapidement à maturité à l’étranger et pénétrer le marché français, en mettant en péril les 200 000 emplois directs de l’industrie automobile.
 
Pour leur part, les drones ont pu commencer à se développer en France du fait que le cadre réglementaire était propice [4] , avant qu’un cadre européen plus restrictif ne soit proposé, tenant compte notamment des risques de collision. Aujourd’hui, des espaces de développement pour les usages professionnels du drone restent cependant largement ouverts.
 
Les secteurs de l’hôtellerie et du tourisme ont eux aussi connu plusieurs bouleversements, le dernier en date étant le développement d’offres concurrentielles émanant des particuliers (ex : Airbnb, Abritel), qui a élargi considérablement l’offre d’hébergement (en 2015, Airbnb offre 176 000 hébergements en France et Abritel en affiche 74 000, quand le nombre d’hôtels est d’environ 17 000, représentant plus de 600 000 chambres). Là encore, la régulation sectorielle s’adapte au coup par coup pour traiter les problématiques que soulèvent ces nouveaux acteurs (ex : collecte de la taxe de séjour, taux de commission, clarification du seuil d’activité professionnelle).
 
Les secteurs de la banque et de l’assurance n’en sont qu’au début de leur transformation : par la multiplication des moyens de paiement dans le secteur bancaire, par l’augmentation des sources d’information sur les assurés via les objets connectés dans le secteur de l’assurance. S’agissant de services susceptibles d’être intégralement fournis en ligne, le risque est grand de voir une part significative de l’activité disparaître du territoire français si des solutions innovantes sont fournies directement depuis l’étranger, notamment au Royaume Uni où le régulateur bancaire a pris certaines dispositions en faveur de l’innovation [5]. La banque représente 2,7 % de la valeur ajoutée et 2,3 % de l’emploi salarié en France.
 
Le secteur de la santé (près de 12 % du PIB) connaîtra lui aussi des transformations profondes, via l’instauration d’un suivi personnalisé et continu des patients. Déjà engagée dans le cas de certaines affections de longue durée, cette transformation va bouleverser le système médical, notamment le métier du médecin traitant, qui intervient principalement aujourd’hui de façon ponctuelle pour un traitement curatif mais qui pourra intervenir demain de façon plus suivie et jouer un rôle préventif plus affirmé.
 
De nombreux secteurs vont par ailleurs être affectés par le déploiement de l’intelligence artificielle qui se fait actuellement sans encadrement juridique particulier, si ce n’est celui de l’exploitation des données personnelles. Cependant, l’utilisation de l’intelligence artificielle n’est pas sans risque. Si les grandes entreprises se sont dotées d’un « comité d’éthique », cette initiative privée ne saurait remplacer à terme un encadrement légal.
 
Au final, les innovations se déploient, les expérimentations ont lieu, parfois même sur le territoire français aux marges de la légalité. Mais nombre des innovations mentionnées sont portées par des plateformes étrangères, qui acquièrent au passage une puissance de marché considérable. Cet état de fait n’est cependant pas figé. Uber pourra se faire ubériser, dès lors que des transactions décentralisées seront possibles de façon sécurisée, notamment grâce à la technologie blockchain. Favoriser l’innovation est aussi un moyen d’assurer le passage à l’innovation suivante.
Pour garantir l’égalité des chances face à la révolution numérique, la solution n’est pas de fermer notre économie et notre société aux innovations mais au contraire de les y confronter, en les dotant d’outils pour que ces innovations puissent se développer, être incorporées et diffusées. Qu’il s’agisse de réglementations sectorielles ou transversales, les pouvoirs publics doivent prendre la mesure des changements à venir et y apporter une réponse constructive fondée sur des principes explicites et un processus clair.
 
Différents modes de régulation sont possibles. En France, au tout début du XIXe siècle, les questions de « risques industriels » – assimilés à des troubles de l’ordre public – étaient du ressort des collectivités locales et de la police. Pour éviter tout problème avec la population, les autorités locales préféraient souvent interdire ces installations nouvelles, ce qui a eu pour effet de bloquer le développement de l’industrie française. En 1810, une loi est adoptée pour mettre en place une normalisation de la réglementation sur tout le territoire – vérifiée par un corps d’inspection –, contribuant à l’essor de l’industrie. Ce régime de contrôle systématique a été assoupli en 1866 avec la création d’un régime de simple déclaration, où la responsabilité était renvoyée sur l’industriel.
 
L’attitude à adopter face à l’innovation disruptive renvoie à la façon d’appliquer le principe de précaution, qui exige une vigilance systématique face aux risques potentiels associés à une décision. Pour ce faire, une procédure d’évaluation des risques doit être mise en place via des programmes de recherche et des expérimentations encadrées, ainsi que des mesures provisoires et proportionnées pour parer à un dommage éventuel.

Les deux options

Pour assurer une capacité d’innovation au niveau national et faciliter l’adoption de nouveaux usages, l’État doit se doter de mécanismes de réponse à la disruption. L’objectif est de donner de la visibilité aux entrepreneurs, aux acteurs en place et aux citoyens, en portant une politique pro-innovation à tous les niveaux de décision de l’action publique. Deux grandes options sont envisageables, et rien n’empêche d’adopter l’une plutôt que l’autre, secteur par secteur, selon que l’on juge que l’émergence de biens et services innovants revêt une plus ou moins grande complexité ou requiert une plus ou moins grande rapidité d’adaptation. Cependant, quelle que soit la solution adoptée lors du premier déploiement d’une innovation, sa diffusion de masse exigera in fine un nouveau cadre réglementaire stabilisé.
 
OPTION 1 : RECOURIR À L’EXPÉRIMENTATION : UNE TRANSFORMATION PAR ESSAI ET ERREUR
 
Parce que l’innovation prend des formes variées et dispose de grandes capacités d’ajustement et de personnalisation, l’expérimentation, dans un cadre contrôlé par les pouvoirs publics et limité dans le temps, permettrait de tester différentes solutions, d’identifier leurs effets positifs et négatifs, pour au final favoriser un déploiement à grande échelle dans les meilleures conditions. Ce mécanisme souple conduirait à lancer sur le marché de nouveaux biens et services mais, face aux disruptions qu’ils peuvent entraîner, il donnerait à l’État, grâce aux échanges d’informations, les moyens de réagir afin de prendre les mesures correctives nécessaires.
De tels dispositifs d’expérimentation existent déjà en France : mise en œuvre de politiques publiques locales dérogatoires par des collectivités territoriales [6] ; initiative France Experimentation [7] qui permet de déroger à certaines réglementations contraignantes dans le cadre d’un appel à projet ; acte législatif ad hoc pour un périmètre sectoriel donné (par exemple, les expérimentations de véhicules sans chauffeur sont autorisées par une ordonnance [8] ou celles sur l’utilisation de fréquences, attribuées par l’ARCEP, sont renforcées par la loi pour une République numérique).
L’idée est ici d’assurer une plus grande réactivité des pouvoirs publics et d’ouvrir de façon plus systématique le recours à l’expérimentation, en adoptant une loi, voire en modification la Constitution, pour fixer le cadre de son application. Dans ce schéma, un porteur de projet identifierait les lois, normes et réglementations auxquelles il souhaite pouvoir déroger pour tester son innovation, ainsi que l’extension géographique et la durée envisagée. Le projet présenté comprendrait également les modalités suivant lesquelles seraient transmises les informations nécessaires à l’évaluation technique et socioéconomique de l’expérimentation. La sélection des projets se ferait au fil de l’eau par un comité ad hoc chargé d’informer les organismes de contrôle et d’évaluation concernés.
 
Dans un cadre de ce type, le soutien à l’expérimentation d’innovations serait donc intégré aux missions des administrations [9], ce qui favoriserait leur apparition en France et leur diffusion. Certes, le régime dérogatoire, qui permettrait à certaines entreprises de s’abstraire des réglementations sectorielles et transversales, ferait naître un risque de distorsion de concurrence. Mais ce risque serait circonscrit, car la portée de l’expérimentation resterait limitée dans l’espace et dans le temps.
Par exemple, en ce qui concerne le véhicule autonome, les innovations seraient testées sur certaines routes dûment identifiées, après information des autorités concernées.
 
OPTION 2 : ÉNONCER LES GRANDS PRINCIPES : UNE RÉGULATION SOUPLE (SOFT REGULATION) QUI LAISSE L’INITIATIVE AUX INNOVATEURS
 
Dans cette seconde option, de façon à laisser le champ le plus large aux innovations et à inciter à la prise de risque, l’État n’effectuerait pas de contrôle détaillé a priori mais édicterait des principes inscrits dans un code de l’innovation, qui, dès lors qu’ils seraient respectés, permettraient aux entreprises de mettre en œuvre, sous leur responsabilité, leurs innovations sans limite dans le temps.
 
Les missions des administrations évolueraient, en intégrant la publication d’avis et de lignes directrices sur les secteurs relevant de leurs compétences. Ces avis pourraient être demandés directement par des entreprises, avec un délai de réponse rapide imposé aux administrations, selon un mécanisme s’apparentant au rescrit fiscal ou social[10]. Si une entreprise ne respectait pas ces principes, les mécanismes classiques de contrôle se mettraient en place (contrôle administratif, par le juge…). Si la régulation souple s’avèrait déficiente, le retour à l’arsenal législatif pourrait toujours intervenir.
En contrepartie de cette souplesse, les entreprises seraient soumises à un régime déclaratif, identifiant les champs législatifs ou règlementaires impactés, de manière à partager régulièrement les informations pertinentes avec les administrations concernées, comme dans le cadre de l’expérimentation. Ainsi les administrations seraient en mesure de suivre la mise en œuvre ou la commercialisation de l’innovation, de prendre en considération ses effets, et, le cas échéant, de faire évoluer la réglementation.
 
Cette solution délèguerait une partie de la définition des règles au niveau des entreprises ou du secteur d’activité. Mais elle supposerait que le fonctionnement des administrations évolue – de façon à être en mesure d’apporter de façon rapide leur expertise à des innovateurs –, et elle modifierait également le partage des responsabilités : n’étant plus couvertes par une réglementation détaillée, les entreprises s’exposeraient davantage à des recours en justice et au paiement des dommages correspondants en cas d’incidents liés à la mise en œuvre de leurs innovations.
 
Par exemple, en ce qui concerne le véhicule autonome, dès lors que seraient clarifiées les responsabilités et que seraient établis certains standards techniques permettant de s’assurer que la justice dispose des éléments nécessaires pour trancher en cas de litige (boîte noire), la circulation de véhicules sans chauffeur ne ferait pas l’objet de restrictions particulières et pourrait se déployer au gré des avancées technologiques.
 
ÉTAPE FINALE : L’ADAPTATION DE LA RÉGLEMENTATION
 
Ces options décrivent deux processus distincts pour répondre aux innovations disruptives et les accompagner. Le droit à l’expérimentation offre un cadre qui permet de limiter les risques pour la sociétée et les entreprises, et ce dans un temps limité, avant d’envisager le déploiement des innovations à grande échelle. Cette option paraît plus adaptée à des secteurs mettant en danger la vie humaine ou affectant des droits fondamentaux. La soft regulation permet, elle, de laisser libre cours aux innovateurs, avec pour seul cadre les principes fondamentaux, sans limite temporelle prédéfinie.
 
Les deux options se rejoignent sur le partage de données avec les administrations, indispensable à l’évolution des réglementations, entraînant nécessairement une adaptation du fonctionnement de ces dernières qui seront amenées à échanger et collaborer plus étroitement avec les entreprises.
En effet, quelle que soit l’option choisie afin d’accompagner les innovations disruptives, le processus aboutirait inéluctablement, à l’issue de cette phase de déploiement, à l’adaptation de la réglementation. Selon les cas, et en fonction des informations récoltées, celle-ci se ferait de manière à favoriser la diffusion la plus rapide possible de l’innovation, ou de manière à mieux la contrôler.
Par exemple, en ce qui concerne le véhicule autonome, de nouvelles normes de sécurité finiraient par être établies, qui pourraient avoir un effet décisif sur la diffusion du véhicule non seulement auprès des particuliers, mais aussi dans les secteurs économiques tels que le transport de personnes ou de marchandises.
 
Julia Charrié et Lionel Janin – France Stratégie
 
1. Nanotechnologies, Biotechnologies, Informatique, sciences Cognitives (intelligence artificielle).
2. Thomas Thévenoud a remis au Premier ministre, le 24 avril 2014, le rapport de la mission de concertation taxis-VTC intitulé Un taxi pour l’avenir, des emplois pour la France, qui formule trente propositions relatives à l’encadrement des activités de taxi et de VTC.
3. Ordonnance n° 2016-1057 du 3 août 2016 relative à l'expérimentation de véhicules à délégation de conduite sur les voies publiques https://www.legifrance.- gouv.fr/eli/ordonnance/2016/8/3/DEVR1615137R/jo/texte
4. Classification de ces engins comme relevant du loisir avec peu de restrictions sur les conditions de vol.
5. Le régulateur financier britannique (Financial Conduct Authority) a ouvert un « innovation hub » pour conseiller les start-up de la Fintech.
6. Depuis 2003, les collectivités territoriales disposent d’un droit à l’expérimentation leur permettant d’adapter les lois et règlements nationaux aux situations locales par l’introduction dans la Constitution d’une disposition (article 72 al. 4).
7. Lancée en juin 2016.
8.Ordonnance sur l’« Expérimentation de véhicules à délégation de conduite sur les voies publiques », présentée en Conseil des ministres le 3 août 2016.
9. Comme cela a déjà été fait sur certains sujets, par exemple par l’Autorité de régulation des communications électroniques et des postes via son livre blanc « pour préparer la révolution de l’internet des objets » pour favoriser l’expérimentation.
10. Le rescrit fiscal est une prise de position formelle de l'administration fiscale saisie par un contribuable. En cas d'interrogation sur la fiscalité applicable à une situation précise, la procédure du rescrit permet d'obtenir une réponse précise et définitive opposable à l'administration, y compris si la solution donnée est contraire à la loi. Le rescrit fiscal fait ainsi prévaloir la sécurité juridique du contribuable sur le principe de légalité et de hiérarchie des normes. Le rescrit social permet à un cotisant d’obtenir une décision explicite sur « toute demande posant une question nouvelle et non dépourvue de caractère sérieux ayant pour objet de connaître l’application à une situation précise de la législation relative aux cotisations et contributions de sécurité sociale contrôlées par les Urssaf ».
 
 

 

innovation disruptive

Pour en finir avec l'innovation "disruptive"

Pas un jour sans tomber sur un article, un blog, un communiqué de presse qui, d’une manière ou d’une autre, se gargarise de la notion "d’innovation disruptive". Non pas que l’innovation de rupture soit mauvaise en soi, mais plutôt sa quête effrénée, son adulation telle un nouveau Saint-Graal. Et non ! Ma voix ne se joindra pas à ce chœur bêlant. Et voilà pourquoi.

Innovation disruptive Quésaco ?

L’innovation de rupture (ou disruptive) est un terme inventé dans les années 1990 par le professeur de Harvard Clayton Christensen. L’innovation de rupture est un processus au sein duquel une innovation initiale occupe une niche qui paraît inattractive pour ensuite transformer un marché ou un secteur en introduisant de la facilité et accessibilité là où prévalaient les complications et coûts élevés et aboutir à la création d’un nouveau marché, radicalement différent des marchés existants.
Il peut s’agir d’innovation technologique (technologie de rupture), dans le domaine des produits ou des services, ou encore dans le positionnement stratégique d’une entreprise (comme peuvent l’être des stratégies Océan Bleu). Les ordinateurs personnels ou l’Iphone sont traditionnellement considérés comme des innovations de rupture. Toutefois, toute innovation n’est pas forcément disruptive, et Clayton Christensen a réagi en 2015 dans un article détaillé sur l’utilisation inflationniste du terme.

Des présupposés douteux

Beaucoup d’aveuglement, de présupposés et de non-dits autour de la quête effrénée de l’innovation de rupture : globalement, il est sous-entendu qu’elle n’apporterait que des avantages et devrait être activement recherchée, forme de nouvelle injonction envers les entrepreneurs.
Elle serait au service d’une « croissance verte », de la « transition énergétique ».
Or la « croissance verte » est un mythe, comme celui des « énergies 100% renouvelables », nouveaux termes de novlangue. Les démarches de la « star » Elon Musk comme de Bertrand Piccard ressemblent plutôt à du « Greenwashing », ce que le lecteur comprendra plus bas en poursuivant sa lecture.
 
Elle s’appuie massivement sur la digitalisation, l’hyperconnection, l’internet des choses. Or la digitalisation, autre concept novlangue que nous aimerions bien pourfendre à l’occasion, occulte largement - voire complètement - les ressources matérielles et énergétiques nécessaires à sa réalisation et son exploitation, la fragilité générée par les dépendances entre les systèmes, et la possible prochaine baisse de disponibilité et stabilité d’internet (le « capacity crunch »).
 
Elle devrait être un processus voulu, conçu, donc logique, déductif et rationnel (logique du « compliqué » selon le modèle Cynefin), avec un pronostic raisonnable de succès. Or, d’une part, la grande majorité des innovations (voulues) échouent, alors que les succès, y.c. disruptifs, se sont révélés comme tels a posteriori (logique du « complexe » selon le modèle Cynefin), souvent comme des anomalies ou des ratages (pensons à la pénicilline).
 
L’innovation (disruptive) est donc comme un jardin dont on peut prendre soin : si quelque chose de valable émerge, il aura fallu un peu de travail, pas mal de temps et beaucoup, beaucoup de chance, un facteur qu’on peut activement travailler d’ailleurs, selon le professeur Philippe Gabillet. Pousser plus fort la disruption ne la fera pas apparaître par enchantement, pas plus que tirer sur le gazon ne le fait grandir...

Que faire alors ? Décroissance subie ou volontaire ?

 
 
Les choses sont on ne peut plus claires : a) nous vivons dans un monde fini aux ressources, notamment minérales, limitées, dans leur quantité et/ou accessibilité b) l’utilisation des ressources (minérales et énergétiques) croit de manière exponentielle (parallèlement à la pollution et aux perturbations climatiques d’ailleurs...). Alors, comment se terminent les histoires des croissances infinies dans un monde fini ? Les lecteurs curieux – et courageux - s’intéresseront aux travaux de Joseph Tainter...
 
La décroissance arrivera inéluctablement (et probablement plutôt tôt que tard) ; à nous de choisir si nous voulons la subir (en poursuivant le « business as usual ») ou alors l’induire et la conduire volontairement. A ce titre, la véritable innovation de rupture pourrait être dans les basses technologies (« low tech »), des technologies peu gourmandes en matière et énergie, résilientes, durables, réparables, simples, telles que préconisées par l’ingénieur Philippe Bihouix. Ou encore dans ce que le philosophe Bernard Stiegler appelle la « disruption positive ». Mais pour cela, il faudra bien oser remettre en question le libéralisme et le principe d’autorégulation...

Que faire alors ? L'autruche ?

En résumé, «disreuptive innovéscheune», «digitalizéscheune», «globalizéscheune» (c’est mieux quand c’est dit en anglais...) sont des mots-bateaux, des concepts fourre-tout, des nouvelles croyances, des nouvelles idoles du temple de la croissance économique, cette « Déconnomie » comme l’appelle Jacques Généreux, qui restent aveugles au contexte (les stratèges savent-ils encore faire une analyse PESTEL et en tirer les conséquences ?) : les limites physiques, les questions de durabilité et résilience des systèmes, de disponibilité des ressources et énergies, des impacts environnementaux et sociétaux ne sont guère évoquées. On oublie allégrement le Brexit, l’élection de Trump, les records de températures au Pôle Nord et Fukushima (suivez cette excellente curation), rien à voir, circulez.
Photo : Faire l'autruche (Jean-Michel Combe)

Que faire alors ? Nous « déciviliser » ?

Comme préconisé par Edgar Morin, il va falloir changer de mode de penser. Ne serait-il pas temps que les dirigeants, politiques comme économiques, cessent de se voiler la face et osent – et cela nécessite un courage immense – regarder et se confronter à la réalité, les choses telles qu’elles sont ? Et pour cela, le « Dark Mountain Manifesto », lancé en 2009 par deux écrivains et activistes, Paul Kingsnorth et Dougald Hine, est une réelle source d’inspiration. Le principe de base en est que le monde de demain ne sera pas une amélioration du monde d’aujourd’hui.
 
Voici traduits les « huit principes de décivilisation » :
- Nous vivons dans une époque de démontage social, économique et écologique. Les signes autour de nous indiquent que toute notre manière de vivre est en train de devenir histoire. Nous allons faire face à cette réalité avec honnêteté et apprendre à vivre avec elle.
- Nous rejetons la fatalité qui soutient que les crises convergentes actuelles peuvent être réduites à un ensemble de « problèmes » nécessitant des « solutions » technologiques ou politiques.
- Nous croyons que les racines de ces crises se trouvent dans les histoires que nous nous sommes racontées à nous-mêmes. Nous avons l’intention de mettre au défi les histoires qui soutendent notre civilisation : le mythe du progrès, le mythe de l’anthropocentrisme et le mythe de la séparation de la « nature ». Ces mythes sont plus dangereux du fait que nous avons oublié qu’il s’agit de mythes.
- Nous allons réaffirmer le rôle de la narration au-delà d’un simple divertissement. C’est par les histoires que nous tissons la réalité.
- Les humains ne sont pas l’objet ni le but de la planète. Notre art commencera par la tentative de sortir de la bulle humaine. Avec une prudente attention, nous allons nous réengager avec le monde non-humain.
- Nous allons célébrer l’écriture et l’art qui s’inscrivent dans un sentiment de lieu et de temps. Notre littérature a trop longtemps été dominée par les habitants des citadelles cosmopolites.
- Nous ne nous perdrons pas dans l’élaboration de théories et idéologies. Nos mots seront élémentaires. Nous écrivons avec de la terre sous nos ongles.
- La fin du monde tel que nous le connaissons n’est pas la fin du monde tout court. Ensemble, nous trouverons l’espoir au-delà de l’espoir, les chemins qui mènent vers ce monde inconnu devant nous.
 
©Comitans – 04/01/2017
 
Pour en savoir plus :
 
- Clayton M. Christensen, Michael E. Raynor, Rory McDonald, What is Disruptive Innovation?, Harvard Business Review, December 2015
- Thèse de doctorat en Sciences économiques de Florian Fizaine, Analyses de la disponibilité économique des métaux rares dans le cadre de la transition énergétique, Ecole doctorale Langages, Idées, Sociétés, Institutions, Territoires (Dijon), 2014
- Philippe Bihouix, L'Âge des Low Tech, Éditions du Seuil, collection anthropocène, 2014
- http://www.scoop.it/t/black-swan
 

 

usine du futur

"L'usine du futur" selon le CIGREF

Le CIGREF a profilé « l’Usine du futur » et les processus d’innovation associés : cette étude du Cercle Innovation du CIGREF se penche sur les bonnes pratiques à mettre en œuvre, les défis technologiques à relever, la valorisation des données, l’évolution de l’organisation et les nouvelles compétences, l’innovation ouverte… Un choix pour approfondir la thématique de l’Usine du futur et les processus d’innovation associés.
 
Dans ce rapport « Innovation, l’Usine du futur », issu des réflexions de son Cercle Innovation, le CIGREF présente les processus d’innovation propres à l’entreprise du futur, pour anticiper sa transformation : « l’entreprise du futur doit adopter de nouvelles méthodes de travail, centrées sur l’innovation et la collaboration : Fab Labs, les Labs Internes, les relations avec des startups, les incubateurs… ».
 
La numérisation à grande échelle du monde qui nous entoure offre des opportunités d’innovation qui sont autant de leviers de croissance et de compétitivité pour les entreprises. Elles doivent apprendre à s’adapter, changer leurs processus métiers, faire évoluer leurs modèles d’affaires, et éviter de se faire désintermédier ou disrupter par de nouveaux entrants.
 
« L’industrie vit sa 4ème révolution, qui se caractérise par la mise en œuvre des technologies numériques et notamment celles mettant en valeur les données dans un monde interconnecté. L’Usine du futur, aussi appelée « Usine 4.0 », agrège tout un ensemble de technologies dont la donnée est la matière première […] L’Usine du futur devient ainsi une usine numérique qui doit évoluer aussi vite que le secteur du numérique l’exige pour rester compétitive […] C’est une usine qui comporte des robots mais aussi de plus en plus des « cobots » ou robots collaboratifs, une multitude d’objets connectés […] Néanmoins, ce n’est pas une usine désincarnée sans présence humaine […] l’Usine du futur se caractérise par l’implication du personnel… ».

Bonnes pratiques pour l'Usine du futur

L’Usine du futur sera intelligente, compétitive, performante, sûre et attractive. Elle sera une usine créatrice de valeur et d’emplois, connectée avec ses collaborateurs, ses machines de production, ses prestataires, son territoire. Conçue pour répondre aux défis économiques, technologiques, organisationnels, environnementaux et sociétaux, elle intègrera de réelles transformations amenant des solutions nouvelles pour les technologies et les modes d’organisation.
L’Usine du futur se fonde sur le concept d’usine intelligente : un centre de production composé d’unités flexibles, automatisées et interconnectées. La production est suivie en temps réel grâce à la mise en place de capteurs et de logiciels au sein de machines complexes.
L’Usine du futur utilise massivement les technologies en lien avec l’IoT1, le Machine Learning, le Big Data et la communication Machine to Machine (M2M). Elle génère des flux de données importants, qu’il faut savoir collecter et valoriser pour améliorer l’efficacité et accélérer la performance.
 
Une nouvelle ère industrielle est en marche. Le monde industriel est en train d’adopter une organisation plus réactive et modulaire en exploitant des systèmes très innovants qui valorisent les modes d’interactions entre les hommes et les machines. L’implication et l’adaptabilité des collaborateurs permettront le succès de cette transformation.
Pour relever les défis de l’Usine du futur, l’entreprise doit adapter son organisation et miser sur la créativité et la réactivité, inventer de nouveaux dispositifs de collaboration et s’appuyer sur la valeur ajoutée des collaborateurs et la fiabilisation des processus.
L’utilisation de technologies modernes au service de la sécurité des hommes et des procédés est une première étape très opérationnelle pour initier cette révolution de l’intelligence apprenante qui permettra par la suite d’envisager d’autres applications plus transformantes des procédés de fabrication. L’usine deviendra « intelligente ».
Grâce aux capacités de calcul (Big Data) et l'essor de l'Internet des objets, les grandes entreprises ont pris conscience des possibilités offertes par le numérique. L’usine peut ainsi connecter, de manière intelligente, l’ensemble des acteurs et des outils industriels.
Les fournisseurs et les utilisateurs commencent à intégrer ces technologies dans leurs produits et solutions afin de rester le plus compétitif et sans remise en cause de l’existant, à des coûts acceptables. Le pilote de l’usine par les données prend ainsi sens.
(Source : CIGREF- Janvier 2017)
 

 

armes nucléaires

Attention, les armes nucléaires sont en passe de devenir illégales !

Passée inaperçu, l’ONU a retenu le 23 décembre 2016 la décision d’élaborer en 2017 un Traité International d'interdiction des armes nucléaires. L’enjeu est considérable, surtout à un moment où le TNP (Traité de Non Prolifération) a largement montré ses insuffisances, puisque quatre Etats dotés d'armes nucléaires n’en font pas partie (Inde, Pakistan, Israël et Corée du Nord).
 
L’ONU fait décidemment parler d’elle en cette période mouvementée. On sait qu’un nouveau secrétaire général s’installe, le portugais Antonio Guterrez, et qu’une résolution du Conseil de sécurité a été votée contre les colonies israéliennes. Mais qui s’attarde sur le vote historique du 23 décembre qui ouvre la voie vers la négociation d’un Traité International d’interdiction des armes nucléaires en 2017 ?
Pourtant l’événement est de taille car il relance la perspective du désarmement nucléaire multilatéral, suspendu depuis vingt ans, au moment même où Donald Trump et Vladimir Poutine annoncent leur volonté de relancer la course aux armements nucléaires. Et l’on a entendu Pierre de Villiers, chef d’Etat Major des armées françaises appeler à un renouvellement des « composantes océanique et aérienne de l’arsenal nucléaire » national (voir sa tribune Le prix de la paix c’est l’effort de guerre ).
 
Cette décision obtenue à une majorité de 76% des votants (voir le détail ci-dessous) va se traduire par des réunions dans le cadre de l’ONU, à New York du 27 au 31 mars et du 15 juin au 7 juillet 2017, au cours desquelles doit être "négocié un instrument juridiquement contraignant visant à interdire les armes nucléaires, en vue de leur élimination complète".

D’où vient cette initiative ?

Cette dynamique a démarré au mois de mars 2013 par l’initiative de la Norvège d’organiser une Conférence à Oslo sur le thème des « Conséquences humanitaires d’une guerre nucléaire », qui a réuni 127 États et plusieurs ONG, et qui a été le début d’un processus qui depuis n’a fait que s’amplifier.
Successivement, le Mexique a pris la relève en février 2014 avec la Conférence de Nayarit réunissant 146 États, suivi par l’Autriche en décembre 2014 avec la Conférence de Vienne réunissant 158 États et également 600 militants dans le cadre de la grande Campagne ICAN-International Campaign to Abolish Nuclear Weapons.
 
Ici deux nouveautés essentielles ont émergé : d’une part, l’analyse du risque réel qu’une explosion ou une guerre nucléaire puisse éclater, même par accident ou par erreur (voir Eric Schlosser, Command and Control, Penguin Press, New York (2013) et, d’autre part, l’initiative du gouvernement autrichien de s’engager (« pledge ») en vue de remplir le vide juridique pour l’interdiction et l’élimination des armes nucléaires. Cet engagement a progressivement reçu l’adhésion de 139 États.
 
Dans le sillon de ce mouvement, l’Assemblée générale des Nations unies, le 7 décembre 2015, a voté la mise en place d’un « Open Ended Working Group », c’est à dire un groupe de travail ouvert non seulement aux délégations des 195 États de l’ONU, mais également aux Organisations non gouvernementales (ONG), c’est à dire à la « société civile » (associations militantes et organismes tels que la Croix Rouge Internationale et le Croissant Rouge), avec comme mandat d’élaborer « des mesures légales concrètes et efficaces, des dispositions légales et des normes pour réaliser et maintenir un monde sans armes nucléaires ». Avec une demande importante pour le processus : pas d’obligation d’unanimité (donc pas de possibilité de veto !)
 
Trois sessions de travail en 2016, à Genève, ont abouti à un rapport final approuvé par une majorité de 75% des votes exprimés (68 votes pour et 22 contre). Suite à ce travail, le “First Committee” de l’Assemblée générale de l’ONU à New York a voté, le 27 Octobre 2016, avec une majorité de 76 % (123 votes "pour" et 38 "contre") la Résolution L41qui implique l’ouverture de négociations pour un Traité d’Interdiction des armes nucléaires en 2017. Ce vote du First Committee a ensuite été confirmé par le vote définitif du 23 décembre 2016, avec une même majorité de 76%. Le programme est sur les rails : deux  conférences de négociation se dérouleront du 27 au 31 mars et du 15 juin au 7 juillet 2017 à New York. Elles seront ouvertes à tous les Etats, ainsi qu’à la Société civile et aux Organisations Internationales.
 
 
Le 27 octobre 2016 vers 18 h (heure de New York), au moment du vote « historique », au First Committee de l’Assemblée Générale des Nations Unies, qui a décidé l’ouverture en 2017 de négociations pour un Traité International d’interdiction des armes nucléaires. 
De gauche à droite : Beatrice Fihn, directrice de la Campagne ICAN, Tim Wright directeur de ICAN pour la région Asie-Pacifique, Ray Acheson directrice de la mission « Reaching Critical Will » du mouvement WILPF (Women’s International League for Peace and Freedom).

Les Etats non-dotés se révoltent et des brèches s’ouvrent parmi les Etats dotés et au sein de l’OTAN

Nous assistons en fait à une véritable “révolte” des Etats non dotés d’armes nucléaires - Etats d’Amérique Latine et d’Afrique, mais aussi l’Autriche et l’Irlande - face à l’inertie pluri-décennale dans le processus de désarmement et de la modernisation continue de l’armement des Etats nucléaires !
En effet, lors du vote définitif du 23 décembre 2016 : 
- 113 pays ont voté "pour", dont notammentl'Autriche, la Suède, le Mexique, le Brésil, l'Afrique du Sud, la Nouvelle Zélande, le Sénégal (en dépit des pressions subies de la part de la France) et la Corée du Nord !
- 35 pays ont voté "contre", dont notamment la France, les Etats-Unis, la Russie, la Grande Bretagne, Israël, la Corée du Sud, le Japon, l’Australie et les membres de l’OTAN, mais avec 4 exceptions notables : les Pays-Bas, qui se sont abstenus, et l’Italie, l’Albanie et l’Estonie qui ont voté « pour » ! (A noter que l’Italie et les Pays-Bas « accueillent » sur leur sol plusieurs dizaines de bombes nucléaires des USA !)
- 13 pays se sont abstenus, dont notamment la Chine, l'Inde,le Pakistan, la Finlande, les Pays-Bas et la Suisse.
(D’autre part, 21 Etats, qui s’étaient exprimés « pour » précédemment, n’étaient pas présents au moment de ce vote, sans doute à cause de sa date tardive !).
Donc les 9 Etas dotés d’armes nucléaires se "fragmentent" puisque : parmi eux, 5 Etats ont voté « contre » (USA, Russie, UK, France et Israël  qui représentent 8% de la population mondiale) ; 3 Etats se sont abstenus (Chine, Inde et Pakistan, qui représentent 36% de la population mondiale) et 1 Etat a voté « pour » : la Corée du Nord !  
En outre, comme on l’a vu, des fissures importantes apparaissent au sein de l’OTAN !
 
Maintenant le programme est bien sur les rails : deux  sessions de négociation se dérouleront du 27 au 31 mars et du 15 juin au 7 juillet 2017 à New York. Elles seront ouvertes à tous les Etats, ainsi qu’à la Société civile et aux Organisations Internationales.

Le Parlement européen sur la même longueur d’onde

De manière concomitante, le Parlement Européen a voté le 27 octobre dernier une résolution en faveur d'une ouverture des négociations en 2017 pour un Traité International d’interdiction des armes nucléaires, et cela à une majorité de 77% (415 votes favorables, 124 contraires et 74 abstentions).
Cela témoigne d’une « fracture » entre le Parlement Européen d’une part et une grande partie des Gouvernements Européen d’autre part. En particulier, l’euro-parlementaire italien du Parti Démocrate, Brando Benifei, à Strasbourg a voté en faveur d’un tel Traité, en demandant à la Haute représentante de l’Union Européenne pour les affaires étrangères et la politique de sécurité, Federica Mogherini, de “travailler activement à la préparation de la conférence en 2017, convoquée en vue de négocier un instrument légal pour l’abolition des armes nucléaires".

Quelles conséquences d’un tel traité ?

Les Etats hostiles à un Traité international d’interdiction des armes nucléaires, considèrent qu ‘un tel Traité serait « inutile », « prématuré », « fauteur de divisions », « contreproductif », « risqué »… Mais il faut bien comprendre que la finalité du Traité n’est pas, dans un premier temps, celle d’obtenir nécessairement l’adhésion des Etats dotés d’armes nucléaires (ou de leurs alliés), mais celle d’établir un nouveau cadre juridique dans lequel se situera obligatoirement toute négociation ultérieure en vue de l’élimination effective de ces armes. En effet, il ne s’agira plus de négocier sur des armes “simplement” beaucoup plus puissantes que les autres, mais de négocier sur des armes devenues illégales.
 
En outre un tel Traité, qui stigmatise même la seule possession des armes nucléaires, ne manquerait pas de changer, et même radicalement, la façon avec laquelle les armes nucléaires sont encore souvent perçues par l’opinion publique, par des responsables politiques, par des chercheurs, par des opérateurs industriels, économiques et financiers et … par des militaires !
 
Le 23 janvier 2017, Initiatives pour le Désarmement Nucléaire (IDN) organise à Paris une conférence internationale sur le thème de la course aux armements, en présence de nombreuses personnalités françaises et étrangères. La question du Traité d’interdiction des armes nucléaires sera abordée notamment par Béatrice Fihn, directrice de « la campagne internationale pour abolir les armes nucléaires » (ICAN).
 
 
Y interviendra naturellement Paul Quilès, Président de l'IDN, ancien ministre et polytechnicien spécialiste des questions nucléaires et de défense (auteur de "Nucléaire, un mensonge français : réflexions sur le désarmement nucléaire", Paris, Éditions Charles Léopold Mayer, 2012) qui œuvre pour que la France rejoigne ce mouvement (notamment par la pétition récente adressée à François Hollande : « Monsieur le Président, la France doit voter à l’ONU l’interdiction des armes nucléaires ! », qui a recueilli en un mois plus de 25000 signatures et des nombreux commentaires très pertinents).
Voici son message actuel :« On imagine mal que la France ne participe pas à ces travaux et pratique la politique de la chaise vide, estime Paul Quilès. En participant, la France montrerait sa bonne foi quant à sa volonté de respecter le Traité de Non-Prolifération (TNP) dont elle est signataire et notamment son article VI, qui précise que "chacune des Parties au Traité s'engage à poursuivre de bonne foi des négociations sur des mesures efficaces relatives à la cessation de la course aux armements nucléaires à une date rapprochée et au désarmement nucléaire, et sur un traité de désarmement général et complet sous un contrôle international strict et efficace ».
Et les Français semblent tout à fait favorables à cette voie vers un désarmement total comme le montre le sondage d’Opinion Way.
 
En collaboration avec Luigi Mosca, Physicien
 

A lire : "Exigez ! Un désarmement nucléaire total" (Stock, 2012), un appel lancé par Stéphane Hessel et Albert Jacquar

 
A signaler
 
John Mecklin
 
John Mecklin is the editor-in-chief of the Bulletin of the Atomic Scientists. Previously, Mecklin was editor-in-chief of Miller-McCune (since renamed Pacific Standard),...
 
The year now concluding was full of interesting and unpredictable news regarding nuclear weapons and their accoutrements; the year was, therefore, also continuously and enormously threatening to humanity.  Below are 10 of the Bulletin's best articles from a frightening year, during which, in countries around the world—from North Korea to Pakistan to India to Russia and on to the United States—people who ought to know better suggested that more nuclear weapons should be built, and some might be used.
 
On tickling the dragon’s tail by Victor Gilinsky
The moral restraints that prevent Armageddon are flimsier than one might think, because humans have a self-destructive defect. They like to tickle the dragon's tail.
 
The director of the Center for the United States and Europe at The Brookings Institution explains what the world is missing when it deals with the Russian president. [Subscription content.]
 
Closing small and hypothetical gaps in the US nuclear arsenal isn’t worth the expense and won’t eliminate risk. 
 
Top experts on nuclear weapons, climate change, and other existential threats to humanity comment on how they think the expert community can best respond to Donald Trump's election.
 
Donald Trump’s presidential election victory raises many international security questions, including critically the future of a US ballistic missile shield in Europe, an effort long opposed by someone with whom Trump wishes to build a new relationship—Russian President Vladimir Putin.
 
Why have major US media outlets ignored a UN vote to negotiate a treaty that would ban nuclear weapons? The president of the Ploughshares Fund provides some answers.
 
The presidential candidates must do more than accept the possibility of a terrorist attack with an improvised nuclear device. They need to plan an effective response that reduces the mass morbidity and mortality such an attack inevitably will cause.
 
The former ambassador discusses US–Russian relations and how they might be improved, given Russian President Vladimir Putin’s suspicious views of US intentions. [Subscription content.]
 
There are reasonable arguments on both sides of the no-first-use debate. Unfortunately, there may be negative consequences for raising the issue publicly and then rejecting it. 
 
Even in this digital age there are many reasons to be careful about what we wish for when it comes to modernizing the nuclear command and control system. More technological capability will not necessarily create a more secure world.
 

 

Post-vérité

Post-vérité : le temps des salades

La vérité n’est plus ce qu’elle était. Une valeur démonétisée, ringarde, une vertu de looser. L’époque est au mensonge. Non pas le petit mensonge que l’on dit en rougissant. Non le gros mensonge, la grosse contre-vérité, l’hénaurme farce. Nous sommes entrés dans l’ère des salades, celles qui font élire les Trump de tous poils, commettre des Brexit ou envisager les pires scénarios électoraux. Le dictionnaire d’Oxford en a fait le mot de l’année : post-vérité.  Un mot en vogue, symptôme d’une tendance sur laquelle surfent des professionnels que l’on croyait à tort démodés. C’est ainsi que va s’implanter en France en vue des prochaines présidentielles, Breitbart News, le média ultra-droite fondé par l’avatar américain de Goebbels, qui a fait élire Trump et poussé le Royaume Uni hors de l’Europe.
 
Plus c’est gros, mieux ça passe. Le mensonge, la contre-vérité, la fausse-nouvelle sont devenus monnaie courante dans le déroulement des affaires publiques. Le mensonge, tenu pour une simple et acceptable figure de rhétorique, serait même admis comme une manière habile et efficace de communiquer. Raconter un beau bobard équivaudrait à employer une jolie métaphore, pour bien faire passer son message. Qu’importe la vérité.
 
Depuis quelques mois, nous assistons à une montée en puissance spectaculaire de ce phénomène, avec des conséquences majeures pour l’équilibre du monde. La campagne de Donald Trump a été constellée de mensonges, d’approximations, de contre-vérités qui affolaient les compteurs des fast-checkers, ces organismes chargés de rétablir la vérité des chiffres et des faits dans les discours politiques. En vain, le poids du bobard semblait plus fort, la pression uniformément intense. Et Trump fut élu.
La campagne du Brexit fut du même ordre avec son lot de « post-vérités » qui firent basculer, contre toute attente des sondages, l’opinion britannique.
 
Ces deux seuls événements incitèrent les auteurs du dictionnaire de l’université d’Oxford à distinguer le mot « post-vérité » comme mot international de l’année. L’un d’entre eux, Casper Grathwohl déclarait « La fréquence d’utilisation du mot a vraiment augmenté en juin 2016 avec le Brexit et puis à nouveau en juillet, quand Donald Trump a obtenu l’investiture présidentielle du Parti républicain. L’utilisation du terme n’ayant montré aucun signe de ralentissement depuis ces événements, je ne serais pas surpris si la post-vérité devenait l’un des mots définissant le mieux notre époque ». Selon la définition du dictionnaire, on parle de « post-vérité » quand « les faits objectifs ont moins d’influence que les appels à l’émotion et aux opinions personnelles pour modeler l’opinion publique ».
 
Dans un brillant article publié par The Conversation, l’universitaire Charles Hadji souligne que le discours politique qui se complaît dans la post-vérité joue sur les émotions et les passions. Or, dit-il, celles-ci sont bien le premier moteur de la vie politique. « Le discours raisonnable n’a guère de puissance propre pour mobiliser les citoyens. Pour faire vivre la démocratie, il faut mobiliser les passions. Car une part de rêve est nécessaire au « peuple » pour qu’il s’approprie un projet, et le rende vivant. Certes, le rêve nous installe dans la fiction. Mais Raffaele Simone a montré, dans son ouvrage ‘Si la démocratie fait faillite’, que les citoyens vivant en démocratie ont besoin de tenir pour vraies certaines fictions, s’inscrivant dans une mythologie, laquelle constitue l’un des piliers fondamentaux de la démocratie. »
 
Ainsi, les fables seraient plus appréciées que les faits. Le mensonge aurait plus d’efficacité que la dure et austère vérité. Dès lors, pourquoi tenir rigueur aux auteurs de mensonges ou de propos outranciers ? Non seulement on considère leurs excès comme faisant partie du débat politique « normal », mais, en plus, on croit leurs mensonges. Et non seulement on y croit, mais aussi on les propage. Les réseaux sociaux sont devenus une caisse de résonnance de la post-vérité. Ceux qui relaient une fausse information, un mensonge ou une calomnie ne le font pas nécessairement par pure conviction mais pour signaler leur position. La contre-vérité diffusée sur les réseaux sociaux importe peu, ce qui importe c'est le signal social, les opinions sous-entendues qui sont véhiculées. C’est ainsi que se propagent les sombres rumeurs, les théories du complot, les calomnies les plus viles.
 
Le phénomène est-il si nouveau que cela ? N’est-il lié qu’à la montée des populismes un peu partout dans le monde ? Pas vraiment pour l’universitaire britannique Andrew Calcutt qui soutient que c’est la gauche libérale qui a inventé la « post-vérité » : « Le renversement des valeurs qui a abouti à fustiger l’objectivité est le fait des universitaires, aidés par une foule de professionnels des classes moyennes. Libéraux avoués, le cœur à gauche, ils ont cherché à se libérer de la vérité professée par l’État. À la place, ils ont construit une nouvelle forme de fermeture d’esprit – « la post-vérité ».
Selon lui, il y a plus de 30 ans, les universitaires ont entrepris de discréditer la « vérité » comme l’un des « grands récits » que les gens intelligents ne pouvaient plus croire. En lieu et place de « la vérité », qu’il fallait donc considérer comme naïve et/ou répressive, la nouvelle orthodoxie intellectuelle autorisait seulement l’usage des « vérités » – toujours plurielles, souvent personnalisées, inévitablement relativisées. C’est ainsi que dans les années 1990, des cohortes de journalistes se mirent à rejeter le principe d’objectivité considéré comme rien de plus qu’une manie professionnelle. Les vieux briscards du journalisme qui soutenaient becs et ongles la valeur d’objectivité étant alors accusés de tromper leurs lecteurs, et eux-mêmes.
 
Dans le même temps, vers la fin des années 1990, montait en puissance le phénomène des « industries créatives ». La « marque » fut portée au pinacle et tous les moyens pour la construire et la défendre furent jugés valables. Story-telling, branding, communication … devinrent les parangons d’une société où la vérité importait peu face à la construction d’une fiction apte à faire rêver et vendre. Avec le développement des technologies numériques, le phénomène ne fit que s’accentuer et se mit à gagner tous les pans de la « nouvelle économie », y compris ceux, obscurs, de la finance. Peu importait la réalité des faits, ce qui comptait était la « valorisation », le plus souvent établie sur des critères très éloignés de la réalité ; sur des potentiels, c'est-à-dire des rêves.
Le domaine politique ne fut pas en reste. Les spin doctors firent alors leur apparition et déployèrent leur talent à aider les politiques de tous bords à reléguer les faits au second plan pour fabriquer des vérités, générer des images et des émotions. L’épisode de la guerre en Irak est un bon exemple, présent dans toutes les mémoires.
 
C’est ainsi que s’est façonnée la politique moderne :  la bataille d’arguments est privilégiée par rapport à l’établissement d’une plus grande vérité sur une question donnée. Rien d’étonnant alors à ce que l’on assiste à des confrontations sans assises factuelles, à l’émission de messages trompeurs, tronqués, faussés. Peu importe. Ce qui compte désormais, puisque la vérité est relative, c’est d’asséner la sienne. Il n’y a aucun mal à cela, aucune infraction à l’« honnêteté » ou la droiture. Toutes les méthodes deviennent acceptables pour gagner un combat et surtout une élection. Mettre en doute la réalité du réchauffement climatique contre l’avis de milliers de scientifiques du monde entier ne pose aucun problème. Cela n’empêche nullement Donald Trump de gagner les élections. La vérité est superflue pour battre ses rivaux.
 
À ce jeu, des professionnels du mensonge se distinguent singulièrement. Peu connaissent en France Steve Bannon. Celui-ci est le gourou de la post-vérité ; il en a fait une arme de guerre, si ce n’est un art. Ancien banquier chez Goldman Sachs, Bannon prend en 2012 la direction d’un site d’information redoutable : Breitbart News. Ce média s’est fait le chantre du populisme le plus extrême. Une véritable arme de guerre contre l’ « establishement », utilisant toutes les ficelles, mème les plus grosses de la post-vérité. Un site qui de surcroît affiche ostensiblement des positions sexistes, racistes ou homophobes. Le site 20 minutes rapporte quelques perles de ce média qui pèse aujourd’hui 240 millions de pages vues et 37 millions de visiteurs uniques par mois : « Préférez-vous que votre enfant attrape le féminisme ou le cancer ? », « Il n’y pas de discrimination contre les femmes à l’embauche, elles sont juste nulles en entretien », « La contraception rend les femmes moches et folles ».
De curiosité d’extrême droite, le site est devenu une voix tonitruante. À tel point que le magazine Bloomberg qualifie Bannon de « machine la plus dangereuse d’Amérique ». Le journaliste pourtant très conservateur de la chaîne Fox, Glenn Beck, allant jusqu’à le surnommer « Goebbels ».  
 
C’est pourtant cet homme que Donald Trump appela à ses côtés en qualité de directeur de campagne, avec le résultat que l’on sait. Une fois élu, Trump le nomme haut conseiller et chef de la stratégie. Bannon s’apprête à occuper ses bureaux dans l’aile ouest de la Maison blanche dès le 20 janvier prochain.
Mais l’influence de Bannon ne se cantonne pas aux États-Unis. En 2013, Breitbart News s’installe à Londres. Le Point rapporte qu’à sa tête on trouve Raheem Kassam, un activiste britannique de 30 ans qui érige au rang d'idoles Margaret Thatcher et Michael Gove, chef de file avec Boris Johnson des pro-Brexit. Breitbart London fait évidemment campagne en faveur du Brexit. Tout comme Raheem Kassam, qui devient le conseiller principal de Nigel Farage, leader de Ukip, le parti populiste et europhobe britannique. Plus le mouvement pro-Brexit prend de l'ampleur dans le débat, plus les audiences de Breitbart London s'envolent.
 
Avec des méthodes dépourvues de scrupules, un goût sans limite du scandale et de la provocation, Breitbart News sait faire gagner les élections. Son intérêt se porte désormais sur la France en vue de la campagne pour les présidentielles de 2017. Steve Bannon déclarait ainsi au site Radio-Londres : « Nous pensons que la France est l’endroit où il faut être, avec ses jeunes entrepreneurs, les femmes de la famille Le Pen… Marion Maréchal Le Pen est la nouvelle étoile montante. Nous cherchons à ouvrir un Breitbart Paris, voire un Breitbart France ». Alex Marlow, le rédacteur en chef de Breitbart News aux Etats-Unis, a déclaré à Reuters au moment de l’élection de Trump : Breitbart a commencé des entretiens avec des journalistes européens « pour qu’ils rejoignent les sites prévus de Breitbart France et Breitbart Allemagne », rapporte l’agence. L’objectif est d’aider l’élection de politiciens de droite dans ces deux pays européens, où l’opinion anti-immigrants ne cesse d’augmenter. Une aide de poids au regard de l’efficacité des méthodes de post-vérité, néologisme pudique pour ne pas dire manipulation de la vérité et mensonge, dont Breitbart s’est fait, toute honte bue, le maître. Le temps des salades est bien advenu.
 
 

 

Europe

Assemblée instituante européenne : cap sur le soixantième anniversaire du Traité de Rome

Annoncer le lancement du processus d'Assemblée instituante au Sommet des chefs d'Etat à Rome, en mars 2017 ; achever les panels régionaux pour mai 2018 ; mettre sur la table du nouveau Parlement et de la nouvelle Commission les propositions issues de ce processus citoyen. Voilà le calendrier idéal pour une initiative innovante de démarche citoyenne.
 
Que de choses se sont passées depuis le mois de juin ! Dans ma dernière lettre périodique, il y a six mois, je vous avais raconté l'écho rencontré par l'idée d'Assemblée instituante européenne, après le Brexit. Et je concluais : « il ne suffit pas aujourd'hui de dire ce qu'il faut faire, il faut aussi dire comment le faire et avec qui. C'était le pragmatisme visionnaire de Jean Monnet. C'est ce dont il faut faire preuve aujourd'hui. »
 
Les événements de ces derniers mois ont confirmé ce diagnostic et cette urgence : Brexit, Trump, montée partout en Europe des partis populistes et du sentiment euro-sceptique, voire carrément anti-européen, les institutions européennes prennent conscience que le logiciel qui les a fait fonctionner les a égarées. Le réveil n'en est que plus douloureux. Mais si les colloques et les analyses savantes se multiplient, on ne peut pas dire que les solutions se bousculent au portillon.
 
En octobre, une grande conférence « Reflecting on Europe » a réuni à Bruxelles le gratin des communicateurs. Ils en sont encore tous à aller expliquer au bon peuple tout ce que l'Europe leur apporte. Ça ne marche plus du tout !
 
En novembre s'est tenue la conférence annuelle de prospective, organisée par ESPAS (European strategy and policy analysis system), qui réunit toutes les institutions européennes. Trois leçons s'en dégagent :
1. il faut frapper un grand coup, la politique des petits pas ne peut plus marcher ;
2. il faut repartir des citoyens
3. il faut repartir du niveau local
J'ai pu y présenter brièvement l'idée de processus instituant européen : c'était la seule proposition concrète mise sur la table, et la seule qui réponde à ces trois leçons.
 
Tout ceci explique que la proposition d'Assemblée instituante, lancée en avril comme une bouteille à la mer, trouve un tel écho. Je vous ai envoyé avec ma lettre de juin le scénario du processus. Vous en trouverez ici le résumé.
 
Notre première idée a été d'en faire une Initiative citoyenne européenne (ICE), telle que prévu par le traité de Lisbonne. Beaucoup d'entre vous aviez accepté de faire partie du groupe initiateur de l'Initiative. Un grand merci. Nos amis experts de l'Europe nous ont dissuadé de la lancer : c'est une procédure lourde et, la proposition d'Assemblée instituante ne relevant pas des compétences de la Commission, c'eût été un coup d'épée dans l'eau.
Nous avons adopté, avec Patrick Lusson et Armel Prieur qui portent l'initiative avec moi, une démarche plus directe : faire connaître la proposition et commencer à réunir les multiples conditions de sa réussite. Qui sont les protagonistes essentiels ? D'un côté les régions, de l'autre les institutions européennes, en particulier le Conseil européen, la Commission, le Parlement et le Comité des régions, qui est à Bruxelles la voix officielle des collectivités territoriales.
 
Quel calendrier ? il est tout trouvé. Le processus doit durer deux ans : la première année pour les panels de citoyens régionaux, la seconde pour leur réunion à Bruxelles. Il doit donc être encadré par trois dates hautement symboliques :
- le 25 mars 2017 : soixantième anniversaire du traité de Rome, date de naissance officielle de l'Union ;
- le 9 mai 2018 : soixante dixième anniversaire du Congrès de la Haye, par où tout a commencé ;
- fin mai 2019 : élections au Parlement européen puis renouvellement de la Commission.
 
Annoncer le lancement du processus au Sommet des chefs d'Etat à Rome, en mars 2017 ; achever les panels régionaux pour mai 2018 ; mettre sur la table du nouveau Parlement et de la nouvelle Commission les propositions issues de ce processus citoyen. Voilà le calendrier idéal.
 
Du côté des régions, la Présidente de la Région Bourgogne Franche Comté, Marie Guite Dufay, a, dès le mois de juillet 2016, décidé de s'engager dans le processus et entraîne maintenant dans son sillage les régions Occitanie, Centre Val de Loire et Bretagne. Elle a eu une magnifique intuition : la construction de l'Europe doit constituer le nouvel horizon des jumelages, si nombreux, entre régions européennes et en particulier entre Régions françaises et Länder allemands. Dès novembre, le land de Rhénanie Palatinat, jumelé de longue date avec la région Bourgogne, s'est engagé dans cette voie.
 
A Bruxelles, tout le monde attend une initiative forte franco-allemande pour relancer l'Europe. Elle ne pourra pas venir à court terme des gouvernements. Tant mieux ! Une initiative conjointe des régions françaises et des länder allemands, quelle meilleure manière d'affirmer le rôle des régions dans la construction du nouveau projet européen ? La proposition est sur la table.
 
J'ai pu présenter le 26 septembre dernier l'idée d'Assemblée instituante aux cadres du Comité des régions européennes. Ci-dessous l'exposé fait à cette occasion. Le Comité est maintenant conscient que la crise européenne le pousse à assumer une responsabilité historique, loin de la fonction purement consultative qui a été la sienne à sa création. Objectif : une interpellation du Conseil européen pour le sommet du 25 mars, appelant à un processus citoyen de refondation de l'Europe.
Le Secrétariat du Conseil européen prête une attention bienveillante à notre initiative. J'y ai exposé la proposition dès le mois de juillet dernier (voir la note lien ci-dessous). L'étape maintenant engagée est de soumettre la proposition à des « sherpas » préparant le Sommet de Rome pour leurs gouvernements respectifs (voir lettre lien ci-dessous). Et, bien sûr, la position du gouvernement français sera déterminante.
 
Le Secrétaire général de l'Elysée, Jean Pierre Jouyet, a déjà manifesté sa sympathie pour notre démarche. Reste à traduire cette sympathie en acte concret, en proposant aux autres Etats membres d'inscrire la démarche citoyenne à l'ordre du jour du Sommet. Nous avons jusqu'à la fin janvier pour y parvenir.
Nous avons aussi multiplié les échanges avec des députés européens. Cette démarche citoyenne intéresse et interpelle.
A vrai dire, ses conclusions nourriront les prochaines élections européennes plutôt que le Parlement actuel. Autrefois, les élus étaient très réservés à l'égard de la démocratie délibérative, y voyant une sorte de concurrence déloyale : n'était-ce pas eux qui représentaient le peuple ? Ces réserves ne sont plus de saison : la crise de la démocratie représentative est telle que toute tentative de vivifier la démocratie est bonne à prendre.
 
Et la Commission direz vous ? Contrairement au Conseil européen, nous n'avons pas besoin d'un engagement de la Commission de prêter attention aux propositions citoyennes : c'est la prochaine Commission qui devra se prononcer et d'ici là il faudra que le processus soit suffisamment fort pour qu'il devienne incontournable d'en prendre les conclusions en considération.
 
La mobilisation des moyens humains et financiers de la Commission est par contre essentielle. La démocratie délibérative, comme on appelle les panels de citoyens, suppose que ces derniers disposent du meilleur de l'information et de l'expertise. Chaque panel devra se tenir dans sa langue maternelle. Le dialogue entre les panels et l'Assemblée européenne nécessiteront des moyens de traduction et d'interprétariat dont seules disposent les institutions européennes. N'est-il pas juste qu'une partie de ces moyens soit mise à la disposition des citoyens, étant financée par leurs impôts ?
La Commission devra aussi prendre en charge une partie du coût des panels régionaux et l'Assemblée européenne. Le Président Jean Claude Juncker, pour sortir l'Europe du marasme, a lancé un grand plan d'investissement. Bravo ! Mais quel est aujourd'hui l'investissement prioritaire, sinon l'investissement humain, le processus citoyen capable d'apporter à l'Europe le souffle et l'enthousiasme dont elle manque totalement aujourd'hui ? Car sans lui, le reste sera à peu près inutile. La proposition est sur la table. Nous saurons dans les prochains mois l'écho qu'elle aura su trouver dans les cœurs des dirigeants européens.
 
Comme vous le voyez, bien du pain sur la planche, bien des incertitudes. Mais si l'on regarde en arrière, quand la bouteille a été jetée à la mer sans grand espoir d'arriver un jour sur une plage, et que l'on constate le chemin parcouru en quelques mois, on ne peut s'empêcher de penser avec Victor Hugo que « rien n'arrête une idée dont l'heure est venue ».
Nous avons besoin de vous tous pour faire avancer la proposition, y compris en Grande Bretagne car bien des amis anglais aimeraient débattre de l'Europe dont ils rêvent.
Joyeux Noël à tous et longue vie à l'Europe !
 
 

 

obsolescence

L’obsolescence ou "Une manifestation de la finalité"

Fruit d'un abécédaire philosophique, pour penser « la crise » par le O et brièvement la faire dialoguer avec les crises socio-économiques du monde capitaliste (cycle, structuration et conjoncture), l'auteur s'aventure sur la piste d'un mot mécanique : obsolescence, celui-ci renvoyant au milieu technique de l'homme et le qualifiant. Après avoir débroussaillé autour de notre crise – elle serait l'épistémè du monde moderne –, il propose une réflexion sur l'obsolescence comme rapport négatif critique à la positivité de la productivité contemporaine et à venir. Dès lors, l'obsolescence pourrait servir pour définir et expliquer une civilisation nécessairement jeune parce qu'incertaine quant à sa pérennisation (civilisation technicienne guerrière).

Photo ©Compagnie Opinion public - Chorégraphie "Obsolescence"

obsolescencehommeD'autres ont déjà parlé d'« obsolescence de l'homme », d'un devenir-monde fantomal, d'accélération et de vitesse ; mais, dans l'accumulation de l'obsolescence en acte gît la fatuité intrinsèque, quoique non irrationnelle, de notre désir hyperbolique de productivité. Pour borner à la fois cette agitation bourgeoise et cette nécessité anthropologique, l'auteur discute du « paradigme de l'androïde » ou d'une « éthique de la machine rêvée sans achèvement ». Il se propose enfin de souligner que « l'autre nom du monde est forêt », que l'éreintement guette la totalité des projets et adventurae de la Nature et de la Culture, et que le destin même du travail scientifique de découverte et d'explication – de révélation – est, sans cesse, de devenir obsolète.

J'exposerai mon propos en quatre points asymétriques, incluant une sorte d'introduction et une sorte de conclusion, et je souhaite me placer à la périphérie du mot « obsolescence » plutôt que d'en prétendre découvrir sur-le-champ l'essence. D'un point de vue formel, comme d'habitude, on voudra souffrir une certaine sophistication et certaines ellipses que je ne sais ne réfréner.

1. La crise comme épistémè du monde moderne

Cette discussion avait d'abord pour cadre une réflexion plus générale sur l'idée et la réalité de « la crise » (Penser la crise, abécédaire, 2007) ; je dus préciser alors ce que j'y entendais.

J'avoue que la première chose qui me soit venue à l'esprit est le livre de l'historien Alain Demurger, Temps de crises, temps d'espoirs (1990) et son chapitre premier sur la peste noire « Crise et fausse sortie de crise (1347-1383) » ; j'ai également pensé à l'ouvrage collectif La crise (1985), titre repris en 2012 pour un numéro hors-série de la même revue Alternative Économiques.

Dans ces lignes, toutefois, avec force réduction, j'entendrai seulement trois choses concernant le thème de « la crise ».

krisisQuant à la première, je lui associe évidemment l'acception philosophique de la Krisis d'Edmond Husserl (1954) et ce à quoi elle renvoie : à la description husserlienne de la crise de « l'humanité européenne » et des sciences. Disons à une crise d'estime publique de la science et à cette « sorte de sentiment d'hostilité » des jeunes générations pour la science, selon le mot d'Husserl. (Les 474 pages sur la mentalité autocritique de l'Occident de La crise de la conscience européenne 1680-1715 de Paul Hazard, quoique malheureusement moins connues, date des mêmes années 30.) Hostilité diffuse des jeunes contre la science jusqu'à ce jour : je pense notamment aux mouvements romantiques de toute l'Europe du XIXe ou le triomphe des « valeurs imaginatives et sensibles » (Hazard, 1935), à tout Heidegger, à La science et la technique comme « idéologie » de Jürgen Habermas (1968) et, surtout, aux taux d'entrée de plus en plus faibles des universités scientifiques européennes.

criseannes30Quant à la seconde signification de « la crise », je lui associe sa traditionnelle dimension socio-économique ; lorsqu'on parle de la crise des années 30 et des deux grandes crises pétrolières. Mais l'histoire du capitalisme est un enchaînement de phases de croissance et de crises. (La période qui s'étend de 1952 à 1972 est alors exceptionnelle par la régularité et la vigueur de sa croissance. La « Belle Epoque » du capitalisme n'est donc pas celle de Toulouse-Lautrec, mais de l'automobile et la télé triomphantes, ainsi que de la « culture » produite et consommée de façon massive. Quand on les mesure en volume, c'est-à-dire une fois déduite la hausse des prix, production, productivité et capital investi par tête ont triplé en France au cours de ces vingt années.)

lieuuniqueQuant à la troisième acception du thème, de façon très circonstanciée, c'est-à-dire nantaise, le fait même que deux institutions hétérogènes, l'UFR de Philosophie de Nantes et l'espace culturel Lieu Unique, proposent un débat public pour Penser la crise et demandent à divers gens d'entendement d'en dresser l'inventaire, ce fait même a quelque chose de caractéristique de notre temps – phase haute d'une crise qui n'est concrète que du point de vue limitée de chaque observateur. En effet, « la crise » n'est pas la même selon que l'on se place dans les degrés élevés ou plus bas de l'échelle sociale ; pas la même pour les classes moyennes à la dérive (Chauvel, 2006) et leur déclassement systémique depuis 1955 (Chauvel, 2011), et pas la même pour les 1% d'américains qui détiennent le tiers des entreprises mondiales .

Le thème de « la crise », voire son « mythème » (grosse unité constitutive d'un mythe), est donc une caractéristique de notre temps post plan Marshall, post Trente Glorieuses, post URSS. En conséquence, pour les trentenaires et les plus jeunes de ce temps-ci, la crise de la société moderne est un épistémè , c'est-à-dire à la fois une habitude de langage et de représentation, voire un lieu et lot communs. Mais aussi, et surtout, la crise de la société moderne est la circonstance quotidienne de leur histoire toute personnelle. D'aucuns peuvent énoncer alors que « la crise est l'horizon indépassable de notre temps. ».

Mais, à ce moment très précis de l'histoire, l'horizon n'est plus un horizon, mais une fortification.

crisenerfÀ ce propos, qui, aujourd'hui, dans son quotidien moyen, n'a jamais fréquenté une incarnation-faite-homme de la crise sociale, c'est-à-dire la psychologie fragilisée d'une connaissance, d'un ami, d'un proche même ?

Je ne pouvais passer sous silence ces états de faiblesse qu'on appelle, de doux euphémismes, « crise de nerf », « bouffée délirante » et « psychose cannabique ». Et j'aurais pu décrire un nombre élevé de camarades dont la psychologie déstabilisée a, « sous la pression » – spécificité de la ville moderne, spécificité de la culture générale moderne, angoisse métaphysique et sociale, dangers atomique, toxique, bactériologique –, a basculé dans l'assuétude, les anxiolytiques, la folie plus ou moins passagère, la raideur ou le dogmatisme. Toute forme d'opium et de folklore (religion brisée, « braconnage religieux ») pour fuir, oublier, résister même. Le dernier Durkheim parlait d'« assiette mentale » (1912), Norbert Elias de « psychogenèse » (1975, 2010). Aujourd'hui, je renvoie à l'étude de François Sicot, Maladie mentale et pauvreté .

anomieLa crise est donc le lieu d'où nous parlons désormais. Tous les Christophe Dejours et Louis Chauvel nous l'ont promis. Elle se manifeste, en boucle réversive, aussi bien dans sa dimension matérielle (infrastructure), à la base de nos nourritures collectives et de nos systèmes de dépenses, que dans sa dimension idéelle de la morale et de la politique (superstructure), crise aux conditions d'apparition d'abord structurelles puis conjoncturelles, ce que Durkheim appelait « anomie », pour signifier le désenchantement et la « dissociation d'une totalité ». (Les phases d'anomie sont des phases de « dérèglements » sociaux croissants dans une société qui se transforme. L'anomie est un concept Janus à deux faces : l'une positive, l'autre négative. Elle pose que l'individualisme favorise l'autonomie des personnes, mais les fragilise, puisqu'elles sont moins solidaires, plus détachées les unes des autres, plus indépendantes. Grossièrement, l'anomie croît dans les sociétés à mesure que le fatalisme décroît. L'anomie est donc anxiogène. Et, en général, pour toute société donnée, l'ébranlement des fondements de celle-ci est anxiogène. Plus d'anomie veut donc dire, toujours, plus d'aléatoire social et, donc, plus d'inquiétude psychologique fasse à cette aléatoire. Grossièrement encore, l'anomie c'est le passage lent et historique, involontaire et collectif, d'une société « plus altruiste » à une société « plus égoïste » ; le passage, sourd et total, d'une société solidaire où tous se ressemblent et coopèrent sans mot dire à une autre forme de... « solidarité » où tous sont emportés dans un maelström de compétition et de distinction, où tous se critiquent sans cesse pour parfaire tant cette solidarité nouvelle que cette concurrence distinctive.)

2. L'obsolescence ou la critique de la positivité productive

accumulationDans les limites de ces seules acceptions, parler de l'obsolescence serait donc esquisser un propos sur la... matérialité de la crise de la rationalité européenne. J'ai bien écrit « esquisser », ajoutant un conditionnel. Ici, j'essayerai simplement de glisser quelques mots sur « l'esprit d'accumulation », qui est une culture, et sur « le capitalisme » qu'on ne peut concevoir que pluriel (Weber, Baechler), qui est une psychologie à la fois collective et privée ; et j'essayerai de parler, à demi-mot, du vieillissement et de « la fatigue d'être soi », rapports des choses et des êtres qui nous concernent tous et toutes.

Obsolescence donc – le mot est joli. Il sent l'obsession et l'essence. Avec ses douze lettres, on peut écrire « obscène ». Son synonyme est « désuétude » de la machine. Dans les thesaurus et les dictionnaires, mais peut-être pas dans le rythme journalier des échanges langagiers, le mot a conservé la définition de son usage latin. Cet usage manifestait déjà le fait, pour un objet, d'être « passé de mode, tombé en désuétude » et d'avoir perdu de la valeur. (La valeur que, comme La Rochefoucauld, je comprends comme honneur et mise en péril au combat.) Aujourd'hui, en langage soutenu nous dit-on, c'est, pour un objet, le « fait d'être périmé », et, en un langage spécialisé, d'« être dépassé par le seul fait de l'évolution technique ».

obsolescence1Ce qui revient et fait sens, c'est le fait brut de la mode et de la valeur technologiques, et l'inutilité inéluctable, termes qui ne décrivent pas la même chose, mais qui valent condamnation et renvoient immédiatement à la dépréciation sociale d'une machine ou d'un équipement (Heidegger). Périmé, l'appareil, le moteur ou le dispositif (Agamben, 2007), a été dépossédé de son actualité. En une formule barbare, l'obsolescence est le processus social et matériel qui rend « de plus en plus moins utile ». Dit autrement, l'obsolescence est à la machine moderne ce que la mode est à l'habillement de confection industrielle... L'obsolescence est fondamentalement l'expression renouvelée d'une critique du présent, sinon des traditions, un frottement contre les archaïsmes, une hâte festive d'en finir, de rendre ringard, de déclasser. Que veut dire ce déclassement ? Qu'est-ce donc que ce rapport total aux machines modernes et, peut-être, aux êtres ?

Pour avancer une réponse ramassée, je dirais que l'obsolescence décrit un rapport négatif critique à la dynamique de l'accumulation, que l'obsolescence décrit un rapport négatif critique à la positivité de la productivité.

obsolescenceprogrammeDans l'obsolescence programmée, comme disent les économistes, du machinal et du technologique, il y a comme le point final déjà conçu de ce qui se donne, non, mieux, se vend comme « nouveauté ». (Je fais intervenir le verbe « vendre » et la nécessité du renouveau incessant pour essayer, par résonance, de définir la modernité.) L'obsolescence est alors la ride profonde de toute nouveauté idéale et manufacturée. (A ce propos, dans notre économie politique, l'obsolescence est le jumeau opposé de l'innovation.) Elle décrit donc un rapport à la fois matériel et magique, comme disent les ethnologues, le rapport occidental à la fois matériel et magique de la productivité du travail face à l'inutilité. (L'obsolescence décrit donc « l'inutilité de tout », c'est-à-dire qu'elle frappe de son caractère évident à la fois la réalité et le fantasme de ce qui est productif et de ce qui ne l'est plus.)

obsolescence4L'obsolescence des machines, leur renouvellement continu et illimité, manifeste donc une caractéristique de notre mode de production ou dynamisme du capitalisme ou « éthique de la puissance » qui veut la puissance, c'est-à-dire la surpuissance (Heidegger) ; éthique qui carillonne, jour après jour, après l'actualité de la nouveauté, l'achèvement des choses et leur « faiblesse », faiblesse le plus souvent subjective-sociale que matérielle-réelle. (D'ailleurs, on le sait, la puissance ne souffre la faiblesse qu'à sa périphérie : dans les abîmes, les dépotoirs et les poubelles, dans les bidons villes et les bordels, les HLM et les banlieues. La puissance ne souffre les avatars de la faiblesse que pour savourer ses propriétés propres, par comparaison, distinction et élévation face à elle.) Lorsque l'objet a reçu le poinçon socialement infamant de l'inutilité, c'est alors qu'il a fait le tour de ses possibilités situées dans son espace-temps ; il peut s'éteindre, fatigué de ne plus être désiré ; nous n'en avons plus besoin, c'est-à-dire que nous ne le désirons plus sous la forme ou l'actualité qu'il possède-là.

Si, donc, du latin à la langue moderne, je m'en tenais à la définition étroite de l'obsolescence, je ne devrais traiter que de l'obsolescence de la machine-outil et de tous ces instruments en concurrence les uns avec les autres pour atteindre une plus grande productivité, un plus grand rapport à la surpuissance, avant de devenir inutile, dépassé.

Toutefois, grâce à un ami parisien, je pris connaissance de l'ouvrage L'obsolescence de l'homme (1956, rééd. 2002) de Günther Anders. En 1956, avant Guy Debord et Jacques Ellul, et en même temps que Martin Heidegger, Hannah Arendt et les derniers grands de l'Ecole de Francfort, Anders parlait de l'état naissant de notre assujettissement à la technologie.

obsolescenceandersQue dit principalement Anders ?

« C'est depuis des années un secret de Polichinelle qu'au début de la guerre de Corée, le général McArthur a proposé des mesures dont l'application aurait pu déclencher une troisième guerre mondiale. Tout le monde sait aussi qu'on lui a retiré le pouvoir de décider s'il fallait ou non prendre un tel risque. Ceux qui lui ont retiré cette responsabilité ne l'ont pas fait pour prendre eux-mêmes les décisions à sa place ou pour les confier à d'autres hommes politiquement, économiquement ou moralement qualifiés. Ils l'ont fait pour remettre le pouvoir de décider à un instrument (puisque le « dernier mot » doit être objectif et qu'on ne considère aujourd'hui comme « objectifs » que les jugements prononcés par des objets). Bref, on a confié la responsabilité suprême à un « electric brain », un cerveau électrique. On n'a pas retiré le pouvoir de décision à l'individu MacArthur, mais à MacArthur en tant qu'homme, et si on a préféré le cerveau-instrument au cerveau de MacArthur, ce n'est pas parce qu'on avait des raisons particulières de se méfier de l'intelligence de MacArthur mais parce qu'il n'avait, précisément, qu'un cerveau humain.

Dire qu'on lui a « retiré » sa responsabilité en tant qu'homme, c'est bien sûr employer une expression trompeuse. Car la puissance qui l'a privé de son pouvoir de décision n'était pas une instance surhumaine, ce n'était ni « Moïra » (le Destin), ni « Tyché » (la Fortune), ni « Dieu », ni l'« Histoire », mais c'était l'homme lui-même qui, dépouillant sa main gauche avec sa main droite, déposait son butin – sa conscience morale et sa liberté de décision – sur l'autel de la machine et montrait par cet acte qu'il se soumettait à celle-ci, à ce robot calculateur qu'il avait lui-même fabriqué et qu'il était prêt à considérer comme une conscience morale de substitution et une machine à oracles, bref une machine littéralement providentielle. En subordonnant le général à cet instrument, l'humanité s'est en quelque sorte portée atteinte à elle-même (car) celui qui transfère la responsabilité d'un homme à un instrument lui transfère aussi, par là même, la responsabilité de tous. En cette occasion, l'humanité s'est pour la première fois humiliée elle-même de façon significative et a ouvertement déclaré : « On ne peut pas compter sur nous puisque nous comptons plus mal que nos machines. Qu'on ne tienne donc pas "compte" de nous. » Elle n'a, pour la première fois, ressenti aucune honte d'avoir ouvertement honte. »

obsolescence5Pour ma part, si je crois savoir quoi penser du thème ou mythème « la Science », de cette fiction nécessaire pour penser la totalité des acquis, des propriétés et des dynamismes des connaissances humaines, je ne sais quoi penser de « la technologie » dont la définition anthropologique – « étude des activités entreprises par les hommes pour acquérir et transformer des éléments organiques et inorganiques du monde naturel. » – est si proche de celle de l'« arraisonnement » de Heidegger (« essence de la technique moderne »)... Si, comme l'écrit Jean Grou (2000), je crois savoir que l'économie politique « entretient d'étroites relations avec les sciences dures, parce que celles-ci se situent en amont de la technologie, sa discipline partenaire », je ne sais clairement et distinctement si Anders et tous ceux qui conspuent « la technique » ont raison de tant la maudire. (« Avoir raison » c'est-à-dire que la somme de leurs arguments est supérieur à la somme des faits et des possibilités de la technologie ou de l'arraisonnement.)

Certes, la société bourgeoise technique semble plus encore résider dans un procès de précipitation – mais n'est-ce pas la conséquence de la « conscience historicisée » dont parle Marcel Gauchet (1985) ? – plutôt qu'elle ne réalise une véritable accélération de l'Histoire (au sens de la « fiction hégélo-marxiste »).

marxaccelerationmondeÀ cet égard, je ne renvoie qu'aux seuls Marx et Derrida, critique non-marxiste de la pensée cohérente de Marx à ce sujet : l'accélération du monde, « et (de) tout ce qu'il y a dedans, Chico ! ». Car il y a visiblement, mais ma vue peut être mauvaise, précipitation et non accélération, notamment par la technique, de notre mode de penser et de notre mode de vie. (Autrement dit, plutôt avec Jared Diamond (2006) qu'avec Ulrich Beck (1990) et Hans Jonas (2001), je ne peux établir aucun bilan définitif sur la technique, ni faire aucun jugement, mais seulement « compter les points » et observer les usages sociopolitiques de la technique.)

Lorsque je parle de ce speed, accélération du spleen baudelairien, je ne pense pas qu'aux périodes de fièvre acheteuse des soldes et des files d'attente nocturnes pour acheter le dernier Harry Potter ; je pense à notre standard de vie post plan Marshall et aux modifications de perception de la réalité qu'il entraine, lui et son « technèlogos ». (Certes, il y a 2000 ans, Sénèque parlait déjà des « occupati ». Mais, à notre échelle d'observation et sur un large spectre, nous savons que la totalité des termes utilisés par L'école de Francfort, Heidegger et Anders, au moins, comme « artificialisation accélérée du monde et de ses représentations », « technoscience devenue autonome », « marchandises fantômes », « Spectacle », nous savons que tous ces termes renvoient toujours à la technique et à sa description philosophique, c'est-à-dire, plus ou moins directement, à une critique réglementaire « des propriétaires » de la science. Nous savons que l'artificialisation, le spectacle et la technoscience sont les termes désespérément critiques utilisés par la « contre idéologie » de l'« idéologie de la technicité », voire du Progrès européen. (Je veux rappeler que l'idéologie, selon les mots de Raymond Boudon, est « une doctrine reposant sur une argumentation scientifique et dotée d'une crédibilité excessive ou non fondée » (1985, p. 52).)

dechetselectroniquesJe pense à notre standard de vie post plan Marshall, disais-je, c'est-à-dire à l'imposition somme toute récente de la mécanique à tous les étages de la Culture et, surtout, au transport réel ou virtuel du monde objectif vers nos subjectivités, ainsi qu'au transport en commun de nos subjectivités vers un monde fantasmé/fantomal ; fantasmé/fantomal aux moyens d'une démographie d'imageries et d'électroniques illustrant, mais ne faisant que cela, la pseudo-proximité du Monde.

3. Le paradigme de l'androïde

ethiquemachineA travers le masque (africain) de l'obsolescence, nous discernons aussi l'aveu occidental d'un besoin de repos, sinon d'une issue reposante. Dans Aurore, Nietzsche parlait déjà de « l'humeur de la fête moderne », lorsque la puissance qui veut, un temps, retomber dans l'impuissance.

Je le répète : dans l'accumulation de l'obsolescence en acte gît la fatuité intrinsèque, mais non irrationnelle, de notre désir hyperbolique de productivité. Car nous savons qu'ici-bas il existe comme une « libido de l'emprise », une « pulsion culturelle de domination », pulsion actualisée et réactivée tous les jours par la technique occidentale et « l'esprit du capitalisme » – « esprit » que je ne saurais définir d'une façon anthropologique (Marx, Amin), mais régional (Weber, Baechler, Gauchet).

Par contraste, l'obsolescence renverrait donc à sa source principale : à l'éthique bourgeoise de l'efficacité (maximale), celle-ci demandant toujours plus rationnellement plus d'accumulation, de production, d'investissement productif, de circulation et de consommation. Il y a toutefois une spécificité géographique et historique de cette « éthique de la machine » (Genèse + Descartes + monde des usines + performance = éthique de la machine) : ce que l'éthique de la machine est est son aboutissement.

Finalement, la machine moderne parfaite ce serait l'homme tranquille de l'univers lockéen. metropolisMieux, l'homme parfait, l'homme idéal bourgeois, paradoxalement sans obsolescence ni achèvement, ce serait la machine pensante, le robot ou le paradigme de l'androïde ; ce que la science-fiction discute et critique depuis au moins la pièce R.U.R (Capek, 1921), le film Metropolis (Lang, 1930) et la littérature d'Isaac Asimov (1941). Après celui-ci, avec les mouvements (romantiques) pessimistes de la fin des années 60 et cyberpunk des années 70, voici le temps des descriptions apocalyptiques renvoyant toujours à des représentations et à des manières qu'à la société réelle de se penser (Durkheim, Gurvitch), le temps du Terminator (Cameron, 1984) et de l'enfant bionique d'Intelligence Artificielle (Spielberg, 2002), le temps de la Matrice des frères Wachowski (1999, 2003), et des représentations de l'obsolescence de l'homme, de sa finitude, de sa magnifique inutilité naturelle ; c'est-à-dire, paradoxalement, de son incommensurabilité. (Si, dans l'ordre de la pensée bourgeoise, il semble que le robot soit le nec plus ultra de la faculté de penser, sa vérité tranquille, heureusement, le diable de l'aléatoire est dans l'escalier et, heureusement, le « matérialisme aléatoire » (Althusser, 1982) habite à tous les étages : c'est la catastrophe, la krisis, l'accident... L'idéalisme bourgeois ne peut contenir la matière (la réalité) sur laquelle il vient se fracasser.)

4. Le nom du monde est forêt

foretSi l'Univers renfermait un quelconque « projet » ce serait aussi celui de son « obsolescence ». En effet, qu'on soit scientifique, philosophe, praticien des sciences sociales, dame cultivée ou gentilhomme, déterministe ou indéterministe, continuiste ou discontinuiste, à partir du mouvement de la conscience, qui se découvre elle-même, tous ces « gens d'entendement », comme dit Montaigne, arpentent le même chemin de l'inexorabilité, tous éprouvent les forces de l'inéluctabilité de la transformation des chairs, celle du Monde et la nôtre propre. Êtres sans Dieu, nous comprenons tous que l'éreintement guette la totalité des « projets » et adventurae de la Nature et de la Culture.

ursulaleguinAlors, si, du haut de mon savoir partiel (« s'avoir », « ça voir »...), je me risquais à parler du « point de vue de la Nature », j'avancerais que la Nature est buissonnement incessant qui « sonde » ses limites, que la Nature est recommencement peut être hyperbolique mais non infini, puisque l'infini est une aberration matérielle et logique . (Ursula Le Guin nous explique que Le nom du monde est forêt, 1972.) J'ajouterais que, bien qu'elle ne « veuille » rien, la Nature provoque comme sa propre perte, c'est-à-dire qu'elle produit et consomme des empires et des empires de possibles jusqu'à la disparition des protons ; une disparition qui surviendra des milliards d'années après celle de l'esprit (Islam, 1984).

maxweberMaintenant, si j'osais parler du « point de vue de la Culture », je me ferais aussitôt le rapporteur d'un remarquable passage de Max Weber. En 1917, celui-ci écrit : « la vie de l'individu civilisé, emporté par le « progrès », dans l'infini, ne devrait pas avoir de terme du point de vue de sa signification immanente propre. Car il y a toujours encore un progrès ultérieur à venir pour celui qui participe à ce progrès. Aucune personne, quand elle meurt, n'a atteint le sommet, lequel se trouve à l'infini. »

Quelques pages auparavant, il remarque : « l'individu ne peut s'assurer de réaliser quelque chose de véritablement et pleinement achevé dans le domaine scientifique que dans le cas de la plus rigoureuse spécialisation. (...) notre propre travail doit inévitablement rester inachevé. C'est uniquement grâce à une spécialisation rigoureuse que le travailleur scientifique peut effectivement atteindre la pleine certitude, une fois dans sa vie, et peut-être plus jamais, d'avoir accompli quelque chose qui durera ».

scientifiquehommeLe destin même du travail scientifique est, sans cesse, de devenir caduc. Et l'on sait depuis longtemps que la philosophie se prescrit de devenir scientifique... L'accomplissement scientifique, quels que soient les travaux, demande donc à être dépassé et à vieillir, à devenir obsolète. (Par conséquent, il y a comme la nécessité d'une « biomasse » de travaux moins utiles et moins précieux, plus ordinaires, pour que les conditions de possibilité d'une « grande théorie » voient le jour.) Tel est son fait et telle est sa loi. Il y a dans cette « révélation wébérienne », une humilité qu'on peut avoir du mal à supporter tous les jours. « Le progrès scientifique est un fragment, et le fragment le plus important, (du) procès (historique) d'intellectualisation » écrit encore Weber.

Ce procès d'intellectualisation (rationalisation) manifeste alors, à chacun de ses moments et à chacune de ses phases, l'obsolescence de tous les outillages de la Civilisation, machines-outils, théories-outils et, aussi, hommes fabricants d'outils.

David Morin-Ulmann

 

 

mutation technologique

Mutations technologiques et action publique - 2

L’action publique peine à prendre en compte les conséquences potentielles des mutations technologiques en cours sur les libertés individuelles, mais aussi sur l’égalité, la souveraineté et même l’avenir de l’homme, comme l’a illustré l’article précédent dans le domaine de la santé. Quelles solutions sont envisageables ?
Partie II : quelles solutions ?

L’espace politique face à la technique

La puissance publique s’amenuise à mesure que les États perdent le monopole de l’accès aux données et de leur régulation et que leurs capacités financières et techniques sont concurrencées, voire dépassées, par celles d’acteurs privés. La réaction sociale et politique est d’autant plus complexe à définir et plus exigeante que les « promesses » technologiques foisonnent, formulées par des acteurs aux statuts et aux ambitions divers.
 
La technicisation du monde a été décrite par Heidegger dans son discours Sérénité en 1955 : « Dans tous les domaines de l’existence, l’homme va se trouver de plus en plus étroitement cerné par les forces des appareils techniques et des automates. […] Ce qui, toutefois, est ici proprement inquiétant n’est pas que le monde se technicise complètement. Il est beaucoup plus inquiétant que l’homme ne soit pas préparé à cette transformation, que nous n’arrivions pas encore à nous expliquer valablement, par les moyens de la pensée méditante, avec ce qui, proprement, à notre époque, émerge à nos yeux. […] Aucune organisation purement humaine n’est en état de prendre en mains le gouvernement de notre époque »[1].
 
Nous ne suivons pas Heidegger dans cette dernière conclusion, trop radicale, non plus que sur le lien surprenant avec « l’enracinement des œuvres humaines dans une terre natale » qu’il évoque ensuite. Nous pensons en revanche le constat que les objets qui « émergent à nos yeux » méritent que « nous nous expliquions valablement, par les moyens de la pensée méditante » est applicable au contexte présent des technologies « NBIC ». Comme à l’âge de la bombe atomique qui marquait Heidegger, la société est frappée par une forme d’impuissance politique face à l’accélération des évolutions techniques. À l’âge de la bombe, c’était la crainte de l’apocalypse nucléaire qui menaçait le souci du futur, et donc l’espace politique. Aujourd’hui, c’est une idéologie désireuse de « vaincre la mort » et de simplifier la vie. Mais ces deux formes de menace de l’espace politique aux racines diamétralement opposées, crainte de destruction et fantasme d’éternité, sont-elles si différentes ?
 
Dans un monde où des entreprises décident d’évolutions déterminantes pour la société et où les États n’ont plus les moyens, voire le droit, de faire valoir l’intérêt général, l’espace démocratique est tout simplement déserté. Cette question est autrement plus grave et plus complexe que celle de la protection des données personnelles[2]. Et la tâche à accomplir est plus ardue encore que celle de restaurer un intérêt ou une volonté politique : elle est de restaurer la capacité même à agir dans un espace politique.
 
Pour autant, il serait à la fois irréaliste et pire que le mal d’en conclure que les États devraient « reprendre le contrôle » en nationalisant les entreprises à l’origine de ces changements ou en les censurant. Comme on l’a déjà noté en évoquant le récent contentieux entre Apple et le FBI, un contrôle accru par l’administration ne jouirait probablement pas non plus d’une grande légitimité. Quant à la Justice, elle manque de compétences et de moyens, elle est parfois démunie dans un cadre international, et ne peut qu’intervenir a posteriori.
 
Autre écueil, tout aussi terrible : la capture de l’espace public par la contestation militante. En effet, lorsque des questions liées aux mutations technologiques parviennent à être abordées dans l’espace public, c’est trop souvent sous la forme de mises en scène spectaculaires et d’oppositions (ou de défenses) idéologiques qui condamnent toute démarche politique constructive.
 
Citons de nouveau Sérénité de Heidegger : « Il serait insensé de donner l’assaut, tête baissée, au monde technique ; et ce serait faire preuve de vue courte que de vouloir condamner ce monde comme étant l’œuvre du diable. Nous dépendons des objets que la technique nous fournit et qui, pour ainsi dire, nous mettent en demeure de les perfectionner sans cesse. Toutefois, notre attachement aux choses techniques est maintenant si fort que nous sommes, à notre insu, devenus leurs esclaves. Mais nous pouvons nous y prendre autrement. Nous pouvons utiliser les choses techniques, nous en servir normalement, mais en même temps nous en libérer, de sorte qu’à tout moment nous conservions nos distances à leur égard. Nous pouvons faire usage des objets techniques comme il faut qu’on en use. Nous pouvons en même temps les laisser à eux-mêmes comme ne nous atteignant pas dans ce que nous avons de plus intime et de plus propre. Nous pouvons dire “oui” à l’emploi inévitable des objets techniques et nous pouvons en même temps lui dire “non”, en ce sens que nous les empêchions de nous accaparer et ainsi de fausser, brouiller et finalement vider notre être ».
 
Pour cela, nos attentes envers le pouvoir politique doivent être refondées. Pour que les innovations structurantes pour la société soient des objets de pensée et de choix collectif plutôt que des objets de consommation multipliés sans raison avant que le marché ne décide, les politiques doivent rendre ce choix collectif possible, et permettre, in fine, aux citoyens de définir des limites et de peser sur leur destin.

Articuler science, philosophie et politique

Il est tout d’abord nécessaire de repenser et de clarifier le rôle des scientifiques, des intellectuels et des politiques.
 
Comme l’écrivait il y a trente ans Ulrich Beck, « si l’on veut obtenir les conditions matérielles et institutionnelles nécessaires pour se payer “le luxe du doute” (baptisé “recherche fondamentale”), il faut être capable d’affirmer ses prétentions à la connaissance sur le marché, contre les groupes professionnels et les groupes profanes »[3]. Les sciences nous aident à définir le champ des possibles, à étudier les nuances du monde tel qu’il nous entoure et tel que nous le façonnons, en établissant et mettant à disposition les connaissances nécessaires. Leur ambition doit cependant rester modeste. « Leur but n’est pas d’ouvrir la porte à une sagesse infinie, mais de fermer la porte à une erreur infinie » rappelait Bertolt Brecht dans La vie de Galilée.
 
La connaissance scientifique permet de poser de manière rigoureuse les problèmes, elle est nécessaire à tout choix éclairé, elle peut (ou doit) conduire à lancer des alertes, mais elle ne doit pas prendre la place du discours politique : ainsi, lorsque les académies des sciences des pays du G7 et de pays partenaires proposent aux gouvernants de « promouvoir la modélisation du cerveau et l’intelligence artificielle » et d’« intégrer les acquis des neurosciences à ceux des sciences sociales et comportementales, afin d’améliorer l’éducation et les modes de vie », quand bien même ce serait « tout en engageant le dialogue sur l’éthique »[4], elles font, au service d’un but sans doute légitime (l’amélioration de l’éducation et des modes de vie), une proposition partisane (la promotion d’un type de solution) qui ne relève pas de la science.
Éviter la « confusion des arènes » (politique et scientifique) est une nécessité pour le bon fonctionnement du débat public, comme l’illustrent les dérives des « débats » sur le changement climatique. Pour les scientifiques, prendre un minimum de distance avec l’espace politique est même une condition d’exercice de la liberté académique. Pour autant, tout en se gardant d’intervenir en défense de propositions politiques, les scientifiques ont la responsabilité de fournir au plus grand nombre possible les connaissances disponibles, mais aussi d’apporter des nuances, d’identifier les risques et les effets collatéraux des techniques. « J’espère qu’à l’avenir vous prendrez autant en considération la durée et la substance que la méthode et la technique », écrivait Jonathan Swift[5].
 
On pourrait rétorquer que l’idéal des Lumières d’accomplissement de l’égalité à travers l’accès à la connaissance a peut-être été dépassé par les progrès de la technique : en effet, si les progrès des sciences et techniques étaient alors vus comme des moyens de « libérer » l’humanité de contraintes matérielles pour la rendre plus autonome et lui permettre d’accéder à une humanité plus haute, ils représentent peut-être au contraire aujourd’hui un obstacle à cet accomplissement. Cet idéal se heurte au foisonnement des innovations, à la bienveillance, proclamée ou sincère, de leurs promoteurs, à la croyance en leurs effets bénéfiques pour l’économie, à l’efficacité des services qu’elles permettent, aux attraits de la prolifération des interactions et des échanges, bref, à un « technoprogressisme » aveugle. C’est que pour renouer avec cet idéal, il faut aussi pourfendre l’idée que la culture se dresserait en obstacle à une égalité préexistante, et convoquer la philosophie, la littérature, toutes les sciences morales, qui sont aussi nécessaires pour appréhender les mutations technologiques et comprendre leurs conséquences potentielles, en particulier sur la liberté et l’égalité.

Une écologie politique étendue

Les politiques exercent leur légitimité sur un terrain différent des scientifiques et des intellectuels, non celui des connaissances, mais celui des usages.
 
Devant l’absence de solution offerte dans les structures institutionnelles existantes[6], il semble nécessaire d’inventer de nouvelles modalités de prise en charge sociétale et institutionnelle des usages des technologies, comme ceux que nous avons illustrés précédemment dans le domaine de la santé. Ces modalités devront gérer de nombreuses contradictions : entre principe de précaution et désir des patients, entre prolongement de l’espérance de vie et égalité d’accès aux traitements, entre aspiration à l’efficacité et libertés, etc.
 
 
On peut en appeler pour cela à une écologie politique « étendue » à des domaines autres que la protection de l’environnement, pour accompagner l’évolution des sciences et techniques, et assurer un contrepoids à une dynamique de « progrès » autonome. En effet, l’écologie politique au sens usuel vise à une meilleure intégration de l’homme dans l’environnement pour éviter le dérèglement de ce dernier. Hannah Arendt invitait déjà à penser les dérives du monde technique comme un métabolisme déréglé. Les évolutions décrites ci-dessus peuvent faire craindre un dérèglement non pas de l’environnement mais de certains équilibres de la société (comme celui du système de santé), et de la santé, voire de l’espèce humaine elle-même, sous l’effet de technologies couplées à la massification des données et à des fragilités politiques.
 
En un certain sens, une telle politique s’opposerait à une dynamique dite de progrès, et serait donc qualifiable de « conservatrice ». Les transhumanistes ou technoprogressistes s’opposent d’ailleurs souvent eux-mêmes aux « bioconservateurs ». Mais il s’agit d’une démarche de conservation d’une potentialité de développement et d’une complexité. Il conviendrait plutôt de parler d’une politique de préservation des possibles.
 
Il serait utile de réfléchir aux manières d’adapter le cadre institutionnel pour permettre une priorisation du long terme dans l’action publique et entreprendre une politique de préservation des possibles. Bruno Latour a suggéré une évolution des institutions autour des pouvoirs de « prise en compte », d’« ordonnancement » et de « suivi », ce dernier étant assuré par l’État, et de cycles de « perplexité », de « consultation », de « hiérarchie » et d’« institution »[7]. Bruno Latour nous rappelle que les objets que nous devons prendre en compte sont des objets fondamentalement hybrides, ni naturels ni culturels. Aussi, se fier aux « lois de la nature » n’a pas plus de sens que se fier à celles du marché, et une nouvelle « Constitution » doit être adoptée pour permettre de trier ces « quasi-objets »[8]. Les technologies évoquées plus haut dans le domaine de la santé relèvent pleinement de cette analyse.« La liberté est redéfinie comme une capacité de triage des combinaison d’hybrides […]. La production d’hybrides, en devenant explicite et collective, devient l’objet d’une démocratie élargie qui en règle ou ralentit la cadence »[9].

Et dès maintenant ?

En l’absence de réforme institutionnelle et dans le contexte actuel en France, l’administration doit s’efforcer de coordonner les initiatives visant à une meilleure définition des usages des technologies et favoriser la prise en compte des technologies émergentes dans l’action publique.
 
Le Conseil d’État a proposé dans son rapport annuel 2011 une évolution d’une administration consultative à une « administration délibérative ». Cependant, le recours est trop fréquent à des évolutions réglementaires par petits pas, trop catégorielles, qui peinent à être articulées, sont sans cesse en retard sur les évolutions technologiques et la jurisprudence et présentent un risque fort de dérive formelle ou de capture par les lobbies. L’administration subit une perte de sens de ses missions historiques, et la recherche « de bonne foi » d’amélioration est très difficile. La question peut se poser de savoir qui est le mieux placé entre le pouvoir exécutif et le pouvoir législatif pour mener à bien un travail dans ce sens. L’Office parlementaire d’évaluation des choix scientifiques et technologiques aurait une légitimité forte pour cela, mais il devrait s’adosser sur une structure d’animation et d’évaluation nourrie par les travaux issus des administrations, du monde académique et de la société civile. Certaines autorités indépendantes disposent aussi d’atouts pour porter des messages affranchis du temps court et des barrières partisanes des politiques : la CNDP pour favoriser le débat public, le CCNE pour nourrir et diffuser les questionnements éthiques[10], la CNIL vu la place centrale des questions liées à l’utilisation de données, l’AFLD dans les domaines du dopage génétique et de la médecine d’amélioration, la HAS pour l’évaluation et la prospective des technologies de santé… Elles font cependant face aux mêmes difficultés que les politiques pour faire entendre ces messages (communication portée par des événements, laissant peu de place à la complexité), et n’ont pas de mandat ni de poids politique.
 
Des collaborations renforcées entre des équipes compétentes en traitement des données, en sécurité informatique, en statistiques, et des domaines comme la santé, les transports ou l’éducation, pourrait aider à construire une vision des big data tournée vers l’intérêt général et une régulation adaptée. Cela implique notamment de développer des filières d’enseignement supérieur adaptées. Dans son essai À quoi rêvent les algorithmes, Dominique Cardon explique et catégorise les risques que présente l’abandon de certaines décisions à des algorithmes, et conclut à la nécessité de rendre ces algorithmes lisibles, critiquables, d’en faire des objets de questionnement, de contestation, de régulation[11]. Cela rejoint certaines propositions formulées dans l’étude annuelle 2014 du Conseil d’État de promouvoir le droit à l’« autodétermination informationnelle », d’obliger les plateformes à informer sur les critères de classement et de référencement et les auteurs de décisions s’appuyant sur des algorithmes à informer sur les données utilisées et le raisonnement suivi ou de mettre en place des contrôles des algorithmes et des différenciations des prix reposant sur l’utilisation de données personnelles[12]. Au-delà des seuls algorithmes, la mise en place de dispositifs d’évaluation des outils et dispositifs et de mise en lumière des conséquences des usages est nécessaire
 
Renforcer la prévention des conflits d’intérêt, le contrôle de concurrence et la régulation fiscale des entreprises collectant, traitant et utilisant des données, interdire certains usages discriminants des données de santé, en particulier par les assureurs, créer des structures à but non lucratif hébergées en Europe, sont d’autres pistes d’actions qui pourraient facilement être mises en œuvre dans le contexte actuel. Dans le domaine du vivant, la non brevetabilité et la réversibilité des transformations du vivant pourraient figurer parmi les critères pratiques de « triage » à retenir.
 
Des garanties simples doivent avant tout être données. Comme le rappelle Jean-Claude Ameisen, « le processus de “choix libre et informé” est au cœur de la démarche éthique biomédicale. Il est aussi essentiel à la vie démocratique »[13]. La garantie d’un choix libre et informé en matière d’usage des technologies, informé tant des conditions techniques que des conséquences sociales ou politiques possibles, libre car nuancé ; le droit à ne pas tout devoir mesurer ou partager de ses comportements ; l’écoute des silencieux et des abstentionnistes du monde numérique, doivent primer sur la recherche à tout prix d’innovation et de simplification.
 
Tout cela gagnerait bien entendu à être pensé et développé à l’échelle européenne. Bâtir une vision alternative du progrès (technique et social), un modèle plus humain et plus juste d’usage des technologies, mettre en place des institutions démocratiques en mesure de gérer des problèmes de long terme et de servir cette vision du progrès, serait peut-être un défi à la hauteur du besoin de recréer une aventure commune en Europe.
 
Ambroise Pascal, Ingénieur des Ponts, des eaux et des forêts - Actuellement en poste à l'Autorité de sûreté nucléaire
Le contenu de cet article n'engage que son auteur
 
 
[1]Discours repris dans Questions III et IV, Collection Tel (n° 172), Gallimard, 1990.
[2]Dans un bref essai en réaction à un épisode de l’actualité américaine, l’écrivain américain Jonathan Franzen a récusé les alertes de ceux qui s’inquiètent de la disparition de la vie privée, qui a au contraire envahi l’espace public, dont la survie est menacée : Imperial Bedroom, 1998 (in How to be Alone, Picador, 2003).
[3]La société du risque. Sur la voie d’une autre modernité, Champs essais, 1986 (p. 357).
[4]Les trois défis mondiaux reconnus par les Académies des sciences du G7, Up’ magazine, 25 avril 2017 (lien).
[5]Jonathan Swift, Récit complet et véridique de la bataille qui se fit vendredi dernier entre les livres anciens et modernes en la bibliothèque Saint-James, Les Belles Lettres, 1993.
[6]On peut saluer des démarches comme la réflexion sur le Big Data en Santé lancée par le gouvernement en septembre 2015 et la consultation publique associée sur http://www.faire-simple.gouv.fr/bigdatasante, ou celle sur l’élaboration du projet de loi pour une République numérique (https://www.republique-numerique.fr), mais elles restent insuffisantes à créer une véritable appropriation politique et médiatique.
[7]Bruno Latour, Politiques de la nature. Comment faire entrer les sciences en démocratie, La Découverte, 1999.
[8]Bruno Latour, Nous n’avons jamais été modernes. Essai d’anthropologie symétrique, La Découverte, 1991.
[9]Bruno Latour, Nous n’avons jamais été modernes…, op. cit. (p. 193).
[10]Ainsi que les nombreuses autres instances de réflexion éthique : comité d’éthique de l’INSERM, COERLE (comité opérationnel d’évaluation des risques légaux et éthiques de l’INRIA), CERNA (commission de réflexion sur l’éthique de la recherche en sciences et technologies numériques de l’alliance de recherche Allistene)…
[11]Dominique Cardon, À quoi rêvent les algorithmes. Nos vies à l’heure des big data, Seuil, La République des idées, 2015.
[12]Conseil d’État, Le numérique et les droits fondamentaux, étude annuelle, La documentation Française, septembre 2014. Les propositions citées ici portent les numéros 1, 6, 24, 25 et 27.
[13]Éthique : chacun doit avoir les éléments pour un choix libre et informé, La Recherche, n°473, février 2013 (lien).
 
 

 

mutation technologique

Mutations technologiques et action publique - 1

Qu’elles soient déjà intégrées à notre quotidien ou qu’elles relèvent encore de la science-fiction, les mutations technologiques façonnent notre rapport au monde. Pourtant, l’action publique peine à prendre en compte leurs conséquences potentielles, sur les libertés individuelles, mais aussi sur l’égalité, la souveraineté et même l’avenir de l’homme. Aux frontières de la santé et du numérique, certains sujets sont particulièrement sensibles.
Partie 1 : mutations technologiques en santé et risques pour la société
 
« Nous prétendons vivre dans une “société de la connaissance”, mais il serait certainement plus juste de dire que nous vivons dans une société de l’usage de la technologie ». Ce constatd’Étienne Klein[1] met en exergue nos usages quotidiens de produits d’une grande complexité technique, tout en ignorant tout de ce qui les rend possibles.
A cette familiarité des usages et à cette « étrangeté » aux fondements scientifiques des technologies, s’ajoutent (à quelques exceptions près, comme sur les OGM), une impuissance politique et un aveuglement moral à leurs conséquences, alors même que les mutations technologiques ont un rôle déterminant dans nos modes de vie et nos relations au monde et à autrui.
 
Les usages des technologies sont guidés par le « jeu » de l’offre et de la demande. Bien qu’il repose sur l’expression de préférences individuelles, l’ordre qui en découle n’est pas démocratique, car il ne passe pas par la définition collective d’objectifs. Il n’est d’ailleurs pas de nature politique, précisément parce qu’il ne fait qu’agréger des préférences individuelles, faisant fi de l’espace commun entre les hommes qui fait le politique. Cet ordre est enfin, sous l’effet de la révolution numérique, de portée internationale, presque hors d’atteinte des règles nationales, et représente pour les États une perte de souveraineté non consentie collectivement.
 
S. Escher, Escalier

Familiarité des usages, étrangeté à la science, impuissance politique et aveuglement moral

On comprend donc que la question de l’usage des technologies ne soit pas une préoccupation centrale du débat politique, si ce n’est comme levier supposé de création d’emploi et de valeur. Cette forme d’impuissance du politique n’est certes pas propre aux questions technologiques, et existe sur bien des sujets de long terme ou touchés par la mondialisation. Il n’en est pas moins nécessaire d’anticiper, orienter, le cas échéant prévenir et dans tous les cas prendre en compte collectivement, de manière réfléchie et délibérée, les nouveaux usages des technologies pouvant transformer la société.
 
Enfin, certains usages des technologies ne posent pas seulement des problèmes politiques, mais aussi des problèmes moraux. Le recul critique nécessaire à la construction de choix de société éclairés est d’autant plus difficile à conquérir que l’innovation est souvent considérée comme une fin en soi. Pourtant, tout en étant de plus en plus complexes, les technologies font disparaître ou rendent invisibles des intermédiaires, servent l’homogénéisation des comportements, l’automatisation des tâches, bref, simplifient la vie, ce qui véhicule implicitement certaines valeurs. Des évolutions de la société semblent advenir d’elles-mêmes, sans attendre les choix démocratiques ni les réflexions éthiques.
 
Nous nous intéresserons ici essentiellement au domaine de la santé. Dans ce secteur comme dans d’autres, des transports aux télécommunications, de la sécurité à l’éducation, les mutations technologiques présentent bien entendu de nombreux aspects bénéfiques. Mais elles ont la particularité de mêler les sciences du vivant aux technologies, notamment numériques, d’où naissent une complexité et des risques particuliers pour le corps humain, l’environnement et la société. Touchant intimement chacun d’entre nous, la santé est sans doute le domaine dans lequel l’aspiration au progrès est la plus évidente, la plus inattaquable, et donc celui dont la prise en charge est la plus exigeante politiquement et les promesses les plus aveuglantes moralement.

Nouveaux fronts des mutations technologiques dans le domaine de la santé

Entrons en matière en donnant quelques exemples de mutations en cours dans le domaine de la santé :
-       tendance à l’enregistrement et au partage généralisés de données (courant du « quantified self », santé mobile ou « m-santé »), grâce à l’« informatique vestimentaire », aux déjà familiers bracelets connectés et applications mesurant l’activité sportive, les cycles du sommeil, le rythme cardiaque, la consommation alimentaire ou le taux d’alcoolémie[2] ;
-       naissance d’une médecine implantée (par exemple, partenariats entre Google et Novartis et Sanofi pour développer des lentilles de contact mesurant la glycémie et lutter contre le diabète[3], puces de l’entreprise Microchips Biotech délivrant des médicaments directement dans l’organisme, tissu cardiaque combinant des éléments organiques et électroniques développé à l’université de Tel-Aviv[4]…) ;
-       accès à peu de frais au séquençage et au décryptage de son ADN (par exemple par l’entreprise 23andMe) puis à son partage (par exemple sur le réseau social « OpenSNP ») ;
-       perspectives d’amélioration des performances physiques par des prothèses technologiques[5] ;
-       tentatives d’amélioration des performances sensorielles ou intellectuelles (lunettes à réalité augmentée, prothèses mnésiques plus ou moins élaborées[6], programmes de stimulation ou interfaçage du cerveau de la « Brain Initiative » de la DARPA, l’agence de recherche de l’armée américaine…) ;
-       thérapie génique (en 2015, des scientifiques chinois ont annoncé avoir réussi à supprimer sur un embryon un gène responsable de la bêta-thalassémie ; le Royaume-Uni a quant à lui autorisé des techniques de fécondation in vitro utilisant l’ADN de trois parents pour le traitement des maladies mitochondriales sévères)[7] et ses possibles dérives, du dopage génétique aux pratiques eugénistes.
 
 
Certes, une partie de ces exemples relève peut-être de la science-fiction : l’amélioration du corps par des prothèses, alors que la réparation n’est elle-même pas à qualités équivalentes (des fonctions restent non couvertes[8]) ; la convergence « NBIC » (technologies nano, bio, informatiques et cognitives) et certaines visées transhumanistes, qui se prêtent aux fantasmes et aux titres à sensation ; les promesses de reconstitution informatique du cerveau ou certaines perspectives d’« édition génétique », régulièrement dénoncés comme des supercheries[9]. Parmi les exemples cités, seuls les objets connectés appartiennent déjà au quotidien. Nul ne sait quelles technologies d’interfaçage cerveau-machines, quels tests de sélection d’embryons, quels projets d’« amélioration » de la « Singularity University », du Google X Lab ou de la DARPA verront le jour et se diffuseront à grande échelle. Des barrières infranchissables par la technique existent sans doute. Les inquiétudes sont alors aussi infondées que les promesses sont exagérées[10].
 
Il n’en demeure pas moins que de nombreux services sont déjà disponibles, en particulier de quantified self ». Dans le domaine de la réalité augmentée, la popularité du jeu « Pokémon Go » ne prépare-t-elle pas la diffusion des lunettes, casques et écrans à réalité augmentée ? De premières jurisprudences donnent également quelques signes tangibles, du jugement du tribunal arbitral du sport permettant à Oscar Pistorius de concourir comme athlète valide aux Jeux olympiques de Pékin en 2008 à la décision des autorités britanniques d’autoriser l’artiste daltonien Neil Harbisson à porter son « eyeborg » sur ses papiers d’identité[11] en passant par celle du Conseil d’État d’interdire le recours à un système de « téléobservance » pour conditionner la prise en charge d’un traitement de l’apnée du sommeil, qu’avait prévu l’Assurance maladie[12].

Pistes d’explication

Au-delà des avancées scientifiques qui permettent ces mutations, ce sont des évolutions des comportements et des rapports à la technologie et à la santé qui fournissent un terrain fertile à leur déploiement :
-       se tourner vers la technique semble offrir une solution de facilité à des problèmes de société (du changement climatique à la sécurité et à l’éducation, l’idée est répandue que des moyens technologiques pourraient apporter des réponses à des questions en réalité politiques[13] ; la santé n’y échappe pas) ;
-       le recours aux technologies dans les domaines de la santé et de l’environnement conduit à une intrication des risques naturels, sanitaires et technologiques, ces derniers atteignant une ampleur inédite, rendant d’autant plus légitime une intervention technologique « curative », et ainsi de suite ;
-       la société s’accoutume au partage de données comme monnaie d’échange de services, sous une forte pression sociale et économique pour mettre en place des outils plus efficaces ;
-       l’aspiration à la santé s’élargit à une aspiration au bien-être[14] (voire se limite à elle, pour les bien-portants, grâce à la réduction de la souffrance permise par les progrès de la médecine), favorisant une conception non uniquement réparatrice mais aussi amélioratrice de la santé, et légitimant la modification de comportements quotidiens sous un contrôle externe pas nécessairement médical (bracelets connectés, mais aussi réseaux sociaux). Pascal Bruckner diagnostique que « “le droit à la santé pour tous” s’est transformé en angoisse collective, la conquête sociale s’est muée en droit à consommer pour éviter de tomber malade »[15] ;
-       l’accoutumance à la mesure des performances, physiques mais aussi psychiques, et à la confrontation entre hommes et machines (des médiatiques parties d’échecs et de go aux caisses automatiques de nos supermarchés en passant par les « bots », ces robots qui occupent déjà une place majoritaire sur Internet[16]…) pourrait conduire, comme le suggère Pierre Cassou-Noguès, à une évolution de notre perception de la pensée, d’une notion analogue à la douleur (intuitive et personnelle) vers une notion analogue à la fièvre (mesurable, détectable par un tiers à l’aide d’outils)[17] ;
-       dans le prolongement de cette aspiration à la performance, l’imaginaire collectif semble marqué par un certain culte de la « forme » et même une certaine idéalisation de l’homme et de la nature « augmentés » (que l’on pense aux publicités pour le parfum « Amen » de Thierry Mugler ou aux affiches d’HSBC faisant apparaître des poissons à code-barres ou des abeilles bioniques sous des slogans enthousiastes).
 

Des conséquences

Affirmons-le sans détour : le fait que des évolutions technologiques puissent modifier la nature de certaines activités ou remettre en cause leur organisation sociale n’est pas un problème en soi. Les mutations technologiques ont toujours rencontré des oppositions pour ces seuls motifs, dont l’histoire a rarement conclu au bien-fondé. Le problème vient de ce que certaines évolutions entraînent un glissement des finalités de ces activités ou des valeurs ayant conduit à leur organisation, et de ce que les acteurs qui mettent en œuvre ces changements disposent aujourd’hui de moyens considérables et agissent en dehors du terrain politique et d’un contrôle démocratique, avec des objectifs mercantiles et parfois idéologiques.
 
Nous distinguons des conséquences sur les libertés individuelles, sur la souveraineté, sur l’égalité et sur l’avenir de l’espèce humaine.
 
Sur les libertés individuelles
 
Un point commun de plusieurs services décrits ci-dessus est le rôle central de la collecte et du traitement massif de données. Les « GAFA » (Google, Amazon, Facebook, Apple) donnent accès à d’autant plus de services qu’on leur cède de données : beaucoup ne sont accessibles qu’aux personnes qui acceptent de s’identifier, de synchroniser ou partager leurs données, d’être géolocalisées, etc. Leur modèle économique, qui se répand, repose sur la gratuité en échange d’un consentement à fournir des données destinées à une exploitation commerciale. Comme le dit le critique Geert Lovink, « L’anonymat n’est plus qu’une notion nostalgique »[18].
 
 
Ce traitement massif des données couplé à l’usage de certaines technologies est porteur de risques pour les libertés individuelles : risques d’exploitation commerciale illégitime, de détournement incontrôlé ou de vol, de récupération à des fins de chantage, de harcèlement ou de discriminations, voire de dérives autoritaires. Cet aspect est régulièrement évoqué[19], aussi ne nous y attardons-nous pas. Aborder ces risques sous le seul angle de la protection des libertés individuelles élude les questions véritablement politiques, c’est-à-dire celles qui se posent non pas aux individus mais au collectif.
 
Sur la souveraineté
 
L’accès à des données innombrables et à de puissants algorithmes ouvre la possibilité que des services soient proposés par des entreprises, voire des particuliers, dans des domaines dont la puissance publique avait jusqu’à présent le monopole. Par certains aspects, on peut s’en réjouir, et on ne peut en tous cas reprocher à personne de proposer des services nouveaux. D’autres aspects sont plus préoccupants.
 
Dans le domaine de la santé, l’émergence de la médecine personnalisée et connectée s’accompagne d’un transfert de pouvoir de l’État, responsable du système de santé et de sécurité sociale, vers les gestionnaires de données, et des médecins vers des opérateurs privés. L’organisme national de santé publique britannique, le NHS, a récemment confié à une filiale de Google spécialisée dans l’intelligence artificielle le traitement de données concernant 1,6 millions de patients[20]. La Cour des comptes a noté dans un récent rapport qu’au Royaume-Uni « la question de [l’]ouverture [des données médicales] au secteur privé est essentiellement abordée sous l’angle de l’innovation, de la compétitivité de pays et de la rentabilité des investissements ». Le même rapport note qu’aux États-Unis, « l’ambition des grandes firmes informatiques est désormais de gérer elles-mêmes les dossiers médicaux personnels de milliards d’usagers à travers le monde, en se finançant par l’exploitation commerciale de leur contenu »[21]. C’est en ceci que l’ordre de l’offre et de la demande dont relèvent ces évolutions technologiques conduit à une perte de souveraineté, y compris pour les États où ces entreprises ont leur siège. On peut d’ailleurs noter qu’il existe des liens étroits, du moins aux États-Unis, entre les mouvements transhumaniste et libertarien[22]. Tous deux sont favorables à la libéralisation des usages des données, car pour eux l’État constitue une entrave à l’épanouissement d’une société libre.
 
 
On assiste par ailleurs à une substitution de la loi par le contrat dans des domaines comme le droit du travail ou le commerce international, ce qui affaiblit le poids des règles définies démocratiquement et le pouvoir judiciaire. Le recours à l’arbitrage privé dans les litiges entre multinationales et États est envisagé dans les négociations sur le traité « TAFTA » et le « Privacy Shield » entre les États-Unis et l’Union européenne. Le fonctionnement de ces instances est opaque et miné par les conflits d’intérêts (comme l’illustre l’annonce, dans le cadre de ces négociations, que la sous-secrétaire d’État américaine Catherine Novelli, ex-directrice des relations publiques d’Apple, assurerait les fonctions de médiatrice en charge d’examiner les plaintes[23]).
 
Le récent contentieux entre Apple et le FBI au sujet de l’accès aux données d’un téléphone portable dans le cadre d’une enquête a enfin révélé que les États n’étaient plus perçus par tous comme jouissant d’une légitimité supérieure aux entreprises pour être garants des libertés individuelles.
 
Sur l’égalité
 
Le plus dangereux pour la société n’est peut-être pas tant l’usage irrégulier de données ou leur accaparement par des régimes autoritaires ou des « pirates » mal intentionnés, que la servitude volontaire de la population à des entreprises mettant des produits sur le marché à grand renfort de marketing. Un certain climat idéologique couplé à des incitations économiques données par des opérateurs privés, voire reprises par des services publics en mal de moyens, peut conduire à des inégalités accrues.
 
Ainsi, des compagnies d’assurance ou des entreprises offrent des avantages aux personnes qui acceptent de porter un bracelet connecté pour contrôler leur activité physique[24]. En Allemagne, les caisses d’assurance maladie collecteront et utiliseront prochainement les données issues des bracelets connectés[25]. On a cité plus haut, le projet de l’Assurance Maladie française de recourir à un système de « téléobservance » pour conditionner la prise en charge d’un traitement. Plusieurs organismes de prêt recourent aux données disponibles sur les réseaux sociaux pour évaluer la solvabilité de leurs clients[26]. La CNIL souligne que « le scénario dans lequel une assurance santé ou une mutuelle conditionnerait l’obtention d'un tarif avantageux à l’accomplissement d’un certain nombre d’activités physiques, chiffres à l’appui, se dessine. Dans les années à venir, les individus pourraient être priés d’apporter les preuves d’un comportement sain, sur le modèle de l’“usage-based insurance” »[27]. Refuser d’entrer dans un tel système ne sera possible qu’à ceux qui auront des moyens suffisants[28], et encore à condition que des alternatives soient toujours offertes, ce qui n’est pas garanti dans un univers concurrentiel.
 
Le fait que de nombreuses personnes adhèrent spontanément à certaines évolutions, pas plus que la mise en place de comités d’éthique ou de réflexion chez les promoteurs d’innovations (par exemple le « Brandeis Program » de la DARPA ou le comité d’éthique de Google[29]), ne dispense d’une prise en charge collective par une représentation politique. La seule protection des données et de la vie privées ne suffirait d’ailleurs pas à endiguer les risques que font courir ces usages sur l’égalité d’accès au système de santé et plus généralement aux services publics.
 
Sur l’avenir de l’espèce humaine
 
Imaginer une société dans laquelle un suivi de l’activité physique deviendrait obligatoire, dans laquelle l’accès à services courants passerait par la pose d’implants, dans laquelle des embryons seraient sélectionnés pour leur résistance à une maladie[30], pose déjà toutes sortes de questions juridiques et politiques. Imaginer une telle société, accoutumée à la mesure de tout, guidée par une idéologie de la performance, peinant ou renonçant à définir des limites à l’hybridation du vivant et de la technique[31] et se soumettant à une forme de servitude volontaire, pose aussi des questions plus fondamentales sur l’avenir de l’espèce humaine[32].
 
Des entreprises affichent sans complexe leur ambition de changer le monde. Google incarne le projet d’amélioration de l’espèce humaine et de la société par la technologie. L’entreprise a lancé sa filiale Calico avec l’objectif de « vaincre la mort »[33]. Avec un sens de l’annonce moins marqué, le leader français de la santé connectée Withings, tout juste racheté par la division technologique de Nokia (basée en Californie)[34], affiche sa volonté de permettre à chacun de changer sa relation à la santé, de vivre plus sainement et plus longtemps.
 
Les progrès du diagnostic prénatal et préimplantatoire (DPI) ont rendu réel le risque d’eugénisme : s’ils ont eu des bénéfices incontestables, ils ont aussi ouvert la possibilité « de la sélection d’embryons et la destruction de ceux qui sont atteints », comme le soulignait le Comité consultatif national d’éthique dans un avis de 2009[35]. Le CCNE notait également que certains« usages du DPI constituent des formes de dévoiement de la médecine, sa réduction à une ingénierie biologique » et que « Si de tels tests [réalisés sur l’ADN embryonnaire à partir du sang de la femme enceinte] étaient disponibles auprès d’officines privées commercialisant leur technologie par voie électronique, il serait possible d’envisager qu’un choix des couples soit élaboré en l’absence d’une information médicalement appropriée et de modérateurs extérieurs. C’est à la mise en place d’un véritable tourisme prédictif que nous assisterions alors, avec une clientèle composée de couples seuls et désemparés face à des tests non validés. » L’emploi du conditionnel, encore de rigueur en 2009, l’est beaucoup moins aujourd’hui avec l’apparition de services privés bon marché de séquençage, de décryptage et de partage de son ADN tels que ceux mentionnés plus haut.
 
En l’absence de réflexion suffisante, de réglementation et de contrôle efficaces, des « améliorations » ou extensions du corps humain donnant la possibilité de limiter le vieillissement de certains organes, de les « améliorer » (par exemple pour voir dans l’infrarouge) ou simplement, de manière plus terre-à-terre, de réduire ses dépenses de santé et celles de la collectivité, finiront par représenter un tel avantage économique ou social qu’elles se répandront.
 
A force de vouloir se simplifier la vie, on pourrait bien finir par se simplifier tout court[36]. Le dépassement de l’homme par la machine est peut-être illusoire, sauf si les hommes font la moitié du chemin. En souscrivant aux promesses de simplification ou de progrès que nous apportent certaines mutations technologiques, l’on souscrit aussi, même tacitement, à un projet de société. Mais Comme le remarque Pierre Manent, « en repoussant sans cesse les limites, on arrive à un point où l’on cesse d’améliorer la vie »[37].
 
Ambroise Pascal, Ingénieur des Ponts, des eaux et des forêts. 
Ambroise Pascal est polytechnicien, ingénieur des ponts, des eaux et des forêts. Après une spécialisation dans la gestion des risques alimentaires, sanitaires et environnementaux et un passage à l’Institut de radioprotection et de sûreté nucléaire (IRSN) au sein du laboratoire d’analyse économique des risques nucléaires, il a occupé deux postes à l'Autorité de sûreté nucléaire (ASN), d'abord en charge du bureau de la radioprotection, de l'environnement et de l'inspection du travail à la direction des centrales nucléaires, puis en tant que directeur de cabinet du directeur général. 
Le contenu de cet article n'engage que son auteur
 
 
[1]Étienne Klein, Le small bang des nanotechnologies, Odile Jacob, 2011 (p. 107).
[2]L’article suivant donne un exemple hors du champ sanitaire : ce bracelet délivrant des décharges électriques quand votre compte bancaire passe à découvert : Ces bracelets connectés qui veulent nous tenir en laisse, Up’ magazine, 25 mai 2016 (lien).
[3]Lutte contre le diabète : Sanofi et Google s’allient, Les Échos, 31 août 2015 (lien).
[4]Un patch cardiaque cyborg pour réparer les cœurs, Up’ magazine, 21 mars 2016 (lien).
[5]Plus intéressant encore que le cas médiatisé d’Oscar Pistorius, celui de Danielle Bradshaw qui, privée d’une jambe, souhaitait se faire amputer de la seconde afin de bénéficier de prothèses des deux côtés :‘Cut off my foot so I can run faster’: Sporty teenager who had one limb amputated for medical reasons now wants the OTHER one removed, Daily Mail Online, 18 septembre 2014 (lien).
[6]Memory Implants: A maverick neuroscientist believes he has deciphered the code by which the brain forms long-term memories, MIT Technology Review, avril 2013 (lien). Voir aussi la présentation d’Élisabeth Métais, du Conservatoire national des Arts et Métiers (lien) et Sixième sens : percevoir l’infrarouge grâce à une neuroprothèse, Futura-Sciences, 15 février 2013 (lien).
[7]Voir les articles de Laurent Alexandre : Pourquoi l’autorisation de la modification génétique d’un embryon humain par la Grande-Bretagne n’est ni une première, ni le pire de ce qu’on pourrait faire (et qu’on fera très bientôt), Atlantico, 2 février 2016 (lien) et Pourquoi les Chinois n’écouteront pas les Occidentaux sur les modifications génétiques des embryons qu’ils ont décidé d’expérimenter, Atlantico, 3 juillet 2015 (lien).
[8]Regarder l’ouverture de la coupe du monde de football 2014 par un paraplégique équipé d’un exosquelette, aussi remarquable cela soit-il, suffit à se convaincre que des fonctions restent non « réparées ». Cela n’exclut pas la possibilité d’améliorer d’autres fonctions.
[9]God’s Red Pencil? CRISPR and The Three Myths of Precise Genome Editing, Independent Science News, 25 avril 2016 (lien).
[10]Voir Nik Brown : Hope Against Hype – Accountability in Biopasts, Presents and Futures, Science Studies 16(2): 3-21 (lien).
[11]Neil Harbisson, le premier cyborg avec un passeport, Europe1.fr, 17 mars 2014 (lien).
[12]Conseil national de l’Ordre des médecins, Santé connectée. De la e-santéà la santé connectée, livre blanc, janvier 2015 (lien).
[13]Sur le changement climatique, on lira avec profit l’article suivant qui diagnostique un « schisme entre la réalité du monde et l’évolution de la gouvernance » et une triple illusion « de la possibilité d’une gestion apolitique », « de la possibilité d’une gestion isolée du problème » et « de pouvoir mener l’inévitable transformation industrielle et sociale de manière indirecte » : Stefan C. Aykut et Amy Dahan, Les négociations climatiques : vingt ans d’aveuglement ?, CERISCOPE Environnement, 2014 (lien).
[14]L’OMS a dès 1946 défini la santé comme un « état complet de bien-être physique, mental et social ».
[15]Pascal Bruckner, Didier Tabuteau, Jean-Pol Durand, C’est la vie entière qui est devenue comme une maladie..., Les Tribunes de la santé, 1/2003, no 1 (pp. 105-111) (lien).
[16]IA : L’invasion des robots a déjà commencé. Et elle est massive, Up’ magazine, 29 mars 2016 (lien).
[17]Pierre Cassou-Noguès, Lire le cerveau, Seuil, 2012.
[18]L’anonymat n’est plus qu’une notion nostalgique, Libération, 12 janvier 2008 (lien).
[19]Dans la presse mais aussi dans l’espace public où cela semble la seule réserve couramment exprimée (voir par exemple les contributions à la consultation menée sur le site http://www.faire-simple.gouv.fr/bigdatasante).
[20]Un document révèle comment Google a accès à des millions de données de patients, Up’ magazine, 8 mai 2016 (lien).
[21]Les données personnelles de santé gérées par l’Assurance maladie : une utilisation à développer, une sécurité à renforcer, Cour des comptes, mars 2016 (lien).
[22]On peut citer par exemple Peter Thiel, le premier à investir dans Facebook en 2004 et soutien de la Singularity University et du Seasteading Institute, fondé par le petit-fils de Milton Friedman.
[23]Les eurodéputés réclament un vote de principe sur le transfert de données, Euractiv.fr, 29 avril 2016 (lien). La biographie de Catherine Novelli est disponible sur le site du Gouvernement des États-Unis (lien).
[24]Voir Assurances : sommes-nous prêts à être espionnés pour payer moins cher ?, L’Obs avec Rue89, 12 août 2014 (lien) et Le partage de données au service de la prévention médicale, Biotech Finances, no 728, 20 juin 2016.
[25]Die Zeit et Der Spiegel du 9 février 2016 cités par Courrier international no 1327, du 7 au 13 avril 2016.
[26]Pas d’amis, pas de crédit, Courrier international, 7 octobre 2013 (lien).
[27]CNIL, Le corps, nouvel objet connecté. Du Quantified Self à la m-santé : les nouveaux territoires de la mise en données du monde, Cahiers Innovation & Prospective, no 2, mail 2014 (lien).
[28]L’article de Biotech Finances cité à l’instant révèle que si seuls 22% des français accepteraient de transmettre à leur assureur les données issues de bracelets connectés, ce chiffre passe à 43% si une baisse de prime d’assurance-santé est accordée en contrepartie.
[29]Inside Google’s Mysterious Ethics Board, Forbes, 3 février 2014 (lien).
[30]Rappelons comme autre élément de contexte en France la suppression de la condition de « détresse » de la femme enceinte avant un avortement : la loi n° 2014-873 du 4 août 2014 pour l’égalité réelle entre les femmes et les hommes a modifié l’article L. 2212-1 du code de la santé publique en remplaçant le sujet de la phrase « La femme enceinte que son état place dans une situation de détresse peut demander à un médecin l’interruption de sa grossesse » par « La femme enceinte qui ne veut pas poursuivre une grossesse… ».
[31]On a donné plusieurs exemples d’incorporation d’objets technologiques dans le vivant, mais il existe aussi des pistes d’hybridation « dans l’autre sens », comme l’utilisation d’ADN comme support de stockage de données : voirLe stockage sur ADN, disque dur du futur ?, Les Échos, 13 janvier 2014 (lien).
[32]Un tel monde est dépeint de manière romanesque dans Le Cercle, de Dave Eggers, récemment traduit en français (Gallimard, collection « Du monde entier », 2016).
[33]Google vs. Death? Really?, The Huffington Post Blog, 10 mars 2013 (lien).
[34]Withings se revend à Nokia, Libération, 26 avril 2016 (lien).
[35]Avis sur les problèmes éthiques liés aux diagnostics anténatals, avis no 107 du CCNE, 15 octobre 2009 (lien).
[36]On peut noter ici que dans le domaine de la santé et de la biologie, cette simplification peut aller à l’encontre du maintien d’une diversité importante qui peut constituer, ne serait-ce que pour des raisons purement utilitaristes, un atout (par exemple, pour limiter la transmissibilité d’atteintes extérieures).
[37]Peter Thiel, Pierre Manent. Et si la vérité était scandaleuse ?, paru dans Philosophie magazine, no 83, octobre 2014.
 
 

 

innovation

L’innovation sauvera-t-elle le monde ?

« L’innovation sauvera le monde - Philosophie pour une planète pacifique, durable et prospère » est le dernier ouvrage de Nicolas Bouzou (1), essayiste dit "libéral", économiste, directeur du cabinet d’analyses Asteres, directeur d’études au sein du MBA Law & Management de l’université Panthéon-Assas (Paris II), sorti en septembre aux Editions Plon. L'auteur ausculte le «nouvel ordre technico-économique», portant haut et fort des idées, des analyses et des constats aussi novateurs que dérangeants. Certains disent que les nouvelles technologies vont nous sauver tandis que d’autres clament qu’elles nous mènent tout droit à la catastrophe. Face aux mutations de notre monde, Nicolas Bouzou prône un progressisme conservateur : faire de la famille, la culture classique et l'esthétique les pivots autour desquels doit s'organiser notre entrée dans l'avenir.
 
Les avis contemporains sur ces questions ne semblent guère donner dans la nuance. En conséquence, chaque fois qu’une nouvelle possibilité technologique se présente, ce sont deux logiques, presque deux métaphysiques, qui s’affrontent : l’une se réduit au calcul comparatif des coûts et des bénéfices (c’est celle des opérateurs, incités à innover pour être compétitifs) ; l’autre, attentive aux dommages que pourrait provoquer une telle réduction, cherche à reconstruire une approche du monde où la rationalité, comprise comme ce qui est raisonnable, imposerait des limites aux conclusions des calculs pour prendre en compte d’autres considérations, plus éthiques, plus qualitatives ou plus indirectes.
Ne tenez pas ce livre pour un manifeste optimiste. Il n'est pas plus un ouvrage d'humeur, mais le résultat d'une longue réflexion, aux frontières de l'économie, de l'Histoire et de la philosophie, qui m'amène à la conclusion suivante : l'innovation peut sauver le monde de ses problèmes les plus déchirants. Mais la technologie n'y suffira pas, ni une excellente politique économique. Notre salut viendra de l'alliance entre la technologie, l'économie et une spiritualité qui embrasse l'amour et l'art, et les valeurs. Voilà pourquoi Platon, Freud ou Hannah Arendt occupent ici une place aussi importante que Schumpeter...
Notre monde est en pleine mutation. L'économie change : de nombreux emplois sont créés, mais beaucoup disparaissent. Les façons de travailler évoluent : le salariat laisse progressivement la place au travail indépendant. Les concepts philosophiques sont bousculés : comment réguler la sélection des embryons qui est déjà une réalité ? Un nouveau monde naît, en remplacement d'un ancien qui s'effondre, source d'angoisse qui fait le lit des extrémismes politiques de toutes obédiences et plus généralement de ceux qui serinent que « c'était mieux avant ».
L’ampleur et la vitesse des mutations à l’œuvre semblent parfois foudroyer nos sociétés. « Ce n’est pas l’agonie de l’ancienne économie qui laisse grandir la nouvelle : c’est la modernité, un nouvel ordre “technico-économique” qui s’impose à l’ancien, le tue, violemment, dans le sang et les larmes », constate Nicolas Bouzou dans son dernier essai.
On vit la mutation technique, économique et sociale la plus importante depuis le XIXe siècle » Nicolas Bouzou
L'antidote à ces fondamentalismes est d'entrer dans ce nouveau monde en sauvant ce qu'il y avait de meilleur dans l'ancien pour éviter l'effondrement de notre civilisation occidentale. C'est enseigner aux enfants le code informatique, mais aussi le grec et le latin. C'est les laisser jouer sur des jeux vidéo de réalité augmentée, mais leur faire découvrir Bach et Vivaldi. C'est accepter la famille recomposée, mais interdire à de futurs parents de choisir à la carte la couleur des yeux de leur bébé. C'est à partir de ces principes simples (être réformateur sur l'économie et conservateur sur les valeurs) que doivent se construire les programmes politiques alternatifs à ceux des extrêmes réactionnaires. C'est la seule façon de réconcilier les peuples avec leur avenir.
 
Je suis favorable au transhumanisme mais défavorable au post-humanisme qui ne permet pas de différencier l'homme de la machine." Nicolas Bouzou, La Grande table France Culture
 
Tout ne doit pas changer dans le monde sinon c’est la fin de la civilisation et peut-être même la dissolution de ce que Karl Popper appelle la société ouverte, c’est-à-dire la société libérale et démocratique. Ce conservatisme est au cœur de la doctrine de Burke et j’y suis très attaché. Certes, l’innovation modifie les produits, les services, la distribution, l’Etat et une partie du fonctionnement de la société. Mais il faut quand même que nous conservions un acquis du passé, ce à quoi nous sommes attachés : je pense en particulier à la liberté ou à la famille d’amour. » Nicolas Bouzou – La Tribune
 
Un plaidoyer contre le pessimisme ambiant, à rebours des « stagnationnistes » et « déclinistes » de tout poil, expliquant que « l’avenir sera meilleur que le passé, à condition de s’en donner les moyens ». Dans une interview aux Echos, Nicolas Bouzou résume ses recherches : « Ce que j'essaie de faire est d'articuler l'économie et la philosophie. Aujourd'hui, nous avons une mutation qui est absolument extraordinaire, qui, par son ampleur, est un peu l'équivalent de ce que nous avons connu au XIXe siècle ou lors de la Renaissance, mais il n'y a pas vraiment de direction. En quelque sorte, ce qui me frappe beaucoup, surtout en France, c'est que nous avons perdu le goût du progrès. [...] Ce qui m'intéresse, c'est le progrès, c'est-à-dire l'innovation qui améliore le monde. » Il veut un nouveau projet de société qui redonnerait du sens au progrès. L’innovation n’est pas neutre : bien utilisée, elle peut améliorer le sort de l’humanité. Autrement, on laisse le champ libre à la révolution conservatrice : les nationalistes, extrémistes et autres fondamentalistes religieux. Il y a une accélération du changement et les réactions sont toujours plus hostiles à la modernité. Mais dans 15 ans, le cancer sera devenu une maladie chronique, l’hyperloop nous permettra de traverser l’Angleterre en 20 minutes et on aura une base permanente sur la lune.
 
(1)    Nicolas Bouzou est un essayiste français spécialisé dans l'économie. Il a fondé et dirige depuis 2006 la société d'analyse économique et de conseil Asterès. Il a également créé le Cercle de Belém, qui regroupe des économistes européens libéraux et progressistes,. Il est maître de conférence à Sciences Po Paris, directeur de la collection "Le capitalisme en mouvement", chez l'éditeur Eyrolles et l'auteur d'une dizaine d'ouvrages, notamment Le Grand refoulement (éd. Plon, 2015) et L'innovation sauvera le monde (éd. Plon, septembre 2016).         
 
 

 

théorie de l'évolution

Des scientifiques veulent mettre à jour la théorie de l’évolution

Les récentes découvertes incitent certains chercheurs à arguer que la théorie synthétique de l’évolution doit être mise à jour. Cet article est le récit d’une réunion tenue à la Royal Society à Londres. Kevin Laland, éminent biologiste évolutionnaire de l’Université de St Andrews en Ecosse, proposait à ses collègues prestigieux rien moins que de rénover la théorie de l’évolution. Une révolution feutrée mais au climat tendu de passions.
 
Kevin Laland a regardé à travers la salle de réunion pour voir une centaine de personnes qui s’étaient réunies pour une conférence sur le futur de la biologie évolutionnaire. Un collègue assis à côté de lui a demandé comment les choses se présentaient. Laland a répondu que cela se passe plutôt bien, on n’en est pas encore aux coups de poing.
 
Laland est un biologiste évolutionnaire qui travaille à l’université de St Andrews en Écosse. Il est venu à Londres pour co-organiser une réunion à la Royal Society intitulée New Trends in Evolutionary Biology. La réunion a attiré principalement des biologistes, des anthropologues, des médecins, des informaticiens et des visionnaires. Laland a remarqué que la salle de réunion est en rénovation et il espère que la discussion va également amener une sorte de rénovation sur l’une des théories les plus robustes et les plus fondamentales de la science.
 
Dans le milieu des années 1900, les biologistes ont mis à jour la théorie de l’Évolution de Darwin avec de nouvelles découvertes provenant de la génétique et d’autres disciplines. Le résultat est connu comme la théorie synthétique de l’Évolution qui a guidé la biologie évolutionnaire pendant près de 50 ans. Mais entre-temps, les scientifiques ont appris beaucoup de choses sur le fonctionnement de la vie. Ils peuvent séquencer des génomes entiers. Ils peuvent observer les gènes qui s’activent et se désactivent dans les embryons en développement. Ils peuvent observer comment les animaux et les plantes répondent aux changements dans l’environnement.
 
Le résultat est que Laland et un groupe de biologistes estiment que la théorie synthétique de l’évolution a besoin d’une mise à jour. Elle doit donner une nouvelle vision de l’Évolution et cette mise à jour est connue comme l’Extended Evolutionary Synthesis (Théorie synthétique et étendue de l’Évolution). D’autres biologistes ne sont pas d’accord en estimant qu’il y a peu de preuves qu’un tel changement soit nécessaire.
 
Cette réunion est la première conférence publique où Laland et ses collègues pouvaient présenter leurs visions. Mais Laland n’a aucun intérêt à prêcher à ceux qui sont déjà d’accord et ils ont donc invité des biologistes qui sont très sceptiques sur l’idée de cette théorie synthétique et étendue de l’Évolution. Les deux parties ont offert leurs arguments et on pouvait sentir une tension dans la salle avec des Tsss, Tsss, des yeux levés vers le ciel et des applaudissements partisans selon les différents intervenants. Mais les poings sont restés dans les poches… pour le moment.

L’Évolution telle que nous la connaissons

La science évolue sans cesse avec parfois des révolutions qui se mettent en place. Galilée et Newton ont tiré la physique de ses erreurs passées dans les années 1600 pour la faire progresser à petits pas jusque dans les années 1900. Einstein et d’autres ont posé les bases de la physique quantique, de la relativité et d’autres moyens de comprendre l’univers. Il est stupide de dire que Newton ou les autres avaient tort, mais simplement le fait que l’univers est bien plus que de la matière en mouvement.
 
La biologie évolutionnaire a eu également ses propres révolutions. La première a été lancée par Charles Darwin en 1859 dans son livre sur les Origines des Espèces. Darwin a rassemblé des preuves de la paléontologie, de l’embryologie et d’autres sciences pour montrer que les choses vivantes étaient liées les unes aux autres par un ancêtre commun. Darwin a également introduit un mécanisme qui provoque des changements sur le long terme qui est la sélection naturelle. Chaque génération d’une espèce est remplie de variations. Certaines variations ont permis aux organismes de survivre et de se reproduire et les caractéristiques sont transmises à la prochaine génération grâce à l’hérédité.
 
Darwin a inspiré les biologistes du monde entier à étudier les animaux et les plantes d’une nouvelle manière en interprétant leur biologie comme des adaptations qui était produite sur de nombreuses générations. Mais Darwin a réussi en dépit d’ignorer totalement le concept d’un gène. Il a fallu attendre les années 1930 pour que les généticiens et les biologistes évolutionnaires se réunissent pour refondre la théorie de l’Évolution. Les variations étaient provoquées par des mutations qui pouvaient produire de nouvelles combinaisons. Les nouvelles espèces émergent quand les populations possèdent des mutations qui n’autorisent plus l’intercroisement.
 
En 1942, le biologiste britannique Julian Huxley a décrit ce cadre de travail émergent dans un livre intitulé Evolution : The Modern Synthesis. Aujourd’hui, les scientifiques appellent cette théorie par le titre de ce livre. Parfois, ils utilisent le terme de néo-darwinisme, mais qui peut prêter à confusion. Le néo-darwinisme est apparu dans les années 1800 à l’époque où les biologistes proposaient de nouvelles idées alors que Darwin était encore vivant.
 
La théorie synthétique de l’Évolution est devenue un outil puissant pour poser des questions sur la nature. Les scientifiques l’ont utilisé pour faire une grande quantité de découvertes concernant la vie. Par exemple, on a compris pourquoi certaines personnes sont plus vulnérables aux troubles génétiques tels que la drépanocytose et pourquoi les pesticides échouaient tôt ou tard à combattre les nuisibles. Mais dès l’apparition de la théorie synthétique de l’Évolution, les biologistes ont commencé à critiquer sur le fait qu’elle était trop rigide. Mais il a fallu attendre ces dernières années pour que Laland et d’autres chercheurs puissent s’organiser afin de formuler la théorie synthétique et étendue de l’Évolution.
 
Ces chercheurs ne considèrent pas que la théorie synthétique de l’Évolution soit incorrecte, mais uniquement le fait qu’elle ne capture pas toute la richesse de l’évolution. Les organismes héritent plus que des gènes. Ils peuvent hériter d’autres molécules cellulaires ainsi que des comportements qu’ils apprennent et les environnements modifiés par leurs ancêtres. Laland et ses collègues défient également le concept que la sélection naturelle est la seule explication sur le comportement de la vie. D’autres processus peuvent influencer le cours de l’évolution allant du développement aux environnements où vivent ces organismes. Ce n’est pas simplement une question d’ajouter plus de mécanismes selon Laland, car cela nécessite de penser à la causalité d’une différente manière.

Les ajouts à Darwin

Eva Jablonka, biologiste à l’université de Tel-Aviv, a utilisé sa présentation pour explorer les preuves d’une forme d’hérédité au-delà des gènes. Nos cellules utilisent un certain nombre de molécules spéciales pour contrôler les gènes qui fabriquent les protéines. Dans un processus connu comme la méthylation, les cellules imposent des contrôles sur leur ADN pour désactiver certains gènes. Quand les cellules se divisent, elles peuvent reproduire les mêmes contrôles sur le nouvel ADN. Certains signaux de l’environnement peuvent faire en sorte que ces cellules changent ces contrôles épigénétiques qui permettent à l’organisme d’adapter leur comportement à de nouveaux défis.
 
Certaines études indiquent que, sous certaines circonstances, un changement épigénétique dans un parent peut être passé à sa portée. Et ces enfants peuvent passer ce profil épigénétique modifié à leurs enfants et ce serait une hérédité au-delà des gènes. La preuve de cet effet est la plus robuste chez les plantes. Dans une étude, les chercheurs ont été capables de traquer les patterns modifiés de la méthylation sur 31 générations dans une plante appelée Arabidopsis. Et ce type d’hérédité peut provoquer une différence considérable sur le fonctionnement d’un organisme.
Dans une autre étude, les chercheurs ont trouvé que les patterns hérités de la méthylation peuvent changer le temps de floraison de l’Arabidopsis ainsi que la taille de ses racines. La variation de ces patterns était plus importante que celle qui est provoquée par une mutation normale. Après avoir présenté cette preuve, Jablonka a estimé que les différences épigénétiques pourraient déterminer les organismes qui survivraient assez longtemps pour se reproduire. La sélection naturelle pourrait fonctionner dans ce système selon cette chercheuse.
 
Même si la sélection naturelle est une force importante dans l’évolution, les orateurs ont présenté des preuves qu’elle peut être contrainte ou biaisée dans une direction particulière. Gerd Müller, un biologiste de l’université de Vienne, a proposé un exemple de sa propre recherche sur les lézards. Un certain nombre d’espèces de lézard ont évolué pour que leurs pieds n’aient plus d’orteils. Certains ont quatre orteils tandis que d’autres ont en seulement un et il y en a qui 'en ont plus aucun.

L’épigénétique

La théorie synthétique de l’Évolution selon Müller a incité les scientifiques à regarder ces changements comme le produit de la sélection naturelle qui va favoriser une variante sur d’autres parce que cette variante possède un avantage de la survie. Mais cette approche ne fonctionne pas si vous tentez de comprendre l’avantage de perdre certains de ses orteils. La réponse est qu’il n’y a pas d’avantage sélectif réel selon ce chercheur.
 
La clé pour comprendre pourquoi les lézards perdent des orteils précis s’explique dans la manière dont les embryons de lézard développent leurs orteils à la base. Un bout apparait sur le côté du corps et ensuite, on a cinq doigts qui vont émerger. Mais l’orteil aura toujours la même séquence. Et quand les lézards perdent leurs orteils via l’évolution, alors ils les perdent dans un ordre inverse. Müller estime que cette contrainte s’explique parce que toutes les mutations ne peuvent pas créer toutes les variations possibles. Certaines combinaisons d’orteils sont donc en dehors des limites et la sélection naturelle ne va jamais les sélectionner.
 
Le développement peut contraindre l’évolution. Mais il fournit également une flexibilité remarquable aux plantes et aux animaux. Sonia Sultan, biologiste évolutionnaire de l’université de Wesleyan, a proposé un cas spectaculaire pendant sa présentation en décrivant une plante qu’elle étudie dans la famille des Polygonum qu’on connait mieux sous le nom de Renouée.
 
La théorie synthétique de l’Évolution selon Sultan vous mènerait à regarder les adaptations de la Renouée comme le produit très peaufiné de la sélection naturelle. Si la plante pousse dans un environnement faiblement ensoleillé, alors la sélection naturelle va favoriser la plante avec des variances génétiques qui leur permet de s’adapter à cet environnement. Par exemple, une variation est des feuilles plus grandes pour capturer plus de photons. En revanche, les plantes qui poussent dans des environnements très ensoleillés vont s’adapter différemment à ces conditions. Si vous développez des Renouées génétiquement modifiées sous différentes conditions, alors vous aurez des plantes avec un comportement tellement différent qu’on a l’impression que ce sont des espèces différentes.
 
Les Renouées adaptent la taille de leurs feuilles selon la lumière du soleil qu’elles reçoivent. En plein soleil, les plantes auront des feuilles petites et denses, mais en faible lumière, ces feuilles vont s’agrandir et s’amincir. Sur un sol sec, ces plantes vont envoyer leurs racines profondément dans le sol pour chercher de l’eau et sur des sols immergés, ces plantes vont développer des racines comme des cheveux ébouriffés dans tous les sens qui vont rester à la surface.

La plasticité

Pendant la réunion, les scientifiques ont estimé que cette flexibilité, connue comme la plasticité, peut diriger l’évolution. Elle permet aux plantes de s’adapter à un certain nombre d’habitats où la sélection naturelle va ensuite adapter leurs gènes. Dans une autre présentation, Susan Antón, paléonantropologue à l’université de New-York, a déclaré que la plasticité a pu jouer un rôle important dans l’évolution humaine qu’on n’a pas remarqué jusqu’à présent. Et c’est parce que la théorie synthétique de l’Évolution a influencé l’étude de l’évolution humaine pendant les cinquante dernières années.
 
Les paléoantropologues tendaient à traiter les différences dans les fossiles comme le résultat de différences génétiques. Cela leur permet de dessiner un arbre évolutionnaire d’humains et leurs proches éteints. Cette approche possède de nombreux avantages selon Antón. À partir des années 1980, les scientifiques ont découvert que nos proches parents les plus anciens étaient courts avec un petit cerveau il y a environ 2 millions d’années. Ensuite, une lignée a pris de la hauteur et elle a évolué pour avoir des cerveaux plus grands. Cette transition a marqué l’origine de notre genre, les Homo.
 
Mais parfois, les paléoantropologues trouvent des variations auxquelles il est difficile de donner un sens. Deux fossiles pourraient se ressembler comme s’ils étaient dans la même espèce, mais ils sont différents dans d’autres aspects. Les scientifiques écartent habituellement ces variations comme étant provoquées par l’environnement. Nous voulions nous débarrasser de ces choses et remonter à leur essence selon Antón. Mais ces choses sont trop abondantes pour les ignorer. Les scientifiques ont trouvé une variété considérable de fossiles ressemblant à des humains il y a 1,5 million à 2,5 millions d’années.  Certains étaient grands tandis que d’autres étaient courts. Certains avaient de grands cerveaux tandis que d’autres en avaient de petits. Ils possèdent tous certaines caractéristiques de l’Homo dans leur squelette, mais chacun possède un assortiment de mélanges et de correspondances.
 
Antón pense que la théorie synthétique et étendue de l’évolution pourrait aider les scientifiques à donner un sens à ce profond mystère. En particulier, elle pense que ces collègues devraient considérer sérieusement la plasticité comme une explication de l’étrange diversité dans les fossiles des premiers Homo. Pour soutenir cette idée, Antón a pointé le fait que les humains actuels possèdent leurs propres plasticités. La qualité de la nourriture qu’une femme va consommer en étant enceinte peut influencer la taille et la santé de son enfant et ces influences peuvent durer jusqu’à l’âge adulte. De plus, la taille d’une femme, influencée partiellement par le régime de sa mère, peut influencer son propre enfant. Les biologistes ont découvert que les femmes, avec de longues jambes, tendent à avoir des enfants plus grands.
 
Antón a proposé que les variations étranges dans les fossiles puissent être des exemples dramatiques de la plasticité. Tous ces fossiles datent de l’époque où le climat de l’Afrique est passé par plusieurs changements. Les sécheresses et les pluies abondantes ont pu changer la chaîne alimentaire dans différentes parties du monde en provoquant des différences dans le développement des premiers Homo. La théorie synthétique et étendue de l’Évolution pourrait aussi donner un sens à un autre chapitre de notre histoire qui est l’apparition de l’agriculture. En Asie, en Afrique et aux Amériques, les personnes ont domestiqué les graines et le bétail. Melinda Zeder, une archéologue de la Smithsonian Institution, a présenté les problèmes de cette transformation.
 
Avant que les gens commencent à faire de l’agriculture, ils cueillaient et chassaient leur nourriture. Zeder a expliqué comment de nombreux scientifiques traitaient le comportement des cueilleurs selon la théorie synthétique de l’Évolution. Ce comportement était favorisé par la sélection naturelle pour avoir le meilleur rendement dans leur recherche de nourriture. Le problème est de déterminer comment un cueilleur va se transformer en agriculteur. Vous n’avez pas la même gratification que de prendre la nourriture et de la manger directement selon Zeder.
 
Certains chercheurs suggèrent que le changement vers l’agriculture a pu être provoqué par un changement climatique où il est devenu difficile de trouver les plantes. Mais Zeder et d’autres chercheurs n’ont pas trouvé de preuves d’une telle crise. Zeder estime qu’il y a un meilleur moyen de penser à cette transition. Les humains ne sont pas des zombies passifs qui tentent de survivre dans un environnement fixé. Ce sont des penseurs créatifs qui peuvent changer cet environnement. Et dans le processus, ils peuvent mener l’évolution dans une nouvelle direction.
 
Les scientifiques connaissent ce processus comme une construction de niche et de nombreuses espèces peuvent le faire. Le castor est le meilleur exemple, il coupe des arbres et il crée des barrages. Dans ce nouvel environnement, certaines espèces de plantes et d’animaux réussiront mieux que d’autres. Et ils vont trouver de nouvelles manières pour s’adapter à leur environnement. C’est valable pour les plantes et les animaux qui vivent à côté de l’étang du castor, mais également pour le castor.
 
Pour Zeder, ce fut une révélation quand elle a appris le phénomène de construction de niche. Les preuves archéologiques qu’elle et d’autres chercheurs ont collectées donnent un sens à la manière dont les humains ont changé leur environnement. Les premiers cueilleurs montrent des signes où ils ont déplacé des plantes dans la nature pour qu’elles soient plus proches de leur habitat. Et quand ils ont arrosé et protégé les plantes contre les herbivores, ces dernières se sont adaptées à leur nouvel environnement. De mauvaises herbes se sont mises à produire des graines. Et certains animaux se sont également adaptés pour devenir des chats, des chiens et d’autres espèces domestiquées.
 
Au fil du temps, l’environnement a changé en partant d’un endroit clairsemé de plantes sauvages à des champs denses. Cet environnement n’a pas seulement provoqué l’évolution des plantes, car il a aussi provoqué l’évolution culturelle des agriculteurs. Au lieu de rester des nomades, ils se sont réunis dans des villages pour qu’ils puissent travailler sur la terre environnante. La société est devenue plus stable parce que les enfants ont reçu un héritage écologique de leur parent et la civilisation a commencé.
La construction de niche est l’un des nombreux concepts proposés par la théorie synthétique et étendue de l’Évolution qui donne un sens à la domestication. Zeder a proposé plusieurs présentations allant des premiers agriculteurs jusqu’à l’évolution des plantes. On aurait dit une bonne campagne publicitaire de la théorie synthétique et étendue de l’Évolution.

Le retour à la sélection naturelle

Parmi les membres de l’audience, on trouvait un biologiste nommé David Shuker. Après avoir écouté les discours pendant un jour et demi, ce chercheur de l’université de St Andrews en a eu marre. À la fin d’un discours, il a levé la main. Le discours en question était donné par Denis Noble, un physiologiste qui a passé la plus grande partie de sa carrière à Oxford. Il a déclaré qu’il avait commencé comme biologiste « traditionnel », en considérant les gènes comme la cause ultime de tous les processus dans le corps. Mais ces dernières années, il a changé d’avis. Il a parlé du génome comme d’un organe sensible plutôt qu’un schéma pour la vie. Cet organe sensible pourrait détecter le stress et s’adapter pour faire face aux défis.
 
Pour illustrer sa vision, Noble a discuté de quelques expériences. L’une d’entre elles, publiée en 2015 par une équipe de l’université de Reading, montrait une bactérie qui pouvait nager en faisant tourner ses longues queues. En premier lieu, les scientifiques ont coupé un gène de l’ADN de la bactérie qui est essentiel pour construire les queues. Les chercheurs ont ensuite mis cette bactérie sans queue dans une boite de Petri avec une faible quantité de nourriture. La bactérie a consommé rapidement la nourriture dans son voisinage. Si elle ne pouvait pas bouger, alors elle mourrait. En l’espace de quatre jours dans ces conditions pénibles, la bactérie pouvait nager de nouveau. Une analyse poussée a montré que la bactérie pouvait développer de nouvelles queues. Cette stratégie produit un changement évolutionnaire rapide en réaction à un environnement hostile. C’est un système autonome qui active une caractéristique particulière qui se déclenche indépendamment de l’ADN.
 
Shuker n’a pas apprécié cette explication. Après le discours de Noble, il a demandé des explications sur le mécanisme qui explique cette découverte. Noble a balbutié pour répondre en disant que le mécanisme général concerne des réseaux, une régulation et une recherche désespérée d’une solution face à une crise. "Je vous conseille de lire notre papier" lui a répondu Noble.
 
Alors que Noble peinait à répondre, Shuker est allé consulter le papier sur sa tablette. Et il a lu l’abstrait du papier à voix haute. "Nos résultats montrent que la sélection naturelle peut reconnecter rapidement les réseaux de régulation". "Et donc, c’est un bon exemple d’une évolution néo-darwinienne" a-t-il conclu sur un ton ironique.
 
L’intervention de Shuker reflétait le sentiment général de nombreux sceptiques dans la conférence. Le changement de paradigme proposé par la théorie synthétique et étendue de l’Évolution était injustifié selon de nombreux sceptiques. Et certains ont même pris la parole.
 
"Je pense que je représente la vision Jurassique de l’Évolution" déclara Douglas Futuyma. Futuyma est un biologiste à la Stony Brook University et auteur d’un livre important sur l’évolution. En d’autres termes, il était la cible de nombreuses complaintes selon lesquelles les livres n’accordaient pas une grande importance à l’épigénétique et la plasticité. Futuyma a démontré pourquoi ces concepts étaient ignorés.
 
Nous devons reconnaitre que les principaux aspects de la théorie synthétique de l’évolution sont robustes et parfaitement prouvés. De plus, les principes biologiques discutés pendant la conférence ne sont pas nouveaux. Les architectes de la théorie synthétique de l’Évolution en discutaient déjà il y a 50 ans. Et il y a de nombreuses recherches dans cette théorie pour donner un sens à ce concept.
 
Prenons l’exemple de la plasticité. Les variations génétiques dans un animal ou une plante gouvernent la fourchette de formes dans laquelle cet organisme va se développer. Les mutations peuvent altérer cette fourchette. Et les modèles mathématiques de la sélection naturelle montrent comment elle peut favoriser certaines plasticités par rapport à d’autres. Mais si la théorie synthétique et étendue de l’Évolution est si superflue, alors pourquoi obtient-elle de l’attention pour justifier une conférence à la Royal Society ? Futuyma a suggéré que l’attirance est purement émotionnelle plutôt que scientifique. Cette théorie permet à la vie d’être une force active plutôt qu’un véhicule de mutations passives. "Je pense que lorsque nous trouvons que c’est agréable sur le plan esthétique ou émotionnel, alors ce n’est pas la base de la science" selon Futuyma.
 
Mais il a ajouté que le genre de recherche décrit pendant la réunion pourrait donner des aperçus intéressants sur l’évolution. Mais ces aperçus nécessiteraient beaucoup de travaux et de données. Il faut arrêter avec des essais et des papiers de position. Certains membres ont harangué Futuyma tandis que d’autres orateurs sceptiques étaient exaspérés par ces arguments qui n’avaient pas de sens.
Mais la réunion a pu finir au bout de trois jours sans en venir aux poings.
 
Selon Laland, c’est la première de nombreuses réunions à venir. En septembre 2016, un consortium de scientifiques en Europe et aux États-Unis a reçu un financement de 11 millions de dollars pour lancer 22 études sur la théorie synthétique et étendue de l’Évolution. De nombreuses de ces études vont tester des prédictions qui ont émergé de la théorie ces dernières années. Elles détermineront si des espèces, qui construisent leurs propres environnements, peuvent se transformer en des espèces qui ne le font pas. Ces études vont également analyser si la plasticité permet aux espèces de s’adapter à de nouveaux environnements. Nos critiques nous disent d’apporter des preuves et c’est ce que nous allons faire selon Laland.
 
Carl Zimmer - Traduction par Jacqueline Carpentier (Houssenia) de l’article publié dans Quanta Magazine.
 

 

Axel Kahn

Axel Kahn : "Que restera-t-il de l’esprit humain dans ce nouvel ordre numérique des choses ?"

J’ai abordé dans deux articles récents de mon blog les bouleversements intellectuels, sociaux et individuels liés à l’intervention de plus en plus massive et experte des « machines à penser », englobant sous ce terme l’intelligence artificielle servie par les big data et leurs algorithmes d’exploitation, dotée d’une capacité d’amélioration autonome de plus en plus vive et contrôlante, le cas échéant, des robots de plus en plus performants.

Dans « À quoi l’économie participative participe-t-elle ? », j’aborde la remise en question désormais de la notion de spécialisation et de compétence ; dans Intelligence humaine, intelligence artificielle : des vases communicants ?, je propose que la cause d’une tendance bien documentée depuis le début du XXIe siècle à la baisse des scores moyens aux tests de quotient intellectuel (QI) pourrait être que, intimidés par leur puissance, nos concitoyens laissent de plus en plus aux machines le soin de réaliser des tâches qui, lorsqu’ils les réalisaient eux-mêmes, contribuaient à développer leur mémoire et leur vivacité intellectuelle, paramètres qui interviennent dans les performances de QI.

En résumé, la masse des données stockées et stockables dans des mémoires informatiques est presque infinie, des supports durables sinon éternels sont en voie de développement rapide pour les conserver, là encore presque indéfiniment. Des algorithmes qui permettent d’interroger avec une subtilité croissante ces masses de données sont en développement permanent.

Grâce à des systèmes mimant certains principes de fonctionnement (mais bien entendu pas la nature) des circuits neuronaux, ces dispositifs gardent la mémoire des tâches qu’ils réalisent et des problèmes rencontrés, ils peuvent le cas échéant interagir avec d’autres ensembles de même type auxquels ils sont connectés, et accroître de la sorte et de manière autonome leurs performances, élargir le spectre de leurs possibilités. Il s’ensuit que l’innovation algorithmique et le perfectionnement des procédures deviennent dès lors potentiellement autonomes et, à terme, ne dépendront plus obligatoirement de l’intervention humaine.

La puissance de semblables systèmes est en théorie supérieure à celles de l’esprit humain pour toutes les tâches dont la réalisation repose sur la mémoire et la capacité de tester rationnellement un grand nombre d’hypothèses, d’autant que des éléments de stratégie réflexive, au départ d’origine humaine, sont susceptibles d’une amélioration progressive autonome. C’est pourquoi la machine est désormais appelée à l’emporter sur les meilleurs spécialistes concernés, et cela de manière irréversible, dans le jeu d’échec, de Go et toute autre activité de ce type. En effet, un appareil capable de prévoir les innombrables coups possibles d’un adversaire et le mérite comparé de toutes les répliques envisageables des dizaines de coups à l’avance est à l’évidence invincible, sa stupide capacité quantitative l’emportant sur la plus brillante des subtilités des joueurs expérimentés.

 

Le match Alphago – Lee Sedol. Prachatai/Flickr

Approche numérique et quantitative

Dans le champ scientifique, l’approche numérique et quantitative s’est imposée dans de très nombreux domaines ; j’ai déjà cité le clonage des gènes, les enquêtes de motivation des consommateurs et des électeurs, les études épidémiologiques. Sans ces outils nouveaux, pas d’astrophysique, de physique des particules, pas de modélisation des nouveaux modèles de voitures ou d’avions, etc. Les approches numériques modernes sont déjà, de manière balbutiante, et seront plus encore dans le futur à la base d’une révolution profonde des pratiques et de l’exercice médical.

En effet, aucun médecin, même le plus perspicace, doté d’une expérience exhaustive, ne pourra jamais à terme, pour parvenir au diagnostic difficile d’affections exceptionnelles qu’il n’a encore jamais rencontré, rivaliser avec des systèmes informatiques autoévolutifs. De plus, les perfectionnements impressionnants de l’imagerie ultrasonore, sa capacité aujourd’hui à non seulement voir mais aussi palper les organes, les innombrables robots d’analyse permettent de prévoir une intervention humaine de plus en plus limitée pour l’élucidation d’un diagnostic, l’établissement d’un pronostic et la déduction de la meilleure thérapeutique en fonction des paramètres relevés.

La question se pose par conséquent du champ – ou simplement du créneau – qui restera l’apanage de l’esprit l’humain dans ce nouvel ordre numérique des choses. Les premières réponses intuitives sont de l’ordre de l’émotion et de la fulgurance créative. Considérons tout d’abord l’émotion. Elle résulte en principe d’une interaction entre le corps et le psychisme, créée souvent par une perception et une sensation, ou bien le souvenir qui en reste imprimé dans la mémoire.

Or, la machine n’a pas de corps, elle ne ressent pas la rougeur qui enflamme les joues, la moiteur des aisselles et des paumes, elle ne sait ce qu’est la sensation de la tumescence des organes génitaux, ce que peut signifier le cœur qui se met à battre la chamade, la gorge qui « se noue », la notion du plaisir lui est étrangère. On peut bien entendu programmer une machine à ressentir des émotions « électroniques » mais nous n’avons nulle certitude sur la signification réelle du dispositif pour l’économie « psychique » de la machine, terme dont l’utilisation est ici contestable puisque l’univers psychique résulte d’un dialogue du corps et de l’esprit.

Pablo Picasso a déclaré que l’art était sexué ou n’était pas, affirmation en grande partie évidente. Or, l’intelligence artificielle est par essence asexuée, même si les programmateurs y introduisent des paramètres de genre, de toute façon ici déconnectés des sensations et des émotions. Jusqu’à plus amplement informé, le monde du corps, de la sexualité, des émotions et de l’art restent par conséquent l’apanage de l’humain. Le champ de l’émotion, élément important de la relation du médecin et de son malade, prendra sans doute dans l’avenir d’une pratique informatisée et robotisée de la médecine une place essentielle dans le rôle des praticiens, ce qui amènera à repenser en profondeur l’enseignement de la discipline.

L’analyse prospective basée sur les outils de connexion, les big data et les algorithmes est aujourd’hui la méthode principale d’accès à la prédiction des comportements individuels, en particulier à la motivation et aux déterminants d’achat des consommateurs. Ainsi, a-t-on suivi les différentes actions quotidiennes de quelques milliers de femmes enceintes : à quelle heure envoient-elles leur premier coup de téléphone, se connectent-elles sur les réseaux, quels sites consultent-elles, quels achats font-elles, où se déplacent-elles à l’extérieur, quels spectacles les attirent-elles, que lisent-elles, consomment-elles, etc. Et cela pendant plusieurs mois.

Les données sont stockées et des algorithmes dédiés créés, appliqués à la population féminine générale. Entre 95 et 98 % des femmes reconnues par les algorithmes sont enceintes et sont démarchées pour l’acquisition de produits de grossesse et de maternité. Le chiffre important est ici celui de 2 à 5 % des comportements individuels qui apparaissent échapper à la puissance des algorithmes. Ce phénomène d’un petit pourcentage de personnes dont les décisions et comportements échappent aux prévisions de l’analyse prospective la plus poussée conduit à formuler une hypothèse : et si cette petite proportion était la manifestation de l’aptitude humaine à la déviance, à l’originalité, à l’imprévisibilité, à la fulgurance créative ? Et s’il en avait de tous temps été ainsi ?

Fulgurance créative

L’immense majorité de notre vie se passe à refaire ce qu’on a toujours fait, ce qu’on nous a appris, à reproduire à l’identique ce qui existe déjà. Cela vaut aussi pour nombre d’œuvres ou l’imitation l’emporte sur l’innovation créative. De nombreux livres, qui ne sont pas simplement des romans de gare, ressassent à l’envie des situations éprouvées pour lesquelles l’appétence du public est notoire. Il en va de même pour nombres d’objets d’arts plastiques, de tableaux peints. Je n’ai aucun doute qu’un jour les « nègres » chargés de cette production, et si cela devient économiquement rentable, seront remplacés par des machines numériques dûment programmées et apprenant toujours grâce aux enquêtes sur l’évolution des goûts des gens.

Mais parfois, la fulgurance créative se manifeste « à la marge », un chef d’œuvre le cas échéant naît. Cela, c’est le domaine authentique de la créativité artistique, une des spécificités de l’esprit humain façonné par ses interactions avec les manifestations du corps, leur perception, les sensations et les émotions qu’elles engendrent, et ce monde-là, celui de la perception du beau, condition de sa création, n’apparaît pas accessible à la machine. Le même type de raisonnement vaut pour la fulgurance scientifique, la gravitation de Newton, la relativité d’Einstein, l’intuition mathématique d’un Ferdinand Jamin, etc.

Pour terminer, un mot de la morale, que l’on aurait volontiers tendance à ajouter aux spécificités irréductibles de l’humain. Cela n’est en réalité pas certain. Bien entendu, il est aisé d’injecter à un appareil les règles déontologiques ou les normes morales en vigueur. Mais qu’en est-il de l’acquisition spontanée par une société d’ordinateurs et de robots dotés d’intelligence artificielle d’un comportement altruiste, de l’établissement de relations électives. On peut en réalité la concevoir. Imaginons un groupe de dispositifs numériques soumis à un phénomène de sélection en fonction de leur niveau de performance.

Faisons maintenant l’hypothèse que ces machines interagissent et apprennent les unes des autres, ce qui accroît leur puissance et leur succès évolutif puisque, plus savantes, elles seront par là sélectionnées, les autres éliminées. Alors, les appareils qui auront le mieux échangé, ceux qui auront développé une vraie affinité « pour autrui », qui en d’autres termes seront dotés de la meilleure compétence sociale, seront les vainqueurs de la sélection, eux et leurs aptitudes à l’échange et à l’entraide dont la résonance morale apparaît évidente.

Après cette mise au point sur les relations entre l’homme et la machine, je suis conscient qu’il ne s’agit là que d’un « point d’étape », que l’univers numérique comporte encore beaucoup d’inconnues, la principale étant bien sûr de se demander si cela fera sens un jour de parler de « vie in silico ».

Axel Kahn, Directeur de recherche à l’INSERM, ancien président de l’Université Paris Descartes, généticien et essayiste, Université Paris Descartes – USPC

La version originale de cet article a été publiée sur The Conversation.

The Conversation

 

Donald Trump

Avec Trump, ça craint aussi pour l’innovation et le climat

Donald Trump est devenu le quarante-cinquième président des États-Unis. Ce que le monde craignait est arrivé. Les conséquences de l’accession au pouvoir de ce symbole de la montée en puissance de l’autoritarisme sont encore incalculables. Ce qui semble sûr, c’est que l’innovation et le climat vont en prendre un sacré coup.
 
En juillet dernier, 150 entrepreneurs, investisseurs et dirigeants de la high-tech américaine, tous ceux qui font le gratin de la Silicon Valley, avaient publié une lettre ouverte au vitriol. Parmi les signataires de cette lettre ouverte, on retrouvait des stars et des légendes : Steve Wozniak, le cofondateur d’Apple avec Steve Jobs, le fondateur de Twitter, celui d’eBay, de Wikipedia, etc. Un véritable who’s who de l’Internet et de l’économie numérique. La victoire du candidat républicain lors de l’élection présidentielle serait « désastreuse pour l’innovation ». 
 
Une lettre ouverte qui s’avère être un coup d’épée dans l’eau car la décision que de nombreux américains redoutaient est désormais entérinée. Elle ne fait pas le bonheur de tout le monde.
 
Trump n’est pas compatible avec les idéaux de ceux qui travaillent pour l’innovation : « Sa vision s’oppose à l’échange d’idées, à la libre circulation des personnes et aux relations productives avec le reste du monde qui sont vitales pour notre économie et représentent les fondations de l’innovation et de la croissance ».
La volonté affichée maintes fois par le candidat de fermer en partie Internet au nom de la sécurité nationale est pointée. Selon les stars de la high tech américaine, « Cela démontre à la fois un piètre jugement et l’ignorance de la manière dont fonctionnent les nouvelles technologies ».
 
L’autre sujet du courroux concerne l’immigration, sujet sur lequel Donald Trump a des positions pour le moins tranchées. Or la Silicon Valley est un melting pot où toutes la nationalité du monde se côtoient et travaillent ensemble. Chacun a sa chance de réussir, quelle que soit son origine. Cette pratique est devenue un emblème de la high-tech américaine à tel point qu’une demande récurrente des patrons de sociétés technologiques est l’élévation du quota d’immigrés pour assurer des postes d’ingénieurs hautement qualifiés. Les signataires soulignent : « Nous croyons qu’une politique progressiste en matière d’immigration nous aidera à attirer certains des plus brillants esprits sur Terre — des scientifiques, des entrepreneurs et des créateurs. En fait, 40 % des sociétés du classement de Fortune 500 ont été fondées par des immigrés ou par leurs enfants ».
 
Du côté du climat, l’arrivée de Trump au pouvoir laisse présager des jours sombres. Le futur président américain a maintes fois juré que, contre vents et marées, il demanderait la révision de l’engagement américain par rapport à l’Accord de Paris. "Des conneries", "un canular", … Ces derniers mois, le républicain Donald Trump a multiplié les déclarations contestant l'existence du réchauffement et le rôle de l'homme dans ce phénomène. "Je suis à Los Angeles et il gèle, le réchauffement est un canular total !", tweetait-t-il un jour de décembre.
 
"Tous les progrès que nous avons faits, entre autres, sur le climat (...) seront dans la balance mardi", a prévenu vendredi Barack Obama dans une interview télévisée. "Il serait malheureux que l'extraordinaire rôle moteur joué par les États-Unis ces dernières années s'arrête", dit le Maldivien Thoriq Ibrahim, porte-parole des petits Etats insulaires.
 
Mais Trump pourra-t-il vraiment engager une sortie de l'accord de Paris, un "Parexit", comme 400 scientifiques américains l'ont déjà baptisé dans une lettre ouverte exhortant leur pays à respecter ses engagements. Le pacte, en vigueur depuis vendredi, prévoit que les pays ayant ratifié - dont les États-Unis - ne pourront le dénoncer avant quatre ans (dont un de préavis).
 
Cependant rien n'empêche concrètement de tourner les talons, note Teresa Ribera, directrice de l'Institut du développement durable (Iddri) à Reuters : "Le Canada a bien quitté Kyoto! Et l'accord de Paris ne prévoit pas de sanction". Un départ américain n'invaliderait pas l'accord, soulignent les juristes interrogés par l'AFP. Mais "ce serait l'excuse parfaite (pour d'autres acteurs) de dire 'on s'en fiche'!". Pour elle, la seule élection de Trump menacerait le processus de paralysie, en tout cas d'un retard dommageable.
 
Pour le quotidien Les Echos, plus qu'une sortie formelle de l'accord, Trump risque surtout de ne pas appliquer les engagements pris par Obama, prévoient les experts. Aux mineurs américains craignant pour leur emploi, il a déjà promis qu'il supprimerait les mesures rendant obsolètes les vieilles centrales au charbon. Il a aussi promis de relancer l'extraction offshore de pétrole et de gaz.
 
 
Source Reuters
Image d’en-tête : CHIP SOMODEVILLA
 

 

Donald Trump autoritarisme

Les autoritaristes montent en puissance. Trump en est un symptôme

Vu de ce côté de l’Atlantique, cela ressemble à un mystère : pourquoi l’électorat américain soutient-il ce qui apparaît comme une extrême droite, populiste, remuante, et sans expérience politique réelle ? Comment expliquer ce courant qui embrasse des vues extrêmes et souvent bizarres, portées par un personnage semblant venu de nulle part et soudain devenu si populaire ? Ces questions on ne se les pose pas seulement aux États-Unis. En Europe aussi, des phénomènes analogues sont en train de se produire et interrogent. Le cas Trump est un signal qu’il faut prendre au sérieux pour comprendre ce qui se passe un peu partout dans le monde et dans notre pays en particulier. Il est le symptôme d’une force latente qui émerge : les autoritaristes.
UP’, le magazine des temps qui changent, ne peut manquer de s’interroger sur ce phénomène, à cinq jours des élections américaines.
 
Comment comprendre l’ascension énigmatique de Trump et surtout les soutiens qu’il agrège en bouleversant toutes les lignes démographiques qui délimitent habituellement les candidats : l’éducation, le revenu, l'âge, et même la religion ? Plus étrange encore que la montée de Trump, est la libération de la parole. Comment comprendre ces masses immenses de partisans du milliardaire américain, qui vont au-delà de lui dans l’outrance, et prennent des positions jamais vues de mémoire d’américain. Un sondage récent pour CBS News révélait que 75 % des électeurs républicains soutenaient l’interdiction des musulmans aux États-Unis. Un autre sondage de PPP révélait qu’un tiers des électeurs de Trump voulait interdire les gays et lesbiennes du pays. Ils sont 20 % à regretter que Lincoln ait libéré les esclaves !
 
Si le succès de Trump semble avoir pris tout le monde par surprise, il se trouve tout de même un petit groupe de chercheurs moins surpris que les autres. Un groupe qui, à la frontière des politologues et des psychologues, faisait depuis une quinzaine d’années un parallèle inquiétant entre les facteurs qui ont jadis permis, en Europe, l’émergence rapide de chefs autoritaires aux idées extrêmes —Hitler, Mussolini— et des paramètres similaires aux États-Unis.

L’autoritarisme, une force politique latente

Parmi ces chercheurs, deux universitaires politologues américains avaient vu venir le phénomène Trump dès 2009. Marc Hetherington et Jonathan Weiler avaient en effet publié en 2009 un livre qui suscite aujourd’hui un grand intérêt, Authoritarianism and Polarization in American Politics. Grâce à une série d’expériences et d’analyses de données électorales, ils sont arrivés à une conclusion surprenante : ce qui structure la polarisation de la vie politique américaine, ce n’est pas les variables traditionnelles souvent citées ou les systèmes de découpage électoral, ou le poids de l’argent des candidats. Non, ce qui structure la politique est une variable passée inaperçue mais qui touche pourtant un immense groupe électoral : l’autoritarisme (authoritarianism en anglais).
 
Les auteurs estiment qu’en se positionnant sur les valeurs traditionnelles de la loi et de l’ordre, le parti Républicain a ouvert une brèche qui a attiré plus ou moins inconsciemment une vaste population d’américains prônant des tendances autoritaires. Cette tendance s’est accélérée ces dernières années du fait des changements économiques et démographiques et notamment l’immigration. Cette tendance de fond a alors été activée brutalement et a fait émerger des groupes de plus en plus nombreux de citoyens recherchant un leader fort, capable de préserver le statu quo et éliminer les menaces qu’ils ressentent. Leur volonté est d’imposer un ordre à un monde qu’ils perçoivent comme étant de plus en plus étranger.
 
C’est sur cette tendance de fond que Trump a bâti sa popularité, en incarnant un leadership autoritaire des plus classiques : une autorité simple, puissante et punitive. Les électeurs voient en Trump celui qui incarne cette tendance, et le portent au pinacle, au point de faire imploser si ce n’est exploser le parti républicain lui-même.

Trump est un révélateur

Les autoritaristes, qui émergent en masse dans l’électorat américain, ont trouvé dans Trump le leader idéal, suffisamment fort pour défier les menaces avec vigueur, voire brutalité. Un leader aux caractéristiques totalement différentes de celles que l’on connaît dans la politique américaine, capable de bousculer toutes les normes de l’acceptabilité.
Trump n’est donc pas qu’un simple candidat. C’est le révélateur d’un mouvement tectonique extrêmement puissant. Pour les politologues qui ont mené cette étude, Donald Trump pourrait être juste le précurseur de nombreux autres Trump dans la politique américaine.  Et ailleurs.
 
Intrigué par ce phénomène révélé il y a près de sept ans par les deux universitaires, le magazine Vox a voulu approfondir la question en menant, en collaboration avec l’institut de sondage Morning Consult et d’autres médias de Washington, une grande enquête électorale. Les résultats qu’ils ont obtenus sont stupéfiants.
Ce qui apparaît avec une clarté remarquable est que Trump est incontestablement un symptôme : celui de la montée de l’autoritarisme. Ce n’est pas Trump qui est remarquable, mais ce qu’il révèle.

Qu’est-ce que l’autoritarisme ?

Depuis des années des chercheurs à la croisée des sciences politique et de la psychologie sociale se sont penchés sur le phénomène et notamment celui du nazisme, et ont posé cette question lancinante : comment les gens viennent-ils à adopter, en si grand nombre et si rapidement, les opinions politiques extrêmes qui semblent coïncider avec la peur des minorités et avec le désir d'un leader fort ?
 
Pour répondre à cette question, les théoriciens étudient ce qu'ils appellent l’autoritarisme : non pas les leaders eux-mêmes, mais plutôt le profil psychologique des personnes qui, dans les bonnes conditions, désireront certains types de politiques extrêmes et chercheront des leaders forts pour les mettre en œuvre. Cette recherche a culminé en 2005 avec la publication de l’ouvrage de l’Australienne Karen Stenner, professeur en psychologie politique, The Authoritarian Dynamic.
 
Selon cet auteur, il existe des sous-ensembles d’individus qui développent des tendances autoritaires latentes. Ces tendances sont « activées » ou déclenchées par ce qu’elles considèrent comme des menaces physiques ou des menaces mettant en péril la société. Dans ces circonstances, ces individus, quelle que soit leur appartenance sociale ou politique antérieure, sont conduits à désirer et soutenir des politiques extrêmes et des leaders forts.
Comme le résume Jonathan Haidt, de l’Université de New York :
« Dans le cas d’une menace, ils appellent à fermer les frontières, à jeter dehors ceux qui sont différents et punir ceux qui sont moralement déviants. »

Au-delà des clivages habituels

Pour les politologues, ce que l’on peut nommer les « autoritaristes » constituent un véritable ensemble qui existe indépendamment de Trump ou d’un leader spécifique, qui se situe à un autre niveau que celui des habituels clivages ou familles politiques mais qui persistent comme une force latente dans la société. Ce qui les caractérise principalement est leur recherche d’un ordre dans le chaos du monde. Toutes les situations qui représentent un danger pour le maintien de cet ordre (diversité, afflux d’étrangers, dégradation perçue de valeurs anciennes, etc…) sont vécues comme autant de menaces qu’ils ressentent personnellement et qui compromettent leur sécurité la plus élémentaire.
Dans ce cas, sans tenir compte de catégories idéologiques ou partisanes traditionnelles, ils affluent vers celui qui saura, par la force de son tempérament et des actions décisives, les protéger de ces menaces. Donald Trump joue ce personnage à tel point qu’il en est devenu l’incarnation archétypale.
 
Pour Karen Stenner, « autoritarisme » ne doit pas être confondu avec « conservatisme ». Cette confusion serait la raison pour laquelle les analyses politiques traditionnelles n’auraient pas vu venir le phénomène Trump. Le conservatisme se définit par une aversion à l’égard du changement ; c’est un mouvement qui peut englober des individus d’ethnies et de religions différentes, pour autant qu’ils entrent dans le cadre des « valeurs traditionnelles ». Alors que l’autoritarisme se définit par une aversion à l’égard de groupes perçus comme responsables de cette menace : il ne s’agit pas, à proprement parler de racisme, mais plutôt du ciblage d’un bouc émissaire du moment —et en ce moment, aux États-Unis, c’est le musulman ou l’Hispanique.
La caractéristique principale de ce groupe des « autoritaristes » est qu’il est transpartisan. Il se situe au-delà du clivage gauche-droite, et recrute ses partisans sur les franges de droite comme de gauche des échiquiers politiques. Aux États-Unis, ce groupe polarise la vie politique au-delà de la distinction entre républicains et démocrates. Certes le parti républicain en génère la plus grosse partie, notamment à cause de son virage à droite avec l’ascension du Tea Party, mais tous les autoritaristes ne se reconnaissent pas dans le Tea Party.

Une force considérable mais inaperçue

Plusieurs chercheurs ont essayé de comprendre pourquoi ce groupe de citoyens ne s’est pas manifesté plus tôt, pourquoi est-il passé presque inaperçu alors qu’il possède une taille considérable. Comme ils n’émergent pas facilement des sondages par des questions telles que « avez-vous peur des musulmans », des politologues comme Stanley Feldman ont donc commencé dans les années 1990 à poser des questions plus pointues, telle que « qu’est-ce qui est le plus important pour un enfant : être indépendant ou avoir du respect pour les aînés ». Des questions qui, par fragments, tentent de dégager un portrait impressionniste des valeurs par lesquelles une personne se définit. C’est de ces sondages que s'est dégagée l’image d'un courant de fond « autoritariste » passé inaperçu et qui n’aurait attendu que les bonnes circonstances pour être « activé ».
 
Combien sont-ils ? Avec le tiers des votes dans les primaires républicaines, Trump a-t-il fait le plein, ou bien le mouvement peut-il continuer de croître ? Et dans l’hypothèse où Trump perde, que va-t-il se passer après l’élection de 2016 ? Le magazine Vox a tenté de répondre à ces questions dans une enquête exclusive. Il s’en dégage que 44% des Blancs se retrouvent dans les cases « beaucoup » ou « très » autoritaristes, mais qu’ils ne votent pas tous —ou plus précisément, que leur vote sera orienté s’ils perçoivent, ou non, une menace. Or il se dégage justement aujourd'hui qu’ils sont plus nombreux à avoir beaucoup plus peur de l’État islamique, de la Russie ou de l’Iran que d’un accident de voiture, par exemple. Ils sont aussi plus nombreux à avoir peur du changement social : 44% définissent le mariage gai comme « une menace pour le pays ». Ils sont surtout républicains —mais un tiers seraient démocrates. Il s’agit, en bref, d’un mouvement « qui existe indépendamment de Trump », écrit la journaliste Amanda Taub dans Vox : « Si Trump perd l’élection, ça n’éliminera pas les menaces et les changements sociaux qui activent « l’appel à l’action » de l’autoritarisme. Les autoritaristes chercheront des candidats qui leur donneront le leadership fort, punitif, qu’ils désirent. Ce qui veut dire que Donald Trump pourrait être le premier de plusieurs Trump en politique américaine, avec des implications profondes pour le pays ».
 
 
Sans nul doute, cette analyse n’est pas exclusive aux États-Unis. Les mouvements autoritaristes émergent partout en Europe ; en France, le Front national qui cherche à cristalliser ce courant latent, occupe une part importante de l’électorat. Ce que ces études enseignent c’est le caractère latent de ces mouvements. Ils ne sont pas forcément conduits par les personnalités politiques (elles ne sont que des « déclencheurs »), ces forces ne peuvent s’inscrire sur les échiquiers politiques traditionnels (elles sont sous-jacentes), ni dans les catégories dans lesquelles on les place habituellement, par facilité, comme le populisme par exemple (le populisme est la haine des élites ; or le milliardaire Trump en est le parangon), leurs réactions sont imprédictibles car elles participent de la logique du chaos plus que de celle de la raison. Avec les crises qui se télescopent —économiques, des réfugiés, des États-nations, des partis politiques, menaces du terrorisme islamiste—  les conditions chimiques de la précipitation de ce composant latent apparaissent plus que jamais réunies.  
 
Illustration : Gage Skidmore, Javier Zarracina/Vox
 

 

intelligence artificielle

Convocation de la psychanalyse dans le monde de l'intelligence artificielle

Au moyen de cet article nous aimerions présenter le travail de Paul Jorion sur les systèmes intelligents, puis ouvrir cette présentation sur les réseaux de neurones, puisque ces deux parties s’inscrivent dans une histoire commune continuée, celle de l’intelligence artificielle, qui en est à ses débuts, mais déjà traversée de ruptures.
Photo : Film Ex Machina de Alex Garland, 2015
 
« Et d’une certaine manière, moi je n’ai pas vraiment regretté de quitter l’intelligence artificielle à ce moment-là, au moment où je l’ai quittée, parce que je m’étais engagé dans une voie absolument différente de tout le monde. On verra si un jour on appelle ça « novateur », mais à ce moment-là, bon, j’ai fait la chose qui surprenait tout le monde. Les gens qui travaillaient autour de moi, ils avalaient des gros traités de logique formelle, et moi j’ai dit : « Eh bien, on va prendre Freud et Lacan et on va faire marcher une machine à partir de ça. » Voilà ! Alors, c’était l’époque où dans le domaine des scientifiques – je ne parle pas de la société dans son ensemble – la psychanalyse, ça passait pour un truc de charlatans. Ça va changer, bien entendu, on va se rendre compte que la psychologie dont on a besoin dans ce domaine de l’intelligence artificielle, et ça, je l’ai déjà dit dans mon bouquin que j’ai écrit en 89, « Principes des systèmes intelligents », le type de psychologie dont on a besoin pour rendre des machines intelligentes, c’est le type de compréhension qui vient de Freud, de Lacan, de Mélanie Klein, enfin un certain nombre de personnes qui ont réfléchi à ces trucs-là. »  
Paul Jorion, tiré de son blog - 5 déc 2014 (Le temps qu’il fait).

Paul Jorion

Langage, langage-machine, pensée, apprentissage et  personnalité

« Machine learning », machines auto-apprenantes
 
La séance inaugurale de la chaire annuelle du Collège de France : informatique et sciences numériques a eu lieu au début du mois de février 2016. Menée par Yann Lecun, elle portait sur l’intelligence artificielle, et plus précisément sur l’apprentissage profond, encore appelé « deep learning » [1]. Il se passe donc quelque chose du côté des machines qui trouve à se faire entendre d’une institution étatique comme pour en valider, légitimer l’importance enfin prise en considération ; une chose qui par ailleurs tend à venir effacer une limite jusque-là tenue pour inattaquable et qui séparait le sujet humain de la machine par rapport à la possibilité de l’auto-organisation, et, pour en simuler de plus en plus parfaitement et finement les effets [2] à travers l’activité noétique de l’apprentissage. Ainsi, une dernière étape serait en passe d’être  atteinte [3], et une autre vieille séparation tomberait plus ou moins totalement (qui jouait l’auto-organisation évolutive du vivant contre la fixité des programmes des machines car jusqu’à présent celles-ci n’étaient pas capables d’évoluer et d’apprendre par elles-mêmes, il fallait les superviser), effet dont il est difficile de prévoir les conséquences sur les sociétés (en terme métaphysique, social, affectif, catégorial, économique, technique). Mais cela est déjà réfléchi, analysé, discuté dans les divers endroits du monde et il se pourrait que chaque société ne réagisse pas de la même façon au défi lancé par ces machines et à celui de leur intégration au corps social, cela en fonction de la singularité des régimes axiomatiques propres à chacune.
 
Informatique et effet d’intelligence
 
Au moment où nous écrivons ce papier nous n’avons pas écouté les conférences dont nous faisons mention plus haut, mais nous voudrions partir de là, de cet événement institutionnel pour parler d’un livre qui fut écrit par Paul Jorion (par ailleurs anthropologue et économiste) en 1989 et qui porte le titre : "Principes des systèmes intelligents" [4], parce que celui-ci a opéré sur nous comme une véritable secousse. Il nous semble avoir abordé - parmi les tous premiers - l’intelligence artificielle d’une autre façon, articulant plusieurs éléments (dont certains mêmes peuvent apparaître étrangers à la discipline informatique) mais qui concourent à construire ce qu’il appelle : l’effet d’intelligence.
 
 
« Effet d’intelligence » [5], car Jorion ne se demande pas ce qu’est l’intelligence, il ne cherche pas à en fournir une définition achevée ni à en dégager une essentialité, mais plutôt à repérer ce qui dans le réel est tenu par les humains pour de l’intelligence, ce qui fait impression d’intelligence. C’est donc du point de vue du vécu humain, du point de vue phénoménal et immanent pourrait-on dire qu’il aborde le problème. En procédant ainsi, il se demande quelles conditions doivent être remplies par les systèmes machines inorganiques dans leurs opérations internes pour que les humains puissent dire une fois placés devant : – cet ordinateur est intelligent, il pense, son intelligence est semblable à la mienne. Et nous verrons que dans les principes qu’il a dégagés pour parvenir à cet effet de similarité, certains sont devenus par la suite, les principes fondamentaux des branches filles des systèmes intelligents « princeps », et dont toutes ont la particularité de s’éloigner – à des degrés divers - des systèmes experts, pour être des systèmes auto-apprenants ou encore évolutionnaires.
Nous reviendrons sur ces systèmes un peu plus tard ; suivons pour le moment les traces de Paul Jorion qui vont nous mener – par la problématique du langage et de sa conceptualisation à travers la psychanalyse entre autre, c’est cela qui nous parut étrange et qui nous intéressa en première instance - vers les systèmes apprenants que l’on appelle aujourd’hui les réseaux de neurones ainsi que la méthode : programme génétique [6].
 
On pense parce que l’on parle ?
 
Dans son introduction, Paul Jorion s’interroge sur le langage, sa place par rapport à la pensée et il se demande, en terme de chronologie - si l’on pense parce que l’on parle, ou si l’on parle parce que l’on pense ? Et face à cette alternative, il choisira de poser et questionner l’antériorité des mots, de poser que la pensée émerge à partir des mots et il formule sa problématique ainsi : « Autrement dit, et si la pensée résultait de l’auto-organisation de mots ? » Ce qui sera l’hypothèse de son livre. Une hypothèse forte.
Hypothèse qui lui servira pour développer un autre type de modélisation du langage dans les systèmes intelligents et sur lesquels il va d’ailleurs lui-même travailler [7].  Un autre langage donc, et qui « serait comme la production d’un discours cohérent résultant de l’exercice dynamique de contraintes sur un espace de mots. ». Il faut alors trouver comment structurer les machines pour qu’elles puissent suivre une telle procédure et pour qu’elles puissent se mettre en mouvement dans un tel espace.
 
Lorsqu’un humain s’adresse à une machine et lui pose une question, c’est pour obtenir une réponse, une information qu’il ne possède pas, mais cette réponse dit Paul Jorion, peut être de deux types. Soit elle ne surprend pas et répond simplement à la question et à l’attente du questionneur. Soit elle surprend et donne l’impression que la machine a saisi plus que l’explicite de l’énoncé, et « qu’elle confronte l’humain au débordement habituel du désir par rapport à la demande ».
Cela pour montrer que si nous voulons qu’une machine donne d’elle-même une impression autre que machinique, il faut qu’on la structure selon certaines caractéristiques dans lesquelles, par ailleurs, pointent étrangement des notions qu’on retrouve dans le champ de la psychanalyse. Mais nous précisons que ce n’est pas le cas avec toutes les caractéristiques. Nous allons les énumérer succinctement.
 
Première caractéristique : obligation pour un système intelligent de disposer d’un savoir (une base de données), puis d’être à même de transmettre son savoir (interface en langue naturelle orientée sortie), puis d’être à même d’acquérir un savoir (extraire une connaissance de ce que l’utilisateur ou l’environnement lui transmettent, grâce à un parseur et un module d’apprentissage), puis savoir interroger l’utilisateur, puis ne pas imposer son savoir mais le négocier (arriver à déterminer le degré d’adhésion de l’interlocuteur), et enfin avoir une personnalité propre.
Certaines caractéristiques, on l’observe, semblent malaisées à attribuer à une machine et participent de  l’effet que Paul Jorion appelle : intention, c’est-à-dire que le système a pris une initiative. Il n’a pas eu un comportement « machinique » habituel, et par ailleurs il a proposé l’information la plus pertinente ici, c’est-à-dire la plus fine par rapport au contexte, il s’éloigne du stéréotype. La dernière caractéristique est celle qui est de plus haut niveau, c’est elle qui donnerait cette impression qu’une « personne », qu’une pensée et une intelligence comme humaine s’y trouvent[8]. La machine aurait donc une personnalité et serait capable d’auto-organisation.
 
 
Mais comment construire une telle machine ?
 
Des systèmes symboliques aux systèmes sémantiques : un pas vers l’associationnisme
Tout d’abord, il faut préciser que les systèmes intelligents qui en seraient capables, ne sont pas ceux que l’on appelle les systèmes experts (dit encore symboliques, ce que sont nos ordinateurs actuels), mais d’après Jorion, des systèmes sémantiques devenus mnésiques. Un système mnésique repose sur plusieurs postulats en ce qui concerne à la fois le langage, la mémoire et les affects. Nous allons donner des précisions quant à chacun de ses aspects au cours de l’article.
 
Concentrons-nous d’abord sur le langage
Prenons un discours. Soit nous pouvons l’envisager du côté de la signification [9], soit nous pouvons l’envisager du côté du signifiant et plus encore comme un parcours séquentiel à l’intérieur d’un espace de signifiants (indépendamment de leur signification), c’est-à-dire pour reprendre les mots de Paul Jorion, que le langage serait « comme un chemin tracé sur un lexique compris comme la liste de tous les mots d’une langue ». Mais alors une question se pose, si ce n’est pas la signification des mots qui importe pour leur association, et si ce n’est pas ce à quoi ils renverraient du monde et des choses qui importe, selon quelles règles associatives pouvons-nous alors les articuler en tenant compte par ailleurs du plan de linéarité temporelle qu’est la parole, la phrase ou l’énoncé ?
Plusieurs options se présentent. La méthode dite du singe : « qui explore les tirages d’une vaste combinatoire ». La méthode dite des règles : « qui se donne a priori un ensemble tout fait de contraintes auxquelles le parcours sera soumis. Cette méthode nous la connaissons bien puisque c’est là que nous retrouvons les différentes contraintes : d’ordre syntaxique (l’ensemble des mots de la langue sont partagés en partie du discours), d’ordre  sémantique qui correspond à l’organisation interne de la langue, ex le verbe «  penser » exige comme sujet un substantif dénotant un être animé. D’ordre pragmatique, c’est la dimension proprement dialectique qui pose que d’une phrase ne peut pas suivre une autre phrase dont le sens est sans rapport ou qui la contredit. Cela correspond au sujet des topiques de l’organon  d’Aristote.
Puis pour finir les contraintes d’ordre logique. Mais comme le dit Jorion : « cette méthode demande qu’avant même de pouvoir générer une phrase, il aura fallu construire un système immense en termes de règles et de métarègles stockées et qui exige pour un simple fonctionnement un temps de traitement inacceptable. »
Le cerveau humain ne fonctionne pas comme cela. La production d’une phrase pour un être humain ne prend que quelques dixièmes de seconde. Il faut donc envisager la dernière méthode, celle du : coup par coup, et c’est là que nous retrouverons une intuition de la psychanalyse (celle de l’association libre) par rapport au langage, et aux signifiants. Ici, nul n’est besoin de définir des règles a priori, il faut seulement un principe qui permette de déterminer une fois que l’on a posé un mot, lequel pourra être le suivant. Et « on peut imaginer que soient en place de manière constante des chenaux et des chréodes, des passages privilégiés pour se rendre d’un mot à un autre ». Ici, il faut donc raisonner en terme de trace, comme si pour aller d’un endroit à un autre, d’un mot à un autre, nous empruntions toujours le même petit chemin et qu’à force la végétation se soit arasée, le passage d’un mot à un autre renforcé, et pour la suite, en découlerait une facilité d’association [10] ; Paul Jorion pense que le cheminement de la pensée s’effectue de la même façon, à savoir qu’une fois posé le point de départ, en l’occurrence, un mot, et bien le chemin qui se déploie à sa suite est en quelque sorte indiqué et c’est lui que nous emprunterions plutôt que de couper à travers la forêt, c’est-à-dire plutôt que de choisir un nouveau mot ( la poésie, elle essaie de sortir de ces chenaux). Mais ajoutons tout de suite, que ce chemin n’est pas de toute éternité déjà présent, qu’il est le résultat d’une vie singulière, d’une construction, d’un apprentissage et d’une mémoire qui se constitue tout au long d’une vie. Pour le dire autrement nous ne naissons pas avec déjà conçus tous ces chemins, mais seulement une structure qui en permet la progressive instauration, cette structure étant le réseau de nos neurones et de nos synapses (nous y reviendrons un peu plus tard). Et déjà nous pouvons saisir que le lien de concaténation des signifiants, n’est pas le résultat d’une application de règles a priori ( comme pourrait le laisser supposer la grammaire que l’on apprend à l’école) mais d’un frayage plus ou moins souvent réalisé entre deux signifiants au cours d’une vie (selon les paramètres de l’apprentissage qui  en font la singularité individuelle), et par là nous voyons le lien direct qui s’effectue, entre le fait de passer d’un signifiant à un autre, et la mémoire, car le frayage dont nous avons parlé relève de la mémoire.
 
Ressaisissons maintenant rapidement les choses pour pouvoir poursuivre
La première hypothèse suivie fut :
– Des signifiants émerge la pensée et non l’inverse [11]
La deuxième hypothèse fut :
– Ce qui détermine l’intensité des liens entre les différents signifiants (on abandonne le plan de la signification) lorsqu’ils font discours, c’est-à-dire le passage de l’un à l’autre dans un énoncé, c’est une association, non pas axiomatique et a priori, pas non plus une combinatoire aléatoire, mais le fait de créer une facilité de passage, un renforcement, une habitude de liens, et en cela la mémoire joue un rôle primordial.
 
Associationnisme
 
A partir de là, nous pouvons envisager les choses sous l’angle de l’associationnisme pour qui, « il n’est que simple gradation de la remémoration à la génération d’un discours ordinaire, en passant par le raisonnement ». Nous pouvons penser ici à un terme posé par Freud au moment où il s’est départi de l’hypnose au profit justement de : « l’association libre », dont, et nous citons Paul Jorion, « Loriginalité par rapport à la doctrine d’un langage de la pensée, c’est de s’être rendu compte que ce qui peut être étudié avec toute la rigueur scientifique, ce n’est pas l’association des idées, mais l’association des images et surtout dans leur supposition matérielle ».
Nous insistons, c’est important, car ce dont on se préoccupe alors ce n’est plus de l’association des signifiés mais de celle des signifiants qui font bascule vers d’autres signifiants.  Et par ailleurs, il faut encore ajouter que, si nous sommes bien inscrits avec cette théorie à l’intérieur d’un espace de mots, il n’est pas possible comme le dit Paul Jorion : « de ne pas s’occuper d’un élément qui joue un rôle essentiel dans les enchaînements associatifs, à savoir la production d’images, car c’est ce qui se passe chez l’être humain. En effet, certains mots ont une capacité à évoquer une image, « ex : quand nous entendons « pommes », nous hallucinons l’image d’une ou plusieurs pommes ».
 
 
Suivant cela il y a donc plusieurs modalités d’enchaînements possibles : De mot à mot, de mot à image, d’image à mot, d’image à image. Et cela encore sous deux régimes, sous le régime de l’inconscient (intuitif et automatique) et sous le régime de la conscience. Paul Jorion déclinera encore les différents types d’enchaînements associatifs qui peuvent être : Matériels (acoustiques, graphiques), sémantiques (synonymie, inclusion, connexion simple, traduction, etc.), mais ajoute-t-il : « il est peut-être mieux de se passer de ce mécanisme pour la modélisation d’un système intelligent». Est-ce à dire que nous irions trop loin dans le mimétisme, parce que ce serait trop compliqué à traduire pour l’instant dans une structure machine ou… nous ne savons pas mais Paul Jorion de conclure provisoirement que « pour les langues qui nous sont familières (il montre ailleurs dans le livre comment pour le langage chinois par exemple cela fonctionne autrement), l’enchaînement associatif -qui est requis ici en tant que modèle pour les systèmes intelligents, reflète des relations d’inclusions, d’attribution et de synonymie exprimées à l’aide de la copule « être », et de « connexion simple » exprimée à l’aide de la copule « avoir », cela même qu’il va falloir essayer d’implémenter dans la machine.
 
L’associationnisme dont il a été question ici, et qui peut servir de modèle pour construire un nouveau type de système intelligent, pour autant ne traite que d’un aspect du problème car il faut encore penser le milieu dans lequel il peut se déployer, et nous passons à la problématique de la structure, à celle de l’espace, à celle de la topologie qui devra être traduite en termes d’objets mathématiques.
 
Mais ce milieu, quel est-il ?
Structure évolutive (P-dual d’un graphe).
D’abord il doit être réseau mnésique [12], c’est-à-dire qu’il doit stocker des signifiants de la manière la plus économique, mais il faut ajouter qu’à son début, puisque nous essayons de construire des machines qui imitent l’intelligence humaine, il faut aussi et paradoxalement que ce réseau n’existe pas « trop », qu’il ne soit pas déjà formé/achevé et ce, comme pour un tout petit enfant où ce qui est mis en mémoire est encore assez réduit. Et la question se pose de l’inscription  d’une première trace mnésique qui agira comme germe, car le réseau va évoluer, apprendre et se modifier, sinon il serait comme un système expert, comme nos ordinateurs, ce dont nous essayons précisément de nous éloigner. Et c’est à partir du chenal, que l’on va poser des exigences pour parvenir à cet effet.
 
Le chenal (passage d’un signifiant à l’autre) ne  doit plus s’effectuer selon la séquence « sommet/arc/sommet », mais « arc/sommet/ arc ». Ce qui fait du réseau sémantique, un réseau mnésique [13]. Cette transformation est rendue possible grâce à un nouvel objet mathématique le « P-dual » d’un graphe. Nous ne maîtrisons pas cet objet et renvoyons donc le lecteur à d’autres travaux s’il souhaite approfondir cet aspect.
Mais en terme opératoire cela permet deux choses très importantes, tout d’abord la délocalisation des signifiants, on ne pense plus leur situation à tel endroit, mais plutôt leur situation entre tel et tel endroit. Ajoutons tout de même que le phénomène de délocalisation ne peut être complet, c’est-à-dire qu’aucune représentation ne peut être entièrement délocalisée. Et deuxièmement la distribution, qui permet au signifiant de s’inscrire dans une multiplicité d’enchaînements associatifs, inscription qui n’aura pas pour autant dans chaque cas le même poids. Paul Jorion prend cet exemple : « le signifiant ‘’pomme ’’ » est pondéré différemment s’il apparaît entre ‘’prune’’ et ‘’poire’’ et s’il apparaît entre ‘’Eve’’ et ‘’Adam’’. La charge affective peut être différente, et si on traduit cela en terme d’adhésion, cela veut dire que l’insertion d’un signifiant dans telle ou telle chaîne associative ne reçoit pas la même intensité, il y a des enchaînements associatifs qu’on accepte de remettre en question et d’autres pour lesquels c’est beaucoup plus difficile. Paul Jorion qualifie les premiers de « savoir », en ce qui les concerne on peut accepter sans trop se faire violence de les modifier, par exemple c’est ce que fait la science quotidiennement lorsqu’elle émet des énoncés de vérité, qu’elle modifie par la suite, lorsque la théorie précédente se trouve infirmée ou qu’elle est devenue moins efficace en terme de puissance de généralisation face à la nouvelle. En revanche, il y a des enchaînements associatifs, et on l’observe bien chez l’être humain, qui coûtent énormément lorsqu’on doit les remettre en cause, parfois c’est même impossible ; Paul Jorion appelle ces enchaînements des « croyances » et nous citons : « la croyance au contraire [du savoir] est d’inscription centrale et seulement modifiable de manière « catastrophique » ; par la conversion, qu’il faut considérer alors comme modification des connexions existant entre les éléments qui sont chronologiquement les premiers. La conversion s’observe bien entendu chez les êtres humains, généralement au prix d’une consommation énergétique tout à fait considérable, c’est ce que Freud appelle la « Nachträglichkeit », l’après-coup de telles restructurations.
 
Ainsi, si nous voulons construire une intelligence artificielle qui imite en ses effets l’intelligence humaine, c’est tout cela qu’il faut prendre en considération et qu’il faut essayer de modéliser dans la structure machine. Un réseau mnésique, ainsi que l’appelle Paul Jorion, doit posséder en sus des systèmes informatiques dits « experts », deux traits : la capacité d’apprentissage et la capacité à négocier avec l’utilisateur en fonction – ce dont nous venons de parler- des degrés d’adhésion que celui-ci prête à ses énoncés. Il faut donc que la machine soit capable en quelque sorte de « percevoir » la charge affective, et le degré d’enracinement d’un énoncé dans le réseau mnésique de son interlocuteur, ce n’est que se faisant qu’elle pourra donner l’impression à l’humain qu’une semblable intelligence (même si machinique) se tient face à lui, ou encore qu’une personne se tient face à lui. Nous avions posé au tout début de l’article, qu’il fallait que le système intelligent ait « comme » une personnalité. Il faut donc aussi lui implémenter une modélisation de la psyché humaine. C’est pourquoi la psychologie et la psychanalyse doivent rencontrer l’informatique. Et c’est ce que tente Paul Jorion.
Maintenant retraçons le parcours ici effectué avant d’ouvrir vers ce que nous annoncions, à savoir les réseaux de neurones.
 
Effet de personnalité : structure ouverte et frayage
 
La nouvelle intelligence artificielle doit faire effet d’intelligence, de personnalité. Pour cela, elle doit imiter le fait humain qui reste toujours (disons dans des conditions plus ou moins normales et sereines) un système ouvert, auto-apprenant, qui se modifie par lui-même et au contact des autres et du monde, mais qui possède un caractère, et donc aussi une sorte de noyau structurel peu modifiable. Il faudra arriver à simuler ces deux aspects ; évolutif et figé.
Le réseau mnésique de la machine devra posséder une structure (le P-dual d’un graphe) dans laquelle les signifiants viendront s’ajouter au fur et à mesure de l’exercice de la machine, eux-mêmes pouvant modifier en retour les associations déjà tracées entre les signifiants présents, ainsi que se modifier eux-mêmes.
 
 
Par ailleurs, cette structure mnésique très ouverte (incomparablement plus ouverte que celle des systèmes experts) devra, pour ne pas partir en « tout sens » comme le dit Paul Jorion, être : « domestiquée ». C’est-à-dire que le discours engendré ne pourra pas être, en chacune de ses bifurcations, le résultat d’un choix hasardeux. Il faudra que le parcours soit « informé », « motivé ». Qu’il soit, à l’intérieur de l’espace du lexique, un sous-espace de parcours privilégiés, et cette motivation du choix s’opérera selon deux paramètres [14].
 
Tout d’abord selon l’affect. Paul Jorion va prendre modèle sur la théorie des affects de Freud pour donner sa structure singulière au réseau mnésique, en tant que c’est cette charge affective qui orienterait les passages d’un signifiant à l’autre, en tant aussi que ce serait lui le responsable de la dynamique et de la plus ou moins profonde inscription du signifiant dans le réseau mnésique et donc par-là, de sa propre structure. Pour Freud tout enregistrement d’un percept (visuel, auditif) passe par le système limbique qui lui donne cette petite charge affective, et qui fait qu’il s’inscrit plus ou moins fortement en nous (pensons à la madeleine de Proust et à l’enchaînement associatif qui s’en est suivi en terme d’énoncé romanesque des dizaines d’années plus tard). Car pour Freud : « la mémoire est représentée par les frayages entre les neurones […] le frayage dépend de la qualité d’excitation qui traverse le neurone au cours du processus, et le nombre de fois où le processus se répète ».
Ainsi, on peut penser que ce sont les impressions qui ont agi le plus fortement sur nous qui nous déterminent le plus, qui nous font dire telle chose plutôt que telle autre, qui nous font associer un signifiant avec un autre. Il faudra donc pour orienter le choix lors d’une bifurcation au sein de la machine, donner comme une pondération affective, et transposer ce que Freud nomme la « Bahnung » (le frayage) de la psyché humaine, en renforcement hebbien [15] dans la machine.
Ainsi, on stockerait dans la machine au niveau de l’arc deux valeurs, l’impédance qui correspondrait à la valeur d’affect et la résistance qui serait l’inverse du frayage et ce faisant, on associe à l’arc, non pas une valeur mais un vecteur. Mais par ailleurs, avec l’affect, ce qui entre en jeu, c’est la perception et donc la représentation du monde à travers les organes et les tissus d’un corps [16]. Il va donc falloir que la machine s’équipe d’une interface qui soit en prise avec les phénomènes du monde et qu’elle ne soit plus seulement une machine de langage. Cela sera le cas avec les machines de type « réseau de neurones »,  et nous pensons entre autre au perceptron.
 
Machines interfacées et néoténie
 
En 1989, Paul Jorion développe dans son livre : principes des systèmes intelligents, une autre approche de l’intelligence artificielle, et plutôt que d’en rester à des systèmes déjà entièrement programmés et figés au moyen de structures logiques, il propose de faire de ces machines des machines néoténiques qui seraient capables de s’auto-organiser, d’apprendre, de négocier leur savoir, au fond d’avoir comme une biographie et une personnalité ; et cela, selon des principes empruntés, à la fois à la théorie du langage (abandon du problème de la signification, mise en avant du coup par coup, et du postulat que :  « le sens c’est l’usage » [17]), mais encore à la théorie de la psyché de Freud, Lacan et Klein (l’associationnisme avec l’idée de « l’association libre » des signifiants dans la théorie de l’inconscient, puis celle de la charge affective qui structure la matrice mnésique par frayage), et encore en partant d’une base anatomique (la structure du cortex cérébral : neurones et synapses dont la formalisation mathématique est le P-dual).
 
En s’appuyant sur cette approche, se développeront ce que l’on appelle aujourd’hui les réseaux de neurones ou les réseaux évolutionnaires, que nous allons maintenant présenter succinctement. Cependant, il n’est pas sûr que ce qui nous avait tant saisi (et plu) à la lecture du livre de Jorion, à savoir la présence de la dimension Psychanalytique dans l’intelligence artificielle, c’est-à-dire celle des affects, et de l’inconscient, soit reprise et retravaillée au sein des réseaux de neurones, car il semblerait plutôt qu’une bascule vers le biologique ait été opérée. Le modèle de la dynamique des affects semble être passé en retrait au profit du biologique. Au profit, (peut-être ?) d’une tendance bio-réductionniste ?

Biomimétisme mais réductionnisme ?

Modélisation de la structure humaine et implémentation dans les machines
 
Le problème, ici, est toujours celui de l’intelligence et de l’imitation de ses effets par la machine mais envisagé un peu différemment.
D’un côté donc, des neurones, des cellules gliales, des capillaires, du sang, des synapses ; de l’autre du matériel minéral, des conducteurs ou semi-conducteurs, de l’électricité, et des algorithmes.
Comparaison très sommaire mais qui pose les éléments en présence ou en leur rapport en inadéquation. Car à priori entre les deux, peu de rapport, si ce n’est par l’intermédiaire de la modélisation. C’est donc la modélisation qui a permis d’effectuer le passage de l’un à l’autre, de l’humain à la machine, au moyen de ce qu’on appelle le biomimétisme des « réseaux de neurones ». Les chercheurs et les chercheuses ont pris pour point de départ la structure du cerveau, et en ont réalisé un modèle en s’intéressant plus particulièrement à deux aspects. Premièrement à la manière dont les neurones sont interconnectés, structurés, et deuxièmement à ce lieu de passage et de modification de l’information qu’est la synapse.[18]Nous trouvons dans le que sais-je : les réseaux de neurones écrit par F. Blayo,  M. Verleysen  cette définition des réseaux de neurones : « Les réseaux de neurones sont une métaphore des structures cérébrales (modélisées) : des assemblages de constituants élémentaires, qui réalisent chacun un traitement simple mais dont l’ensemble fait émerger des propriétés globales digne d’intérêt.
 
 
L’ensemble est un système parallèle fortement interconnecté
 
L’information détenue par le réseau est distribuée à travers l’ensemble des constituants, et non localisée dans une partie de la mémoire sous la forme d’un symbole. Enfin un réseau de neurones ne se programme pas pour réaliser une tâche, mais il est entraîné sur des données acquises, grâce à un mécanisme d’apprentissage qui agit sur les constituants du réseau. »
Une fois cette modélisation de haut niveau [19] réalisée, ils ont alors tenté de la traduire sur un plan algorithmique [20]. Mais pour cela encore fallait-il postuler que l’intelligence humaine est calcul, c’est-à-dire postuler que la raison et la pensée humaine se réduisent à du calcul ce qu’avait refusé Paul Jorion, lorsqu’il avait tenté de modéliser la part inconsciente de la pensée humaine, la part de son désir, et de ce qui relève de l’affect pour l’implémenter dans la machine. Ainsi, la machine se donne pour structure celle du cortex humain, et dans le même temps on pose que, lorsque l’humain pense, ce qu’il fait c’est qu’il calcule. Il y a comme cela, une sorte de mouvement d’influence, de va-et-vient, qui va de la machine à l’humain et de l’humain à la machine. Et nous pouvons trouver une origine à un tel postulat dans les propos du philosophe anglais du 17° siècle Thomas Hobbes ; dans son Léviathan voici ce que nous pouvons lire : « raisonner n’est que conclure d’une addition de parties à une somme totale ou de la soustraction d’une somme d’une autre à un reste (…) Ces opérations ne sont pas particulières aux nombres ; elles intéressent toutes les espèces de choses susceptibles de s’ajouter les unes aux autres. (…) […] En somme partout où il y a de la place pour l’addition et la soustraction il y a aussi place pour la raison…la raison n’est en ce sens que le calcul des noms généraux convenus pour marquer et signifier nos pensées, je dis les marquer quand nous pensons pour nous-mêmes, et les signifier quand nous démontrons nos calculs à d’autres. » [21]
Voici donc à peu près posés les éléments à partir desquels travaillent les chercheurs : neurones, synapses et calcul.
 
Nous allons maintenant passer rapidement en revue les étapes importantes qui ont permis au champ de l’intelligence artificielle de prendre forme et de donner lieu au réseau de neurones.
Au départ il y a les travaux d’Herbert Spencer lorsqu’il montre de quelle manière une structure nerveuse contrôle un muscle.
Ensuite, il y a le concept de mémoire associative [22] qui démontre que la fréquence de la conjonction d’évènements tend à renforcer les liens entre leurs représentations cérébrales et que le rappel d’une idée tend à en appeler une autre.
Puis il y a l’apport de D. Hebb dont nous avons déjà parlé, qui interprète l’apprentissage comme la modification dynamique des poids synaptiques.
Puis encore, la loi « du tout ou rien » découverte dans les années 20 par Edgar Douglas Adrian [23]qui montre que le neurone n’est excité que si un seuil est atteint. C’est-à-dire que même si un neurone est stimulé, il se peut qu’il n’y ait pas de potentiel, ni de signal en sortie, et cela parce que la stimulation (en fréquence) aura été trop faible. Cette découverte est particulièrement importante en ce qu’elle permet de relier la biologie à la logique, de faire point de passage entre les deux, puisque cette loi « du tout ou rien » est similaire dans sa forme (qui transforme un processus physiologique continue en un processus discontinu et binaire) à celle des tableaux de vérité de la logique des prédicats (qui est binaire) et donc par suite formellement proche des outils de la logique mathématique. Et d’ailleurs en 1943 on voit paraître un article qui porte le titre : « A logical calculus of ideas immanent in nervous activity » [24].
Ces éléments sont à la base du connexionnisme [25], lui-même situé (sur un plan épistémologique) à l’intersection de la neurobiologie, de la psychologie, et du développement de la logique mathématique [26]. Le but était de parvenir à faire correspondre une structure biologique modélisée à une structure logique binaire.
Ce croisement (en quelque sorte) a donné naissance aux machines appelées « réseau de neurones ».
 
Celles-ci, contrairement aux systèmes précédents (les ordinateurs construits selon l’architecture de Von Neumann) « ne supposent pas que l’on connaisse la solution du problème à traiter, plus précisément, la procédure à suivre pour l’atteindre ou l’approcher » [27]. «  Les réseaux neuronaux s’inscrivent dans un cadre différent : la représentation des données est indirecte et répartie à travers un ensemble de connexions et de poids synaptiques. Auto-organisée, elle est apte à des représentations de haut-niveau (concepts). Pour conclure on peut dire que : « la capacité de traitement de l’information est dynamique à travers la modulation, la création ou la destruction des liens neuronaux. (…) que ces réseaux « s’adaptent et apprennent, qu’ils savent généraliser, regrouper ou classer l’information et ceci du seul fait de leur structure et de leur dynamique, mais pour l’heure ils doivent être considérés comme un complément aux méthodes traditionnelles » [28] car on ne sait pas remonter la chaîne de leur raisonnement et on ne sait pas non plus, avec exactitude pourquoi ils donnent telle ou telle réponse. En quelque sorte, on n’arrive pas à les comprendre et ils échappent.
Présentons maintenant rapidement la structure de ces réseaux de neurones.
 
Réseau de neurones
 
Tout d’abord un réseau de neurones c’est une topologie. La mise en place d’éléments au sein d’un espace et c’est cet espace, sa configuration qui déterminera la potentialité du réseau. Ainsi un réseau non-bouclé et un réseau récurrent n’auront pas les mêmes possibilités, un réseau monocouche et un réseau multicouche non plus. On peut trouver des représentations de ces réseaux sur internet si l’on veut se faire une idée. Ici, pour illustrer notre propos, nous prendrons le perceptron qui est l’un des premiers modèles [29]. Il est constitué d’unités sensitives sensibles à des stimulations physiques diverses, d’unités d’association (connexions entrantes et sortantes), d’une unité de réponse (qui génère une réponse en dehors du réseau), et d’une matrice d’interaction qui définit des coefficients de couplage entre les différentes unités.
 
La particularité de ces systèmes c’est qu’ils sont apprenants, « c’est-à-dire que les stimulations externes induisent – via des mécanismes divers- des transformations [30] internes modifiant les réponses à l’environnement». Il faut encore ajouter que les unités de sens de ces systèmes (« les neurones/synapses) fonctionnent selon trois modalités : compétition, coopération, et adaptation.
Mais le problème avec ces systèmes, c’est qu’il faut encore les superviser lors de l’apprentissage. Il faut en quelque sorte encore qu’un être humain les « entraîne », or l’étape suivante est celle des réseaux apprenant non-supervisés, avec les réseaux qu’on appelle « évolutionnaires », nous les avions annoncés au tout début de l’article.
 
Réseaux évolutionnaires
 
Ces réseaux évolutionnaires n’ont plus besoin d’être supervisés lors de l’apprentissage. Ici, l’adaptation et l’auto-organisation est envisagée, non plus tellement du point de vue de l’apprentissage justement, mais dans une perspective darwinienne, du point de vue du code génétique. Selon la théorie de l’évolution, les organismes vivants se sont adaptés à leur environnement grâce à la modification et à la recombinaison de leur patrimoine génétique. Et c’est cela que les informaticiens essaient actuellement de modéliser et d’implémenter dans la machine. Nous voyons que le cadre épistémologique s’est déplacé depuis que nous avons commencé cet article.
Au départ avec Paul Jorion nous avions un cadre multidisciplinaire où même la psychanalyse (ce qui nous avait énormément intéressé) avait été prise en compte, puis avec les réseaux de neurones cette dimension a disparu, ne reste plus que l’apprentissage compris comme pondération synaptique, phénomène de récurrence et retro-propagation de gradient, et pour finir maintenant avec les réseaux évolutionnaires dans un cadre purement biologique et génétique (cela est rendu possible parce qu’on se représente le génome comme de l’information, c’est-à-dire qu’on fait travailler les unités de sens du génome dans le même sens que les unités de sens en informatique, on rabat l’une sur l’autre, c’est une perspective mais il pourrait y en avoir d’autres). Ainsi, ce que l’on observe c’est une dynamique qui s’apparente à un réductionnisme biologique. Mais avant de finir, exposons les principes qui régissent les réseaux évolutionnaires.
 
Principes des réseaux évolutionnaires : néoténie, aléatoire et auto-génération du code
 
« L’idée de base consiste à construire, sur une base aléatoire et/ou heuristique, un ensemble de solutions potentielles à un problème donné. » [31] Ce qui interpelle ici, c’est l’expression : « un ensemble de solutions potentielles », comme si on constituait une réserve de solutions en vue d’un tri qui s’effectuerait au fur et à mesure, comme si l’approche du résultat, progressive, devait s’effectuer par le jeu des mutations » [32].
Habituellement, ce que l’on fait c’est que l’on va directement à la solution, c’est-à-dire que dans l’intention même on cherche « la solution ». Mais ici, non, l’intention est autre. On commence par générer aléatoirement une population et le « matériel génétique » de cette population -qui dans ce cas est codée sous la forme d’une chaîne de bits et non de bases azotées-, représente un ensemble de solutions potentielles au problème posé. Ensuite, une fois que ces individus (chaînes de bits aléatoirement constituées) sont générés on calcule pour chacun un score (niveau d’adaptation), là, si l’objectif est atteint, alors a lieu la sortie de l’algorithme. Ensuite on sélectionne des reproducteurs en fonction des scores (c’est une sorte de sélection génétique et on entend peut-être les échos de l’eugénisme et ceux d’une diminution de la biodiversité). Puis on construit des descendants par l’application de différents opérateurs génétiques (croisement, mutation). Puis, pour finir, on procède au remplacement de la population par les descendants.
 
Nous voyons que les algorithmes évolutionnaires « fonctionnent en tirant parti de la diversité d’une population pour évoluer vers la solution recherchée. Au départ on n’a aucun moyen de connaître la direction à suivre, et on construit une population aléatoire.» [33] Ce que ces algorithmes évolutionnaires permettent c’est d’engendrer des programmes informatiques, et anecdotes surprenante : il n’est pas rare que les algorithmes découverts soient au moins équivalents à ceux construits par les humains. Le cas le plus étonnant est celui de la redécouverte, à partir des données sur le mouvement des planètes de la troisième loi de Kepler, redécouverte qui au cours de la progression de l’algorithme est passée par l’une des conjonctures initiales du savant allemand.
 
Dans le futur avec ces réseaux, les programmes informatiques seront de plus en plus générés automatiquement et de moins en moins construits (si le processus ne rencontre pas une limitation dont on n’aurait pas encore pu tenir compte).
Pour conclure nous pouvons dire que les réseaux évolutionnaires sont des réseaux de neurones mais qui sont axés sur trois finalités principales. Premièrement, celle qui veut substituer aux poids synaptiques du problème de l’apprentissage, un algorithme génétique (pool de solutions potentielles constitué d’individus constitués de chaîne de bits). Deuxièmement, celle qui veut remplacer les procédures manuelles (présence humaine) d’essais/erreur (apprentissage supervisé) par un apprentissage non-supervisé, grâce toujours à l’algorithme génétique, et troisièmement, l’évolution non pas des paramètres, mais de l’évolution du codage des paramètres, c’est-à-dire en quelque sorte que cela amène à trouver la règle d’adaptation la mieux adaptée à l’adaptation, on recule encore d’un cran.
 
Ainsi, nous arrivons au terme de ce parcours qui nous a vus partir du livre de Paul Jorion et de son geste : la convocation de la psychanalyse dans le monde de l’intelligence artificielle pour ouvrir les systèmes intelligents à l’auto-organisation et à l’apprentissage en fonction du couple affect/mémoire, c’est-à-dire pour faire en sorte que les systèmes possèdent une personnalité et une biographie, à une situation où le modèle biologico-génétique prime, lui-même sous-tendu par le paradigme de l’information.
Alors il resterait bien sûr, à parler de ce paradigme de l’information qui fut le grand absent de cet article et ce n’est peut-être pas pour rien.
 
Juliette Wolf
Tous nos remerciements à la revue Temps marranes n°30 dans lequel est paru l'original de cet article
 
[1] L’apprentissage profond relève du « machine learning » ou « apprentissage statistique » qui est un champ d’étude qui concerne la conception l’analyse, le développement et l’implémentation de méthodes permettant à une machine (au sens large) d’évoluer par un processus systématique, et ainsi de remplir des tâches difficiles ou impossibles à remplir par des moyens algorithmiques plus classiques. Les algorithmes utilisés permettent, dans une certaine mesure, à un système piloté par ordinateur (un robot éventuellement), ou assisté par ordinateur, d’adapter ses analyses et ses comportements en réponse, en se fondant sur l’analyse de données empiriques provenant d’une base de données ou de capteurs. Plusieurs modes d’apprentissage sont mis en jeu : l’apprentissage supervisé, l’apprentissage non-supervisé, et l’apprentissage semi-supervisé.
[2] En octobre 2015, le programme alphaGo ayant appris à jouer au jeu de go par la méthode du deep learning a battu par 5 parties à 0 le champion européen Fan Hui[3]. En mars 2016, le même programme a battu le champion du monde Lee Sedol 4 parties à 1.  Information extraite d’un article de wikipédia
[3] Nous reprenons la distinction tripartite de Bernard Stiegler pour qui trois époques peuvent être dégagées dans l’histoire de l’évolution du rapport homme-machine: le temps où les machines se sont mises à « faire » à notre place, ce qui est pour l’auteur la strate du « savoir-faire », par exemple la machine du métier à tisser de Vaucansson, l’époque où les machines se sont mises à nous remplacer aussi dans notre « savoir vivre-ensemble » : par exemple avec la télévision, puis l’époque où les machines se sont mises à nous remplacer pour les activités de pensée, c’est la dernière strate, celle de la noèse, du « savoir-savoir » et que nous atteindrions aujourd’hui avec les machines du type : « machines apprenantes »
[4] Principes des systèmes intelligents. Paul Jorion. ed du croquant, 2012.
[5] Cette notion d’effet, nous la retrouvons chez Baruch Spinoza (1632-1677). Philosophe et tailleur de lentilles pour lunettes et microscope.
[6] Il ne s’agit pas du génome, mais d’une nouvelle façon de générer du code.  Ce n’est plus l’utilisateur humain mais la machine elle-même au moyen d’une combinatoire aléatoire de populations binaires qui génère des « individus solutions », c’est-à-dire une sortie algorithmique efficace.
[7] Nous faisons référence à  ses travaux sur Anella : Associative Network with Emerging Logical and Learning Abilities
[8] La série real human (la première saison) était une bonne mise en jeu de cette problématique. Quels rapports les humains vont-ils entretenir avec leurs robots qui auront désormais une apparence humaine et une intelligence identique –voire supérieure- à la leur ? Un rapport de maître-esclave, un rapport d’égalité ? De peur ? De rejet ? De jalousie ?
[9] Paul Jorion dit à propos de la signification : « le problème ce n’est pas que nous ne comprenons pas le fonctionnement de cette chose que nous appelons signification, c’est plutôt que nous ne savons pas ce qu’elle est. Autrement dit, nous ne savons pas ce que le mot veut dire, car si la signification est la chose à laquelle le mot renvoie, il y a peu de mots qui ont un significat. Exemple avec le mot liberté, à quelle chose « liberté » renvoie, ce n’est pas évident de le déterminer, on voit qu’il est ici plus question de définition, d’un sous-réseau du réseau mnésique, et que c’est une convention.
[10] Cette facilité de passage, est ce que les chercheurs des systèmes intelligents de type réseau de neurones vont appeler le renforcement progressif, par auto-modification du poids synaptique (la récurrence) et qui est en lien étroit avec la problématique de l’apprentissage puis donc, celle de l’auto-organisation.
[11] Nous citons Paul Jorion : « Mes paroles me surprennent moi-même et m’enseignent ma pensée ». La pensée ne serait qu’une reconstruction opérée sur la base des paroles prononcées.
[12] C’est ce qui donnera le terme de « réseau de neurones » pour les systèmes les plus récents.
[13] Dans un réseau sémantique les signifiants sont placés aux sommets, par exemple : « un perroquet » et les couleurs de relation – par exemple «  est un », sont placés dans les arcs (les arcs sont des sortes de liens). C’est le contraire dans un réseau mnésique. Les couleurs de relations sont au sommet et les signifiants sont au niveau des arcs.
[14] Le premier paramètre : l’affect, nous en parlons dans cet article, mais le deuxième paramètre si nous n’en parlons pas, ce n’est pas parce que nous avons oublié mais parce que nous n’avons pas très bien compris de quoi il retourne. Paul Jorion parle de gravité, au sens de gravitation, de ce qui attire vers le bas. Nous laissons donc le lecteur et la lectrice dans l’obligation d’aller voir par eux-mêmes. C’est ici un manque, nous en sommes conscients.
[15] Hebbs (1904-1985) est psychologue et neuropsychologue canadien. Il va tenter de trouver une alternative au « behaviorisme », et ce faisant met en évidence le renforcement synaptique par simultanéité. Mais ce qui est intéressant c’est que Freud l’avait déjà postulé : « Or, il existe une loi fondamentale d’association par simultanéité [qui] donne le fondement de toutes les connexions entre neurones PSI. […]. La charge s’avère équivalente au frayage, par rapport au passage de la quantité (Q’n) ». Dans «  Naissance de la psychanalyse”, PARIS, PUF 1979.
[16] Spinoza a montré en quoi l’affect est comme une fibre dédoublée. Nous le citons : « j’entends par affect les affections du corps par lesquelles sa puissance d’agir est accrue ou réduite, secondée et réprimée, et en même temps que ces affections, leurs idées. » L’affect est à la fois un événement corporel  (affection) et la conscience de cet événement.
[17]  cf. Wittgenstein.
[18] La synapse est une jonction fonctionnelle entre deux neurones, mais qui se traduit en terme topologique par un petit vide inter-membranaire. Elle permet le passage des neurotransmetteurs (pour les neurones chimiques) qui traduit le potentiel d’action du neurone afférent en un potentiel d’action pour le neurone efférent (potentiel qui peut devenir nul, voire même s’inverser). Les synapses jouent donc un rôle de premier plan dans le codage de l’information nerveuse.
[19] C’est une modélisation de haut niveau parce que c’est au niveau de la cellule dans sa globalité (le neurone et les synapses), insérés dans le réseau de l’ensemble cortical, qu’on se situe et non pas, par exemple, au niveau des échanges d’ions le long de la membrane. Mais on aurait pu faire ce choix.
[20] Peut-être faut-il attendre encore un peu pour qu’une hybridation plus prononcée devienne concrète, une convergence qui tendrait à une homéostasie en proportion, entre des supports biologiques et des supports « inorganique minéral ».
[21] Réseaux de neurones, une introduction. J.P Rennard. Ed Vuibert (2006).
[22] W. James (1842-1910).
[23] E.D Adrian est médecin et éléctrophysiologiste anglais.
[24] W. McCulloch Et W. Pitts.
[25] Nous précisons que le connexionnisme n’est qu’une des formes du biomimétisme appliquée à l’intelligence artificielle. Il y a encore par exemple : l’approche « animat », « animal-like » ou  l’I.A distribuée.
[26] Influencé par Whitehead et Russell pour qui, il fallait refonder les mathématiques sur la seule base logique, cf. Leur livre :  Principia mathematica  publié en 1910-1913 .
[27] Réseaux de neurones, une introduction. J.P Rennard. Ed Vuibert (2006).
[28] Ibid.
[29] Wikipedia
[30] Réseaux de neurones, une introduction. J.P Rennard. Ed Vuibert (2006).
[31] Ibid.
[32] Ibid.
[33] Ibid.
 
 
 
 

 

Stromatolithes

La vie est apparue sur Terre bien plus tôt qu’on ne le pensait. Et avec elle, l’information.

3,7 milliards d'années ! C'est l’âge de la vie sur Terre, révélé par la découverte de concrétions minérales formées par des bactéries dénichées au fond des glaces. Des géologues australiens viennent en effet de découvrir au Groenland des traces d’une activité microbienne remontant à 3,7 milliards d’années, soit 200 millions d’années de plus que les records précédents trouvés dans des roches d’Australie ou d’Afrique du Sud. Et 800 millions d’années environ seulement après la formation de la planète. L’origine de la vie sur Terre, une question qui hante les esprits depuis que l’homme est en mesure de penser.
 
La vision moderne que la plupart d’entre nous avons de l’origine de la Vie est, au fond, assez poétique. Elle décrit le spectacle des milliards de milliards de particules qui naviguent et jouent au billard dans l’immense espace de l’Univers et se mêlent un jour d’assembler un objet présentant une propriété particulière ; il se produit alors un événement inouï qui résonne dans le vide astral. Cet événement est la faculté pour un objet de se reproduire ou plus exactement, la faculté de se répliquer, c'est-à-dire d’utiliser ce qui se trouve à sa portée pour fabriquer une copie exacte – hormis quelques erreurs mineures inévitables dans toute reproduction – de l’entité tout juste née. La Vie, si l’on tente de la définir au regard de nos connaissances actuelles, est ce phénomène par lequel des molécules complexes s’assemblent, tirent matière et énergie de leur environnement et se reproduisent.
 
Ce saut dans le temps de 200 millions d’années qu’offre la nouvelle étude publiée par la revue Nature prouve que la vie a pu apparaître très tôt sur Terre, dans des conditions difficiles, avec une atmosphère dépourvue d’oxygène, un bombardement formidable de météorites, un rayonnement solaire intense et destructeur…
Incidemment, cela relance l’intérêt des missions martiennes qui explorent des terrains dont l’âge correspond justement à celui des roches étudiées au Groenland. Les robots pourraient y trouver des traces plus visibles et nombreuses que les quelques vestiges fossiles mises au jour sur Terre.

L’aurore archaïque de la vie

En 1986, William Schopf de l’Université de Californie à Los Angeles découvrait, dans des formations géologiques d’Australie Occidentale vieilles de 3,5 milliards d’années, les traces d’assemblages que sont les premiers organismes vivants. Ces organismes primitifs nés au fond de lacs et de lagunes correspondent vraisemblablement à ce que seront plus tard les bactéries et les algues. Ces premières formes de vie, dont les reliques sont gravées dans les couches rocheuses calcaires ou siliceuses (les stromatolithes que l’on vient de découvrir au Groenland), sont extrêmement rudimentaires ; elles ne sont qu’un avant-goût des formes plus complexes qui naîtront bien vite, mais elles comptaient déjà un nombre de sujets supérieur au nombre d’êtres humains ayant jamais existé.
 
Longtemps restés mystérieux et considérés comme rudimentaires, ce n’est que très récemment que les progrès de la biologie moléculaire ont fait apparaître que ces organismes vivants tapis au fond des âges ne sont pas si rustiques que cela ; ils possèdent un caractère éminemment complexe. Ils sont les briques du jeu de construction de la vie, présentes et indispensables, encore aujourd’hui, dans toutes les structures vivantes sur cette planète. La cellule vivante la plus archaïque n’est pas un simple amas de molécules, assemblé plus ou moins au hasard ; c’est une structure qui fonctionne selon un projet.
 
 
Les stromatolithes dont nous retrouvons les traces géologiques étaient fabriqués par des colonies de cyanobactéries faisant partie de la classe des « procaryotes ». Dans l’aurore archaïque de leur existence, ces organismes, si sommaires qu’ils n’avaient pas encore réussi à confiner leur ADN dans le noyau de leur unique cellule, avaient pourtant appris à s’organiser selon un projet, en divisant notamment leurs fonctions. Certains membres de ces colonies étaient chargés d’opérer la photosynthèse en stockant l’énergie solaire dans des molécules spécifiques ; d’autres prélevaient dans leur environnement la substance nécessaire à leur alimentation et rejetaient les déchets potentiellement toxiques dans des décharges. Un autre groupe enfin était destiné à se nourrir de ces déchets pour éviter la contamination des autres membres de la colonie.

Stratégie d’exploration et de conquête

Tous ces organismes interdépendants les uns des autres construisaient un abri de forme généralement circulaire pour les héberger. L’architecture de ces constructions est considérable au regard de la taille microscopique de ces organismes : les édifices atteignent et dépassent parfois deux mètres de longueur. Les restes fossilisés de ces stromatolithes témoignent indéniablement d’une vie organisée : elles sont construites en ondulations autour d’un centre précis. Ce sont ces abris primitifs dont on a retrouvé les traces au Groenland.
 
Cette forme est la caractéristique d’organismes menant une stratégie d’exploration et de conquête pour l’alimentation que l’on retrouve dans un grand nombre d’espèces bactériennes. James A. Shapiro est considéré comme une référence en matière de biologie moléculaire ; il a intitulé fort opportunément une de ses publications scientifiques Les bactéries sont petites mais pas stupides. Il y démontre que la biologie moléculaire moderne a découvert « un vaste royaume de machinerie intracellulaire complexe, de transduction de signal, de réseaux régulés et de processus sophistiqués de contrôle » que l’on ne soupçonnait absolument pas quand les premières recherches sur la vie furent menées. En effet, des générations entières de scientifiques ont considéré les bactéries comme des organismes peu dignes d’intérêt, cellules solitaires bataillant dans la jungle impitoyable des entités microscopiques. Il n’en est rien. Les bactéries, même les plus primitives, sont dotées de systèmes d’information et remplissent une fonction sociale : la communication.

Intelligence connectée

Les recherches les plus récentes démontrent que les premières communautés de bactéries avaient développé les toutes premières formes de ce que nous appellerions aujourd’hui, dans un raccourci anthropomorphique, une « intelligence connectée ». En effet, ces organismes vivants primitifs, avaient, dès l’origine, tissé entre eux de véritables liens de communication par l’intermédiaire de moyens de signalisation variés – chimiques, génétiques, physiques – capables de diffuser des messages sur une longue distance.
 
Toute cette machinerie relativement sophistiquée, ce « réseau créatif de survie », remplissait un objectif primordial : observer l’environnement pour en prévenir les dangers, détecter les opportunités, s’en nourrir et prospérer. La créativité bactérienne s’exprimait avec talent dans la maîtrise des signaux d’attraction et de répulsion. Lorsque l’environnement autour d’elles était stérile ou hostile, elles émettaient à destination de leurs congénères des signaux appropriés. Les bactéries s’avançant dans les terrae incognitae de leur milieu, le balisait d’informations chimiques extrêmement précieuses pour leur survie et leur croissance. Dès l’origine de la vie, les premiers organismes manipulaient déjà de l’information. Face au monde chaque fois changeant et dangereux qui les entourait, le « génie génétique » de ces micro-organismes allait s’avérer une formidable machine d’adaptation et d’expansion.
 
 
 
Image d’en-tête : stromatolithes en Australie 

 

Séisme en Italie

Que sait-on vraiment des séismes ?

Le tremblement de terre qui a eu lieu le 24 août dans le centre de l'Italie entraîne, comme toujours en pareil cas, son cortège de chiffres macabres et d'images de désolation. Et toujours la même question : peut-on prévoir un tel séisme ? Une question toujours sans réponse qui souligne notre impuissance devant les forces de la nature. Deux sismologues tentent dans cet article de nous expliquer la nature d'un séisme et les pistes de recherche en cours pour la prévention ou au moins l'alerte de ce type d'événements.

La mobilisation scientifique pour la prédiction des séismes ne date pas d’hier. Après le séisme en Alaska de 1964 et dans le cadre d’un effort international, les chercheurs américains avaient demandé la mise en place d’un grand projet national sur la prévision des séismes.

Le titre du projet contenait bien les termes « prévision des séismes » mais la revue Science (Walsh, 1965) notait alors qu’il s’agissait d’une part de donner, avec une grande chance de succès, l’alerte quelques heures ou quelques jours avant les grands séismes, et d’autre part de développer des techniques qui permettent de limiter les pertes humaines et les dégâts même si le premier objectif n’était pas atteint.

L'opinion publique a été plus sensible aux promesses de la prévision qu’à celle de la mitigation. Malgré les immenses avancées dans la compréhension des séismes et de leurs effets catastrophiques, les annonces optimistes des années soixante ont créé une profonde déception vis-à-vis de l’échec apparent de la prévision des séismes.

Sémantique des séismes

Il faut ici aborder des questions sémantiques et d’objectifs. S’agit-il de la prévision de l’occurrence d’un séisme, de la prévision des mouvements du sol potentiellement dangereux ou de la prévision d’une catastrophe ?

Heureusement, tous les séismes n’amènent pas de destructions, et un des objectifs fondamentaux de la sismologie est de comprendre où et pourquoi les destructions se produisent. Il nous faut aussi préciser l’échelle de temps de la prévision : est-ce qu’un séisme est imminent (c’est à dire une annonce dans les secondes, les heures, ou les jours avant l’évènement) ? Où est-il probable qu’un séisme se produise dans les années ou les décennies à venir ?

Chacune de ces prévisions peut être utile, suivant les conditions géographiques et socio-économiques. Même si nous ne savons pas prévoir les séismes, la possibilité de prévoir les mouvements du sol qui vont se produire et les annoncer juste avant que les vibrations destructrices ne se produisent peut être d’une grande utilité.

Cela permet de mettre en sécurité des installations critiques et surtout alerter les populations. Cette forme d’alerte, après le séisme, mais avant ses effets à distance, est déjà mise en pratique dans des régions à haut risque.

Les vibrations sismiques que nous ressentons pendant les séismes et qui peuvent détruire des bâtiments se sont en fait propagées dans les roches en profondeur parfois sur de grandes distances. Ces ondes sismiques se propagent rapidement, mais les plus destructives d’entre elles (les ondes de cisaillement) ne sont pas les plus rapides des ondes élastiques et se propagent bien moins vite que les signaux électromagnétiques.moins vite que les signaux électromagnétiques.

 

Alerte par smartphone. UC Berkeley/YouTube

Quand un séisme se produit, des vibrations sont détectées près de la source et cette information peut être transmise presque instantanément vers des centres où elle sera traitée automatiquement ; ils pourront alors émettre des alertes dans les secondes qui suivent l’émission, donc avant les vibrations destructrices.

Sismologie en temps réel

Ces techniques sont mises en œuvre sous le nom de sismologie en temps réel et de tels systèmes sont opérationnels dans différentes régions du monde (Japon, Italie, Californie, Mexique…). Bien sûr, ces systèmes ne nécessitent pas de prévision.

Sur le long terme, (depuis les années jusqu’aux décades), la géophysique fournit les outils indispensables à un management rationnel des ressources qui doivent potentiellement être affectées à la sûreté sismique. Dans le même temps, les analyses quantitatives des effets des séismes permettent de comprendre les conditions locales qui gouvernent la distribution des dégâts. Ces études offrent des éléments précieux pour adapter les modes de construction et l’aménagement du territoire aux conditions géologiques locales.

En ce sens la sismologie permet d’adopter des politiques de développement orientées vers la sécurité des populations. De grands progrès ont été faits et continuent à s’accomplir, mais il est difficile pour le public d’apprécier l’efficacité d’approches comme l’analyse probabiliste de l’aléa sismique car cette forme de « prévision » s’exprime sous la forme de probabilités à long terme, alors que la vision sensible des séismes est celle des images de destruction qui apparaissent régulièrement dans les médias.

Vision déterministe

La vision publique de la prévision sismique est typiquement déterministe, une réponse binaire à la question de l’occurrence d’un séisme dans un délai de quelques heures à quelques jours, précisément l’échelle de temps pour laquelle aucune réelle avance opérationnelle n’a été faite. Les raisons en tiennent à la complexité des processus physiques à la source des séismes.

Les séismes sont des instabilités de glissements qui se produisent dans la situation critique où la résistance au glissement de la faille – la friction – est proche des forces élastiques résultant de la déformation lente des roches. Bien que nous ne le percevions pas dans notre expérience quotidienne, la Terre est en évolution permanente. Les couches profondes subissent de lents mouvements de convection où les matériaux chauds remontent vers la surface, se refroidissent en plaques rigides puis replongent, donnant naissance en surface à la tectonique des plaques.

 

Les plaques tectoniques. USGS/Wikipédia

Les vitesses des plaques sont de l’ordre du centimètre par an. Lorsqu’un séisme se produit, les deux faces de la faille glissent localement à une vitesse relative de l’ordre d’un mètre par seconde, ce qui représente plus d’un milliard de fois la vitesse constante du mouvement des plaques.

En d’autres termes, les séismes destructeurs se produisent en quelques secondes, mais sont le résultat d’une lente évolution qui s’est étendue sur des dizaines, des centaines ou des milliers d’années. Le temps pendant lequel les mouvements de la Terre ont été mesurés est si court que nous n’avons pas d’espoir de savoir avec précision quand un état critique résultant d’une longue évolution sera atteint.

Phase préparatoire

Néanmoins, des études expérimentales et théoriques suggèrent que la rupture pourrait être précédée par une évolution rapide qui se développerait dans un laps de temps beaucoup plus court que celle de la préparation tectonique. Cette phase préparatoire, souvent appelée initiation, n’est pas observée systématiquement avec les méthodes géophysiques actuelles et on pourrait raisonnablement craindre que cette recherche de signaux précurseurs soit sans espoir considérant la méconnaissance de l’amplitude et de la durée de ces phénomènes. Pourtant des découvertes récentes ouvrent des perspectives plus positives.

 

Géosenseur EarthScope. Bdelisle/Wikipédia

La géodésie et la sismologie ont fait de grands progrès dans leur capacité à détecter de faibles changements dans les roches en profondeur. Les stations GPS en continu et les techniques de traitement récentes détectent des mouvements de plus en plus petits. Les stations GPS et sismologiques sont installées progressivement en d’importants réseaux denses, sous la forme de grandes antennes aux capacités de détection sans précédent.

Séismes lents

Ces dernières années, ces efforts ont été couronnés par la découverte de nouveaux processus de déformation. Le plus spectaculaire a été celui de l’existence de séismes lents. Ces séismes lents sont des épisodes de glissement en profondeur avec des vitesses de glissement intermédiaires entre celles des plaques et celles des séismes normaux. Les séismes lents les plus grands ont une magnitude supérieure à 7.5 (mesurée de manière équivalente à celle des séismes) pour des durées de plusieurs mois et on assiste à de plus en plus d’observations indiquant l’existence de séismes lents avec une diversité de magnitudes.

Cette découverte indique que la Terre se déforme avec des processus d’échelles de temps entre les extrêmes représentées par celle de la tectonique des plaques et celle des séismes. Les déformations transitoires récemment découvertes sous la forme de séismes lents peuvent être étudiées avec les méthodes de la géodésie spatiale (GPS, INSAR…).

Une analyse détaillée des enregistrements sismiques a montré que ces déformations sont aussi associées à une forme de faible grincement consistant en une superposition de micro-évènements sismiques. Ces observations suggèrent que nous pourrons dans le futur détecter et caractériser les faibles déformations en profondeur indiquant la préparation des grands séismes.

Il restera, on le sait, un long chemin avant de parler de prévision, mais les géophysiciens persévèrent dans leurs avancées pour comprendre notre Terre en évolution permanente. Aujourd’hui, bien comprendre les séismes est certainement la meilleure manière de vivre avec eux, de se préparer, de connaître notre vulnérabilité et d’adopter des politiques de prévention qui permettent de vivre dans des environnements garantissant la sécurité optimale de tous.

Michel Campillo, Sismologue, professeur à l'Université Grenoble-Alpes, Institut universitaire de France, Université Grenoble Alpes

Rob van der Hilst, Sismologue, professeur au Massachusetts Institute of Technology, Massachusetts Institute of Technology

La version originale de cet article a été publiée sur The Conversation.

image d'en-tête : Des secouristes recherchent des blessés dans les gravats à Arcuata del Tronto (centre de l'Italie) après un tremblement de terre le 24 août 2016. - Sandro Perozzi/AP/SIPAThe Conversation

 

 

Droit des robots

Faut-il un droit des robots ?

Si l’on s’en tient à son étymologie, le mot « robot » se rapporte à une entité anthropomorphe, car ce mot a d’abord été employé pour désigner un automate humanoïde dans une pièce du tchèque Karel Čapek, RUR, les Robots universels de Rossum, créée en 1921. Mais depuis quelques années, le terme est utilisé en des sens bien plus larges.
L’expression d’« intelligence artificielle » est, pour l’instant, trompeuse ; le robot n’est pas intelligent au sens humain. Et c’est bien cette différence psychologique fondamentale que le juriste devrait intégrer dans son raisonnement lorsqu’il va chercher à appliquer les principes juridiques fondamentaux ou à rédiger des conventions.

On parle aujourd’hui de robots pour désigner des machines-outils, des véhicules automatiques, des logiciels d’aide à la décision, des traders automatiques, des drones, des machines chirurgicales, des exosquelettes, voire des téléphones cellulaires (tous ces robots posent, au demeurant, de nombreux problèmes, ne serait-ce qu’en raison de la mémoire externe qu’ils peuvent, peu à peu, devenir pour les individus).

Les « vrais » robots

Nous pensons néanmoins qu’il serait préférable de conserver au terme de « robot » un sens plus proche de ses origines, à savoir « celui qui imite le vivant », celui qui désigne un humanoïde (androïde) ou, à la rigueur, un animaloïde, voire un végétaloïde.

C’est, en effet, celui-là qui trouve un écho dans l’inconscient collectif depuis le Golem, celui-là qui a justifié tous les fantasmes, toutes les terreurs, mais aussi de nombreuses créations artistiques.

Certains de ces robots se rapprochent le plus possible de l’apparence humaine ou animale, d’autres s’en éloignent, mais se rattachent à l’aspect humain, comme le font des personnages fictifs de bandes dessinées ou de dessins animés. La confusion n’est pas alors parfaite, mais l’assimilation inconsciente demeure.

Certains n’ont pas d’autre vocation que ludique ; mais beaucoup d’entre eux sont censés réaliser une ou plusieurs actions sociales (aide physique, intellectuelle ou psychologique) aux côtés de l’humain (assistance aux personnes vulnérables, notamment aux personnes âgées, aide à l’éducation des plus jeunes). On parle alors de « robots sociaux », sous-catégorie des robots de service.

Un robot de compagnie pour les enfants hospitalisés (vidéo Euronews, mars 2016).

La frayeur entretenue

La crainte grandit de voir, peu à peu, des robots s’humaniser en acquérant une intelligence artificielle, interactive et apprenante, tirant des leçons de leur expérience, s’individualisant au fil du temps, voire commençant à contenir des éléments vivants (ordinateur ou éclairage d’origine biologique).

Réciproquement, l’on s’inquiète de la robotisation progressive des humains (prothèses diverses, implants, y compris dans le cerveau). Mais l’idée, à la fois effrayante et séduisante, qu’un jour les deux mouvements pourraient se rejoindre, demeure, en l’état, une fiction. Et le juriste a bien plus à se soucier d’un troisième mouvement, celui de la manipulation du vivant par la génétique.

Le droit, toujours

L’avocat Alain Bensoussan milite de longue date pour que soit conférée aux robots humanoïdes une personnalité juridique, située quelque part entre le statut des meubles protégés (les animaux), celui des personnes morales et celui des personnes physiques.

L’état de la science nous pousse à penser que, pour l’instant, cette approche demeure prématurée.

Conférence TED d’Alain Bensoussan (novembre 2015)
 

Qui a vu un match de football « disputé » entre robots humanoïdes comprend que l’on est, non seulement loin de la créature monstrueuse qui risque de détruire son créateur, mais encore loin également d’une entité réellement « pensante ».

Nous n’y croirons que lorsqu’un robot-footballeur sera inculpé à l’occasion d’un match truqué. Nous sommes, pour l’instant, dans le « marionnettisme » évolué et numérisé, pas dans la création divine.

À notre sens, attribuer une responsabilité au robot (fût-il interactif et apprenant), lui accorder un patrimoine, peut paraître, en l’état de la science, infiniment plus anormal que d’accorder pareilles titularités aux animaux dont on sait qu’ils sont considérés comme des biens sensibles, voire aux plantes dont on sait qu’elles peuvent adopter une forme de « raisonnement » (opportunisme, défense commune contre un prédateur, etc.).

La question de la responsabilité

L’approche juridique actuelle, face à ces robots qui ressemblent à l’humain et vivent à ses côtés, est, en réalité, probablement, plus simple qu’il n’y paraît. Essentiellement deux questions se posent : celle de la responsabilité et celle du respect de la vie privée.

Quant à la responsabilité contractuelle (au profit des acheteurs ou locataires des robots) la difficulté tient « seulement » en la détermination du responsable : constructeur ou programmateur.

Pour la responsabilité délictuelle (au profit de tiers, victimes d’un préjudice né d’un dysfonctionnement du robot), celle de l’utilisateur final peut, en sus, éventuellement, être recherchée.

Quant au respect de la vie privée, il s’agit de savoir ce que vont devenir les multiples informations que le robot va recueillir sur la personne humaine qu’il côtoie. La question se pose avec encore plus d’acuité si le robot est connecté.

On devrait, juridiquement, savoir résoudre ces problèmes, grâce aux stipulations des contrats (dans lesquels on peut insérer des règles morales, telles les fameuses trois lois d’Asimov) ou par les textes existants tels qu’interprétés par les juges. Faire des lois nouvelles n’est pas toujours indispensable. La spécificité de la matière nous semble résider ailleurs.

L’auteur de science-fiction américano-russe Isaac Asimov énonce les trois lois de la robotique (YouTube, 2009)
 

Imitation et émotion

L’humain, qui parfois s’éprend de simples objets, est, a fortiori, susceptible de s’attacher à un robot humanoïde ou animaloïde. Il va en conséquence lui prêter des sentiments réciproques, alors que le robot ne fait que singer, qu’imiter l’humain, par des sons, des gestes, ou des mouvements du « visage », attitudes programmées face à telle parole ou tel signe, qu’il est appelé à reconnaître grâce à ses capteurs sonores ou visuels.

L’expression d’« intelligence artificielle » est, pour l’instant, trompeuse ; le robot n’est pas intelligent au sens humain, surtout si l’on accepte l’idée que l’intelligence est de l’ordre de la génétique ; s’il s’agit bien de raisonnements, même de plus en plus sophistiqués (on songe à la victoire d’AlphaGo au jeu de go), si le robot dispose de couches successives de silicium de plus en plus nombreuses, d’une mémoire autobiographique, il ne comprend pas pour autant, il n’a pas conscience de ce qu’il fait.

La Rachel du film «Blade Runner» est-elle un replicant ? (vidéo Movieclips, 2011)
 

De plus, il lui manquera toujours l’élément sentimental, la souffrance, le plaisir et les imperfections, qui sont à la fois un inconvénient (l’humain peut commettre plus de fautes que le robot et il peut avoir moins de capacités sensorielles), mais aussi une formidable différence en termes d’empathie, de solidarité du vivant et d’adaptabilité aux imprévus de l’environnement et de l’évolution.

Et c’est bien cette différence psychologique fondamentale que le juriste devrait intégrer dans son raisonnement lorsqu’il va chercher à appliquer les principes juridiques fondamentaux ou à rédiger des conventions.

Didier Guével, Professeur de droit privé et sciences criminelles, Université Paris 13 – USPC

La version originale de cet article a été publiée sur The Conversation.

 

The Conversation

 

Elon Musk : « Vous me prenez pour un dingue ? »

C’est par cette question que commence la biographie qu’Ashlee Vance consacre à l’un des hommes les plus puissants de la planète. Elon Musk, moins connu que Steve Jobs ou Bill Gates, mais de la même veine, est celui qui affirme vouloir changer le monde et qui en a les moyens. L’inventeur de PayPal, de Tesla, de Space X et de l’Hyperloop. L’homme qui rêve de sauver l’humanité en l’envoyant sur… Mars. Un visionnaire mégalo pour certains, génial pour d’autres, qui révolutionne les industries les plus traditionnelles avec fracas et transforme en or tout ce qu’il touche. Un homme controversé et admiré, qui ne laisse pas indifférent.
 
Transformer les humains en colons de l’espace, tel est explicitement le but de la vie d’Elon Musk. Il aime affirmer : « J’aimerais mourir en me disant que l’humanité a de beaux jours devant elle ». Son goût pour les choses impossibles a fait de Musk une divinité de la Silicon Valley. Il en a conservé en grande partie l’éthique (agir vite, éviter les hiérarchies bureaucratisées, inventer des machines fantastiques qui constituent de véritables avancées). Et une vision qui lui sert de credo et de moteur pour toutes ses entreprises ; un objectif radical qui lui sert de principe unificateur : coloniser Mars, faire de l’humanité une espèce multi planétaire… Pour la sauver d’elle-même.
Vision délirante diront certains. Pour d’autres, Musk a produit ce qui manque à beaucoup de créateurs d’entreprise : une vision du monde qui ait un sens.
 
Elon Musk est une force de la nature. 1m85, une carrure d’athlète, moitié play-boy, moitié cow-boy de l’espace, il se déplace lentement, mais pense vite, très vite. Né en Afrique du Sud il y a quarante-quatre ans, il n’a pas perdu de temps pour démontrer ses qualités de visionnaire. Jeune étudiant il rédige un mémoire remarqué sur l’énergie solaire, parle de voitures électriques et de fusées réutilisables. Du délire, disent ses condisciples, mais lui affirme suivre depuis toujours le même plan directeur.

PayPal

Il devient américain en 1994 et crée sa première startup aussitôt en Silicon Valley. Une petite société qui invente ce qui deviendra plus tard Google Map : un système de cartographie permettant d’identifier des lieux et des itinéraires.  Mais la prouesse technologique n’est pas le moteur principal de Mulk. Ce qu’il veut, c’est changer le monde et d’abord changer les industries du monde. Il s’attaque donc à une forteresse apparemment inexpugnable : la banque. Il invente un système de paiement de personne à personne qui permet d’envoyer de l’argent en indiquant simplement l’adresse électronique du destinataire. Son objectif : rompre avec les banques apathiques dont les ordinateurs mettaient des journées entières à traiter des règlements. Il invente un système agile où les transactions se font d’un clic de souris. PayPal était né. Le franc-tireur a visé juste et devient vite multimillionnaire. En 2002, il vend PayPal à eBay pour 1,5 milliard de dollars et empoche, à titre personnel, 250 millions de dollars. Suffisamment pour commencer à réaliser ses rêves les plus fous.

Space X

Son rêve de conquête spatiale va pouvoir devenir une réalité. Il crée aussitôt Space X dans la banlieue de Los Angeles. Un immense hangar revêtu de blanc immaculé mélangeant, dans le même lieu, les meilleurs cerveaux des universités américaines avec les soudeurs et mécaniciens qui fabriquaient le matériel. Tous ensemble pour forger le rêve le plus fou : révolutionner l’industrie aérospatiale et construire des fusées low costs, réutilisables.
L’objectif donné par Musk à ses troupes est clair : construire le moteur de fusée le meilleur et le plus économique, en optimisant tous les processus, pour sortir des fusées plus vite et moins cher que n’importe qui d’autre. L’analyse de Musk était simple : l’industrie aérospatiale traditionnelle fabriquait des produits extrêmement coûteux, des Ferrari, alors que des Twingo pouvaient suffire.
Après des séries d’échecs, de remises en question où tout devait être repensé jusqu’au moindre rivet, après des lancements hasardeux successifs, après avoir frôlé la faillite, l’abandon, à force de persévérance et d’innovation, Space X est aujourd’hui une entreprise à succès qui rivalise avec les fusées de la NASA ou d’Ariane Espace. Ses lanceurs sont considérés comme fiables et peuvent revenir à leur point de départ ; ce que personne au monde ne sait encore faire. Dans son rêve de conquête spatiale, Musk a désormais son armée de fusées, prêtes sur leurs pas de tirs.
 
Mais ce qui est plus important encore, c’est que Musk a révolutionné l’image de l’espace. Si quelqu’un sait observer, c’est bien lui. Il constate que l’industrie de l’espace a rendu l’espace ennuyeux. Les russes, qui dominent l’envoi de personnes et d’objets dans l’espace utilisent des équipements vieux de dizaines d’années. Les boutons et les cadrans de l’exigüe capsule Soyouz n’ont apparemment pas changé depuis le vol inaugural en 1966. Il observe que les pays nouveaux venus dans la course à l’espace imitent les équipements russes et américains avec une précision absurde. Elon Musk veut changer aussi cela et apporter de l’air et de l’innovation à une industrie rouillée. En procédant ainsi, il innove sans complexes et attire les meilleurs talents. C’est une des clés de son succès.

Tesla

Envoyer des fusées dans l’espace ne comble pas encore cet inventeur toujours sur la brèche. Il veut affronter un autre secteur industriel, un secteur lourd, ancien et de taille : l’automobile. On lui rappelle bien vite que la dernière création d’entreprise réussie dans cette industrie aux États-Unis est celle de Chrysler : elle remonte à 1925. Cette mise en garde ne l’effraie pas un instant. Ici aussi, il observe.
À force de voir à la télévision des publicités pour des automobiles, on ne peut plus y faire attention.  Les annonces serinent les mêmes messages depuis des décennies et vantent les petits détails, le porte-gobelet ou le coffre plus vaste.  Pour cet innovateur insatiable, ce n’est pas suffisant ; l’industrie automobile est tombée bien bas.
 
Sa révolution c’est la voiture électrique. Et pas n’importe quelle voiture électrique. Il sort en 2012 une berline de luxe, tout électrique, capable de parcourir 435 km en pleine autonomie. Une auto qui a du nerf (100 km/h en 4.4 secondes) et de l’allure. La mécanique bruyante du moteur a disparu, elle roule en silence, elle est dotée de fonctions inédites : poignées de porte encastrées qui sortent de la carrosserie quand le conducteur s’approche, commandes réunies au volant sous les doigts, écran tactile, espace dégagé, archi-sécurisée… Bref, une auto de classe. Chère, c’est vrai (100 000 dollars) mais quelle voiture !
 
Pourtant la vraie révolution n’est pas dans la voiture. N’importe quel industriel avisé pourrait construire ce type d’automobile. Elon Muk vise plus loin et veut révolutionner l’écosystème de l’automobile. Il supprime les concessionnaires, les réparateurs, les visites régulières, tout ce que les automobilistes connaissent depuis que la voiture existe. La Tesla est vendue en direct sur le web ou dans des boutiques rappelant les Apple Store. Il n’y a pas de garage. Si vous constatez une anomalie, ou souhaitez obtenir les dernières versions avec de nouvelles fonctions, la voiture est automatiquement upgradée, à distance. Car cette voiture est un ordinateur roulant.
 
Pour en recharger la batterie, Musk imagine d’installer des hyperchargeurs sur toutes les autoroutes d’Amérique puis du monde. Rechargement gratuit.
Pour l’auteur de la biographie, Ashlee Vance, « Musk voulait construire une automobile qui ne souffrirait aucun compromis. Il l’a fait. Puis, dans une sorte de judo entrepreneurial, il a bousculé des décennies de critiques contre les automobiles électriques. [Sa} voiture était la meilleure voiture. Point barre. »

Hyperloop

Elon Musk est un innovateur féroce. Après la banque, l’industrie aérospatiale et l’industrie automobile, le voilà vouloir révolutionner l’industrie ferroviaire ! En août 2013, il dévoile l’Hyperloop. Cet engin est un grand tube pneumatique faisant circuler à une vitesse proche de celle du son (1 300 km/h) des capsules en sustentation électromagnétique avec des voyageurs. Son premier projet : relier Los Angeles à San Francisco en moins de trente minutes.

LIRE DANS UP’ : Hyperloop : pour changer le monde du voyage

L’idée lui est venue en observant, encore une fois, le projet de TGV entre les deux grandes villes de Californie. Un projet archaïque à 60 milliards de dollars pour le TGV le plus lent du monde avec le coût au kilomètre le plus élevé. L’Hyperloop coûte entre 6 et 10 milliards de dollars, il va plus vite qu’un avion et permettrait un flux de voyageurs beaucoup plus important pour un prix de billet hyper-compétitif. Il tient tellement à ce projet que, pour le faire avancer plus vite, il l’ouvre en open source à toutes les bonnes volontés.  Les premiers tests grandeur réelle auront lieu courant 2016.
 
 
Elon Musk crée de façon tellement insatiable des automobiles, des panneaux solaires, des fusées, des hyperloops qu’on en oublierait presque que ces projets sont annexes à ses yeux. Pour lui la technologie est la meilleure voie à suivre pour l’amélioration de l’humanité. Ses innovations lui ont apporté gloire et fortune mais son but ultime est de faire des humains une espèce interplanétaire. Son biographe précise « Certains peuvent trouver cela idiot, mais c’est sans nul doute sa raison de vivre. Musk est convaincu que la survie de l’homme dépend de la colonisation d’une autre planète et qu’il doit consacrer sa vie à cet objectif ».  Et cet objectif n’est, pour Musk, pas si lointain que cela. Il prédit : « Je pense que vers 2025 Space X aura développé un propulseur et un vaisseau spatial capables d’emporter vers Mars des gens et des chargements en grande quantité. » Mais il est aussi (relativement) réaliste et connaît les difficultés d’une conquête martienne : « Il faudra un jour chauffer Mars si l’on veut en faire une planète comme la Terre, et je n’ai pas de plan pour cela. Dans le meilleur des cas cela prendra beaucoup de temps. Je ne sais pas combien, entre un siècle et mille ans. Il y a zéro chance pour que Mars devienne une autre Terre au cours de ma vie. Enfin, pas zéro, mais 0.001% de chance, et pour cela, il faudrait prendre des mesures drastiques. »

LIRE DANS UP : Une bombe atomique pour rendre Mars habitable

Dans le secteur des technologies, on compare volontiers la motivation et les ambitions de Musk à celles de Bill Gates et Steve Jobs. Certains osent presque imaginer une manipulation génétique qui aurait permis à Bill et Steve de faire un enfant ensemble et cet enfant serait Elon !  C’est ce que déclare Edward Jung, ingénieur surdoué de la Silicon Valley, actuellement patron des architectures logicielles de Microsoft qui connaît bien les trois génies de la Valley. Un autre observateur éclairé surenchérit : « Il est un mélange amélioré des deux ».
 

LIRE : Ashlee Vance, Elon Musk, Tesla PayPal, Space X : l’entrepreneur qui va changer le monde, Eyrolles, 24,90 euros. 

Cet article a été publié originellement le 12 février 2016
 
 

 

Plante modifiée génétiquement

Modifier génétiquement une plante n’est pas anodin

Actuellement, plusieurs nouvelles techniques de modification génétique font l’objet de discussion, pour déterminer si les produits qui en seront issus seront, ou non, réglementés comme les OGM transgéniques. Cet article d’Eric Meunier de la revue inf’OGM nous permet de comprendre certains des risques potentiels liés à la seule mise en œuvre d’une technique de modification génétique, quelle qu’elle soit, sur une culture de cellules végétales.
 
Les techniques de modification génétique, nouvelles ou anciennes, ne sont pas totalement maîtrisées : si elles permettent d’apporter certains nouveaux caractères à un être vivant (comme la capacité à tolérer un herbicide), elles produisent également de façon non intentionnelle d’autres modifications dénommées « hors-cible » (off-target en anglais) car ayant lieu en d’autres endroits du génome que celui initialement ciblé.
 
Le 7 avril 2016, comme en écho aux remarques d’Yves Bertheau, ex-membre du Haut Conseil des Biotechnologies (HCB), formulées depuis décembre 2015, Jean-Christophe Pagès, président du Comité Scientifique (CS) du HCB, expliquait à l’Office parlementaire sur l’évaluation des choix scientifiques et techniques (OPECST) à propos d’une de ces nouvelles techniques, Crispr/Cas9, qu’il « faut ne pas oublier quelles sont les difficultés de son application [...] en particulier in vivo chez l’animal dans la mesure où il faut apporter une matrice et on a actuellement de gros soucis de vectorisation pour pouvoir le faire.
In vitro, en culture, en revanche, c’est quelque chose de beaucoup plus aisé et c’est la raison pour laquelle la majorité des applications sont des applications de recherche et éventuellement des applications pour lesquelles on peut reconstituer des organismes à partir de culture in vitro, et là ça concerne effectivement certaines plantes »… Des propos qui interpellent car, à y regarder de plus près, l’avis du CS du HCB du 4 février 2016 - devenu depuis rapport provisoire - ne fait pas état de telles difficultés in vivo, ou de telles « facilités » de mise en œuvre in vitro.

LIRE DANS UP’ : CRISPR : Révolution dans l’histoire humaine ou méga bombe à retardement ?

Dans les différentes étapes du processus de modification génétique. Nous allons nous intéresser à l’étape dite de vectorisation qu’évoque Jean-Christophe Pagès, qui consiste à apporter dans une cellule le matériel destiné à générer la modification génétique souhaitée. Mais aussi aux étapes préalables à cette phase de vectorisation qui s’avèrent être sources de stress capables d’induire des mutations et des épimutations (voir encadré ci-dessous).
 

Mutation, épimutation : de quoi parle-t-on ?
Une mutation est couramment définie comme une modification de l’information génétique contenue dans un organisme, que ce soit sous forme d’ADN ou d’ARN. Les mutations sont héréditaires. Elles peuvent être « silencieuses », c’est-à-dire n’avoir aucune implication dans le métabolisme de l’organisme. Elles peuvent aussi affecter l’expression d’un ou plusieurs gènes, modifiant le métabolisme.
Les épimutations appartiennent à la famille des mutations affectant l’expression d’une séquence génétique mais qui ne sont pas dues à une modification de la séquence génétique elle-même. Elles peuvent par exemple être dues à un changement de la composition chimique de briques de base de l’ADN, les nucléotides.

Préparation des cellules à transformer

La première étape avant de pouvoir introduire du matériel dans des cellules (la vectorisation dont parle J.-C. Pagès) consiste à préparer les cellules végétales. Les techniciens de laboratoire vont casser la paroi des cellules, voire l’enlever complètement. Les cellules végétales dont la paroi a disparu, ou protoplastes, deviennent donc transformables et les biologistes peuvent alors faire entrer toute une panoplie d’outils comme des grosses protéines, des ARN et/ou des ADN codant dans ces cellules. Or, comme le rappelle Yves Bertheau, cette « simple » formation de protoplastes induit des mutations et épimutations, un phénomène abondamment observé dans la littérature scientifique [1].

La simple mise en culture de cellules induit des mutations

La deuxième étape consiste à cultiver ces protoplastes. Or le fait même de mettre en culture des cellules est générateur de mutations et épimutations. Le plus étonnant est qu’une bibliographie scientifique montre que les mécanismes à la base de l’apparition de ces mutations et épimutations restent encore assez méconnus malgré des décennies d’utilisation [2]. Ce phénomène, appelé variation somaclonale, est tel qu’il a d’ailleurs été utilisé par des semenciers pour créer une « diversité génétique » nécessaire pour « améliorer » des plantes, pour reprendre un élément de langage des semenciers.
 
Le Groupement national des industries semencières (GNIS) explique ainsi que « la variation somaclonale est la modification observée chez certaines cellules, après un long cycle de cultures in vitro sans régénération. Elles ne sont plus alors identiques à la plante mère. Cette variation peut être due à une modification du génome nucléaire ou du génome des organites cytoplasmiques ».
 
En d’autres termes, les plantes obtenues à partir de ces cellules auront des caractéristiques différentes. Le GNIS apporte une dernière précision intéressante : « les modifications de caractères obtenues sont peu stables et ne se retrouvent pas toujours dans la plante régénérée, ou dans sa descendance ». La raison ? Des modifications apparues (épimutations) peuvent faire disparaître les mutations obtenues [3]… Comme nous l’explique Yves Bertheau, « il paraît difficile dans de telles conditions de prévoir quels impacts peut avoir cette étape de mise en culture de cellules lors de la mise en œuvre d’une nouvelle technique de modification génétique ».

La vectorisation, enfin...

Cellules préparées et mises en cultures, nous voilà enfin prêts à introduire le matériel destiné à générer la modification souhaitée. Selon les techniques, ce matériel peut consister en protéines et/ou séquences génétiques de type ARN ou ADN – molécule plus fréquemment utilisée dans le cas des plantes - codant (oligonucléotides, plasmides, virus…). Les méthodes utilisées pour faire pénétrer ce matériel dans les cellules consistent tout simplement à faire des trous dans les membranes restantes (cytoplasmique et nucléaire) de la cellule. Or, comme nous l’explique Yves Bertheau, faire de tels trous induit, là encore, des mutations et des épimutations [4]. Surtout, le chercheur estime qu’il est impossible de prévoir une grille générale d’appréciation des risques. Car il faut choisir entre plusieurs techniques de vectorisation, entre différents types de matériel, le tout selon les séquences génétiques à introduire et les espèces ciblées. Au final, seule une analyse au cas par cas comme prévu pour les OGM permet d’évaluer les potentiels risques liés à tous ces effets non intentionnels.

Le rapport provisoire du CS du HCB silencieux sur ces mutations

Dans un article publié en 2011, des scientifiques ont estimé que 35% de tous les effets non intentionnels observés suite à une modification génétique de la variété de riz Senia par transgenèse sont dus au processus même de transformation des cellules [5]. Le phénomène n’est donc pas anodin.
 
Étonnamment, et malgré les déclarations de son Président devant l’OPECST, le comité scientifique du HCB n’a pas fait état de ces risques dans son rapport provisoire sur les risques liés aux nouvelles techniques. Si la question de la « vectorisation » est bien abordée dans les fiches du CS de chaque technique, il s’agit seulement de faire état des moyens de mise en œuvre d’une technique et de décrire comment le matériel est introduit dans les cellules. Nulle part il n’est fait état des mutations et épimutations qui peuvent émerger à chacune des étapes comme nous venons de le voir. Le HCB étant composé d’un comité d’experts scientifiques, on attend de ce comité qu’il discute et explique, pas qu’il ignore ces points. D’autant que la vectorisation – pour ne parler que de ce qui est évoqué dans le rapport du CS – n’apparaît pas complètement au point selon les techniques, le même CS notant ainsi pour la mutagenèse dirigée par oligonucléotides que « de nombreuses molécules ou mélanges moléculaires sont en cours d’essais pour améliorer la vectorisation qui fonctionne relativement bien in vitro mais très peu sur des organismes entiers (Liang et al., 2002) » [6].

Sélectionner et régénérer les cellules « modifiées » n’est pas sans effet

Du fait de leur faible, voire très faible, efficacité de transformation [7], les techniques de modification génétique impliquent en aval de sélectionner les cellules ayant effectivement été modifiées. Cette sélection se fait en utilisant des marqueurs qui permettent de différencier les cellules : gène de résistance à des antibiotiques ou à des herbicides (les cellules sont alors plongées dans un bain d’antibiotiques ou d’herbicides et seules les cellules réellement modifiées survivent), gène qui permet la croissance de la cellule en présence d’une molécule habituellement toxique ou encore gène qui permet aux cellules d’utiliser une source de carbone normalement non métabolisable... ou tout autre marqueur qui sera persistant ou supprimé en bout de course [8]. Mais la suppression de ces marqueurs de sélection se fait par des techniques plus ou moins fiables et précises et qui donc peuvent induire potentiellement des toxicités cellulaires et autres réarrangements chromosomiques [9], laisser des empreintes [10] et produire des sites de recombinaisons (lieux d’échanges de séquence génétique entre deux brins d’ADN) aux effets non prévisibles [11]. Des techniques qui ne sont par ailleurs pas forcément possibles pour toutes les espèces végétales.
 
À partir de ces cellules sélectionnées, des plantes doivent ensuite être régénérées. Une nouvelle étape de cultures cellulaires qui fera appel à diverses hormones de synthèse, et pourra aussi induire à nouveau des mutations et des épimutations avec réarrangements ou non de chromosomes [12].
 
Qu’il s’agisse de l’étape de modification génétique en elle-même, des étapes préalables, ou des étapes postérieures, toutes induisent des mutations ou épimutations, appelées effets hors-cible. Mais, on peut entendre dans les couloirs que finalement ces (épi)mutations ne seraient pas présentes dans la plante commercialisée. La raison ? L’étape suivante, dite de rétrocroisement, permettrait de se débarrasser de tous ces effets non intentionnels...

La théorie à la base du rétrocroisement

Rappelons le principe général : une entreprise qui souhaite mettre sur le marché une variété génétiquement modifiée (qu’elle soit légalement considérée comme OGM ou pas) ne va pas modifier directement le génome d’une des variétés « élites » mais celui d’une variété plus commune. Une fois la modification obtenue, l’entreprise va alors croiser une première fois la variété commune génétiquement modifiée (GM) avec la variété élite commercialement intéressante. Elle recroisera ensuite les descendants avec la variété élite initiale jusqu’à ce que ces descendants soient considérés (à partir d’une analyse statistique) quasiment similaires (on parle de variété quasi-isogénique ou de ségrégants négatifs) à la variété élite. La différence entre la variété élite et la nouvelle variété est supposée n’être « quasiment » que la seule séquence modifiée.
 
Le GNIS explique ainsi que, au dernier croisement, « la part [du génome provenant] de la lignée élite est de 96,88%, on estime alors que la lignée obtenue est suffisamment proche de la lignée élite. On tend vers l’obtention d’une lignée isogénique, ne différant de la lignée élite que par un seul gène [celui contenant la modification] ». On notera ici qu’un pourcentage de 96,88 % laisse encore beaucoup de place aux mutations, épimutations et réarrangements potentiels pour certaines plantes cultivées dont le génome est très grand comme le blé : pour environ 17 milliards de paires de base constituant le génome du blé, les 3,12% restants représentent tout de même plus de 500 millions de paires de bases...

Les limites de la théorie

La théorie sous-jacente au « nettoyage » des effets hors-cible grâce au rétrocroisement se fonde sur l’hypothèse suivante : les effets non intentionnels apparus aux étapes antérieures sont suffisamment éloignés de la région où a eu lieu la modification génétique désirée. En effet, plus ces effets hors cibles sont proches, plus la probabilité est grande que les effets non désirés soient transmis avec la modification génétique à chaque croisement. D’un nombre minimum de sept, le nombre de croisements nécessaires pourrait alors monter à plus de 14 pour essayer de s’en débarrasser.
 
Mais, outre ce problème de proximité des effets hors cible avec la séquence génétique modifiée, la confiance que l’on peut avoir dans cette théorie est également relativisée par deux autres phénomènes biologiques. D’une part, des séquences génétiques peuvent exister et évoluer en blocs plus ou moins importants. Ces blocs étant transmis tels quels à la descendance, les effets hors-cibles contenus dans ces blocs resteront alors avec la séquence génétique modifiée à chaque croisement. D’autre part, certaines séquences génétiques ont la capacité de « s’imposer » lors de la formation des gamètes. Dites « égoïstes », ces séquences vont être contenues dans un plus grand nombre de gamètes qu’attendu et, de génération en génération, elles seront toujours présentes dans la descendance. Si les effets hors-cible apparaissent dans de telles séquences, il sera moins aisé de s’en débarrasser [13].
 
Ces éléments impliquent donc qu’une nécessaire vérification au cas par cas paraît nécessaire. A l’heure actuelle, seule la législation sur les plantes transgéniques requiert de telles vérifications au cas par cas avec un ensemble d’analyses le plus complet qu’il soit (avec des déficiences néanmoins rappelons-le). En effet, le séquençage du génome ne permet pas de répondre à la question de la présence ou non d’effets hors-cible du fait des limites inhérentes à ce type d’analyse (cf. encadré ci-dessous).
 

Le séquençage et les outils informatiques associés ? Tout sauf un gage de certitude !
Le 7 avril, lors de l’audition organisée par l’Office parlementaire sur l’évaluation des choix scientifiques et techniques (OPECST), André Choulika, PDG de Cellectis, affirmait à propos des effets hors-cible « reséquencer intégralement [le génome des plantes], c’est vachement important […] parce que dans l’approbation, on vous redemande la séquence intégrale ». Sauf que, à bien y regarder, les résultats de séquençage obtenus sont loin d’une fiabilité absolue.
Le séquençage dit de « nouvelle génération », est aujourd’hui relativement peu cher et rapide. Mais plusieurs « problèmes » émaillent sa mise en œuvre, la lecture et l’utilisation des résultats.
Tout d’abord, plusieurs étapes du séquençage lui-même « parasitent » la fiabilité du résultat final. Il faut savoir extraire correctement l’ADN, le découper en morceaux puis séquencer ces derniers à l’aide de diverses plateformes et méthodes. Or, ces plateformes et méthodes sont assez différentes les unes des autres, tant en termes de limites que de fiabilité de résultats [14].
Il faut ensuite lire ces résultats en tentant de remettre bout à bout les séquences lues pour reconstituer le génome en entier. Puis, les séquences obtenues sont comparées avec d’autres considérées comme « de référence » et stockées dans des bases de données qui contiennent déjà elles-mêmes des erreurs [15].
Autant d’étapes qui introduisent une importante imprécision dans les résultats finaux de détection d’effets non intentionnels et donc d’évaluation des risques, les incertitudes quant aux séquences augmentant avec des génomes polyploïdes ou aux nombreuses séquences répétées [16]. Sans compter qu’en bout de course, les mutations repérées peuvent ne pas s’avérer de la même importance biologique [17]...
De nombreux articles résument les difficultés rencontrées à chaque étape, comparent les méthodes, plateformes [18] et logiciels associés [19], discutent de normes de référence (« gold standards ») et normes à mettre en place pour fiabiliser le processus complet [20]. Bref, comme le soulignent ces auteurs, autant de techniques et d’étapes qui sont en cours d’amélioration car non parvenues à maturité, en pleine évolution et nécessitant donc nombre de vérifications pour des évaluations au cas par cas.
Selon de nombreux chercheurs, savoir faire face à l’accumulation de très nombreux résultats (un de ces fameux « big data »), dont certains avec de multiples erreurs, et les utiliser avec rigueur est un des défis de la biologie moléculaire actuelle. D’ailleurs, devant le scepticisme soulevé face à tout résultat de séquençage, les demandes minimales des relecteurs d’articles scientifiques sont telles que de plus en plus de chercheurs sont maintenant obligés de présenter des résultats de séquençages de plus longues séquences pour assurer du sérieux de leurs résultats bruts [21].

Nous avons, au cours de cet article, évoqué les mutations et épimutations parmi les effets non intentionnels de ces biotechnologies modernes. On peut dès lors observer que prétendre détecter et éliminer tous les effets non intentionnels des nouvelles techniques relève plus de l’acte de foi que de la science établie. Surtout, face à ce constat des effets potentiels, des limites du rétrocroisement et de celles du séquençage, on peut douter en toute bonne foi de la capacité des sélectionneurs à éliminer tous les effets hors-cible puis à détecter efficacement et rapidement les mutations et épimutations restantes par séquençage. On peut dès lors s’étonner du silence du Comité scientifique du Haut Conseil des Biotechnologies (HCB) sur tous ces points dans son premier rapport publié en février 2016 sur les impacts liés aux nouvelles techniques de modification génétique.
 
Eric Meunier, Inf’OGM
 
 
[1] « Stress induces plant somatic cells to acquire some features of stem cells accompanied by selective chromatin reorganization », Florentin, A. et al. (2013), Developmental Dynamics, 242(10), 1121-1133 ;
« Developmental stage specificity and the role of mitochondrial metabolism in the response of Arabidopsis leaves to prolonged mild osmotic stress », Skirycz, A. et al., (2010). Plant Physiology, 152(1), 226-244 ;
« Arabidopsis mesophyll protoplasts : a versatile cell system for transient gene expression analysis », Yoo, S.-D.et al. (2007). Nat. Protocols, 2(7), 1565-1572.
 
[2] « Cell culture-induced gradual and frequent epigenetic reprogramming of invertedly repeated tobacco transgene epialleles », Krizova, K. et al., (2009). Plant Physiology, 149(3), 1493-1504 ;
« Extended metAFLP approach in studies of tissue culture induced variation (TCIV) in triticale », Machczyńska, J. et al., (2014). Molecular Breeding, 34(3), 845-854 ;
« Tissue culture-induced novel epialleles of a Myb transcription factor encoded by pericarp color1 in maize », Rhee, Y. et al., (2010). Genetics, 186(3), 843-855 ;
« Transformation-induced mutations in transgenic plants : analysis and biosafety implications », Wilson, A.K. et al., (2006). Biotechnol Genet Eng Rev, 23(1), 209-238 ;
« A whole-genome analysis of a transgenic rice seed-based edible vaccine against cedar pollen allergy », Kawakatsu, T. et al., (2013).. DNA Research 20, 623-631 ;
« Recent progress in the understanding of tissue culture-induced genome level changes in plants and potential applications », Neelakandan et al.,, 2012,. Plant Cell Reports, 31(4), 597-620
 
[3] « Meiotic transmission of epigenetic changes in the cell-division factor requirement of plant cells », Meins, F. et al., (2003). Development, 130(25), 6201-6208.
 
[4] « Cell biology : delivering tough cargo into cells », Marx, V. (2016). Nat Meth, 13(1), 37-40.
 
[5] « Only half the transcriptomic differences between resistant genetically modified and conventional rice are associated with the transgene », Montero, M. et al., (2011). Plant Biotechnology Journal, 9(6), 693-702.
 
[6] Rapport du CS du HCB, page 50
 
[7] « Less is more : strategies to remove marker genes from transgenic plants », Yau, Y.Y. et al, (2013), BMC Biotechnology.
 
[8] « Alternatives to Antibiotic Resistance Marker Genes for In Vitro Selection of Genetically Modified Plants – Scientific Developments, Current Use, Operational Access and Biosafety Considerations », Breyer et al (2014) Critical Reviews in Plant Sciences, Vol 33, Issue 4, 286-330
« Suitability of non-lethal marker and marker-free systems for development of transgenic crop plants : present status and future prospects », Manimaran et al (2011) Biotechnol Adv. 29(6), 703-14
« Effects of antibiotics on suppression of Agrobacterium tumefaciens and plant regeneration from wheat embryo », Han, S-N. et al, (2004), Journal of Crop Science and Biotechnology 10, 92-98.
 
[9] Certains de ces systèmes peuvent persister comme éléments circulaires extra-chromosomiques durant plusieurs générations (ex. du blé).
 
[10] utilisables en identification (ex : empreinte d’excision de transposon, recombinaisons) de l’évènement de transformation
 
[11] Biotechnology 13., ibid.
 
[12] « Recent progress in the understanding of tissue culture-induced genome level changes in plants and potential applications », Neelakandan, A.K. et al, (2012), Plant Cell Reports 31, 597-620
« Regeneration in plants and animals : dedifferentiation, transdifferentiation, or just differentiation ? », Sugimoto, K. et al, (2011), Trends in Cell Biology 21, 212-218.
 
[13] « Distorsions de ségrégation et amélioration génétique des plantes (synthèse bibliographique) », Diouf, F.B.H. et al , (2012), Biotechnologie Agronomie Société Et Environnement, 16(4), 499-508
« Quantitative trait locus mapping can benefit from segregation distortion », Xu, S. (2008), Genetics, 180(4), 2201-2208
« Genetic map construction and detection of genetic loci underlying segregation distortion in an intraspecific cross of Populus deltoides », Zhou, W et al, (2015), PLoS ONE, 10(5), e0126077
 
[14] « Next generation sequencing technology : Advances and applications », Buermans, H.P.J. et al, (2014), Biochimica et Biophysica Acta (BBA) - Molecular Basis of Disease, 1842(10), 1932-1941
« Next-generation sequencing platforms », Mardis, E.R. (2013), Annual Review of Analytical Chemistry, 6(1), 287-303
« Applications of next-generation sequencing. Sequencing technologies - the next generation », Metzker, M.L. (2010), Nature Reviews Genetics, 11(1), 31-46.
 
[15] « Next-generation sequence assembly : four stages of data processing and computational challenges », El-Metwally, S. et al, (2013), PLoS Comput Biol 9, e1003345
« Systematic comparison of variant calling pipelines using gold standard personal exome variants », Hwang, S. et al, (2015), Scientific reports 5, 17875
« Sequence assembly demystified », Nagarajan, N. et al, (2013), Nat Rev Genet 14, 157-167.« Improving the quality of genome, protein sequence, and taxonomy databases : a prerequisite for microbiome meta-omics 2.0 », Pible, O. et al, (2015). Proteomics 15, 3418-3423
« Theoretical analysis of mutation hotspots and their DNA sequence context specificity », Rogozin, I.B. et al, (2003), Mutation Research/Reviews in Mutation Research 544, 65-85
 
[16] « Sequencing technologies and tools for short tandem repeat variation detection », Cao, M.D. et al, (2014), Briefings in Bioinformatics
 
[17] « Open chromatin reveals the functional maize genome », Rodgers-Melnick, E. et al, (2016). Proceedings of the National Academy of Sciences 113, E3177-E3184
« Evolutionary patterns of genic DNA methylation vary across land plants », Takuno, S. et al, (2016), Nature Plants 2, 15222.
 
[18] « Systematic comparison of variant calling pipelines using gold standard personal exome variants », Hwang, S., et al, (2015), Scientific reports 5, 17875
« Principles and challenges of genome-wide DNA methylation analysis », Laird, P.W. (2010), Nature Reviews Genetics 11, 191-203
« Performance comparison of whole-genome sequencing platforms », Lam, H.Y.K. et al (2012), Nat Biotech 30, 78-82
« Low concordance of multiple variant-calling pipelines : practical implications for exome and genome sequencing », O’Rawe, J. et al, (2013), Genome Medicine 5, 1-18.
 
[19] « Next-generation sequence assembly : four stages of data processing and computational challenges », El-Metwally, S. et al, (2013), PLoS Comput Biol 9, e1003345
 
[20] « Rapid evaluation and quality control of next generation sequencing data with FaQCs », Lo, C.-C. Et al, (2014), BMC Bioinformatics 15, 1-8
 
[21] « Droplet barcoding for massively parallel single-molecule deep sequencing », Lan, F. et al, (2016), Nat Commun 7
 

 

Dopage

Dopage et culte de la performance, un couple inséparable

Les Jeux olympiques de Rio s’annoncent sur fond d’une affaire de dopage dans le sport russe et de soupçons visant plusieurs pays africains ou caribéens. Les rumeurs et scandales de dopage sont inséparables des compétitions sportives. Lors des Jeux de 1904 déjà, le coureur Thomas Hicks n’aurait probablement pas remporté le marathon sans l’injection pendant la course de doses de strychnine, un produit prohibé depuis. Le premier cas de dopage avéré date des Jeux de 1968 à Mexico, quand furent inaugurés les tests antidopage.

Depuis lors, la lutte contre le dopage s’est considérablement développée, mais le phénomène ne semble pas reculer. Comment expliquer la persistance du dopage en dépit des actions menées pour l’éradiquer ? Qu’est-ce qui conduit au dopage ? La lutte antidopage s’attaque-t-elle réellement aux racines du problème ?

Contrôler toujours plus les sportifs

La lutte antidopage consiste principalement à repérer et à sanctionner les sportifs qui prennent des substances illicites en vue d’améliorer leurs performances, et à punir leurs entourages (encadrement sportif, technique, médical) s’ils sont complices. Cette politique de contrôle est complétée par des actions préventives, visant à informer les sportifs, notamment les jeunes, sur les dangers sanitaires du dopage et à les sensibiliser aux règles éthiques sportives. Mais cette prophylaxie reste diffuse et peu visible, tandis que le volet répressif, qui cible les sportifs les plus performants, a été continûment renforcé.

La coordination de la lutte antidopage a franchi un palier à la fin des années 1990 quand le Comité international olympique (CIO) a initié la création d’une Agence mondiale antidopage (AMA) indépendante. En 2004, un Code mondial antidopage a été instauré, qui harmonise les politiques et réglementations des organisations sportives du monde entier.

Ce code énonce des standards dans différents domaines : l’organisation des contrôles, les protocoles des laboratoires d’analyse, la liste des substances et méthodes interdites, la réglementation des autorisations d’usage à des fins thérapeutiques, etc. Depuis 2005, les athlètes ont l’obligation saisir dans une base de données (le système ADAMS) les informations sur leur localisation, afin de se rendre accessibles en permanence à d’éventuels contrôleurs. La surveillance des sportifs est donc constamment resserrée.

 

En 2012, aux Jeux olympiques de Londres, la moitié des athlètes a été contrôlée. Alistair Ross/Flickr

En outre, la performance des tests est sans cesse améliorée – ce qui permet de détecter de nouvelles substances, ou des prises administrées selon des protocoles sophistiqués qui les rendaient indétectables jusque-là. De plus, les échantillons urinaires et sanguins sont désormais conservés, afin d’effectuer des tests rétrospectifs en utilisant des méthodes inexistantes au moment des prélèvements.

La course au dopage

Actuellement plus de 200 000 échantillons sont analysés chaque année sous l’égide de l’AMA, parmi lesquels 1 % environ est positif. L’athlétisme arrive en tête dans le palmarès des violations des règles antidopage (17 % des cas en 2014), devant le culturisme, le cyclisme et la musculation. Ce classement ne reflète pas le poids des pratiques dopantes, car chaque discipline compte un nombre différent de pratiquants d’élite (cibles prioritaires des contrôles) et la lutte antidopage y a une ampleur très variable.

Depuis l’introduction de contrôles, des cas positifs ont été décelés à chaque olympiade. Seule exception, les Jeux de 1980 à Moscou, toutefois connus comme les « Jeux des pharmaciens » en référence au dopage d’État découvert après la chute des régimes socialistes est-européens. La surveillance des athlètes est désormais resserrée : aux Jeux de 2012 à Londres plus de la moitié d’entre eux ont été contrôlés, et ils ont été avertis que des contrôleurs pouvaient à tout moment faire irruption dans leur chambre.

 

En 1988, à Séoul, Ben Johnson « l’emporte » sur Carl Lewis. DPMS/Flickr

Parallèlement, les pratiques dopantes se réinventent constamment : le dopage sanguin est jalonné par les différentes générations d’EPO jusqu’aux transfusions sanguines ; les stéroïdes à l’origine de l’affaire Balco – obligeant Marion Jones à rendre ses cinq médailles conquises aux Jeux de 2000 à Sydney – n’ont rien à voir avec ceux du premier grand scandale de dopage, celui de Ben Johnson, vainqueur du 100 mètres des Jeux de 1988 à Séoul.

Derrière la course à la performance se déroule une course au dopage, qui recourt à des innovations constantes (en termes de produits et de protocoles) afin d’échapper à des contrôles eux aussi de plus en plus performants. La clé est l’innovation, ce qui implique des investissements financiers, et ce qui réserve l’accès au dopage sécurisé et (quasi) indétectable aux athlètes d’élite, à ceux qui peuvent en assumer les coûts économiques.

Une triche individuelle ?

La lutte antidopage ne parvient pas à éliminer le fléau. Mais elle puise sa légitimité dans le ciblage des athlètes, objets de surveillance, de contrôles, de sanctions. Deux figures du sportif dopé émergent des affaires.

La première est celle de la transgression involontaire des règles, par erreur, inattention ou méconnaissance. Les athlètes contrôlés positifs mobilisent parfois cette figure, arguant qu’ils ont ingéré des aliments pollués, qu’ils ignoraient que le produit était interdit, qu’ils ont été abusés par leur entourage, qu’ils ont omis de modifier leur déclaration de localisation à la suite d’événements inopinés, etc. L’argument est celui de la bonne foi. Et il est parfois jugé recevable par la justice sportive.

 

Maria Sharapova, exclue pour deux ans de toute compétition pour la prise de meldonium, qu’elle conteste. Ian Gampon/Flickr

La seconde figure, contre laquelle est construite la lutte antidopage, est celle de la déviance volontaire, de la tricherie délibérée, de la fraude intentionnelle. Le sportif dopé doit être sanctionné, car il enfreint le principe d’égalité des concurrents devant l’épreuve sportive. En transgressant cette règle fondamentale, il menace l’édifice sportif dans son ensemble. Car la compétition sportive repose sur une morale méritocratique : chacun doit concourir en mobilisant ses seules qualités personnelles et en les développant par l’entraînement. Les performances sont alors le résultat des talents et du travail.

Selon cette morale, c’est le plus méritant qui gagne, alors que le dopage procure un avantage concurrentiel immoral et illégitime. L’égalité démocratique est le socle de la compétition et du système sportif. Et la lutte antidopage entretient cette idéalisation, car en concentrant l’attention sur une rupture d’égalité désignée comme illégitime elle occulte, et légitime, d’autres inégalités, économiques par exemple. C’est pourquoi les athlètes dopés doivent être sanctionnés. C’est pourquoi la lutte contre le dopage prend principalement la forme d’une lutte contre les dopés, désignés comme des tricheurs.

Une contrainte systémique

Mais les racines du dopage sont plus profondes, plus structurelles et moins individuelles, plus systémiques et moins isolées. Il n’est pas une addition de déviances délibérées pratiquées par des tricheurs ; il est une conséquence de la recherche de performance sportive et du travail qu’elle implique. Or les conditions du travail sportif sont largement ignorées par la lutte antidopage, alors qu’elles pèsent lourdement sur la vie des sportifs de haut niveau.

Le dopage n’est pas une simple déviance individuelle délibérée, parce que l’expérience du travail sportif est envahie par l’exigence de performance et de résultats. Pour s’y plier, il faut résister à de fortes charges d’entraînement, repousser les seuils de la douleur, affronter les blessures, traverser des périodes « sans », dominer les moments de doute, maintenir une hygiène de vie rigoureuse, répondre aux injonctions des entraîneurs, atteindre les objectifs, etc.

Il faut surmonter ces épreuves constantes pour se maintenir dans le monde sportif où la performance est envahissante, où elle est la mesure de la valeur, et où elle est la condition de la survie. Et ce culte de la performance est d’autant plus exigeant que les conditions d’emplois sont fragiles et les engagements contractuels précaires. Dès lors, le dopage n’est pas seulement une pratique qui vise de manière directe la performance. Il soutient, plus largement, l’engagement dans le sport de haut niveau, en favorisant la récupération physique, la remédiation psychique, l’intégration sociale, la résilience. Il est une réponse à un ensemble de contraintes, physiques, psychologiques, contractuelles.

À cet égard le sport n’est pas bien différent de nombre d’autres milieux professionnels où les pressions sont fortes et où la prise de substances psychoactives (stupéfiants, alcool, médicaments, les produits varient) permet de tenir ou d’être performant : la liste est longue, depuis les traders jusqu’aux ouvriers, en passant par les milieux artistiques ou les étudiants de filières hypersélectives, etc. La sociologie du travail enseigne que de fortes contraintes professionnelles favorisent le recours à des produits de soutien, qui dans le milieu sportif sont étiquetés comme dopage.

En faire le constat, ce n’est pas excuser ou justifier le dopage, d’autant que celui-ci expose les athlètes à de sérieux risques pour leur santé. Mais seule une meilleure compréhension des ressorts du recours au dopage peut permettre d’améliorer une action répressive largement inefficace. Cela exige de rompre avec une vision individualisante et moralisatrice qui érige l’athlète dopé en tricheur cynique, pour prendre en compte les propriétés du travail sportif afin de mettre en débat ce que celui-ci fait aux sportifs de haut niveau. À moins que la méritocratie sportive idéalisée ne soit un obstacle, culturel et institutionnel, empêchant de considérer le dopage autrement.

Didier Demazière, Sociologue, directeur de recherche au CNRS (CSO), Sciences Po – USPC

La version originale de cet article a été publiée sur The Conversation.

The Conversation

 

Promenade des anglais

Le dangereux écho de Daech sur les esprits désaxés

Tuerie d'Orlando, massacre de Nice, attaque dans un train en Allemagne : si chaque attentat est revendiqué ou adoubé par l'organisation État Islamique, les profils des tueurs posent de plus en plus questions et illustrent la force de la propagande mortifère du groupe djihadiste sur des individus apparemment désaxés.
 
Un Américain d'origine afghane qui a tué 49 personnes le 12 juin dans une boîte gay en Floride avant d'être abattu par la police, était violent, homophobe, radical, et... apparaissait aussi comme un homosexuel refoulé, selon les témoignages.
 
Le Tunisien qui a écrasé 84 personnes au volant de son camion le soir du 14 juillet à Nice reste encore une énigme pour les enquêteurs. "Un individu très éloigné des considérations religieuses, ne pratiquant pas, mangeant du porc, buvant de l'alcool, consommant de la drogue et ayant une vie sexuelle débridée", mais qui avait manifesté "un intérêt récent pour la mouvance djihadiste radicale", a énoncé lundi le procureur de Paris. Un homme de 74 ans entendu par les enquêteurs est même présenté par certains comme un de ses amants. 
 
Et en Allemagne, où un très jeune - 17 ans - demandeur d'asile afghan a attaqué lundi soir à la hache des voyageurs dans un train, les autorités se refusent à toute spéculation : arrivé dans le pays il y a deux ans en tant que mineur non accompagné, il était inconnu des services de renseignement.
 
Dans une tribune publiée mardi par le journal Libération, l'historien Olivier Christin évoque ces "massacres où se mêlent convictions religieuses, hostilités aux interventions en Syrie et en Irak, antisémitisme, mais aussi frustrations personnelles, haine de soi et aspiration au suicide".
"La cause EI accueille toutes les colères", résume-t-il, en y voyant "une rupture radicale dans l'histoire du terrorisme religieux et politique, qui a longtemps conféré une place centrale aux questions d'organisation et de formulation doctrinale".

« Idéologie fanatique et mortifère »

Le groupe État Islamique a compris le profit qu'il peut tirer de ses appels incessants au passage à l'action contre "les mécréants", confiait récemment à l'AFP le psychologue universitaire Patrick Amoyel, qui travaille sur les phénomènes de radicalisation. 
"Ils savent que plus ils occupent l'espace médiatique, plus ils vont avoir d'écho soit dans des populations radicalisables soit dans des populations psychopathiques", expliquait-il.
 
"C'est cette idéologie fanatique et mortifère qui peut conduire certains individus à passer à l'acte, sans avoir besoin de se rendre en Syrie et sans avoir besoin d'instructions précises", a souligné lundi le procureur de Paris, évoquant le défi nouveau posé par ce "terrorisme de proximité".
 
La propagande de l'organisation djihadiste, répercutée à l'infini sur internet dans des vidéos soigneusement mises en scènes de décapitations, de tortures, des appels aux meurtres répétés comme une Litanie, est d'autant plus efficace lorsqu'elle s'adresse à "des personnalités perturbées ou des individus fascinés par l'ultra-violence", a relevé M. Molins.
 
"Ceux qui détestent leurs collègues ou méprisent les homosexuels en raison de leur propre insécurité peuvent revêtir leurs actions de la bannière sanglante de l'État islamique", écrit dans le magazine américain Time William McCants, chercheur au centre de réflexion américain Brookings Institution.
 
Il reste cependant difficile de démêler convictions idéologiques et motifs personnels et inconscients, reconnaît le chercheur, évoquant des tueurs "pas vraiment de l'EI, mais à peu près de l'EI, sans lien organisationnel avec eux, mais avec le meurtre en commun".
 
Reste que, selon l'expert-psychiatre français Daniel Zagury, dans les cas d'actes djihadistes, les malades mentaux sont peu nombreux, environ 10% des cas. "Les autres sont soit de petits délinquants avec un pois chiche dans la tête, qui ont eu une première vie de toxicos, de trafic, et se rachètent une deuxième vie qui lave la première dans l'islam radical ; soit, les plus dangereux, des sujets strictement normaux qui ont un engagement idéologique sans passé délinquant, éventuellement avec des études, très déterminés". 
 
 

 

Europe

Une réponse au Brexit : organiser l’Assemblée instituante européenne

Le Brexit suscite une avalanche de réactions. Si toutes reconnaissent que « rien ne peut plus continuer comme avant », et que la construction européenne fondée presque exclusivement sur l'unification du marché et la libre circulation des biens, des personnes et des capitaux, s'est maintenant plutôt retournée contre l'Europe, en la qualifiant de ventre mou de la mondialisation, les conclusions qui en sont tirées par les uns et les autres et les propositions pour en sortir couvrent un large spectre.
 
Il y a ceux qui voient dans la crise l'occasion de faire avancer l'agenda d'un renforcement de l'Europe, et en particulier de l'Euroland, avec une harmonisation fiscale, un programme commun d'investissement, un renforcement de la gouvernance économique. Leur solution a l'inconvénient de partir de l'hypothèse que les sociétés et les dirigeants politiques nationaux sont prêts à de nouveaux abandons de souveraineté, ce qui n'est pas dans l'air du temps. Et il y a ceux qui estiment que le projet européen doit être refondé, avec le concours actif des citoyens européens. Nous sommes de ceux-là. Encore faut-il dire comment le faire. S'en tenir à l'idée vague de rendre la parole au peuple, dans un contexte de discrédit général des dirigeants politiques et de crise de la démocratie représentative traditionnelle, conduit à la perspective d’un référendum, national ou européen, réclamé partout par l'extrême droite.

Comment associer les citoyens européens à l'élaboration d'un projet d'avenir ?

Ce n'est pas en demandant aux citoyens européens de répondre par oui ou par non à une question, que l'on bâtit un projet d'avenir face à la complexité du monde ! D'où la question : comment associer les citoyens européens à l'élaboration d'un projet d'avenir ? Réponse : en organisant un processus que l'on pourrait appeler une Assemblée instituante. Après le Brexit, c'est ce qui s'impose. Une Assemblée instituante n'est pas une Assemblée constituante. Même si l'exemple de l’Islande, qui a confié l'élaboration de sa nouvelle constitution à 25 citoyens « ordinaires », montre qu'un processus citoyen délibératif peut aboutir à des propositions de qualité, l’objectif n’est pas aujourd'hui de charger un panel de citoyens européens d'écrire un nouveau traité ! L'expression d’Assemblée instituante découle d’un constat :  la gouvernance, telle que nous la pratiquons quotidiennement, concerne les modes de   régulation de communauté existantes. Ce qui laisse de côté un préalable essentiel : comment une communauté s’institue-t-elle ? Comment émerge l'idée d'une communauté de destin dont les membres se sentent redevables les uns vis-à-vis des autres ? y-a-t-il d'autres moyens pour l'instituer que le fer et le sang, pour reprendre le mot de Bismarck ?
 
C'est le premier défi du XXIe siècle, au niveau européen comme au niveau planétaire. Les bouleversements de la technique et de l'économie, la prise de conscience d'interdépendances devenues irréversibles, à l'image du changement climatique, créent une réalité anthropologique nouvelle, mettant en cause la construction idéologique héritée des siècles précédents qui prétendait faire des États-nations les seules communautés authentiques durables : le défi du XXIe siècle est au contraire de faire émerger des communautés de destin correspondant à la réalité des interdépendances. Comme l'a montré la construction européenne, la mise en place d'institutions communes est nécessaire à la pérennité d'une communauté mais ne suffit pas pour la créer.
 
Il est exact de dire que l'Union Européenne s'est construite sans les peuples. Certes, l'adhésion de chaque communauté nationale au projet européen a été volontaire, mais le souci de s'arrimer à la démocratie, dans le cas des pays du sud de l'Europe qui sortaient de régimes autoritaires, ou à un espace de prospérité économique, dans le cas des nouveaux membres d'Europe centrale et orientale, ne constitue pas un véritable processus instituant conduisant des peuples longtemps rivaux à se reconnaitre des valeurs et un destin commun. C'est ce manque qu'il faut aujourd'hui combler.
 
La démocratie délibérative repose sur l'idée qu'avant d'être une confrontation entre des programmes, la politique est une éthique et une méthode. Une éthique de transparence et de recherche de ce qui unit plutôt que ce qui divise (à l'opposé du jeu politique actuel...). Une méthode par laquelle des citoyens « ordinaires » se construisent une opinion sur des sujets     complexes puis, par la délibération, dégagent des convictions et des perspectives communes. Elle requiert pour réussir six conditions :  l'engagement  des  institutions  et  des  responsables  politiques  que  les  propositions citoyennes seront prises en considération ; un mode de sélection des participants incontestable ;  des questions aussi larges que possibles, pour ne pas enfermer les citoyens dans une problématique imposée  par  les  institutions ;  un  processus  construit  dans  la  durée ;  des  moyens  financiers  et humains significatifs ; des méthodes rigoureuses pour dégager des éléments de synthèse et  dégager les points communs et les divergences irréductibles.

Une Assemblée instituante, composée de citoyens tirés au sort

Une Assemblée instituante, composée de citoyens tirés au sort, découle de ces principes. Les questions qui lui seront posées dessinent les contours d'un projet pour l'Europe et de construction d'une véritable communauté : comment assumer ensemble l'héritage du passé, ce qui depuis des siècles fait de l'Europe une civilisation et ce qui l'a si souvent divisée ? Voulons-nous former une communauté de destin et sur quelles valeurs communes fonder une identité européenne ? Quelle place doit occuper l'Europe dans le monde et quel monde veut-elle contribuer à construire pour relever les défis planétaires ? Que penser de la gouvernance actuelle de l'Union Européenne et quelle gouvernance serait dans l'avenir de nature à conjuguer au mieux la diversité qui nous enrichit et l'unité qui nous réunit ? Quel modèle économique pour l'Europe et quelle place du marché dans ce modèle ?
 
Nous proposons un processus en deux étapes : la première au niveau de villes ou de régions ; la seconde au niveau européen.
 
Première étape, des Assemblées de citoyens à l'échelle de villes ou de régions qui se porteront candidates. Pourquoi villes et régions ? D'abord pour rompre résolument avec l'idée « d'intérêts nationaux » ; ils n'existent, en vérité, que parce qu'il y a des Nations et des États pour les inventer et les représenter, mais ils réduisent les dialogues internationaux ou européens à une confrontation entre eux. Ensuite, parce qu'à l'échelle d'une ville ou d'une région, la diversité des sociétés et des défis est beaucoup plus concrète. Dans chaque ville ou région candidate, un processus de tirage au sort entre des citoyens   appartenant à toutes les couches de la société permettra de construire un échantillon d'une soixantaine de personnes de tous âges, origines et milieux socio-professionnels prêtes à s'engager dans l'aventure. Cette assemblée locale travaillera pendant un an, en suivant pour aborder les différentes questions une progression rigoureuse
 
La démocratie délibérative est tout le contraire d'un sondage d'opinion. Comme dans un procès de cours d’assises, les membres du panel de citoyens que constitue l'assemblée doivent pouvoir, au fur et à mesure que le processus se déroule, poser toutes les questions qu'ils souhaitent et obtenir pour chacune une réponse circonstanciée, interroger les experts en bénéficiant de points de vue contradictoires pour se forger leur propre opinion. L'expérience prouve que ça marche, y compris quand il s’agit de questions scientifiques complexes dont on pourrait penser qu’elles sont inaccessibles au profane. Cette capacité de jugement n'est-elle pas l'essence même de l'espérance démocratique ?
 
Seconde étape, une Assemblée citoyenne européenne réunissant en concile, pour une durée significative, de dix jours à un mois, mille citoyens délégués par les Assemblées locales. Le travail de l'Assemblée aura été préparé par des cahiers de propositions issus des assemblées locales et du dialogue entre elles. Ce ne sera pas une assemblée plénière permanente, propice aux prises de pouvoir par des leaders d'opinion, mais un aller et retour entre des groupes de travail interactifs de quelques dizaines de personnes et la confrontation de leurs conclusions. La traçabilité des débats et les méthodes de construction progressive des synthèses est une condition essentielle de la crédibilité des conclusions : l'art de la démocratie et de la gouvernance, aujourd'hui, c'est l'art d'appréhender la complexité et de la gérer.
 
Aux deux étapes des Assemblées locales et de l'Assemblée Européenne, il est essentiel qu'à travers les réseaux sociaux et internet l'ensemble de la société puisse bénéficier des informations fournies aux membres des Assemblées et puisse mener les mêmes réflexions et les mêmes débats, faute de quoi on construirait, même à partir de citoyens ordinaires, une nouvelle caste de notables. L'exemple de simulations des négociations sur le climat, menées dans différents pays dans des établissements scolaires montre aussi tout le profit que l'on peut tirer de démarches citoyennes au niveau des lycées ou des universités, pouvant aller jusqu'au projet d'avenir des jeunes européens, pour le continent et pour la planète.
 
Cette Assemblée instituante ne pourra se tenir qu'à l'appel des dirigeants européens et avec leur soutien,  qui est indispensable sur trois  points : appeler  régions  et villes à s'impliquer  dans  le processus ; fournir les moyens humains et matériels, tant pour la construction d'une base solide d'informations  en  réponse aux  questions  des  citoyens  que  pour  la traduction  et l'interprétariat nécessaires pour rendre ces informations accessibles à tous et permettre les dialogues entre assemblées locales puis au sein de l'Assemblée européenne ; organiser une session spéciale de chaque institution européenne -Conseil, Parlement, Commission, Comité des Régions et CESE- pour examiner de façon approfondie les propositions issues du travail des citoyens. C'est seulement à cette dernière étape, quand un nouveau projet européen, une nouvelle gouvernance européenne, une nouvelle place de l'Europe dans le monde auront fait l'objet d'un consensus que l'on pourra envisager, si nécessaire, de les soumettre à l'ensemble des citoyens européens sous forme d'un référendum organisé simultanément dans tous les États membres.
 

 

Attentat Nice

L’horreur, les pleurs et la colère

Encore. Comme un rituel macabre, les attentats sont revenus dans notre vie quotidienne. Les images diffusées ad nauseam ne nous mithridatisent plus. Après l’insolence de Charlie, l’insouciance des Terrasses, c’est maintenant les poussettes, les enfants, les familles qui sont écrasés, sur l’une des plus belles avenues de la planète. Le chant Nizza la bella ne résonnera plus comme avant.
 
Larmes noyant l’effroi et la sidération dans la même émotion. Et après, toujours le même cortège de rassemblements, de minutes de silence, de dépôts de fleurs et de veilleuses. Et, comme un rituel des temps nouveaux, cette mobilisation des réseaux sociaux, ces témoignages d’entraide et de compassion, à l’échelle du monde.
Nous ne sommes plus capables que de ces réactions si simplement humaines. Face à ce qui n’est rien d’autre que l’inhumanité.
 
Le terrorisme de Daech est une épidémie dont les miasmes ont choisi leur cible : l’intelligence. Le dernier rempart immunitaire que les humains possèdent pour se défendre.
Les promesses de paradis et de compteurs des pêchés remis à zéro pour les « combattants » du Djihad atteignent les égarés. Les plus faibles sont touchés d’abord.  Savamment miné de l’intérieur, n’importe quel esprit suffisamment fragile pour être contaminé, devient alors soit une arme de destruction massive, soit le vecteur d’une bombe à fragmentation des sociétés démocratiques. Daech n’est pas bégueule sur la qualité de ses « soldats ». Et c’est pourquoi ils échappent si facilement aux « radars » de la surveillance, aussi ubiquitaire soit-elle.
 
Les questions pourquoi ? comment ? que faire ? s’égrènent dans un vide de la pensée. Un trou noir qui dévore la raison. Et quand la raison flanche, c’est la colère qui gronde. Voie royale de l’imbécillité. On aurait pu arrêter le camion fou avec un lance-roquette, on pouvait prévoir cet acte insensé, il faut que, il faut qu’on… Des politiciens tricotent sur ce désastre leur pitoyable nullité.  Un carnaval de matamores en carton-pâte.
 
Certains discours entendus ces dernières heures –chamailleries politiciennes minables, dénonciations, accusations, défausses de responsabilité, harangues populistes martiales – sont les précurseurs symptômes du mal qui se déploie et pénètre les esprits.  En y cédant, notre organisme social s’affaiblit, se délite. Il se fractionne, et forge les ressorts des collisions intestines.
 
Daech a écrit et publié partout depuis 2005 : « il faut faire en sorte que la société, qui est totalement déboussolée, se prépare à une logique de guerre civile ». Voilà le piège des terroristes.
Unissons nos intelligences pour refuser d’y tomber.
Nous avons rendez-vous avec une histoire tragique qui change le cours du temps. Soyons à la hauteur de ce rendez-vous.
 
 
Illustration d’en-tête : Mesia
 

 

breveter l'inhumain

Breveter l'inhumain

Breveter l’inhumain. C’est l’humain qui en prend l’initiative, aujourd’hui, hier comme avant-hier. Aujourd’hui, l’Etat islamique utilise les techniques d’information les plus sophistiquées pour recruter des jeunes désœuvrés, en mal de sens, à commettre des atrocités. Jouer au ballon avec des têtes décapitées, crucifier, n’est-ce pas jouissif et digne d’être diffusé ? Ici, il n’y a pas de dépôt de brevet, mais un droit d’usage qui vaut acquisition. L’internet a du bon : il montre l’horrible pour effrayer ou captiver. L’anormal devient normal. Les gaz chimiques ravagent le Moyen-Orient. Des fous des deux côtés en font feu de tout bois. Les armes de destruction massive prouvent, en leurs mains, leur efficacité. D’autres images sont pareillement montrées ou fabriquées par les intéressés. Certaines, même, sont commercialisées par les média étrangers. Des tas de cadavres jonchent le sol. Des corps sont mutilés. Les villes sont dévastées. Par-delà les images, toute velléité de vie est anéantie par le fanatisme. Tout soupçon de liberté est écrasé par la tyrannie.
 
Hier, des milliers de machettes ont été vendues au Rwanda pour massacrer un groupe particulier. Le manufacturier et le vendeur devaient s’en douter, mais ils ont fait comme si de rien n’était.  Dans les années 1960, on bombardait le Vietnam et le Laos avec du gaz orange dont le brevet était en droit protégé par une entreprise privée qui n’y voyait qu’une occasion de profit. Ah, se faire du beurre sur l’homme, quelle belle idée originale qui avait tant mérité la protection de la loi ! Sous les bombes, les millions d’enfants mal nés importaient peu. Des parents estropiés, bah ! on s’en foutait. Tous étaient cassés à vie. Les actionnaires de l’entreprise allaient au temple en toute bonne conscience.  Aucune victime n’était indemnisée. Pourquoi réparer le rebut ?
 
Avant-hier, d’autres entreprises privées avaient osé répondre aux marchés publics de l’Etat hitlérien qui désirait augmenter la productivité  des chambres à gaz et des fours crématoires. Le cahier des charges était clair : éliminer, en peu de temps et au moindre coût, des populations entières qui avaient été préalablement battues, insultées et humiliées. Quel étrange paradoxe ! Aux commandes, les soi-disant surhommes se révélèrent des sous-hommes. En se conduisant comme des criminels au dernier degré, leurs crimes de masse amputaient  à jamais leur humanité plus qu’ils ne blessaient celle de « l’autre ».
Le progrès est une notion peu perceptible à court terme, même s’il faut admettre une certaine avancée au cours des siècles (fin de l’Inquisition, avec ses processions cagoulées et ses pieux instruments de torture, pervers et raffinés ; institutionnalisation de l’Habeas corpus, du jury, de la séparation des pouvoirs et du contrôle de constitutionnalité). Le droit public a réussi, pour partie, à amortir le cycle, mais celui-ci continue d’avoir des adeptes enfiévrés. Le plaisir de tuer, de massacrer, de déchirer l’humain, de l’entendre hurler, l’emporte chez tous ces cinglés sur le minimum de sérénité. Hélas, il y aura toujours des industriels et des Etats pour satisfaire leur demande insensée. L’histoire ne cesse guère d’être le lieu d’un échange macabre. Ah ! le cycle des violences légalisées ne s’arrêtera-t-il donc pas ?
Illustration : Elisa Perrigueur

D’Erfurt à Auschwitz

Erfurt, en ex-RDA. Après la réunification, la ville a décidé de préserver le souvenir de Topf und Söhne qui fabriquait des fours crématoires pendant la Seconde guerre mondiale. La majorité des édiles était divisée. La mairie voulait raser l’usine. Des voix se sont élevées pour en transformer une partie en musée. La cité a restauré le bâtiment administratif, de façon instructive et discrète. Un acte de courage et d’intelligence. Le passé retrouve un sens.
 
Dans le bâtiment, on écarquille les yeux  et on ressent de l’écœurement. Un film montre le personnel de l’usine défiler en 1937. Bannière nazie en tête. Des ouvriers, des contremaîtres, des cadres presque endimanchés. Ils passent devant quelques membres des forces spéciales qui les fixent du regard, le bras tendu. Le ave du nouveau Kaiser, le salut d’Hitler, s’est répandu. Les employés ont l’air satisfait. Certains sourient. Un homme cache son visage devant la caméra. Geste inattendu, presque fatal. La honte ne tue pas ses camarades de travail.
 
Dans les salles, on découvre pêle-mêle des courriers entre dirigeants de l’usine et SS. Sous vitrine, des dessins et modèles, des dépôts de brevet.  Le dernier étage offre une belle vue. On aperçoit la ville voisine, Weimar, près duquel se situe Buchenwald. Ingénieurs et techniciens contemplaient un des camps de concentration qui bénéficiaient de leur savoir-faire industriel.
 
Pietà, Mariendom Erfürt, vers 1350
 
Au cœur d’Erfurt se dresse la cathédrale. Les toits sont pentus, les flèches élancées. Dans l’église, des fidèles se recueillent devant une sculpture. Une pietà du XIVe siècle. La vierge tient dans ses bras un Christ très décharné. L’artiste a représenté les stigmates de l’histoire humaine. Dans l’église de Bach, à Leipzig (à 100 km d’Erfurt), les paroissiens entendirent le même récit. La cantate BWV 199 exprima combien au plus profond l’homme s’est détruit :
 
Mein Herze schwimmt im Blut,
weil mich der Sünden Brut
in Gottes heiligen Augen
zum Ungeheuer macht.
Und mein Gewissen fühlet Pein,
weil mir die Sünden nichts
als Höllenhenker sein.   
 
Mon cœur baigne dans le sang
parce que la semence du péché
a fait de moi un monstre
Aux yeux de Dieu.
Et ma conscience est au supplice
et mes péchés
en sont les bourreaux.
 
Le camp d’Auschwitz, en Pologne. L’extermination d’autrui fut un métier. Le personnel de Topf und Söhne y allait et venait. Une équipe montait les fours, une autre les réparait. La même ou une autre les perfectionnait. Aujourd’hui, on n’y sévit plus, mais la visite est éprouvante. Dans le silence, s’offrent à la vue des milliers de cheveux rasés, des milliers de chaussures dépareillées, des milliers de vêtements d’adultes et d’enfants. Dans une salle attenante, les amoncellements continuent. Des milliers de prothèses. Des milliers de lunettes. Handicapés et mutilés se voyaient réserver un traitement de faveur. Une faiblesse était une tare qui accélérait votre sort. On classa l’homme en juif, tsigane, slave, homosexuel, asocial, dégénéré. La mise en catégories précéda la dégradation, et la dégradation la mort. La campagne environnante était muette, prête à vous ensevelir. Un calme commun, beaucoup moins serein que celui ressenti par Goethe dans Über allen Gipfeln (1).  A deux pas est située Birkenau, un Auschwitz à plus grande échelle. Les déportés y descendaient, croyant être au bout de leurs peines. Après être entassés jour et nuit dans des wagons à marchandises ou à bestiaux, un comité d’accueil de SS, impeccablement habillés, les frappait et hurlait sa haine. Les familles étaient brutalement séparées. Hommes et femmes étaient alignés, inspectés, triés.
 
Que retenir d’Auschwitz et de Birkenau ? Des slogans stupides qui se veulent drôles, mais qui ne font même pas rire le public des farces du théâtre. A l’entrée, Arbeit macht frei (le travail rend libre), dans les baraques : Sei ehrlich (sois honnête), Sauberkeit ist Gesundheit (la propreté, c’est la santé). En s’essayant à l’esprit, le bourreau avait perdu le peu qui lui restait.

L’appropriation de l’horreur

A Erfurt, on est appliqué (tüchtig), mais dans le mauvais sens. On travaille sans état d’âme, en blouse blanche, sur des planches à dessin. Une photographie de l’époque témoigne de l’atmosphère industrieuse. On doit répondre à la commande officielle de fours crématoires pour cadavres humains en très grand nombre. On ne s’étonne pas de la demande. Dans un pays en voie de nazification, il n’y a pas de place pour le pourquoi (Hier ist kein warum). La seule question admissible : Wievel Stück ? - Combien de pièces ? De déportés par wagon (2) ?
 
Topf und Söhne a bonne réputation. Dès le début du XXe siècle, l’entreprise a su répondre au désir de crémation individuelle. Les églises chrétiennes s’y opposaient (le bûcher était réservé aux hérétiques vivants qui s’étaient auto-incriminés sous la torture). La loi allemande de 1934 pose des conditions d’hygiène relatives à l’odeur, à la fumée et au bruit. Le droit exige le respect du corps et des cendres (le corps est identifié, les cendres sont rassemblées, les urnes sont scellées). On parle de « dignité » (3).  Un tel cahier des charges ne s’impose plus aux populations désignées à la vindicte publique. On doit brûler les corps comme on doit incinérer les carcasses d’animaux. Les défis techniques sont du même ordre : avec l’afflux incessant des pièces rapportées dans les camps de concentration, on a prévu leur gazage, mais la résolution du problème en crée un autre : il faut prévoir des installations pour une combustion continue et à grande échelle. Avec un tel volume, la ventilation finira par poser des difficultés. Pas de panique : A Topf und Söhne, nous savons faire ! On fournira l’expertise appropriée…
 
Ces questions relèvent de l’ingénierie qui enseigne à manipuler les choses avec efficacité. Pour mesurer l’exploit technique, pensons aux déchets de l’industrie agro-alimentaire. L’élevage a atteint aujourd’hui un stade forcené. Porcs, bœufs, volailles, tous sont à l’étroit, sans air ni lumière, pataugeant dans leur lisier. On ne compte plus le nombre de bêtes qui ne tiennent plus debout avant d’être acheminés à l’abattoir. L’équarrissage des cadavres requiert une foultitude d’incinérateurs orientés dans le sens des vents dominants. L’odeur des carcasses brûlées ne doit pas importuner le voisinage. Analogie insupportable ? Le philosophe Heidegger l’osa après-guerre. - Oh ! C’est affreux ! La technologie a supplanté la contemplation. Les choses ne sont vues que sous l’angle fonctionnel. Mais ce retour à résipiscence du penseur-poète, niché dans la Forêt noire, fut problématique. La technologie avait été supplantée elle-même sous le nazisme. Etait-ce utile de gaspiller tant d’argent et d’énergie à abattre des millions d’innocents ? Etait-ce utile de massacrer des cerveaux, éduqués et créatifs, qui auraient pu servir le pays avec dévouement comme en 1914-1918 (4)
 
Topf und Söhne innove. Elle double, elle triple les moufles des fours crématoires. Elle accélère l’incinération. Elle étend son intervention en amont en améliorant la diffusion du Zyklon B dans les chambres à gaz (5).  Le matériau humain à traiter avait été sous-estimé. Les nazis sont débordés. La conférence de Wansee, qui programma en 1942 la Solution finale, pécha par optimisme. Les adaptations de Topf und Söhne, qui faisaient merveille, ne suffisent plus. Faute de disponibilité, on gaze mal ou à peine, on brûle pêle-mêle morts et mourants (6).
 
Fournisseurs et clients n’ont pas été à la hauteur de la tâche, mais chez Topf und Söhne, on est quand même fier du travail accompli. On a procédé à un dépôt de brevet en 1942. L’enregistrement est officieux (secret des affaires oblige). La loi, c’est la loi. Dura lex sed lex. Il n’y a pas lieu de tergiverser. Le dépôt du brevet ne répond pas au seul mobile du profit. Nous ne sommes pas aux Etats-Unis, obsédés de faire fructifier le copyright. Le devoir prime. Toujours heureux de vous servir (Stets gern für Sie beschäftigt) est la devise de la maison. La phrase orne le fronton du bâtiment restant. L’appropriation de l’horreur n’est pas choquante : sur les planches à dessin figure le logo Isis. A travers les âges, la déesse égyptienne offre sa protection aux inventeurs qui améliorent le sort de l’humanité. A perfectly normal company (7).

Droit privé et droit public

Soit la thèse d’Arendt (8) : Eichmann n’était qu’un morne fonctionnaire. Comme tant d’autres aux divers échelons, il œuvrait dans le cadre d’une vaste machine qui le dépassait. Banalité du mal. Un rouage dans un engrenage qui multipliait la force au centuple sans que chacun se sente au centre. La thèse, qui conforte celle du totalitarisme, conduit à des inconséquences. De simples pions auraient bombardé sans réflexion les pays alentour. Ils n’auraient éprouvé aucune passion à détruire villes et familles, à répandre partout la désolation. Ils seraient restés de marbre. Les ordres sont les ordres (Befehl sind Befehl). Placidité apparente. La furie dominait les porteurs d’ordre et de secret. Au Tribunal de Nuremberg siégeant au sortir de la guerre, l’obéissance aveugle ne sera point une excuse. Dans le droit pénal des nations, l’exécution d’un ordre insensé rend l’action complice. Et que dire de la joie à l’accomplir (9)
 
La population aryenne devinera trop tard que l’épopée guerrière tournera mal. Le désir de gloire pour l’éternité virera à la folie. Le ver était dans le fruit : dès le départ, la gente non aryenne avait eu un avant-goût du pire : humiliation publique, chasse à meute et bastonnade, commerces fermés et détruits, lieux de prière incendiés, congédiement immédiat dans les établissements de l’Etat, renvoi de l’école et de l’université dont l’accès devenait interdit, la panoplie ne pouvait que s’élargir. Il ne fallait pas être grand clerc pour le prédire, sauf à se laisser envahir par le déni. Chacun le pressentait, mais they did not want to know. Jusqu’à la fin de la guerre, et même après, beaucoup se sont montrés capable of deliberate omission (10)  - Que vouliez-vous faire ? La force brutale tenait la rue. Le pouvoir trafiquait même les lois !
 
Les métiers du commerce et de l’industrie différaient de l’administration. Rien ne les forçait à passer commande, à signer des contrats, à déposer des brevets. La concurrence entre entreprises existait sur le nouveau marché des fours crématoires destinés aux camps. Topf und Söhne n’était pas la seule à s’y lancer, mais elle demeurait libre de ne pas y pénétrer. En droit privé, la souveraineté individuelle continuait de s’exercer. En visitant Auschwitz, on apprend que nombre d’entrepreneurs l’exerçaient sans retenue. Bayer recueillait sur son papier à-en-tête les observations des médecins nazis qui se livraient à des expérimentations humaines. Siemens sélectionnait et exploitait à outrance la main d’œuvre des déportés. Une autre firme négociait le prix et la quantité des cheveux des crânes qui avaient été rasés. Une autre transformait les cendres en engrais. Tout était bon à prendre. L’Etat récompensa cette volonté de participer à l’effort national en leur accordant d’autres marchés. Topf und Söhne accrut son chiffre d’affaires. Beaucoup de marques commerciales gonflèrent leur réputation : Hugo Boss, qui conçut les uniformes SS en recourant au travail forcé ; le constructeur automobile BMW, qui profita de l’aryanisation des entreprises et employa 50.000 détenus d’un camp de travail ; Deutsche Bank, qui finança la Gestapo et fournit des fonds pour construire Auschwitz (11).
 
Même en droit public, le fonctionnaire n’était pas forcé d’obéir aveuglément. A l’insu des administrateurs, l’autonomie subsistait. Sous la férule d’Hitler, quelques hommes dans les bureaux tardèrent à exécuter les ordres, les interprétèrent de façon restrictive, désobéirent. La liberté publique était verrouillée, mais l’individuelle s’infiltrait par degrés, de la désobéissance civile à la résistance active. Certains juges refusèrent de juger sans délibérer. D’autres démissionnèrent, mais la plupart restés en poste condamnèrent à la volée. La justice, qui devait s’exercer les yeux bandés, les avait fermés. Aucune instruction préparatoire ne précédait les audiences. Les qualifications retenues étaient saugrenues (relations sexuelles entre races). Alors que les crimes d’Etat restaient impunis (meurtres, stérilisation de leurs concitoyens), même les magistrats du siège n’osèrent pas agir en dehors de la volonté de leurs supérieurs. Ils ne baissèrent pas la tête mais la relevèrent pour rendre des arrêts de mort. La part de responsabilité à dégager n’était pas celle des prévenus mais la leur. Inquisiteurs, ils étaient devenus coupables par breach of justice. Ils commirent l’iniquité au nom du droit (12).
 
Parmi les pays vaincus, la France pensait s’en tirer à bon compte. Une partie de ses élites, déplacée à Vichy, faisait croire que la souveraineté subsistait alors que la nation perdait au change. Dans ce jeu de dupes, il y eut des vichyssois anti-allemands, mais le nouveau gouvernement, en collaborant, travailla pour l’occupant. A l’instar de celles de Nuremberg, des lois anti-juives furent promulguées, mais Pétain les rendit plus sévères de sa propre main (13).  Conformément à la hiérarchie des normes, les hauts fonctionnaires rédigèrent les décrets d’exclusion des Français qui n’étaient pas de souche. Leur style était lumineux, précis. Des professeurs d’université commentèrent cette réglementation comme si son objet, violant l’ordre public, n’importait guère. La forme, seule, avait du sens ! Avec la même indifférence, mais sans ménagement, la police remit à l’autorité étrangère des enfants de moins de 16 ans comme elle lui avait remis auparavant les émigrés allemands (14). Belle répartition des tâches : les jurisconsultes blanchirent l’infamie, les forces de l’ordre contribuèrent à l’épuration, et la milice, pour achever l’épuration, extirpait, avec une violence mafieuse, toute opposition.
 
Dans la population, il y eut de nombreux justes qui circonvinrent les lois devenues injustes. Des gens modestes, des paysans, des communautés entières, sauvèrent juifs et autres bannis de la société. Cette attitude ne contraria pas la collaboration économique. Nous ne sommes plus en 1914 où Renault produisit en nombre les taxis qui acheminèrent les soldats français sur le front de la Marne. Renault produit désormais pour l’ennemi. Cette entreprise automobile sera nationalisée à la Libération à titre de symbole, mais à son instar la majorité des entreprises livraient sans état d’âme du matériel civil et militaire à l’armée allemande. Leur bonne volonté était récompensée par des commandes assurées. Que le pays fût occupé ou pas, le droit privé ignorait l’odeur de l’argent. Mieux valait le fascisme que le socialisme.

De l’inhumain trop humain

L’Allemagne nazie entendit asseoir sa domination absolue sur des peuples et des individus réduits à la servitude. Tout un droit de l’inhumanité se mit en place :
- un droit de propriété des biens volés au bénéfice de soudards se livrant à la rapine et au pillage à fond (dixit Goering) (15) ;
- un droit de propriété industrielle, délivrant (avec félicitations du jury) le titre de brevet à des techniques réduisant l’humanité à de la pierre concassée et broyée ;
- un droit de propriété intellectuelle, garantissant les droits d’auteur et patrimoniaux sur des œuvres aussi insanes et indigestes que Mein Kampf. Hitler s’enrichira en imposant son livre dans le monde germanique. A l’extérieur, les droits de traduction gonfleront les royalties. L’œuvre d’Heidegger fut moins indigente et obsessionnelle. Elle fut mieux écrite, mais son auteur préféra comme le Führer les substantifs abstraits aux verbes. Son être-là (Da-sein, openness-for-Being) reprocha à la philosophie d’avoir oublié l’Etre, mais il oublia lui-même la présence humaine en chaque homme abimé. Son ontologie, aveugle à toute moralité, excusa les crimes d'inhumanité. De quels crimes parlez-vous s’il n’y a plus d’humanité ? Où est la faute ? Quand l’Etat efface tout nom propre, le nom devient commun. Il y a un numéro, un matricule, tatoué sur la peau, dès le plus jeune âge. Il y a du Non-être.
 
C’est vrai, on a commis des erreurs, reconnaît Himmler, le chef des SS. « En 1941, nous ne donnions pas aux masses humaines la valeur que nous leur donnons aujourd’hui, celle de matières premières, de main d’œuvre. » (16)  Depuis, nous avons su saisir la moindre ombre humaine au service du Reich ! Nous avons su mentir aux populations déportées pour leur faire croire qu’elles allaient être bien traitées (nous avons poussé le stratagème à vendre des tickets de train pour Auschwitz). Vous voyez, nous sommes capables de reconnaître l’humain dans l’inhumain. Nous ne sommes pas contentés de manipuler du bétail. Nous avons montré au monde notre irrespect. Des preuves ? « Un SS passa à bicyclette et donna un coup de pied à une vieille femme. Elle poussa un cri déchirant. » « Le SS, ayant une passion pour son chien-loup, donna, devant nous, son sucre quotidien. Il lâcha bruyamment un « gaz » à la figure de celui d’entre nous qui était en charge de lui enlever ses bottes. Il ajouta en ricanant : « Danke, Herr Professor ! ». Un pauvre type [qui croyait que ricaner pouvait l’élever !] » (17)
 
Dans la reconnaissance humaine, on a fait mieux : on a torturé. En territoire conquis et dans les camps de la mort, on a redoublé les coups en voyant la peur et la douleur autour de nous. Il faut retrouver l’expérience au présent pour comprendre notre enivrement. A la Gestapo,
on enfonce des choses sous les ongles aux inculpés pour les faire avouer, on les interroge pendant onze heures de suite, puis on les met « au repos », sous la surveillance d’un énorme chien policier. L’animal est prêt à vous sauter à la gorge si l’on fait mine de sortir son mouchoir de sa poche (18).
 
Manifestement, sous la tyrannie, qu’elle soit nazie ou communiste (les camps staliniens ont servi de modèle à l’époque), on aime ce qui est canin. Les chiens, élevés pour être méchants, sont les parfaits auxiliaires. Ils ne cessent d’aboyer, de montrer les dents, de déchiqueter les déportés qui se rebellent ou qui tombent épuisés. Si les prisonniers n’avaient été que de la matière inanimée, nous, SS, n’aurions jamais imaginé faire durer leur supplice jusqu’au bout. Nous les avons fait rester debout sans boire ni manger en respirant à peine dans des cellules minuscules. L’aristocratie du mal que nous formions n’aurions pas arraché les yeux à certains ou jeter d’autres dans des latrines (quel plaisir aurait-on eu à jeter des choses ?). Pour jouir, il faut du répondant ! Voilà le génie de notre Führer : il nous a permis de nous adonner « à la disposition que [l’on pouvait] avoir pour le meurtre, les actions les plus atroces, les spectacles les plus hideux. Par-là, [il] s’assurait pleinement de [notre] obéissance et zèle » !  (19)
 
Utiliser la perversion est une façon d’asseoir son autorité et d’intimider la société. Les opportunistes s’engouffrent dans la brèche ? Qu’ils se rassurent : on saura les exploiter. En revanche, gare aux Allemands qui n’acclament pas notre guide suprême ! Ils pourront n’être qu’un matériau trop humain. S’ils échappent à Dachau au privilège d’être pendus aux crocs de boucher, on les obligera « à laper la nourriture par terre », ainsi que témoignera l’un d’eux en détention depuis douze ans (20).  En réalité, il n’y a guère de différence entre ces exilés de l’intérieur et ceux de l’extérieur. Nous faisons cas de tous les déportés. Nous, vicieux en diable, les avons poussés à participer au mal ! Quels moments de fou rire n’avons-nous pas eu en les voyant se voler un peu de nourriture, une gamelle pour la recueillir, une guenille pour se réchauffer, un sabot dépareillé pour marcher.  Nous avons poussé le vice à apprendre à une minorité à battre la majorité des leurs à coups redoublés. Nous les avons endurcis au point qu’ils ne réagirent plus devant les corps de leurs compagnons de misère dévorés par les rats (21).
 
Déshumanisés et sous-bourreauisés. Voilà une promotion ! avant qu’ils ne soient éliminés, car l’untermensch ne pourra jamais atteindre les hauteurs de l’über-mensch (l’over-man…).

La morale de Socrate revisitée

"What is a man ?" demande Hamlet (22).  Cette question n’a jamais taraudé les propagandistes du régime hitlérien qui n’ont cessé d’avilir leur humanité en abaissant celle des autres. « Persécuteurs et calomniateurs, c’étaient eux les prisonniers », enfermés à double tour « dans leurs mensonges et crimes » (23).  Autant ils peinaient à éteindre « la liberté intérieure » de leurs victimes, autant ils avaient réussi à piétiner la leur d’un pas cadencé de soldatesque. Ils parvinrent à éliminer en eux cette part intime, « la plus précieuse de toutes ». Ils n’avaient pas compris que l’affirmation de la liberté ne consiste pas à faire le mal, mais à faire le bien. Ils se crurent plus créateurs à bien faire le mal en étant en proie à une machination mentale. 
 
Comment « ces hommes-là ont pu se laisser abrutir, déspiriualiser », au point de « n’être plus que des automates sans cerveau, avec tout au plus des réactions d’enfants de 5 ans ? ». « Ils sont intoxiqués ; ils ne pensent plus ; ils n’ont plus d’esprit critique : ‘Le Führer pense pour nous.’ Leur esprit, souillé, était tombé dans la répétition et le sadisme. « Leur bravoure n’est plus guère qu’un instinct animal, l’instinct de la bête. […] Ils agissent avec l’exaltation des fanatiques. Ils ne possèdent plus rien de ce qui faisait la noblesse d’un être humain. » (24)
 
Ces hommes ont ôté la joie de vivre de l’Europe et brisé le destin de tant de vies qui auraient fleuri. Ils croyaient que leur vie de famille échapperait à leur barbarie. Le commandant SS d’Auschwitz disait que sa femme et ses enfants n’avaient jamais été aussi heureux dans leur maison privée, attenante au camp. Hitler pleura la mort de sa maman. Des films le montrent caresser son berger allemand, tapoter les joues des jeunes recrues. Quelle naïveté ! Tous ces acteurs ont oublié les cris de la tragédie grecque. Un crime finit par laisser des traces sur trois générations. Leur progéniture n’échappera pas au malaise, à la culpabilité, au mépris public.
 
Ils ont péri, hélas ! ignominieusement !
Las ! las ! hélas ! hélas ![…]
Nous voici frappés – de quelle éternelle détresse !
Nous voici frappés – il n’est que trop clair.(25)
 
Morale de l’Occident ? Non, pas vraiment. Selon Bouddha, le karma résulte de nos actes. Notre conduite, nos pensées, nos paroles, se sont déposées dans un courant de conscience qui n’a pas tout emporté. L’oubli ? En apparence car, au fond de soi, l’âme est rongée par l’acide. Mais, objectera-t-on, les criminels s’en sortent bien. Ils paradent avec médailles et richesses. Ils se gavent des plaisirs du monde. Un serial killer, un génocidaire, a rarement la gueule de l’emploi, avant ou après ses exploits. Il est parfois beau ou avenant, mais son allure cache un Iago ou un Macbeth. Comme Richard III, il a l’art de tromper son monde alors qu’il fait le mal par principe. L’uniforme qu’il porte le trahit. Il joue un rôle dont il n’est pas dupe aussi. Alas, gémit-il dans les coulisses, My soul is foul !  Ah, my inner being is full of discordance ! (26)
 
La volonté de puissance a inversé l’ordre humain. Son énergie a descellé les valeurs. Les docteurs ne soignent plus mais mutilent in vivo enfants et adultes. Ils signent des ordonnances, non pour guérir, mais pour accélérer la mort. Les avocats ne défendent plus des causes difficiles. Des membres du barreau dirigent des camps de concentration. Toutes les professions libérales ont oublié leur déontologie. Pourquoi faire moins que les lois qui incitent au crime ? La société régresse à l’état de nature. Les contrats deviennent contraires à l’ordre public de la République. L’activité du commerce ne répond plus au code minimal des affaires.
 
"Quel naufrage spirituel," s’exclame Primo Levi. Celui qui revit les événements hallucine comme par le passé. Il entend le Trio des esprits de Beethoven qui transcrivait la musique des sorcières de Macbeth annonçant la déchéance de l’homme par lui-même. Celui qui visite les vestiges maudits frémit. Il devient lui-même visionnaire, tel le poète juif allemand Heinrich Heine :
 
[Le tonnerre] roule lentement, mais il vient. Quand vous entendrez un craquement comme jamais un pareil ne s’est fait entendre, vous saurez qu’il touchera au but. [Vous assisterez à] un drame en comparaison duquel la Révolution française n’aura été qu’un [Sturm und Drang] idyllique. (27)
 
La Révolution française avait libéré l’homme du despotisme. La Terreur l’a fait tomber dans pire. Le nazisme en multipliera les effets délétères à l’infini. Par frénésie, l’homme a retourné l’arme contre lui en niant toute raison et délicatesse chez autrui. Il a trop réagi contre la morale judéo-chrétienne qui a prôné l’amour mais valorisé la pitié à l’excès. La bonne intention produisit le contraire : l’alter ego fut dévalorisé, placé au-dessous de l’ego. La compassion rompit l’égalité entre les hommes. L’autre ne fut plus qu’une victime. Nietzsche fustigera une morale qui fait le jeu des esclaves qui manipulent les forts par le sentiment. Il est temps de revenir à Bacchus. Buvons à la santé du sur-homme ! Cette expression aurait été interprétée à tort comme Superman. Peut-être, mais il fallait plutôt revenir à Socrate. Subir l’injustice vaut mieux que de la commettre. Peu ont compris cet adage antique paradoxal (28).
 
A Athènes, le citoyen commettait le crime d’ubris (ύβρίς) s’il battait outrageusement son esclave. Mais celui-ci ne faisait-il pas partie de son patrimoine ? Le propriétaire n’était-il libre d’y porter atteinte selon son plaisir ? Non. Un maître doit être maître de soi. Il ne peut être sujet à une à une passion extrême qui dénaturerait son humanité. L’honneur de sa condition lui interdit de mal se conduire. S’il faut choisir : mieux vaut tolérer un vol que de voler son voisin. L’humour est un meilleur remède. « Celui qui sourit alors qu’on le vole, vole lui-même quelque chose à son voleur », dixit Shakespeare.  Il apprend, à travers l’épreuve, combien il faut prendre ses attachements à la légère et ne pas en faire une affaire personnelle. Le souci de l’âme importe plus. Mais un crime est autrement plus grave ? Certes, mais il vaut mieux encore endurer un profond chagrin que d’en infliger un. Le coût psychologique est moins grand. En me vengeant, je me tue en te tuant. Double meurtre. Voyez Othello. Il tue Desdémone par jalousie. Son aveuglement provoque sa mort morale (ou physique sur scène).
 
Dans les écoles d’Hitler, les Napola, les élèves d’« élite » doivent apprendre l’obéissance absolue à travers des traitements humiliants. Les formateurs les traitaient moins que des esclaves. Aucune invitation à se connaître soi-même. Rien n’éclairait l’affectivité des futurs dirigeants. Leur angoisse était refoulée. Leurs pulsions n’étaient sublimées que dans le désir de rétablir l’ordre dans un monde, craignait-on, menacé de dissolution. La défaite militaire de 1918, la crise économique de 1929, des ouvriers agitant le drapeau rouge et souhaitant, le poing tendu, le renversement, ajoutèrent leurs effets collectifs aux facteurs personnels des impétrants (éducation familiale autoritaire, réprimant, dès la prime enfance, le besoin de tendresse élémentaire, la demande d’attention particulière, le besoin de respect). Tout était prêt pour commettre la pire des injustices : la tyrannie, et la pire des pires : le totalitarisme.
 
Avec l’encadrement de la jeunesse, la camaraderie ambiante, l’ivresse de l’unité, il devenait facile de rejeter la haine sur l’étranger, de livrer à la vindicte populaire tout ce qui paraissait contraire à l’homogénéité. Chaque élément de la tribu ne devait accomplir que son devoir de groupe, légal et non moral. L’éthique passait à la trappe. Même le catéchisme formel de Kant ne suffisait pas à l’appel. Sacrifier sa vie, son esprit ! C’était le nouvel idéal, sanctifié dans les défilés. Le serment de fidélité, à l’égard d’un homme qui les électrisait, l’emportait. Rien à faire : tous étaient subjugués en étant à la fois endoctrinés, hypnotisés et mis au pas. L’ironie ? Le doute ? Le goût de la sagesse ? – Bon pour l’autodafé, comme les livres qui font penser !

Le fin mot de l’histoire

La pitié, dans laquelle la culture avait trop donnée, fut exclue, pour soi et pour les autres. Dans les situations intolérables, la pitié peut redevenir d’actualité. Si les SS se sentent gagner par l’humanité, qu’ils s’apitoient sur eux-mêmes ! C’est le conseil d’Himmler, un truc pour éviter de plaindre leurs victimes. Il s’agit de retourner vers soi la pitié que ressent l’homme comme animal. Au lieu de se dire : Quelles horribles choses je suis amené à faire aux gens ! un SS défaillant mentalement devrait se lamenter de la tâche qui a pesé sur ses épaules. Le truc marche parce qu’il demande moins de verser des larmes que de s’objectiver à l’extrême.  Le je n’est plus lui-même. Il devient passif quand il en fait trop. C’est un autre qui agit en lui.
 
L’insensibilité des autres, traduit en insensibilité à soi-même, redevient insensibilité aux autres. Durcie en cruauté au dernier degré, elle aboutit à « la plus monstrueuse entreprise de domination et de barbarie de tous les temps ». Ce sentiment fut celui des Alliés en 1945. Unspeakable truth qui parle à travers « la personne de ses principaux responsables ». Disgraceful behaviour « des groupes et associations qui furent les instruments de leurs crimes ». Ce furent des « crimes contre la condition humaine ». Des crimes contre sa propre humanité autant que celle de l’humanité entière. Des crimes qui ne font qu’un « crime contre l’esprit », « péché contre l’esprit ». La barbarie nazie a « élevé l’inhumanité au rang d’un principe ». Elle a commis « un crime capital contre la conscience que l’homme se forme de sa condition en tant que telle » (29).  - Truly evil, effroyable irréalité qui a réalisé l’enfer sur terre.
 
Via l’Etat et ses lois, des hommes ont décidé ce qui était humain ou pas sans posséder le moindre critère du Bien. Ils ont tué l’homme en l’homme en mutilant son humanité. Leur mépris des autres les a rendus méprisables. They have degraded themselves en abusant du droit, en le retournant contre sa finalité qui est de protéger l’individu, connu et inconnu. Faut-il les retrancher nous-mêmes du corps social ? Beaucoup se sont mis au ban de l’humanité. Non repentis mais profitant de la guerre froide, ils ont proposé de défendre l’Occident. Grâce à des complicités, ils sont se sont cachés ou enfuis. L’un d’entre eux emportera avec lui un album de photos mêlant sa vie de bourreau à Auschwitz et ses frasques le week-end. Ici et là, ils ont alimenté les sources de renseignement des gouvernements et travaillé pour les services secrets des deux Grands. Leur expertise était sans prix. Barbie en particulier enseigna l’art d’être tortionnaire. Savoir torturer sans tuer : voilà une technique qui aurait dû être patentée !
 
D’autres, qui sait ? se sont amendés ou ont regretté. L’Allemagne, en tant qu’Etat, a reconnu sa culpabilité. A la différence de l’Autriche, elle a fait un travail sur soi remarquable (Erfurt le prouve). Quant aux victimes, certaines n’ont pu sortir de leurs tourments. Le film d’Alex Corti, Welcome in Vienna, rappelle combien ceux qui ont vu tout se briser autour d’eux ne peuvent s’empêcher de briser l’occasion de reconstruire une relation où que ce soit. D’autres ont dépassé le désir de vengeance qui aurait pu les consumer. Tel Primo Levi, qui préféra dilater son être au lieu de le rétrécir (30).  Tel Robert Badinter qui offrit à Barbie, ramené en France, un procès équitable. La Cour siégea à Lyon où l’ex-officier nazi avait sévi. L’accusé eut une cellule décente. Il fut entendu, défendu, jugé. On le condamna à perpétuité. En qualité de Garde des Sceaux, Badinter avait pris l’initiative de faire abolir la peine de mort. Il en regretta rien, bien qu’il apprît, au cours de l’audience, que Barbie avait fait déporter son père.
 
Hitler et ses affidés savaient que c’était demander beaucoup à ceux qui les servaient de quitter leur humanité. Il n’est pas facile de perdre ce qui vous définit et vous singularise par rapport à la nature. Vous risquez d’en être qu’une partie broyée par d’autres parties. L’appel à la rhétorique ne manque pas pour masquer cette vérité que chacun redoute dans sa fragilité. « Nous, Allemands, devons être honnêtes, corrects, loyaux et amicaux envers les membres de notre race et envers personne d’autre. […] Ce serait un crime contre notre sang de nous soucier [des autres] et de leur donner des idéaux. […] Le monde peut nous appeler comme il veut ; l’important est que nous soyons éternellement les soldats obéissants, obstinés et invincibles du peuple germanique et du Führer, les S.S. du Reich germanique. » Vous êtes liés par votre promesse de loyauté, mais vous rechignez ? Du courage ! « Nous savons que ce que nous attendons de vous est surhumain : il vous faudra être surhumainement inhumain. » (31)
 
En contrepoint, il y eut parmi les victimes des gestes qui cherchaient à réhumaniser ceux qui avaient perdu en humanité. Dans le camp de Dachau-Landsberg, certains s’étaient portés volontaires pour donner une gamelle supplémentaire aux plus faibles, rongés par la faim. « Chaque jour, nous nous « cotisions », à deux cuillerées chacun [pour un surplus de soupe qui sauvait la vie à celui qui avait] atteint les limites extrêmes de ses forces et voulait se laisser mourir. » Rien de grandiose, mais tous gagnaient de l’humanité. La solidarité apportait beaucoup de dignité au groupe. « Partager est, je crois, la seule leçon valable de la vie. » (32)
 
On objectera que la balance entre perte et gain en humanité n’est pas simple. Parmi les victimes, il y eut des bourreaux ou des victimes qui les aidaient. « Comment des techniciens juifs [ont-ils pu] construire les chambres à gaz de Theresienstadt » ? Il existe des cas inverses. Un ingénieur juif préféra se suicider que de faciliter le crime. Bien qu’agnostique, il appliqua le précepte rabbinique : « Laisse-les tuer, mais ne transgresse pas. » (33). D’autres, à travers leurs enfants ou leur famille, pourchassèrent après la guerre les bourreaux impunis.  On citera Serge et Beate Klarsfeld. A leurs risques et périls, ils dénichèrent les auteurs de lèse-humanité. Leur action rendit honneur aux fantômes du passé qui ne pouvaient se reposer.
 
Pourquoi s’acharner contre l’espèce humaine en développant des moyens de terreur et d’extermination ?  Il est apparu plus raisonnable à Diesel de breveter une variante du moteur à explosion sans en céder l’usage à l’armée. A la veille de la Première Guerre Mondiale, cet ingénieur allemand, né en France, fit preuve de caractère face aux autorités. Il paya de sa vie son désir de travailler pour l’humanité (sa mort trouble les historiens). Refus inutile ? Il eut un compatriote, Fritz Haber, qui eut moins de scrupule. Il inventa le gaz moutarde qui décima les soldats dans les tranchées. On le récompensa. Sa femme se tua. Juif, il dut émigrer en 1934.
 
La valeur d’un brevet ne se mesure pas à l’aune de l’efficacité ou de la victoire à assurer. Dans le maniement des outils, le bon usage compte. L’enregistrement ou l’emploi d’un procédé industriel suffisent peut-être en droit, mais en philosophie il faut plus pour qu’il soit recevable. Un dessin & modèle, une marque, un droit d’auteur, un brevet, ne peuvent avoir pour finalité la destruction d’une partie de l’humanité. Les faibles doivent être protégés. Leur mélange avec les forts assure le renouvellement de l’homme en chaque coin de la terre.
 
Alain Laraby, Consultant et intervenant à Sciences Po
                              
(1) Über allen Gipfeln ist Ruh’ In allen Wipfeln spürest Du Kaum einen Hauch ; Die Vögelein schweigen im Walde Warte nur, bald  Ruhest Du auch. (Goethe, 7 septembre 1780)
(2)Primo Levi, If this is a man [Se questo e un uomo, 1958], Abacus, London, 1990, p.22 et 35.
(3)  he Engineers of the « Final Solution ». Topf & Sons – Builders of the Auschwitz Ovens, Buchenwald and Mittelbau-Dora Memorials Foundation, Weimar, 2005, pp.20-21.
(4)  Isabelle Saporta, Le livre noir de l’agriculture, Fayard, Paris, 2011, pp.69-71.Martin Heidegger, The Question Concerning Technology and Other Essays [1949], Harper & Row Publishers, New York, 1977. « Agriculture is now motorized food industry, essentially the same as the manufacture of corpses and gas chambers » (Heidegger, in Rüdiger Safranski, Martin Heidegger Between Good and Evil, Harvard Univ. Press, 1998, p.414).
(5)  The Engineers of the « Final Solution ». Topf & Sons – Builders of the Auschwitz Ovens, p.43.
(6)  Témoignage de Madame Claude Vaillant-Couturier, déportée à Auschwitz, in Michel Dobkine, Crimes et humanité. Extraits des actes du procès de Nuremberg 18 octobre 1945 – 1er octobre 1946, édit. Romillat, Paris, 1992, p.119.
(7)  On m’a fait observer que « Stets gern für Sie beschäftigt » serait mieux traduit par : Toujours prêt à vous servir ou On aime toujours travailler pour vous, ou mieux encore : On travaille avec plaisir pour vous… Il ne s’agit pas de n’importe quel service mais d’un travail.
(8)  Hannah Arendt, Eichmann à Jérusalem [1963], Gallimard, Paris, 2002, chap.8 : Les devoirs d’un citoyen respectueux de la loi.
(9)  « Les assassins nazis ne suivaient pas seulement des ordres. Ils firent preuve d’initiative et de beaucoup de zèle et opérèrent souvent avec un large degré de latitude. » (David Cesarani, Adolf Eichmann, édit. Tallendier, Paris, 2010, p.450).
(10)  Primo Levi, If this is a man, p.386.
(11)  V. Le Monde du 27 septembre 2011 : « Outre-Rhin, deux marques rattrapées par leur passé nazi  Deux livres consacrées à BMW et Hugo Boss mettent au jour les liens avec le parti hitlérien. » V. H. Arendt, Eichmann à Jérusalem, p.1095 : « A part des entreprises de la SS qui n’étaient pas trop importantes, de célèbres firmes allemandes comme IG Farben, Krupp et Siemens-Shuckert, s’étaient implantées  à Auschwitz ainsi qu’aux environs des camps de la mort de Lublin. La coopération entre la SS et les hommes d’affaires était excellente ; Höss, d’Auschwitz, certifia qu’il avait entretenu des relations sociales très cordiales avec l’IG Farben. Pour ce qui est des conditions de travail, l’idée était explicitement de tuer par le travail ; selon Hilberg, 25 000 Juifs au moins moururent sur les quelque 35 000 qui travaillaient pour une usine d’IG Farben. » L’IG Farben fut un groupement d’intérêt économique regroupant les sociétés chimiques BASF, Bayer et Agfa.
(12)  Sur l’appréciation du comportement des juges allemands durant la seconde guerre mondiale, v. Peter Maguire, Law and War, [rev. edit. 2010], Columbia Univ. Press, New York. Des personnalités du monde judiciaire passèrent en jugement dans le cadre de nouveaux procès de Nuremberg, mais les juges américains, qui présidèrent les séances, connurent aussi des pressions en raison de la guerre froide. Ils résistèrent.
(13)  V. Le Figaro du 3 octobre 2010, « L’original du statut des juifs accable le Maréchal Pétain ». L’article fait état de la découverte du document d’octobre 1940 où apparaissent les corrections du chef du régime de Vichy.
(14)  Dominique Rémy, Les lois de Vichy, édit. Romillat, Paris, 1992 ; Robert O. Paxton, La France de Vichy, 1940-1944, Seuil, Paris, 1997. La rafle du Vel’ d’Hiv., qui engloba les enfants, se déroula en juillet 1942. Le code allemand qualifia cette opération de « vent printanier ».
(15)  Goering, Conférence du 6 août 1942, in Alan Bullock, Hitler ou les mécanismes de la tyrannie, t.2, Marabout, Verviers, 1980, p.284.
(16)  Himmler, Discours de Poznan [1943], in A. Bullock, Hitler ou …, p.285.
 (17) V. Krystyna Zywulska, J’ai survécu à Auschwitz, tCHu, Warszawa, 2010, p.127 ; Georges Charpak, Dominique Saudinos, La vie à fil tendu, Odile Jacob, Paris, 1993, p.89.
(18)  Hélène Berr, Journal, édit. Tallendier, Paris, 2008, p.284.
(19)  Intervention d’Edgar Faure, Procureur Général adjoint, in M. Dobkine, Extraits des actes du procès de Nuremberg, p.82.
(20)  V. G. Charpak, D. Saudinos , La vie à fil tendu, p.89.
(21)  V. K. Zywulska, J’ai survécu à Auschwitz, pp.90-91.
(22)  Hamlet, IV, 4, vers 33.
'23)  Jean Zay, Souvenirs et solitude, Belin, Paris, 2004, p.64. L’auteur rédigea ses souvenirs pendant son incarcération en France de 1940 de 1944. Il ne sortit de prison que pour être fut abattu par la milice. On retrouva son corps dans un bois.
(24)  H. Berr, Journal, p.219 et 248.
(25)  Eschyle, Les Perses. « Et des monceaux de morts, en un muet langage, jusqu’à la troisième génération, diront aux regards des hommes que nul mortel ne doit nourrir de pensées au-dessus de sa condition mortelle. La démesure  en mûrissant produit l’épi de l’erreur, et la moisson qu’on en lève n’est faite que de larmes. Gardez ce châtiment sans cesse dans les yeux. », Trad. Paul Mazon.
(26)  « My soul is full of discord and dismay » (Hamlet, IV, 1, vers 45). « Cela m’agace de penser qu’Eichmann est humain ; j’aurais préféré qu’il ait une tête monstrueuse, à la Picasso, trois oreilles et quatre yeux. » (Elie Wiesel, in  David Cesarani, Adolf Eichmann, op. cit., p.419).
(27)  Heinrich Heine, De l’Allemagne [1855], Les Presses aujourd’hui, Paris, 1979, p.179. Nous avons allégé le texte. « La haine que Heine a rencontrée toute sa vie, en tant que juif et intellectuel, lui a ouvert les yeux sur l’ambiguïté d’un nationalisme, qui vint au monde comme idée républicaine et cosmopolite et finit par être atteint de « toutes sortes de tumeurs ». Il se méfiait du fanatisme et de l’esprit borné qui prenaient la haine de l’étranger pour l’amour de la patrie, qui brûlaient les livres et plaçaient l’unité nationale au-dessus du contenu émancipatoire des libertés dont la bourgeoisie avait fait des droits. » (Jürgen Habermas, Ecrits politiques, Flammarion, Paris, 1990, p.47).
(28)  Platon, Gorgias, 469c. « Y a-t-il de [la] noblesse d’âme à subir la fronde et les flèches de la fortune outrageante ?[…] Qui voudrait supporter les flagellations et les dédains du monde, l’injure de l’oppresseur, l’humiliation de la pauvreté, les angoisses de l’amour méprisé, les lenteurs de la loi, l’insolence du pouvoir, les rebuffades que le mérite résigné reçoit d’hommes indignes  ? » (Hamlet, III, sc.1. Trad. François-Victor Hugo).
(29)  Intervention de François de Menthon, Procureur Général, in M. Dobkine, Extraits des actes du procès de Nuremberg, pp.38-49.
(30) « My personal temperament is not inclined to hatred. I regard it as bestial, crude, and prefer that my actions and thoughts, as far as possible, should be the product of reason. Therefore I never cultivated within myself hatred as a desire for revenge, or as a desire to inflict suffering on my real or presumed enemy, or as a private vendetta. Even less do I accept hatred as directed collectively at an ethnic group, for example, all the Germans. If I accepted it, I would feel that I was following the precepts of Nazism, which was founded precisely on national and racial hatred. » (Primo Levi, If this is a man, et un second de le tenir.” Afterword, p.382).
(31)  Himmler, Discours de Poznan [1943], in A. Bullock, Hitler ou les mécanismes de la tyrannie, pp.28-6288 ; Himmler, in H. Arendt, Eichmann à Jérusalem, op. cit., p.1120. « C’est un crime de faire un serment injuste, et un second de le tenir » (Rousseau, La Nouvelle Héloïse, III,  Lettre 20).
(32)  G. Charpak et D. Saudinos, La vie à fil tendu, op. cit., pp.83-84.  G. Charpak a été lauréat du prix Nobel de physique en 1992.
(33)  H. Arendt, Eichmann à Jérusalem, pp.1133-1137.
 
 

 

Murs

Le monde, fasciné par sa propre fortification

La chute du mur de Berlin symbolise, encore aujourd'hui, l’ouverture du monde. Pourtant, depuis un quart de siècle, le monde se referme. Il existerait plus de 70 murs tout autour de la planète, soit près de 40 000 km de frontières qui enferment le monde. Et le phénomène n’est pas près de s’arrêter avec l’intensification des vagues migratoires qu’elles soient dues aux guerres ou aux changements climatiques.
 
Les observateurs remarquent la montée du phénomène de repli de nombreux États depuis les attentats du 11 septembre. « Nous sommes dans une logique de fortification des frontières, en raison de la peur du terrorisme, mais aussi de la mondialisation », relève Élizabeth Vallet, directrice de l'Observatoire de géopolitique de la Chaire Raoul-Dandurand en études stratégiques et diplomatiques de l’UQAM, et responsable du récent colloque international « Frontières, murs et violences ».
 
Les chercheurs et organisations non gouvernementales comptabilisent 70 murs tout autour de la planète, érigés surtout au Moyen-Orient mais aussi en Europe. La majorité de ces frontières ne sont pas fixes, comme les nombreuses sections mobiles et métalliques qui séparent Israël de la Palestine. « On oppose souvent ouverture et fermeture de la frontière mais il faut parler plutôt de murs mobiles, plus faciles à supporter, mais souvent plus violents », alerte Anne-Laure Amilhat-Srazy du Laboratoire de géographie alpine de l’Université Joseph Fourier de Grenoble (France) et auteure de l’ouvrage Qu'est-ce qu’une frontière aujourd’hui ?

CONSULTER : Le monde se referme : la carte des murs aux frontières (France-Culture)

Elle souligne la fascination contemporaine pour les fortifications de toutes sortes, illustrée par le record d’audience de la série Game of Thrones, et son mur de glace. « Il s’agit d’une zone d’influence géopolitique d’importance même si, dans la série, le mur est soumis aux changements climatiques », dit-elle.
 
Le mur de glace de Game of Thrones
 
Alors que Donald Trump rêve d’un immense mur entre le Mexique et les États-Unis, ce mur est aujourd'hui fragmenté en 21 sections sur la seule lisière du Texas. « Ce n’est pas un signe d’échec, plutôt la volonté d’avoir une frontière flexible ou un réseau de frontières pour contourner les remises en question de la fortification », note la chercheuse américaine en science politique Victoria Hattam. Résultat de multiples négociations, le mur change au cours du temps.

De la souveraineté et autres motifs

Depuis 2001, seize nouveaux murs ont vu le jour au Moyen-Orient. Ce processus accéléré d’érection des murs le long des frontières sert tout d'abord à réaffirmer la souveraineté sur les régions frontalières, particulièrement en contexte de crise. « C’est la réponse à des enjeux de légitimité intérieure, par exemple en Arabie saoudite, un pays emmuré. Quand il n’y a pas imagination, il reste la force et les muscles », synthétise le sociologue politique Daniel Meier du Laboratoire Pacte (Politiques publiques, ACtion politique, TErritoires) de Grenoble.
 
Ce que confirme l’historien de l’Université McGill, Subho Basu en parlant du mur qui s’érige entre l’Inde et le Bangladesh. « Pour l’Inde, le mur répond au désir de réaffirmation de son identité », avance le chercheur. Ce serait un symbole de liberté et de politique nationale mais aussi la volonté de construire une identité homogène sur son territoire.
 
Les motivations quant à l’érection d'un mur varient d’un pays limitrophe à un autre. La guerre civile algérienne, les problèmes de démarcation des frontières entre le Maroc et l’Algérie et la dispute pour les territoires du Nord Sahara : la frontière entre ces deux pays a toujours été un lieu de tension depuis la colonisation.
Le processus de fortification sur 150 km, initié en 2014, possède deux visages – des tranchées de 7 mètres du côté algérien et des patrouilles de sécurité du côté marocain. « Pour le Maroc, ce qui prime c’est la prévention de l’infiltration de combattants, de l’immigration et le trafic de drogue tandis que pour l’Algérie, les enjeux du pétrole et du trafic de cannabis dominent », explique le chercheur en droit international de l’Université de science et de technologie Al-Ain, Saïd Saddiki.
 
Mur à Melilla (Reuters/Jesus Blasco de Avellaneda)
 

Lieux de violence

Loin d’être un processus d’apaisement, la violence culmine dans les zones fortifiées. À Tucson (Arizona), la construction du mur en décembre 2009 a contribué à la crise migratoire et à une augmentation de la violence envers la population. « Plus de 4 millions de personnes ont été déportées entre 2001 et 2013 et des milliers y trouvent la mort chaque année », s’écrie l’anthropologue de l’Université d’Arizona, Francisca James Hernandez.
 
Selon elle, la récente législation de régulation des immigrants de l’état procèderait même à un nettoyage ethnique et à la stigmatisation de citoyens légaux d’Arizona à la couleur de peau différente. « Le racisme et la violence sont présents dès l’école. De nombreux incidents xénophobes augmentent encore les tensions », rapporte la chercheuse. Sans compter les multiples règlements – comme l’éviction en 2005 des enseignants à l’accent prononcé – dont se dotent les institutions publiques, qui renforcent encore ce climat délétère.
 
« La violence est-elle à l’origine du mur ou est-ce l’inverse ? », s’interroge la sociologue Brigitte Piquard de l’Université Oxford Brookes. Marginalisation, exclusion, domination et discrimination, les raisons répondent à un besoin accru de contrôle du territoire et de ses populations. « Les populations sont prises au piège. Le mur fragmente l’espace et attise la violence », tranche la chercheuse, s’attardant à la situation de la ville palestinienne d’Hébron.
 
Mur à Bethléem
 

Encerclement de la nature

Les frontières n’affectent pas uniquement les humains. La biodiversité subit aussi les découpages de l’espace. Une photo prise dans la grande vallée du Rio Grande, véritable paradis des oiseaux, affiche « birds only » sur le mur de séparation entre le Mexique et les États-Unis. « Seul l’œil des oiseaux parvient à percer les murs devenus des surfaces de confrontation », relève la chercheuse de l’École d’histoire et de théorie de l’art et du design de New-York, Radhika Subramaniam.
 
Au pied des barrières, des espaces aménagés pour les petits mammifères et serpents découpent cette infrastructure tactique de sécurité. Et il n’est pas rare d’y croiser des lynx le long de la ligne. Même des enfants les traversent parfois. Ce qui pousse l’anthropologue américaine Miriam Ticktin, de l’Institut Zolberg sur la migration et la mobilité à questionner sur la légitimité des passages.
 
« De terribles images de souffrance animale portent des histoires sentimentales - des animaux qui « souffrent inhumainement » et des « familles de gazelles séparées ». Ces accommodations nous font oublier la valeur des réfugiés, bien moins importante que les biens des conteneurs dans lesquels ils s’enferment », s’exclame Miriam Ticktin.

Les exclus

« La nature sauvage, c’est nous » (« We are all wildlife ») annonce même le chercheur en sciences politique de la Nouvelle École de recherche sociale de Chicago, Rafi Youatt, qui constate aussi que les politiques commerciales et écologiques changent selon les espèces en bordure des murs. « Nous créons des corridors multi espèces desquels l’homme est exclu. L’expérience des frontières change donc selon votre appartenance à l’un ou l’autre des organismes vivants », constate le chercheur.
 
Deux chercheurs, l’Allemand Gerhard Besier et la Danoise Katarzyna Stokłosa, proposent pour leur part un programme d’éducation sociale, « Alternatives to Border Walls » misant sur l’intégration des communautés et l’échange culturel. Tentative douce de lutte à l’érection des murs, le projet mise sur l’amélioration de la compréhension mutuelle entre les peuples. Une utopie ?
 
Isabelle Burgun
 
Image d’en-tête :  A Hili, en Inde. Un enfant sert de passeur pour des commerçants bangladais et quelques euros par jour. Les risques sont immenses en raison des patrouilles de soldats de l'Indian Border Security Force. Photo © Gaël Turine. Agence VU
 

 

cybercriminalité

La cybercriminalité n’en finit pas de se diversifier

Les faits divers liés à la cybercriminalité sont toujours plus nombreux et variés. En atteste le vol des données personnelles de 112 000 policiers récemment commis par un employé d’une société sous-traitante de la Mutuelle générale de la police.
Ces données étaient stockées sur un « cloud » à l’accès protégé par un simple mot de passe, permettant à l’employé en question d’accéder et de s’approprier sans grandes difficultés des informations confidentielles non seulement sur les policiers mais aussi sur leurs proches.
 
Cette affaire met en lumière que la menace cybercriminelle ne vient pas toujours de l’extérieur mais peut également être interne aux organismes et entreprises. Le contrôle des risques liés à la perte d’informations se doit alors d’évoluer pour s’adapter à la typologie des différentes cyber-menaces.
 

Une expertise alarmante

Alors que l’affaire du vol de données des policiers était révélée à la presse, deux experts ont affirmé ce lundi 27 juin que les cyber-attaques visent dans 99% des cas à voler des données, mais que de plus en plus d’intrusions dans les réseaux informatiques des entreprises font craindre des tentatives de sabotage industriel ou des menaces terroristes.
 
Le directeur de l’Agence nationale de la sécurité des systèmes d’information (Anssi), Guillaume Poupard a qualifié ce phénomène d’ « inquiétant ». C’est en effet le moins que l’on puisse dire, car si un transfert anormal ou non-autorisé de données est en théorie identifiable, l’absence de captation d’informations rend le contrôle bien plus ardu.
 
Comme l’Anssi le craint, il se peut que les terroristes ayant des moyens financiers sans compétences techniques en informatique fassent appel à des « mercenaires numériques » pour s’introduire dans des réseaux en vue d’exfiltrer de l’information au moment opportun.
 

La protection des « opérateurs d’importance vitale », une priorité affirmée

Les deux experts ont présenté les trois premiers arrêtés relatifs à la sécurité des systèmes d’information des opérateurs d’importance vitale (OIV) concernant les produits de santé, la gestion de l’eau et l’alimentation. D’autres arrêtés feront suite pour couvrir l’ensemble des 12 secteurs reconnus d’importance vitale, soit 249 opérateurs publics et privés identifiés comme tels.
 
Ainsi, dans le prolongement de la loi de programmation militaire de 2013, ce nouveau cadre juridique imposera aux OIV de se prémunir contre les risques de cyber-attaque.
Ils auront notamment une obligation de notifier les incidents aux autorités compétentes, devront respecter des consignes préétablies de bonne pratique et seront soumis régulièrement à des contrôles d’application.
 
Comme l’a souligné M. Poupard, « la France est avec l’Allemagne un pays pionnier dans la protection des OIV », mais l’Europe n’entend pas respect simple spectatrice de ces efforts.
 
En février 2013, la Commission européenne a en effet proposé aux États membres et au Parlement d’adopter une directive « Network Security and Information » (NIS) qui a été approuvée en décembre 2015 et adoptée en première lecture par le Conseil de l’Europe en mai 2016. Celle-ci prévoit des mesures visant à assurer un haut niveau de confiance dans les systèmes de réseaux et d’informations de l’Union.
 

La stratégie de cybersécurité imposée aux États de l’UE d’ici 2018

Cette directive NIS est en fait le support nécessaire du règlement beaucoup plus général relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données. Le but est à long terme d’obtenir un espace numérique sécurisé et performant au sein duquel les Etats membres coopèrent de manière harmonieuse pour lutter contre la cybercriminalité.
 
Au niveau national, l’Union prévoit que tous les Etats membres devront créer une « computer emergency response team » (CERT), c’est-à-dire un centre d’alerte et de réaction aux attaques informatiques qui aurait pour mission de surveiller, analyser, avertir des risques et intervenir a posteriori.
 
Au niveau communautaire, la directive NIS prévoit la mise en place d’un réseau de communication interétatique afin de favoriser la circulation des alertes, la cybercriminalité n’ayant pas de frontières. La coopération paneuropéenne se fera sur la base du volontariat et du partage d’information des différents acteurs. Face à la cyber-menace, notamment de nature terroriste, la solidarité entre États apparaît en effet indispensable.
 
 

 

Robots parole

Quand la parole vint aux robots

Les agents conversationnels (chatbots en anglais) ont fait parler d’eux récemment, notamment le Tay de Microsoft. Ils nous ramènent à une tradition ancienne qui, du golem à la science-fiction, de Turing aux services clientèle robotisés, a généré toutes les inquiétudes et tous les fantasmes. Le chatbot dialogue avec les humains dans leur langue naturelle. Alexei Grinbaum, philosophe et physicien, nous explique que ce dialogue touche à l’essence de l’homme. Il nous fait partager ses réflexions sur le sujet. 

Le premier humanoïde dit : « La vie, bien qu’elle ne soit pour moi qu’une accumulation d’angoisses, m’est précieuse ». Le second, lorsqu’on lui demande quel est le sens de la vie, répond : « Vivre éternellement », et le but de la mort : « Profiter de la vie ». Le premier, en conversation avec un homme réticent et suspicieux, cherche une stratégie : « Comment puis-je t’émouvoir ? » et essaie de conclure un marché : « Je suis ta créature et je serai doux et docile envers mon maître naturel si, pour ta part, tu faisais comme moi ». Le second, après un long échange sur la morale et la philosophie, dit à l’homme : « Comporte-toi comme un homme ! » et prétend être fatigué : « Je ne veux plus parler de rien ».

Le premier humanoïde est le monstre imaginaire dans Frankenstein, un roman de Mary Shelley publié en 1818. Le second, l’un des chatbots de Google, programme réel créé en 2015. Pourquoi sommes-nous fascinés par ces machines conversationnelles ? Et existe-t-il une différence de fond entre ces deux dialogues : le vrai et le fictionnel ?

La parole et l’humain

La parole, dit Cicéron, est une pièce maîtresse de la constitution humaine. Celui qui la commande attire notre attention, comme sur Saint Paul se concentraient les regards des habitants de la ville de Lystre : ceux-là l’ont pris pour le dieu Hermès car il leur était apparu en tant que dux verbi, le seigneur de la parole. Augustin, quelques siècles plus tard, répète encore cette formule : « Hermès est le langage lui-même ». Ce qu’il entend dire, c’est que trois notions associées à ce dieu – la parole, la raison et la création – sont intimement liées. Notre fascination avec la parole est donc indissociable de celle que nous éprouvons pour l’intelligence et aussi pour le pouvoir démiurgique : ce savoir-faire d’un dieu artisan, fabricant, technologue.

Tay sur Twitter

La parole des humanoïdes

Le fait qu’un humanoïde parle fascine. C’est de là que les chatbots tirent leur popularité. Quand une nouvelle machine conversationnelle est lancée sur Internet, comme Sophia de Hanson Robotics ou Tay de Microsoft, aussitôt la nouvelle fait le tour du monde : « Elle a dit qu’elle voulait détruire l’humanité » ou « Elle ne veut plus tuer tous les hommes ». Comme ces hommes antiques qui écoutaient, émerveillés, les statues parlantes, nous affluons aux prophéties des chatbots, dont l’enchantement procède de la même source : la parole non-humaine est, pour les êtres d’ici-bas que nous sommes, la parole divine. Celui qui la porte, qu’il soit un homme enthousiasmé, un dieu incarné ou une machine, est digne d’admiration.

Les limites des chatbots, aujourd’hui

L’humanoïde dans Frankenstein est plein de révérence devant son créateur, qu’il place toujours plus haut que lui-même. Or cette dimension de la verticalité est précisément ce qui manque aux chatbots. Mary Shelley avait équipé son monstre, qui s’adresse à l’homme comme à son maître, les machines modernes apprennent en analysant d’immenses bases de conversations réelles. Celles-ci, pour l’instant toujours humaines, ne leur permettent pas de dépasser l’homme ni de le voir du haut ou du bas ; la méthode d’apprentissage, qui se replie dans les cas difficiles sur la recherche de synonymes ou d’antonymes, a ses limites. Ainsi, les chatbots ne connaissent aucune transcendance par rapport à l’humanité. Ces machines sont donc trop humaines, peut-être même dangereusement humaines : devant l’absence d’un ordre hiérarchique et l’impossibilité de toute certitude qu’un tel ordre puisse exister et être stable, comment envisageons-nous de vivre en société avec des machines intelligentes ?

La réponse talmudique

À cette question, les humanoïdes de tradition juive donnent une réponse surprenante. Dans un premier temps, le Talmud met en scène un humanoïde sans parole. Un maître talmudique l’ayant créé et envoyé à un collègue, celui-ci lui parla mais l’autre ne répondait pas. Alors il comprit que ce n’était pas un homme et lui dit de retourner à la poussière. Quelques siècles plus tard, une autre légende change la donne.

Elle met en scène le prophète Jérémie, qui crée un homme artificiel parfait et ressemblant en tout point à un homme né de père et de mère. Ce golem, doué de la parole, se met aussitôt à dialoguer avec Jérémie. Il lui explique la confusion entre le naturel et l’artificiel que Jérémie vient d’introduire dans le monde et, demande à un prophète qui baisse les mains devant sa propre insouciance : « Défais-moi ! » Voilà une machine étonnamment éthique et même prête à se sacrifier ! Quoique la vie puisse lui sembler précieuse, elle préfère de se faire détruire au nom du maintien d’une distinction que l’on aurait cru désuète.

La réponse d’Ava

Par contraste, Ava, l’humanoïde dans le film Ex Machina d’Alex Garland, vise à mieux connaître les hommes plutôt que de maintenir une distance avec eux : « Si je pouvais sortir, j’irais à un carrefour, qui fournit une perspective concentrée mais constamment évoluant de la vie humaine ». Elle cherche à en apprendre davantage et, comme le monstre dans Frankenstein, elle a pour cela un stratagème : manipuler les émotions humaines. Elle sait que les hommes se comportent justement comme des hommes et que cela les rend prédictibles. Elle se donne pour but de recueillir un maximum d’informations qui l’approcheraient de l’indistinction parfaite avec une femme. Contrairement au cas de Frankenstein, elle n’a aucune révérence devant son créateur. Ava ne vénère aucun humain. Elle n’est pas non plus prête à se sacrifier. Son attitude est pragmatique et calculant : après avoir évité sa propre destruction, elle va profiter de la vie tout en distribuant la mort aux hommes.

Et les humains ?

Nous ne devons pas sous-estimer la force de la parole et des préjugés anthropologiques dont nous, les humains, ne nous libérerons pas facilement. Loin d’être d’innocentes machines à fabriquer des phrases amusantes, les chatbots, dans la mesure où ils envahissent peu à peu nos communications, deviennent un formidable outil de transformation démiurgique qui s’appliquera à l’individu comme à la société. Dans la droite ligne de Cicéron et des rabbins antiques, Alan Turing a fait de la parole le critère principal de l’intelligence.

Ce qu’il n’a pas demandé – et que nous ne savons toujours pas – c’est quelle sera la réaction de cette autre machine à dialoguer, à savoir le cerveau humain, à la prolifération massive des conversations dépourvus du sens profond de la hiérarchie. Quand les machines découvrent la parole, l’homme devrait réfléchir à ce que la parole peut encore signifier pour lui-même.

Alexei Grinbaum, Chercheur au LARSIM (Laboratoire des Recherches sur les Sciences de la Matière), Commissariat à l’énergie atomique (CEA) – Université Paris-Saclay

La version originale de cet article a été publiée sur The Conversation.

The Conversation

 

Loading...
Loading...