UP' Magazine L'innovation pour défi

intelligence artificielle

Intelligences artificielles : Quelles promesses ? Quels défis ? Partie 1

En mars prochain, un important assureur japonnais remplacera 34 de ses employés par une intelligence artificielle. Cela viendrait à conforter le rapport publié en 2015 par l’Institut de recherche Nomura, prévoyant que près de la moitié des emplois au Japon sera tenue par des robots en 2035. Déjà, aux USA, en mai dernier, un assistant enseignant du Georgia Institute of Technology (Georgia Tech) à Atlanta était remplacé par une intelligence artificielle, au doux nom de Jill Watson (1) ... L'intelligence artificielle est partout, comme le démontre la Fondation Télécom dans ses études menées conjointement avec l'Institut Mines-Télécom, dans son dernier nouvel opus des Cahiers de veille avec une grande thématique transversale : les intelligences artificielles. Le cahier se termine par un chapitre posant une grande question : « Intelligences artificielles, que ferons-nous d’elles ? », en concluant : « Il est donc grand temps de s’interroger tous ensemble sur nos pratiques avec les IA, algorithmiques ou robotiques, bien au-delà du cercle des scientifiques, et de nous interroger sur nous-même. » Est-ce pour y réfléchir que le secrétariat d’Etat chargée du Numérique et de l’Innovation lance ce vendredi 20 janvier « France IA », la stratégie nationale en Intelligence Artificielle ? Le Gouvernement souhaite avant tout mobiliser tous les membres de la communauté IA et fédérer les nombreuses initiatives émergentes en France pour définir une stratégie nationale concertée  et mettre en avant le potentiel de la France dans ces technologies innovantes essentielles pour l’avenir.
 
Les technologies d’intelligence artificielle représentent un potentiel majeur pour la recherche, le développement de nouveaux produits et services et de filières industrielles innovantes, mais posent également de nombreuses questions éthiques, sociales et sociétales. Les cahiers de veille de la Fondation Télécom sont le résultat d'études menées conjointement par des enseignants-chercheurs de l'Institut Mines-Télécom et des experts industriels. Chaque cahier, qui traite d'un sujet spécifique, est confié à des chercheurs de l'Institut qui réunissent autour d'eux des experts reconnus. Tout à la fois complet et concis, le cahier de veille propose un état de l'art technologique, et une analyse tant du marché que des aspects économiques, sociologiques, juridiques et éthiques, en mettant l'accent sur les points les plus cruciaux. Il se conclut sur des perspectives qui sont autant de pistes possibles de travail en commun entre les partenaires de la Fondation Télécom et les équipes de l'Institut. Première partie du Cahier n°8 sur les Intelligences Artificielles, rédigée par Aymeric Poulain-Maubant, expert indépendant.
Intelligence artificielle du 3ème type
 
L'intelligence peut se définir selon deux grandes catégories de facultés. La première intelligence, que nous partageons avec la plupart des espèces animales, est celle qui nous relie au monde extérieur et nous permet de percevoir, d'apprendre, de reconnaître, d'estimer et de décider. Elle est centrale à notre capacité d'adaptation et de survie dans un monde toujours fluctuant et son automatisation a été jusqu'ici le principal moteur de l'Intelligence Artificielle (IA).
Grâce aux progrès constants de la microélectronique, de l'informatique, du traitement du signal, de l'analyse statistique et plus récemment de l'apprentissage profond opérant sur de vastes données, des résultats remarquables ont été obtenus dans l'automatisation des tâches de perception et de décision. Un exemple saisissant de cette IA du premier type en est la voiture autonome dont on ne mettra pas en doute la virtuosité dans son respect des règles de conduite et dans son attention pour les autres.
La seconde intelligence est ailleurs et est propre à chaque individu. Elle englobe les facultés de l'esprit, celles qui nous permettent d'imaginer, d'élaborer, d'inventer et d'espérer. Le seul modèle dont nous disposons pour essayer de reproduire dans une machine les propriétés de cette intelligence créatrice est notre cerveau, dont l'architecture est nettement différente de celle de l'ordinateur classique. Information et processus s'y entremêlent dans un même écheveau de connexions synaptiques, lesquelles se comptent en milliers de milliards.
 
L'IA du deuxième type ne pourra pas faire l'économie de ce parallélisme massif qui pourra cependant et fort heureusement être décomposé à la façon des modules corticaux. Quand les mystères de l'information mentale et de l'organisation corticale auront été complètement levés, dès lors aussi que la microélectronique saura offrir les moyens de contrôler un grand nombre de connexions (disons quelques centaines de millions par module, pas plus), rien n'empêchera de concevoir des cortex artificiels avec plus de modules que n'en contiennent nos cerveaux. Cette IA du troisième type, que certains appellent singularité technologique, sera l'aboutissement d'une alliance détonante entre les neurosciences, l'électronique, le calcul intensif, la datamasse et le principe de diversité.
Claude Berrou, Professeur à Télécom Bretagne
 
De la naissance du terme « Artificial Intelligence » en 1956 aux États-Unis à l’appel de 2015 de scientifiques pour la poursuite d’une IA la plus bénéfique possible pour la Société, la recherche en IA est pleine de promesses, de défis, de polémiques et de grandes questions sociétales.
En 27 pages, ce Cahier de veille définit ce qu’est l’intelligence (rationnelle, naturaliste, systémique, émotionnelle, kinesthésique…) et visite l’histoire de l’IA en posant notamment les deux paradigmes principaux utilisés pour s’attaquer aux défis de l’IA.
Il questionne ensuite les directions pour l’intelligence artificielle en citant trois sujets à traiter à court terme : l’impact sur l’économie, les questions d’éthique et de droit, la robustesse des artefacts (sûreté, fait d’être contrôlables…). Car l’IA est désormais bien présente dans notre quotidien sous l’impulsion des grands groupes de l’internet et des start-up émergentes, avec les bots notamment. Et ces nouvelles formes d’intelligence profitent d’un renouveau avec le Machine learning et l’informatique bio-inspirée que l’auteur explique.

Naissance de l’Intelligence Artificielle 

 « Question : Vous semblez alors dire que les programmes IA seront quasi identiques aux humains. N’y aura-t-il aucune différence ?
Réponse : Les différences entre les programmes IA et les humains seront probablement plus grandes que les différences entre la plupart des gens. Il est impensable que le « corps » contenant un programme IA ne l’affecte pas profondément. C’est pourquoi, à moins que son corps ne soit une réplique étonnamment fidèle du corps humain, (et pourquoi le serait-il ?), il aurait probablement des vues extrêmement différentes de ce qui est important, de ce qui est intéressant, etc. […] Je pense qu’un programme IA, même si nous pouvions le comprendre, nous paraîtrait assez étrange. C’est d’ailleurs pour cela que le moment où nous aurons affaire à un programme IA, et non pas à un programme simplement « bizarre », nous donnera beaucoup de fil à retordre. »
Douglas Hofstadter, Gödel Escher Bach, 1985  
 
Janvier 2015 : à l'initiative du britannique Stuart Russel, spécialiste en Intelligence Artificielle (IA), une dizaine de chercheurs signent une lettre ouverte appelant leurs collègues à aller au-delà du simple objectif historique de la performance des IA. « Les progrès en Intelligence Artificielle sont tels qu'aujourd'hui il faut concentrer les travaux non seulement sur des IA plus performantes, mais également sur la poursuite d'une IA la plus bénéfique pos- sible pour la Société. […] Nous recommandons une large recherche visant à assurer que les IA soient de plus en plus robustes et bénéfiques ; et que ces systèmes fassent effectivement ce que nous voulons qu'ils fassent. […] Cette re- cherche est nécessairement interdisciplinaire, car elle implique à la fois la Société et l'Intelli- gence Artificielle. Elle s'établit de l'économie au droit et à la philosophie, de la sécurité informa- tique aux méthodes formelles et, bien sûr, au sein des diverses branches de l'IA elle-même. »
 
Le 37e signataire, Elon Musk, s'était ému l'année précédente qu'une intelligence artificielle supérieure non bienveillante envers l'humanité puisse émerger d'ici quelques années, et qu'il était peut-être déjà trop tard pour enrayer ce processus. Musk s'était convaincu de cette menace à la lecture du livre du philosophe Nick Boström, "Super Intelligence". Quelques chercheurs s'étaient alors réunis à l'issue de la conférence NIPS 2014 pour réfléchir aux impacts que ces positions pouvaient avoir sur leur recherche et s'étaient donné rendez-vous fin 2015.
C'est à cette même époque que Musk et quelques autres entrepreneurs créent Open AI, doté d'un fonds de un milliard de dollars US, pour promouvoir une IA à visage humain. En deux mois les signataires représentent près de 300 groupes de recherche, parmi les principaux chercheurs en IA chez Google, Facebook, Microsoft et d'autres industriels, ainsi que les meilleurs informaticiens, physiciens et philosophes du monde entier.
Ils sont plus de 8600 en juin 2016. Ils ne se contentent pas de souligner l'importance de leur constat et l'occasion à saisir, mais l'accompagnent d'une liste de pistes concrètes de recherche à mettre en œuvre aussitôt. 2016 s'est ainsi ouverte avec une approche et des objectifs nouveaux pour développer les Intelligences Artificielles.

LIRE AUSSI DANS UP' : Elon Musk : vous me prenez pour un dingue ?

Il est temps de prendre l'Intelligence Artificielle au sérieux

« Ce n'est plus une simple curiosité pour chercheurs, l'Intelligence Artificielle a maintenant un impact mesurable sur nos vies. » C'est par ces mots que le Wall Street Journal annonce à ses lecteurs fin août 2014 que l'Intelligence Artificielle n'est plus un simple sujet de prospective. Les développements en IA ont été longtemps sous-estimés en raison d'un manque de clarté des définitions, entretenu par une confusion généralisée entre le machine learning, le deep learning, les réseaux de neurones, l'analyse prédictive, et l'analyse et la fouille de données massives. Le cinéma, la littérature et les médias ont souvent égaré la discussion sur l'IA en préférant des histoires fantastiques, de HAL 9000 dans l'Odyssée de l'espace à Terminator et son cortège de peurs.
 
Mais, alors que les chercheurs prennent largement conscience de la nécessité de discuter de l'impact de l'IA sur la société, le grand public découvre dans la presse et les réseaux sociaux des avancées spectaculaires qui racontent une nouvelle histoire, celle d'une technologie qui est déjà parmi eux. Trois ruptures majeures expliquent comment en quelques années un coup de fouet a été donné aux recherches en IA. Ces trois tendances ont fourni une plate-forme d'innovation accessible et bon marché pour les développeurs qui utilisent ces algorithmes comme des commodités de base pour opérer des transitions majeures dans de nombreux secteurs industriels :
•             l'accès à des ressources de calcul parallèle à très bas coût,
•             l'accès facilité à des données massives, pouvant servir d'ensemble d'apprentissage,
•             des algorithmes nouveaux, profitant des deux ruptures précédentes.
 
Défi de l'IA s'il en est, la première victoire d'un programme de go (AlphaGo de Google DeepMind) en octobre 2015 sur un joueur professionnel avait déjà fait sensation. La manière dont le même programme, ayant appris de l'entraînement effectué par la suite avec l'humain perdant, battait ensuite un des meilleurs joueurs mondiaux et obtenait la 4e place au classement de go mondial, achevait de frapper les esprits, d'autant plus qu'il semblait avoir fait montre de créativité pour ce faire. Alors que des voitures autonomes circulent déjà sur les routes et que des logiciels traduisent de mieux en mieux des textes, en temps réel, serions-nous en train de créer ces intelligences qui dépassent l'homme ? Mais de quelle(s) intelligence(s) parlons-nous ?

60 ans d’intelligence artificielle. C’est en août 1956, lors de la conférence de Dartmouth, que l’expression "Artificial Intelligence " fait son apparition publique pour la première fois. Elle avait été utilisée par les pionniers John McCarthy, Marvin L. Minsky, Nathaniel Rochester et Claude E. Shannon l’été précédent pour proposer ce séminaire. Elle caractérise « la possibilité de produire des programmes qui se conduiraient ou penseraient intelligemment ». Ses ambitions d’alors, et le défi originel de l’Intelligence Artificielle, sont de « chercher à produire, sur un ordinateur, un ensemble de sorties qui serait considéré comme intelligent s’il était produit par un être humain ». L’IA peut se révéler à travers des simulations exactes des processus cognitifs humains, ou bien via des programmes conduisant à des conséquences intelligentes. Elle a été traversée par de nombreuses dualités, entre l’inné et l’acquis, entre les symboles des systèmes experts et les sous-symboles des réseaux de neurones formels, entre la compétence et la performance, qui ont rythmé son histoire. Technologie de la connaissance (nouvelle science de l’ingénieur) mais aussi science générale du traitement de l’information (par l’homme ou par la machine) ou encore théorie de l’homme et des processus cognitifs, cette discipline a eu tour à tour chacune de ces ambitions, ni incompatibles, ni indépendantes. Reliée intimement à un ensemble d’autres disciplines au sein des Sciences Cognitives, elle a eu en 60 ans ses moments de gloire mais aussi ses moments de doute et de recul. Ce sont les AI Winters que Yann LeCun, aujourd’hui responsable des équipes IA au sein de Facebook, et dont les travaux depuis 30 ans ont mené aux avancées spectaculaires d’aujourd’hui, n’hésite jamais à rappeler pour modérer certains enthousiasmes actuels vis-à- vis du large public. Mais parmi les chercheurs, nombreux sont ceux qui estiment, comme John Giannandrea, vice-président de l’ingénierie chez Google et responsable de l’activité machine learning, que « les choses sont en train de prendre une tournure incroyable » et que nous assistons à un véritable AI spring.

Qu'est-ce que l'intelligence ?

Dans son Introduction aux Sciences Cognitives en 1992, Michel Imbert préfère prudemment « décrire ce qui fait tout être que l’on s’accorde à reconnaître comme intelligent ». Sa définition a l’avantage de cerner les résultats observables qui caractérisent un processus intelligent, plutôt que d’en expliquer les mécanismes qui l’ont permis, dont beaucoup ne sont toujours pas compris.
Notre définition de l’intelligence ne cesse en effet d’évoluer. Nous nous interrogeons encore aujourd’hui sur la manière dont nous apprenons, sur la place de l’émotion dans le raisonnement, sur la place du rêve dans le renforcement des apprentissages. Pour comprendre ce que l’on peut attendre d’une intelligence artificielle, et pour mieux en éviter les nombreux mythes, il faut sans doute d’abord s’accorder sur différentes formes d’intelligence, plutôt que définir une unique notion d’intelligence.
 
 
De nombreuses formes d’intelligence
 
Mesurer et comparer l’intelligence des êtres humains est un exercice délicat. L’intelligence se développe au sein d’un environnement et d’une culture, elle se manifeste différemment selon le genre, l’âge, les expériences, les connaissances. Elle désigne tour à tour la faculté de comprendre, la faculté de raisonner et de décider, la faculté de s’adapter, l’adresse et l’habilité, la somme des connaissances et celle des compétences, sans oublier la réussite à des examens.
L’intelligence est en réalité multiple et multi- forme. La littérature en recense souvent plus d’une dizaine. Explorons-en quelques-unes en commençant par celles qui ont été très tôt reproduites par des artefacts.
 
Première d’entre elles, l’intelligence rationnelle (la logique) est celle qui a été la plus mesurée depuis le fameux test de Binet, précurseur du Quotient Intellectuel. Elle rassemble les compétences de calcul, d’analyse, de logique, et de raisonnement par déduction ou induction, parfaites pour résoudre des problèmes mathématiques, des jeux, prendre des décisions. Cette intelligence mathématique a naturellement été la première à être implémentée dans des programmes, et notamment à travers des systèmes experts. On peut y ajouter l’intelligence naturaliste qui consiste à savoir classer des objets, et définir des catégories. Modéliser une situation, manipuler cette modélisation et y tester des hypothèses et leurs limites, est un ensemble de processus qui a également été rapidement mécanisé. Chez l’humain il s’agit de l’intelligence systémique. Couplées à l’intelligence organisationnelle, celle qui permet d’assembler des informations disparates, et à l’intelligence stratégique, celle qui comprend l’optimisation des ressources, des moyens, du temps et de l’espace et permet de prendre les décisions, toutes ces formes d’intelligence sont un premier groupe qui permet par exemple de planifier une série d’actions pour atteindre un but.
 
L’intelligence créative est le plus souvent ignorée par les tests. L’aptitude à la créativité est pourtant un des critères les plus souvent cités à notre époque pour déterminer le degré d’intelligence d’un artefact.
 
L’intelligence littéraire, celle des mots, du sens, permet d’élaborer des raisonnements traduits dans des discours, de suivre et d’effectuer des conversations, de traduire et de manipuler des concepts abstraits.
L’intelligence émotionnelle, qui dispose de son propre quotient également, permet d’observer les émotions, en soi ou sur les autres, les interpréter, les canaliser pour les décharger de la conscience de l’individu.
Que ce soit pour l’intelligence naturelle ou artificielle, le rôle et l’importance des émotions a été longtemps méconnu ou ignoré. On sait à présent depuis António R. Damásio qu’émotions et raisonnement sont fortement liés. Les émotions renseignent sur l’état du corps, qui est l’interface entre le lieu de l’intelligence et l’environnement qui la motive et où elle s’exerce. L’intelligence kinesthésique est également liée au corps : c’est elle qui permet la coordination des mouvements, leur force, leur précision.
 
Avec l’intelligence émotionnelle et l’intelligence spatiale (le sens de l’orientation), elle permet d’appréhender sa place dans le monde, ce qu’on peut y faire ou ne pas faire, et comment le faire. On y ajoutera l’intelligence situationnelle qui consiste à savoir s’adapter et survivre dans un environnement inconnu, voire hostile. Ce troisième groupe apporte les capacités à percevoir et agir à bon escient sur le monde.
 
Les caractères de l’intelligence sont le produit de l’évolution et de l’interaction avec le monde. Ils sont aussi activés par les interactions avec ses semblables, notamment pour certaines formes d’apprentissage, par imitation – l’intelligence est du reste souvent renvoyée à la capacité d’apprendre. L’intelligence sociale révèle des humains à l’aise au contact d’autrui, tandis que l’intelligence au collectif caractérise ceux qui mettent leur ego de côté pour un objectif commun supérieur. La dualité isolé / collectif a nourri un fort courant des sciences cognitives, celui du paradigme de la fourmilière. Il s’agit de faire coopérer des agents cognitifs minimaux de manière à obtenir un comportement global qualifié d’intelligent, qu’aucun agent isolé n’aurait pu effectuer seul.
 
Des intelligences moins répandues existent également. Leur maîtrise apporte un plus à leurs bénéficiaires. Ainsi l’intelligence pluri-sensorielle fait utiliser simultanément l’ensemble de ses sens pour percevoir le monde d’une manière différente. On retrouve cette aptitude implémentée par exemple dans les objets connectés et notamment la fusion de capteurs.
 
Enfin, l’intelligence temporelle offre pour sa part un sens aigu de l’axe du temps. Les concepts de soi, de passé et de futur étant reliés au sein de la conscience primaire, et l’absence de conscience d’ordre supérieur empêchant de planifier le futur (en se servant de la mémoire à long terme), l’étude des personnes qui possèdent cette intelligence temporelle permettrait d’en savoir plus sur une autre notion qui pose question : la conscience. Car la conscience, et notamment la conscience de soi, est une condition nécessaire pour aller plus loin que les premiers stades du développement intellectuel d’un être vivant. Celle-ci n’est d’ailleurs pas limitée aux êtres humains, et de nombreux animaux passent le test du miroir, y compris des insectes. Les chercheurs prennent ainsi conscience que la cognition animale a été longtemps sous- estimée (pour leur absence supposée de langage) et doit être source d’inspiration pour nos artefacts. Comme l’est l’idée que le siège de l’intelligence ne réside pas uniquement dans le cerveau (humain), et que des processus cognitifs ont lieu également dans des neurones de la peau ou, ce qu’on appelle l’intelligence incarnée, dans la morphologie des êtres vivants.
 
L’intelligence des artefacts
Le projet initial d’une IA forte, qui était de reconstruire la manière dont l’homme pensait, puis la dépasser, a fait place au fil des ans à un projet plus modeste d’IA faible, simulation spécialisée de comportements humains considérés comme intelligents, par des méthodes d’ingénieur, sans se soucier de similarité. Deux paradigmes principaux ont été utilisés pour s’attaquer aux défis de l’IA. L’approche classique, à base de manipulation de symboles et de règles, le cognitivisme, a donné rapidement des résutats intéressants pour les problèmes relevant du premier groupe d’intelligences, celle des mathématiques, mais s’est heurtée à la complexité de la traduction automatique, malgré l’arrivée des réseaux sémantiques.
 
L’approche neuro-inspirée, le connexionnisme, avec ses capacités d’apprentissage, s’est attaquée aux problèmes de perception visuelle ou auditive, limitée par la puissance des machines de l’époque. Des approches hybrides, sur des machines parallèles conçues pour, ont permis dans les années 90 des avancées avec l’émergence de comportements intelligents non programmés. Aujourd’hui, la multitude de formes d’intelligence existantes, humaines ou non, étant un fait acquis, ce n’est pas tant vers une superintelligence que vers une nouvelle forme d’intelligence, propre aux artefacts, ne se définissant ni par comparaison ni par extension, que les IA se dirigent.

Ai-je affaire à un être humain ? La question de savoir si les dialogues qu’on exerce à travers une machine sont le fait d’êtres humains qui nous font face, ou bien de robots algorithmiques, ou d’une combinaison des deux, se fait de plus en plus prégnante avec le déploiement des services associés aux messageries instantannées comme Messenger de Facebook, et aux plates-formes de micro- blogging comme Twitter : les bots. L’enjeu est important, car il ne s’agit pas moins de capter les utilisateurs qui passent de plus en plus de temps sur ces outils, et de leur proposer à travers des dialogues intelligents une nouvelle manière d’accéder à l’information et à la consommation. C’est en quelque sorte une architecture nouvelle pour un navigateur internet à l’heure de l’IA, avec comme objectif de simplifier l’interaction avec les services en ligne. Le site d’information Quartz a ainsi déployé en février 2016 un bot avec lequel le lecteur dialogue, plutôt que consulter une longue liste d’articles, afin de se voir proposer des résumés des informations essentielles qui l’intéressent. Suivant Telegram et Kik, Facebook ouvre en avril 2016 son botstore sur Messenger. Pour la plupart, les 900 millions d’utilisateurs mensuels de Messenger pourront y croiser leurs premiers robots conversationnels, à condition que ceux-ci sachent ne pas être trop envahissants et rendent effectivement service. Il faut en effet que l’expérience utilisateur soit parfaite pour que l’adoption soit au rendez- vous. Un bot qui réserverait des billets d’avion sans tenir compte des temps de débarquement et d’embarquement et de contrôle lors des escales serait plus encombrant qu’utile, et desservirait la marque qui le diffuserait. Ces bots, développés pour assister les humains dans des tâches qui leur sont propres, doivent acquérir à terme des connaissances du niveau d’une IA forte, générale (voir ci-dessus), et une personnalité capable de s’adapter à chaque utilisateur, en prenant en compte ses habitudes, sa culture, ses croyances… C’est pourquoi pendant quelques temps encore les bots seront probablement toujours constitués d’équipes mixtes IA & humains. Saura-t-on toujours distinguer la part du bot de celle de l’humain ? http://botpoet.com/ invite à se tester dans un cas particulier : trouver qui d’un humain ou d’une IA a composé un poème.

60 ans de liens entre jeux et IA. Dès 1956, l'IA s'intéresse aux jeux comme source de défis. Arthur Samuel développe un premier programme de jeu de dames qui se forme par apprentissage par renforcement, et bat en 1962 un amateur américain de bon niveau, sur un seul jeu, devenant ainsi la première machine qui bat l'homme de l'histoire. Le jeu de backgammon suit en 1979, avec les mêmes techniques qui font jouer le programme contre lui-même pendant son apprentissage. Il atteint ainsi des niveaux qui sont réputés ne pas pouvoir être enseignés par des humains, tandis que ces derniers apprennent beaucoup en observant les capacités de ces programmes. C'est ainsi que l'on prend conscience que les intelligences artificielles pourraient bien servir à renforcer les intelligences humaines. Et c'est le jeu d'échecs, un jeu dont Claude Shannon avait dit dès 1950 qu'il consistait un bon défi pour la pensée mécanisée, qui tient en haleine chercheurs et joueurs jusqu'en 1997, quand l'ordinateur DeepBlue d'IBM bat le champion mondial Garry Kasparov. Et enfin le jeu de go en 2016, grâce à des techniques d'apprentissage profond, et un système ayant joué des milliers de parties contre lui-même, tombe à son tour. Mais il y a encore beaucoup à apprendre du jeu. Jusqu'à présent, les joueurs ont en effet une connaissance parfaite de tous les éléments du jeu. Il faut maintenant s'intéresser à des jeux à connaissance incomplète, comme le jeu de poker qui devient la prochaine étape à franchir. D'autres types de jeux, comme les robots footballeurs ou les voitures de course autonomes, présentent également de nombreux défis d'IA à relever, beaucoup plus généraux. Le jeu ultime reste ce que Alan Turing appelle en 1950 The imitation game. À l'origine une femme et un homme sont interrogés par une personne (homme ou femme) qui ne les voit pas, et qui doit deviner qui est la femme. L'homme caché doit donc imiter un "comportement féminin". Turing se demande si un programme pourrait prendre la place de l'homme caché et leurrer l'interrogateur. Aujourd'hui, la question est de savoir quelle proportion d'humains perdrait à ce jeu.

Un modèle de l'architecture de l'esprit humain. Le General Problem Solver, créé en 1959 par Simon, Shaw et Newell, est une première tentative d'un système artificiel à l'heure de l'IA naissante, proposé pour résoudre n'importe quel problème, en confrontant les objectifs poursuivis et les moyens pour y parvenir. Ce système, qui a eu une grande influence sur l'évolution de l'Intelligence Artificielle et des Sciences Cognitives, résolvait très bien des problèmes simples, mais était limité dès lors que la combinatoire du problème augmentait. Ces travaux, et le livre de Newell & Simon, Human Problem Solving (1972), sont fondateurs du paradigme cognitiviste.

Evaluer l’intelligence

Corollaire de la définition de l’intelligence, la capacité à la mesurer et la quantifier, qu’elle soit naturelle ou artificielle, reste une question ouverte. Développé en 1905 pour détecter les élèves en difficulté, le test de Simon-Binet est une échelle métrique de l’intelligence qui est à l’origine du concept d’âge mental. Il ne doit pas être confondu avec le quotient intellectuel qui est un test psychométrique donnant une indication quantitative standardisée sur la performance intellectuelle, rang d’une personne relativement à la population. Il a lui aussi le défaut de ne pas prendre en compte l’ensemble des différentes formes d’intelligence. De plus, n’étant appliqué qu’aux êtres humains, et selon des principes de mesure qui leur sont propres, il a également contribué à ignorer l’étude des formes d’intelligence exercées par les animaux. L’intelligence artificielle elle-même est encore mesurée en fonction de critères humains, et donc évaluée parcomparaison avec les humains.
 
Dans son article “Computing Machinery and Intelligence“, Alan Turing pose en 1950 la question de la possibilité que des machines puissent penser, ces deux termes restant d’ailleurs à définir. Pour le savoir, il propose que si, lors d’une conversation, une machine arrive à passer pour un être humain auprès d’un interlocuteur, c’est qu’elle est réellement intelligente. Il existe en réalité plusieurs tests de Turing avec des protocoles plus fins. Leurs défauts sont de se limiter à des expériences de communication, et au seul jugement humain, alors que des comportements intelligents peuvent ne pas être associés au langage, ni même être humains.
 
Mieux évaluer l’intelligence
 
Des intelligences artificielles actuelles ont passé le test de Turing, mais des chercheurs s’accordent à dire que ce n’est pas tant la machine qui réussit le test, mais les humains qui échouent, car ils ont fini par ne plus être capables d'identifier les caractéristiques de comportement d’une machine, tant elles sont familières. De plus, de nombreuses expériences de passage du test ne résistent pas à un examen plus approfondi, et révèlent surtout des systèmes conçus avec ruse pour obtenir le label. La communauté de recherche entre aujourd’hui dans une ère de l’après-Turing, enrichissant le test pour que la machine soit évaluée sur de plus nombreux critères et tâches à résoudre.
 
"Imitation Game" de Morten Tyldum avec Benedict Cumberbatch - Janvier 2015

Quelles directions pour l’intelligence artificielle ?

Après avoir exploré un grand nombre de problèmes et d'approches depuis sa création, la recherche en IA s'est intéressée depuis 20 ans à la construction d'agents intelligents, des systèmes percevant et agisssant dans des environnements précis. Dans ce cadre, l'intelligence est définie selon des dimensions statistiques et la notion économique de rationalité : il s'agit de faire des déductions logiques, de planifier correctement et de prendre de bonnes décisions. Cette approche à base de représentations probabilistes et d'apprentissage statistique a eu pour effet une forte fertilisation croisée entre des disciplines comme l'Intelligence Artificielle, l'apprentissage automatique, les statistiques, les neurosciences… La création de cadres conceptuels et de théories communes, la disponibilité de grandes masses de données sur lesquelles apprendre, et la puissance de calcul des machines ont permis l'émergence soudaine de succès remarquables de l'IA. Tous les problèmes anciens ont simultanément subi des avancées majeures : la reconnaissance de la parole, la traduction automatique, le dialogue homme-machine, la classification des contenus d'une image, la marche des robots, les véhicules autonomes… Alors, que proposent les chercheurs pour la suite des événements ?
 
Trois sujets sont à traiter à court terme : l'impact de l'IA sur l'économie, les questions d'éthique et de droit, la robustesse des artefacts. Pour le premier, il s'agit de maximiser les effets bénéfiques sur l'économie tout en minimisant ses effets délétères. Quels vont être les effets sur le marché du travail, et sur la notion même de travail ? Comment des secteurs comme la banque, les assurances, le marketing vont être modifiés par la connaissance extrêmement fine des comportements des clients ? Quelles politiques mener pour atténuer les effets négatifs et quelles nouvelles métriques utiliser pour prendre ces décisions ? Des questions d'éthique et de droit en découlent, notamment pour les véhicules autonomes : quelles décisions peuvent-ils prendre pour minimiser des accidents, et qui endosse les responsabilités ? Quel rôle jouent les informaticiens dans la construction des algorithmes et leurs conséquences, notamment dans le cadre de la surveillance ou de la gestion des données relevant de la vie privée ?
 
Enfin, pour que la société accepte largement les artefacts intelligents, ils doivent être vérifiés (ils font ce qu'ils sont censés faire), valides (ils n'ont pas de comportement ayant des conséquences non souhaitées), sûrs (ils ne sont pas piratables) et contrôlables (ils peuvent être corrigés après leur déploiement).
À long terme, il s'agit de développer des systèmes qui peuvent apprendre de leur expérience – et notamment à partir de peu d'exemples, ce qui n'est pas le cas aujourd'hui avec l'apprentissage profond – d'une manière semblable aux humains, jusqu'à surpasser les performances humaines dans la majeure partie des tâches cognitives, ce qui aura un impact réellement majeur sur la société humaine.
La nature des IA est à présent claire. Ce sont des formes d'intelligence nouvelles, créées par l'humain et se créant elles-même, accompagnant l'humanité dans son quotidien, de manière bienveillante et bénéfique.

Un quotidien bercé d’Intelligences Artificielles

 « Le modèle économique pour les 10000 prochaines startup est facile à prédire : prendre X, ajouter de l'IA. Tout ce que nous avons électrifié, nous allons le cognitiser », pouvait-on lire fin 2014 dans Wired. Et effectivement 2015 a été l'année où les intelligences artificielles sont véritablement entrées dans notre quotidien, sous l'impulsion des grands groupes de l'Internet, et des startup se reposant sur les commodités qu'ils ouvraient.
On peut même affirmer que la révolution numérique en cours est en train de libérer et d'augmenter nos capacités cognitives, comme la révolution industrielle a contribué à libérer et augmenter les capacités musculaires des humains, en leur apportant la puissance de la vapeur puis de l'électricité. Et comme pour ces révolutions précédentes, cela ne se fera pas sans une réorganisation du travail, voire de la notion de travail elle-même.
 
Alors que les IA originelles ont été développées pour émuler l'intelligence rationnelle, c'est principalement pour assister notre intelligence émotionnelle et notre intelligence sociale que les IA d'aujourd'hui sont conçues. Il s'agit de faciliter et d'augmenter tous nos processus de communication, qu'ils se fassent entre humains – outils de traduction en temps réel, reconnaissance des visages et des émotions qu'ils portent – ou entre humains et machines. "Take X, Add AI" peut s'entendre au sens littéral du terme : prendre n'importe quel objet, et l'augmenter de capacités intelligentes minimales pour que son utilisation se fasse le plus naturellement possible. Capacités intelligentes qui servent aussi à échanger entre objets connectés ; par exemple, quand le thermostat qui a appris des comportements des utilisateurs de la maison à quelle température régler les pièces selon les heures et les personnes présentes, devient le cœur de la plate-forme de gestion domotique de la maison.
 
Peu à peu, des agents conversationnels généralistes, comme Siri d'Apple, deviennent familiers, même si la reconnaissance du langage naturel reste un vaste sujet de recherche, loin d'être résolu. Familiers, jusqu'à un certain point, car si un objet physique renseigne habituellement sur son usage par sa forme, ou un logiciel par son interface à base d'icônes et de menus, l'interaction avec un agent conversationnel nécessite encore un apprentissage de la part de l'humain, qui ne sait pas toujours quoi attendre de son compagnon virtuel, ce à quoi il saura répondre ou pas, et jusqu'où lui reprocher ses incapacités.
 
La maison est un des enjeux de déploiement de ces IA, un scenario qui nous est déjà connu grâce au cinéma : majordome virtuel ou présence artificielle (comme celui de Mark Zuckerberg). Lors de la conférence pour développeurs Google I/O en mai 2016, a ainsi été dévoilée la nouvelle génération de Google Assistant, un bot qui utilise le contexte des conversations en cours pour apporter une assistance pertinente à la volée, et qui enrichira également Google Home d'une « expérience ambiante allant au-delà des appareils ».
 
 
Pour proposer de tels services, ces assistants doivent écouter en permanence. Mais « faciliter notre quotidien doit se faire tout en respectant notre vie privée », rappelle Rand Hindi, CEO de Snips, un des Innovators Under 35 en France en 2014, qui développe une IA pervasive, apprenant de nos habitudes et interagissant pour nous avec la technologie. Tout l'enjeu est de chiffrer les données personnelles collectées et apprendre à partir de ces données chiffrées.

L’avènement de l’apprentissage machine

Pour mettre en œuvre ces scenarii qui étaient encore futuristes il y a cinq ans, les machines doivent apprendre d’un environnement non prédictible, sur des données de tout type, arrivant massivement, dont la signification brute a été préalablement chiffrée. Algorithmes d’apprentissage et big data, deux des trois piliers de la nouvelle Intelligence Artificielle, sont donc aujourd’hui fortement liés.
Cependant, si on associe de plus en plus souvent l’intelligence naturelle comme artificielle aux capacités d’apprentissage et d’adaptation, cela n’a pas toujours été le cas. Pendant longtemps les problèmes ont été résolus sous forme de manipulations de règles – s’il pleut, prendre un parapluie – et d’arbres de décision où chaque branche est une option de règle. Mais de tels systèmes se sont avérés inefficaces face aux problèmes de reconnaissance de formes et de reconnaissance vocale, pour lesquels les données à comprendre sont complexes, variables, variées, bruitées. Il a fallu imaginer des systèmes capables de s’entraîner sur des bases d’exemples, d’en faire émerger des traits, de généraliser sur des exemples non encore rencontrés et de s’améliorer continuellement avec l’expérience : c’est le machine learning, ou apprentissage automatique, qui comporte aujourd’hui plusieurs dizaines d’algorithmes, que l’on peut classer de différentes manières, ou types d’apprentissage.
 
Les types d’apprentissage
 
L’approche la plus courante est celle de l’apprentissage supervisé : est présenté à un système algorithmique apprenant un (grand) ensemble d’entrées associées à des étiquettes, par exemple des objets avec leur catégorie, et le système ajuste ses paramètres internes – on parle de poids – jusqu’à pouvoir classifier des exemples non encore présentés, faisant ainsi preuve de capacité de généralisation. Les réseaux de neurones sont de tels systèmes. Ils se construisent un modèle interne du monde qui leur est présenté, à base d’extracteurs de caractéristiques et de classifieurs simples.
Cet apprentissage nécessite une intervention extérieure pour que les règles d’apprentissage soient appliquées. Un enseignant fournit des cibles désirées pour chaque motif d’entrée et le système apprenant se modifie en conséquence.
 
A contrario, l’apprentissage non-supervisé se fait sans enseignant guidant le système. Ce dernier doit se forger lui- même ses propres catégories de l’espace des motifs d’entrée, le plus souvent sur des bases statistiques. Entre les deux, l’apprentissage semi-supervisé travaille sur des données dont certaines sont étiquetées et d’autres non, ce qui peut améliorer les qualités de chacune des approches prises indépendamment. Le co- apprentissage est un sous-ensemble de cette classe, à base de classifieurs travaillant sur des caractéristiques différentes et idéalement indépendantes, et communicant sur leurs résultats. L’apprentissage hétéro-associatif apprend à associer des formes de sortie à des motifs présentés en entrée. L’apprentissage auto-associatif permet de reconstituer un motif incomplet présenté en entrée et qui n’a été qu’évoqué.
 
L’apprentissage par renforcement est pour sa part un type spécial d’apprentissage supervisé. Très peu d’information est donné au système, et notamment aucune sortie désirée. Un jugement est émis sur les performances du système, à lui de se modifier pour que les jugements reçus soient de plus en plus positifs. Il ressemble en cela à des techniques d’apprentissage réservées aux animaux. Combiné à l’apprentissage pro- fond, il a permis fin 2015 la victoire par AlphaGo contre le champion européen.
 
 
Les succès du deep learning
 
La reconnaissance des formes, et notamment des images, a depuis longtemps été traitée par combinaison de différents extracteurs de caractéristiques et classifieurs apprenants. Ceux-ci sont souvent des réseaux neuronaux – leurs composants principaux modélisent de façon très simplifiée les neurones biologiques – multicouches – la topologie de ces réseaux permet d’identifier des neurones d’entrée, des neurones de sortie et une ou plu- sieurs couches intermédiaires de neurones, reliées par leurs synapses et modifiant leurs poids synaptiques. L’apprentissage profond, ou deep learning, implémente cette idée sur un très grand nombre de couches intermédiaires et un encore plus grand nombre de neurones. C’est ce gigantisme, permis par les capacités de calcul actuelles, qui est au cœur de la très grande majorité des avancées décisives de ces derniers mois.
Le grand avantage de ces architectures profondes est « leur capacité d’apprendre à représenter le monde de manière hiérarchique », comme l’explique Yann LeCun, dont les travaux sur les réseaux convolutifs, « une forme particulière de réseau neuronal multicouche dont l’architecture des connexions est inspirée de celle du cortex visuel des mammifères », a permis dans les années 90 les premiers systèmes de reconnaissance de chèques. Tous les systèmes de reconnaissance vocale actuels mettent en œuvre ce type d’apprentissage aujourd’hui.
 
Les succès du deep learning ne doivent cependant pas donner à croire que toute l’IA s’y réduit aujourd’hui. Pour arriver à des IA générales, loin des IA actuelles qui ne font que savoir très bien jouer au go, ou aux échecs, mais sont incapables sur d’autres tâches, il faut leur permettre de se remémorer, de prédire et de planifier. De nouvelles architectures de réseaux de neurones, les réseaux récurrents à mémoire, sont ainsi conçues, capables par exemple de légender automatiquement des images.
 
Les êtres vivants comprennent, parce qu’ils savent comment fonctionne le monde, car ils y vivent. Cette aptitude à la compréhension du sens commun, comme le souligne Yann LeCun, est la question fondamentale qu’il faut résoudre à présent. L’apprentissage prédictif pourrait être une piste. Il s’agit d’un type d’apprentissage très particulier : on montre au système apprenant une séquence d’événements (les images d’une vidéo, les mots d’une phrase, les comportements d’un utilisateur) et on lui demande de prédire les éléments suivants.

À Télécom ParisTech, Albert Biffet mène des recherches dans le cadre du machine learning on real time. Il s’agit de fouiller des données (datastream mining) arrivant à haute vélocité. Cela peut être par exemple des flux de données de télécommunications. Aucune donnée n’est stockée et il faut s’adapter aux changements en temps réel. Les enjeux actuels sont de permettre du machine learning de ce type dans le cadre de l’Internet des objets, notamment pour permettre à ces objets de prendre de meilleures décisions. Un équilibre est recherché entre avoir plus de données à disposition ou avoir de meilleurs algorithmes pour prendre ces décisions sous contrainte de temps réel. Dans certains cas les flux de données étudiées arrivent de manière distribuée. Quatre types d’algorithmes sont retenus : classification, regression, clustering, et frequent pattern mining. Albert Biffet développe la prochaine génération de modèles et d’algorithmes pour fouiller les données en provenance de ces objets : des algorithmes qui ne cessent jamais d’apprendre, des algorithmes parallèles et distribués sur plusieurs machines, et enfin l’application de l’apprentissage profond à ces flux de données. Ces recherches bénéficient de l’existence de la chaire Machine Learning for Big Data à Télé- com ParisTech, pilotée par Stephan Clémençon, et dont les travaux ont déjà été traités dans le cahier de veille Big Data. Créée en septembre 2013 avec le soutien de la Fondation Télécom, et financée par quatre entreprises partenaires (Safran, PSA Peugeot Citroën, Criteo et BNP Paribas), la chaire produit une recherche mé- thodologique répondant au défi que constitue l’analyse statistique des données massives.

Les formes d'apprentissage
 
Certains mécanismes d’apprentissage, comme ceux liés à la motricité des robots, ne peuvent pas se reposer uniquement sur le big data, comme la plupart des algorithmes d’IA en vogue, car l’adaptation d’un robot à son environnement dépend des robots dans toutes leurs variétés et leurs états, et des environnements dans toutes leurs déclinaisons et variabilités. Il faut alors s'intéresser à des formes d'apprentissage qui mettent en situation dans son environnement le système apprenant. Quand les types d'apprentissage mettent en exergue les processus en jeu, les formes d'apprentissage s'intéressent au contexte, comportemental et environnemental, dans lesquels ils agissent. Elles sont multiples et dépendent du développement cognitif de l'être – ou de l'artefact – observé.
 
L'empreinte et l'habituation sont des apprentissages primaires et irréversibles. La première est acquise brutalement, réalisation de comportements innés. La seconde permet de ne pas considérer comme nouveaux tous les événements qui se présentent. Elle rend possible l'expérience et le raisonnement. L'apprentissage par essai-erreur repose sur les systèmes de valeur, et les récompenses / punitions. Il permet l'acquisition d'automatismes. L'apprentissage par l'action, fortement dépendant de l'environnement, regroupe l'acquisition du savoir-faire par l'entraînement, la recherche active d'informations, la manipulation (d'objets, de modèles…). Il peut avoir comme objet la pensée elle-même (échaffaudage d'hypothèses et vérifications) et permettre ainsi la puissance créatrice.
 
L'apprentissage par observation / imitation décrit des situations où l'apprenant copie le comportement d'un modèle sans que celui-ci ne l'instruise ni ne le corrige. C'est un type d'apprentissage courant dans les premières périodes du développement intellectuel, et plus tard dans les phénomènes de mimétisme. L'apprentissage coactif s'effectue entre des êtres ayant un niveau d'expertise comparable. Toute sa force réside dans la dynamique d'échange entre les deux, à base d'hypothèses, de tests et de critiques.
 
L'apprentissage par instruction, a contrario, s'effectue entre deux êtres aux niveaux d'expertise différents. Complétant les apprentissages par action et par observation / imitation, l'expert dirige l'avancée de l'élève en communiquant avec lui. Enfin, une dernière forme d'apprentissage est celle qui consiste à apprendre à apprendre. Le méta-apprentissage permet, en observant ses propres processus d'apprentissage, d'activer les bons mécanismes d'apprentissage pour chaque situation nouvelle, et créer éventuellement de nouveaux mécanismes d'apprentissage.

À Télécom Bretagne, Mai Nguyen élabore des robots adaptatifs, dans le cadre des services d’aide à la personne. L’apprentissage étudié est par exemple l’apprentissage actif par curiosité artificielle. C'est ce que fait un enfant entre 0 et 6 ans qui ne va pas à l’école, et pourtant apprend à se développer. Il joue, en autonomie. C’est l’enfant qui décide, parmi tous les jeux possibles. Les psychologues disent que l’enfant va choisir de manière intuitive la tâche qui va lui permetttre d’apprendre le plus. Chaque enfant a envie de faire des progrès, à sa juste mesure, et choisit des choses à apprendre pour le bien qu'il en tire lui-même. Il dispose pour cela de différentes stratégies d’apprentissage à disposition, par guidage social, ou en autonomie. C'est en s'inspirant de ces observations que la chercheuse imagine des robots capables d'apprendre de leur environnement physique.

L'objectif est celui d'une robotique de service qui se propose de créer des robots intelligents grâce à l’agrégation des meilleurs algorithmes d’IA. Un premier défi consiste à agréger ces algorithmes en un système cohérent et temps réel, sur un système embarqué. Un deuxième défi est de construire des algorithmes pour que le robot puisse interagir physiquement et affectivement avec son environnement physique et ses utilisateurs. Un troisième défi est de permettre au robot d’apprendre des nouvelles tâches qui n’avaient pas été préprogrammées. Il s’agit donc d’aller au-delà des défis les plus connus, où la tâche (unique) ainsi que les cas de test sont définis à l’avance et avec précision. La robotique intelligente bénéficie indéniablement des récentes avancées en IA, mais doit également continuer à trouver de nouveaux paradigmes pour avancer dans les défis qui lui sont propres. Par exemple, quand ces robots sortent d’usine, ils ne sont pas encore terminés, pour pouvoir s'adapter par la suite à leur environnement. Ils nécessitent donc une structure cognitive leur permettant d’apprendre.

LIRE AUSSI DANS UP' : Convocation de la pyschanalyse dans le monde de l'intelligence artificielle

Vers une informatique neuro-inspirée

Le calcul informatique a connu des développements considérables ces quarante dernières années, grâce aux avancées de la physique et de la microélectronique. L'algorithmique a également progressé, notamment depuis les travaux pionniers de Donald Knuth, mais à un rythme nettement plus lent que celui de la microélectronique. Nos ordinateurs ultrarapides, multi- cœurs et dotés de vastes mémoires sont restés de rudimentaires machines à programmer, non apprenantes, non adaptatives, indifférentes, en un mot inintelligentes.
 
Deux raisons peuvent être données pour expliquer l'échec, provisoire, de l'IA. Tout d'abord, comme l'a expliqué Yann LeCun, trop de scientifiques ont manqué de pragmatisme dans l'élaboration des méthodes qui auraient pu servir aux progrès de l'IA : « il fallait avoir une théorie à toute épreuve, et les résultats empiriques ne comptaient pas. C'est une très mauvaise façon d'aborder un problème d'ingénierie ». Et s'il y a bien un domaine où, en l'état actuel des connaissances, aucune théorie unificatrice ne s'est imposée, c'est celui de l'intelligence, qu'elle soit naturelle ou artificielle. Trop souvent également l'approche descendante – top-down, de la cognition vers les modèles – a été privilégiée au détriment de l'approche bottom-up – des circuits vers la cognition – moins propice à la théorisation.
 
Ensuite et surtout, l'idée d'une Intelligence Artificielle n'a été portée, jusqu'à ce jour, que par des experts de l'informatique (au sens le plus large des sciences de l'information), lesquels ont cru pouvoir se passer d'imiter les seuls modèles disponibles et en ordre de marche : les circuits de notre cerveau. Pourtant, si l'on veut obtenir des machines électroniques des propriétés cognitives supérieures, telles que l'imagination, la création, le jugement, on doit cesser de suivre à la lettre le modèle de la machine informatique conventionnelle ou plutôt essayer de lui trouver un modèle compagnon, le premier se chargeant des gros calculs (ce que le cerveau humain ne sait pas faire) et le second de l'intelligence. Et nous n'avons qu'une seule source d'inspiration pour obtenir cette Intelli- gence Artificielle : notre cortex.
 
Il semble donc impératif, dans un nouvel élan vers l'IA, qu'on appellera plutôt informatique neuro-inspirée, de bien connaître le cerveau dans ses aspects mésoscopiques, c'est-à-dire le codage neural et les circuits neuraux. Cette approche a également l'avantage de répondre à certains verrous actuels du domaine, comme la consommation energétique ou d’autres problématiques liées aux systèmes embarqués.
 

À Télécom Bretagne, Claude Berrou et son équipe cherchent au sein du projet européen Neucod (Neural Coding) à modéliser le cerveau humain par une approche jusque-là inédite : la théorie de l’information. Ils partent du constat que le néocortex, ce « milieu de propagation qui permet à des processus biologiques de passer d’îlots de connaissances à d’autres », possède une structure très proche de celle des décodeurs modernes. Leurs travaux ont permis de développer des codes de représentation et de mémorisation de l’information expliquant sa robustesse et sa pérennité. Tout démarre d’une analogie entre la théorie de l’information de Shannon et le cerveau humain. Cette analogie a permis le développement de mémoires associatives robustes et à grande diversité d’apprentissage, grâce aux travaux de Vincent Gripon. Elle prend en compte un monde qui est réel, riche, complexe, et surtout analogique. La phase de perception revient à du codage de source (enlever la redondance de l’environnement), et celle de mémorisation à du codage de canal (rajouter de la redondance pour rendre le signal plus robuste).

Pour lire la suite, télécharger le Cahier de veille.
 
(1) http://www.journaldugeek.com/2017/01/06/intelligence-artificielle-dupe-eleves/
 

 

homme augmenté

L'Homme augmenté, un fantasme qui devient réalité

L'émergence des nouvelles technologies et les progrès réalisés dans de nombreux domaines (numérique, robotique, médecine...) ont révolutionné en quelques années notre vie quotidienne et le regard sur l'évolution de l'humanité. A quoi ressemblerons-nous dans le futur ? Quelles sont les limites ? Réponses lors de la conférence de France Culture en octobre dernier.
 
L'émergence des nouvelles technologies et les progrès réalisés dans de nombreux domaines (numérique, robotique, médecine...) ont révolutionné en quelques années notre vie quotidienne et le regard sur l'évolution de l'humanité. Aujourd'hui, des scientifiques développent des imprimantes 3D capables de construire tissus et organes humains, des informaticiens créent des langages de programmation qui modifient le comportement des cellules vivantes, des intelligences artificielles se mesurent avec succès avec des champions d'échecs ou de Go et des exosquelettes peuvent être contrôlés par la pensée.
 
Les limites humaines, comme celles de la machine, semblent pouvoir être repoussées de jour en jour... Alors, à quoi ressembleront les êtres humains dans quelques dizaines d'années ? Jusqu'où nos limites physiques et intellectuelles seront-elles poussées ? Quelle place donnerons-nous aux machines ? Quelles questions éthiques se posent à nous et quel type de société voulons-nous construire ?
 
France Culture a organisé une conférence en octobre dernier pour tenter de répondre à ces questionnements. En présence de :
- Oumeya Adjali, chargée de recherche Inserm, Laboratoire de thérapie génique translationnelle des maladies neuromusculaires et de la rétine
- Jean-Michel Besnier, philosophe, professeur émérite de l'Université Paris-Sorbonne
- Franck Damour, essayiste et professeur agrégé d'histoire, auteur de "La tentation transhumaniste" (2015)
- Catherine Le Visage, directrice de recherche Inserm, Laboratoire d'ingénierie ostéo-articulaire et dentaire (LIOAD)
- Stéphane Tirard, professeur d'épistémologie et d'histoire des sciences, directeur du Centre François-Viète d'épistémologie et d'histoire des sciences et des techniques, Université de Nantes.
 
 
 

 

Immortalité

Serons-nous un jour immortels ?

Dans moins de quinze ans seront vraisemblablement avérées les prophéties de ceux qui annonçent la victoire sur la mort et le triomphe d’une forme de vie non biologique. Le slogan de Google « nous allons tuer la mort » n’est pas qu’une formule publicitaire. Car les technologies déchainées avancent inexorablement vers le moment où nous serons plus qu’humains. De la réparation de nos organes à leur fabrication, de la collection de nos pensées à leur téléchargement sur des formes artificielles, le jour n’est pas très loin où nous pourrons déclarer que nous avons aboli la mort. Que nous avons accompli le rêve prométhéen d’immortaliser ce qu’il y a de plus précieux en nous.
 
Les annonces se succèdent. Pas un jour sans que l’on parle d’une startup capable d’implanter notre personnalité dans un clone robotique, d’un laboratoire de biotechnologies affirmant pouvoir reconstruire un foie humain et d’autres organes grâce à une imprimante 3 D, d’un Facebook ou d’un Google déclarant avoir recruté la crème de la science pour atteindre le Graal de l’intelligence artificielle. Le flot des informations est incessant.  C’est tuant.
Nos maternités, s’il en existe encore, arboreront-elles à leur fronton la devise imaginée par Houellebecq dans La possibilité d’une île « Bienvenue dans la vie éternelle ! » ?
 
Rafraîchissons-nous d’abord la mémoire pour citer quelques exemples d’avancées technologiques qui nous mènent résolument vers cette fin.

Résurrection

Humai, une jeune start-up australienne affirme pouvoir ressusciter le premier humain dans les 30 ans, en implantant sa personnalité et ses souvenirs dans un clone robotique.
 

 
Le président de la société, Josh Bocanegra, déclare : « Nous utilisons l’intelligence artificielle et la nanotechnologie pour stocker les données sur les styles de conversation, les schémas comportementaux, les processus de pensée et des informations sur le fonctionnement de votre corps de l’intérieur vers l’extérieur » promet le site de la start-up australienne. En d’autres termes, à l’heure de votre mort, votre cerveau serait ainsi maintenu en vie et implanté dans un clone. Mieux encore, les nanotechnologies pourraient permettre de réparer, voire d’améliorer les cellules cérébrales. Au lieu de s’endommager, votre cerveau serait de plus en plus performant au cours du temps.

Cerveau cloné

Martine Rothblatt  est la dirigeante de la compagnie biomédicale américaine United Therapeutics. Elle a créé un robot humanoïde et y a connecté un clone de cerveau, c’est-à-dire une copie numérique  des souvenirs d’un être humain. Cet être n’est autre que sa femme, Bina Aspen. Le projet porte son nom : Bina48. La vidéo de l’expérience qui a déjà fait le tour du web est bluffante car l’on y voit Bina48 tenir une conversation, répondre, ressentir en fonction des souvenirs passés et des émotions ambiantes.
 
 

Fabrication du vivant

Il y a quelques mois, nous avions rencontré pour UP’ le professeur Franco. Il est Professeur Emérite à l'Université Paris-Sud, ancien chef du service de chirurgie de l'hôpital Antoine Béclère de Clamart, responsable de l'unité d'hépatologie translationnelle du DHU Hepatinoiv, à l'Institut Pasteur. C’est une des grandes figures de la construction d'organes et de tissus à partir de cellules souches. Il dirige l’association CellSpace, destinée à promouvoir la recherche dans le domaine de la bio-construction de tissus et d'organes. Ce n’est donc pas un fantaisiste. Dans cette interview, il nous parle tranquillement d’un monde nouveau, fascinant et un peu inquiétant ; celui de l’ingénierie des cellules souches, des biomatériaux, du micropatterning et du bioprinting, des bioréacteurs et de modélisation du vivant. Le professeur Franco affirme ainsi que nous sommes déjà en partie capables de reconstruire nos organes, foie, reins, peau, cœur et pourquoi pas cerveau à partir de nos cellules souches et en impression 3D. Il nous explique comment les scientifiques partout dans le monde, avancent à pas de géants sur ce terrain du bio-engineering, du bio printing et de la reconstruction du vivant.
 

LIRE DANS UP’ : Professeur Franco: "On sait reconstruire le vivant"

Intelligence artificielle

L’intelligence artificielle est un thème technologique qui fascine. D’autant plus quand ce sont des géants de la Silicon Valley qui, avec leurs milliards de dollars, investissent le secteur. Et font, forcément, des progrès de géants.
Entre les deux mastodontes Google et Facebook, la bataille fait en effet rage dans la course au développement de l’intelligence artificielle. L’objectif n’est pas (encore) de créer des humanoïdes intelligents capables de remplir des fonctions et des services pour lesquels les humains seront vite dépassés. Non, l’objectif immédiat est de rendre les ordinateurs aussi intelligents que ceux qui les utilisent. Des ordinateurs capables de comprendre ce que vous voulez et peut-être avant que vous ayez conscience que vous le voulez.
La recherche scientifique n’est pas une activité anodine. Surtout en matière d’intelligence artificielle. Les chercheurs travaillent sur des sujets qui vont changer notre culture, notre façon d’être. Mais ils ne savent pas forcément ce qu’ils font. Cela peut paraître paradoxal voire insultant pour leur travail. En réalité dans ces domaines qui produisent des algorithmes évolutifs, qui accélèrent considérablement les progrès de l’apprentissage des machines, il arrive un moment où la machine produite crée son propre code et sa propre logique.
 
 
Serons-nous toujours en mesure de comprendre et contrôler le langage des machines ? Nous entrons dans les paranoïas de science-fiction. Et pourtant d’éminents esprits menés par Stephen Hawking nous ont mis en garde, l’année dernière, dans une désormais fameuse « lettre ouverte », contre une escalade incontrôlable de l’intelligence artificielle, encourageant une recherche prudente et réfléchie.
Pour sa part, Bill Gates, tout en soulignant qu’un quart des recherches de Microsoft est consacré à l’intelligence artificielle, se demande comment on peut ne pas être inquiet. Quand on fait de la recherche sur l’intelligence artificielle, on doit se poser la question : « Qu’est-ce qui se passe... si elle émerge ? »
Que craignons-nous ? Qu’à partir d’un certain degré de complexité, émerge la conscience des systèmes. On nous prévient depuis longtemps : lorsque la capacité de calcul des ordinateurs sera telle qu’elle atteindra ou dépassera le niveau du cerveau humain, la machine pourra prendre des décisions autonomes. Les experts les plus crédibles affirment qu’en 2050, c’est très proche, en vertu de la loi de Moore sur la montée en puissance exponentielle des capacités de calcul des ordinateurs, la machine sera tellement puissante qu’émergera la conscience. Ray Kurzweil, l’un des gourous technoprophètes embauché par Google en 2012, appelle ce moment le point de singularité.

LIRE DANS UP’ : La guerre des cerveaux

L’illusion démiurgique

Ces exemples montrent l’étendue de l’illusion technophile d’abolir la mort. Pourquoi ? Romain Gary disait que « si les hommes vivaient éternellement, ils deviendraient fous ». Quelle est cette idée de nous doter de moyens technologiques qui nous mettraient en position démiurgique, qui nous mettraient à égalité avec Dieu ?  
 
Le Cardinal Jean Danielou, quand il prit son fauteuil d’académicien déclara : « seules les œuvres d’art sont immortelles ».  Michel Ange, Vinci, Picasso sont immortels. Parce qu’ils ont su fabriquer des objets qui ne périssent pas. Mais au fond, les technologues contemporains, comme les artistes cherchent à créer des objets autonomes. Créer une œuvre d'art, c'est créer une œuvre qui se clôt elle-même, qui va vivre d'elle-même sa vie. Qui va, par-delà la petitesse des individus, perdurer.
Le technologue est dans la même posture : il crée des objets qui ont la vertu d'être autonomes. C’est le cas en robotique ou dans les nanotechnologies ; des objets dotés de vertu d’autoconservation et d’autoproduction.
 
 
Cette course au progrès des machines qui atteindrait un jour son point de singularité laisse l’homme désemparé, mais aussi humilié. Le philosophe Günter Anders, dans son lumineux ouvrage L’Obsolescence de l’homme parlait de « honte prométhéenne ». Cette honte qui submerge les hommes quand ils découvrent que leurs techniques les dépassent et… les nient. Nos machines deviennent, chaque jour un peu plus, meilleures que nous. Elles pourront perdurer, bien au-delà de nous. Nous en sommes troublés. Car ce phénomène bouscule toutes nos certitudes. Avec Descartes, nous pensions que nous étions, nous les hommes, maîtres et possesseurs de la nature. Pour son plus grand bien ou son plus grand mal. Mais aujourd’hui et plus encore demain, ce sont les machines qui nous possèdent et nous contrôlent. La course technologique à laquelle nous assistons traque l’immortalité et, ce faisant, nous oblige à renoncer à notre humanité, c’est-à-dire à notre finitude.

« Tuer la mort »

« Tuer la mort » est un slogan insensé. Car si nous tuons la mort, nous tuons la vie. Jankélévitch, dans une de ses leçons, nous apprenait la similitude entre les mots « précaire » et « précieux ». Sans la mort, la vie ne serait pas précieuse.
 
 
Alors pourquoi accordons-nous tant confiance à la technologie et aux machines ? Pourquoi ce fantasme d’immortalité promis par les technologies nous trouble-t-il tant ? Pourquoi nous en remettons-nous à elles pour satisfaire notre désir d’éternité ? Le philosophe Jean-Michel Besnier tente une réponse : parce que nous nous mésestimons. Parce que l’homme contemporain souffre de « la fatigue d’être soi ».
Avec le fantasme de transhumanité, l’homme est devenu obsolète. Günter Anders avait raison.
 
Dans sa course à l’immortalité, l’homme est en train de laisser place à une espèce nouvelle qui aura un triple privilège : d’abord, ne plus avoir à naître. Le clonage, les technologies de biologie de synthèse annulent le hasard de la vie. Ensuite, ne plus avoir besoin de souffrir. La maladie sera vaincue, et quand un organe de notre corps s’avèrera défaillant, on le remplacera comme une vulgaire pièce détachée. Enfin, ne plus avoir besoin de mourir. Car on saura uploader notre conscience sur des matériaux inaltérables, sur d'autres formes, pour permettre la perpétuation (bien illusoire mais les transhumanistes y croient) de l'individu, de l'individuation que nous sommes.
Le transhumanisme est intéressant comme symptôme de ce que nous pensons aujourd'hui de nous-mêmes. Il en dit long sur la haine de soi et le désir d'un idéal. Michel Houellebecq dans La possibilité d'une île ne s’y est pas trompé en conjuguant l'admiration pour les biotechnologies et cette déprime fondamentale, cette fatigue d'être soi qui caractérise l'humanité crépusculaire que nous semblons être aujourd'hui. Tâchons de nous mobiliser pour lui donner tort.
 

 

transhumanisme

Jean-Michel Besnier : Le transhumanisme est une machine de guerre contre la vie

Aujourd'hui vous pouvez faire séquencer votre ADN en une journée, et peut-être d’ici cinq ans, vous pourrez le réparer avec les technologies de correction dites CRISPR/cas9. Dans le même temps, Internet court-circuite vos manières de bouger (avec Uber et AirB&B), de vous ausculter (quantified self et télémédecine) ou d’apprendre (MOOCS, Wikipedia…). Même les robots se mettent à battre les champions de Go et se mettent à apprendre et évoluer, … Ferons-nous bientôt l’amour avec eux ? interrogent Laurent Alexandre et Jean-Michel Besnier dans un dialogue unique et musclé (voir leur livre Les robots font-ils l’amour ? Le transhumanisme en 12 questions, paru chez Dunod).
Le médecin et entrepreneur (fondateur de DNAVision) connu pour ses visions technofascinées et son ouvrage La Mort de la mort, paru en 2011, croise ses arguments avec ceux du philosophe, spécialiste des nouvelles technologies. Nous profitons de cette parution pour publier ici l’intervention de Jean-Michel Besnier au Festival vivant, le 17 septembre dernier.
 
Chez les humains, la vie se réduit-elle au vivant ? N’y a t-il plus lieu de distinguer entre vie biologique et vie humaine ? Que faut-il à un vivant pour faire un humain ?
Une vie artificielle est-elle appelée à remplacer la vie biologique, de même qu’une intelligence artificielle est annoncée devoir rendre obsolète l’intelligence biologique ? Que résulterait pour l’image de soi de l’humain une naturalisation intégrale de ses fonctions et comportements ?
Aux yeux du philosophe, ces questions exposent à réactiver un point de vue que ni la biologie de synthèse ni les NBICs ne seraient disposées à admettre – celui du vitalisme contre le mécanisme, voire celui du spiritualisme contre le matérialisme. Sans m’abandonner à cette réactivation qui donnerait la partie belle aux scientistes, je vous invite à ouvrir l’ouvrage de Ray Kurzweil, Humanité 2.0, sous-titré La Bible du changement, où l’on vous annonce qu’  « au début des années 2030, il n’y aura plus de distinction claire entre l’humain et la machine, entre la réalité virtuelle et la réalité réelle » (p.366) : vous n’avez aucune chance de trouver la vie définie dans cette Bible autrement qu’en termes d’information et de cybernétique. Le mot « vie » ne figure même pas dans l’index des matières. Mais il n’y a pas non plus d’entrée pour le mot « viande » dont on sait qu’il est utilisé par certains transhumanistes pour désigner la corporéité biologique – la chair, si l’on préfère – dont il faut se débarrasser afin d’échapper à la déchéance.
 
Prenez également le rapport de 2003 sur la « Convergence technologique pour l’amélioration des performances humaines », autrement baptisé Rapport NBICs : ses auteurs Rocco et Bainbridge y prophétisent surtout la pensée dite intégrale (le cerveau couplé avec Internet) et la transformation de l’humanité en un « cerveau unique, distribué et interconnecté ». Lorsqu’il est question de mentionner la biologie dans la prospective technologique décrite par ce Rapport, c’est pour invoquer sa convergence avec les nanosciences et l’encouragement à réaliser des processus cellulaires du corps vivant sur une puce de silicium. Bien sûr, on devine que la vie est conçue comme un phénomène par lequel des molécules complexes s’assemblent, tirent matière et énergie de leur environnement et se reproduisent – selon une définition communément admise. Elle résulte de myriades de processus qui relèvent de la chimie, de la physiologie et de la cognition. Mais abordée dans les termes des NBICs, elle se laisse décrire avant tout par référence à la construction de briques de Lego destinée à obtenir un Mécano géant assurément sans rapport avec la description de la vie qu’offrirait une phénoménologie de la chair…

Le réductionnisme issu de la cybernétique

Que la science appliquée au vivant manque la vie, voilà qui n’est pas un constat nouveau. Bergson le disait à sa façon : la science est incapable d’aborder la vie autrement que du point de vue de la mort, comme elle est incapable de parler du temps autrement qu’en termes d’espace. Elle procède toujours partes extra partes, en discrétisant ce qui est continu. Elle ne saurait donc nous aider à comprendre la vie.
 
Dans La Logique du vivant, François Jacob expliquait bien la différence entre le chien biologique et le chien familier, celui qu’on caresse ou siffle pour aller se promener : le premier est une créature abstraite et procède d’un modèle théorique contraint à épurer son objet pour expliquer son fonctionnement, tandis que le second est d’une complexité telle qu’il nécessite d’autres approches que celle de la science (cf. La souris, la mouche et l’homme pp.122-123) : « La biologie nous dit que, de nos deux chiens, le véritable est le chien moléculaire, écrit Jacob. Le chien familier n’en est qu’un pâle reflet, l’aspect accessible à nos sens ». Et il ajoute : « Si nous voulons comprendre le fonctionnement du chien, savoir d’où il vient, comment le soigner quand il est malade, c’est le chien moléculaire qu’il nous faut considérer »…  De là à confondre le modèle et la réalité, et à oublier de caresser son chien et de l’emmener se promener, il n’y a qu’un pas, franchi aujourd’hui par tous ceux qui ne parlent plus de l’humain que comme d’un vivant comme les autres, dont on peut envisager la réparation, la modification, l’augmentation ou l’immortalité comme le résultat de stratégies biotechnologiques.

Ce qu’il manque aux biosciences

Un biologiste peut-il avoir le sentiment qu’on parle de l’objet de sa discipline quand il lit ces rescapés des camps de la mort qui, comme Primo Lévi, Imre Kertez ou Etty Hillesum, expriment leur amour de la vie : « La détresse est grande, et pourtant, il m’arrive souvent, écrit celle-ci, le soir quand le jour écoulé a sombré derrière moi dans les profondeurs, de longer d’un pas souple les barbelés, et toujours je sens monter de mon cœur – je n’y puis rien, c’est ainsi, cela vient d’une force élémentaire – la même incantation : la vie est une chose merveilleuse et grande »(Lettre 46 du 3 juillet 1943).
 
Dans les sciences du vivant, la confusion entre le biologique et l’humain, la réduction du second au premier, s’est sans doute trouvée amplifiée du fait de la prise de pouvoir explicative de la théorie de l’information. Schrödinger et Wiener y sont évidemment pour quelque chose : la définition par le premier de la vie comme néguentropie a amorcé un réductionnisme physicaliste qui ne pouvait plus permettre de parler de la vie à la manière des philosophes humanistes : que signifie au juste que la vie se nourrisse d’entropie négative ? Réponse : qu’elle évite sa décomposition rapide vers un état inerte d’équilibre. Comment le fait-elle ? Réponse : en mangeant, buvant, respirant… En échangeant avec son environnement, en se comportant comme un métabolisme capable de se débarrasser de toute l’entropie qu’il ne peut s’empêcher de produire (Cf. Qu’est-ce que la vie ? p.172). Cette caractérisation est propice à écarter toute traduction en termes de spiritualité, pour ne s’en tenir qu’à l’élémentaire du vivant.
Parce qu’elle était d’inspiration vitaliste, la définition de la vie, proposée par Bichat, comme « l’ensemble des forces qui résistent à la mort » pouvait encore être « récupérée » par un philosophe comme Schopenhauer et argumenter la thèse du vouloir-vivre universel, mais la définition de Schrödinger, issue de la physique, paraît moins susceptible d’alimenter une conception de la conscience où se reconnaîtrait l’humain dans le vivant. Ce n’est d’ailleurs pas un hasard si Schrödinger s’autorise seulement une passerelle avec l’indouisme pour donner sens à sa conception physicaliste de la vie : en effet, les Upanishads confondent sans réserves la conscience et le corps.
 
Peut-on faire autrement qu’attendre d’une théorie biologique qu’elle nous suggère aussi quelque chose à propos du sentiment de la vie que nous éprouvons ? Après tout, les idéalisations de la physique galiléenne ou newtonienne sont volontiers confrontées, par les physiciens eux-mêmes, à l’expérience concrète que nous faisons de l’espace et du temps. S’agissant de la vie, il est difficile de séparer complètement la théorie du vécu existentiel. On ne trouve pas déplacé que Nietzsche puise chez Darwin ou Spencer des raisons de justifier sa conception de la vie comme volonté de puissance : « Qu’est-ce que vivre ? – Vivre ?... c’est rejeter constamment hors de soi ce qui veut mourir. Vivre ?... c’est être cruel, c’est être impitoyable pour tout ce qui vieillit et s’affaiblit en nous, et même ailleurs… » (Le Gai Savoir § 26).

La vie déborde le code

Avec la théorie de l’information comme matrice explicative dans les sciences du vivant, le défi de faire lien avec la vie phénoménologique est redoutable. D’où, sans doute, une résignation à l’abstraction et les illusions qui en résultent comme, par exemple, celle que l’immortalité serait possible grâce à la virtualisation et aux technologies numériques.
Qu’il soit bien clair que je n’incrimine en rien la biologie de se contenter de proposer de la vie une conception qui n’a pas grand-chose à voir avec ce que le commun des mortels en éprouve. Je considère ici les choses depuis la position des transhumanistes qui extrapolent les avancées scientifiques et prétendent les mettre au service des aspirations de notre espèce. Je sais bien que ces transhumanistes ne se laisseront pas convaincre de la nécessité de tenir compte du caractère irréductible de l’humain par rapport au programme de naturalisation ou de virtualisation porté par les technosciences.
 
Pourquoi ? Tout simplement parce qu’ils ont l’ambition d’en finir avec l’humain lui-même. Ceux qui restent à convaincre sont souvent victimes d’une sorte d’intimidation propre au milieu technoscientifique contemporain qui veut imposer un scientisme décomplexé par rapport à la philosophie et même aux sciences humaines. La situation de la biologie et de la médecine n’est pas facile dans ce contexte. Elles me semblent prise en otage et conduites à se compromettre avec ceux qui prennent le parti d’évacuer la dimension existentielle du concept de vie pour n’en conserver que la consistance biologique.
Si la biologie et la médecine pouvait se démarquer efficacement du discours des technoprophètes, on ne laisserait pas affirmer que les NBICs nous débarrasseront bientôt des limitations propres à l’humain, mais seulement que la mécanique corporelle sera de mieux en mieux réparée, au point que nos métabolismes pourront fonctionner sans fin. On refuserait d’associer les prophéties transhumanistes à une axiologie censée permettre de donner sens à notre existence. Ainsi, on admettrait que l’annonce de l’immortalité ne concerne rien d’humain, mais tout au plus que la perspective que l’animal en nous s’inscrive dans une cyclicité sans finalité.
 
Qu’on comprenne donc mon argumentation : en contraignant à retenir que la vie biologique n’épuise pas la vie humaine, que le biologiste fait simplement son métier de chercheur sans prétention normative lorsqu’il explique le vivant comme un système informationnel, je défie les transhumanistes de nous convaincre qu’ils portent l’espoir  d’une réalisation des attentes de l’humain ou, plus simplement dit, qu’ils ouvrent la voie pour un posthumanisme.

Pas de vie sans altérité

Je voudrais apporter une démonstration à première vue abstraite de cette réfutation des prétentions du transhumanisme, en faisant l’hypothèse qu’on ne saurait parler de la vie sans convoquer la résistance d’une altérité, de quelque façon qu’on l’entende – une résistance qui disparaît quand la science est laplacienne et prétend éliminer le hasard pour imposer le déterminisme. L’une des raisons qui paraît conduire le transhumanisme à tenir sur l’immortalité un propos hyperbolique voire absurde (on va supprimer les limites biologiques imposées à la vie et ainsi réaliser le cauchemar d’une vie sans fin), c’est justement son ambition métaphysique d’en finir avec toute altérité. Cette ambition est formulée comme telle, en étant parfois référée à la Gnose, cette hérésie des premières heures de l’ère chrétienne dont c’est le projet explicite de faire triompher la science qui éliminera le Mal et toutes les limitations qui affectent l’humain depuis la Création. La science est la condition de la ré-alliance de l’homme avec le cosmos et du parachèvement de l’œuvre de Dieu. Or, toute la tradition hellénique ou judéo-chrétienne repose sur une conception de la vie qui suppose une altérité l’obligeant à s’organiser et à croître. Tournant le dos à cette tradition, le transhumanisme paraît assumer d’être une tentative idéologique de renouer avec le mythe d’un homme nouveau, débarrassé des formes de l’altérité qu’on avait traduite en termes de faute ou de péché originel.

La négativité infinie de Hegel

Situant la vie au cœur de la philosophie de la nature qui sera dépassée par la philosophie de l’esprit, Hegel définit l’organisme vivant comme une unité intégrative négative, c’est-à-dire un ensemble réalisant la synthèse de composants, qui doit sa cohésion à ce qu’il s’oppose à ce qui n’est pas lui. De ce point de vue, la vie est dite « pour elle-même » ; elle est « son immédiateté » ; elle est « singularité en tant que négativité infinie » (cf. Encyclopédie, Abrégé § 216). La technicité de l’expression philosophique ne doit pas abuser : elle veut simplement dire que toute unité s’expérimente sur fond des forces auxquelles elle résiste et dont elle s’entretient. Imaginer que cette unité se dilue dans une unité supérieure (Dieu, le Grand Tout, le cyberespace ou ce que l’on voudra), c’est proprement laisser s’installer une entropie mortifère. En confondant la vie et le vivant, en lui appliquant le concept d’information –et, avec lui, l’ambition de « lever l’incertitude » de ses composants -, en évinçant l’humain et ses aléas constitutifs au profit de la seule mécanique biologique, en envisageant une vie artificielle construite comme un Lego, basée sur le clonage et la duplication, le transhumanisme élimine la négation caractéristique de l’activité vitale. Autrement dit, il coupe court au hasard et à la croissance sans lesquels il n’est pas de vie. Pour le transhumanisme, la négation est l’ennemie, le signe de l’incomplétude, de l’inachèvement, qui conteste la démiurgie dont les NBICs doivent se rendre capables. En s’imaginant promouvoir la nouvelle Renaissance qu’annonce le rapport NBICs, il prend la responsabilité d’altérer la représentation que l’humanité se faisait d’elle-même, lorsqu’elle affichait sa vocation à construire une histoire commune, sur la base d’un dépassement asymptotique de la finitude qui reste néanmoins son lot métaphysique.

Prendre la carte pour le territoire

On ne saurait reprocher le recours aux métaphores ou aux analogies pour expliquer que nous soyons des êtres vivants, des êtres parlants et que nous ayons construit une histoire riche d’institutions, d’œuvres et de symboles. C’est le signe même de l’activité spirituelle qui dit notre spécificité. Mais, comme toujours, le risque est de prendre la carte pour le territoire. Quand le modèle d’explication de ce qui fait de nous des vivants finit par occulter tout ce sur quoi s’est construit le spécifiquement humain, il y a péril en la demeure.
Le concept de rétroaction, associé à celui de message, permit à Wiener d’unifier les systèmes naturels et les dispositifs artificiels. Il n’en fallut pas plus pour que l’idée de fabriquer un organisme artificiel s’imposât et qu’elle fît oublier le libre-arbitre, l’esprit et la vie intérieure qu’on croyait le propre de l’humain. L’analogie a provoqué une réduction, sinon une régression ontologique et le succès contemporain de la cybernétique va rendre évidente ce qui résistait encore, il y a vingt ans, à savoir la thèse selon laquelle il en est du vivant et de l’humain comme de la machine auto-organisée, et la conclusion toute scientiste selon laquelle on doit abandonner à la littérature le privilège de commémorer une représentation de l’homme que le contexte économique et social rend chaque jour plus superflue.
 
Les biologistes, nouveaux maîtres à penser, en rajoutent à l’occasion sur la cybernétique, trop convaincus peut-être de devoir la scientificité de leur discipline aux modèles issus de la physique. Voyez François Jacob lui-même : « On n’interroge plus la vie aujourd’hui dans les laboratoires… C’est aux algorithmes du monde vivant que s’intéresse aujourd’hui la biologie » (La Logique du vivant p.321).

L’être organisé n’est pas une machine mais contient des machines

Je voudrais évoquer rapidement une position philosophique exprimée au milieu du vingtième siècle, qui croyait pouvoir échapper au spiritualisme tout en affrontant le réductionnisme cybernétique. Les efforts de Raymond Ruyer pour récuser cette propension au réductionnisme et la mythification contemporaine par les sciences et les techniques, paraitront à certains surannés : ils entendent soutenir que le feed-back n’explique pas tout le vivant car il est lui-même comme une invention vitale, - une invention qu’il faut expliquer sans invoquer les structures et les fonctions de l’organisme qu’elle ne peut supposer puisqu’elle les précède.
 
L’organisme comporte certes un ensemble de machines organiques, simulables par des artefacts, mais il y a en lui quelque chose de premier qui a fait cet ensemble de machines organiques. Il y a des machines dans l’organisme – ce qui ne veut pas dire que l’être organisé soit une machine. Il y a dans l’organisme un « x inobservable » (première cellule humaine) capable de construire, sans machine, des machines organiques elles-mêmes capables de construire des machines automatiques non-organiques qui, elles-mêmes, sont capables de contrôler des machines non automatiques… Tout cette charge critique, dirigée contre les illusions de la cybernétique, conduit à interdire d’oublier la dimension de conscience – cette aptitude au « survol auto-subjectif » des fonctions mécaniques dont l’humain est capable et que la cybernétique élimine trop vite, en la réduisant à une simple heuristique réflexive ou bien à un mystérieux avantage sélectif dont l’évolution de l’espèce humaine n’a plus besoin dans l’environnement technologisé qui s’est imposé à elle. La vie, ce n’est pas autre chose que la conscience, qui n’est pas l’appareil cérébral observable, comme le croient les transhumanistes adeptes du mind-uploading. La conscience est certes coextensive au cerveau (qui est pour elle une condition nécessaire mais pas suffisante, montrait Bergson), autant qu’elle l’est à l’embryon dont elle explique l’équipotentialité : dans l’embryogenèse et dans le fonctionnement cérébral, les différenciations qui s’établissent semblent indiquer que les organes ou les aires corticales « savent » ce qu’ils doivent faire, comme s’ils étaient permis grâce à ce « survol » général de l’organisme qu’on peut bien nommer « conscience vitale ». Le cerveau comme l’embryon possèdent, selon Ruyer, cette conscience primaire qu’on ne peut expliquer en termes de structure sans tomber dans une régression à l’infini (quelle structure première expliquerait donc l’apparition des structures ?). L’équipotentialité de l’organisme (durablement présente dans le cerveau) témoigne de cette conscience organique qu’on peut identifier à la vie.
 
Bien sûr, je ne méconnais pas les critiques qu’on adresse à Ruyer, notamment celle-ci : la conscience primaire ou organique, identifiée à la vie, n’explique pas la conscience seconde, celle qu’on associe à l’intentionnalité et au vécu existentiel. Renaud Barbaras le dit d’une phrase : « La détermination de la conscience à partir de la vie a pour contre-partie la restriction de la conscience au champ de la conscience vitale (conscience primaire) et, partant, l’incapacité à remonter à une conscience authentique : saisie du point de vue de la vie, c’est-à-dire comme domaine de survol, la conscience secondaire en sa dimension intentionnelle devient incompréhensible et ingénérable » (cf « Vie et extériorité. Le problème de la perception chez Ruyer » in Les études philosophiques, 2007/1, n°80, p.34). L’une des solutions suggérées par cette critique : concevoir que la conscience primaire, qui est tournée vers l’organisme, puisse se trouver confrontée à un monde extérieur qu’elle n’a pourtant pas les moyens de connaître en tant qu’organique ; parvenir à comprendre comment la conscience devient « conscience de quelque chose », comme le veulent les phénoménologues, et découvre ainsi la forme élémentaire de l’altérité constitutive du vécu.

La guerre contre l’altérité

La vie identifiée à la conscience selon Ruyer, constitue non seulement une objection au simplisme des transhumanistes qui s’en tiennent à l’explication informationnelle, mais aussi l’argument pour soutenir la conception intuitive qu’on s’en fait, quand on s’avise de son pouvoir de résister aux automatismes. Le sens commun sait qu’on ne vit que parce qu’on ne se laisse pas imposer les automatismes qui machinisent ou animalisent. Les neurobiologistes inspirés par les expériences de Libet le mettent en évidence : la conscience constitue un veto opposé aux décisions du cerveau ; elle limite les réactions instinctuelles que l’imagerie cérébrale met en lumière et, à cet égard, elle justifie le maintien du libre-arbitre tel que l’humain conscient l’expérimente.
 
Le transhumanisme est une machine de guerre contre l’altérité. C’est pourquoi il refuse pathétiquement la mort ou qu’il préfère au hasard des hybridations naturelles  le clonage qui reproduit le même. La question du libre-arbitre n’en est pas une pour lui et il adhère à l’idée selon laquelle l’avenir de l’humain serait subordonné à son aptitude à produire toujours plus d’automatismes et de réactivité. Ce que Ruyer permet encore de suggérer, contre le réductionnisme issu de la cybernétique et de la théorie de l’information, c’est la part de l’humain qui est refoulé par les transhumanistes. La vie humaine réduite au fonctionnement du vivant, c’est en effet le refoulement de la dimension symbolique de l’existence humaine. Et c’est l’oubli de cette dimension qui rend flagrante la pauvreté du point de vue dit technoprogressiste dans les affaires humaines. J’y vois, pour ma part, la racine de l’inclination à laisser se dégrader l’image de soi de l’humain et la pente glissante qui le conduit à requérir des techniques un traitement de plus en plus indifférent aux valeurs humanistes (la dignité, le sens du défi, l’audace d’affirmer et de s’aventurer…). L’humain privé de sa vocation aux symboles qui font lien et élèvent, c’est un être qui ne veut plus qu’une chose : surtout ne pas mourir…

L’humanité nait avec le mensonge

Examinons cet axiome inspiré par l’humanisme de toujours : L’humain se définit spécifiquement par le pouvoir de dire « Non ». C’est une thèse que les traditions helléniques et latines ont illustré de différentes façons, mais que les thèses freudiennes ont rendu évidentes aux éducateurs. On ne grandit que parce qu’on s’oppose, que parce qu’on refuse. Je cite souvent George Steiner démontrant, dans Après Babel, que l’humanité est née avec le mensonge, c’est-à-dire avec le pouvoir d’user du langage pour dire le contraire de la réalité.
Ce pouvoir de dire « Non » suppose évidemment qu’on dispose d’une conscience pour pouvoir résister aux automatismes de l’instinct. Ce que l’on nomme « symbolisme » décrit précisément ce que le transhumanisme écrase dans sa représentation de l’humain et, plus grave, ce que l’on semble prêt à éliminer de soi-même quand on accorde du crédit aux thèses immortalistes soutenues par les technoprophètes.
 
Trois traits sont souvent mis en relief pour décrire le symbolisme à l’origine de la culture humaine : 1) le pouvoir de désigner quelque chose in absentia, la faculté de l’inactuel : c’est la vertu du langage, que les transhumanistes méconnaissent en ne s’attachant qu’aux systèmes de signaux ; 2) l’interruption de la communication immédiate : c’est la faculté de résister aux automatismes que les technologues ne craignent pas de multiplier ; 3) la « distance psychique » qui qualifie le désintéressement dont les humains sont capables, par ex. dans leurs activités ludiques (j’emprunte cette caractérisation à Fabrice Colonna qui s’inspire à juste titre de Cassirer).
 
Aucun de ces traits n’est plus à l’abri dans la société et la prospective que privilégient les transhumanistes. J’ai privilégié ici une argumentation qui concernait la réduction de la vie au vivant exempté de symboles. J’aurais pu mettre l’accent sur le déploiement contemporain de l’obsession de la transparence (opposée à la vie privée et au mensonge), sur la jubilante mise à plat du monde, obtenue par les TICs, sur l’idéologie de la mondialisation et sur les fantasmes d’une intelligence collective. J’aurais retrouvé à chaque fois cette répulsion pour la négation qui est la marque de la déshumanisation assumée par les transhumanistes.
 
Jean-Michel Besnier, professeur émérite à l'université Paris-Sorbonne
 

 

transhumanisme et objets connectés

Ces objets connectés proposent de nous mener vers le transhumanisme

Vous n’avez plus besoin de vous tourner vers la science-fiction pour trouver des cyborgs. Nous en sommes tous, maintenant. Les téléphones mobiles, les capteurs d’activité, les stimulateurs cardiaques, les implants mammaires et même les patchs d’aspirines, tous sont comme des extensions biologiques, cognitives ou sociales de notre corps, et tendent à l’augmenter. Certains ont même prédit que les humains tels que nous les connaissons aujourd’hui seront remplacés par des êtres techniquement améliorés, des cyborgs à l’image de dieux immortels. Ou au moins pour les gens riches.

La prochaine génération des technologies nomades et portables est conçue pour nous amener un pas plus loin dans cet avenir prédit. Nous sommes confrontés maintenant à des technologies bioniques internes au corps, riches en données, qui peuvent changer pour toujours ce que cela signifie d’être humain.

La société Athos prévoit de lancer des vêtements sportifs qui mesurent l’activité musculaire, le rythme cardiaque et la respiration en temps réel. Son service marketing encourage les consommateurs à « se mettre à niveau » et devenir « la version idéale » d’eux-mêmes. Ce faisant, Athos révèle clairement sa position transhumaniste : l’idée que la technologie emmènera notre espèce vers la prochaine étape de son évolution.

En coopération avec le fabricant de jeans Levi Strauss & Co, Google développe des vêtements qui interagissent avec vos appareils. Avec leurs surfaces tactiles, les vêtements seront en mesure de contrôler les gains de poids, comprendre vos gestes, passer des appels téléphoniques et plus.

Les capteurs de fitness et d’activité que nous connaissons pourraient bientôt être dépassés par les bracelets biométriques qui peuvent mesurer ce qui se passe à l’intérieur de votre corps. Les chercheurs de l’Echo Labs travaillent actuellement sur une bande biométrique qui peut mesurer votre oxygène, le dioxyde de carbone, le pH, l’hydratation et les niveaux de pression artérielle via des signaux optiques.

Plusieurs initiatives sont encore en cours pour créer des technologies implantables, qui pourraient essentiellement augmenter la biologie humaine. Des micropuces internes et des tatouages numériques pourraient remplacer les bracelets intelligents, les dispositifs de paiement et d’autres objets similaires dans les prochaines années.

Cependant, la question qui est souvent posée est la suivante : « Comment pouvons-nous nous sentir avec de la technologie sur (ou dans) notre corps 7 jours sur 7, 24h sur 24 ?"

Toujours allumé, toujours sur moi

Nous avons récemment mené une étude avec 200 femmes qui portaient un capteur d’activité Fitbit. Elle a révélé que la plupart des utilisatrices ont adopté le dispositif comme s’il était parti d’elles-mêmes et ont cessé de le traiter comme une technologie externe. Il était « toujours allumé, toujours sur moi ». 89 % des participantes le portent presque constamment, ne l’enlèvent que pour recharger la batterie.

Nous avons également constaté que le Fitbit participait activement à la vie quotidienne. Il a eu un impact profond sur la prise de décision des femmes en termes de régime alimentaire, d’exercice et de la façon dont elles ont voyagé d’un endroit à un autre. Presque toutes les participantes (91 %) ont pris une route plus longue pour augmenter leur nombre de pas et la quantité d’exercice hebdomadaire réalisée (95 %). La plupart (56 %) a augmenté leur vitesse de marche pour atteindre leurs objectifs Fitbit plus rapidement. Nous avons également vu un changement dans les habitudes alimentaires vers des aliments plus sains, des portions plus petites et moins de plats à emporter (76 %).

 

Une menotte ? 

La plupart des femmes de l’étude ont pensé qu’il était important de quantifier leurs activités quotidiennes (88 %) et vérifier leur tableau de bord de progression plus de deux fois par jour (84 %). L’objectif était de recevoir de gratifiants « Hourra » et des messages comme « Championne ! » quand un objectif a été atteint. Une personne a même dit : « j’aime ma Fitbit Flex parce que c’est comme si l’on me donnait une tape amicale dans le dos tous les soirs. »

Nous étions particulièrement intéressés de savoir comment les femmes jugeaient leur Fitbit. Pour beaucoup, il a été considéré comme un ami qui les aidait à atteindre leurs objectifs (68 %). Atteindre les objectifs quotidiens a créé des sentiments de bonheur (99 %), d’autosatisfaction (100 %), de fierté (98 %) et de motivation (98 %). Une bonne journée où le programme a été atteint les a fait aimer Fitbit encore plus (96 %). La plupart (77 %) d’entre elles seraient même rentrées à la maison pour aller chercher leur Fitbit si elles l’avaient quitté sans lui.

Le côté sombre

Mais, en analysant ces résultats, nous avons commencé à remarquer que la relation n’était peut-être pas aussi pure et sans problème que pensé à l’origine. L’idée que la technologie est à la fois libératrice et oppressive, d’abord articulée par le philosophe Lewis Mumford dans les années 1930, a commencé à émerger. Lorsque nous avons demandé aux femmes comment elles se sentaient sans leur Fitbit, beaucoup ont déclaré se sentir « nue » (45 %) et que les activités qu’elles menaient, gaspillées (43 %). Certains se sentaient même moins motivés pour faire de l’exercice (22 %).

Peut-être plus inquiétant, beaucoup se sont senties sous pression pour atteindre leurs objectifs quotidiens (79 %) et ont ressenti que leurs routines quotidiennes étaient contrôlées par Fitbit (59 %). Ajouter à cela que près de 30 % estimaient que Fitbit était un ennemi et les faisait se sentir coupables, et tout à coup, cette technologie ne nous semble pas si parfaite.

Les technologies portables peuvent avoir un impact positif sur la façon dont nous menons nos vies, en nous donnant un aperçu de nous-mêmes et en nous permettant d’interagir avec notre environnement de façon nouvelle. Cependant, il est également clair que lorsque nous invitons la technologie à investir notre corps, nous devons être prêts à partager avec elle les prises de décision quotidiennes. Comme ces dispositifs captent nos moindres mouvements, nous allons de plus en plus les entendre nous dire quoi faire et quelle est la meilleure façon de se comporter et de communiquer avec les autres.

Pour l’instant, nous croyons que les objets connectés peuvent être nos compagnons, mais les premiers signes d’une prise de contrôle par la technologie sont là. Cela questionne la durabilité de notre relation actuelle avec ces dispositifs. Que nous le voulions ou non, nous sommes lentement, mais sûrement, en train de se transformer en une nouvelle espèce humaine. Je vous présente : Homo cyberneticus.

Rikke Duus, Senior Teaching Fellow in Marketing, UCL et Mike Cooray, Professor of Practice, Hult International Business School

La version originale de cet article a été publiée sur The Conversation.

The Conversation

 

Loading...
Loading...