Close

L’intelligence artificielle de Facebook entre au Collège de France

Yann LeCun
Lieu d’excellence de la transmission du savoir en France, le Collège de France, cette vénérable institution créée par François Ier, bruissait jeudi dernier d’une façon particulière. Elle accueillait la première leçon de Yann Le Cun, le « Dieu », comme le surnomment certains, de l’Intelligence artificielle, le boss de l’intelligence des machines chez Facebook. Facebook au Collège de France ? La prestigieuse maison de la Montagne Ste Geneviève affirme que l’impétrant avait été sollicité pour venir donner des cours avant qu’il ne soit embauché par le géant des réseaux sociaux. Soit. 
Au fronton du Collège, la devise « docet omnia » (il enseigne tout) oblige l’institution séculaire à s’ouvrir à ce domaine de la science, objet des recherches les plus avancées et de la compétition la plus féroce. Mais aussi des fantasmes et des craintes les plus folles sur ces apprentis-sorciers qui veulent doter les machines d’une intelligence quasi humaine.
 
Cette leçon inaugurale de la Chaire informatique et science numérique s’est déroulée jeudi 4 février dernier devant un parterre de savants éminents, toutes disciplines confondues : de la biologie avec Alain Prochiantz, la préhistoire avec Yves Coppens, les mathématiques avec le médaillé d’or du CNRS Gérard Berry, à l’économie avec Philippe Aghion.  Un amphithéâtre bondé pour écouter le grand maître de l’IA, professeur dans plusieurs universités américaines et Directeur de FAIR, le fameux laboratoire de Facebook consacré à cette discipline.
 

S’inspirer du vivant et non le copier

 
D’emblée Yann Le Cun sait qu’il est certes, précédé par sa réputation de scientifique au top de sa discipline, mais que son champ de recherche pose des questions. Il ouvre donc sa leçon par une affirmation de modestie, afin de couper court à toute interprétation fantasmatique pour ne pas dire fantaisiste de ce qu’il va enseigner. « Peut-on copier le cerveau pour construire des machines intelligentes ? »  Doit-on copier la biologie ? Ma réponse est non. » Mais il ajoute, dans le même souffle : « On doit quand même s’en inspirer un petit peu ». Le ton est donné.
 
 
 
Il est vrai que copier le cerveau humain semble une gageure. Considéré par la plupart des scientifiques comme l’objet le plus complexe de l’univers, la reproduction du cerveau par une machine semble hors de portée. Avec ses quatre-vingt milliards de neurones dont chacun est interconnecté par plusieurs milliers de synapses, la machine est impressionnante et peu gourmande en volume et en énergie puisqu’il ne faut pas plus que 25 W pour la faire fonctionner. Les ordinateurs sont encore loin du compte pour rivaliser en performances avec cette pièce maîtresse de l’organisme vivant en général et de l’homme en particulier. Et d’ailleurs, pourquoi essayer de le copier ? Cela demanderait des ressources immenses et des recherches inutiles. Yann Le Cun saluant au passage son père, ancien ingénieur en aéronautique, présent pour cette leçon, rappelle que si Clément Ader avait servilement essayé de copier l’oiseau pour fabriquer son aéroplane, les avions auraient aujourd’hui des plumes.
 
Pour Yann le Cun, il ne s’agit pas de copier le vivant mais de s’en inspirer et d’en comprendre les principes. Il rappelle que la caractéristique principale du cerveau de tous les animaux, et pas seulement celui de l’homme, c’est qu’il apprend. Il insiste : « Tous les animaux, même les plus simples apprennent.
L’apprentissage fait partie intégrante de l’intelligence ; il n’y a pas d’intelligence sans apprentissage ».
 

L’IA implique de comprendre les mécanismes d’apprentissage

 
Apprentissage. C’est le cœur des recherches de Le Cun sur l’intelligence artificielle. Il insiste : « Quand on veut travailler sur l’IA, il faut comprendre les mécanismes d’apprentissage mis en œuvre dans le cerveau. »
Pour faire comprendre ses recherches et certainement leur grande complexité, Yan Le Cun distingue trois catégories principales d’apprentissage : par renforcement, supervisé et non supervisé.
 
 
 
L’apprentissage par renforcement c’est un peu ce que l’on utilise quand on entraîne un animal de cirque : on attend que l’animal fasse l’action désirée puis on lui donne une récompense. Pour le patron de l’IA de Facebook, « C’est une forme d’apprentissage très inefficace et très lente. Mais avec des succès dans des domaines comme les jeux vidéo ou le go parce qu’on peut simuler l’environnement et faire tourner cela des millions de fois. »
 
 
 
L’apprentissage supervisé fournit beaucoup plus d’informations. C’est une technique d'apprentissage où l'on cherche à produire automatiquement des règles à partir d'une base de données d'apprentissage contenant des « exemples », en général des cas déjà traités et validés. L’exemple classique qui peut être produit est celui de l’apprentissage de ce qu’est un chien à un ordinateur. Pour y parvenir, il faudra faire ingurgiter à la machine des millions de photos de chiens, pris sous tous les angles, des chiens à poils longs, à poils ras, etc… Toutes ces précisions constituent alors de monstrueuses bases de données « étiquetées ». C’est fastidieux, très lourd en temps de calcul et, rajoute Yann Le Cun : « ce n’est pas très naturel ».
 
L’idée est de passer à une autre méthode, celle de l’apprentissage profond (deep learning) qui devrait nécessiter peu d’informations. C’est là la spécificité du travail de Yann Le Cun depuis vingt ans. Son champ de prédilection est l’apprentissage non supervisé. Dans cet espace de recherche, il est considéré comme l’inventeur d’un nouveau type de réseau, les « réseaux de neurones profonds ». Ceux-ci sont dits « convolutifs » car ils s’inspirent de l’architecture d’un cortex visuel humain et sont capables de compilations beaucoup plus puissantes que les systèmes classiques.
 
 

L’apprentissage non supervisé est le Graal des chercheurs en intelligence artificielle.

 
Yann Le Cun rappelle que ce type d’apprentissage, commun à tous les animaux évolués est celui qui permet de prévoir le futur. Selon lui, « Nos cerveaux sont des machines à prédire le futur ». Il ajoute : « On apprend beaucoup de choses sur la manière dont fonctionne le monde en essayant de prédire le futur et en vérifiant si ces prédictions sont avérées ou pas ».
 
 
 
L’apprentissage non supervisé c’est ce qui permet aux bébés comme aux animaux de savoir comment fonctionne le monde. Par exemple la notion de permanence d’objet, c'est-à-dire le fait de réaliser qu’un objet existe toujours même si on ne le voit pas est quelque chose qu’on apprend en quelques mois.
Avec l’apprentissage non supervisé on apprend comment fonctionne le monde et « c’est ce qui nous donne le sens commun » affirme Yann Le Cun. Il précise aussitôt : « Ce qui manque aux machines actuellement, c’est le sens commun. »
 
L’apprentissage non supervisé c’est cette faculté qu’ont les humains et pas encore les machines de définir un certain nombre d’actions simplement par la connaissance qu’ils ont acquises de l’observation du monde réel. Ce type d’apprentissage est banal pour les humains. Il suffit d’observer un petit enfant et la façon dont il appréhende progressivement le monde qui l’entoure. Chaque jour il saura mieux saisir un objet, se déplacer, jouer et développer des fonctions à chaque fois plus complexes. Facile pour l’humain mais hautement compliqué pour une machine.
 
 
Yann Le Cun tient à souligner que l’objectif est loin d’être atteint aujourd’hui. Il utilise une métaphore pour bien nous faire comprendre le fossé qui reste encore à franchir : « Si l’apprentissage ou l’intelligence est une sorte de gâteau, le gâteau lui-même, la génoise, c’est l’apprentissage non supervisé, le glaçage du gâteau c’est l’apprentissage supervisé et la cerise sur le gâteau c’est l’apprentissage par renforcement. Aujourd’hui on sait faire la cerise et le glaçage mais on ne sait pas faire la génoise. » Il ajoute, faisant référence aux astrophysiciens pour qui 95 % de la masse de l’univers est de nature inconnue, « 95 % de la masse du gâteau, 95 % du mécanisme de l’apprentissage est de nature complètement inconnue. Nous n’avons pas d’algorithme efficace pour attaquer ce problème ».
 

La route est encore longue

 
En déclarant que nous ne comprenons que moins de 5% du processus d'apprentissage humain, Yann Le Cun fait preuve d’optimisme mais aussi de grande prudence. Il tient à insister sur ce point : « On a besoin de beaucoup de choses pour faire progresser l’IA, pour faire des machines qui approchent l’intelligence humaine ou même l’intelligence d’un rat, ce serait très bien. »
 
 
 
Que reste-t-il à faire ? Tout, serait-on tenté de répondre, mais Yann Le Cun, en bon ingénieur, préfère dresser une road map progressive. 
Nous avons d’abord besoin, dit-il, d’une compréhension théorique de l’apprentissage profond qui manque aujourd’hui. « Ça marche mais on ne comprend pas très bien pourquoi. »
Il faut ensuite une intégration de l’apprentissage profond avec des systèmes de raisonnement, d’attention, de planification, etc. Les travaux sur le jeu de GO de DeepMind se situent dans cette problématique. Le chercheur affirme : « Ceci permettrait aux machines de planifier à l’avance, de conduire un dialogue, en essayant de conduire la personne à un état mental particulier… C’est un gros problème dont on n’a pas encore la solution mais qui est très actif au niveau recherche ».
 
Il faut aussi, selon lui, intégrer l’apprentissage supervisé et non supervisé avec une seule règle d’apprentissage, car « il semblerait que le cerveau soit une machine universelle d’apprentissage. Pour l’instant on a des mécanismes différents pour chaque mode d’apprentissage ».
Et pour finir, le Graal, il faut « surtout avoir une méthode efficace pour faire de l’apprentissage non supervisé ». On n’y est pas encore. Mais l’activité de recherche va bon train et les grands labos du monde se font une guerre impitoyable pour y parvenir
 

VOIR DANS UP : La guerre des cerveaux

 
 

À quoi vont ressembler les machines intelligentes du futur ?

 
Dans ce cadre du Collège de France, tellement chargé d’histoire et d’intelligence, la réponse à cette question se veut d’une grande humilité : « Elles ne vont pas ressembler aux humains ».
Yann Le Cun tient à évacuer cette image sulfureuse qui s’attache à ceux qui travaillent dans ce domaine de la recherche. La science-fiction a suffisamment formé les esprits depuis longtemps pour que le patron de l’IA de Facebook tienne à rassurer : « Beaucoup de gens se demandent si les robots vont faire disparaître les humains dans un scénario à la Terminator ». Pour lui cette hypothèse est une fable. Et il explique pourquoi, avec sa logique d’ingénieur. « Mais en fait les comportements humains sont pilotés par la base de notre cerveau, construite par l’évolution, et qui nous conduit à des comportements comme la jalousie, rechercher la compagnie d’autres êtres humains, être sur la défensive quand on se sent menacé. Il n’y a aucun aucune raison de construire ces pulsions de base dans les robots. On peut donc construire des robots qui ne sont pas dangereux ».
 
 
 
Yann Le Cun va ainsi clairement dans le sens donné par son patron, Mark Zuckerberg, le fondateur de Facebook qui affirmait dans un post sur son réseau : « Je pense que nous pouvons fabriquer une IA dans le but qu'elle nous serve et nous aide ». Il ajoute dans un commentaire, faisant sans doute référence aux propos alarmistes d’Elon Musk : « Certaines personnes essaient de convaincre le public que l'intelligence artificielle est un danger important. Mais ça me semble tiré par les cheveux et bien moins probable que des désastres causés par les maladies, la violence etc.».
 
Cela vous rassure-t-il  ?