Close

23 Mai: Les enjeux scientifiques de l'éthique du numérique

numérique
L’Académie des sciences – Institut de France organise le mardi 23 mai de 14h30 à 16h30 une conférence-débat sur le thème « Les enjeux scientifiques de l'éthique du numérique »
 
Le débat public aborde souvent des questions éthiques liées au développement de l'informatique, dans lesquelles faits objectifs et fantasmes se côtoient hélas souvent. De nombreux projets scientifiques comportent également un volet éthique et sociétal. La loi sur la République numérique a récemment confié à la Commission nationale de l'informatique et des libertés, l'animation de débats, et l'année 2017 sera ainsi consacrée à « Éthique et numérique : les algorithmes en débat ».
Ces exigences éthiques, loin d'être des entraves à la recherche, se révèlent au contraire être une source féconde de défis scientifiques et techniques. Qu'il s'agisse de données massives où sont disséminées nos données personnelles, de plateformes web, d'objets connectés, de robots et véhicules autonomes, ou d'algorithmes quotidiens, la conception de systèmes informatiques en conformité avec des exigences telles que la sûreté, la transparence, la loyauté, l'équité, l'intelligibilité, la confidentialité, mène à de nouvelles questions scientifiques auxquelles nous ne savons pas toujours répondre, comme l'illustrera cette séance.
 
Les organisateurs de la conférence
 
Max Dauchet
Max Dauchet est professeur émérite à l’université de Lille. Ses recherches amont (outils logiques et méthodes formelles pour la programmation, algorithmique), se sont ensuite diversifiées (bioinformatique) et orientées vers les applications (algorithmes de décision en temps réel). Il préside acutellement la CERNA – Commission de réflexion sur l'éthique de la recherche en sciences et technologies du numérique d'Allistene - depuis sa création fin 2012, ainsi que la Maison pour la science en Nord-Pas-de-Calais.
 
Stéphane Mallat
Stéphane Mallat est professeur de classe exceptionnelle en mathématiques appliquées au département d'informatique de l'École normale supérieure, à Paris, spécialiste du traitement du signal. Il a contribué d'une manière fondamentale au développement de la théorie des ondelettes entre les années 1986 et 1993.

Programme 

14:30 Ouverture de la conférence-débat par Sébastien Candel, président de l’Académie des sciences Max Dauchet, président de la Commission de réflexion sur l'éthique de la recherche en sciences et technologies du numérique d'Allistene.
 
14:40 Éthique numérique ? Entre programme et apprentissage par Milad DoueIhI, chaire HumaNum, Sorbonne-universités
Éthique numérique ? entre programme et apprentissage
Si, dans un premier temps, l’intérêt suscité par l’éthique numérique se fonde sur la massification des données et leurs exploitations algorithmiques, modifiant ainsi le paysage socio-culturel, il est pertinent de revisiter le rôle de l’apprentissage machine dans la production du savoir et ses incidences sur la science et le fait social. Les modèles théoriques, déjà articulés par Alan Turing, nous incitent à repenser les effets d’un apprentissage machine dans un monde trop complexe à modéliser, invitant ainsi une appréciation des liens entre les modalités actuelles de l’apprentissage (supervisé, non-supervisé, etc.) et la position de l’humain et de son évolution.
 
15:05 Éthique et algorithmes par Gilles Dowek, directeur de recerche à l’INRIA, professeur à l’ENS Paris-Saclay
 Éthique et algorithmes
 L'éthique de la recherche est parfois vue comme une contrainte imposée à l'activité de recherche, par les citoyens, notamment les chercheurs eux-mêmes. Nous essayerons de montrer dans cette intervention que le questionnement éthique, comme naguère le questionnement sur la sécurité des systèmes informatiques, est aussi une source féconde de nouvelles questions scientifiques et techniques. Par exemple, le questionnement sur le respect de la vie privée a donné naissance à de nombreux travaux sur l'anonymisation des données, le projet du vote électronique a mené à la conception de protocoles de vote, mais aussi à l'étude de leurs limites. De même, les questions relatives à l'équité des algorithmes, comme l'algorithme admission post bac, ou celle de la justification d'un jugement ou d'une décision, mènent à de nouveaux problèmes que nous ne savons pas encore résoudre.
 
15:30 Éthique et données par Serge AbIteboul, directeur de recherche à l’INRIA et l’ENS de Paris, membres de l’Académie des sciences, ENS Paris
Éthique et données
La gestion et l’analyse de données, notamment personnelles, sont porteuses d’immenses promesses pour ce qui concerne d’améliorer la vie de chacun et, plus globalement, la société. Pourtant, ces mêmes technologies s’accompagnent de risques tout aussi considérables comme de déstabiliser les marchés, ou d’accroitre les inégalités. Elles nous questionnent donc, et soulèvent de nouveaux sujets de recherche passionnants aussi bien techniquement que pour leurs conséquences sociétales potentielles. Celà nous conduit par exemple à développer des techniques pour vérifier si des services proposés comme des systèmes de recommandation ou des assistants personnels sont « loyaux », dans le sens que, comme promis, ils agissent vraiment à notre service et pas, au contraire, pour suivre quelque agenda opaque. Cela nous amène aussi à imaginer des analyses de données qui soient « responsables par design », par exemple, transparentes, justes, neutres.
 
15:55 Éthique en apprentissage machine par Laurence DevIllers, professeur à université Paris-Sorbonne, chercheur au CNRS
 Éthique en apprentissage machine
Le but de l'apprentissage automatique (machine learning) est de traiter des tâches que l'on ne sait pas spécifier de façon suffisamment précise, par exemple la reconnaissance des émotions dans la parole ou encore la reconnaissance d'animaux dans des images. L'apprentissage automatique est une façon de remplacer cette spécification que nous ne savons pas écrire par une masse de données. De nombreux agents artificiels utilisent des modules d’apprentissage automatique : moteurs de recherche, traduction automatique, agents conversationnels et robots par exemple. Comment nous assurer que les systèmes à apprentissage qui vont être utilisés dans de nombreux domaines comme la santé, l'énergie, les transports, la banque sont fiables, équitables, et obéissent à la règlementation ? Comment peuton évaluer un système qui apprend tout seul ? Un système informatique classique peut être disséqué à volonté mais ce n’est pas le cas d’un système à apprentissage machine qui ne produit pas des explications satisfaisantes pour des humains. Faut-il faire passer des audits aux systèmes ? Quelle information doit-on donner aux utilisateurs sur les capacités des systèmes apprenants ? Qui est responsable en cas de dysfonctionnement de la machine ?
 
16:20 Discussion générale et conclusion
 
Lieu : Grande salle des séances de l’Institut de France - 23, quai de Conti, 75006 Paris