Intelligence artificielle

L’IA, pour le meilleur ou pour le pire ?

Docteur Jekyll et Mister Hyde
Pas un jour sans que l’Intelligence artificielle ne fasse la une des médias. On s’esbaudit de ses prouesses mais en même temps on la craint, on la promeut mais on s’inquiète aussi de ses progrès qui pourraient être ravageurs. Cette semaine deux informations contradictoires viennent compléter le florilège de nouvelles sur l’IA. D’un côté, une étude qui fait frissonner, sonne l’alarme sur les risques d’utilisations malveillantes de l’IA. De l’autre, une initiative venue d’Inde qui cherche à apprivoiser l’IA afin de la rendre utile aux plus démunis. L’IA, Docteur Jekyll ou Mr Hyde ?
 

Et si l’IA tombait dans de mauvaises mains…

Nos contemporains ont un jeu préféré : celui de vouloir absolument se faire peur. Ils seront servis avec cette sonnette d’alarme que viennent de tirer des experts internationaux sur les risques d'une utilisation malveillante de l'intelligence artificielle par « des États voyous, des criminels, des terroristes ».
 
Selon leur rapport publié le 21 février dernier, l'efficacité croissante de l'IA risque, dans les dix prochaines années,  de renforcer la cybercriminalité mais aussi de conduire à des utilisations de drones ou de robots à des fins terroristes. Elle est aussi susceptible de faciliter la manipulation d'élections via les réseaux sociaux grâce à des comptes automatisés (bots).
 
Ce rapport de 100 pages a été rédigé par 26 experts spécialistes en intelligence artificielle, cybersécurité et robotique. Ils appartiennent à des universités (Cambridge, Oxford, Yale, Stanford) et à des organisations non gouvernementales (OpenAI, Center for a New American Security, Electronic Frontier Foundation). Ces experts appellent les gouvernements et les différents acteurs concernés à mettre en place des parades pour limiter les menaces potentielles liées à l'intelligence artificielle. « Nous pensons que les attaques qui seront permises par l'utilisation croissante de l'IA seront particulièrement efficaces, finement ciblées et difficiles à attribuer », souligne le rapport.
 
Pour illustrer leurs craintes, ces spécialistes évoquent plusieurs "scénarios hypothétiques" d'utilisation mal intentionnée de l'IA.
Ils soulignent ainsi que des terroristes pourraient modifier des systèmes d'IA disponibles dans le commerce (drones, véhicules autonomes), pour provoquer des crashs, des collisions ou des explosions.
Les auteurs imaginent ainsi le cas d'un robot nettoyeur trafiqué qui se glisserait subrepticement parmi d'autres robots chargés de faire le ménage dans un ministère berlinois. Un jour l'intrus passerait à l'attaque après avoir reconnu visuellement la ministre des Finances. Il se rapprocherait d'elle et exploserait de façon autonome, tuant sa cible.
 
Par ailleurs, « la cybercriminalité, déjà fortement en hausse, risque de se renforcer avec les outils procurés par l'IA », déclare à l'AFP Seán Ó hÉigeartaigh, directeur du "Centre for the Study of Existential Risk" de l'Université de Cambridge, un des auteurs du rapport. Les attaques par hameçonnage ciblé (spear phishing) pourraient ainsi devenir beaucoup plus aisées à mener à une large échelle. Mais pour lui, « le risque le plus sérieux, même si il est moins probable, est le risque politique ». « Nous avons déjà vu comment des gens se servaient de la technologie pour essayer d'interférer dans les élections et la démocratie ». « Si l'IA permet à ces menaces de devenir plus fortes, plus difficiles à repérer et à attribuer, cela pourrait poser de gros problèmes de stabilité politique et contribuer peut-être à déclencher des guerres », estime le scientifique.
 
Ce n'est pas la première fois que des inquiétudes s'expriment concernant l'IA. Dès 2014, l'astrophysicien Stephen Hawking lançait une mise en garde sur les risques qu'elle pourrait faire courir à l'humanité, en dépassant l'intelligence humaine. L'entrepreneur Elon Musk et d'autres ont aussi tiré la sonnette d'alarme. Des rapports spécifiques sur l'utilisation de drones tueurs ou sur la façon dont l'IA pourrait affecter la sécurité des États-Unis ont également été publiés.
Ce nouveau rapport apporte « une vue d'ensemble sur la façon dont l'IA crée de nouvelles menaces ou change la nature des menaces existantes dans les domaines de la sécurité numérique, physique et politique », explique Seán Ó hÉigeartaigh. Il poursuit : « Les chercheurs en IA, les concepteurs de robots, les compagnies, les régulateurs, les politiques doivent à présent collaborer pour tenter de prévenir » ces risques.
 

Et si l’IA tombait dans de bonnes mains ?

Presque simultanément était publiée une information plus réjouissante. Deux frères d’origine indienne, milliardaires du secteur technologique, veulent faire en sorte que l’IA soit au service des plus démunis.
Romesh et Sunil Wadhwani ont inauguré la semaine dernière à Bombay une fondation – Wadhwani AI institute – chargée de se servir de l'intelligence artificielle pour améliorer le quotidien d'agriculteurs pauvres, de soignants situés en zone rurale ou encore d'enseignants qui travaillent dans des régions défavorisées.
 
Il s'agit de la première initiative de ce genre au monde, ont-ils affirmé. Dotée de 30 millions de dollars sur dix ans, elle a noué un partenariat avec une université américaine en Californie, berceau de la Silicon Valley et des technologies, et elle compte bien collaborer avec les entreprises américaines du secteur.
« Notre priorité, c'est combien de dizaines de millions de vies nous pouvons améliorer dans les cinq à dix ans qui viennent », a expliqué Sunil Wadhwani à l'AFP.
 
L'intelligence artificielle pourrait par exemple aider les infirmières à poser des diagnostics, permettre aux agriculteurs d'optimiser les récoltes ou encore traduire les manuels scolaires. « L'intelligence artificielle peut changer la donne », a-t-il poursuivi, mais « beaucoup de pays en développement sont mis sur la touche, tandis que les Etats-Unis et la Chine mènent le jeu ».
« Elle peut potentiellement être utilisée à de mauvaises fins ou nous échapper complètement », a relevé P. Anandan, un ancien de chez Microsoft, à la tête de la fondation. Mais il a assuré qu'il était possible de faire le bien avec l'IA.
 
Les géants de la Silicon Valley ont énormément investi pour élaborer des logiciels aidant les machines à penser comme des humains, grâce à des capacités informatiques ultra-rapides et à des montagnes d'analyses de données. Cette technologie a déjà de très nombreux usages : les assistants virtuels, la reconnaissance faciale ou encore la lutte contre les contenus litigieux sur internet. Elle est aussi au centre de la future voiture autonome, sur laquelle mise le secteur technologique tout comme l'industrie automobile. Mais elle est plus rarement mise en œuvre pour aider les plus pauvres ou pour protéger l'environnement, par exemple.
 
Le milliardaire Elon Musk, patron de Tesla et de SpaceX , a contribué à la création d'OpenAI en 2015 dans le but de développer l'intelligence artificielle pour le bien des gens. Il s'est exprimé à plusieurs reprises sur les dangers de l'IA, dénonçant notamment les armes autonomes, ou "robots-tueurs". Microsoft, Amazon, Apple, Google, Facebook ou encore IBM font partie de l'organisation "Partnership on AI" qui veut, elle aussi, promouvoir une technologie "bénéficiant aux gens et à la société".
 
Sunil Wadhwani, quant à lui, veut que sa fondation en Inde aille vite : il espère de premiers tests d'outils utilisant l'IA d'ici la fin de l'année.
 
 
Source : AFP
Image d’en-tête : Docteur Jekyll et Mister Hyde (film de Rouben Mamoulian1932)
 

Quelque chose à ajouter ? Dites-le en commentaire.

 

 

Articles en relation
Photographie, arme de classe

L’exposition que présente le Centre Pompidou jusqu’au 4 février 2019 rend hommage à la photographie documentaire et sociale en France entre 1928 et 1936, proposant un nouvel éclairage sur l’idée...

Résistance au changement

Le phénomène complexe de la rébellion en France ou comment sortir des blocages individuels et collectifs Il est fort probable que les "Gilets Jaunes" constituent l'étincelle qui pourrait mettre le...

Génétique hors contrôle

Grâce à CRISPR, ce chercheur chinois a pu, quasiment seul, fabriquer des bébés génétiquement modifiés. L’information a fait le tour du monde en quelques heures : un chercheur chinois a annoncé cette semaine...

Le rendez-vous de la dernière chance

La COP 24 se tient à partir du 2 décembre : Que faut-il en attendre ? Trois ans après le succès de la COP 21 de Paris sur le climat, va se tenir à Katowice, en Pologne, la COP24 chargée de préciser...