UP' Magazine L'innovation pour défi

cybersécurité

L’Indice mondial de confiance dans la cybersécurité en berne

L’Indice Mondial de Confiance dans la cybersécurité tombe à 70% avec une note moyenne de « C » en 2017. C’est ce que révèle la seconde enquête annuelle auprès des professionnels de la sécurité réseau pour l’un indice de confiance dans la capacité à évaluer précisément les cyber risques en baisse de 12% par rapport à 2016. Une mauvaise nouvelle notamment pour notre cyber défense qui  doit reposer sur trois piliers : le renseignement, la protection/défense et la lutte informatique offensive, selon le ministre Jean-Yves Le Drian qui vient d’annoncer ce dimanche 11 décembre une nouvelle doctrine en matière de cybersécurité.
 
Tenable Network Security, Inc., leader mondial dans la gestion des vulnérabilités, annonce les résultats de son Rapport 2017 Global Cybersecurity Assurance Report Card, (Fiche d’Evaluation sur la Confiance dans la Cyber sécurité 2017) dans lequel les spécialistes mondiaux de la sécurité informatique ont donné pour l’indice de confiance dans le niveau de cyber sécurité dans leur entreprise une note moyenne de « C », avec un score global de 70%.
Ce rapport repose sur les réponses de 700 responsables de la sécurité dans neuf pays et dans sept secteurs d’activité, qui permettent de calculer un indice global reflétant le taux de confiance dans l’efficacité des cyber défenses en place au niveau mondial.
D’après les résultats de cette année, l’indice de confiance global dans la cyber sécurité a baissé de six points par rapport à 2016 pour s’établir à 70 pour cent – soit une note moyenne de « C » dans le rapport d’évaluation.
La baisse de l’indice de confiance global est le résultat d’une chute de 12 points dans l’Index 2017 d’Evaluation des Risques, qui a mesuré la capacité des responsables interrogés à évaluer les cyber risques respectivement sur onze composants clés de l’infrastructure informatique de leur entreprise.
 
Pour la deuxième année consécutive, les responsables interrogés ont cité « l’énorme prolifération des cyber menaces » comme le plus grand défi auquel doivent faire face les professionnels de la sécurité informatique aujourd’hui, suivi tout de suite après par « une faible sensibilisation à la sécurité de la part des employés » et « un manque de visibilité sur le réseau (BYOD, shadow IT).”
 
“Les réseaux aujourd’hui sont en constante évolution — terminaux mobiles, cloud, Internet des objets, applications web, containers, machines virtuelles — et les données indiquent que beaucoup d’organisations n’ont pas la visibilité nécessaire pour avoir confiance dans leur niveau de sécurité,” a déclaré Cris Thomas, stratégiste chez Tenable Network Security. “Il est assez clair que des technologies très récentes telles que DevOps et les containers ont contribué à orienter le score global vers le bas, mais en fait ce ne sont pas seulement une ou deux choses qui doivent être améliorées, c’est toute l’infrastructure.”
 
Pour ce qui est de notre défense nationale, Jean-Yves Le Drian a annoncé la création, en janvier 2017, d’un commandement français des opérations cyber (le « CyberCom »), placé sous la responsabilité directe du chef d’état-major des armées afin de mettre en place les trois piliers d’appui de la cyber défense française. D’abord le renseignement, « pour détecter les actions hostiles et leurs auteurs. ». Ensuite, la protection et la défense : « Nous devons bâtir d’épaisses murailles numériques. » Enfin, la lutte informatique offensive : « Nous avons besoin de combattants numériques pour riposter et neutraliser les cyber agresseurs. » « L’irruption du numérique dans toutes les activités de la vie quotidienne nous oblige à repenser en profondeur l’art de la guerre. » a-t-il déclaré lors d’un déplacement près de Rennes pour d’inauguration d’ un nouveau bâtiment de 9 000 m2 au centre DGA maîtrise de l’information.
 
Les bataillons de hackers sont désormais structurellement organisés, au service de puissances criminelles ou étatiques aux moyens et aux ambitions considérables. Il y a donc urgence à agir face à une cybermenace devenu un véritable enjeu de sécurité nationale.
Et comme le précise l'agence Science-Presse, le gros problème en fait, n’est pas d’augmenter la cybersécurité. Le gros problème est d’identifier la source de l’attaque. 

Principaux Résultats Globaux 2017

●         De moins en moins de visibilité sur le Cloud – Le SaaS (Software as a Service) et l’IaaS (Infrastructure as a Service) dans le Cloud font partie des domaines qui obtiennent les scores les plus bas dans l’Index d’Evaluation des Risques en 2016. Le SaaS et l’IaaS ont été combinés avec le PaaS (Platform as a Service) pour l’enquête 2017 et le nouveau composant « environnements cloud » a obtenu un score de 60 pour cent (D-), en chute de sept points par rapport à la moyenne de l’année dernière pour l’IaaS et le SaaS.
●         Marasme sur les mobiles – Identifiée aux côtés de l’IaaS et du SaaS dans le rapport de l’année dernière comme l’un des principaux points faibles pour la sécurité des entreprises, l’Evaluation des Risques pour les terminaux mobiles a chuté de huit points passant de 65 pour cent (D) à 57 pour cent (F).
●         De Nouveaux Défis Apparaissent – Deux nouveaux composants informatiques ont été introduits pour 2017 — plates-formes de ‘containérisation’ et environnements DevOps.
 
DevOps transforme la façon dont les équipes de développement logiciel collaborent via une cohérence et une automatisation accrues, mais il introduit aussi de nouvelles menaces de sécurité. En fait, les responsables interrogés n’ont indiqué qu’un taux de confiance de 57 pour cent dans la capacité à évaluer la sécurité durant les processus DevOps.
 
Dans le même temps, l’adoption de technologies de ‘containérisation’ telles que Docker est en pleine explosion, les organisations cherchant à accélérer les cycles d’innovation et à réduire leur ‘time to market’. Malheureusement, seules 52 pour cent des personnes interrogées ont indiqué que leur organisation connaissait la meilleure façon d’évaluer les risques dans des environnements de containers.

Résultats de l’Indice de Confiance 2017 dans le monde

1.       Inde : B (84 pour cent)
2.       Etats Unis : C+ (78 pour cent)
3.       Canada : C (75 pour cent)
4.       France : C (74 pour cent)
5.       Australie : C- (71 pour cent)
6.       Royaume Uni : D (66 pour cent)
7.       Singapour : D (64 pour cent)
8.       Allemagne : D- (62 pour cent)
9.       Japon : F (48 pour cent)

Résultats de l’Indice de Confiance 2017 par secteur d’activité

1.       Grande distribution : C (76 pour cent)
2.       Services financiers : C- (72 pour cent)
3.       Industrie manufacturière : C- (72 pour cent)
4.       Télécoms & Technologie : C- (70 pour cent)
5.       Santé : D (65 pour cent)
6.       Education : D (64 pour cent)
7.       Administration publique : D (63 pour cent)
 
 
A propos du rapport 2017 Global Cybersecurity Assurance Report Card
Tenable a interrogé 700 professionnels de la sécurité informatique dans des organisations de plus de 1000 employés en 2016. Sur la base d’une enquête en ligne en 12 questions, les personnes interrogées ont été invitées à fournir une évaluation sur une échelle de cinq points. En regroupant les deux réponses les plus favorables (par exemple tout à fait d’accord + assez d’accord) pour chaque question, puis en faisant la moyenne des réponses associées, deux indices globaux ont été calculés. L’Index d’Evaluation des Risques a mesuré la capacité d’une organisation à évaluer les risques de cyber sécurité sur 10 composants clés d’une infrastructure informatique d’entreprise. L’Index de Confiance en la Sécurité a mesuré la capacité d’une organisation à pallier les menaces en investissant dans une infrastructure de sécurité impulsée par un engagement clair de la direction générale. Les scores de ces deux index ont été combinés pour produire l’indice global pour chaque pays et chaque secteur d’activité. Pour plus d’informations, visitez tenable.com/2017-global-cybersecurity-assurance-report-card.
 

 

numérique

La révolution de la connectivité pour lutter contre les protectionnismes

Invité à plancher sur la "révolution de la connectivité" lors du forum de coopération économique pour l'Asie-Pacifique (Apec) qui réunissait les 19 et 20 novembre à Lima (Pérou) patrons d'entreprises et dirigeants des 21 économies de la région, le patron de Facebook, Mark Zuckerberg, a délivré un message très politique. Face au Brexit qui fait vaciller l'Union européenne et aux engagements protectionnistes du prochain président des États-Unis, Donald Trump, il prône en réponse toujours plus de connectivité pour accroître la prospérité.
 
La victoire inattendue de Donald Trump le 8 novembre a laissé le secteur technologique américain dans une position inconfortable, obligé de composer dans l'avenir avec un président dont il ne voulait pas et confronté au risque de politiques défavorables pour lui.
"Comme nous l'avons appris cette année, et élection après élection, bien que la mondialisation permette d'augmenter la taille du gâteau, elle crée aussi des inégalités. Elle aide certaines personnes mais en blesse d'autres. Nous ne devons laisser personne derrière", a déclaré le fondateur du réseau social, accusé d'avoir contribué à la victoire du magnat de l'immobilier en laissant circuler de fausses informations sur son réseau.
 
"Nous sommes face à un choix fondamental pour combattre l'inégalité", a déclaré Mark Zuckerberg.
"Nous pouvons déconnecter, risquer moins de prospérité et espérer que les emplois perdus reviendront", a-t-il dit dans une allusion à peine voilée au candidat républicain. Donald Trump a su en effet capter la colère d'un électorat populaire laissé sur la touche de la mondialisation en promettant un tour de vis protectionniste censé protéger l'emploi américain de la concurrence low-cost chinoise ou mexicaine.
"Ou nous pouvons nous connecter davantage, essayer de réaliser de meilleures choses. Développer la prospérité et tout faire pour la partager entre tous", a poursuivi Mark Zuckerberg.

'Sacré retour de bâton'

"Il n'y a aucun doute que la seconde voie est la meilleure. Mais il faut reconnaître que c'est aussi la plus difficile. Déconnecter est relativement facile", a estimé le dirigeant du réseau aux 1,79 milliard d'utilisateurs.
 
Améliorer la connectivité mondiale, en contribuant à apporter un accès internet aux personnes qui n'en ont pas encore, est l'une des grandes priorités à dix ans affichées par Facebook, parallèlement à des travaux sur l'intelligence artificielle et sur la réalité virtuelle.
Ses différents produits ou projets, dont les drones solaires quasi géostationnaires pour apporter internet dans les régions les plus reculées du globe, étaient présentés ce week-end au sommet de l'Organisation de coopération économique Asie-Pacifique (Apec).
 
"La connectivité qui s'oppose au repli sur soi, c'est la nouvelle gauche et droite de la politique", a résumé lors d'une table ronde Matthew Bishop, un des responsables de la revue The Economist.
 
Dans leur projet de déclaration finale, les dirigeants des 21 pays de l'Apec, qui représentent 60% du commerce mondial et 40% de sa population, soulignent d'ailleurs que "le renforcement de la connectivité va permettre de trouver de nouvelles sources de croissance économique (...) rapprocher les économies de l'Apec en tant que communauté".
 
Mais "si vous donnez internet à quatre milliards de personnes ou Facebook à sept milliards de personnes, vous allez avoir un tas de gens qui sont profondément mécontents avec le statu quo, qui se méfient au plus haut point de Mark Zuckerberg ou de Microsoft, des PDG, des banques, de l'Apec, de l'ONU, de nos gouvernements...", a prévenu Ian Bremmer, le président du cabinet Eurasia Group.
 
Avec internet et les réseaux sociaux, "vous leur donnez des mégaphones et cela va provoquer un sacré retour de bâton", a-t-il ajouté. "Ce qui ne veut pas dire que nous ne voulons pas les connecter, mais qu'il faut être prêt à en assumer les conséquences politiques", a souligné M. Bremmer.
 
Source : AFP
 

 

fichier TES

Fichier TES : Le CNNum lance une plateforme de concertation en ligne

À la suite de la publication du décret n°2016-1460 prévoyant l’instauration d’un nouveau fichier des “titres électroniques sécurisés” (TES), le CNNum lance une concertation en ligne sur les enjeux et les risques relatifs à ce fichier, dénonçant notamment l’ « l’absence de toute concertation préalable à la publication » et que « l’existence d’un tel fichier laisse la porte ouverte à des dérives aussi probables qu’inacceptables ».
 
Le dimanche 30 octobre, le Gouvernement a publié le décret n°2016-1460 prévoyant l’instauration d’un nouveau fichier des “titres électroniques sécurisés” (TES) à l’ampleur inégalée. Ce fichier rassemblera à terme les données d’état-civil et les données biométriques de près de 60 millions de Français.
Le Gouvernement a fait part de son intention d’organiser un débat parlementaire sans vote à ce sujet. Le CNNum prend acte de cette initiative et considère donc comme utile de la compléter par une concertation ouverte. Le projet mêlant enjeux techniques et juridiques, le débat doit nécessairement porter sur ces deux aspects.
 
Près de quarante ans après le scandale lié au fichier SAFARI, qui avait donné naissance à la Commission nationale de l’informatique et des libertés (CNIL), et alors que l’émergence de nouvelles tentations autoritaires est observée un peu partout dans le monde, il semble nécessaire de comprendre exactement ce que signifie l’instauration d’un tel fichier. « Les reculs démocratiques et la montée des populismes, observés y compris en Europe et aux Etats-Unis, rendent déraisonnables ces paris sur l’avenir », estime le Conseil qui aurait souhaité que soient étudiées des « alternatives techniques plus résilientes et respectueuses des droits des citoyens ».
C'est le rôle du Conseil d'être le lieu de cet éclairage au travers de ses consultations. C'est ce qu'il a fait en amont de la loi numérique, mais aussi du programme en cours de transformation numérique des universités, par exemple.
 
Cette plateforme a pour vocation de recueillir les propositions des citoyens et des experts afin de mettre en lumière les défis que pose ce fichier. Cette concertation, prévue pour durer 10 jours, aura donc pour objectif de nourrir un avis du CNNum, qui sera publié d’ici quelques semaines, sur l’opportunité de la création d’un tel fichier et sur ses éventuelles possibilités d’amélioration, tant en termes juridiques que techniques. Elle portera en particulier sur trois points, qui focalisent un certain nombre de questions et d’inquiétudes :
 
- la centralisation de cette base et les enjeux de sécurité informatique afférents ;
- les possibilités d’utilisations détournées d’un tel fichier et les moyens de les prévenir ;
- les modes de gouvernance des choix technologiques de l’État.
 
Le CNNum souhaite inviter le Gouvernement et les différentes instances publiques à communiquer via la plateforme tout élément d'information, de contexte ou d'éclairage permettant de mieux comprendre l'architecture technique retenue et les raisons de son choix. En particulier, il espère que le Gouvernement pourra autoriser les instances interministérielles concernées — SGMAP, DINSIC, ANSSI... — à partager leurs analyses sur le sujet.
 
Le Conseil espère que son avis, et la consultation qui aura permis l'émergence de diagnostics partagés et de solutions alternatives, seront des outils au service du débat parlementaire et du travail futur du Gouvernement.
 
Lien vers la plateforme de débat : http://tes.cnnumerique.fr/
 

 

 

Barack Obama

Obama prend l’IA par les cornes

Dans une longue interview au magazine Wired, Barack Obama s’est livré à une analyse dense et particulièrement éclairante sur le rôle et les dangers de l’Intelligence artificielle. On aimerait que nos politiques français, à l’orée d’élections importantes, aient une hauteur de vue semblable sur un sujet qui impacte déjà profondément des chapitres entiers de l’économie, de l’éducation, de la santé, du savoir, et qui va dans les prochaines années s’imposer au cœur de nos sociétés.
 
D’emblée, Barack Obama affirme : « Mon successeur devra gouverner un pays transformé par l’IA ». Sans éluder aucune question, le président américain explique comment l’IA s’est immiscée dans nos vies quotidiennes presque subrepticement, dans différents domaines de la vie quotidienne. On pense à Bernard Stigler qui explique dans son dernier livre (La Disruption) comment les innovations disruptives ont la capacité d’installer des états de fait qui défient le droit, la morale, les habitudes les plus établies, sans qu’on s’en aperçoive immédiatement.
 
Pour Barack Obama, l’enjeu de l’IA ne doit rien laisser au hasard ; il ne peut être abandonné aux firmes privées ni aux caprices des marchés. L’enjeu oblige les gouvernements et notamment le sien à assumer leur responsabilité et à mettre en place des balises. La décision politique est ainsi réhabilitée pour des secteurs comme le numérique dont les conséquences s’inscrivent profondément dans la durée.
 
C’est la raison pour laquelle le gouvernement américain a publié deux rapports importants, en forme de feuille de route et de mise en garde sur le sujet.
Le premier rapport indique les pistes d’action à mener pour chaque pan de l’administration.
Au gouvernement d’assurer sa responsabilité d’analyser les risques de l’IA et d’évaluer si les lois existantes les couvrent bien. La décision d’ouvrir les routes et autoroutes aux voitures autonomes en est un exemple.
En matière d’éducation, Obama souhaite que se développe une force de travail compétente en IA. Il veut que les citoyens soient suffisamment informés et formés pour comprendre et interpréter les décisions politiques aussi bien que les innovations qui arrivent constamment sur le marché.
En termes de travail, Obama souligne comment l’IA va entraîner des pertes d’emplois et va accroître les inégalités. Il propose que les politiques publiques s’organisent pour assurer une redistribution la plus large possible des bénéfices économiques liés à l’IA. Il estime qu’il faut repenser le modèle social, et évoque sans détours la question du revenu universel dont il estime que ce sera le débat clé dans les 10 ou 20 prochaines années.
Enfin, est évoquée la question de la sécurité. La menace d’une IA autonome qui serait associée à un système d’armement n’est plus de la science-fiction. Le président Obama souhaite qu’une coopération internationale soit mise en place pour éviter tout danger.
 
Le deuxième rapport définit les grandes priorités de la recherche. Parmi celles-ci figurent le développement de méthodes efficaces pour la collaboration humain-machine, la compréhension et la résolution des questions éthiques, légales et sociétales, et enfin la nécessité de rendre publiques les bases de données servant à entrainer les IA.
 
On le voit, le président Obama entre dans les détails d’un sujet qu’il semble parfaitement connaître et dont il fait un enjeu majeur à court terme. Espérons qu’il saura donner l’exemple aux autres dirigeants, trop souvent englués dans leurs petites querelles politiques et sourds aux changements majeurs du monde.
 
 
 
 

 

dématérialisation  numérique

L’empreinte de la dématérialisation

Les prouesses technologiques des NTIC contemporaines, propulsant « la dématérialisation » au-devant de la scène de l’économie spectaculaire, ont créé des représentations erronées quand à l’empreinte écologique, abyssale à dire vrai, des complexes appareillages fabriqués. Cet article a pour fin de reconstituer la chaine de production des NTIC et leur cycle de vie (ACV), pour mettre en lumière les différents problèmes posés par l’hymne au numérique du point de vue de son impact.

Aux prises avec la dématérialisation High Tech

France, année 2013 : 622 millions d’équipements électriques et électroniques sont mis sur le marché, ce qui représente le poids de 153 tours Eiffel, composées d’acier à hauteur de 45 % et de métaux non ferreux à hauteur de 8% (cuivre, cobalt, indium, tantale etc.) [1]. Cela représente plus de neuf gadgets High tech pour chaque français… pour ceux qui le peuvent du moins ! Les ménages les plus pauvres ne ciblent pas ce genre d’équipements en priorité, sans trop de surprise [2]. La fracture numérique est bien une réalité physique… mais serait-ce vraiment une bonne idée que de vouloir la résorber ?
 
Couvrir le territoire d’ondes et de smart-machines comporte un prix, et il n’est pas qu’économique : quoique difficile à percevoir, l’empreinte sur les écosystèmes du globe est monstrueuse. Dans les années 1990, il semblait que la dénommée « dématérialisation » s’épanouissait sur un support inerte, la présence en ligne se manifestant par des algorithmes numérisés. Derrière ce potentiel de virtualisation des échanges s’annonçait une troisième révolution industrielle, portée par les nouveaux fleurons de l’industrie et leurs hérauts adulés, comme le décès de Steve Jobs en témoigne. Une représentation asymétrique de la technique informatique se faisait jour : la pléthore d’activités virtuelles accélérait l’économie et favorisait les services, mais cette productivité générait une dynamique désimbriquée des réalités physiques, en dépit des branchements visibles et des écrans. La vague des NTIC polluerait moins que les moyens fonctionnels utilisés avant eux : information en ligne plutôt que supports imprimés, courriels plutôt que courriers, vidéoconférences à la place de déplacements énergivores, etc. Une panoplie d’arguments péremptoires s’ouvrait pour les partisans de la dématérialisation, qui a logiquement fait sa niche en société.
 
Soulignons encore que l’argumentaire se diffuse grâce à la pauvre visibilité de l’infrastructure numérique : productions délocalisées des composants complexes, miniaturisation informatique, fibres sous-marines, satellites, ondes, unités de stockage disséminées, etc. Ce découplage entre l’infrastructure numérique et son empreinte écologique a bien freiné l’acceptation d’un discours critique de la vie du High Tech au sein de l’écologie politique. Mais on sait aujourd’hui que les TIC dans leur ensemble consomment au moins 12 à 15% de la production d’électricité globale [3], et que, si l’Internet était un pays, il serait le 6ème consommateur mondial, devant l’Allemagne [4] : face à un tel constat, il ne reste plus de recours.
 
Pourtant, l’accent médiatique est généralement focalisé sur l’usage de ces technologies, alors que l’intensité énergétique qui est afférente ne représente qu’un fragment modeste de leur empreinte écologique, bien inférieur à l’énergie nécessaire pour la confection des produits, des ressources minières extraites pour la fabrication, des pollutions et risques globaux engendrés, de quoi répondent principalement les lignent qui suivent. Nous allons suivre le cours d’un fleuve turbulent, qui nous amène à la source des gisements métalliques (Bihouix P., De Guillebon B., Quel futur pour les métaux ?Raréfaction des métaux, un nouveau défi pour la société, EDP Sciences, 2010), traverse les salles de computing numérique, et termine sa course au fond des déchèteries urbaines. Cet article propose donc un état des lieux détaillé de ces technologies dont beaucoup d’entre nous se servent tous les jours, sans prendre la mesure de leur histoire.

I - L’intensité métallique des TIC

Il faudrait commencer par comptabiliser dans l’analyse du cycle de vie (ACV) des NTIC les tonnes d’explosifs nécessaires pour pulvériser les minerais et démembrer les particules de métal abondamment utilisées. La deuxième étape serait d’évaluer le bilan CO2 des métaux au cours des premiers traitements réservés : (a) hydro métallurgiques pour le lithium, le chrome, le zinc, le cuivre, le cobalt notamment, conjugué à des opérations de dissolution, de purification, d’électrolyse ; (b) pyrométallurgiques pour le nickel, le platine, le cobalt, accomplis par des grillages, oxydations et affinages, à grand renfort de bains acides soufrés ou chlorés. Mais une telle étude, à notre connaissance, n’existe pas pour l’ensemble de la planète : nous débutons donc par un bref horizon des connaissances établies.
 
A - L’extractivisme métallique à la source des NTIC
 
L’usage des métaux est de plus en plus dispersif dans nos sociétés : encres, papiers, peintures, teintures, cosmétiques, aéronautique, agriculture, feux d’artifice etc. Au total, la demande de métaux pour les industries des hautes technologies a fait plus que tripler au cours des 20 à 30 dernières années [5] ; au cours de la même période, la sollicitation des métaux dans la table de Mendeleïev est passée de 10 dans les années 1980 à 60 métaux dans les années 2010. La place des NTIC parmi d’autres industries de pointe conduit les prospectivistes de la Commission européenne à estimer que la demande européenne pour nombre de métaux rares va littéralement exploser d’ici 2030 : 22 fois plus de gallium, 8 fois plus de germanium et d’indium, 7 fois plus de néodyme, 4 fois plus de titane, 3 fois plus de cuivre [6] ! Et cette exploitation bien sûr n’est pas censée être opérée en remplacement des extractions traditionnelles : les nouveaux alliages sont surajoutés.
 
Extraction de terres rares sur le site minier de Mountain Pass, en Californie. / © Molycorp
 
L’industrie des TIC siège sur le tableau des éléments : un ordinateur portable contient 42 métaux différents, sur un total de 1500 composants au moins, idem les téléphones, technologie dont le chiffre de vente stagne à 1.7 milliard par an [7]. Le tableau ci-après montre l’énergie nécessaire à la récupération de 1 kg de métal à l’état vierge. 1500 joules, l’énergie nécessaire pour la production de certains métaux, équivalent à 416 kwh, ce qui représente approximativement l’énergie dépensée par une voiture ordinaire sur 25 km. Mais certains métaux exigent bien plus pour être congloméres :
 
Energie nécessaire à la récupération d’1 kg de métal vierge : ordres de grandeur [8]
 
Palladium                          18 000 MJ           5000 Kw/h         300 km de route
Platine                               19 000 MJ           5277 Kw/h         317 km de route
Or                                        31 000 MJ           8611 Kw/h         517 km de route
 
B - Dépendance et rareté : la fragilité de l’infrastructure numérique
 
Quelques innovations particulièrement emblématiques de la révolution de TIC ont ainsi généré une dépendance à des métaux (gallium pour les LED, Blue ray et laser, indium pour les écrans à cristaux liquides, germanium pour les transistors et les fibres optiques, tantales pour les condensateurs, etc. Il faut en effet bien garder à l’esprit que, comme pour les produits fossiles, (a) les métaux manquent de produits de remplacements adaptés à leurs divers fonctions (l’antimoine comme retardateur de flamme par exemple, ou les métaux permettant la mémoire digitale),  (b) que des pertes de performance sont associées à leurs remplacements (tantale, terres rares, niobium),  (c) et que les substituts sont contingents et limités (indium et gallium par du zinc ou cuivre, cobalt) [9]. La Commission européenne reconnait d’ailleurs la dépendance critique pour de nombreux métaux : cuivre, zinc, antimoine, tantale, cobalt, niobium, palladium, yttrium, indium, terbium, germanium, europium, ruthénium, gallium. La substituabilité des minerais apparaît donc faussement accréditée par l’abstraction d’un marché où se croiseraient forcément offre et demande.
 
Ce contexte a pour effet de minimiser les forces géopolitiques qui occupent une mainmise sur les métaux rares. Pour l’antimoine et le tungstène, la Chine assure plus de 80% de la production mondiale, 65% pour le germanium, elle exporte aussi 95% des minerais de terres rares [10], Il faut garder à l’esprit également que certaines matières considérées pour leur potentiel de substitution aux métaux rares, comme le graphite, sont également exportés de Chine à hauteur de 75% [11]. Le tantale (coltan) est importé à bas coût de RDC à hauteur de 80%, quand le lithium, la platine ou l’étain dépendent d’une poignée de pays. Or, très souvent, ce sont ces mêmes ressources qui doivent être utilisées dans les industries des énergies renouvelables et autres technologies de haut vol. Bientôt, des choix s’imposeront pour faire face aux déficits d’importations : on peut raisonnablement prévoir qu’au moins une douzaine de métaux manqueront cruellement dans les 30 prochaines années. Le spectre de la rareté hante donc l’ensemble de l’industrie des NTIC.
 
Outre les fortes émissions de CO2  et de soufre notamment, l’industrie des métaux génère la formation de boues toxiques pouvant se propager dans les cours d’eau, les océans, et intoxiquer la biodiversité environnante par l’exposition respiratoire et la bioaccumulation des particules dans la chaine alimentaire. Les métaux ont des effets sur le code génétique en neutralisant les acides aminés utilisés pour la détoxication, ils endommagent les cellules nerveuses et causent des allergies [12]. La fabrication des ordinateurs portables recquière divers métaux aux attributs très toxiques forts (chrome, sélénium, mercure, arsenic), ou moyennes toxiques (antimoine, étain, cuivre, manganèse, cobalt), mais l’impact environnemental le plus important concerne les métaux précieux (palladium, or et argent) qui contribuent à presque 50% de l’impact global des matériaux. L’industrie des NTIC participe donc fortement de la destruction de différents écosystèmes : forestiers (sous les latitudes tropicales en Afrique de l’ouest, en Guyanne, en Nouvelle Calédonie ou en Indonésie par exemple), et maritimes, puisque c’est là que sont relâchées les boues toxiques issues des mines.

II - Fabrication digitale et composants micro-électriques

Le sujet de la fabrication numérique est un sujet très peu médiatisé, alors qu’il se révèle être un enjeu crucial de l’industrie des NTIC. Sans les suites algorithmiques de 0 et de 1 et les machines robotisées qui juxtaposent des découpes lasers, des fraiseuses digitales, et d’autres compétences utltra-techniques, la fabrication physique des NTIC serait impossible. Raison pour laquelle l’évaluation matérielle d’une technologie sur une autre devient de plus en plus ardue : s’il faut des machines digitales pour faire des ordinateurs, des machines digitales commandées par ordinateurs sont nécessaires pour mettre au point des machines de design digitales. La construction de nos composants micro-électroniques retombe sur un cercle systémique où chaque élément intègre une structure aussi large que méconnue. Chacun des composants micro-électriques est administré par une gigantesque intriquation robotique et informatique ; le logiciel d’analyse s’est donc transformé lorsque les forces mécaniques et l’énergie manuelle ont été remplacées par la fabrication digitale.
 
A - Les CNC : ogres de l’énergie
 
Pour informer de l’essentiel, retenons qu’à partir des années 2000, l’intensité énergétique des machines-outils numériques (Computer Numerical Control : CNC) à littéralement explosé. Si l’efficacité énergétique de ces machines a été légèrement améliorée à la fin du XXème siècle, la tendance s’est inversée dans les années 2000. Pour réaliser une même opération complète de découpe métallique, une fraiseuse numérique des années 2000 demande 25 fois plus d’énergie qu’une machine numérique antérieure, et 75 fois plus qu’une machine-outil manuelle [13]. Il est particulièrement remarquable que l’intensité énergétique des nouvelles CNC soit très difficile à rabaisser : les conditions thermiques nécessaires à leur démarrage sont telles qu’elles sont systématiquement laissées allumées, prêtes à l’usage. Cette situation implique que seule 15% de l’énergie consommée par ces machines sert effectivement à l’usinage des pièces, les 85% restants étant le préalable à toute utilisation [14] !
8000 milliards de transistors sont construits chaque seconde
Les machines CNC permettent la réalisation de nombreux composants phares, dont notamment :
- Des transistors, emblème de la surproduction en micro-électronique, car ces micro-interrupteurs électroniques sont indispensables aux modulations des tensions. Selon le chercheur Jean-Luc Autran, 8000 milliards de transistors sont construits chaque seconde [15], dans des salles vierges de poussière où les machines sont approvisionnées en ressources modifiées : de l’air micro-filtré, de l’eau absolument pure grâce à des alliages chimiques, et de la silicone ;
- Des puces électroniques à la pelle. Avant 2007, la fabrication d’une puce requerrait 32 litres d’eau, 1,6 litre de pétrole, et 72 grammes de produits chimiques [16]. Ces chiffres paraissent faibles tant qu’on évite les comparaisons à plus grande échelle : il faut aujourd’hui 800 kg de fioul pour produire 1 kg de micro puces, quand il ne faut que 12 kg de fioul pour produire 1 kg d’ordinateur ! [17] ;
- Des circuits imprimés miniatures. C’est ce qui explique les dimensionnements des ordinateurs portables, où la carte mère centralise les cartes afférentes (carte graphique, son, carte mémoire etc.) et concentre 90% du tantale, 64% du palladium, 57% de l’argent, et 46% de l’or utilisés dans la machine, avant les autres composants [18].
 
 
B - Aux frontières de l’électronique : les effets pervers de la dimension nano
 
La miniaturisation électronique est au-devant d’une nouvelle frontière. Après avoir dépassé la frontière de 10-9 mètres pour la mise au point des dernières vagues de composants, on sait qu’à une échelle atomique, les composants électroniques n’obéissent plus aux lois de la physique gravitationnelle mais de la physique quantique. Pour l’heure, l’industrie développe le recours aux nanomatériaux, dont les mérites sont vantés à plusieurs égards : les particules nanos ont d’immenses capacités de résistance mécanique et thermique ainsi que de conductivité électrique, parfois de 50 ou 100 fois les potentiels des métaux classiques [19].
Actuellement, les procédés à l’étude visent principalement deux avantages : favoriser des gains d’efficience, grâce aux propriétés thermiques et conductrices (notamment pour les micro-puces) ; réduire les émissions de gaz à effet de serre et les pollutions. Mais comme toujours, ces avantages doivent être recadrés dans une perspective élargie, car tous les nanomatériaux ne se valent pas. La production d’un kilogramme de nano fibres de carbone emploie jusqu’à 3,000 MJ, quand les nanotubes en consomment 15 fois plus (50 00 MJ), et la production de semi-conducteurs grimpe à 100 000 MJ [20].
Par ailleurs, le changement d’échelle nano génère des inquiétudes : les propriétés toxicologiques sont transformées par la taille des matériaux. Si les matériaux nanos sont à priori inoffensifs durant les phases d’usage – les composants sont alors isolés et confinés – leur fabrication génère des émissions diffuses extrêmement toxiques. On sait ainsi que le nano-argent émet 4 fois plus de protoxyde d’azote lorsqu’il arrive en station d’épuration, une situation qui s’explique par la taille des particules [21]. Si on reconnait déjà que de nombreux produits chimiques sont associés avec des maladies chroniques telles que les cancers, l’asthme, et les problèmes respiratoires, il manque une connaissance pathologique des effets des nano-cocktails de produits, et des conséquences non linéaires induites par des expositions à des dosages plus ou moins forts [22].
Des expériences menées sur des souris à l’université d’Edimboug ont montré que les nanotubes de carbone, qu’ils soient longs ou courts, ont les mêmes effets que les fibres d’amiante, connues pour être des déclencheurs de mesotheliome [23], un cancer funeste qui attaque le péricarde et les poumons. Chaque mise sur le marché d’un nanomatériau devrait donc intervenir après une batterie de tests, mais ce problème ne semble pas trop inquièter les industriels, qui n’allouent que 3% de leurs recherches sur les nanos à l’étude des risques [24].

III - Le défi impossible du recyclage industriel des D.E.E.E

Selon l’Ademe, un Équipement Électrique et Électronique (EEE) est un équipement conçu pour être utilisé à une tension ne dépassant pas 1500 volts en courant continu. Cette définition chapote donc une multitude d’appareils aux fonctions variées : machine à laver, télévision, perceuse, distributeur automatique, lampe, téléphone portable, etc. Cette définition a notamment pour objet de pouvoir réglementer les propagations toxiques : la directive D.E.E.E. vise ainsi à limiter l’exposition aux flux de mercure, de cadmium, de plomb, et d’autres agents pathogènes.
Si en 2013 le marché des D3E représentait 23 kg de marchandises pour chaque français, la part de déchets collectés s’élevait seulement à 6.9 kg [25], ce qui est légèrement en-deçà de la moyenne de l’Union, le reste ayant été exporté, recyclé dans des conditions non conformes, ou bien jeté à la poubelle. La collecte est donc insuffisante par rapport aux besoins de récupération, mais les possibilités même de recyclage sont limitées : seulement 40% de la masse des TIC est recyclable [26].
 
Pour les smartphones par exemple, les matériaux communs comme le fer, le cuivre ou le zinc sont en majeure partie recyclés. Mais gardons à l’esprit que les éléments qui composent la batterie (15% du poids total), peuvent être inutiles si le potentiel ionisant est épuisé (lithium principalement, cobalt, graphite, cuivre). Surtout, une quarantaine d’autres métaux sont utilisés de façon diffuse : ils ne pèsent pas plus de 0.2% du poids total. En ce qui les concerne, et en dépit de leur préciosité, ils ne sont pas recyclés à plus de 1%, s’ils sont recyclés (gallium, indium, tantale, germanium, lanthanides) [27]. Ce n’est pas surprenant, car la fabrication miniaturisée se fait par couches successives, et chaque composant aura les attributs intégrés d’un mini-méta-matériaux. Par conséquent, non seulement le recyclage se heurte à des difficultées techniques titanesques, mais une quantité d’énergie gigantesque sera nécessaire pour ne récupérer que des particules infimes. On ne sera pas surpris dès lors qu’au total, seul 0.1% des nanomatériaux de l’électronique soit recyclé [28].
 
Seulement 40% de la masse des TIC est recyclable
La demande actuelle faite au consommateur de rapporter des produits en boutique ne préfigure pas toujours le réemploi des matériaux mais assure l’amoncellement de NTIC sur des dépotoirs géants de pièces usinées remarquables de précision, mais considérées comme obsolètes. Ces déchets se retrouvent fréquemment dans des pays du Sud, notamment en Inde, en Chine, et en Afrique de l’ouest. Souvent, des plages entières sont sacrifiées pour accueillir les D3E du Nord et il n’est pas rare qu’aucune instance publique de régulation soit responsable des lieux. Or la récupération à la volée des métaux et des composants dont nous sommes consommateurs débouche très vite sur des cancers rares et funestes.
 
 
A force d’extraction, les mines n’offrent plus de bons rendements métalliques : les déchets électroniques deviennent donc plus précieux, ce sont des « gisements urbains ». Et pour cause : il se trouve 3 fois plus d’or dans une tonne de téléphones portables que dans une tonne de minerais d’or [29].
 
Quelle responsabilisation de l’usager des NTIC ?
 
En moyenne, un français consomme à l’année 8 kg de cuivre, 5 kg de zinc et 1 kg de nickel [30] ; si l’on décompte l’automobile, le reste de cette consommation passe essentiellement par les TIC et les nouveaux produits électroménagers. Or, si la consommation électrique imputée aux TIC explose, la performance énergétique des produits est au point mort : elle dépend surtout de la programmation de nouveaux algorithmes pour transmettre ou recevoir les données, ce qui rencontre tôt ou tard des limites [31]. La voie engagée de la haute technologie ne permet pas de réduire significativement l’empreinte énergétique depuis l’intégration de métaux rares comme le hafnium ou le germanium ; ceux-ci vont améliorer la performance énergétique à l’usage, mais impliqueront en amont une forte dépense d’énergie.
 
Par conséquent, la marge de l’utilisateur se situe surtout dans ses modalités d’accès à Internet : un téléphone connecté en 3G peut consommer davantage que le GSM pour échanger 1Gb [32]. Évidemment, les utilisateurs peuvent limiter leurs émissions de GES associées à leurs produits, en restreignant les applications ouvertes, en évitant d’utiliser internet, ou les vidéos en ligne par exemple, question que nous abordons dans un autre article. Du point de vue de l’énergie d’usage des technologies, des efforts peuvent être consentis : nous ne sommes pas obligés de consommer autant d’énergie avec son smartphone qu’avec son réfrigérateur (plus de 360 kWh/an) [33] !
 
Pour autant, la majorité des éco-gestes restent vains et sans effet. Ainsi, David MacKay dénonce le cache-misère des éco-gestes : si tout le monde en fait un petit peu, nous n’accomplirons qu’un petit peu. Il remarque notamment l’inefficacité complète des consignes consistant à débrancher les chargeurs [34] : Toute l’énergie économisée en débranchant votre chargeur pendant un jour est consommée en une seconde de conduite. L’énergie économisée en débranchant le chargeur pendant un an est égale à l’énergie d’un seul bain chaud.
 
Durant tout ce temps où les concitoyens du Nord s’évertuent à placer des fumigènes devant leur vue, ils consomment des montagnes calorifères. A l’heure de la mondialisation du XXIème siècle, on ne devrait pas être surpris d’apprendre que nous importons notre énergie comme nous exportons nos pollutions. Ainsi, un citoyen britannique consomme au moins 40 kilowatt/heure par jour directement importé d’Asie, si l’on tient compte de la fabrication des objets manufacturés : machines-outils, électroménager, électronique, automobiles, acier etc.
Durant tout ce temps aussi, les multinationales trompent les consommateurs en rendant leurs produits obsolètes, en contournant les règlementations, pour relancer la machine extractive toujours davantage polluante. Ainsi, une fois l’achat d’un matériel effectué, il ne reste guère de marge pour diminuer l’empreinte globale du produit : nous espérons en avoir apporté la preuve.
 
Hadrien Kreiss, chroniqueur invité - watch-out-project
 
Notes & références
 [1] Poids de la tour Eiffel : 10 100 tonnes (wikipédia) x 153 = 1 545 300 tonnes. Divisé par 66 millions de français : environ 23 kg de DEEE par personne et par an en France et dans les Doms. Source : Équipements électriques, et électroniques, Rapport Annuel sur les données 2013, Registre DEEE, 2014, p.65 A télécharger à partir de : http://www.presse.ademe.fr/2014/11/quid-de-nos-dechets-dequipement-electrique-et-electronique-en-2013.html
[2] La fracture numérique se produit également au sein des pays du Nord. En 2009, seuls 48 % des foyers français disposant de moins de 1000 € par mois avaient un ordinateur, contre 84 % de ceux disposant de 2300 à 3100€/mois, selon G. Trouvé dans son intervention à la Ubuntu Party le 29/11/2015 à la Cité des sciences, sur le thème : L’angle mort écologique du numérique, à consulter sur : http://media.ubuntu-paris.org/videos/15.10/angle-mort-ecologie-numerique.webm
[3] L’infrastructure d’internet utilisait déjà 7% de l’énergie mondiale en 2002, les TIC dans leur ensemble consommeraient aujourd’hui 12 à 15% de la production électrique globale, voir : Boenisch G., Flipo F., Deltour F., Dobré M., Michot M., Peut-on croire aux TIC vertes ? Technologies numériques et crise environnementale, Questions de communication, N° 23, 2013, §.3 ; URL : http://questionsdecommunication.revues.org/8607
[4] D’après Consoglobe, Internet consomme davantage d’électricité que l’Allemagne, 6ème consommateur derrière l’Inde : http://www.planetoscope.com/Source-d-energie/224-consommation-electrique-due-a-l-informatique-dans-le-monde-en-kwh.html
[5] Voir les informations sur :  http://ecoinfo.cnrs.fr/article323.html?lang=fr
[7] Bihouix P., De Guillebon B., Quel futur pour les métaux ? Raréfaction des métaux, un nouveau défi pour la société, EDP Sciences, 2010, p.46. Pour les téléphones, les chiffres de vente seraient stables depuis 3 ans. Voir : http://www.planetoscope.com/electronique/156-ventes-mondiales-de-telephones-portables.html
[8] Voir l’article L’énergie des métaux sur : http://ecoinfo.cnrs.fr/article329.html
[9] European Commission, Working Group on defining critical raw materials, Critical raw materials for the EU, Report of the Ad-hoc working group, 2010, p.36 et s. ; URL : http://www.euromines.org/files/what-we-do/sustainable-development-issues/2010-report-critical-raw-materials-eu.pdf
[10] Commissariat général à la stratégie et à la prospective, Barreau B., Hossie G., Lutfalla S., Approvisionnements en métaux critiques, Un enjeu pour la compétitivité des industries française et européenne, 2013, p.22 [extrait du graphique] ; URL : http://www.strategie.gouv.fr/blog/2013/07/approvisionnements-en-metaux-critiques-dt/
[11] European Commission, Working Group on defining critical raw materials, Critical raw materials for the EU, 2010, op. cit., p.79
[12] Bihouix P., De Guillebon B., Quel futur pour les métaux ?, 2010, op. cit., p.46.
 [13] Voir les analyses de Kris de Deacker :  http://www.lowtechmagazine.com/2014/03/how-sustainable-is-digital-fabrication.html ; Les sources fournies sur son site :  An Environmental Analysis of Machining (PDF), Jeffrey B. Dahmus and Timothy G. Gutowski, Proceedings of 2004 ASME International Mechanical Engineering Congress, 2004 et  A Power Assessment of Machining Tools (PDF), David N Kordonowy, May 2002 ; voir aussi : http://www.nature.com/nature/journal/v444/n7117/full/444267a.html ;
http://www.eurekalert.org/pub_releases/2008-05/poen-cnt051908.php
[15] Voir la présentation pdf et la vidéo de Jean Luc Autran, chercheur au CNRS, pour les 10 ans d’EcoInfo : « Vers une informatique éco-responsable ? » (23 avril 2015) : http://ecoinfo.cnrs.fr/IMG/pdf/presentation_eco_info_jla_2-img800q90.pdf, p.13  ; https://webcast.in2p3.fr/videos-fabrication_eco_responsable
[16] Gras A., Le choix du feu, Aux origines de la crise climatique, 2007, fayard, p.46
[18] Informations tirées du tableau : http://ecoinfo.cnrs.fr/article323.html?lang=fr
[19] Information échangée au Forum Nanoresponsabilités, le 25/11/2015 à Paris ; voir le compte-rendu : http://www.nanoresp.fr/wp-content/uploads/2015/12/CR-Forum-Nano%C3%A9nergie_FIN.pdf
[21] Information échangée au Forum Nanoresponsabilités, le 25/11/2015 à Paris ; voir le compte-rendu : http://www.nanoresp.fr/wp-content/uploads/2015/12/CR-Forum-Nano%C3%A9nergie_FIN.pdf
[22] Idem.
[23] L’article sur Low tech magazine et des liens sur les recherches scientifiques : http://www.lowtechmagazine.com/2008/05/nanotechnolog-1.htmlhttp://www.scientificamerican.com/article/carbon-nanotube-danger/
[24] Information échangée au Forum Nanoresponsabilités, le 25/11/2015 à Paris ; voir le compte-rendu : http://www.nanoresp.fr/wp-content/uploads/2015/12/CR-Forum-Nano%C3%A9nergie_FIN.pdf
[25] ADEME, Rapport annuel sur la mise en œuvre de la réglementation relative aux Déchets d’Équipements Électriques et Électroniques (DEEE), 2013, op. cit. p.39
[26] G. Trouvé, intervention à la Ubuntu Party le 29/11/2015 à la Cité des sciences, sur le thème : L’angle mort écologique du numérique, à consulter sur : http://media.ubuntu-paris.org/videos/15.10/angle-mort-ecologie-numerique.webm
[27] Voir les informations sur l’article d’Eric Drezer sur : http://ecoinfo.cnrs.fr/article328.html
[28] Information échangée au Forum Nanoresponsabilités, le 25/11/2015 à Paris ; voir le compte-rendu : http://www.nanoresp.fr/wp-content/uploads/2015/12/CR-Forum-Nano%C3%A9nergie_FIN.pdf
[29] La quantité de minerais d’or dans 1 tonne de téléphones portables est estimée à 15 grammes, d’après G. Trouvé dans son intervention à la Ubuntu Party le 29/11/2015 à la Cité des sciences, sur le thème : L’angle mort écologique du numérique, à consulter sur : http://media.ubuntu-paris.org/videos/15.10/angle-mort-ecologie-numerique.webm ; selon Bihouix, 5 grammes récupérés dans 1 tonne de minerais d’or d’après l’entretien réalisé par Basta! mag avec Philippe Bihouix : http://www.bastamag.net/Quand-le-monde-manquera-de-metaux
[30] Bihouix P., De Guillebon B., Quel futur pour les métaux ? […], 2010, op. cit., p.23, ou à consulter sur la page 6 du document : http://www.la-bibliotheque-resistante.org/mes_textes/quel_futur_pour_les_metaux_chap_intro.pdf
[32] Voir la source citée Par Fabrice Flipo dans L’infrastructure numérique en question, Entropia, N°3, 2007, p.2 URL : http://fabrice.flipo.free.fr/Publications/2007/Flipo%20Entropia%20L%27infrastructure%20num%E9rique%20en%20question.pdf :  « M. Faist Emmenegger, R. Frischknecht, M. Stutz, M. Guggisberg, R. Witschi & T. Otto, LCA of the mobile communication system UMTS, in SETAC, 11th LCA Case Studies Symposium – Abstracts, 2003, p.105-10 »
[34] Levraud J. P.; Le Boudec J-Y., L’énergie durable – pas seulement du vent ! David J.C. MacKay, Un synopsis en dix pages, Institut Pasteur, EPFL, 2010, p.3 ; à télécharger sur :  www.amides.fr/sewtha_synopsis_pdf.php
 

 

Loading...
Loading...