UP' Magazine L'innovation pour défi

big data

Sécuriser la nouvelle ère du Big Data

À l’heure du numérique, l’information constitue la nouvelle monnaie. Et pour obtenir cette information, les entreprises analysent leurs données – et un grand nombre - pour la connaissance qu’elles peuvent en extraire. A l’échelle du commerce en ligne et des réseaux sociaux, le volume des données est très important, compte tenu des centaines de millions de smartphones et d’équipements clients. A l’échelle des données grand public, médicales ou liées à l’univers de la recherche, ce volume peut être gigantesque, issu de capteurs et d’instruments recueillant de larges volumes de données brutes, à partir d’une source unique (à l’instar des instruments de surveillance d’un moteur d’avion lors d’un vol), ou des 26 milliards d’équipements qui constitueront à terme l’Internet des Objets.

La ruée vers l’or à laquelle nous assistons actuellement en matière de collecte et d’analyse du Big Data, alimenté de plus en plus par l’Internet des Objets, crée de nouveaux défis pour les réseaux et la sécurité des centres de données, et ceci dans trois domaines clés. 

En premier lieu, celui de l’agrégation des données

Progressivement, plutôt que de traiter les données brutes et de réduire leur volume au niveau de la source, les données brutes sont transférées et stockées de manière centralisée. Ceci permet de les analyser de différentes façons et dans la durée.
Aujourd’hui, les entreprises transfèrent des téraoctets de données tous les jours et sur des distances importantes. Cette inflation en matière de volumes implique de renforcer les capacités des cœurs de réseau et des centres de données, comme, par exemple, migrer vers des performances de 100GbE pour assurer le transfert de flux individuels de données à des débits de 10Gbps à minima.

Cette évolution met à l’épreuve les outils de sécurité en périphérie de réseau (pare-feux notamment), d’autant que nombre d’entre eux ne sont pas adaptés à des volumes aussi importants et à des sessions aussi nombreuses. A titre d’exemple, un pare-feu équipé de ports en 10 GbE ou de performances agrégées de 40 Gbps ne disposent pas forcément de ressources de traitement interne pour gérer un flux à 10 Gbps. La congestion liée au trafic d’entreprise classique sur les LAN est susceptible de saturer davantage les ressources mémoire et CPU, impliquant un ralentissement ou un décrochage des flux importants. 

Dans un second temps, le traitement constitue un défi

Les flux liés au Big Data ne sont pas symétriques : les données brutes entrantes ne ressortent pas forcément dans les mêmes formats et volumes. Les données conservées dans les espaces de stockage sont généralement analysées via des serveurs intermédiaires. Le volume de données est ensuite réduit et restitué, souvent via des serveurs Web en front-end, en tant qu’informations synthétiques et donc de faible volume, nécessaires à la visibilité. C’est suite à cette étape que les données sortent du centre de données. Ceci implique une bande passante plus importante, mais aussi davantage de trafic latéral (à savoir au sein du centre de données), comparé au trafic de type entrée-sortie. De nombreuses études estiment que le trafic latéral compte aujourd’hui jusqu’à 70% du trafic total au sein des centres de données, et que cette tendance continuera à progresser compte tenu de la multiplication des traitements analytiques du Big Data.

Le trafic latéral doit être segmenté et inspecté, pour neutraliser les mouvements latéraux liés aux menaces APT et aux attaques ciblées, mais aussi pour sécuriser les données en elles-mêmes, celles confidentielles notamment. La sécurité réseau doit évoluer d’une architecture de type périmétrique ou passerelle, vers une architecture hybride et multi-niveaux, pour prendre en charge un trafic latéral virtualisé et abstrait qui résulte de l’adoption des technologies de virtualisation serveurs et réseau, ainsi que du Cloud Computing.

Enfin, le troisième défi est celui de l’accès aux données

En matière de Big Data, les données sont archivées sur de longue période, d’où des interrogations : quelles sont les personnes autorisées à accéder à quelles données et pour quelles raisons? Souvent, les données ne sont pas stockées au même endroit mais peuvent être associées et analysées ensemble. Chaque ensemble de données contient des informations sensibles et susceptibles d’être soumises à réglementation ou à des audits internes. De plus, il existe souvent plusieurs équipes d’analystes et de chercheurs qui recherchent des informations différentes. Un acteur majeur de l’industrie pharmaceutique a ainsi montré l’exemple, mettant les recherches et résultats de ses analyses Big Data à la portée de différents profils : collaborateurs internes, sous-traitants, stagiaires ou encore invités. Pour chacun de ces profils, une sandbox d’analyse distincte a été créée, pour accorder des droits d’accès spécifiques à des ensembles de données identifiés comme pouvant être consultés et associés.

Dans ce contexte, les directions informatiques doivent revisiter les fondamentaux de la sécurité informatique, plutôt que de s’engager dans des étapes supplémentaires pour sécuriser leur centre de données. Dans de nombreux cas, l’infrastructure même de leur centre de données est actuellement en phase de consolidation, et transformée compte tenu du Big Data, du cloud computing et des initiatives SaaS. Dans le cadre de cette transformation, les directions informatiques devraient privilégier une architecture présentant les caractéristiques suivantes :
• Hautes performances – Prise en charge des volumes importants de données grâce à un renchérissement des débits sur le réseau et des ports hautes performances (40 ou 100GbE) et denses. L’évolutivité est également un impératif pour répondre à la croissance du volume des données.
• Sécurisée – Repenser la sécurité du périmètre réseau en segmentant davantage pour se protéger des mouvements latéraux des données, et assurer la surveillance des menaces sophistiquées ou émanant de l’intérieur.
• Consolidée – intégration de différentes fonctionnalités de sécurité, des fonctions classiques (pare-feu, VPC, antivirus et prévention des intrusions) aux fonctions évoluées de protection évoluée contre les menaces (Advanced Threat Protection), une authentification forte et le contrôle d’accès.

Enfin, les entreprises sont invitées à tirer profit du Big Data pour renforcer leur sécurité. Avec d’avantage de points de contrôle et de monitoring déployés sur le réseau et dans les centres de données, une plateforme SIEM (Security Information and Event Management) et des outils de gestion des logs capables d’agréger les volumes toujours plus importants de logs de sécurité et d’événements, il devient possible d’obtenir des informations décisionnelles en matière de sécurité, pour protéger le Big Data mais aussi le centre de données dans sa globalité.

Christophe AubergerDirecteur Technique France Fortinet

Écoutez vos produits : tout ce que vos clients ignorent peut vous aider

Quel que soit votre secteur d'activité, il est courant d'entendre que le client a toujours raison. Pourtant, dans l'univers de l'Internet des objets (IoT), ce vieil adage doit être nuancé. Alors que les objets sont toujours plus intelligents et toujours plus connectés, il est important de savoir écouter non seulement les clients, mais également les produits.

Aujourd'hui, l'industrie manufacturière atténue la frontière entre produits et services et ce, afin de mieux appréhender l'expérience utilisateur. En utilisant les données des produits et en exploitant les éléments de mesure en temps réel, les entreprises créent de nouvelles opportunités commerciales qui changent le mode d'interaction entre consommateurs et produits.

Ce phénomène induit une indéniable opportunité de chiffre d'affaires. Si une récente étude McKinsey nous apprend que, d'ici 2025, l'Internet des objets - l'IoT (Internet of Things) - affiche un nouveau potentiel économique mondial annuel s'élevant à 6 200 milliards de dollars, nous en sommes encore à nous demander ce que cela signifie dans les faits. Pour commencer, il s'agit d'une nouvelle manière plus concrète d'ajouter de la valeur.

Jusqu'à présent, les industriels s'appuyaient sur le retour d'information de leurs clients pour pérenniser et faire évoluer leurs gammes de produits. Aujourd'hui, les données analytiques que génèrent ces produits remédient aux problèmes avant même qu'ils ne se produisent, induisant parallèlement de nouvelles opportunités en termes de conception de produits et de service. C'est la « voix des données » qui permet cette approche : les industriels sont désormais en mesure de collecter et d'interpréter les « données produit » et de les réinjecter dans le cycle de conception. Cette nouvelle approche permet ainsi de générer de la valeur aussi bien pour l'industriel lui-même que pour ses clients finaux.

L'objectif consiste à comprendre l'usage fait du produit. L'industriel peut alors identifier et corriger les problèmes plus rapidement que s'il attendait d'en être averti par sa clientèle.

Grâce aux éléments d'analyse tirés des données de la technologie IoT, les produits sont efficacement personnalisés par l'utilisateur ou le concepteur, avant - voire après - leur commercialisation. Ainsi, la Ford Modèle T était tristement connue pour être disponible dans n'importe quel coloris à condition que ce soit du noir. Un siècle plus tard, la Tesla Modèle S d'Elon Musk pouvait s'abstenir d'un éventuel rappel produit lié à son système de suspension : le constructeur était en mesure de corriger le problème par le biais d'une simple mise à jour logicielle.

Mais si le futur s'annonce radieux, les entreprises ne s'interrogent pas moins aujourd'hui sur la manière d'exploiter ces données.

Extraire les données de tous ces appareils connectés à Internet est une chose, mais lorsqu'il s'agit de déterminer un mode d'utilisation et de partage, il faut tenir compte des restrictions associées aux réglementations et aux politiques. Cet aspect contraint les entreprises à gérer diverses réglementations liées aux données et à la confidentialité auxquelles elles n'avaient jamais été confrontées jusqu'alors. Prenons par exemple le domaine de la santé : stimulateurs cardiaques, moniteurs cardiaques, voire prothèses, sont autant de dispositifs connectés à Internet. Les données extraites de ces « machines » permettent aux professionnels de surveiller la santé et l'activité d'un patient pour analyser ses progrès et déterminer les phases de traitement ultérieures les mieux adaptées. Toutefois, si un tel appareil permet de traiter un patient donné, un praticien pourra souhaiter en partager les données avec ses homologues afin d'illustrer une expérience réussie et de contribuer à la recherche et à l'innovation dans le domaine concerné. Mais les réglementations médicales telles que l'HIPPA (Health Insurance Portability and Accountability Act) - loi sur la transférabilité et la responsabilité de l´assurance maladie aux USA- les empêchent de diffuser ces informations.

En interne, les données aident l'entreprise à prendre, en toute connaissance de cause, des décisions sur la manière d'améliorer l'activité et d'en dégager davantage de valeur pour ses clients. L'entreprise est en mesure d'extraire de ces données de réels éclaircissements pour améliorer les processus et pour déterminer l'incidence d'une modification de ses performances en termes de coût.

Il y a quelques années de cela, All Traffic Solutions, un fabricant Web de panneaux de signalisation routière destinés à aider la police à comprendre et gérer la circulation, a modifié sa gamme de sorte à connecter tous ses produits à Internet. L'entreprise a alors lancé SmartApps, un jeu d'applications mobiles qui facilite la gestion à distance de programmes de circulation. SmartApps permet aux clients de prendre leurs décisions en fonction des données extraites des dispositifs, ce qui induit un meilleur usage des ressources et des correctifs plus efficaces.

Les approches traditionnelles des données en silos ne sont plus pertinentes dans l'univers de l'Internet des objets. Les données sont omniprésentes. Le produit est devenu un objet commun ; ce sont désormais les données qui induisent un meilleur service et une différenciation accrue vis-à-vis de la concurrence. Plutôt que d'être regroupées dans une boîte noire, les informations doivent être collectées, transférées, nettoyées, traitées et enregistrées, afin que les fabricants puissent en tirer la quintessence ; une différenciation concurrentielle qui leur donnera une longueur d'avance pour faire face aux demandes toujours croissantes de leurs clients.

Peut-être est-ce simplement parce que... « Les données ont toujours raison. »

Sylvine Datry, Technical and Business Transformation Director at PTC

La biométrie peut-elle vraiment remplacer les mots de passe ?

Les hackers du Chaos Computer Club viennent de réussir la semaine dernière à reproduire l’empreinte digitale du ministre allemand de la défense à partir de photos publiques en haute définition. Sachant qu’ils avaient précédemment montré qu’ils savent utiliser ces empreintes reconstituées sur les capteurs des téléphones portables grand public... Prenons un peu de recul et analysons ce que cela veut dire pour l’avenir de l’authentification en ligne.

Il y a traditionnellement trois types de facteurs qui permettent d’authentifier un individu : ce qu’il sait (mot de passe, code pin, question secrète…, ce qu’il possède (jetons, cartes…), ce qu’il est (signature de l’iris, empreinte digitale…).
Les systèmes informatiques très sensibles des gouvernements ou des grandes entreprises utilisent souvent des processus d’authentification forte, multi facteurs, qui requièrent la mise en œuvre de deux ou trois facteurs parmi les trois types citées ci-dessus. Les sites Internet grand public quant à eux utilisent des systèmes d’authentification simples, basés sur un identifiant et un mot de passe connu uniquement de l’utilisateur. Pour des raisons pratiques, les consommateurs ne sont pas prêts à utiliser des systèmes multi facteurs sur les dizaines de sites web qu’ils utilisent régulièrement.

Quels sont les avantages et les désavantages de la biométrie pour l’authentification en ligne des consommateurs ?

Le point fort de la biométrie c’est qu’elle résout à la fois le problème de l’identification (déterminer l’identité d’un individu) et de l’authentification (confirmer son droit à accéder à un contenu ou un service). Sur le papier c’est un bon outil pour prévenir l’usurpation d’identité et de nombreuses fraudes. On peut me voler ma carte de crédit ou mes mots de passe mais on ne peut pas me voler mon empreinte digitale… C’est ce qu’on pensait jusqu’à maintenant. La reconstitution d’empreinte réalisée par les hackers la semaine dernière bouleverse cette croyance.

Désormais on sait que l’authentification biométrique peut être piratée comme toute autre forme d’authentification. Et apparait alors un gros inconvénient : à la différence des mots de passe, les données biométriques ne peuvent pas être modifiées en cas de piratage, si on vous vole vos empreintes digitales, vous ne pouvez pas les remplacer par de nouvelles. Et si tous vos comptes sont protégés par la même information biométrique, ils risquent devenir tous vulnérables en même temps. Il y a d’autres limites à l’utilisation de données biométriques : elles ne peuvent être partagées et elles ne peuvent pas être rendues anonymes. Le partage et l’utilisation anonyme d’identifiants sont cependant de plus en plus répandus sur le web…

La biométrie est pertinente pour ajouter un facteur d’authentification supplémentaire dans le cadre de l’authentification multi facteurs mais il y a peu de chances qu’elle succède au mot de passe comme standard pour l’ensemble des sites, contrairement à ce que l’on veut nous faire croire.

Utilisés correctement (un mot de passe fort et unique pour chaque site web), les mots de passe ont de réels avantages :
• Un mot de passe peut être volé mais si vous utilisez un mot de passe unique pour chaque site, l’intégrité de vos autres accès n’est pas compromise en cas de vol. C’est différent avec les données biométriques qui sont par définition les mêmes partout
• Un mot de passe peut être partagé, ce qui est nécessaire à la fois en famille et au travail. Les comptes Netflix à la maison ou les comptes Twitter d’entreprise sont par exemple généralement accessibles via un seul compte dont les identifiants sont partagés.
• Le mot de passe préserve l’anonymat qui est très important pour les internautes. Que serait Twitter sans la possibilité de créer des comptes anonymes ?

Compte-tenu de notre utilisation croissante d’Internet, nos cerveaux ne peuvent plus accomplir seuls toutes les tâches nécessaires pour bien gérer ses mots de passe : génération aléatoire, stockage sous forme cryptée, mémorisation, changement des mots de passe. Nous avons trop de comptes et trop d’appareils pour cela. C’est pourquoi de plus en plus d’utilisateurs d’Internet se reposent sur un gestionnaire de mot de passe pour s’assurer de respecter les règles de bases du bon usage des mots de passe.

Certains voient les mots de passe comme un système temporaire qui sera remplacé très rapidement par un système d’authentification ultra sophistiqué. Cela sera peut-être vrai un jour mais en attendant, le mot de passe reste le standard, et un standard ne se remplace pas si facilement. Pour preuve, nous utilisons toujours le clavier au format azerty, non pas parce que l’ordre de ces lettres est nécessaire aujourd’hui (c’était le cas uniquement sur les machines à écrire avec ruban), mais parce que c’est devenu un standard, et qu’aucune innovation n’a réussi à le supplanter, en termes de facilité d’usage comme en termes de déploiement. Nous ferions mieux de veiller à bien utiliser nos mots de passe plutôt que de croire à une hypothétique solution miracle !

Emmanuel Schalit, CEO de Dashlane 

Le logiciel : un peu plus que du code

Je me suis récemment laissé surprendre par une publicité pour un shampoing présentant une nouvelle fois les bienfaits d’une molécule au nom savant. A priori rien d’anormal et comme je suis quasiment chauve, comment cela a-t-il pu retenir mon attention ?
Les publicitaires ont eu l’idée pour se démarquer d’ajouter le petit « plus » pour rendre le produit « remarquable » : un coach personnel.

Ce coach aurait-il pour mission d’anticiper toutes vos exigences ? Comme vous proposer la date idéale de votre prochaine coloration, du bon après-shampoing, compte tenu de votre texture de cheveux ?
Ce coach dont tout le monde rêve est en fait une application pour smartphone : désormais même les produits de consommation de masse intègrent leurs logiciels.

Est-ce à dire que le logiciel devient un élément différenciateur ?

Une application pour tous les instants de la vie

Côtoyant tout au long de l’année les acteurs de l’économie numérique (AFDEL, Syntec, Cluster Edit, Medinsoft, EFEL power…), le constat est sans appel: « Le logiciel dévore le monde » pour citer Nicolas Colin.

Tout acte de notre vie trouve désormais son support au travers d’une application, que ce soit pour réserver un hôtel (Lastroom, Hotels), s’assurer que le restaurant choisi soit digne d’intérêt (TripAdvisor) ou prendre un « taxi » qui accepte la carte bleue sans discuter (Uber).

Lorsque j’évoque cette « révolution numérique » à mon entourage, les confiants (dont je fais partie) considèrent que si les marques connaissent mieux nos goûts et nos habitudes, nous en profiterons nécessairement au final en consommant mieux et en étant mieux informés.

A l’inverse, les méfiants eux, ne veulent pas d’intrusion dans leur cercle privé et pensent que dévoiler leur intimité de consommateur est synonyme d’une perte d’autonomie et de libre arbitre : « Pourquoi laisser les autres m’influencer alors que je veux rester maitre de mes choix ? »

Jeff Jarvis fait le constat suivant : « dans les discours officiels, les entreprises possèdent leurs clients, contrôlent leur distribution, signent des contrats exclusifs, barrent la route à leurs concurrents (…) Internet remet tout à plat et fait sauter les barrières d’entrée. Internet méprise le secret et récompense l’ouverture, il préfère la collaboration à la propriété.»

Le logiciel catalyseur d’une intelligence collective ?

Nous ne sommes plus dans une approche ou il faut se poser la question du bien-fondé du logiciel, puisqu’il est partout et qu’il s’immisce dans les moindres détails de nos vies et nous invite à nous rapprocher au-delà de nos cercles habituels. Potentiellement une personne isolée dotée d’un smartphone est un maillon d’une redoutable intelligence collective.

Alors oui, c’est omniprésent. Oui, c’est inéluctable. Le logiciel transforme notre monde.

En tant qu’éditeur nous devons garder en tête qu’outre le service rendu, nous devons inciter les utilisateurs à tisser des liens entre eux, qu’ils soient numériques ou physiques. Pour tout simplement mieux vivre dans un monde globalisé.

Les lignes de code sont générées encore à ce jour par des êtres humains pour des êtres humains…

Jean-Baptiste Sachot, Directeur du développement d'Akuiteo

La Transformation Numérique, Affluent du Fleuve Big Data

Enfants, nous récitions en cours de géographie les noms des fleuves arrosant la France : la Garonne, la Loire, le Rhin, le Rhône, la Seine. Les moins cancres d’entre nous se souviennent peut-être aussi de leurs affluents, comme par exemple ceux du Rhône : la Saône, l'Isère, la Durance et l'Ain. Nous apprenions également comment ces cours d’eau étaient, depuis toujours, source de prospérité pour les régions et villes qu’ils traversaient, pour les bassins agricoles qu’ils arrosaient ; comment ils pouvaient aussi être, avant les grands travaux hydrauliques du XIXème siècle, une force dévastatrice impossible à contrôler.

Quelques décennies plus tard, dans une ère devenue numérique, la source de prospérité d’une région ne se définit plus par sa capacité de transport fluvial ou d’irrigation, mais par sa capacité d’exploitation des richesses et des ressources virtuelles de l’entreprise et de la société. Ces ressources, ce sont les données, et plus particulièrement les Big Data. Telle l’eau, les Big Data sont une ressource quasi inépuisable, une source de prospérité pour ceux qui les exploitent correctement, mais aussi une cause de dégâts considérables si elles ne sont pas maîtrisées ou utilisées de façon déraisonnée.

Le fleuve des Big Data trouve habituellement sa source dans le système d’information de l’entreprise. Avant d’être « Big », on trouve en effet un ou plusieurs ruisseaux de « Small Data » qui s’alimentent dans les systèmes informatiques traditionnels : données clients, évolution des stocks, chiffres de ventes, etc. Au long de leur course, ces cours d’eau vont s’enfler de nombreux affluents qui les rendront « Big ». Ces affluents peuvent être des données provenant de l’Open Data, telles des données démographiques ou météorologiques, des données provenant de partenaires ou de fournisseurs, ou encore de nouveaux types de données : les données engendrées par la transformation numérique.

La transformation numérique de l’entreprise et de la société redéfinit en effet la façon dont une organisation génère et gère ses données. Cette transformation numérique est parfois provoquée en amont par une réelle volonté (même si celle-ci se fait en réponse à la concurrence) de transformer la relation avec ses clients, d’optimiser ses coûts, d’augmenter la rétention ou le chiffre d’affaires. Mais elle est aussi souvent provoquée par une réaction à un phénomène insidieux et omniprésent de disruption qui, tel des infiltrations d’eau, se généralise dans l’entreprise ou dans l’organisation à son insu. Quel est le point commun entre le partage (légal) de fichiers, les cryptodevises, et l’impression 3D ? Ce sont tous des phénomènes de disruption et de contournement des processus établis, qui forcent une organisation à accélérer, ou à initier, une transformation numérique.

Quelle que soit sa cause ou la forme qu’elle prend, cette transformation numérique est productrice d’un volume considérable de données. Une amélioration de la relation client passe par une analyse poussée du comportement du client, en ligne comme dans les magasins, et donc par le recoupement de données de navigation internet, de données de géolocalisation, de données de réseaux sociaux, à la recherche d’une modélisation individualisée du profil client. La mise en place d’une nouvelle offre de services basée sur des objets connectés nécessite la récupération des données des capteurs, leur stockage, leur analyse. Une optimisation de chaine de production demande la mise en place et la collecte de mesures rigoureuses, l’analyse des historiques de commandes et des défaillances passées, et une prédiction de capacité. La liste est longue, ces cas de figure ne représentant que quelques exemples.

Ce sont donc des nouveaux flux de données qui sont produits par cette transformation numérique. Il est certes possible pour une organisation de les ignorer, de les traiter comme des sous-produits, des « rejets » du processus – tels les gaz d’échappement d’un moteur ou les déchets d’une usine. Mais l’organisation dérivera bien plus de valeur de ces données si elle leur fait rejoindre le fleuve des Big Data qui coule déjà non loin de là. C’est donc en construisant une infrastructure optimisée pour concentrer et canaliser ces nouvelles données que l’organisation tirera pleinement parti de la transformation numérique.

Sans le nouvel affluent que représente la transformation numérique, le fleuve des Big Data risque de vite se tarir, appauvrissant le bassin qu’il arrose et créant un désert numérique. A contrario, si la transformation numérique est gérée de façon optimale, elle représente un potentiel inouï de renouveau économique pour le tissu industriel et sociétal qu’elle alimente !

Yves de Montcheuil, VP Marketing de Talend

 

A propos de Talend

Les solutions d’intégration de Talend aident les entreprises à tirer le meilleur parti de leurs données. A travers le support natif des plates-formes modernes de Big Data, Talend réduit la complexité de l’intégration, tout en permettant aux départements informatiques de répondre plus rapidement aux besoins métiers, le tout pour un coût prévisible. Reposant sur des technologies open source, les solutions hautement évolutives de Talend répondent à tous les besoins d’intégration, actuels et émergents.

Plus de 4000 entreprises du globe s’appuient sur les solutions et services de Talend. Basée à Suresnes (France) et à Los Altos (Californie), la société est implantée en Amérique du Nord, en Europe et en Asie, et s’appuie sur un réseau mondial de partenaires. Pour plus d’informations : www.talend.com sur le Web et @Talend sur Twitter.

Loading...
Loading...