Par Clément Mary, Directeur des Opérations de la Practice Critical Data de Claranet.
Comment évolue le marché du Big Data selon vous ?
Les enjeux métiers autour de la donnée sont au cœur des stratégies digitales des entreprises. On assiste à une véritable démocratisation du « Big Data », mais les problématiques techniques (disponibilité, performance, et évolutivité des plateformes), combinées aux contraintes réglementaires et aux exigences de sécurité, restent cruciales pour la bonne réussite de ces projets.
En conséquence, beaucoup de projets Big Data ont d’abord été montés « on-premise » par nos clients. Aujourd’hui ces derniers font face à des difficultés budgétaires, techniques et d’industrialisation. C’est pourquoi la plupart d’entre eux souhaitent les externaliser dans le cloud. De ce fait, on assiste à une véritable cloudification des plateformes Big Data.
Avez-vous des solutions spécifiques pour répondre à cette cloudification ?
Chaque projet Big Data possède des contraintes qu’il faut prendre en compte. Le choix du cloud provider est dépendant de ces contraintes.
Migrer ses données dans le cloud, même si elles peuvent être anonymisées, représente notamment des enjeux de sécurité et de conformité.
Notre Practice Critical Data est experte dans les sujets de sécurité des données, que ce soient des données bancaires, personnelles ou données de santé par exemple. Notre mission est donc de mettre à profit notre expertise sur les aspects sécurité et cloud public, afin de garantir à nos clients des niveaux élevés de qualité de service, d’industrialisation, et de respect des engagements contractuels de leur plateforme.
Dans ce but, Claranet s’est associé avec Cloudera, éditeur de Plateforme Big Data Open Source, pour lancer un service évolutif, sécurisé et managé dans le cloud, basé sur la solution Cloudera Entreprise. Nous assurons le déploiement automatisé des plateformes dans le cloud, et surtout leur maintien en conditions opérationnelles.
Comment répondez-vous aux exigences réglementaires et sécuritaires ?
En fonction de la typologie des données hébergées sur les plateformes, nous mettons en place les niveaux de sécurité adéquats : données de santé, données personnelles, données bancaires. Les agréments et certifications (PCIDSS, HDS, ISO27001) dont Claranet bénéficie, facilitent la mise en place de projets aux contraintes spécifiques.
Je pense notamment aux projets Big Data du secteur des banques et assurances. Le fait que Claranet soit certifié PCI DSS, et que Cloudera soit la première solution ayant permis la certification PCI DSS d’une plateforme Big Data, nous permet d’amener des garanties sur notre capacité à héberger et infogérer des données bancaires. C’est une vraie valeur ajoutée pour ces acteurs.
Les projets Big Data demandent-ils des compétences particulières ?
Il faut bien comprendre que les plateformes Big Data sont des plateformes de production, avec des données sensibles. Il est indispensable de s’assurer de leur maintien en conditions opérationnelles avec une supervision fine - technique et métier-, de la gouvernance, un suivi des SLAs et du reporting.
Mais surtout, il faut des experts qui vont accompagner les datascientists et datastewarts de nos clients, sur la performance de leur plateforme, de leurs requêtes, et de leurs traitements récurrents.
Les plateformes Big Data apportent des vrais leviers pour les entreprises sur leurs enjeux métiers. Elles vont leur permettre de faire des analyses prédictives, mieux connaître leurs clients ou de faire de la détection de fraude par exemple. En cas de problèmes de performance, il est indispensable de pouvoir faire le lien entre les gens qui développent et le monde des opérations.
C’est pourquoi nous avons mis en place une équipe data dédiée, composée de DataOps, et de Data Architects sur la partie NoSQL / Big Data. Ayant des connaissances sur les langages de programmation comme Spark, Scala, Pyton, ils échangent avec les développeurs pour s’assurer de la bonne performance des traitements qu’ils réalisent, et accompagnent les Data Scientists sur l’exploitation de leurs données.
Ce sont des métiers relativement récents. La plupart de ces profils ont beaucoup travaillé dans le monde de la base de données relationnelle par le passé, puis se sont orientés vers l’écosystème Big Data. Ils sont à la fois très proches du système et de la donnée, et ils font le lien entre l’aspect fonctionnel, la donnée, et les opérations. Ils apportent leur vision sur l’importance de la donnée, sur la gestion des modèles de données, et sur l’optimisation des traitements.
Les projets Big Data demandent-ils une gestion de projet spécifique ?
Un projet Big Data se décompose de façon assez classique en 3 phases : le Think, le Build et le Run.
En revanche, dans la phase de Think, le DataOps, l’équipe conformité de Claranet, et un chef de projet vont travailler ensemble au dimensionnement de la plateforme et à son architecture, y compris son architecture sécurité.
Ils vont également travailler conjointement avec l’équipe client sur les limitations d’accès à la plateforme et pour s’assurer que les contrôles d’accès soient bien respectés, mais aussi sur le modèle de données et sur l’identification des sources de données qui vont être intégrées dans cette plateforme.
Il y a donc toute une phase d’accompagnement, de dimensionnement, de préparation durant cette phase de Think, avant de commencer le Build de la plateforme.
La Practice Critical Data de Claranet est en charge de l’infogérance des plateformes data, et des plateformes nécessitant un haut niveau de conformité (hébergement de données de santé, de données bancaires et de données personnelles).