Ep. 02 | Data Marketing : Enjeux et décryptage
- Kiss The Bride
- 14 septembre 2017
- 1.8k vues
- Environ 3 minutes de lecture
Dans le premier épisode de ce Data Marketing décryptage, nous vous avions proposé une mise en perspective de l’impact de la data sur les pratiques marketing et au-delà sur nos environnements de travail et notre quotidien. Pas encore convaincu ? Une voiture autonome pourrait générer 7 000 Milliards de données quotidiennement ! Voilà un exemple concret des transformations impressionnantes qui irriguent un monde de plus en plus technologique, digitalisé, et parfois, il est vrai, difficile à comprendre.
Données structurées et données non structurées
Au sein de l’épisode 1, nous avons précisé le concept de Big Data. 100 millions de lignes constituent un volume de données usuellement considéré comme la frontière entre un système « base de données » et un environnement Big Data. L’architecture de cet environnement est également caractéristique. Il est organisé pour prendre en charge des données structurées et des données non structurées. Ces dernières représentent 75 à 80% des données disponibles ! Internet en produit en effet des volumes colossaux chaque jour. Images postées sur les réseaux sociaux, avis clients, vidéos sur YouTube ne sont que quelques exemples d’informations à forte valeur ajoutée mais qui ne peuvent se « ranger » comme l’on range des variables simples à l’image de celles qui composent le champ des données socio-démographiques ou transactionnelles (voir épisode 1).
Nouvelles approches et nouveaux outils nécessaires
L’intégration de ces données autant que leur exploitation constitue un véritable défi. Il remet en cause les process, les outils et les savoir-faire qui constituaient jusqu’il y a peu, le cadre standard des responsables du traitement de la donnée en entreprise, architectes, gestionnaires de bases de données et statisticiens. Mais la combinaison des données structurées et non structurées est une logique devenue nécessaire pour capter toute la richesse de contenus et d’interactions qui alimentent un marketing nouvelle génération. Celui-ci est fait de nouvelles stratégies de contacts et de conversations, de nouvelles logiques de planification des parcours média et d’une gestion renouvelée des parcours d’achat. Contextualisation, pertinence, personnalisation, individualisation sont au cœur de ces transformations que la data irrigue et fertilise en permanence.
Les GAFA ont parfaitement compris et intégré cette nouvelle donne. Eric Schmidt, PDG de Google entre 2001 et 2011 indiquait en 2010 : « Il y a 5 exaoctets d’informations qui ont été créées du début de la civilisation jusqu’en 2003. Il y en a maintenant autant tous les 2 jours ». 7 ans plus tard, le même volume de données est créé en quelques minutes. Vous imaginez donc à quel point les capacités de stockage et en même temps de traitement de données ont dû progresser… Et ceci à vitesse accélérée !
Des bases solides encore largement usitées.
Pour être capable de prendre en charge le déferlement croissant de données, il a fallu revoir en profondeur des principes posés de longue date. Longtemps en effet, les données furent intégrées au sein de bases de données relationnelles, organisées en tables d’enregistrement selon des schémas fixes et rigoureux. Des identifiants pivots permettaient de faire le lien entre les tables (tables de profils, de produits, de transactions…). Le standard SQL, « Structured Query Language » (en français « langage de requête structuré ») est caractéristique de ces bases de données qui organisent encore une majorité de données dans les entreprises ; notamment les données orientées client provenant de solutions CRM (Customer Relationship Management à l’image des solutions développées par la société SalesForce) ou de systèmes de facturation. L’approche est en effet largement rôdée, maîtrisée et convient encore parfaitement à l’exploitation de données structurées nécessitant des calculs de faible complexité et une rapidité de traitement dont l’exigence reste limitée.
Les évolutions technologiques ont ouvert un nouveau champ de possibles.
L’augmentation exponentielle des volumes de données, leur variété croissante et de nouvelles exigences d’exploitation ont nécessité la remise en cause du standard SQL et ce sont les nouveaux mastodontes du web, Google en premier, qui ont recherché des modèles permettant de « casser » la rigidité des bases SQL.
Un nouveau standard plus souple est ainsi né : NoSQL – Not Only SQL offrant la possibilité de s’affranchir des contraintes originelles des bases SQL. Ces bases sont également associées à des plateformes de type Datalake au sein desquelles la donnée va pouvoir être stockée sans avoir réfléchi à sa structuration en amont. Sont ainsi facilitées les intégrations de données plus diverses, non structurées (données issues des réseaux sociaux, données contextuelles par exemple) et leur exploitation dans un espace-temps compatible avec les enjeux de traitement temps réel qu’exigent nombre de processus du digital, de la publicité programmatique à l’ultra-personnalisation d’activations cross-canal.
Les ingrédients de l’architecture Big Data
La mise en œuvre de ce nouveau standard a été associée au déploiement de nouveaux systèmes de gestion de base de données non relationnelles. Le standard NoSQL n’est donc pas la seule composante d’une architecture de type Big Data. Là où l’augmentation du volume de données impliquait hier l’achat de machines plus puissantes, le changement d’échelle a nécessité une nouvelle façon d’appréhender le défi de la volumétrie et de la complexité. La solution a donc été « d’éclater » les données sur plusieurs machines tout en synchronisant les machines entre elles, fondant ainsi les concepts de clusters (réseau de machines) et de calcul distribué (le morcellement des traitements). Le framework Hadoop dont on entend souvent parler lorsqu’est évoqué le concept de Big Data, est un exemple d’écosystème destiné à faciliter la création d’applications distribuées. Associé à HBase, un système de gestion de base de données non relationnelles distribuées, il permet de gérer des énormes quantités d’informations.
Si ce type d’architecture favorise la rapidité des traitements de données et la scalabilité, c’est à dire l’évolutivité de l’architecture en fonction de l’accroissement des volumes à traiter, elle ne met pas au rebut les systèmes SQL. Les deux types de bases, SQL et NoSQL, cohabitent généralement parfaitement pour combiner par exemple la robustesse d’une approche SQL pour des données sensibles et la souplesse du standard NoSQL pour prendre en charge des données fortement évolutives dans le temps.
Vocabulaire commun, collaboration améliorée
Il ne s’agit évidemment pas ici de transformer des professionnels du marketing (ou d’autres environnements métier d’ailleurs), en experts des systèmes d’information et de traitement de la donnée. Mais la transformation digitale commande aussi de ne plus opposer les expertises et bien au contraire de leur permettre de collaborer. Comprendre les nouveaux environnements, les nouvelles solutions, permet en même temps de mieux appréhender le champ des possibles à partir d’un dialogue amélioré entre les différents métiers. Il est en même temps plus facile d’appréhender ensuite les impacts de ces évolutions sur les opportunités qu’offre un marketing orienté Big Data. Ce sera l’objet du prochain épisode de cette série Data Marketing Décryptage.
>> Retrouvez le premier et le troisième volet de cette série.
1 commentaire
Une réponse à “Ep. 02 | Data Marketing : Enjeux et décryptage”
[…] Épisode n°2 […]