contact@kissthebride.fr +33 (0)1 55 39 09 10

158 ter rue du Temple
75003 Paris

100 allée des Frênes
69760 Limonest

395 rue du Général de Gaulle
59700 Marcq en Baroeul

Data Marketing

[Interview] Rencontre avec Vincenzo Esposito Vinzi, Professeur à l’ESSEC Business School

Le sujet de la donnée s’invite dans les business schools… A quelle réalité cela correspond ?

Les mondes de l’académie et de l’entreprise s’intéressent en effet beaucoup à la data, parce qu’au-delà de sa dimension technique, le vrai sujet actuellement est celui de l’exploitation de ces données et de leur valorisation. Nous en sommes à un stade où nous en parlons tous beaucoup, mais la pratique, elle, n’est pas très avancée. Pourtant, il y a déjà des investissements massifs sur ces données, et il faut passer maintenant à une phase où l’on va faire fructifier ces dépenses. Sans parler de révolution Big Data, parce que cela peut faire peur, disons qu’il y a de nouvelles opportunités business à explorer ! D’ailleurs, le Big Data se résume souvent aux 4V que sont le Volume, la Vitesse, la Vélocité et la Véracité mais je trouve cette définition très restrictive même quand on y ajoute la Valeur comme 5ème V. C’est comme si pour décrire une voiture, on se contentait de citer son poids, sa cylindrée, sa couleur etc. sans jamais évoquer son usage réel. Il faut s’orienter plus vers ce que l’on fait réellement des données et c’est pour cela que je parle de « données VIP », c’est-à-dire V pour les 4V classiques du Big Data, ensuite I pour Institutionnaliser les décisions prises autour ces données, et enfin P pour Pertinence.

Comment aborder ce nouveau sujet business alors ?

Il faut intégrer le fait que nous ayons changé complètement de paradigme. Auparavant lorsque l’on travaillait sur de la donnée, il fallait d’abord aller la chercher. Cela voulait dire organiser la récolte des données, sélectionner les gens que l’on allait interroger, réfléchir aux questions ainsi qu’aux variables et aux statistiques. Tout était organisé et structuré.
Aujourd’hui, les données nous tombent souvent sur la tête, on les subit presque, mais elles sont disponibles. Même sans les exploiter, leur seul stockage coûte de l’argent. Ce n’est pas seulement la quantité des données qui a changé, c’est aussi leur typologie puisqu’elles peuvent être structurées ou non-structurées. Avant, l’avantage compétitif était d’avoir des données réservées à son entreprise, or aujourd’hui, presque tout le monde a accès à des informations partagées. La question n’est plus de savoir si l’on a accès à ces données, mais comment on arrive à les valoriser ou pas. On ne peut plus avoir une approche structurée comme avant car sinon, on risque de se mettre des limites à la pensée et à l’exploration de nouveaux potentiels. Il faut aussi prendre en compte la dimension du temps réel qui fait que l’on ajuste l’analyse statistique et que l’adapte au fur et à mesure.
J’aime bien comparer ce nouveau contexte avec quelque chose de plus personnel. Je me souviens que lorsque j’étais parti faire mes études aux États-Unis à la fin des années 1980’s, je m’étais retrouvé brutalement coupé de ma famille et de mes amis en Italie. Pour les contacter, je devais faire la démarche de leur écrire, et donc de prendre le temps de structurer ma pensée, de prendre du beau papier, de faire attention aux fautes d’orthographe etc. Aujourd’hui, lorsque l’on contacte un ami, même si l’est au bout du monde, on s’envoie des SMS, on s’écrit via Facebook, tout se fait en temps réel. Nous avons changé la façon de communiquer, c’est beaucoup plus instinctif et pas toujours raisonné. Je crois que le même changement est en train d’arriver avec la data. Il faut analyser en temps réel, en acceptant parfois de se tromper lors d’une première analyse.
En résumé, nous sommes en train de vivre de profonds changements, et on ne peut pas attendre d’avoir établi de nouvelles règles et méthodes d’analyse statistique avant de se lancer. Même si on le fait de manière désordonnée, ce n’est pas grave. Mieux vaut faire même si ce n’est pas de façon optimale. A ce stade, le risque de ne pas faire est plus important que le risque de faire.

Quelles sont les clés pour prendre ce tournant de la data ?

C’est un vrai changement culturel, dans l’entreprise comme dans l’académie. Je crois qu’il faut que ce changement ne soit pas perçu seulement comme un changement technologique. C’est un changement à un niveau transversal donc il faut injecter cette vision nouvelle dans toute l’organisation.
Cela commence par l’intégration de cette culture data dès le comité de direction de l’entreprise. Il faut qu’il y ait cette ouverture sur l’importance de la donnée, depuis les aspects technologiques et techniques à sa finalité marketing et commerciale. Le fait d’aborder ce sujet au board permet de le traiter très en amont et peut-être de contourner quand c’est nécessaire la lourdeur du fonctionnement par silos.
Il faut aussi veiller à recruter des personnes curieuses et ouvertes d’esprits. Celui qui est statisticien doit comprendre le marketing, et vice-versa. L’arrivée des data scientists est d’ailleurs intéressante parce qu’elle illustre bien ce besoin de recruter des experts pointus sur leurs métiers mais avec une ouverture d’esprit aux autres disciplines et aussi une bonne capacité de communication afin de bien transmettre et discuter l’interprétation de ses résultats aux autres équipes dans l’entreprise.
On vit ce que l’on a vécu il y a 20 ans, lorsque des personnes résistaient à l’ordinateur pour continuer à écrire à la main ou à utiliser une calculette. On voit bien que maintenant, les ordinateurs ont été massivement adoptés, on ne se pose plus la question. Ce sera la même chose avec la donnée, même si évidemment, cela ne se fera pas du jour au lendemain.

Les anciennes méthodes statistiques sont-elles pour autant devenues obsolètes ?

Non sûrement pas, et je pense qu’il ne faut pas renier et oublier les traditionnelles méthodes et modèles statistiques ou même d’études. Ils auront encore du sens, et pourront venir compléter une approche data plus actuelle.
Il y a plusieurs approches ensuite pour aborder les nouvelles données. Soit on utilise les méthodes existantes en les faisant évoluer pour qu’elles s’adaptent aux nouveaux volumes, c’est ce qu’on appelle la scalibility, surtout des algorithmes. Soit l’on considère que l’on doit changer de méthodes complètement et passer à une autre vision des statistiques avec une approche conceptuelle renouvelée. Soit enfin, on opte pour une vision qui veut que le déluge actuel de données pourrait nous aider à mieux utiliser les méthodes classiques. Par exemple auparavant, on organisait les échantillonnages parce qu’il fallait trouver les gens, mais maintenant on peut facilement faire de l’échantillonnage sur toute la population d’intérêt pour l’étude parce qu’elle nous arrive via le déluge des données. On pourrait donc faire de manière plus rigoureuse ce que l’on faisait avant parce que l’information est réellement disponible. Encore une fois, ces trois approches ne sont pas contradictoires et peuvent être complémentaires.

Comment les mondes de l’académie et de l’entreprise peuvent avancer sur ces sujets ?

Il est assez rare que les deux soient autant en phase sur un sujet.  Concernant la data, on peut dire que l’académie et l’entreprise avancent à peu près à la même vitesse, et en sont au même niveau de maturité. Cela justifie que nous travaillions ensemble très en amont pour échanger sur nos études, nos méthodes, nos résultats… Cela nous permettrait de mieux nous écouter et d’être plus performants à la fin.

A lire sur la même sujet :
Interview de Philippe Nieuwbourg, expert en business intelligence et créateur du Data Science Institute
Interview de Yaron Mohaban, VP Sales de la division données variables de Xerox
Interview de Mouloud Dey, Directeur des Solutions et Marchés Emergents, SAS France

0 commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *