Comment construire son équipe Data ?

Avoir la volonté de mettre la data au cœur d’une stratégie commerciale et produit est une chose, être en mesure de construire une équipe data solide, capable de diffuser efficacement ses analyses dans les différentes strates de l’entreprise, en est une autre.

La construction d’une équipe data est une étape complexe pour une organisation. Cela implique la mobilisation de compétences diverses, un recrutement avisé, ainsi qu’une connaissance précise des besoins et des objectifs à atteindre.

Dans cet article nous abordons les étapes clés de cette construction : définition des besoins en fonction des objectifs et de la maturité data, choix du modèle d’intégration avec les autres équipes et bien sûr les profils à privilégier.

#1 Définir les besoins data de l’organisation

Toutes les entreprises ne sont pas égales face à leurs données, certaines ont saisi l’importance de cette matière dans leur croissance, d’autres ont accumulé plus de retard et sont aujourd’hui incapables de les exploiter.

En amont de la constitution d’une équipe data, il est important pour une entreprise d’évaluer son degré de maturité, pour ainsi mieux définir les étapes à suivre vers le Graal et l’organisation “data driven”.

Quelle est la maturité data de votre entreprise ?

La maturité data peut se définir par l’ensemble des moyens, connaissances et actions visant à améliorer la performance globale de l’entreprise grâce aux données.

Tout d’abord, est définie comme donnée toute information utilisée par l’entreprise pour automatiser ou numériser des processus. Les données sont issues de sources diverses (CRM, équipements, capteurs) et leur volume est amené à augmenter dans les années à venir.

Les 5 piliers de la maturité data

Dans son enquête menée en Novembre 2021 auprès de 179 entreprises en Ile-de-France, l’Observatoire de la Maturité Data a établi un rapport qui met en exergue plusieurs points clés.

Pour évaluer la maturité data d’une organisation, l’observatoire a défini 5 piliers pour situer la maturité des entreprises sur le sujet.

  • Le Potentiel data : Désigne la richesse et diversité des données disponibles au sein de l’entreprise afin de déterminer le potentiel de valorisation.
  • La stratégie data : Qui vise à évaluer la capacité de l’entreprise à générer de la valeur grâce à son patrimoine
  • L’organisation et la gouvernance : Permettent d’évaluer l’organisation et les règles permettant d’optimiser l’efficacité de la gestion des données dans l’entreprise (Ethique des données, RGPD, Cybersécurité)
  • Les compétences : Moyens humains et compétences internes mobilisés pour la valorisation des données dans l’entreprise.
  • La culture data : Reflète tous les aspects liés à la sensibilité des acteurs de l’entreprise vis-à-vis de l’usage des données et la connaissance des enjeux.

La maturité d’une organisation est évaluée au niveau de la quantité de données qu’elle possède, mais également à travers sa stratégie, sa gouvernance, sa capacité à instaurer une culture data et à susciter l’adhésion des collaborateurs pour la valoriser.

Les 7 profils de maturité data

Sur la base de ces piliers, nous ressortons 7 niveaux de maturité qui ont été déterminés pour permettre à une organisation de se situer.

  • Niveau 0: Pas digitalisé
  • Niveau 1: Sans outil de pilotage
  • Niveau 2: Pilotage classique
  • Niveau 3: Pilotage évolué (BI)
  • Niveau 4: Pilotage prédictif
  • Niveau 5: Management orienté data
  • Niveau 6: Full Data Driven

Source : https://observatoire-data.fr/process/token/c3aee495753e247c0a615fde4e7446e4

Source : Observatoire de la Maturité Data

Aujourd’hui, les entreprises prennent conscience de leur retard et mettent en place les outils de pilotage et via les outils de reportings. Cependant, à peine 7% des entreprises interrogées sont suffisamment matures pour passer l’étape du pilotage prédictif impliquant des compétences en Data Science.

Le schéma ci-dessous nous montre la répartition des entreprises sur l’échelle de maturité.

Source : Observatoire de la Maturité Data

L’importance du patrimoine Data

Le patrimoine data, aussi appelé Capital Data (ou capital données) désigne l’ensemble des informations que possède une organisation.

La naissance de solutions basées sur le Machine Learning et Deep Learning a transformé tous les actifs d’une entreprise en source de données potentielle et exploitable. Il est donc important d’avoir une lecture structurée du capital d’informations, et de bien définir les typologies et sources de données (notamment en distinguant les données structurées des non-structurées).

Le croisement des données permet de faire ressortir des informations qui peuvent être précieuses. Pour ceci, il est important de les classer selon certaines caractéristiques:

Avoir une vision de clair de ce patrimoine est incontournable pour définir son niveau de maturité.

Objectifs à atteindre grâce aux données

Les cas d’usage potentiels sont très nombreux, et au regard de ces possibilités, l’identification de ces cas est une étape clé. Il est donc primordial de prioriser les objectifs à atteindre.

Source : Observatoire de la Maturité Data

À travers le graphique ci-dessus, on dégage 4 types d’objectifs :

  • Métiers ou Business : Acquérir, fidéliser, améliorer l’expérience client.
  • Prise de décision : Pilotage, anticiper.
  • Productivité : Performance opérationnelle, réduction des coûts.
  • Rupture : Transformer les modèles économiques

La nature des objectifs que vous allez poursuivre via la construction de votre équipe data va impacter le choix des différents profils qui la constitueront.

Comment mesurer le ROI de mon dispositif data ?

Impact sur la productivité des équipes et sur les performances marketing, simulez gratuitement le ROI de votre dispositif data grâce à notre template.

Intégrer l’équipe data à votre organisation

En amont de la constitution de l’équipe data, une bonne démarche consiste à identifier, au sein de l’organisation, les personnes dont les postes sont en lien avec l’exploitation des données. Il ne s’agit peut-être pas uniquement des personnes ayant le terme « données » dans leur titre, mais de tout employé qui n’a pas peur de l’analyse des données ou qui possède déjà des compétences en SQL, comme les Business Ops par exemple.

Si vous ne prenez pas le temps de localiser soigneusement les personnes qui travaillent déjà sur les données, vous risquez de vous retrouver avec une structure d’équipe de données mal structurée, peu susceptible de répondre aux besoins de votre entreprise.

Aussi, avant de choisir le modèle d’intégration de votre équipe data, gardez en tête que cette structure doit être le plus évolutive possible.

Modèles d’intégration centralisé

Le modèle centralisé place l’équipe Data au centre des activités des autres fonctions. C’est une structure qui se présente sous forme de plateforme de données centralisée, où l’équipe chargée des données a accès à la data et fournit des services à l’ensemble des autres fonctions dans le cadre de leurs projets.

Dans le modèle centralisé, l’équipe data est dirigée par le responsable des données, et elle entretient une relation similaire à celle d’un consultant avec son client.

L’équipe chargée des données peut appuyer les autres équipes tout en travaillant sur son propre agenda et le responsable des données dispose d’une vue panoramique de la stratégie de l’entreprise, et peut affecter les personnes chargées des données aux projets les plus adaptés à leurs compétences.

Exemple de modèle centralisé

 

Source : Castordoc – How to build your data team

Aussi, ce modèle offre plus de possibilités pour développer les talents et les compétences du fait de la grande variété de projets et du travail en équipe qui favorise les acquisitions de compétences. Cependant, il implique pour le responsable des données de veiller à ne pas déconnecter l’équipe data des autres unités opérationnelles car les data analysts, scientists et engineers ne sont pas immergés dans les activités quotidiennes.

Ce modèle est particulièrement adapté aux entreprises en pleine croissance car sa flexibilité lui permet de s’adapter aux besoins changeants de celles-ci.

Modèle Décentralisé 

Contrairement au modèle centralisé, qui place l’équipe data au centre des activités, le modèle décentralisé préconise le recrutement des profils nécessaires pour chaque unité opérationnelle, mais qui garde tout de même la plateforme data centralisée. L’équipe constituée répond directement au responsable de l’unité et les profils data recrutés sont impliqués dans les problématiques spécifiques à leur entité d’appartenance, avec peu d’interactions avec les autres équipes data.

Schéma d'un modèle d'excellence

Source : Castordoc – How to build your data team

L’avantage de ce modèle est que chaque unité peut appliquer la méthodologie agile car les membres étant en lien direct avec le responsable, l’équipe data est plus réactive et est dédiée à des fonctions spécifiques. Par ailleurs, les données étant disponibles directement au sein des équipes de l’unité, cela permet à l’équipe data d’accéder directement aux ressources dont elles ont besoin.

Modèle Fédéré / Centre d’excellence

Enfin, il y a le modèle fédéré, qui est plus adapté aux entreprises à la maturité data avérée. Dans ce modèle, les profils chargés d’effectuer les tâches relatives aux données sont intégrés dans les unités commerciales. Mais sont pilotées par un groupe centralisé (centre d’excellence) qui assure le soutien et la formation. Bien que les Data Analysts et data scientists soient déployés dans les différents départements, il y a toujours un responsable de données pour superviser le projet en cours. Cela assure la priorisation des projets et la qualité des services.

Exemple de modèle centralisé

Source : Castordoc – How to build your data team

Le modèle fédéré convient aux grandes entreprises disposant d’une feuille de route claire et qui sont « data driven ». Cependant, il implique une équipe data plus importante car il y a des profils dans le centre d’excellence ainsi que dans les unités.

#3 Constitution de l’équipe Data

Les métiers incontournables d’une équipe Data

Pour avoir une bonne compréhension des trois principaux profils en Data Science, envisageons ceux-ci dans le déroulement d’un projet type en data.

Un projet data se décline par 4 étapes principales:

  • La collecte de données : extraire et réunir les données pertinentes au projet
  • L’exploration : Comprendre la donnée qui a été collectée
  • L’exploitation : Valoriser les données à disposition dans un but prédictif. Cette étape recourt au Machine Learning et Deep Learning
  • La Mise en production (phase d’industrialisation): Mise en production des modèles et ainsi faire passer le projet à grande échelle.

Le Data Analyst

  • Missions

Le Data Analyst explore les données dans le but d’avoir une visibilité sur le passé, et d’analyser les tendances et les corrélations pour aider à la prise de décision. Ses missions s’articulent autour des tâches qui ont trait à l’extraction, l’analyse, et la présentation des données.

  • L’extraction des données depuis une base grâce à SQL
  • Analyse des données (en Python ou R)
  • Création de dashboards avec les outils de Business Intelligence (Tableau, Power BI)
  • Optimisation des processus grâce au Machine Learning

 

  • Intervention dans le projet data

Bien que le périmètre d’intervention du Data Analyst puisse varier en fonction de la structure dans laquelle il évolue, on le trouvera très souvent dans la phase d’exploration, car le gros de son travail sera de comprendre la data à disposition et de lui donner du sens. Le Data Analyst consacre donc une grande partie de son temps à explorer les données, les analyser et les présenter au management.

Pour avoir une vision plus exhaustive sur les compétences d’un Data Analyst, vous pouvez vous référer à notre article dédié au sujet.

Le Data Scientist / Machine Learning Engineer

Le Data Scientist est la « star » dans l’univers de la Data. Son profil est très prisé et il joue un rôle central dans l’ensemble du pipeline d’un projet data. Selon le type de structure dans laquelle il évolue, son rôle peut se concentrer sur la création des modèles de prédiction (Machine Learning).

Par la nature transverse de son métier, les missions du Data Scientist sont très variées, mais le plus souvent, on retrouve les tâches suivantes:

  • Développement des algorithmes de Machine Learning pour optimiser un processus ou automatiser une tâche.
  • Présentation des résultats d’analyse
  • Recueil des données pour alimenter la database ou pour construire un algorithme.
  • Exploration et Nettoyage des données pour les rendre utilisables.

Intervention dans le projet data

Dans une organisation de plus petite taille, et notamment dans une startup, le data scientist occupe un rôle de couteau suisse, ses taches s’étendent de l’exploration des données à la mise en production. Dans une structure plus importante et au sein d’une équipe avec divers profils, son rôle est plus spécifique et il est fréquent que le Data Scientist soit assigné aux seules missions de construction des modèles de Machine Learning.

Il est à souligner que l’arrivée à maturité d’un grand nombre d’entreprises en matière d’intelligence artificielle a favorisé la mutation du profil de data scientist. En effet, les entreprises matures sont passées du stade du POC (Proof of Concept) à la phase d’industrialisation et doivent par conséquent couvrir tout le cycle de vie d’un modèle de Machine Learning, de sa conception à son monitoring en passant par le déploiement. Par conséquent, le rôle du Data Scientist est voué à se transformer et inclure l’étape de la mise en production, ce qui le rapproche du Data Engineer.

Le Data Engineer

  • Mission et compétences

Le Data Engineer travaille dans divers contextes pour construire des systèmes servant à collecter, gérer et transformer les données « brutes » (raw data) en informations exploitables que le Data Analyst et Data Scientist peut exploiter. L’objectif est d’accroître l’accessibilité aux données afin qu’une organisation puisse reposer dessus pour évaluer et optimiser ses performances. Ses principales missions sont :

  • L’industrialisation / monitoring des algorithmes de Machine Learning développés par les data scientists
  • La centralisation et standardisation des données récoltées dans un Data Lake
  • La conception et implémentation du pipeline ETL.
  • Monitoring des flux de données.

A retenir dans cet ensemble de missions, le processus ETL constitue le coeur du métier du Data Engineer. En effet, l’Extraction, la Transformation et le chargement (Load) des données sont les principales étapes qui permettent à une organisation de devenir « data driven ».

Les compétences du Data Engineer sont surtout techniques, elles comprennent la maîtrise des langages de programmation, la connaissance d’une ou plusieurs plateformes Cloud, ainsi que les outils de standardisation d’environnement.

Dans le cadre d’un projet data classique, le Data Engineer intervient principalement en amont lors de l’implémentation du processus ETL.

Son rôle comprend aussi la phase finale d’un projet data, à savoir la mise en production. Dans cette phase, il est chargé d’industrialiser le modèle et d’assurer sa scalabilité.

Postes plus spécifiques : Machine Learning Scientist, Data Architect, Cloud Data Engineer.

Bien que le Data Analyst, Scientist et Engineer soient les trois profils les plus connus et les plus recherchés, les besoins des entreprises mettent en lumière des profils parfois moins classiques, mais qui répondent aux lacunes de compétences pour la réalisation d’un projet.

Ainsi, lorsqu’une entreprise dispose de profils techniques comme le Data Engineer et le Data Scientist, mais qu’elle a besoin d’un profil scientifique plus pointu dans un domaine précis (Computer vision, time series), ou pour améliorer ses algorithmes de Machine Learning, elle peut recruter un Machine Learning Scientist, dont le rôle premier sera d’effectuer les travaux de recherche sur les algorithmes avant leur mise en production.

Le Cloud Data Engineer est un autre exemple de profil à considérer lorsqu’une entreprise repose sa stratégie data sur le Cloud Computing.

Le processus de recrutement

Multiplicité des entretiens et variation selon les profils.

Les entreprises font passer quatre à cinq entretiens dans la plupart des cas. Les recrutements comprennent en général plusieurs tests, des questions théoriques pour vérifier les connaissances indispensables chez le candidat. Des tests techniques, et des entretiens opérationnels avec les pairs. Ainsi, la multiplicité des entretiens peut rendre le processus plus ou moins long. Celui-ci peut durer quelques jours à plusieurs semaines.

La structure de l’entreprise détermine ensuite la forme des entretiens. Lorsqu’il s’agit de cabinets de conseils, il est coutume de faire passer un entretien « conseil » pour évaluer la capacité de consultant du candidat. Mais dans une startup, le processus contient un premier entretien RH, suivi d’un ou deux tests techniques, et un test « fit » pour valider la compatibilité du candidat avec la culture de l’entreprise.

Tests techniques

Cette phase vise à tester les compétences en programmation et la maîtrise des outils exigés pour le profil recherché. Afin de contrôler cela, une première vérification via le CV est nécessaire, pour voir si le candidat a déjà mis en pratique les éléments qu’il a mentionnés.

Des questions techniques simples peuvent être posées durant l’entretien pour vérifier le niveau attendu, et un exercice de programmation permet d’évaluer l’expérience et le savoir faire. Aussi, il est courant de tester les connaissances du candidat en Machine Learning (exemple : Différence entre Machine Learning Supervisé, et Non Supervisé)

Suivant le profil souhaité, le recruteur peut tester le candidat sur la maîtrise d’une technologie inhérente au poste (SQL ou Tableau pour le Data Analyst par exemple, ou la programmation en Scala pour le Data Engineer).

L’importance des soft skills

En dépit de leurs aspects très techniques, les postes en Data accordent une grande importance pour le savoir-être des candidats et leur capacité à communiquer avec des interlocuteurs non spécialistes. Ainsi, un Data Scientist par exemple, doit être capable d’expliquer les outils qu’il a développés et les méthodes mises en œuvre en sachant adapter son discours à une audience qui n’a pas le bagage technique.

Parmi les soft skills, notons quelques-unes des compétences incontournables :

  • Curiosité intellectuelle : Chercher à en savoir davantage que ce que les résultats montrent en surface.
  • Connaissance métier : Il est important que le profil recruté connaisse les métiers et le domaine d’activité dans lequel il opère.
  • Communication efficace : Comme mentionné ci-dessus, un profil spécialisé est amené à communiquer avec un interlocuteur qui n’a pas le bagage technique, une communication « vulgarisée » permet de fluidifier les échanges et le déroulement des projets, et d’obtenir des résultats plus facilement.

Enjeux RH: Formation continue et Turnover

Recruter et intégrer l’équipe data au sein d’une organisation est une étape clé, mais la nature évolutive du domaine, et les aspirations personnelles et professionnelles des candidats obligent les entreprises à considérer la veille technologique et la montée en compétences comme des enjeux clés pour leur compétitivité.

Formation Continue et Upskilling

Compte tenu du caractère innovant de la Data Science, les plans de formation classiques se révèlent peu efficaces. En effet, un Data scientist est régulièrement amené à lire les papiers scientifiques et autres documentations pour rester au fait des dernières découvertes, de nouveaux algorithmes, ou de nouvelles pratiques.

Par conséquent, les formations courtes et régulières s’avèrent plus adaptées pour suivre le rythme des changements.

Dans le cas d’un pur player, il n’est pas rare que l’organisation ait en son sein un département R&D pour rester à la pointe. Quantmetry, un cabinet de conseil spécialisé en data et pure player en IA, dédie près de 20% de la masse salariale à la R&D et ce, pour permettre à ses collaborateurs de prendre part à des projets en partenariat avec le monde académique.

Aussi, la démarche de formation peut se faire à l’initiative de l’employé. Il est nécessaire pour un bon profil de mettre en place une activité de veille sur les technologies. Notamment à travers les blogs d’entreprises actrices dans le Big Data, ou des publications dans les revues universitaires.

Un autre moyen pour se former à travers la pratique consiste à participer aux compétitions en Data Science. Cette approche permet de participer à des événements et de s’améliorer au contact des autres par le partage de connaissances.

La démarche de formation peut se faire à l’initiative du management en proposant des formations courtes à intervalles réguliers. Mais c’est une approche qui peut être coûteuse et chronophage car elle rogne sur l’emploi du temps du salarié. Cependant, il est nécessaire que le Data Analyst / Scientist / Engineer soit proactif et se forme régulièrement seul.

Turnover

La Data Science a connu une évolution fulgurante durant les dernières années, le volume de données a explosé et les besoins des entreprises avec.

Ce faisant, les métiers de la data sont en tension et les entreprises peinent à recruter les profils nécessaires.

Par conséquent, les candidats se retrouvent en position de force et ont plus de facilités pour orienter leur carrière professionnelle et leurs prétentions salariales.

Ainsi, cet état de fait implique pour les entreprises de gérer la rotation des effectifs, et tenter de maintenir un taux de turnover au minimum.

Ainsi, 365 Data Science, un organisme de formation en ligne spécialisé dans le domaine, a dressé dans cet article le portrait robot du Data Scientist en 2021 (Notre constat est extensible au profil de Data Analyst et Data Engineer).

Caractéristiques du Data Scientist en 2021

Les résultats les plus intéressants de l’enquête révèlent que le Data Scientist « type » est employé depuis environ un an, avec une moyenne de 6 ans d’expérience préalable dans le domaine. Aussi, les professionnels interrogés ont changé d’entreprise deux fois ou plus depuis 2017.

Les raisons de ce turnover sont multiples, mais nous pouvons avancer quelques hypothèses pour l’expliquer.

  • Le manque d’engagement des employés est l’une des principales causes de la rotation du personnel. Lorsqu’un employé ne ressent pas l’impact de son rôle, estime que son salaire est insatisfaisant, ou est affecté par son environnement de travail, il est plus simple dans un marché en tension d’avoir de meilleures opportunités.
  • Un décalage entre les attentes du profil recruté et les missions quotidiennes: Si le recruteur ne définit pas correctement les rôles dans la description du poste, cela peut induire en erreur le candidat et ce dernier se verra octroyer des tâches qui sont en décalage avec ses compétences.
  • Opportunités: L’évolution constante du domaine et l’apparition de nouveaux défis incitent les professionnels à suivre le rythme et à rechercher de nouvelles opportunités. Sans possibilité de développement professionnel, les profils en Data Science n’auront aucune difficulté à changer d’employeur jusqu’à trouver l’entreprise qui correspond à leurs besoins.

La rétention des profils est donc primordiale, et les entreprises doivent accompagner leurs offres avec des avantages pour fidéliser les employés:

  • Équilibre vie privée / vie professionnelle.
  • Télétravail : Comme le montre une étude menée par Microsoft, 70%  des employés souhaitent un environnement de travail plus flexible.
  • Opportunités : formations pour acquérir une compétence spécifique, implication des employés dans la définition des objectifs de développement professionnel dans l’entreprise, possibilité de promotion. Autant de mesures qu’une entreprise peut prendre afin qu’un profil recruté soit impliqué et motivé pour contribuer à sa croissance.

Comment recruter son premier data analyst ?

Recruter son premier data analyst est un défi de taille aux conséquences importantes pour l’entreprise. C’est lui qui va poser les fondations de votre équipe data sur deux aspects à la fois :

  • D’un point de vue humain : développement de l’équipe
  • D’un point de vue technique : choix des technologies et de l’architecture pour construire un système data stable, viable et pertinent.

Un véritable challenge en somme, mais qui peut être résolu si l’on possède les bonnes clefs de compréhension.

Nous avons donc développé pour vous un guide complet en s’appuyant sur les sources les plus pertinentes et notre expérience afin de vous aider à définir les compétences dont votre premier data analyst doit disposer et de vous accompagner dans le processus de recrutement et d’intégration de votre futur collaborateur !

Identifiez de qui vous avez besoin

Quand recruter un data analyst ?

Trouver LA bonne personne dans une entreprise grandissante signifie d’abord trouver la personne qui s’inscrit le mieux dans votre lancée. Il faut employer l’individu dont les compétences et l’expérience sont la clef pour accélérer votre croissance. Ces critères sont évidemment variables en fonction du stade de développement de votre entreprise.

data analyste taille entreprise

Tristan Hardy a établi une classification des besoins en data analyse pour une entreprise selon sa taille. Il rappelle ainsi que la majorité des start-up recrutent leur premier data analyst alors qu’elles sont encore en « early stage ».

Le moment idéal pour recruter son premier data analyst est lorsque l’entreprise a dépassé ses tout premiers stades et qu’elle compte entre 20 et 50 employés. À ce niveau, les données dont elle dispose émanent principalement des applications utilisées pour votre activité (un dashboard Stripe ou Facebook…). Si la plupart des entreprises à ce stade de développement disposent des principaux outils analytiques (Google analytics, Mixpanel…), très peu ont une infrastructure data complète avec un data warehouse et des outils BI.

C’est donc une problématique qui intervient rapidement dans le développement de la structure et qu’il est nécessaire d’anticiper.

Qu’attendre de son premier data analyst ?

Définir clairement les tâches dont votre premier data analyst doit s’acquitter est essentiel pour exploiter efficacement vos données et apporter une véritable plus-value aux équipes métiers. Puisque c’est cet analyst qui va poser les fondations de votre infrastructure data, il doit être capable de :

  • Avoir une approche transverse et communiquer avec toutes les équipes.

Cela est primordial afin de comprendre précisément les besoins des équipes et de transmettre clairement les résultats des analyses. De plus, il est nécessaire d’être capable de s’adresser à toutes les équipes pour ancrer la data analyse dans la culture de l’entreprise et les processus métiers.

  • Construire des modèles de données optimaux.

La structure que met en place le premier data analyst sera utilisée pendant plusieurs années. Il faut donc qu’elle soit résiliente et parfaitement adaptée aux besoins commerciaux. Pour cela, le premier data analyst doit être compétent dans l’usage de Git et de SQL et doit aussi savoir construire des tables de données. Un candidat incapable de se servir de Git manque très certainement d’expérience avec les autres outils plus complexes, il est donc essentiel de tester ces compétences lors du recrutement. Une infrastructure data mal conçue peut avoir des répercussions sur plusieurs années et des coûts de restructuration particulièrement importants.

Il faut ainsi choisir quelqu’un pouvant endosser les rôles d’analyst et d’analytics engineer, c’est-à-dire quelqu’un capable de mettre en place une infrastructure propice à l’usage de la data et de réaliser des analyses pertinentes.

Andrew Bartholomew positionne ainsi ce qui doit être le premier analyst dans l’écosystème data :

 

La question de la séniorité se pose aussi lors du recrutement. Deux aspects doivent être pris en compte :

  • L’expérience :

Le candidat est-il capable de construire une infrastructure complexe répondant aux besoins de l’entreprise avec les contraintes qui lui sont imposées ? Nous considérons qu’il faut avoir pour cela au moins 4 ans d’expérience. Il est peu probable qu’un candidat ayant moins d’expérience puisse mener le développement d’un tel projet efficacement et prendre les décisions les plus optimales pour l’entreprise.

  • Le management :

Bien que le sujet ici soit le premier data analyst, il faut aussi considérer l’évolution de votre équipe data. Le candidat est-il capable de manager une équipe de 5 personnes, de trouver les talents nécessaires à son équipe et de les recruter ?

Le processus de recrutement d’un data analyst décrypté

#1 La structure de l’offre d’emploi

Pour convaincre les meilleurs candidats de postuler, il est crucial d’avoir une offre d’emploi structurée afin que les lecteurs comprennent la teneur du rôle. Trop d’offres n’apportent pas assez de précisions ou de détails, ce qui rebute les candidats qui craignent d’arriver dans une entreprise où la place de l’équipe data n’a pas été véritablement définie.

Nous avons trouvé une structure en 5 parties, particulièrement efficace pour ce type d’offre :

  • Présentation générale et contexte :

Dans cette première partie, il faut présenter l’entreprise au candidat ainsi que vous attentez pour ce rôle. Vous pouvez préciser le degré de spécificité de l’emploi (est-ce que cela porte sur un domaine en particulier), et la structure actuelle de votre équipe. Il faut aussi expliquer les besoins que vous avez dans votre équipe.

  • Exigences :

Cette partie permet de présenter vos attentes techniques au candidat. Vous devez y lister les technologies qu’il est essentiel de maîtriser, et celles qui sont « un plus » – attention à bien séparer ces deux catégories.

La difficulté de cet exercice est de trouver le bon degré de précision. Une liste trop abstraite conduirait des candidats trop peu expérimentés à postuler, quand une liste trop précise risquerait de vous priver de bons éléments. Il faut donc déterminer si, pour une technologie donnée, vous souhaitez avoir un candidat maîtrisant l’outil exact ou ayant de l’expérience avec ce type de software. Par exemple, si vous utilisez Airflow, voulez-vous d’un candidat sachant maîtriser cette plateforme, ou d’une personne expérimentée avec les outils d’orchestration des données ?

Nous recommandons de lister entre 5 et 10 technologies pour être précis et concis.

  • Responsabilités :

Cette partie est probablement la plus importante pour le candidat. C’est là qu’il détermine si le rôle l’intéresse. Il faut donc être spécifique et surtout pertinent pour que celui-ci puisse se projeter et désirer obtenir l’emploi. Mettez en avant les missions intéressantes qui seront confiées à l’employé.

  • Processus de recrutement :

Un candidat séduit par les points précédents va naturellement se demander comment postuler et se préparer aux entretiens. Il faut donc dédier une partie entière de l’offre à la présentation du processus de recrutement.

Les candidats sont bien plus susceptibles de postuler s’ils connaissent la teneur du processus de recrutement. Cela permet donc d’avoir plus de candidats, qui sont eux-mêmes mieux préparés. C’est donc le meilleur moyen pour vous, in fine, de sélectionner le candidat le plus apte.

  • Vos premiers mois :

Cette partie permet de se différencier de la majorité des offres d’emploi. En présentant aux candidats la teneur de leurs premiers mois, vous les aider à la fois à se projeter et en même temps à se rassurer.

Plus encore, en définissant les principaux points qui vont occuper les premiers mois de la personne recrutée, vous prouvez aux candidats que l’emploi que vous proposez est intéressant et nécessaire pour votre activité.

Emilie Schario propose plusieurs exemples d’offres d’emploi suivant cette structure.

job description data analyst

#2 Partager la meilleure offre d’emploi n’est pas suffisant

Les data analysts font partie des emplois les plus difficiles à recruter. Même en ayant une offre d’emploi de très bonne qualité, il n’est pas certain que vous trouviez la personne adaptée à vos besoins.

Nous vous proposons donc un ensemble de conseils supplémentaires afin de vous aider dans cette tâche.

Se rapprocher de la communauté data

La meilleure façon de rencontrer l’individu capable de répondre à vos besoins est de chercher directement au sein de la communauté data et dans les groupes de data analysts. Il existe de nombreuses communautés en ligne, dont le degré d’engagement varie. LinkedIn est l’une des ressources les plus efficaces pour cela, avec de nombreux groupes d’échanges au sein desquels les membres partagent leurs projets. Vous avez ainsi directement aux profils des individus et à leurs portfolios.

D’autres plateformes permettent de découvrir des individus très engagés dans cette communauté, à l’instar de Quora ou de StackOverflow.

Enfin, il existe des rencontres et des évènements en physique durant lesquels sont présentés les outils les plus en vogue, l’évolution des techniques et des plateformes data… Y assister permet de mieux comprendre cet écosystème, de savoir que chercher et peut-être de rencontrer votre futur data analyst.

Juger les projets, pas seulement les CV

L’Analytics requiert de nombreuses compétences techniques qu’il est très difficile d’évaluer sur un CV. Chaque candidat s’évalue de sa propre manière, et le niveau mis en avant sur le CV ne reflète pas nécessairement la réalité. Pour cette raison, il est souvent plus pertinent de juger un candidat sur ses projets, ou du moins d’y prêter une grande attention.

Les développeurs incluent très généralement leur portfolio dans leurs candidatures. Vous pouvez aussi le demander dans les éléments du dossier. Ces portfolios permettent de se rendre compte du niveau réel de l’individu, d’avoir une idée de son expérience et même de mieux connaître le candidat.

Plus encore, vous pouvez proposer un jeu de données en libre accès en ligne, sur Kaggle par exemple. Cela permet aux candidats de montrer leur expertise sur des données réelles et similaires à celles qu’ils pourraient exploiter chez vous. Vous pouvez même organiser des compétitions à partir de ces data sets afin de détecter des data analysts possédants les compétences recherchées.

#3 Faire passer un entretien à un data analyst

Un entretien pour un data analyst doit permettre d’évaluer ses compétences techniques, comportementales et relationnelles. Chacune de ces 3 facettes de l’individu est extrêmement importante pour un métier transverse.

> Compétences Techniques

Exemples de questionsIntérêt de la questionQu'attendre comme réponse ?
  • Quels outils d'analyse statistique et logiciels de base de données avez-vous déjà utilisés ?
  • Quels sont vos préférés et pourquoi ?
  • Évaluer l’expérience de l’individu
  • Capacité d’adaptation
  • SQL, le langage dominant dans ce secteur
  • Des outils de BI
  • Volonté d’apprendre de la part du candidat
  • Comment vous y prendriez vous pour mesurer la performance commerciale de notre entreprise, et quelles sont les informations les plus importantes à prendre en compte ?
  • Évaluer la capacité du candidat à comprendre les besoins de l’entreprise
  • Des éléments prouvant que le candidat s’est intéressé à l’entreprise
  • Une approche business qui puisse s’appliquer dans l’entreprise
  • Quelles sont les meilleures pratiques en matière de nettoyage des données ?
  • Quelles sont les étapes à suivre ?
  • Estimer le niveau technique du candidat
  • Des exemples de pratiques tels que « classer les données par attributs »
  • Des exemples de la propre expérience du candidat

> Compétences Comportementales 

Exemples de questionsIntérêt de la questionQu'attendre comme réponse ?
  • Parlez-moi d'un moment où vous pensez avoir fait preuve d'une bonne intuition en data.
  • Détecter la capacité du candidat à rapidement analyser un graphique ou un ensemble de données
  • Un exemple précis en détaillant ce qui a mis « la puce à l’oreille » du candidat, son analyse et sa manière de résoudre le problème
  • Décrivez votre projet data le plus complexe, du début à la fin.
  • Quels ont été les principaux challenges et comment les avez-vous relevés ?
  • Avoir des précisions sur le niveau du candidat et sur son expérience
  • Le candidat doit prouver qu’il peut résoudre des problèmes complexes tout en prenant en compte les autres parties prenantes
  • Parlez-moi d'une occasion où vous avez mis en place une expérimentation. Comment avez-vous mesuré le succès ?
  • Estimer la capacité du data analyste à mettre en place des outils utiles à l’entreprise
  • Exemple précis et clair, type A/B testing
  • Des mesures et des KPIs pertinents

> Compétences Relationnelles

Exemples de questionsIntérêt de la questionQu'attendre comme réponse ?
  • À votre avis, quelles sont les trois meilleures qualités que partagent les bons data analyst ?
  • Les softs skills sont essentiels pour un data analyst
  • Conscience qu’un data analyste a un rôle relationnel
  • Comment expliqueriez-vous vos résultats et vos processus à un public qui ne connait pas le rôle d'un data analyst ?
  • Estimer la capacité d’un candidat à s’adresser à des audiences variées
  • Capacité à vulgariser la data analyse
  • Conscience de l’importance de clarifier les conclusions d’une analyse
  • Qu'est-ce qui vous a attiré vers l'analyse des données ?
  • Comprendre les motivations du candidat
  • Un intérêt prononcé pour la data analyse
  • Une ouverture sur d’autre champ de la data, tel que l’AI

Comment tirer le meilleur parti de votre premier analyst de données ?

Embaucher la bonne personne n’est que la première étape du processus. Une fois qu’elle a rejoint votre équipe, vous voulez vous assurer que la personne pour qui vous avez passé tant de temps (et d’argent !) à recruter sera en mesure d’être efficace le plus rapidement possible.

Une bonne façon de gérer cette situation est de fixer des objectifs à 30/60/90 jour que vous passerez en revue chaque semaine lors des entretiens individuels.

Dans cette vidéo, un employé de dbt explique ce qu’il a particulièrement apprécié le fait d’avoir un plan à 3 mois dans l’offre d’emploi. Plus encore, cela lui a facilité son intégration dans l’équipe data et lui a permis de suivre son évolution au cours des premiers mois.

data analyst ramp up

Les attentes à 1 mois

Le premier mois est décisif pour l’intégration d’un individu dans une entreprise. Dans le cas d’un data analyst, dont les fonctions imposent qu’il soit en contact avec toutes les équipes, ce premier mois doit lui permettre de bien saisir les enjeux de chaque équipe et de proposer en réponse à cela des premiers KPIs ainsi qu’une roadmap pour les mois à venir. Les principales tâches consistent en :

  • Récupérer les données des outils data pour les regrouper dans un Data Warehouse,
  • Sélectionner les principaux outils de reporting (une tâche souvent plus complexe qu’il n’y paraît),
  • Présenter les premiers indicateurs et les premiers reportings (à ce niveau, les conclusions des analyses sont encore sommaires),
  • Rencontrer tous les principaux interlocuteurs

Les attentes à 2 mois

Le deuxième mois constitue une transition entre le premier où le data analyst découvre les données et les outils, et le troisième au cours duquel il finalise ses premiers modèles.

Les attentes lors de ce deuxième mois doivent donc porter sur la transition entre ces deux étapes :

  • Mise en place d’un dashboard regroupant les principaux KPIs
  • Développement d’un premier modèle. À ce stade, il faut surtout s’assurer que le data analyst ait bien saisi les enjeux sur lesquels porte son modèle.

Les attentes à 3 mois

C’est au cours du troisième mois que l’on peut attendre du data analyst d’avoir fini son premier modèle de données. Il doit alors être capable de répondre simplement à des questions de la part des équipes métiers sans avoir à effectuer de requêtes particulièrement complexes.

Toutefois, cette limite de trois mois est grandement dépendante de la taille de l’entreprise et du volume de données dont vous disposez.

 

Ainsi, le recrutement de votre premier data analyst est aussi crucial que complexe. Afin d’embaucher le talent capable d’utiliser de façon optimale vos données, il est nécessaire de :

  • Publier une offre claire et structurée
  • Se rapprocher des groupes de data analysts
  • Mettre en place un processus de recrutement visant à évaluer les compétences techniques, comportementales et relationnelles du candidat
  • Préparer son intégration afin de suivre sa progression au cours des premiers mois.

CRM vs CDP : les limites à utiliser un CRM comme base clients principale

La solution CRM a longtemps été utilisée comme base clients principale par les entreprises. Le logiciel CRM, qu’il s’agisse d’un CRM commercial comme Salesforce, d’un CRM Marketing (Automation) comme Splio ou Adobe Campaign, servait à la fois de base clients et d’outil de gestion de la relation clients.

Puis est apparue une nouvelle famille de logiciels : les Customer Data Platforms (ou CDP), conçues pour jouer ce rôle de référentiel client en lieu et place du CRM. Les logiciels CRM ont des limites structurelles en matière de gestion de base de données. Les CRM gèrent mal les données comportementales, le temps réel ou encore la réconciliation multi-sources (indispensable pour pouvoir disposer de données unifiées). Ce sont ces limites qui expliquent très largement le succès des CDP.

Avec la multiplication des outils, des sources de données, la place croissante des données comportementales, de plus en plus d’entreprises font le choix de gérer leur base clients indépendamment de leur logiciel CRM principal. Ce nouveau paradigme consistant à découpler la base clients et les outils d’activation est rendu possible par la dernière génération de CDP.

Lorsque l’on cherche à construire ou améliorer son écosystème CRM, il faut se poser cette question essentielle : quel système ou quel outil doit jouer le rôle de base clients principale ? Certaines entreprises continuent de penser que le CRM peut jouer ce rôle. D’autres au contraire choisissent de s’équiper d’une CDP. Beaucoup, enfin, sont un peu perdues et ne savent plus trop quoi en penser. C’est notamment pour ces entreprises que nous avons écrit cet article.

Dans cette publication, nous allons commencer par vous aider à mieux comprendre les différences entre CRM et CDP. Nous prendrons ensuite le temps de présenter les exigences requises pour qu’une base clients puisse jouer le rôle de référentiel client. Cela nous conduira à aborder les différentes raisons pour lesquelles nous pensons que le logiciel CRM n’est plus adapté pour jouer ce rôle.

Comprendre les différences entre CRM et CDP

Avant toute chose, il faut rappeler que CDP et CRM ne sont pas des solutions concurrentes, mais complémentaires. Une entreprise qui est équipée d’une CDP dispose la plupart du temps d’un CRM.

Pour commencer, voici un tableau synthèse des principales différences entre CRM et CDP :

CRMCDP
RôleGérer la relation clients : les interactions commerciales (gestion des leads), marketing (campagnes et scénarios) et servicielles (support client)) Gérer la base de données clients : réconciliation des données autour d’un ID client, hub data pour les autres systèmes
UtillisateursProfils métiersProfils martech ou data
Ingestion de donnéesBatch ou manuelTemps réel ou presque
Réconciliation / déduplicationBasée généralement sur l'emailRéconciliation déterministe ou probabiliste basée sur plusieurs clés
Transformation de donnéesBasique ou inexistanteAvancée : normalisation, enrichissement, segmentation, scoring, création d'audiences...

Définition du CRM – Customer Relationship Management

Un logiciel CRM sert à centraliser la gestion des interactions clients. Il existe quatre familles de CRM :

  • Les CRM commerciaux, utilisés par la force de vente, conçus pour gérer le suivi des opportunités commerciales, piloter l’activité commerciale. C’est la famille CRM la plus ancienne.
  • Les CRM Marketing, utilisés par l’équipe marketing, conçus pour gérer la segmentation client, les campagnes et scénarios marketing.
  • Les CRM orientés service client, destinés aux centres de contacts et servant à gérer les interactions sur les canaux du service client : tickets, téléphone, livechat…
  • Les solutions CRM tout-en-un qui permettent de gérer aussi bien les interactions commerciales, marketing et servicielles.

Le CRM est donc un outil avant d’être une base de données. Sauf que, nous le rappelions en introduction, le CRM joue de fait depuis longtemps le rôle de base de données. Il stocke :

  • Les données froides, essentiellement des données de profil et des informations de contact : nom, prénom, genre, date de naissance, téléphone, adresse postale.
  • L’historique conversationnel : les échanges par mail, sur les réseaux sociaux, les notes de rendez-vous, etc.

Les éditeurs ont tous développé des connecteurs pour que le CRM accueille d’autres types de données, par exemple les données transactionnelles et, avec beaucoup moins de succès, les données comportementales/de navigation web. Cela a contribué à accentuer cette évolution du CRM qui, d’outil d’activation et de gestion des interactions, s’est progressivement transformé en référentiel clients principal.

Rappel définition CDP – Customer Data Platform

Une Customer Data Platform est une technologie qui sert à unifier les données clients, à les préparer en fonction des cas d’usage de l’entreprise et, enfin, à les redistribuer aux autres systèmes de l’entreprise (outils d’activation et outils de reporting). C’est fondamentalement un outil de Data Management.

Une CDP sert à opérer 4 activités principales :

  • Connecter. Elle se connecte à l’ensemble des sources de données clients de l’entreprise, avec des flux de données qui peuvent être construits via des connecteurs natifs, des APIs, des webhooks, des chargements de fichiers plats, etc.
  • Structurer. Les données sont organisées dans un modèle de données personnalisé en fonction des besoins de l’entreprise. Elles sont dédupliquées sur la base d’une ou de plusieurs clés de rapprochement. La déduplication permet de consolider les données, de les réconcilier et de les unifier autour de profils clients persistants.
  • Préparer. Les données, une fois unifiées, sont utilisées pour construire des audiences, des segments, des scores et d’autres champs calculés.
  • Synchroniser. Les segments, les audiences, les scores sont ensuite redistribuées aux outils d’activation (CRM, Service Client, Marketing Automation, outils publicitaires…).

Le CDP Institute a identifié 5 critères pour qu’une solution puisse être qualifiée de Customer Data Platform :

  • Ingérer des données en provenance de n’importe quelle source.
  • Capturer tout le détail des données ingérées.
  • Stocker les données ingérées de manière persistante.
  • Créer des profils clients unifiés.
  • Partager les données avec les systèmes qui en ont besoin.

Zoom sur les principales différences

Résumons ici les principales différences entre CRM et CDP :

  • La finalité. Le CRM sert à gérer la relation client, la CDP à gérer les données clients. CRM et CDP servent tous deux, bien que de manière différente, à améliorer la performance client.
  • Les utilisateurs. Les CRM sont utilisés par les équipes opérationnelles impliquées dans la gestion du dialogue clients : les commerciaux, le marketing, le service client essentiellement. Les CDP ont vocation à être utilisées par des profils marketing plutôt technophiles et les équipes data. CRM et CDP sont conçus pour être utilisés de manière autonome par les équipes métier (sans l’équipe IT).
  • Les données. Un CRM gère très bien les données froides et les historiques relationnels (conversationnels, contractuels, transactionnels) mais mal les données chaudes. A l’inverse, une CDP gère tous types de données, y compris les données comportementales (web tracking…). CRM et CDP se concentrent essentiellement sur les données first-party, suivant en cela le sens de l’histoire (fin des cookies tiers).
  • Le mode d’ingestion des données. Les CDP gèrent le temps réel ou le quasi-temps réel, que ce soit en entrée (connexion aux sources) ou en sortie (distribution aux outils de destinations). Les données du CRM sont soit ingérées en batch, soit enregistrées manuellement par les utilisateurs. Cela s’explique par le fait que les cas d’usage du CRM ne nécessitent pas l’ingestion en temps réel.

Que faut-il pour gérer correctement votre base clients principale ?

La formulation des différences entre CRM et CDP donne déjà des pistes de réponse à la question que nous nous sommes proposé de traiter dans cet article : quel outil ou système doit jouer le rôle de base de données principale. Poursuivons notre investigation. Nous allons à présent définir les principales caractéristiques que doit avoir une base clients pour pouvoir jouer le rôle de BDD principale ou de « Référentiel Client Unique ».

La base clients principale doit être exhaustive

La base de données doit centraliser l’ensemble des données clients qui ont un intérêt connu ou potentiel pour l’entreprise. Une entreprise peut stocker différents types de données :

  • Les données de profil.
  • Les informations de contact.
  • L’historique des interactions, qu’elles soient conversationnelles ou transactionnelles.
  • Les données de préférence.
  • Les données comportementales : navigation web, utilisation des produits (comportement dans le logiciel, dans l’appli…)…
  • Les données d’engagement, par exemple le comportement email (ouvertures, clics, etc.).
  • Etc.

Il existe plusieurs manières de catégoriser les différents types de données clients. Peu importe ici. L’essentiel à retenir est qu’une base clients, pour pouvoir être exhaustive et jouer son rôle de base maître, doit être en capacité de gérer tous types de données : les données chaudes aussi bien que les données chaudes, les données tierces aussi bien que les données personnelles, les données online aussi bien que les données offline, les logs web aussi bien que les numéros de téléphone.

La base clients principale doit être unifiée

La base clients principale a vocation à agréger l’ensemble des données clients collectées via les différentes sources de données de l’entreprise. Cette agrégation produit nécessairement des doublons, qui peuvent avoir 2 origines :

  • Un client peut être identifié différemment dans deux outils différents. Par exemple, un client peut être identifié par son email dans l’outil de Marketing Automation, par un numéro client sur l’espace en ligne et par un téléphone dans le logiciel du service client. Résultat : si vous n’utilisez pas de clé(s) de rapprochement, vous ne pourrez pas savoir que c’est le même client qui se cache derrière les trois identifiants. Vous aurez trois doublons, trois identités non réconciliées.
  • Un même outil peut stocker un même client à deux endroits différents. Exemple : si vous utilisez un CRM qui utilise l’email comme identifiant unique et qu’un client utilise deux emails, vous aurez deux fiches contacts, deux identités.

Dans les deux cas, le problème est fondamentalement le même : il n’y a pas, comme on dit dans le jargon, de résolution d’identité.

Il faut absolument être capable d’unifier les données qui rejoignent la base clients principale. Comment ? Via le paramétrage de règles plus ou moins complexes de déduplication, permettant de faire matcher les données entre elles, de procéder aux fusions d’enregistrements.

La base clients principale doit être propre

Une base de données propre est une base qui remplit 4 conditions. Il faut que les données qu’elle stocke soient :

  • Soumises à un modèle de données cohérent et adapté. Le modèle de données définit la manière dont les données viennent s’organiser dans les tables qui composent la base de données.
  • Normalisées. La normalisation renvoie à la manière dont sont enregistrées et affichées les données. Pour l’objet « genre » par exemple, on peut utiliser les formats « F » et « M », ou bien « Femme » et « Homme »…Il faut que pour chaque objet soit défini un seul et unique format. C’est ce que l’on appelle la « normalisation » des données.
  • Nettoyées. Le nettoyage désigne l’ensemble des opérations consistant à vérifier l’exactitude des données et à supprimer/mettre à jour les données inexactes.
  • Régulièrement mises à jour. Le nettoyage des données, qui est une opération ponctuelle et périodique, doit être complété par la mise en place de flux de données automatisés permettant de mettre à jour régulièrement les données, voire en temps réel pour ce qui est des données comportementales.

Une base de données clients, pour jouer le rôle de base principale, doit donc proposer :

  • Un ou plusieurs modèles de données suffisamment souples pour répondre aux besoins de l’entreprise et aux caractéristiques de ses données.
  • Des fonctionnalités de normalisation des données.
  • Des fonctionnalités de gestion de la qualité des données et d’enrichissement.
  • Une gestion du temps réel ou quasi-temps réel pour être en capacité de mettre à jour en continu et sans délais les données comportementales/chaudes.

La base clients principale doit servir de hub avec les autres systèmes

La base clients principale doit pouvoir facilement alimenter les autres systèmes de l’entreprise, qu’il s’agisse des outils opérationnels / d’activation (CRM ventes, CRM marketing / marketing automation, CRM service client, DSP / plateformes publicitaires…) ou des outils d’analyse (BI, reporting, data science…).

Elle doit facilement pouvoir se « câbler » aux outils de destination, que ce soit via des connecteurs natifs, une solide API, des webhooks ou des exports manuels.

Les limites structurelles de la plupart des solutions CRM / marketing pour jouer le rôle de base clients

La plupart des logiciels CRM / Marketing ne sont pas conçues pour jouer le rôle de base clients principale, pour la bonne raison qu’il s’agit de logiciels de gestion de la relation clients, et non d’outils de structuration des données clients.

Modèle de données rigide

Le modèle de données proposé par les solutions CRM est plus ou moins rigide, souvent plus que moins. Pour rappel :

  • Les CRM légers (les gestionnaires de campagnes ou les petits CRM Sales, par exemple) sont monotables. L’ensemble des données est organisé dans une seule et unique table.
  • Les outils intermédiaires sont multitables mais « figés ». Le modèle de données s’organise sur plusieurs tables (clients, produits, commandes…), mais il est difficile d’ajouter de nouvelles tables ou de modifier la relation entre les tables.
  • Les outils avancés comme Salesforce sont à la fois multitables et souples.

La conséquence, c’est qu’il est difficile de faire évoluer le modèle de données d’un CRM, sauf à disposer d’un CRM très avancé (et en général très coûteux) comme Salesforce. Première limite.

Pas de réconciliation multisources

Dans la plupart des CRM, c’est l’email qui sert de clé. Cela signifie que si le même individu s’inscrit avec deux emails différents, cela créera deux lignes dans le CRM, même si l’individu s’est inscrit avec le même téléphone, le même nom x prénom, le même code postal…

La conséquence est que cela génère des doublons dans la table Contacts, comme nous l’avons vu tout à l’heure, mais aussi et surtout des difficultés pour associer le contact avec tous ses points de contact. Si par exemple un individu écrit au service client avec un autre email que celui avec lequel il s’est inscrit, et si je ne peux pas réconcilier les contacts et les tickets du service client en utilisant plusieurs clés, alors il ne sera pas possible d’associer l’individu au ticket client.

Il faudrait pour cela que le CRM permette de gérer des règles de déduplication multisources. C’est avec ce type de règles que l’on pourra dire à l’outil : « Si deux contacts ont un email différent mais la même adresse postale + le même nom/prénom, alors les deux contacts doivent être dédupliqués et fusionnés ».

Pas ou peu de normalisation & nettoyage des données

Dans un outil CRM, les possibilités de nettoyage de données sont très limitées :

  • Normalisation. Il n’est pas possible d’utiliser des règles de type « Find & replace » qui permettent, par exemple, de remplacer tous les « FR » en « France », ou tous les « Mlle » en « F ».
  • Nettoyage des champs importants. Les CRM n’intègrent pas, sauf rares exceptions, de service permettant de vérifier l’existence des adresses emails, de faire de la RNVP pour les adresses postales…

Par conséquent, la normalisation et le nettoyage des données doivent être réalisés en amont du CRM, à l’aide de scripts personnalisés complexes à maintenir.

Pas de champs calculés & scoring

Un outil CRM, c’est comme Excel mais sans les formules de calcul…Dans la plupart des solutions CRM il n’est pas possible d’ajouter des champs calculés. Certains outils CRM proposent des champs calculés par défaut (panier moyen CA, cumulé, etc.) qui sont impossibles à modifier.

Or la capacité à créer des champs calculés est essentielle, notamment pour déployer des scénarios de marketing automation. Par exemple, pour pouvoir exclure les clients qui ont récemment exprimé une insatisfaction, il nous faut un champ « statut du dernier ticket client » ou bien « nombre de tickets clients sur les X derniers jours ». La création de ce type de champs calculés (scoring ou autre) est très difficile, et souvent impossible dans un CRM.

Pas d’accès direct à la base de données pour faire des reportings

Une base clients principale sert à activer les clients, à « agir », mais aussi à analyser les données, à faire du reporting. Faire du reporting sur une base de données CRM n’est pas simple, car les rapports à disposition dans l’outil sont très vite limités.

Prenons l’exemple des scénarios automatisés. Pour pouvoir mesurer leur impact, il faut utiliser l’analyse de cohortes. Si l’on souhaite, par exemple, déployer un nouveau scénario d’upsell qui consiste à envoyer une séquence de messages 1 mois après le premier achat, nous aurons besoin de regarder par cohorte mensuelle de nouveaux acheteurs si le nombre d’achats après 2 mois a augmenté.

Comment faire cela dans un logiciel CRM ? Vous n’avez qu’une seule solution : exporter les données dans une base de données / un datawarehouse, et ensuite brancher votre outil de reporting sur la base en question. Il n’est pas possible de brancher l’outil de reporting directement sur le logiciel CRM, il faut passer par l’intermédiaire de la base de données…

Le sens de l’histoire, c’est le découplage entre la base clients et l’activation des données clients

Du logiciel CRM à l’écosystème CRM

Le CRM désigne aujourd’hui la gestion de l’ensemble des interactions et des activations avec les clients identifiés. Dans la plupart des entreprises, le CRM n’est plus opéré par un seul logiciel, comme par le passé, mais par un ensemble d’outils, une combinatoire de solutions :

  • Un gestionnaire de campagnes.
  • Un outil de marketing automation (ou CRM Marketing)
  • Un outil de gestion de l’activité commerciale et des pipelines de ventes (ou CRM Sales)
  • Un outil de helpdesk/ticketing (ou CRM Service Client).
  • Des plateformes publicitaires pour retargeter les clients connus avec des Ads.

Le CRM est devenu un environnement, un écosystème de logiciels. C’est l’une des raisons pour lesquelles il n’est plus vraiment possible d’utiliser le CRM comme référentiel clients : une entreprise utilise des outils CRM, mais a besoin d’une base clients principale.

Les bénéfices à gérer une base clients séparément

Si vous avez lu tout ce qui précède, vous commencez sans doute à prendre conscience des bénéfices qu’il y a à gérer une base clients séparément.

Avoir une base clients séparée permet de :

  • Connecter l’ensemble des sources de données clients de l’entreprise, en toute liberté, sans limitations et de manière simple (via des connecteurs, des APIs…). Les capacités de connexion sont en effet freinées quand la base clients est construite dans un outil qui appartient à un écosystème constitué (Salesforce par exemple) : l’éditeur cherchera bien souvent à ce que vous utilisiez les autres outils de sa suite.
  • Créer une vision client unique exhaustive, associant données chaudes et données froides. Ce bénéfice découle du précédent.
  • Préparer les données au même endroit. Vous gérez de manière centralisée les segments clients, les audiences, les scores, les règles de déduplication…Vous n’avez plus besoin de faire ce travail dans chaque outil de votre écosystème CRM.
  • Ne pas enfermer les données dans un modèle de données rigide. Vous créez un modèle de données souple, sur-mesure, adapté à vos cas d’usage présents et futurs.
  • Synchroniser facilement les données préparées dans les différents systèmes qui en ont besoin, et ce en temps réel quand c’est nécessaire.
  • Pouvoir utiliser la base clients pour alimenter les outils d’activation mais aussi les outils de reporting, et ce directement, sans devoir passer par un système intermédiaire.
  • Rester maître de ses données clients. Les problématiques autour du contrôle des données deviennent cruciales pour beaucoup d’entreprises. Construire une base de données indépendante permet de garder un contrôle total sur ses données. Si le sujet vous intéresse, nous vous invitons à lire notre guide complet sur le sujet : Pourquoi est-il important de garder le contrôle des données des clients ?

Petite présentation de l’approche proposée par Octolis

Nous avons été consultants Data / CRM pendant de longues années. Nous avons été très souvent été confrontés aux limites du CRM au fil de nos missions. Certains de nos clients disposaient d’un Référentiel Client unique sur mesure, du coup très flexible, mais chaque changement suppose une intervention technique. D’autres clients s’équipaient de solutions CDP de première génération, on dispose d’une belle interface pour manipuler les données, mais la contrepartie, c’est qu’on n’a pas le contrôle des données, et moins de flexibilité sur le modèle de données.
Il nous paraissait évident qu’il fallait réconcilier les deux approches. Une base de données sur mesure, contrôlée / hébergée par les clients matures, avec une interface logicielle par dessus.

C’est d’ailleurs le sens de l’histoire. La démocratisation des datawarehouses encourage cette approche hybride. Les CDP ouvrent la voie, mais on commencent à voir d’autres types de logiciels SaaS qui utilisent le datawarehouse des clients comme socle.

Certains de nos clients disposent déjà d’une base clients principale : dans ce cas, nous « branchons » Octolis sur cette base. Si vous n’avez pas encore de base principale, Octolis la crée pour vous.

Nous avons tenu à créer une interface logicielle self service, accessible aux profils métiers, utilisable à l fois par les profils marketing (en « no code ») et les équipes data en SQL. CDP nouvelle génération, Octolis vous permet de gérer les 4 fonctions que nous avons présentées plus haut : Connexion, Préparation, Structuration, Synchronisation.

Voici un très rapide aperçu de la solution. Vous êtes tout d’abord invité à connecter les différentes sources de données. Parmi ces sources de données, bien sûr, figure la base clients indépendante.
Octolis-connections
C’est sur le menu « Audiences » que vous préparez et structurez les données : règles de déduplication, normalisation, construction d’audiences et de segments, création de champs calculés (indicateurs, scorings…).

octolis audiences

Vous pouvez synchroniser à tout moment dans vos outils et dans votre base principale les données préparées et transformées dans Octolis.

Pourquoi Octolis ?

Pour en savoir plus sur Octolis, l’origine de notre solution, nos convictions et la vision qui nous anime, nous vous invitons à découvrir l’article que nous avions publié à son lancement : Pourquoi nous lançons Octolis ?

Relancer les clients inactifs : définition, méthode & bonnes pratiques

Une base de contacts contient entre 20% et 50% de clients inactifs. Au lieu d’investir dans des campagnes d’acquisition pas toujours rentables, imaginez que vous réussissiez à relancer une bonne partie de ces clients inactifs ?

Réactiver ses clients inactifs permet d’augmenter le reach des campagnes de l’ordre de 10% à 20%. C’est les résultats que nous observions dans notre ancienne vie de consultants data & CRM.

Le potentiel est donc énorme. Pour pleinement le réaliser, vous devez dans un premier temps être capable d’identifier vos clients dormants puis utiliser les bons leviers et les bonnes approches pour réussir à renouer le dialogue.

Relancer les clients inactifs ou passifs : un enjeu business majeur

Pourquoi les clients inactifs sont souvent laissés de côté par les marques ?

Peu de marques font l’effort de réactiver leurs clients inactifs. C’est contre-intuitif quand on connaît les enjeux et le potentiel des mécaniques de réactivation.

Il y a plusieurs raisons à ce manque d’intérêt :

  • Les entreprises ont toujours cette fâcheuse tendance à préférer l’acquisition à la rétention, la conquête à la fidélisation. Plutôt qu’améliorer la qualité de sa base de contacts, on cherche à l’augmenter, à la faire grossir.
  • Certaines marques se font à l’idée que les consommateurs sont devenus volatils, plus difficiles à retenir, et qu’il vaut mieux investir dans de l’acquisition que perdre du temps dans de la rétention ou de la réactivation. Cette raison rejoint la précédente.
  • Pour des raisons de délivrabilité, les entreprises ont tendance à focaliser leurs efforts sur les clients actifs. Les clients inactifs, qui ne réagissent plus aux sollicitations, sont retirés des segments exploités dans les campagnes. Cela part d’une bonne intention (la préservation de la réputation de l’adresse IP), mais cela conduit à négliger les clients inactifs. On finit par ne plus penser à eux, par ne plus les adresser, par les oublier. Plutôt que de chercher de nouvelles approches pour solliciter les inactifs et reconquérir leur cœur, on relègue les clients dormants aux oubliettes.

Disons-le clairement : ce sont trois mauvaises raisons de laisser de côté les clients inactifs. Et voici pourquoi.

Un non-ouvreur ou inactif n’est pas un client perdu

Un client qui n’ouvre plus vos messages n’est pas forcément un client perdu.

Le fait qu’un client n’ouvre plus vos messages et soit inactif peut signifier que le contenu de vos messages ne l’intéresse pas, que vos offres ne sont pas pertinentes, que vous n’utilisez pas le bon canal pour le solliciter, que la fréquence des messages est inadaptée, qu’il estime que vous ne le chouchoutez pas assez…L’inactivité, le plus souvent, révèle un problème de communication plus qu’un désintérêt pour votre offre et vos produits.

Une fois que l’on a compris ça, chercher à réactiver les clients inactifs devient une évidence.

Cap sur les programmes de fidélisation !

20% des clients représentent 80% de votre chiffre d’affaires. Ce principe de Pareto se vérifie presque toujours. Il est donc nécessaire de chouchouter vos meilleurs clients en mettant en place un programme de fidélisation. Découvrez notre sélection des meilleurs exemples de programmes de fidélisation.

Un préalable : définir et segmenter les clients inactifs

Définir la notion de client inactif

Chaque entreprise a sa définition de ce qu’est un client inactif. Vous devez trouver la vôtre pour pouvoir ensuite identifier qui sont vos clients inactifs. C’est le point de départ.

Nous n’allons pas vous donner la définition de ce qu’est un client inactif mais vous donner les clés pour construire votre définition.

Au bout de combien de temps devient-on un client inactif ?

Un client inactif (ou dit aussi « client passif » ou « client dormant », peu importe le terme utilisé) est un client qui n’ouvre plus vos messages. Votre définition d’un client inactif doit indiquer à partir de combien de temps d’inactivité un client entre dans le segment « clients inactifs ». Vous pouvez aussi raisonner par campagnes. Il y a donc 2 approches possibles :

  • Un client inactif est un client qui n’ouvre plus les messages depuis X jours.
  • Un client inactif est un client qui n’ouvre plus les messages depuis X campagnes.

Dans la pratique, les entreprises utilisent plutôt le nombre de jours.

Le vrai enjeu consiste à définir le « X ». Il dépend en fait de votre activité et de la fréquence d’envoi de vos messages. Si vous envoyez une newsletter mensuelle, le nombre de jours pour qu’un client soit considéré comme inactif sera plus élevé que si vous envoyez une newsletter hebdomadaire.

En général, X = 1 mois ou 2 mois. Mais dans certains cas, X peut être égal à 1 an.

De quelle inactivité parle-t-on ?

Depuis le début, on considère l’inactivité comme une absence d’ouverture des emails envoyés à votre base clients. C’est l’approche basique. Mais il est tout à fait possible de prendre en compte les autres canaux, par exemple la publicité, le SMS, les magasins, le ecommerce. Un client qui n’ouvre plus vos messages depuis 2 mois mais qui a acheté un produit sur votre site il y a 2 jours est-il un client inactif ? Non, bien sûr.

D’où la question : de quelle inactivité parle-t-on ? Plus vous intégrez de choses dans votre définition de l’inactivité, plus votre définition de ce qu’est un client inactif sera juste et précise.

Mais disons que se concentrer sur l’ouverture des emails est plus simple pour commencer.

Créer un segment « clients inactifs »

Votre base de contacts contient certainement des adresses qui n’existent plus. Scoop : une adresse mail qui n’existe plus n’est pas un client inactif.

Vous devez nettoyer votre base de données. Comment ? En faisant des tests de délivrabilité :

  • Les hard bounces doivent être supprimés. Ce sont des adresses emails qui n’existent plus.
  • Les soft bounces doivent être mis en quarantaine. Ce sont des adresses qui ne reçoivent plus vos messages pour des raisons temporaires : une boîte de réception pleine, par exemple.

Vous pouvez à partir de là construire votre segment des clients inactifs. Il est constitué :

  • Des clients qui répondent à la définition que vous avez construite d’un « client inactif » (cf. supra).
  • Des adresses emails qui ne sont ni des hard bounces, ni des soft bounces.

Construire le segment « clients inactifs » avec la méthode RFM

Il est possible d’utiliser la segmentation RFM (Récence, Fréquence, Montant) pour construire le segment des clients inactifs. De manière plus générale, cette méthode RFM vous permettra de segmenter vos clients en fonction de leur comportement d’achat. Elle est très utilisée dans le Retail. Découvrez notre guide complet pour construire une segmentation RFM.

matrice rfm

2 leviers pour relancer les clients inactifs

Un client inactif n’est pas un client perdu, c’est un client avec lequel vous devez procéder autrement pour faire naître ou renaître son intérêt pour vos produits et vos offres. Nous allons vous présenter deux approches complémentaires pour réveiller des clients dormants. La première consiste à créer des campagnes ou des scénarios de réactivation emails, la deuxième consiste à réactiver vos clients avec des Ads.

Réactiver vos inactifs avec des campagnes ou scénarios emails

Votre client ne réagit plus à vos emails ? Ce n’est peut-être pas le canal qui est le problème, mais votre manière de solliciter le client. La première approche, classique mais à l’efficacité éprouvée, consiste à réactiver les clients inactifs par des campagnes emails. Ici, place à la créativité marketing !

Voici plusieurs techniques possibles :

  • Envoyer un questionnaire de satisfaction. Trop de promotionnel tue le promotionnel et créé des clients inactifs. Certains clients inactifs ont peut-être besoin d’amour, de relationnel, d’empathie, d’attention. Envoyer un questionnaire de satisfaction suffit parfois à renouer le fil du dialogue. Les réponses de vos clients vous permettront d’ailleurs d’identifier les axes d’amélioration de vos produits et de vos communications.
  • Proposer une offre spéciale (code promo, coupon…). Disons-le clairement, cette technique est l’une de celles qui fonctionnent le mieux, mais elle a un coût pour l’entreprise. Nous vous conseillons de réserver cette approche aux clients vraiment très inactifs, qui ont besoin d’un sérieux incentive pour revenir vers vous.
  • Envoyer une invitation à une vente privée. Les ventes privées sont très appréciées des clients. Tous les clients aiment se sentir privilégiés, VIP.
  • Proposer au client de gérer ses préférences. Une pression marketing trop forte peut être cause d’inactivité. Donner la possibilité au client de régler la fréquence de messages et les thématiques peut être un moyen de les réactiver.

Quelle que soit l’approche que vous choisirez, n’oubliez pas les bonnes pratiques de l’emailing.Vous les connaissez certainement déjà :

  • Travaillez avec amour et intelligence votre objet. C’est la partie la plus importante de l’email. C’est lui qui incitera vos clients inactifs à ouvrir ou non votre message.
  • Exploitez la connaissance client. Personnalisez vos emails avec le prénom et/ou nom de vos clients. Ciblez les offres proposées en fonction de l’historique d’achat de vos clients, de leurs centres d’intérêt. Plus vos messages seront personnalisés et ciblés, plus vous aurez de chance d’atteindre le coeur de vos clients inactifs.
  • Envoyez les campagnes au bon moment. Un conseil : n’attendez pas 3 ans avant de mettre en place des campagnes de réactivation. Plus vous serez réactifs, plus vous aurez de chances de réveiller vos clients dormants.
  • Faites des tests. Il n’y a pas de recette magique en email marketing. Testez différentes approches pour reconquérir vos clients inactifs et généralisez celles qui fonctionnent le mieux.

Voici un conseil pour aller un peu plus loin : dans votre outil de Marketing Automation, mettez en place un scénario de réactivation, avec une séquence progressive de messages. Voici à quoi cela pourrait ressembler :

  1. Envoi d’un premier email de reprise de contact, dont l’objet pourrait être « [Prénom], vous nous avez manqué ». Dans cet email, vous pouvez rappeler ce que vous faites, mettre en avant la valeur de votre service, formuler votre proposition de valeur ou bien présenter vos nouvelles collections. Rendez-vous intéressant sans utiliser un ton trop « commercial ».
  2. Si le premier email n’a pas été ouvert : envoi à J+5 d’un deuxième email comportant un questionnaire de satisfaction.
  3. Si le deuxième email n’a pas été ouvert : envoi à J+10 d’un troisième email avec un code promo à utiliser sur le site internet.
  4. Si le troisième email n’est pas ouvert, envoi à J+15 d’un quatrième email…l’email de la dernière chance. On peut imaginer un objet surprenant pour tenter, une dernière fois, de susciter l’intérêt du client. Par exemple : « Désinscrivez-vous », ou « Il est temps de se dire adieu (ou pas…).
reactiver clients inactifs dormants
Un exemple d’email de relance de clients inactifs.

Relancer les clients inactifs via les Ads

La deuxième approche consiste à réactiver vos clients inactifs en utilisant des annonces publicitaires. C’est une approche beaucoup moins utilisée et pourtant son potentiel est grand. C’est surtout adapté si vous avez un grand nombre de clients inactifs. Pourquoi ? Prenons un exemple, pour bien comprendre :

  • Vous avez construit votre segment des clients inactifs. Il regroupe tous les clients qui n’ont pas réagi à vos sollicitations depuis 3 mois. Il représente 10 000 contacts.
  • Vous construisez une campagne de retargeting ciblant ce segment. Supposons que 15% des clients exposés aux annonces se rendent sur le site. Soit 1 500 clients.
  • Parmi ces 15% de clients inactifs qui se rendent sur le site, tous ne vont pas acheter. Supposons que 10% d’entre eux effectuent un achat. Soit 150 clients.
  • La relance des 10 000 clients inactifs vous a permis de générer 150 paniers achetés, ce qui est assez peu.

Changeons d’échelle. Imaginez que votre base contient 100 000 clients inactifs. Si l’on garde les mêmes hypothèses, la relance de vos clients via des Ads vous permettra de générer 1 500 paniers achetés, ce qui est beaucoup plus intéressant.

Il faut donc avoir une base de contacts/un segment de clients inactifs suffisamment grand pour que la relance via des Ads soit pertinente. Si vous êtes dans cette situation, vous pouvez mettre en place cette technique en deux étapes :

  • Etape #1 : Exporter le segment vers Google/Facebook Ads. Une fois que vous avez construit votre segment « clients inactifs » dans votre outil d’emailing, vous pouvez l’exporter dans votre compte Google Ads ou Facebook Ads. Il est important que le segment soit régulièrement mis à jour dans Google Ads/Facebook Ads. L’utilisation d’une plateforme comme Octolis vous permet de gérer de manière centralisée tous vos segments clients et de mettre en place des flux de synchronisation en temps réel dans vos outils de destination, en l’occurrence Google Ads et/ou Facebook Ads.
  • Etape #2 : Créer une campagne Google/Facebook Ads. Vous devez ensuite créer votre ou vos campagne(s) de relance des inactifs. Ce travail de créa sera plus rapide si vous avez déjà des templates de campagnes, bien entendu. Présentation des nouveaux produits, remise, offre exceptionnelle : quel que soit le contenu des annonces, vous devez garder en tête l’objectif : convaincre les clients de se rendre sur le site et d’acheter.

Nous avons mis l’accent sur les deux principaux canaux pour relancer les clients inactifs : l’email et le retargeting. Si vos clients ont une grande lifetime value, il est possible d’utiliser le SMS et le téléphone.

Nous espérons vraiment vous avoir convaincus de l’importance de réactiver les clients inactifs. Si vous suivez les bonnes pratiques, si vous segmentez intelligemment les inactifs, si vous imaginez des campagnes originales, si vous allez plus loin en créant des scénarios marketing, croyez-nous : vous réussirez à réactiver beaucoup de vos clients. Le ROI des campagnes de réactivation dépasse presque toujours le ROI des campagnes d’acquisition. Qu’attendez-vous pour vous lancer ? 🙂

Choix prestataire CRM – 70+ cabinets de conseil, agences & intégrateurs

Le CRM est un sujet complexe qui requiert des compétences variées.
Difficiles de les avoir toutes en interne, du coup, cela fait vivre beaucoup de prestataires.
On peut faire appel à un prestataire pour beaucoup de sujets différents : parcours clients, aide au choix de solutions CRM (marketing, commercial ou service client), paramétrage des logiciels, conception des messages, etc. Les spécialités se recoupent et sont difficiles à lire quand on n’est pas expert du métier.

Nos clients installent souvent Octolis lors d’une phase de restucturation de leur écosystème CRM.
Du coup, on croise beaucoup de professionnels différents.
Des cabinets de conseil CRM, des ESN / intégrateurs techniques, des agences en conception d’emails, des freelances data, etc.

A forcer de croiser des prestas, on s’est dit que ce serait sympa de consolider les noms quelque part.
Résultat, un fichier assez complet de 70+ professionnels CRM dans un Gsheet téléchargeable.
On a essayé de les classifier, et d’en sélectionner quelques uns pour chaque catégorie dans l’article ci-dessous. Je parle d’essayer, car c’est difficile de mettre dans une seule catégorie des boites de services qui font tout, avec des profils à la fois consultants strat, développeur, chef de projet CRM.

Télécharger notre Top 70+ prestataires CRM français

 

Sélection de cabinet de conseils CRM

> Pour concevoir le dispositif cible : parcours clients, plan relationnel, choix logiciels, orga cible, etc.

NomDescriptionSpécialitésNb employés
MeetYourPeopleMeet Your People c’est une équipe de consultants CRM indépendants basée à Paris. Notre mission ? Vous conseiller et vous accompagner dans la mise en œuvre d’une stratégie CRM éthique, responsable et performante. Donnons du sens à vos actions !CRM , marketing , Marketing client , data, digital, connaissance client, expérience client, feedback management, voice of customer, parcours client, marketing automation et customer journey 3
BadsenderBadsender est une agence spécialisée en eCRM et en email marketing. Conseil - Stratégie eCRM et emailing, choix outils de gestion de campagne ou audit délivrabilité Déploiement - Qu’il s’agisse de migrer vos données et vos campagnes vers votre nouvelle plateforme emailing ou de déployer votre nouvelle stratégie eCRM Production - L’intégration HTML d’emails, la rédaction de contenus et la conception de designs d’emails Email Marketing, Emailing, eCRM, sCRM, Newsletter, Conseil, Analyse, déploiement, production, fullservice8
CartelisCabinet de conseil Data Marketing & CRM. Nous accompagnons nos clients, qu'il s'agisse de grands groupes ou de PME, dans leur projet de transformation digitale avec une approche centrée autour des données clients. Notre équipe de consultants de haut niveau met en place des dispositifs d'analyse et d'exploitation des données à très forte valeur ajoutée : modélisation du parcours client, scoring comportemental, benchmark DMP / CRM, déploiement de scénarios relationnels, etc.Architecture CRM, Parcours clients, Plan relationnel, Marketing Automation, RCU / CDP, Analytics, Données clients, RGPD, Data gouvernance, Data Marketing, OKR, Attribution12
StratelloExpert du conseil et de l’accompagnement en stratégies marketing clients omni canal, notre mission a pour objectif d’accélérer vos performance business grâce à une meilleure Expérience client. Pour cela, nous diagnostiquons les parcours clients, construisons vos personas, définissons vos futurs Parcours cibles, élaborons la stratégie data et formulons vos scénarios de marketing automation … Marketing clients, Omnicanal, Crosscanal, Multicanal, Parcours clients, ROI, Retail, CRM, Marketing web,Conseil marketing, Relations clients, persona, RGPD, marketing automation13
CustupCustUp est un conseil opérationnel en Relation Clients. Nous structurons et mettons en œuvre le Marketing Clients et les schémas de dialogue des entreprises. Pour ce faire, nous utilisons le CRM, le Marketing Automation et les Centres de Contacts. Nous organisons la collecte et l’exploitation des Données Clients : le carburant de la Relation Clients à distance.CRM, Centre de contacts, Abonnement, Marketing client, Relation client, Parcours Client, GDPR, RGPD, DMP, Données Client, Service Client, Automated marketing, Formation Relation Client24
RelatiaFondée en 2010, L’Agence Relatia, l'agence de marketing relationnel digital SoLoMo, en particulier pour les enjeux Drive2Store ou Store2Digital. Notre spécialité : acquisition ou fidélisation de vos clients via l'exploitation des dernières innovations en terme de services connectés.E-CRM, Emailing, E-Marketing, M-CRM, Mobile Marketing, Advertising, email responsive, Agence digitale, digital Marketing, Agence E-CRM, drive to store, geolocalisation, datamining36
ColoradoCréé en 2003, Colorado Groupe accompagne ses clients pour imaginer et mettre en œuvre une expérience client fluide, efficace et innovante. Colorado Groupe s’appuie sur la complémentarité de ses 2 activités : 1. Le conseil en marketing et innovation sur l’Expérience Client 2. ’analyse des attentes clients et le développement du Customer Insight avec sa solution SaaS innovante ConsumerLiveConseil en relation client, Pilotage et management de l'expérience client, Solution de Customer Feedback Management et Solutions d'écoute et d'analyse de la Voix du Client 44
SingulierCréés pour l'ère numérique de deuxième génération, nous sommes une équipe d'entrepreneurs de la transformation numérique. Nous combinons le conseil aux entreprises, la réflexion sur le design numérique, le marketing, la technologie et les données pour résoudre rapidement des problèmes commerciaux complexes pour les PDG, leurs cadres et les investisseurs. Nous constituons des taskforces d'entrepreneurs pour mener des opérations numériques stratégiques avec des investisseurs et des entreprises.Digital strategy, Digital transformation, Innovation, Data, UX, CRM, Branding, Digital marketing, Digital IT, Change management, Digital coaching, E-commerce, Due diligences56
EMertonEmerton is a global high-end strategy consulting group, with offices in Europe, North America and Asia.Strategy consulting, Digital transformation, Business transformation, Innovation, data & analytics, Due diligences,Data science70
WaissoFondée en 2003 par des professionnels du Marketing et du Data, Waisso est une agence digitale spécialisée dans l’optimisation du marketing client en alliant technologie, data et contenu pour une approche plus innovante. Nous avons construit une entreprise où des hommes et des femmes, relevant de différentes expertises (ingénieurs, data scientists, consultant marketing, etc.) travaillent ensembles pour répondre aux nouvelles exigences d’un marketing bouleversé par le digital.Marketing Crm, Marketing Cloud, Adobe Partner, Sprinklr, Gigya, Digital Marketing, Cross Channel, Acquisition, Fidelisation, Oracle, Campaign Management, Consulting, Analytics, Segmentation, Contenu Digital, Big Data, Social Media, Business Intelligence, Mobile Marketing, Acquisition74
VertoneVERTONE est un cabinet de conseil en stratégie et management. Il se distingue par ses missions d’orientations stratégiques autour des métiers du marketing, du développement commercial, de l'expérience client et de la fidélisation, avec une approche centrée sur le client final. Strategy and management consulting, Marketing strategy, Customer relationship management, Digital strategy, Customer value development, Product and offer strategy, Stratégie marketing, Conseil en stratégie et management, Management de la relation client, Stratégie digitale, Développement de la valeur client, Innovation d'offres et de services, Fidélisation client162
KPCKPC est un acteur de référence dans le pilotage de la performance et de l’expérience client. Grâce à la convergence de nos savoir-faire, nous proposons des solutions pour construire l’entreprise intelligente et digitale de demain. La gestion intelligente des données est au coeur de notre ADN, et de notre culture d’entreprise. Nos partenariats stratégiques et nos équipes pluri-disciplinaires permettent à KPC d’offrir à ses clients la vision, l’expérience et le savoir-faire nécessaires pour développer, personnaliser, intégrer et déployer les solutions les plus performantes.Data Intelligence & Analytics, Customer Experience & Digital, ERP, Data Science, Big Data, Marketing Automation, Transformation Numerique, Crm, Adobe Campaign, Ia, Salesforce,, Selligent Et Anaplan 219
Velvet ConsultingVelvet Consulting est le cabinet leader de l'accompagnement des entreprises dans leur orientation client. Depuis 2004, grâce à 200 passionnés de Marketing, nous accélérons la performance des sociétés en construisant une expérience client riche, innovante et efficace grâce à notre approche globale et la complémentarité de nos pôles d’expertises. Depuis juillet 2020, nous avons rejoint le groupe WPP et le réseau Wunderman Thompson.Stratégie Client, Performance, Innovation, Change, Datamining, Business Intelligence, Digital, CRM, Marketing Automation, Big Data, Mobilité, Omnicanal, Big Data232
NijiNiji est une société de conseil, de design et de mise en œuvre technologique, au service de la transformation numérique des entreprises. Niji accompagne depuis 2001 un très grand nombre d'acteursdans l’accélération et la réussite de leur mutation digitale, au service de leur stratégie, de leur distribution multicanale et de leur fonctionnement interne.Conseil en stratégie numérique, Ingénierie et conseil technologique, Design de service, Réalisation logicielle979

 

Sélection d’ESN & conseil IT

> Pour définir l’architecture technique CRM  et intégrer les outils CRM à l’écosystème existant

NomDescriptionSpécialitésNb employés
ArtefactArtefact is an award-winning responsible strategy and design firm. We help your organization face the future with confidence and craft the products and experiences that bring your vision to life. Our touchstone is responsible design – creating lasting value for people, business, and society. Named one of Fast Company's Most Innovative Companies, we partner with organizations like Dell, Hyundai, Eli Lilly, Seattle Children's Hospital, the Bill and Melinda Gates Foundation, and more.user experience design, interaction design, product design, digital innovation, software design, industrial design, creative66
VertoneVERTONE est un cabinet de conseil en stratégie et management. Il se distingue par ses missions d’orientations stratégiques autour des métiers du marketing, du développement commercial, de l'expérience client et de la fidélisation, avec une approche centrée sur le client final. Strategy and management consulting, Marketing strategy, Customer relationship management, Digital strategy, Customer value development, Product and offer strategy, Stratégie marketing, Conseil en stratégie et management, Management de la relation client, Stratégie digitale, Développement de la valeur client, Innovation d'offres et de services, Fidélisation client162
ConverteoGrâce à notre équipe de plus de 200 consultants, spécialistes et experts, nous sommes un accélérateur de performance intervenant du cadrage à la réalisation. Connecteur entre le marketing et l'IT, pragmatique et indépendant, nous œuvrons pour le transfert de compétences à nos équipes clientes.conversion, optimisation, webanalytics, formation, adtech, martech, datalake, datascience, digital marketing, digital consulting, data consulting, DMP, Marketing Automation, data engineering, CRO, Consulting, Marketing, Technologie205
ColombusColombus Consulting est une société de conseil en management spécialisée dans le changement d'entreprise et la gestion de projets complexes. Il intervient sur les secteurs des services financiers, des marchés financiers, de l'énergie et des services publics. Basés en France et en Suisse, nos +170 consultants interviennent au niveau opérationnel et exécutif.stratégie opérationnelle, conduite du changement, pilotage de programmes, systèmes d'information, operational strategy, operations performance optimization, change management, complex program management, méthode agile, organisation, digital, data, CRM, marketing, innovation, MarTech, AdTech, GDPR, RGPD, SAFE, Marketing Automation, Customer service, RPA235
AdoneC’est pour accompagner les grands acteurs du Luxe dans leur transformation digitale et les aider à créer des expériences clients remarquables, qu'Adone Conseil a été créé en 2007. Adone réalise des missions stratégiques et opérationnelles sur des projets e-Commerce, Data, Customer Experience, Digital in Store, PIM-DAM, PLM, Supply Chain ou encore Green Transition.Assistance à maîtrise d'ouvrage (AMOA), Gestion de projet, Conseil en système d'information, Digital, Luxe, Parfums et Cosmétiques, Mode, Horlogerie et Joaillerie, Tourisme, Hôtellerie, Digital in Store, PIM, DAM, CRM, Supply Chain, e-commerce, Data, Analytics, Clienteling, OMS, PMO, Consultant345
AGIDepuis plus de 50 ans, nous avons bâti notre réputation en reflétant les besoins des marques de la meilleure façon possible. Nous comprenons les avantages de tout offrir sous un même toit. C'est pourquoi les architectes, les designers et les entreprises de divers secteurs d'activité choisissent AGI pour tous leurs besoins en matière de signalisation, d'image de marque et de maintenance.Architectural Imaging, Architectural Signage, National Programs, Image Maintenance, Facility Design Services, Interior Signage and Wayfinding, ATM Housing, Kiosks, and Toppers, Digital Signage, Exterior Signage, Innovative Solutions, Sign Maintenance, Electrical Service, EVCE Installation & Service, Interior & Exterior Lighting777
NijiNiji est une société de conseil, de design et de mise en œuvre technologique, au service de la transformation numérique des entreprises. Niji accompagne depuis 2001 un très grand nombre d'acteursdans l’accélération et la réussite de leur mutation digitale, au service de leur stratégie, de leur distribution multicanale et de leur fonctionnement interne.Conseil en stratégie numérique, Ingénierie et conseil technologique, Design de service, Réalisation logicielle979
AccentureAccenture est une entreprise internationale de conseil en management, technologies et externalisation. Combinant son expérience et ses capacités de recherche et d’innovation développées et mises en œuvre auprès des plus grandes organisations du monde sur l’ensemble des métiers et secteurs d’activité, Accenture aide ses clients - entreprises et administrations - à renforcer leur performance.Management Consulting, Systems Integration and Technology, Business Process Outsourcing et Application and Infrastructure Outsourcing1138
KeyrusActeur international du conseil et des technologies, Keyrus a pour mission de donner du sens aux données, en révélant toute leur portée, notamment sous un angle humain. S'appuyant sur l'expérience cumulée de plus de 3 000 collaborateurs et présent dans 22 pays sur 4 continents, Keyrus est l'un des principaux experts internationaux en matière de données, de conseil et de technologie.Management & Transformation, Data Intelligence, Digital Experience2315
TalanTalan est un cabinet de conseil en innovation et transformation par la technologie. Depuis plus de 15 ans, Talan conseille les entreprises et les administrations, les accompagne et met en œuvre leurs projets de transformation et d’innovation en France et à l’international. Conseil, AMOA SI, MOE, Support, Architecture SI, Transformation Agile, Digital, Consulting, IT Consulting, CRM, BIG DATA, IoT, Blockchain, IA, innovation, Data, big data2903
WavestoneÀ la confluence du conseil en management et du conseil numérique, Wavestone accompagne les entreprises et organisations de premier plan dans la réalisation de leur transformation la plus critique sur la base d'une conviction unique et centrale : il ne peut y avoir de transformation réussie sans une culture partagée d'enthousiasme pour le changement. Strategy & Management Consulting, Innovation Management & Funding, Marketing, Sales & Customer Experience, Digital & IT Strategy, Digital & Emerging Technologies, IT & Data Architecture3907
BearingPointBearingPoint est un cabinet de conseil indépendant avec des racines européennes et une portée mondiale.Nous transformons les entreprises. Nous aidons nos clients à atteindre leurs objectifs en appliquant notre profonde expertise sectorielle et fonctionnelle pour comprendre et répondre à leurs besoins spécifiques.Nos consultants sont passionnés et très engagés, avec un état d'esprit pragmatique mais innovant.Business Consulting, Technology Consulting, Management Consulting, Digital & Strategy, Advanced Analytics, Digital Platforms, RegTech, Software Development et Agile Advisor 9154
CGIDes idées sur lesquelles vous pouvez agirFondée en 1976, CGI est l'une des plus grandes entreprises de services-conseils en TI et en affaires au monde. Dans 21 secteurs d'activité et sur 400 sites dans le monde, nous fournissons des services-conseils en TI et en affaires complets, évolutifs et durables qui sont informés à l'échelle mondiale et fournis à l'échelle locale.Business consulting, Systems integration, Intellectual property, Managed IT, Business process services, Digital transformation, Emerging technology57529

 

Conseil opérationnel & Agences CRM

> Pour piloter la mise en place d’un nouvel outil, paramétrer des campagnes / scénarios, créer des messages, etc.

NomDescriptionSpécialitésNb employés
CapitaineMailVotre agence spécialiste de l’email marketing, innovant et performant, à Grenoble.Intégrateur email, délivrabillité, conseil emailing, conception messages1
AltercreationStudio de création graphique et agence digitale au service des entreprises depuis 2006, Alter Création concentre son énergie afin de mettre en lumière tous vos projets de communication, de la création de votre identité visuelle à la réalisation de votre site web, de vos éditions sur tous supports à vos campagnes e-mailings.Design web, Email marketing4
ComexporerAgence de marketing digital à ParisComexplorer est une agence qui propose, grâce à une méthodologie unique, d’aider les entreprises à accroitre leur vente, leur trafic web, à qualifier leur leads, à transformer et fidéliser leur clientèle. Inspiré du modèle startup, l’agence propose une nouvelle approche du marketing, plus pragmatique et plus pertinente : le lean marketing. Inbound marketing, Réseaux sociaux, Growth hacking, Stratégie marketing digital, marketing automation5
BadsenderBadsender est une agence spécialisée en eCRM et en email marketing. Conseil - Stratégie eCRM et emailing, choix outils de gestion de campagne ou audit délivrabilité Déploiement - Qu’il s’agisse de migrer vos données et vos campagnes vers votre nouvelle plateforme emailing ou de déployer votre nouvelle stratégie eCRM Production - L’intégration HTML d’emails, la rédaction de contenus et la conception de designs d’emails Email Marketing, Emailing, eCRM, sCRM, Newsletter, Conseil, Analyse, déploiement, production, fullservice8
MajeliceMajelice est une agence digitale experte en email marketing.Nous accompagnons nos clients dans leur transformation digitale par le biais de mise en œuvre d’opérations de e-marketing (email & SMS).Nous répondons avec le même soin et la même expertise à tous les besoins de nos clients, qu’il s’agisse de la mise en place d’une simple newsletter, d’un scénario de fidélisation ou d’une mécanique complexe de recrutement multicanal. email marketing, emailing, sms marketing, creation graphique, emails personnalisés, campagnes scénarisées, real time email marketing, routage, délivrabilité, responsive design, intégration html, analyse et recommandations, animation de bases de données, newsletters, marketing automation9
FysaneFYSANE est une agence de Marketing Automation dont le siège est basé à Paris. Elle intègre les compétences nécessaires pour mener à bien la transformation digitale de votre entreprise.Notre mission est de vous accompagner dans la réalisation de vos projets, de la conception à la mise en œuvre tout en garantissant un suivi.Notre partenariat avec Adobe nous permet de mettre à disposition des consultants ayant une expertise dans la solution de l’écosystème Marketing Automation Adobe Campaign Classic ou Standard.Marketing Services, Digital, CRM, Adobe Campaign, Intégration HTML, Gestion de campagne cross-canal, ACQUISITION, FIDELISATION, Stratégie Client10
CartelisCabinet de conseil Data Marketing & CRM. Nous accompagnons nos clients, qu'il s'agisse de grands groupes ou de PME, dans leur projet de transformation digitale avec une approche centrée autour des données clients. Notre équipe de consultants de haut niveau met en place des dispositifs d'analyse et d'exploitation des données à très forte valeur ajoutée : modélisation du parcours client, scoring comportemental, benchmark DMP / CRM, déploiement de scénarios relationnels, etc.Architecture CRM, Parcours clients, Plan relationnel, Marketing Automation, RCU / CDP, Analytics, Données clients, RGPD, Data gouvernance, Data Marketing, OKR, Attribution12
InboundValueInbound Value est une agence de communication digitale spécialisée dans l’Inbound Marketing. Notre agence travaille principalement avec des clients en B2B notamment dans le secteur des « SaaS » (Software As A Service). Nous permettons à des entreprises BtoB de saisir les opportunités que leur offre internet, en leur apportant plus de trafic qualifié ainsi que des leads de qualité qui sont susceptibles de devenir des clients.Inbound Marketing, SEO, Social Media, Marketing Digital, Hubspot, Strategie digitale, Content Marketing, Growth Hacking, E-Mail Marketing, Lead Generation, Trafic Generation, B2B, SaaS, Marketing Automation23
CustupCustUp est un conseil opérationnel en Relation Clients. Nous structurons et mettons en œuvre le Marketing Clients et les schémas de dialogue des entreprises. Pour ce faire, nous utilisons le CRM, le Marketing Automation et les Centres de Contacts. Nous organisons la collecte et l’exploitation des Données Clients : le carburant de la Relation Clients à distance.CRM, Centre de contacts, Abonnement, Marketing client, Relation client, Parcours Client, GDPR, RGPD, DMP, Données Client, Service Client, Automated marketing, Formation Relation Client24
MarkentiveMarkentive fournit des talents, des processus et des technologies pour faire de votre transformation un succès. Que votre projet soit de trouver l'inspiration, de construire un écosystème digital (CRM, Site Web, Marketing), de mener des campagnes ou simplement de développer vos compétences, nos experts peuvent vous aider. Markentive vous invite à prendre le chemin de la croissance (pour de bon).Conseil en stratégie, Marketing, strategie digitale, Marketing digital, inbound marketing, Transformation digitale, Hubspot, Marketo, marketing automation, act-on, growth, CRM35
KissTheBrideAgence conseil en marketing client du groupe Loyalty Company.Kiss The Bride marie nativement la précision des data et la force des émotions pour donner naissance à des expériences clients originales, engageantes et profitables. 3 directions d’Agences : Lille / Paris / LyonHub d’expertises pluridisciplinaires : Consulting & Projects management - Data & Engineering - Création, Content & Social - Digital - Plateformes technologiques - Opérations marketing140 collaborateurs - 25 M€ de CA - 21 récompenses professionnelles - +100 clientscommunication, digital, marketing, marketing client, relation client, stratégies de fid et d'engagement, animation de réseaux, performance commerciale, data, expérience client72
WaissoFondée en 2003 par des professionnels du Marketing et du Data, Waisso est une agence digitale spécialisée dans l’optimisation du marketing client en alliant technologie, data et contenu pour une approche plus innovante. Nous avons construit une entreprise où des hommes et des femmes, relevant de différentes expertises (ingénieurs, data scientists, consultant marketing, etc.) travaillent ensembles pour répondre aux nouvelles exigences d’un marketing bouleversé par le digital.Marketing Crm, Marketing Cloud, Adobe Partner, Sprinklr, Gigya, Digital Marketing, Cross Channel, Acquisition, Fidelisation, Oracle, Campaign Management, Consulting, Analytics, Segmentation, Contenu Digital, Big Data, Social Media, Business Intelligence, Mobile Marketing, Acquisition74
DnDSituée à Paris, Montpellier, Lille & Nantes, Dn'D est une agence conseil en création d’expériences digitales et E-Commerce. Elle conseille et accompagne les entreprises du B2B et du B2C (luxe, retail, industrie, grande consommation, etc) dans leur stratégie online depuis 2004.E-Commerce Agency, Consulting, Web Design, Web Development, Web Marketing, Magento, Akeneo PIM, Oro CRM, Mirakl MarketPlace, PWA, Vue Storefront, Adobe, CRM, Marketing Automation et OroCommerce 85
The Social clientNous sommes une agence CX Digitale. Les conversations et interactions composent notre terrain de jeu. Nous concevons, réalisons et animons de nouvelles expériences qui alimentent les conversations entre les marques & les clients. Nous optimisons vos canaux digitaux avec une approche customer centric en identifiant les opportunités et en implémentant de nouvelles solutions.Chatbot, Digital CRM, Digital Marketing, Social Media Management, Social Media Intelligence, Social Ads, Brand Community, Social Influence Marketing, eCRM, Interaction design, Visual IVR, Digital Care, Customer Support, Artificial Intelligence, Automation, Selfcare176
Velvet ConsultingVelvet Consulting est le cabinet leader de l'accompagnement des entreprises dans leur orientation client. Depuis 2004, grâce à 200 passionnés de Marketing, nous accélérons la performance des sociétés en construisant une expérience client riche, innovante et efficace grâce à notre approche globale et la complémentarité de nos pôles d’expertises. Depuis juillet 2020, nous avons rejoint le groupe WPP et le réseau Wunderman Thompson.Stratégie Client, Performance, Innovation, Change, Datamining, Business Intelligence, Digital, CRM, Marketing Automation, Big Data, Mobilité, Omnicanal, Big Data232

 

Cabinets de conseil data

> Pour analyser votre base clients, et exploiter vos données au maximum

NomDescriptionSpécialitésNb employés
InetumPrésent dans 26 pays, Inetum est un leader incontournable des services informatiques à valeur ajoutée et des logiciels. Inetum occupe un positionnement stratégique différenciant entre les opérateurs de taille mondiale et les acteurs de niche. Avec près de 27 000 collaborateurs, le Groupe atteindra ainsi les 2,3 milliards d’euros de chiffre d’affaires sur 2019 (pro forma).Consulting, Applications Services, Infrastructure Services, Software, smart cities, IoT, Blockchain, DevOps, artificial intelligence, Industry 4.0 5
UnnestA la frontière de la Tech et de la Data, UnNest accompagne les équipes marketing in-house ou en agence pour utiliser au mieux leur donnée "First party" Nous mettons en place pour nos clients une équipe data externalisée, capable de délivrer des projets et des applications data en un temps record pour les marques, les "scale up" et les agences de marketing digital.Analytics, Data Consulting, Digital Analytics, Data Marketing, Cloud Data Warehouse, RGPD, Data Engineering, Data Analysis, Tracking, Google Big Query, Fivetran, Google Cloud Platform, ETL et Martech 11
MFGMFG Labs est une société de conseil et réalisation experte en data et en intelligence artificielle. Nous aidons les entreprises à améliorer leurs prises de décisions, à optimiser leurs processus et à créer de nouveaux services grâce à l'application de data science, de digital analytics, de design et des technologies les plus avancées.Data analysis, Data science, Infrastructure, Development, Data engineering, Web analytics, Digital media, machine learning, big data, software development 24
C-WaysC-Ways est une société de conseil spécialisée en data sciences. Grâce à des méthodes innovantes de captation et de modélisation de données, C-Ways accompagne dans leurs décisions les administrations et les entreprises leaders des secteurs de la mobilité, de la mode, du luxe, des services financiers, du sport, de la grande consommation…market research, predictive marketing, data modeling, data science, client surveys, big data, data driven marketing, modeling et creative data 27
ArtefactArtefact is an award-winning responsible strategy and design firm. We help your organization face the future with confidence and craft the products and experiences that bring your vision to life. Our touchstone is responsible design – creating lasting value for people, business, and society. Named one of Fast Company's Most Innovative Companies, we partner with organizations like Dell, Hyundai, Eli Lilly, Seattle Children's Hospital, the Bill and Melinda Gates Foundation, and more.user experience design, interaction design, product design, digital innovation, software design, industrial design, creative66
ElevateThe ELEVATE Group is a collection of 3 hyper-focused businesses each with a different center of gravity. All under one global roof. The result: A Group that's much stronger than the sum of its parts. We bring clarity to our customers toughest revenue generations through Data Integrity, Demand Generation, and Business Insights.Data Integrity, Demand Generation, Data Analytics, Lead Generation, CRM Management, Marketing Automation Management, BI Dashboard Development, Marketing Strategy, Contact Identification73
KeleyStratégie digitale, Omnicanal, Stratégie & expérience client, E-commerce, CRM, Pilotage de projets, Stratégie data, Open Innovation, Acquisition, SEO, UX & Design thinking, Design d'interface, CRO, Branding & communication, Data-driven marketing, Intelligence augmentée et Ingénieri Stratégie digitale, Omnicanal, Stratégie & expérience client, E-commerce, CRM, Pilotage de projets, Stratégie data, Open Innovation, Acquisition, SEO, UX & Design thinking, Design d'interface, CRO, Branding & communication, Data-driven marketing, Intelligence augmentée et Ingénierie 84
RhapsodiesRhapsodies Conseil, s’investit auprès de chacun de ses clients pour concevoir des réponses sur mesure combinant compétences métiers, expertises techniques et pratiques agiles. Nos solutions novatrices sont bâties en collaboration étroite avec nos clients dans une démarche de co-construction garantissant une réponse alignée à leurs besoins.Transformation Agile, Transformation DATA, Architecture SI, Architecture d'Entreprise, Pilotage des Transformations, Performance Economique IT , Internal Digital Experience101
DataValueDataValue Consulting est un cabinet de conseil IT qui accompagne les entreprises des secteurs privé et public dans la valorisation de leur data. Le cabinet spécialiste s'appuie sur une double compétence de ses consultants en management et en technologie. Nous aidons nos clients depuis la formalisation de leur stratégie jusqu’à la mise en œuvre de leurs projets data.Conseil, Stratégie IT, Big Data, Data Management, Pilotage de la performance, Business Intelligence, Gouvernance de la Data, Datavisualisation, Data Management, Data Intégration134
ConverteoGrâce à notre équipe de plus de 200 consultants, spécialistes et experts, nous sommes un accélérateur de performance intervenant du cadrage à la réalisation. Connecteur entre le marketing et l'IT, pragmatique et indépendant, nous œuvrons pour le transfert de compétences à nos équipes clientes.conversion, optimisation, webanalytics, formation, adtech, martech, datalake, datascience, digital marketing, digital consulting, data consulting, DMP, Marketing Automation, data engineering, CRO, Consulting, Marketing, Technologie205
KPCKPC est un acteur de référence dans le pilotage de la performance et de l’expérience client. Grâce à la convergence de nos savoir-faire, nous proposons des solutions pour construire l’entreprise intelligente et digitale de demain. La gestion intelligente des données est au coeur de notre ADN, et de notre culture d’entreprise. Nos partenariats stratégiques et nos équipes pluri-disciplinaires permettent à KPC d’offrir à ses clients la vision, l’expérience et le savoir-faire nécessaires pour développer, personnaliser, intégrer et déployer les solutions les plus performantes.Data Intelligence & Analytics, Customer Experience & Digital, ERP, Data Science, Big Data, Marketing Automation, Transformation Numerique, Crm, Adobe Campaign, Ia, Salesforce,, Selligent Et Anaplan 219
KeyrusActeur international du conseil et des technologies, Keyrus a pour mission de donner du sens aux données, en révélant toute leur portée, notamment sous un angle humain. S'appuyant sur l'expérience cumulée de plus de 3 000 collaborateurs et présent dans 22 pays sur 4 continents, Keyrus est l'un des principaux experts internationaux en matière de données, de conseil et de technologie.Management & Transformation, Data Intelligence, Digital Experience2315
TalanTalan est un cabinet de conseil en innovation et transformation par la technologie. Depuis plus de 15 ans, Talan conseille les entreprises et les administrations, les accompagne et met en œuvre leurs projets de transformation et d’innovation en France et à l’international. Conseil, AMOA SI, MOE, Support, Architecture SI, Transformation Agile, Digital, Consulting, IT Consulting, CRM, BIG DATA, IoT, Blockchain, IA, innovation, Data, big data2903
Business & DécisionsBusiness & Decision est un groupe international des services du numérique, spécialisé, depuis sa création, dans l’exploitation et l’analyse de données.  Data Intelligence, Big Data, Data Gouvernance, véritables socles de l’intelligence artificielle et de l’expérience digitale, sont les domaines d’expertise et de spécialisation du groupe.  Business & Decision, filiale d’Orange Business Services, emploie 2 400 talents dans 10 pays dans le monde et dans 14 villes en France. Data, Digital, CRM, Digital Transformation, Data Science, Data Visualisation, Gouvernance des données, Intelligence artificielle, Protection des données, Green AI, Data Mesh 2921

 

Intégrateurs data / CRM

> Pour mettre en place les flux de données, et paramétrer les outils CRM

NomDescriptionSpécialitésNb employés
CeziumCezium est votre partenaire de confiance sur tous les sujets relatifs au marketing digital:- spécialiste des solutions de marketing automation (notamment Salesforce Marketing Cloud)- conseil avisé sur les sujets DMP (POC ou stratégie d'industrialisation)- partenaire innovant (ISV sur la plate-forme Salesforce avec des applications dédiées à Marketing Cloud) - coaching et formation.marketing, martech, salesforce, adobe, dmp, marketing cloud, customer experience, analytics, customer journey, cdp, sfmc7
AtejaAteja founded in 2012. Intégrateur des solutions CRM Sage. Sage CRM Standard. Développement de projets ETL Talend Open Studio. Déploiement de portail intranet Microsoft Sharepoint. Emploi 5 personnes. www.ateja.fr Basé à Euratechnologies - technopole NTICSageCRM, CRM, Sharepoint, Talend Open Studio, INES CRM, Sage CRM, Salesforce23
SynalticDepuis 2004, Synaltic est un véritable spécialiste en Data Management, et propose une nouvelle perspective sur les systèmes d’information de plus en plus « Data Driven ». Grâce à ses choix de partenaires dès leur plus jeune âge et l'appui de ses 30 collaborateurs certifiés, Synaltic accompagne ses clients dans toutes les étapes de la valorisation de leurs données. Il s’agit d’un véritable artisan de la donnée avec des valeurs indissociables telles que le partage, la curiosité, la polyvalence, l'innovation et la durabilité.Expertise, Projet, Formation, Support, R&D, Data Preparation, Dataviz, Développement, Data Lake, Data Integration, Méthodologie Projet, Conseil, Open Source, Open Data, Data Management, Business Intelligence30
AIDAI&DATA est la plus ancienne société de Data Marketing en France. Créés en 1972 (nous fêtons nos 50 ans en 2022 !), nous avons déjà réalisé plus de 2 000 projets data, principalement pour les Grands Comptes, tous secteurs confondus. Nous travaillons principalement pour des grands comptes dans tous les secteurs d’activité : Leclerc Voyages, Compagnie Marco Polo, Bioderma, Botanic, EDF, Puy du Fou, MAIF, Harmonie Mutuelle, Société Générale, etc... Au total, nous gérons pour ces marques près de 250 millions de clients et 50 milliards de transactions par an.Datamining, CRM services, Data Quality, Marketing strategy, Datascience, Datamarketing, Textmining, Machine Learning, Consulting, Data Training56
SynoliaSynolia est une société de conseil et de services spécialisée dans la mise en place de dispositifs sur-mesure plaçant le client au cœur de l’entreprise. Rapidement Synolia tisse des liens étroits avec des éditeurs innovants et s’entoure des meilleurs talents, tous partageant les mêmes valeurs d’innovation, d’excellence et de proximité. CRM, eCommerce, eBusiness, SugarCRM, Magento, Prestashop, QlikView, Marketing Automation, OroCRM, relation client, CRM Open Source, Salesfusion98
AvisiaFondé en 2007, AVISIA est devenu au fil des années un acteur de référence en Data, Digital & Technologies. A travers une équipe de passionnés, nous sommes spécialisés dans le Conseil, l’Intégration et la réalisation de projets « Data Centric ». Business Intelligence, Performance Analytique, Big Data, Conseil & AMOA, Data Science, Digital, Data Engineering, Décisionnel, Web Analytics, Google Cloud Platform, Dataiku, SAS, Google Analytics182
CylleneChez Cyllene, on couvre le spectre complet de votre besoin en termes de : 1. Conseils 2. Définition d’architectures 3. Hébergement & Services managés 4. Cybersécurité & Formations 5. Déploiement de technologies applicatives et web 6. Data Intelligence & Data AnalyticsRCU, CDP, Architecture data, Hébergement, Maintenance, Infogérance, Base de données, Data analytics218

Télécharger notre Top 70+ prestataires CRM français

Pour accéder à la ressource, il vous suffit de vous inscrire en quelques clics.
Au clic sur le bouton ci-dessous, vous arriverez sur un formulaire d'inscription rapide. Une fois inscrit, il y a un onglet "Ressources" qui apparaîtra dans le menu du haut qui vous permettra d'accéder à l'ensemble des ressources en téléchargement gratuit. Avec un peu de chance, vous aurez une bonne surprise, il y aura d'autres ressources qui vous seront utiles 😊

👉 Je m'inscris pour télécharger la ressource

Comment mesurer le ROI de mon dispositif data ?

Il n’est pas facile de mesurer le ROI d’un dispositif data ou l’impact d’une fonction data. Pour un dirigeant soucieux de bien doser ses investissements, c’est un challenge.

Il y a au moins 2 raisons qui expliquent cette difficulté :

  • La fonction data est relativement nouvelle. Il n’y a pas encore de framework faisant autorité permettant de mesurer son impact. D’ailleurs, le rôle et la place dans l’organisation de la fonction data ne sont pas toujours bien clairs. Certaines équipes data reportent au CTO, d’autres aux CFO, d’autres au CMO…
  • La fonction data a un impact indirect sur les KPIs business de l’entreprise. Il s’agit d’une fonction support qui n’est pas directement génératrice de revenus comme peuvent l’être les fonctions Marketing ou Sales.

Télécharger notre template ROI Data Stack gratuitement

Notre conviction est que le ROI d’une fonction data varie suivant la taille de l’équipe data. C’est une idée que nous avions déjà présentée dans notre guide pour structurer la fonction Data / Analytics en startups. Pour résumer :

  • Votre équipe data a entre 0 à 5 personnes ? Son rôle principal est la fiabilisation des données, c’est-à-dire la gestion de la qualité des données. C’est sur cela que vous allez pouvoir la juger et mesurer son ROI.
  • Votre équipe data a entre 5 à 10 personnes ? Son rôle principal est l’opérationnalisation des données, c’est-à-dire la mise à disposition des données directement dans les outils des équipes métier.
  • Votre équipe data a plus de 10 personnes ? Son rôle est l’amélioration de la productivité des équipes.
roi team data enjeux
Source : Castordoc.

De ces rôles ou objectifs découlent des indicateurs que nous allons vous détailler. Nous avons aussi conçu pour vous une ressource GSheets 100% home-made qui devrait vous être utile. Pour produire ce guide, nous avons choisi de nous inspirer du beau travail réalisé par nos amis anglophones de chez Castordoc.

ROI d’une petite équipe data : Fournir des données fiables

Une petite équipe data (entre 0 et 5 personnes) doit se concentrer sur un objectif principal : fournir des données propres et fiables aux équipes business et aux décisionnaires. C’est donc la qualité des données qui va servir d’étalon pour mesurer le ROI de l’équipe et de l’infrastructure data.

Il existe 5 critères pour évaluer la qualité d’une donnée : l’exactitude, l’exhaustivité, la cohérence, la fiabilité et l’utilisabilité. Chacun de ces critères peut se décliner en KPIs et être utilisé pour évaluer le ROI de l’équipe data.

L’exactitude

L’exactitude des données définit le niveau de correspondance entre vos données et la réalité. C’est le critère de base. Si le nombre de commandes enregistré dans le data warehouse est différent de celui rapporté par les commerciaux, il y a un problème, vos données sont inexactes Le KPI consiste à évaluer la proportion de données exactes parmi l’ensemble de vos données.

roi stack data exactitude

Une autre approche consiste à calculer le taux d’exactitude pour chaque data set et à le rendre accessible aux utilisateurs sous la forme d’un pourcentage affiché dans leurs outils. On peut ensuite définir une règle de gouvernance : « si moins de X% d’exactitude, ne pas utiliser ce champ ».

La complétude

Le taux de complétude désigne le pourcentage de champs complétés pour un attribut donné. Par exemple, si vous avez l’adresse postale de 80% de vos contacts, 80% est le taux de complétude de l’attribut « adresse ». On peut aussi calculer le champ de complétude d’une base de données, en prenant en compte l’ensemble des colonnes. Le taux de complétude se mesure de la manière suivante :

roi stack data completude
Là encore, le taux de complétude peut être affiché dans les outils des utilisateurs métier et des règles peuvent être définies pour déterminer à partir de quel taux de complétude un champ peut être utilisé (pour créer un segment par exemple).

La cohérence

La cohérence désigne l’absence de conflit entre vos données. Si vous avez 2 outils qui stockent les adresses postales et que ces 2 outils affichent des valeurs différentes, il y a un conflit et donc un problème de cohérence. Soit dit en passant, l’unification des données dans une base centrale résout ce problème. Mais on peut aussi parler de conflit dans un même outil si, par exemple, votre revenu mensuel n’est pas cohérent avec votre chiffre d’affaires et vos coûts. Il y a donc 2 types de conflits. La cohérence est plus complexe à calculer que les autres métriques. Elle se calcule à deux niveaux : entre deux colonnes, entre deux tables.

roi stack data coherence

La fiabilité

Une donnée est fiable si elle fait l’objet de confiance de la part des personnes qui l’utilisent. Pour qu’une donnée soit fiable, elle doit disposer d’un niveau de garantie suffisant quant à sa qualité. Si l’équipe marketing décide de ne pas utiliser telles données parce qu’elle estime qu’elles ne reflètent pas la réalité, il y a un problème de fiabilité. La fiabilité est un critère subjectif dépendant des critères objectifs présentés plus haut : exactitude, complétude et cohérence. Il y a plusieurs manières de mesurer la fiabilité des données.

roi stack data fiabilite

L’utilisabilité

La question est simple : est-ce vos données sont utilisées par le métier ? Pour être utilisées, elles doivent être utilisables. Pour être utilisables, les données doivent être facilement accessibles et facilement interprétables.

Un ensemble de données répondant aux 4 critères vus précédemment peut très bien être inutilisable si les données sont difficiles à trouver et à comprendre…L’utilisabilité est le critère ultime de qualité des données. On peut améliorer l’utilisabilité des données en ajoutant des métadonnées, en documentant les données. D’où la métrique que nous vous proposons.

roi stack data utilisabilite

Deux autres métriques sont possibles : le nombre de requêtes d’utilisateurs demandant à ce que la donnée soit présentée autrement, le nombre d’utilisateurs cibles utilisant effectivement les systèmes qui leur sont destinés.

ROI d’une équipe data de taille intermédiaire : Faciliter l’exploitation opérationnelle des données

Une équipe data de taille intermédiaire (entre 5 et 10 personnes) n’a plus pour seul objectif de fiabiliser les données pour aider l’entreprise à prendre des décisions data-driven. Elle doit aussi rendre ces données exploitables au quotidien par les équipes métiers, par les opérationnels. L’exploitation opérationnelle de la donnée est son enjeu.

Impact sur les performances opérationnelles

Créer des reportings avec des données fiables, c’est bien, mais les données n’ont pas seulement vocation à alimenter des tableaux de bord. Le niveau supérieur consiste à pousser les données directement dans les outils utilisés par le métier pour que les équipes puissent utiliser les données au jour le jour, dans leurs process quotidiens. Les données sont « opérationnalisées ».

C’est, par exemple, mettre en place un flux permettant que le NPS remonte automatiquement dans la fiche client du CRM, avec mise à jour en temps réel quand il s’agit de données chaudes. Et plus largement, cela consiste à faire en sorte que les segments, les scores et autres agrégats calculés dans l’outil de data management soient automatiquement synchronisés dans les applicatifs métier, au bon endroit.

C’est ce que l’on appelle « l’operational analytics », qui est facilitée par l’adoption d’outils gérant les flux de données de la base centrale vers les différents applicatifs (ce qu’on appelle les Reverse ETL).

Nous avons produit un article invité sur le site du Journal du Net au sujet de cette approche « operational analytics » . Si vous voulez aller plus loin, nous vous en recommandons chaudement la lecture.

A un niveau plus avancé donc, mesurer le ROI d’une équipe data ou d’une stack data va consister à mesurer l’augmentation des performances des équipes métiers grâce aux données mises à disposition dans leurs outils. Grâce aux données rendues opérationnelles :

  • Les marketers utilisent des segments plus fins qui leur permettent de concevoir des campagnes mieux ciblées
  • Les commerciaux priorisent mieux les leads dans leur pipeline
  • Le support priorisent mieux les tickets

Nous avons conçu un framework qui va vous aider à mesurer le ROI de l’operational analytics sur la partie qui nous intéresse : le marketing. Le fonctionnement de ce framework est simple :

  • Vous renseignez le coût de votre dispositif data : le coût homme et le coût logiciels.

roi stack data template octolis couts

  • Vous estimez ensuite ce que vous pourriez gagner grâce à votre stack data. Pour cela, vous devez définir vos différents cas d’usage et, pour chaque cas d’usage, faire une estimation de son impact sur la réduction des coûts d’acquisition et/ou sur la performance (conversion, panier moyen, fréquence d’achat).

roi equipe data cas usage operationnels

  • Les pourcentages sont calculés en valeurs monétaires sur la base des métriques que vous avez renseignées dans le template.

roi equipe data cas usage operationnels 2

Une fois tout cela fait, vous n’avez plus qu’à utiliser la formule [(gains – coûts) / coûts] pour calculer le ROI de votre dispositif data.

Impact sur l’Analytics

Une bonne infrastucture data, une bonne stack data permet aussi de booster le ROI de l’équipe data. Il y a plusieurs métriques ou dimensions à prendre en compte pour mesurer cet impact :

  • L’équipe data est moins sollicitée pour fournir des analyses ad hoc. L’operational analytics permet aux équipes métier de gagner en autonomie dans la production d’analyses adhoc du fait de la mise à disposition des données directement dans les applicatifs et de l’utilisation d’outils self-service business user-friendly.  Pour mesurer cet impact, vous pouvez utiliser la métrique suivante :

roi stack data impact analytics

  • L’équipe data a plus facilement et rapidement accès aux données. Un manque de documentation, l’absence de data cataloging ou une mauvaise gouvernance des données peuvent compliquer l’accès aux données. Il faut parfois plusieurs jours pour qu’un data scientist accède aux données dont il a besoin pour construire ses modèles. Avec une bon dispositif data, les professionnels de la donnée perdent moins de temps à accéder aux données et consacrent plus de temps à les analyser, les exploiter.

roi stack data impact analytics accessibilite

  • L’équipe data répond plus rapidement aux demandes du métier. La mise en place d’une stack data moderne ou, en tout cas, d’une infrastructure data cohérente permet de traiter plus rapidement les demandes des équipes métier. Comment calculer cet impact ? Par exemple en mesurant la satisfaction des équipes métier vis-à-vis de l’équipe data ou en calculant un temps moyen de réponses (plus difficile à mesurer…).

ROI d’une équipe data importante : Améliorer la productivité

Une équipe data bien structurée, comportant au moins 10 personnes, peut se proposer des objectifs encore plus ambitieux : améliorer la productivité de l’organisation. Comment ? De 3 manières : en optimisant la stack data, en réduisant le temps passé par les équipes métier sur les sujets data, en améliorant la productivité des équipes analytics et métier.

Optimisation de la stack data

Dans une stack data moderne, l’architecture Data et IT est simplifiée. Finies les infrastructures lourdes basées sur des solutions anciennes On-Premise, finie la multiplication inutile des outils, fini le temps perdu à maintenir des pipelines de données complexes ou des bases de données qui tombent régulièrement en panne.

L’un des ROI d’une équipe data mature réside dans sa capacité à mettre en place une stack data moderne adaptée aux objectifs/besoins de l’entreprise et à optimiser le coût général de l’infrastructure data, du management de la data.

Comme nous l’expliquions dans notre article De la stack data moderne à l’expérience data moderne, « la stack data moderne rend simple, rapide, souple et abordable ce qui était autrefois compliqué, long, rigide et coûteux ». L’automatisation des process, des flux, l’effondrement des coûts de stockage, tout cela fait gagner du temps et de l’argent.

Comprendre la stack data moderne

Un Data Engineer qui aurait été cryogénisé en 2010 et que l’on réveillerait aujourd’hui ne comprendrait pas grand-chose à la stack data moderne. Il n’a fallu que quelques années pour que tout change dans la manière de collecter, extraire, acheminer, stocker, préparer, transformer, redistribuer et activer les données. On vous explique tout dans notre guide introductif à la Stack Data Moderne.

Réduction du temps passé par les équipes métier sur les sujets data

L’objectif d’une équipe data mature est, par les moyens qu’elle met à disposition, par l’infrastructure qu’elle construit, de limiter le temps passé par les équipes métier à travailler sur des sujets data, que ce soit construire des reportings, effectuer des analyses adhoc ou synchroniser les données entre les outils, etc.

Notre framework vous permet de calculer le coût total lié au temps passé par les équipes métier sur les sujets data. Vous pouvez vous en servir pour estimer ce que cela vous coûte aujourd’hui et ce que cela vous coûterait si vous optimisiez l’organisation des équipes et votre dispositif data.

roi team data productivite equipe

Productivité des équipes data

Une organisation et une infrastructure data solides permettent d’augmenter la productivité de l’équipe data. Une équipe data mature comprend deux types de profils bien distincts :

  • Les ingénieurs data, chargés de gérer l’infrastructure, les pipelines, la disponibilité des données.
  • Les analystes, au sens large, ce qui inclut les data analysts et les data scientists.

Dans une équipe data structurée, chacun de ces deux types profils génère un ROI différent pour l’entreprise :

  • Le ROI principal délivré par les « ingénieurs data » = la disponibilité des données pour les analystes. Les ingénieurs data ont rarement un impact direct sur les KPIs business d’une entreprise. En revanche, on peut mesurer leur impact sur la productivité des équipes analytics. La disponibilité (et la fraîcheur) des données est un bon indicateur pour évoluer l’efficience d’une stack data. Quels KPIs utiliser ? Par exemple, le nombre de fois qu’un dataset est délivré dans les temps aux équipes analytics, ou bien la fréquence de rafraîchissement des datasets (jour, heure, temps réel). Une autre solution consiste à mesurer le downtine, c’est-à-dire le temps perdu à résoudre les incidents. Voici comment le mesurer :
roi stack data downtime
Si vous avez 10 incidents data par mois et que chacun prend en moyenne 4 heures pour être détecté et 3 heures pour être résolus, votre downtime mensuel est de 70 heures.
  • Le ROI principal délivré par les « analystes data » = la réduction du volume de sollicitations provenant des équipes métier. On pourrait dire, en caricaturant un peu, que les ingénieurs data travaillent à améliorer la productivité des analystes data et que les analystes data travaillent à améliorer la productivité des équipes métier. Si les équipes métier (marketing, sales, service client, finance…) passent leur temps à interroger les analystes pour obtenir des réponses à leurs questions, c’est que les données ne sont pas suffisamment opérationalisées. Cela impacte leur productivité mais aussi celles des analystes data, qui ont moins de temps à consacrer à leur cœur de métier : la production d’analyses (data analysts) et la production de modèles (data scientists). Le ROI des analystes de la data peut se mesurer au volume de sollicitations en provenance des équipes métier.

roi stack data equipe data analytics

En résumé :

  • Le ROI des ingénieurs data se mesure à l’impact qu’ils ont sur la productivité des analystes data.
  • Le ROI des analystes data se mesure à l’impact qu’ils ont sur la productivité des équipes métier.

Plus que jamais, à ce stade de maturité de l’équipe data, ce n’est pas les outputs (la qualité des données, par exemple) qui permettent d’évaluer le ROI de l’infrastructure data, mais les impacts (sur le business).

Conclusion

Résumons-nous. Notre conviction est que c’est la taille, le degré de maturité de l’organisation et le niveau de structuration de l’équipe data qui déterminent les objectifs et les indicateurs de mesure de ROI de la fonction data. Le rôle et le niveau d’ambition d’une équipe data ne peuvent pas être le même suivant qu’elle comporte 2 ou 30 personnes…

  • Si votre entreprise a une fonction data récente avec des ressources limitées (0 – 5 personnes), c’est sa capacité à fournir des données fiables au métier qui servira de boussole pour évaluer le ROI.
  • Si votre entreprise dispose d’une fonction data plus étoffée et plus mature (5 – 10 personnes), c’est la capacité à « opérationnaliser » les données qui servira d’indicateur.
  • Si votre entreprise a une fonction data structurée, comportant au moins 10 personnes avec des rôles bien définis, répartis entre les ingénieurs data et les analystes data, le ROI se mesurera à partir de l’impact sur la productivité de l’entreprise.

Une fois que l’on a compris l’objectif principal de la fonction data de son entreprise, les métriques sont relativement faciles à déduire. Nous vous en avons donné quelques-unes, vous pourrez sans doute en imaginer d’autres. Nous espérons aussi que la ressource que nous avons produite vous sera utile. Nous comptons sur vous pour en faire un bon usage 🙂

Téléchargement de notre template ROI Data Stack.

Pour accéder à la ressource, il vous suffit de vous inscrire en quelques clics.
Au clic sur le bouton ci-dessous, vous arriverez sur un formulaire d'inscription rapide. Une fois inscrit, il y a un onglet "Ressources" qui apparaîtra dans le menu du haut qui vous permettra d'accéder à l'ensemble des ressources en téléchargement gratuit. Avec un peu de chance, vous aurez une bonne surprise, il y aura d'autres ressources qui vous seront utiles 😊

👉 Je m'inscris pour télécharger la ressource

Notre sélection des meilleurs exemples de programmes de fidélisation

Dans la course vers une relation client toujours plus personnalisée et omnicanale, les programmes de fidélisation qui visent à récompenser les clients réguliers et à instaurer avec eux une relation durable jouent un rôle de plus en plus important.

Ces programmes répondent à un constat simple, 15 à 20% de clients qui représentent 50 à 80% de votre chiffre d’affaires : il est donc nécessaire de valoriser le plus possible vos meilleurs clients.

L’objectif de ces programmes est triple :

  • Augmenter la rétention
  • Faire croître leur panier moyen et leur Lifetime Value (LTV)
  • Diminuer le coût d’acquisition client.

Les programmes de fidélités modernes, auxquels les clients sont plus sensibles, dépassent le simple avantage économique. Plus encore, l’éternelle « carte de fidélité » n’est plus un élément indispensable d’un programme. Il vaut mieux désormais se recentrer sur la relation avec le client pour proposer une expérience unique qui vous permettra de vous distinguer de la concurrence.

Nous avons donc sélectionné les exemples les plus réussis dont vous pouvez vous inspirer pour vos programmes de fidélités.

#1 Appartenance à un club avec le Nike+ Run Club

Nike programme de fidélité

Le Nike+ Run club permet à tous les utilisateurs de l’application Nike, débutant ou confirmé, d’appartenir à un « club » et d’être accompagné dans la pratique de leur sport. Le mot d’ordre dans la description de l’application par Nike : « nous sommes là pour vous », est représentatif de cette volonté.

Les utilisateurs font ainsi partie d’une très large communauté organisée autour de la marque de sport. On peut y enregistrer ses chaussures, suivre le détail de ses performances et partager chacune de ses courses.

L’une des forces de cette application est sa gratuité : même un utilisateur qui n’est pas encore client chez Nike peut s’inscrire et faire partie de cette communauté. Une fois membre, l’utilisateur est plus susceptible de devenir client ou de le rester.

L’autre atout de cette application est le coaching personnalisé – là encore accessible gratuitement. Chaque utilisateur est donc accompagné dans la pratique de son sport par un « coach » virtuel de Nike, une voix qui guide l’utilisateur lors de ses courses. Nike prend ainsi une place importante dans la pratique du sport par l’utilisateur, qui associe alors la marque à sa progression.

#2 Les programmes à points, le club Oh My Cream

OhMyCream programme de fidélité

Le programme à point est un système simple grâce auquel le client va gagner un certain nombre de points par euro dépensé, en échange desquels il peut bénéficier d’avantages exclusifs et de réductions.

Ce système permet d’inciter directement le client à accroître la taille de son panier, ce dernier étant récompensé en fonction de la valeur de ses achats. De plus, le fonctionnement simple et clair de ce type de programme facilite l’adhésion des utilisateurs qui ont facilement accès à la grille de récompenses.

Un exemple de programme à points est le club Oh My Cream, de la marque de soin skincare. Ce club repose sur 3 niveaux – Argent, Or et Platine – qui offrent des réductions, mais donnent également accès à des ventes privées et même à des initiations exclusives et des journées privilèges.

Ainsi, pour chaque euro dépensé, le client gagne un point. Parvenu à 220 points, le client entre dans le programme au niveau Argent et reçoit un bon de réduction de 10% utilisable sur la commande de son choix. Ce système continue jusqu’à ce que le client atteigne les 1300 points – le niveau Platine – lorsque sa fidélité est récompensée par des invitations exclusives à des évènements privés, et où chacune de ses commandes est agrémentée d’une surprise.

Le club Oh My Cream est donc un exemple intéressant de programme à points. Facilement compréhensible et transparent, les clients y adhérent rapidement. Plus encore, ce système ne repose pas seulement sur une offre économique, mais propose aussi des expériences uniques aux clients les plus fidèles.

#3 Le parrainage avec Mon Petit Placement

Mon petit placement programme de fidélité

Les programmes de parrainage récompensent une autre facette de la fidélité du client : les recommandations. Leur objectif premier est d’accroître la base de clients en se reposant sur les utilisateurs existants. Cela présente plusieurs avantages :

  • Réduction du coût d’acquisition client :

En laissant les utilisateurs promouvoir eux-mêmes la plateforme, l’entreprise réalise des économies significatives. Pour que cela soit effectivement rentable, il est nécessaire de calculer l’avantage qu’en retirent les parrains pour que l’offre soit incitative et en même temps intéressante économiquement pour l’entreprise.

  • Sélection des clients potentiels :

Les utilisateurs qui recommandent la plateforme le font à des individus très susceptibles d’être intéressé par le service. C’est donc un moyen indirect mais précis de sélectionner les clients potentiels.

  • Récompense pour l’attachement à l’entreprise :

Ce système de récompense dépasse les simples récompenses liées aux achats et encourage les clients à recommander le service, créant de fait un plus grand attachement à la marque.

Le programme de fidélité de Mon Petit Placement est un exemple de système de parrainage efficace. Chaque parrain bénéficie de 15% de réduction à vie par filleul sur ses frais de gestion, et chaque filleul reçoit à son tour cette réduction de 15% lors de la création de son compte. Plus encore ces réductions sont cumulables ! C’est donc un système simple dont les utilisateurs bénéficient directement et qui récompense de façon importante les individus qui recommandent Mon Petit Placement.

#4 Mettre en avant les valeurs partagées : Body Shop

Bodyshop programme fidélité

Tous les programmes de fidélités ne sont pas construits seulement autour d’avantages économiques. The body shop par exemple a centré son offre de fidélité autour de ses valeurs d’entreprise, notamment la lutte contre les violences sexuelles.

Le programme de fidélité The Body Shop offre la possibilité de convertir ses points de récompenses en dons. Ainsi, les récompenses ne bénéficient pas directement au client mais sont transmises à une association de son choix.

En opérant ainsi, l’entreprise se rapproche de ses clients à travers une lutte commune pour des valeurs partagées. Ce système reposant sur la charité permet donc de créer une relation plus profonde avec le client qui développe alors un attachement plus important pour la marque. Les clients sont généralement sensibles à ce type de programme qui permet de dépasser la simple relation commerciale et de mettre en avant des valeurs importantes pour l’entreprise.

#5 Le programme de fidélité par palier : Philosophy

Philosophy programme de fidélité

La marque de produits cosmétiques Philosophy a choisi un type de programme de fidélité semblable à celui à points, mais en y incluant un système supplémentaire de paliers. Comme pour le système à points, le client dispose d’une certaine cagnotte liée à son activité lui permettant d’accéder à des avantages exclusifs. Cependant, le programme de Philosophy présente deux différences notables :

  • Le multiplicateur de points :

Les clients sont répartis en 3 niveaux en fonction du nombre de points dont ils disposent. A chaque niveau est associé un multiplicateur de points. Ainsi, un client au premier niveau gagne des points à chaque achat selon une grille, au deuxième niveau le nombre de points gagnés est multiplié par 1,25 et au troisième niveau par 1,5. Les avantages du multiplicateur sont même renforcés pendant le mois de l’anniversaire du client.

Ce système récompense ainsi les clients à la hauteur de leur fidélité. Plus encore la marque les incite directement à passer à l’échelon supérieur en leur envoyant mensuellement un « compteur de gratitude » et surtout en proposant une gamme d’articles sélectionnés pour le client à partir de ses commandes passées.

  • Gain de points supplémentaires :

Philosophy ne récompense pas seulement les achats mais aussi l’activité de ses clients sur les réseaux sociaux. Des points supplémentaires peuvent être gagnés en échanges d’actions en ligne, comme le fait de suivre la marque sur les réseaux ou d’écrire un avis. De plus, la marque a intégré le parrainage dans son système à points.

Philosophy a donc mis en place un programme de fidélité très complet, qui récompense les différentes facettes de la fidélité du client à la hauteur de son attachement à la marque.

#6 Le programme de fidélité payant avec Barnes & Noble

Barnes and Noble programme de fidélité

Ce type de programme de fidélité se distingue sensiblement de ceux évoqués précédemment, car le client doit ici payer pour en faire partie. Si cette stratégie peut sembler contre intuitive au premier abord, elle peut cependant s’avérer très efficace pour inciter le client à finaliser sa commande et ainsi augmenter la LTV des membres du programme.

En effet, en rendant payant l’accès à des avantages exclusifs, l’entreprise est en mesure de proposer un service plus complet et plus attrayant. Ces avantages permettent de réduire le taux d’abandon de panier – de plus de 75% – en réduisant drastiquement le nombre de barrières à l’achat. Ces barrières à l’achat, telles que les frais et délais de livraison, peuvent ainsi être supprimées avec des offres de livraison gratuite et/ou prioritaire, des coupons de réductions …

Barnes and Noble propose un tel type de programme de fidélité : pour 25€ par an, le client a accès à un service de livraison gratuit, à des ventes exclusives et à de nombreuses réductions.

Il est cependant primordial de porter une attention particulière à la valeur que l’offre représente pour un client lorsque l’on met en place ce type de programme. Les économies potentiellement réalisées grâce à ce type d’offre doivent être suffisamment supérieures au coût de l’abonnement pour convaincre le client d’y souscrire.

#7 Autre type de programme de fidélité : les abonnements

Le petit ballon programme de fidélité

Les abonnements peuvent être considérés comme une forme de programme de fidélité qui donne un accès exclusif à un service uniquement réservé aux clients abonnés.

Ce type d’offre présente un avantage particulier par rapport aux autres programmes : en engageant les clients sur une certaine durée, une entreprise va mécaniquement augmenter la LTV de sa clientèle. Généralement, le coût mensuel d’un abonnement est inversement proportionnel à la durée de l’engagement. Ainsi l’entreprise fidélise ses clients sur la durée et les incite à rester sur le long terme.

Le petit ballon, une marque permettant de découvrir chaque mois des bouteilles de vin livrées à domicile, fidélise sa clientèle au travers d’abonnements. Il n’est pas possible d’avoir accès à ce service pour une durée inférieure à 3 mois, ce qui garantit à l’entreprise un minimum de 3 achats par clients abonnés.

Le système d’abonnement suppose néanmoins que le client est disposé à payer de manière régulière pour avoir accès aux produits de l’entreprise. C’est donc un programme de fidélité particulièrement efficace, mais dont la mise en place dépend évidemment du type de service que propose la marque.

En conclusion : cherchez la simplicité

Il existe de nombreuses variantes des programmes de fidélités, chacune ayant ses spécificités, qui permettent d’attirer les clients auprès de la marque et d’accroître leur Lifetime Value.

Cependant, la condition nécessaire à la réussite de tous ces programmes reste l’engagement des clients. Un membre d’un programme de fidélité doit y souscrire et en faire usage pour que la mise en place d’un tel système soit source de valeur pour l’entreprise.

Notre recommandation principale, quel que soit le type de programme, est donc : la simplicité. Il est nécessaire de mettre en place un système simple et facile à comprendre pour que le client y adhère et en fasse usage régulièrement.

De l’application Nike à l’offre d’abonnement Le petit ballon, tous les exemples que nous avons sélectionnés proposent une offre que l’on comprend instantanément – coach running, livraison gratuite, ventes privées… – et dont on saisit directement la valeur. Le client peut ainsi facilement se projeter et est alors plus susceptible de devenir membre du programme.

ROPO : Comment mesurer son impact et en tirer parti ?

Vous avez un site e-commerce. Certains visiteurs s’y rendent pour faire leurs recherches mais finalisent leur parcours d’achat en magasin. Il y a donc une part du CA des magasins qui est attribuable en droit au digital. Comment la mesurer ? C’est l’enjeu du ROPO, un enjeu d’attribution très simple à comprendre, plus difficile à traiter.

Les enjeux liés au ROPO sont plus actuels que jamais. Les points de contact dans le Retail se sont multipliés. On parle maintenant de commerce omnicanal, de « commerce unifié ». Les barrières entre le digital et le offline sont enjambées sans scrupule par les consommateurs.

Contrairement à ce qu’on prédisait il y a 10 ou 20 ans, le e-commerce n’a pas dépassé le commerce physique, qui reste loin devant. Le vrai chantier de travail consiste par conséquent à améliorer la coordination du online et du offline pour générer plus de ventes en ligne et en magasin.

Le ROPO est un comportement client qu’il faut intégrer dans les modèles d’analyse de la performance.

Notre volonté dans cet article est double :

  • Vous aider à mesurer le ROPO, c’est-à-dire la part des ventes offline attribuable à vos efforts digitaux (site web, email…).
  • Vous montrer comment on peut utiliser le ROPO pour améliorer le chiffre d’affaires global de l’entreprise.

Ajoutons que le ROPO est un enjeu marketing ET organisationnel. On ne peut pas faire l’impasse sur ce deuxième aspect. Bon nombre des problèmes business auxquels peut faire face une entreprise trouvent leur origine dans des problèmes d’organisation.

En l’occurrence, beaucoup de retailers se sont développés en deux pôles séparés : un pôle magasins et un pôle e-commerce. Force est de constater que les objectifs des responsables de magasins ne sont que très rarement harmonisés avec les objectifs des responsables e-commerce. Cela crée des problèmes en interne en termes d’attribution des ventes, si ce n’est des conflits.

La mesure et la prise en compte du ROPO ont aussi pour finalité de casser cette logique pour que les deux dimensions – online & offline – ne soient plus concurrentes mais complémentaires, et que toutes les fonctions business de l’entreprise aillent dans la même direction.

Le ROPO : un enjeu marketing encore et toujours d’actualité pour les retailers

Research Online Purchase Offline [ROPO] – Définition

ROPO est l’acronyme de Research Online, Purchase Offline. Le ROPO décrit la part du chiffre d’affaires réalisé en magasin qui revient aux efforts investis online.

Il n’y a pas un commerçant qui ne doute de l’influence du online sur le offline. Combien de parcours d’achat commencent sur le web pour s’achever en magasin ?

« Je cherche un produit sur un site internet en utilisant mon ordinateur ou mon mobile, je le trouve, je cherche le magasin le plus proche de chez moi, je vérifie qu’il a ce produit en magasin, si oui je m’y déplace pour l’acheter ».

Le offline peut aussi influencer les ventes online, même si c’est moins le sujet de notre article :

« Je me balade dans la rue par une belle journée estivale, j’entre dans un magasin, je découvre mon futur frigidaire dans les rayons, mais je préfère commander sur le site web pour bénéficier de la livraison ».

Voici deux exemples typiques de la manière dont le online et le offline peuvent s’intégrer dans un même parcours d’achat. Nous aurions aussi pu parler du click & collect, bien sûr. On utilise le web pour acheter, mais aussi pour trouver un magasin ou vérifier que le magasin a le produit recherché.

La part des ventes en magasin attribuable au digital porte le nom d' »effet ROPO ».

ropo marketing effect
Source : Google.

En 2008, Google France publiait les résultats d’une enquête mettant en avant l’effet ROPO. Dans le schéma ci-dessous, extrait de cette étude, on peut voir que beaucoup de recherches en ligne aboutissent sur un achat en magasin. L’inverse existe aussi, mais dans une proportion beaucoup plus faible. Ces chiffres sont périmés mais ont pour mérite de montrer que le ROPO n’est pas une réalité nouvelle.

effet ropo etude google
Source : Google. Il s’agit des résultats d’une enquête menée en 2008. Beaucoup de choses ont changé depuis. La part de recherches réalisée en ligne est bien supérieure à 39% aujourd’hui, mais on voit déjà, en 2008, qu’une partie des recherches en ligne aboutit à des achats en magasin. C’est la définition même de l’effet ROPO.

On pourrait multiplier les statistiques démontrant l’impact du comportement ROPO. Il y a par exemple une étude de DigitasLBi Global Survey menée en 2014 qui nous apprend que 88% des consommateurs font des recherches en ligne avant d’acheter en magasin (Source). On a aussi trouvé une étude du très sérieux organisme Statista qui mesure l’impact du ROPO pour chaque famille de produits. L’étude est plus récente (2021) mais ne concerne que le marché polonais…Si ça vous intéresse, vous pouvez aller y jeter un œil.

Il est finalement assez difficile de trouver des chiffres, des études. La faiblesse de la littérature statistique illustre la difficulté qu’il y a à mesurer l’effet ROPO. Mais nous allons vous donner des techniques pour y arriver 🙂

Pourquoi cette tendance est toujours d’actualité ?

L’effet ROPO a été mis en évidence il y a 15 ans mais il est plus d’actualité que jamais. Pourquoi ? Parce que, plus que jamais :

  • Les consommateurs lisent des avis clients en ligne avant de se déplacer en magasin pour acheter. Les avis clients sont utilisés pour se faire une idée sur un produit, un service, une marque, un magasin…Une étude du cabinet McKinsey de 2021 a montré que le volume d’avis clients déposés en ligne avait bondi de 87% entre 2019 et 2020. La lecture des avis est devenue un incontournable en phase de recherche.
  • Les consommateurs utilisent internet pour trouver leur magasin. Une étude Bright Local de 2017 montre que 97% des consommateurs utilisent le web pour trouver un magasin proche de chez eux. On utilise le web non seulement pour découvrir des produits et les notes attribuées par les clients à ces produits, mais aussi pour trouver des magasins où se déplacer.

comportement ropo etude bright local

  • Les consommateurs utilisent le web pendant leur expérience en magasin. Beaucoup de consommateurs sortent leur smartphone quand ils sont en magasin que ce soit pour comparer les prix, télécharger leur coupon, vérifier s’il existe des promotions sur le site, scanner des QR codes, chercher des produits.

La conclusion qui s’impose est simple : la plupart des achats en magasin sont l’aboutissement d’un parcours d’achat qui a commencé sur le web.

Pourquoi les magasins physiques sont-ils encore si importants ?

On a un moment cru que l’ecommerce prendrait la place du commerce physique, que les boutiques en ligne finiraient par remplacer les magasins physiques. Force est de constater que cette prédiction ne s’est pas accomplie.

Le commerce en ligne (produits et services) a encore connu une belle progression en France en 2021, s’établissant à 129 milliards d’euros. Mais il faut remettre les choses en perspective et rappeler que cela ne représente que 14,1% du commerce de détail (Source : Fevad). Près de 5 achats sur 6 sont donc réalisés en magasin.

statistiques ecommerce france
Source des données : Fevad. Graphique produit par Comarketing News. Malgré la progression importante et continue du ecommerce, la vente en ligne ne représentait que 14,1% du commerce de détail en 2021 en France.

Comment expliquer la place toujours largement prédominante des magasins dans le commerce de détail ?

Il y a deux raisons principales selon nous :

  • Les clients aiment essayer les produits avant de les acheter. Et ça, ce n’est pas possible sur une boutique en ligne…On recherche en ligne, mais on préfère se déplacer en magasin pour toucher, essayer, regarder, sentir avant d’acheter.
  • Les clients ont une aversion pour la livraison. Sur internet, la livraison est le principal frein à l’achat. Les délais de livraison, les coûts de livraison, la complexité des procédures de retour font partie des principales raisons des abandons de panier.

Comment mesurer l’impact du digital sur les ventes physiques ?

Passons maintenant de la théorie à la pratique. Il existe trois approches pour mesurer l’impact du digital sur les ventes en magasin.

#1 Créer un multiplicateur ROPO basé sur les données Google Analytics

Cette technique permet de mesurer la contribution indirecte de votre site ecommerce sur vos ventes en magasin en utilisant Google Analytics.

Précisons d’entrée de jeu que le calcul du ROPO repose nécessairement sur un modèle d’attribution probabiliste, et non déterministe (sauf dans le cas du click & collect).

Des signaux ROPO aux hypothèses

La démarche consiste d’abord à :

  • Identifier les signaux du comportement ROPO. Le store locator est l’exemple de signal par excellence d’un comportement ROPO. Vous pouvez légitimement faire l’hypothèse qu’un visiteur de votre site qui recherche sur votre site web le magasin le plus proche de chez lui a l’intention de se déplacer en magasin pour acheter.
  • Construire des hypothèses crédibles, basées sur l’expérience de l’équipe marketing, sur les résultats des campagnes marketing passées. Il y aura forcément une dose d’intuition dans ces hypothèses, il est impossible de faire autrement. Pour chaque signal identifié, vous devez faire 3 hypothèses :
    • Le pourcentage de signaux qui se transforme en visite en magasin. Si l’on reprend notre exemple, il est possible d’estimer le pourcentage d’utilisateurs du store locator qui sont vraiment en recherche active d’un magasin en analysant de manière avancée les parcours web dans Google Analytics.
    • Le pourcentage de visites en magasin qui se transforment en achat (taux de conversion en magasin).
    • Le panier moyen des visiteurs de magasins provenant du site web. Vous pouvez vous baser sur le panier moyen qui apparaît dans vos reportings.

Des hypothèses au calcul de l’effet ROPO

Ces hypothèses vont vous permettre de calculer le revenu offline attribuable à votre site ecommerce. Si vous avez 10 000 visiteurs par mois qui utilisent le store locator, que vous faites les hypothèses que 20% se déplaceront effectivement en boutique, que 40% d’entre eux achèteront pour un panier moyen de 50 euros, vous pouvez estimer que le chiffre d’affaires généré grâce au store locator de votre site web est de :

10 000 x 0,20 x 0,40 x 50 = 40 000 €

Vous devez faire le même calcul pour tous les signaux digitaux que vous avez identifié.

Il faut aussi, bien entendu, intégrer les achats click & collect.

De l’effet ROPO au calcul du coefficient multiplication ROPO

Une fois que vous avez une estimation du chiffre d’affaires magasin généré grâce au ecommerce, vous pouvez définir un coefficient multiplicateur ROPO. Il se calcule en divisant le chiffre d’affaires online par le chiffre d’affaires généré en magasin grâce au site. Si votre ecommerce génère 100 000 euros de CA par mois et que le CA généré offline grâce au site est estimé à 50 000 euros, votre coefficient est de 2.

Ce coefficient multiplicateur vous permet de gagner du temps dans le calcul du ROPO. Vous avez fait 200 000 euros de CA ecommerce ce mois-ci ? Alors, le CA ROPO est de 100 000 euros. Vous n’avez plus qu’à intégrer ce coefficient dans le compte de résultats pour mesurer la contribution réelle du digital au chiffre d’affaires global de l’entreprise.

#2 Evaluer la contribution de l’email sur le CA des magasins

La première technique permet de mesurer la part du site ecommerce dans le CA en magasin. La deuxième technique que nous allons vous présenter va vous permettre cette fois de mesurer la contribution de l’email, de vos campagnes et scénarios d’emailing.

Là encore, il s’agit de construire un modèle d’attribution basé sur des hypothèses. La technique consiste à attribuer X% des ventes offline au canal email en fonction des ouvertures et clics dans vos emailings. Il est important de prendre en compte la dimension temporelle, c’est-à-dire le temps qui s’écoule entre l’ouverture ou le client et la vente offline.

Voici la démarche à suivre :

  • Vous définissez les campagnes emailings qui entrent dans le périmètre de votre calcul, à savoir : les campagnes emailings qui selon vous ont un impact sur les ventes physiques. Vous pouvez intégrer toutes les campagnes de nature promotionnelle.
  • Vous définissez une règle d’attribution : si 100 clients cliquent dans un email et qu’ils achètent en magasin dans les XX jours suivant l’ouverture, alors vous attribuez YY% des ventes au canal email. Il y a donc 2 choix à faire, et même 3 :
    • Le choix de l’événement email : l’ouverture ou le clic. Le clic témoigne d’un niveau d’engagement plus élevé que la simple ouverture. Nous avons pour cette raison tendance à conseiller à nos clients d’utiliser le clic.
    • Le choix de la plage de temps : 30 jours, 45 jours, 60 jours…Le choix doit être cohérent avec le cycle d’achat moyen et les habitudes d’achat dans votre secteur d’activité.
    • Le pourcentage d’attribution au canal email en cas de conversion magasin.

Ce modèle d’attribution n’est possible que si et seulement si vous identifiez les clients qui achètent en magasin, au moyen du programme de fidélité ou autre.

#3 Evaluer la contribution du site web sur le CA des magasins

Cette troisième approche est une alternative à la première approche basée sur le coefficient multiplicateur ROPO. Elle est identique à la deuxième approche dans son fonctionnement.

La technique utilisée pour mesurer la contribution du canal email aux ventes offline peut en effet aussi être utilisée pour mesurer la contribution du site ecommerce. Si un internaute visite le site ecommerce et qu’il achète en magasin dans les XX jours suivant, la vente est attribuée au ecommerce. On peut ajouter plus de granularité dans l’analyse en déclinant :

  • Selon le canal d’acquisition du visiteur ecommerce : SEO, AdWords…
  • Selon le nombre de pages visitées : on peut par exemple décider d’attribuer 20% d’une vente physique au site ecommerce si le visiteur a visité 2 pages, 40% s’il a visité 10 pages, etc.
  • Selon la nature des pages visitées, leur degré d’intention. Si le visiteur visite la page produit du produit X et qu’il achète ce produit X en magasin 10 jours après, l’attribution est plus évidente que si ce visiteur avait visité la page d’un produit appartenant à une autre famille (ou, pire, une page institutionnelle).

Il existe beaucoup de possibilités pour complexifier le modèle, mais une chose est sûre : il n’est praticable que sur les visiteurs identifiés du site web et en magasin.

Comment transformer l’effet ROPO en opportunités business ?

L’analyse du ROPO ne sert pas simplement à améliorer l’attribution des ventes entre le digital et le offline. Le ROPO peut aussi être utilisé comme levier pour améliorer la stratégie marketing et générer plus de revenus. Voici quelques pistes d’actions.

Utiliser le ROPO pour adapter la stratégie marketing et augmenter les ventes (online et offline)

L’analyse de l’effet ROPO permet d’adapter sa stratégie marketing afin d’augmenter la conversion en magasin et sur le site. Dans un de ses articles de blog, Matthieu Tranvan, expert marketing, propose une démarche intéressante. Elle consiste à construire une segmentation client basée sur le ROPO.

Le graphique ci-dessous, tiré d’un cas client de Matthieu Tranvan, présente les différences de taux de conversion en fonction de deux variables :

  • La présence ou non d’un magasin dans la région du visiteur web.
  • L’utilisation ou non du store locator.

ropo attribution canal ecommerce

Les résultats ne sont pas surprenants : un visiteur qui utilise le store locator et qui découvre qu’il existe un magasin près de chez lui convertira beaucoup moins sur le site ecommerce. Il se sert du site ecommerce pour trouver son magasin et se déplace dans le magasin proche de chez lui pour effectuer son achat.

On peut dégager 3 personas à partir de cette analyse :

  • Persona 1 : une personne vivant en zone urbaine, plutôt jeune, qui utilise le site pour trouver un magasin proche de chez lui. Il préfère acheter en magasin.
  • Persona 2 : une personne qui vit également en zone urbaine mais qui préfère acheter en ligne plutôt que de se déplacer en magasin. Elle n’utilise pas le store locator. On peut imaginer une personne urbaine mais plus âgée ou une personne avec des enfants à charge – en tout cas il s’agit d’une personne moins encline à marcher ou à prendre sa voiture pour effectuer un achat.
  • Persona 3 : une personne qui est en dehors de la zone de chalandise d’un magasin, qui habite probablement en zone rurale ou périphérique. Cette personne utilise le site internet pour faire ses achats, par nécessité plus que par choix.

Voici un exemple de segmentation que l’on peut créer à partir d’une analyse du ROPO. Cette segmentation peut ensuite être utilisée pour affiner sa stratégie marketing et ses offres promotionnelles : remise en magasin, livraison offerte, livraison en 1 jour…

Le ROPO comme levier pour augmenter la conversion web

Pour finir nous allons vous présenter trois techniques consistant à augmenter la conversion web grâce au ROPO.

#1 Améliorer votre scénario de relance de panier abandonné

La première consiste à intégrer les achats en magasin dans votre scénario de relance de panier abandonné. Imaginez une personne qui visite votre site web, qui ajoute un produit à son panier et l’abandonne avant de finaliser la commande. Que faites-vous ? Vous lui envoyez un message de relance. C’est comme ça que fonctionne tout bon scénario de relance de panier abandonné.

Sauf qu’il est possible que ce client décide d’acheter le produit en magasin. Combien de paniers abandonnés sur le web se transforment en paniers achetés en magasin ? Plus que vous ne le croyez !

Notre conseil : intégrez les données transactionnelles magasins dans votre scénario de relation de panier abandonné. Cela vous permettra de ne pas envoyer l’email de relance aux clients qui ont finalement acheté en magasin, mais de leur envoyer à la place un email post-transactionnel. Cela suppose d’étendre un petit peu le délai avant l’envoi du message de relance…

#2 Inciter à l’achat les visiteurs du site web pendant leur recherche sur votre site

S’il y a un effet ROPO, cela veut bien que vos clients commencent leur parcours d’achat sur votre site ecommerce. Il existe des leviers pour augmenter le taux de conversion ecommerce, pour inciter les visiteurs à convertir plus rapidement pendant leur phase de recherche. Comment ? En levant les freins à l’achat en ligne.

C’est-à-dire ? Par exemple, en mettant en avant le fait que la livraison est gratuite si c’est le cas, que les retours sont gratuits, si c’est le cas, en améliorant la visibilité des produits qui correspondent aux préférences, habitudes, comportements navigationnels des visiteurs, etc. Vous pouvez aussi inciter les visiteurs à conclure leur achat sur le web en leur proposant des remises, un cadeau au-delà de X euros achetés, etc.

Cet article n’a pas pour vocation de vous détailler les différentes stratégies possibles pour augmenter le taux de conversion d’un site ecommerce, mais sachez que si vous avez un effet ROPO, c’est d’abord parce que votre site ecommerce est un point de contact clé de votre business. Un point de contact qui peut être optimisé.

#3 Mesurer l’effet ROPO des campagnes Facebook Ads

Facebook propose une fonctionnalité qui permet de mesurer l’impact des publicités sur les achats en boutique. Vous pouvez tracer les achats en magasin qui ont eu lieu suite à une exposition à une annonce Facebook.

Pour utiliser cette fonctionnalité, vous devez charger vos données clients (email, téléphone, nom et prénom, adresse, date de naissance) dans votre compte Facebook. Cela vous permet ensuite d’identifier les achats magasin réalisés suite à l’exposition à une publicité. Vous pouvez régler la durée : 24 heures, 7 jours, 28 jours…

Nous arrivons à la conclusion de cet article.

Résumons les 2 enjeux du ROPO :

  • Réussir à le mesurer pour rendre à César ce qui est à César, en identifiant la part des ventes offline que l’on doit attribuer au digital (site ecommerce, emailings…).
  • Exploiter l’analyse de l’effet ROPO pour booster aussi bien les ventes ecommerce que les ventes en magasin.

Nous avons abordé ces deux sous-sujets, sans avoir la prétention de les épuiser. Mais nous espérons que cet article a répondu aux principales questions que vous vous posiez sur le ROPO.

Vous l’aurez compris, la mesure et l’utilisation du ROPO supposent une bonne intégration des données, une réconciliation des données online et offline.

C’est là qu’une Customer Data Platform légère comme Octolis peut intervenir.

En tant qu’éditeur, mais aussi dans notre ancienne vie de consultants, nous avons eu l’occasion d’accompagner des entreprises confrontées à des enjeux d’attribution dont celui du ROPO.

Si vous êtes en prise avec ces problématiques, qui sont aussi de beaux challenges à relever, nous pouvons en discuter ensemble. N’hésitez pas à nous contacter si vous voulez savoir comment une solution comme Octolis peut vous aider à intégrer l’effet ROPO dans votre stratégie marketing. On vous répondra rapidement, promis.

Pourquoi ma société est-elle passée d’Excel à Power BI ?

Pour lire, analyser et interpréter les data, la première solution d’une entreprise est souvent l’utilisation de tableurs tels qu’Excel ou Google Sheets. Les fonctions de création de visuels de ces outils permettent de rapidement faire parler nos données. Mais ces tableurs ont leurs limites, et beaucoup d’entreprises ont fait le choix de passer à des outils de data visualisation tels que Power BI (développé par Microsoft, Power BI est actuellement le leader sur le marché des outils de data visualisation).

Nous avons recueilli le témoignage de Rémi et Pierre, ils ont tous les 2 fait le choix de passer d’Excel à Power BI au sein de leur entreprise, mais avec des profils assez différents :

  • Rémi est Sales Manager, et ex Data Manager à BMS International (Vendeur Amazon dans le top 100 des vendeurs Amazon européens). A BMS International, ils utilisent la data tous les jours pour suivre la rentabilité de nos produits, fournisseurs, transporteurs, équipes…
  • Pierre est PDG de la société AXAL, leader de la livraison spécialisée, le déménagement et le transport d’œuvres d’Art dans le grand Est. Afin de rester concurrentiel, AXAL a besoin de franchir un cap dans l’exploitation de la grande quantité de données qu’ils ont en leur possession.

Jean-Pascal Lack

Data Viz & Power BI Expert

Ingénieur centralien et expert Power BI avec plus de 7 années d’expérience, Jean-Pascal a accompagné de nombreuses entreprises (des grands groupes comme Sanofi, LVMH à des PME) à mettre en place des tableaux de bords Power BI pour différents usages métiers.

D’où vous est venue l’idée de passer à Power BI ?

🗣️ Rémi

Notre start-up étant assez jeune, nous utilisions uniquement des fichiers Google Sheets pour faire du reporting. Cependant, au fur et à mesure que nous grandissions, le nombre de data a exploité a grandi exponentiellement, et nous nous sommes vite retrouvés face aux limites de Google Sheets : une taille de fichier limité à 4 millions de cellules, et un fichier qui devient déjà lent dès le franchissement du seuil d’1 million de cellules.

On ne pouvait donc pas conserver la data au niveau le plus fin (détail des ventes au jour), nous étions alors obligés d’agréger les data à la semaine voire au mois : cela avait un double désavantage, nous perdions non seulement en finesse des data et donc d’analyse, mais l’agrégation des data était aussi un travail long et manuel.

Par ailleurs, dès que l’on voulait analyser la data selon un nouvel axe (par marque, année de lancement, zone de production, performance des produits), il fallait recréer un outil pour transformer et agréger la data selon l’axe voulu.

Nous avons donc fait le choix de nous tourner vers un outil de data visualisation, dont contrairement à Excel ou Google Sheets, la fonctionnalité première est l’analyse et la visualisation des données.

🗣️ Pierre

Dans notre société nous avons 3 ERP différents pour chacun de nos services. Il en résulte que la data ainsi que les quelques tableaux de bord étaient éparpillés.

Nous avons donc fait le choix de passer à un outil de data visualisation pour améliorer ces 2 points d’une part automatiser l’extraction de la data, d’autre part faciliter et centraliser l’accès à nos tableaux de bord.

Suite à un audit sur notre stratégie digitale ainsi qu’une recommandation de notre partenaire KPMG, nous avons creusé la piste de l’outil de data visualisation Power BI.

Nous nous sommes alors aperçus des points ci-dessous qui nous ont confortés sur le choix de Power BI :

  • Power BI est intégré à la suite Microsoft 365 (que l’on utilise déjà chez nous)
  • Il est possible de consulter nos rapports Power BI directement via le web (sans avoir à installer un logiciel)
  • Power BI est largement utilisé dans le monde de l’entreprise et est leader sur son marché

💡 L’avis de Jean-Pascal Lack, expert Power BI

Avec la grande quantité de données éparpillées dans les différents outils qu’utilise une entreprise, il devient très difficile d’analyser précisément la data, soit juste avec un simple tableur, soit via les indicateurs standards mis à disposition par l’outil.

Pour permettre à son entreprise de faire les meilleurs choix, en s’appuyant sur des KPI explicites, adéquats et précis, l’utilisation d’un outil de data visualisation devient vite nécessaire. Ils sont une multitude à avoir émergé ces dernières années, dont le leader actuel est Microsoft Power BI.

Gartner outils BI 2022

Que vous apporte Power BI de plus comparé à Excel ?

🗣️ Rémi

La migration vers Power BI nous a permis de revoir nos différentes règles métiers ainsi que les transformations depuis nos sources de données. Alors qu’avant nous avions des règles de métiers différentes en fonction des outils/ services, désormais nous avons homogénéisé nos règles et centralisé au même endroit toutes nos sources de données. Cela nous a permis d’améliorer grandement notre confiance en nos données.

« Désormais nous avons homogénéisé nos règles et centralisé au même endroit toutes nos sources de données. Cela nous a permis d’améliorer grandement notre confiance en nos données »

Par ailleurs, une fois le modèle de données créé sous Power BI, une autre grande force de Power BI est sa capacité de filtrer facilement et rapidement la donnée selon plusieurs axes de son choix. Nous avons pu gagner en profondeur de l’analyse et identifier des patterns qui ne nous étaient pas facilement accessibles auparavant.

🗣️ Pierre

Excel est très flexible, mais malheureusement Excel ne permet pas de facilement d’extraire de la donnée. Cette étape d’extraction de la donnée de nos différents outils était donc très chronophage et les collaborateurs n’avaient pas le temps de produire (et donc consulter !) les indicateurs internes. Par faute de temps, ils produisaient et consultaient les indicateurs seulement lorsque cela leur était directement demandé.

Grâce au module d’extraction et de transformation de données de Power BI, le temps de production de nos rapports a été divisé par 4 au moins ! Désormais les collaborateurs produisent et consultent quotidiennement les différents indicateurs et cela change complètement notre manière de piloter nos activités. Nous allons même extraire des informations avec Power BI dans des fichiers PDF, ce qui nous semblait à l’époque inimaginable car trop manuel.

« Grâce au module d’extraction et de transformation de données de Power BI, le temps de production de nos rapports a été divisé par 4 au moins ! »

Par ailleurs, la mise en forme est plus poussée avec Power BI, ce qui permet de faire des tableaux de bord très clairs. En témoigne l’adoption très rapide de Power BI par les différents services, chacun a désormais son tableau de bord.

💡 L’avis de Jean-Pascal Lack, expert Power BI

Power BI est bien plus performant que Excel dans bien des domaines, mais si je devais donner mon top 3, cela serait :

  1. Automatisation et extraction des données.Power BI peut se connecter à une multitude de sources de données (fichier Excel, CSV, PDF, TXT, site web, base de données, outils en ligne tels qu’Asana, Zendesk, Google Analytics mais aussi à un dossier contenant des centaines de fichiers Excel ayant un format similaire) via son ETL (Power Query).
    Par ailleurs Power BI dispose d’une interface de mise à jour automatique des données d’un tableau de bord ce qui permet de s’assurer que les utilisateurs consultent toujours un tableau de bord à jour.
  2. Accepte un gros volume de données. Power BI peut se connecter à plusieurs sources de données, créer plusieurs tables de données, les nettoyer, les transformer, les relier entre elles, et ceci sur plusieurs dizaines de millions de lignes de données. Pour le lecteur d’un tableau de bord sous Power BI, l’affichage des visuels sera quasiment instantané, il ne remarquera même pas que derrière un simple visuel se cachent en réalité des millions de lignes d’informations. Cela est littéralement impossible sur un tableur tel qu’Excel.
  3. Interface de création de visuel très user-friendly. Pas besoin d’être un expert en UX pour faire des rapports clairs via Power BI ! L’interface se base principalement sur un système de drag & drop ce qui la rend très intuitive. Par ailleurs, Power BI propose une grande sélection de visuels, même des cartes géographiques, qui sont paramétrables et personnalisables en quelques clics sans taper une ligne de code.

 
interface tableau exemple

L’interface de Tableau

Quelles sont vos limites actuelles avec Power BI ?

🗣️ Rémi

Au début, nous nous attendions à migrer tous nos rapports et outils Excel sous Power BI. Cependant, il est important de noter qu’un utilisateur ne peut pas rentrer de la data dans Power BI, car Power BI se limite à être un outil spécialisé dans la data visualisation.

Nous avons alors compris que l’on ne remplacera pas tous nos fichiers Excel par des rapports Power BI, mais plutôt que Power BI est complémentaire à Excel, puisque c’est l’outil qui permet de visualiser des données rentrées sous Excel.

« on ne remplacera pas tous nos fichiers Excel par des rapports Power BI, mais plutôt que Power BI est complémentaire à Excel, puisque c’est l’outil qui permet de visualiser des données rentrées sous Excel. »

 

🗣️ Pierre

L’interface de Power BI est relativement facile à prendre en main, ce qui nous permet après une petite formation de créer assez facilement nous-même des rapports assez simples. Par contre, si l’on veut créer des KPI sur mesure, ou faire des tableaux de bords plus poussés, nous avons besoin d’un expert Power BI, c’est là que nous avons fait appel à un consultant externe.

💡 L’avis de Jean-Pascal Lack, expert Power BI :

Grâce à son interface intuitive, un utilisateur novice ayant eu une formation peut rapidement créer son propre tableau de bord. En revanche, dès que l’on veut créer un tableau de bord se basant sur plusieurs tables de données ou créer des indicateurs spécifiques, il faudra faire appel à un utilisateur expérimenté sur Power BI, afin de garantir d’avoir à la fois un rapport performant, mais aussi des KPI justes.

Par ailleurs, il ne faut pas avoir à choisir entre Excel ou Power BI, ce sont avant tout deux logiciels complémentaires. Excel est un tableur, il permet de très facilement de saisir de la donnée, alors que Power BI est un outil qui permet entre autres de justement de mieux visualiser la donnée qui est présente dans ses fichiers Excel.

A-t-il été difficile pour votre société de vous former sur Power BI ou de trouver des personnes avec ces compétences ?

🗣️ Rémi

Nous avons pris plus d’un an pour trouver la bonne personne ! Etant donné que nous n’avions aucune personne avec un profil IT, nous cherchions plus qu’un simple développeur Power BI, mais un analyste qui pouvait avoir une vraie compréhension des enjeux du business, et qui pouvait tout prendre en charge, de la rédaction du cahier des charges, au développement et déploiement de la solution au sein de l’entreprise.

Par ailleurs, du fait de la spécificité de notre activité, nos besoins en reporting évoluent quasiment tous les trimestres. C’est pourquoi nous avons fait le choix de recruter en CDI un expert data avec plusieurs années d’expérience.

🗣️ Pierre

Nous n’avions pas la compétence en interne et nous n’avions pas besoin d’une personne à temps plein sur Power BI, suite à des recommandations nous nous sommes donc tournés vers la plateforme de freelance Malt.

Depuis 6 mois désormais, un freelance expert Power BI nous accompagne à hauteur de 3 heures par semaine sur la mise en place et le déploiement de tableaux de bord Power BI.

Lors de la sélection de notre freelance, nous avons mis l’accent sur l’aspect pédagogique du freelance. En effet, nous voulions devenir au maximum autonomes sur la création, la maintenance et l’évolution de nos tableaux de bord. Nous avons désormais plusieurs personnes chez nous qui peuvent créer par eux-mêmes leurs propres tableaux de bord via Power BI !

« Lors de la sélection de notre freelance, nous avons mis l’accent sur l’aspect pédagogique du freelance. En effet, nous voulions devenir au maximum autonomes sur la création, la maintenance et l’évolution de nos tableaux de bord. »

 

💡 L’avis de Jean-Pascal Lack, expert Power BI :

Si vous voulez déployer Power BI au sein de votre entreprise, le recrutement d’un expert Power BI est recommandé pour vous assurer que les bons choix sont faits dès le début.

En fonction de votre profil et de votre besoin, vous pourrez alors vous tourner vers une des 3 solutions suivantes : recruter en interne, recruter un freelance, ou passer par une ESN.

Le choix de l’ESN est souvent le plus sécurisé (où l’ESN aura la charge de répondre précisément à votre besoin, et disposera d’une expertise approfondie sur tous les sujets de la data), mais la plus chère.

Le recrutement d’un freelance expérimenté (via une des multiples plateformes qui existent) est une solution qui présente l’avantage d’être très rapide et flexible, tout en combinant un bon rapport qualité/prix.

Enfin le recrutement en interne vous assurera un meilleur transfert de connaissances au sein de votre entreprise. C’est l’option la moins chère mais aussi la moins flexible.

De la stack data moderne à l’expérience data moderne

Qu’est-ce que la stack data moderne ?

La stack data moderne a un sens différent suivant la personne à qui vous vous adressez.

Pour les ingénieurs analytics, c’est un bouleversement technologique majeur. Pour les fondateurs de startups, c’est une révolution dans la manière de travailler. Pour les investisseurs, ce sont des dizaines de milliards de dollars levés et un marché florissant. Pour Gartner, la stack data moderne est à la base d’une stratégie data & analytics totalement nouvelle.

Etc. Etc.

Pour nous, la stack data moderne rend simple, rapide, souple et abordable ce qui était autrefois compliqué, long, rigide et coûteux.

Il fallait autrefois dépenser des dizaines de milliers d’euros pour maintenir une base de données qui tombait régulièrement en panne, embaucher un ingénieur à temps plein pour intégrer les données Salesforce au data warehouse, payer toute une équipe de développeurs pour permettre aux analystes d’utiliser SQL dans un navigateur.

Aujourd’hui, tout cela ne vous prend que 30 minutes. C’est un game changer incroyable.

Les organisations n’ont pas encore pleinement pris conscience de la révolution apportée par la stack data moderne. C’est notre conviction et c’est aussi celle partagée par Benn Stancil, chief analytics officer et fondateur de Mode, dans une très belle tribune publiée sur son blog « The Modern Data Experience« . Nous nous en sommes très largement inspirés pour rédiger l’article que vous vous apprêtez à découvrir.

Nous le rejoignons complètement sur la nécessité de penser la stack data moderne comme une expérience. La finalité n’est pas de construire une nouvelle architecture data/tech, c’est de transformer l’expérience des utilisateurs (business, data et tech). A trop penser techno, on finit par en oublier l’essentiel et faire échouer les projets.

Les limites de la stack data moderne

La stack data moderne peine à rendre la data plus accessible aux utilisateurs business

Nous avons vu que chacun s’accordait à penser que la stack data moderne était quelque chose de formidable, même si c’est pour des raisons différentes. Mais interrogez les utilisateurs business, vous n’aurez pas le même son de cloche. Pour eux, la stack data moderne n’a rien de fantastique.

Pour la plupart des gens en fait (je parle des gens agréables, sociaux, du genre à pouvoir passer une soirée sans se disputer sur le formatage SQL), la stack data moderne est une expérience, et souvent…un ensemble d’expériences désagréables :

  • Essayer de comprendre pourquoi la croissance ralentit la veille du conseil d’administration
  • Essayer de mettre tout le monde d’accord sur les revenus trimestriels quand les différents outils & dashboards disent tous des choses différentes.
  • Partager à un client les métriques d’usage de son produit et entendre ce client vous expliquer que sa liste d’utilisateurs actifs inclut des individus qui ont arrêté d’utiliser le produit depuis plus de 6 mois.
  • Recevoir un message Slack du CEO qui vous dit que son rapport d’activité quotidien est encore cassé.
  • Etc.

Pour reprendre l’analogie d’Erik Bernhardsson, fondateur de Modal Lab, si la stack data moderne est un restaurant, toutes les frustrations que l’on vient de décrire sont celles que l’on a lorsque l’on mange un plat sans saveur. Le chef a investi dans l’amélioration des cuisines, mais les clients (les utilisateurs business, mais aussi les analystes data) sont ici pour déguster de bons plats servis par un personnel attentionné dans un cadre agréable.

Tant que vous n’arrivez pas à ce résultat, votre technologie, votre « stack data moderne », si révolutionnaire qu’elle soit, est quelque chose de théorique.

Définition et analyse de la Stack Data Moderne

Vous n’êtes pas certain de comprendre ce que recouvre ce terme ? Dans ce cas, nous vous invitons chaudement à lire notre article introductif à la stack data moderne. Vous y découvrirez ce qui a conduit à cette nouvelle organisation des outils au service d’un meilleur usage de la data et les principales briques constituant la stack data moderne.

La stack data moderne se résume trop souvent à une multiplication des outils

Les utilisateurs business n’arrivent pas à utiliser les données comme il faudrait. Ils sont insatisfaits, frustrés. La première réaction quand quelque chose ne fonctionne pas consiste à multiplier les outils. On crée des cartographies de tous les outils et systèmes à disposition et on essaie de trouver l’endroit où on pourrait venir en caler un nouveau.

Même si chaque outil pris individuellement permet de réaliser les tâches pour lesquelles il est fait de manière plus efficace, fractionner l’écosystème en utilisant des briques de plus en plus petites ne permet pas de résoudre les vrais challenges.

stack data moderne mapping
Représentation d’une stack data moderne. Source : a16z.

Comme l’explique bien Erik Bernhardsson, l’hyperspécialisation nous rend excellents pour couper des oignons et cuire les tartes aux pommes, mais c’est une mauvaise façon de gérer un restaurant.

Non, la stack data moderne ne consiste pas à empiler le plus d’outils possibles. Elle ne doit pas être le prétexte à une prolifération des technos. Prendre cette voie, c’est le plus sûr moyen de créer une stack data qui ne remplit pas sa promesse : aider les utilisateurs à travailler mieux grâce aux données.

Benchmark complet des outils de la Stack Data Moderne

Même si la stack data moderne ne se réduit pas à une combinaison de nouveaux outils (et c’est tout le propos de l’article que vous lisez), on ne peut pas faire l’impasse sur les technologies. On vous a préparé un benchmark complet des outils de la stack data moderne. Type d’outil, origine, modèle économique, réputation sur le marché… chaque solution est présentée dans le détail, dans un beau GSheet facile à exploiter et téléchargeable gratuitement. Bonnes découvertes !

liste outils stack data

La stack data moderne peine à devenir une culture d’entreprise

Lorsque nous réfléchissons aux limites de la stack data moderne telle qu’elle est imaginée et vécue dans bon nombre d’entreprises, c’est le terme de « culture » qui nous vient, cette culture vaguement définie comme une combinaison des compétences que nous avons (ou pas), des structures organisationnelles de nos équipes et à partir de termes flous comme « culture des données », « culture data-driven ».

Ces éléments sont importants, mais il faut bien être conscient qu’une culture data ne s’inculque pas en offrant à ses équipes des manuels ou en organisant des séminaires.

Si les gens ne sont pas enthousiasmés par l’avenir que leur promettent les promoteurs de la stack data moderne, si les gens sont rebutés par le travail à accomplir pour devenir « data-driven », nous ne pouvons pas nous contenter de les inviter à rejoindre le bateau. Il faut réussir à gagner leur enthousiasme. Il faut les convaincre.

Pour cette raison, la stack data moderne comprise comme projet techno n’est pas suffisante. Ce n’est pas de cette manière que vous créerez de l’adhésion. Les entreprises doivent aller plus loin que la stack data moderne et chercher à concevoir une expérience data moderne. Je vous présenterai dans un instant quelques principes directeurs pour construire ce chemin.

Quelques exemples inspirants de stack data efficientes

On dit parfois que les équipes data devraient toujours penser ce qu’elles créaient comme un produit et leurs collègues comme des clients. Si on admet cette idée, quel devrait être ce produit ? A quoi devrait ressembler le chemin qui nous mène d’une question, qui nous fait passer par des technologies, des outils, des collaborations, des échanges pour aboutir à une réponse ? Comment construit-on une stack data moderne conçue comme un produit au service des utilisateurs cibles ?

On n’arrive que rarement à répondre de manière satisfaisante à ces questions.

Ce n’est pas une fatalité. Certaines entreprises ont réussi à trouver des réponses pertinentes.

Airbnb, Uber et Netflix ont construit des stack data intégrées, avec des outils analytics, des outils de reporting, un catalogue de métriques, des catalogues de données et des plateformes ML. Contrairement aux éditeurs des logiciels qu’ils utilisent, les outils qui composent ces stacks data sont au service d’un objectif plus grand qu’eux-mêmes. Les outils sont au service de l’entreprise, et non l’inverse.

Les résultats sont impressionnants :

  • Chez Uber par exemple, les salariés peuvent rechercher une métrique, la visualiser à travers différentes dimensions et passer directement d’une exploration no-code à l’écriture de requêtes, tout cela pendant qu’une IA veille à éviter les redondances.
  • Airbnb a construit un dispositif similaire : un data catalog et un référentiel de métriques sont connectés à un outil d’exploration des données et un IDE SQL.
  • Netflix a créé un workflow pour créer, partager, déployer, planifier et explorer des notebooks qui gèrent tout, des dashboards à la production de modèles.
stack data netflix
La stack data de Netflix, une machine de guerre au service de l’efficience opérationnelle.

Les questions les plus importantes à se poser

Il ne fait aucun doute que ces outils ne sont pas parfaits. Mais ils offrent une fenêtre sur les questions les plus importantes qu’il faut se poser :

  • A quoi ça sert d’utiliser une stack data moderne ?
  • Qu’est-ce qu’une stack data m’apporte de plus concrètement ?
  • Quelle est la meilleure façon pour les gens de répondre à une série de questions, de faire confiance aux réponses et de décider ce qu’il faut faire ensuite ?
  • En quoi pouvons-nous aider les gens qui se préoccupent d’avoir une stack data moderne qui marche, sans se soucier d’où passe la frontière entre un produit et un service ?
  • Qu’est-ce que nous pouvons construire aux gens qui sont dans le restaurant pour qu’ils profitent de leur dîner et n’aient pas à penser à qui prépare les oignons et comment les cuisiniers cuisinent ?

La stack data moderne est décentralisée et cela a un coût

Quelle que soit la définition de la stack data moderne que vous utilisez, presque tout le monde, nous compris, s’accorde à dire qu’elle doit être décentralisée.

Je ne cherche pas ici à vous vendre une approche plus qu’une autre. Mon objectif n’est pas d’entamer une discussion sur les fondements philosophiques de la stack data moderne. Doit-elle être cloud-first, plutôt modulaire ou monolithique, version control ou peer review ? Ce n’est pas le sujet.

Mon point, c’est que la décentralisation qui sous-tend l’approche stack data moderne a un coût. Pourquoi ? Parce que l’architecture se reflète sur l’expérience de ses utilisateurs. Les lignes de faille qui séparent les produits de la stack deviennent des lignes de faille entre les différentes expériences d’utilisation. Il est là le challenge.

Si la stack data moderne est parfois décevante, c’est que loin d’aider les utilisateurs, elle conduit à une fragmentation de l’expérience. La fragmentation des outils aboutit à une fragmentation de l’expérience. C’est ce contre quoi il faut chercher à aller.

Pour trouver la solution, posons-nous cette question : comment une multitude d’entités souveraines et souvent concurrentes peuvent-elles s’unir pour construire quelque chose de cohérent ?

Un petit détour par l’évolution du commerce international

L’histoire du commerce international peut nous aider à trouver la solution. Avant la Première Guerre mondiale, la plupart des accords commerciaux internationaux (traités sur les tarifs et les restrictions) étaient des accords bilatéraux, entre deux pays. Au fur et à mesure que les pays européens se sont industrialisés, un réseau d’accords bilatéraux a vu le jour, centré sur les principaux partenaires commerciaux et souvent piloté par eux : dans le cas européen, la Grande-Bretagne et la France.

En 1947, après deux guerres mondiales, la crise de 29 et la mode pour le protectionnisme, 23 des principaux partenaires commerciaux du monde ont signé l’Accord général sur les tarifs douaniers : le GATT. En raison du poids des membres fondateurs, l’accord n’a cessé d’attirer à lui de nouveaux signataires dans la deuxième moitié du XXème siècle. Le GATT a finalement été remplacé en 1995 par l’Organisation mondiale du commerce, l’OMC. Aujourd’hui, l’OMC a 164 membres qui représentent 98% du commerce international.

Bien que de nombreux pays négocient encore des accords commerciaux bilatéraux ou régionaux, le commerce mondial est principalement régi par les traités mondiaux de l’OMC plutôt que par un réseau complexe de milliers d’accords bilatéraux.

La stack data moderne doit accomplir la même évolution que celle du commerce international

Encore aujourd’hui, la stack data, ce sont des centaines d’Etats membres en orbite autour de grosses plateformes comme Snowflake, Fivetran, dbt et quelques autres. Les relations entre les éditeurs sont gérées par des intégrations bilatérales qui permettent de combler les fossés entre les outils. Les intégrations bilatérales sont à la stack data ce que les accords bilatéraux sont au commerce international.

Dans des écosystèmes aussi complexes que ceux du commerce international ou des technologies data, les intégrations bilatérales montrent rapidement leurs limites. L’approche n’est pas scalable. On aboutit à un patchwork désordonné d’accords ou d’intégrations qui ne peut que se désagréger (et qui se désagrége) avec le temps. Le GATT et l’OMC en sont la preuve.

outils data prep connexion donnees exemple octolis
Toutes les solutions de Data Management proposent des connecteurs, et Octolis n’y déroge pas, évidemment. Mais construire une stack data moderne ne se réduit pas à faire des ponts entre chacune de vos solutions. Octolis propose un outil tout-en-un qui vous permet de rationaliser vos intégrations et de centraliser la préparation des données.

Construits à partir des plus grandes économies du monde, ces accords ont créé une vision commune et des principes directeurs de la politique commerciale qui, même s’ls ne sont pas toujours juridiquement contraignants, ont contribué à faire pencher le monde dans une direction commune.

La stack data moderne doit accomplir la même évolution. Nous allons essayer de synthétiser les principes directeurs qui doivent la gouverner.

Différentes approches pour construire une Stack Data Moderne

La stack data, c’est l’ensemble des outils gravitant autour du data warehouse qui va vous permettre de valoriser vos données et de pleinement les exploiter dans vos applicatifs métier. Sachez qu’il existe plusieurs manières de construire une stack data moderne, plusieurs approches possibles : l’approche best of breed, l’approche agence, l’approche tout-en-un. Pour en savoir plus, découvrez notre article sur le sujet.

Principes directeurs pour une expérience data moderne

La stack data moderne fournit une roadmap SI. Pour que la stack data moderne se traduise pour les utilisateurs par une expérience data moderne, quelques principes directeurs doivent être suivis. Voici ceux auxquels je crois.

#1 Les utilisateurs business doivent pouvoir faire leur métier sans devoir se transformer en data analyst

On a beaucoup parlé de démocratisation des données. C’est une expression à la mode et les objectifs sont louables : permettre à chaque utilisateur de manipuler les données en autonomie et ainsi libérer les équipes data des tâches ingrates qui leur sont traditionnellement confiées pour qu’elles puissent se concentrer sur des projets à forte valeur ajoutée.

La démocratisation des données a eu tendance à devenir une prescription : « Devenez tous analystes grâce aux outils no code ! ». Ce projet a largement échoué comme on peut le constater aujourd’hui avec le recul que l’on a.

L’expérience de la stack data moderne que nous appelons de nos vœux ne consiste pas à mettre les données dans les mains des utilisateurs pour leur laisser le soin de les analyser. Ce que nous voulons, c’est intégrer les données dans les systèmes opérationnels où elles se trouvent déjà pour libérer la productivité de leurs utilisateurs. Les données doivent aider les gens à mieux faire leur travail, plutôt que de leur ajouter un nouveau travail à faire.

#2 La data science et la BI doivent fusionner

On a pris l’habitude de penser que les analystes data devaient travailler dans des outils techniques avancés et que tous les autres collaborateurs devaient utiliser des outils de BI user-friendly. C’est faux. Les outils de BI drag & drop peuvent être très utiles pour les data scientists chevronnés et tout le monde peut devenir un consommateur d’analyses avancées.

powerbi interface
Les data scientists ont aussi vocation à utiliser des outils de Data Viz (ici, PowerBI).

Dans une expérience data moderne, les utilisateurs doivent pouvoir passer sans problème de la visualisation d’un KPI provenant d’un catalogue de données sous contrôle à l’exploration de ce KPI à l’aide de groupements et de filtres, puis à son incorporation dans des analyses techniques approfondies. On doit pouvoir visualiser sur la même interface hommes machines des KPIs intégrés à des tableaux de bord et explorer les données qui alimentent ces KPIs pour approfondir le niveau d’analyse.

Les personnes qui consomment des données ne devraient jamais avoir à sortir d’un outil pour approfondir leurs analyses. Si la stack data moderne nous parle d’intégration des données dans une architecture tech, l’expérience data moderne nous parle d’intégration des expériences.

#3 Les utilisateurs doivent avoir confiance dans les données qu’ils ont sous les yeux

« Est-ce que ces données sont fiables ? » est l’une des questions les plus frustrantes et l’une des plus courantes que les gens posent à propos des données. Aujourd’hui, la réponse à cette question dépend essentiellement de signaux implicites :

  • Qui a construit ces résultats ?
  • Est-ce que ça a été modifié récemment ?
  • Est-ce que ça paraît crédible ?

Ces questions nous conduisent à des recherches interminables. On utilise plusieurs outils pour confirmer les résultats. On perd du temps. Voire pire : on n’utilise pas les données, faute de confiance.

Pour que les utilisateurs aient confiance dans les données qu’ils visualisent et qu’ils manipulent, il faut que chaque set de données indique de lui-même si les processus amont qui l’ont constitué sont corrects ou non, à jour ou non, en un mot : fiables.

Dans une expérience data moderne, on passe du temps à débattre sur les actions à prendre à cause d’un chiffre lu sur un tableau de bord plutôt qu’à vérifier si ce chiffre est juste ou non.

#4 Ne pas oublier ce que l’on a appris

Les informations que nous présentent les outils de BI sont éphémères. Elles disparaissent au fil des mises à jour des données et des mises à jour du design des reportings. Les données récentes chassent les données anciennes. Les analyses ad hoc sont notées à la va-vite et sans méthode. Les conversations se perdent dans les flux Slack.

Dans une expérience data moderne, ce que les données nous apprennent fait l’objet d’un enregistrement, d’une historisation. On ne perd rien des analyses que l’on a faites. On garde la mémoire des enseignements. C’est le plus sûr moyen d’avancer et de ne pas refaire les erreurs du passé.

#5 Les métriques doivent être gérées à un niveau global

En général, les métriques sont pilotées à un niveau local dans les outils de BI. Chaque équipe gère à son niveau ses KPIs, leur mode de calcul, les ratios de synthèse, l’évolution du dispositif de pilotage. Dans une stack data décentralisée et modulaire, on aboutit rapidement à un patchwork de calculs dupliqués et souvent contradictoires.

Une expérience data moderne suppose de la coordination. La gestion et l’évolution des métriques doivent être centralisées. Si les règles de calcul d’un KPI change, ce changement doit être diffusé partout : dans les tableaux de bord de BI, dans les notebooks Python, dans les pipelines ML opérationnels.

#6 Il ne faut pas communiquer uniquement par tableaux

A force de vous plonger dans les données, vous ne finissez par ne plus voir que des structures relationnelles : des tables, des lignes, des colonnes, des jointures. Et pour cause, la plupart des outils data présentent les données sous cette forme. Et c’est sous cette forme que les data analysts se confrontent aux donnés.

Mais pour tous les autres utilisateurs, les données se présentent de manière plus protéiforme, sous forme de métriques dans une série temporelle, de représentations abstraites dans des domaines métiers complexes, de comptes rendus écrits…Les utilisateurs doivent pouvoir interroger et explorer les données de différentes manières, pas uniquement dans des tables et des colonnes.

#7 Il faut construire un pont entre le passé et le futur

Il est tentant de concevoir la stack data moderne comme une discontinuité, le saut d’un passé que l’on veut oublier vers un avenir radieux. Construire une stack data moderne, pour beaucoup, c’est faire table rase du passé. C’est une conception fausse. Ce n’est pas une rupture, c’est une transition. Une transition qui ne mettra pas un terme à tous les problèmes et tous les freins que peut rencontrer un utilisateur de données. Dites-vous bien que vous continuerez à utiliser Excel ! Dans une expérience data moderne, il faut savoir négocier avec cette réalité et admettre qu’une partie du passé se conserve.

#8 L’expérience data moderne est création continue d’imprévisibles nouveautés

Les analyses ne sont pas prévisibles. Ce n’est pas un processus linéaire qui peut être anticipé. On sait d’où l’on part : une question. On ne sait pas où l’on va. Une question en appelle de nouvelles. De la même manière, une infrastructure data est un système évolutif qui se transforme à mesure que les enjeux business et que les sources de données changent.

Les analyses construites à partir de l’infrastructure data évoluent et font évoluer le système qui leur sert de base. L’expérience data moderne répond à la logique des systèmes émergents. Elle démarre petite, grandit, grossit, conquiert de nouveaux territoires. Les expériences et les systèmes rigides ont toujours un coût à la fin.

#9 L’expérience data moderne casse les murs

Les stacks data ont pour habitude de créer des murs et les différents utilisateurs collaborent entre eux en se jetant des choses par-dessus les murs érigés : les ingénieurs data jettent des pipelines aux analysts, les développeurs BI jettent des rapports aux utilisateurs métiers, les analystes jettent des résultats à qui veut bien les recevoir. Le caractère modulaire des stacks data modernes est une tentation à créer encore plus de murs.

De la même manière que dbt a cassé un mur, une expérience data moderne doit briser les autres en encourageant la collaboration et le partage entre les équipes business, data et tech.

Il y aurait beaucoup de choses à dire sur chacun de ces sujets. Ce sont des sujets dont il faut parler, ce sont des conversations qu’il faut avoir. Si l’on ne pense pas l’expérience data moderne qui doit accompagner la stack data moderne, on peut réussir à construire une belle architecture d’outils, mais la promesse à laquelle on croyait (la révolution technologique, la transformation du fonctionnement de l’entreprise) ne se réalisera pas.

Pourquoi construire un dispositif data par vous-même n’est pas une bonne idée ?

Construire son propre dispositif data est un projet ambitieux et complexe nécessitant de nombreuses ressources. Pourtant de multiples entreprises, souvent poussées par les data engineers, font le choix de développer leur propre outil. Cette décision peut s’avérer néfaste pour l’entreprise si elle n’est pas motivée par les bonnes raisons.

Mettre en place un dispositif data nécessite d’assembler de nombreux composants cloud et/ou open source, souvent plus d’une douzaine : Kubernetes, KubeFlow, AWS ECR, Elasticsearch, Airflow, Kafka, AWS Cloudwatch, AWS IAM, DBT et Redshift. Ces éléments sont ensuite liés entre eux à travers une brique de code, avec Terraform par exemple. Ce type d’architecture est d’autant plus complexe qu’il se doit d’offrir à chaque équipe, et donc à chaque compte, un accès sécurisé à l’outil.

A l’inverse, lorsque l’on utilise une solution déjà existante, il est seulement nécessaire de configurer ses accès AWS et d’utiliser un outil tel que Terraform. Il ne reste qu’à connecter les bases de données aux outils d’analyses, par exemple Azure Data Lake et Azure Data Factory. Aucun outil ne permet d’éliminer totalement ces étapes, mais la mise en place générale du dispositif est grandement simplifiée et accélérée.

Dans cet article inspiré de l’excellent Niels Claeys, on évoque dans le détail les raisons qui poussent les organisations à se tourner vers la construction d’un dispositif data ‘best of breed’ ainsi que les obstacles qui se dressent devant cette construction.

La passion de vos data engineers est un frein

La majorité des data engineers considèrent la construction d’un dispositif data comme un véritable challenge, un projet leur permettant de développer et d’éprouver leurs compétences. C’est même probablement dans l’ADN d’un ingénieur de vouloir construire ses propres outils.

Par conséquent, la plupart d’entre eux risquent de ne pas être totalement neutres lorsqu’ils considèrent les avantages et les inconvénients d’un tel projet. Leurs objectifs ne sont alors pas parfaitement alignés avec ceux de l’entreprise, ce qu’il est nécessaire de prendre en compte.

Voici les raisons pour lesquels les data engineers risquent de manquer d’objectivité :

Les data engineers ❤️ les nouveaux outils

Dans l’écosystème data, les technologies évoluent rapidement et la popularité des outils varie constamment. La maîtrise d’un nouveau software populaire est souvent valorisée sur un CV. De ce fait, de nombreux programmeurs vont chercher à utiliser les nouveaux outils en vogue pour en avoir une bonne compréhension au minimum.

Il est important pour une entreprise de permettre à ses développeurs de continuer à apprendre de nouvelles technologies, mais employer de nouveaux outils lors du développement d’une plateforme data complexe n’est certainement pas le cadre le plus optimal pour permettre cet apprentissage.

De plus, la découverte et la prise en main d’un nouvel outil représentent un défi souvent ludique pour un développeur. Mais l’excitation que peut éprouver le data engineer lors de la première utilisation d’une nouvelle technologie ne dure qu’un temps, et l’envie de travailler avec l’outil peut décroître à mesure que celui-ci devient familier et l’apprentissage plus sporadique.

De ce fait, construire une plateforme data représente pour un ingénieur l’opportunité d’acquérir de nouvelles compétences tout en travaillant sur un projet stimulant. Les développeurs préfèrent donc naturellement développer eux-mêmes leur dispositif data et soutiennent ce choix sans que cela soit nécessairement favorable pour l’entreprise.

Les data engineers ❤️ toujours leur propre code

Il est fréquent d’entendre des développeurs critiquer la qualité du code d’un produit ou la solution en elle-même. Nombreux sont ceux préférant leur code et leur solution à ce qui existe sur le marché, se targuant – à tort ou à raison – d’être capable de développer des outils de meilleure qualité.

L’objectif ici n’est pas de comparer la qualité des codes ou le niveau des développeurs, mais de réfléchir aux intérêts de l’entreprise sur le long terme. Même en acceptant le postulat que vos développeurs seraient plus compétents que ceux ayant développé la solution déjà existante, choisir de construire son propre dispositif peut être contre-productif pour plusieurs raisons :

  • La durée de développement :

Développer une plateforme data complète, utile et capable de rivaliser avec les solutions du marché est un projet de grande envergure risquant de s’étaler sur plusieurs années et de monopoliser des ressources sur le long terme. Il faut plus longtemps encore pour en mesurer les bénéfices.

  • La maintenance de la plateforme :

Créer sa propre solution implique aussi de s’assurer de la maintenance du code sur le long terme. Cela impose d’avoir une excellente documentation et un code legacy de grande qualité ainsi que d’avoir toujours un développeur capable de mettre à jour le software.

  • La persistance des développeurs :

Les data engineers à l’origine de la plateforme sont susceptibles de changer de projet/équipe/entreprise au court de la vie du dispositif data. La transmission du projet s’en trouve alors complexifiée. De plus, les nouveaux développeurs risquent de vouloir à leur tour adapter le code et l’architecture du projet.

Ainsi, faire le choix de développer son propre outil représente le risque d’avoir une plateforme instable et difficile à maintenir. De plus, les développeurs comparent plus généralement la qualité intrinsèque du code, mais négligent la capacité de l’entreprise à maintenir l’outil et à le faire évoluer pour répondre à de nouveaux besoins.

Faire le choix d’une solution existante, c’est réduire le temps de développement et accroître la stabilité de ses outils.

Les data engineers ❤️ la liberté

Construire son propre outil, c’est aussi choisir les technologies mises à contribution dans le projet. Mais la diversité des IDE, des langages, des frameworks et des softwares rend ce choix complexe. En outre, les préférences individuelles des développeurs sont multiples et peuvent très souvent donner lieu à d’intenses débats. Ainsi la stack data de la plateforme risque d’être pensé en fonction des habitudes du data engineer plutôt que sur des critères objectifs de maintenance et scalabilité au sein de l’entreprise.

stack data moderne

Exemple d’architecture data moderne

Comprendre la stack data moderne

Un Data Engineer qui aurait été cryogénisé en 2010 et que l’on réveillerait aujourd’hui ne comprendrait pas grand-chose à la stack data moderne. Il n’a fallu que quelques années pour que tout change dans la manière de collecter, extraire, acheminer, stocker, préparer, transformer, redistribuer et activer les données. On vous explique tout dans notre guide introductif à la Stack Data Moderne.

Plus encore, le fait de développer la solution offre une grande liberté quant à l’architecture de la plateforme. C’est parce que les développeurs savent qu’ils pourront coder avec les langages de leur choix et assembler les différentes briques à leur manière qu’ils préfèrent construire eux-mêmes le dispositif data.

Mais cette liberté pour le développeur peut rapidement se transformer en contraintes pour l’entreprise. En effet, le choix du data engineer va dépendre de plusieurs critères susmentionnés, tels que la popularité de l’outil, la possibilité d’utiliser son propre code… A l’inverse, l’entreprise doit considérer avant tout l’intégration du dispositif data dans son SI, la possibilité de le faire évoluer et de le maintenir à jour.

En résumé, l’entreprise est soumise à des contraintes quand le développeur cherche à être libre dans son travail. Cette opposition peut conduire à un choix contre-productif de la part du data engineer.

Les obstacles liés à la construction d’une plateforme data

Les considérations des data engineers ne sont pas les seules raisons pour lesquels construire son propre dispositif data n’est pas une bonne idée. D’autres problématiques s’ajoutent à ces considérations :

Les coûts d’exploitation sont supérieurs aux coûts de construction

Construire une ébauche de dispositif data est l’affaire de quelques jours pour un data engineer expérimenté. C’est probablement pour cette raison que le temps de développement est très souvent grandement sous-estimé. En effet, s’il est relativement facile de mettre en place un premier MVP, il est autrement plus complexe de coder une plateforme complète, stable et facile à maintenir.

Coûts d’une plateforme data au cours de son cycle de vie complet (Source)

Une fois la première version live déployée, il est nécessaire de s’assurer qu’une équipe soit responsable de :

  • Maintenir le code à jour :

Mettre à jour les dépendances, corriger les vulnérabilités et les failles de sécurités…

  • Gérer les bugs :

Au cours de son cycle de vie, la plateforme va subir de nombreux bugs qu’il faut fixer rapidement pour assurer la disponibilité du dispositif. Il est donc nécessaire d’avoir en permanence un développeur ayant une connaissance précise du code et capable d’intervenir rapidement.

  • Faire évoluer le dispositif :

Pour transformer le MVP en dispositif complet, il est nécessaire de prendre en compte les retours des utilisateurs et d’y ajouter les fonctionnalités manquantes. Il est aussi important de s’assurer que l’usage de la data par les équipes métiers n’est pas redondant et de proposer des solutions le cas échéant.

Ainsi, les coûts d’exploitation de la plateforme risquent d’être nettement supérieurs aux coûts de construction. Ces coûts d’exploitation sont généralement sous-estimés et le coût total du projet sera probablement bien supérieur aux estimations. De plus, si l’investissement initial pour construire la plateforme peut sembler légitime face à l’acquisition d’un software, il est cependant plus difficile de justifier les coûts d’exploitation par rapport à un abonnement à une solution existante (surtout si celle-ci est plus complète).

Au cours du cycle de vie du dispositif, il est probable que l’entreprise ne perçoive pas un retour sur investissement suffisant pour justifier les dépenses d’exploitation. Le projet est alors véritablement vain.

Votre plateforme data ne sera pas pensée comme un produit

Lorsque le dispositif data n’est pas une finalité, mais un moyen de répondre à des problématiques rencontrées par les employés, le résultat est souvent fragmentaire et présente de nombreuses limites.

  • Une plateforme peu fonctionnelle

Dans une entreprise où la plateforme data n’est pas le produit final, mais seulement un support pour les équipes métiers, il est très probable que l’outil ne soit pensé qu’en réponse à des cas d’usages précis. Le dispositif final risque alors de ressembler plus à un assemblage disparate de fonctionnalités qu’à un produit complet.

Dans ce cas, il est assez rare de travailler à améliorer les performances globales de l’application ou de proposer des fonctionnalités plus globales visant à faciliter l’expérience de l’utilisateur final. L’accent est mis sur les cas d’usages restant, au détriment de la cohérence globale du dispositif et de sa fonctionnalité.

  • Une solution peu efficace pour améliorer la productivité

Proposer une plateforme pour répondre à des cas d’usages spécifiques permettra aux équipes métiers de réaliser certaines tâches plus facilement, mais n’est pas suffisant pour accroître sensiblement leur productivité. De plus, les ressources étant limitées lors du développement d’une application en interne, il est probable que les solutions visant à réellement augmenter la productivité soient reléguées au second plan, l’accent étant mis sur la capacité à répondre aux besoins spécifiques à l’origine de la plateforme.

En effet, proposer un service permettant d’augmenter la productivité requiert le développement d’outils encore plus complexe venant s’ajouter au dispositif en construction. Il est peu probable qu’une entreprise dont l’activité n’est pas directement en lien avec la construction d’un tel software dispose des ressources suffisantes pour s’emparer d’un projet de grande envergure et le mener convenablement à son terme.

Conclusion

Construire un dispositif data entier est un projet souvent plus complexe et coûteux que prévu. Pour cette raison, il est nécessaire de définir très clairement ses besoins et de s’assurer que le ROI du projet soit particulièrement important avant d’entamer la construction d’un dispositif data.

Mesurer le ROI de son dispositif data

Pour vous aider à mesurer le ROI de votre dispositif data, nous mettons à votre disposition un template téléchargeable gratuitement à adapter à votre organisation dont l’utilisation est détaillé dans l’article associé..

Dans la majorité des cas, il sera possible de trouver une solution existante répondant à ces besoins et de constater que la mise en place d’une telle solution offre un retour sur investissement plus important. Nous conseillons donc de s’orienter vers de telles solutions qui permettront des économies de temps, d’argent et de ressources.

Data viz : Les meilleurs outils de visualisation des données en 2022

Adopter un outil de data visualisation oui mais lequel ? Quels sont les types d’outils à ma disposition ? Existe-t-il des outils gratuits pour initier cette démarche avant d’aller plus loin ? En quoi un outil de « data viz » est-il différent d’un outil de business intelligence ? Sur quels critères choisir mon outil de data viz ?

Voici les questions auxquelles nous avons tâché de répondre dans cet article, bonne lecture 🙂

Quels sont les différents types d’outils de visualisation de données ?

Comprendre la différence entre data visualisation et Business Intelligence

Face à la complexité du traitement de la donnée, les entreprises ont de plus en plus recours à des outils permettant de transformer cette ressource en leviers d’actions utilisables par les différentes équipes à des fins stratégiques.

Il existe pour cela deux catégories principales d’outils : les outils de data visualisation et les outils de business intelligence (BI).

On définit la visualisation de données comme étant le processus permettant de transformer d’importants volumes de données dans un contexte visuel. La visualisation des données consiste à générer des éléments visuels à partir des données. Il peut s’agir de tableaux, de graphiques, de diagrammes, d’images, de modèles, de films, etc.

Exemple de dashboard animé réalisé avec Tableau Public

Les outils et applications de Business Intelligence quant à eux sont utilisés pour analyser les données des opérations commerciales et transformer les données brutes en informations significatives, utiles et exploitables.

La première étape de toute forme de Business Intelligence consiste à collecter des données brutes ou des données historiques. Ensuite, les outils de Business Intelligence aident à la visualisation, à la création de rapports et aux fonctions d’analyse qui sont utilisées pour interpréter de grands volumes de données à partir des données brutes.

dashobard power bi

Exemple de dashboard de BI réalisé avec Power BI

CaractéristiquesData visualisationBusiness Intelligence
ObjectifFaciliter la compréhension des conclusions d’une analyse de données Transformer des données brutes en leviers d’actions pour l’entreprise afin d’orienter les prises de décisions
DéfinitionReprésentation graphique des élément clefs de l’analyse de donnéesEnsemble des pratiques de collecte, d’analyse et de présentation de données visant à orienter la prise de décisions
Expertise requiseLa manipulation de ces outils est plus facile que pour les softwares d’analyse statistique traditionnels Ce processus nécessite une variété de compétences, de la collecte de données à la prise de décisions
Type d'usagePrésentation de l’information en temps réel ou après le traitement des donnéesPrise de décision en direct ou après analyse
Types de donnéesTables de données structurées Jeux de données reliés entre eux concernant l'activité de l'entreprise
FocusCréer des rapports graphiques clairsDonner des indications business et éclairer la prise de décisions
Utilisé pourReprésenter de façon la plus intuitive les indicateurs clefs de l’activitéDéfinir et calculer les principaux indicateurs clefs
Caractéristiques principalesReprésentation intuitive de l’information Lecture facile et rapide de l’information permettant de mieux la mémoriser Permet d’interagir avec la donnée Permet d’analyser l’activité de l’entreprise et de suivre les principaux indicateurs (KPI) Aide les dirigeants et les managers à prendre des décisions éclairées par l’analyse des performances passées

Ces deux types d’outils sont donc essentiels dans un contexte où l’usage efficace de la data est clef pour faire face à la concurrence. Les outils de BI permettent de prendre des décisions étayées par l’analyse des performances passées quand les outils de data visualisation visent à représenter clairement ces analyses.

Outils de data visualisation gratuits et open source

Il existe une multitude d’outils de visualisation de données, de qualité parfois inégale, dont certains sont open source – le code est accessible publiquement – et d’autres gratuits. Le choix du type d’application a une importance certaine sur la capacité de l’entreprise à traiter les données de façon pertinente et efficace.

Open source

Un software est dit open source lorsque son code source est accessible publiquement, souvent sur des plateformes dédiées telles que Git Hub. Ainsi chaque développeur peut lire, copier et éditer le code de l’application et s’en servir librement pour un usage personnel ou professionnel.

L’accès au code lorsque l’on utilise une application open source est un atout indéniable qui offre la possibilité de personnaliser le software pour le rendre parfaitement adéquat aux besoins de l’entreprise, sans avoir besoin de développer intégralement un outil en interne. Une application open source permet donc de bénéficier d’un gain de temps et d’une réduction des coûts de développement sans souffrir pour autant d’un manque de flexibilité.

Gratuit

On trouve des applications d’une complexité très variable parmi le vaste catalogue des outils de data visualisation, dont les plus complets requièrent du temps et des efforts avant d’être complètement maîtrisés. Il existe cependant des outils gratuits, plus légers et plus accessibles qui nécessitent un temps de prise en main bien moindre.

La facilité d’usage de ces applications allant de pair avec la facilité d’implémentation au sein des équipes rend le recours à ces outils particulièrement intéressant pour des personnes peu formées au code et ayant besoin de mettre en place une solution rapidement.

Top 50 des dashboards Ecommerce sur Google Data Studio

Vous souhaitez mettre en place des dashboards de data viz pour suivre de plus près les performances de votre activité e-commerce ? Découvrez et testez les meilleurs dashboards Data Studio que nous avons sélectionnés pour vous.

liste outils stack data

Qu’attendre d’un outil de visualisation de données ?

Caractéristiques principales

Les outils de visualisation de données sont essentiels dans le traitement de la data, mais pour que leur usage soit pertinent il est nécessaire qu’ils répondent à certaines caractéristiques afin de faciliter la compréhension qu’auront les utilisateurs de l’ensemble des données.

CaractéristiquesAttentes
IntégrabilitéLa possibilité d’intégrer les représentations graphiques des données dans les applications déjà implémentées afin d’en faciliter l’accès.
Possibilités d'actionLes représentations graphiques doivent être porteuses de sens et offrir des conclusions qui pourront être mises en place au sein de l’activité.
Performance L’usage régulier d’un outil de data visualisation dépend de la vitesse à laquelle il va fournir des conclusions à l’utilisateur, qui risque de s’en détourner si le temps d’attente est trop important. L’usage des GPU par certaines applications permet de réduire les temps de calculs et de latence, et offre ainsi une meilleur expérience pour l’utilisateur.
Infrastructure dynamiqueLe recours à des services cloud dédiés pour la gestion du big data permet faciliter la gestion de jeux de données volumineux et de réduire le cout de développement et d’implémentation pour les outils de data visualisation.
Exploration interactive L’outil doit permettre aux utilisateurs d’interagir facilement avec leurs jeux de données (par le biais de filtres ou de groupement par exemple) afin qu’ils puissent rapidement valider ou vérifier leurs hypothèses.
CollaborationLa possibilité pour plusieurs utilisateurs de travailler simultanément sur une même analyse, évitant ainsi le recours à l’envoi de fichiers statiques et permettant un gain de temps non négligeable.
Support pour le streaming de data Un support pour le streaming de data permet d’utiliser des sources de données variées apportant un volume de données plus important, tels que les réseaux sociaux, les applications mobiles ou l’internet des objets (IoT).
Intégration d’intelligence artificielle L’utilisation d’intelligence artificielle permet de simplifier, d’accélérer et d’approfondir les analyses, allant même jusqu’à fournir des prédictions. Il faut cependant s’assurer que cela n’affecte pas négativement les performances.
Management des métadonnées intégré Une bonne gestion des métadonnées permettra aux utilisateurs métiers d’avoir une compréhension claire des données qu’ils manipulent et ainsi de préciser leur analyses.
Accès simplifié en libre-service La possibilité de créer rapidement un modèle pour tester des hypothèses sans avoir besoin de recourir à un développeur.

Principaux critères de différenciation

Lorsque l’on compare différents outils de data visualisation, il faut accorder une attention particulière à certaines caractéristiques qui vont véritablement différencier les outils entre eux.

  • Capacité à s’adapter au besoin business :

Lors du choix d’un outil il est nécessaire de s’interroger d’abord sur la façon dont la data visualisation pourra répondre aux besoins de l’entreprise afin de s’assurer que le software soit capable de faire face à tous les cas d’usage.

Une bonne application permettra d’ajouter des extensions ou de créer des graphiques customisés qui s’adapteront parfaitement aux besoins.

  • Facilité d’apprentissage :

En fonction des profils (tech, métiers…) concernés par l’usage de l’application, il faudra prêter une attention particulière à la facilité de prise en main de l’outil.

Certains outils ne requièrent pas d’expérience particulière, d’autres seront plus complexes mais proches d’outils existants tel qu’Excel, et d’autres enfin nécessiteront le recours au code.

  • Captation et stockage des données :

Certains outils permettent de se connecter facilement à un grand nombre de bases de données assurant ainsi une implémentation facile dans le SI. Il faut aussi considérer la capacité de l’outil à transformer ces données pour proposer une analyse pertinente.

  • Analyse et interprétation :

En fonction du software, les filtres, les groupements et les autres moyens d’analyses de données seront plus ou moins puissants et nombreux. Cela aura un effet direct sur la qualité du traitement des données et son interprétation.

  • Prix :

Le prix est naturellement un élément différenciant majeur réparti sur une fourchette particulièrement large allant de la gratuité totale à des abonnements de plus de 100€ par mois et par utilisateur. Il est toutefois pertinent de s’intéresser aux packages que proposent les outils les plus chers, dont les versions basiques seront parfois suffisantes.

  • Communauté d’utilisateurs :

Les problématiques auxquelles la documentation de l’outil n’apporte pas de réponse sont récurrentes. La possibilité de se tourner vers d’autres utilisateurs plus expérimentés est alors un atout considérable. Ainsi, certains outils comme Power Bi ou Tableau bénéficient d’une importante communauté active sur divers forums tels que Stackoverflow ou les forums dédiés des applications où il sera possible de trouver de l’aide et bien souvent une solution.

stackoverflow-powerbi

A titre d’indication, on trouve plus de 30 500 résultats sur stackoverflow en cherchant le mot-clef « powerbi » concernant des sujets aussi variés que l’utilisation d’une API Rest sur Power BI desktop ou l’intégration d’image dans un reporting Power BI.

Meilleurs outils de data visualisation

En considérant les points précédents, nous avons sélectionné les meilleurs outils de data visualisation : ceux que nous préférons et que nos clients utilisent le plus.

NomDescriptionPricing
Fusion ChartsFusionCharts is another JavaScript-based option for creating web and mobile dashboards. It includes over 150 chart types and 1,000 map types. It can integrate with popular JS frameworks (including React, jQuery, React, Ember, and Angular) as well as with server-side programming languages (including PHP, Java, Django, and Ruby on Rails).From 499$ per month
GrafanaGrafana is open-source visualization software that lets users create dynamic dashboards and other visualizations. It supports mixed data sources, annotations, and customizable alert functions, and it can be extended via hundreds of available plugins. That makes it one of the most powerful visualization tools available.Free version of from 8$ per month
SigmajsSigmajs is a single-purpose visualization tool for creating network graphs. It’s highly customizable but does require some basic JavaScript knowledge in order to use. Graphs created are embeddable, interactive, and responsive.Free
PolymapsPolymaps is a dedicated JavaScript library for mapping. The outputs are dynamic, responsive maps in a variety of styles, from image overlays to symbol maps to density maps. It uses SVG to create the images, so designers can use CSS to customize the visuals of their maps.Free
Chart jsChart.js is a simple but flexible JavaScript charting library. It’s open source, provides a good variety of chart types (eight total), and allows for animation and interaction.Free

Meilleurs outils BI

Nous avons sélectionné les meilleurs outils de data visualisation : ceux que nous préférons et que nos clients utilisent le plus.

NameDescriptionPricing
MicrosoftpowerBIMicrosoft Power BI is one of the leading business intelligence solutions on the market. It allows you to connect any data source to produce reporting and data visualisation. Power BI also offers advanced data preparation capabilities.From $4,995 per month
QlikviewThis is a much older product than Power BI because it had launched way back in 1993, even before the world was exposed to data-driven decision makings. This product also aims at providing data insights from large data sets.From $1350 to $1500
MetabaseMetabase is a business intelligence tool that is an open-source and easy method to generate dashboards and charts. It also solves ad-hoc queries without implying SQL and views the elaborated data as rows in the database. The user can configure it in five minutes and give him a separate platform to answer the queries.From $85/month
SisenseSisense is a Business Intelligence Software & Analytics platform that helps you simplify complex data and create analytic apps.On plan
LookerLooker is a BI tool that helps you analyze and share real-time analytics. It also combines all the data and provides an overview.On plan

Meilleurs outils de data visualisation gratuits et en open source

Les considérations économiques poussent souvent à choisir un outil gratuit. Ce choix sensé au premier abord peut avoir des conséquences négatives s’il n’est pas bien réfléchi. En effet, implémenter un outil inadapté affectera directement la qualité des analyses et imposera de changer d’outil peu de temps après. Nous conseillons donc de s’orienter vers notre sélection d’applications.

NomDescriptionType
RedashRedash is a cloud-based and open-source data visualization and analytics tool. It runs on an SQL server and sports an online SQL editor. The tool has both hosted and open-source/self-hosted versions. Open Source
d3jsAlso known simply as D3, D3.js is an open-source JavaScript library used for visualizing and analyzing data. The acronym ‘D3’ stands for ‘data-driven documents’. Thus, with a strong emphasis on the web standards of HTML, SVG, and CSS, D3 focuses on efficient data-based manipulation of documents.Open Source
Rapid minerRapidMiner is a suite of software programs on the cloud. The entire suite is used for shoring up a sequential data analytics environment. In-depth data visualization is only a part of the suite.Open Source
Raw GraphsBuilt on D3.js, RAWGraphs makes data sourcing and visualization extremely easy. Here are other features and functionalities of this tool that merits it a place among the best open-source data visualization tools of today.Open Source
KnimeKNIME is one of the best open-source data visualization software out there right now. The interface is considerably easy to master. It also presents its data output in a way that anyone with basic knowledge of charts and graphs can understand.Open Source
Tableau PublicTableau Prep est la solution de data preparation proposée par Tableau, l’un des principaux concurrents de Power BI. Beaucoup plus abordable que Power BI, le module Tableau Prep vous permet de consolider, dédupliquer et nettoyer les données que vous utiliserez pour faire vos analyses dans Tableau. Free
Google StudioGoogle Data Studio is a great, free data visualization tool that lets you build interactive dashboards, and customized, beautiful reporting.Free
InfogramInfogram is a fully-featured drag-and-drop visualization tool that allows even non-designers to create effective visualizations of data for marketing reports, infographics, social media posts, maps, dashboards, and more.Free
DatawrapperDatawrapper was created specifically for adding charts and maps to news stories. The charts and maps created are interactive and made for embedding on news websites. Their data sources are limited, though, with the primary method being copying and pasting data into the tool.Free
Flourish PublicFlourish Public enables immersive storytelling rather than more traditional ways of visualizing as tables, diagrams, and dashboards. Unlike Tableau Public, Flourish does not require a desktop edition.Free

Construire une segmentation RFM – Le Guide complet

Si vous n’avez toujours pas mis en place de segmentation RFM aujourd’hui, vous n’avez pas raté votre vie mais par contre vous passez à côté d’une belle opportunité de développer votre activité. Ce message s’adresse tout particulièrement aux Retailers 🙂

La segmentation RFM consiste à segmenter vos clients en fonction de leur comportement d’achat, avec pour finalité de construire une stratégie marketing plus ciblée, plus intelligente, plus ROIste, plus en phase avec les besoins, attentes et propensions de vos clients. A la clé, une meilleure rétention client, une optimisation de la lifetime value et des campagnes d’acquisition plus efficaces.

Si vous pensez comme nous qu’il est plus logique d’inviter vos meilleurs clients à rejoindre votre programme de fidélité plutôt que de leur envoyer des promotions tous les mois, alors vous comprendrez rapidement la logique du modèle RFM. Une logique simple, facile et efficace.

Dans ce guide complet, on vous explique ce qu’est la segmentation RFM, les résultats que ça permet d’atteindre et surtout comment construire une segmentation RFM étape par étape (avec un cas pratique).

RFM : Définition

Qu’est-ce qu’une Segmentation RFM ?

La segmentation RFM est un type de segmentation qui permet d’analyser le comportement d’achat de vos clients et de les segmenter à partir de trois variables : Récence (R), Fréquence (F) et Montant (M).

La segmentation RFM est simple à mettre en place dans la mesure où elles se basent sur des données que vous avez forcément dans votre système d’information, à savoir les données transactionnelles, l’historique d’achat de vos clients stocké dans votre système de caisse et/ou votre solution ecommerce.

Le RFM est une technique de segmentation ancienne. Elle était utilisée dans les années 1960 par les entreprises de VAD pour réduire la taille des catalogues papiers : par exemple, pour n’envoyer que les produits les plus chers aux meilleurs clients :). Depuis les années 1960, les cas d’usage se sont multipliés.

La segmentation RFM reste l’une des techniques les plus intéressantes pour segmenter les clients dans le Retail et l’Ecommerce.

Son utilisation est pourtant loin d’être généralisée et c’est vraiment dommage. Si nous réussissons à convaincre des retailers et des ecommerçants de se lancer dans la segmentation RFM, alors cet article aura atteint son but.

10 exemples et méthodes de segmentation client

La segmentation client peut prendre des formes différentes (dont la segmentation RFM) mais consiste toujours à diviser les clients en groupes homogènes appelés « segments ». Si les cas d’usage de la segmentation sont multiples, le principal consiste à mettre en place des actions spécifiques pour chaque segment. La segmentation rend possible un marketing ciblé. Pour élargir vos horizons, nous vous invitons à découvrir 10 exemples et méthodes de segmentation client.

Récence, Fréquence, Montant

La segmentation RFM se construit à partir de 3 métriques : Récence, Fréquence, Montant.

segmentation rfm tableau synthese
Source : clevertap.com

R pour Récence

La récence désigne le temps écoulé depuis le dernier achat. Elle est exprimée en nombre de jours. Une récence de 8 par exemple signifie que le dernier achat remonte à 8 jours. On dira que la récence a une valeur de 8.

Pourquoi utiliser cette variable ? La logique est simple : plus un client a acheté récemment, plus il y a de chances qu’il achète de nouveau chez vous. A l’inverse, un client qui n’achète plus depuis longtemps a peu de chances de repasser commande. Toutes les variables utilisées dans le modèle RFM visent à mesurer le niveau d’engagement client.

Il est important de prendre en compte le contexte de votre activité pour analyser correctement cette variable. Les cycles d’achat sont différents d’un secteur à l’autre. L’exemple souvent cité est celui du secteur automobile, où les périodes interachats sont beaucoup plus longues que dans le secteur du prêt-à-porter par exemple.

F pour Fréquence

La fréquence est la variable qui indique le nombre de commandes passées sur une période donnée. Elle permet d’identifier les clients les plus engagés et les plus loyaux.

Si vous choisissez de prendre l’année comme période de référence et que votre client a acheté 9 fois au cours de l’année écoulée, la fréquence est égale à 9.

Là encore, l’interprétation de cette variable doit prendre en compte les caractéristiques de votre secteur d’activité. Le choix de la période de référence doit aussi s’appuyer sur votre contexte business. On choisit généralement l’année, le trimestre ou le mois.

M pour Montant

Le montant désigne le montant des commandes passées par le client au cours de la période de référence. Il s’exprime en euros.

Cette variable permet notamment de distinguer les clients dépensiers des dénicheurs de bonnes affaires. Un client qui a passé 10 commandes de 10 euros n’a pas le même profil d’acheteur qu’un client qui a passé une commande 100 euros, mais si au final le chiffre d’affaires généré est le même.

Top 50 des dashboards ecommerce Google Data Studio

Data Studio est un outil facile d’utilisation et gratuit pour construire des reportings et des tableaux de bord à partir de vos données. Nous avons sélectionné pour vous les 50 meilleurs modèles de dashboards ecommerce pour piloter votre performance dans tous ses aspects. A lire ne serait-ce que pour évaluer la richesse de cet outil de « DataViz ».

L’importance du RFM dans le Retail

Se concentrer sur les clients qui ont le plus de valeur

Si on applique le principe de Pareto au modèle RFM, alors 80% de vos revenus proviennent de 20% de vos clients – vos meilleurs clients. Cette proportion se vérifie très souvent !

Vous avez intérêt à focaliser vos efforts sur vos meilleurs clients. Cela vous permettra :

  • D’augmenter le revenu par client de vos meilleurs clients.
  • De mieux maîtriser vos coûts marketing.

La segmentation RFM permet d’identifier de manière simple qui sont vos meilleurs clients.

Vos meilleurs clients sont ceux qui achètent le plus fréquemment, qui génèrent le plus de chiffre d’affaires et qui ont acheté récemment. Autrement dit, ce sont les clients qui ont les meilleurs scores R, F et M. Nosu reviendrons en détail tout à l’heure sur la signification des scores, mais avoir un très bon score R, c’est tout simplement faire partie des clients qui ont acheté le plus récemment. Idem pour F et M.

Maximiser la rétention

Acquérir des clients coûte plus cher que de fidéliser ses clients actuels. On a déjà dû vous le répéter 100 fois, mais c’est vrai !

Ce n’est pas pour rien que les entreprises multiplient leurs efforts pour améliorer la rétention des clients, que cela passe par la mise en place d’un programme de fidélité ou la construction d’un dialogue clients plus riche et plus ciblé.

Le modèle RFM peut vous aider à :

  • Identifier qui sont vos meilleurs clients.
  • Analyser les indicateurs clés de performance pour chaque segment RFM afin de savoir où en est votre entreprise par rapport à vos objectifs de rétention.
  • Faire une analyse qualitative de vos meilleurs clients pour identifier les actions les plus efficaces pour améliorer leur fidélité.
  • Créer un marketing différencié pour chaque segment RFM : meilleurs clients, clients occasionnels, clients à potentiel, clients à risque d’attrition, etc.
  • Améliorer vos campagnes d’acquisition en ciblant des audiences partageant les mêmes caractéristiques que vos meilleurs clients.

Bref, le modèle RFM est très pertinent pour construire un marketing relationnel ciblé dans le Retail. Et, croyez-nous, c’est la meilleure manière de retenir et fidéliser vos clients.

Segmenter sa base client à partir d’un score RFM

Le modèle RFM permet de segmenter sa base clients en créant des segments de clients construits sur la base des trois variables R, F et M.

  • Les meilleurs clients. Ils ont les meilleurs scores en R, en F et en M. Leur dernier achat est très récent, ils achètent souvent et pour de gros montants. Ils ont certainement souscrit votre programme de fidélité si vous en avez un 🙂
  • Les dépensiers. Ce sont les clients qui ont un excellent score M, sans être au top sur les deux autres variables R et F. Ils achètent pour de gros montants, mais moins fréquemment que les meilleurs clients.
  • Les clients fidèles. Ce sont les clients qui ont un excellent score F. Ils ont une très bonne fréquence d’achat, mais ont un panier moyen moins élevé que celui des dépensiers.
  • Les clients à risque. Ce sont d’anciens bons clients qui ont aujourd’hui un mauvais score R et un score F. Ils n’ont pas acheté depuis longtemps.
  • …/…

Voilà 4 exemples de segments que vous pouvez construire sur la base de l’analyse des scores RFM. Dans la pratique, les entreprises utilisent une dizaine de segments RFM, parfois une quinzaine.

Voici à titre d’exemples les segments RFM utilisés par Octolis. Les chiffres désignent les scores. Les Champions, par exemple, ont un score Récence et un score Fréquence*Montant de 5 ou 6 (sur une échelle de 6).

liste segments rfm octolis

Comme vous pouvez le constater, nous avons fusionné Fréquence et Montant, ce qui est classique dans nos univers métier.

Mettre en place une segmentation RFM pas à pas

Nous allons maintenant vous expliquer étape par étape comment construire un modèle RFM et la segmentation qui va avec.

Les prérequis pour construire un modèle RFM

Pour construire un modèle RFM, vous devez être capable d’identifier vos clients. C’est la base. Vous ne pouvez savoir qu’un client est un de vos meilleurs clients si vous ne connaissez pas d’abord l’identité de ce client. Logique.

Vous avez donc besoin d’identifiants clients. Cela peut être un customer ID, une adresse email, un nom + prénom, un téléphone…Peu importe, il faut une information, une donnée qui vous permette d’identifier vos clients.

Ensuite, vous avez besoin des données transactionnelles sur vos clients. Plus précisément, vous devez connaître pour chaque client :

  • La date de dernier achat. Cette donnée vous permettra de construire le score Récence.
  • Le nombre de transactions réalisé sur la période de référence (le mois, le trimestre ou l’année). Cette information vous permettra de construire le score Fréquence.
  • Le montant dépensé sur la période, qui vous permettra de construire le score M. Il s’agit du montant total des achats par client sur la période de référence.

Toutes ces informations sont accessibles dans votre système de caisse et/ou dans votre solution ecommerce. Vous avez donc en principe tout à disposition. C’est l’une des forces de la segmentation RFM.

Construire le tableau des valeurs RFM

Avec ces informations, vous allez pouvoir construire un tableau de ce type :

Id ClientRécence (jour)Fréquence (nombre)Montant (total)
146540
2611940
346135
423365
5154179
632256
773140
8501950
934152630
10105191
1138845
121101510
1327354
1418240
155125

Ce tableau contient les valeurs R, F et M pour chaque client.

Rappelons que la récence est exprimée en nombre de jours depuis le dernier achat, la fréquence en nombre de commandes réalisées sur la période, et le montant en devise, ici l’euro.

Des valeurs RFM aux scores R, F et M

Une valeur, c’est une donnée brute. Un score, c’est une évaluation : c’est bien ou c’est pas bien. Est-ce que 500 euros de montant (la valeur) est bien ou pas ? Si c’est bien, le score sera élevé.

A partir des valeurs RFM extraites de votre système d’information, vous allez pouvoir construire un score pour chacune des trois variables :

  • Un score R
  • Un score F
  • Un score M

Le score est souvent calculé sur une échelle de 1 et 5. 1 désigne le score le plus bas, 5 le score le plus haut. Par exemple, un client qui n’a pas acheté sur la période a un score F de 1 et un score M de 1.

Les scores sont généralement calculés de manière relative. Si vous utilisez l’échelle classique de 1 à 5, le score de 5 est attribué aux 20% des clients qui ont la meilleure valeur R. Le score 1 est attribué aux 20% des clients qui ont la moins bonne valeur R.

Mais vous pouvez ajouter plus de granularité en adoptant une échelle plus large, de 1 à 6, de 1 à 7, voire de 1 à 10. Si vous choisissez de répartir les scores sur une échelle de 1 à 10, vous attribuerez un score de 10 aux 10% meilleurs clients.

Mais dans l’exemple qui suit, pour que ce soit plus simple à comprendre, nous avons choisi d’utiliser une échelle de 1 à 5.

Vous pouvez donc calculer chaque score séparément. Par exemple, voici un exemple de tableau pour le calcul du score R :

ID ClientRécenceRangScore R
12115
11325
1435
15554
2654
7764
101073
51583
141893
423102
1327112
632122
932131
346141
850151

On utilise ici un scoring relatif. Il y a 15 clients et une échelle de 1 à 5. Donc 3 clients par score. Les clients sont classés par score décroissant. Dans cet exemple, les meilleurs clients (score de 5) sont les clients 12, 11 et 1.

Vous pouvez faire la même démarche pour calculer les scores F et M.

ID ClientFréquenceScore F
9155
2115
12105
1184
164
1054
543
1333
733
432
1422
622
1511
811
311
ID ClientMontantScore M
926305
1215105
89505
29404
118454
15404
101913
51793
71403
4652
6562
13542
14401
3351
15251

Des scores R, F et M au score RFM

Vous pouvez ensuite combiner les différents scores R, F et M pour obtenir un score RFM. Ce n’est pas forcément ce que nous recommandons, car l’intérêt des scores R, F et M est surtout de construire des segments (spoiler alert, on vous en parle plus bas).

Si vous voulez construire un score RFM global, vous pouvez le faire en additionnant les scores R, F et M et en divisant le tout par 3. Voici à quoi ressemble un tableau présentant les scores RFM :

ID ClientCellules RFMScore RFM
15,4,44.3
24,5,44.3
31,1,11.0
42,2,22.0
53,3,33.0
62,2,22.0
74,3,33.3
81,1,52.3
91,5,53.7
103,4,33.3
115,4,44.3
125,5,55.0
132,3,22.3
143,2,12.0
154,1,12.0

Le client 1 a un score R de 5, un score F de 4 et un score M de 4. Il a donc un score de (5 + 4 + 4) / 3 = 4.3.

Dans cet exemple, nous attribuons un poids égal à chaque variable, mais vous pouvez utiliser un système de pondération. Cela fait sens dans certains cas, comme nous le verrons tout à l’heure.

Mettez en place des recommandations de produits

La recommandation de produits est l’un des moyens les plus simples pour augmenter le panier moyen et, au-delà, le chiffre d’affaires dans le ecommerce. Dites-vous bien que 35% des ventes d’Amazon sont générées grâce à des recommandations proposées sur la plateforme et par email. Découvrez notre guide complet sur la recommandation de produits ecommerce : Méthode & Outils.

Des scores aux segments RFM

Si vous utilisez une échelle de scoring de 1 à 5, vous avez théoriquement 5 x 5 x 5 combinaisons possibles, soit 125 combinaisons. Vous pouvez donc créer 125 segments clients. Si vous utilisez une échelle de scoring de 1 à 6, de 1 à 7, les combinaisons se multiplient.

Mais ça n’a pas de sens d’utiliser autant de segments.

La bonne pratique consiste à limiter le nombre de segments à 20 maximum.

Dans ce cas, vous pouvez par exemple créer un segment « Champions » réunissant les clients ayant :

  • Un score R de 4 ou 5
  • Un score F de 4 ou 5
  • Un score M de 4 ou 5

Cette manière de faire permet de limiter le nombre de segments RFM. Chez Octolis, nous utilisons 11 segments, c’est largement suffisant (voir la capture d’écran présentée un peu plus haut).

Une méthode plus simple pour calculer les scores RFM

La méthode que nous venons de vous présenter a le mérite de vous présenter la logique du modèle RFM. Vous partez de vos données, vous les transformez en valeurs R, F, M, ces valeurs sont ensuite transformées en scores R, F et M, puis en segments RFM.

Mais plutôt que de construire manuellement vos scores RFM sur Excel, vous pouvez utiliser un outil qui vous fait les calculs automatiquement. Cela vous fera économiser du temps, supprimera le risque d’erreurs humaines et vous permettra de vous concentrer sur l’essentiel : la conception des actions marketing (campagnes et scénarios) sur chaque segment RFM.

Notre solution Octolis vous permet de créer des segments RFM automatiquement.

Vous n’avez que deux choses à faire si vous choisissez d’automatiser le modèle RFM.

La première chose consiste à définir les segments. Chez Octolis, nous utilisons 11 segments. Nous utilisons des scores compris sur une échelle de 1 à 6. Le segment « Champions » regroupe les clients ayant un score R de 5 ou 6 et un score F*M de 5 ou 6.

Mais après, à vous de faire votre sauce en choisissant des segments signifiants. Une quinzaine tout au plus, pas la peine de monter une usine à gaz.

Une fois que vous avez défini les segments et leurs caractéristiques, vous pouvez les configurer dans Octolis de manière intuitive. Aucune compétence technique n’est requise. L’interface est marketing user-friendly.

creation segments rfm octolis

Pour alimenter les données qui nourrissent le modèle RFM (les ID clients et les données transactionnelles), il vous suffit de connecter vos sources de données à Octolis. Nous proposons des connecteurs avec des systèmes de caisse et des solutions ecommerce pour créer le pipeline en quelques clics, sinon il y a les APIs qui ne sont pas beaucoup plus compliquées à utiliser.

Exploiter votre segmentation RFM

Remettre votre score RFM dans votre contexte business

Dans l’exemple que nous venons de vous présenter, nous attribuons un poids égal à chacune des 3 variables R, F et M.

Or, ces variables n’ont pas forcément la même importance suivant votre business. Si vous voulez construire un score RFM global, il peut être intéressant de pondérer les scores.

Par exemple :

  • Dans un business qui commercialise des produits ayant une longue durée de vie, la valeur M est souvent (très) élevée alors que les valeurs R et F sont faibles. C’est typiquement le cas dans les secteurs de l’automobile, de l’immobilier ou encore dans l’électroménager. On n’achète pas un frigo tous les quatre matins, et encore moins un bien immobilier. Dans ce contexte business, il est pertinent de donner plus de poids aux variables R et M qu’à la variable F.
  • Dans les secteurs du prêt-à-porter et des cosmétiques, un client qui achète des produits tous les mois aura un score R et F plus élevé que le score M. Dans ce cas, il faut donner plus de poids aux scores R et F qu’aux scores M.

Ce sont deux exemples qui montrent qu’il est souvent judicieux d’utiliser un système de pondération pour calculer les scores RFM.

Le guide du Scoring Client

Le scoring client permet de prioriser vos budgets marketing pour les clients les plus susceptibles d’acheter, et de mieux segmenter votre fichier client pour obtenir de meilleures performances dans vos campagnes. Découvrez notre guide complet sur le Scoring Client : Définition, exemples et méthode en 5 étapes.

Intégrer la dimension historique (passage d’un segment à l’autre entre les périodes N et N-1)

Un client peut passer d’un segment A à un segment B. C’est même la règle ! La segmentation RFM est dynamique. Pour aller plus loin, il est intéressant d’intégrer dans votre analyse des segments à l’instant t les segments de la période précédente. Le passage d’un segment à l’autre entre la période N-1 et la période N peut être l’occasion de mettre en place des scénarios marketing spécifiques.

De cette manière, vous ne vous contentez pas de cibler les actions marketing sur vos segments RFM, vous ciblez des actions spécifiques sur les clients ayant changé de segment. Vous ajoutez à la dimension structuraliste de la segmentation à l’intant t une dimension historique.

Visualiser votre RFM plus simplement

Nous vous conseillons d’utiliser une matrice RFM pour mieux visualiser vos segments RFM et leur poids respectif dans votre base clients.

Voici celle proposée par Octolis :

matrice rfm

La taille des rectangles est proportionnelle à la taille des segments. En passant la souris sur les rectangles, vous pouvez voir en un coup d’œil le poids respectif de chaque segment RFM.

segmentation rfm octolis

Aller plus loin

Le modèle RFM est puissant, mais a malgré tout quelques limites :

  • L’erreur humaine…Si vous optez pour l’approche manuelle (Excel), vous ne pouvez pas écarter le risque d’erreur humaine…D’où l’intérêt d’utiliser un outil pour automatiser les calculs à partir de vos données transactionnelles.
  • Juste 3 variables. La segmentation RFM n’utilise que 3 variables, 3 variables liées au comportement d’achat de vos clients. C’est passé à côté de beaucoup d’autres variables de segmentation intéressantes. Il est aujourd’hui possible de construire des modèles prédictifs intégrant plus de variables, et donc plus puissants.
  • La sur-sollicitation des meilleurs clients. Beaucoup d’entreprises utilisent la segmentation RFM pour bombarder leurs meilleurs clients de communications et délaisser les autres clients. Il y a un usage du modèle RFM qui peut s’avérer contre-productif…et dans lequel tombent pas mal d’entreprises.
  • Des hypothèses critiquables. Un client peut très bien ne pas acheter pendant 3 mois et se mettre tout à coup à devenir un acheteur compulsif. Les hypothèses qui servent de base au modèle RFM ne se vérifient pas toujours. Par exemple : « Un client qui a acheté récemment a plus de chances d’acheter à nouveau » : eh bien, c’est souvent vrai, mais pas toujours et pas pour tous les clients.
  • Une segmentation pas assez granulaire. Beaucoup de Retailers construisent une segmentation RFM sur l’ensemble de leurs produits alors que le comportement client est souvent différent d’une gamme de produits à l’autre. On se retrouve donc à comparer des choux et des carottes et surtout à mettre en place des communications (notamment, des recommandations de produits) qui sont peu pertinentes pour les clients. Avec, au final, un impact négatif sur la rétention et la fréquence d’achat.

Mais, sur ce dernier point, sachez qu’il existe des solutions pour calculer un score RFM par produit ou par gamme de produits. Octolis en fait partie. Notre solution vous permet de calculer en temps réel un RFM par produit. Surtout, une solution comme Octolis vous permet de faire remonter automatiquement les segments RFM dans vos outils d’activation : Marketing Automation, Facebook & Google Ads…

Voilà, nous espérons que ce guide d’introduction à la segmentation RFM vous aura apporté les éclairages que vous attendiez. Pour une entreprise du Retail qui veut se lancer dans la segmentation client, le modèle RFM reste la référence. Vous avez des doutes ou des questionnements sur le bon modèle de segmentation à mettre en place dans votre entreprise ? Eh bien, n’hésitez pas à nous contacter. On se fera un plaisir d’échanger avec vous !

Comment construire votre stack data moderne ? Comparaison des approches possibles

Le meilleur investissement que vous puissiez faire si vous voulez mieux exploiter vos données, c’est construire une stack data moderne.

La stack data, c’est l’ensemble des outils gravitant autour du data warehouse qui va vous permettre de valoriser vos données et de pleinement les exploiter dans vos applicatifs métier.

Il existe essentiellement 3 approches pour construire une stack data moderne :

  • L’approche best of breed : vous construisez chaque brique de la stack data en choisissant les meilleurs outils de leur catégorie.
  • L’approche agence : vous confiez la construction de la stack data à un prestataire.
  • L’approche tout-en-un : vous connectez à votre data warehouse un outil de Data Ops capable de gérer l’ensemble des traitements nécessaires à la valorisation des données.

Nous nous focalisons dans cet article sur les stack data modernes. Ces stack data, construites à partir d’outils cloud et d’outils self service (no ou low code) sont moins lourdes, moins chères, moins IT-dependantes que les stack data du passé. Elles deviennent la norme, surtout dans les entreprises les plus matures.

Qu’est-ce qu’une stack data (moderne) ?

Pour comprendre la fonction clé d’une stack data aujourd’hui, il faut partir de ce constat évident : les données, en particulier les données clients au sens large, sont l’un des actifs les plus précieux des entreprises. Sauf que ces données sont généralement sous-utilisées et ne délivrent pas toute la valeur qu’elle détienne.

Pour être pleinement valorisées, les données doivent être correctement connectées, consolidées, nettoyées, préparées, transformées, enrichies et activées dans les outils de destination : CRM, marketing Automation, analytics/BI…

La stack data désigne l’assemblage cohérent d’outils qui sert à réaliser toutes ces opérations, de la connexion des données à leur activation en passant par leur préparation et enrichissement.

stack data moderne
La stack data est une imbrication d’outils au service d’une meilleure exploitation des données par l’entreprise.

A quoi reconnaît-on une organisation data-driven ? Au fait qu’elle dispose d’une stack data moderne ! Avoir une stack data est une condition nécessaire, bien que pas suffisante, pour devenir data-driven.

La stack data facilite la circulation des données dans l’organisation et leur exploitation par les différents utilisateurs finaux.

Les stack data qualifiées de « modernes » ont 2 caractéristiques essentielles qui les distinguent des anciennes stack data. Elles se basent sur :

  • Des solutions cloud, et en particulier un data warehouse cloud servant de pivot, de « hub des données ».
  • Des outils low ou no-code (on parle aussi d’outils self-service) qui permettent de démocratiser l’accès et la manipulation des données.

Les composantes d’une Stack Data Moderne

La stack data moderne est un ensemble d’outils gravitant autour d’un data warehouse construit sur une plateforme cloud. Une stack data moderne contient 5 briques clés, 5 composantes fondamentales qu’on peut désigner par des verbes :

  • Collecter. Une entreprise possède une dizaine, une vingtaine, une trentaine de sources de données. C’est grâce à elles que l’organisation collecte les données sur les différents canaux et aux différentes étapes des parcours clients.
  • Connecter (ou « charger », ou « stocker »). Les sources de données sont connectées à un data warehouse (DWH) cloud qui sert de réceptacle principale des données.
  • Transformer. Les données sont préparées, consolidées, nettoyées, transformées au moyen d’outils spécifiques. Si la transformation des données précède leur chargement dans le DWH, on parle d’outils ETL (Extract-Transform-Load). Dans le cas contraire, de plus en plus fréquent, on parle d’outils ELT (Extract-Load-Transform).
  • Analyser. Les données stockées dans le DWH sont utilisées pour produire des analyses, des reportings, des data visualisations via des outils de Business Intelligence (BI).
  • Activer. Les données du DWH ne servent pas seulement à créer des reportings, elles servent aussi à alimenter les outils d’activation (CRM, marketing automation…), via une solution « Reverse ETL ».

Chacune de ces composantes de la stack data moderne désigne une étape du cycle de vie des données et fait appel à un ou plusieurs outils.

Nous allons vous décrire plus précisément chacune de ces composantes, en vous épargnant la première qui nous amènerait à vous détailler les différentes sources de données utilisées par les entreprises. On va éviter la liste à la Prévert.

Connecter – Charger – Stocker : la place pivot du Data Warehouse

Le data warehouse sert de réceptacle des données. Il met en connexion l’ensemble des sources de données de l’entreprise et permet ainsi de stocker l’ensemble des données de l’organisation dans un même endroit. Comme nous le disions plus haut, le DWH joue le rôle de pivot de la stack data moderne. C’est autour de lui que gravitent toutes les autres composantes. C’est l’émergence de cette nouvelle génération de data warehouse basés dans le cloud qui a permis le développement de la stack data moderne.

Le data warehouse a la capacité de stocker tous types de données. Lorsqu’il permet même de stocker des données non structurées, « en vrac », on parle de « data lake ». D’ailleurs, dans certaines organisations, le data warehouse cloud est construit en aval d’un data lake qui accueille de manière indifférenciée toutes les données générées par les sources.

stack data moderne data lake data warehouse
Source : Qubole.

Comment intégrer les données dans le data warehouse ?

Il existe plusieurs réponses à cette question. Nous vous proposons un panorama des différentes familles d’outils permettant de connecter vos sources de données à votre data warehouse. Découvrez notre panorama des outils d’intégration des données.

Un data warehouse cloud est une solution scalable et puissante. La réduction des coûts de stockage et l’augmentation de la puissance de calcul (qui permet d’exécuter des requêtes SQL sur de gros volumes de données en quelques secondes) sont les deux évolutions majeures sur le marché des data warehouses – évolutions permises grâce au cloud.

Les solutions DWH les plus connues du marché restent celles proposées par les GAFAM :

On observe depuis le début des années 2020 la montée en puissance de « pure players », Snowflake en tête.

Légende : Medium. Mai 2020. Redshift plafonne, BigQuery monte, Snowflake explose.

Voici 2 autres caractéristiques des data warehouses cloud, pour achever de brosser le tableau de cette technologie incontournable :

  • Les DWH sont serverless. Vous n’avez pas à gérer les serveurs. Ils sont fournis et maintenus par l’éditeur.
  • Les DWH sont facturés à l’usage. Vous payez ce que vous utilisez, que ce soit en termes d’espace de stockage ou de puissance de calcul. Certaines solutions, comme Snowflake, facturent distinctement le stockage et le computing, ce qui augmente encore la souplesse tarifaire.

Une introduction à la Stack Data Moderne

Un Data Engineer qui aurait été cryogénisé en 2010 et que l’on réveillerait par malice aujourd’hui ne comprendrait plus grand-chose à la Stack Data Moderne. Heureusement pour lui, il pourrait rapidement se mettre à jour en découvrant notre guide introductif à la Stack Data Moderne. Un article qui complète bien celui que vous êtes en train de lire.

Ingérer : la gestion des pipelines de données via une solution ELT/ETL

La deuxième composante de la Stack Data regroupe l’ensemble des outils qui permettent de faire circuler les données entre les différents systèmes. Et plus précisément : entre les sources de données et le data warehouse.

Une solution ELT ou ETL sert à brancher les sources de données (outils marketing, réseaux sociaux, logs, APIs…) au data warehouse.

Il y a essentiellement deux manières d’intégrer les données :

  • ETL. La première consiste à transformer les données avant de les charger dans le data warehouse. Si bien que les données arrivent bien préparées dans l’entrepôt de données en fonction des règles de modélisation de votre DWH. C’est l’option traditionnelle que l’on appelle ETL : Extract – Transform – Load, qui était utilisée dans les stack data anciennes. On transforme (T) avant de charger (L).
  • EL(T). La deuxième approche, plus moderne et plus souple, consiste à utiliser un outil qui va charger les données dans le data warehouse sans les transformer. Dans ce cas, les transformations des données sont réalisées en aval, soit par le même outil, soit par un autre outil, soit en utilisant les fonctions proposées nativement par l’éditeur du data warehouse. On parle alors d’EL(T).

Dans la famille des outils EL(T), on trouve notamment Stitch ou Fivetran. 2 références. Ces solutions ont développé des connecteurs avec des solutions leaders (Facebook, Salesforce, Google Analytics…) qui vous permettent de connecter vos sources de données à votre entrepôt de données en quelques secondes, via une interface no-code.

stack data moderne stitch connecteurs
Outil EL(T), Stitch Data propose des dizaines et des dizaines de connecteurs natifs pour connecter vos sources de données à votre data warehouse en quelques clics.

Le modèle économique de ces solutions est basé sur le volume de données ingéré, exprimé en nombre d’événements ou en lignes. A noter qu’il existe aussi des outils EL(T) open source, donc gratuits, mais dont la prise en main requiert des compétences IT. Je pense notamment à Airbyte, ou bien au framework Singer, qui propose une belle bibliothèque de scripts écrits en Python pour connecter vos sources au data warehouse. Pour la petite histoire, Stitch utilise le code de Singer pour créer ses connecteurs en 3 clics.

En optant pour un outil ELT payant comme Stitch ou Fivetran, ce que vous payez, c’est l’interface user-friendly et les connecteurs natifs, pas la technologie sous-jacente qui s’appuie généralement sur des frameworks open source. Après, il y a clairement un ROI à utiliser un outil payant, surtout si vous êtes une jeune entreprise et que vous n’avez pas les compétences internes pour utiliser un framework open source. Les connecteurs facilitent quand même vraiment la vie !

Transformer : le nettoyage et la consolidation des données

Avec des outils ETL ou ELT (sans parenthèses sur le « T »), la transformation des données est réalisée par le même outil que celui utilisé pour charger les données dans le data warehouse. Vous avez un même outil qui s’occupe du « L » et du « T ». Un exemple de logiciel ELT ? Weld, par exemple.

Mais la tendance générale consiste à utiliser des outils différents pour ces deux opérations.

Dans une stack data moderne, on a généralement :

  • Un outil EL qui sert à créer les pipelines de données, à charger les données provenant de vos différentes sources dans le data warehouse.
  • Un outil de data prep qui transforme les données de votre data warehouse. Découvrez notre panorama des meilleurs outils de data prepation.

Transformer des données consiste à appliquer aux données chargées dans le DWH un certain nombre de règles et de fonctions adaptées à vos cas d’usage et au design du Data Warehouse. Les opérations de transformation classiques incluent, notamment, le renommage de colonnes, la jonction de plusieurs tables, l’agrégation de données…

Un exemple d’outil ? dbt. Cette solution permet aux data analysts et aux data engineers de transformer les données du DWH beaucoup plus facilement qu’auparavant, via l’édition de codes de transformation SQL. dbt fait partie de ces outils dont on parle beaucoup en ce moment, et à juste titre tant la solution est à la fois simple et puissante. C’est grâce à ce genre d’outils qu’un data analyst peut gérer la transformation des données lui-même, sans avoir besoin de l’appui d’un data engineer ou d’un développeur Python. Précisons que dbt est open source, même s’ils proposent aussi une version payante.

stack data moderne db interface
dbt est l’outil de référence pour transformer les données stockées dans le Data Warehouse, via des scripts SQL.

Il existe quelques concurrents à dbt, notamment :

  • Dataform, récemment acheté par Google Cloud.
  • Databricks, qui a signé un partenariat avec Google Cloud (mais fonctionne aussi sur Azure et AWS).

Passons à l’étape suivante. A quoi servent les données transformées du data warehouse ? A faire deux choses : de l’analyse et de l’activation. Commençons par l’analyse.

Analyser : la solution de DataViz / BI

Les données organisées du data warehouse sont d’abord utilisées pour alimenter un outil de Business Intelligence (BI) qui sert à construire des reportings, des tableaux de bord, des data visualisations, des modèles prédictifs.

L’analyse des données permet de piloter les performances de l’entreprise, d’identifier des tendances, des évolutions, de mieux cerner les parcours clients, de mieux comprendre le comportement des clients, d’identifier la part de chaque canal dans la performance (via des modèles d’attribution) et de manière plus générale d’éclairer les prises de décision.

L’analyse des données s’effectue depuis un outil de Business Intelligence (comme Tableau, Looker, PowerBI ou QlikView), dont l’utilisateur principal est le data analyst. Ces outils permettent de créer des reportings avancés à partir de toutes les données du Data Warehouse auxquelles ils sont connectés via des connecteurs ou des APIs.

Ces outils coûtent relativement cher, sauf Google Data Studio, qui est 100% gratuit. Data Studio est une solution assez puissante, que nous avons beaucoup utilisée dans notre passé de consultants, et qui a l’avantage (par définition) de bien s’intégrer à l’écosystème de Google Cloud. On recommande aussi Metabase, qui est un outil de BI open source.

Un exemple de reporting Data Studio.

Les reportings sont synchronisés avec toutes les sources que vous voulez (votre data warehouse, Google Ads, les réseaux sociaux, des spreadsheets, etc.) et donc mis à jour en temps réel. Les outils de BI ont fait de gros efforts pour proposer des interfaces très simples d’utilisation. Ils proposent des templates de reporting souvent très bien pensés et qui permettent de gagner beaucoup de temps.

Les outils de BI sont aussi appelés « outils de DataViz » ou « outils de Data Visualization » dans le sens où ils permettent de présenter les données de manière visuelle, sous forme de graphiques, de tableaux, de courbes, de charts…

Dashboards ecommerce Google Data Studio

Google Data Studio est une solution de BI gratuite et proposant de nombreux templates personnalisables de bonne qualité. Pour vous en rendre compte par vous-même, nous vous invitons à découvrir notre sélection des 50 meilleurs dashboards ecommerce de Google Data Studio.

Activer : le Reverse ETL pour redistribuer les données à vos outils

Il y a encore quelques années, les données stockées dans le data warehouse n’étaient utilisées que pour faire du reporting et de l’analyse. Le data warehouse servait de socle de la BI. C’était sa seule fonction. Les temps ont changé et l’une des caractéristiques de la stack data moderne est l’avènement de ce qu’on appelle les Reverse ETL.

Un Reverse ETL, comme l’indique son nom, fait l’inverse d’un outil ETL. Un outil ETL charge les données en provenance de vos sources de données dans le data warehouse. Un Reverse ETL est une solution qui sert à extraire les données stockées dans le data warehouse pour les mettre à disposition des outils d’activation / business : CRM, marketing automation, help desk, comptabilité…

Un Reverse ETL permet de mettre les données du data warehouse au service des équipes métiers : marketing, ventes, service client, digital, finance…Il synchronise les données agrégées du DWH dans les applicatifs utilisés au quotidien par le métier.

Avec un Reverse ETL, par exemple, vous pouvez intégrer les données Stripe et Zendesk (préalablement chargées dans le data warehouse) dans votre CRM Hubspot.

Si on avait parlé des Reverse ETL à un DSI des années 2000, il nous aurait ri au nez. Qu’un data warehouse serve à alimenter un CRM (via notre Reverse ETL) était une idée absurde. Le data warehouse était le réceptable des données froides, le CRM et les outils d’activation en général le réceptacle des données chaudes. Mais avec l’avènement de la nouvelle génération de data warehouse cloud, les règles du jeu changent : le data warehouse peut devenir un référentiel opérationnel. Et ça change tout !

A la découverte des Reverse ETL

Le Reverse ETL est le chaînon manquant qui empêchait jusqu’au début années 2020 de synchroniser les données du data warehouse dans les applicatifs métier. Pour en savoir plus sur cette technologie incontournable de la stack data moderne, nous vous invitons à découvrir notre guide introductif sur les Reverse ETL.

Si vous vous allez plus loin, nous vous conseillons de jeter un œil à cette liste de ressources consacrée à la stack data moderne.

3 approches pour construire votre Stack Data

Voici les 3 options qui s’offrent à vous pour construire votre stack data moderne. Pour construire notre tableau, nous avons pris pour hypothèse une entreprise ayant un effectif d’une cinquantaine de personnes.

Best of breedOutsourcée Tout-en-un
Ce dont vous avez besoinAu moins 1 ingénieur analyticsUn budget significatif
  • Un petit budget
  • Un Data/Business analyst (ou un profil Business Ops)
Combien ça coûte ?Environ 500€ par mois pour les outils et quelques mois de votre ingénieur analytics
  • Installation initiale : 10 - 30k€
  • Exploitation : 2 - 5k€ par mois
  • Environ 1 000€ par mois pour les outils
  • Quelques jours de votre Business Analyst
Stack TechnoUn outil comme Fivetran + dbt + BigQuery + MetabaseChoisie par l'agenceUn outil comme BigQuery + Octolis + Metabase

Option #1 – Construire en interne une Stack Data best of breed

La première option consiste à construire votre stack data moderne vous-même en allant chercher le « meilleur » outil de chaque catégorie. Voici les grandes étapes à suivre si vous optez pour cette option :

  • Définir vos objectifs et l’organisation cible. Pour quelles raisons souhaitez-vous déployer une stack data moderne ? Vous devez partir des objectifs de votre organisation et ensuite les décliner en cas d’usage data. Ce travail incontournable d’expression du besoin vous aidera à prendre les bonnes décisions tout au long de votre projet.
  • Choisir les outils de votre stack data. Nous avons passé en revue les principales composantes d’une stack data moderne. Pour chaque composante, il existe plusieurs outils possibles. A vous de choisir ceux qui répondent le mieux à vos objectifs, vos besoins, vos contraintes, votre budget. Ne souscrivez pas un seul abonnement à un logiciel avant d’avoir une vision cible des principaux outils qui constitueront votre stack data. Le choix le plus structurant est celui du data warehouse. Choisissez ensuite votre ETL/ELT, votre outil de data transformation, votre Reverse ETL, votre outil de BI. Vous devez choisir des outils qui se connectent bien entre eux. Le critère de la connectivité est l’un des principaux à prendre en compte. Typiquement, des outils comme Fivetran ou Stitch se valent à peu près, ils font la même chose, la différence réside surtout au niveau des capacités d’intégration, des connecteurs disponibles.
  • Mettre en place les pipelines de données et configurer le data warehouse. L’étape suivante consiste à construire les flux de données entre vos sources de données et votre data warehouse, via votre outil EL(T)/ETL. Vous devez aussi construire le modèle de données de votre data warehouse, c’est-à-dire définir la manière dont les données vont s’organiser dans les tables de votre DWH. C’est sans doute l’étape la plus technique, celle qui nécessite de vraies compétences IT (maîtrise de SQL en particulier).
  • Construire vos premiers reportings. C’est une étape techniquement facile. Les outils de BI proposent des interfaces user-friendly et permettent de connecter les sources de données de manière relativement simple. La difficulté est de construire des reportings intelligents, pertinents, utiles, bien pensés. Si vous n’avez pas besoin de compétences IT pour construire vos premiers rapports, vous devrez en revanche vous entourer de professionnels de la data : en particulier d’un ou de plusieurs data analysts.
  • Définir les process internes. L’avantage d’une stack data moderne, c’est qu’elle est utilisable par presque tout le monde. Mais cela fait naître un risque au niveau de l’intégrité de vos données. Il est donc essentiel de définir des process internes, des règles en matière de traitement des données, de gestion des accès et des droits, de définir des procédures, des rôles, d’établir une documentation, etc. Bref, vous devez poser les bases d’une bonne et saine Gouvernance des Données. Où l’on voit que construire une stack data moderne est un projet autant organisationnel que technique…
  • Définir une roadmap. Nous vous recommandons d’adopter une approche progressive dans le déploiement de votre stack data. C’est un projet suffisamment complexe et chronophage en soi…donc ne cherchez pas à tout transformer d’un coup. Nous pensons en particulier ici aux cas d’usage de la stack data. Ils ont vocation à augmenter avec le temps, à s’enrichir, à s’affiner. Mais ne cherchez pas à les déployer tous en même temps. Commencez par les cas d’usage prioritaires. Nous vous conseillons aussi de mettre en place une bonne direction de projet, avec des instances de pilotage.

Benchmark des outils de la Stack Data Moderne

Vous êtes intéressé(e) par cette option ? Nous vous invitons à découvrir notre benchmark complet des outils de la stack data moderne. Pour chaque famille d’outils (ETL, data warehouse, data prep…), nous vous proposons les meilleures solutions du marché.

Option #2 – Déléguer la mise en place de votre Stack Data à une agence

La deuxième option, plus coûteuse, consiste à déléguer la construction de votre Stack Data à une agence. Voici les étapes à suivre si c’est l’option que vous choisissez :

  • Définir vos besoins. Vous devez construire un cahier des charges solide dans lequel vous formalisez vos objectifs, décrivez votre situation actuelle (notamment l’état de votre écosystème Data/Tech), vos cas d’usage cibles en matière de données. Vous devez être le plus exhaustif et précis possible. Le cahier des charges va vous forcer à bien formaliser l’expression de votre besoin et à la partager à votre agence partenaire. C’est le document qui servira de point de repère tout au long du projet.
  • Choisir l’agence. Il existe des dizaines et des dizaines d’agences data sur le marché. Vous devez choisir celle la plus en phase avec votre besoin, vos attentes, vos contraintes…Nous vous conseillons de tester au moins 3 ou 4 agences. Interrogez-les sur votre projet, vous pourrez les évaluer en fonction de la manière dont elles répondent à vos questions et comprennent votre cahier des charges. Pensez aussi à scruter les références clients des agences ciblées. Nous vous conseillons même de demander aux agences cibles des exemples de cas clients proches du vôtre. Allez même plus loin : demandez à l’agence de vous communiquer les coordonnées d’1 ou 2 clients pour les contacter et leur demander un retour d’expérience.
  • Suivre de près le projet. Il est important de mettre en place des instances de pilotage (points hebdos, CoPil) afin de suivre de près l’avancement du projet, éviter les dérives, contrôler le respect du planning et du budget. La qualité de la communication entre votre entreprise et l’agence est clé si vous voulez obtenir des livrables et des résultats à la hauteur de vos espérances.

Option #3 – Construire en interne une Stack Data via une solution tout-en-un

Nous avons défini la stack data moderne comme une imbrication d’outils. Pour être plus précis, il faudrait parler d’une imbrication de fonctions, dans la mesure où il existe des outils tout-en-un couvrant plusieurs composantes de la stack data.

Un outil comme Octolis par exemple gère à la fois l’ingestion des données, leur modélisation et leur « opérationnalisation », c’est-à-dire la redistribution des données du DWH aux outils de destination. Octolis joue donc à la fois le rôle d’outil EL(T), d’outil de data prep et de Reverse ETL. Nous sommes ce que l’on appelle un outil de « DataOps ».

La troisième option que nous présentons consiste donc à construire votre Stack Data Moderne à partir de deux solutions clés :

  • Un data warehouse cloud.
  • Un outil tout-en-un de « DataOps ».
panorama fonctionnalites octolis
Panorama des fonctionnalités d’un outil de Data Ops comme Octolis.

Cette option a plusieurs avantages :

  • Elle est plus rapide à déployer.
  • Elle est plus simple à déployer et à prendre en main. Pas besoin d’avoir une grosse équipe data, vous n’avez besoin que d’un data analyst ou d’un analytics engineer pour construire les rapports (et vous aider à paramétrer le DWH).
  • Elle est moins coûteuse. Un outil de Data Ops coûte moins cher comparé à l’addition des coûts d’un EL(T), d’un outil de data prep et d’un Reverse ETL.
  • Résultat : le ROI est plus rapide.
  • Enfin, c’est une solution souple et scalable.

C’est l’option que nous recommandions souvent dans notre vie de consultants et c’est pourquoi nous avons développé Octolis. Cette option est particulièrement recommandée pour les entreprises de mid-market (PME) qui n’ont ni les grosses équipes data nécessaires pour construire une stack data best of breed ni le budget pour confier le travail à une agence.

Si vous choisissez cette option, voici schématiquement les étapes à suivre :

  • Définir les besoins. Dans cette option comme dans les autres, il faut commencer par formaliser les objectifs, les besoins métiers et les cas d’usage de la stack data. C’est la base de tout projet data !
  • Choisir un data warehouse et une solution Data Ops. Dans cette option d’organisation, les deux outils clés sont le data warehouse, réceptacle des données, et l’outil de Data Ops qui va servir à réaliser la plupart des opérations sur les données que nous avons décrites dans la première section de l’article.
  • Installer la stack data à partir de la solution de Data Ops. C’est dans la solution de Data Ops que vous allez connecter vos sources à votre data warehouse, préparer les données (nettoyage des données, consolidation, enrichissement, agrégation) et synchroniser les données agrégées dans les outils de destination.
  • Construire les premiers rapports, en utilisant un outil de BI comme Metabase ou Data Studio. Vous allez avoir besoin de quelques jours de travail de votre data analyst pour produire les rapports clés. Ne construisez pas une usine à gaz, concentrez-vous sur les quelques rapports prioritaires pour le suivi de votre activité.
  • Définir la roadmap et les process internes. Même commentaire que pour l’option 1. Définissez une roadmap de déploiement et d’évolution de votre stack data et mettez en place une gouvernance des données pour préserver l’intégrité de la stacj, des données, et encadrer l’utilisation des outils.

Le choix de la méthode de construction de votre stack data doit être en adéquation avec la taille de votre entreprise, vos cas d’usage cibles, vos contraintes (IT, budgétaires) et les caractéristiques de l’organisation (taille de l’équipe data).

Les trois options que nous vous avons présentées ont chacune leur intérêt. Nous sommes convaincus que la troisième est celle qui convient le mieux aux entreprises mid-market : les startups dans leur première phase de croissance et les PME ayant une maturité data intermédiaire et une équipe data réduite à 1 ou 2 personnes.

Quelles compétences pour être un bon Data Analyst ?

Pour recruter un Data Analyst, il est essentiel d’avoir une compréhension très claire de son rôle dans l’entreprise et des compétences requises, qui sont comme nous le verrons un subtil mélange de hard et de soft skills.

Votre première étape, en tant que recruteur, va consister à rédiger une fiche de poste décrivant le rôle de la personne dans l’entreprise, les résultats attendus et les compétences exigées. Pour réaliser cette étape, nous vous conseillons de découvrir cet excellent modèle basé sur le fameux livre « Who: The A Method for Hiring ».

Dans notre article, nous avons fait le choix de la simplicité. Après avoir rappelé ce qu’était un Data Analyst, son rôle, ses tâches, nous passerons en revue les principales compétences attendues.

competences data analyst
source : beamjobs.

Précisons d’emblée que les compétences recherchées varient en fonction des caractéristiques et de la taille de l’organisation. Pour prendre un exemple très simple, si vous n’avez pas de data engineer, vous devrez recruter un data analyst capable de jouer le rôle de data engineer, de gérer les pipelines de données. On parle parfois d' »analytics engineer » pour définir ces profils polyvalents.

La graphique proposée ci-dessus met en avant les compétences techniques recherchées par les recruteurs. On retrouve les grands classiques : la maîtrise du SQL (la base), des outils de BI, d’Excel, des langages de programmation Python ou R…Mais la qualité d’un data analyst se mesure de plus en plus à ses soft skills comme nous allons le voir. Bonne lecture !

Comprendre le rôle d’un Data Analyst

Les différents rôles dans une équipe data

Parce qu’une image vaut mieux que mille mots, commençons par cette belle illustration des différents rôles dans une équipe data :

role equipe data
Source : abartholomew.com

Une équipe data réunit des profils dont les compétences se répartissent autour de 3 grands pôles :

  • L’ingénierie data, c’est-à-dire l’organisation des pipelines des données, la capacité à organiser les flux entre les sources de données, le data warehouse et les outils. Le Data Engineer est le métier de la data qui incarne le mieux ce pôle.
  • La data analysis, qui consiste à analyser les données pour en tirer des enseignements utiles pour le business et les prises de décision stratégiques. Le Data Analyst est le métier de la data qui incarne le mieux ce pôle et celui sur lequel on va concentrer dans cet article.
  • La modélisation, qui consiste à construire des modèles d’analyse avancés, notamment des modèles statistiques et prédictifs. Ce sont les mathématiciens et les statisticiens de haut niveau qui incarnent le mieux ce pôle.

Ces trois pôles dessinent un ensemble de rôles. Nous avons parlé des Data Engineers, des Data Analysts, des statisticiens. Mais il existe aussi des profils à l’intersection de plusieurs pôles, comme le montre très bien le schéma. Le Data Analyst est à l’intersection du pôle Analysis et du pôle Statistics. Les analytics engineers sont en quelque sorte des data analysts ayant une forte appétence pour la gestion des flux et transformations de données (ETL).

Surtout, ces différents rôles peuvent être endossés par 1 ou n personnes suivant la taille de l’organisation et les enjeux autour de la data. Typiquement, dans les petites organisations, le Data Analyst et le Data Engineer sont généralement la même personne. À l’inverse, dans les grandes organisations, un même rôle peut être partagé entre plusieurs personnes.

Data Engineer Vs Data Analyst vs Data Scientist

Avant d’entrer dans le détail des compétences nécessaires à un Data Analyst, rappelons les différences entre un Data Analyst, un Data Engineer, un Data Scientist et un Analytics Engineer.

data scientist data engineer data analyst
Source : Université d’Adelaide.

Data Engineer, le gestionnaire des pipelines de données

Le data engineer est le rôle qui consiste à mettre en place les pipelines de données. Il gère la manière dont les données sont stockées dans le système d’information, chargées dans l’entrepôt de données et redistribuées dans les différents outils de l’entreprise. Il est responsable de l’infrastructure data de l’entreprise. C’est un technicien.

En résumé, le data engineer est celui qui gère les process ETL : Extraction – Transformation – Load. Il utilise pour cela des outils spécialisés comme Stitch ou Fivetran. Il assure la maintenance et les évolutions du data warehouse cloud de l’entreprise : Snowflake, BigQuery, Redshift, Azure

Pour prendre des exemples parlants, c’est votre data engineer qui garantit que votre instance dbt est bien sur la dernière version, qui gère les permissions dans Snowflake, qui gère et édite les workflows Airflow.

Panorama des outils d’intégration des données

En 2020 une organisation utilise en moyenne 110 applications Saas, contre seulement 8 en 2015. Ces outils augmentent la performance opérationnelle mais créent des silos qui freinent le déploiement des cas d’usage de la donnée. Découvrez notre tour d’horizon des outils pour intégrer toutes les données de votre entreprise : iPaaS, ETL, ELT, CDP, Reverse ETL.

Data Analyst, celui qui transforme les données en enseignements business

Le Data Analyst a pour rôle de dégager des enseignements à partir de l’analyse des données de l’entreprise. Il est chargé de faire « parler les données », via des outils de Business Intelligence et des méthodes d’analyse. Il construit des tableaux de bord et des data visualizations à l’aide d’outils comme Power BI, Tableau ou Looker.

Le Data Analyst est sans doute le rôle le plus important dans une équipe data, car c’est lui qui fait le pont entre le reste de l’équipe data et les équipes métier. Il analyse les données pour répondre aux questions posées par les décideurs et le métier.

Il a un pied dans les données et un pied dans le business.

Mais nous aurons l’occasion dans quelques instants de revenir en détail sur ce rôle clé 🙂

Data scientist, le constructeur de modèles d’analyse avancés (machine learning, IA…)

Le data scientist créé des modèles d’analyse, des algorithmes de machine learning pour prédire ou automatiser les actions data-dépendantes. Il se base sur les principes de la data science pour répondre à des questions complexes auxquelles l’analyse classique ne permet pas de répondre.

Les tâches et responsabilités d’un Data Analyst

Recentrons-nous sur le métier de Data Analyst. Le rôle d’un Data Analyst est d’interpréter les données pour répondre à des problématiques spécifiques.

Voici une liste des principales tâches qu’un Data Analyst est amené à réaliser au cours de ses journées :

  • Rassembler les données. Les data analysts sont souvent amenés à collecter les données eux-mêmes, quelles que soient les formes que cela prend : mettre en place des sondages, tracker les caractéristiques des visiteurs du site internet ou acheter des sets de données auprès de fournisseurs spécialisés.
  • Nettoyer les données. Les données brutes peuvent contenir des informations dupliquées, des erreurs ou des valeurs aberrantes. Nettoyer les données consiste à maintenir la qualité des données. De la qualité des données dépend la validité des analyses !
  • Modélisation des données. La modélisation des données consiste à organiser les données en vue des analyses. Elle permet au data analyst de choisir le type de données qu’il souhaite stocker/collecter et d’établir les relations entre les catégories de données. Une bonne maîtrise de la structure des bases de données relationnelles est requise !
  • Interprétation des données. Interpréter les données consiste essentiellement à découvrir des patterns ou des tendances grâce à l’analyse des données.
  • Présenter les résultats. Le data analyst communique les résultats de ses analyses aux décideurs et au métier. Comment ? En utilisant l’art de la data visualization, en construisant des graphiques, des tableaux, des rapports pour présenter les informations dans un format compréhensible par les personnes intéressées.

Les tâches d’un data analyst varient d’une entreprise à l’autre. Le travail d’un data analyst ne sera pas le même dans une petite organisation et dans une grande organisation. Dans les entreprises qui ont de grosses équipes data, le data analyst utilise beaucoup moins ses compétences en modélisation de données (ce travail est confié aux analytics engineers) mais est beaucoup plus focus sur la compréhension du business et la collaboration entre l’équipe data & les équipes métier.

Si vous envisagez de recruter un data analyst et que vous cherchez de l’inspiration pour rédiger la fiche de poste parfaite, nous vous conseillons la lecture de cet excellent article de getdbt : Guide to writing data, analytics engineer, and data analyst job descriptions.

Les compétences techniques d’un Data Analyst

SQL

C’est la compétence technique numéro 1. C’est le principal outil utilisé par les data analysts pour mettre à jour, organiser et explorer les données stockées dans des bases relationnelles. SQL est un langage de base de données très puissant sur lequel les data analysts peuvent facilement passer plusieurs heures par jour. Vous trouverez la mention de « SQL » dans toutes les fiches de poste de Data Analyst.

Dans tous les process de recrutement, on demande au candidat de rédiger des requêtes SQL. C’est vraiment la base. Le succès de SQL, qui est un langage remontant aux années 1970 (!), s’explique par le succès persistant des bases de données relationnelles.

Voici quelques exemples de la manière dont un data analyst utilise le SQL :

  • Joindre, agréger et filtrer les données d’une table de données
  • Extraire des rapports CSV pour les parties prenantes (données brutes)
  • Créer des rapports plus complets à partir de données issues de Tableau, Looker…
  • Créer des connexions de données statiques ou live pour alimenter les reportings ou les tableaux de bord

Tableurs

Reconnaissons qu’il est parfois plus facile de gérer, visualiser et manipuler vos données dans une feuille de calcul après les avoir requêtées avec SQL. Utiliser des tableurs n’est sans doute pas la compétence la plus intéressante, mais c’est probablement l’une de celles qu’un data analyst utilise le plus souvent au quotidien.

Microsoft Excel et Google Sheets sont les deux principales solutions du marché. Excel propose des fonctionnalités plus avancées mais Google Sheets a l’avantage d’être plus adapté au travail collaboratif.

Voici quelques exemples de la manière dont un data analyst utilise les tableurs Excel ou Google Sheets :

  • Visualiser rapidement des données
  • Partager rapidement des données
  • Mettre en lumière certaines données pour faire des comparaisons
  • Classer des données
  • Grouper des données (en utilisant des tableaux croisés dynamiques)
  • Faire des analyses rapides à la volée (en mode « dirty »)
  • Utiliser la pléthore de fonctions que les tableurs proposent (ce sont des outils bien plus puissants qu’on le pense généralement !)
  • Imaginer et utiliser des formules de calcul maison
  • Utiliser la mise en forme conditionnelle
  • Présenter des enseignements aux parties prenantes de l’entreprise (un Excel peut très bien être utilisé pour créer des tableaux de bord et des reportings)

Langages de programmation (R et Python)

SQL permet d’extraire les données dont on a besoin à partir de l’entrepôt de données. Les langages de programmation R et Python, quant à eux, permettent de faire des analyses (beaucoup) plus avancées que ce qu’il est possible de faire avec un tableur Excel.

Les langages de programmation les plus utilisés par les data analysts sont R et Python. Ce ne sont pas les seuls. On utilise aussi (mais beaucoup moins) SAS et Java. Maîtriser un ou plusieurs langages de programmation est un gros avantage quand on est data analyst.

Voici quelques exemples de la manière dont un data analyst utilise les langages de programmation R ou Python :

  • Calculer la significativité statistique d’un phénomène
  • Utiliser des bibliothèques pour réaliser des tâches plus facilement et/ou plus efficacement :
    • Bibliothèques Python : Pandas pour la préparation et la manipulation des données, Matplotlib pour la data visualization, Scikit-learn pour l’analyse régressive et les arbres de décision.
    • Bibliothèques R : Dplyr pour la préparation et la manipulation des données, Ggplot2 pour la data visualization.
  • Réaliser des expérimentations et tester des hypothèses
  • Utiliser des techniques statistiques classiques comme ANOVA (Analyse de la Variance)
  • A/B tester des produits
  • Analyser les valeurs aberrantes
  • Analyser la qualité des données
  • Faire de la régression

Il y a des tonnes de fonctions qui utilisent des méthodologies statistiques et peuvent être mises en œuvre grâce aux langages de programmation. Tous les data analysts ne maîtrisent pas ces langages, mais c’est un avantage compétitif certain. Il est de plus en plus conseillé, quand on est data analyst ou qu’on aspire à le devenir, de maîtriser au moins un de ces langages informatiques.

langages programmation python r sas java
Source : beamjobs.com

Data Visualization

Les data analysts doivent être capables de partager de manière claire, simple et concise les résultats de leurs analyses. La data visualization permet de communiquer des informations et des enseignements basés sur la data à des personnes qui ne sont pas data analysts.

Elle consiste, comme son nom l’indique, à utiliser des moyens visuels : graphiques, courbes, bâtonnets, etc. pour illustrer des enseignements. La Data Visualization est une des compétences incontournables du data analyst. Tableau, Power BI, Jupyter Notebook et Excel sont parmi les outils les plus populaires pour créer des data visualizations.

Voici quelques exemples de la manière dont un data analyst utilise la data visualization :

  • Articuler des données complexes dans un format (visuel) facile à comprendre
  • Partager des données ou des résultats aux autres parties prenantes de manière simple
  • Comparer des données entre elles
  • Explorer les données. Point important : la data visualization peut aussi être utilisée pour découvrir des enseignements impossibles à déduire de suites de chiffres.
  • Visualiser beaucoup de données et d’informations dans un même endroit, sans avoir à scroller ou à sauter d’un écran à l’autre.

Data preparation

On estime que près de 80% du temps de travail des professionnels de la data consiste à nettoyer et préparer les données. C’est colossal. Mais ce travail est indispensable car avant d’analyser les données il faut les réunir, les consolider, les nettoyer et parfois les transformer. De mauvaises données aboutissent à de fausses analyses.

Ce n’est clairement pas la partie la plus intéressante du métier de data analyst. C’est d’ailleurs dommage que la data prep continue de consommer autant de bande passante quand on sait qu’il existe des solutions (dont Octolis) permettant d’automatiser toutes les étapes de préparation des données.

octolis preparation des données
Octolis, une solution Data Ops permettant de gérer l’ensemble des étapes de préparation des données sur une même interface.

Voici quelques exemples de la manière dont un data analyst utilise la data preparation :

  • Choisir les données à intégrer dans le périmètre de l’analyse.
  • Identifier les sources dans lesquelles sont captées et/ou stockées ces données.
  • Récupérer des données pour les intégrer dans un environnement d’analyse (tableur, outil de BI…)
  • Normaliser les données
  • Nettoyer les données, en retraitant les données erronées ou aberrantes qui peuvent affecter l’analyse

Outils de Data Preparation

Les équipes data passent le plus clair de leur temps à préparer les données. C’est une aberration quand on sait qu’il existe des outils de dataprep qui permettent de faire d’énormes gains de productivité. Découvrez notre panorama des outils de data preparation.

Les soft skills que doit maîtriser un Data Analyst

La pensée critique

Cette compétence n’est pas propre au métier de data analyst, tout le monde est d’accord. Mais c’est important de la mentionner ici car c’est le genre de compétences qui permet de distinguer les bons data analysts des moins bons.

Qu’est-ce que la pensée critique appliquée à la data analysis ? C’est, par exemple, la capacité à savoir quelles données collecter et comment les processer pour obtenir les réponses aux questions qu’on cherche. Connecter des données ne nécessite pas de pensée critique. Mais savoir quelles données connecter, c’est une autre affaire et c’est sur cette capacité, souvent fondée sur l’intuition, qu’on reconnaît un bon data scientist. La pensée critique, c’est aussi ce qui permet au data analyst :

  • D’imaginer les modèles d’analyse les plus adaptés pour répondre à tel ou tel type de questions
  • D’identifier des patterns derrière et au-delà des données qu’il a sous les yeux

L’écriture et la communication

Le data scientist interprète les données pour aider les décideurs à prendre des décisions et les équipes métier à travailler plus efficacement. Contrairement au data engineer, le data analyst est en contact direct avec les autres parties prenantes de l’entreprise. Il doit savoir se faire comprendre d’elles. Le data analyst doit savoir s’exprimer face à des personnes qui n’ont pas forcément de compétences en analyse data.

Les compétences relationnelles font partie des soft skills du data analyst. Il doit savoir s’exprimer, parler, expliquer, mais aussi écouter (en phase de kick off, le data analyst écoute plus qu’il ne parle). Il doit savoir vulgariser, parler de manière simple et accessible de sujets techniques parfois très ardus.

Un data analyst est amené à rédiger des rapports et des recommandations. Il doit donc aussi savoir écrire. Il doit être bilingue et maîtriser aussi bien la langue des chiffres que celles des mots.

Les capacités communicationnelles sont une compétence fondamentale : vous pouvez être le meilleur analyste du monde, si vous ne savez pas expliquer les résultats de vos analyses et convaincre vos collègues de l’intérêt de vos analyses, vous ne faites pas le job jusqu’au bout.

La résolution de problèmes

Un data analyst est une personne qui trouve des réponses à des questions posées par les équipes métier. Il doit avoir une bonne compréhension des questions posées et des problèmes sous-jacents à résoudre. Il doit être capable de reformuler les questions dans le langage de la data et de l’analyse.

Son rôle est aussi de découvrir des patterns, des tendances et des relations entre données permettant d’amener à des découvertes utiles. La résolution de problèmes est une compétence indissociable de la pensée critique. Il faut être innovant et créatif pour devenir un bon data scientist.

La compréhension du business

Le data scientist ne travaille pas dans les nuages, même s’il utilise certainement beaucoup d’outils cloud. Il travaille au sein d’une entreprise qui évolue dans un secteur spécifique, avec une activité particulière, des parcours clients singuliers.

Le data analyst est partie prenante de son entreprise. Son travail, ses analyses sont au service des finalités business : améliorer la productivité, mieux cibler les clients, réduire les coûts, réduire le churn, augmenter la performance commerciale, etc.

Une bonne compréhension de l’activité et du contexte métier de l’entreprise est absolument indispensable. Un data analyst qui travaille pour une boutique en ligne, par exemple, doit avoir une parfaite compréhension du ecommerce et de ses enjeux. Un data analyst qui travaille pour une entreprise de vente de quincaillerie aux professionnels doit comprendre ce marché et son fonctionnement.

Nous avons fait le tour des principales compétences techniques et « soft » requises pour exercer le métier de Data Analyst. En tant que recruteur, ce sont toutes les compétences que vous devez évaluer. En fonction de votre entreprise et de votre besoin, certaines compétences seront plus critiques que d’autres. Quoi qu’il en soit, prenez le temps de faire le bon choix. Le recrutement d’un data analyst est une étape importante dans la vie d’une entreprise.

Top 50 des dashboards Ecommerce sur Google Data Studio

Google Data Studio est un outil formidable. L’outil est très facile d’utilisation, le plus compliqué comme souvent, c’est de savoir ce qu’on veut. Il est possible de faire des dashboards dans tous les sens, et beaucoup de boites se retrouvent avec plusieurs dashboards qui se recoupent plus ou moins, et qui sont souvent incomplets et pas vraiment mis à jour.

Avant de vous lancer dans la création d’un dashboard, je vous conseille clairement de prendre le temps de définir vos besoins précisément, et trouver les bonnes inspirations.

Vous trouverez ci-dessous notre top 50 des dashboard e-commerce.
La plupart sont gratuits et vous pourrez facilement copier celui qui sera le plus proche de votre besoin.
 

Télécharger le benchmark des 50 dashboard gratuitement

Les différents types de dashboard Ecommerce

Dashboard global – Léger

Ce dashboard présente la situation de l’entreprise de manière assez globale, en mettant en évidence les chiffres clés et les informations les plus importantes. Ce type de dashboard est principalement utilisé par les cadres supérieurs et les fondateurs pour avoir une vision des résultats de l’entreprise sans avoir trop de détails. Cela leur permet de prendre les décisions adéquates et d’avoir les principaux KPIs mis en évidence.

Principaux KPI = Conversions Rate, Customer Lifetime Value, Sales, ROI…

Dashboard global – Détaillé –

Ce type de dashboard est assez similaire au précédent, sauf qu’il est beaucoup plus détaillé. Bien que les fondateurs et les cadres supérieurs soient également la cible, ces dashboards offrent souvent une meilleure compréhension. En effet, il va permettre une analyse plus détaillée et ainsi creuser les mêmes KPIs mais de manière plus précise.

Principaux KPI = Segmentation par canal, ROI, Conversions Rate, Customer Lifetime Value, Sales…

Acquisition

Le dashboard d’acquisition permet de bien observer « l’apport » de vos nouveaux clients à votre entreprise, et c’est une donnée clé pour votre réussite. Ce type de dashboard est destiné pour les managers d’acquisition et les managers de trafic.

Principaux KPI = CAC (Customer Acquisition Cost), LTV (Life Time Value), Churn Rate, New client rate, Conversion rate…

Segmentation par canal

La segmentation par canal est une étape clé dans la compréhension et l’analyse des données. Si votre stratégie est de vous concentrer sur certains points alors ce type de dashboard peut vous être très intéressant par exemple pour mettre en avant la gestion des produits, les indicateurs clés de performance. La segmentation par canal offre une explication approfondie de la préférence des produits, de la tendance de croissance de l’industrie, des principaux moteurs du marché en utilisant les diagrammes de données notamment. Ces dashboards sont beaucoup utilisés par les Channel Manager.

Principaux KPI = Average Income per Client, Conversion rate, Demographics KPI (age, country…) , Engagement, Traffic…

Analyse de funnel

Grâce aux dashboards d’analyse de funnels, vous pouvez déterminer où les utilisateurs entrent et sortent du processus de conversion/vente. Vous pouvez ensuite déterminer et éliminer les ralentissements et blockages dans ce processus pour booster les ventes du site Web. Ce type de dashboard est régulièrement utilisé par les data analyst.

Principaux KPI = Performance over time, Clics and Impressions, Customer Lifetime Value, Sales Funnel Flow…

Performance de Google Ads

Ces dashboards de performance de vos campagnes Google Ads mettent en avant des informations vitales pour vos campagnes en cours et les suivantes. Un dashboard Google Ads vous aidera à garder le contrôle de vos campagnes Google Ads en trouvant les bons mots-clés pour le bon public. Ces informations seront très utiles pour les marketer et ceux qui sont à l’origine de cette campagne.

Principaux KPI = Clics, Impressions, CPC, Conversion, CPA, Top Campaigns…

Retention

Un dashboard de rétention (fidélisation) de la clientèle permet de suivre les principaux indicateurs centrés sur le client, tels que le taux de fidélisation, le taux de désabonnement, la croissance du MRR et le nombre de clients fidèles. De cette façon, une entreprise génère des informations détaillées sur ses opportunités de croissance. Les responsables de la rétention CRM auront une grande utilité à utiliser ce genre dashboard;

Principaux KPI = Taux de retention et de désabonnement, Le Net Promoter Score (NPS) , Taux de rachat, Panier moyen

Performance des produits

Les dashboards qui concernent la performance des produits fournissent des informations sur les performances des campagnes et des produits afin que votre équipe puisse procéder aux ajustements nécessaires pour atteindre les objectifs de vente. Cet outil est utilisé par les responsables chefs de produits

Principaux KPI = CLTV,  Taux de rétention, Satisfaction client, Sessions par utilisations

SEO

Le dashboard SEO affiche tous les éléments-clés de votre campagne SEO dans une interface en temps réel. Cela inclut généralement des mesures telles que le suivi du classement des mots-clés, le trafic organique, les conversions Web et les backlinks créés. Les dashboards SEO améliorent les performances des recherches organiques de vos clients et vous fournissent toutes les données dont vous avez besoin pour rendre compte de vos progrès.

Principaux KPI = Recherche organique, Mot-clés, Impressions …

Performance de la vitesse du site

Avec ce type de dashboard, vous pouvez obtenir rapidement un aperçu des performances de vitesse de votre site Web en quelques clics seulement. Vous pouvez également trouver les tendances et approfondir les différents systèmes d’exploitation et navigateurs pour obtenir les meilleurs/pires sites.

Principaux KPI = Vitesse de la page, SEO, Traffic, Taux de rebond, Durée moyenne de la session,

Approche méthodologique

1. Définir vos dashboards

La plupart des gens vont être satisfaits d’un dashboard qui offre une vue d’ensemble de leur activité, mais choisir le bon dashboard est très important. Pour que votre entreprise d’Ecommerce cartonne, il est de votre devoir de savoir et de comprendre comment votre entreprise fonctionne vraiment, ce qui fonctionne bien, ce qui ne fonctionne pas et quelles pourraient être les meilleures décisions à prendre. Il existe une multitude de dashboards sur le web et vous pouvez vous sentir perdu et ne pas vraiment savoir lequel est le meilleur pour votre cas d’utilisation. Faisons aussi simple que possible pour vous, le dashboard d’Ecommerce dont vous aurez besoin dépend de vos objectifs et de ce que vous voulez voir, comprendre et réaliser avec vos données.

Quel que soit le dashboard dont vous avez besoin, il existe deux points de départ importants pour toute entreprise e-commerce :

  • Premièrement, les sources de trafic, il est capital pour vous de connaître les performances de votre entreprise. Si vous surveillez vos sources de trafic, vous serez en mesure de voir clairement quels canaux rapportent le plus de visites, de taux de conversion et donc de revenus à votre entreprise. En vous adaptant à ces données, vous pourrez envisager une stratégie pour cibler et augmenter le trafic vers ces sources.
  • Ensuite, votre revenu, oui c’est évident et bien sûr il doit être inclus dans votre dashboard même si certains dashboards spécifiques ne se concentreront pas sur le revenu mais sur la pertinence de vos campagnes (Google Ads, Emailing …). Vous pouvez utiliser le revenu pour donner une vue d’ensemble de votre activité mais aussi pour le décomposer par produits, canaux, etc…

2. Dresser la liste de toutes les sources de données dont vous avez besoin

Data Studio peut se brancher nativement à tous les outils Google : Search Console, Google Analytics, Google Ads, etc. Vous pouvez également brancher des GSheet, ou encore mieux connecter Data Studio à BigQuery, le Data Warehouse de Google dans lequel vous pouvez faire descendre des données d’autres outils.
Avant de construire vos dashboards, il faut lister toutes les sources de données dont vous aurez besoin. Idéalement, il faut faire ce travail en partant de chaque rapport / graphique dans votre dashboard idéal. Vous listez les rapports dans un Gsheet, et pour chacun, vous notez les sources de données qui seront nécessaires.

3. Choisissez vos outils

Les outils de dashboard

Dans le domaine du Ecommerce, on retrouve le plus souvent :

  • Google Data Studio :  Google Data Studio va vous fournir tout ce dont vous avez besoin pour transformer les analyses de données de vos clients en informations compréhensibles.Les rapports sont faciles à lire et à partager, et peuvent être personnalisés pour chaque client. Vous pouvez également choisir comment afficher les données (sous forme diagramme à barres, graphique, graphique linéaire, etc.).
  • Metabase : Metabase est un outil de BI open source. Il vous permet de poser des questions sur vos données et d’afficher les réponses dans des formats adaptés, qu’il s’agisse d’un graphique à barres ou d’un dashboard détaillé.
  • Qlikview :  QlikView est une solution classique d’analyse predictive, en clair QlikView vous permet de développer et de fournir rapidement des dashboards interactifs. L’utilisation de QlikView est nettement plus compliqué que Google Data Studio mais vous permet aussi certaines analyses plus détaillées.

Besoin d’un Data Warehouse  ?

Au début, vous pouvez connecter votre outil de dashboard directement aux sources de données. Lorsque le nombre de sources de données augmente et que la nécessité de « joindre » des dashboards apparaît, il est judicieux d’envisager un Data Warehouse (comme Google BigQuery ou une simple base de données Postgres) dans lequel vous consoliderez toutes les sources de données. Quels sont les signaux d’alarme quand on a besoin d’un Data Warehouse?

  • Si vous devez analyser vos données et qu’elles proviennent de plusieurs sources
  • Si vous devez séparer vos données analytiques de vos données transactionnelles.
  • Si vous voulez augmenter les performances de vos analyses les plus fréquentes.

Pipelines de données, comment collecter les données ?

Google Data Studio peut se connecter directement à tous les outils Google, cependant vous pouvez avoir besoin d’autres sources de données (backend Ecommerce, service client, ..).
Dans ce cas vous pouvez envisager des outils comme Supermetrics, Funnel, Octolis pour les utilisateurs du marketing, le processus est simple, la solution choisie permet d’extraire les données de vos sources (quelle qu’elles soient), les transforme pour pouvoir mieux les exploiter puis les connecte à une DWH.

Une autre alternative, si vous avez des compétences en ingénierie serait Fivetran et Airbyte. Fondamentalement, Fivetran permet de recueillir efficacement les processus buisness et les données des clients à partir de leurs sources, de sites Web et de serveurs associés. Les données recueillies sont ensuite transférées à d’autres outils à des fins d’analyse, de marketing et de stockage de données.

20 modèles de dashboard de performance globale

The Ecommerce Speed Dashboard

Le modèle de ce dashboard est conçu pour les entreprises d’Ecommerce qui ont mis en place un suivi d’Ecommerce amélioré sur Google Analytics.
Ce rapport est fait pour vous si vous recherchez des informations détaillées organisées d’une meilleure manière que les données de Google Analytics.
Le dashboard montre le revenu annuel, les achats et le revenu par achat.
En outre, le modèle montre des informations sur la vue du produit, vous serez en mesure de filtrer les données en fonction du profil, de la date, de la source et du pays.
L’objectif est de déterminer le montant de vos revenus, le taux de conversion et les produits les plus performants.

  • Source : Google Analytics
  • Prix : Gratuit

The Aro Digital eCommerce Dashboard

Le dashboard Ecommerce d’Aro est un modèle global contenant de nombreux détails sur les transactions de commerce électronique.
Il dispose d’une très bonne sélection de KPI, ce qui vous permet de segmenter toutes vos données dans un endroit unique, qu’il s’agisse de données démographiques ou de canaux.

Le modèle comprend 4 pages qui présentent la plupart des éléments clés du marketing de recherche.

  • Source : Google Analytics
  • Prix : Gratuit

Tableau de bord de l’expérience utilisateur

  • Source : Google Analytics
  • Prix : Gratuit

KPI Summary Dashboard

  • Source : Google Analytics
  • Prix : Gratuit

Search Console Explorer Studio

  • Source : Google Analytics
  • Prix : Gratuit

Google Analytics Audit

  • Source : Google Analytics
  • Prix : Gratuit

Essential Google Ads Template

  • Source : Google Analytics
  • Prix : 99€

70 facts about visitors dashboard

  • Source : GA4
  • Prix : Gratuit

ResponseTab Ecommerce Dashboard

  • Source : Google Analytics
  • Prix : Gratuit

All-in-one dashboard for the big screens

  • Source : GA4
  • Prix : 99€

Google Analytics 4 dashboard

  • Source : Google Analytics
  • Prix : Gratuit

Complete Digital overview for mobile devices

  • Source : Google Analytics
  • Prix : 60€

Web Analytics Dashboard

  • Source : GA4
  • Prix : Gratuit

Data Studio Ecommerce Template

  • Source : Google Analytics
  • Prix : Gratuit

ROPO dashboard

  • Source : Google Analytics
  • Prix : Gratuit

Enhanced eCommerce Analytics Dashboard

  • Source : Google Analytics
  • Prix : Gratuit

Adobe analytics website performance overview template

  • Source : Adobe Analytics
  • Prix : de 40 à 200€ par mois

Ecommerce Overview performance Dashboard

  • Source : Shopify, Snapchat, Instagram, Pinterest, Facebook, GA
  • Prix : Gratuit

Hubspot Marketing Performance template

  • Source : Hubspot
  • Prix : Gratuit

Website Master Template

  • Sources : Google Analytics, Google Ads, Google Search Console
  • Prix : Gratuit

4 modèles de dashboard de segmentation par canal

Mobile ecommerce dashboard

  • Source : Google Analytics
  • Prix : Gratuit

E-commerce performance report

  • Source : Google Analytics
  • Prix : Gratuit

Website summary

  • Source : Google Analytics
  • Prix : Gratuit

Attribution report

  • Source : Google Analytics
  • Prix : Gratuit

4 modèles de dashboard d’acquisition

The Merchandise Store Website Performance Report

  • Source : Google Analytics
  • Prix : Gratuit

Engagement, Loyalty, and Traffic Growth Dashboard

  • Source : Google Analytics
  • Prix : Gratuit

Social Media Dashboard Import

  • Source : Google Analytics
  • Prix : Gratuit

Website performance report for the merchandise store

  • Source : Google Analytics
  • Prix : Gratuit

4 modèles de dashboard d’analyse de funnel

The Facebook Campaign Template

Ce dashboard contient des informations très pertinentes sur l’Ecommerce, la première page nous permet de voir quelques détails sur les revenus et les achats, et la dernière page vous avez accès à un dashboard d’aperçu des funnels avec quelques détails sur les campagnes à faible funnels.

Il est difficile de trouver de bons modèles Facebook, la plupart d’entre eux sont orientés-Ecommerce, et celui-ci donne un véritable aperçu de la campagne Facebook, pas trop spécifique mais plutôt détaillé.

Ce modèle fournit des données sur les impressions, les clics et les achats, mais aussi sur les objectifs de la campagne, le montant dépensé, les revenus, le ROAS et les résultats.

Pour vous donner un aperçu du dashboard, il y a 6 pages : aperçu, répartition de l’audience, répartition de la créativité, aperçu du funnel et enfin niveau de la campagne.

  • Source : Google Analytics
  • Prix : Gratuit

GA4 Ecommerce Conversion Funnel Template

  • Source : Google Analytics
  • Prix : 59€

E-mail Dashboard

  • Source : Google Analytics
  • Prix : Gratuit

The Enhanced Ecommerce Funnel Template

  • Source : Google Analytics
  • Prix : Gratuit

4 modèles de dashboard de performance des campagnes Google Ads

Adwords Performance Snapshot

  • Source : Google Analytics, Google Ads
  • Prix : Gratuit

Ultimate Google Ads report

  • Source : Google Ads
  • Prix : Gratuit

Adwords Data Studio Template Report

  • Source : Google Analytics, Google Ads
  • Prix : Gratuit

Adsens monthly Overview

  • Source : Google Ads
  • Prix : Gratuit

8 modèles de dashboard de retention

Google Merchandise Store Report

  • Source : Google Analytics
  • Prix : Gratuit

The Sales and Shopping Behavior Dashboard

  • Source : Google Analytics
  • Prix : Gratuit

Google Analytics 4 Data Studio Template

  • Source : Google Analytics
  • Prix : 69€

Periodic Revenue Template

  • Source : Google Analytics
  • Prix : 49€

Ultimate Google Ads Dashboard

  • Source : Google Analytics
  • Prix : Gratuit

The perfect Google Analytics Dashboard

  • Source : Google Analytics
  • Prix : Gratuit

All in one Ecommerce Dashboard

  • Source : Google Analytics
  • Prix : Gratuit

Ecommerce Performance Report

  • Source : Google Analytics
  • Prix : Gratuit

3 modèles de dashboard de performance des produits

The Enhanced eCommerce Dashboard

  • Source : Google Analytics
  • Prix : 100€

All-in-one Search Console Template

  • Source : Google Analytics
  • Prix : Gratuit

Google Merchandise Store Ecommerce Report

Dans ce dashboard, vous pouvez trouver toutes les dimensions et métriques concernant les produits ajoutés aux paniers, les ventes, les sessions, le taux de « ajouté panier « . Pour aller droit au but, vous pouvez filtrer vos données par catégorie d’appareil, type d’utilisateur et pays…
En conclusion, ce dashboard vous offre une vue globale des tendances et des informations assez pointues.

  • Source : Google Analytics
  • Prix : Gratuit

2 modèles de dashboard SEO

SEO Dashboard

  • Source : Google Analytics
  • Prix : Gratuit

Search Console Explorer Studio v1.3

  • Source : GA4
  • Prix : Gratuit

1 modèle de dashboard de performance de la vitesse du site

Performance de la vitesse du site

  • Source : GA4
  • Prix : Gratuit

Téléchargement de notre benchmark complet des dashboard Ecommerce data studio.

Pour accéder à la ressource, il vous suffit de vous inscrire en quelques clics.
Au clic sur le bouton ci-dessous, vous arriverez sur un formulaire d'inscription rapide. Une fois inscrit, il y a un onglet "Ressources" qui apparaîtra dans le menu du haut qui vous permettra d'accéder à l'ensemble des ressources en téléchargement gratuit. Avec un peu de chance, vous aurez une bonne surprise, il y aura d'autres ressources qui vous seront utiles 😊

👉 Je m'inscris pour télécharger la ressource

Le guide pour structurer la fonction Data / Analytics en startups

Toutes les startups ont conscience que leur croissance doit s’appuyer sur une fonction Data / Analytics solide. De la conviction à la mise en œuvre, il y a un gouffre 🙂

Beaucoup de jeunes entreprises ont tendance à vouloir brûler les étapes, des décisions qui peuvent avoir des répercussions négatives sur leur développement, des héritages dont il est ensuite difficile de se débarrasser.

Il ne s’agit pas de savoir quelles sont les métriques à suivre (il y a beaucoup de bons articles à ce sujet), mais de savoir comment amener votre entreprise à les produire. Il s’avère que la question de la mise en œuvre – comment construire une entreprise qui produit des données exploitables – est en réalité  beaucoup plus difficile à résoudre.

Dans cet article, largement inspiré de cet excellent post de Tristan Handy, foundateur de dbt, nous apportons des réponses concrètes afin de construire la fonction data / analytics à chaque étape de développement de votre organisation.

data analytics startups etapes
Source : thinkgrowth.org

#1 – Phase de création [0 – 10 employés]

Que faut-il absolument mesurer à ce stade ? Théoriquement, vous pourriez mesurer des tonnes de choses, mais vous êtes si proche du cœur de votre activité que vous parvenez à prendre les bonnes décisions à l’instinct.

Les seules métriques qui comptent à ce stade, sont liées à votre produit. Pourquoi ? Car ces métriques vont vous permettre d’itérer plus rapidement pour identifier les axes d’amélioration, faire les bons ajustements qui vous permettront de vous rapprocher du Product / Market Fit. Toutes les métriques qui ne concernent pas directement votre produit sont secondaires !

Ce qu’il faut faire

  • Installer Google Analytics sur votre site internet via Google Tag Manager. Les données ne seront pas parfaites, mais ne perdez pas de temps dans des paramétrages compliqués, ce n’est pas la priorité.
  • Si vous créez un business e-commerce, vous devez vérifier que les données liées à votre site de vente en ligne remontent bien dans Google Analytics. GA est un bon outil pour tracker une activité e-commerce et le parcours de vos clients de la visite à l’achat, donc prenez le temps de vérifier que tout fonctionne bien.
  • Si vous éditez un logiciel ou une application, vous devez absolument tracker les événements. Peu importent les outils que vous utilisez, que ce soit Segment ou Mixpanel. À ce stade, nous vous conseillons d’utiliser les paramétrages par défaut proposés par votre outil. Cette approche n’est pas très scalable, mais pour le moment ça fera le job.
  • Si votre business model est basé sur la soubscription avec des revenus récurrents, utilisez un outil comme Baremetrics pour suivre les métriques d’abonnement.
  • Construire un reporting financier en utilisant un outil comme Quickbooks.
  • Pour votre prévisionnel, utiliser Google sheets.

Si vous n’avez pas de compétences techniques, vous aurez sûrement besoin d’un petit accompagnement pour Google Analytics et la mise en place du tracking des événements. Cela ne doit pas prendre plus de deux heures, mais il faut que ce soit bien fait.

Ce qu’il ne faut pas faire

C’est simple : vous devez uniquement vous concentrer sur les points listés plus haut et ne pas chercher à mesurer autre chose pour le moment. Ne laissez personne vous convaincre d’investir dans un Data Warehouse ou dans un outil de BI. Ne faites pas appel à des consultants. Restez focus sur l’essentiel.

Si vous vous lancez tout de suite dans des projets analytics compliqués, vous vous engagez dans un chantier que vous ne pourrez pas mettre en pause, car les données, l’activité et les objectifs de l’entreprise vont constamment évoluer. Attendez avant de construire un dispositif analytics plus élaboré.

Beaucoup de questions qui resteront sans réponse, et c’est très bien comme ça (pour l’instant).

#2 – Phase d’amorçage [10 – 20 employés]

Votre équipe commence à s’étoffer et ces nouveaux collaborateurs ont besoin de données pour faire leur travail. Tous ne sont pas experts en données, mais vous devez vous assurer que les basiques soient réalisés dans les règles de l’art.

Ce qu’il faut faire

  • Vous avez probablement recruté un marketer, assurez-vous qu’il maîtrise GA. Tous les liens utilisés dans vos campagnes marketing doivent être trackés par des balises UTM. Votre responsable marketing doit faire en sorte que les sous-domaines ne soient pas trackés deux fois. Il existe des tonnes de ressources pour apprendre à utiliser Google Analytics, il est très facile de se former rapidement.
  • Si vous avez un ou deux commerciaux, installer un CRM est très vite nécessaire. 2 options ici :
    • Utiliser un CRM léger comme Pipedrive. Si vous choisissez cette option, nous vous invitons à découvrir les 10 meilleurs CRM pour TPE/PME. Vous devriez y trouver votre bonheur.
    • Construire un CRM maison en utilisant un template Notion. C’est l’option que nous vous recommandons. Pourquoi ? Parce que migrer d’un CRM léger à un CRM plus costaud est chronophage et complexe. En attendant d’être plus structuré sur la partie « Sales », Notion est une excellente alternative aux CRM légers « sur l’étagère ».
data analytics startups outil notion crm
Exemple de template CRM via Notion
  • Vous avez probablement recruté quelques CSM pour gérer la relation avec premiers clients. Les reportings proposés par les plateformes d’help desk sont souvent assez pauvres. Adaptez-les en ajoutant les bons KPIs, ceux qui font sens pour votre activité.
  • Mesurer la satisfaction de vos premiers clients. C’est absolument clé pour améliorer votre produit et assurer sa croissance. Mesurez le Net Promoter Score (NPS) et/ou le Customer Satisfaction Score (CSat) en utilisant un outil comme Delighted, Qualtrics, Hotjar, voire Typeform.

Ce qu’il ne faut pas faire

Il est encore trop tôt pour investir dans un Data Warehouse ou pour faire de l’analytics via SQL. Vous n’avez pas encore les équipes suffisantes et cela vous consommera trop de bande passante. Vous en êtes encore à un stade où vous devez passer le plus clair de votre temps à agir, à faire, plutôt qu’à analyser.

Contentez-vous pour le moment des reportings préconstruits proposés par les outils SaaS. Dernière chose, n’embauchez pas de data analyst à plein temps, votre argent sera mieux investi ailleurs.

#3 – Early Stage [20 – 50 employés]

C’est là que les choses commencent à devenir intéressantes. Vous avez levé des fonds en série A et dépassé les 20 collaborateurs. De nouvelles options commencent à s’ouvrir à vous. Vous pouvez commencer à structurer une infrastructure data et à vous équiper de solutions plus avancées, plus flexibles, plus scalables.

Il s’agit de la phase la plus critique : prometteuse si vous faites les choses bien, compromettante pour l’avenir de votre entreprise si vous gérez mal le changement de vitesse.

Ce qu’il faut faire

  • Mettre en place une infrastructure data. Vous allez être amené à choisir entre 2 approches :
    • L’approche Best of Breed qui consiste à construire soi-même sa stack data en choisissant les outils qui correspondent le mieux. Cela signifie, concrètement, investir dans :
      • Un Data Warehouse, comme Snowflake ou Redshift. Le DWH sert de base de données principale. Il centralise, consolide et unifie toutes les données de votre startup.
      • Un outil ETL, comme Stitch ou Fivetran.
      • Un outil d’intégration de données : Census ou Zapier par exemple.
      • Un outil de BI, comme Metabase ou PowerBI.

Benchmark outils de la stack data moderne

Nous vous invitons à découvrir notre Benchmark complet des outils de la stack data moderne.

    • L’approche packagée / data operations hub, qui consiste à choisir un outil tout-en-un (comme Octolis!), fonctionnant en surcouche de votre data warehouse et permettant de déployer facilement vos cas d’usage métiers.

data analytics startups architecture data operations hub octolis

Architecture type de la Stack Data Moderne

Un dispositif data « moderne » consiste à placer le data warehouse (DWH) au centre de votre infrastructure data. En amont, le data warehouse est alimenté par les différentes sources de données via des pipelines ETL ; en aval ces données sont redistribuées sous forme d’agrégats à vos outils métiers via un Reverse ETL. Votre outil de BI se connecte à la même source unique de vérité : votre DWH.

  • Embaucher 1 data analyst. Par la suite, vous aurez besoin de constituer une équipe Data/Analytics avec des data engineers, des data analysts, des data scientists…Mais pour le moment, vous avez seulement les moyens d’embaucher un data analyst à temps plein. Alors, ne faites pas d’erreur, prenez le temps qu’il faut pour trouver la bonne personne. Il faut que la personne que vous recrutez soit capable de vous délivrer de la valeur dès sa prise de poste. Ce sera aussi cette personne qui gérera les futurs recrutements pour constituer votre équipe data. Elle en constituera la colonne vertébrale. Choisissez une personne capable de retrousser ses manches et de mettre les mains dans le cambouis, mais privilégiez surtout quelqu’un qui sait faire parler les données et qui pense « business ».
data analytics startups data analyst vs data engineer vs data scientist
Les 3 pôles de compétences des métiers de la data. Pour un premier recrutement, il faut cibler un profil à l’aise avec la technique (capable de gérer des pipelines de données, par exemple) mais aussi et surtout ayant de bonnes compétences d’analyse et une compréhension des enjeux business.
  • Envisager de faire appel à un consultant. Une fois que vous aurez recruté votre data analyst, soyez conscient que cette personne n’aura pas l’expertise nécessaire pour maniupler / gérer toutes les composantes de votre stack data. Or, commettre des erreurs à cette étape de développement peut se révéler très coûteux par la suite. Il est important de bien poser des fondations saines, c’est là-dessus qu’un accompagnement peut avoir du sens.

Ce qu’il ne faut pas faire

  • Il n’est pas encore temps d’embaucher un data scientist, même si le machine learning est au cœur de votre produit. À ce stade, vous avez besoin d’un profil généraliste qui aura la responsabilité de constituer l’équipe data/tech de votre start-up.
  • Ne construisez vos propres pipelines ETL. C’est une perte énorme de temps. Optez pour un logiciel sur l’étagère comme Stitch ou Fivetran, c’est simple et efficace.
  • Pour votre Data Warehouse, ne cherchez pas à faire des économies en construisant une base de données en Postgres. Ce n’est pas beaucoup moins cher que d’opter pour une solution cloud sur l’étagère, mais vous perdrez en revanche un temps fou quand vous devrez migrer votre BDD – et vous devrez le faire à un moment ou à un autre car Postgres est beaucoup moins scalable qu’une solution Data Warehouse Cloud.

#4 – Phase intermédiaire [50-100 employés]

Cette étape est potentiellement la plus complexe à gérer. Vous avez encore une équipe et des ressources (relativement) limitées, mais vos équipes business ont de plus en plus besoin de métriques solides.

Ce qu’il faut faire

  • Mettre en place des process solides pour gérer les modèles de données et sécuriser la transformation des données. Les modèles de données, c’est-à-dire la manière d’organiser les données dans votre base de données, sont dictés par les besoins métiers et les finalités business. Tous les utilisateurs des données doivent pouvoir faire évoluer les modèles de données. Ils doivent aussi pouvoir transformer les données. Mais, par sécurité et pour éviter tout problème, assurez-vous qu’un système de contrôle de version est utilisé et mettez en place un environnement de transformation transparent. Il existe des outils spécialement conçus pour ça, notamment dbt.
  • Migrer votre web analytics et votre event tracking sur une solution comme Snowplow Analytics ou Jitsu. Ces outils permettent de faire la même chose que les outils payants, mais ont l’avantage d’être open source. Pourquoi faire ce changement ? Pour être en capacité de collecter des données plus granulaires et pour éviter de payer des licences exorbitantes (plusieurs centaines de K€ par mois…) à Segment, Heap ou Mixpanel.

Quelle solution de web analytics choisir ?

Les solutions de web analytics sur l’étagère sont très abordables, voire gratuites, dès lors que vous avez de petits volumes de données. Mais les tarifs augmentent très rapidement avec la croissance du volume de données géré (calculé en nombre d’utilisateurs ou en nombre d’event trackés).

Nous avons produit une ressource Notion sur les alternatives à Segment dans laquelle on présente (notamment) les principales solutions de web analytics open source du marché.

data analytics startups solution web analytics open source
👉 J’accède directement à la ressource

  • Faire grandir votre équipe data intelligemment. Le cœur de votre équipe data doit être constitué d’analystes ayant une sensibilité business forte – c’est-à-dire des personnes expertes en SQL, qui maîtrisent parfaitement l’outil de BI mais qui passent aussi beaucoup de temps à faire le pont entre les équipes data « pures » (les data engineers) et les équipes métier/business. Dans une startup, la donnée est au service du business. La capacité de dialogue entre votre équipe data et les équipes métier reposent en partie sur votre capacité à recruter le ou les bons « business analysts ». C’est aussi à ce stade de développement de votre startup que vous allez pouvoir (enfin) recruter un data scientist.
  • Commencer à construire des modèles prédictifs. Vous pouvez commencer à utiliser des modèles prédictifs simples. Par exemple, si vous êtes un éditeur de logiciel SaaS, vous avez intérêt à déployer un modèle de prédiction du churn. Si vous êtes un e-commerçant, vous pouvez commencer à travailler sur un modèle de prévision de la demande. A ce stade, vos modèles prédictifs ne seront pas forcément très sophistiqués, mais ce sera déjà une énorme avancée par rapport aux tableurs google sheet bricolés par le département Finance 🙂
  • Consacrer du temps et de l’énergie à l’attribution.. C’est un sujet qui mériterait tout un article, mais disons simplement ici que c’est un chantier clé que vous ne pouvez pas confier à un tiers. Pour mesurer finement la contribution des différents canaux marketing, vous devez mettre en place des modèles d’attribution. Vous pouvez commencer par utiliser les modèles standards (ceux proposés par les outils analytics) avant de vous lancer dans la construction d’un modèle sur-mesure.

Ce qu’il ne faut pas faire

Arrivé à cette phase de développement de votre startup, le risque est de s’emballer et d’investir dans une grosse infrastructure data. Ne faites pas cette erreur ! Non seulement ce serait se lancer dans un projet inutilement coûteux, mais aussi qui dit infrastructure lourde dit perte d’agilité. Voici quelques conseils pour que votre startup reste agile :

  • Exploiter toute la puissance de votre Data Warehouse. N’hésitez pas à booster votre abonnement, à augmenter les ressources de calcul activées, à augmenter l’espace de stockage. Vous pouvez vous le permettre et ça ne vous coûtera pas très cher.
  • Utiliser des Jupyter Notebooks pour les travaux de Data Science. Si vos données sont déjà pré-agrégées dans votre entrepôt de données, vous n’aurez pas encore besoin de le faire sur Spark ou un cluster Hadoop.
  • Trouver des solutions low-cost pour créer des pipelines ETL sur les sources données sans connecteurs. Utilisez un ETL open source, par exemple Singer.

#5 – Phase de croissance [150 – 500 employés]

Ici, tout l’enjeu est de mettre en place des process analytics scalables. Vous devez trouver un équilibre entre obtenir des réponses dont vous avez besoin aujourd’hui et mettre en œuvre des process analytiques qui s’adapteront à la croissance de votre équipe.

Ce franchissement de seuil appelle des changements dans les manières de travailler. Si vous ne réussissez pas à gérer correctement ce changement, vous verrez que vous deviendrez de moins en moins efficace à mesure que votre équipe grandira. « Plus » deviendra égal à « moins »: votre équipe sera plus nombreuse mais réussira moins bien à « faire parler les données ». Elle deviendra moins efficace. Voici ce qu’il faut faire pour éviter cette situation.

Ce qu’il faut faire

  • Faire du data testing. Vous avez maintenant des flux de données qui alimentent votre Data Warehouse et qui proviennent d’une dizaine de sources a minima. Vous allez devoir mettre en place des process pour vous assurer que les données qui entrent dans l’entrepôt continuent d’être conformes aux règles que vous avez fixées : unicité des données, absence de champs nuls, etc. Si vous n’avez pas de process qui contrôlent la manière dont les données sont chargées dans le Data Warehouse, c’est la qualité des données qui est en péril, et in fine la qualité des analyses produites à partir d’elles. dbt propose une fonctionnalité intéressante pour tester vos données et vérifier qu’elles sont organisées comme vous le souhaitez.
  • Documenter tout ce que vous faites. L’environnement data de votre entreprise est devenu complexe. Le seul moyen pour gérer efficacement tout cet actif et faciliter l’exploitation des données par tous consiste à investir du temps et de l’argent dans la documentation. Si vous ne le faites pas, vos data analystes passeront plus de temps à chercher où sont les données et comment les utiliser qu’à faire un travail d’analyse.

Ce qu’il ne faut pas faire

Votre startup collecte maintenant des volumes importants de données. Pour cette raison, faire des analyses est devenu plus difficile. Cela nécessite d’avoir à disposition une équipe composée de talents, de gens motivés, prêts à se former pour acquérir de nouvelles compétences.

Le code reviews, qui consiste à vérifier la bonne santé d’un code informatique et à identifier les éventuels bugs, est une activité qui consomme du temps et de l’énergie. Les data analystes n’ont pas forcément l’habitude de faire des code reviews. La documentation des données et des traitements est aussi quelque chose de pénible en soi. Certains membres de l’équipe montreront peut-être des réticences, mais la complexication des données, de l’infrastructure, de l’organisation impose des adaptations et la mise en place de process plus rigoureux.

Il faut réussir à le faire comprendre à votre équipe et ne pas transiger sur ce point ! In fine, ces process rendront le travail d’analyse plus simple, plus rapide et plus fiable. C’est leur implémentation qui est une étape un peu pénible à passer.

Conclusion

La fonction Data / Analytics de votre startup va se construire progressivement. Elle doit se construire progressivement. Mettre la charrue avant les bœufs est le plus sûr moyen de foncer dans le mur. Si vous suivez les étapes dans l’ordre, sans précipitation, vous ferez de l’exploitation de vos données un avantage compétitif important.

Panorama des outils d’intégration de données

D’après statistica, en 2020 une organisation utilise en moyenne 110 applications Saas, contre “seulement” 8 en 2015. Si le recours de plus en plus fréquent à ces outils a considérablement augmenté les performances opérationnelle des organisations, elle s’est en revanche accompagnée de la création de “silos de données” qui freinent la mise en place de cas d’usage nécessitant le recours à plusieurs outils.

Pour répondre à ce nouvel enjeu, de nouveaux outils d’intégration de données se développent : les iPaaS, les CDP, les ELT mais également les Reverse ETL. Quel est le positionnement de chacun de ces outils, comment les comparer et surtout comment faire le bon choix, on vous dit out dans cet article !

Les enjeux autour de l’intégration des données

Intégration de données : définition

On appelle intégration des données le processus de centralisation de l’information entre bases de données (internes ou externes). Il peut s’agir des datawarehouses, ainsi que des outils et systèmes tiers qui génèrent et stockent de la donnée. L’objectif est d’avoir une vue unique de données provenant de plusieurs sources. Les outils d’intégration utilisent tous la même technologie sous-jacente : les API.

Prenons l’exemple d’une application mobile utilisant les outils suivants pour gérer son activité :

  • Facebook et Google Ads afin d’acquérir de nouveaux utilisateurs
  • Google Analytics pour suivre le trafic sur son site web et sur l’application mobile
  • Une base de données MySQL pour stocker les informations générales
  • Marketo pour l’envoi d’emails marketing et la gestion des prospects
  • Zendesk pour le support client
  • Netsuite pour la comptabilité et le suivi financier

Chacune de ces applications contient un silo d’informations sur les opérations de l’entreprise. Pour obtenir une vue à 360 degrés de son activité, ces données doivent être regroupées en un seul endroit. C’est ce processus que l’on appelle communément « intégration des données ».

Les bénéfices d’un processus d’intégration de données solide

Tout d’abord, l’intégration des données permet d’améliorer la collaboration et l’unification des systèmes au sein d’une société. En effet, les employés de différents départements ont de plus en plus besoin d’accéder aux données de l’entreprise, qu’elles concernent les clients ou les produits. Une source unique et sécurisée de données facilite l’entraide entre équipes et booste l’efficacité de l’entreprise.

De plus, un processus d’intégration solide permet de faire gagner du temps aux équipes IT chargées de développement. Les employés n’ont alors plus besoin d’établir des connexions eux-mêmes évitent également de refaire tous les rapports manuellement, les données peuvent être mises à jour en temps réel.

Enfin, l’intégration assure des données de plus grande qualité. Au fur et à mesure que les données sont intégrées dans le système centralisé, les problèmes de qualité sont identifiés. Les améliorations nécessaires sont mises en œuvre plus rapidement que lorsque les données viennent de plusieurs sources. Les données sont donc plus fiables.

Quels outils pour intégrer vos données ?

Des solutions ont été créées pour résoudre le problème d’intégration des logiciels et des applications fonctionnant de manière isolée les unes des autres, ne disposant pas d’un flux de communication automatique. Il existe différents types d’intégration que l’on peut regrouper sous des familles d’outils :

  • iPaaS (Integration Platform as a Service) : les données circulent directement entre les applications Cloud, avec peu ou pas d’intégration dans l’iPaaS comme Zapier ou Integromat.
  • CDP (Customer Data Platform) : les données circulent entre les applications Cloud via une plateforme hub centrale qui permet des transformations modérées de la data.
  • ETL (Extract, Transform and Load) : les données sont transférées des applications Cloud vers un datawarehouse, en passant par une couche de transformation robuste intégrée à l’outil.
  • ELT (Extract, Load, and Transform) : les données passent des applications Cloud à un datawarehouse directement, et la transformation des données a lieu dans le datawarehouse via SQL. La principale différence ici est qu’avec l’ETL, la transformation a lieu avant le chargement des données dans l’entrepôt, alors qu’avec l’ELT, la transformation a lieu après.
  • Reverse ETL : les données passent d’un datawarehouse à des applications Cloud, à l’inverse du processus ETL, on peut ici citer Octolis en France ou encore Census aux US.
    Comme le montre le schéma ci-dessous, le recours à ses différentes solutions a suivi l’évolution de l’organisation du SI clients. Cette organisation s’est structurée d’abord principalement autour du couple CRM marketing- iPaas, puis au travers des CDP et enfin aujourd’hui la stack data moderne bascule un nouveau couple : Datawarehouse Cloud & Reverse ETL!


L’évolution des outils d’intégration de données depuis 2010

Les iPaas comme Zapier / Integromat

Les iPaas (Integration Platform as a Service) sont des plateformes technologiques qui relient les différents systèmes utilisés par une entreprise, permettant l’intégration et le partage des données entre eux, offrant ainsi une vision unique. L’iPaas fonctionne comme un tuyau d’un outil A vers un outil B. L’inconvénient majeur réside donc dans la difficulté d’intégrer plusieurs sources.
Une plateforme iPaas « en tant que service » fournit un cadre et un environnement dans le Cloud.
L’un des avantages principaux des iPaaS est le fait qu’ils offrent une interface visuelle pour construire des intégrations, permettant aux équipes commerciales de prendre le contrôle de leurs besoins d’automatisation des flux de travail. Grâce aux ‘iPaaS, des concepts de codage sont transformés en une interface utilisateur facile à manipuler, même pour les profils non techniques.

Parmi les solutions iPaas les plus populaires aujourd’hui, nous retrouvons Tray et Workato, plutôt ciblées pour les grandes entreprises, et Zapier, Integromat et Automate.io, plutôt destinées aux PME.

  • Avantages
    • Simplicité d’utilisation de l’interface
    • Nombre de connecteurs disponibles
  • Inconvénients
    • Prix élevé : Bloquant pour de gros volumes de données
    • Difficulté à croiser les données de plusieurs sources

Les CDP comme Segment ou Tealium

Les Customer Data Platform collectent et rassemblent les données provenant de différentes sources et les envoient vers différentes destinations.
Côté métier, la CDP permet aux équipes marketing de créer des segments basés sur le comportement et les caractéristiques des utilisateurs, et de synchroniser ces segments avec des outils tiers pour offrir des expériences personnalisées. Le tout sans dépendre des équipes techniques d’ingénierie de données.

Sur le marché, on retrouve des CDP horizontales telles que Segment, mParticle, Lytics et Tealium, ainsi qu’à des CDP verticales telles que Amperity (retail et hôtellerie) et Zaius (ecommerce), qui s’attachent à répondre aux besoins de secteurs spécifiques.

  • Avantages
    • Personnalisation forte
    • Manipulation des données facile par les équipes métiers
  • Inconvénients
    • Déplacements de données selon modèle prédéfini
    • Fournisseurs de logiciels pas toujours compatibles

Les outils ETL / ELT comme Talend ou Fivetran

Dans la famille d’outils ETL, les données sont d’abord extraites des bases de données et sources tierces (principalement des outils SaaS pour les ventes, le marketing et le support), puis transformées pour répondre aux besoins des analystes, et enfin, chargées dans un datawarehouse.

La transformation des données est particulièrement gourmande en ressources et en temps, ce qui a un impact significatif sur le délai entre l’extraction et le chargement des données.

Cependant, grâce aux progrès des technologies de l’écosystème data, l’ETL est en train d’être remplacé par l’ELT, plus rapide et plus flexible. On peut dire que l’ELT est l’approche moderne de l’ETL, qui est en grande partie alimentée par les datawarehouses Cloud tels que Redshift, Snowflake et BigQuery. Devenus extrêmement rapides et fiables, ces solutions permettent d’effectuer la transformation au sein même du datawarehouse.

Pour les segments des ELT et ETL, les principaux outils du marché sont Talend, Airbyte et Fivetran.

  • Avantages
    • Souplesse
    • Fonctionnement en « batch » ou « unitaire »
  • Inconvénients
    • Connecteurs sortants généralement limités aux base de données
    • Utilisation réservée à des profils assez techniques

Les outils d’activation de données ou reverse ETL comme Octolis

L’outil de Reverse ETL s’est construit en partant du constat que les équipes IT n’arrivent pas à répondre efficacement aux demandes d’extraction de données des départements sales, marketing ou encore service client. Le manque d’intégration des données limite énormément l’utilisation des outils métiers de la stack marketing.

Tandis que l’ETL que nous avons vu précédemment fait « monter » les données sources dans le datawarehouse, le Reverse ETL fait « redescendre » ces données dans les applications métiers. Le Reverse ETL synchronise les données du datawarehouse dans les outils d’activation, tel que le montre le schéma :

Source : La stack data moderne, Octolis

Un outil de Reverse ETL comme Octolis, l’outil français de référence prend en charge :

  • L’extraction de données d’un datawarehouse à un rythme régulier
  • Le chargement de ces données dans les outils de vente, de marketing et d’analyse
  • Le déclenchement d’une API arbitraire chaque fois que les données changent

Les équipes IT gèrent déjà le datawarehouse comme la source principale de données clients, qu’ils gardent propre et cohérente à des fins d’analyse. Le transfert de ces données vers les applications Cloud, à partir de la même source, est donc une évidence. Les équipes IT peuvent enfin gérer un pipeline de données unique pour que les équipes métiers puissent analyser et agir sur les données.

Les équipes de vente, de marketing et d’analyse vont maintenant pouvoir être en mesure d’analyser et d’agir sur des données qui étaient jusque-là compliquées à avoir.

  • Points forts des outils Reverse ETL
    • Croisement de plusieurs sources
    • Fonctionnement en « batch » ou « unitaire »
    • Simplicité d’usage pour des profils marketing ou data analysts

Les Reverse ETL constituent une nouvelle famille de logiciels d’intégration de données souple et qui a vocation à devenir une pièce fondamentale de la stack data moderne.

Recommandation de produits ecommerce : Méthode & Outils

La recommandation de produits est l’un des moyens les plus simples pour augmenter le panier moyen et, au-delà, le chiffre d’affaires de votre ecommerce. Dites-vous bien que 35% des ventes d’Amazon sont générées grâce à des recommandations proposées sur la plateforme et par email.

On sait en plus que les clients aiment les recommandations de produits. On estime que 56% des clients sont plus susceptibles de revenir sur le site s’il offre des recommandations de produits.

On est donc dans un modèle gagnant-gagnant.

Et pourtant, il y a encore beaucoup d’ecommerçants qui n’ont pas sauté le pas.

C’est dommage, car les technos sont là. Il existe aujourd’hui de très bons logiciels bon marché proposant des moteurs de recommandations avancés. Contrairement à ce qu’on pense souvent, la recommandation de produits n’est pas quelque chose de très complexe. Pas d’usine à gaz, on peut commencer par des choses simples et rapides à déployer.

C’est ce constat qui nous a donné l’idée de vous concocter un article complet sur le sujet.

La recommandation de produits : un puissant levier de performance ecommerce pas assez exploité

La recommandation de produits ecommerce, c’est quoi ?

Comme on dit souvent, une image vaut mieux que mille mots. Voici une capture d’écran du site de prêt à porter Asos, plus précisément : d’une page produit. Sous la description du produit, Asos propose des recommandations de produits similaires :

recommandation produits ecommerce

La recommandation de produits en ecommerce, c’est tout simple, c’est ça. Tout le monde, en tant que consommateur, a déjà été confronté à ce type de recommandations.

Il existe plusieurs manières de faire de la recommandation de produits en ecommerce.

On distingue en effet les approches suivant :

  • Ce sur quoi on se base pour sélectionner les produits recommandés :
    • Les contenus consultés par le client : « Vous avez consulté ce produit ? Alors ce produit pourrait vous intéresser ! ».
    • Les autres produits consultés par les clients ayant consulté le produit que je consulte : « Les clients qui ont consulté ce produit ont aussi consulté ces produits ». Nous présenterons ces deux approches dans la prochaine partie.
    • Mais il est possible aussi de recommander les produits les plus achetés, des produits souvent achetés ensemble (produits complémentaires), les produits tendances, les produits les plus consultés, etc.
  • Le moment et le canal où on propose les recommandations : pendant le parcours de découverte sur le site ecommerce, pendant le check out ou bien après la visite sur le site (email marketing). On y reviendra, mais retenez ceci : on peut recommander des produits à toutes les étapes des parcours clients.

Amazon est sans aucun doute le maître de la recommandation de produits. Nous l’avons dit, c’est cette approche, cette technique qui, entre autres, a permis au géant américain de devenir ce qu’il est. Ne vous étonnez pas si on utilise souvent des exemples d’Amazon pour illustrer notre article. Signalons d’ailleurs, en passant, que la recommandation de produits n’est pas une problématique limitée au ecommerce. Pensez à Netflix par exemple et à ses recommandations de films ou séries.

Ne pas faire de recommandations de produits quand on est ecommerçant, c’est se priver d’un énorme levier du business.

Comprendre et mettre en place un Scoring Client

Le scoring client permet de prioriser vos budgets marketing pour les clients les plus susceptibles d’acheter, et de mieux segmenter votre fichier client pour obtenir de meilleures performances dans vos campagnes. Découvrez notre guide complet sur le Scoring Client : définition, exemple et méthode en 5 étapes.

Comment fonctionne un moteur de recommandations produits ?

Vous avez un site ecommerce. Vous voulez faire de la recommandation de produits. Comment s’y prendre ? Il y a l’approche « à la mano » qui consiste à prendre chaque produit de votre catalogue et à définir les produits qui peuvent être recommandés pour ce produit :

  • Produit A : produits à recommander = Produits B, D, H, Y.
  • Produit B : produits à recommander = Produits A, H, M, V.
  • Produit C : produit à recommander = Produits Z.
  • Etc.

C’est une méthode très fastidieuse, surtout si vous avez un gros catalogue. L’alternative consiste à mettre en place ce qu’on appelle un « moteur de recommandations ». C’est un outil, plus précisément un algorithme, qui permet d’automatiser les recommandations en fonction des données qui l’alimentent et des règles que vous configurez en phase de paramétrage.

Il existe 3 approches pour construire un moteur de recommandations.

Approche #1 – Une méthode de filtrage selon les contenus (pages vues, rubriques consultées, etc.)

Le moteur recommande des produits basés sur l’historique de navigation et sur l’historique d’achat. On parle parfois de « recommandation objet » ou de modèle « content based ». L’idée sous-jacente à cette approche, c’est que si vous aimez un produit (vous avez consulté la page du produit, vous l’avez ajouté à votre panier, voire vous l’avez déjà acheté), alors vous devriez aimer les produits similaires ou complémentaires.

Sur le site web, bien entendu, vous ne pouvez baser les recommandations sur l’historique d’achat que si le client est identifié. Mais cette méthode de filtrage des produits recommandés peut fonctionner sur les visiteurs anonymes grâce aux cookies de navigation. Voici un exemple des recommandations proposées par Amazon sur sa page d’accueil aux visiteurs anonymes :

recommandation produits ecommerce filtrage base sur le contenu

Approche #2 – Le filtrage collaboratif

Dans ce cas, l’algorithme du moteur de recommandations utilise les données des autres visiteurs ou clients du site. On parle parfois de « recommandation sociale » ou « user based ». Si vous visitez la page du produit A, le moteur va pouvoir vous recommander :

  • Soit des produits que les autres visiteurs de la page produit A ont aussi visité.
  • Soit des produits que les clients qui ont acheté le produit A ont aussi visité ou acheté.
recommandation produits ecommerce filtrage collaboratif
Source : indatalabs.com

C’est une présentation schématique bien sûr, mais l’idée à retenir est que cette approche consiste à baser les recommandations sur le comportement de navigation et/ou d’achat des autres visiteurs ou clients.

Voici un autre exemple tiré d’Amazon et qui illustre cette approche :

recommandation produits ecommerce filtrage collaboratif exemple

Approche #3 – La méthode hybride

Comme son nom l’indique, cette approche consiste à mixer les deux précédentes. Le moteur sélectionne les produits recommandés en fonction des données relatives aux autres utilisateurs ET en fonction d’attributs spécifiques au visiteur. Dans un autre univers, c’est l’approche mise en place par Spotify pour sa playlist « Découvertes de la semaine », qui propose des musiques en fonction des morceaux que vous avez écoutés mais aussi en fonction des utilisateurs ayant écouté les mêmes morceaux que vous.

recommandation produits ecommerce exemple spotify

L’approche hybride est celle qui permet de proposer les recommandations les plus pertinentes, mais c’est aussi la plus complexe à mettre en œuvre.

Les bénéfices de la recommandation de produits en ecommerce

Mettre en place un moteur de recommandations de produits sur votre site vous coûtera de l’argent. C’est un investissement. Pour quel retour ? Parlons justement du retour sur investissement de la recommandation de produits. Ils sont multiples.

#1 Augmenter l’engagement client

Nous l’avons rappelé en introduction, les clients aiment qu’on leur recommande des produits. De manière plus générale, ils aiment vivre une expérience client « personnalisées ». En marketing, la personnalisation est toujours payante. Etre en capacité de proposer des produits personnalisés, pertinents, contribue à enrichir l’engagement des clients.

Si Netflix a séduit des millions d’utilisateurs, c’est grâce à son algorithme de recommandations. Pas besoin de chercher des heures dans le catalogue de films et de séries : on vous propose sur un plateau les contenus vidéos qui sont susceptibles de vous intéresser.

#2 Booster les performances de votre newsletter

Les recommandations de produits, cela se passe sur le site ecommerce comme on l’a vu, mais aussi dans les emailings, dans la newsletter. Nous en reparlerons tout à l’heure.

Proposer des produits personnalisés est le must pour une newsletter ecommerce. Cela vous aidera à générer :

  • Plus d’inscriptions à la newsletter, si vous précisez dans le formulaire de capture que votre newsletter propose des produits personnalisés. « Inscrivez-vous à notre newsletter pour découvrir des produits que vous aimez ! ».
  • Plus de conversions sur votre site ecommerce. En intégrant des recommandations de produit dans votre newsletter, vous générez plus de ventes sur votre boutique en ligne, vous faites de l’emailing un puissant canal de vente.

Mesurer et améliorer la lifetime value

Il y a un énorme paradoxe autour de la lifetime value : c’est sans aucun doute l’indicateur business le plus important, notamment en ecommerce…et pourtant seulement une minorité d’entreprises l’utilisent. Découvrez notre guide complet sur la lifetime value, ce que c’est, comment l’utiliser, comment l’améliorer.

#3 Réduire les abandons de panier

Les abandons de panier sont la bête noire des ecommerçants. Réduire les abandons de panier devrait être un objectif prioritaire pour les acteurs du ecommerce. Les recommandations de produit sont une technique pour l’atteindre.

Il existe plusieurs tactiques possibles. Par exemple, vous pouvez utiliser une exit popin présentant des produits personnalisés pour inciter les visiteurs à rester sur le site et à acheter.

recommandation produits ecommerce exit popin

Les exit popins sont très efficaces pour limiter les rebonds. Vous pouvez aussi les utiliser pour offrir des réductions, offrir la livraison, etc. Bref, il existe plein de solutions pour empêcher qu’un visiteur qui a ajouté un produit dans son panier ne parte pas sans avoir finalisé sa commande.

#4 Gagner du temps

Suggérer des produits, faire du cross-selling ou de l’upselling de manière manuelle est quelque chose de très chronophage. Et, en faisant comme ça, pas sûr que vous tombiez toujours juste et que vous recommandiez des produits pertinents. Mettre en place un moteur de recommandations permet de soulager à la fois les équipes marketing et les équipes commerciales.

Tout ce que vous avez à faire, c’est paramétrer le moteur de recommandations, l’alimenter avec les bonnes données, mettre en place les règles, etc. Une fois que c’est fait, le moteur « tourne » tout seul et propose à votre place des recommandations à vos visiteurs et ou clients.

Donc, non, il ne faut pas prendre peur, il ne faut pas se dire « un moteur de recommandations, c’est du machine learning, c’est de l’IA, c’est hyper-complexe à créer ». En réalité, ce n’est pas un projet si complexe que ça, car il existe des outils qui permettent de déployer avec facilité des moteurs de recommandations personnalisées. Nous en présenterons quelques-uns tout à l’heure.

2 chiffres à retenir :

  • Près d’un tiers des revenus ecommerce sont générés grâce aux recommandations de produits. Cela représente 12% des achats totaux.
  • Le taux de conversion des visiteurs qui cliquent sur une recommandation de produits est 5,5 fois plus élevé que celui des autres clients.

Mettre en place la recommandation de produits ecommerce tout au long des parcours clients

Vous pouvez recommander des produits à vos clients tout au long de leur parcours, c’est-à-dire :

  • Pendant la phase de recherche/découverte des produits sur le site.
  • Pendant la réalisation de la commande (le check out).
  • Après une visite sur le site ecommerce (emailing et remarketing).

#1 La recommandation de produits en phase de découverte sur le site

Voici la situation : un internaute visite un site ecommerce, le parcourt, recherche et découvre des produits. Vous pouvez lui recommander des produits complémentaires ou similaires pendant ce parcours, l’objectif étant de l’inciter à ajouter plus de produits à son panier et/ou de l’aider à trouver le bon produit pour lui, lui faire gagner du temps.

Ces recommandations peuvent être poussées sur les pages produits. Voir l’exemple d’Asos donné en début d’article, mais aussi et surtout (à tout seigneur tout honneur) l’exemple d’Amazon qui est historiquement le premier acteur du ecommerce à avoir massivement utilisé cette technique.

Voici un autre exemple (Mango) :

recommandation produits ecommerce exemple mango

Sur beaucoup de sites ecommerce, vous trouverez des recommandations sur les pages produits. C’est devenu une pratique standard. Encore une fois, la nature des recommandations peut varier. Cela peut être :

  • Les produits similaires
  • Les produits achetés par les autres clients du produit sur la page duquel vous êtes
  • Les best-sellers
  • Les produits tendances
  • Les produits les mieux notés
  • Etc.

Mais vous pouvez aussi « pousser » vos recommandations sur d’autres pages : sur la page d’accueil (voir l’exemple d’Amazon cité plus haut), sur les pages catégories, voire sur les pages d’erreurs 404. Pourquoi pas ?

Il est possible aussi de proposer des recommandations de produits dans des bannières ou dans des popups : voir l’exemple d’exit popin présenté plus haut.

#2 La recommandation de produits pendant le check out

Votre visiteur a ajouté des produits à son panier et s’apprête à finaliser sa commande. C’est le moment de lui proposer d’autres produits pour l’inciter à ajouter plus de produits dans son panier. C’est ce que fait très bien…Amazon…encore lui ! J’ajoute un MacBook à mon panier, Amazon me propose d’ajouter des produits complémentaires avant de passer la commande.

recommandation produits ecommerce exemple amazon

Les recommandations de produits qui fonctionnent le mieux pendant le check out sont :

  • Les produits complémentaires ou les accessoires. Par exemple : proposer un logiciel antivirus ou une sacoche à un visiteur qui s’apprête à finaliser la commande d’un ordinateur. Cela suppose d’être en capacité de bien établir les relations entre vos produits dans votre Product Information System (logiciel PIM). C’est techniquement plus complexe que de proposer des produits similaires.
  • Les produits fréquemment achetés ensemble. Ici, vous pouvez utiliser le filtrage collaboratif.

#3 La recommandation de produits post-visite sur le site ecommerce

A partir de maintenant, on quitte le site ecommerce. Il n’y a pas que sur votre boutique en ligne que vous pouvez proposer des recommandations de produits. Vous pouvez aussi le faire :

  • Dans des campagnes ou scénarios email.
  • Avec du remarketing.

Les campagnes et les scénarios email

Vous ne pouvez pas solliciter les visiteurs anonymes de votre site ecommerce par email. Par définition. Vous n’avez pas leur adresse email. La sollicitation par email n’est possible que sur les clients ayant déjà acheté ou sur les visiteurs inscrits à votre newsletter.

L’email est un excellent canal pour envoyer des recommandations de produits. Il y a plusieurs approches possibles :

  • La newsletter promotionnelle, dont nous avons déjà parlé plus haut. Vous pouvez personnaliser les recommandations en fonction des informations que vous avez sur vos contacts : données socio-démographiques (âge, genre), historique d’achat, préférences exprimées…Mais vous pouvez aussi utiliser la newsletter pour recommander vos meilleurs produits, vos nouveaux produits, vos produits en promotion, etc.
  • L’email de relance de panier abandonné. Là, on s’inscrit dans un scénario et non dans une campagne. La mécanique consiste à envoyer un email automatique de relance de panier abandonné aux clients identifiés n’ayant pas finalisé leur achat. L’email de relance rappelle le contenu du panier, incite à le finaliser, mais peut aussi proposer des produits similaires ou des alternatives. Bref, des recommandations de produits.
  • Les emails transactionnels de type confirmation de commande ou confirmation d’expédition sont aussi de bons moments pour pousser des recommandations de produits et inciter vos clients à acheter à nouveau.

Le remarketing

Un client visite en général plusieurs sites ecommerce et consulte entre 8 et 19 produits avant de prendre sa décision d’achat. Le remarketing est une technique bien connue qui consiste à afficher des bannières de publicité présentant vos offres et vos recommandations sur d’autres sites que le vôtre. Je visite le site A. Je quitte le site A et je me rends sur le site B. Sur le site B, pendant ma navigation, je vois s’afficher une bannière me présentant des produits du site A (ceux que j’ai consultés ou des produits similaires). Tout le monde fait quotidiennement ou presque cette expérience. Le site B peut d’ailleurs être (et est souvent) un réseau social : Facebook par exemple.

Quel outil choisir pour mettre en place la recommandation de produits ?

Il existe essentiellement deux familles d’outils permettant de configurer un moteur de recommandations et de recommander des produits à vos clients, que ce soit sur le site web ou dans vos campagnes/scénarios marketing :

  • Les solutions spécialisées, comme par exemple Adoric, Kibo, Nosto ou Barilliance. Il existe quelques acteurs français, comme Nuukik ou Target2Sell. Les tarifs varient entre 50 et 300 euros par mois.
  • Les grands éditeurs CRM qui, pour certains, intègrent un module dédié à la recommandation de produits.

recommandation produits ecommerce exemple nuukik

 

Le point commun à tous ces outils ? Ils proposent un moteur de recommandations basé sur un algorithme dans lequel vous venez configurer des règles. Le carburant du moteur, ce sont les données clients. C’est pour cette raison que cela ne sert à rien de déployer un moteur de recommandations si vous n’avez pas au préalable des données consolidées et unifiées. C’est ici qu’intervient une solution comme Octolis, qui va vous permettre de connecter l’ensemble des données et de les unifier. Vous pourrez ensuite venir les synchroniser facilement dans votre solution de recommandations.

Une fois qu’on a dit cela (et cela me semblait important de le faire), voici quelques conseils pour choisir votre outil de recommandations :

  • Choisissez un logiciel qui convient à votre univers métier. Certains moteurs de recommandation sont adaptés pour toutes les industries, mais d’autres sont plus adaptés pour certains types de produits et services.
  • Choisissez un logiciel qui propose un connecteur avec la plateforme ecommerce que vous utilisez. Si le logiciel propose un connecteur, l’intégration sera beaucoup plus simple !
  • Si vous êtes utilisateur d’une solution CRM qui propose un module dédié à la recommandation de produits, vous pouvez regarder ce qu’il vaut, sans pour autant vous interdire de regarder ce que proposent les pure players.
  • Sélectionnez les 2 ou 3 solutions répondant le mieux à votre cahier des charges et testez-les. Les pure players proposent parfois des versions gratuites. Les autres peuvent être testés sous forme de démo.

Conclusion

Si vous cherchez des leviers pour générer plus de revenus ecommerce, nous vous conseillons clairement de mettre en place un système de recommandation de produits. Il existe des solutions relativement abordables qui permettent de le faire de manière simple. J’espère vous avoir convaincu !

Je vous conseille de recommander des produits à toutes les étapes des parcours clients, et pas uniquement sur le site internet. L’email reste un canal majeur pour faire de la recommandation de produits.

Enfin, consolidez vos données, nettoyez-les, vous en aurez besoin pour faire tourner votre moteur de recommandations 🙂

Les meilleurs outils de Data Preparation – Famille d’outils, fonctionnalités & exemples

Les équipes data passent le plus clair de leur temps à préparer les données. J’ai vu passer une étude qui montre que les Data Scientists consacrent en moyenne 80% de leur temps à préparer / nettoyer les données. C’est une aberration quand on sait qu’il existe des outils de dataprep qui permettent de faire d’énormes gains de productivité.

Il y a plusieurs manières de faire de la dataprep, du SQL custom aux outils no code en passant par les outils spécialisés et les outils de BI intégrant des fonctionnalités de dataprep.

Il n’est pas facile de faire son choix.

Avant de choisir une solution, il est important de prendre le temps de comprendre le marché, le positionnement des différentes solutions, les différences en matière de périmètre fonctionnel, etc.

C’est l’objectif de cet article.

Panorama des différents types d’outils de Data Preparation

Voici un panorama des différentes familles d’outils qui peuvent aider dans la préparation des données.

CatégorieDescriptionExemples de solutions
ETLLes solutions ETL ont toutes des fonctionnalités de data prep (le T de ETL signifie "Transform").Talend, Xplenty, Skyvia
SQL / PythonLes langages de bases de données comme SQL ou Python permettent de faire de la data prep, modulo de bonnes compétences techniques.DBT, Pandas, AWS Glue
Outils de dataprep spécialisésSolutions spécialisées dans la vérification et le nettoyage d'un type particulier de données : les adresses emails, les adresses postales, les données CRM...Emailable (emails), Egon (adresses postales), Cloudingo (données Salesforce)...
Dataprep intégrée dans des outils de BICertains outils de BI intègrent des fonctionnalités/modules de data prep.PowerBI, Tableau Prep, ToucanToco...
Dataprep intégrée dans des outils DataOpsLes outils de DataOps sont nombreux à intégrer des fonctionnalités de data prep : nettoyage, normalisation, déduplication, enrichissement...Octolis, Y42, Keboola, Weld...
Dataprep intégrée dans des outils de Data ScienceLa préparation des données peut être réalisée dans les outils de Data Science.Dataiku, Alteryx, Rapidminer...

Les fonctionnalités proposées par les outils de dataprep

Pour choisir le bon outil, il faut avoir une bonne compréhension des fonctionnalités proposées par les outils de dataprep. Il y a 4 fonctionnalités clés des outils de data preparation.

#1 Accès aux données et exploration à partir de n’importe quel set de données

L’accès aux données désigne la capacité de votre outil de dataprep à accéder à l’ensemble des sources de données que constitue votre système d’information. Quelles sont les sources que vous pouvez connecter à l’outil de dataprep ? Quels sont les formats de données gérés ? Quid de l’API ? Quid des connecteurs proposés par l’éditeur ? Ce sont autant de questions à vous poser lors de votre analyse des outils du marché.

Il faut que vous choisissiez un outil dans lequel vous pouvez intégrer facilement les données en provenance de vos différentes sources, sans limitations et indépendamment de l’endroit où sont stockées ces données. Vous avez des fichiers Excel, des fichiers CSV, des documents Word, un entrepôt de données SQL, des applications cloud, des systèmes opérationnels (CRM, marketing automation, ERP) ? Assurez-vous de pouvoir les importer dans l’outil de dataprep.

L’étape suivante consiste à explorer les données collectées pour mieux comprendre ce qu’elles contiennent et ce qu’il va falloir faire pour préparer les données en vue des cas d’usage cibles. Les données sont « profilées » : identification des patterns, de la distribution des données, des relations entre les variables et les attributs, des anomalies, des valeurs aberrantes ou manquantes, etc. L’outil de data prep doit permettre un travail exploratoire sur chaque data set.

#2 Nettoyage des données

Les outils de dataprep proposent ensuite des fonctionnalités pour nettoyer les données (data cleansing). Le nettoyage des données est indispensable pour disposer de data sets fiables, valides et exploitables.

Le nettoyage des données regroupe un certain nombre d’opérations : la suppression des valeurs aberrantes, la vérification de l’orthographe, la correction des erreurs de saisie, la standardisation des cases, l’identification et le marquage des cellules vides, la normalisation des formats (les dates, par exemple), l’élimination des données manquantes, la suppression ou la fusion des données dupliquées, le masquage des informations sensibles ou confidentielles…

Un template à télécharger pour cleaner vos données clients

Nous avons conçu un guide complet sur le nettoyage d’une base clients, les traitements à opérer et les différentes méthodes de nettoyage. Cerise sur le gâteau, on vous offre un template Excel pour nettoyer facilement un petit fichier clients 🙂

template nettoyage donnees clients

#3 Enrichissement des données

L’enrichissement des données est la troisième fonctionnalité clé des outils de dataprep. Enrichir les données consiste à améliorer le taux de complétude de la base de données (les cellules vides) et/ou à ajouter de nouveaux champs. L’enrichissement des données permet ensuite de mieux segmenter et personnaliser les campagnes/scénarios marketing ou les actions commerciales. Si l’enrichissement des données est si important, c’est que la personnalisation et le ciblage sont des clés de performance en marketing-ventes. Plus vous avez d’informations sur vos clients ou contacts, mieux c’est !

L’enrichissement de données peut s’effectuer de deux manières complémentaires :

  • A partir de sources de données internes.
  • A partir de sources de données externes : fournisseurs de données spécialisés, bases de données publiques, LinkedIn…

L’enrichissement des données améliore la valeur et le potentiel d’activation de vos données.

#4 Export des données

Les données, une fois préparées, doivent être exportées dans les outils de destinatation : outils d’activation, outils d’analyse, entrepôt de données, CDP…Les capacités d’export des données sont un facteur discriminant dans le choix d’un outil de data preparation.

Gardez le contrôle de vos données clients

Le contrôle des données devient un enjeu clé pour les entreprises. Découvrez pourquoi vous ne devez pas stocker vos données dans vos logiciels (CRM, Marketing Automation, ERP…), mais dans une base de données indépendante. On vous explique tout dans notre guide complet sur le contrôle des données.

Les principaux critères différenciants

Voici quelques critères à prendre en compte dans le choix de votre outil de dataprep :

  • Le niveau de technicité requis. Il existe des outils no code qui permettent de procéder aux opérations de dataprep sans savoir programmer. A l’inverse, certains outils sont destinés aux utilisateurs maîtrisant parfaitement le code (le langage SQL notamment). Entre les deux, on trouve toute une série d’outils nécessitant quelques connaissances en code. Ce sont outils « low code », dont l’utilisation nécessite une bonne collaboration entre les équipes IT et métier.
  • La vitesse de traitement. On distingue classiquement les outils qui redistribuent les données préparées en temps réel (real time) et ceux qui redistribuent les données préparées toutes les X minutes/heures (batch processing). Dans certains secteurs, le temps réel est un réel besoin. Dans beaucoup d’autres, le batch processing est suffisant.
  • Le nombre de recettes packagées. Une recette est un ensemble de traitements séquencés réalisés sur un set de données. Les outils de dataprep proposent des recettes packagées qui permettent de gagner du temps.
  • Le prix. Certains outils de dataprep « self service » proposent des offres gratuites qui, si vos cas d’usage sont basiques, peuvent faire l’affaire. Les outils de dataprep les plus évolués peuvent coûter jusqu’à 100 000 euros par an.

Les meilleurs outils de data preparation

Les outils de dataprep self service, testables rapidement

Les outils de dataprep self service sont des solutions légères, faciles à prendre en main et conçues pour les équipes métier/business. Il n’y a pas besoin d’être technophile pour les utiliser. Ces outils ont aussi l’avantage de proposer des tarifs très abordables. Nous en recommandons 3 : Tye, Paxada et InfogixData360.

NomDescriptionPricing
TyeTye est un logiciel de nettoyage et d’enrichissement de données conçu pour les PME, avec un focus sur le traitement des listes d’emails. A partir de son interface intuitive, vous pouvez identifier en un coup d’oeil les données erronées ou dupliquées. 0,05 à 0,24 par set de données
PaxataDataRobot (ex Paxata) est un outil de dataprep self service utilisable à la fois par les équipes IT et les novices. Il propose une interface user-friendly permettant d’explorer, de profiler et de transformer de manière visuelle des sets de données.Basé sur le volume
InfogixData360Infogix Data 360 propose une suite de logiciels couvrant toutes les étapes du Data Management, de la connexion des données à leur activation, en passant par leur vérification et leur enrichissement. Basé sur le volume

Les outils de dataprep pour les grandes entreprises

Les grandes entreprises ont souvent des besoins avancés en dataprep, étant donné la quantité de données à gérer, leur diversité et la complexité des écosystèmes data. Certaines solutions de dataprep sont conçues pour les grandes entreprises. Elles proposent des fonctionnalités de dataprep avancées et ont souvent un périmètre fonctionnel qui déborde la préparation des données. Ce sont, sans surprise, des solutions très coûteuses.

NomDescriptionPricing
DataLadderData Ladder à l’avantage d’être à la fois très complet et relativement simple d’utilisation. Pas besoin d’être un data scientist pour profiter de ses principales fonctionnalités, l’outil est no code. Data Ladder consolide, nettoie, profile et déduplique vos données.Les tarifs sont calculés en fonction du volume de data records
AltairMonarchAltaire Monarch propose plus de 80 fonctionnalités préconstruites pour nettoyer et préparer les données de votre écosystème. Monarch gère aussi bien les données structurées que non-structurées : PDFs, spreadsheets, fichiers textes. L’outil se connecte à toutes vos solutions cloud et Big Data. L’interface est très simple d’utilisation, sans code, click-based. A partir de 1995$ par utilisateur et par mois
TamrUnifyTamr est un outil de préparation de données basé sur l'apprentissage automatique. Il est utilisé pour le mélange et la transformation des données à l'échelle de l’entreprise.Le procédé utilise des algorithmes et l'apprentissage automatique.Varie en fonction de la taille de la base de données

Les outils de dataprep spécialisés sur un sujet spécifique

Si vos besoins de dataprep se limitent à vouloir nettoyer et normaliser des adresses emails, il n’est pas sûr que vous ayez (tout de suite) besoin d’investir dans une solution de dataprep avancée. Il existe sur le marché de bonnes solutions spécialisées dans la préparation de données spécifiques : les adresses emails, les adresses postales, les données Salesforce.

NomDescriptionPricing
EmailableEmailable est une solution conçue pour vérifier et nettoyer vos listes d’emails avec pour finalité l’amélioration de la performance de vos campagnes et scénarios. Emailable supprime les adresses erronnées et peut valider les adresses emails via ses APIs/partenaires. Solution assez compétitive, aux prix abordables, Emailable propose une interface intuitive qui ravira les profils marketers.À partir de 30€
EgonDisponible en SaaS par abonnement et en version On-Premise, Egon est une solution pour vérifier et nettoyer les adresses postales. Elle gère plus de 200 pays et offre la possibilité de vérifier les adresses au moment de la saisie (via les APIs) ou en batch sur une liste d’adresses. Mais ce n’est pas tout, vous pouvez aussi utiliser Egon pour la validation des numéros de téléphone et la validation des adresses emails.0.02$ par set de donnée
CloudingoSi vous utililisez Salesforce, cette solution est faite pour vous. Cloudingo est spécialisé dans le nettoyage et la déduplication des données Salesforce. C’est une solution de référence pour préparer des données Salesforce, les dédupliquer, les enrichir, les normaliser, supprimer les données inexactes, invalides, inconsistantes. Varie en fonction de la taille de la base de données

Les outils de dataprep intégrés dans un outil de Business Intelligence (BI)

Les solutions de Business Intelligence leaders du marché proposent toutes des fonctions de dataprep. C’est le cas, notamment, de Power BI, de Tableau ou de Dataiku. Si vous envisagez d’investir dans un outil de BI, vous pourrez l’utiliser pour préparer vos données.

NomDescriptionPricing
MicrosoftpowerBIMicrosoft Power BI est l’une des solutions de Business Intelligence leaders du marché. Elle permet de connecter n’importe quelles sources de données pour produire des dispositifs de reporting et faire de la data visualisation. Power BI offre également des fonctions avancées de data preparation.à partir de $4,995 par mois
TableauprepTableau Prep est la solution de data preparation proposée par Tableau, l’un des principaux concurrents de Power BI. Beaucoup plus abordable que Power BI, le module Tableau Prep vous permet de consolider, dédupliquer et nettoyer les données que vous utiliserez pour faire vos analyses dans Tableau. 70$ par mois
DataikuDataiku permet aux codeurs et aux non-codeurs de construire facilement des pipelines de données avec des ensembles de données.Connectez, nettoyez et préparez les données pour les projets d'analyse et d'apprentissage automatique à votre échelle. Dataiku offre une interface visuelle facile à utiliser qui accélère considérablement la préparation des données.Version gratuite disponible
AlteryxAlteryx permet d'aider les utilisateurs à automatiser le travail manuel de leur gestion de données ce qui rend le processus de préparation des données beaucoup plus simple.La plateforme fournit les résultats de vos analyses de données à plus de 70 sources, dont SQL, Oracle, XML, Spark, Microsoft Excel, PDF, etc.5195$ par utilisateur par mois
TrifactaOutil utilisé par les analystes de données et les organisations afin d'explorer, de transformer et d'intégrer leurs ensembles de données non structurées.Il structure, nettoie, enrichit et valide les données.Trifacta suggère automatiquement des transformations et des agrégations sur la base d'algorithmes d'apprentissage automatique.419$ par mois
DatameerDatameer propose une modélisation de données pour les analystes ayant tous les niveaux de compétences SQLCela permet de transformer et modéliser les données directement dans leurs bases de données.Gratuit