1 Méthode pour analyser la performance de ses actions CRM

Les outils de CRM et d’emailing ne permettent pas d’avoir un suivi satisfaisant de l’impact des actions mises en place par l’entreprise. C’est probablement le constat que vous avez fait si vous atterrissez sur cet article.

Plusieurs éléments expliquent pourquoi beaucoup d’entreprises échouent à mesurer efficacement les actions CRM. D’abord, les actions CRM sont pour beaucoup cross-canal. Ensuite, une action CRM (une campagne ou un scénario) peut avoir des effets indirects, ou distants. Tout cela pose des problématiques complexes d’attribution. Dans ces conditions, mesurer l’impact des actions CRM est un challenge que nous allons vous aider à relever.

 
Pour mesurer l’impact des actions CRM, il faut d’abord commencer par construire une vision d’ensemble de toutes les actions déployées et rattacher toutes ces actions (campagnes et scénarios) à des objectifs précis, des KPIs mesurables. D’où la nécessite de construire un plan relationnel. C’est la démarche que nous allons vous présenter. Nous verrons ensuite comment mesurer la performance de vos campagnes et de vos scénarios relationnels.

Les limites des outils d’emailing / CRM pour mesurer l’impact des actions

Les reportings proposés par les outils d’emailing et de CRM sont limités par deux principaux inconvénients :

  1. Ils sont très centrés sur les campagnes et les canaux de conversation. De ce fait, ils n’offrent pas de vision d’ensemble du « parcours client », mais seulement une lecture partielle et étroite des actions.
  2. Les KPIs proposés sont relatifs à l’engagement : taux d’ouverture, taux de clics, taux de réactivité… Cela permet seulement d’analyser le comportement des clients à la lecture de l’email, mais pas l’impact business global des campagnes, avec par exemple le CA généré sur le site e-commerce.

 
Ces deux limites sont particulièrement importantes. Lorsque l’on met en place une campagne d’emailing, il est nécessaire de pouvoir mesurer les performances business qui en résultent. Or les actions marketing et CRM affectent durablement et souvent indirectement les parcours des clients. Par exemple, une campagne emailing peut avoir un impact sur les ventes en magasin : un client lit votre email, clique sur un produit, consulte la page du produit puis décide d’aller en magasin acheter le produit.

Ainsi, il est nécessaire de disposer d’informations supplémentaires. Vos responsables CRM doivent pouvoir prendre plus de hauteur. Cela est rendu possible grâce aux programmes et au plan relationnel.

Prendre de la hauteur : les programmes et le plan relationnel

Pour mesurer l’impact des actions CRM/Marketing au niveau du parcours client, il faut organiser les actions dans des programmes relationnels.

Un programme est un ensemble d’actions de marketing relationnel au service d’un objectif mesurable par un KPI. La logique des programmes permet de sortir de l’approche mono canal proposée par les outils CRM/Emailing classiques en se fondant sur des objectifs auxquels on associe un ensemble d’actions permettant d’exploiter plusieurs canaux et points de contact. Il existe deux types d’actions :

  • Les scénarios relationnels, qui se déclenchent en fonction du comportement des clients (scénario de bienvenue, scénario post-achat…) ou d’un événement client (scénario d’anniversaire, scénario d’anniversaire d’un contrat…).
  • Les campagnes marketing, qui sont ponctuelles ou périodiques (liées aux événements du calendrier).

Voici une manière de se représenter les différents programmes et les scénarios associés :

programmes CRM

Les programmes sont listés dans un document de cadrage et de suivi qui s’appelle le plan relationnel. Il permet d’avoir une vision d’ensemble de ses actions CRM/Marketing. C’est un document indispensable pour piloter ses actions de marketing relationnel de manière cohérente.

Comme nous l’avons précisé, les actions qu’il s’agit de mesurer sont scindées en deux catégories : les campagnes et les scénarios. Or, ces deux mesures diffèrent. Il est donc nécessaire de combiner deux approches pour évaluer l’impact de ces actions.

Suivre l’évolution des performances de mes campagnes à travers le temps

Les campagnes, qui sont des actions marketing ponctuelles, doivent faire l’objet d’une planification. Elles peuvent être menées au travers de plusieurs canaux (mail, site web, magasin…). En organisant les actions dans un plan relationnel, mesurer la performance d’une campagne ne consistera plus à analyser le taux d’ouverture ou le taux de clics mais à mesurer l’impact de cette action sur le KPI du programme auquel elle est rattachée.

Il est important de suivre l’évolution des performances de vos campagnes et de les comparer entre elles. L’analyse comparative de vos différentes campagnes est le meilleur moyen d’identifier les axes d’amélioration et de mettre en lumière les éléments les plus performants. Par exemple, l’effet de chaque campagne de Noël devrait être mis en perspective avec celles des années passées afin d’obtenir une compréhension précise de l’évolution de l’efficacité de cette action.

Mesurer l’impact des scénarios relationnels

Contrairement aux campagnes ponctuelles, les scénarios sont des éléments du bloc CRM plus complexes et dont l’impact est beaucoup plus difficile à mesurer. En effet, les scénarios, qui forment un ensemble d’actions se déclenchant en réponse au comportement d’un client, possèdent trois principales caractéristiques :

  • Un objectif qui doit être lié au but global du programme,
  • Un déclencheur qui est le point de départ de l’action,
  • Une séquence qui définit l’ensemble des messages et actions automatisés.

Pour obtenir une vision précise de l’effet des scénarios, nous vous proposons trois approches possibles.

L’approche classique, basée sur le suivi de KPIs

Cela consiste à suivre quelques KPIs bien choisis : le KPI du programme relationnel auquel il est rattaché ainsi que des KPIs secondaires qui ont un impact indirect sur le KPI principal. Idéalement, chaque scénario est associé à un indicateur précis qui doit être celui du programme relationnel si ce dernier est correctement structuré.

Nous pouvons prendre par exemple l’abandon panier, avec comme KPI principal le taux de clients avec des paniers abandonnés qui réalisent un achat après X jours. Un autre exemple plus complexe est le cross-sell un mois après l’achat, ou la part de clients qui réalisent un deuxième achat entre 30 et 45 jours après le premier.

Il faut ensuite réussir à établir un reporting précis et complet pour suivre ces fameux indicateurs.

L’analyse de cohortes

L’analyse de cohortes consiste à étudier les comportements de différents groupes de clients constitués en fonction de critères objectifs (clients ayant reçus le même email, disposant du même abonnement…). On peut alors comparer la performance d’un scénario au sein de différentes cohortes établies selon la date d’entrée du client. Cela peut consister par exemple à mettre en place en mars un nouveau scénario pour pousser le passage du 1er au 2ème achat grâce à une séquence de 5 emails sur 3 mois après le premier achat.

Pour mesurer l’impact du scénario, il faut regarder l’évolution du nombre d’achat moyen (ou du CA en base 100) par cohorte basée sur la date du premier achat. Pour les clients ayant acheté après mars, il faut que le nombre d’achats 2 et 3 mois après le premier achat soit plus important que pour ceux ayant réalisé un premier achat en janvier. Évidemment, le scénario n’est pas un facteur unique de différenciation. La cyclicité, les campagnes marketing et de nombreux autres éléments peuvent affecter les ventes, ce qui rend difficile d’évaluer la fiabilité des résultats.

L’A/B Testing

Cette méthode est la plus rigoureuse, mais aussi la plus difficile à mettre en place. Il faut scinder le groupe à tester en deux, puis appliquer le scénario sur le groupe A et comparer ensuite les résultats avec le groupe B qui sert de groupe de contrôle. Pour obtenir des résultats satisfaisant, il est nécessaire d’avoir un volume suffisamment important de clients dans chaque groupe.

20 indicateurs clés pour mesurer la performance CRM

Après avoir mis en place ces recommandations, il faut pouvoir suivre l’évolution de la performance de votre CRM. Nous vous proposons pour cela une liste de 20 KPIs que nous jugeons nécessaire d’avoir dans vos dashboards de suivi de performance.

Nom du KPIDescriptionCalcul
Taux d’activationPermet de mesurer la performance de l’activité de prospection.Nombre de prospects devenus clients / Nombre de prospects
Taux de clients actifsLes clients ayant acheté ou interagi récemment avec l’entreprise.Nombre de clients actifs / Nombre de clients
Taux de churnLe taux de clients actifs devenant inactifs sur une période.Nombre de clients perdus / Nombre de clients
Solde net d’acquisition clientComparaison de la variation du nombre de client actifs et inactifs.Nouveaux clients actifs – Nouveaux clients inactifs
Nombre de sollicitations cross canal par clientCela représente le nombre de sollicitations qu’un client va recevoir toutes plateformes confondues. Un nombre trop important peut mener à une pression commerciale trop forte.Somme des sollicitations par canaux / Nombre de clients contactés
Taux de réactivité Le taux de réactivité représente l’efficacité des messages, que l’on peut mesurer de manière agrégée ou par canal.Nombre de réponses / Nombre de contacts
Taux de désabonnement Cet indicateur permet de se rendre compte de la pertinence des campagnes marketing.Nombre de clients qui se désabonnent / Nombre de clients contactés
Nombre de commandes par période et par clientCette mesure donne la moyenne du nombre de commandes par client contactés.Nombre de commandes sur la période / Nombre de clients contactés
CA par période et par actif Permet d’évaluer l’efficacité commerciale du CRM.CA de la période par actif / Nombre de clients sollicités
CA des clients sollicités vs non sollicitésCette mesure est extrêmement importante en ce qu’elle permet de mettre en perspective l’efficacité des actions CRM.1 : CA lié aux clients sollicités / Nombre de clients sollicités
2 : CA lié aux clients non sollicités / Nombre de clients non sollicités
Comparer 1 et 2
ROI globalCet indicateur est aussi classique qu’essentiel pour se rendre compte de l’utilité du CRM.Revenus liés au CRM – Dépenses liées au CRM
CAC (customer acquisition cost)Mesure moyenne du coût d’acquisition client, à mettre en perspective avec le revenu moyen généré par client. Dépenses totales de CRM / Nombres de clients conquis
CLV (customer lifetime value)Cela représente la valeur moyenne d’un client au court de son cycle de vie. Il est particulièrement intéressant de mettre cette valeur en perspective du CAC.Panier moyen par client x nombre moyen de paniers par client
Longueur des étapes du processus CRM Mesure du temps passé à chaque étape du processus CRM (du premier contact à l’achat par exemple), en ayant pour objectif de réduire cette durée.Mesure et comparaison des durées par étapes
Durée du cycle de venteLe temps moyen qu’il faut à un client pour finaliser une vente. Le point de départ peut différer en fonction des analyses (arrivée sur le site, emailing…). Temps en minutes/heure entre une action prédéfinie et la validation de la vente
Temps moyen de résolution des problèmes clientsCe KPI est utilisé pour comprendre les étapes dans lesquelles les opérateurs individuels rencontrent le plus de difficultés. Il peut également rendre compte de la rapidité et de l'efficacité de la réponse au client.Nombre d’heures ou de jours pour résoudre une demande d’un client
NPS (net promoter score)Cette métrique représente, sur une échelle de 1 à 10, la probabilité que les clients recommandent l’entreprise.Un sondage proposé aux clients, généralement après une action sur le site.
Taux de complétudeMesure le taux de remplissage de la base de données par indicateur, ce qui donne un éclairage sur la connaissance des clients.Nombre de lignes vides pour une colonne / Nombre de lignes
Dépenses des nouveaux clients Cette mesure vise à montrer la valeur des « nouveaux clients ». La durée pendant laquelle un client est considéré comme « nouveau » doit être déterminée en fonction du type d’activité. Panier moyen des nouveaux clients x nombre moyen de panier
Taux de revalorisation des ventes (upsell)Le taux d'upsell est le nombre de clients qui améliorent leur achat, en choisissant une version plus chère d'un produit ou d'un service. La gestion de la relation client peut contribuer à augmenter le taux de vente en fournissant des informations utiles pour prédire quelles pistes sont les plus susceptibles de se transformer en direction "premium".Nombre de clients revalorisant leur panier suite à une interaction CRM / Nombre de clients validant un panier

Mesurer l’impact de vos actions CRM est un processus complexe et exigeant qui requiert de nombreuses ressources. Disposer d’un accompagnement de qualité et de softwares performants représente un avantage certain, que nous vous aidons à établir dans notre comparatif des meilleurs prestataires CRM.

Il est nécessaire de suivre l’évolution de l’efficacité de ses actions en continue et de regrouper les résultats au sein de dashboards clairs et pertinents. C’est uniquement en travaillant sans cesse à l’amélioration de la performance de votre CRM que vous parviendrez à en faire un avantage concurrentiel capable de fidéliser vos clients et d’augmenter leur lifetime value, et de booster ainsi votre activité.

20+ méthodes pour collecter plus de données clients en magasin

Bien connaître ses clients est aujourd’hui crucial pour générer des revenus. Les données sont l’ingrédient indispensable pour solliciter vos clients de manière ciblée, personnalisée, intelligente et performante.

Le contexte actuel (fin des cookies tiers, RGPD…) appelle à un recentrage sur les données « first party », celles que vous collectez par vous-même auprès de votre clientèle. Disons-le clairement, si vous embasez moins de 20% de vos clients, vous passez à côté de beaucoup d’opportunités de développer votre activité.

Dans cet article, nous allons vous présenter plus de 20 techniques pour collecter des données auprès de vos clients et augmenter votre connaissance client.

Comment préparer un plan de collecte ambitieux

L’enjeu du plan de collecte des données clients

Si vous embasez moins de 20% de vos clients, vous êtes clairement en retard, et vous perdrez un gros potentiel. Un client embasé génère bien plus qu’un client avec lequel vous êtes incapable de communiquer.

Pour embaser plus de clients et collecter plus de données sur eux, vous devez mettre en place une stratégie et des tactiques. Cela passe par la formalisation d’un plan de collecte.

Un plan de collecte c’est quoi ?

Un plan de collecte c’est l’ensemble des moyens utilisés par l’entreprise pour récupérer des informations de ses clients. Celui-ci est important car il permet une bonne compréhension des attentes de vos clients quant à votre marque, vos produits et le lien qu’ils veulent entretenir avec vous. Il est indispensable pour préparer le plan marketing client, qui structure le dialogue client.

Démarche pour construire un plan de collecte

Un plan de collecte est constitué de 3 étapes clés :

  1. Vous devez d’abord définir vos objectifs : si vous voulez collecter des données, c’est pour mettre en place des actions de marketing-ventes. Vous devez d’abord avoir une vision claire de ce que vous voulez faire. On ne collecte pas des données pour le plaisir de collecter. D’ailleurs, c’est contraire au principe de minimisation des données mis en avant par le RGPD. Généralement, les entreprises cherchent à améliorer leur fidélisation & service client, mais aussi mesurer le succès d’un nouveau produit ou service, ou encore augmenter leurs ventes par l’utilisation.
  2. Ensuite, il vous faut définir les données cibles, c’est-à-dire les données qui vous permettront de mettre en place vos actions. Vous listez l’ensemble des données dont vous allez avoir besoin. Cela peut aller du nom et prénom de vos clients (données dites « classiques »), en passant la date d’anniversaire de vos clients (données de « personnalisation »), à leurs pointures de chaussures (données « spécifiques »).
  3. Finalement, vous pourrez concevoir un processus de collecte, c’est-à-dire imaginer les leviers/techniques/méthodes qui vont vous permettre de collecter ces idées grâce aux points de contact que vous entretenez avec vos clients. Notre article va vous présenter justement quelques idées sur ce sujet.

 

En résumé, dans le plan de collecte, on part du “pourquoi” (objectifs), on définit ensuite le “quoi” (les données cibles) puis le comment/quand (les mécaniques).

20+ méthodes pour collecter plus de données clients (notamment en magasin)

1 – Créer une newsletter

La newsletter reste aujourd’hui le moyen privilégié pour récupérer les données de vos clients. Le point positif, c’est que le message que vous souhaitez transmettre peut être plus long que ceux sur lesquels la concentration de vos clients est minime. Vous pouvez à la fois informer le client sur les nouveaux produits, les promotions du mois et les ventes flash.

collecte donnees clients newsletter
Newsletter proposée par « Tout frais chez vous ».

La fréquence d’envoi des mails peut être réglée selon vos envies. Généralement il est déconseillé de programmer plus de 2 emails par mois car ceux-ci contribueront juste à inonder la boîte mail de vos clients !

2 – Introduire le parcours clients en amont pour inciter à l’inscription

Le parcours client, c’est tout ce dont le client doit s’attendre lorsqu’il entre en contact avec une marque : avantages cadeau, promotion, contact avec les professionnels… L’enjeu est de donner envie au client au moment où il s’inscrit. Il s’agit de détailler les avantages qui découleront de son expérience relationnelle avec la marque.

En gros, plus le client aura d’informations sur les avantages apportés, plus il sera enclin à faire partie de la base de données de l’entreprise !

3 – Faire un partenariat avec une entreprise concurrente

L’objectif ici est double. D’abord, si vous partagez des clients en commun, vous pourrez prendre connaissance d’informations clientèle dont vous n’aviez pas encore accès. De plus, si vous exploitez bien cette nouvelle base de données, vous aurez l’opportunité de « récupérer » une partie du public de vos entreprises concurrentes.

4 – Mettre en place un programme fidélité

Le programme de fidélité est la solution qui s’adapte le mieux aux besoins de votre clientèle. En échange de leurs informations personnelles, vous pouvez leur proposer toute une gamme d’avantages. Ces avantages sont désignés en fonction de leurs attentes et habitudes de consommation.

Nous vous détaillons un peu plus bas nos conseils pour établir un programme qui correspond à votre entreprise 👇

5 – Organiser un Jeu Concours

Qui n’a jamais rêvé de gagner un jeu concours ?

C’est généralement la méthode la moins contraignante pour vos clients (qui seront ravis de gagner un lot sans rien avoir à payer) et la plus utile pour vous.

collecte donnees clients jeux concours

6 – Exploiter le pouvoir des réseaux sociaux

Si vous n’avez pas encore de compte Instagram ou Facebook de votre marque, il ne faut plus attendre. Les réseaux sociaux constituent le moyen le plus à la mode pour avoir accès à des données clients. Plus vos posts seront marrants, plus ils inviteront aux commentaires (avec des phrases à compléter par exemple ou des amis à identifier), et plus vous étendrez votre base de données clients parmi vos followers.

Si vos clients repartagent vos posts, créent du contenu en utilisant vos hashtags ou vos identifiants, c’est encore mieux. Ils pourront atteindre leur cercle d’amis et recueillir des informations plus personnelles que celles dont vous avez accès.

7 – Proposer un jeu concours sur des bornes en magasin

Vous pouvez préparer avec soin un message qui s’affiche automatiquement lorsque les clients s’approchent de la borne de commande. Le message doit être percutant et l’inscription au Jeu Concours doit se faire rapidement. Vos clients ne doivent pas avoir l’impression de perdre trop de temps (surtout dans les restaurants, s’ils sont affamés !). A la suite de leur inscription, un message peut s’afficher du type : « Augmentez vos chances de gagner en laissant aussi votre numéro de téléphone ». Vous aurez ainsi l’embarras du choix quant au moyen de communication avec vos clients.

collecte donnees clients jeux concours borne

Pour plus de conseils quant à la manière de collecter des données via des jeux concours, enquêtes ou quiz, vous pouvez consulter Qualifio Engage, spécialiste dans ce domaine.

8 – Proposer des codes promo sur une borne après paiement

A l’inverse, vous pouvez programmer un message avec un code promo pour une prochaine commande, une fois le paiement effectué. Pour l’activer, vos clients n’ont qu’à laisser leurs coordonnées et ils recevront ce code par mail. Le point positif : ça incite vos clients à revenir passer commande dans un laps de temps très court. Le point négatif : si c’est la période de rush dans votre enseigne, il vaut mieux éviter pour ne pas trop faire attendre les autres qui font la queue !

9 – Générer des codes promo sur les tickets commande borne

Utilisez vos tickets de caisse comme des moyens directs de communication avec vos clients. La plupart font un effort pour le conserver, et vous pouvez ainsi faire passer un message qui a de grandes chances d’être lu. Vos tickets de caisse peuvent par exemple être accompagnés d’un code de promotion à activer depuis un compte client sur internet. Ils vous laissent un mail pour les contacter, et vous leur donnez un code promo en échange. Tout le monde est gagnant.

10 – Accompagner chaque ticket de caisse d’un code promo

Il en va de même pour les tickets de caisse récupérés après avoir passé une commande en caisse.

collecte donnees clients tickets de caisse

11 – Placer des tablettes fixes dans les files d’attente

Les files d’attente sont les moments où vos clients feraient n’importe quoi pour passer le temps. C’est l’endroit idéal pour installer des tablettes tactiles avec un message pour s’inscrire à un Jeu Concours par exemple. Vous pouvez proposer aux clients de laisser leur numéro de tel, leur mail et adresse ; le plus de coordonnées ils laissent, le plus ils auront de chance de remporter le jeu.

12 – Utiliser tous les supports disponibles : set de table, cabine d’essayage, etc.

L’objectif est d’utiliser toutes les ressources à votre disposition. Les endroits les plus visibles dans votre magasin, ou qui attirent les regards de vos clients dans des moments d’attente, sont à privilégier. Un set de table ou un mur dans une cabine d’essayage sont des endroits stratégiques pour afficher une devinette invitant vos clients à envoyer une réponse par SMS.

collecte donnees clients cabine essayage

13 – Diffuser des messages audio dans vos magasins

Une bonne playlist dans un magasin ou un restaurant contribue grandement à l’atmosphère sympathique qu’il en dégage. Vous pouvez sans aucun problème placer un message de pub entre chaque chanson avec une devinette destinée à vos clients. Proposez à vos clients d’envoyer leur réponse par SMS afin de participer à un tirage au sort pour gagner des cadeaux. Veuillez à programmer votre message sonore un peu plus fort que le niveau de bruit des musiques et le tour est joué !

14 – Proposer un packaging et des goodies attrayants

En ce moment c’est la mode des goodies et des tote bags en particulier. On en voit partout. Vous pouvez surfer sur la tendance en proposant à vos clients des tote bags gratuits avec l’enseigne du magasin imprimé en échange de la création d’un compte client. Vos vendeurs peuvent proposer cet échange en caisse, après le paiement effectué. Succès assuré.

15 – Transformer vos flyers en point de collecte de données clients

C’est toujours bon de renouveler les méthodes qui fonctionnent. La distribution de flyers permet aux clients de conserver avec lui toutes les informations que vous souhaitez lui faire parvenir. Vous pouvez par exemple y imprimer une devinette marrante. Les clients doivent envoyer la bonne réponse par SMS et pourront être tirés au sort pour gagner un lot de cadeaux choisi par vos soins.

collecte donnees clients distribution flyers
Le petit + : la distribution de flyers est d’autant plus intéressante pour les services drive, lorsque les clients n’entrent pas dans votre magasin. Ils repartent quand même avec un petit souvenir.

16 – Collecter des données clients via le Wifi public

Simple et efficace, le réseau wifi constitue un moyen privilégié pour récupérer les données de vos clients. Quand vos clients voudront se connecter au réseau internet de vos magasins, ils seront redirigés vers une page internet. Ils devront ensuite créer un profil avec leurs coordonnées pour accéder gratuitement au réseau internet. N’oubliez pas de garantir la qualité et le débit de votre service internet pour que vos clients le privilégient à l’option de données mobiles.
Le point positif : Vous pouvez également customiser des messages push pour inciter vos clients à se créer un compte client.

17 – Installer des panneaux d’affichage avec code promo

Vous pouvez décorer votre magasin de panneaux d’affichage au design attrayant et aux couleurs vives. Une fois que le client s’approche, il pourra apercevoir un QR code. Il sera alors redirigé vers un code promo à activer depuis un compte client.

18 – Collecter des données clients via vos vendeurs en magasin

Aucune méthode qu’on vous propose ne surpassera une bonne conversation. Les vendeurs de votre magasin sont les plus aptes à recueillir les données personnelles de vos clients ; leur date d’anniversaire, leur code postal, le nombre de leurs animaux de compagnie… Former vos vendeurs est alors primordial pour qu’ils puissent devenir des liens de confiance entre votre enseigne et vos clients.

19 – Créer un “espace club”

Votre clientèle sera plus apte à laisser ses coordonnées si on lui propose un statut exclusif, celui de membre d’un « espace club ». Vos clients doivent sentir qu’ils sont chouchoutés, et qu’ils ont accès à plus d’avantages que les autres. Votre entreprise peut par exemple garantir aux membres un accès aux préventes, à des codes promo, à des goodies gratuits…

20 – Encourager les réservations par téléphone

Cette méthode est particulièrement utilisée par les restaurateurs pour les réservations. Cependant, vous pouvez aussi la présenter comme un service après-vente. Si les clients sont mécontents ou veulent faire remonter des critiques, ils peuvent appeler l’entreprise. Cela vous permettra d’identifier le client par son numéro de téléphone et de proposer une compensation lors de sa prochaine visite par exemple ; pas mal pour le fidéliser !

21 – Diffuser des questionnaires de satisfaction

Un questionnaire de satisfaction c’est comme conduire une étude de marché. Elle doit être mise en avant comme un outil qui permettra à votre marque de mieux répondre à vos clients. Ceux-ci se sentiront alors concernés. Ils s’exprimeront volontiers et laisseront leurs coordonnées pour être au courant de l’avancée de l’enquête.

Notre conseil : les enquêtes de satisfaction peuvent être proposées sous forme de message pop-up en borne de commande par exemple !

collecte donnees clients questionnaire

22 – Proposer d’envoyer les tickets de caisse par SMS / email

Ce moyen est à la fois avantageux pour vos clients et écolo. Vous pouvez présenter l’option de cette manière : ce sera simple de retrouver le ticket de caisse s’ils doivent retourner le produit. Et en échange, vous aurez accès au mail de vos clients : pratique pour envoyer des newsletter !

Une autre approche pour collecter plus de données clients en magasin : mettre en place un programme de fidélité

Un programme de fidélité… c’est quoi au juste ?

Le fonctionnement d’un programme de fidélité, c’est très simple. Il doit récompenser vos clients qui achètent régulièrement vos produits ou font souvent appel à vos services. Ceux-ci reçoivent alors des avantages (cadeaux, code promo, accès au catalogue avant le reste des clients) pour les remercier de leur fidélisation. En résumé, fidéliser un client revient à augmenter la durée de temps qu’ils passeront aux côtés de votre marque et ainsi à augmenter le revenu moyen généré par chaque client.

collecte donnees clients programme fidelite

Vu différemment, mettre la priorité sur la fidélisation de vos clients, c’est réduire vos coûts marketing et publicitaires. Fidéliser un client est « moins cher » qu’en attirer un nouveau et l’investissement est meilleur puisque celui-ci reviendra. Un client avec qui vous entretenez une bonne relation, se chargera d’en parler autour de lui et vous ramènera d’autres clients. D’ailleurs, le bouche-à-oreille est souvent la meilleure des publicités.

Vous pouvez promouvoir votre programme de fidélité au sein de vos magasins. En tant que client, je vais voir un panneau m’invitant à bénéficier d’avantages financiers ou matériels ou alors c’est un vendeur qui m’en parlera, ou bien j’entendrais un message radio…

Quel impact attendre d’un programme de fidéliser sur l’embasement client ?

De ce qu’on voit sur le marché, on peut réussir à “embaser” de 5 à 50% des clients passant en magasin. Ce taux dépend évidemment du niveau de remise / avantage inclus dans le programme de fidélité. Et aussi beaucoup du niveau d’intensité du push marketing du programme. Cela peut passer via la signalétique en magasin, ou par des vendeurs (qui doivent être incentivés et formés au préalable).

A ce sujet, une enquête du groupe Nielsen montre que 92% des consommateurs se fient plus facilement aux  recommandations de leur entourage qu’aux messages publicitaires.

3 conseils pour construire un programme de fidélité

  1. Réduisez au maximum les frictions pour s’inscrire au programme de fidélité. Évitez un grand nombre d’étapes. En résumé, le plus simple = le mieux.
  2. Facilitez l’inscription au programme de fidélité depuis un téléphone (via SMS ou via une app). Vos clients pourront alors s’inscrire directement dans le magasin.
  3. Vous pouvez mettre en place un système de parrainage notamment quand la fréquence d’achat de vos clients est faible ; par exemple, lorsque vous vendez des produits de longue durée de type cosmétique.

 

Nous espérons que vous serez inspirés par ces méthodes d’embasement client. Au sein de vos magasins ou en ligne, vous avez maintenant un grand choix de méthodes pour récupérer des données clients.

Augmenter la rétention client grâce à l’analyse de cohortes

Peu de marketers maîtrisent l’analyse des cohortes alors qu’il s’agit sans doute de la méthode la plus puissante pour comprendre la rétention client et identifier les axes d’amélioration. Intégrer une analyse de cohortes dans un reporting de la rétention client vous permettra de franchir un gros cap.

L’objectif de cet article est de vous initier à l’analyse des cohortes appliquée au marketing et à la connaissance client. Nous allons vous présenter 3 méthodes pour faire de l’analyse de cohortes + 4 cas d’usage concrets pour vous donner un aperçu de la puissance de cet outil.

L’importance de l’analyses des cohortes en marketing

Analyse des cohortes : Définition

L’analyse de cohortes est une méthode consistant à suivre dans le temps et à comparer des groupes d’individus homogènes appelés « cohortes ».

La méthode est utilisée par exemple dans la recherche médicale pour analyser et comparer les effets de long-terme d’un traitement.

Mais elle est utilisée dans bien d’autres domaines, dont le marketing. C’est le sujet de cet article 🙂

Intérêt de la méthode en marketing

En marketing, l’analyse des cohortes permet de suivre dans le temps le comportement de groupes homogènes d’utilisateurs ou de clients. Elle est très intéressante pour analyser la rétention client et la lifetime value.

L’analyse de cohortes vous permet en effet de suivre l’évolution dans le temps d’un paramètre appelé « métrique » (taux de rétention, panier moyen, LTV etc.) pour un groupe de personnes établi de manière fixe (classiquement, tous les utilisateurs ayant réalisés leur premier achat un jour donné).

Cela vous permet donc de faire un focus sur ces « métriques » clés pour développer des revenus durables, sans être dupés dans l’analyse par une croissance du revenu total, provenant le plus souvent de l’acquisition de nouveaux clients, qui peut cacher des problèmes majeurs dans votre stratégie de rétention clients et d’accroissement de la LTV.

Demo_Octolis
Un des cas d’usage de l’analyse de cohortes en marketing : la mesure de la rétention client.

Comme dit le dicton, « ce que vous ne pouvez mesurer, vous ne pouvez l’optimiser ». Avec l’analyse de cohortes, vous allez donc désormais pouvoir :

  • Etudier la périodicité des achats et identifier les moments opportuns pour relancer vos acheteurs.
  • Identifier les fonctionnalités, les pages ou les modifications apportées qui améliorent la fidélisation de vos clients, mesurée par votre taux de rétention (c’est-à-dire sur 100 clients, le nombre qu’ils vous restent après une période donnée).
  • Construire un plan d’action pour améliorer l’engagement clients en fonction des fonctionnalités/produits les plus plébiscitées par vos utilisateurs.
  • Mettre en place un marketing efficace et bien ciblé qui ne suscitera pas l’acrimonie de vos utilisateurs.

Vous allez ainsi, par exemple, pouvoir identifier les meilleurs moments pour relancer vos acheteurs récurrents ou déployer efficacement des offres promotionnelles à vos clients existants en comparant les taux de rétention à la suite d’offres réalisées à des moments différents.

Mais concrètement, comment ça marche ?

3 méthodes pour mettre en place une analyse des cohortes sur sa base clients

#1 L’analyse de cohortes avec Google Sheets

Vous pouvez faire de l’analyse de cohortes en utilisant Excel ou GoogleSheets. Cet outil indémodable et puissant permet de construire des modèles de reporting avancés.

Comment ça marche concrètement ? Il s’agit dans un premier temps d’identifier le type de cohortes que vous souhaitez étudier : cohorte constituée par date d’acquisition ou cohorte de visiteur ayant eu un même comportement à une date donnée.

Ensuite, vous devez clarifier l’hypothèse que vous souhaitez tester (ex: la deuxième relance par mail augmente-t-elle les actes d’achats ou le panier moyen ?), ainsi que l’indicateur pertinent (ex: le panier total ou le nombre d’achats au cours d’une période donnée).

ProfitWell propose un template Spreadsheet pour faire de l’analyse de cohortes. Vous pouvez le télécharger gratuitement ici. Voici à quoi il ressemble :

ProfitWellCohortAnalysis

Ce Spreadsheet vous permet de visualiser l’évolution du revenu au cours du temps, en fonction de cohortes construites sur la date d’inscription.

Il vous suffit d’y renseigner dans l’onglet « transactions » les données que vous avez collectées et que vous souhaitez analyser, relatives par exemple aux transactions, ou aux désabonnements d’une newsletter. Le rapport d’analyse des cohortes sera automatiquement produit dans l’onglet dédié.

La prise en main de l’outil est très rapide, mais les possibilités analytiques sont limitées. Les formules n’étant pas cachées cela pourra vous permettre également de construire votre propre outil d’analyse sur tableur qui permettra de répondre aux besoins spécifiques de votre projet d’analyse, notamment en termes de construction des cohortes.

#2 L’analyse de cohortes avec Google Analytics

Le second outil à votre disposition pour mener une analyse de cohorte est Google Analytics,  déjà célèbre parmi les marketers, et qui propose désormais un outil d’analyse de cohortes, en version bêta, également facile à prendre en main.

Cet outil vous permet notamment d’appliquer directement des analyses en cohorte aux données recueillies par Google Analytics, relatives à votre site e-commerce.

Octolis_GoogleAnalytics_CohortAnalysis

L’outil d’analyse de cohorte se situe dans l’onglet « Audience » et nécessite que vous choisissiez l’indicateur qui vous parait pertinent (à renseigner dans le champ « métrique ») et la « taille de la cohorte », c’est-à-dire la période de temps élémentaire sur laquelle vous souhaitez travailler (jours, semaine ou mois).

L’essentiel est de choisir une taille de cohorte pertinente par rapport à l’hypothèse que vous souhaitez tester : optez pour un jour pour identifier des effets directs d’une relance client ou d’un changement apporté au site, optez plutôt pour le mois si vous souhaitez visualiser votre rétention client de long-terme.

Pour optimiser votre analyse de cohorte vous pouvez également ajouter d’autres segments à l’analyse (en haut de la page). Par exemple, vous pouvez identifier d’où viennent la plupart de vos utilisateurs en ajoutant des segments site web/mobile et ainsi identifier plus finement les éventuelles déperditions de clients potentiels.

Enfin, choisissez plutôt une « métrique » directement liée à votre capacité à susciter des actes d’achat plutôt que des « vanity metrics » (métriques vaniteuses) telles que les métriques de trafic. Ces dernières non seulement ne se traduisent pas forcément en chiffre d’affaires mais peuvent vous amener à prendre des mauvaises décisions comme l’explique Patrick Han dans son article dédié à l’optimisation de votre analyse de cohortes sur Google Analytics.

Cette méthode se confronte aux mêmes limites que la précédente avec des possibilités analytiques limitées. Google Analytics, ne permet notamment pour l’instant qu’un seul « type de cohorte » (champ en haut de la page) : la date d’acquisition, qui correspond à la première interaction de l’utilisateur avec votre ressource.

#3 L’analyse de cohortes avec Octolis

Octolis propose un outil vous permettant de réaliser des analyses de cohortes plus sophistiquées que Google Sheets ou Google Analytics. Vous pouvez notamment y suivre des cohortes clients avec pour métrique le nombre d’achats ou le chiffre d’affaires cumulé.

Demo_Octolis

Les principaux atouts de cet outil sont :

  • L’accès rapide à des données nettoyées et en temps réel.
  • La réconciliation des données online & offline, ce qui permet de consolider le chiffre d’affaire par client réalisé en ligne et en magasin. Cela étoffe l’analyse de cohorte en prenant en compte les effets d’attraction en magasin de votre stratégie e-commerce, et inversement.
  • La possibilité d’exploiter les données issues de ces analyses en temps réel dans les outils métiers pour déclencher automatiquement la bonne séquence email personnalisée ou de mieux recibler vos Ads vers de potentiels clients.

L’outil est également très ergonomique et facile à prendre en main, comme le montre la capture d’écran ci-dessus.

Comment exploiter une analyse des cohortes en Retail – Zoom sur 4 cas d’usage

Une fois l’analyse de cohorte réalisée, comment concrètement en tirer le plus utilement parti ? On vous donne quelques idées et exemples d’implémentation des conclusions d’une analyse de cohorte.

Premier cas d’usage – Comprendre le timing des achats

L’analyse des cohortes vous permet de comprendre quand vos clients reviennent naturellement et quelle est l’évolution dans le temps du contenu de leur panier.

Le premier usage de l’analyse de cohortes est donc de vous aider à optimiser le timing de vos campagnes post-achat afin d’accroître le taux de retour sur votre site au moment le plus opportun et de mettre en avant les produits les plus susceptibles de les attirer.

Vous pouvez y ajouter des catalyseurs de conversion tels que la livraison gratuite ou des offres promotionnelles.

Deuxième cas d’usage – Ajuster le budget d’acquisition (et le CAC)

L’analyse de cohortes grâce à des outils tels qu’Octolis vous permet d’optimiser votre retour sur investissement marketing en ciblant les bons types de prospects, les bons canaux d’acquisitions et les moments opportuns pour déployer vos campagnes d’Ads.

Vous pouvez ainsi concentrer vos budgets marketing en suivant les stratégies gagnantes identifiées et d’augmenter les acquisitions à budget marketing constant. Cela vous permet également d’investir davantage, en étant plus assuré d’un bon retour sur investissement de votre campagne publicitaire.

Cet enjeu est majeur dans la mesure où les coûts d’acquisition ont eu tendance à croître ces dernières années de l’ordre de 70 % dans les industries B2B et d’un peu plus de 60 % pour les marques B2C par rapport à il y a quatre ans, selon les chiffres compilés par ProfitWell.

evolution_cout_acquisition_profitwell
Evolution du coût d’acquisition ces dernières années

Troisième cas d’usage – Optimiser vos campagnes de remises

Une autre utilisation intéressante de l’analyse de cohorte est de vous permettre d’optimiser votre stratégie de remise.

Pour ce faire, créez d’abord deux segmentations de cohortes comportementales, l’une qui a acheté avec une remise et l’autre qui a acheté sans remise. Ensuite, comparez le comportement de ces cohortes au cours des 90 jours suivants (ou tout autre délai pertinent pour votre entreprise).

Vous pouvez commencer à voir si les remises permettent de fidéliser les clients ou si elles ne font que perdre des revenus sans accroître le taux de conversion ou le panier moyen.

Quatrième cas d’usage – Améliorer vos campagnes

Il est difficile d’estimer en amont l’efficacité d’une campagne de bienvenue ou d’une campagne post-achat, et les éléments qu’il est préférable de mettre en avant.

L’analyse de cohortes vous permet de mettre en concurrence différentes campagnes, en comparant le taux de conversion à plusieurs horizons de ces dernières et d’ainsi identifier les éléments qui en font le succès en termes de graphisme, produits mis en avant etc.

Vous pouvez rapidement établir un graphique des performances des différents segments sur les périodes de 30 et 60 jours suivantes et, en fin de compte, comprendre quelle série d’email de bienvenue/relance réussit le mieux à transformer les nouveaux visiteurs en clients réguliers.

Comment mettre en place du cross-selling en Retail/Ecommerce ?

Comment mettre en place des scénarios de cross-selling depuis son outil de Marketing Automation ? Épineuse question. Les outils de Marketing Automation vous permettent de mettre en place et de déployer plusieurs cas d’usages classiques.

Mais si vous souhaitez aller un peu plus loin, la tâche peut vite s’avérer complexe. Surtout quand on est une PME…Dans cet article, nous allons vous donner les clés pour franchir cette étape.

A quel moment faut-il envisager le cross-selling ?

La montée en régime du cross-selling moderne

Le cross-selling est devenu plus visible, et surtout plus intelligent à l’ère du digital. On pense naturellement aux recommandations produits d’Amazon (qui étaient responsables de 35% des ventes dès 2006…) ou aux bornes du McDonald’s qui nous poussent à ajouter une petite glace à la fin.

cross sell vs up sell
La plupart des retailers ont mis en place des recommandations produits sur le site web, voire par email également. On estime généralement que cela permet d’augmenter le panier moyen de 5 à 20%. La fourchette est large car l’impact du cross-sell est rarement mesuré correctement.

Pour augmenter le panier moyen, les moteurs de recommandations privilégient :

  • Des produits complémentaires au produit initial

produits complementaires cross selling

  • Des produits populaires (les produits les plus prisés par les clients passés)

produits populaires cross selling

  • Des produits pouvant générer un achat d’impulsion (juste avant la validation du panier)

cross selling produits impulsifs

En revanche, si ce sont les meilleures recommandations à court terme, ce ne sont pas forcément celles qui augmentent la valeur de vie à long terme. A long terme, ce ne sont pas les clients qui ont acheté un sac avec leur ordinateur qui seront les meilleurs clients, ce sont plutôt ceux qui ont auront acheté un ordinateur, un livre et une place de spectacle.

Différencier cross-selling et diversification produits

La diversification produits est une stratégie de cross-selling de long terme. L’objectif est d’augmenter le nombre de catégories différentes dans lequel un client a acheté au moins un produit. On peut aussi le formaliser différemment, l’objectif est d’augmenter la part de clients qui ont acheté au moins un produit dans plus de N catégories.

Cette deuxième formulation est souvent plus pertinente car il n’y a pas d’intérêt à pousser un client à tester toutes les catégories, l’enjeu c’est plutôt d’atteindre un niveau minimum de diversification chez davantage de clients.

cercle vertueux cross selling

Quand on analyse des bases clients de retailers, on se rend compte que les clients « multi-catégories » représentent très souvent une grosse partie des clients dépensant le plus ET des clients les plus fidèles. Ce sont des clients qui ont développé une véritable relation de confiance avec la marque. On parle ici d’une corrélation et non d’une relation de cause à effet, c’est un cercle vertueux qu’il faut alimenter.

Les clients satisfaits par leurs premiers achats, dans une ou deux catégories, seront plus enclins à découvrir une nouvelle catégorie de produits. Et si ce nouvel achat s’avère satisfaisant, ils achèteront désormais plus facilement dans d’autres catégories de produits, et ainsi de suite.

Attention toutefois à ne pas généraliser trop vite. Les opérations de cross-selling, ou de diversification produit, sont toujours rentables globalement, mais pas forcément pour tous les clients. Si vous poussez une nouvelle catégorie de produits à un client mécontent, cela pourrait s’avérer négatif. Voici une belle étude qui illustre les limites du cross-selling pour certains profils clients.

Quand faut-il investir sur la diversification produit ?

C’est une démarche qui fait davantage sens quand :

  • Vous avez plus de 40% de vos clients ayant réalisé plus de 2 achats qui ont acheté dans plus de 2 catégories de produit différentes.
  • Les clients multi-catégories ont une LTV  au moins 30% supérieure aux autres. Vous pouvez comparer les clients de plus 2 ans ayant acheté dans 4+ catégories différentes par rapport à ceux ayant acheté dans 1 ou 2 catégories différentes.
  • Vous pouvez vous permettre d’attendre un an pour mesurer les fruits du travail.

Comment mettre en place du cross-selling ?

Prérequis pour mettre en place une stratégie de cross-selling :

Sources de données

  • Liste des clients
  • Achats réalisés
  • Produits achetés
  • Matrice de complémentarité entre catégories

Outils

  • Marketing Automation
  • Outil de transformation de données (comme Octolis ;-))

#1 Construire une matrice de cross-selling pour identifier les opportunités

Pour définir quelle(s) catégorie(s) de produits il faut recommander, la première étape c’est d’observer les corrélations historiques. Les clients ayant acheté dans la catégorie A ont-ils davantage acheté de produits dans la catégorie B, C ou D ?

Pour cela, on vous invite fortement à commencer par formaliser une matrice de cross-sell par catégories. Pour que les chiffres soient plus signifiants, on exclue généralement les clients ayant réalisé un seul achat.

Voici à quoi cela peut ressembler :

matrice cross sell
Dans l’exemple, on voit qu’il y a 54 230 clients ayant acheté au moins un produit de la catégorie A, et parmi eux, 22,7% ont également acheté un produit de la catégorie D. On ne sait pas si c’est avant ou après, mais on observe une corrélation.

#2 Construire une deuxième matrice avec les catégories recommandées

L’objectif est de construire le tableau qui permet de définir pour chaque client, quelles sont les catégories de produits à recommander en fonction des catégories de produits dans lesquelles il a déjà acheté.

La première matrice doit nous servir de base pour ce travail. Si on observe que 30% des clients ayant acheté dans la catégorie A ont aussi acheté un produit de la catégorie C, alors qu’ils sont 5% à avoir acheté dans la catégorie D, on a envie de recommander la catégorie C aux clients ayant acheté dans la catégorie A.

A nuancer néanmoins, car la connaissance de votre métier peut vous amener à faire des corrélations de produits qui ne sont pas encore observables dans l’historique d’achat. Les raisons peuvent être diverses :

  • Il peut s’agir d’une nouvelle catégorie de produit, donc peu d’historiques de données
  • Il peut s’agir d’une catégorie de produits très transversale plus facile à pusher,
  • Il peut s’agir d’une catégorie de produits avec une forte marge, etc.

Il y a plusieurs manières de construire cette matrice. Au départ, on recommande souvent que cela reste simple, tout en donnant un peu de souplesse aux responsables produits souhaitant faire évoluer les recommandations. Cela peut prendre la forme d’une note de 0 à 10 qui évalue la sensibilité d’un client d’une catégorie pour les autres catégories.

Voici à quoi peut ressembler la matrice de recommandation de catégories.

matrice recommandation de produits

#3 Ajouter des champs calculés par client pour avoir le nombre et la liste des catégories

Une fois ce travail réalisé au niveau des catégories, on peut commencer à travailler par individu. On commence généralement par calculer pour chaque individu :

  • Le nombre de catégories de produits dans lequel il a acheté au moins un produit. Ce sera le KPI à améliorer qui sera suivi dans le temps.
  • La liste des catégories dans lesquelles un produit a déjà été acheté.

#4 Ajouter un champ calculé avec les catégories recommandées

On arrive à l’étape la plus complexe, il s’agit de créer un champ calculé avec les catégories à recommander en priorité. La démarche est relativement simple, on part de la liste des catégories dans lesquelles un produit a été acheté, et pour chacune de ces catégories, on regarde dans la matrice de complémentarité quelles sont catégories à suggérer.

Généralement, on prend les 2 catégories les plus corrélées à condition qu’elle dépasse au moins X% de corrélation dans la première matrice. On aboutit à la fin à une liste de catégories complémentaires aux catégories initiales.

Pour faire ce travail correctement, il faut aussi intégrer une logique de poids, afin d’être en mesure de prioriser la liste des catégories obtenue à la fin. Si un client a acheté 10 produits de la catégorie A, et un seul de la catégorie B, il est préférable de lui recommander des catégories de produits complémentaires de la catégorie A plutôt que de la catégorie B.

#5 Inviter les clients à découvrir les catégories complémentaires

Le plus simple est d’utiliser le canal email, mais il est tout fait possible de pusher les catégories complémentaires sur le site web ou dans vos publicités. Pour cela, il faut envoyer les champs calculés définis dans les étapes précédentes dans votre outil de Marketing Automation, et créer un scénario pour faire découvrir les catégories complémentaires.

Ce type de scénario est souvent restreint aux clients ayant déjà acheté plusieurs fois, dans plus de 2 catégories différentes. Il peut être déclenché X jours après le Nème achat (N > 1), à condition que le nombre de catégories dans lequel le client a déjà acheté soit supérieur à 2.

Dans une même séquence, on peut décider de pousser une ou plusieurs catégories, tout dépend du type de produits / services. Plus les produits sont chers, et supposent d’être bien présentés, plus on privilégie de présenter une seule catégorie de produits par message. L’email peut introduire la catégorie avec un zoom sur les 3 produits populaires de cette catégorie, et un code promo restreint sur la catégorie si cela fait sens.

Déployer en temps réel le cross-selling tout en gardant la main sur vos données

Auparavant, le déploiement de ce type de cas d’usage nécessitait l’appui de l’équipe technique, qui a une bande passante déjà bien remplie, ou l’allocation d’un budget spécifique pour faire appel à une agence. On était proche du lobbying interne.

L’étape d’après consistait à suivre le projet. Mais les échanges étaient souvent chronophages, laborieux et asynchrones. Autant vous dire que tout changement de stratégie pouvait nécessiter plusieurs semaines voire plusieurs mois de concertation avant d’être finalement adopter ou rejeter.

Aujourd’hui, il existe des CDP comme Octolis qui vont vous aider à :

  • Connecter vos sources de données afin d’avoir une vue unifiée

  • Créer une audience avec vos contacts, vos achats et vos produits et le GSheet matrice catégories
  • Exécuter rapidement en no-code (ou via requêtes SQL si un jour vous disposez d’une compétence data dans votre équipe) vos champs calculés « simples » :
    • Nombre de catégories où un achat a été réalisé
    • Liste des catégories où un achat a été réalisé
  • Ajouter le champ calculé avancé « Recommandation catégories »

  • Déployer vos cas d’usage en temps réel dans vos outils de Marketing Automation (Klaviyo, MailChimp, Braze…). Tout en vous laissant un niveau de contrôle et de transparence total.

Octolis s’appuie sur la logique de poids – évoquée précédemment – mais également sur d’autres données (en option) comme les pages visitées pour affiner et personnaliser la pertinence de la recommandation produits. CDP accessible pour les PME, Octolis permet aux équipes marketing de gagner en autonomie en en contrôle sur leurs données.

Choix Prestataire Data – Top 100 des agences et cabinets de conseil

Les prestataires data (cabinets de conseil, SSII, agences) sont de plus en plus nombreux. Leurs périmètres d’action sont larges et tous ne sont pas experts dans les mêmes domaines.

On peut faire appel à une agence data pour beaucoup de sujets différents : Data Management, BI, Web Analytics, ou encore Data Science.

Des terminologies plus ou moins claires qui laissent planer le doute quant aux compétences qui leur sont associées. Choisir le bon prestataire, dont l’expertise correspond à vos besoins est difficile dans un écosystème si hétérogène.

Nos clients font souvent appel à ces prestataires lorsqu’ils structurent leur dispositif data. On croise beaucoup d’acteurs différents et on a eu envie de vous faciliter la vie.

Résultat : Un top 100 (rien que ça!) des prestataires data au niveau français, classés par domaines d’expertise.

Choisir un prestataire pour un projet de Data Management

Le rôle d’un prestataire en Data Management

La notion de Data Management fait référence à l’ensemble des processus liés à l’intégration, au stockage, à l’organisation et à la maintenance des données que crée ou collecte une entreprise.

L’objectif d’une stratégie de Data Management est de standardiser, dédupliquer et désiloter des données issues de sources différentes et donc de formats très variés. Ces données saines et exploitables sont ensuite mises à la disposition des outils d’activation et d’analytics pour améliorer la performance opérationnelle et la prise de décision ‘data-driven’.

Plus concrètement, le rôle d’un prestataire spécialisé en Data Management consiste à cartographier les flux de données en fonction des objectifs métiers, et à aider à faire les bons choix en termes de dispositif data. Ce prestataire intervient en amont de l’activation : sur l’ingestion et la transformation des données.

Sélection d’un prestataire en Data Management

NomDescriptionSpecialitésNombre d'employés
Meet Your PeopleMeet Your People c’est une équipe de consultants CRM indépendants basée à Paris.Notre mission ?Vous conseiller et vous accompagner dans la mise en œuvre d’une stratégie CRM éthique, responsable et performante. Donnons du sens à vos actions ! CRM , marketing , Marketing client , data, digital, connaissance client, expérience client, feedback management, voice of customer, parcours client, marketing automation, customer journey3
UnNest - Agence Data MarketingA la frontière de la Tech et de la Data, UnNest accompagne les équipes marketing in-house ou en agence pour utiliser au mieux leur donnée "First party".Nous mettons en place pour nos clients une équipe data externalisée, capable de délivrer des projets et des applications data en un temps record pour les marques, les "scale up" et les agences de marketing digital.Analytics, Data Consulting, Digital Analytics, Data Marketing, Cloud Data Warehouse, RGPD, Data Engineering, Data Analysis, Tracking, Google Big Query, Fivetran, Google Cloud Platform, ETL, Martech11
CartelisNotre culture business alliée à notre forte expertise technique nous permet d’accompagner avec succès les organisations dans l’organisation, le paramétrage et l’exploitation des outils de webanalyse.Web Analytics14
Real Consulting DataReal Consulting Data is a digital and data science company dedicated to healthcare. It helps stakeholders accelerate their decision-making through a structured data ecosystem. Business Intelligence, Real world evidence data, Market Research, Open Data, analytics, Real life data, Big data, Smart data, Health data, Data science, Datamining, Consulting, Market Access28
CustUpCustUp est un conseil opérationnel en Relation Clients.Nous structurons et mettons en œuvre le Marketing Clients et les schémas de dialogue des entreprises.Pour ce faire, nous utilisons le CRM, le Marketing Automation et les Centres de Contacts.CRM, Centre de contacts, Abonnement, Marketing client, Relation client, Parcours Client, GDPR, RGPD, DMP, Données Client, Service Client, Automated marketing, Formation Relation Client, Plan Relationnel, RCU, CDP, Marketing Automation, Marketing, Marketing Opérationnel, AMOA, AMOE, Consultant, Conseil, Agence, Cabinet Conseil, CX, CMJ, Parcours Client, GRC, PRM, Fidélisation, Programme Fidélité29
ADBIRéinventer les processus métiers, optimiser les systèmes d’information ou rendre les nouvelles technologies de l’information et de la communication accessibles et efficaces pour toutes les entreprises.Business Intelligence, Big Data, Master Data Management, Expertise TALEND, BI59
SingulierCombining business consultancy, digital design thinking, marketing, technology and data to rapidly solve complex business problems for CEOs, their executives and investors. Digital strategy, Digital transformation, Innovation, Data, UX, CRM, Branding, Digital marketing, Digital IT, Change management, Digital coaching, E-commerce, Due diligences72
ADDINNADDINN est un cabinet de conseil et d'ingénierie en systèmes d'informations, spécialisé dans les secteurs de la Banque, de l'Assurance et de la Grande Distribution.Pilotage / Gouvernance des projets, Transformation SI, Big Data, DevOps, Assistance Technique, Cartographie des processus, Digital & Software Factory75
Keley ConsultingFrom strategy to roll-out, from ideas to reality. Keley helps start-ups to grow and big companies to become start-ups again. We offer an integrated approach that combines Strategy, Data, Consulting, Technology and Design, with smart profils.Stratégie digitale, Omnicanal, Stratégie & expérience client, E-commerce, CRM, Pilotage de projets, Stratégie data, Open Innovation, Acquisition, SEO, UX & Design thinking, Design d'interface, CRO, Branding & communication, Data-driven marketing, Intelligence augmentée, Ingénierie83
eFrontecheFrontech, société de conseil et intégrateur spécialisé, accompagne la mise en œuvre de solutions digitales au service de la relation client et de l’intelligence des données.CRM, Salesforce, SIEBEL, BI, Oracle Sales Cloud, Rightnow, OBIEE, Oracle CRM On Demand, Cloud, Salesforce Sales Cloud, Salesforce Service Cloud, Salesforce Marketing Cloud, Microsoft, Dynamics CRM, Oracle Marketing Cloud, Eloqua, Pardot, Data, IA99
DataValue ConsultingDataValue Consulting est un cabinet de conseil IT qui accompagne les entreprises des secteurs privé et public dans la valorisation de leur data.Le cabinet spécialiste s'appuie sur une double compétence de ses consultants en management et en technologie.Conseil, Stratégie IT, Big Data, Data Management, Pilotage de la performance, Business Intelligence, EPM, Saas, Management, Technologie, AMOA, Expertise technologique, Data Marketing, Data, Données, Gouvernance de la Data, Consulting, Stratégie, Digital, Finance, Datavisualisation, Data Management, Data Intégration104
Rhapsodies ConseilNotre mission consiste à accompagner nos clients dans leur transformation, depuis la définition de la stratégie des systèmes d’informations jusqu’aux étapes de mise en œuvre opérationnelle et d’accompagnement du changement.Transformation Agile, Transformation DATA, Architecture SI, Architecture d'Entreprise, Pilotage des Transformations, Performance Economique IT , Internal Digital Experience, Sourcing & Vendor Management, Monétique, Paiements, Architectures Innovantes, Gouvernance & Transformation du Run, Risques, Réglementaire & Conformité107
TALYSTo better serve its clients, the firm is organized around 3 Business Units:• The Consulting Business unit, The Solutions Business unit, .• The Expertise Business Unit.Assistance à la maîtrise d'ouvrage, Organisation / Business process management, Conduite du changement, Data Cleansing, Choix de solutions, Risk Management, Digital Transformation, Design Thinking, BI, Nearshoring, Fintech, Credit Management System, Microfinance solutions, Stratégie RH114
Apgar ConsultingApgar Consulting is a leading data advisory company, recognized by Analysts, that supports its customers in their journey to build a foundation for trusted data. MDM, Data Governance, DQM, Data Migration, Information Strategy, Metadata Management, API, iPaaS, Master Data Management, Data Integration, Data Integration, Meta Data Management, Data Preparation, UX Design, Data visualization, TIBCO, EBX, Data Virtualization, Semarchy, Boomi, Data Catalog, Data Platform, Data Fabric, Data Architecture, Data Advisory126
TVH ConsultingFounded in 2003, TVH Consulting is an international independent software company specialized in systems integration, business consulting and hosting of major international ERP solutions. ERP Expert, Advanced Distribution for Microsoft Dynamics AX, Microsoft Dynamics AX, Systems integration, Multichannel strategy, Microsoft Dynamics 365, SAP S/4 HANA, Cadexpert, Cloud148
Kea & PartnersKea & Partners est le premier cabinet européen de conseil en stratégie "Entreprise à Mission", au sens de la loi Pacte, également membre de la communauté B Corp. Depuis 2001, nous œuvrons aux côtés des directions générales à un capitalisme à visage humain. stratégie & croissance, transformation, transformation responsable, Business Models, Performance & compétitivité, Management & leadership, Excellence opérationnelle, Gouvernance & structure, Entreprise à Mission, B Corp, Impact, Responsabilité, Innovation, Digital, Data, Systèmes d'information, Sociodynamique, Actifs Immatériels, Stratégie220
KeyrusCreator of value in the era of Data and DigitalKeyrus helps enterprises take advantage of the Data and Digital paradigm to enhance their performance, assist them with their transformation and generate new levers for growth and competitiveness.Management & Transformation, Data Intelligence, Digital Experience2387
Business & DecisionBusiness & Decision is an international Information Services Company, specializing, since its creation, in operating and analyzing Data.Data, Digital, CRM, Digital Transformation, Data Science, Data Visualisation, Gouvernance des données, Intelligence artificielle, Protection des données, Green AI, Data Mesh, Customer experience, Data Intelligence, Data Architecture, Customer Management, Data Cloud, RGPD2919
Gfi worldGfi became Inetum, Poisitive digital flow. Present in 26 countries, Inetum is a leading provider of value-added IT services and software. Inetum occupies a differentiating strategic position between global firms and niche entities. Consulting, Applications Services, Infrastructure Services, Software, smart cities, IoT, Blockchain, DevOps, artificial intelligence, Industry 4.0, Digital Transformation, Outsourcing, Cloud, Innovation, Application Management, Cybersecurity, data management, digital banking, digital retail4706

Quelles sont les différentes composantes de la stack data moderne ?

Vous souhaitez en savoir plus sur les outils et les briques de la stack data moderne ? Nous avons rédigé un article complet sur le sujet qui vous permettra d’y voir plus clair. Découvrez notre introduction à la stack data moderne.

Choisir un prestataire pour un projet BI

Le rôle d’un prestataire BI

L’objectif de la « BI » ou Business Intelligence est de transformer des données brutes en leviers d’actions pour l’entreprise afin d’orienter les prises de décisions.

Un prestataire en BI va donc s’attacher à rendre les données plus accessibles et lisibles à travers des dashboards ou reporting.

Un bon prestataire en Business Intelligence est très souvent un profil hybride, doté d’une double casquette :

  • Technique – Challenge la fiabilité des données, propose de les auditer si besoin, capable de traiter les données si besoin. Solide connaissance des principaux outils (Tableau, Power BI, Qlik) et vision ‘fonctionnelle’ pour vous proposer la meilleure approche.
  • Métier – En mesure de se mettre à votre place pour parfaitement saisir vos enjeux et vos objectifs quotidiens. Étudie vos fonctionnements et process à travers des interviews poussés avec les utilisateurs de la solution en question.

Sélection de prestataires BI

NomDescriptionSpecialitésNombre d'employés
MFG LabsMFG Labs is a data consultancy and implementation company that supports companies in improving their decision-making, automating their processes and creating new services through data science, design and cutting-edge technologies.Data analysis, Interaction design, Strategic consulting, Data science, Infrastructure, Development, Data engineering, Web analytics, Digital media, machine learning, deep learning, artificial intelligence, Operational research, big data, software development, Cloud, UX design, Decision-making tool, Statistics, applied mathematics, AI, reinforcement learning, optimisation, Data Strategy, logistics, media, decision making24
SmartpointSmartpoint est un acteur indépendant du conseil et des services en technologies de l'information, spécialisé en e-business, Customer Relationship Management et Business Intelligence.Data, IA, Machine Learning, Deep Learning, Data Management, Cloud data platforms, Data insights, Devops, Data Quality Management, Business Intelligence, Smart Data, Data lake, Datawarehouse, Analytics, développement, Data Pipeline, Big Data, Data visualisation, Azure, AWS, GCP, Microstrategy, Qlik, Talend, Microsoft, Power BI, Tableau, Thoughtspot, MongoDB, Tibco, .NET, Angluar, Teradata, SGBD, IBM, Oracle50
MLMConseilMLMCONSEIL est une société de conseil et de développement en ingénierie informatique, qui a pour but d'apporter une réponse fiable et innovante aux attentes des entreprises en tenant compte de leurs besoins et enjeux stratégiques.Business Intelligence, ERP & CRM, Sécurité & Réseaux, Les Métiers AMOA & AMOE, Big Data, BI, ESN, SI, Intégration de système , Data Science51
ActinvisionFounded in 2014, Actinvision strives to give you the means to analyze and generate value from your data, helping your organization adopt a data driven culture.Business Intelligence, Data Integration, Data Visualization, BI Applications, Tableau Software, Analytics, Data Prep, Alteryx, Data Science, Self Service BI, dataiku, Datawarehouse, Snowflake, Power BI, Matillion, Talend, Informatica64
SolutionecSolutionec – Solution Excellence Center – is a Paris-based business intelligence and analytics consulting firm that delivers ambitious and innovative solutions for the leading players in the healthcare and life sciences industry worldwide.Business Intelligence, Data Science, Analytics, Market Access, Forecasting, Sales Force Effectiveness, Performance Reporting, Market Assessments, Artificial Intelligence, Project Management, Marketing & CRM Analytics, Key Opinion Leader Analytics, Competitive Intelligence, Social Media Monitoring and Analysis, Data Managment74
TRIMANE | Expert BI et Big DataFondée en 2005, TRIMANE est une société de services à taille humaine (82 collaborateurs), experte dans le domaine de la BI et du Big Data.BI , Décisionnel, Big Data, Datavisualisation, Data Science, Data Analyse, Cloud, Data Engineering , IA76
NEOSYSNeoSys est un cabinet de conseil spécialisé dans la transformation digitale des entreprises.Gestion de projet, Conseil en systemes d'information, Developpement informatique, Externalisation / Offshoring, BI & Data, Business Solutions, ERP, CRM, CMS, DevOps, Business Productivity80
RS2iChez RS2i, nous avons à cœur de réaliser votre transformation digitale, et ce, grâce à notre expertise acquise de longue date.📝 ➟ 💻Depuis 30 ans, RS2i est reconnu comme le spécialiste de l’ingénierie informatique et intégrateur de solutions logicielles. Transformation digitale, BPM, ECM, Big Data, BI, ERP, Case Management, Gestion de projets, Business consulting, Systèmes d'information, Ingénierie, Smart automation, OPCO, GED, IA, RPA, Data Virtualization, DATA89
Elevate | Agence Data & Technologies MarketingElevate, agence conseil spécialiste en Data Marketing, Data & Tech et Consumer & Market Insights. Nous intervenons à la croisée du conseil et de la mise en oeuvre opérationnelle sur des projets Digital & Data en délivrant un accompagnement bout-en-bout.Marketing, Webanalytics, Digital Analytics, Conversion, Adtech, Martech, Datalake, DMP, CRM, Digital Consulting, Data Consulting, Marketing Automation, Tracking, AB Test, Dashboard, Attribution, Analytics, Big Data, Data, Data Visualization, Data Science, CRO, MVT, Data Analysis, Personalization, Data Engineering, Social Listening, Customer Voice91
MydralMydral est une Data Company. Notre mission est d’utiliser l’Analytics comme levier de transformation de l’entreprise. Nous démocratisons les outils de Data Prep et de Data Viz en les rendant accessibles à tous.Business Intelligence, Business Discovery, Data Discovery, Projets BI Agile et Big Data, Formation et création de centres de compétences BI, Big data, BI Agile, Preuve de concept, Tableau Software, Centre de formation Tableau Software et Alteryx, Intelligence Artificielle, IA, Analytics, DataPrep, DataViz, DataScience93
POLARYS"Offrir la meilleure expérience analytique à nos clients"​.POLARYS est spécialisé dans le conseil, la conception et la mise en œuvre de projets décisionnels, Créée en 2004 par Eric Guigné, la société compte aujourd’hui plus de 160 collaborateurs qui conjuguent expérience métier et maîtrise des technologies.Business Intelligence, Big Data, TMA, EPM, Conseil & Intégration, Pilotage de la performance, Reporting, Budgeting, Analyse, Pilotage de la masse salariale, Contrôle de gestion social, Gestion des rémunérations variables, Schéma directeur SI, AMOA, data science, datavizualisation, BI98
KYUKYU Associés, cabinet de conseil en Management vous accompagne sur vos enjeux de croissance, d’efficacité et de maitrise des risques.Créé en 2002, KYU compte aujourd’hui plus d’une cinquantaine de consultants à Paris, Londres et Cologne au service de grands groupes français et internationaux.Offre et Expérience Client, Opérations, Risk Management, Customer Relationship, Change Management, Achats, Supply Chain, Lean Management, Etudes prospectives, Développement Produits, Assurance, Consulting, Systèmes d'information, Cyber, Business Continuity, Développement Produit, RSE, SAV, BI, Achats, Emploi, Formation, Compétences, Développement Durable101
ANAYAAnaya a été créée en 2005 avec la Business Intelligence comme cœur de métier qui a naturellement évolué vers les technologies du Big Data.Conseil, SSII, Risk, Décisionnel, Business Intelligence, Marketing Intelligence, Big Data, MOA Banque107
DecideOm - Expert Data100% Data // Analysez mieux, Décidez plus vite. DecideOm vous donne les moyens de transformer vos données en indicateurs pertinents, pour faciliter le pilotage de votre activité et optimiser vos performances.Informatique décisionnelle, Elaboration budgétaire, Qlik : Qlik Sense, QlikView, Business Intelligence, Tableau Software, ETL, Datavisualisation, MyReport, Analyse cartographique, Reporting, Stambia, Jedox, NPrinting, Talend, Snowflake, Alteryx, Datapreparation, Data-Science, Prédictif, KPI, Indicateurs de performance110
Augusta Reeves - SAP Global PartnerAugusta Reeves was founded in 1998 as an IT services company with three areas of expertise: 1. Integration of SAP solutions- Back-office solutions ECC 6.0 (all modules) 2. The integration of Electronic Document Management (EDM) solutions 3. The integration of SOA architectures and new associated technologies.SAP, ERP, ECC, CRM, Hybris, SCP (SAP Cloud Platform), SAC (SAP Analytics Cloud), Cloud, Innovation, Transformation Digitale, Conseil Système d'Information, S/4 Hana, S/4 Hana Cloud, C/4 Hana, SAP Business ByDesign, Ingénierie & Services, Construction, Wholesale, BI Décisionnel, BTP, FIORI128
Siderlog ConseilCabinet de conseil - Transformation des Métiers- Performance des organisations- Valorisation des donnéesConseil en management, organisation, RH, Conseil en management des SI, Conseil opérationnel SI - AMOA, Management de projets, Conduite du changement, Business Intelligence / Big Data, Digitalisation, digital143
CylleneChez Cyllene, on couvre le spectre complet de votre besoin en termes de :📣 Conseils🧬 Définition d’architectures☁️ Hébergement & Services managés🔐 Cybersécurité & Formations♟ Déploiement de technologies applicatives et web🎲 Data Intelligence & Data Analytics.Hébergement, Infogérance, Infrastructure, Cloud, Amazon Web Services, Microsoft Azure, Hybridation, Gestion globale de la sécurité, Audit, Réseaux, Délégation technique, Services Collaboratifs, Poste de travail, Développement d'applications, Marketing digital, Développement de sites internet220
AVISIAFounded in 2007, AVISIA has become over the years a leading player in Data, Digital & Technologies.Through a passionate team, we are specialized in Consulting, Integration and the realization of Data Centric projects.Business Intelligence, Performance Analytique, Big Data, Conseil & AMOA, Data Science, Digital, Data Engineering, Décisionnel, Web Analytics, Google Cloud Platform, Dataiku, SAS, Google Analytics226
MicropoleMicropole partneres its customers in the creation of high value-added projects by helping them in their transformation at organizational, functional and technical levels.consulting, engineering, training, e-commerce, relation client, business intelligence, transformation digitale, pilotage de la performance, gouvernance des données, master data management, connaissance client, élaboration budgétaire, big data, Digital Experience, Data intelligence1269

Les meilleurs outils de BI

Quelles sont les différences entre un outil de data viz et un outil de BI ? Quels sont les meilleurs outils ? Comment les comparer ? On répond à toutes ces questions comparatif des meilleurs outils de Data Viz.

Choisir un prestataire pour un projet Web Analytics

Le rôle d’un prestataire Web Analytics

L’analyse Web est le processus de collecte, de traitement et d’analyse des données d’un site Web.

Les compétences que vous devez attendre de votre agence d’Analytics sont les suivantes :

  • Analyse de l’activité de vos utilisateurs sur votre site web via des outils de tracking (Google Analytics, Matomo, Jitsu).
  • Définition des KPIs à analyser, des objectifs à atteindre et d’un plan de taggage, qui permettront de visualiser l’activité en ligne.
  • Cartographie du parcours utilisateur et optimisation de l’UX / UI.
  • Identifier les canaux et les actions pour générer plus de trafic : Social Ads, Search Ads, SEO.
  • Optimiser la conversion on-site via des outils comme Optin Monster et de l’AB Test.

Cela nécessite bien sûr d’être très proche des équipes métiers et d’avoir une très bonne compréhension des enjeux business.

Sélection de prestataires en Web Analytics

NomDescriptionSpecialitésNombre d'employés
BorylDu conseil à la mise en œuvre opérationnelle, nous permettons aux entreprises de toute taille disposant d’un business en ligne de booster leur croissance en collectant et transformant leurs données marketing (analytics, média, CRM, back-office, etc) en actions concrètes et intelligentes.6
StratelloExpert du conseil et de l’accompagnement en stratégies marketing clients omni canal, notre mission a pour objectif d’accélérer vos performance business grâce à une meilleure Expérience client.Marketing clients, Omnicanal, Crosscanal, Multicanal, Parcours clients, ROI, Retail, CRM, Marketing web, Cabinet conseil, Conseil, Consulting, Consultant, Conseil marketing, Relations clients, persona, RGPD, marketing automation, design thinking, automobile, programme de fidélité, tourisme, banque et assurance, Experience client12
TrackAdTrackAd develops technologies to improve the performance of digital advertising campaigns.They address the challenges of recruiting new customers, monitoring ROI, analyzing contribution and automating data collection.eCommerce, Data Management Platform (DMP), ROI, Performance Marketing, Analytics, Predictive Marketing, Tag Management, Data-driven Marketing, Acquisition, CRM, Machine Learning, Artificial Intelligence, Data Collection, Advanced Algorithms, Affiliation, Fraud Detection, Marketing Campaigns, Qualified Leads37
Peak AcePeak Ace, l'agence SEO & SEA accompagne ses clients dans l'acquisition de trafic qualifié issu des moteurs de recherche.SEO, Référencement, Web Analytics, Web marketing, SEM, sea40
NewQuest"We are a full service digital agency!"​ à la française...For 11 years NewQuest has been providing web and digital services to clients all over the world. E-marketing, Web Analytics, E-commerce, Internet solutions, IoT, Connected Objets, Web Development, Webdesign, UX Design, Video, Event, Digital Strategy, PrestaShop, MailChimp, WordPress, Motion Design41
DigitalkeysEn 2008, Thierry Decroix et Sandra Retailleau décident de créer Data Filiation qui deviendra très vite Digitalkeys, agence experte en business digital. 2 serial entrepreneurs, passionnés du web qui ont déjà compris à l’époque le tournant du digital.Business digital, e-commerce, SEO, SEM, AFFILIATION, E MAILING, PRM CRM, collecte de leads, Native Ads, sea, Référencement naturel, Liens sponsorisés, Programmatique, Web Analytics, Web Influence, Social Ads, Formation, Webmarketing, Retargeting, stratégie de contenu, Google Adwords, Formation, RTB, Google Partner Premier, TV, Content Marketing55
WAISSOFondée en 2003 par des professionnels du Marketing et du Data, Waisso est une agence digitale spécialisée dans l’optimisation du marketing client en alliant technologie, data et contenu pour une approche plus innovante.MARKETING CRM, MARKETING CLOUD, ADOBE PARTNER, SPRINKLR, GIGYA, DIGITAL MARKETING, CROSS CHANNEL, ACQUISITION, FIDELISATION, ORACLE, CAMPAIGN MANAGEMENT, CONSULTING, ANALYTICS, SEGMENTATION, CONTENU DIGITAL, BIG DATA, SOCIAL MEDIA, BUSINESS INTELLIGENCE, MOBILE MARKETING, ACQUISITION72
1ere Position1ère Position is a team of passionate experts living the Internet culture since 1999.SEM (Search Engine Marketing), SEO (Search Engine optimization), smo, SEA (Search Engine Advertising), webmarketing, web marketing, Référencement naturel, social marketing, Google Adwords, Google Analytics, Facebook Ads, Twitter Ads, Linkedin Ads76
ESV FRANCEESV (previously eSearchvision) is a Digital Marketing Agency specialising in Search Marketing, Social Media, Data Analytics, Branding / Creative and Strategy Consulting Services. We are international specialists with over 12 languages spoken.Search Marketing, Display Advertising, Mobile Advertising, Social Media Advertising, PPC, Performance Marketing, Marketing, International Campaign Management, Consultation, Services, Landing Page Optimization, RTB, Performance Display, Remarketing, Attribution Modeling80
PIXALIONE | SEO, SEA, SMA & DATAPIXALIONE est une Agence Search Marketing (SEO, SEA, SMA) & Web Analytics propriétaire d’une suite logicielle unique au monde issue de partenariats avec des écoles et universités comme le CNRS, ENPC, Centrale Paris, l'Universitat Politècnica de València.SEO, SEA, Stratégie, Data Analytics, Refonte (SEO), RP Digitale, Content, Search Engine Analysis, Internet Marketing, Competitive Analysis, Keyword Analytics, Brand Monitoring, Content Analysis, Keyword Research, Backlinks Analysis, Netlinking, Référencement Naturel, Référencement Payant, Acquisition, Trafic, socialmedia, socialads, sma, social81
RnDAgence conseil en marketing digital organisée autour de trois métiers : • Conseil et réalisation de stratégies internet • eMarketing • Développements techniques spécifiques (back office, intégration systèmes d'information, reporting)Marketing digital, Développement web, e-Commerce, SEO, SEA, SEM, Social ads, Gestion de projet, Identité graphique, UX Design, UX Design, Content marketing, Stratégie de marque, Planning stratégique, Webmarketing, Acquisition d'audience, Social media, CRM, E-réputation, Analytics89
ExperteamExperteam est une société de conseil et d’expertise IT qui accompagne et accélère 🚀 la transformation digitale des entreprises et des organisations.Digital Workplace, Cloud computing, Data Analytics, IoT, Conseil, Intégration, Industrialisation, Transformation Digitale, Déploiement, Exploitation, MCO, Data Centres, Cloud public, Cloud Privé, Collective Intelligence, HyperMobility, Sécurité Digitale97
RESONEOCréé en 2004, RESONEO est un cabinet de conseil en stratégie et en marketing pour le e-business qui réunit aujourd’hui 60 consultants spécialisés sur Internet et les nouvelles technologies.SEO, SEM, Google Analytics, AMOA, eMarketing, Stratégie online, E-réputation, Stratégie de contenu, Data, SEA, Display, Social Ads, SMO, Formation101
OpenStudioDepuis toujours, notre agence utilise au sein de sa structure ainsi que pour les projets clients des solutions Open Source et possède une très forte expérience dans ce domaine.THELIA, Symfony, e-commerce, php, intelligence artificielle, AI, react.js, e-commerce b2b, data-visualisation, OCR, moteur de recommandation, prédiction, aide à la décision, big data, extranet, intranet, logiciels métiers, sirh, erp, crm104
MeltOne AdvisorySome would think of us as one of the numerous management and IT consulting firm supporting their customers in their transformation projects. It’s true but good news, there is much more behind!EPM / CPM cadrage, choix d'outil, implémentation, ERP, DATA & Analytics, DATA VISUALISATION, TAGETIK, ANAPLAN, SAP, SAPHANA, HANA, EPM104
UNAMIUNAMI, agence digitale, accompagne et réalise les ambitions web de plus d’une trentaine de grands comptes et de pure players dans des univers marketing B2C et B2B. Unami compte parmi ses clients SFR, LinkedIn, L'Express, Prisma Média, les Vins d’Alsace, dinh van, Mondadori, Numergy, Sodexo.Stratégie digitale, UX, UI, Prototypage, Méthode agile, Tests utilisateurs, AB Testing, Analytics, Tableau de bord, Tracking, SEO, ContentSquare, Kameleoon, ABTasty, Google Analytics, AT internet, Hotjar, Google Data Studio118
CyberCitéAgence SEO / SEA / Content Marketing / Social Ads / Data Analytics / Inbound Marketing / Recherche et Développement.SEO, SEA, Display, Comparateurs / Marketplaces, Adexchange RTB, Web Content, Linking, Data Analytics, Stratégies digitales, Social Media (agence OnlySo), Facebook Ads, Inbound Marketing, Google Ads141
Adone ConseilAdone is now the 1st European management consulting firm in the Luxury and Retail industries and executes strategic and operational missions for Business and IT departments on projects involving: e-Commerce, Data, Customer Experience, Digital in Store, PIM-DAM, PLM, Supply Chain or else Green Transition.Assistance à maîtrise d'ouvrage (AMOA), Gestion de projet, Conseil en système d'information, Digital, Luxe, Parfums et Cosmétiques, Mode, Horlogerie et Joaillerie, Tourisme, Hôtellerie, Digital in Store, PIM, DAM, CRM, Supply Chain, e-commerce, Data, Analytics, Clienteling, OMS, PMO, Consultant412
Fifty Fivefifty-five aide les marques à exploiter de façon optimale les données et la technologie pour développer des stratégies marketing plus pertinentes !Web Analytics456

Choisir un prestataire pour un projet Data Science

Le rôle d’un prestataire en Data Science

La Data Science consiste à traiter de larges volumes de données afin de dégager des tendances invisibles dont vont découler des informations qui serviront ensuite la prise de décision.

Un prestataire en Data Science va mettre en place des algorithmes complexes de machine learning afin de construire des modèles prédictifs et d’anticiper tel ou tel comportement client par exemple.

Les compétences principales d’un bon cabinet de conseil en Data Science :

  • Machine Learning & modeling – Les modèles mathématiques vous permettent d’effectuer des calculs et des prédictions rapides sur la base de ce que vous savez déjà des données. La modélisation fait également partie de l’apprentissage automatique et consiste à identifier l’algorithme le plus approprié pour résoudre un problème donné et à former ces modèles.
  • Statistiques – Les statistiques sont au cœur de la Data Science. Une solide maîtrise des statistiques peut vous aider à extraire plus d’intelligence et à obtenir des résultats plus significatifs.
  • Programmation – Un certain niveau de programmation est nécessaire pour mener à bien un projet de science des données. Les langages de programmation les plus courants sont Python et R.
  • Management de base données – Un data scientist compétent doit comprendre comment fonctionnent les bases de données, comment les gérer et comment en extraire des données.

Sélection de prestataires en Data Science

NomDescriptionSpecialitésNombre d'employés
Prevision.ioPrevision.io develops a full automated Machine Learning Plateform that increase productivity in datascience projects , reduce time to market to delivers accurate predictive models and put them in production, and delivers a full palet of explainability to understand the decisions of the models.Machine Learning, Predictive Analytics, Data Science, B2B, SaaS, Predictive Modeling, Artificial Intelligence, Enterprise Software, Big Data, Cloud Computing, Analytics21
PolynomOur Mission : Discover new growth drivers and ensure their sustainability by helping companies harness the potential of their data.Our Approach : Combine a deep understanding of business specificities with Data Science and Software cutting-edge toolbox mastery.Strategy, Data Science, Consulting, Software Craftsmanship, Big Data, Artificial Intelligence, Pricing, Predictive Maintenance, Marketing Tech30
C-WaysC-Ways is a consulting company specialised in data sciences. Thanks to innovative methods of data capture and modelling, C-Ways helps administrations and leading companies in the sectors of mobility, fashion, luxury goods, financial services, sport, consumer goods, etc. to make informed decisions.market research, predictive marketing, data modeling, data science, client surveys, prospective, web analytics, automotive, retail, luxury, big data, data driven marketing, modeling, creative data32
BIAL-XFondée en 2007, BIAL-X est cabinet d'experts en performance Data.Ces dernières années marquent une véritable révolution du digital. Objets connectés, réseaux sociaux, smartphones … créent un fort volume de données.Big Data, Business Intelligente, Data Science, Data Visualisation, Intelligence Artificielle, Transformation Digitale, Machine Learning, Deep Learning32
OctopeekThe company was founded in 2010 by Abdelkrim Talhaoui, who earned a Master's in Mathematics from Telecom ParisTech and an MBA from ESSEC, and Mahmoud Zakaria, who holds a Master's in Mathematical Engineering and a Doctorate in Mathematics and Information Technology from Telecom ParisTech. Data Science, Machine learning, Data Mining, Data Visualization, Deep Learning, Big Data, Intelligence Artificielle, Consulting, Formation33
ALEIAALEIA is the AI platform (AI as a service) that proposes an open, secure, and industrialized solution to accelerate your Artificial Intelligence projects.Data Science, Machine Learning, Artificial Intelligence, Automated Machine Learning, Augmented Analytics, Machine Learning Operations (MLOps), Applied AI, Enterprise AI, Datalake, End-to-End Data Science Platform, Data protection, Cyber, Energy, Logistic, Mobility33
Data-MajorA la manière d’un véritable état-major dédié à nos clients, les équipes de Data-Major sont chargées de conseiller, synthétiser l’information, d’aider à la décision, d’organiser, de planifier, de délivrer, de piloter, de suivre, de contrôler et d’en tirer les enseignements. Pilotage, Expertise, Développement, Data Intelligence, Data Management, Data Science, Qualité, Résultat, Business Intelligence, Architecture, Management, Consulting, Direction de projet, Gestion de projet, Créativité, Engagement, Humain Responsable, Data Exchange, DataViz, Roadmap, Flux, Data Hub, Pilotage, ESB, ETL, MDM, Master Data Management, Data Catalog, Transparence, API, Agile, AMOA, Optimisation des Processus, IA, Cloud, Architecture, Data Quality, Qualité des données, Data Analytics, Data Integration43
HeuritechHeuritech is a cutting-edge fashion technology company that offers brands data-driven trend forecasting.Artificial Intelligence, Deep Learning, Fashion, Image & text recognition, Luxury Goods , Machine Learning 63
ProbayesSince 2003 Probayes the AI expert powering your performance.Referents on the whole value chain, we collaborate with all sectors.We are multi-specialists, ready to serve you and your strategic challenges.We shape with you your customized solution.Artificial intelligence, chatbots, logistique, recherche opérationnelle, Gestion énergie, Optimisation, Réseaux Bayesiens, Réseaux de neurones, Vision, Traitement automatique du langage, Machine Learning, NLP, Data Science, Deep Learning, Fusion de capteurs, Ontologies, Séries temporelles, Classification non supervisée, Réapprentissage automatique, Traitement du signal, Analyse statistique, Industrie, Véhicule autonome, Automobile, Défense, Logistique, Distribution, Santé, Énergie, Banque, Assurance, classification supervisée, computer vision63
QuintenSociété pionnière dans l’Intelligence Artificielle appliquée à l’amélioration de la performance des organisations notamment dans le domaine de la Santé, la Banque et l'Assurance.Big Data, Smart Data, Data Science, Analytics, Business Intelligence, Prédiction, Data Mining, Data visualisation, Smart Applications , Conduite du changement, Machine learning, Intelligence Artificielle, ROI, Indicateur de performance, Transformation numérique, Conseil stratégique opérationnel, Santé, Deep learning, Data Strategy, AI Application, Quinten Academy, AI strategy, NLP, Medtech, Device, IOT, RWE, Clinical Studies, Conventional Studies, HRTech, Insurtech65
BluestoneBluestone est une société de conseil et de services spécialisée dans les métiers de la Data Science.Data Science, Business Intelligence, Business Analytics, Ingénierie applicative, Nouvelles technologies, Big Data68
BeelixBeelix est une société de conseil en Transformation Digitale et Big Data animée par une approche qui lui est propre : le "Bee Yourself, Bee Your Best"​.DIGITAL, CONSEIL, transformation digitale, big data, agile, product management, product owner, scrum, project management, gestion de projet, data-science, coach agile, applications mobiles, datalake91
EquancyCrée en 2002, Equancy est un cabinet de conseil au croisement de la stratégie digitale et de la data. Sa mission : adresser les enjeux de croissance et de performance des entreprises, en exploitant les nouvelles technologies, l’Intelligence Artificielle et la donnée sous toutes ses formes. Strategy, Data Science, Data Technology, Media Performance, Marketing Performance111
ConverteoConverteo est un cabinet d’experts en Big Data et Data Science qui optimise les performances de ses clients du parcours client à l’offre de produits.Web Analytics313
Devoteam G CloudOur mission is to build cultures of innovation at companies by transforming the way they work and elevating their customer experiences.Google Cloud, Cloud Computing, Google Cloud Platform, lumapps, GSA, Google API, Maps, Kubernetes, Google Workspace, Chrome Enterprise, BigQuery, Anthos, Hybrid- & multi-Cloud, Apigee, Data & Smart Analytics, Data Warehouse Modernisation, Data Lakes, Artificial Intelligence, Machine Learning, IT Infrastructure Modernisation, Application Modernisation, Cloud Migration, Change Management, Big Data, Digital Workplace, Android, Google Search, Chromebooks, Digital Signage, Smartsheet, AO Docs, Customer Experience, Hyper Personalisation, Contact Centres, Conversational AI, Document AI, Voice bots, Chatbots, Technology Consulting, Managed Services, Google Cloud Training479
Artefact Artefact est une agence digitale constituée d’experts du marketing et d’ingénieurs. Elle accompagne ses clients dans la mise en place d’expérience clients modernes grâce aux nouvelles technologies.Data Science1240

Choisir un prestataire pour un projet Big Data

Le rôle d’un prestataire Big Data

Comme son nom l’indique, le Big Data désigne simplement des ensembles de données extrêmement volumineux. Cette taille, associée à la complexité et à la nature évolutive de ces ensembles de données, leur a permis de dépasser les capacités des outils traditionnels de gestion des données.

Les caractéristiques des « Big Data » :

  • Volume – Les Big Data sont énormes, dépassant de loin les capacités des méthodes normales de stockage et de traitement des données.
  • Variété – Les grands ensembles de données ne se limitent pas à un seul type de données, mais se composent de plusieurs types de données. Les Big Data se composent de différents types de données, des bases de données tabulaires aux images et aux données audio, quelle que soit la structure des données.
  • Vélocité – La vitesse à laquelle les données sont générées. Dans le Big Data, de nouvelles données sont constamment générées et ajoutées aux ensembles de données fréquemment. Ce phénomène est très répandu lorsqu’il s’agit de données qui évoluent en permanence, comme les réseaux sociaux, les appareils IoT et les services de surveillance.
  • Fiabilité – Il y aura inévitablement certaines incohérences dans les ensembles de données en raison de l’énormité et de la complexité du big data.
  • Valeur – L’utilité des actifs du Big Data. La valeur du résultat de l’analyse des Big Data peut être subjective et est évaluée en fonction des objectifs commerciaux.

Votre prestataire doit donc être en mesure de gérer ce type de données. Mais vous l’avez compris, ces besoins sont limités à un petit nombre de grands groupes.

Parmi les outils à maîtriser on pense bien sûr à tous les data warehouse modernes AWS, Azure, GCP et Snowflake pour le stockage. Databriks ou Apache Hadhoop pour le processing.

Sélection de prestataires Big Data

NomDescriptionSpecialitésNombre d'employés
DECILIADécilia est une société de conseil spécialisée dans la data intelligence. Forte de son expertise, elle accompagne depuis 2008 les acteurs du CAC 40 et les Grands Comptes à fort potentiel dans la réalisation de leurs projets data driven.Business Intelligence, Big Data, Microsoft SQL Server, SAP Business Objects, Data Science, Azure, Machine Learning, Dataviz26
DatalyoDATALYO est un cabinet de conseil spécialiste de la donnée, basé à Lyon, Clermont-Ferrand et en Haute-Savoie.Indépendants et innovants, nous croyons en l'importance de comprendre et maîtriser les données pour créer de la valeur.Big Data, Data, Business Intelligence, Dataviz, Machine Learning, Data Science40
Kaisens DataCabinet de conseil en informatique spécialisé en Big Data et Intelligence Artificielle. Kaisens Data vous accompagne dans vos projets de transformation numérique avec une offre de service sur mesure. Venez découvrir notre expertise !Big Data, Business Intelligence, Intelligence Artificielle, Data Science, Machine Learning, Deep Learning, NLP, Text Mining40
WewyseFace au raz-de-marée du Big Data et de l’IA, deux possibilités pour les entreprises : subir ou saisir cette vague et profiter de son immense potentiel d’innovation.WeWyse vous aide à appréhender, à adopter et à transformer en business ces puissants leviers technologiques.Big Data, Data Science, Data Strategy, Data Driven, Intelligence Artificielle, Machine Learning, Data, Deep Learning, BI, Data Visualization, Data Engineering41
KynapseKynapse is a management consulting company specialized in Big Data and Digital TransformationData Consulting.Big Data, Conseil, digital transformation, transformation digitale, Data Science, Intelligence Artificielle, Machine Learning42
EulidiaTired of delayed deliveries, tripled budgets, unused data applications, and unhappy business users ?With Eulidia, embark on a smooth and exciting journey to turn data into business performance and increased competitivity.We accompany you from defining value-added business cases and objectives to the full realization of your data projects.Business Intelligence, Datavisualization, Data Management, Big Data, Business Analytics, Data Science, Cloud, Conseil en management, UX BI, AWS, Datawarehousing, Machine Learning, Recherche Opérationnelle, Data Driven60
CenovaCenova est un cabinet de conseil en forte croissance dont la vocation est d’accompagner ses clients dans leur mutation vers de nouveaux modèles B2C, en particulier sur des enjeux d’omnicanalité, de mobilité, de numérisation et de personnalisation.Marketing, Sales, Retail, Customer Experience, Transformation, SmartData, CRM, SCM, Innovation, Technology, Big Data, Digital Platform, omnicanal, Machine learning, mode, Mode, Luxe, Data Intelligence, Intelligence Artificielle75
YsanceYsance - Your Data in ActionTwo professions, one goal. With both of its professions, Ysance pursues a common goal: to reveal the value of your customer data and to put them into action.Big Data, Data Integration, Data Architecture, Data Science, Dataviz & Analytics, Digital Marketing, Customer Journey, AI, Artificial Intelligence, Retail, Cloud77
VAGANETPionnier du delivery agile depuis 2014, VAGANET met à disposition de ses clients des expertises techniques et fonctionnelles spécialisées dans la transformation et l’actualisation du patrimoine digital.Prestations et services informatique, Développement Informatique, IOT, Big Data, DevOps, Nouvelles technologies, innovation, ITSM, Microsoft Dynamics 365, INFOR EAM, Power BI, Azure Cloud, AWS, CI/CD, IBM Maximo, SAP Business One, UX/UI77
OpenvalueCréé fin 2014, Openvalue est un cabinet de conseil et d’intégration spécialisé en Data & Intelligence Artificielle : Machine Learning, NLP, Deep Learning, Computer Vision.Internet des Objets, Big Data, Objets connectés, Innovations digitales, Dataviz, M2M, Machine to Machine, Machine Learning, Internet of Things, IoT, Business Intelligence, Cassandra, Cloud computing, NoSQL, Hadoop, MapReduce, ElasticSearch, Data Visualisation, Natural Language Processing, Computer vision, Deep Learning, Spark, Cloudera, Microsoft Azure, Intelligence Artificielle, Deep Learning, Spark, UX Design, Développement web104
Ntico[LE DIGITAL PAR EXPERIENCE]Ntico, entreprise de services numérique est une communauté de talents, présentes à Lille et à Orléans, partageant des valeurs essentielles pour un accompagnement total et personnalisé de ses clients.Informatique, Java/J2EE, Chefferie de projet, Direction de projet, Décisionnel, Web, Retail, IT, Cloud, DevOps, Data, Agilité, SupplayChain, BI, Flux, Ordonnancement, Lille104
Artemys Normandie (groupe Artemys)Le groupe Artemys se pose, depuis plus de trente ans, en acteur indépendant présent sur le marché des infrastructures, Cloud & DevOps, des End User Services, du BI et Big Data, de la sécurité et des réseaux, de l’Open Source et de l’accompagnement MOE et MOA.Infrastructure, Stockage, Infogérance, Business intelligence, Expertise base de données, Centre de services, Assistance Technique, Migration serveurs, Active Directory, Microsoft Exchange, Virtualisation, Cloud, Architecture, End User Services, BI , Big Data, Mobilité, DevOps, OpenSource111
CellenzaCellenza est un cabinet de Conseil IT, expert des technologies Microsoft.Nous accompagnons nos clients dans leurs projets stratégiques de transformation et d’innovation au service de leur business.Cloud, Agilité , Web, Mobilité, Integration, craftsmanship, Terraform, Kubernetes, FinOps, Azure, DevOps, Data, API, Microsoft, Databricks, TransformationDigital, IA, BusinessProductivity, BusinessIntelligence, Sécurité, Software, Consulting, MLOps, DevOps140
DigoraUse the full potential of your data and your IS to overcome your challenges in terms of availability, performance and security.Take control of your personal challenges around the Cloud, IoT, Big Data and DevOps automation with the support of Digora, a well-known expert in data management.Infrastructure logicielle, bases de données, Gestion des données, haute disponibilité, Oracle, Cloud, Big Data, IoT, Conseil IT, consulting, database, sécurité informatique156
ADVANCED SchemaFounded in 2001, ADVANCED Schema is a Consulting and Outsourcing Services company. Operating in Europe and North America, for 15 years the group has provided its clients with expertise in Data Warehousing, Business Intelligence and CRM.Business Intelligence, Datawarehousing, Big Data, Customer Relationship Management, Digital, CRM, Developpement, Intelligence artificielle159
Velvet ConsultingVelvet Consulting is the leading consulting firm in assisting organizations in their customer orientation. Since 2004, thanks to our 250 Marketing enthusiasts people, we accelerate business performance by building a fullest and effective customer experience.Stratégie Client, Performance, Innovation, Change, Datamining, Business Intelligence, Digital, CRM - Customer Relationship Management, EMA - Entreprise Marketing Automation, Big Data, Mobilité, Omnicanal, Big Data270
TalanTalan is a technology innovation and transformation consultancy. For more than 15 years, Talan has advised companies and administrations, supported them and implemented their transformation and innovation projects in France and abroad.Conseil, AMOA SI, MOE, Support, Architecture SI, Transformation Agile, Digital, Consulting, IT Consulting, CRM, BIG DATA, IoT, Blockchain, IA, innovation, Data, big data3235
CGICGI accompagne ses clients dans la définition de leur stratégie d’intégration de l’IA ainsi que dans la mise en œuvre des projets d’automatisation, de machine learning, de RPA ou d’assistants virtuels.BI61761
CapgeminiExpert en Big Data, Capgemini aide ses clients à maîtriser pleinement votre écosystème d’information.Big Data310031

Les fondamentaux du phygital commerce, par Maxence Dislaire, expert phygital commerce [interview]

La contraction de “méta” et “universe” donne “métaverse”. Mais qu’est ce que donne la contraction de “physique” et “digital” ? “Physital” , “Phygital ? Et c’est quoi au juste le “phygital” ? Un mélange entre le “e-commerce et les magasins” comme bon nombre de personnes le pensent ? Pour vous parler de ce terme nébuleux, galvaudé et à la mode, nous avons interviewé l’expert français du phygital commerce : Maxence Dislaire.

Maxence Dislaire

Le « Chevalier du Phygital Commerce »

Maxence Dislaire est un pionnier. En 2010 il a le nez creux. Convaincu que le Retail tel qu’on le connaît n’existera plus d’ici quelques années, il décide de partir en croisade en montant sa boîte : Improveeze. Celui qui se définit comme le “Chevalier du Commerce Phygital” mène depuis une campagne de sensibilisation à l’égard des retailers et pure players.
Son combat ? Aider les acteurs du retail qui connaissent une perte de vitesse ou qui veulent ouvrir des points de vente physiques. Comment ? En les aidant à se réinventer au travers d’un concept : le phygital commerce.

Peux-tu te présenter en quelques mots ?

Je viens du monde du digital, et je suis ingénieur de formation. Depuis près de 15 ans, je cherche la bonne manière de vendre avec des écrans interactifs. J’analyse les magasins sous l’angle du digital en magasin, pour aider tous les commerçants physiques à ne plus dépendre de leurs mètres carrés. J’aide les commerçants à ne plus être enfermés dans cette prison de mètres carrés et ne plus dépendre de leurs stocks pour être capable de vendre sans aucune limite. Grâce à des outils digitaux. Il y a énormément de bruits, de tests, d’échecs sur ce sujet en retail.

Et à force d’avoir analysé des centaines de magasins en France et partout en Europe, j’ai fini par découvrir la recette des choses qui marchent et celle qui ne marchent pas. Il est même parfois possible d’expliquer pourquoi cela ne marche pas. Mais cette recette-là n’existe dans aucun livre aujourd’hui. Il n’y a pas de livre sur le “Phygital Commerce”. C’est peut-être pour cela que certaines personnes ne savent pas que le phygital commerce existe. Au risque de se dire “Je vais installer des bornes en magasin et avec mon site e-commerce, ça fera l’affaire”.

Qu’est ce qui t’a amené à t’intéresser au sujet du phygital commerce ?

Il y a 15 ans, ma bande de potes et moi avons décidé d’offrir à notre ami d’enfance, une guitare électrique pour son anniversaire. C’est moi qui suis chargé d’acheter son cadeau. Deux solutions s’offrent à moi. La première, c’est Internet. Sauf que comme je ne suis absolument pas musicien, je ne peux pas chercher d’ampli, ou de guitares sur Internet. Je ne saurais même pas quel mot-clé mettre. Et même si j’achetais quelque chose, je suis un peu près certain que ce serait décevant pour mon ami. Donc je décide d’aller voir un spécialiste dans un très grand magasin du Nord de la France qui fait 3000 m2.

Je rentre dans le magasin et je vois sur ma droite des centaines de guitares accrochées sur le mur. Mais au bout de 20 minutes de visite guidée, je reviens bredouille à l’accueil. L’ampli, la guitare et l’étui à guitare que je recherchais étaient introuvables.

Comme je suis néophyte et que je ne connais pas les magasins de musique, je demande naturellement au vendeur de m’indiquer d’autres points de vente dans la région. Je le vois très gêné. Puis il regarde autour de lui et me dit “Suivez-moi”. Il retourne sa caisse, sort son clavier, sa souris et commence à chercher sur Internet des guitares sur les sites de ses concurrents…Pendant 45 min.

Donc c’est à la suite d’une mauvaise expérience que tu t’es intéressé au sujet ?

Exactement ! A l’époque, je n’avais pas passé un bon moment avec ce vendeur lorsqu’il était sur Internet parce qu’au final, il faisait tout et moi rien, j’étais très passif. Je n’avais pas apprécié ce cérémonial de vente.

Cette expérience-là m’a beaucoup fait réfléchir car en en apparence on pourrait se dire que le vendeur a commis une faute professionnelle. Mais ce jour-là, je me suis dit que le problème n’était pas le vendeur mais plutôt le modèle économique du magasin qui était obsolète.

Ce jour-là, j’ai également compris que les magasins étaient en train de “crever la gueule ouverte”. Le magasin est contraint par des mètres carrés et des stocks. Comment rivaliser avec une entreprise qui a un énorme catalogue et qui le promeut sur Internet ?

Peux-tu nous définir plus précisément la notion de “Phygital” ?

Le phygital c’est tout ce qui est digital dans les lieux accueillant du public. Ça inclue :

  • les magasins
  • les salles de sport
  • les gares
  • les aéroports
  • les distributeurs automatiques de billets
  • les écrans de publicité dans la rue
  • les plans interatifs….

Le phygital commerce c’est le phygital qui est lié au commerce. Comme le commerçant ne peut pas avoir des stocks infinis dans des mètres carrés qui sont finis, il va utiliser le digital pour vendre. Par conséquent, le phygital commerce répond à une problématique de vente, d’espaces, de mètres carrés. Et ces outils digitaux-là (tablette, mobile, borne…) sont ceux du commerçant.

L’idée du phygital commerce c’est de procurer la meilleure expérience de vente possible. Or en utilisant le téléphone des clients on ne peut pas tenir cette promesse. Si on laisse le client interagir avec son propre téléphone, on devient dépendant de son réseau mobile, de l’état de sa batterie ou de son téléphone. C’est pourquoi la meilleure expérience client en matière de cérémonial de vente, c’est lorsque le commerçant gère lui-même les outils digitaux. 

En substance, le phygital commerce c’est le matériel dont dispose le commerçant qui n’appartient par extension pas aux clients.

A l’inverse, dans le e-commerce, c’est le client qui maîtrise son matériel : ordinateur, tablette, téléphone. Le consommateur est chez lui.

Voilà pourquoi je préfère utiliser une définition de sens plus qu’une définition issue du marketing. Un entrepreneur qui a besoin d’exécuter un plan business clair, précis, de briefer ses équipes, de les missionner, a besoin d’avoir une définition de sens pour appliquer sa stratégie.

On confond souvent omnicanal et phygital, peux-tu nous éclairer à ce sujet ?

Effectivement, le phygital commerce n’est pas à confondre avec l’omnicanal, une erreur qui est souvent faite. Quand vous recherchez le mot “phygital” sur Google, vous tombez souvent sur des articles où vous voyez le mobile du client en point de vente.

 

 

C’est très confus car il n’y a pas de règles sur le sujet. D’ailleurs, les trois principaux usages du téléphone mobile en magasin sont :

  1. prendre des photos
  2. téléphoner
  3. rechercher sur Google

C’est rarement pour acheter en magasin. Si vous souhaitez avoir la meilleure stratégie omnicanale possible, vous avez besoin d’être : 

  1.  le meilleur en e-commerce 
  2.  le meilleur sur la partie physique.
    Et pour être le meilleur sur la partie physique, il faut que vous ayez du digital dans vos points de vente. Donc vous devez être le meilleur sur la partie phygitale.


Vous avez des pure players comme
ProjetXParis qui ont ouvert des magasins sans aucun matériel digital. Mais ils s’inscrivent dans une stratégie omnicanale : ils ont un site web, des magasins…Mais à l’intérieur du magasin, il n’y a pas d’outils digitaux qui permettent de faire du phygital commerce. Si vous voulez atteindre le stade ultime de l’omnicanal, vous avez besoin de passer au commerce alternatif et phygital.

Quelles sont les raisons pour lesquelles peu d’enseignes ont encore vraiment accéléré sur le sujet ?

Le phygital commerce est un métier qui n’existe pas vraiment en tant que tel. Si vous cherchez des écoles de commerce spécialisées en phygital commerce vous n’en trouverez sans doute aucune. Pourtant, il y a des écoles de commerce spécialisées en digital, en e-commerce etc…

Certains considèrent que c’est une extension ou une variante du digital. En échangeant avec beaucoup de personnes, j’ai parfois entendu “c’est un peu près du e-commerce sauf que c’est en point de vente” , “nous on va mettre notre site e-commerce en magasin”.

C’est généralement très artisanal parce qu’il n’y a pas de recette. Il n’y a pas de livre qui nous dit que le phygital commerce c’est telle ou telle chose, comment il faut faire pour le mettre en œuvre et pourquoi il faut le faire de cette façon-là.

Il existe des livres sur le e-commerce qui listent la recette. Par exemple, si un commerçant n’optimise pas son site web pour les moteurs de recherches son site web n’ira pas bien loin. Il en va de même pour le référencement naturel. Ce sont des ingrédients de la recette.

Le phygital commerce c’est une autre recette qui n’est pas accessible facilement, il a fallu que je l’invente, que je l’analyse moi-même ces 15 dernières années et au-delà de cela, quand on ne sait même pas que la recette existe, on essaye de la déduire. C’est l’intuition qui va parler, le bon sens. Mais parfois le bon sens peut vous amener à faire des choses catastrophiques.

Je vais vous donner un exemple. Il y a quelques semaines,  je suis allé voir un pure player qui a ouvert un point de vente physique. Il a probablement dû se dire “Je vais prendre mon site e-commerce et le mettre en magasin”. Pourquoi ? Parce qu’au moment de payer, il propose de payer via PayPal :

 


PayPal dans le e-commerce c’est plutôt une bonne pratique. C’est connu et apprécié des consommateurs. Pourtant une bonne pratique dans le monde de l’e-commerce devient une très mauvaise pratique dans le monde réel. Pire que tout, ce n’est pas légal.

A quel moment / A partir de quelle taille une enseigne doit-elle l’envisager ?

Ce que je constate depuis 15 ans, c’est que toutes les tailles d’entreprises sont passées au phygital commerce : 

  • Des entreprises qui avaient déjà des points de vente physiques.
  • Des pure players qui voulaient en ouvrir.
  • Des petits commerçants qui voulaient développer leur activité.


Parce que les entreprises qui y ont recours ont un énorme caillou dans leurs chaussures. Elles ne peuvent pas écouler leurs produits car elles n’ont pas suffisamment de places en magasin. Au-delà du handicap évident, elles se mettent en défaut concurrentiel par rapport à des concurrents en ligne. En réalité, il n’y a pas de taille idéale. Tout simplement parce que c’est très vite rentable. 

Prenons un exemple. Un magasin de jouets qui a 120 mètres carrés et un trampoline aura des difficultés à le vendre.
Avec une borne, vous ne prenez pas de risque sur votre trésorerie, vous n’avez pas de loyer correspondant au trampoline qui prend énormément de place dans votre magasin, vous n’avez pas non plus à payer la manutention et le temps de mettre ce trampoline en zone d’exposition (décartonner, enlever les palettes, le mettre en magasin, l’étiqueter…). Cela prend un temps fou.

Le commerçant qui arrive à vendre un trampoline à 600 euros depuis une borne, je peux vous dire que ces 600 euros-là valent beaucoup plus que ceux du trampoline immobilisé en magasin.

Aujourd’hui le modèle traditionnel du commerce tel qu’on le connaît aujourd’hui, c’est-à-dire piloter par les stocks et les mètres carrés est mort. Il n’a plus aucun avenir. Pourtant c’est encore 99% du paysage.

Peux-tu nous présenter quelques exemples d’enseignes qui auraient dû prendre le virage du phygital commerce ?


Si je veux rester dans mon domaine d’expertise, je vais vous parler de 
PicWicToys. C’est la même histoire que Camaïeu sur le fond du modèle économique. Mais elle est plus facile à faire comprendre. PicWicToys a un peu moins de 100 magasins.

Je suis allé dans l’un d’entre eux pour analyser ce qui s’y faisait. Au rayon plein air, j’ai vu ça :

 


Imaginez un instant le nombre de jeux de plein air que vous pouvez trouver chez Amazon.

D’un point de vue concurrentiel, ça n’a plus aucun avenir. Ceci n’a aucun sens face à l’offre des autres entreprises qui ont un positionnement à  gamme large.

Ce que j’appelle le “cancer du retail”,  dont de nombreuses entreprises ont été victimes et seront victimes dans les années à venir, c’est le modèle économique “des 4 murs”.

Peux-tu nous présenter quelques exemples de phygitalisation réussies ?

Il y a 3 mois je suis arrivé à une conclusion très étonnante. J’ai cru pendant 15 ans que le marché du digital en point de vente serait pris et dominé par les retailers historiques : ceux qui ont de grandes chaînes de magasins et depuis que je travaille avec des pure players, j’ai remarqué qu’ils étaient beaucoup plus performants à tous les niveaux : en terme de chiffre d’affaires, d’agilité, de performance, de puissance de modèle économique, des compétences des équipes…

Maintenant, je pense que ce sont les pure players qui vont dominer le retail de demain. Leur positionnement fait d’eux des entreprises très sensibles aux problématiques liées aux stocks, la trésorerie ou à la manutention. Les pure players veulent être hyper spécialisés dans un domaine précis et pour se faire ils doivent, proposer le catalogue de produits la plus large possible sur le segment en question.

Ce positionnement se fait également ressentir en magasin. Les vendeurs ont la capacité de conseiller les clients sur plus de produits que leur magasin peut en compter. Là ou les vendeurs des retailers historiques étaient habitués à uniquement vendre ce qu’ils avaient sous leurs yeux ou en stocks.

Basket4Ballers


Basket4Ballerz était pure player PrestaShop depuis 13 ans. Puis ils ont finalement décidé d’ouvrir un magasin puis un deuxième à Paris. Lorsqu’un pure player ouvre un magasin, c’est un énorme challenge.


Le pure player qui se lance à un plusieurs centaines de milliers de références en catalogue. C’est ce qui fait sa force. La raison d’être des pure players c’est de se différencier des magasins physiques en référençant toute l’offre possible sur un segment donné. Pour devenir parfois le référent en la matière. C’est ce qu’a fait Amazon. C’est ce que fait ManoMano. C’est ce que fait Motoblouz sur le segment de la Moto et c’est ce que fait Basket4Ballerz sur le segment du Basketball.

 

Les produits de la NBA, très prisés sur leur site internet, représentent 30% de leur chiffre d’affaires. Bien loin des 100 000 mètres carrés qu’il faudrait pour accueillir tous les produits du catalogue.

Comment faire pour générer du chiffre d’affaires en point de vente physique sachant qu’un tiers de ses produits NBA sont vendus en ligne ? Une technique issue du phygital commerce existe. C’est le phygital commerce proactif. Elle consiste à utiliser une borne interactive avec un système de boutons et de mindmap qui entourent l’écran. L’objectif est de représenter le fait qu’il y a plus d’offres que ce qui est visible de prime abord sur un écran ordinaire. Car avec le syndrome du paresseux, les clients ne vont que rarement sur les écrans maintenant.

En revanche, avec ce petit “coup de pouce”(nudge), il y a 2000 fois plus d’interactions écran que sur un écran ordinaire. C’est ce qu’on appelle une technique d’acquisition de trafic phygitale.

L’acquisition de trafic phygitale n’a rien à voir avec l’acquisition de trafic en ligne. En ligne, il y a Google, en point de vente phygital il y a ce “coup de pouce”(nudge) par exemple.


Motoblouz


Motoblouz suit la même trajectoire que Basket4Ballerz. C’est un pure player à l’origine qui a décidé de commercialiser ses produits en points de vente physiques. Ils ont près de 300 000 produits en catalogue. Leur entrepôt fait 60 000 mètres carrés. Mais leur magasin en fait seulement 200 ! 

C’est pourquoi ils ont installé des bornes interactives aux quatre coins du magasin. Résultat, 1,5 million d’euros de chiffre d’affaires dont 80% sont faits sur les bornes interactives. La marge nette de ce 1,2 million d’euros n’aurait pas été la même si elle avait été réalisée grâce à des stocks en magasin (loyers, trésorerie, manutention…).

En conclusion, que proposes-tu avec Improveeze aux enseignes retail qui veulent avancer sur le sujet ?

Improveeze est une agence d’accompagnement global pour les pure players et retailers qui veulent ouvrir des points de vente physiques. Nous sommes en train de nous hyperspécialiser dans l’accompagnement des pure players, des DNVB qui veulent passer le cap du point de vente physique avec la bonne méthode. Et la bonne méthode c’est de refléter la puissance de son offre et la puissance de son storytelling. Nous les aidons à bâtir et déployer une stratégie opérationnelle dans le retail : nous couvrons l’emplacement, l’agencement, les outils, les méthodes, l’animation des vendeurs, la gouvernance d’entreprise, la stratégie de contenu. 

Nous fournissons également la solution logicielle et matérielle qui est dédiée au cérémonial de vente en magasin (POS, bornes interactives, mobiles vendeurs, écrans interactifs etc…). Enfin nous fournissons également des prestations liées aux matériels : installation, maintenance, hotline…

Et en parallèle, nous avons Phygital Academy, qui est un centre de formation, de coaching et de conseil en stratégie retail phygitalisée. Nous aidons les entreprises à appréhender le phygital commerce et à le mettre en œuvre.

Suivez Maxence Dislaire sur LinkedIn et venez assister au store Tour phygital qu’il anime en ligne en visio tous les premiers jeudi de chaque mois, entre 12 et 13h30 !

 

Comment construire sa roadmap data ?

Construire une roadmap data est un jeu d’équilibre où l’on cherche à la fois à répondre aux besoins business immédiats mais aussi à poser des bases stables pour l’architecture du système de données. Il y a cependant deux écueils majeurs lorsque l’on établit sa roadmap :

  • Se concentrer principalement sur les enjeux à court terme. La prise de décisions fondées sur des exigences à court terme risque très probablement d’apporter des incohérences à long terme, qui vont peu à peu se transformer en dette technique.
  • Se projeter trop loin et se déconnecter de l’activité métier. Réfléchir à une construction optimale de l’infrastructure data sans prendre en compte les besoins actuels des équipes métiers va pénaliser l’ensemble de l’entreprise. En effet, les autres acteurs ne pourront pas tirer partir du dispositif data avant un certain temps, ce qui rend impossible le développement d’une activité « data centric ».

Il est donc nécessaire de naviguer entre ces deux extrêmes pour développer une roadmap data équilibrée qui porte ses fruits à court terme, tout en offrant une architecture stable sur le long terme. Pour cela, nous avons établi un framework vous permettant de trouver cet équilibre précieux et de construire une roadmap data adaptée à vos besoins.

Construire votre roadmap data : le guide étape par étape

Pour clarifier le processus de construction d’une roadmap data, nous avons choisi de prendre l’exemple d’une équipe data fictive de 10 personnes pour laquelle on construit une roadmap sur 12 mois. Les besoins de cette équipe sont ceux que l’on observe le plus fréquemment. Le développement de cette feuille de route se fait en 5 étapes :

#1 – Recenser les besoins métiers

La première étape de la construction d’une roadmap data consiste évidemment à recenser les besoins métiers. Cela passe d’abord par des entretiens avec les principaux responsables des sujets nécessitant une intervention de l’équipe data. Le lead de l’équipe data se doit ainsi de rencontrer les responsables métiers des équipes support, sales, marketing…

Lors de ces réunions, l’accent doit être mis sur les exigences à 12 mois qu’il faut réussir à identifier et à prioriser. Cela permet de déterminer les « besoins data » qui incombent à votre équipe et d’estimer le nombre de projets sur lesquels il est nécessaire d’intervenir.

Une bonne pratique est de collecter les retours de ces échanges dans un tableur où l’on décrit les objectifs des projets, les principaux KPIs qui y sont liés, les leviers d’actions… Ainsi, il est plus facile de se rendre compte de la charge de travail requise par chaque business unit et de regrouper les projets similaires.

#2 – Filtrer les besoins

Après avoir collecté l’ensemble des requêtes, il est nécessaire d’appliquer un ensemble de filtres sur celles-ci afin de pouvoir les prioriser. Yann-Erlé le Roux propose ainsi un système de « tamis » permettant in fine d’attribuer à chaque tâche un degré de priorité.

Le tamis est constitué de 4 filtres :

  • Alignement avec le plan stratégique de l’entreprise
  • Valeur Business
  • Degré de difficulté de mise en œuvre
  • Capacité à s’intégrer dans l’architecture data de l’organisation

Pour chaque intervention, on associe un score de 1 à 3 à chaque filtre. Il s’agit ensuite de sommer l’ensemble pour obtenir une note allant de 4 à 12. En opérant ainsi, il est possible de classer directement les projets par un tri décroissant. On obtient alors directement un premier ordre de priorité sur les tâches.

#3 – Définition des priorités

Une fois la liste triée par ordre décroissant des notes, on peut ajouter une valeur de priorité qui permet d’affiner ce classement. 5 degrés de priorité suffisent à classer l’ensemble des projets :

  • P0 : Cas d’usage priorisé par le COMEX dans le cadre d’un plan global de transformation ou d’un virage stratégique.
  • P1 : Cas d’usage « Must », le projet est essentiel dans l’entreprise et permet d’améliorer significativement l’efficacité d’une équipe.
  • P2 : Cas d’usage « Should », le projet est pertinent et son impact dans les équipes est non négligeable.
  • P3 : Cas d’usage « Nice to have/Bonus », l’idée est intéressante mais l’impact est difficile à évaluer ou trop faible pour justifier de mobiliser d’importantes ressources
  • P4 : Projet abandonné

En établissant ainsi un classement en 5 niveaux, on obtient une version « 1.0 » de la roadmap data et surtout un premier éclairage quant à la charge de travail.

#4 – Estimation de la charge de travail

Après avoir déterminé l’ordre de priorité des UC, il faut définir pour chacun une estimation de la charge de travail en jours travaillés. Une bonne façon de procéder est d’établir un classement en « taille de tee-shirt » :

  • XS : 10 JH
  • S : 20 JH
  • M : 40 JH
  • L : 60 JH
  • XL : 100 JH
  • XXL : 150 JH

Il suffit alors de sommer les jours travaillés pour obtenir la charge totale, tout en tenant compte de la charge de travail maximale. Dans notre cas par exemple, la limite est de 2060 JH (10 ETP x 206 jours travaillés).

#5 – Attribution des sujets

Maintenant que les sujets sont ordonnés par ordre de priorité et que la charge de travail a été définie, il faut les attribuer aux équipes correspondantes. On les réparti généralement ainsi :

  • Equipe data seule,
  • Avec la DSI sans code projet,
  • Avec la DSI avec code projet,
  • Les parties prenantes : contributeurs, owner industrialisation, owner R&D…

Pour clarifier la portée du projet auprès des équipes, il est nécessaire de déterminer le degré de maturité du projet :

  • Exploration,
  • POC,
  • Industrialisation,
  • Run

Il faut ensuite segmenter entre les différents métiers concernés :

  • Data analyst,
  • Data scientist,
  • Data engineer,
  • Scrum master…

Lorsque toutes ces étapes ont été réalisées, il est enfin possible de choisir le timing pour les projets, que l’on organise en trimestre généralement, mais dont le maillage peut être adapté aux besoins. Il s’agit ensuite d’adapter ces use cases à la méthodologie de gestion de projet que vous utilisez : en Agile, on regroupe les use cases en groupes appelés EPIC qui sont associés à des grands thèmes (par exemple : projets transverses, stratégie entreprise, efficacité du développement, efficacité des opérations, connaissance clients).

En complément de cet article et pour approfondir certains points, nous vous invitons à découvrir notre guide complet pour structurer la fonction data en startups. On y détaille les besoins (stratégiques, technos, humains) en fonction du stade de développement de l’entreprise.

Construire votre roadmap data : s’adapter aux besoins de votre organisation

Le rôle de l’équipe data

Si les besoins de chaque entreprise différent en termes de données, quelques règles générales peuvent être adoptées pour s’assurer de développer une roadmap data s’inscrivant dans la stratégie générale de la firme. Essentiellement, cela se résume à se demander pourquoi l’équipe data existe au sein de votre société. Quelles sont les problématiques centrales ? Quels problèmes devez-vous résoudre ? Quelles solutions pouvez-vous apporter ?

Ces questions permettent de classifier l’ensemble des sujets en trois catégories :

RôleLe problème La solutionL'objectif
AnalyseLa direction a besoin de données pour orienter et guider la prise de décisionConstruire des dashboards et développer une histoire autour des données pour faciliter la compréhension des données stratégiquesApporter un éclairage et de nouvelles informations
Automatisation De nombreuses tâches répétitives et chronophages doivent être réalisées à la main Développer des processus automatiques permettant d'accélérer significativement le traitement de ces tâchesEconomiser des ressources, du temps et de l'argent
Développement de produitIl y a une opportunité de générer un revenu en créant un produit dataTransformer des données brutes en une solution technique profitable Créer une source de revenu supplémentaire

Adopter cette grille de lecture lors de la construction de votre roadmap permet de gagner en pertinence. Ainsi, vous pouvez prendre du recul sur chaque sujet que vous devez intégrer à votre roadmap. De cette façon, vous vous assurez que votre feuille de route conduise au développement et renforcement du rôle central de votre équipe au sein de l’entreprise.

Les éléments à considérer en amont

Lorsque l’on se pose la question de la place de l’équipe data au sein de l’entreprise pour construire une roadmap pertinente, il faut aussi considérer un certain nombre de motivations en amont et d’influences extérieurs qui affectent fortement la construction de cette feuille de route. Les équipes de Teradata proposent une structure en trois parties pour bien différencier ces éléments.

roadmap data

Les drivers sont à l’origine des besoins data et justifient la mise en place d’une roadmap. Ils permettent également un mécanisme crucial de cadrage. Chaque projet déployé, chaque problème de qualité des données traité et chaque politique de gouvernance des données établie doivent avoir un lien clair avec l’activité de l’entreprise.

  • Business Initiatives and Use Cases. S’il peut être utile et pertinent de proposer de nouvelles initiatives, il est encore plus crucial d’identifier les activités commerciales déjà planifiées et financées de l’entreprise nécessitant l’intervention de l’équipe data. Ce faisant, la roadmap data prend une place centrale dans la stratégie d’entreprise. Elle intervient à tous les niveaux pour proposer des leviers d’actions novateurs dont les effets sont rapidement observables.
  • Corporate Objectives. Il faut ici rechercher les objectifs définis par la direction qui s’appliquent de façon transversale dans l’entreprise. Cela peut être par exemple une migration généralisée vers le cloud ou une nouvelle approche managériale. L’équipe data a alors la possibilité d’intervenir sur des sujets de large envergure.
  • Business Use Case Prioritization. Une fois ces éléments pris en compte, il faut organiser ces tâches par ordre d’importance. Vous pouvez alors vous référer au point #3 de l’établissement de la roadmap data.

Une fois les drivers pris en compte, il faut s’intéresser aux nombreux éléments qui viennent influencer la roadmap et la capacité à développer et à mettre en place de nouveaux projets.

  • Information Prioritization. Les données que requièrent les différentes équipes se recoupent très régulièrement (données clients et produits pour les sales ou le marketing, données de production pour la direction financière et les opérations…). Ainsi, lorsque l’on prévoit de créer de nouvelles sources d’informations, il est particulièrement utile de recenser tous les use cases possibles et de comptabiliser les utilisateurs finaux. Cela permet d’évaluer l’impact final du projet, auquel s’ajoutent souvent des externalités positives.
  • Current State Architecture. Ici, l’équipe acquiert une compréhension de l’état actuel de la technologie, des données et d’autres facteurs qui affectent l’architecture data. Le degré de précision de cette analyse se fait en fonction des besoins spécifiques. Une description détaillée n’est utile que lorsque les projets data doivent être intégrer dans un écosystème complexe.
  • Capability Assessment. La réussite de ses projets dépend du travail commun de personnes aux compétences techniques et non techniques, telles que la gouvernance des données, les capacités analytiques, les processus organisationnels… L’idée est de ne planifier que ce qui est nécessaire quand c’est nécessaire, tout en améliorant continuellement les capacités générales de votre équipe. Cela permet de bénéficier d’une plus grande flexibilité, tout en conservant un cap précis.

Enfin, lorsque vous avez une compréhension suffisante de ces sujets, vous pouvez prendre certaines décisions et évaluer l’impact de celles-ci.

  • Implementation Alternatives. Lorsque l’on réfléchi à l’implémentation des nouvelles technologies et des nouveaux projets dans le SI, un certain nombre d’alternatives à l’infrastructure actuelle apparaissent. Il faut alors choisir entre l’architecture déjà en place ou l’utilisation de nouvelles solutions. Nous avons déjà abordé ce sujet dans un article sur la construction de son propre dispositif data.
  • Future State Architecture.L’équipe doit avoir une vision précise de l’état futur de l’architecture de data. Cette vision doit clairement indiquer comment les initiatives et les cas d’usage seront intégrés dans l’écosystème, et doit prévoir l’évolution de l’architecture pour répondre aux besoins de la manière la plus rentable et efficace possible.
  • Data and Analytics Roadmap. La feuille de route finale reprend tous ces éléments pour définir précisément les projets et nommer des responsables qui devront respecter un agenda clairement établi. Construire cette roadmap doit se faire de manière structurée, et c’est pourquoi nous vous conseillons vivement d’utiliser le framework présenté ci-dessus.

Construire une roadmap data est loin d’être un exercice trivial, et le succès des projets entrepris par l’équipe data dépend très fortement de la qualité de cette feuille de route. Pour cette raison nous vous conseillons fortement d’appliquer le cadre que nous vous avons proposé pour procéder par étapes. Ainsi vous vous assurez d’avoir :

  • Une vision claire et précise des projets à entreprendre,
  • Une estimation fiable de la charge de travail,
  • Une classification des tâches par ordre de priorité et d’importance,
  • Un calendrier précis de votre année permettant de suivre attentivement l’avancée des projets

Ces trois avantages sont décisifs pour la réussite de votre équipe et pour le développement de la data dans votre organisation. Répéter ce processus est la garantie d’avoir une équipe fiable année après année, capable de tenir ses engagements et de fournir des leviers d’actions efficaces qui s’intègrent parfaitement dans un écosystème que vous pouvez alors faire évoluer.

Ainsi, le développement de votre roadmap data doit être une de vos préoccupations majeurs. Plus encore, il est absolument nécessaire de revenir régulièrement sur cette roadmap pour pouvoir l’adapter, la corriger ou la préciser afin d’avoir toujours une vision claire des projets à venir et d’être capable de guider au mieux votre équipe.

Comment recruter un très bon responsable CRM ?

Il faut investir du temps et de l’amour dans le recrutement de son responsable CRM. Pour 3 raisons :

  • Un excellent profil peut avoir 10 fois plus d’impact qu’un profil moyen.
  • Le métier de responsable CRM est complexe, à la croisée de plusieurs compétences. Pas évident d’évaluer les compétences d’un candidat, surtout si vous n’êtes pas familier du monde du CRM.
  • Ce n’est pas en utilisant le process de recrutement classique (passif) que vous réussirez à recruter la perle rare (tensions sur le marché oblige).

recruter responsable crm ressource test

Télécharger notre template de questionnaire pour recruter un responsable CRM

Pour vous aider à structurer la démarche de recrutement de votre responsable CRM, nous vous proposons une ressource 100% gratuite. Il s’agit d’un test de recrutement que nous utilisons chez Octolis pour débusquer les meilleurs talents. Mais avant, on vous rappelle les missions d’un bon responsable CRM et les compétences qu’il faut évaluer en priorité.

Fiche de poste standard du responsable CRM dans une PME

Prenons pour hypothèse que vous êtes une PME et que le responsable CRM que vous allez recruter sera tout seul dans l’équipe CRM, assisté éventuellement par un alternant. Pour vous aider à construire la fiche de poste, nous allons présenter les principales missions du responsable CRM.

Une précision avant de commencer : on parle parfois de « chef de projet CRM », de « CRM manager », de « responsable marketing client », de « responsable relation client ». L’imagination est sans limites, mais dites-vous bien que tous ces intitulés sont équivalents à « responsable CRM ». On parle du même métier, même s’il peut y avoir quelques nuances (qui sont souvent subjectives).

Les missions d’un responsable CRM

Le responsable CRM est la personne chargée de définir et de mettre en œuvre le plan d’animation de la relation prospects et clients. Formulé autrement, le responsable CRM est la personne qui définit, déploie et mesure la performance des actions de marketing relationnel. Il anime le dialogue avec les prospects et les clients. Vous avez la big picture, passons maintenant au détail.

La construction du plan relationnel

Le plan relationnel est l’ensemble des actions de marketing relationnel que l’entreprise va déployer sur les points de contacts des parcours prospects et clients. Dans une PME dont l’équipe CRM est composée d’un seul responsable CRM, c’est ce dernier qui pilote la construction du plan relationnel. Pour réaliser cette mission, le responsable CRM va devoir suivre plusieurs étapes :

1 – Définir les objectifs CRM de l’entreprise. La définition des objectifs CRM dépend des objectifs stratégiques de l’entreprise. C’est donc en collaboration avec l’équipe dirigeante, et éventuellement avec les autres services (équipe commerciale…), que le responsable CRM doit réaliser cette première étape. Voici quelques exemples d’objectifs :

  • Améliorer le suivi de la performance commerciale.
  • Mieux fidéliser les clients existants.
  • Améliorer les process d’acquisition de nouveaux clients.
  • Augmenter le taux de conversion des leads.
  • Augmenter le panier moyen (développer l’upsell – le cross sell).
  • Optimiser la satisfaction client.
  • Réactiver les clients inactifs.
  • Etc.

2 – Cartographier les parcours prospects et clients. Ce travail consiste à construire une représentation claire des étapes, points de contact et canaux qui constituent vos parcours prospects et clients. La représentation des parcours clients, c’est la carte à partir de laquelle le responsable CRM va construire son plan d’actions.

parcours clients exemple
Exemple de cartographie des parcours clients réalisés par nos amis de chez Cartelis, un cabinet de conseil en CRM.

3 – Définir les programmes, campagnes et scénarios relationnels. Sur la base des objectifs CRM de l’entreprise et des parcours clients, le responsable CRM va construire les actions de marketing relationnel qui permettront d’atteindre les objectifs. Ses actions se déclinent en campagnes marketing (opérations ponctuelles) et éventuellement en scénarios automatisés (déclenchement automatique d’actions ou envoi automatique de messages en fonction du comportement client). La mise en place de scénarios suppose plus de maturité et implique d’avoir un outil de « marketing automation » à disposition.

Les programmes sont des ensembles cohérents d’actions (campagnes et scénarios) répondant à un des objectifs CRM. Par exemple, le programme « Satisfaction Client » ou le programme « Activation ».

programmes relationnels exemple
Définition des programmes relationnels. Source : Cartelis.

Le plan relationnel prend la forme d’un document listant l’ensemble des programmes et décrivant le fonctionnement des scénarios s’il y en a.

Déployer les actions de marketing relationnel (campagnes et scénarios)

Le responsable CRM a aussi pour mission de déployer les différentes actions définies dans le plan relationnel. C’est lui qui va mettre en place les campagnes marketing (notamment les campagnes emailing) et déployer les scénarios automatisés. Ce travail inclut essentiellement la création des contenus (emails, posts, etc.) et le paramétrage des campagnes & scénarios dans les outils marketing.

Mesurer les résultats des actions

Dans une petite ou moyenne organisation ayant un dispositif data peu élaboré, la mesure des résultats s’effectue le plus souvent à l’aide des modules de reporting intégrés dans les outils marketing.

N’importe quel outil marketing donne accès à des rapports de performance qui permettent de suivre, généralement en temps réel, l’évolution des différents indicateurs de performance (KPIs) et l’impact des actions déployées. Un outil d’emailing par exemple offre un tableau de bord pour suivre la performance des campagnes via les indicateurs classiques que sont les taux de délivrabilité, d’ouverture et de clics.

Un responsable CRM plus chevronné pourra utiliser un Google Sheets ou, mieux, un petit outil de Business Intelligence (comme Metabase) pour créer des reportings omnicanaux, c’est-à-dire des reportings permettant de suivre la performance de l’ensemble des actions menées sur les différents canaux et avec les différents outils marketing.

outil reporting metabase
Metabase, un outil de reporting no code pour créer des reportings sur mesure.

Exploiter les données prospects et clients

Aujourd’hui, les données clients sont l’aliment du CRM et du marketing relationnel. Plus vous aurez de données clients, plus vous serez capable de les centraliser, de les unifier, de les mettre à la disposition des différents outils, plus vous pourrez faire de choses. C’est aussi simple que ça.

Aujourd’hui, un responsable CRM doit savoir jongler avec les données clients, c’est-à-dire être capable de :

  • Nettoyer les données clients de la base prospects et clients pour la maintenir propre.
  • Construire des segments clients pour mieux cibler les actions de marketing relationnel. Pour bien comprendre ce sujet, découvrez 10 exemples et méthodes de segmentation client.
  • Imaginer de nouvelles mécaniques de collecte de données clients, pour aller chercher des données que l’entreprise n’a pas mais dont le responsable CRM aurait besoin pour mieux personnaliser et cibler ses actions.
  • Piloter la performance CRM de manière data-driven, en s’appuyant sur des données, sur des chiffres consolidés.
  • Développer une meilleure connaissance client par l’analyse des reportings pour dégager des enseignements et des tendances générales sur le comportement et les préférences des clients.

Le responsable CRM n’a pas besoin d’avoir des compétences d’ingénieur data pour mener à bien ces missions autour des données. Les outils marketing modernes proposent des interface no code pour manipuler les données clients sans compétences techniques avancées.

Piloter les projets digitaux autour des données clients

Une meilleure exploitation des données clients suppose une modernisation des outils et technologies utilisées. Dans une PME dont l’équipe CRM se réduit à un seul responsable CRM, c’est ce dernier qui va devoir gérer les projets digitaux visant à mieux collecter et utiliser les données : changement de logiciel CRM, mise en place d’une Customer Data Platform, mise en conformité RGPD, etc. Un responsable CRM est souvent amené à endosser le rôle de chef de projet CRM.

Salaire et profil classique

Comme partout, le salaire d’un responsable CRM dépend beaucoup du nombre d’années d’expérience. Le salaire d’un CRM manager est compris entre 40 et 70k€. 3 commentaires :

  • Forcément, plus vous proposez une rémunération intéressante plus vous aurez de chances d’attirer les meilleurs profils.
  • La chance n’est pas le destin. Pour nuancer le premier commentaire, précisons que vous pouvez très bien recruter un très bon responsable CRM junior à 40k et un responsable CRM de la vieille école, peu technophile, à 70k.
  • Dans des métiers aussi mouvants que ceux du CRM, l’ancienneté a moins de poids dans l’évaluation des candidats.

Les responsables CRM sont en général issus d’écoles de commerce (bac +4/+5) ou de BTS marketing (bac +2). On voit aussi de plus en plus de responsables CRM venant d’écoles spécialisées en marketing digital.

A quoi ressemble un ou une bon(ne) responsable CRM ?

On s’est maintenant fait une bonne idée du périmètre d’intervention d’un responsable CRM évoluant dans une entreprise de type PME. Il est l’orchestrateur du dialogue avec les prospects et les clients, dialogue qu’il met en place grâce à des outils marketing et à l’exploitation des données.

Les missions, naturellement, appellent des compétences. C’est ce dont nous allons parler maintenant.

Nous insisterons moins sur les compétences techniques, dont la plupart peuvent se déduire assez facilement du listing des missions que l’on vient de présenter, que sur les soft skills qui, selon nous, sont les plus différenciantes.

Un très bon responsable CRM se caractérise moins par ses compétences techniques que par son état d’esprit et ses capacités intellectuelles générales. Mieux vaut, par exemple, recruter un responsable CRM junior hyper motivé pour apprendre de nouvelles choses et prêt à remettre en questions ses habitudes qu’un profil senior rigide dans sa manière de travailler.

Alors, à quoi reconnaît un ou une bon(ne) responsable marketing ?

La capacité d’analyse

Le responsable CRM doit posséder de solides compétences analytiques. Vous me direz, analyser quoi ? On a déjà en partie répondu à cette question. Il y a deux objets d’analyse principaux :

  • La base de données clients. L’analyse de la base permet de développer la connaissance client, mais aussi la connaissance produits (quels sont les produits les plus achetés ?). Voir à ce sujet notre article : « Connaissance clients – Exemple de reporting clients sur Excel« .
  • Les actions déployées (campagnes, scénarios). Le responsable CRM doit savoir mesurer la performance des campagnes et scénarios déployés pour faire vivre le dialogue prospects/clients.

Le responsable CRM doit absolument avoir des compétences analytiques pour pouvoir tirer des enseignements qui serviront à améliorer la performance des actions futures.

Précisons que l’on parle ici plus de compétences « intellectuelles » que de compétences techniques dures. Un responsable CRM n’a pas besoin de connaître le langage SQL pour être un bon analyste.

competences cles responsable crm
Source : Elios.

La capacité à apprendre vite

Le développement ininterrompu de nouveaux canaux, la part toujours croissante du digital et des réseaux sociaux dans les parcours, le rôle de plus en plus central des données clients, l’évolution des bonnes pratiques (ce qui fonctionnait hier ne fonctionne plus toujours aujourd’hui), les évolutions de fond dans le comportement des consommateurs, l’arrivée sur le marché d’outils marketing de plus en plus puissants – tous ces facteurs font évoluer en permanence les métiers du CRM et du marketing.

Un(e) bon(ne) responsable CRM doit avoir la capacité à apprendre vite et ne doit pas avoir d’aversion au changement. Le bon responsable CRM, c’est celui qui s’enthousiasme des nouvelles perspectives qu’offre le déploiement d’un nouvel outil d’emailing, c’est celui qui suit régulièrement des blogs sur le CRM pour muscler ses compétences et se tenir informé des nouvelles tendances.

Il y en fait ici deux compétences qui entrent en jeu :

  • Une compétence intellectuelle : la capacité à apprendre vite.
  • Une compétence attitudinale : la volonté d’apprendre toujours plus.

La rigueur

Le responsable CRM doit gérer une multitude d’actions, une multitude de canaux, une multitude de données, une multitude d’outils, a plusieurs interlocuteurs…Pour faire face à la multiplicité, une grande rigueur s’impose. Elle se manifeste dans toutes les dimensions de l’activité d’un CRM manager :

  • La formalisation du plan relationnel.
  • La construction du plan d’actions et le fait de s’y tenir.
  • Le maintien au propre de la base de données.
  • La documentation de tous les traitements de données et des actions marketing déployées.
  • La mise en place des conventions internes pour être certain que tous les collaborateurs parlent de la même chose et utilisent les mêmes mots.
  • La gestion d’un projet de A à Z.
  • La création des campagnes (respect des deadlines).

La capacité à animer des projets

Le responsable CRM est amené à gérer et animer des projets. Nous avons vu tout à l’heure qu’il avait vocation à piloter les projets digitaux autour des données clients ou de la sélection des logiciels. Dans une PME dont l’équipe marketing se réduit à un responsable marketing, c’est ce dernier qui est sera généralement désigne comme chef de projet CRM, chef de projet CDP, chef de projet digital…

Cette casquette de chef de projet suppose des compétences particulières : des capacités d’organisation, de pilotage, de leadership, de communication, de suivi et contrôle de budget – bref toutes les compétences attendues d’un chef de projet.

Les compétences bonus

Voici certaines compétences bonus qui peuvent faire la différence :

  • La capacité à bien écrire. Dans une petite PME, c’est souvent le responsable CRM qui est chargé de rédiger le contenu des emailings, des posts sur les réseaux sociaux, parfois même des articles de blog…Il est toujours possible, à condition d’avoir un minimum de budget, d’externaliser tout ou partie du travail rédactionnel à un freelance ou une agence, mais il est évident que recruter un responsable CRM qui sait (bien) écrire est un plus !
  • La créativité en communication. Certains responsables CRM sont plus créatifs que d’autres. Dans un monde où il y a de plus en plus d’émetteurs, où les consommateurs croulent sous les messages et les offres, la capacité à communiquer de manière créative, différente, originale, décalée est de plus en plus recherchée.
  • Le côté bricoleur. Les outils marketing et CRM modernes permettent à des profils purement métier d’effectuer beaucoup de choses qui étaient autrefois réservées aux techniciens. On parle d’outils « self-service » ou « no code » pour désigner ces outils nouvelle génération qui rendent autonomes les équipes métier. Mais il y a toujours certaines opérations qui nécessitent un esprit un peu plus bricoleur, par exemple : être capable de mettre en place un flux de données, ou bien faire un SQL. Un bon responsable CRM a cet état d’esprit et, en tout cas, la volonté d’apprendre à faire ce genre de choses (sans devenir un expert).
octolis-customer-data-platform
Un exemple d’outils no code ? Octolis, qui permet d’unifier les données clients et de créer des segments/audiences facilement synchronisables dans les outils marketing/CRM.

Ce qu’un responsable CRM n’a pas besoin de savoir faire

Un responsable CRM doit pouvoir toucher à tout. Il doit être surtout excité par l’idée d’apprendre de nouvelles choses et d’ajouter de nouvelles skills à son CV. Malgré tout, un responsable CRM n’a pas besoin de :

  • Savoir coder en HTML. Il est toujours bon de connaître les bases du HTML (qui s’acquièrent assez vite), mais un CRM manager n’a pas vocation à créer des templates de mails from scratch en HTML. Premièrement parce que ce n’est pas son rôle, deuxièmement parce que les outils marketing no code permettent d’éditer des contenus web ou des emails ultra-personnalisés sans avoir à écrire une ligne de code. La connaissance du HTML, et plus généralement du code, n’est plus une compétence nécessaire pour créer des contenus sur-mesure.
  • Faire du design. Le responsable CRM n’est pas un designer. Il mobilise volontiers les ressources du design pour créer des communications percutantes, mais ce n’est pas lui qui les crée. Soit il fait appel à des prestataires (agences de design, freelances), soit il utilise les modèles de design proposés par ses outils CRM – marketing ou des petits outils comme Canvas.
  • Être un expert de la solution CRM. Le responsable CRM n’a pas besoin de connaître le détail de toutes les fonctionnalités proposées par le logiciel. C’est parfois impossible et toujours inutile. Le responsable CRM doit maîtriser les fonctionnalités qui répondent aux cas d’usage du logiciel, qui eux-mêmes découlent des besoins métiers et des objectifs CRM.

Comment évaluer vos candidats responsables CRM

Nous avons préparé un template pour vous aider dans la phase de recrutement de votre responsable CRM. Il s’agit d’un test de recrutement d’une durée d’un peu moins de 2 heures où l’on demande aux candidats de répondre à des questions / cas pratiques / exercices. Nous avons beaucoup utilisé ce test de recrutement dans notre propre expérience et, croyez-nous, cela permet de faire assez bien le tri.

recruter responsable crm ressource test

Voici quelques exemples de questions :

  • C’est quoi les différences entre un outil de marketing automation à 100€ / mois, et un autre à 2000€ / mois ?
  • A quel moment penses-tu qu’on a besoin de mettre en place une CDP en amont de la solution CRM / marketing automation ?
  • Que faire si ma délivrabilité sur Gmail devient d’un coup très mauvaise ?
  • Pourrais-tu écrire un email de quelques lignes pour réactiver nos clients passifs ?
  • Le canal email génère peu de conversions selon Google Analytics. Un consultant m’a dit que c’était un problème d’attribution, mais je n’ai rien compris à son explication. Pourrais-tu m’en dire plus ?

Les questions sont classées en catégories : culture CRM, animation des campagnes, analyse clients, pilotage projets. Nous avons inclus aussi un test bonus technique qui consiste à construire un petit dispositif CRM.

Nous vous proposons d’intégrer ce questionnaire/test de recrutement dans votre entretien. Deux approches sont possibles :

  • L’approche automatique. Chez Octolis, pour certains postes, on réalise des tests à distance. Une fois le premier call de qualification passé, on invite le candidat à télécharger le questionnaire depuis une URL qu’on lui envoie par email. Il s’agit de l’URL d’un formulaire (personnellement, on utilise Tally, qu’on recommande, mais vous pouvez utiliser l’outil de votre choix). A la suite de son inscription, le candidat reçoit l’URL de la page Notion que nous vous avons présenté rapidement à l’instant (gif). Une fois le questionnaire test réalisé, le candidat doit envoyer la réponse à travers un autre formulaire pour que l’on puisse intégrer les dates de commencement et de fin de test dans une table. Le temps passé sur le test de recrutement est un indicateur important, évidemment.
  • L’approche traditionnelle. Vous n’êtes pas obligé d’utiliser tel quel le modèle de questionnaire que nous vous proposons. Vous pouvez très bien piocher quelques questions et les soumettre aux candidats en utilisant la procédure de votre choix.

Le métier exige des compétences assez diverses à la fois d’ordre commercial, marketing, technique et statistique et les profils bien formés et expérimentés sont donc assez sollicités.

Cliquez ici pour accéder à notre template de questionnaire dédié au recrutement d’un responsable CRM

Questionnaire dédié au recrutement d’un responsable CRM

Connaissance clients – Exemple de reporting clients sur Excel

Au départ, on se contente souvent des statistiques disponibles dans son CRM ou son outil d’emailing. Mais cela devient très vite insuffisant pour analyser ses clients…Hélas, force est de constater que beaucoup d’ecommerçants et retailers en restent à cette étape. Résultat : ils ne savent pas qui sont leurs meilleurs clients, qui sont les clients inactifs, pourquoi un client devient inactif, pourquoi un client revient, etc.

Ces informations sont clés ! L’impact de la connaissance client sur la performance d’une entreprise n’est pas à démontrer. Toutes les études convergent. McKinsey, pour n’en citer qu’une, a montré que les entreprises qui avaient une très bonne connaissance client affichaient un ROI supérieur à 115% à celui des autres entreprises, et en moyenne des profits plus élevés de 93% (source).

Pour vous aider à augmenter et structurer votre connaissance client, nous avons construit un modèle GSheet de reporting client. Vous pouvez le télécharger gratuitement. Le lien est en fin d’article.

Télécharger notre Gsheet de reporting client

 

Dans cet article, nous allons résumer les principales données à intégrer dans un reporting client et vous donner quelques clés méthodologiques pour construire votre dispositif de pilotage client.

Que doit contenir un reporting sur votre base clients ?

Tableau résumé

Voici un tableau synthétique des principales questions auxquelles doit répondre un reporting de la base clients.

CatégoriesQuestions clés
Qui sont mes clients ?
  • Quel est l’âge / genre / langue de mes clients ?
  • Quel est le canal d’inscription ? (boutique, newsletter ecommerce, programme de fidélité, ...)
  • Où habitent-ils ? (pays, code postal)
Dans quelle mesure ma base clients est-elle exploitable ?
  • Quel est le taux de complétion des colonnes Email, Téléphone, Adresse postale, .. ?
  • Quelle est la part de contacts optin email / SMS ?
  • Quelle est la part de contacts qui ont ouvert au moins un email au cours des 90, 180, 365 derniers jours ?
Quel est le comportement d’achats de mes clients ?
  • Quelle est la répartition de mes clients selon le nombre d’achats réalisés ?
  • Quel est le panier moyen, fréquence d’achat, CA cumulé total ?
  • Quel est la LTV de mes clients selon la catégorie du premier produit acheté ?
Quel est le niveau de rétention de mes clients ?
  • Quelle est l’évolution du taux de passage au 2ème achat ?
  • Comment la catégorie du premier achat détermine la fréquence d’achat ?
  • Quelle est l’évolution du nombre d’achats / CA cumulé par cohortes du premier achat
  • Quel est le ratio LTV / CAC ?
Autres
  • Analyse du coût d’acquisition par canal / par catégorie de produit du premier achat ?
  • Étude du ratio LTV / CAC selon différents critères
  • Évolution du NPS
  • Analyse RFM
  • ...

Détaillons maintenant chacune des catégories.

Qui sont mes clients ?

C’est le premier niveau de connaissance client. A minima, une base clients doit donner des informations sur l’identité de vos clients, leur profil. Voici les questions fondamentales à se poser :

  • Quel est l’âge de mes clients ? Quel est le genre de mes clients ? Où habitent-ils (ville, pays) ? L’âge, le genre et l’adresse sont les 3 données « socio-démographiques »de base.
  • Quelle est la langue de mes clients ? Une donnée importante à avoir pour gérer de manière adéquate les interactions clients, entre autres.

connaissance client exemple qui sont mes clients

  • D’où viennent les contacts ou clients ? Il est intéressant d’avoir une répartition par canal, par magasin, par campagne marketing…
  • Dans quelle mesure pouvez-vous leur parler facilement ? C’est une question de plus en plus sensible depuis l’entrée en vigueur du RGPD. Cela renvoie à la gestion des consentements. Quel est le taux d’optin email ou SMS par exemple ?

On peut aller plus loin en intégrant dans le reporting des données relatives au niveau CSP, à la présence sur les réseaux sociaux, à l’appétence par thématiques ou catégories de produits, aux préférences par canal, à la sensibilité à la pression marketing…

Dans quelle mesure ma base clients est-elle exploitable ?

Un reporting de la base clients ne s’intéresse pas qu’aux clients, il s’intéresse à la base en tant que tel et à son potentiel d’activation/d’exploitation. Pour être pleinement exploitable, une base clients doit être saine. Il est intéressant d’intégrer dans un reporting quelques informations sur la qualité de la base, relatives notamment :

  • Au taux de complétion des colonnes principales : email, téléphone, adresse postale…
  • A la part des contacts option email / sms.
  • Au niveau d’engagement de la base. Par exemple, la part des contacts ayant ouvert au moins 1 email au cours des X derniers jours.

connaissance client exemple base client exploitable

Quel est le comportement d’achats de mes clients ?

La connaissance client consiste à savoir qui sont vos clients, mais aussi ce qu’ils font, la manière dont ils se comportent. Les données sociodémographiques doivent être associées à des données comportementales. Le comportement client qui intéresse le plus une entreprise est bien sûr le comportement d’achat.

Dans notre exemple de reporting client, que vous pouvez télécharger gratuitement, nous avons intégré des informations comme :

  • La répartition des clients par nombre de commandes. Ce point est essentiel. Êtes-vous capable de faire en sorte qu’un primo acheteur achète une deuxième fois, une troisième fois, etc. Cela nous conduit à la question de la rétention dont nous reparlerons dans un instant.
  • Le profil client Ecommerce vs Boutique. Dans le modèle de reporting client que nous proposons, nous affinons l’analyse en prenant en considération l’âge, le sexe et la localisation du client (Paris vs France entière).

connaissance client exemple comportement client

Voici d’autres données relatives au comportement d’achat des clients qui peuvent avoir leur place dans un reporting de la base clients : le panier moyen, la fréquence d’achat, le chiffre d’affaires cumulé…

S’intéresser au comportement d’achat du client, c’est s’intéresser en fait à 2 choses : aux clients et aux produits. Un reporting du comportement d’achat des clients peut donc très utilement être enrichi d’un reporting centré produits. Dans notre notre modèle téléchargeable, nous proposons un reporting centré sur la connaissance produits qui permet de synthétiser les informations business clés relatives à votre catalogue :

  • Le nombre de produits avec plus de X ventes.
  • Le nombre de produits avec plus de Y ventes.
  • La part du Top 10 des produits dans le pourcentage des ventes annuelles.
  • Le Top 10 des produits qui ont généré le plus de CA sur les 12 derniers mois.
  • Le Top 10 des produits qui ont généré la meilleure marge brute sur les 12 derniers mois.
  • La performance par catégorie de produits.

connaissance client exemple connaissance produits
Il y a d’autres questions plus avancées qui méritent d’être posées. Par exemple :

  • Quelle est la corrélation entre les produits ou entre les catégories de produits ? L’idée est de savoir quels produits ou catégories de produits le client d’un produit X ou d’une catégorie Y est le plus susceptible d’acheter en deuxième achat.
  • Y a t-il un effet saisonnalité ?

Quel est le niveau de rétention de mes clients ?

Le sujet du comportement d’achat nous mène tout naturellement au sujet de la rétention client. Ce n’est pas à vous qu’on apprendra qu’il est moins coûteux de retenir un client que d’en acquérir un nouveau et que la rétention est le secret des entreprises à succès. Si vous n’êtes pas tout à fait convaincu et que vous continuez de consacrer l’essentiel de votre budget sur des campagnes d’acquisition, voici 3 statistiques éloquentes au sujet de la rétention client (source : 99firms) :

  • La probabilité de vendre à un client existant est de 60 / 70%.
  • 82% des entreprises que la rétention client coûte moins cher que l’acquisition.
  • Une augmentation de 5% de la rétention client génère une augmentation des profits de l’ordre de 25% à 95%.

Quelles sont les informations relatives à la rétention que l’on peut intégrer dans un reporting client ? Il y a beaucoup de réponses possibles? Voici les dimensions d’analyse que nous avons choisi d’intégrer dans notre modèle de reporting client :

  • L’évolution de la fréquence d’achat en fonction du nombre d’achats. C’est une donnée intéressante pour, notamment, bien calibrer les scénarios d’upsell/cross-sell et, plus généralement, les programmes relationnels. Nous proposons de comparer les comportements boutique et ecommerce.
  • Le passage du 1er au 2ème achat. Ce passage du 1er au 2ème achat est presqu’aussi important que le passage du statut de prospect (ou de simple visiteur) à celui de client primo acheteur. Nous vous suggérons de calculer le taux de passage des clients ayant réalisé 1 achat à ceux ayant réalisé 2 achats ou plus.

connaissance client exemple compoertement client 2

Il est possible d’aller un cran plus loin en affichant des dimensions comme la liste des principaux produits d’appel et la liste des produits participant le plus au repeat business. Ce sont là encore des données très instructives pour améliorer vos scénarios relationnels.

connaissance client exemple connaissance produits 2

Votre reporting client peut également intégrer quelques indicateurs classiques comme le taux de rétention client, le taux de churn, le taux d’achats répétés, le Net Promoter Score (NPS), le taux de clients membres du programme de fidélité, la customer lifetime value…

L’analyse par cohortes est elle aussi très utile pour analyser la rétention et l’impact de vos actions sur celle-ci. Une analyse de ce genre n’a pas forcément sa place dans un reporting client, mais permet d’aller plus loin dans la compréhension du comportement de vos clients.

connaissance client exemples analyse cohortes

L’analyse par cohortes consiste à suivre l’évolution du comportement de différentes cohortes de clients de mois en mois. Cet exemple montre que 29% des clients dont le premier achat remonte à janvier 2021 ont acheté le mois suivant, c’est-à-dire en février 2021. Par contre, 37% clients dont le premier achat a été réalisé en février 2021 ont acheté en mars 2021. Pourquoi ? Un effet de saisonnalité ? Le fruit d’efforts marketing particuliers réalisés en février et en mars ? L’analyse par cohortes est idéale pour détecter et comprendre l’impact des actions marketing.

L’analyse par cohortes que vous pouvez voir est une capture d’écran d’Octolis, et plus précisément du modèle de reporting Ecommerce / Retail que nous proposons à tous nos clients. Ce modèle de reporting par défaut, personnalisable, adaptable, transformable intègre de nombreuses analyses (plus ou moins avancées) pour mesurer la rétention client. Voici quelques exemples :

connaissance client exemple reporting octolis

Ou encore :

connaissance clients exemple octolis

Pour finir, un petit mot de la lifetime value, un indicateur très intéressant qui permet de savoir la valeur moyenne qu’un client génère tout au long de sa vie de client. Cette valeur peut s’exprimer en chiffre d’affaires ou en revenus. Il est notamment très intéressant de la comparer au coût d’acquisition client (CAC), en calculant un ratio LTV / CAC. Ce ratio peut évoluer en fonction de la période de l’année, comme dans l’exemple ci-dessous. Le ratio LTV / CAC peut être utilisé pour bien doser ses efforts d’acquisition.

connaissance client exemple ratio ltv cac
Source : Segment.

Comment s’y prendre pour construire un reporting clients solide ?

#0 Quelques rappels sur la fonction d’un reporting client

Pour commencer, rappelons ce qu’est un reporting et sa fonction. Il existe 2 outils de connaissance clients :

  • Les reportings, qui servent à donner un aperçu global d’une situation à intervalles réguliers. Il intègre un certain nombre de métriques affichées de manière visuelle : courbes, camemberts, tableaux…
  • L’exploration, qui désigne la capacité à produire des analyses ad hoc pour répondre à des questions spécifiques et ponctuelles dont les réponses n’ont pas vocation à s’intégrer dans un reporting. Par exemple : « Combien de nouveaux clients inscrits à Noël ont acheté un produit depuis ? ». Les questions sont posées par le métier, les réponses sont données par l’équipe data.

Nous nous concentrons dans cet article sur le reporting. Un reporting doit :

  • Etre construit en vue d’un certain type d’utilisateurs. Le reporting client du dirigeant ne sera pas le même reporting client que ceux utilisés par les équipes opérationnelles.
  • Être facile à lire visuellement, ce qui suppose un travail de discrimination, de sélection des KPIs et des dimensions à afficher. Toutes les analyses clients n’ont pas vocation à alimenter des reportings (cf. les analyses ad hoc).

connaissance clients exemples niveaux reporting

#1 – Définir les objectifs et le mode d’utilisation du reporting

Dans les grandes organisations, le dispositif de pilotage de la connaissance client s’articule autour de différents (niveaux de) reportings, chaque reporting répondant à un ensemble de questions liées et s’adressant à un type précis d’utilisateurs : responsable acquisition, responsable CRM, dirigeant…Dans une organisation avec peu de moyens, nous recommandons de limiter le nombre de reportings.

La première étape pour construire un reporting de la connaissance client est de définir les objectifs du reporting. Pourquoi souhaitez-vous créer un reporting ? Dans le cas d’un reporting connaissance client, il s’agit de déterminer quelles sont les informations relatives à la base clients vous aimeriez voir afficher sur le reporting. La réponse à cette question dépend bien entendu des cas d’usage du reporting que vous vous apprêtez à mettre en place.

Cette prise de hauteur est importante. L’erreur la plus courante consiste à se précipiter sur la sélection des KPIs et des dimensions. C’est le plus sûr moyen de construire un reporting illisible (car trop chargé) et/ou inexploitable.

Vous devez également définir la manière dont le reporting sera partagé aux utilisateurs. Le reporting peut être intégré directement dans les outils des utilisateurs (sous forme de tableau de bord) ou partagé périodiquement au format Excel par exemple.

#2 – Définir les KPIs et les dimensions d’analyse

Un reporting est composé de différents indicateurs jugés importants et utiles pour répondre aux questions que l’on se pose. Ce sont les fameux KPIS, Key Performance Indicators. La sélection des KPIs est l’aboutissement de l’étape précédente.

En réfléchissant aux objectifs du reporting, vous avez réussi à définir les questions auxquelles le reporting devait apporter des réponses. De ces objectifs et de ces questions, vous déduisez des indicateurs.

Prenons un exemple schématique. Vous voulez créer un reporting client pour que l’équipe marketing puisse analyser la rétention client. L’une des questions auxquelles le reporting doit répondre est : « Quel est le taux de clients membres du programme de fidélité ? ». Le KPI sera : Taux de clients encartés.

Un petit conseil : pour ne pas surcharger le reporting, il est important de ne retenir que les KPIs les plus significatifs. Il faut éviter de dépasser les 30 – 40 KPIs, même si cela dépend évidemment des reportings…

#3 – Définir le cadre technique : extraction, préparation et visualisation des données

Une fois que vous avez défini les dimensions d’analyse et les KPIs que vous souhaitez intégrer dans le reporting, il faut réfléchir à l’alimentation en données. Comment allez-vous récupérer les données dont vous avez besoin ? Il y a plusieurs manières techniques d’alimenter un reporting. Voici une petite synthèse :

connaissance client exemple architecture reporting

L’approche la plus simple consiste à utiliser les fonctionnalités de reporting des outils marketing, mais c’est une approche très vite limitante. Vous serez très contraints par les limites fonctionnelles des outils. Une approche plus pertinente consiste à connecter votre base clients (elle-même connectée à vos sources de données) à un outil de data prep comme Octolis et à un BI léger comme Data Studio ou Metabase.

#4 – Retravailler l’expression des besoins

À l’étape précédente, vous allez sans doute vous apercevoir que certains KPIs sont très complexes à calculer, que les efforts pour obtenir les réponses à certaines de vos questions seraient disproportionnés. Vous allez sans doute devoir faire des compromis. Réfléchir sur le cadre technique très tôt dans le projet permet d’avoir rapidement une compréhension du champ des possibles et d’orienter le projet dans la direction de ce qui est techniquement réalisable.

#5 – Intégrer et préparer les données

Vous savez à présent quelles sont les KPIs que le reporting client affichera. Vous pouvez construire ces KPIs car vous disposez des données nécessaires. La prochaine étape est rapide à énoncer, plus longue à mettre en place. Il s’agit d’intégrer et de préparer les données qui viendront alimenter le reporting client.

Vous avez pour cela besoin d’une base client et d’un outil de data management (CDP, Data Ops…). Cet outil vous servira à construire une table clients contenant toutes les informations nécessaires pour alimenter le reporting : âge, revenus totaux, revenus sur les 365 derniers jours, nombre de commandes, panier moyen, etc.

L’exemple de reporting connaissance client que nous vous offrons en téléchargement peut être alimenté par les tables « contacts », « produits », « commandes » construites et enrichies dans Octolis :

connaissance client exemple dataset octolis

Contrairement à ce que l’on pourrait penser, peu d’entreprises du Retail et du Ecommerce disposent d’une vision complète de leurs clients. Pourquoi ? Parce qu’il manque souvent d’un outil permettant de consolider les données clients. Elles sont éparpillées dans différents outils : la plateforme ecommerce, l’ERP, le POS, le support client, les réseaux sociaux…Une solution de préparation des données comme Octolis a justement pour vocation de remédier à ce problème. Une fois unifiées, préparées et enrichies, les données peuvent être synchronisées avec votre outil de reporting, mais aussi avec les outils opérationnels de l’entreprise : service client, CRM, Marketing Automation, plateformes publicitaires…

#6 – Construire le reporting

Une fois les données consolidées, préparées, enrichies, traitées (scorings, agrégats), il faut réfléchir à la manière dont elles vont s’organiser dans le reporting. La conception de la maquette peut se faire via un outil de wireframing. L’organisation et le format d’affichage des différents éléments du reporting dépendent de l’outil dans lequel le reporting est construit : les outils métier, Excel, un outil de reporting léger (Metabase) ou plus avancé (Tableau, Looker…).

#7 – Recette & Dispositif de suivi

Un reporting n’est jamais parfait du premier coup. Prenez le temps d’examiner la manière dont est utilisé le reporting par les utilisateurs cibles, documentez les bugs éventuels, les suggestions des utilisateurs. Posez-vous les bonnes questions concernant l’alimentation en données, le choix des KPIs, le design du reporting…Qu’est-ce qui peut être amélioré (à tous les niveaux : alimentation en données, choix des KPIs, design du reporting, modes d’utilisation) ?

Cliquez ici pour accéder à notre Gsheet de reporting client

Gsheet de reporting client

Quel est le salaire d’un data analyst en France en 2022 ?

Définir le salaire de votre prochain data analyst est loin d’être aisé. Pour cela, vous devez d’abord établir une fourchette salariale en fonction d’un ensemble de facteurs qui vous sont propres :

  • Le niveau développement de la fonction analytique au sein de votre organisation. En effet, plus votre équipe data est structurée, plus il est facile pour un nouveau membre de s’y intégrer – d’un point de vue opérationnel comme technique. Cela affecte nécessairement le niveau d’expérience que vous devez exiger du candidat, et donc directement le salaire que vous pouvez proposer.
  • L’industrie dans laquelle vous évoluez, ainsi que la spécialisation que vous attendez. Ces critères déterminent votre nombre de candidat potentiel, une industrie spécialisée étant naturellement plus restrictive qu’un marché très ouvert. Aussi les analystes spécialisés sont très prisés et bénéficient d’un effet d’enchères de la part des entreprises qui les démarchent.
  • Votre besoin réel en termes d’analytics. Parfois l’intervention d’un free-lance peut s’avérer être une solution moins coûteuse, mais tout aussi efficace.

Une fois ces critères établis, il est possible de se comparer au marché et de déterminer une fourchette salariale suffisamment compétitive pour attirer les talents dont vous avez besoin. Nous vous proposons donc des chiffres précis à partir de ces observations afin de vous aider à fixer un intervalle en fonction de vos besoins.

Pourquoi vous en entendez tant parler aujourd’hui ?

La data analyse a pris une place centrale dans les entreprises au cours de la dernière décennie, et le data analyst est devenu incontournable pour toute entreprise en phase de croissance.

C’est lui qui assure le traitement des données afin de livrer des conclusions visant à améliorer l’activité de l’organisation. Il peut intervenir à tous les niveaux pour étudier les processus, le marché ou les ventes. Il doit aussi interagir avec tous les métiers, des équipes financières aux équipes marketing et commerciales.

Les missions des data analysts sont variées :

  • Collecte de données,
  • Création de dashboard pour faciliter la transmission des conclusions des analyses
  • Reporting auprès des équipes métiers ou de la direction

Il est toutefois important de noter une distinction entre deux rôles essentiels : le data analyst et le data scientist. Le second s’applique principalement à l’élaboration de modèles prédictifs et d’algorithmes d’intelligence artificielle en utilisant pour cela un large panel d’outils techniques et mathématiques. Le data scientist a donc un profil plus scientifique et une expertise plus importante dans le domaine de la data, ce qui justifie que sa rémunération soit généralement plus élevée.

Les data scientists et les data analysts se sont imposés dans les entreprises au point de devenir des pierres angulaires des organisations les plus performantes. Leurs apports sont essentiels pour toute entreprise souhaitant rester compétitive, et leur rémunération fait, par conséquent, l’objet de nombreuses considérations.

Quelles sont les compétences d’un bon Data Analyst ?

Sens business, SQL, Python, Data viz et capacité à faire le lien entre les équipes data et métier. Le Data Analyst est un mouton à 5 pattes dont la polyvalence est très préieuse pour les organisatisons. Découvrez notre guide complet sur le sujet.

Salaire d’un data analyst, quelles différences en fonction du profil ?

RollThePay établit le salaire moyen d’un data analyst en France à 43 370 € par an avec une fourchette allant de 26 520 € à 68 172 €.

fourchette salaire data analyst

À cette large fourchette s’ajoutent les bonus et l’intéressement, qui sont aussi dispersés.

La dispersion des salaires des data analystes est donc importante, mais elle s’explique par des variations de l’expérience, des compétences et du type de contrat de l’employé.

Salaire d’un data Analyst en fonction de l’expérience

Le premier facteur de différenciation de salaire pour un data analyst est l’expérience. L’expérience d’un data analyst se traduit par une meilleure compréhension des besoins des équipes et la production d’analyses plus pertinentes. Il est donc naturel que ce soit une qualité récompensée par un salaire plus intéressant.

La croissance de la rémunération au cours de la carrière d’un data analyst n’est pas linéaire. Après quelques années d’expérience – environ 5 ans – on peut observer une marche qui peut être interprétée comme un point pivot dans la progression de l’analyste.

croissance salaire data analyst

Cette importante augmentation (+20 à +25%) s’explique par l’apport certain qu’offre l’expérience au terme des premières années de carrière. En effet, la data analyse étant à la fois un métier technique et analytique, ce n’est que lorsque l’employé est capable de créer de véritables synergies entre ces deux facettes, et entre les différents acteurs avec lesquels il travaille, qu’il maximise la valeur ajoutée de l’analyse de données. À partir de ce moment, votre data analyst sera capable de proposer des leviers d’actions efficaces à partir d’observations factuelles.

Transformer les données brutes de la sorte implique d’avoir une certaine expérience de terrain. Après quelques années de pratique, l’analyste acquiert une intuition plus précise permettant à la fois de saisir rapidement les besoins métiers et de savoir de façon presque instinctive ce que les données peuvent offrir comme éléments de réponse.

En plus de ces critères et de ces points de référence, vous devez vous interroger sur le rôle que vous souhaitez donner à votre futur data analyst. Si vous souhaitez mettre sur pied une équipe data, à l’initiative de votre future recrue, cette dernière doit être capable de faire preuve de leadership, d’un profond sens business et d’une grande maîtrise de l’ensemble de l’écosystème technologique. Ces compétences rares doivent naturellement être valorisées dans la rémunération pour attirer les meilleurs talents.

Comment construire votre équipe data ?

Définir les besoins de votre organisation, quelle approche pour intégrer votre équipe data et comment constituer votre équipe data. On vous partage toutes les clés pour contruire une équipe data solide dans cet article.

Les principales compétences impactant le salaire d’un data analyst

L’exposition à des outils technologiques de pointes pour les data analysts explique les fortes disparités des salaires. En effet, si certains se contentent d’effectuer des analyses simples avec des outils facilement accessibles, d’autres choisissent de recourir à des softwares plus complexes et offrent ainsi des conclusions plus poussées et pertinentes. Dans le second cas, le data analyst, conscient de sa maîtrise technique, exige bien souvent une rémunération supérieure.

Les outils techniques qu’utilisent les data scientists sont particulièrement variés, du langage de programmation (R ou python généralement) aux outils de Business Intelligence (Power BI, Tableau) en passant par la gestion de base de données. Cependant tous ces outils n’offrent pas les mêmes avantages de rémunération. Lorsque les compétences techniques recherchées sont rares sur le marché, on observe une véritable inflation des salaires.

competences data analyst

Plus encore, la maîtrise d’outils technologiques de pointes affecte fortement la rémunération des data analysts. O’Reilly a ainsi pu déterminer dans un sondage que les data analysts maîtrisant Hadoop, Spark ou Python étaient deux fois plus à avoir obtenu une importante augmentation au cours des trois dernières années. Ainsi on peut observer de fortes disparités selon les softwares utilisés.

outils data analysts

Énumérer les compétences essentielles pour un data analyst est une tâche assez longue compte tenu de la diversité des outils et des compétences requises. De plus, la seule maîtrise de certains softwares recherchés par les entreprises ne suffit pas à être un data analyst hors pair. La data analyse est un métier complet et vaste, et un bon analyste doit savoir utiliser des techniques lui permettant de faire face à des défis aussi variés.

Compétences d’un data analyst

Nous avons donc regroupé dans un article les compétences essentielles pour un data analyst, ainsi que celles lui permettant de se démarquer. La lecture de cet article vous permet de découvrir en détail ce qu’un data analyst doit être capable de maîtriser afin de pouvoir prétendre à un salaire supérieur à la moyenne.

Il existe aussi d’importantes disparités en fonction de la zone géographique et les secteurs d’activité, avec en tête la finance et le service aux entreprises.

Salaire d’un data Analyst Freelance

Une alternative à l’embauche d’un data analyst est le free-lance. Ce choix peut-être pertinent pour répondre à des besoins plus spécifiques ou ponctuels. La question de la rémunération se pose néanmoins. La plateforme codeur permet de trouver des free-lances et présente publiquement la grille tarifaire des data analysts selon leur expérience. En septembre, le tarif journalier s’élevait à 310€, soit 44€/heure, et le coût moyen des projets était de 4 100€.

Profil du data analystTarif Journalier Moyen
Data analyst débutant140
Data analyst junior280
Data analyst confirmé350
Data analyst senior560

Cette solution permet donc de bénéficier ponctuellement de l’expertise d’analystes compétents tout en limitant le coût de développement du projet.

Salaire d’un data analyst, quelles différences en fonction de l’industrie ?

Si la data analyse représente un enjeu considérable dans toutes les industries, cet or digital prend une place encore plus stratégique dans certains secteurs. De manière générale, l’importance accordée à la data, et donc la rémunération octroyée aux analystes, dépend du volume de données et de l’avantage que procure la maîtrise de celles-ci.

Ainsi, dans un secteur comme la finance, où le volume d’informations croît sans cesse, la gestion des données est devenue la clé de domination du marché. Il serait impensable aujourd’hui de voir prospérer une banque d’investissement qui ne disposerait pas d’un pôle data de pointe. Le secteur bancaire dispose de sources innombrables pour alimenter les datalakes, des données de marchés obtenues en temps réels aux informations liées aux clients. Ces données ont autant d’usages que de sources : ciblage marketing, détection d’investissement potentiel, prédiction de l’orientation des marchés…

Un deuxième secteur où l’utilisation de la data analyse est devenue centrale est celui de la santé. Là encore les sources et usages de la data sont multiples : analyses d’épidémies, aide au diagnostic, suivi de traitements… Une utilisation efficace de ces données permet d’avoir une meilleure compréhension des maladies et de proposer des traitements plus efficaces.

La data analyse est donc essentielle pour ces deux secteurs, qui ont en commun une abondance de sources d’information. Les entreprises maîtrisant ces données disposent d’un avantage concurrentiel certain. Cela provoque naturellement une inflation des salaires dans ces milieux où il faut absolument embaucher les meilleurs talents.

Plus encore, il est possible de se spécialiser au sein des industries afin de développer une véritable expertise pour certains outils. Ainsi un data analyst se spécialisant en finance, dans l’étude des marchés ou dans le domaine de la santé peut accéder à une rémunération supérieure à la moyenne. Cela s’explique principalement par des responsabilités plus importantes ou des tâches plus complexes.

taches data analyst

Salaire d’un data analyst en France : comparaison avec l’étranger

Salaire moyen d’un data analyst junior en Europe

Selon Glassdoor, en 2021, voici la répartition des premiers salaires en euros en fonction des pays :

PaysSalaire junior moyen
Italie29 200
Espagne30 000
France40 000
Royaume-Uni43 600
Pays-Bas51 500
Allemagne52 000
Suisse 90 000

Il existe une grande volatilité des salaires entre les pays, mais aussi au sein des pays. Certains sont sujets à une plus grande variance dans la fourchette salariale, comme le révèle l’étude d’O’Reily :

salaire pays data analysts

Toutefois, ces résultats sont à mettre en perspective avec le PIB de chaque pays. On peut observer une corrélation très nette entre PIB/habitant et salaire du data analyst. Cela se traduit par une rémunération similaire pour les data analysts en comparaison du niveau de vie du pays.

Salaire moyen d’un data analyst aux Etats-Unis

C’est aux États-Unis que l’on trouve le plus d’offres aux salaires élevés. Il peut être compliqué d’y estimer le salaire d’un data analyst compte tenu de la largeur de la fourchette salariale. La rémunération dépend principalement de deux facteurs : la ville et l’entreprise. Voici la rémunération moyenne selon la ville d’après une étude de Etudes tech:

  • Seattle : 150 000$ par an ;
  • San Francisco : 135 000$ par an ;
  • Los Angeles : 135 000$ par an ;
  • New York : 100 000$ par an ;
  • Phoenix : 96 000$ par an ;
  • Washington : 87 000$ par an ;

Le salaire du data analyst dépend aussi fortement de l’entreprise dans laquelle celui-ci travaille. Les salaires dans les réputées GAFAM sont généralement les plus élevés (jusqu’à 140 000$ chez Meta). Les cabinets de conseils ou les grandes entreprises américaines telles que Target offrent aussi de très importantes rémunérations.

 

Ainsi, le salaire d’un data analyst varie grandement en fonction de l’entreprise, de l’industrie et de l’expérience. Il faut donc prendre en compte chacun de ces critères pour estimer la juste rémunération d’un candidat ou pour se fixer un objectif de revenu.

La data analyse est un métier varié qui permet d’évoluer rapidement en progressant sur des thématiques techniques et business, et pour lequel de nombreuses formations existent, quel que soit le niveau !

Comment recruter votre premier Data Analyst ?

Vous avez identifié la fourchette salariale que vous souhaitez attribuer à votre futur Data Analyst ? Découvrez désormais comment recruter la personne qui correspondra le mieux aux besoins de votre organisation grâce à cet article.

Comment construire son équipe Data ?

Avoir la volonté de mettre la data au cœur d’une stratégie commerciale et produit est une chose, être en mesure de construire une équipe data solide, capable de diffuser efficacement ses analyses dans les différentes strates de l’entreprise, en est une autre.

La construction d’une équipe data est une étape complexe pour une organisation. Cela implique la mobilisation de compétences diverses, un recrutement avisé, ainsi qu’une connaissance précise des besoins et des objectifs à atteindre.

Dans cet article nous abordons les étapes clés de cette construction : définition des besoins en fonction des objectifs et de la maturité data, choix du modèle d’intégration avec les autres équipes et bien sûr les profils à privilégier.

#1 Définir les besoins data de l’organisation

Toutes les entreprises ne sont pas égales face à leurs données, certaines ont saisi l’importance de cette matière dans leur croissance, d’autres ont accumulé plus de retard et sont aujourd’hui incapables de les exploiter.

En amont de la constitution d’une équipe data, il est important pour une entreprise d’évaluer son degré de maturité, pour ainsi mieux définir les étapes à suivre vers le Graal et l’organisation “data driven”.

Quelle est la maturité data de votre entreprise ?

La maturité data peut se définir par l’ensemble des moyens, connaissances et actions visant à améliorer la performance globale de l’entreprise grâce aux données.

Tout d’abord, est définie comme donnée toute information utilisée par l’entreprise pour automatiser ou numériser des processus. Les données sont issues de sources diverses (CRM, équipements, capteurs) et leur volume est amené à augmenter dans les années à venir.

Les 5 piliers de la maturité data

Dans son enquête menée en Novembre 2021 auprès de 179 entreprises en Ile-de-France, l’Observatoire de la Maturité Data a établi un rapport qui met en exergue plusieurs points clés.

Pour évaluer la maturité data d’une organisation, l’observatoire a défini 5 piliers pour situer la maturité des entreprises sur le sujet.

  • Le Potentiel data : Désigne la richesse et diversité des données disponibles au sein de l’entreprise afin de déterminer le potentiel de valorisation.
  • La stratégie data : Qui vise à évaluer la capacité de l’entreprise à générer de la valeur grâce à son patrimoine
  • L’organisation et la gouvernance : Permettent d’évaluer l’organisation et les règles permettant d’optimiser l’efficacité de la gestion des données dans l’entreprise (Ethique des données, RGPD, Cybersécurité)
  • Les compétences : Moyens humains et compétences internes mobilisés pour la valorisation des données dans l’entreprise.
  • La culture data : Reflète tous les aspects liés à la sensibilité des acteurs de l’entreprise vis-à-vis de l’usage des données et la connaissance des enjeux.

La maturité d’une organisation est évaluée au niveau de la quantité de données qu’elle possède, mais également à travers sa stratégie, sa gouvernance, sa capacité à instaurer une culture data et à susciter l’adhésion des collaborateurs pour la valoriser.

Les 7 profils de maturité data

Sur la base de ces piliers, nous ressortons 7 niveaux de maturité qui ont été déterminés pour permettre à une organisation de se situer.

  • Niveau 0: Pas digitalisé
  • Niveau 1: Sans outil de pilotage
  • Niveau 2: Pilotage classique
  • Niveau 3: Pilotage évolué (BI)
  • Niveau 4: Pilotage prédictif
  • Niveau 5: Management orienté data
  • Niveau 6: Full Data Driven

Source : https://observatoire-data.fr/process/token/c3aee495753e247c0a615fde4e7446e4

Source : Observatoire de la Maturité Data

Aujourd’hui, les entreprises prennent conscience de leur retard et mettent en place les outils de pilotage et via les outils de reportings. Cependant, à peine 7% des entreprises interrogées sont suffisamment matures pour passer l’étape du pilotage prédictif impliquant des compétences en Data Science.

Le schéma ci-dessous nous montre la répartition des entreprises sur l’échelle de maturité.

Source : Observatoire de la Maturité Data

L’importance du patrimoine Data

Le patrimoine data, aussi appelé Capital Data (ou capital données) désigne l’ensemble des informations que possède une organisation.

La naissance de solutions basées sur le Machine Learning et Deep Learning a transformé tous les actifs d’une entreprise en source de données potentielle et exploitable. Il est donc important d’avoir une lecture structurée du capital d’informations, et de bien définir les typologies et sources de données (notamment en distinguant les données structurées des non-structurées).

Le croisement des données permet de faire ressortir des informations qui peuvent être précieuses. Pour ceci, il est important de les classer selon certaines caractéristiques:

Avoir une vision de clair de ce patrimoine est incontournable pour définir son niveau de maturité.

Objectifs à atteindre grâce aux données

Les cas d’usage potentiels sont très nombreux, et au regard de ces possibilités, l’identification de ces cas est une étape clé. Il est donc primordial de prioriser les objectifs à atteindre.

Source : Observatoire de la Maturité Data

À travers le graphique ci-dessus, on dégage 4 types d’objectifs :

  • Métiers ou Business : Acquérir, fidéliser, améliorer l’expérience client.
  • Prise de décision : Pilotage, anticiper.
  • Productivité : Performance opérationnelle, réduction des coûts.
  • Rupture : Transformer les modèles économiques

La nature des objectifs que vous allez poursuivre via la construction de votre équipe data va impacter le choix des différents profils qui la constitueront.

Comment mesurer le ROI de mon dispositif data ?

Impact sur la productivité des équipes et sur les performances marketing, simulez gratuitement le ROI de votre dispositif data grâce à notre template.

#2 Intégrer l’équipe data à votre organisation

En amont de la constitution de l’équipe data, une bonne démarche consiste à identifier, au sein de l’organisation, les personnes dont les postes sont en lien avec l’exploitation des données. Il ne s’agit peut-être pas uniquement des personnes ayant le terme « données » dans leur titre, mais de tout employé qui n’a pas peur de l’analyse des données ou qui possède déjà des compétences en SQL, comme les Business Ops par exemple.

Si vous ne prenez pas le temps de localiser soigneusement les personnes qui travaillent déjà sur les données, vous risquez de vous retrouver avec une structure d’équipe de données mal structurée, peu susceptible de répondre aux besoins de votre entreprise.

Aussi, avant de choisir le modèle d’intégration de votre équipe data, gardez en tête que cette structure doit être le plus évolutive possible.

Modèles d’intégration centralisé

Le modèle centralisé place l’équipe Data au centre des activités des autres fonctions. C’est une structure qui se présente sous forme de plateforme de données centralisée, où l’équipe chargée des données a accès à la data et fournit des services à l’ensemble des autres fonctions dans le cadre de leurs projets.

Dans le modèle centralisé, l’équipe data est dirigée par le responsable des données, et elle entretient une relation similaire à celle d’un consultant avec son client.

L’équipe chargée des données peut appuyer les autres équipes tout en travaillant sur son propre agenda et le responsable des données dispose d’une vue panoramique de la stratégie de l’entreprise, et peut affecter les personnes chargées des données aux projets les plus adaptés à leurs compétences.

Exemple de modèle centralisé

 

Source : Castordoc – How to build your data team

Aussi, ce modèle offre plus de possibilités pour développer les talents et les compétences du fait de la grande variété de projets et du travail en équipe qui favorise les acquisitions de compétences. Cependant, il implique pour le responsable des données de veiller à ne pas déconnecter l’équipe data des autres unités opérationnelles car les data analysts, scientists et engineers ne sont pas immergés dans les activités quotidiennes.

Ce modèle est particulièrement adapté aux entreprises en pleine croissance car sa flexibilité lui permet de s’adapter aux besoins changeants de celles-ci.

Modèle Décentralisé 

Contrairement au modèle centralisé, qui place l’équipe data au centre des activités, le modèle décentralisé préconise le recrutement des profils nécessaires pour chaque unité opérationnelle, mais qui garde tout de même la plateforme data centralisée. L’équipe constituée répond directement au responsable de l’unité et les profils data recrutés sont impliqués dans les problématiques spécifiques à leur entité d’appartenance, avec peu d’interactions avec les autres équipes data.

Schéma d'un modèle d'excellence

Source : Castordoc – How to build your data team

L’avantage de ce modèle est que chaque unité peut appliquer la méthodologie agile car les membres étant en lien direct avec le responsable, l’équipe data est plus réactive et est dédiée à des fonctions spécifiques. Par ailleurs, les données étant disponibles directement au sein des équipes de l’unité, cela permet à l’équipe data d’accéder directement aux ressources dont elles ont besoin.

Modèle Fédéré / Centre d’excellence

Enfin, il y a le modèle fédéré, qui est plus adapté aux entreprises à la maturité data avérée. Dans ce modèle, les profils chargés d’effectuer les tâches relatives aux données sont intégrés dans les unités commerciales. Mais sont pilotées par un groupe centralisé (centre d’excellence) qui assure le soutien et la formation. Bien que les Data Analysts et data scientists soient déployés dans les différents départements, il y a toujours un responsable de données pour superviser le projet en cours. Cela assure la priorisation des projets et la qualité des services.

Exemple de modèle centralisé

Source : Castordoc – How to build your data team

Le modèle fédéré convient aux grandes entreprises disposant d’une feuille de route claire et qui sont « data driven ». Cependant, il implique une équipe data plus importante car il y a des profils dans le centre d’excellence ainsi que dans les unités.

#3 Constitution de l’équipe Data

Les métiers incontournables d’une équipe Data

Pour avoir une bonne compréhension des trois principaux profils en Data Science, envisageons ceux-ci dans le déroulement d’un projet type en data.

Un projet data se décline par 4 étapes principales:

  • La collecte de données : extraire et réunir les données pertinentes au projet
  • L’exploration : Comprendre la donnée qui a été collectée
  • L’exploitation : Valoriser les données à disposition dans un but prédictif. Cette étape recourt au Machine Learning et Deep Learning
  • La Mise en production (phase d’industrialisation): Mise en production des modèles et ainsi faire passer le projet à grande échelle.

Le Data Analyst

  • Missions

Le Data Analyst explore les données dans le but d’avoir une visibilité sur le passé, et d’analyser les tendances et les corrélations pour aider à la prise de décision. Ses missions s’articulent autour des tâches qui ont trait à l’extraction, l’analyse, et la présentation des données.

  • L’extraction des données depuis une base grâce à SQL
  • Analyse des données (en Python ou R)
  • Création de dashboards avec les outils de Business Intelligence (Tableau, Power BI)
  • Optimisation des processus grâce au Machine Learning

 

  • Intervention dans le projet data

Bien que le périmètre d’intervention du Data Analyst puisse varier en fonction de la structure dans laquelle il évolue, on le trouvera très souvent dans la phase d’exploration, car le gros de son travail sera de comprendre la data à disposition et de lui donner du sens. Le Data Analyst consacre donc une grande partie de son temps à explorer les données, les analyser et les présenter au management.

Pour avoir une vision plus exhaustive sur les compétences d’un Data Analyst, vous pouvez vous référer à notre article dédié au sujet.

Le Data Scientist / Machine Learning Engineer

Le Data Scientist est la « star » dans l’univers de la Data. Son profil est très prisé et il joue un rôle central dans l’ensemble du pipeline d’un projet data. Selon le type de structure dans laquelle il évolue, son rôle peut se concentrer sur la création des modèles de prédiction (Machine Learning).

Par la nature transverse de son métier, les missions du Data Scientist sont très variées, mais le plus souvent, on retrouve les tâches suivantes:

  • Développement des algorithmes de Machine Learning pour optimiser un processus ou automatiser une tâche.
  • Présentation des résultats d’analyse
  • Recueil des données pour alimenter la database ou pour construire un algorithme.
  • Exploration et Nettoyage des données pour les rendre utilisables.

Intervention dans le projet data

Dans une organisation de plus petite taille, et notamment dans une startup, le data scientist occupe un rôle de couteau suisse, ses taches s’étendent de l’exploration des données à la mise en production. Dans une structure plus importante et au sein d’une équipe avec divers profils, son rôle est plus spécifique et il est fréquent que le Data Scientist soit assigné aux seules missions de construction des modèles de Machine Learning.

Il est à souligner que l’arrivée à maturité d’un grand nombre d’entreprises en matière d’intelligence artificielle a favorisé la mutation du profil de data scientist. En effet, les entreprises matures sont passées du stade du POC (Proof of Concept) à la phase d’industrialisation et doivent par conséquent couvrir tout le cycle de vie d’un modèle de Machine Learning, de sa conception à son monitoring en passant par le déploiement. Par conséquent, le rôle du Data Scientist est voué à se transformer et inclure l’étape de la mise en production, ce qui le rapproche du Data Engineer.

Le Data Engineer

  • Mission et compétences

Le Data Engineer travaille dans divers contextes pour construire des systèmes servant à collecter, gérer et transformer les données « brutes » (raw data) en informations exploitables que le Data Analyst et Data Scientist peut exploiter. L’objectif est d’accroître l’accessibilité aux données afin qu’une organisation puisse reposer dessus pour évaluer et optimiser ses performances. Ses principales missions sont :

  • L’industrialisation / monitoring des algorithmes de Machine Learning développés par les data scientists
  • La centralisation et standardisation des données récoltées dans un Data Lake
  • La conception et implémentation du pipeline ETL.
  • Monitoring des flux de données.

A retenir dans cet ensemble de missions, le processus ETL constitue le coeur du métier du Data Engineer. En effet, l’Extraction, la Transformation et le chargement (Load) des données sont les principales étapes qui permettent à une organisation de devenir « data driven ».

Les compétences du Data Engineer sont surtout techniques, elles comprennent la maîtrise des langages de programmation, la connaissance d’une ou plusieurs plateformes Cloud, ainsi que les outils de standardisation d’environnement.

Dans le cadre d’un projet data classique, le Data Engineer intervient principalement en amont lors de l’implémentation du processus ETL.

Son rôle comprend aussi la phase finale d’un projet data, à savoir la mise en production. Dans cette phase, il est chargé d’industrialiser le modèle et d’assurer sa scalabilité.

Postes plus spécifiques : Machine Learning Scientist, Data Architect, Cloud Data Engineer.

Bien que le Data Analyst, Scientist et Engineer soient les trois profils les plus connus et les plus recherchés, les besoins des entreprises mettent en lumière des profils parfois moins classiques, mais qui répondent aux lacunes de compétences pour la réalisation d’un projet.

Ainsi, lorsqu’une entreprise dispose de profils techniques comme le Data Engineer et le Data Scientist, mais qu’elle a besoin d’un profil scientifique plus pointu dans un domaine précis (Computer vision, time series), ou pour améliorer ses algorithmes de Machine Learning, elle peut recruter un Machine Learning Scientist, dont le rôle premier sera d’effectuer les travaux de recherche sur les algorithmes avant leur mise en production.

Le Cloud Data Engineer est un autre exemple de profil à considérer lorsqu’une entreprise repose sa stratégie data sur le Cloud Computing.

Le processus de recrutement

Multiplicité des entretiens et variation selon les profils.

Les entreprises font passer quatre à cinq entretiens dans la plupart des cas. Les recrutements comprennent en général plusieurs tests, des questions théoriques pour vérifier les connaissances indispensables chez le candidat. Des tests techniques, et des entretiens opérationnels avec les pairs. Ainsi, la multiplicité des entretiens peut rendre le processus plus ou moins long. Celui-ci peut durer quelques jours à plusieurs semaines.

La structure de l’entreprise détermine ensuite la forme des entretiens. Lorsqu’il s’agit de cabinets de conseils, il est coutume de faire passer un entretien « conseil » pour évaluer la capacité de consultant du candidat. Mais dans une startup, le processus contient un premier entretien RH, suivi d’un ou deux tests techniques, et un test « fit » pour valider la compatibilité du candidat avec la culture de l’entreprise.

Tests techniques

Cette phase vise à tester les compétences en programmation et la maîtrise des outils exigés pour le profil recherché. Afin de contrôler cela, une première vérification via le CV est nécessaire, pour voir si le candidat a déjà mis en pratique les éléments qu’il a mentionnés.

Des questions techniques simples peuvent être posées durant l’entretien pour vérifier le niveau attendu, et un exercice de programmation permet d’évaluer l’expérience et le savoir faire. Aussi, il est courant de tester les connaissances du candidat en Machine Learning (exemple : Différence entre Machine Learning Supervisé, et Non Supervisé)

Suivant le profil souhaité, le recruteur peut tester le candidat sur la maîtrise d’une technologie inhérente au poste (SQL ou Tableau pour le Data Analyst par exemple, ou la programmation en Scala pour le Data Engineer).

L’importance des soft skills

En dépit de leurs aspects très techniques, les postes en Data accordent une grande importance pour le savoir-être des candidats et leur capacité à communiquer avec des interlocuteurs non spécialistes. Ainsi, un Data Scientist par exemple, doit être capable d’expliquer les outils qu’il a développés et les méthodes mises en œuvre en sachant adapter son discours à une audience qui n’a pas le bagage technique.

Parmi les soft skills, notons quelques-unes des compétences incontournables :

  • Curiosité intellectuelle : Chercher à en savoir davantage que ce que les résultats montrent en surface.
  • Connaissance métier : Il est important que le profil recruté connaisse les métiers et le domaine d’activité dans lequel il opère.
  • Communication efficace : Comme mentionné ci-dessus, un profil spécialisé est amené à communiquer avec un interlocuteur qui n’a pas le bagage technique, une communication « vulgarisée » permet de fluidifier les échanges et le déroulement des projets, et d’obtenir des résultats plus facilement.

Enjeux RH: Formation continue et Turnover

Recruter et intégrer l’équipe data au sein d’une organisation est une étape clé, mais la nature évolutive du domaine, et les aspirations personnelles et professionnelles des candidats obligent les entreprises à considérer la veille technologique et la montée en compétences comme des enjeux clés pour leur compétitivité.

Formation Continue et Upskilling

Compte tenu du caractère innovant de la Data Science, les plans de formation classiques se révèlent peu efficaces. En effet, un Data scientist est régulièrement amené à lire les papiers scientifiques et autres documentations pour rester au fait des dernières découvertes, de nouveaux algorithmes, ou de nouvelles pratiques.

Par conséquent, les formations courtes et régulières s’avèrent plus adaptées pour suivre le rythme des changements.

Dans le cas d’un pur player, il n’est pas rare que l’organisation ait en son sein un département R&D pour rester à la pointe. Quantmetry, un cabinet de conseil spécialisé en data et pure player en IA, dédie près de 20% de la masse salariale à la R&D et ce, pour permettre à ses collaborateurs de prendre part à des projets en partenariat avec le monde académique.

Aussi, la démarche de formation peut se faire à l’initiative de l’employé. Il est nécessaire pour un bon profil de mettre en place une activité de veille sur les technologies. Notamment à travers les blogs d’entreprises actrices dans le Big Data, ou des publications dans les revues universitaires.

Un autre moyen pour se former à travers la pratique consiste à participer aux compétitions en Data Science. Cette approche permet de participer à des événements et de s’améliorer au contact des autres par le partage de connaissances.

La démarche de formation peut se faire à l’initiative du management en proposant des formations courtes à intervalles réguliers. Mais c’est une approche qui peut être coûteuse et chronophage car elle rogne sur l’emploi du temps du salarié. Cependant, il est nécessaire que le Data Analyst / Scientist / Engineer soit proactif et se forme régulièrement seul.

Turnover

La Data Science a connu une évolution fulgurante durant les dernières années, le volume de données a explosé et les besoins des entreprises avec.

Ce faisant, les métiers de la data sont en tension et les entreprises peinent à recruter les profils nécessaires.

Par conséquent, les candidats se retrouvent en position de force et ont plus de facilités pour orienter leur carrière professionnelle et leurs prétentions salariales.

Ainsi, cet état de fait implique pour les entreprises de gérer la rotation des effectifs, et tenter de maintenir un taux de turnover au minimum.

Ainsi, 365 Data Science, un organisme de formation en ligne spécialisé dans le domaine, a dressé dans cet article le portrait robot du Data Scientist en 2021 (Notre constat est extensible au profil de Data Analyst et Data Engineer).

Caractéristiques du Data Scientist en 2021

Les résultats les plus intéressants de l’enquête révèlent que le Data Scientist « type » est employé depuis environ un an, avec une moyenne de 6 ans d’expérience préalable dans le domaine. Aussi, les professionnels interrogés ont changé d’entreprise deux fois ou plus depuis 2017.

Les raisons de ce turnover sont multiples, mais nous pouvons avancer quelques hypothèses pour l’expliquer.

  • Le manque d’engagement des employés est l’une des principales causes de la rotation du personnel. Lorsqu’un employé ne ressent pas l’impact de son rôle, estime que son salaire est insatisfaisant, ou est affecté par son environnement de travail, il est plus simple dans un marché en tension d’avoir de meilleures opportunités.
  • Un décalage entre les attentes du profil recruté et les missions quotidiennes: Si le recruteur ne définit pas correctement les rôles dans la description du poste, cela peut induire en erreur le candidat et ce dernier se verra octroyer des tâches qui sont en décalage avec ses compétences.
  • Opportunités: L’évolution constante du domaine et l’apparition de nouveaux défis incitent les professionnels à suivre le rythme et à rechercher de nouvelles opportunités. Sans possibilité de développement professionnel, les profils en Data Science n’auront aucune difficulté à changer d’employeur jusqu’à trouver l’entreprise qui correspond à leurs besoins.

La rétention des profils est donc primordiale, et les entreprises doivent accompagner leurs offres avec des avantages pour fidéliser les employés:

  • Équilibre vie privée / vie professionnelle.
  • Télétravail : Comme le montre une étude menée par Microsoft, 70%  des employés souhaitent un environnement de travail plus flexible.
  • Opportunités : formations pour acquérir une compétence spécifique, implication des employés dans la définition des objectifs de développement professionnel dans l’entreprise, possibilité de promotion. Autant de mesures qu’une entreprise peut prendre afin qu’un profil recruté soit impliqué et motivé pour contribuer à sa croissance.

Comment recruter son premier data analyst ?

Recruter son premier data analyst est un défi de taille aux conséquences importantes pour l’entreprise. C’est lui qui va poser les fondations de votre équipe data sur deux aspects à la fois :

  • D’un point de vue humain : développement de l’équipe
  • D’un point de vue technique : choix des technologies et de l’architecture pour construire un système data stable, viable et pertinent.

Un véritable challenge en somme, mais qui peut être résolu si l’on possède les bonnes clefs de compréhension.

Nous avons donc développé pour vous un guide complet en s’appuyant sur les sources les plus pertinentes et notre expérience afin de vous aider à définir les compétences dont votre premier data analyst doit disposer et de vous accompagner dans le processus de recrutement et d’intégration de votre futur collaborateur !

Identifiez de qui vous avez besoin

Quand recruter un data analyst ?

Trouver LA bonne personne dans une entreprise grandissante signifie d’abord trouver la personne qui s’inscrit le mieux dans votre lancée. Il faut employer l’individu dont les compétences et l’expérience sont la clef pour accélérer votre croissance. Ces critères sont évidemment variables en fonction du stade de développement de votre entreprise.

data analyste taille entreprise

Tristan Hardy a établi une classification des besoins en data analyse pour une entreprise selon sa taille. Il rappelle ainsi que la majorité des start-up recrutent leur premier data analyst alors qu’elles sont encore en « early stage ».

Le moment idéal pour recruter son premier data analyst est lorsque l’entreprise a dépassé ses tout premiers stades et qu’elle compte entre 20 et 50 employés. À ce niveau, les données dont elle dispose émanent principalement des applications utilisées pour votre activité (un dashboard Stripe ou Facebook…). Si la plupart des entreprises à ce stade de développement disposent des principaux outils analytiques (Google analytics, Mixpanel…), très peu ont une infrastructure data complète avec un data warehouse et des outils BI.

C’est donc une problématique qui intervient rapidement dans le développement de la structure et qu’il est nécessaire d’anticiper.

Qu’attendre de son premier data analyst ?

Définir clairement les tâches dont votre premier data analyst doit s’acquitter est essentiel pour exploiter efficacement vos données et apporter une véritable plus-value aux équipes métiers. Puisque c’est cet analyst qui va poser les fondations de votre infrastructure data, il doit être capable de :

  • Avoir une approche transverse et communiquer avec toutes les équipes.

Cela est primordial afin de comprendre précisément les besoins des équipes et de transmettre clairement les résultats des analyses. De plus, il est nécessaire d’être capable de s’adresser à toutes les équipes pour ancrer la data analyse dans la culture de l’entreprise et les processus métiers.

  • Construire des modèles de données optimaux.

La structure que met en place le premier data analyst sera utilisée pendant plusieurs années. Il faut donc qu’elle soit résiliente et parfaitement adaptée aux besoins commerciaux. Pour cela, le premier data analyst doit être compétent dans l’usage de Git et de SQL et doit aussi savoir construire des tables de données. Un candidat incapable de se servir de Git manque très certainement d’expérience avec les autres outils plus complexes, il est donc essentiel de tester ces compétences lors du recrutement. Une infrastructure data mal conçue peut avoir des répercussions sur plusieurs années et des coûts de restructuration particulièrement importants.

Il faut ainsi choisir quelqu’un pouvant endosser les rôles d’analyst et d’analytics engineer, c’est-à-dire quelqu’un capable de mettre en place une infrastructure propice à l’usage de la data et de réaliser des analyses pertinentes.

Andrew Bartholomew positionne ainsi ce qui doit être le premier analyst dans l’écosystème data :

 

La question de la séniorité se pose aussi lors du recrutement. Deux aspects doivent être pris en compte :

  • L’expérience :

Le candidat est-il capable de construire une infrastructure complexe répondant aux besoins de l’entreprise avec les contraintes qui lui sont imposées ? Nous considérons qu’il faut avoir pour cela au moins 4 ans d’expérience. Il est peu probable qu’un candidat ayant moins d’expérience puisse mener le développement d’un tel projet efficacement et prendre les décisions les plus optimales pour l’entreprise.

  • Le management :

Bien que le sujet ici soit le premier data analyst, il faut aussi considérer l’évolution de votre équipe data. Le candidat est-il capable de manager une équipe de 5 personnes, de trouver les talents nécessaires à son équipe et de les recruter ?

Le processus de recrutement d’un data analyst décrypté

#1 La structure de l’offre d’emploi

Pour convaincre les meilleurs candidats de postuler, il est crucial d’avoir une offre d’emploi structurée afin que les lecteurs comprennent la teneur du rôle. Trop d’offres n’apportent pas assez de précisions ou de détails, ce qui rebute les candidats qui craignent d’arriver dans une entreprise où la place de l’équipe data n’a pas été véritablement définie.

Nous avons trouvé une structure en 5 parties, particulièrement efficace pour ce type d’offre :

  • Présentation générale et contexte :

Dans cette première partie, il faut présenter l’entreprise au candidat ainsi que vous attentez pour ce rôle. Vous pouvez préciser le degré de spécificité de l’emploi (est-ce que cela porte sur un domaine en particulier), et la structure actuelle de votre équipe. Il faut aussi expliquer les besoins que vous avez dans votre équipe.

  • Exigences :

Cette partie permet de présenter vos attentes techniques au candidat. Vous devez y lister les technologies qu’il est essentiel de maîtriser, et celles qui sont « un plus » – attention à bien séparer ces deux catégories.

La difficulté de cet exercice est de trouver le bon degré de précision. Une liste trop abstraite conduirait des candidats trop peu expérimentés à postuler, quand une liste trop précise risquerait de vous priver de bons éléments. Il faut donc déterminer si, pour une technologie donnée, vous souhaitez avoir un candidat maîtrisant l’outil exact ou ayant de l’expérience avec ce type de software. Par exemple, si vous utilisez Airflow, voulez-vous d’un candidat sachant maîtriser cette plateforme, ou d’une personne expérimentée avec les outils d’orchestration des données ?

Nous recommandons de lister entre 5 et 10 technologies pour être précis et concis.

  • Responsabilités :

Cette partie est probablement la plus importante pour le candidat. C’est là qu’il détermine si le rôle l’intéresse. Il faut donc être spécifique et surtout pertinent pour que celui-ci puisse se projeter et désirer obtenir l’emploi. Mettez en avant les missions intéressantes qui seront confiées à l’employé.

  • Processus de recrutement :

Un candidat séduit par les points précédents va naturellement se demander comment postuler et se préparer aux entretiens. Il faut donc dédier une partie entière de l’offre à la présentation du processus de recrutement.

Les candidats sont bien plus susceptibles de postuler s’ils connaissent la teneur du processus de recrutement. Cela permet donc d’avoir plus de candidats, qui sont eux-mêmes mieux préparés. C’est donc le meilleur moyen pour vous, in fine, de sélectionner le candidat le plus apte.

  • Vos premiers mois :

Cette partie permet de se différencier de la majorité des offres d’emploi. En présentant aux candidats la teneur de leurs premiers mois, vous les aider à la fois à se projeter et en même temps à se rassurer.

Plus encore, en définissant les principaux points qui vont occuper les premiers mois de la personne recrutée, vous prouvez aux candidats que l’emploi que vous proposez est intéressant et nécessaire pour votre activité.

Emilie Schario propose plusieurs exemples d’offres d’emploi suivant cette structure.

job description data analyst

#2 Partager la meilleure offre d’emploi n’est pas suffisant

Les data analysts font partie des emplois les plus difficiles à recruter. Même en ayant une offre d’emploi de très bonne qualité, il n’est pas certain que vous trouviez la personne adaptée à vos besoins.

Nous vous proposons donc un ensemble de conseils supplémentaires afin de vous aider dans cette tâche.

Se rapprocher de la communauté data

La meilleure façon de rencontrer l’individu capable de répondre à vos besoins est de chercher directement au sein de la communauté data et dans les groupes de data analysts. Il existe de nombreuses communautés en ligne, dont le degré d’engagement varie. LinkedIn est l’une des ressources les plus efficaces pour cela, avec de nombreux groupes d’échanges au sein desquels les membres partagent leurs projets. Vous avez ainsi directement aux profils des individus et à leurs portfolios.

D’autres plateformes permettent de découvrir des individus très engagés dans cette communauté, à l’instar de Quora ou de StackOverflow.

Enfin, il existe des rencontres et des évènements en physique durant lesquels sont présentés les outils les plus en vogue, l’évolution des techniques et des plateformes data… Y assister permet de mieux comprendre cet écosystème, de savoir que chercher et peut-être de rencontrer votre futur data analyst.

Juger les projets, pas seulement les CV

L’Analytics requiert de nombreuses compétences techniques qu’il est très difficile d’évaluer sur un CV. Chaque candidat s’évalue de sa propre manière, et le niveau mis en avant sur le CV ne reflète pas nécessairement la réalité. Pour cette raison, il est souvent plus pertinent de juger un candidat sur ses projets, ou du moins d’y prêter une grande attention.

Les développeurs incluent très généralement leur portfolio dans leurs candidatures. Vous pouvez aussi le demander dans les éléments du dossier. Ces portfolios permettent de se rendre compte du niveau réel de l’individu, d’avoir une idée de son expérience et même de mieux connaître le candidat.

Plus encore, vous pouvez proposer un jeu de données en libre accès en ligne, sur Kaggle par exemple. Cela permet aux candidats de montrer leur expertise sur des données réelles et similaires à celles qu’ils pourraient exploiter chez vous. Vous pouvez même organiser des compétitions à partir de ces data sets afin de détecter des data analysts possédants les compétences recherchées.

#3 Faire passer un entretien à un data analyst

Un entretien pour un data analyst doit permettre d’évaluer ses compétences techniques, comportementales et relationnelles. Chacune de ces 3 facettes de l’individu est extrêmement importante pour un métier transverse.

> Compétences Techniques

Exemples de questionsIntérêt de la questionQu'attendre comme réponse ?
  • Quels outils d'analyse statistique et logiciels de base de données avez-vous déjà utilisés ?
  • Quels sont vos préférés et pourquoi ?
  • Évaluer l’expérience de l’individu
  • Capacité d’adaptation
  • SQL, le langage dominant dans ce secteur
  • Des outils de BI
  • Volonté d’apprendre de la part du candidat
  • Comment vous y prendriez vous pour mesurer la performance commerciale de notre entreprise, et quelles sont les informations les plus importantes à prendre en compte ?
  • Évaluer la capacité du candidat à comprendre les besoins de l’entreprise
  • Des éléments prouvant que le candidat s’est intéressé à l’entreprise
  • Une approche business qui puisse s’appliquer dans l’entreprise
  • Quelles sont les meilleures pratiques en matière de nettoyage des données ?
  • Quelles sont les étapes à suivre ?
  • Estimer le niveau technique du candidat
  • Des exemples de pratiques tels que « classer les données par attributs »
  • Des exemples de la propre expérience du candidat

> Compétences Comportementales 

Exemples de questionsIntérêt de la questionQu'attendre comme réponse ?
  • Parlez-moi d'un moment où vous pensez avoir fait preuve d'une bonne intuition en data.
  • Détecter la capacité du candidat à rapidement analyser un graphique ou un ensemble de données
  • Un exemple précis en détaillant ce qui a mis « la puce à l’oreille » du candidat, son analyse et sa manière de résoudre le problème
  • Décrivez votre projet data le plus complexe, du début à la fin.
  • Quels ont été les principaux challenges et comment les avez-vous relevés ?
  • Avoir des précisions sur le niveau du candidat et sur son expérience
  • Le candidat doit prouver qu’il peut résoudre des problèmes complexes tout en prenant en compte les autres parties prenantes
  • Parlez-moi d'une occasion où vous avez mis en place une expérimentation. Comment avez-vous mesuré le succès ?
  • Estimer la capacité du data analyste à mettre en place des outils utiles à l’entreprise
  • Exemple précis et clair, type A/B testing
  • Des mesures et des KPIs pertinents

> Compétences Relationnelles

Exemples de questionsIntérêt de la questionQu'attendre comme réponse ?
  • À votre avis, quelles sont les trois meilleures qualités que partagent les bons data analyst ?
  • Les softs skills sont essentiels pour un data analyst
  • Conscience qu’un data analyste a un rôle relationnel
  • Comment expliqueriez-vous vos résultats et vos processus à un public qui ne connait pas le rôle d'un data analyst ?
  • Estimer la capacité d’un candidat à s’adresser à des audiences variées
  • Capacité à vulgariser la data analyse
  • Conscience de l’importance de clarifier les conclusions d’une analyse
  • Qu'est-ce qui vous a attiré vers l'analyse des données ?
  • Comprendre les motivations du candidat
  • Un intérêt prononcé pour la data analyse
  • Une ouverture sur d’autre champ de la data, tel que l’AI

Comment tirer le meilleur parti de votre premier analyst de données ?

Embaucher la bonne personne n’est que la première étape du processus. Une fois qu’elle a rejoint votre équipe, vous voulez vous assurer que la personne pour qui vous avez passé tant de temps (et d’argent !) à recruter sera en mesure d’être efficace le plus rapidement possible.

Une bonne façon de gérer cette situation est de fixer des objectifs à 30/60/90 jour que vous passerez en revue chaque semaine lors des entretiens individuels.

Dans cette vidéo, un employé de dbt explique ce qu’il a particulièrement apprécié le fait d’avoir un plan à 3 mois dans l’offre d’emploi. Plus encore, cela lui a facilité son intégration dans l’équipe data et lui a permis de suivre son évolution au cours des premiers mois.

data analyst ramp up

Les attentes à 1 mois

Le premier mois est décisif pour l’intégration d’un individu dans une entreprise. Dans le cas d’un data analyst, dont les fonctions imposent qu’il soit en contact avec toutes les équipes, ce premier mois doit lui permettre de bien saisir les enjeux de chaque équipe et de proposer en réponse à cela des premiers KPIs ainsi qu’une roadmap pour les mois à venir. Les principales tâches consistent en :

  • Récupérer les données des outils data pour les regrouper dans un Data Warehouse,
  • Sélectionner les principaux outils de reporting (une tâche souvent plus complexe qu’il n’y paraît),
  • Présenter les premiers indicateurs et les premiers reportings (à ce niveau, les conclusions des analyses sont encore sommaires),
  • Rencontrer tous les principaux interlocuteurs

Les attentes à 2 mois

Le deuxième mois constitue une transition entre le premier où le data analyst découvre les données et les outils, et le troisième au cours duquel il finalise ses premiers modèles.

Les attentes lors de ce deuxième mois doivent donc porter sur la transition entre ces deux étapes :

  • Mise en place d’un dashboard regroupant les principaux KPIs
  • Développement d’un premier modèle. À ce stade, il faut surtout s’assurer que le data analyst ait bien saisi les enjeux sur lesquels porte son modèle.

Les attentes à 3 mois

C’est au cours du troisième mois que l’on peut attendre du data analyst d’avoir fini son premier modèle de données. Il doit alors être capable de répondre simplement à des questions de la part des équipes métiers sans avoir à effectuer de requêtes particulièrement complexes.

Toutefois, cette limite de trois mois est grandement dépendante de la taille de l’entreprise et du volume de données dont vous disposez.

 

Ainsi, le recrutement de votre premier data analyst est aussi crucial que complexe. Afin d’embaucher le talent capable d’utiliser de façon optimale vos données, il est nécessaire de :

  • Publier une offre claire et structurée
  • Se rapprocher des groupes de data analysts
  • Mettre en place un processus de recrutement visant à évaluer les compétences techniques, comportementales et relationnelles du candidat
  • Préparer son intégration afin de suivre sa progression au cours des premiers mois.

CRM vs CDP : les limites à utiliser un CRM comme base clients principale

La solution CRM a longtemps été utilisée comme base clients principale par les entreprises. Le logiciel CRM, qu’il s’agisse d’un CRM commercial comme Salesforce, d’un CRM Marketing (Automation) comme Splio ou Adobe Campaign, servait à la fois de base clients et d’outil de gestion de la relation clients.

Puis est apparue une nouvelle famille de logiciels : les Customer Data Platforms (ou CDP), conçues pour jouer ce rôle de référentiel client en lieu et place du CRM. Les logiciels CRM ont des limites structurelles en matière de gestion de base de données. Les CRM gèrent mal les données comportementales, le temps réel ou encore la réconciliation multi-sources (indispensable pour pouvoir disposer de données unifiées). Ce sont ces limites qui expliquent très largement le succès des CDP.

Avec la multiplication des outils, des sources de données, la place croissante des données comportementales, de plus en plus d’entreprises font le choix de gérer leur base clients indépendamment de leur logiciel CRM principal. Ce nouveau paradigme consistant à découpler la base clients et les outils d’activation est rendu possible par la dernière génération de CDP.

Lorsque l’on cherche à construire ou améliorer son écosystème CRM, il faut se poser cette question essentielle : quel système ou quel outil doit jouer le rôle de base clients principale ? Certaines entreprises continuent de penser que le CRM peut jouer ce rôle. D’autres au contraire choisissent de s’équiper d’une CDP. Beaucoup, enfin, sont un peu perdues et ne savent plus trop quoi en penser. C’est notamment pour ces entreprises que nous avons écrit cet article.

Dans cette publication, nous allons commencer par vous aider à mieux comprendre les différences entre CRM et CDP. Nous prendrons ensuite le temps de présenter les exigences requises pour qu’une base clients puisse jouer le rôle de référentiel client. Cela nous conduira à aborder les différentes raisons pour lesquelles nous pensons que le logiciel CRM n’est plus adapté pour jouer ce rôle.

Comprendre les différences entre CRM et CDP

Avant toute chose, il faut rappeler que CDP et CRM ne sont pas des solutions concurrentes, mais complémentaires. Une entreprise qui est équipée d’une CDP dispose la plupart du temps d’un CRM.

Pour commencer, voici un tableau synthèse des principales différences entre CRM et CDP :

CRMCDP
RôleGérer la relation clients : les interactions commerciales (gestion des leads), marketing (campagnes et scénarios) et servicielles (support client)) Gérer la base de données clients : réconciliation des données autour d’un ID client, hub data pour les autres systèmes
UtillisateursProfils métiersProfils martech ou data
Ingestion de donnéesBatch ou manuelTemps réel ou presque
Réconciliation / déduplicationBasée généralement sur l'emailRéconciliation déterministe ou probabiliste basée sur plusieurs clés
Transformation de donnéesBasique ou inexistanteAvancée : normalisation, enrichissement, segmentation, scoring, création d'audiences...

Définition du CRM – Customer Relationship Management

Un logiciel CRM sert à centraliser la gestion des interactions clients. Il existe quatre familles de CRM :

  • Les CRM commerciaux, utilisés par la force de vente, conçus pour gérer le suivi des opportunités commerciales, piloter l’activité commerciale. C’est la famille CRM la plus ancienne.
  • Les CRM Marketing, utilisés par l’équipe marketing, conçus pour gérer la segmentation client, les campagnes et scénarios marketing.
  • Les CRM orientés service client, destinés aux centres de contacts et servant à gérer les interactions sur les canaux du service client : tickets, téléphone, livechat…
  • Les solutions CRM tout-en-un qui permettent de gérer aussi bien les interactions commerciales, marketing et servicielles.

Le CRM est donc un outil avant d’être une base de données. Sauf que, nous le rappelions en introduction, le CRM joue de fait depuis longtemps le rôle de base de données. Il stocke :

  • Les données froides, essentiellement des données de profil et des informations de contact : nom, prénom, genre, date de naissance, téléphone, adresse postale.
  • L’historique conversationnel : les échanges par mail, sur les réseaux sociaux, les notes de rendez-vous, etc.

Les éditeurs ont tous développé des connecteurs pour que le CRM accueille d’autres types de données, par exemple les données transactionnelles et, avec beaucoup moins de succès, les données comportementales/de navigation web. Cela a contribué à accentuer cette évolution du CRM qui, d’outil d’activation et de gestion des interactions, s’est progressivement transformé en référentiel clients principal.

Rappel définition CDP – Customer Data Platform

Une Customer Data Platform est une technologie qui sert à unifier les données clients, à les préparer en fonction des cas d’usage de l’entreprise et, enfin, à les redistribuer aux autres systèmes de l’entreprise (outils d’activation et outils de reporting). C’est fondamentalement un outil de Data Management.

Une CDP sert à opérer 4 activités principales :

  • Connecter. Elle se connecte à l’ensemble des sources de données clients de l’entreprise, avec des flux de données qui peuvent être construits via des connecteurs natifs, des APIs, des webhooks, des chargements de fichiers plats, etc.
  • Structurer. Les données sont organisées dans un modèle de données personnalisé en fonction des besoins de l’entreprise. Elles sont dédupliquées sur la base d’une ou de plusieurs clés de rapprochement. La déduplication permet de consolider les données, de les réconcilier et de les unifier autour de profils clients persistants.
  • Préparer. Les données, une fois unifiées, sont utilisées pour construire des audiences, des segments, des scores et d’autres champs calculés.
  • Synchroniser. Les segments, les audiences, les scores sont ensuite redistribuées aux outils d’activation (CRM, Service Client, Marketing Automation, outils publicitaires…).

Le CDP Institute a identifié 5 critères pour qu’une solution puisse être qualifiée de Customer Data Platform :

  • Ingérer des données en provenance de n’importe quelle source.
  • Capturer tout le détail des données ingérées.
  • Stocker les données ingérées de manière persistante.
  • Créer des profils clients unifiés.
  • Partager les données avec les systèmes qui en ont besoin.

Zoom sur les principales différences

Résumons ici les principales différences entre CRM et CDP :

  • La finalité. Le CRM sert à gérer la relation client, la CDP à gérer les données clients. CRM et CDP servent tous deux, bien que de manière différente, à améliorer la performance client.
  • Les utilisateurs. Les CRM sont utilisés par les équipes opérationnelles impliquées dans la gestion du dialogue clients : les commerciaux, le marketing, le service client essentiellement. Les CDP ont vocation à être utilisées par des profils marketing plutôt technophiles et les équipes data. CRM et CDP sont conçus pour être utilisés de manière autonome par les équipes métier (sans l’équipe IT).
  • Les données. Un CRM gère très bien les données froides et les historiques relationnels (conversationnels, contractuels, transactionnels) mais mal les données chaudes. A l’inverse, une CDP gère tous types de données, y compris les données comportementales (web tracking…). CRM et CDP se concentrent essentiellement sur les données first-party, suivant en cela le sens de l’histoire (fin des cookies tiers).
  • Le mode d’ingestion des données. Les CDP gèrent le temps réel ou le quasi-temps réel, que ce soit en entrée (connexion aux sources) ou en sortie (distribution aux outils de destinations). Les données du CRM sont soit ingérées en batch, soit enregistrées manuellement par les utilisateurs. Cela s’explique par le fait que les cas d’usage du CRM ne nécessitent pas l’ingestion en temps réel.

Que faut-il pour gérer correctement votre base clients principale ?

La formulation des différences entre CRM et CDP donne déjà des pistes de réponse à la question que nous nous sommes proposé de traiter dans cet article : quel outil ou système doit jouer le rôle de base de données principale. Poursuivons notre investigation. Nous allons à présent définir les principales caractéristiques que doit avoir une base clients pour pouvoir jouer le rôle de BDD principale ou de « Référentiel Client Unique ».

La base clients principale doit être exhaustive

La base de données doit centraliser l’ensemble des données clients qui ont un intérêt connu ou potentiel pour l’entreprise. Une entreprise peut stocker différents types de données :

  • Les données de profil.
  • Les informations de contact.
  • L’historique des interactions, qu’elles soient conversationnelles ou transactionnelles.
  • Les données de préférence.
  • Les données comportementales : navigation web, utilisation des produits (comportement dans le logiciel, dans l’appli…)…
  • Les données d’engagement, par exemple le comportement email (ouvertures, clics, etc.).
  • Etc.

Il existe plusieurs manières de catégoriser les différents types de données clients. Peu importe ici. L’essentiel à retenir est qu’une base clients, pour pouvoir être exhaustive et jouer son rôle de base maître, doit être en capacité de gérer tous types de données : les données chaudes aussi bien que les données chaudes, les données tierces aussi bien que les données personnelles, les données online aussi bien que les données offline, les logs web aussi bien que les numéros de téléphone.

La base clients principale doit être unifiée

La base clients principale a vocation à agréger l’ensemble des données clients collectées via les différentes sources de données de l’entreprise. Cette agrégation produit nécessairement des doublons, qui peuvent avoir 2 origines :

  • Un client peut être identifié différemment dans deux outils différents. Par exemple, un client peut être identifié par son email dans l’outil de Marketing Automation, par un numéro client sur l’espace en ligne et par un téléphone dans le logiciel du service client. Résultat : si vous n’utilisez pas de clé(s) de rapprochement, vous ne pourrez pas savoir que c’est le même client qui se cache derrière les trois identifiants. Vous aurez trois doublons, trois identités non réconciliées.
  • Un même outil peut stocker un même client à deux endroits différents. Exemple : si vous utilisez un CRM qui utilise l’email comme identifiant unique et qu’un client utilise deux emails, vous aurez deux fiches contacts, deux identités.

Dans les deux cas, le problème est fondamentalement le même : il n’y a pas, comme on dit dans le jargon, de résolution d’identité.

Il faut absolument être capable d’unifier les données qui rejoignent la base clients principale. Comment ? Via le paramétrage de règles plus ou moins complexes de déduplication, permettant de faire matcher les données entre elles, de procéder aux fusions d’enregistrements.

La base clients principale doit être propre

Une base de données propre est une base qui remplit 4 conditions. Il faut que les données qu’elle stocke soient :

  • Soumises à un modèle de données cohérent et adapté. Le modèle de données définit la manière dont les données viennent s’organiser dans les tables qui composent la base de données.
  • Normalisées. La normalisation renvoie à la manière dont sont enregistrées et affichées les données. Pour l’objet « genre » par exemple, on peut utiliser les formats « F » et « M », ou bien « Femme » et « Homme »…Il faut que pour chaque objet soit défini un seul et unique format. C’est ce que l’on appelle la « normalisation » des données.
  • Nettoyées. Le nettoyage désigne l’ensemble des opérations consistant à vérifier l’exactitude des données et à supprimer/mettre à jour les données inexactes.
  • Régulièrement mises à jour. Le nettoyage des données, qui est une opération ponctuelle et périodique, doit être complété par la mise en place de flux de données automatisés permettant de mettre à jour régulièrement les données, voire en temps réel pour ce qui est des données comportementales.

Une base de données clients, pour jouer le rôle de base principale, doit donc proposer :

  • Un ou plusieurs modèles de données suffisamment souples pour répondre aux besoins de l’entreprise et aux caractéristiques de ses données.
  • Des fonctionnalités de normalisation des données.
  • Des fonctionnalités de gestion de la qualité des données et d’enrichissement.
  • Une gestion du temps réel ou quasi-temps réel pour être en capacité de mettre à jour en continu et sans délais les données comportementales/chaudes.

La base clients principale doit servir de hub avec les autres systèmes

La base clients principale doit pouvoir facilement alimenter les autres systèmes de l’entreprise, qu’il s’agisse des outils opérationnels / d’activation (CRM ventes, CRM marketing / marketing automation, CRM service client, DSP / plateformes publicitaires…) ou des outils d’analyse (BI, reporting, data science…).

Elle doit facilement pouvoir se « câbler » aux outils de destination, que ce soit via des connecteurs natifs, une solide API, des webhooks ou des exports manuels.

Les limites structurelles de la plupart des solutions CRM / marketing pour jouer le rôle de base clients

La plupart des logiciels CRM / Marketing ne sont pas conçues pour jouer le rôle de base clients principale, pour la bonne raison qu’il s’agit de logiciels de gestion de la relation clients, et non d’outils de structuration des données clients.

Modèle de données rigide

Le modèle de données proposé par les solutions CRM est plus ou moins rigide, souvent plus que moins. Pour rappel :

  • Les CRM légers (les gestionnaires de campagnes ou les petits CRM Sales, par exemple) sont monotables. L’ensemble des données est organisé dans une seule et unique table.
  • Les outils intermédiaires sont multitables mais « figés ». Le modèle de données s’organise sur plusieurs tables (clients, produits, commandes…), mais il est difficile d’ajouter de nouvelles tables ou de modifier la relation entre les tables.
  • Les outils avancés comme Salesforce sont à la fois multitables et souples.

La conséquence, c’est qu’il est difficile de faire évoluer le modèle de données d’un CRM, sauf à disposer d’un CRM très avancé (et en général très coûteux) comme Salesforce. Première limite.

Pas de réconciliation multisources

Dans la plupart des CRM, c’est l’email qui sert de clé. Cela signifie que si le même individu s’inscrit avec deux emails différents, cela créera deux lignes dans le CRM, même si l’individu s’est inscrit avec le même téléphone, le même nom x prénom, le même code postal…

La conséquence est que cela génère des doublons dans la table Contacts, comme nous l’avons vu tout à l’heure, mais aussi et surtout des difficultés pour associer le contact avec tous ses points de contact. Si par exemple un individu écrit au service client avec un autre email que celui avec lequel il s’est inscrit, et si je ne peux pas réconcilier les contacts et les tickets du service client en utilisant plusieurs clés, alors il ne sera pas possible d’associer l’individu au ticket client.

Il faudrait pour cela que le CRM permette de gérer des règles de déduplication multisources. C’est avec ce type de règles que l’on pourra dire à l’outil : « Si deux contacts ont un email différent mais la même adresse postale + le même nom/prénom, alors les deux contacts doivent être dédupliqués et fusionnés ».

Pas ou peu de normalisation & nettoyage des données

Dans un outil CRM, les possibilités de nettoyage de données sont très limitées :

  • Normalisation. Il n’est pas possible d’utiliser des règles de type « Find & replace » qui permettent, par exemple, de remplacer tous les « FR » en « France », ou tous les « Mlle » en « F ».
  • Nettoyage des champs importants. Les CRM n’intègrent pas, sauf rares exceptions, de service permettant de vérifier l’existence des adresses emails, de faire de la RNVP pour les adresses postales…

Par conséquent, la normalisation et le nettoyage des données doivent être réalisés en amont du CRM, à l’aide de scripts personnalisés complexes à maintenir.

Pas de champs calculés & scoring

Un outil CRM, c’est comme Excel mais sans les formules de calcul…Dans la plupart des solutions CRM il n’est pas possible d’ajouter des champs calculés. Certains outils CRM proposent des champs calculés par défaut (panier moyen CA, cumulé, etc.) qui sont impossibles à modifier.

Or la capacité à créer des champs calculés est essentielle, notamment pour déployer des scénarios de marketing automation. Par exemple, pour pouvoir exclure les clients qui ont récemment exprimé une insatisfaction, il nous faut un champ « statut du dernier ticket client » ou bien « nombre de tickets clients sur les X derniers jours ». La création de ce type de champs calculés (scoring ou autre) est très difficile, et souvent impossible dans un CRM.

Pas d’accès direct à la base de données pour faire des reportings

Une base clients principale sert à activer les clients, à « agir », mais aussi à analyser les données, à faire du reporting. Faire du reporting sur une base de données CRM n’est pas simple, car les rapports à disposition dans l’outil sont très vite limités.

Prenons l’exemple des scénarios automatisés. Pour pouvoir mesurer leur impact, il faut utiliser l’analyse de cohortes. Si l’on souhaite, par exemple, déployer un nouveau scénario d’upsell qui consiste à envoyer une séquence de messages 1 mois après le premier achat, nous aurons besoin de regarder par cohorte mensuelle de nouveaux acheteurs si le nombre d’achats après 2 mois a augmenté.

Comment faire cela dans un logiciel CRM ? Vous n’avez qu’une seule solution : exporter les données dans une base de données / un datawarehouse, et ensuite brancher votre outil de reporting sur la base en question. Il n’est pas possible de brancher l’outil de reporting directement sur le logiciel CRM, il faut passer par l’intermédiaire de la base de données…

Le sens de l’histoire, c’est le découplage entre la base clients et l’activation des données clients

Du logiciel CRM à l’écosystème CRM

Le CRM désigne aujourd’hui la gestion de l’ensemble des interactions et des activations avec les clients identifiés. Dans la plupart des entreprises, le CRM n’est plus opéré par un seul logiciel, comme par le passé, mais par un ensemble d’outils, une combinatoire de solutions :

  • Un gestionnaire de campagnes.
  • Un outil de marketing automation (ou CRM Marketing)
  • Un outil de gestion de l’activité commerciale et des pipelines de ventes (ou CRM Sales)
  • Un outil de helpdesk/ticketing (ou CRM Service Client).
  • Des plateformes publicitaires pour retargeter les clients connus avec des Ads.

Le CRM est devenu un environnement, un écosystème de logiciels. C’est l’une des raisons pour lesquelles il n’est plus vraiment possible d’utiliser le CRM comme référentiel clients : une entreprise utilise des outils CRM, mais a besoin d’une base clients principale.

Les bénéfices à gérer une base clients séparément

Si vous avez lu tout ce qui précède, vous commencez sans doute à prendre conscience des bénéfices qu’il y a à gérer une base clients séparément.

Avoir une base clients séparée permet de :

  • Connecter l’ensemble des sources de données clients de l’entreprise, en toute liberté, sans limitations et de manière simple (via des connecteurs, des APIs…). Les capacités de connexion sont en effet freinées quand la base clients est construite dans un outil qui appartient à un écosystème constitué (Salesforce par exemple) : l’éditeur cherchera bien souvent à ce que vous utilisiez les autres outils de sa suite.
  • Créer une vision client unique exhaustive, associant données chaudes et données froides. Ce bénéfice découle du précédent.
  • Préparer les données au même endroit. Vous gérez de manière centralisée les segments clients, les audiences, les scores, les règles de déduplication…Vous n’avez plus besoin de faire ce travail dans chaque outil de votre écosystème CRM.
  • Ne pas enfermer les données dans un modèle de données rigide. Vous créez un modèle de données souple, sur-mesure, adapté à vos cas d’usage présents et futurs.
  • Synchroniser facilement les données préparées dans les différents systèmes qui en ont besoin, et ce en temps réel quand c’est nécessaire.
  • Pouvoir utiliser la base clients pour alimenter les outils d’activation mais aussi les outils de reporting, et ce directement, sans devoir passer par un système intermédiaire.
  • Rester maître de ses données clients. Les problématiques autour du contrôle des données deviennent cruciales pour beaucoup d’entreprises. Construire une base de données indépendante permet de garder un contrôle total sur ses données. Si le sujet vous intéresse, nous vous invitons à lire notre guide complet sur le sujet : Pourquoi est-il important de garder le contrôle des données des clients ?

Petite présentation de l’approche proposée par Octolis

Nous avons été consultants Data / CRM pendant de longues années. Nous avons été très souvent été confrontés aux limites du CRM au fil de nos missions. Certains de nos clients disposaient d’un Référentiel Client unique sur mesure, du coup très flexible, mais chaque changement suppose une intervention technique. D’autres clients s’équipaient de solutions CDP de première génération, on dispose d’une belle interface pour manipuler les données, mais la contrepartie, c’est qu’on n’a pas le contrôle des données, et moins de flexibilité sur le modèle de données.
Il nous paraissait évident qu’il fallait réconcilier les deux approches. Une base de données sur mesure, contrôlée / hébergée par les clients matures, avec une interface logicielle par dessus.

C’est d’ailleurs le sens de l’histoire. La démocratisation des datawarehouses encourage cette approche hybride. Les CDP ouvrent la voie, mais on commencent à voir d’autres types de logiciels SaaS qui utilisent le datawarehouse des clients comme socle.

Certains de nos clients disposent déjà d’une base clients principale : dans ce cas, nous « branchons » Octolis sur cette base. Si vous n’avez pas encore de base principale, Octolis la crée pour vous.

Nous avons tenu à créer une interface logicielle self service, accessible aux profils métiers, utilisable à l fois par les profils marketing (en « no code ») et les équipes data en SQL. CDP nouvelle génération, Octolis vous permet de gérer les 4 fonctions que nous avons présentées plus haut : Connexion, Préparation, Structuration, Synchronisation.

Voici un très rapide aperçu de la solution. Vous êtes tout d’abord invité à connecter les différentes sources de données. Parmi ces sources de données, bien sûr, figure la base clients indépendante.
Octolis-connections
C’est sur le menu « Audiences » que vous préparez et structurez les données : règles de déduplication, normalisation, construction d’audiences et de segments, création de champs calculés (indicateurs, scorings…).

octolis audiences

Vous pouvez synchroniser à tout moment dans vos outils et dans votre base principale les données préparées et transformées dans Octolis.

Pourquoi Octolis ?

Pour en savoir plus sur Octolis, l’origine de notre solution, nos convictions et la vision qui nous anime, nous vous invitons à découvrir l’article que nous avions publié à son lancement : Pourquoi nous lançons Octolis ?

Relancer les clients inactifs : définition, méthode & bonnes pratiques

Une base de contacts contient entre 20% et 50% de clients inactifs. Au lieu d’investir dans des campagnes d’acquisition pas toujours rentables, imaginez que vous réussissiez à relancer une bonne partie de ces clients inactifs ?

Réactiver ses clients inactifs permet d’augmenter le reach des campagnes de l’ordre de 10% à 20%. C’est les résultats que nous observions dans notre ancienne vie de consultants data & CRM.

Le potentiel est donc énorme. Pour pleinement le réaliser, vous devez dans un premier temps être capable d’identifier vos clients dormants puis utiliser les bons leviers et les bonnes approches pour réussir à renouer le dialogue.

Relancer les clients inactifs ou passifs : un enjeu business majeur

Pourquoi les clients inactifs sont souvent laissés de côté par les marques ?

Peu de marques font l’effort de réactiver leurs clients inactifs. C’est contre-intuitif quand on connaît les enjeux et le potentiel des mécaniques de réactivation.

Il y a plusieurs raisons à ce manque d’intérêt :

  • Les entreprises ont toujours cette fâcheuse tendance à préférer l’acquisition à la rétention, la conquête à la fidélisation. Plutôt qu’améliorer la qualité de sa base de contacts, on cherche à l’augmenter, à la faire grossir.
  • Certaines marques se font à l’idée que les consommateurs sont devenus volatils, plus difficiles à retenir, et qu’il vaut mieux investir dans de l’acquisition que perdre du temps dans de la rétention ou de la réactivation. Cette raison rejoint la précédente.
  • Pour des raisons de délivrabilité, les entreprises ont tendance à focaliser leurs efforts sur les clients actifs. Les clients inactifs, qui ne réagissent plus aux sollicitations, sont retirés des segments exploités dans les campagnes. Cela part d’une bonne intention (la préservation de la réputation de l’adresse IP), mais cela conduit à négliger les clients inactifs. On finit par ne plus penser à eux, par ne plus les adresser, par les oublier. Plutôt que de chercher de nouvelles approches pour solliciter les inactifs et reconquérir leur cœur, on relègue les clients dormants aux oubliettes.

Disons-le clairement : ce sont trois mauvaises raisons de laisser de côté les clients inactifs. Et voici pourquoi.

Un non-ouvreur ou inactif n’est pas un client perdu

Un client qui n’ouvre plus vos messages n’est pas forcément un client perdu.

Le fait qu’un client n’ouvre plus vos messages et soit inactif peut signifier que le contenu de vos messages ne l’intéresse pas, que vos offres ne sont pas pertinentes, que vous n’utilisez pas le bon canal pour le solliciter, que la fréquence des messages est inadaptée, qu’il estime que vous ne le chouchoutez pas assez…L’inactivité, le plus souvent, révèle un problème de communication plus qu’un désintérêt pour votre offre et vos produits.

Une fois que l’on a compris ça, chercher à réactiver les clients inactifs devient une évidence.

Cap sur les programmes de fidélisation !

20% des clients représentent 80% de votre chiffre d’affaires. Ce principe de Pareto se vérifie presque toujours. Il est donc nécessaire de chouchouter vos meilleurs clients en mettant en place un programme de fidélisation. Découvrez notre sélection des meilleurs exemples de programmes de fidélisation.

Un préalable : définir et segmenter les clients inactifs

Définir la notion de client inactif

Chaque entreprise a sa définition de ce qu’est un client inactif. Vous devez trouver la vôtre pour pouvoir ensuite identifier qui sont vos clients inactifs. C’est le point de départ.

Nous n’allons pas vous donner la définition de ce qu’est un client inactif mais vous donner les clés pour construire votre définition.

Au bout de combien de temps devient-on un client inactif ?

Un client inactif (ou dit aussi « client passif » ou « client dormant », peu importe le terme utilisé) est un client qui n’ouvre plus vos messages. Votre définition d’un client inactif doit indiquer à partir de combien de temps d’inactivité un client entre dans le segment « clients inactifs ». Vous pouvez aussi raisonner par campagnes. Il y a donc 2 approches possibles :

  • Un client inactif est un client qui n’ouvre plus les messages depuis X jours.
  • Un client inactif est un client qui n’ouvre plus les messages depuis X campagnes.

Dans la pratique, les entreprises utilisent plutôt le nombre de jours.

Le vrai enjeu consiste à définir le « X ». Il dépend en fait de votre activité et de la fréquence d’envoi de vos messages. Si vous envoyez une newsletter mensuelle, le nombre de jours pour qu’un client soit considéré comme inactif sera plus élevé que si vous envoyez une newsletter hebdomadaire.

En général, X = 1 mois ou 2 mois. Mais dans certains cas, X peut être égal à 1 an.

De quelle inactivité parle-t-on ?

Depuis le début, on considère l’inactivité comme une absence d’ouverture des emails envoyés à votre base clients. C’est l’approche basique. Mais il est tout à fait possible de prendre en compte les autres canaux, par exemple la publicité, le SMS, les magasins, le ecommerce. Un client qui n’ouvre plus vos messages depuis 2 mois mais qui a acheté un produit sur votre site il y a 2 jours est-il un client inactif ? Non, bien sûr.

D’où la question : de quelle inactivité parle-t-on ? Plus vous intégrez de choses dans votre définition de l’inactivité, plus votre définition de ce qu’est un client inactif sera juste et précise.

Mais disons que se concentrer sur l’ouverture des emails est plus simple pour commencer.

Créer un segment « clients inactifs »

Votre base de contacts contient certainement des adresses qui n’existent plus. Scoop : une adresse mail qui n’existe plus n’est pas un client inactif.

Vous devez nettoyer votre base de données. Comment ? En faisant des tests de délivrabilité :

  • Les hard bounces doivent être supprimés. Ce sont des adresses emails qui n’existent plus.
  • Les soft bounces doivent être mis en quarantaine. Ce sont des adresses qui ne reçoivent plus vos messages pour des raisons temporaires : une boîte de réception pleine, par exemple.

Vous pouvez à partir de là construire votre segment des clients inactifs. Il est constitué :

  • Des clients qui répondent à la définition que vous avez construite d’un « client inactif » (cf. supra).
  • Des adresses emails qui ne sont ni des hard bounces, ni des soft bounces.

Construire le segment « clients inactifs » avec la méthode RFM

Il est possible d’utiliser la segmentation RFM (Récence, Fréquence, Montant) pour construire le segment des clients inactifs. De manière plus générale, cette méthode RFM vous permettra de segmenter vos clients en fonction de leur comportement d’achat. Elle est très utilisée dans le Retail. Découvrez notre guide complet pour construire une segmentation RFM.

matrice rfm

2 leviers pour relancer les clients inactifs

Un client inactif n’est pas un client perdu, c’est un client avec lequel vous devez procéder autrement pour faire naître ou renaître son intérêt pour vos produits et vos offres. Nous allons vous présenter deux approches complémentaires pour réveiller des clients dormants. La première consiste à créer des campagnes ou des scénarios de réactivation emails, la deuxième consiste à réactiver vos clients avec des Ads.

Réactiver vos inactifs avec des campagnes ou scénarios emails

Votre client ne réagit plus à vos emails ? Ce n’est peut-être pas le canal qui est le problème, mais votre manière de solliciter le client. La première approche, classique mais à l’efficacité éprouvée, consiste à réactiver les clients inactifs par des campagnes emails. Ici, place à la créativité marketing !

Voici plusieurs techniques possibles :

  • Envoyer un questionnaire de satisfaction. Trop de promotionnel tue le promotionnel et créé des clients inactifs. Certains clients inactifs ont peut-être besoin d’amour, de relationnel, d’empathie, d’attention. Envoyer un questionnaire de satisfaction suffit parfois à renouer le fil du dialogue. Les réponses de vos clients vous permettront d’ailleurs d’identifier les axes d’amélioration de vos produits et de vos communications.
  • Proposer une offre spéciale (code promo, coupon…). Disons-le clairement, cette technique est l’une de celles qui fonctionnent le mieux, mais elle a un coût pour l’entreprise. Nous vous conseillons de réserver cette approche aux clients vraiment très inactifs, qui ont besoin d’un sérieux incentive pour revenir vers vous.
  • Envoyer une invitation à une vente privée. Les ventes privées sont très appréciées des clients. Tous les clients aiment se sentir privilégiés, VIP.
  • Proposer au client de gérer ses préférences. Une pression marketing trop forte peut être cause d’inactivité. Donner la possibilité au client de régler la fréquence de messages et les thématiques peut être un moyen de les réactiver.

Quelle que soit l’approche que vous choisirez, n’oubliez pas les bonnes pratiques de l’emailing.Vous les connaissez certainement déjà :

  • Travaillez avec amour et intelligence votre objet. C’est la partie la plus importante de l’email. C’est lui qui incitera vos clients inactifs à ouvrir ou non votre message.
  • Exploitez la connaissance client. Personnalisez vos emails avec le prénom et/ou nom de vos clients. Ciblez les offres proposées en fonction de l’historique d’achat de vos clients, de leurs centres d’intérêt. Plus vos messages seront personnalisés et ciblés, plus vous aurez de chance d’atteindre le coeur de vos clients inactifs.
  • Envoyez les campagnes au bon moment. Un conseil : n’attendez pas 3 ans avant de mettre en place des campagnes de réactivation. Plus vous serez réactifs, plus vous aurez de chances de réveiller vos clients dormants.
  • Faites des tests. Il n’y a pas de recette magique en email marketing. Testez différentes approches pour reconquérir vos clients inactifs et généralisez celles qui fonctionnent le mieux.

Voici un conseil pour aller un peu plus loin : dans votre outil de Marketing Automation, mettez en place un scénario de réactivation, avec une séquence progressive de messages. Voici à quoi cela pourrait ressembler :

  1. Envoi d’un premier email de reprise de contact, dont l’objet pourrait être « [Prénom], vous nous avez manqué ». Dans cet email, vous pouvez rappeler ce que vous faites, mettre en avant la valeur de votre service, formuler votre proposition de valeur ou bien présenter vos nouvelles collections. Rendez-vous intéressant sans utiliser un ton trop « commercial ».
  2. Si le premier email n’a pas été ouvert : envoi à J+5 d’un deuxième email comportant un questionnaire de satisfaction.
  3. Si le deuxième email n’a pas été ouvert : envoi à J+10 d’un troisième email avec un code promo à utiliser sur le site internet.
  4. Si le troisième email n’est pas ouvert, envoi à J+15 d’un quatrième email…l’email de la dernière chance. On peut imaginer un objet surprenant pour tenter, une dernière fois, de susciter l’intérêt du client. Par exemple : « Désinscrivez-vous », ou « Il est temps de se dire adieu (ou pas…).
reactiver clients inactifs dormants
Un exemple d’email de relance de clients inactifs.

Relancer les clients inactifs via les Ads

La deuxième approche consiste à réactiver vos clients inactifs en utilisant des annonces publicitaires. C’est une approche beaucoup moins utilisée et pourtant son potentiel est grand. C’est surtout adapté si vous avez un grand nombre de clients inactifs. Pourquoi ? Prenons un exemple, pour bien comprendre :

  • Vous avez construit votre segment des clients inactifs. Il regroupe tous les clients qui n’ont pas réagi à vos sollicitations depuis 3 mois. Il représente 10 000 contacts.
  • Vous construisez une campagne de retargeting ciblant ce segment. Supposons que 15% des clients exposés aux annonces se rendent sur le site. Soit 1 500 clients.
  • Parmi ces 15% de clients inactifs qui se rendent sur le site, tous ne vont pas acheter. Supposons que 10% d’entre eux effectuent un achat. Soit 150 clients.
  • La relance des 10 000 clients inactifs vous a permis de générer 150 paniers achetés, ce qui est assez peu.

Changeons d’échelle. Imaginez que votre base contient 100 000 clients inactifs. Si l’on garde les mêmes hypothèses, la relance de vos clients via des Ads vous permettra de générer 1 500 paniers achetés, ce qui est beaucoup plus intéressant.

Il faut donc avoir une base de contacts/un segment de clients inactifs suffisamment grand pour que la relance via des Ads soit pertinente. Si vous êtes dans cette situation, vous pouvez mettre en place cette technique en deux étapes :

  • Etape #1 : Exporter le segment vers Google/Facebook Ads. Une fois que vous avez construit votre segment « clients inactifs » dans votre outil d’emailing, vous pouvez l’exporter dans votre compte Google Ads ou Facebook Ads. Il est important que le segment soit régulièrement mis à jour dans Google Ads/Facebook Ads. L’utilisation d’une plateforme comme Octolis vous permet de gérer de manière centralisée tous vos segments clients et de mettre en place des flux de synchronisation en temps réel dans vos outils de destination, en l’occurrence Google Ads et/ou Facebook Ads.
  • Etape #2 : Créer une campagne Google/Facebook Ads. Vous devez ensuite créer votre ou vos campagne(s) de relance des inactifs. Ce travail de créa sera plus rapide si vous avez déjà des templates de campagnes, bien entendu. Présentation des nouveaux produits, remise, offre exceptionnelle : quel que soit le contenu des annonces, vous devez garder en tête l’objectif : convaincre les clients de se rendre sur le site et d’acheter.

Nous avons mis l’accent sur les deux principaux canaux pour relancer les clients inactifs : l’email et le retargeting. Si vos clients ont une grande lifetime value, il est possible d’utiliser le SMS et le téléphone.

Nous espérons vraiment vous avoir convaincus de l’importance de réactiver les clients inactifs. Si vous suivez les bonnes pratiques, si vous segmentez intelligemment les inactifs, si vous imaginez des campagnes originales, si vous allez plus loin en créant des scénarios marketing, croyez-nous : vous réussirez à réactiver beaucoup de vos clients. Le ROI des campagnes de réactivation dépasse presque toujours le ROI des campagnes d’acquisition. Qu’attendez-vous pour vous lancer ? 🙂

Choix prestataire CRM – 70+ cabinets de conseil, agences & intégrateurs

Le CRM est un sujet complexe qui requiert des compétences variées.
Difficiles de les avoir toutes en interne, du coup, cela fait vivre beaucoup de prestataires.
On peut faire appel à un prestataire pour beaucoup de sujets différents : parcours clients, aide au choix de solutions CRM (marketing, commercial ou service client), paramétrage des logiciels, conception des messages, etc. Les spécialités se recoupent et sont difficiles à lire quand on n’est pas expert du métier.

Nos clients installent souvent Octolis lors d’une phase de restucturation de leur écosystème CRM.
Du coup, on croise beaucoup de professionnels différents.
Des cabinets de conseil CRM, des ESN / intégrateurs techniques, des agences en conception d’emails, des freelances data, etc.

A force de croiser des prestas, on s’est dit que ce serait sympa de consolider les noms quelque part.
Résultat, un fichier assez complet de 70+ professionnels CRM dans un Gsheet téléchargeable.
On a essayé de les classifier, et d’en sélectionner quelques uns pour chaque catégorie dans l’article ci-dessous. Je parle d’essayer, car c’est difficile de mettre dans une seule catégorie des boites de services qui font tout, avec des profils à la fois consultants strat, développeur, chef de projet CRM.

Télécharger notre Top 70+ prestataires CRM français

 

Sélection de cabinet de conseils CRM

> Pour concevoir le dispositif cible : parcours clients, plan relationnel, choix logiciels, orga cible, etc.

NomDescriptionSpécialitésNb employés
MeetYourPeopleMeet Your People c’est une équipe de consultants CRM indépendants basée à Paris. Notre mission ? Vous conseiller et vous accompagner dans la mise en œuvre d’une stratégie CRM éthique, responsable et performante. Donnons du sens à vos actions !CRM , marketing , Marketing client , data, digital, connaissance client, expérience client, feedback management, voice of customer, parcours client, marketing automation et customer journey 3
BadsenderBadsender est une agence spécialisée en eCRM et en email marketing. Conseil - Stratégie eCRM et emailing, choix outils de gestion de campagne ou audit délivrabilité Déploiement - Qu’il s’agisse de migrer vos données et vos campagnes vers votre nouvelle plateforme emailing ou de déployer votre nouvelle stratégie eCRM Production - L’intégration HTML d’emails, la rédaction de contenus et la conception de designs d’emails Email Marketing, Emailing, eCRM, sCRM, Newsletter, Conseil, Analyse, déploiement, production, fullservice8
CartelisCabinet de conseil Data Marketing & CRM. Nous accompagnons nos clients, qu'il s'agisse de grands groupes ou de PME, dans leur projet de transformation digitale avec une approche centrée autour des données clients. Notre équipe de consultants de haut niveau met en place des dispositifs d'analyse et d'exploitation des données à très forte valeur ajoutée : modélisation du parcours client, scoring comportemental, benchmark DMP / CRM, déploiement de scénarios relationnels, etc.Architecture CRM, Parcours clients, Plan relationnel, Marketing Automation, RCU / CDP, Analytics, Données clients, RGPD, Data gouvernance, Data Marketing, OKR, Attribution12
StratelloExpert du conseil et de l’accompagnement en stratégies marketing clients omni canal, notre mission a pour objectif d’accélérer vos performance business grâce à une meilleure Expérience client. Pour cela, nous diagnostiquons les parcours clients, construisons vos personas, définissons vos futurs Parcours cibles, élaborons la stratégie data et formulons vos scénarios de marketing automation … Marketing clients, Omnicanal, Crosscanal, Multicanal, Parcours clients, ROI, Retail, CRM, Marketing web,Conseil marketing, Relations clients, persona, RGPD, marketing automation13
CustupCustUp est un conseil opérationnel en Relation Clients. Nous structurons et mettons en œuvre le Marketing Clients et les schémas de dialogue des entreprises. Pour ce faire, nous utilisons le CRM, le Marketing Automation et les Centres de Contacts. Nous organisons la collecte et l’exploitation des Données Clients : le carburant de la Relation Clients à distance.CRM, Centre de contacts, Abonnement, Marketing client, Relation client, Parcours Client, GDPR, RGPD, DMP, Données Client, Service Client, Automated marketing, Formation Relation Client24
RelatiaFondée en 2010, L’Agence Relatia, l'agence de marketing relationnel digital SoLoMo, en particulier pour les enjeux Drive2Store ou Store2Digital. Notre spécialité : acquisition ou fidélisation de vos clients via l'exploitation des dernières innovations en terme de services connectés.E-CRM, Emailing, E-Marketing, M-CRM, Mobile Marketing, Advertising, email responsive, Agence digitale, digital Marketing, Agence E-CRM, drive to store, geolocalisation, datamining36
ColoradoCréé en 2003, Colorado Groupe accompagne ses clients pour imaginer et mettre en œuvre une expérience client fluide, efficace et innovante. Colorado Groupe s’appuie sur la complémentarité de ses 2 activités : 1. Le conseil en marketing et innovation sur l’Expérience Client 2. ’analyse des attentes clients et le développement du Customer Insight avec sa solution SaaS innovante ConsumerLiveConseil en relation client, Pilotage et management de l'expérience client, Solution de Customer Feedback Management et Solutions d'écoute et d'analyse de la Voix du Client 44
SingulierCréés pour l'ère numérique de deuxième génération, nous sommes une équipe d'entrepreneurs de la transformation numérique. Nous combinons le conseil aux entreprises, la réflexion sur le design numérique, le marketing, la technologie et les données pour résoudre rapidement des problèmes commerciaux complexes pour les PDG, leurs cadres et les investisseurs. Nous constituons des taskforces d'entrepreneurs pour mener des opérations numériques stratégiques avec des investisseurs et des entreprises.Digital strategy, Digital transformation, Innovation, Data, UX, CRM, Branding, Digital marketing, Digital IT, Change management, Digital coaching, E-commerce, Due diligences56
EMertonEmerton is a global high-end strategy consulting group, with offices in Europe, North America and Asia.Strategy consulting, Digital transformation, Business transformation, Innovation, data & analytics, Due diligences,Data science70
WaissoFondée en 2003 par des professionnels du Marketing et du Data, Waisso est une agence digitale spécialisée dans l’optimisation du marketing client en alliant technologie, data et contenu pour une approche plus innovante. Nous avons construit une entreprise où des hommes et des femmes, relevant de différentes expertises (ingénieurs, data scientists, consultant marketing, etc.) travaillent ensembles pour répondre aux nouvelles exigences d’un marketing bouleversé par le digital.Marketing Crm, Marketing Cloud, Adobe Partner, Sprinklr, Gigya, Digital Marketing, Cross Channel, Acquisition, Fidelisation, Oracle, Campaign Management, Consulting, Analytics, Segmentation, Contenu Digital, Big Data, Social Media, Business Intelligence, Mobile Marketing, Acquisition74
VertoneVERTONE est un cabinet de conseil en stratégie et management. Il se distingue par ses missions d’orientations stratégiques autour des métiers du marketing, du développement commercial, de l'expérience client et de la fidélisation, avec une approche centrée sur le client final. Strategy and management consulting, Marketing strategy, Customer relationship management, Digital strategy, Customer value development, Product and offer strategy, Stratégie marketing, Conseil en stratégie et management, Management de la relation client, Stratégie digitale, Développement de la valeur client, Innovation d'offres et de services, Fidélisation client162
KPCKPC est un acteur de référence dans le pilotage de la performance et de l’expérience client. Grâce à la convergence de nos savoir-faire, nous proposons des solutions pour construire l’entreprise intelligente et digitale de demain. La gestion intelligente des données est au coeur de notre ADN, et de notre culture d’entreprise. Nos partenariats stratégiques et nos équipes pluri-disciplinaires permettent à KPC d’offrir à ses clients la vision, l’expérience et le savoir-faire nécessaires pour développer, personnaliser, intégrer et déployer les solutions les plus performantes.Data Intelligence & Analytics, Customer Experience & Digital, ERP, Data Science, Big Data, Marketing Automation, Transformation Numerique, Crm, Adobe Campaign, Ia, Salesforce,, Selligent Et Anaplan 219
Velvet ConsultingVelvet Consulting est le cabinet leader de l'accompagnement des entreprises dans leur orientation client. Depuis 2004, grâce à 200 passionnés de Marketing, nous accélérons la performance des sociétés en construisant une expérience client riche, innovante et efficace grâce à notre approche globale et la complémentarité de nos pôles d’expertises. Depuis juillet 2020, nous avons rejoint le groupe WPP et le réseau Wunderman Thompson.Stratégie Client, Performance, Innovation, Change, Datamining, Business Intelligence, Digital, CRM, Marketing Automation, Big Data, Mobilité, Omnicanal, Big Data232
NijiNiji est une société de conseil, de design et de mise en œuvre technologique, au service de la transformation numérique des entreprises. Niji accompagne depuis 2001 un très grand nombre d'acteursdans l’accélération et la réussite de leur mutation digitale, au service de leur stratégie, de leur distribution multicanale et de leur fonctionnement interne.Conseil en stratégie numérique, Ingénierie et conseil technologique, Design de service, Réalisation logicielle979

 

Sélection d’ESN & conseil IT

> Pour définir l’architecture technique CRM  et intégrer les outils CRM à l’écosystème existant

NomDescriptionSpécialitésNb employés
ArtefactArtefact is an award-winning responsible strategy and design firm. We help your organization face the future with confidence and craft the products and experiences that bring your vision to life. Our touchstone is responsible design – creating lasting value for people, business, and society. Named one of Fast Company's Most Innovative Companies, we partner with organizations like Dell, Hyundai, Eli Lilly, Seattle Children's Hospital, the Bill and Melinda Gates Foundation, and more.user experience design, interaction design, product design, digital innovation, software design, industrial design, creative66
VertoneVERTONE est un cabinet de conseil en stratégie et management. Il se distingue par ses missions d’orientations stratégiques autour des métiers du marketing, du développement commercial, de l'expérience client et de la fidélisation, avec une approche centrée sur le client final. Strategy and management consulting, Marketing strategy, Customer relationship management, Digital strategy, Customer value development, Product and offer strategy, Stratégie marketing, Conseil en stratégie et management, Management de la relation client, Stratégie digitale, Développement de la valeur client, Innovation d'offres et de services, Fidélisation client162
ConverteoGrâce à notre équipe de plus de 200 consultants, spécialistes et experts, nous sommes un accélérateur de performance intervenant du cadrage à la réalisation. Connecteur entre le marketing et l'IT, pragmatique et indépendant, nous œuvrons pour le transfert de compétences à nos équipes clientes.conversion, optimisation, webanalytics, formation, adtech, martech, datalake, datascience, digital marketing, digital consulting, data consulting, DMP, Marketing Automation, data engineering, CRO, Consulting, Marketing, Technologie205
ColombusColombus Consulting est une société de conseil en management spécialisée dans le changement d'entreprise et la gestion de projets complexes. Il intervient sur les secteurs des services financiers, des marchés financiers, de l'énergie et des services publics. Basés en France et en Suisse, nos +170 consultants interviennent au niveau opérationnel et exécutif.stratégie opérationnelle, conduite du changement, pilotage de programmes, systèmes d'information, operational strategy, operations performance optimization, change management, complex program management, méthode agile, organisation, digital, data, CRM, marketing, innovation, MarTech, AdTech, GDPR, RGPD, SAFE, Marketing Automation, Customer service, RPA235
AdoneC’est pour accompagner les grands acteurs du Luxe dans leur transformation digitale et les aider à créer des expériences clients remarquables, qu'Adone Conseil a été créé en 2007. Adone réalise des missions stratégiques et opérationnelles sur des projets e-Commerce, Data, Customer Experience, Digital in Store, PIM-DAM, PLM, Supply Chain ou encore Green Transition.Assistance à maîtrise d'ouvrage (AMOA), Gestion de projet, Conseil en système d'information, Digital, Luxe, Parfums et Cosmétiques, Mode, Horlogerie et Joaillerie, Tourisme, Hôtellerie, Digital in Store, PIM, DAM, CRM, Supply Chain, e-commerce, Data, Analytics, Clienteling, OMS, PMO, Consultant345
AGIDepuis plus de 50 ans, nous avons bâti notre réputation en reflétant les besoins des marques de la meilleure façon possible. Nous comprenons les avantages de tout offrir sous un même toit. C'est pourquoi les architectes, les designers et les entreprises de divers secteurs d'activité choisissent AGI pour tous leurs besoins en matière de signalisation, d'image de marque et de maintenance.Architectural Imaging, Architectural Signage, National Programs, Image Maintenance, Facility Design Services, Interior Signage and Wayfinding, ATM Housing, Kiosks, and Toppers, Digital Signage, Exterior Signage, Innovative Solutions, Sign Maintenance, Electrical Service, EVCE Installation & Service, Interior & Exterior Lighting777
NijiNiji est une société de conseil, de design et de mise en œuvre technologique, au service de la transformation numérique des entreprises. Niji accompagne depuis 2001 un très grand nombre d'acteursdans l’accélération et la réussite de leur mutation digitale, au service de leur stratégie, de leur distribution multicanale et de leur fonctionnement interne.Conseil en stratégie numérique, Ingénierie et conseil technologique, Design de service, Réalisation logicielle979
AccentureAccenture est une entreprise internationale de conseil en management, technologies et externalisation. Combinant son expérience et ses capacités de recherche et d’innovation développées et mises en œuvre auprès des plus grandes organisations du monde sur l’ensemble des métiers et secteurs d’activité, Accenture aide ses clients - entreprises et administrations - à renforcer leur performance.Management Consulting, Systems Integration and Technology, Business Process Outsourcing et Application and Infrastructure Outsourcing1138
KeyrusActeur international du conseil et des technologies, Keyrus a pour mission de donner du sens aux données, en révélant toute leur portée, notamment sous un angle humain. S'appuyant sur l'expérience cumulée de plus de 3 000 collaborateurs et présent dans 22 pays sur 4 continents, Keyrus est l'un des principaux experts internationaux en matière de données, de conseil et de technologie.Management & Transformation, Data Intelligence, Digital Experience2315
TalanTalan est un cabinet de conseil en innovation et transformation par la technologie. Depuis plus de 15 ans, Talan conseille les entreprises et les administrations, les accompagne et met en œuvre leurs projets de transformation et d’innovation en France et à l’international. Conseil, AMOA SI, MOE, Support, Architecture SI, Transformation Agile, Digital, Consulting, IT Consulting, CRM, BIG DATA, IoT, Blockchain, IA, innovation, Data, big data2903
WavestoneÀ la confluence du conseil en management et du conseil numérique, Wavestone accompagne les entreprises et organisations de premier plan dans la réalisation de leur transformation la plus critique sur la base d'une conviction unique et centrale : il ne peut y avoir de transformation réussie sans une culture partagée d'enthousiasme pour le changement. Strategy & Management Consulting, Innovation Management & Funding, Marketing, Sales & Customer Experience, Digital & IT Strategy, Digital & Emerging Technologies, IT & Data Architecture3907
BearingPointBearingPoint est un cabinet de conseil indépendant avec des racines européennes et une portée mondiale.Nous transformons les entreprises. Nous aidons nos clients à atteindre leurs objectifs en appliquant notre profonde expertise sectorielle et fonctionnelle pour comprendre et répondre à leurs besoins spécifiques.Nos consultants sont passionnés et très engagés, avec un état d'esprit pragmatique mais innovant.Business Consulting, Technology Consulting, Management Consulting, Digital & Strategy, Advanced Analytics, Digital Platforms, RegTech, Software Development et Agile Advisor 9154
CGIDes idées sur lesquelles vous pouvez agirFondée en 1976, CGI est l'une des plus grandes entreprises de services-conseils en TI et en affaires au monde. Dans 21 secteurs d'activité et sur 400 sites dans le monde, nous fournissons des services-conseils en TI et en affaires complets, évolutifs et durables qui sont informés à l'échelle mondiale et fournis à l'échelle locale.Business consulting, Systems integration, Intellectual property, Managed IT, Business process services, Digital transformation, Emerging technology57529

 

Conseil opérationnel & Agences CRM

> Pour piloter la mise en place d’un nouvel outil, paramétrer des campagnes / scénarios, créer des messages, etc.

NomDescriptionSpécialitésNb employés
CapitaineMailVotre agence spécialiste de l’email marketing, innovant et performant, à Grenoble.Intégrateur email, délivrabillité, conseil emailing, conception messages1
AltercreationStudio de création graphique et agence digitale au service des entreprises depuis 2006, Alter Création concentre son énergie afin de mettre en lumière tous vos projets de communication, de la création de votre identité visuelle à la réalisation de votre site web, de vos éditions sur tous supports à vos campagnes e-mailings.Design web, Email marketing4
ComexporerAgence de marketing digital à ParisComexplorer est une agence qui propose, grâce à une méthodologie unique, d’aider les entreprises à accroitre leur vente, leur trafic web, à qualifier leur leads, à transformer et fidéliser leur clientèle. Inspiré du modèle startup, l’agence propose une nouvelle approche du marketing, plus pragmatique et plus pertinente : le lean marketing. Inbound marketing, Réseaux sociaux, Growth hacking, Stratégie marketing digital, marketing automation5
BadsenderBadsender est une agence spécialisée en eCRM et en email marketing. Conseil - Stratégie eCRM et emailing, choix outils de gestion de campagne ou audit délivrabilité Déploiement - Qu’il s’agisse de migrer vos données et vos campagnes vers votre nouvelle plateforme emailing ou de déployer votre nouvelle stratégie eCRM Production - L’intégration HTML d’emails, la rédaction de contenus et la conception de designs d’emails Email Marketing, Emailing, eCRM, sCRM, Newsletter, Conseil, Analyse, déploiement, production, fullservice8
MajeliceMajelice est une agence digitale experte en email marketing.Nous accompagnons nos clients dans leur transformation digitale par le biais de mise en œuvre d’opérations de e-marketing (email & SMS).Nous répondons avec le même soin et la même expertise à tous les besoins de nos clients, qu’il s’agisse de la mise en place d’une simple newsletter, d’un scénario de fidélisation ou d’une mécanique complexe de recrutement multicanal. email marketing, emailing, sms marketing, creation graphique, emails personnalisés, campagnes scénarisées, real time email marketing, routage, délivrabilité, responsive design, intégration html, analyse et recommandations, animation de bases de données, newsletters, marketing automation9
FysaneFYSANE est une agence de Marketing Automation dont le siège est basé à Paris. Elle intègre les compétences nécessaires pour mener à bien la transformation digitale de votre entreprise.Notre mission est de vous accompagner dans la réalisation de vos projets, de la conception à la mise en œuvre tout en garantissant un suivi.Notre partenariat avec Adobe nous permet de mettre à disposition des consultants ayant une expertise dans la solution de l’écosystème Marketing Automation Adobe Campaign Classic ou Standard.Marketing Services, Digital, CRM, Adobe Campaign, Intégration HTML, Gestion de campagne cross-canal, ACQUISITION, FIDELISATION, Stratégie Client10
CartelisCabinet de conseil Data Marketing & CRM. Nous accompagnons nos clients, qu'il s'agisse de grands groupes ou de PME, dans leur projet de transformation digitale avec une approche centrée autour des données clients. Notre équipe de consultants de haut niveau met en place des dispositifs d'analyse et d'exploitation des données à très forte valeur ajoutée : modélisation du parcours client, scoring comportemental, benchmark DMP / CRM, déploiement de scénarios relationnels, etc.Architecture CRM, Parcours clients, Plan relationnel, Marketing Automation, RCU / CDP, Analytics, Données clients, RGPD, Data gouvernance, Data Marketing, OKR, Attribution12
InboundValueInbound Value est une agence de communication digitale spécialisée dans l’Inbound Marketing. Notre agence travaille principalement avec des clients en B2B notamment dans le secteur des « SaaS » (Software As A Service). Nous permettons à des entreprises BtoB de saisir les opportunités que leur offre internet, en leur apportant plus de trafic qualifié ainsi que des leads de qualité qui sont susceptibles de devenir des clients.Inbound Marketing, SEO, Social Media, Marketing Digital, Hubspot, Strategie digitale, Content Marketing, Growth Hacking, E-Mail Marketing, Lead Generation, Trafic Generation, B2B, SaaS, Marketing Automation23
CustupCustUp est un conseil opérationnel en Relation Clients. Nous structurons et mettons en œuvre le Marketing Clients et les schémas de dialogue des entreprises. Pour ce faire, nous utilisons le CRM, le Marketing Automation et les Centres de Contacts. Nous organisons la collecte et l’exploitation des Données Clients : le carburant de la Relation Clients à distance.CRM, Centre de contacts, Abonnement, Marketing client, Relation client, Parcours Client, GDPR, RGPD, DMP, Données Client, Service Client, Automated marketing, Formation Relation Client24
MarkentiveMarkentive fournit des talents, des processus et des technologies pour faire de votre transformation un succès. Que votre projet soit de trouver l'inspiration, de construire un écosystème digital (CRM, Site Web, Marketing), de mener des campagnes ou simplement de développer vos compétences, nos experts peuvent vous aider. Markentive vous invite à prendre le chemin de la croissance (pour de bon).Conseil en stratégie, Marketing, strategie digitale, Marketing digital, inbound marketing, Transformation digitale, Hubspot, Marketo, marketing automation, act-on, growth, CRM35
KissTheBrideAgence conseil en marketing client du groupe Loyalty Company.Kiss The Bride marie nativement la précision des data et la force des émotions pour donner naissance à des expériences clients originales, engageantes et profitables. 3 directions d’Agences : Lille / Paris / LyonHub d’expertises pluridisciplinaires : Consulting & Projects management - Data & Engineering - Création, Content & Social - Digital - Plateformes technologiques - Opérations marketing140 collaborateurs - 25 M€ de CA - 21 récompenses professionnelles - +100 clientscommunication, digital, marketing, marketing client, relation client, stratégies de fid et d'engagement, animation de réseaux, performance commerciale, data, expérience client72
WaissoFondée en 2003 par des professionnels du Marketing et du Data, Waisso est une agence digitale spécialisée dans l’optimisation du marketing client en alliant technologie, data et contenu pour une approche plus innovante. Nous avons construit une entreprise où des hommes et des femmes, relevant de différentes expertises (ingénieurs, data scientists, consultant marketing, etc.) travaillent ensembles pour répondre aux nouvelles exigences d’un marketing bouleversé par le digital.Marketing Crm, Marketing Cloud, Adobe Partner, Sprinklr, Gigya, Digital Marketing, Cross Channel, Acquisition, Fidelisation, Oracle, Campaign Management, Consulting, Analytics, Segmentation, Contenu Digital, Big Data, Social Media, Business Intelligence, Mobile Marketing, Acquisition74
DnDSituée à Paris, Montpellier, Lille & Nantes, Dn'D est une agence conseil en création d’expériences digitales et E-Commerce. Elle conseille et accompagne les entreprises du B2B et du B2C (luxe, retail, industrie, grande consommation, etc) dans leur stratégie online depuis 2004.E-Commerce Agency, Consulting, Web Design, Web Development, Web Marketing, Magento, Akeneo PIM, Oro CRM, Mirakl MarketPlace, PWA, Vue Storefront, Adobe, CRM, Marketing Automation et OroCommerce 85
The Social clientNous sommes une agence CX Digitale. Les conversations et interactions composent notre terrain de jeu. Nous concevons, réalisons et animons de nouvelles expériences qui alimentent les conversations entre les marques & les clients. Nous optimisons vos canaux digitaux avec une approche customer centric en identifiant les opportunités et en implémentant de nouvelles solutions.Chatbot, Digital CRM, Digital Marketing, Social Media Management, Social Media Intelligence, Social Ads, Brand Community, Social Influence Marketing, eCRM, Interaction design, Visual IVR, Digital Care, Customer Support, Artificial Intelligence, Automation, Selfcare176
Velvet ConsultingVelvet Consulting est le cabinet leader de l'accompagnement des entreprises dans leur orientation client. Depuis 2004, grâce à 200 passionnés de Marketing, nous accélérons la performance des sociétés en construisant une expérience client riche, innovante et efficace grâce à notre approche globale et la complémentarité de nos pôles d’expertises. Depuis juillet 2020, nous avons rejoint le groupe WPP et le réseau Wunderman Thompson.Stratégie Client, Performance, Innovation, Change, Datamining, Business Intelligence, Digital, CRM, Marketing Automation, Big Data, Mobilité, Omnicanal, Big Data232

 

Cabinets de conseil data

> Pour analyser votre base clients, et exploiter vos données au maximum

NomDescriptionSpécialitésNb employés
InetumPrésent dans 26 pays, Inetum est un leader incontournable des services informatiques à valeur ajoutée et des logiciels. Inetum occupe un positionnement stratégique différenciant entre les opérateurs de taille mondiale et les acteurs de niche. Avec près de 27 000 collaborateurs, le Groupe atteindra ainsi les 2,3 milliards d’euros de chiffre d’affaires sur 2019 (pro forma).Consulting, Applications Services, Infrastructure Services, Software, smart cities, IoT, Blockchain, DevOps, artificial intelligence, Industry 4.0 5
UnnestA la frontière de la Tech et de la Data, UnNest accompagne les équipes marketing in-house ou en agence pour utiliser au mieux leur donnée "First party" Nous mettons en place pour nos clients une équipe data externalisée, capable de délivrer des projets et des applications data en un temps record pour les marques, les "scale up" et les agences de marketing digital.Analytics, Data Consulting, Digital Analytics, Data Marketing, Cloud Data Warehouse, RGPD, Data Engineering, Data Analysis, Tracking, Google Big Query, Fivetran, Google Cloud Platform, ETL et Martech 11
MFGMFG Labs est une société de conseil et réalisation experte en data et en intelligence artificielle. Nous aidons les entreprises à améliorer leurs prises de décisions, à optimiser leurs processus et à créer de nouveaux services grâce à l'application de data science, de digital analytics, de design et des technologies les plus avancées.Data analysis, Data science, Infrastructure, Development, Data engineering, Web analytics, Digital media, machine learning, big data, software development 24
C-WaysC-Ways est une société de conseil spécialisée en data sciences. Grâce à des méthodes innovantes de captation et de modélisation de données, C-Ways accompagne dans leurs décisions les administrations et les entreprises leaders des secteurs de la mobilité, de la mode, du luxe, des services financiers, du sport, de la grande consommation…market research, predictive marketing, data modeling, data science, client surveys, big data, data driven marketing, modeling et creative data 27
ArtefactArtefact is an award-winning responsible strategy and design firm. We help your organization face the future with confidence and craft the products and experiences that bring your vision to life. Our touchstone is responsible design – creating lasting value for people, business, and society. Named one of Fast Company's Most Innovative Companies, we partner with organizations like Dell, Hyundai, Eli Lilly, Seattle Children's Hospital, the Bill and Melinda Gates Foundation, and more.user experience design, interaction design, product design, digital innovation, software design, industrial design, creative66
ElevateThe ELEVATE Group is a collection of 3 hyper-focused businesses each with a different center of gravity. All under one global roof. The result: A Group that's much stronger than the sum of its parts. We bring clarity to our customers toughest revenue generations through Data Integrity, Demand Generation, and Business Insights.Data Integrity, Demand Generation, Data Analytics, Lead Generation, CRM Management, Marketing Automation Management, BI Dashboard Development, Marketing Strategy, Contact Identification73
KeleyStratégie digitale, Omnicanal, Stratégie & expérience client, E-commerce, CRM, Pilotage de projets, Stratégie data, Open Innovation, Acquisition, SEO, UX & Design thinking, Design d'interface, CRO, Branding & communication, Data-driven marketing, Intelligence augmentée et Ingénieri Stratégie digitale, Omnicanal, Stratégie & expérience client, E-commerce, CRM, Pilotage de projets, Stratégie data, Open Innovation, Acquisition, SEO, UX & Design thinking, Design d'interface, CRO, Branding & communication, Data-driven marketing, Intelligence augmentée et Ingénierie 84
RhapsodiesRhapsodies Conseil, s’investit auprès de chacun de ses clients pour concevoir des réponses sur mesure combinant compétences métiers, expertises techniques et pratiques agiles. Nos solutions novatrices sont bâties en collaboration étroite avec nos clients dans une démarche de co-construction garantissant une réponse alignée à leurs besoins.Transformation Agile, Transformation DATA, Architecture SI, Architecture d'Entreprise, Pilotage des Transformations, Performance Economique IT , Internal Digital Experience101
DataValueDataValue Consulting est un cabinet de conseil IT qui accompagne les entreprises des secteurs privé et public dans la valorisation de leur data. Le cabinet spécialiste s'appuie sur une double compétence de ses consultants en management et en technologie. Nous aidons nos clients depuis la formalisation de leur stratégie jusqu’à la mise en œuvre de leurs projets data.Conseil, Stratégie IT, Big Data, Data Management, Pilotage de la performance, Business Intelligence, Gouvernance de la Data, Datavisualisation, Data Management, Data Intégration134
ConverteoGrâce à notre équipe de plus de 200 consultants, spécialistes et experts, nous sommes un accélérateur de performance intervenant du cadrage à la réalisation. Connecteur entre le marketing et l'IT, pragmatique et indépendant, nous œuvrons pour le transfert de compétences à nos équipes clientes.conversion, optimisation, webanalytics, formation, adtech, martech, datalake, datascience, digital marketing, digital consulting, data consulting, DMP, Marketing Automation, data engineering, CRO, Consulting, Marketing, Technologie205
KPCKPC est un acteur de référence dans le pilotage de la performance et de l’expérience client. Grâce à la convergence de nos savoir-faire, nous proposons des solutions pour construire l’entreprise intelligente et digitale de demain. La gestion intelligente des données est au coeur de notre ADN, et de notre culture d’entreprise. Nos partenariats stratégiques et nos équipes pluri-disciplinaires permettent à KPC d’offrir à ses clients la vision, l’expérience et le savoir-faire nécessaires pour développer, personnaliser, intégrer et déployer les solutions les plus performantes.Data Intelligence & Analytics, Customer Experience & Digital, ERP, Data Science, Big Data, Marketing Automation, Transformation Numerique, Crm, Adobe Campaign, Ia, Salesforce,, Selligent Et Anaplan 219
KeyrusActeur international du conseil et des technologies, Keyrus a pour mission de donner du sens aux données, en révélant toute leur portée, notamment sous un angle humain. S'appuyant sur l'expérience cumulée de plus de 3 000 collaborateurs et présent dans 22 pays sur 4 continents, Keyrus est l'un des principaux experts internationaux en matière de données, de conseil et de technologie.Management & Transformation, Data Intelligence, Digital Experience2315
TalanTalan est un cabinet de conseil en innovation et transformation par la technologie. Depuis plus de 15 ans, Talan conseille les entreprises et les administrations, les accompagne et met en œuvre leurs projets de transformation et d’innovation en France et à l’international. Conseil, AMOA SI, MOE, Support, Architecture SI, Transformation Agile, Digital, Consulting, IT Consulting, CRM, BIG DATA, IoT, Blockchain, IA, innovation, Data, big data2903
Business & DécisionsBusiness & Decision est un groupe international des services du numérique, spécialisé, depuis sa création, dans l’exploitation et l’analyse de données.  Data Intelligence, Big Data, Data Gouvernance, véritables socles de l’intelligence artificielle et de l’expérience digitale, sont les domaines d’expertise et de spécialisation du groupe.  Business & Decision, filiale d’Orange Business Services, emploie 2 400 talents dans 10 pays dans le monde et dans 14 villes en France. Data, Digital, CRM, Digital Transformation, Data Science, Data Visualisation, Gouvernance des données, Intelligence artificielle, Protection des données, Green AI, Data Mesh 2921

 

Intégrateurs data / CRM

> Pour mettre en place les flux de données, et paramétrer les outils CRM

NomDescriptionSpécialitésNb employés
CeziumCezium est votre partenaire de confiance sur tous les sujets relatifs au marketing digital:- spécialiste des solutions de marketing automation (notamment Salesforce Marketing Cloud)- conseil avisé sur les sujets DMP (POC ou stratégie d'industrialisation)- partenaire innovant (ISV sur la plate-forme Salesforce avec des applications dédiées à Marketing Cloud) - coaching et formation.marketing, martech, salesforce, adobe, dmp, marketing cloud, customer experience, analytics, customer journey, cdp, sfmc7
AtejaAteja founded in 2012. Intégrateur des solutions CRM Sage. Sage CRM Standard. Développement de projets ETL Talend Open Studio. Déploiement de portail intranet Microsoft Sharepoint. Emploi 5 personnes. www.ateja.fr Basé à Euratechnologies - technopole NTICSageCRM, CRM, Sharepoint, Talend Open Studio, INES CRM, Sage CRM, Salesforce23
SynalticDepuis 2004, Synaltic est un véritable spécialiste en Data Management, et propose une nouvelle perspective sur les systèmes d’information de plus en plus « Data Driven ». Grâce à ses choix de partenaires dès leur plus jeune âge et l'appui de ses 30 collaborateurs certifiés, Synaltic accompagne ses clients dans toutes les étapes de la valorisation de leurs données. Il s’agit d’un véritable artisan de la donnée avec des valeurs indissociables telles que le partage, la curiosité, la polyvalence, l'innovation et la durabilité.Expertise, Projet, Formation, Support, R&D, Data Preparation, Dataviz, Développement, Data Lake, Data Integration, Méthodologie Projet, Conseil, Open Source, Open Data, Data Management, Business Intelligence30
AIDAI&DATA est la plus ancienne société de Data Marketing en France. Créés en 1972 (nous fêtons nos 50 ans en 2022 !), nous avons déjà réalisé plus de 2 000 projets data, principalement pour les Grands Comptes, tous secteurs confondus. Nous travaillons principalement pour des grands comptes dans tous les secteurs d’activité : Leclerc Voyages, Compagnie Marco Polo, Bioderma, Botanic, EDF, Puy du Fou, MAIF, Harmonie Mutuelle, Société Générale, etc... Au total, nous gérons pour ces marques près de 250 millions de clients et 50 milliards de transactions par an.Datamining, CRM services, Data Quality, Marketing strategy, Datascience, Datamarketing, Textmining, Machine Learning, Consulting, Data Training56
SynoliaSynolia est une société de conseil et de services spécialisée dans la mise en place de dispositifs sur-mesure plaçant le client au cœur de l’entreprise. Rapidement Synolia tisse des liens étroits avec des éditeurs innovants et s’entoure des meilleurs talents, tous partageant les mêmes valeurs d’innovation, d’excellence et de proximité. CRM, eCommerce, eBusiness, SugarCRM, Magento, Prestashop, QlikView, Marketing Automation, OroCRM, relation client, CRM Open Source, Salesfusion98
AvisiaFondé en 2007, AVISIA est devenu au fil des années un acteur de référence en Data, Digital & Technologies. A travers une équipe de passionnés, nous sommes spécialisés dans le Conseil, l’Intégration et la réalisation de projets « Data Centric ». Business Intelligence, Performance Analytique, Big Data, Conseil & AMOA, Data Science, Digital, Data Engineering, Décisionnel, Web Analytics, Google Cloud Platform, Dataiku, SAS, Google Analytics182
CylleneChez Cyllene, on couvre le spectre complet de votre besoin en termes de : 1. Conseils 2. Définition d’architectures 3. Hébergement & Services managés 4. Cybersécurité & Formations 5. Déploiement de technologies applicatives et web 6. Data Intelligence & Data AnalyticsRCU, CDP, Architecture data, Hébergement, Maintenance, Infogérance, Base de données, Data analytics218

Télécharger notre Top 70+ prestataires CRM français

Pour accéder à la ressource, il vous suffit de vous inscrire en quelques clics.
Au clic sur le bouton ci-dessous, vous arriverez sur un formulaire d'inscription rapide. Une fois inscrit, il y a un onglet "Ressources" qui apparaîtra dans le menu du haut qui vous permettra d'accéder à l'ensemble des ressources en téléchargement gratuit. Avec un peu de chance, vous aurez une bonne surprise, il y aura d'autres ressources qui vous seront utiles 😊

👉 Je m'inscris pour télécharger la ressource

Comment mesurer le ROI de mon dispositif data ?

Il n’est pas facile de mesurer le ROI d’un dispositif data ou l’impact d’une fonction data. Pour un dirigeant soucieux de bien doser ses investissements, c’est un challenge.

Il y a au moins 2 raisons qui expliquent cette difficulté :

  • La fonction data est relativement nouvelle. Il n’y a pas encore de framework faisant autorité permettant de mesurer son impact. D’ailleurs, le rôle et la place dans l’organisation de la fonction data ne sont pas toujours bien clairs. Certaines équipes data reportent au CTO, d’autres aux CFO, d’autres au CMO…
  • La fonction data a un impact indirect sur les KPIs business de l’entreprise. Il s’agit d’une fonction support qui n’est pas directement génératrice de revenus comme peuvent l’être les fonctions Marketing ou Sales.

Télécharger notre template ROI Data Stack gratuitement

Notre conviction est que le ROI d’une fonction data varie suivant la taille de l’équipe data. C’est une idée que nous avions déjà présentée dans notre guide pour structurer la fonction Data / Analytics en startups. Pour résumer :

  • Votre équipe data a entre 0 à 5 personnes ? Son rôle principal est la fiabilisation des données, c’est-à-dire la gestion de la qualité des données. C’est sur cela que vous allez pouvoir la juger et mesurer son ROI.
  • Votre équipe data a entre 5 à 10 personnes ? Son rôle principal est l’opérationnalisation des données, c’est-à-dire la mise à disposition des données directement dans les outils des équipes métier.
  • Votre équipe data a plus de 10 personnes ? Son rôle est l’amélioration de la productivité des équipes.
roi team data enjeux
Source : Castordoc.

De ces rôles ou objectifs découlent des indicateurs que nous allons vous détailler. Nous avons aussi conçu pour vous une ressource GSheets 100% home-made qui devrait vous être utile. Pour produire ce guide, nous avons choisi de nous inspirer du beau travail réalisé par nos amis anglophones de chez Castordoc.

ROI d’une petite équipe data : Fournir des données fiables

Une petite équipe data (entre 0 et 5 personnes) doit se concentrer sur un objectif principal : fournir des données propres et fiables aux équipes business et aux décisionnaires. C’est donc la qualité des données qui va servir d’étalon pour mesurer le ROI de l’équipe et de l’infrastructure data.

Il existe 5 critères pour évaluer la qualité d’une donnée : l’exactitude, l’exhaustivité, la cohérence, la fiabilité et l’utilisabilité. Chacun de ces critères peut se décliner en KPIs et être utilisé pour évaluer le ROI de l’équipe data.

L’exactitude

L’exactitude des données définit le niveau de correspondance entre vos données et la réalité. C’est le critère de base. Si le nombre de commandes enregistré dans le data warehouse est différent de celui rapporté par les commerciaux, il y a un problème, vos données sont inexactes Le KPI consiste à évaluer la proportion de données exactes parmi l’ensemble de vos données.

roi stack data exactitude

Une autre approche consiste à calculer le taux d’exactitude pour chaque data set et à le rendre accessible aux utilisateurs sous la forme d’un pourcentage affiché dans leurs outils. On peut ensuite définir une règle de gouvernance : « si moins de X% d’exactitude, ne pas utiliser ce champ ».

La complétude

Le taux de complétude désigne le pourcentage de champs complétés pour un attribut donné. Par exemple, si vous avez l’adresse postale de 80% de vos contacts, 80% est le taux de complétude de l’attribut « adresse ». On peut aussi calculer le champ de complétude d’une base de données, en prenant en compte l’ensemble des colonnes. Le taux de complétude se mesure de la manière suivante :

roi stack data completude
Là encore, le taux de complétude peut être affiché dans les outils des utilisateurs métier et des règles peuvent être définies pour déterminer à partir de quel taux de complétude un champ peut être utilisé (pour créer un segment par exemple).

La cohérence

La cohérence désigne l’absence de conflit entre vos données. Si vous avez 2 outils qui stockent les adresses postales et que ces 2 outils affichent des valeurs différentes, il y a un conflit et donc un problème de cohérence. Soit dit en passant, l’unification des données dans une base centrale résout ce problème. Mais on peut aussi parler de conflit dans un même outil si, par exemple, votre revenu mensuel n’est pas cohérent avec votre chiffre d’affaires et vos coûts. Il y a donc 2 types de conflits. La cohérence est plus complexe à calculer que les autres métriques. Elle se calcule à deux niveaux : entre deux colonnes, entre deux tables.

roi stack data coherence

La fiabilité

Une donnée est fiable si elle fait l’objet de confiance de la part des personnes qui l’utilisent. Pour qu’une donnée soit fiable, elle doit disposer d’un niveau de garantie suffisant quant à sa qualité. Si l’équipe marketing décide de ne pas utiliser telles données parce qu’elle estime qu’elles ne reflètent pas la réalité, il y a un problème de fiabilité. La fiabilité est un critère subjectif dépendant des critères objectifs présentés plus haut : exactitude, complétude et cohérence. Il y a plusieurs manières de mesurer la fiabilité des données.

roi stack data fiabilite

L’utilisabilité

La question est simple : est-ce vos données sont utilisées par le métier ? Pour être utilisées, elles doivent être utilisables. Pour être utilisables, les données doivent être facilement accessibles et facilement interprétables.

Un ensemble de données répondant aux 4 critères vus précédemment peut très bien être inutilisable si les données sont difficiles à trouver et à comprendre…L’utilisabilité est le critère ultime de qualité des données. On peut améliorer l’utilisabilité des données en ajoutant des métadonnées, en documentant les données. D’où la métrique que nous vous proposons.

roi stack data utilisabilite

Deux autres métriques sont possibles : le nombre de requêtes d’utilisateurs demandant à ce que la donnée soit présentée autrement, le nombre d’utilisateurs cibles utilisant effectivement les systèmes qui leur sont destinés.

ROI d’une équipe data de taille intermédiaire : Faciliter l’exploitation opérationnelle des données

Une équipe data de taille intermédiaire (entre 5 et 10 personnes) n’a plus pour seul objectif de fiabiliser les données pour aider l’entreprise à prendre des décisions data-driven. Elle doit aussi rendre ces données exploitables au quotidien par les équipes métiers, par les opérationnels. L’exploitation opérationnelle de la donnée est son enjeu.

Impact sur les performances opérationnelles

Créer des reportings avec des données fiables, c’est bien, mais les données n’ont pas seulement vocation à alimenter des tableaux de bord. Le niveau supérieur consiste à pousser les données directement dans les outils utilisés par le métier pour que les équipes puissent utiliser les données au jour le jour, dans leurs process quotidiens. Les données sont « opérationnalisées ».

C’est, par exemple, mettre en place un flux permettant que le NPS remonte automatiquement dans la fiche client du CRM, avec mise à jour en temps réel quand il s’agit de données chaudes. Et plus largement, cela consiste à faire en sorte que les segments, les scores et autres agrégats calculés dans l’outil de data management soient automatiquement synchronisés dans les applicatifs métier, au bon endroit.

C’est ce que l’on appelle « l’operational analytics », qui est facilitée par l’adoption d’outils gérant les flux de données de la base centrale vers les différents applicatifs (ce qu’on appelle les Reverse ETL).

Nous avons produit un article invité sur le site du Journal du Net au sujet de cette approche « operational analytics » . Si vous voulez aller plus loin, nous vous en recommandons chaudement la lecture.

A un niveau plus avancé donc, mesurer le ROI d’une équipe data ou d’une stack data va consister à mesurer l’augmentation des performances des équipes métiers grâce aux données mises à disposition dans leurs outils. Grâce aux données rendues opérationnelles :

  • Les marketers utilisent des segments plus fins qui leur permettent de concevoir des campagnes mieux ciblées
  • Les commerciaux priorisent mieux les leads dans leur pipeline
  • Le support priorisent mieux les tickets

Nous avons conçu un framework qui va vous aider à mesurer le ROI de l’operational analytics sur la partie qui nous intéresse : le marketing. Le fonctionnement de ce framework est simple :

  • Vous renseignez le coût de votre dispositif data : le coût homme et le coût logiciels.

roi stack data template octolis couts

  • Vous estimez ensuite ce que vous pourriez gagner grâce à votre stack data. Pour cela, vous devez définir vos différents cas d’usage et, pour chaque cas d’usage, faire une estimation de son impact sur la réduction des coûts d’acquisition et/ou sur la performance (conversion, panier moyen, fréquence d’achat).

roi equipe data cas usage operationnels

  • Les pourcentages sont calculés en valeurs monétaires sur la base des métriques que vous avez renseignées dans le template.

roi equipe data cas usage operationnels 2

Une fois tout cela fait, vous n’avez plus qu’à utiliser la formule [(gains – coûts) / coûts] pour calculer le ROI de votre dispositif data.

Impact sur l’Analytics

Une bonne infrastucture data, une bonne stack data permet aussi de booster le ROI de l’équipe data. Il y a plusieurs métriques ou dimensions à prendre en compte pour mesurer cet impact :

  • L’équipe data est moins sollicitée pour fournir des analyses ad hoc. L’operational analytics permet aux équipes métier de gagner en autonomie dans la production d’analyses adhoc du fait de la mise à disposition des données directement dans les applicatifs et de l’utilisation d’outils self-service business user-friendly.  Pour mesurer cet impact, vous pouvez utiliser la métrique suivante :

roi stack data impact analytics

  • L’équipe data a plus facilement et rapidement accès aux données. Un manque de documentation, l’absence de data cataloging ou une mauvaise gouvernance des données peuvent compliquer l’accès aux données. Il faut parfois plusieurs jours pour qu’un data scientist accède aux données dont il a besoin pour construire ses modèles. Avec une bon dispositif data, les professionnels de la donnée perdent moins de temps à accéder aux données et consacrent plus de temps à les analyser, les exploiter.

roi stack data impact analytics accessibilite

  • L’équipe data répond plus rapidement aux demandes du métier. La mise en place d’une stack data moderne ou, en tout cas, d’une infrastructure data cohérente permet de traiter plus rapidement les demandes des équipes métier. Comment calculer cet impact ? Par exemple en mesurant la satisfaction des équipes métier vis-à-vis de l’équipe data ou en calculant un temps moyen de réponses (plus difficile à mesurer…).

ROI d’une équipe data importante : Améliorer la productivité

Une équipe data bien structurée, comportant au moins 10 personnes, peut se proposer des objectifs encore plus ambitieux : améliorer la productivité de l’organisation. Comment ? De 3 manières : en optimisant la stack data, en réduisant le temps passé par les équipes métier sur les sujets data, en améliorant la productivité des équipes analytics et métier.

Optimisation de la stack data

Dans une stack data moderne, l’architecture Data et IT est simplifiée. Finies les infrastructures lourdes basées sur des solutions anciennes On-Premise, finie la multiplication inutile des outils, fini le temps perdu à maintenir des pipelines de données complexes ou des bases de données qui tombent régulièrement en panne.

L’un des ROI d’une équipe data mature réside dans sa capacité à mettre en place une stack data moderne adaptée aux objectifs/besoins de l’entreprise et à optimiser le coût général de l’infrastructure data, du management de la data.

Comme nous l’expliquions dans notre article De la stack data moderne à l’expérience data moderne, « la stack data moderne rend simple, rapide, souple et abordable ce qui était autrefois compliqué, long, rigide et coûteux ». L’automatisation des process, des flux, l’effondrement des coûts de stockage, tout cela fait gagner du temps et de l’argent.

Comprendre la stack data moderne

Un Data Engineer qui aurait été cryogénisé en 2010 et que l’on réveillerait aujourd’hui ne comprendrait pas grand-chose à la stack data moderne. Il n’a fallu que quelques années pour que tout change dans la manière de collecter, extraire, acheminer, stocker, préparer, transformer, redistribuer et activer les données. On vous explique tout dans notre guide introductif à la Stack Data Moderne.

Réduction du temps passé par les équipes métier sur les sujets data

L’objectif d’une équipe data mature est, par les moyens qu’elle met à disposition, par l’infrastructure qu’elle construit, de limiter le temps passé par les équipes métier à travailler sur des sujets data, que ce soit construire des reportings, effectuer des analyses adhoc ou synchroniser les données entre les outils, etc.

Notre framework vous permet de calculer le coût total lié au temps passé par les équipes métier sur les sujets data. Vous pouvez vous en servir pour estimer ce que cela vous coûte aujourd’hui et ce que cela vous coûterait si vous optimisiez l’organisation des équipes et votre dispositif data.

roi team data productivite equipe

Productivité des équipes data

Une organisation et une infrastructure data solides permettent d’augmenter la productivité de l’équipe data. Une équipe data mature comprend deux types de profils bien distincts :

  • Les ingénieurs data, chargés de gérer l’infrastructure, les pipelines, la disponibilité des données.
  • Les analystes, au sens large, ce qui inclut les data analysts et les data scientists.

Dans une équipe data structurée, chacun de ces deux types profils génère un ROI différent pour l’entreprise :

  • Le ROI principal délivré par les « ingénieurs data » = la disponibilité des données pour les analystes. Les ingénieurs data ont rarement un impact direct sur les KPIs business d’une entreprise. En revanche, on peut mesurer leur impact sur la productivité des équipes analytics. La disponibilité (et la fraîcheur) des données est un bon indicateur pour évoluer l’efficience d’une stack data. Quels KPIs utiliser ? Par exemple, le nombre de fois qu’un dataset est délivré dans les temps aux équipes analytics, ou bien la fréquence de rafraîchissement des datasets (jour, heure, temps réel). Une autre solution consiste à mesurer le downtine, c’est-à-dire le temps perdu à résoudre les incidents. Voici comment le mesurer :
roi stack data downtime
Si vous avez 10 incidents data par mois et que chacun prend en moyenne 4 heures pour être détecté et 3 heures pour être résolus, votre downtime mensuel est de 70 heures.
  • Le ROI principal délivré par les « analystes data » = la réduction du volume de sollicitations provenant des équipes métier. On pourrait dire, en caricaturant un peu, que les ingénieurs data travaillent à améliorer la productivité des analystes data et que les analystes data travaillent à améliorer la productivité des équipes métier. Si les équipes métier (marketing, sales, service client, finance…) passent leur temps à interroger les analystes pour obtenir des réponses à leurs questions, c’est que les données ne sont pas suffisamment opérationalisées. Cela impacte leur productivité mais aussi celles des analystes data, qui ont moins de temps à consacrer à leur cœur de métier : la production d’analyses (data analysts) et la production de modèles (data scientists). Le ROI des analystes de la data peut se mesurer au volume de sollicitations en provenance des équipes métier.

roi stack data equipe data analytics

En résumé :

  • Le ROI des ingénieurs data se mesure à l’impact qu’ils ont sur la productivité des analystes data.
  • Le ROI des analystes data se mesure à l’impact qu’ils ont sur la productivité des équipes métier.

Plus que jamais, à ce stade de maturité de l’équipe data, ce n’est pas les outputs (la qualité des données, par exemple) qui permettent d’évaluer le ROI de l’infrastructure data, mais les impacts (sur le business).

Conclusion

Résumons-nous. Notre conviction est que c’est la taille, le degré de maturité de l’organisation et le niveau de structuration de l’équipe data qui déterminent les objectifs et les indicateurs de mesure de ROI de la fonction data. Le rôle et le niveau d’ambition d’une équipe data ne peuvent pas être le même suivant qu’elle comporte 2 ou 30 personnes…

  • Si votre entreprise a une fonction data récente avec des ressources limitées (0 – 5 personnes), c’est sa capacité à fournir des données fiables au métier qui servira de boussole pour évaluer le ROI.
  • Si votre entreprise dispose d’une fonction data plus étoffée et plus mature (5 – 10 personnes), c’est la capacité à « opérationnaliser » les données qui servira d’indicateur.
  • Si votre entreprise a une fonction data structurée, comportant au moins 10 personnes avec des rôles bien définis, répartis entre les ingénieurs data et les analystes data, le ROI se mesurera à partir de l’impact sur la productivité de l’entreprise.

Une fois que l’on a compris l’objectif principal de la fonction data de son entreprise, les métriques sont relativement faciles à déduire. Nous vous en avons donné quelques-unes, vous pourrez sans doute en imaginer d’autres. Nous espérons aussi que la ressource que nous avons produite vous sera utile. Nous comptons sur vous pour en faire un bon usage 🙂

Téléchargement de notre template ROI Data Stack.

Pour accéder à la ressource, il vous suffit de vous inscrire en quelques clics.
Au clic sur le bouton ci-dessous, vous arriverez sur un formulaire d'inscription rapide. Une fois inscrit, il y a un onglet "Ressources" qui apparaîtra dans le menu du haut qui vous permettra d'accéder à l'ensemble des ressources en téléchargement gratuit. Avec un peu de chance, vous aurez une bonne surprise, il y aura d'autres ressources qui vous seront utiles 😊

👉 Je m'inscris pour télécharger la ressource

Notre sélection des meilleurs exemples de programmes de fidélisation

Dans la course vers une relation client toujours plus personnalisée et omnicanale, les programmes de fidélisation qui visent à récompenser les clients réguliers et à instaurer avec eux une relation durable jouent un rôle de plus en plus important.

Ces programmes répondent à un constat simple, 15 à 20% de clients qui représentent 50 à 80% de votre chiffre d’affaires : il est donc nécessaire de valoriser le plus possible vos meilleurs clients.

L’objectif de ces programmes est triple :

  • Augmenter la rétention
  • Faire croître leur panier moyen et leur Lifetime Value (LTV)
  • Diminuer le coût d’acquisition client.

Les programmes de fidélités modernes, auxquels les clients sont plus sensibles, dépassent le simple avantage économique. Plus encore, l’éternelle « carte de fidélité » n’est plus un élément indispensable d’un programme. Il vaut mieux désormais se recentrer sur la relation avec le client pour proposer une expérience unique qui vous permettra de vous distinguer de la concurrence.

Nous avons donc sélectionné les exemples les plus réussis dont vous pouvez vous inspirer pour vos programmes de fidélités.

#1 Appartenance à un club avec le Nike+ Run Club

Nike programme de fidélité

Le Nike+ Run club permet à tous les utilisateurs de l’application Nike, débutant ou confirmé, d’appartenir à un « club » et d’être accompagné dans la pratique de leur sport. Le mot d’ordre dans la description de l’application par Nike : « nous sommes là pour vous », est représentatif de cette volonté.

Les utilisateurs font ainsi partie d’une très large communauté organisée autour de la marque de sport. On peut y enregistrer ses chaussures, suivre le détail de ses performances et partager chacune de ses courses.

L’une des forces de cette application est sa gratuité : même un utilisateur qui n’est pas encore client chez Nike peut s’inscrire et faire partie de cette communauté. Une fois membre, l’utilisateur est plus susceptible de devenir client ou de le rester.

L’autre atout de cette application est le coaching personnalisé – là encore accessible gratuitement. Chaque utilisateur est donc accompagné dans la pratique de son sport par un « coach » virtuel de Nike, une voix qui guide l’utilisateur lors de ses courses. Nike prend ainsi une place importante dans la pratique du sport par l’utilisateur, qui associe alors la marque à sa progression.

#2 Les programmes à points, le club Oh My Cream

OhMyCream programme de fidélité

Le programme à point est un système simple grâce auquel le client va gagner un certain nombre de points par euro dépensé, en échange desquels il peut bénéficier d’avantages exclusifs et de réductions.

Ce système permet d’inciter directement le client à accroître la taille de son panier, ce dernier étant récompensé en fonction de la valeur de ses achats. De plus, le fonctionnement simple et clair de ce type de programme facilite l’adhésion des utilisateurs qui ont facilement accès à la grille de récompenses.

Un exemple de programme à points est le club Oh My Cream, de la marque de soin skincare. Ce club repose sur 3 niveaux – Argent, Or et Platine – qui offrent des réductions, mais donnent également accès à des ventes privées et même à des initiations exclusives et des journées privilèges.

Ainsi, pour chaque euro dépensé, le client gagne un point. Parvenu à 220 points, le client entre dans le programme au niveau Argent et reçoit un bon de réduction de 10% utilisable sur la commande de son choix. Ce système continue jusqu’à ce que le client atteigne les 1300 points – le niveau Platine – lorsque sa fidélité est récompensée par des invitations exclusives à des évènements privés, et où chacune de ses commandes est agrémentée d’une surprise.

Le club Oh My Cream est donc un exemple intéressant de programme à points. Facilement compréhensible et transparent, les clients y adhérent rapidement. Plus encore, ce système ne repose pas seulement sur une offre économique, mais propose aussi des expériences uniques aux clients les plus fidèles.

#3 Le parrainage avec Mon Petit Placement

Mon petit placement programme de fidélité

Les programmes de parrainage récompensent une autre facette de la fidélité du client : les recommandations. Leur objectif premier est d’accroître la base de clients en se reposant sur les utilisateurs existants. Cela présente plusieurs avantages :

  • Réduction du coût d’acquisition client :

En laissant les utilisateurs promouvoir eux-mêmes la plateforme, l’entreprise réalise des économies significatives. Pour que cela soit effectivement rentable, il est nécessaire de calculer l’avantage qu’en retirent les parrains pour que l’offre soit incitative et en même temps intéressante économiquement pour l’entreprise.

  • Sélection des clients potentiels :

Les utilisateurs qui recommandent la plateforme le font à des individus très susceptibles d’être intéressé par le service. C’est donc un moyen indirect mais précis de sélectionner les clients potentiels.

  • Récompense pour l’attachement à l’entreprise :

Ce système de récompense dépasse les simples récompenses liées aux achats et encourage les clients à recommander le service, créant de fait un plus grand attachement à la marque.

Le programme de fidélité de Mon Petit Placement est un exemple de système de parrainage efficace. Chaque parrain bénéficie de 15% de réduction à vie par filleul sur ses frais de gestion, et chaque filleul reçoit à son tour cette réduction de 15% lors de la création de son compte. Plus encore ces réductions sont cumulables ! C’est donc un système simple dont les utilisateurs bénéficient directement et qui récompense de façon importante les individus qui recommandent Mon Petit Placement.

#4 Mettre en avant les valeurs partagées : Body Shop

Bodyshop programme fidélité

Tous les programmes de fidélités ne sont pas construits seulement autour d’avantages économiques. The body shop par exemple a centré son offre de fidélité autour de ses valeurs d’entreprise, notamment la lutte contre les violences sexuelles.

Le programme de fidélité The Body Shop offre la possibilité de convertir ses points de récompenses en dons. Ainsi, les récompenses ne bénéficient pas directement au client mais sont transmises à une association de son choix.

En opérant ainsi, l’entreprise se rapproche de ses clients à travers une lutte commune pour des valeurs partagées. Ce système reposant sur la charité permet donc de créer une relation plus profonde avec le client qui développe alors un attachement plus important pour la marque. Les clients sont généralement sensibles à ce type de programme qui permet de dépasser la simple relation commerciale et de mettre en avant des valeurs importantes pour l’entreprise.

#5 Le programme de fidélité par palier : Philosophy

Philosophy programme de fidélité

La marque de produits cosmétiques Philosophy a choisi un type de programme de fidélité semblable à celui à points, mais en y incluant un système supplémentaire de paliers. Comme pour le système à points, le client dispose d’une certaine cagnotte liée à son activité lui permettant d’accéder à des avantages exclusifs. Cependant, le programme de Philosophy présente deux différences notables :

  • Le multiplicateur de points :

Les clients sont répartis en 3 niveaux en fonction du nombre de points dont ils disposent. A chaque niveau est associé un multiplicateur de points. Ainsi, un client au premier niveau gagne des points à chaque achat selon une grille, au deuxième niveau le nombre de points gagnés est multiplié par 1,25 et au troisième niveau par 1,5. Les avantages du multiplicateur sont même renforcés pendant le mois de l’anniversaire du client.

Ce système récompense ainsi les clients à la hauteur de leur fidélité. Plus encore la marque les incite directement à passer à l’échelon supérieur en leur envoyant mensuellement un « compteur de gratitude » et surtout en proposant une gamme d’articles sélectionnés pour le client à partir de ses commandes passées.

  • Gain de points supplémentaires :

Philosophy ne récompense pas seulement les achats mais aussi l’activité de ses clients sur les réseaux sociaux. Des points supplémentaires peuvent être gagnés en échanges d’actions en ligne, comme le fait de suivre la marque sur les réseaux ou d’écrire un avis. De plus, la marque a intégré le parrainage dans son système à points.

Philosophy a donc mis en place un programme de fidélité très complet, qui récompense les différentes facettes de la fidélité du client à la hauteur de son attachement à la marque.

#6 Le programme de fidélité payant avec Barnes & Noble

Barnes and Noble programme de fidélité

Ce type de programme de fidélité se distingue sensiblement de ceux évoqués précédemment, car le client doit ici payer pour en faire partie. Si cette stratégie peut sembler contre intuitive au premier abord, elle peut cependant s’avérer très efficace pour inciter le client à finaliser sa commande et ainsi augmenter la LTV des membres du programme.

En effet, en rendant payant l’accès à des avantages exclusifs, l’entreprise est en mesure de proposer un service plus complet et plus attrayant. Ces avantages permettent de réduire le taux d’abandon de panier – de plus de 75% – en réduisant drastiquement le nombre de barrières à l’achat. Ces barrières à l’achat, telles que les frais et délais de livraison, peuvent ainsi être supprimées avec des offres de livraison gratuite et/ou prioritaire, des coupons de réductions …

Barnes and Noble propose un tel type de programme de fidélité : pour 25€ par an, le client a accès à un service de livraison gratuit, à des ventes exclusives et à de nombreuses réductions.

Il est cependant primordial de porter une attention particulière à la valeur que l’offre représente pour un client lorsque l’on met en place ce type de programme. Les économies potentiellement réalisées grâce à ce type d’offre doivent être suffisamment supérieures au coût de l’abonnement pour convaincre le client d’y souscrire.

#7 Autre type de programme de fidélité : les abonnements

Le petit ballon programme de fidélité

Les abonnements peuvent être considérés comme une forme de programme de fidélité qui donne un accès exclusif à un service uniquement réservé aux clients abonnés.

Ce type d’offre présente un avantage particulier par rapport aux autres programmes : en engageant les clients sur une certaine durée, une entreprise va mécaniquement augmenter la LTV de sa clientèle. Généralement, le coût mensuel d’un abonnement est inversement proportionnel à la durée de l’engagement. Ainsi l’entreprise fidélise ses clients sur la durée et les incite à rester sur le long terme.

Le petit ballon, une marque permettant de découvrir chaque mois des bouteilles de vin livrées à domicile, fidélise sa clientèle au travers d’abonnements. Il n’est pas possible d’avoir accès à ce service pour une durée inférieure à 3 mois, ce qui garantit à l’entreprise un minimum de 3 achats par clients abonnés.

Le système d’abonnement suppose néanmoins que le client est disposé à payer de manière régulière pour avoir accès aux produits de l’entreprise. C’est donc un programme de fidélité particulièrement efficace, mais dont la mise en place dépend évidemment du type de service que propose la marque.

En conclusion : cherchez la simplicité

Il existe de nombreuses variantes des programmes de fidélités, chacune ayant ses spécificités, qui permettent d’attirer les clients auprès de la marque et d’accroître leur Lifetime Value.

Cependant, la condition nécessaire à la réussite de tous ces programmes reste l’engagement des clients. Un membre d’un programme de fidélité doit y souscrire et en faire usage pour que la mise en place d’un tel système soit source de valeur pour l’entreprise.

Notre recommandation principale, quel que soit le type de programme, est donc : la simplicité. Il est nécessaire de mettre en place un système simple et facile à comprendre pour que le client y adhère et en fasse usage régulièrement.

De l’application Nike à l’offre d’abonnement Le petit ballon, tous les exemples que nous avons sélectionnés proposent une offre que l’on comprend instantanément – coach running, livraison gratuite, ventes privées… – et dont on saisit directement la valeur. Le client peut ainsi facilement se projeter et est alors plus susceptible de devenir membre du programme.

ROPO : Comment mesurer son impact et en tirer parti ?

Vous avez un site e-commerce. Certains visiteurs s’y rendent pour faire leurs recherches mais finalisent leur parcours d’achat en magasin. Il y a donc une part du CA des magasins qui est attribuable en droit au digital. Comment la mesurer ? C’est l’enjeu du ROPO, un enjeu d’attribution très simple à comprendre, plus difficile à traiter.

Les enjeux liés au ROPO sont plus actuels que jamais. Les points de contact dans le Retail se sont multipliés. On parle maintenant de commerce omnicanal, de « commerce unifié ». Les barrières entre le digital et le offline sont enjambées sans scrupule par les consommateurs.

Contrairement à ce qu’on prédisait il y a 10 ou 20 ans, le e-commerce n’a pas dépassé le commerce physique, qui reste loin devant. Le vrai chantier de travail consiste par conséquent à améliorer la coordination du online et du offline pour générer plus de ventes en ligne et en magasin.

Le ROPO est un comportement client qu’il faut intégrer dans les modèles d’analyse de la performance.

Notre volonté dans cet article est double :

  • Vous aider à mesurer le ROPO, c’est-à-dire la part des ventes offline attribuable à vos efforts digitaux (site web, email…).
  • Vous montrer comment on peut utiliser le ROPO pour améliorer le chiffre d’affaires global de l’entreprise.

Ajoutons que le ROPO est un enjeu marketing ET organisationnel. On ne peut pas faire l’impasse sur ce deuxième aspect. Bon nombre des problèmes business auxquels peut faire face une entreprise trouvent leur origine dans des problèmes d’organisation.

En l’occurrence, beaucoup de retailers se sont développés en deux pôles séparés : un pôle magasins et un pôle e-commerce. Force est de constater que les objectifs des responsables de magasins ne sont que très rarement harmonisés avec les objectifs des responsables e-commerce. Cela crée des problèmes en interne en termes d’attribution des ventes, si ce n’est des conflits.

La mesure et la prise en compte du ROPO ont aussi pour finalité de casser cette logique pour que les deux dimensions – online & offline – ne soient plus concurrentes mais complémentaires, et que toutes les fonctions business de l’entreprise aillent dans la même direction.

Le ROPO : un enjeu marketing encore et toujours d’actualité pour les retailers

Research Online Purchase Offline [ROPO] – Définition

ROPO est l’acronyme de Research Online, Purchase Offline. Le ROPO décrit la part du chiffre d’affaires réalisé en magasin qui revient aux efforts investis online.

Il n’y a pas un commerçant qui ne doute de l’influence du online sur le offline. Combien de parcours d’achat commencent sur le web pour s’achever en magasin ?

« Je cherche un produit sur un site internet en utilisant mon ordinateur ou mon mobile, je le trouve, je cherche le magasin le plus proche de chez moi, je vérifie qu’il a ce produit en magasin, si oui je m’y déplace pour l’acheter ».

Le offline peut aussi influencer les ventes online, même si c’est moins le sujet de notre article :

« Je me balade dans la rue par une belle journée estivale, j’entre dans un magasin, je découvre mon futur frigidaire dans les rayons, mais je préfère commander sur le site web pour bénéficier de la livraison ».

Voici deux exemples typiques de la manière dont le online et le offline peuvent s’intégrer dans un même parcours d’achat. Nous aurions aussi pu parler du click & collect, bien sûr. On utilise le web pour acheter, mais aussi pour trouver un magasin ou vérifier que le magasin a le produit recherché.

La part des ventes en magasin attribuable au digital porte le nom d' »effet ROPO ».

ropo marketing effect
Source : Google.

En 2008, Google France publiait les résultats d’une enquête mettant en avant l’effet ROPO. Dans le schéma ci-dessous, extrait de cette étude, on peut voir que beaucoup de recherches en ligne aboutissent sur un achat en magasin. L’inverse existe aussi, mais dans une proportion beaucoup plus faible. Ces chiffres sont périmés mais ont pour mérite de montrer que le ROPO n’est pas une réalité nouvelle.

effet ropo etude google
Source : Google. Il s’agit des résultats d’une enquête menée en 2008. Beaucoup de choses ont changé depuis. La part de recherches réalisée en ligne est bien supérieure à 39% aujourd’hui, mais on voit déjà, en 2008, qu’une partie des recherches en ligne aboutit à des achats en magasin. C’est la définition même de l’effet ROPO.

On pourrait multiplier les statistiques démontrant l’impact du comportement ROPO. Il y a par exemple une étude de DigitasLBi Global Survey menée en 2014 qui nous apprend que 88% des consommateurs font des recherches en ligne avant d’acheter en magasin (Source). On a aussi trouvé une étude du très sérieux organisme Statista qui mesure l’impact du ROPO pour chaque famille de produits. L’étude est plus récente (2021) mais ne concerne que le marché polonais…Si ça vous intéresse, vous pouvez aller y jeter un œil.

Il est finalement assez difficile de trouver des chiffres, des études. La faiblesse de la littérature statistique illustre la difficulté qu’il y a à mesurer l’effet ROPO. Mais nous allons vous donner des techniques pour y arriver 🙂

Pourquoi cette tendance est toujours d’actualité ?

L’effet ROPO a été mis en évidence il y a 15 ans mais il est plus d’actualité que jamais. Pourquoi ? Parce que, plus que jamais :

  • Les consommateurs lisent des avis clients en ligne avant de se déplacer en magasin pour acheter. Les avis clients sont utilisés pour se faire une idée sur un produit, un service, une marque, un magasin…Une étude du cabinet McKinsey de 2021 a montré que le volume d’avis clients déposés en ligne avait bondi de 87% entre 2019 et 2020. La lecture des avis est devenue un incontournable en phase de recherche.
  • Les consommateurs utilisent internet pour trouver leur magasin. Une étude Bright Local de 2017 montre que 97% des consommateurs utilisent le web pour trouver un magasin proche de chez eux. On utilise le web non seulement pour découvrir des produits et les notes attribuées par les clients à ces produits, mais aussi pour trouver des magasins où se déplacer.

comportement ropo etude bright local

  • Les consommateurs utilisent le web pendant leur expérience en magasin. Beaucoup de consommateurs sortent leur smartphone quand ils sont en magasin que ce soit pour comparer les prix, télécharger leur coupon, vérifier s’il existe des promotions sur le site, scanner des QR codes, chercher des produits.

La conclusion qui s’impose est simple : la plupart des achats en magasin sont l’aboutissement d’un parcours d’achat qui a commencé sur le web.

Pourquoi les magasins physiques sont-ils encore si importants ?

On a un moment cru que l’ecommerce prendrait la place du commerce physique, que les boutiques en ligne finiraient par remplacer les magasins physiques. Force est de constater que cette prédiction ne s’est pas accomplie.

Le commerce en ligne (produits et services) a encore connu une belle progression en France en 2021, s’établissant à 129 milliards d’euros. Mais il faut remettre les choses en perspective et rappeler que cela ne représente que 14,1% du commerce de détail (Source : Fevad). Près de 5 achats sur 6 sont donc réalisés en magasin.

statistiques ecommerce france
Source des données : Fevad. Graphique produit par Comarketing News. Malgré la progression importante et continue du ecommerce, la vente en ligne ne représentait que 14,1% du commerce de détail en 2021 en France.

Comment expliquer la place toujours largement prédominante des magasins dans le commerce de détail ?

Il y a deux raisons principales selon nous :

  • Les clients aiment essayer les produits avant de les acheter. Et ça, ce n’est pas possible sur une boutique en ligne…On recherche en ligne, mais on préfère se déplacer en magasin pour toucher, essayer, regarder, sentir avant d’acheter.
  • Les clients ont une aversion pour la livraison. Sur internet, la livraison est le principal frein à l’achat. Les délais de livraison, les coûts de livraison, la complexité des procédures de retour font partie des principales raisons des abandons de panier.

Comment mesurer l’impact du digital sur les ventes physiques ?

Passons maintenant de la théorie à la pratique. Il existe trois approches pour mesurer l’impact du digital sur les ventes en magasin.

#1 Créer un multiplicateur ROPO basé sur les données Google Analytics

Cette technique permet de mesurer la contribution indirecte de votre site ecommerce sur vos ventes en magasin en utilisant Google Analytics.

Précisons d’entrée de jeu que le calcul du ROPO repose nécessairement sur un modèle d’attribution probabiliste, et non déterministe (sauf dans le cas du click & collect).

Des signaux ROPO aux hypothèses

La démarche consiste d’abord à :

  • Identifier les signaux du comportement ROPO. Le store locator est l’exemple de signal par excellence d’un comportement ROPO. Vous pouvez légitimement faire l’hypothèse qu’un visiteur de votre site qui recherche sur votre site web le magasin le plus proche de chez lui a l’intention de se déplacer en magasin pour acheter.
  • Construire des hypothèses crédibles, basées sur l’expérience de l’équipe marketing, sur les résultats des campagnes marketing passées. Il y aura forcément une dose d’intuition dans ces hypothèses, il est impossible de faire autrement. Pour chaque signal identifié, vous devez faire 3 hypothèses :
    • Le pourcentage de signaux qui se transforme en visite en magasin. Si l’on reprend notre exemple, il est possible d’estimer le pourcentage d’utilisateurs du store locator qui sont vraiment en recherche active d’un magasin en analysant de manière avancée les parcours web dans Google Analytics.
    • Le pourcentage de visites en magasin qui se transforment en achat (taux de conversion en magasin).
    • Le panier moyen des visiteurs de magasins provenant du site web. Vous pouvez vous baser sur le panier moyen qui apparaît dans vos reportings.

Des hypothèses au calcul de l’effet ROPO

Ces hypothèses vont vous permettre de calculer le revenu offline attribuable à votre site ecommerce. Si vous avez 10 000 visiteurs par mois qui utilisent le store locator, que vous faites les hypothèses que 20% se déplaceront effectivement en boutique, que 40% d’entre eux achèteront pour un panier moyen de 50 euros, vous pouvez estimer que le chiffre d’affaires généré grâce au store locator de votre site web est de :

10 000 x 0,20 x 0,40 x 50 = 40 000 €

Vous devez faire le même calcul pour tous les signaux digitaux que vous avez identifié.

Il faut aussi, bien entendu, intégrer les achats click & collect.

De l’effet ROPO au calcul du coefficient multiplication ROPO

Une fois que vous avez une estimation du chiffre d’affaires magasin généré grâce au ecommerce, vous pouvez définir un coefficient multiplicateur ROPO. Il se calcule en divisant le chiffre d’affaires online par le chiffre d’affaires généré en magasin grâce au site. Si votre ecommerce génère 100 000 euros de CA par mois et que le CA généré offline grâce au site est estimé à 50 000 euros, votre coefficient est de 2.

Ce coefficient multiplicateur vous permet de gagner du temps dans le calcul du ROPO. Vous avez fait 200 000 euros de CA ecommerce ce mois-ci ? Alors, le CA ROPO est de 100 000 euros. Vous n’avez plus qu’à intégrer ce coefficient dans le compte de résultats pour mesurer la contribution réelle du digital au chiffre d’affaires global de l’entreprise.

#2 Evaluer la contribution de l’email sur le CA des magasins

La première technique permet de mesurer la part du site ecommerce dans le CA en magasin. La deuxième technique que nous allons vous présenter va vous permettre cette fois de mesurer la contribution de l’email, de vos campagnes et scénarios d’emailing.

Là encore, il s’agit de construire un modèle d’attribution basé sur des hypothèses. La technique consiste à attribuer X% des ventes offline au canal email en fonction des ouvertures et clics dans vos emailings. Il est important de prendre en compte la dimension temporelle, c’est-à-dire le temps qui s’écoule entre l’ouverture ou le client et la vente offline.

Voici la démarche à suivre :

  • Vous définissez les campagnes emailings qui entrent dans le périmètre de votre calcul, à savoir : les campagnes emailings qui selon vous ont un impact sur les ventes physiques. Vous pouvez intégrer toutes les campagnes de nature promotionnelle.
  • Vous définissez une règle d’attribution : si 100 clients cliquent dans un email et qu’ils achètent en magasin dans les XX jours suivant l’ouverture, alors vous attribuez YY% des ventes au canal email. Il y a donc 2 choix à faire, et même 3 :
    • Le choix de l’événement email : l’ouverture ou le clic. Le clic témoigne d’un niveau d’engagement plus élevé que la simple ouverture. Nous avons pour cette raison tendance à conseiller à nos clients d’utiliser le clic.
    • Le choix de la plage de temps : 30 jours, 45 jours, 60 jours…Le choix doit être cohérent avec le cycle d’achat moyen et les habitudes d’achat dans votre secteur d’activité.
    • Le pourcentage d’attribution au canal email en cas de conversion magasin.

Ce modèle d’attribution n’est possible que si et seulement si vous identifiez les clients qui achètent en magasin, au moyen du programme de fidélité ou autre.

#3 Evaluer la contribution du site web sur le CA des magasins

Cette troisième approche est une alternative à la première approche basée sur le coefficient multiplicateur ROPO. Elle est identique à la deuxième approche dans son fonctionnement.

La technique utilisée pour mesurer la contribution du canal email aux ventes offline peut en effet aussi être utilisée pour mesurer la contribution du site ecommerce. Si un internaute visite le site ecommerce et qu’il achète en magasin dans les XX jours suivant, la vente est attribuée au ecommerce. On peut ajouter plus de granularité dans l’analyse en déclinant :

  • Selon le canal d’acquisition du visiteur ecommerce : SEO, AdWords…
  • Selon le nombre de pages visitées : on peut par exemple décider d’attribuer 20% d’une vente physique au site ecommerce si le visiteur a visité 2 pages, 40% s’il a visité 10 pages, etc.
  • Selon la nature des pages visitées, leur degré d’intention. Si le visiteur visite la page produit du produit X et qu’il achète ce produit X en magasin 10 jours après, l’attribution est plus évidente que si ce visiteur avait visité la page d’un produit appartenant à une autre famille (ou, pire, une page institutionnelle).

Il existe beaucoup de possibilités pour complexifier le modèle, mais une chose est sûre : il n’est praticable que sur les visiteurs identifiés du site web et en magasin.

Comment transformer l’effet ROPO en opportunités business ?

L’analyse du ROPO ne sert pas simplement à améliorer l’attribution des ventes entre le digital et le offline. Le ROPO peut aussi être utilisé comme levier pour améliorer la stratégie marketing et générer plus de revenus. Voici quelques pistes d’actions.

Utiliser le ROPO pour adapter la stratégie marketing et augmenter les ventes (online et offline)

L’analyse de l’effet ROPO permet d’adapter sa stratégie marketing afin d’augmenter la conversion en magasin et sur le site. Dans un de ses articles de blog, Matthieu Tranvan, expert marketing, propose une démarche intéressante. Elle consiste à construire une segmentation client basée sur le ROPO.

Le graphique ci-dessous, tiré d’un cas client de Matthieu Tranvan, présente les différences de taux de conversion en fonction de deux variables :

  • La présence ou non d’un magasin dans la région du visiteur web.
  • L’utilisation ou non du store locator.

ropo attribution canal ecommerce

Les résultats ne sont pas surprenants : un visiteur qui utilise le store locator et qui découvre qu’il existe un magasin près de chez lui convertira beaucoup moins sur le site ecommerce. Il se sert du site ecommerce pour trouver son magasin et se déplace dans le magasin proche de chez lui pour effectuer son achat.

On peut dégager 3 personas à partir de cette analyse :

  • Persona 1 : une personne vivant en zone urbaine, plutôt jeune, qui utilise le site pour trouver un magasin proche de chez lui. Il préfère acheter en magasin.
  • Persona 2 : une personne qui vit également en zone urbaine mais qui préfère acheter en ligne plutôt que de se déplacer en magasin. Elle n’utilise pas le store locator. On peut imaginer une personne urbaine mais plus âgée ou une personne avec des enfants à charge – en tout cas il s’agit d’une personne moins encline à marcher ou à prendre sa voiture pour effectuer un achat.
  • Persona 3 : une personne qui est en dehors de la zone de chalandise d’un magasin, qui habite probablement en zone rurale ou périphérique. Cette personne utilise le site internet pour faire ses achats, par nécessité plus que par choix.

Voici un exemple de segmentation que l’on peut créer à partir d’une analyse du ROPO. Cette segmentation peut ensuite être utilisée pour affiner sa stratégie marketing et ses offres promotionnelles : remise en magasin, livraison offerte, livraison en 1 jour…

Le ROPO comme levier pour augmenter la conversion web

Pour finir nous allons vous présenter trois techniques consistant à augmenter la conversion web grâce au ROPO.

#1 Améliorer votre scénario de relance de panier abandonné

La première consiste à intégrer les achats en magasin dans votre scénario de relance de panier abandonné. Imaginez une personne qui visite votre site web, qui ajoute un produit à son panier et l’abandonne avant de finaliser la commande. Que faites-vous ? Vous lui envoyez un message de relance. C’est comme ça que fonctionne tout bon scénario de relance de panier abandonné.

Sauf qu’il est possible que ce client décide d’acheter le produit en magasin. Combien de paniers abandonnés sur le web se transforment en paniers achetés en magasin ? Plus que vous ne le croyez !

Notre conseil : intégrez les données transactionnelles magasins dans votre scénario de relation de panier abandonné. Cela vous permettra de ne pas envoyer l’email de relance aux clients qui ont finalement acheté en magasin, mais de leur envoyer à la place un email post-transactionnel. Cela suppose d’étendre un petit peu le délai avant l’envoi du message de relance…

#2 Inciter à l’achat les visiteurs du site web pendant leur recherche sur votre site

S’il y a un effet ROPO, cela veut bien que vos clients commencent leur parcours d’achat sur votre site ecommerce. Il existe des leviers pour augmenter le taux de conversion ecommerce, pour inciter les visiteurs à convertir plus rapidement pendant leur phase de recherche. Comment ? En levant les freins à l’achat en ligne.

C’est-à-dire ? Par exemple, en mettant en avant le fait que la livraison est gratuite si c’est le cas, que les retours sont gratuits, si c’est le cas, en améliorant la visibilité des produits qui correspondent aux préférences, habitudes, comportements navigationnels des visiteurs, etc. Vous pouvez aussi inciter les visiteurs à conclure leur achat sur le web en leur proposant des remises, un cadeau au-delà de X euros achetés, etc.

Cet article n’a pas pour vocation de vous détailler les différentes stratégies possibles pour augmenter le taux de conversion d’un site ecommerce, mais sachez que si vous avez un effet ROPO, c’est d’abord parce que votre site ecommerce est un point de contact clé de votre business. Un point de contact qui peut être optimisé.

#3 Mesurer l’effet ROPO des campagnes Facebook Ads

Facebook propose une fonctionnalité qui permet de mesurer l’impact des publicités sur les achats en boutique. Vous pouvez tracer les achats en magasin qui ont eu lieu suite à une exposition à une annonce Facebook.

Pour utiliser cette fonctionnalité, vous devez charger vos données clients (email, téléphone, nom et prénom, adresse, date de naissance) dans votre compte Facebook. Cela vous permet ensuite d’identifier les achats magasin réalisés suite à l’exposition à une publicité. Vous pouvez régler la durée : 24 heures, 7 jours, 28 jours…

Nous arrivons à la conclusion de cet article.

Résumons les 2 enjeux du ROPO :

  • Réussir à le mesurer pour rendre à César ce qui est à César, en identifiant la part des ventes offline que l’on doit attribuer au digital (site ecommerce, emailings…).
  • Exploiter l’analyse de l’effet ROPO pour booster aussi bien les ventes ecommerce que les ventes en magasin.

Nous avons abordé ces deux sous-sujets, sans avoir la prétention de les épuiser. Mais nous espérons que cet article a répondu aux principales questions que vous vous posiez sur le ROPO.

Vous l’aurez compris, la mesure et l’utilisation du ROPO supposent une bonne intégration des données, une réconciliation des données online et offline.

C’est là qu’une Customer Data Platform légère comme Octolis peut intervenir.

En tant qu’éditeur, mais aussi dans notre ancienne vie de consultants, nous avons eu l’occasion d’accompagner des entreprises confrontées à des enjeux d’attribution dont celui du ROPO.

Si vous êtes en prise avec ces problématiques, qui sont aussi de beaux challenges à relever, nous pouvons en discuter ensemble. N’hésitez pas à nous contacter si vous voulez savoir comment une solution comme Octolis peut vous aider à intégrer l’effet ROPO dans votre stratégie marketing. On vous répondra rapidement, promis.

Pourquoi ma société est-elle passée d’Excel à Power BI ?

Pour lire, analyser et interpréter les data, la première solution d’une entreprise est souvent l’utilisation de tableurs tels qu’Excel ou Google Sheets. Les fonctions de création de visuels de ces outils permettent de rapidement faire parler nos données. Mais ces tableurs ont leurs limites, et beaucoup d’entreprises ont fait le choix de passer à des outils de data visualisation tels que Power BI (développé par Microsoft, Power BI est actuellement le leader sur le marché des outils de data visualisation).

Nous avons recueilli le témoignage de Rémi et Pierre, ils ont tous les 2 fait le choix de passer d’Excel à Power BI au sein de leur entreprise, mais avec des profils assez différents :

  • Rémi est Sales Manager, et ex Data Manager à BMS International (Vendeur Amazon dans le top 100 des vendeurs Amazon européens). A BMS International, ils utilisent la data tous les jours pour suivre la rentabilité de nos produits, fournisseurs, transporteurs, équipes…
  • Pierre est PDG de la société AXAL, leader de la livraison spécialisée, le déménagement et le transport d’œuvres d’Art dans le grand Est. Afin de rester concurrentiel, AXAL a besoin de franchir un cap dans l’exploitation de la grande quantité de données qu’ils ont en leur possession.

Jean-Pascal Lack

Data Viz & Power BI Expert

Ingénieur centralien et expert Power BI avec plus de 7 années d’expérience, Jean-Pascal a accompagné de nombreuses entreprises (des grands groupes comme Sanofi, LVMH à des PME) à mettre en place des tableaux de bords Power BI pour différents usages métiers.

D’où vous est venue l’idée de passer à Power BI ?

🗣️ Rémi

Notre start-up étant assez jeune, nous utilisions uniquement des fichiers Google Sheets pour faire du reporting. Cependant, au fur et à mesure que nous grandissions, le nombre de data a exploité a grandi exponentiellement, et nous nous sommes vite retrouvés face aux limites de Google Sheets : une taille de fichier limité à 4 millions de cellules, et un fichier qui devient déjà lent dès le franchissement du seuil d’1 million de cellules.

On ne pouvait donc pas conserver la data au niveau le plus fin (détail des ventes au jour), nous étions alors obligés d’agréger les data à la semaine voire au mois : cela avait un double désavantage, nous perdions non seulement en finesse des data et donc d’analyse, mais l’agrégation des data était aussi un travail long et manuel.

Par ailleurs, dès que l’on voulait analyser la data selon un nouvel axe (par marque, année de lancement, zone de production, performance des produits), il fallait recréer un outil pour transformer et agréger la data selon l’axe voulu.

Nous avons donc fait le choix de nous tourner vers un outil de data visualisation, dont contrairement à Excel ou Google Sheets, la fonctionnalité première est l’analyse et la visualisation des données.

🗣️ Pierre

Dans notre société nous avons 3 ERP différents pour chacun de nos services. Il en résulte que la data ainsi que les quelques tableaux de bord étaient éparpillés.

Nous avons donc fait le choix de passer à un outil de data visualisation pour améliorer ces 2 points d’une part automatiser l’extraction de la data, d’autre part faciliter et centraliser l’accès à nos tableaux de bord.

Suite à un audit sur notre stratégie digitale ainsi qu’une recommandation de notre partenaire KPMG, nous avons creusé la piste de l’outil de data visualisation Power BI.

Nous nous sommes alors aperçus des points ci-dessous qui nous ont confortés sur le choix de Power BI :

  • Power BI est intégré à la suite Microsoft 365 (que l’on utilise déjà chez nous)
  • Il est possible de consulter nos rapports Power BI directement via le web (sans avoir à installer un logiciel)
  • Power BI est largement utilisé dans le monde de l’entreprise et est leader sur son marché

💡 L’avis de Jean-Pascal Lack, expert Power BI

Avec la grande quantité de données éparpillées dans les différents outils qu’utilise une entreprise, il devient très difficile d’analyser précisément la data, soit juste avec un simple tableur, soit via les indicateurs standards mis à disposition par l’outil.

Pour permettre à son entreprise de faire les meilleurs choix, en s’appuyant sur des KPI explicites, adéquats et précis, l’utilisation d’un outil de data visualisation devient vite nécessaire. Ils sont une multitude à avoir émergé ces dernières années, dont le leader actuel est Microsoft Power BI.

Gartner outils BI 2022

Que vous apporte Power BI de plus comparé à Excel ?

🗣️ Rémi

La migration vers Power BI nous a permis de revoir nos différentes règles métiers ainsi que les transformations depuis nos sources de données. Alors qu’avant nous avions des règles de métiers différentes en fonction des outils/ services, désormais nous avons homogénéisé nos règles et centralisé au même endroit toutes nos sources de données. Cela nous a permis d’améliorer grandement notre confiance en nos données.

« Désormais nous avons homogénéisé nos règles et centralisé au même endroit toutes nos sources de données. Cela nous a permis d’améliorer grandement notre confiance en nos données »

Par ailleurs, une fois le modèle de données créé sous Power BI, une autre grande force de Power BI est sa capacité de filtrer facilement et rapidement la donnée selon plusieurs axes de son choix. Nous avons pu gagner en profondeur de l’analyse et identifier des patterns qui ne nous étaient pas facilement accessibles auparavant.

🗣️ Pierre

Excel est très flexible, mais malheureusement Excel ne permet pas de facilement d’extraire de la donnée. Cette étape d’extraction de la donnée de nos différents outils était donc très chronophage et les collaborateurs n’avaient pas le temps de produire (et donc consulter !) les indicateurs internes. Par faute de temps, ils produisaient et consultaient les indicateurs seulement lorsque cela leur était directement demandé.

Grâce au module d’extraction et de transformation de données de Power BI, le temps de production de nos rapports a été divisé par 4 au moins ! Désormais les collaborateurs produisent et consultent quotidiennement les différents indicateurs et cela change complètement notre manière de piloter nos activités. Nous allons même extraire des informations avec Power BI dans des fichiers PDF, ce qui nous semblait à l’époque inimaginable car trop manuel.

« Grâce au module d’extraction et de transformation de données de Power BI, le temps de production de nos rapports a été divisé par 4 au moins ! »

Par ailleurs, la mise en forme est plus poussée avec Power BI, ce qui permet de faire des tableaux de bord très clairs. En témoigne l’adoption très rapide de Power BI par les différents services, chacun a désormais son tableau de bord.

💡 L’avis de Jean-Pascal Lack, expert Power BI

Power BI est bien plus performant que Excel dans bien des domaines, mais si je devais donner mon top 3, cela serait :

  1. Automatisation et extraction des données.Power BI peut se connecter à une multitude de sources de données (fichier Excel, CSV, PDF, TXT, site web, base de données, outils en ligne tels qu’Asana, Zendesk, Google Analytics mais aussi à un dossier contenant des centaines de fichiers Excel ayant un format similaire) via son ETL (Power Query).
    Par ailleurs Power BI dispose d’une interface de mise à jour automatique des données d’un tableau de bord ce qui permet de s’assurer que les utilisateurs consultent toujours un tableau de bord à jour.
  2. Accepte un gros volume de données. Power BI peut se connecter à plusieurs sources de données, créer plusieurs tables de données, les nettoyer, les transformer, les relier entre elles, et ceci sur plusieurs dizaines de millions de lignes de données. Pour le lecteur d’un tableau de bord sous Power BI, l’affichage des visuels sera quasiment instantané, il ne remarquera même pas que derrière un simple visuel se cachent en réalité des millions de lignes d’informations. Cela est littéralement impossible sur un tableur tel qu’Excel.
  3. Interface de création de visuel très user-friendly. Pas besoin d’être un expert en UX pour faire des rapports clairs via Power BI ! L’interface se base principalement sur un système de drag & drop ce qui la rend très intuitive. Par ailleurs, Power BI propose une grande sélection de visuels, même des cartes géographiques, qui sont paramétrables et personnalisables en quelques clics sans taper une ligne de code.

 
interface tableau exemple

L’interface de Tableau

Quelles sont vos limites actuelles avec Power BI ?

🗣️ Rémi

Au début, nous nous attendions à migrer tous nos rapports et outils Excel sous Power BI. Cependant, il est important de noter qu’un utilisateur ne peut pas rentrer de la data dans Power BI, car Power BI se limite à être un outil spécialisé dans la data visualisation.

Nous avons alors compris que l’on ne remplacera pas tous nos fichiers Excel par des rapports Power BI, mais plutôt que Power BI est complémentaire à Excel, puisque c’est l’outil qui permet de visualiser des données rentrées sous Excel.

« on ne remplacera pas tous nos fichiers Excel par des rapports Power BI, mais plutôt que Power BI est complémentaire à Excel, puisque c’est l’outil qui permet de visualiser des données rentrées sous Excel. »

 

🗣️ Pierre

L’interface de Power BI est relativement facile à prendre en main, ce qui nous permet après une petite formation de créer assez facilement nous-même des rapports assez simples. Par contre, si l’on veut créer des KPI sur mesure, ou faire des tableaux de bords plus poussés, nous avons besoin d’un expert Power BI, c’est là que nous avons fait appel à un consultant externe.

💡 L’avis de Jean-Pascal Lack, expert Power BI :

Grâce à son interface intuitive, un utilisateur novice ayant eu une formation peut rapidement créer son propre tableau de bord. En revanche, dès que l’on veut créer un tableau de bord se basant sur plusieurs tables de données ou créer des indicateurs spécifiques, il faudra faire appel à un utilisateur expérimenté sur Power BI, afin de garantir d’avoir à la fois un rapport performant, mais aussi des KPI justes.

Par ailleurs, il ne faut pas avoir à choisir entre Excel ou Power BI, ce sont avant tout deux logiciels complémentaires. Excel est un tableur, il permet de très facilement de saisir de la donnée, alors que Power BI est un outil qui permet entre autres de justement de mieux visualiser la donnée qui est présente dans ses fichiers Excel.

A-t-il été difficile pour votre société de vous former sur Power BI ou de trouver des personnes avec ces compétences ?

🗣️ Rémi

Nous avons pris plus d’un an pour trouver la bonne personne ! Etant donné que nous n’avions aucune personne avec un profil IT, nous cherchions plus qu’un simple développeur Power BI, mais un analyste qui pouvait avoir une vraie compréhension des enjeux du business, et qui pouvait tout prendre en charge, de la rédaction du cahier des charges, au développement et déploiement de la solution au sein de l’entreprise.

Par ailleurs, du fait de la spécificité de notre activité, nos besoins en reporting évoluent quasiment tous les trimestres. C’est pourquoi nous avons fait le choix de recruter en CDI un expert data avec plusieurs années d’expérience.

🗣️ Pierre

Nous n’avions pas la compétence en interne et nous n’avions pas besoin d’une personne à temps plein sur Power BI, suite à des recommandations nous nous sommes donc tournés vers la plateforme de freelance Malt.

Depuis 6 mois désormais, un freelance expert Power BI nous accompagne à hauteur de 3 heures par semaine sur la mise en place et le déploiement de tableaux de bord Power BI.

Lors de la sélection de notre freelance, nous avons mis l’accent sur l’aspect pédagogique du freelance. En effet, nous voulions devenir au maximum autonomes sur la création, la maintenance et l’évolution de nos tableaux de bord. Nous avons désormais plusieurs personnes chez nous qui peuvent créer par eux-mêmes leurs propres tableaux de bord via Power BI !

« Lors de la sélection de notre freelance, nous avons mis l’accent sur l’aspect pédagogique du freelance. En effet, nous voulions devenir au maximum autonomes sur la création, la maintenance et l’évolution de nos tableaux de bord. »

 

💡 L’avis de Jean-Pascal Lack, expert Power BI :

Si vous voulez déployer Power BI au sein de votre entreprise, le recrutement d’un expert Power BI est recommandé pour vous assurer que les bons choix sont faits dès le début.

En fonction de votre profil et de votre besoin, vous pourrez alors vous tourner vers une des 3 solutions suivantes : recruter en interne, recruter un freelance, ou passer par une ESN.

Le choix de l’ESN est souvent le plus sécurisé (où l’ESN aura la charge de répondre précisément à votre besoin, et disposera d’une expertise approfondie sur tous les sujets de la data), mais la plus chère.

Le recrutement d’un freelance expérimenté (via une des multiples plateformes qui existent) est une solution qui présente l’avantage d’être très rapide et flexible, tout en combinant un bon rapport qualité/prix.

Enfin le recrutement en interne vous assurera un meilleur transfert de connaissances au sein de votre entreprise. C’est l’option la moins chère mais aussi la moins flexible.

De la stack data moderne à l’expérience data moderne

Qu’est-ce que la stack data moderne ?

La stack data moderne a un sens différent suivant la personne à qui vous vous adressez.

Pour les ingénieurs analytics, c’est un bouleversement technologique majeur. Pour les fondateurs de startups, c’est une révolution dans la manière de travailler. Pour les investisseurs, ce sont des dizaines de milliards de dollars levés et un marché florissant. Pour Gartner, la stack data moderne est à la base d’une stratégie data & analytics totalement nouvelle.

Etc. Etc.

Pour nous, la stack data moderne rend simple, rapide, souple et abordable ce qui était autrefois compliqué, long, rigide et coûteux.

Il fallait autrefois dépenser des dizaines de milliers d’euros pour maintenir une base de données qui tombait régulièrement en panne, embaucher un ingénieur à temps plein pour intégrer les données Salesforce au data warehouse, payer toute une équipe de développeurs pour permettre aux analystes d’utiliser SQL dans un navigateur.

Aujourd’hui, tout cela ne vous prend que 30 minutes. C’est un game changer incroyable.

Les organisations n’ont pas encore pleinement pris conscience de la révolution apportée par la stack data moderne. C’est notre conviction et c’est aussi celle partagée par Benn Stancil, chief analytics officer et fondateur de Mode, dans une très belle tribune publiée sur son blog « The Modern Data Experience« . Nous nous en sommes très largement inspirés pour rédiger l’article que vous vous apprêtez à découvrir.

Nous le rejoignons complètement sur la nécessité de penser la stack data moderne comme une expérience. La finalité n’est pas de construire une nouvelle architecture data/tech, c’est de transformer l’expérience des utilisateurs (business, data et tech). A trop penser techno, on finit par en oublier l’essentiel et faire échouer les projets.

Les limites de la stack data moderne

La stack data moderne peine à rendre la data plus accessible aux utilisateurs business

Nous avons vu que chacun s’accordait à penser que la stack data moderne était quelque chose de formidable, même si c’est pour des raisons différentes. Mais interrogez les utilisateurs business, vous n’aurez pas le même son de cloche. Pour eux, la stack data moderne n’a rien de fantastique.

Pour la plupart des gens en fait (je parle des gens agréables, sociaux, du genre à pouvoir passer une soirée sans se disputer sur le formatage SQL), la stack data moderne est une expérience, et souvent…un ensemble d’expériences désagréables :

  • Essayer de comprendre pourquoi la croissance ralentit la veille du conseil d’administration
  • Essayer de mettre tout le monde d’accord sur les revenus trimestriels quand les différents outils & dashboards disent tous des choses différentes.
  • Partager à un client les métriques d’usage de son produit et entendre ce client vous expliquer que sa liste d’utilisateurs actifs inclut des individus qui ont arrêté d’utiliser le produit depuis plus de 6 mois.
  • Recevoir un message Slack du CEO qui vous dit que son rapport d’activité quotidien est encore cassé.
  • Etc.

Pour reprendre l’analogie d’Erik Bernhardsson, fondateur de Modal Lab, si la stack data moderne est un restaurant, toutes les frustrations que l’on vient de décrire sont celles que l’on a lorsque l’on mange un plat sans saveur. Le chef a investi dans l’amélioration des cuisines, mais les clients (les utilisateurs business, mais aussi les analystes data) sont ici pour déguster de bons plats servis par un personnel attentionné dans un cadre agréable.

Tant que vous n’arrivez pas à ce résultat, votre technologie, votre « stack data moderne », si révolutionnaire qu’elle soit, est quelque chose de théorique.

Définition et analyse de la Stack Data Moderne

Vous n’êtes pas certain de comprendre ce que recouvre ce terme ? Dans ce cas, nous vous invitons chaudement à lire notre article introductif à la stack data moderne. Vous y découvrirez ce qui a conduit à cette nouvelle organisation des outils au service d’un meilleur usage de la data et les principales briques constituant la stack data moderne.

La stack data moderne se résume trop souvent à une multiplication des outils

Les utilisateurs business n’arrivent pas à utiliser les données comme il faudrait. Ils sont insatisfaits, frustrés. La première réaction quand quelque chose ne fonctionne pas consiste à multiplier les outils. On crée des cartographies de tous les outils et systèmes à disposition et on essaie de trouver l’endroit où on pourrait venir en caler un nouveau.

Même si chaque outil pris individuellement permet de réaliser les tâches pour lesquelles il est fait de manière plus efficace, fractionner l’écosystème en utilisant des briques de plus en plus petites ne permet pas de résoudre les vrais challenges.

stack data moderne mapping
Représentation d’une stack data moderne. Source : a16z.

Comme l’explique bien Erik Bernhardsson, l’hyperspécialisation nous rend excellents pour couper des oignons et cuire les tartes aux pommes, mais c’est une mauvaise façon de gérer un restaurant.

Non, la stack data moderne ne consiste pas à empiler le plus d’outils possibles. Elle ne doit pas être le prétexte à une prolifération des technos. Prendre cette voie, c’est le plus sûr moyen de créer une stack data qui ne remplit pas sa promesse : aider les utilisateurs à travailler mieux grâce aux données.

Benchmark complet des outils de la Stack Data Moderne

Même si la stack data moderne ne se réduit pas à une combinaison de nouveaux outils (et c’est tout le propos de l’article que vous lisez), on ne peut pas faire l’impasse sur les technologies. On vous a préparé un benchmark complet des outils de la stack data moderne. Type d’outil, origine, modèle économique, réputation sur le marché… chaque solution est présentée dans le détail, dans un beau GSheet facile à exploiter et téléchargeable gratuitement. Bonnes découvertes !

liste outils stack data

La stack data moderne peine à devenir une culture d’entreprise

Lorsque nous réfléchissons aux limites de la stack data moderne telle qu’elle est imaginée et vécue dans bon nombre d’entreprises, c’est le terme de « culture » qui nous vient, cette culture vaguement définie comme une combinaison des compétences que nous avons (ou pas), des structures organisationnelles de nos équipes et à partir de termes flous comme « culture des données », « culture data-driven ».

Ces éléments sont importants, mais il faut bien être conscient qu’une culture data ne s’inculque pas en offrant à ses équipes des manuels ou en organisant des séminaires.

Si les gens ne sont pas enthousiasmés par l’avenir que leur promettent les promoteurs de la stack data moderne, si les gens sont rebutés par le travail à accomplir pour devenir « data-driven », nous ne pouvons pas nous contenter de les inviter à rejoindre le bateau. Il faut réussir à gagner leur enthousiasme. Il faut les convaincre.

Pour cette raison, la stack data moderne comprise comme projet techno n’est pas suffisante. Ce n’est pas de cette manière que vous créerez de l’adhésion. Les entreprises doivent aller plus loin que la stack data moderne et chercher à concevoir une expérience data moderne. Je vous présenterai dans un instant quelques principes directeurs pour construire ce chemin.

Quelques exemples inspirants de stack data efficientes

On dit parfois que les équipes data devraient toujours penser ce qu’elles créaient comme un produit et leurs collègues comme des clients. Si on admet cette idée, quel devrait être ce produit ? A quoi devrait ressembler le chemin qui nous mène d’une question, qui nous fait passer par des technologies, des outils, des collaborations, des échanges pour aboutir à une réponse ? Comment construit-on une stack data moderne conçue comme un produit au service des utilisateurs cibles ?

On n’arrive que rarement à répondre de manière satisfaisante à ces questions.

Ce n’est pas une fatalité. Certaines entreprises ont réussi à trouver des réponses pertinentes.

Airbnb, Uber et Netflix ont construit des stack data intégrées, avec des outils analytics, des outils de reporting, un catalogue de métriques, des catalogues de données et des plateformes ML. Contrairement aux éditeurs des logiciels qu’ils utilisent, les outils qui composent ces stacks data sont au service d’un objectif plus grand qu’eux-mêmes. Les outils sont au service de l’entreprise, et non l’inverse.

Les résultats sont impressionnants :

  • Chez Uber par exemple, les salariés peuvent rechercher une métrique, la visualiser à travers différentes dimensions et passer directement d’une exploration no-code à l’écriture de requêtes, tout cela pendant qu’une IA veille à éviter les redondances.
  • Airbnb a construit un dispositif similaire : un data catalog et un référentiel de métriques sont connectés à un outil d’exploration des données et un IDE SQL.
  • Netflix a créé un workflow pour créer, partager, déployer, planifier et explorer des notebooks qui gèrent tout, des dashboards à la production de modèles.
stack data netflix
La stack data de Netflix, une machine de guerre au service de l’efficience opérationnelle.

Les questions les plus importantes à se poser

Il ne fait aucun doute que ces outils ne sont pas parfaits. Mais ils offrent une fenêtre sur les questions les plus importantes qu’il faut se poser :

  • A quoi ça sert d’utiliser une stack data moderne ?
  • Qu’est-ce qu’une stack data m’apporte de plus concrètement ?
  • Quelle est la meilleure façon pour les gens de répondre à une série de questions, de faire confiance aux réponses et de décider ce qu’il faut faire ensuite ?
  • En quoi pouvons-nous aider les gens qui se préoccupent d’avoir une stack data moderne qui marche, sans se soucier d’où passe la frontière entre un produit et un service ?
  • Qu’est-ce que nous pouvons construire aux gens qui sont dans le restaurant pour qu’ils profitent de leur dîner et n’aient pas à penser à qui prépare les oignons et comment les cuisiniers cuisinent ?

La stack data moderne est décentralisée et cela a un coût

Quelle que soit la définition de la stack data moderne que vous utilisez, presque tout le monde, nous compris, s’accorde à dire qu’elle doit être décentralisée.

Je ne cherche pas ici à vous vendre une approche plus qu’une autre. Mon objectif n’est pas d’entamer une discussion sur les fondements philosophiques de la stack data moderne. Doit-elle être cloud-first, plutôt modulaire ou monolithique, version control ou peer review ? Ce n’est pas le sujet.

Mon point, c’est que la décentralisation qui sous-tend l’approche stack data moderne a un coût. Pourquoi ? Parce que l’architecture se reflète sur l’expérience de ses utilisateurs. Les lignes de faille qui séparent les produits de la stack deviennent des lignes de faille entre les différentes expériences d’utilisation. Il est là le challenge.

Si la stack data moderne est parfois décevante, c’est que loin d’aider les utilisateurs, elle conduit à une fragmentation de l’expérience. La fragmentation des outils aboutit à une fragmentation de l’expérience. C’est ce contre quoi il faut chercher à aller.

Pour trouver la solution, posons-nous cette question : comment une multitude d’entités souveraines et souvent concurrentes peuvent-elles s’unir pour construire quelque chose de cohérent ?

Un petit détour par l’évolution du commerce international

L’histoire du commerce international peut nous aider à trouver la solution. Avant la Première Guerre mondiale, la plupart des accords commerciaux internationaux (traités sur les tarifs et les restrictions) étaient des accords bilatéraux, entre deux pays. Au fur et à mesure que les pays européens se sont industrialisés, un réseau d’accords bilatéraux a vu le jour, centré sur les principaux partenaires commerciaux et souvent piloté par eux : dans le cas européen, la Grande-Bretagne et la France.

En 1947, après deux guerres mondiales, la crise de 29 et la mode pour le protectionnisme, 23 des principaux partenaires commerciaux du monde ont signé l’Accord général sur les tarifs douaniers : le GATT. En raison du poids des membres fondateurs, l’accord n’a cessé d’attirer à lui de nouveaux signataires dans la deuxième moitié du XXème siècle. Le GATT a finalement été remplacé en 1995 par l’Organisation mondiale du commerce, l’OMC. Aujourd’hui, l’OMC a 164 membres qui représentent 98% du commerce international.

Bien que de nombreux pays négocient encore des accords commerciaux bilatéraux ou régionaux, le commerce mondial est principalement régi par les traités mondiaux de l’OMC plutôt que par un réseau complexe de milliers d’accords bilatéraux.

La stack data moderne doit accomplir la même évolution que celle du commerce international

Encore aujourd’hui, la stack data, ce sont des centaines d’Etats membres en orbite autour de grosses plateformes comme Snowflake, Fivetran, dbt et quelques autres. Les relations entre les éditeurs sont gérées par des intégrations bilatérales qui permettent de combler les fossés entre les outils. Les intégrations bilatérales sont à la stack data ce que les accords bilatéraux sont au commerce international.

Dans des écosystèmes aussi complexes que ceux du commerce international ou des technologies data, les intégrations bilatérales montrent rapidement leurs limites. L’approche n’est pas scalable. On aboutit à un patchwork désordonné d’accords ou d’intégrations qui ne peut que se désagréger (et qui se désagrége) avec le temps. Le GATT et l’OMC en sont la preuve.

outils data prep connexion donnees exemple octolis
Toutes les solutions de Data Management proposent des connecteurs, et Octolis n’y déroge pas, évidemment. Mais construire une stack data moderne ne se réduit pas à faire des ponts entre chacune de vos solutions. Octolis propose un outil tout-en-un qui vous permet de rationaliser vos intégrations et de centraliser la préparation des données.

Construits à partir des plus grandes économies du monde, ces accords ont créé une vision commune et des principes directeurs de la politique commerciale qui, même s’ls ne sont pas toujours juridiquement contraignants, ont contribué à faire pencher le monde dans une direction commune.

La stack data moderne doit accomplir la même évolution. Nous allons essayer de synthétiser les principes directeurs qui doivent la gouverner.

Différentes approches pour construire une Stack Data Moderne

La stack data, c’est l’ensemble des outils gravitant autour du data warehouse qui va vous permettre de valoriser vos données et de pleinement les exploiter dans vos applicatifs métier. Sachez qu’il existe plusieurs manières de construire une stack data moderne, plusieurs approches possibles : l’approche best of breed, l’approche agence, l’approche tout-en-un. Pour en savoir plus, découvrez notre article sur le sujet.

Principes directeurs pour une expérience data moderne

La stack data moderne fournit une roadmap SI. Pour que la stack data moderne se traduise pour les utilisateurs par une expérience data moderne, quelques principes directeurs doivent être suivis. Voici ceux auxquels je crois.

#1 Les utilisateurs business doivent pouvoir faire leur métier sans devoir se transformer en data analyst

On a beaucoup parlé de démocratisation des données. C’est une expression à la mode et les objectifs sont louables : permettre à chaque utilisateur de manipuler les données en autonomie et ainsi libérer les équipes data des tâches ingrates qui leur sont traditionnellement confiées pour qu’elles puissent se concentrer sur des projets à forte valeur ajoutée.

La démocratisation des données a eu tendance à devenir une prescription : « Devenez tous analystes grâce aux outils no code ! ». Ce projet a largement échoué comme on peut le constater aujourd’hui avec le recul que l’on a.

L’expérience de la stack data moderne que nous appelons de nos vœux ne consiste pas à mettre les données dans les mains des utilisateurs pour leur laisser le soin de les analyser. Ce que nous voulons, c’est intégrer les données dans les systèmes opérationnels où elles se trouvent déjà pour libérer la productivité de leurs utilisateurs. Les données doivent aider les gens à mieux faire leur travail, plutôt que de leur ajouter un nouveau travail à faire.

#2 La data science et la BI doivent fusionner

On a pris l’habitude de penser que les analystes data devaient travailler dans des outils techniques avancés et que tous les autres collaborateurs devaient utiliser des outils de BI user-friendly. C’est faux. Les outils de BI drag & drop peuvent être très utiles pour les data scientists chevronnés et tout le monde peut devenir un consommateur d’analyses avancées.

powerbi interface
Les data scientists ont aussi vocation à utiliser des outils de Data Viz (ici, PowerBI).

Dans une expérience data moderne, les utilisateurs doivent pouvoir passer sans problème de la visualisation d’un KPI provenant d’un catalogue de données sous contrôle à l’exploration de ce KPI à l’aide de groupements et de filtres, puis à son incorporation dans des analyses techniques approfondies. On doit pouvoir visualiser sur la même interface hommes machines des KPIs intégrés à des tableaux de bord et explorer les données qui alimentent ces KPIs pour approfondir le niveau d’analyse.

Les personnes qui consomment des données ne devraient jamais avoir à sortir d’un outil pour approfondir leurs analyses. Si la stack data moderne nous parle d’intégration des données dans une architecture tech, l’expérience data moderne nous parle d’intégration des expériences.

#3 Les utilisateurs doivent avoir confiance dans les données qu’ils ont sous les yeux

« Est-ce que ces données sont fiables ? » est l’une des questions les plus frustrantes et l’une des plus courantes que les gens posent à propos des données. Aujourd’hui, la réponse à cette question dépend essentiellement de signaux implicites :

  • Qui a construit ces résultats ?
  • Est-ce que ça a été modifié récemment ?
  • Est-ce que ça paraît crédible ?

Ces questions nous conduisent à des recherches interminables. On utilise plusieurs outils pour confirmer les résultats. On perd du temps. Voire pire : on n’utilise pas les données, faute de confiance.

Pour que les utilisateurs aient confiance dans les données qu’ils visualisent et qu’ils manipulent, il faut que chaque set de données indique de lui-même si les processus amont qui l’ont constitué sont corrects ou non, à jour ou non, en un mot : fiables.

Dans une expérience data moderne, on passe du temps à débattre sur les actions à prendre à cause d’un chiffre lu sur un tableau de bord plutôt qu’à vérifier si ce chiffre est juste ou non.

#4 Ne pas oublier ce que l’on a appris

Les informations que nous présentent les outils de BI sont éphémères. Elles disparaissent au fil des mises à jour des données et des mises à jour du design des reportings. Les données récentes chassent les données anciennes. Les analyses ad hoc sont notées à la va-vite et sans méthode. Les conversations se perdent dans les flux Slack.

Dans une expérience data moderne, ce que les données nous apprennent fait l’objet d’un enregistrement, d’une historisation. On ne perd rien des analyses que l’on a faites. On garde la mémoire des enseignements. C’est le plus sûr moyen d’avancer et de ne pas refaire les erreurs du passé.

#5 Les métriques doivent être gérées à un niveau global

En général, les métriques sont pilotées à un niveau local dans les outils de BI. Chaque équipe gère à son niveau ses KPIs, leur mode de calcul, les ratios de synthèse, l’évolution du dispositif de pilotage. Dans une stack data décentralisée et modulaire, on aboutit rapidement à un patchwork de calculs dupliqués et souvent contradictoires.

Une expérience data moderne suppose de la coordination. La gestion et l’évolution des métriques doivent être centralisées. Si les règles de calcul d’un KPI change, ce changement doit être diffusé partout : dans les tableaux de bord de BI, dans les notebooks Python, dans les pipelines ML opérationnels.

#6 Il ne faut pas communiquer uniquement par tableaux

A force de vous plonger dans les données, vous ne finissez par ne plus voir que des structures relationnelles : des tables, des lignes, des colonnes, des jointures. Et pour cause, la plupart des outils data présentent les données sous cette forme. Et c’est sous cette forme que les data analysts se confrontent aux donnés.

Mais pour tous les autres utilisateurs, les données se présentent de manière plus protéiforme, sous forme de métriques dans une série temporelle, de représentations abstraites dans des domaines métiers complexes, de comptes rendus écrits…Les utilisateurs doivent pouvoir interroger et explorer les données de différentes manières, pas uniquement dans des tables et des colonnes.

#7 Il faut construire un pont entre le passé et le futur

Il est tentant de concevoir la stack data moderne comme une discontinuité, le saut d’un passé que l’on veut oublier vers un avenir radieux. Construire une stack data moderne, pour beaucoup, c’est faire table rase du passé. C’est une conception fausse. Ce n’est pas une rupture, c’est une transition. Une transition qui ne mettra pas un terme à tous les problèmes et tous les freins que peut rencontrer un utilisateur de données. Dites-vous bien que vous continuerez à utiliser Excel ! Dans une expérience data moderne, il faut savoir négocier avec cette réalité et admettre qu’une partie du passé se conserve.

#8 L’expérience data moderne est création continue d’imprévisibles nouveautés

Les analyses ne sont pas prévisibles. Ce n’est pas un processus linéaire qui peut être anticipé. On sait d’où l’on part : une question. On ne sait pas où l’on va. Une question en appelle de nouvelles. De la même manière, une infrastructure data est un système évolutif qui se transforme à mesure que les enjeux business et que les sources de données changent.

Les analyses construites à partir de l’infrastructure data évoluent et font évoluer le système qui leur sert de base. L’expérience data moderne répond à la logique des systèmes émergents. Elle démarre petite, grandit, grossit, conquiert de nouveaux territoires. Les expériences et les systèmes rigides ont toujours un coût à la fin.

#9 L’expérience data moderne casse les murs

Les stacks data ont pour habitude de créer des murs et les différents utilisateurs collaborent entre eux en se jetant des choses par-dessus les murs érigés : les ingénieurs data jettent des pipelines aux analysts, les développeurs BI jettent des rapports aux utilisateurs métiers, les analystes jettent des résultats à qui veut bien les recevoir. Le caractère modulaire des stacks data modernes est une tentation à créer encore plus de murs.

De la même manière que dbt a cassé un mur, une expérience data moderne doit briser les autres en encourageant la collaboration et le partage entre les équipes business, data et tech.

Il y aurait beaucoup de choses à dire sur chacun de ces sujets. Ce sont des sujets dont il faut parler, ce sont des conversations qu’il faut avoir. Si l’on ne pense pas l’expérience data moderne qui doit accompagner la stack data moderne, on peut réussir à construire une belle architecture d’outils, mais la promesse à laquelle on croyait (la révolution technologique, la transformation du fonctionnement de l’entreprise) ne se réalisera pas.

Pourquoi construire un dispositif data par vous-même n’est pas une bonne idée ?

Construire son propre dispositif data est un projet ambitieux et complexe nécessitant de nombreuses ressources. Pourtant de multiples entreprises, souvent poussées par les data engineers, font le choix de développer leur propre outil. Cette décision peut s’avérer néfaste pour l’entreprise si elle n’est pas motivée par les bonnes raisons.

Mettre en place un dispositif data nécessite d’assembler de nombreux composants cloud et/ou open source, souvent plus d’une douzaine : Kubernetes, KubeFlow, AWS ECR, Elasticsearch, Airflow, Kafka, AWS Cloudwatch, AWS IAM, DBT et Redshift. Ces éléments sont ensuite liés entre eux à travers une brique de code, avec Terraform par exemple. Ce type d’architecture est d’autant plus complexe qu’il se doit d’offrir à chaque équipe, et donc à chaque compte, un accès sécurisé à l’outil.

A l’inverse, lorsque l’on utilise une solution déjà existante, il est seulement nécessaire de configurer ses accès AWS et d’utiliser un outil tel que Terraform. Il ne reste qu’à connecter les bases de données aux outils d’analyses, par exemple Azure Data Lake et Azure Data Factory. Aucun outil ne permet d’éliminer totalement ces étapes, mais la mise en place générale du dispositif est grandement simplifiée et accélérée.

Dans cet article inspiré de l’excellent Niels Claeys, on évoque dans le détail les raisons qui poussent les organisations à se tourner vers la construction d’un dispositif data ‘best of breed’ ainsi que les obstacles qui se dressent devant cette construction.

La passion de vos data engineers est un frein

La majorité des data engineers considèrent la construction d’un dispositif data comme un véritable challenge, un projet leur permettant de développer et d’éprouver leurs compétences. C’est même probablement dans l’ADN d’un ingénieur de vouloir construire ses propres outils.

Par conséquent, la plupart d’entre eux risquent de ne pas être totalement neutres lorsqu’ils considèrent les avantages et les inconvénients d’un tel projet. Leurs objectifs ne sont alors pas parfaitement alignés avec ceux de l’entreprise, ce qu’il est nécessaire de prendre en compte.

Voici les raisons pour lesquels les data engineers risquent de manquer d’objectivité :

Les data engineers ❤️ les nouveaux outils

Dans l’écosystème data, les technologies évoluent rapidement et la popularité des outils varie constamment. La maîtrise d’un nouveau software populaire est souvent valorisée sur un CV. De ce fait, de nombreux programmeurs vont chercher à utiliser les nouveaux outils en vogue pour en avoir une bonne compréhension au minimum.

Il est important pour une entreprise de permettre à ses développeurs de continuer à apprendre de nouvelles technologies, mais employer de nouveaux outils lors du développement d’une plateforme data complexe n’est certainement pas le cadre le plus optimal pour permettre cet apprentissage.

De plus, la découverte et la prise en main d’un nouvel outil représentent un défi souvent ludique pour un développeur. Mais l’excitation que peut éprouver le data engineer lors de la première utilisation d’une nouvelle technologie ne dure qu’un temps, et l’envie de travailler avec l’outil peut décroître à mesure que celui-ci devient familier et l’apprentissage plus sporadique.

De ce fait, construire une plateforme data représente pour un ingénieur l’opportunité d’acquérir de nouvelles compétences tout en travaillant sur un projet stimulant. Les développeurs préfèrent donc naturellement développer eux-mêmes leur dispositif data et soutiennent ce choix sans que cela soit nécessairement favorable pour l’entreprise.

Les data engineers ❤️ toujours leur propre code

Il est fréquent d’entendre des développeurs critiquer la qualité du code d’un produit ou la solution en elle-même. Nombreux sont ceux préférant leur code et leur solution à ce qui existe sur le marché, se targuant – à tort ou à raison – d’être capable de développer des outils de meilleure qualité.

L’objectif ici n’est pas de comparer la qualité des codes ou le niveau des développeurs, mais de réfléchir aux intérêts de l’entreprise sur le long terme. Même en acceptant le postulat que vos développeurs seraient plus compétents que ceux ayant développé la solution déjà existante, choisir de construire son propre dispositif peut être contre-productif pour plusieurs raisons :

  • La durée de développement :

Développer une plateforme data complète, utile et capable de rivaliser avec les solutions du marché est un projet de grande envergure risquant de s’étaler sur plusieurs années et de monopoliser des ressources sur le long terme. Il faut plus longtemps encore pour en mesurer les bénéfices.

  • La maintenance de la plateforme :

Créer sa propre solution implique aussi de s’assurer de la maintenance du code sur le long terme. Cela impose d’avoir une excellente documentation et un code legacy de grande qualité ainsi que d’avoir toujours un développeur capable de mettre à jour le software.

  • La persistance des développeurs :

Les data engineers à l’origine de la plateforme sont susceptibles de changer de projet/équipe/entreprise au court de la vie du dispositif data. La transmission du projet s’en trouve alors complexifiée. De plus, les nouveaux développeurs risquent de vouloir à leur tour adapter le code et l’architecture du projet.

Ainsi, faire le choix de développer son propre outil représente le risque d’avoir une plateforme instable et difficile à maintenir. De plus, les développeurs comparent plus généralement la qualité intrinsèque du code, mais négligent la capacité de l’entreprise à maintenir l’outil et à le faire évoluer pour répondre à de nouveaux besoins.

Faire le choix d’une solution existante, c’est réduire le temps de développement et accroître la stabilité de ses outils.

Les data engineers ❤️ la liberté

Construire son propre outil, c’est aussi choisir les technologies mises à contribution dans le projet. Mais la diversité des IDE, des langages, des frameworks et des softwares rend ce choix complexe. En outre, les préférences individuelles des développeurs sont multiples et peuvent très souvent donner lieu à d’intenses débats. Ainsi la stack data de la plateforme risque d’être pensé en fonction des habitudes du data engineer plutôt que sur des critères objectifs de maintenance et scalabilité au sein de l’entreprise.

stack data moderne

Exemple d’architecture data moderne

Comprendre la stack data moderne

Un Data Engineer qui aurait été cryogénisé en 2010 et que l’on réveillerait aujourd’hui ne comprendrait pas grand-chose à la stack data moderne. Il n’a fallu que quelques années pour que tout change dans la manière de collecter, extraire, acheminer, stocker, préparer, transformer, redistribuer et activer les données. On vous explique tout dans notre guide introductif à la Stack Data Moderne.

Plus encore, le fait de développer la solution offre une grande liberté quant à l’architecture de la plateforme. C’est parce que les développeurs savent qu’ils pourront coder avec les langages de leur choix et assembler les différentes briques à leur manière qu’ils préfèrent construire eux-mêmes le dispositif data.

Mais cette liberté pour le développeur peut rapidement se transformer en contraintes pour l’entreprise. En effet, le choix du data engineer va dépendre de plusieurs critères susmentionnés, tels que la popularité de l’outil, la possibilité d’utiliser son propre code… A l’inverse, l’entreprise doit considérer avant tout l’intégration du dispositif data dans son SI, la possibilité de le faire évoluer et de le maintenir à jour.

En résumé, l’entreprise est soumise à des contraintes quand le développeur cherche à être libre dans son travail. Cette opposition peut conduire à un choix contre-productif de la part du data engineer.

Les obstacles liés à la construction d’une plateforme data

Les considérations des data engineers ne sont pas les seules raisons pour lesquels construire son propre dispositif data n’est pas une bonne idée. D’autres problématiques s’ajoutent à ces considérations :

Les coûts d’exploitation sont supérieurs aux coûts de construction

Construire une ébauche de dispositif data est l’affaire de quelques jours pour un data engineer expérimenté. C’est probablement pour cette raison que le temps de développement est très souvent grandement sous-estimé. En effet, s’il est relativement facile de mettre en place un premier MVP, il est autrement plus complexe de coder une plateforme complète, stable et facile à maintenir.

Coûts d’une plateforme data au cours de son cycle de vie complet (Source)

Une fois la première version live déployée, il est nécessaire de s’assurer qu’une équipe soit responsable de :

  • Maintenir le code à jour :

Mettre à jour les dépendances, corriger les vulnérabilités et les failles de sécurités…

  • Gérer les bugs :

Au cours de son cycle de vie, la plateforme va subir de nombreux bugs qu’il faut fixer rapidement pour assurer la disponibilité du dispositif. Il est donc nécessaire d’avoir en permanence un développeur ayant une connaissance précise du code et capable d’intervenir rapidement.

  • Faire évoluer le dispositif :

Pour transformer le MVP en dispositif complet, il est nécessaire de prendre en compte les retours des utilisateurs et d’y ajouter les fonctionnalités manquantes. Il est aussi important de s’assurer que l’usage de la data par les équipes métiers n’est pas redondant et de proposer des solutions le cas échéant.

Ainsi, les coûts d’exploitation de la plateforme risquent d’être nettement supérieurs aux coûts de construction. Ces coûts d’exploitation sont généralement sous-estimés et le coût total du projet sera probablement bien supérieur aux estimations. De plus, si l’investissement initial pour construire la plateforme peut sembler légitime face à l’acquisition d’un software, il est cependant plus difficile de justifier les coûts d’exploitation par rapport à un abonnement à une solution existante (surtout si celle-ci est plus complète).

Au cours du cycle de vie du dispositif, il est probable que l’entreprise ne perçoive pas un retour sur investissement suffisant pour justifier les dépenses d’exploitation. Le projet est alors véritablement vain.

Votre plateforme data ne sera pas pensée comme un produit

Lorsque le dispositif data n’est pas une finalité, mais un moyen de répondre à des problématiques rencontrées par les employés, le résultat est souvent fragmentaire et présente de nombreuses limites.

  • Une plateforme peu fonctionnelle

Dans une entreprise où la plateforme data n’est pas le produit final, mais seulement un support pour les équipes métiers, il est très probable que l’outil ne soit pensé qu’en réponse à des cas d’usages précis. Le dispositif final risque alors de ressembler plus à un assemblage disparate de fonctionnalités qu’à un produit complet.

Dans ce cas, il est assez rare de travailler à améliorer les performances globales de l’application ou de proposer des fonctionnalités plus globales visant à faciliter l’expérience de l’utilisateur final. L’accent est mis sur les cas d’usages restant, au détriment de la cohérence globale du dispositif et de sa fonctionnalité.

  • Une solution peu efficace pour améliorer la productivité

Proposer une plateforme pour répondre à des cas d’usages spécifiques permettra aux équipes métiers de réaliser certaines tâches plus facilement, mais n’est pas suffisant pour accroître sensiblement leur productivité. De plus, les ressources étant limitées lors du développement d’une application en interne, il est probable que les solutions visant à réellement augmenter la productivité soient reléguées au second plan, l’accent étant mis sur la capacité à répondre aux besoins spécifiques à l’origine de la plateforme.

En effet, proposer un service permettant d’augmenter la productivité requiert le développement d’outils encore plus complexe venant s’ajouter au dispositif en construction. Il est peu probable qu’une entreprise dont l’activité n’est pas directement en lien avec la construction d’un tel software dispose des ressources suffisantes pour s’emparer d’un projet de grande envergure et le mener convenablement à son terme.

Conclusion

Construire un dispositif data entier est un projet souvent plus complexe et coûteux que prévu. Pour cette raison, il est nécessaire de définir très clairement ses besoins et de s’assurer que le ROI du projet soit particulièrement important avant d’entamer la construction d’un dispositif data.

Mesurer le ROI de son dispositif data

Pour vous aider à mesurer le ROI de votre dispositif data, nous mettons à votre disposition un template téléchargeable gratuitement à adapter à votre organisation dont l’utilisation est détaillé dans l’article associé..

Dans la majorité des cas, il sera possible de trouver une solution existante répondant à ces besoins et de constater que la mise en place d’une telle solution offre un retour sur investissement plus important. Nous conseillons donc de s’orienter vers de telles solutions qui permettront des économies de temps, d’argent et de ressources.

Data viz : Les meilleurs outils de visualisation des données en 2022

Adopter un outil de data visualisation oui mais lequel ? Quels sont les types d’outils à ma disposition ? Existe-t-il des outils gratuits pour initier cette démarche avant d’aller plus loin ? En quoi un outil de « data viz » est-il différent d’un outil de business intelligence ? Sur quels critères choisir mon outil de data viz ?

Voici les questions auxquelles nous avons tâché de répondre dans cet article, bonne lecture 🙂

Quels sont les différents types d’outils de visualisation de données ?

Comprendre la différence entre data visualisation et Business Intelligence

Face à la complexité du traitement de la donnée, les entreprises ont de plus en plus recours à des outils permettant de transformer cette ressource en leviers d’actions utilisables par les différentes équipes à des fins stratégiques.

Il existe pour cela deux catégories principales d’outils : les outils de data visualisation et les outils de business intelligence (BI).

On définit la visualisation de données comme étant le processus permettant de transformer d’importants volumes de données dans un contexte visuel. La visualisation des données consiste à générer des éléments visuels à partir des données. Il peut s’agir de tableaux, de graphiques, de diagrammes, d’images, de modèles, de films, etc.

Exemple de dashboard animé réalisé avec Tableau Public

Les outils et applications de Business Intelligence quant à eux sont utilisés pour analyser les données des opérations commerciales et transformer les données brutes en informations significatives, utiles et exploitables.

La première étape de toute forme de Business Intelligence consiste à collecter des données brutes ou des données historiques. Ensuite, les outils de Business Intelligence aident à la visualisation, à la création de rapports et aux fonctions d’analyse qui sont utilisées pour interpréter de grands volumes de données à partir des données brutes.

dashobard power bi

Exemple de dashboard de BI réalisé avec Power BI

CaractéristiquesData visualisationBusiness Intelligence
ObjectifFaciliter la compréhension des conclusions d’une analyse de données Transformer des données brutes en leviers d’actions pour l’entreprise afin d’orienter les prises de décisions
DéfinitionReprésentation graphique des élément clefs de l’analyse de donnéesEnsemble des pratiques de collecte, d’analyse et de présentation de données visant à orienter la prise de décisions
Expertise requiseLa manipulation de ces outils est plus facile que pour les softwares d’analyse statistique traditionnels Ce processus nécessite une variété de compétences, de la collecte de données à la prise de décisions
Type d'usagePrésentation de l’information en temps réel ou après le traitement des donnéesPrise de décision en direct ou après analyse
Types de donnéesTables de données structurées Jeux de données reliés entre eux concernant l'activité de l'entreprise
FocusCréer des rapports graphiques clairsDonner des indications business et éclairer la prise de décisions
Utilisé pourReprésenter de façon la plus intuitive les indicateurs clefs de l’activitéDéfinir et calculer les principaux indicateurs clefs
Caractéristiques principalesReprésentation intuitive de l’information Lecture facile et rapide de l’information permettant de mieux la mémoriser Permet d’interagir avec la donnée Permet d’analyser l’activité de l’entreprise et de suivre les principaux indicateurs (KPI) Aide les dirigeants et les managers à prendre des décisions éclairées par l’analyse des performances passées