Analyse produit : +50 indicateurs incontournables

La ressource que nous avons conçue pour vous aujourd’hui, va vous faciliter la vie et booster votre business. Notre outil Indicateurs Analyse Produit va vous aider à :

  • Avoir une définition plus claire quant aux indicateurs les plus pertinents dans votre analyse produit, avec une piste d’amélioration pour chaque indicateur.
  • Un dashboard (que vous pouvez lier à vos données) qui affichera vos KPIs, votre top 10 des produits qui vous rapportent le plus, votre performance par catégorie de produits, et bien plus encore.
  • Un data sample (avec une structure holistique, produite grâce au logiciel Octolis) dans lequel vous pourrez intégrer vos données, tout en respectant le format de ce dernier.

Dashboard Indicateurs Analyse Produit

Télécharger notre dashboard excel d’indicateurs analyse produits

L’essentiel à retenir sur l’analyse produit

L’analyse produit : ça consiste en quoi ?

Comme son nom l’indique, l’analyse produit consiste à collecter et analyser des données provenant de différentes sources de vente pour comprendre les comportements des clients et les tendances d’achat, avec pour finalité : l’optimisation de l’expérience client et de la stratégie de ventes, en se basant sur des informations précises et actualisées.

Les avantages d’une bonne analyse produit

Effectuer une bonne analyse produit ne peut être que bénéfique pour votre business.
Voici les principaux avantages de l’approche :

  • Compréhension des clients : Elle permet de mieux comprendre les préférences et les habitudes d’achat des clients pour personnaliser les offres et améliorer leur expérience.
  • Décisions stratégiques : Grâce à l’analyse produit, les retailers peuvent prendre des décisions éclairées en identifiant les tendances émergentes et les opportunités de croissance.
  • Optimisation des opérations : L’analyse produit vous aide à optimiser les opérations en identifiant les inefficacités, améliorant la gestion des stocks et ajustant les prix pour maximiser les ventes et minimiser les coûts.

Cependant, pour effectuer une analyse produit rigoureuse, la liste d’indicateurs clés est assez longue, et peut porter à confusion vu le nombre de facteurs qui entrent en jeu. Mais, heureusement pour vous, on a minutieusement sélectionné les indicateurs les plus pertinents à évaluer, et on vous les a regroupés en 5 catégories principales :

  • Revenus : Croissance des revenus, revenus totaux, revenus annuels…
  • Marge : Marge brute, marge totale…)
  • Commandes et clients : Nombre de commandes, % premières commandes, Nombre de clients avec 2+ commandes…)
  • Performance commerciale : Taux de conversion, coût d’acquisition client – CAC…)
  • Comportements utilisateur : Taux de rebond, taux de satisfaction client, taux de clics…)

Comment structurer votre reporting produit ?

Vous n’avez toujours pas su choisir les bons indicateurs pour votre analyse ?
Voici notre tableau résumé qui vous guide avec les questions importantes que vous devez vous poser pour mieux choisir vos indicateurs clés.

Indicateurs clés : Tableau résumé

CatégorieIndicateurs
Revenus- Croissance des revenus / Global
- Croissance des revenus / Catégorie de produits
- Croissance des revenus / Canal de vente
- Revenus totaux
- Revenus des 365 derniers jours
Marge- Marge brute
- Marge totale
- % Marge brute
- Marge brute des 365 derniers jours
Commandes
et clients
- Nombre de commandes
- Nombre de commandes total
- Nombre de commandes total des 365 derniers jours
- Nombre de commandes retour
- Nombre de commandes saison été
- Nombre de commandes saison automne
- Nombre de commandes saison hiver
- Nombre de commandes saison printemps
- Nombre de clients
- Nombre de clients depuis 365 jours
- Taux de rétention
- Nombre de premières commandes
- Nombre de premières commandes depuis 365 jours
- Taux de premières commandes
- Nombre de clients avec 2+ commandes de ce produit
- Taux de clients avec avec 2+ commandes de ce produit
- Nombre de commandes en ligne
- Nombre de commandes en magasin
Performance
commerciale
- Taux de conversion
- Coût d'acquisition client (CAC)
- Valeur vie client (VVC)
- Taux d'attrition
- Temps de vie moyen (LTV)
- Délai moyen d'inter-achat
- Panier moyen
- Taux d'un produit par rapport au panier moyen
- Taux de vente croisée
- Taux de retour produit
- Taux de complétion des fiches produits
- Temps moyen de mise en marché
Comportements
utilisateur
- Taux de satisfaction client
- Taux d'abandonnement
- Temps moyen de traitement des commandes
- Taux de rebond par page produit
- Taux de clics sur le bouton "Ajouter au panier"
- Nombre de vues par page produit
- Taux de traffic source
- Taux de clics sur les images du produit
- Taux de clics sur le bouton "Acheter maintenant" 
- Taux de clics sur les liens de produits associés
- Taux de clics sur les liens de produits similaires
- Taux de clics sur les liens de produits complémentaires

Il est vrai que toutes les questions qu’on vous a présentées sont du même degré d’importance. Mais un reporting produit bien structuré, ne veut pas forcément dire qu’il devrait tout inclure. Ayez donc la liberté de choisir les indicateurs qui vous conviennent au mieux, et soyez le plus pertinent possible dans votre choix.

Impact sur le revenu

  • Croissance des revenus / Global : Taux de croissance des revenus globaux sur une période donnée.
  • Croissance des revenus / Catégorie de produits : Taux de croissance des revenus par catégorie de produits sur une période donnée.
  • Croissance des revenus / Canal de vente : Taux de croissance des revenus par canal de vente sur une période donnée.
  • Revenus totaux : Le montant total des revenus générés par la vente du produit.
  • Revenus des 365 derniers jours : Le montant total des revenus générés par la vente du produit au cours des 365 derniers jours.

Impact sur la marge

  • Marge brute : Le montant de la marge brute générée par la vente du produit.
  • Marge totale : Le montant total de la marge générée par la vente du produit.
  • Taux de marge brute : Le pourcentage de la marge brute par rapport au prix de vente.
  • Marge brute des 365 derniers jours : Le montant de la marge brute générée par la vente du produit au cours des 365 derniers jours.

Ressource: Indicateurs Analyse Produit - Tableau Top 10 Produits

Impact sur les commandes et les clients

  • Nombre de commandes : Le nombre total de commandes passées pour le produit.
  • Nombre de commandes total : Le nombre total des produits vendus.
  • Nombre de commandes retour : Le nombre de commandes qui ont été renvoyées par les clients. Cet indicateur peut-être décliné par raison de renvoi.
  • Nombre de commandes saison été : Le nombre total de produits vendus au cours de l’été.
  • Nombre de commandes saison automne : Le nombre total de produits vendus au cours de l’automne.
  • Nombre de commandes saison hiver : Le nombre total de produits vendus au cours de l’hiver.
  • Nombre de commandes saison printemps : Le nombre total de produits vendus au cours du printemps.
  • Taux de complétion des fiches produits : Le taux de complétion de la fiche produit.
  • Nombre de clients : Le nombre total de clients qui ont acheté le produit.
  • Nombre de clients depuis 365 jours : Le nombre de clients qui ont acheté le produit au cours des 365 derniers jours.
  • Taux de rétention : Le pourcentage de clients de l’année d’avant qui reviennent.
  • Nombre de premières commandes : Le nombre total de premières commandes pour le produit. Cet indicateur permet d’identifier les produits qui ont le plus d’impact sur le recrutement de nouveaux clients.
  • Taux de premières commandes : Le pourcentage de premières commandes par rapport au nombre total de commandes.
  • Nombre de premières commandes depuis 365 jours : Le nombre total de premières commandes pour le produit au cours des 365 derniers jours.
  • Nombre de clients avec 2+ commandes de ce produit : Le nombre de clients qui ont acheté le produit au moins deux fois.
  • Taux de clients avec 2+ commandes de ce produit : Le pourcentage de clients qui ont acheté le produit au moins deux fois par rapport au nombre total de clients qui ont acheté le produit.
  • Nombre de commandes en ligne : Le nombre de commande en ligne pour un produit spécifique.
  • Nombre de commandes en magasin : Le nombre de commande en magasin pour un produit spécifique.

Impact sur la performance commerciale

  • Taux de conversion : Le pourcentage de visiteurs de la page du produit qui effectuent un achat.
  • Coût d’acquisition client (CAC) : Le coût total dépensé pour attirer un client pour un produit (par exemple : publicité, marketing, coûts de vente).
  • Valeur vie client (VVC) : Le montant total de revenus générés par un client sur la durée de sa relation commerciale avec l’entreprise.
  • Taux d’attrition : Le taux de clients qui ont cessé d’acheter le produit au cours d’une période donnée.
  • Temps de vie moyen (LTV) : La durée moyenne de la relation commerciale avec les clients pour ce produit.
  • Délai moyen d’inter-achat : La durée moyenne entre deux achats d’un même produit.
  • Panier moyen : Le montant moyen dépensé par client sur une commande pour un certain produit.
  • Taux d’un produit par rapport au panier moyen : La place qu’occupe un produit dans un panier moyen (en prix ou volume). Il est possible de combiner cet indicateur avec certains types de paniers moyens.
  • Taux de vente croisée : Le nombre de produits qui partagent un panier avec une autre catégorie de produit.
  • Taux de retour produit : Le pourcentage de nombre de produits retournés par rapport aux produits vendus.
  • Temps moyen de mise en marché : Temps pris en moyenne pour mettre un produit sur le marché.
  • Taux de complétion des fiches produits : Le nombre des fiches produits complétées par rapport au nombre total des fiches produits.
  • Temps moyen de mise en marché : La moyenne du temps de mise en marché de tous les produits.

Ressource: Indicateurs Analyse Produit - Tableau Top 10 Produits

Impact sur le comportement utilisateur

  • Taux de satisfaction client : Le pourcentage de clients satisfaits du produit, mesuré par des enquêtes de satisfaction ou des commentaires sur le produit.
  • Taux d’abandonnement : Le taux d’abandon d’un panier contenant un certain produit ou catégorie de produit.
  • Temps moyen de traitement des commandes : La durée moyenne entre la réception d’une commande et la livraison du produit.
  • Taux de rebond par page produit : Le pourcentage de visiteurs qui quittent la page du produit sans effectuer aucune action (par exemple : cliquer sur une autre page du site).
  • Taux de clics sur le bouton « Ajouter au panier » : Le pourcentage de visiteurs qui ont cliqué sur le bouton « Ajouter au panier ».
  • Nombre de vues par page produit : Le nombre total de fois que la page du produit a été consultée.
  • Taux de traffic source : Le pourcentage de clients qui sont venus par une source extérieure.
  • Taux de clics sur les images du produit Le pourcentage de visiteurs qui ont cliqué sur les images du produit pour les agrandir.
  • Taux de clics sur le bouton « Acheter maintenant » : Le pourcentage de visiteurs qui ont cliqué sur le bouton « Acheter maintenant ».
  • Taux de clics sur les liens de produits associés : Le pourcentage de visiteurs qui ont cliqué sur les liens de produits associés à celui en cours de visualisation.
  • Taux de clics sur les liens de produits similaires : Le pourcentage de visiteurs qui ont cliqué sur les liens de produits similaires à celui en cours de visualisation.
  • Taux de clics sur les liens de produits complémentaires : Le pourcentage de visiteurs qui ont cliqué sur les liens de produits complémentaires à celui en cours de visualisation.

Le rôle de l’analyse produit en E-Commerce / Retail

Connaissance produits : définition et objectifs

On a beau entendre le mot “Produit” et “Analyse”, et directement croire que la notion Analyse Produit est standard, peu importe son contexte d’utilisation.
Dans le monde du retail, on évite assez souvent d’utiliser le terme “Product Analytics” -qui, en soi, représente l’analyse des parcours utilisateurs sur les applications et les sites web et souvent remplacé par la notion de “Retail Analytics”.

De ce fait, l’analyse ou connaissance produit en retail permet de prendre des décisions éclairées sur les prix, les stocks, le marketing, le merchandising, et toute sorte d’opérations en magasin, grâce à des algorithmes prédictifs provenant de sources internes (historique d’achats des clients, par exemple) et des référentiels externes (comme les données du marché ou mêmes les prévisions météorologiques).

Pourquoi faire une l’analyse produit ?

Vos objectifs principaux en tant qu’ bon E-commerçant ou Retailer, c’est d’optimiser toute sorte d’opération liée à la vente, afin de réduire les coûts et d’améliorer les marges. Pour vous montrer comment l’analyse produit peut vous aider à atteindre vos objectifs, on commence déjà par vous présenter ses bienfaits :

  • Réduction des ruptures de stock et du besoin de remises : Vu son pouvoir inégalé à vous renseigner sur les tendances de la demande, l’analyse produit vous permet de disposer d’un stock suffisant, sans pour autant avoir un excédent d’inventaire qui nécessiterait des remises importantes. Par exemple, l’analyse peut aider à prédire à quelle vitesse la demande diminue pour des articles de mode influencés par la popularité des influenceurs sur les réseaux sociaux.
  • Amélioration de la personnalisation : L’analyse produit fournit beaucoup d’informations aux retailers quant aux préférences de leurs clients et les aide ainsi à acquérir davantage de demande que leurs concurrents. Par exemple, en utilisant l’historique des achats, un libraire peut informer les clients qui ont montré de l’intérêt pour l’histoire américaine de la disponibilité en pré-commande d’un nouveau livre de l’historien Ron Chernow.
  • Amélioration de la fixation de prix : L’analyse produit est un outil primordial pour votre stratégie de pricing. En effet, elle vous aide à fixer les prix optimaux de vos produits en synthétisant divers facteurs tels que les paniers d’achat abandonnés, les informations sur les prix pratiqués par la concurrence, et le coût des marchandises vendues. Ainsi, les détaillants peuvent maximiser leurs profits en évitant de fixer des prix supérieurs au seuil du marché ou inférieurs à ce que les clients seraient prêts à payer.
  • Amélioration de l’allocation des produits : L’analyse permet aux détaillants de décider comment allouer les produits dans différentes régions géographiques, centres de distribution et magasins, ce qui réduit les coûts de transport inutiles. Par exemple, un détaillant d’articles de sport peut utiliser l’analyse pour constater que même une différence de deux degrés de température affecte les ventes de sous-vêtements thermiques et peut allouer davantage de ces articles à un centre de distribution proche des zones prévues pour connaître des températures plus froides pendant un hiver donné.

Analyse produit : Les bonnes pratiques

Exploiter pleinement les données client

Vu la multitude d’interactions que vos clients ont avec votre marque, il est naturel que vous ayez accès à un volume important de données vous informant sur leur parcours d’achat, et leur comportement.

Un bon retailer aura tendance à combiner ses données clients provenant de plusieurs sources (tels que leurs propres programmes de fidélité, les systèmes de points de vente, les historiques d’achats, etc.) avec des données complémentaires achetées auprès de courtiers. Les détaillants font également une distinction entre les « clients » (les personnes qui ont déjà fait affaire avec eux) et les « consommateurs » (qui comprennent ceux qui pourraient être de bons prospects).

Les données de ces derniers peuvent contribuer à éclairer la « modélisation d’audiences looka like » – par exemple, un détaillant identifie Mark comme un excellent client, puis recherche d’autres personnes ayant des attributs similaires et les cibles avec des offres spéciales.

Utiliser des outils de visualisation

Les outils de visualisation tels que les graphiques, les tableaux et les tableaux de bord, couramment utilisés dans les logiciels de Business Intelligence, sont essentiels pour comprendre les données et prendre des décisions éclairées. Ils permettent également aux utilisateurs métier d’accéder aux analyses très facilement, sans pour autant dépendre des équipes data pour générer des rapports et exécuter des requêtes.

Analyser plusieurs sources de données

L’analyse de plusieurs sources de données peut aider les détaillants à obtenir une vue plus holistique de leur activité, d’autant plus que les mesures sont souvent interdépendantes. Une telle approche permet d’avoir une vision plus globale des opérations, et de prendre d’agir sur différents facteurs en même temps.

Par exemple, les détaillants peuvent corréler les analyses en magasin avec les analyses des attributs des produits pour déterminer comment optimiser l’aménagement d’un magasin physique afin de transformer les visiteurs en clients payants. L’analyse des stocks peut aider à s’assurer que le retailer dispose d’un stock suffisant pour soutenir l’aménagement du magasin.

Les détaillants doivent également être attentifs au fait que différentes applications peuvent avoir des définitions différentes des types de données, ce qui pourrait conduire à des analyses incorrectes si elles ne sont pas corrigées. C’est un argument en faveur de l’utilisation d’une plateforme unique pour l’analyse de données de vente au détail plutôt que d’adopter des applications dites « best-of-breed ».

Suivre les indicateurs clés de performance (KPI)

Le suivi des indicateurs clés de performance aide les détaillants à mesurer leurs performances et à identifier les domaines d’amélioration. Les bons détaillants ont tendance à adopter un suivi hebdomadaire de leurs KPIs, en comparant et en évaluant leur évolution d’une semaine à une autre, ce qui leur permet d’avoir une certaine agilité par rapport à leurs opérations et être réactifs face à leur marché et aux éventuels problèmes auxquels ils pourront faire face.

Dans leur suivi, ils ont tendance à présenter un review de ce qui s’est passé, suivi d’une analyse plus approfondie du “pourquoi” des choses.

Prioriser vos objectifs

Tout ce qui peut être mesuré, ne devrait pas obligatoirement l’être. Il est vrai que les données sont multiples, voire même infinies. Mais il est essentiel de discerner entre ce qui doit être mesuré, et ce qui ne doit pas forcément l’être. Lors de la priorisation de vos objectifs, l’idéal c’est d’adopter une approche “less is more”. Plus vous êtes concis dans le choix de vos objectifs, moins vous risquez d’accabler les décideurs avec des recommandations excessives. En tant que retailer, vous devez commencer par identifier les opportunités à haute priorité qui peuvent avoir un impact immédiat sur votre activité.

Pour conclure, les cinq bonnes pratiques qu’on partage avec vous sont interreliées. On vous recommande donc de les suivre toutes, en respectant cet ordre:

Commencez par un objectif, puis choisissez deux ou trois objectifs sous-jacents. Les KPIs qui mesureraient votre progrès à ce niveau sont des KPIs “précurseurs”.

Par exemple: Objectif principal: Vous rapprocher de vos clients. Vous pourrez choisir comme KPIs sous-jacents :

  • KPI #1 : Augmenter la CLV (ou Customer Lifetime Value) de 20%.
  • KPI #2 : Atteindre un taux de conversion de 15% (year-to-year).
  • KPI #3 : Optimiser les niveaux de stock pour soutenir les objectifs clients.

Les outils de visualisation vous permettront de présenter votre progrès aux dirigeants de votre entreprise et d’initier des actions correctives, sans pour autant les bombarder d’informations excessives et incohérentes.

Pour aller plus loin – Les opinions d’expert métier

Afin de vous fournir un contenu de qualité, on se tourne très souvent vers les experts du métier pour qu’ils challengent nos ressources, et partagent avec nous leur expertise sur le sujet.

En préparant cet article, nous avons sollicité Grégoire Mialet– le Managing Partner de la boîte C-Ways, Faustine Caradeux – la Growth Marketing Manager d’Unifai, et Thomas Bertail – le Regional Marketing Manager d’Akeneo – qui nous ont tous les deux beaucoup assistés sur la sélection des meilleurs indicateurs pour votre analyse produit, et qu’on remercie beaucoup d’ailleurs pour leur aide précieuse.

Lors de nos échanges avec eux, on a soulevé beaucoup de questions sur les bonnes pratiques de l’analyse produit. Et comme petit cadeau pour nous avoir suivis jusque-là, on a décidé de partager avec vous les pro tips qu’on a récoltés :

Banner Expert Metier - Gregoir Mialet

Tip #1 : Sur quelle durée baser mon analyse ?

Il faut avoir en tête qu’une analyse produit est généralement basée sur une durée de 12 mois. Le problème, c’est que l’on veut parfois avoir un retour sur un produit qui a été lancé il y a moins de 12 mois. Par exemple, dans le cas d’un lancement d’un nouveau produit qui a été lancé il y a quelques mois. Il faut donc être vigilant sur les périodes de comparaison. Si cela ne fait que quelques mois et qu’on veut déjà réaliser une analyse, alors une solution est de comparer avec des produits similaires qui viennent de la même famille.

Tip #2 : Faut-il analyser produit par produit ou des ensembles ?

Souvent, on a une logique de bestseller quand on analyse ses produits. On veut savoir, : Quel est le produit que mon entreprise vend le plus ? Quel est le produit qui me ramène le plus de clients (produit recrutant) ou quel est le produit qui fait rester mes clients (produit fidélisant) ? De ce fait, on regarde les produits qui m’apportent le plus de revenus, clients… C’est important mais il ne faut pas hésiter à analyser aussi quels sont mes produits associés, c’est-à-dire, quels sont mes produits que mes clients associent ensemble. Bien comprendre et optimiser ces associations permet de booster ses ventes. En conclusion, il ne faut donc pas oublier de regarder des ensembles de produits plutôt qu’un par un.

Banner Expert Metier - Thomas Bertail

Tip #3 : Quels sont vos conseils pour améliorer les performances de ses produits ?

Il y a beaucoup d’indicateurs importants à prendre en compte mais un en particulier que je ne vois pas assez souvent est le taux de retour par produit. Cet indicateur est critique car il est directement lié à la satisfaction client. De plus, c’est l’indicateur qui tire la sonnette d’alarme et qui est une des têtes de lance de la satisfaction client. Il faut, bien sûr, une fois le nombre de retour calculé, conduire des recherches sur les raisons de ces retours et les catégoriser. Une raison ne va pas demander les mêmes changements qu’une autre.

Au-delà de l’analyse effectuée sur un produit en particulier, Il y a une erreur commise par des entreprises, surtout en e-commerce. Ils ne réfléchissent pas assez à comment présenter leurs produits. Ils ne regardent pas l’entièreté de la fiche produit et, de ce fait, si la fiche produit n’est pas optimale, les performances ne le seront pas non plus.

Banner Expert Métier - Faustine Caradeux

Tip #4 : L’importance cruciale des fiches produit

Un point qui est souvent négligé est la complétion des fiches produits. Or, il y a de nombreux bénéfices à bien compléter l’information sur ces produits. Ainsi, des fiches produits complètes ont un taux de conversion 56% plus élevé que celles qui sont pauvres en informations. En plus de convertir mieux, la complétion de vos fiches produits vous garantit :

  • Une meilleure expérience client
  • Un meilleur référencement
  • Un nombre de retours produits réduit

On a pu donc observer que les consommateurs préfèrent payer un peu plus cher pour un produit qui offre davantage d’informations plutôt que d’acheter un produit plus bon marché avec moins d’informations. Des attributs complets aident les clients à prendre des décisions d’achat éclairées et les rassurent dans leurs achats. De cette façon, on remarque 65% des consommateurs pourraient acheter un produit différent de celui qu’ils envisageaient au départ faute d’informations à la hauteur. Et inversement, 2 acheteurs sur 3 ont déjà abandonné un achat par manque d’informations.

En plus de compléter la fiche produit, il faut s’assurer que les données utilisées dans la fiche produit sont de bonne qualité. Il faut donc prévoir et anticiper des erreurs de classification des produits, qui pourraient entraîner des problèmes tels que des produits publiés dans la mauvaise catégorie ou des dimensions incorrectes, ce qui peut nuire à la satisfaction des clients.

Voilà, nous avons fait le tour de la ressource. N’hésitez pas à l’utiliser et à nous partager vos retours & suggestions 🙂

Dashboard Indicateurs Analyse Produit – Télécharger notre Template

Pour accéder à la ressource, il vous suffit de vous inscrire en quelques clics.
Au clic sur le bouton ci-dessous, vous arriverez sur un formulaire d'inscription rapide. Une fois inscrit, il y a un onglet "Ressources" qui apparaîtra dans le menu du haut qui vous permettra d'accéder à l'ensemble des ressources en téléchargement gratuit. Avec un peu de chance, vous aurez une bonne surprise, il y aura d'autres ressources qui vous seront utiles 😊

👉 Je m'inscris pour télécharger la ressource

Webinar : Pourquoi faut-il moderniser son dispositif CRM en 2023 ?

L’avènement des data warehouses a profondément transformé l’industrie en permettant aux entreprises de centraliser toutes leurs données et de les rendre accessibles rapidement pour étoffer la connaissance client et faciliter les activations. Avec la grande ambition de délivrer une relation client hyper-personnalisée, en temps réel.

C’est également la promesse des CDP qui proposent des solutions clés en main pour répondre à ces enjeux.

Autrefois dominée par une poignée d’acteurs, les marchés du CRM et du Marketing Automation sont désormais constitués d’une myriade de solutions, qui peuvent se combiner pour répondre aux grandes problématiques de chaque annonceur avec parfois beaucoup plus de flexibilité qu’une solution full-stack.

stack data moderne

Dans ce webinar, les experts CRM et Data d’Unnest et d’Octolis s’associent pour vous permettre d’appréhender ces nouveautés et de construire au mieux votre propre dispositif.

Ce que vous allez découvrir :

  • Les architectures CRM les plus courantes, avec leurs forces et faiblesses.
  • Les facteurs qui ont favorisé l’adoption rapide du modèle data warehouse centric.
  • Sur quels critères évaluer la pertinence de votre dispositif CRM (pour différentes tailles d’entreprise).
  • Les architectures idéales pour des activités spécifiques (pure players, retail omnicanal,…).

Les intervenants :

  • Nathan BENZINEB – Lead CRM et Marketing Automation @Unnest
  • Yassine HAMOU TAHRA – Co-founder et CEO @Octolis

 

Replay & présentation

Les ressources

CDP packagée VS CDP composée : quelle option choisir ?

Si vous envisagez de déployer une CDP dans votre entreprise, vous allez être confronté(e) à un choix. Vous avez (grosso modo*) 2 options d’architecture : la CDP packagée Vs la CDP composée.

D’un côté, la CDP packagée, tout-en-un, gérant l’ensemble de la chaîne de traitement & valorisation des données : collecte, déduplication, nettoyage, unification, segmentation/audiences, orchestration et parfois activation & BI.

De l’autre, la CDP composée qui consiste à construire sa CDP avec une combinatoire d’outils interconnectés et inter-opérables. Grosso modo, un Data Warehouse + un outil de Data Ops pour la normalisation et l’unification des données sans oublier les outils d’activation et l’outil de BI.

*Attention, cette séparation n’est pas si absolue qu’on pourrait le penser. Comme toujours, la réalité est plus nuancée. Les solutions CDP modernes, comme Octolis, cherchent le meilleur des deux mondes. On vous donne plus de détails en conclusion 🙂

Arpit Choudhury, un expert en infrastructure data, fondateur notamment d’Astorik, a publié un excellent article consacrée aux différences entre CDP packagée et CDP composée. L’article est en anglais. Parce qu’il nous a beaucoup plu et que nous voulions vous le partager, nous vous en proposons ici une traduction en français. Si vous prévoyez un projet CDP, cet article est vraiment à lire. Bonne lecture !  [Voici le lien vers l’article d’origine]

Arpit Choudhury

Martech expert & Fondateur de Databeats

Arpit Choudhury a travaillé pour de belles startups Martech comme Make ou Hightouch, avant de devenir entrepreneur. Il est aujourd’hui reconnu comme l’un des meilleurs experts sur le sujet des CDP. Arpit travaille désormais principalement sur DataBeats, une communauté et un centre de ressources pour les professionnels des technologies marketing.

Introduction

La CDP – une vraie bête de foire, n’est-ce pas ?

Je pense que c’est un peu comme l’Hydre dans la mythologie grecque – le monstre aquatique qui se voit pousser deux têtes chaque fois qu’on lui en coupe une.

Chaque tentative de tuer la CDP l’a rendue plus fort, plus de gens en parlent et de plus de en plus de fournisseurs affirment qu’ils sont en fait une CDP déguisé – la CDP est officiellement antifragile.

J’ai été personnellement fasciné par la CDP. Au cours des trois dernières années, j’ai passé une quantité ridicule de temps à écrire sur la CDP et à suivre son évolution, de packagée à composée. Si vous avez suivi les discussions sur la CDP composée par rapport à la CDP packagée, vous avez certainement entendu les deux côtés de l’argument et vous n’avez pas besoin d’un autre article d’opinion expliquant pourquoi une approche est meilleure que l’autre.

Il est temps de publier un guide impartial qui propose une décomposition complète de la CDP en ses composants, qui, comme les têtes d’Hydra, ne cessent de se multiplier.

Ce guide a pour but d’aider les gens à prendre des décisions d’achat de CDP basées sur une compréhension claire des différents composants d’un CDP, de l’objectif de chaque composant et des composants nécessaires pour trouver le chemin le plus efficace pour mettre les données au travail avant qu’elles ne deviennent périmées ou inutilisables.

Commençons par les définitions.

Les définitions de la CDP

L’essor de l’entrepôt de données a conduit à l’émergence de l’ETL inversé à la fin de l’année 2020, puis à l’idée que la combinaison de ces deux technologies a permis aux entreprises de construire – ou plus exactement d’assembler – une plateforme de données clients au-dessus de l’entrepôt de données.

C’est ainsi que l’idée d’une CDP composée est apparue début 2021 et a pris de l’ampleur en 2022. Mais qu’est-ce qu’une CDP composée ? S’agit-il d’une architecture ? Est-ce une approche ? Un ensemble d’outils intégrés ? Ou s’agit-il d’une solution produite comme une CDP packagée ?

Si vous recherchez « Composable CDP » sur Google, vous constaterez qu’aucun article n’offre une définition concise de ce terme. Changeons cela.

Qu’est-ce qu’une CDP packagée ?

Une plateforme de données clients (CDP) packagée est une solution tout-en-un produite avec des capacités de collecte et de stockage de données provenant de sources multiples, de transformation et d’unification des données, de résolution des identités, de création d’audiences et de synchronisation des données vers des destinations en aval. En outre, certaines CDP packagées offrent également des outils permettant de définir des règles de qualité des données, de mettre en œuvre des protocoles de gouvernance des données et de se conformer aux réglementations en matière de protection de la vie privée.

Il y a deux éléments clés à prendre en compte :

  1. Une CDP packagée doit stocker une copie des données qu’elle collecte afin de résoudre les identités (résolution d’ID) et de construire des profils d’utilisateurs unifiés. Cependant, la méthodologie de résolution d’identité utilisée – probabiliste ou déterministe – varie d’un fournisseur à l’autre.
  2. Un fournisseur de CDP packagé permet généralement aux entreprises de créer leurs propres packages en combinant les capacités de base et les outils complémentaires.

Qu’est-ce qu’une CDP composée ?

Une plateforme de données clients composée (CDP) est un ensemble d’outils intégrés qui sont assemblés à l’aide de logiciels libres ou propriétaires afin d’exécuter certaines ou toutes les fonctions d’une plateforme de données clients packagée.

Il y a deux éléments clés à prendre en compte :

  • Une CDP composée possède certaines ou toutes les capacités d’une CDP packagée, en fonction de la manière dont elle est composée ou assemblée.
  • Une CDP composée est assemblée à l’aide de logiciels libres, de solutions gérées de logiciels libres ou d’outils SaaS propriétaires.

Maintenant que les définitions sont connues, examinons plus en détail les différents composants d’un CDP.

Les composantes d’une CDP

L’un des principaux problèmes posés par le terme « Customer data Platform » est qu’il a été utilisé et détourné par divers fournisseurs de logiciels dans des contextes différents. De nombreux éditeurs ont même positionné une fonctionnalité de leur produit comme une CDP, simplement parce que cette fonctionnalité permet aux utilisateurs de gérer les données clients qui ont été intégrées dans ce produit.

J’aimerais énumérer quelques mises en garde avant de présenter un aperçu complet de chaque composante d’une CDP :

  • Tous les fournisseurs de CDP packagées n’offrent pas l’ensemble de ces composants.
  • Plusieurs fournisseurs de CDP établis offrent des capacités ou des composants supplémentaires.
  • Au sein de chaque composante, les fonctionnalités spécifiques peuvent varier d’un fournisseur à l’autre.
  • Vous n’avez pas nécessairement besoin de tous ces composantes pour composer une CDP.

Entrons dans le vif du sujet.

1. La collecte de données comportementales : l’infrastructure de données clients (IDC)

Une IDC est un outil spécialisé qui offre un ensemble de SDK pour collecter des données comportementales ou des données d’événements à partir de sources de données de première partie.

Votre produit principal – applications web, applications mobiles, appareils intelligents ou une combinaison des deux – alimenté par un code propriétaire est une source de données de première partie, et les données comportementales permettent de comprendre comment votre produit est utilisé et d’identifier les points de friction.

Ces données sont un prérequis pour une CDP et sans ces données, une CDP n’est pas une CDP. Les données comportementales provenant de vos sources de données de première partie servent de base à une CDP.

Il y a deux éléments clés à prendre en compte ici :

  • La capacité IDC d’une CDP packagée permet de synchroniser les données directement avec des outils tiers en aval, sans qu’il soit nécessaire de stocker une copie des données dans votre propre data warehouse.
  • Les IDC autonomes prennent en charge du Data Warehouse en tant que destination principale et, par rapport à la composante IDC des CDP packagées, les IDC autonomes (tels que Snowplow) offrent moins d’intégrations de destinations tierces.

Pour en savoir plus sur les capacités et les fournisseurs d’IDC (dont certains font partie d’offres plus larges de CDP), voici.

P.S. : Bien que j’aie été un fervent partisan du terme IDC, avec le recul, je pense que le terme « Client » devrait être remplacé par « Audience » car les données collectées ne concernent pas uniquement les clients – en fait, la collecte de données est initiée bien avant qu’un utilisateur ou une organisation ne devienne un client. Si la notion d’Audience plutôt que de Client vous parle, vous apprécierez la lecture de cet article.

cdi vs etl elt
Éléments de collecte de données d’un PDC : IDC et ELT/ETL

2. L’ingestion des données : ELT (ou ETL)

Une solution ELT/ETL autonome est conçue pour extraire tous les types de données d’un catalogue croissant de sources de données secondaires (outils tiers) et les charger dans des Cloud Data Warehouse.

Les sources de données secondaires comprennent les outils tiers avec lesquels les utilisateurs interagissent directement ou indirectement – outils utilisés pour l’authentification, les paiements, les expériences in-app, l’assistance, le retour d’information, l’engagement et la publicité.

Il y a deux éléments clés à prendre en compte ici :

  • Une CDP packagée qui offre des fonctionnalités ELT – des intégrations à la source avec des outils tiers – ingère d’abord les données dans son propre magasin de données, et peut en outre synchroniser les données avec un Data Warehouse via des intégrations de destination.
  • Les capacités d’ELT des fournisseurs de CDP packagées sont très limitées par rapport aux solutions d’ELT conçues à cet effet. Si vous avez besoin de données dans une CDP à partir d’une source qui n’est pas prise en charge de manière native par le fournisseur de CDP, vous devrez construire votre propre pipeline ou utiliser un outil d’ELT pour envoyer les données vers votre Data Warehouse, puis les synchroniser à nouveau avec la CDP à l’aide des intégrations de source proposées par les fournisseurs de CDP.

Si vous souhaitez explorer les offres des principaux fournisseurs d’ELT, voici.

3. Le stockage des données

Comme nous l’avons déjà mentionné, les fournisseurs de CDP packagées stockent une copie des données qu’ils collectent dans un magasin ou un Data Warehouse interne. Les clients peuvent en outre envoyer une copie des données à leur propre Data Warehouse ou Data Lake par le biais d’intégrations de destination.

Le Data Warehouse, comme vous le savez déjà, est le composant central d’une CDP composée – la pièce maîtresse à laquelle tous les autres composants se connectent.

Il y a deux considérations essentielles à prendre en compte ici :

  • Le Data Warehouse a toujours été utilisé pour stocker des données relationnelles provenant d’outils tiers et pour visualiser ces données à l’aide d’un outil de BI. Par conséquent, pour assembler une CDP composée, même les entreprises qui ont déjà un entrepôt en place doivent ingérer des données comportementales à partir de leurs sources de première partie à l’aide d’un IDC.
  • Une CDP packagée peut être utilisée parallèlement à un Data Warehouse. En fait, il est de plus en plus fréquent que les clients des CDP packagées stockent une copie de leurs données dans leur propre Data Warehouse en vue d’une utilisation ultérieure. En outre, les entreprises adoptent une approche hybride dans laquelle elles exploitent les capacités prêtes à l’emploi d’une CDP packagée pour certains cas d’utilisation tout en assemblant une CDP composée pour les cas d’utilisation avancés qui s’appuient sur des modèles de données personnalisés.

4. La résolution d’identité et l’API de profil

La résolution d’identité est le processus d’unification des enregistrements d’utilisateurs capturés à travers de multiples sources. Elle nécessite un ensemble d’identifiants (ID) utilisés pour faire correspondre et fusionner les enregistrements d’utilisateurs provenant de différentes sources, ce qui permet aux entreprises d’obtenir une vue d’ensemble de chaque utilisateur ou client.

La résolution d’identité a plusieurs cas d’utilisation, mais elle contribue principalement aux efforts de personnalisation et de protection de la vie privée.

schema cdp sources destinations
La résolution d’identité crée des profils unifiés qui peuvent être synchronisés en aval à l’aide de l’API de profil.

Il y a deux éléments clés à prendre en compte ici :

  • Une CDP packagée offre une capacité de résolution d’identité prête à l’emploi et crée des profils d’utilisateur unifiés. Les clients utilisant une CDP peuvent ensuite synchroniser ces profils unifiés avec un Data Warehouse ou des outils tiers à l’aide des API disponibles. Par ailleurs, comme nous l’avons déjà mentionné, un fournisseur de CDP utilise soit la méthodologie probabiliste, soit la méthodologie déterministe pour résoudre les identités.
  • Dans l’approche composée, les entreprises doivent gérer la résolution des identités dans leur propre Data Warehouse en écrivant le code d’unification à l’aide de SQL. Grâce à la flexibilité offerte par cette approche, l’analyste peut utiliser la méthodologie de résolution d’identité qui fonctionne le mieux en fonction des points de données disponibles.

5. Le Visual Audience Builder (et la modélisation des données)

Autre prérequis d’une CDP, un générateur d’audience visuelle est précisément ce qu’il semble être – une interface glisser-déposer pour construire des audiences ou des segments en combinant des données provenant de diverses sources.

Dans le cadre de l’approche composée, cette capacité est offerte par les outils ETL inversés, désormais appelés outils d’Activation des Données.

Il y a deux éléments clés à prendre en compte :

  • Une CDP packagée crée automatiquement les modèles de données sous-jacents à partir des données qu’il stocke, ce qui permet aux équipes non spécialisées dans les données de créer des audiences sans aucune dépendance. Cependant, ces modèles sont rigides et les clients ne peuvent pas créer des modèles personnalisés en fonction de leurs besoins spécifiques.
  • Un outil d’ETL inversé/d’activation des données exige que les équipes chargées des données construisent et exposent des modèles de données (à l’aide de SQL) au-dessus des données présentes dans le Data Warehouse, afin de permettre aux équipes non chargées des données de créer des audiences à l’aide du générateur d’audience visuelle. Cette approche donne aux entreprises une flexibilité totale sur leurs modèles et la possibilité d’incorporer des entités personnalisées.

P.S. : Je pense qu’il faudrait un meilleur terme pour décrire cette catégorie d’outils car l’ETL inversé n’est qu’une fonctionnalité et l’activation des données est un cas d’utilisation qui peut également être réalisé à l’aide d’une CDP packagée.

6. L’ETL inversé

Comme vous le savez déjà, l’ETL inversé fait référence au processus de déplacement des données du Data Warehouse vers des destinations en aval – généralement des outils tiers, mais il peut également s’agir d’une base de données interne.

Les entreprises construisent des pipelines ETL inversés depuis un certain temps ; cependant, l’utilisation du terme « ETL inversé » n’a commencé qu’après la productisation de l’ETL inversé au début de 2020 (j’ai entendu le terme pour la première fois en août 2020 de la part de Boris Jabes).

Nous sommes en 2023 et l’ETL inversé est désormais une fonctionnalité ou une composante de la CDP.

schema reverse etl
Qu’il s’agisse de la Data Warehouse de la CDP ou de la Data Warehouse du client, le déplacement des données vers l’aval est un ETL inversé.

Il y a deux considérations essentielles à prendre en compte ici :

  • La capacité d’une CDP packagée à déplacer des données vers des destinations en aval, souvent appelée orchestration, est essentiellement un ETL inversé où les données sont déplacées à partir de l’entrepôt de données de la CDP et non de la Data Warehouse du client. Aujourd’hui, la plupart des CDP packagées prennent également en charge la Data Warehouse du client en tant que source de données.
  • Dans l’approche composée, les entreprises qui aiment tout construire en interne peuvent créer leurs propres pipelines ou tirer parti de l’ETL inverse packagé offert par les outils d’activation de données (comme Census ou Hightouch) ainsi que par certains IDC (comme RudderStack).

7. La qualité des données

Composante sous-estimée mais importante, la qualité des données (QD) aide les entreprises à s’assurer que les données qui alimentent leurs CDP ne sont pas bizarres. Les outils de QD aident les entreprises à maintenir la validité, l’exactitude, la cohérence, la fraîcheur et l’exhaustivité des données.

La qualité des données est une catégorie très vaste qui comprend une pléthore d’outils permettant de détecter les problèmes et de maintenir la qualité de différents types de données. Cependant, les données comportementales constituent la base d’une CDP et il faut donc des outils pour s’assurer que les données sont valides, exactes et fraîches.

Il y a deux éléments clés à prendre en compte ici :

  1. Une CDP packagée offre généralement des fonctions de qualité des données permettant d’effectuer des tests sur les données comportementales collectées. Il permet également aux équipes d’élaborer des plans de suivi en collaboration.
  2. Dans l’approche composée, la composante QD peut provenir de l’outil IDC ou d’une solution QD distincte (comme Great Expectations) qui peut, au minimum, valider les données entrantes.

8. Gouvernance des données et respect de la vie privée

Un autre élément extrêmement important et pourtant sous-représenté d’une CDP est la capacité à mettre en place des contrôles de gouvernance et des flux de travail de conformité.

Il est juste de dire que c’est quelque chose dont les entreprises ont besoin de toute façon, qu’elles utilisent une CDP ou non. Cependant, si une entreprise utilise une CDP – qu’elle soit packagée ou composée – elle doit s’assurer de certaines choses, telles que :

  • La collecte des données n’est lancée qu’après que l’utilisateur a consenti à ce que les données soient collectées à des fins spécifiques telles que le marketing ou l’analyse.
  • Seules les données nécessaires à un outil tiers sont envoyées à cette destination spécifique. Par exemple, les IIP telles que l’adresse électronique ne sont envoyées à un outil tiers qu’après que l’utilisateur final a explicitement consenti à recevoir des courriels envoyés à l’aide de cet outil tiers.
  • Si un utilisateur refuse la collecte de données, aucune autre donnée le concernant ne doit être collectée auprès de sources de première et de tierce parties.
  • Si un utilisateur souhaite être oublié (GDPR) ou refuser que ses données soient vendues (CCPA), les demandes d’effacement doivent être envoyées aux outils tiers en aval desquels ses données ont été envoyées plus tôt.
  • Les membres de l’équipe interne ne doivent pouvoir accéder aux données sensibles ou aux IIP que s’il est nécessaire qu’ils accèdent à ces données, avec des autorisations granulaires basées sur les rôles.

Il ne s’agit là que de quelques-unes des capacités clés de la composante de gouvernance et de conformité d’une CDP et, comme vous pouvez le constater, il n’est pas facile de créer cette composante en interne.

Il y a deux éléments clés à prendre en compte ici :

  • Les capacités de gouvernance et de conformité des CDP packagées varient considérablement et seuls les principaux fournisseurs de CDP proposent des kits d’outils complets.
  • Dans le cadre de l’approche composée, il est possible d’exploiter certaines de ces fonctionnalités offertes par certains fournisseurs d’IDC ou d’intégrer des outils autonomes spécialement conçus pour la gouvernance et la conformité.

Conclusion (Octolis)

Nous espérons que cet article vous a aussi intéressé(e) que nous et que vous comprenez bien maintenant la différence entre les deux approches – même si, comme nous le disions en introduction, il faut nuancer un peu les choses. C’est la seule réserve que nous aurions vis-à-vis de l’article de Arpit Choudhury qui, par ailleurs, nous a vraiment stimulés !

En effet, ce que l’on observe depuis 2022, c’est la réduction du fossé entre les 2 approches. Les CDP modernes réunissent le meilleur des deux mondes.

Octolis, une CDP packagée ou une CDP composée ? Le meilleur des deux mondes !

La plateforme que nous proposons, Octolis, fonctionne en surcouche d’un Data Warehouse indépendant. Le but ? Que le client reste maître de sa base de données. Data Warehouse + Octolis = CDP 2.0. Mais nous intégrons dans le même temps toutes les fonctions de traitement des données associées classiquement aux CDP packagée. Octolis est donc à la fois (composante d’une) CDP composée et CDP packagée (tout-en-un). Si vous êtes curieux d’en savoir plus sur notre vision de la CDP, sur Octolis, sur les architectures data modernes, n’hésitez pas à entrer en contact avec nous !

Baromètre 2022 des éditeurs de marketing automation

Pour les éditeurs de marketing automation, 2022 a été marquée par des acquisitions, recrutements d’exécutifs et décisions stratégiques en tout genre. Par exemple, l’acquisition de la plateforme Goodfazer par Splio, le rachat d’Actito par le groupe QTNM ou encore l’annonce d’Insider d’être une unicorn après avoir levé 121 millions.

Voici donc un baromètre de l’année 2022 qui résume les éléments marquants pour les éditeurs de marketing automation.

Concernant notre méthodologie, nous avons regroupé les éditeurs par catégorie, à savoir Ecosystème, intermédiaires et légers. Les solutions écosystèmes correspondant aux solutions lourdes fournissant une série d’outils à un prix élevé, les solutions intermédiaires faisant la même chose dans une moindre mesure et les solutions légères pour les entreprises fournissant des outils à utilités précises à petit coût.

Découvrez notre baromètre

Panorama des solutions type légère :

Les solutions qui apportent une utilité limitée avec un coût assez faible (moins de 15 K€ annuel).

NomNb employés Déc. 2022Croissance sur 2 ans (en %)Nouvelles récentes
Sendinblue6460,31A acquéri Metfox Yodel.io en 2022. Nouveaux COO et CTO
Activecampaign8830,13En 2022, dépassé les 180 000 clients mondiaux, et a acquéri Active Campagin Postmark
Mailchimp15950,19Nouvelle campagne "Guess less, sell more". Acquéri chatitive en janvier 2021
GetResponse4570,11En 2022, GetResponse a acquéri Recostream et devient une société par actions
CampaignMonitor2170,12A lancé un intégration pour Salesforce. A acquéri en 2019 Liveclicker et Sailthru.
Klaviyo16550,36En 2022, a acquéri Napkin. Nouveau CFO et vice-président. Shopify investit 100 millions

Les news

Sendinblue

Sendinblue est une entreprise de logiciels de marketing basée en France, fondée en 2007 par Armand Thiberge, son actuel CEO. Au cours des derniers mois, l’entreprise a été très active sur le marché des acquisitions, avec cinq achats réalisés en 2021 et 2022, pour un montant estimé à 47 millions d’euros. Cela inclut Metrilo, Chatra, PusOwl, Metfox et Yodel.io. Ces acquisitions ont renforcé la plateforme de Sendinblue en matière de données client, de chat en direct, de notifications push et d’analyse.

En 2020, l’entreprise a également effectué une levée de fonds de 140 millions d’euros pour accompagner sa croissance. Pour soutenir cette croissance, Sendinblue a également nommé de nouveaux profils stratégiques tels que Olivier Legrand en tant que Chief Operating Officer, Laure Rudelle Arnaud en tant que Chief People & Impact Officer et Yvan Saule en tant que Chief Technology Officer. En novembre 2022, Sendinblue a également lancé deux nouvelles fonctionnalités: Sendinblue Meetings pour l’hébergement et le partage de liens vidéo automatisés et Payment Processing pour l’automatisation des factures via Stripe et la personnalisation des annulations.

Activecampaign

ActiveCampaign est une entreprise de logiciel de marketing et de gestion de la relation client fondée il y a quelques années. Elle est devenue l’un des plus importants fournisseurs de CRM et de ventes et marketing automatisés avec plus de 180 000 clients dans le monde. Son siège se trouve aux États-Unis et elle opère dans plusieurs pays.

En mai 2022, ActiveCampaign a acquis ActiveCampaign postmark, une entreprise de courrier électronique transactionnel. En janvier 2020, ActiveCampaign a levé 100 millions de dollars et en avril 2021, une autre levée de fonds de 240 millions a été annoncée.

Jason VandeBoom est le CEO et fondateur d’ActiveCampaign. Pour poursuivre sur la lancée de l’entreprise, Sameer Kazi a été nommé président et Kelly O’Connell a été élevée au poste de vice-président senior de la stratégie produit.

En avril 2022, ActiveCampaign a annoncé une intégration étendue pour Slack, permettant aux utilisateurs de gérer leur campagne marketing directement depuis l’application de messagerie Slack. Cette intégration permettra d’accroître l’efficacité et la productivité des équipes en automatisant certaines tâches de marketing et en facilitant la communication entre les différents services de l’entreprise.

Mailchimp

Mailchimp est une entreprise de marketing par courriel fondée en 2021. Elle est devenue l’un des principaux fournisseurs de solutions de marketing automatisé avec une présence internationale. Elle a réalisé plusieurs acquisitions avec les dernières en date étant Chatitive en janvier 2021, et Bigteam en juin 2020.

Ben Chestnut est le CEO de Mailchimp depuis 2001. Sous sa gérance, l’entreprise a connu une croissance stable et a continué à étendre ses fonctionnalités. En Septembre 2022, Mailchimp a lancé sa nouvelle campagne de marque créative, « Guess less, sell more », qui utilise des visuels et des actifs ludiques et légèrement étranges pour montrer qu’il est facile pour les PME de « supprimer les conjectures » de leur stratégie marketing.

En 2022, Mailchimp a amélioré ses fonctionnalités pour les entreprises de commerce électronique, avec l’ajout de 5 nouveaux déclencheurs de commerce électronique, de sondages clients, et de modèles de parcours pour récupérer des clients perdus. Cette mise à jour vise à aider les entreprises à maximiser leur chiffre d’affaires en automatisant les campagnes de marketing.

GetResponse

GetResponse est une entreprise de marketing automation fondée en 1999. Pour ses actualités, en Décembre 2022, GetResponse a réalisé une acquisition en achetant Recostream une entreprise spécialisée dans les outils de tracking des campagnes de marketing. Simon Grabowski est le fondateur et CEO de GetResponse.

Egalement en 2022, GetResponse est devenue une société par actions, ce qui permet à l’entreprise de continuer à croître et de financer des développements futurs. Cette transformation en société anonyme élargit les possibilités d’investissement et permet à GetResponse de mettre en place un plan d’options d’achat d’actions pour les employés. Les actionnaires actuels de l’entreprise conservent leurs actions et peuvent continuer à soutenir l’entreprise. Ce changement de statut permet à l’entreprise de poursuivre sur sa lancée, en se concentrant sur le développement de nouvelles fonctionnalités et en renforçant sa position sur le marché.

Campaign Monitor

Campaign Monitor est une entreprise de marketing automation fondée il y a quelques années. Elle est devenue l’un des principaux fournisseurs de solutions de marketing automatisé avec une présence internationale. En janvier 2019, Campaign Monitor a réalisé une acquisition en achetant Liveclicker et Sailthru, sa cinquième et sixième acquisition respectivement. En avril 2014, elle a levé 250 millions d’euros à travers une série A. Wellford Dillard en est le CEO depuis 2017.

En Avril 2022, Monitor Campaign a redesigné sa plateforme pour accueillir les SMS en plus des emails. Cela permet aux utilisateurs de bénéficier d’une plateforme de marketing de bout en bout pour les campagnes de marketing multi-canal. En avril 2021, Monitor Campaign a annoncé une intégration pour Salesforce, les clients de Campaign Monitor peuvent désormais accéder à toutes leurs données Salesforce, créer des tableaux de bord et déclencher facilement des e-mails transactionnels en quelques minutes et sans jamais quitter la plateforme. Cette mise à jour vise à simplifier les processus de marketing et les données pour les entreprises utilisant les deux plateformes.

Klaviyo

Klaviyo est une entreprise de marketing automation qui a été fondée en 2012. Elle a réussi à lever près de 800 millions de dollars à travers 7 séries de financement, la dernière se terminant en mai 2021 pour 320 millions de dollars. Shopify, une entreprise d’e-commerce, a également investi 100 millions de dollars dans Klaviyo en août 2022.

En novembre 2022, Klaviyo a annoncé son acquisition de Napkin, une entreprise spécialisée dans l’analyse des données pour les entreprises e-commerce. Cette acquisition permettra à Klaviyo de renforcer ses capacités d’analyse de données pour améliorer les campagnes de marketing de ses clients. Andrew Bialecki est le CEO de Klaviyo depuis 2012. En 2022, Amanda Whalen a rejoint l’entreprise en tant que CFO et Kim Peretti en tant que Vice-président Senior de Global Customer Success and Support.

Panorama des solutions type intermédiaire :

Les solutions qui apportent une utilité semi-limitée avec plusieurs outils et un coût moyen (entre 20K€ et 50K€ annuel).

NomNb employés Déc. 2022Croissance sur 2 ans (en %)Nouvelles récentes
Splio2010,03En 2023, acquisition de Tinyclues et en 2022, acquisition de la plateforme Goodfazer.
Actito2580,03En 2022, Actito rejoints le groupe QTNM.
Emarsys8430,08En 2020, rachete Emarsys et Loyalsys. Nouvelle CEO en 2021
Braze16010,43Introduction en bourse est élévée à 520 millions de dollars. Nouveau CMO.
NP6690,03 Est acquéri par ChapsVision en 2021.
Hubspot89130,32A acquéri The Hustle et nouveau CEO en 2021
Dialoginsight590,26
Acoustic5910,06En octobre 2022, Acoustic a recu du funding de Francisco Partners
Iterable7680,26En 2022, expansion en Australie et NZ. Nouveau CEO depuis 2021
Customer.io2360,67En 2022, a acquéri Parcel. Lancement nouveau canal de messagerie

Les news

Splio

Fondée en octobre 2016, l’entreprise Splio est un acteur majeur dans le domaine du digital marketing et du data management. Elle opère dans plusieurs pays et a réussi à se tailler une place de choix dans ce marché hautement compétitif.

Récemment, Splio et D-Aim ont annoncé leur fusion, donnant naissance au nouveau groupe Splio + D-aim. Cette acquisition s’inscrit dans la stratégie de croissance de l’entreprise qui a déjà réalisé des rachats pertinents tels que celui de la start-up spécialisée dans les Mobile Wallets, Gowento, en novembre 2018, et de la plateforme de parrainage client Goodfazer en mars 2022. Ces acquisitions ont permis à l’entreprise de renforcer sa position sur le marché et de proposer des solutions de plus en plus innovantes à ses clients.

Depuis 2014, l’entreprise est dirigée par Mireille Messine, qui a su mettre en place une vision stratégique ambitieuse et une équipe de direction solide. En mars 2019, Splio a nommé Antoine Parizot au poste de Directeur général France et en août 2018, Charles Wells au poste de Chief Marketing Officer. Ces nominations ont permis à l’entreprise de poursuivre sa croissance et de proposer des produits toujours plus performants à ses clients.

Actito (CM group)

Fondée en 2008 sous le nom de Citobi, Actito est une entreprise belge spécialisée dans la technologie de marketing automation. Elle opère dans plusieurs pays et a réussi à se tailler une place de choix dans ce marché hautement compétitif. Aussi en 2018, Citobi a acheté MediQuality, une entreprise de solutions de gestion de la qualité de la communication, pour renforcer ses capacités dans le domaine de la communication multicanale. Cependant, en septembre 2018, Citobi a revendu MediQuality pour se concentrer sur son projet Actito et investir dans la technologie de marketing automation.

En juin 2019, Actito a fait l’acquisition de SmartFocus, une entreprise britannique de marketing automation, pour renforcer son offre de produits et de services. Cette acquisition a permis à Actito de proposer une plateforme de marketing automation encore plus complète et innovante à ses clients. Les cofondateurs, Benoît De Nayer et Kenya Rose, ont su mettre en place une vision stratégique ambitieuse et une équipe de direction solide pour faire de Actito une entreprise leader dans son domaine. D’ailleurs en 2022, Actito rejoint le groupe QTNM, ce qui a permis à l’entreprise de se développer encore plus rapidement.

Emarsys

Emarsys est une entreprise de marketing automation fondée en 2000 et basée en Autriche. Elle est reconnue pour sa plateforme de marketing automatisé innovante et performante.

En 2015 et 2016, Emarsys a levé 55,3 millions d’euros de capital pour financer sa croissance. Cet investissement a permis à l’entreprise de poursuivre son développement et d’innover en proposant des fonctionnalités toujours plus performantes sur sa plateforme.

En novembre 2020, SAP Newsbyte a racheté Emarsys pour renforcer sa capacité à fournir une solution globale de marketing automation. Cette acquisition a permis à Emarsys de bénéficier de l’expérience et des ressources de SAP pour accélérer son développement. Un moi plutôt, Emarsys avait également fait l’acquisition de Loyalsys, une entreprise de marketing relationnel, pour améliorer ses capacités de fidélisation de la clientèle.

En octobre 2021, Emarsys a annoncé la nomination de Joanna Milliken en tant que nouvelle CEO. Elle remplace à cette fonction le CEO sortant qui était en place depuis de nombreuses années et qui a permis à Emarsys de devenir un acteur incontournable de la marketing automation. Sous la direction de Joanna Milliken, Emarsys poursuit son expansion et innove pour améliorer les performances de ses produits et réduire ses limitations.

Braze

Braze est une entreprise de marketing automation fondée en 2011 et basée à New York. Elle est reconnue pour sa plateforme de marketing automatisé complète et innovante qui permet aux entreprises de connecter, segmenter et personnaliser les communications avec leurs clients à travers différents canaux.

En novembre 2021, Braze a été introduit en bourse et valorisé à 520 millions de dollars, ce qui lui a permis de renforcer sa position sur le marché. Ce succès est en partie du à Bill Magnuson, le CEO, qui a su mettre en place une vision stratégique ambitieuse et une équipe de direction solide.

En juin 2022, Braze a nommé Astha Malik au poste de Chief Marketing Officer, elle a permis à l’entreprise de poursuivre sa croissance et de proposer des produits toujours plus performants à ses clients. Braze a également renforcé ses partenariats avec d’autres leaders du secteur, tels que Snowflake et WhatsApp, afin de proposer des solutions encore plus puissantes et complètes à ses clients.

Les revenus du troisième trimestre ont augmenté de 45,6% par rapport à l’année précédente pour atteindre 93,1 millions de dollars, ce qui indique une croissance solide de l’entreprise. En novembre 2022, Braze a annoncé l’ajout de nouvelles fonctionnalités comme l’amélioration des outils d’analyse et de rapport, de gestion de l’audience et de création de campagnes pour continuer à offrir des solutions de qualité à ses clients.

NP6

NP6 est une entreprise de marketing automation fondée en France et qui opère dans de nombreux pays à travers le monde.

En janvier 2021, ChapsVision a acquis NP6 pour renforcer sa capacité à fournir des solutions de marketing automation innovantes et performantes à ses clients. Cette acquisition a permis à NP6 de bénéficier de l’expérience et des ressources de ChapsVision pour accélérer son développement. En Juillet 2016, NP6 avait fait l’acquisition de Ezakus, une entreprise de marketing relationnel, pour améliorer ses capacités de fidélisation de la clientèle.

A propos de son staffing, depuis 2019, NP6 est dirigé par Olivier Dellenbach qui a su mettre en place une vision stratégique ambitieuse pour NP6. NP6 continue d’innover en proposant des fonctionnalités toujours plus performantes sur sa plateforme pour répondre aux besoins de ses clients. L’acquisition récente par ChapsVision lui a permis de consolider sa position sur le marché.

Hubspot

Créée en 2006 par Brian Halligan et Dharmesh Shah, Hubspot est une entreprise de logiciel de marketing, de vente et de service basée aux États-Unis. Depuis sa création, Hubspot a connu une croissance rapide et est une entreprise en plein essor. Au cours des dernières années, Hubspot a multiplié les acquisitions, notamment en février 2021 avec l’acquisition de The Hustle, une entreprise spécialisée dans l’envoi de newsletters. Cette acquisition vient renforcer la capacité de Hubspot à connecter les entreprises à leurs clients.

En septembre 2021, Yamini Rangan a été nommée CEO de Hubspot. Elle a apporté une grande expérience en matière de stratégie et de développement commercial. En novembre 2022, Alyssa Harvey Dawson a été nommée Directeur juridique de Hubspot. Cette année a vu également le lancement de Operations hub, un outil qui permet aux entreprises de unifier leurs données clients dans une plateforme CRM connectée et d’automatiser une variété de tâches chronophages. Hubspot continue de se développer et de renforcer sa position de leader dans l’industrie.

Dialoginsight

Dialoginsight est une entreprise de taille moyenne qui a été fondée en 1999. Elle opère dans plusieurs pays, en mettant l’accent sur les solutions de gestion de données et de marketing numérique. Pascale Guay en est le CEO depuis sa création.

Dialoginsight a récemment lancé une nouvelle fonctionnalité appelée Bibliothèque d’assets, qui simplifie la gestion des contenus tels que les bannières d’information et les offres promotionnelles. Cette fonctionnalité aide les équipes à travailler plus efficacement tout en économisant du temps et de l’argent.

Acoustic

Acoustic est une entreprise de taille moyenne fondée en 2019. Détenue à l’origine par IBM, elle est maintenant une entité privée à part entière backée par Centerbridge Partners, mais continue d’utiliser l’interface de programmation d’applications d’IBM pour ses solutions. Elle opère dans plusieurs pays, en mettant l’accent sur les solutions de marketing numérique et de gestion de données.

En Octobre 2022, Acoustic a reçu un nouveau financement de Francisco Partners pour poursuivre son développement. En trois ans l’entreprise a maintenant atteints 600 employés et a étendu sa présence internationale. En janvier 2023, Mark Cattini a été nommé CEO.

Acoustic a adopté le cloud pour le marketing et a déplacé 90% de sa charge de travail vers AWS. En juin 2022, Acoustic a annoncé la sortie de Multichannel Composer, une solution permettant aux marques de combler le fossé de l’expérience numérique en permettant aux équipes marketing de toute taille d’orchestrer facilement des campagnes hyperpersonnalisées pour engager les consommateurs sur le moment.

Iterable

Iterable est une entreprise de marketing automation fondée en 2013 qui opère dans plusieurs pays. Elle a réussi à lever 342 millions de dollars de financement au total, son dernier tour s’est fini en juin 2021.

Malgré une situation financière stable, l’entreprise a été touchée par une crise interne. En avril 2021, Justin Zhu, le CEO et co-fondateur de Iterable, a été évincé de sa position pour avoir pris du LSD sur son lieu de travail. Depuis, Andrez Boni est le nouveau CEO de l’entreprise.

Iterable a profité de cette année 2022 pour se développer sur des marchés étrangers en commençant son expansion en Australie et Nouvelle Zélande. L’entreprise a également amélioré sa plateforme marketing en ajoutant plusieurs intelligences artificielles pour optimiser l’efficacité des promotions.

Customer.io

Customer.io est une entreprise de marketing automation. Elle a réussi à lever un peu plus de 5 millions de dollars à travers 7 séries de financement, le dernier datant de mars 2022.

Dernièrement, l’entreprise a annoncé son acquisition de Parcel en août 2022. Ce rachat permettra à Customer.io de renforcer sa plateforme en offrant des services de messagerie ciblée et automatisée sur les différents canaux d’échange avec ses clients. Customer.io a également annoncé l’ajout d’un nouveau canal de messagerie : les messages intégrés aux applications mobiles et Web. Ce nouveau canal de communication permet aux entreprises d’interagir avec leurs utilisateurs là où ils sont le plus actifs, renforçant ainsi les campagnes de marketing.

Panorama des solutions type écosystème :

Les solutions qui apportent une solution lourde avec une série d’outils et un coût élevé (plus de 50K€ annuel).

NomNb employés Déc. 2022Croissance sur 2 ans (en %)Nouvelles récentes
Selligent2870,07En 2020, Selligent est acquérit par CM group. Lance Selligent Data studio pro en 2021
Salesforce Marketing Cloud737090,11Nouveau Co-CEO (Bret Taylor), CEO de Slack et Tableau quittent Salesforce
Adobe Campaign351180,14
Insider11500,29Levé 121 millions en 2021. En 2022, annonce être une unicorn.

Les news

Selligent

Selligent est une entreprise belge de marketing automation qui a été fondée en 2001 avec une levée de fond de près de 5 million. Elle propose une plateforme de marketing automatisé qui permet aux entreprises de connecter, segmenter et personnaliser les communications avec leurs clients à travers différents canaux. Elle opère dans de nombreux pays dans le monde.

En novembre 2020, Selligent a été acquise par CM Group, un groupe américain de services de marketing et de technologies, pour renforcer sa capacité à fournir des solutions de marketing automation innovantes et performantes à ses clients. Selligent fait depuis partie de l’offre Marigold, qui réunit sous une même marque l’ensemble des solutions martech et d’emailing cross-canal, technologies et services de l’entreprise.

De plus, depuis février 2020, Karthik Kripapuri est le CEO de Selligent. Il a mis en place une vision stratégique ambitieuse pour poursuivre son développement et sa croissance. En novembre 2021, Selligent a lancé Selligent Data Studio Pro, une solution qui permet de consolider les données au sein de la plateforme Selligent Marketing Cloud, créer une vue unique que l’utilisateur peut analyser, automatiser le partage de tableaux de bord et fournir aux spécialistes du marketing un outil de reporting transparent pour suivre les clients.

Salesforce Marketing Cloud

Salesforce Marketing Cloud, fondée en 1999, est aujourd’hui l’une des plus grandes entreprises de marketing cloud au monde, opérant dans divers pays. Le bilan financier de l’entreprise est impressionnant, avec des acquisitions majeures telles que Slack pour 28 milliards de dollars en décembre 2020 et Tableau pour 15 milliards en juin 2019.

Il y a eu quelques changements de direction récemment chez Salesforce Marketing Cloud, notamment Bret Taylor quittant son poste de Co-CEO un an seulement après avoir été promu pour partager le poste avec Marc Benioff, co-fondateur de Salesforce. Les CEOs de Slack et de Tableau ont également quitté l’entreprise. En Décembre 2022, Salesforce a annoncé l’expansion de l’écosystème de commerce AppExchange pour aider les détaillants à réduire les coûts, augmenter l’efficacité et favoriser la réussite des clients sur Commerce Cloud.

Enfin, également en décembre 2022 Salesforce a annoncé l’ajout de 250 applications de partenaires commerciaux à AppExchange pour aider à réduire les coûts, augmenter l’efficacité et favoriser la réussite des clients sur Commerce Cloud, et a également annoncé Genie, le premier CRM en temps réel.

Adobe campaign

Adobe Campaign, fondée en 1992, est une entreprise leader dans les solutions de marketing digital, présente dans le monde entier. Elle est une filiale d’Adobe Systems Incorporated.

En termes de performance financière, Adobe Systems Incorporated a annoncé un chiffre d’affaires record pour son quatrième trimestre de 2020, atteignant 2,99 milliards de dollars, en augmentation de 20 % par rapport à l’année précédente. Aucune acquisition ou rachat n’ont été annoncées récemment pour Adobe Campaign spécifiquement.

En termes de stratégie, Adobe Campaign a annoncé récemment son intention de renforcer sa présence en Asie en ouvrant un nouveau bureau à Tokyo, pour mieux servir les clients locaux et explorer de nouvelles opportunités commerciales. De plus, l’entreprise a annoncé la sortie de nouvelles fonctionnalités pour son produit, incluant des outils d’automatisation de marketing pour faciliter la gestion des campagnes et une intégration renforcée avec d’autres solutions Adobe.

Il n’y a pas de nouvelles récentes concernant le CEO d’Adobe Campaign, Shantanu Narayen.

Insider

Insider, fondée en 2020, est une entreprise en forte croissance avec une présence internationale. En 2021, l’entreprise a réussi à lever 32 millions de dollars, et en février 2022, elle a réussi à lever 121 millions de dollars supplémentaires.

Handle Cilliger, le PDG de Insider, a été classé parmi les trois premiers PDG en dehors des États-Unis et a mené l’entreprise à une entrée remarquable dans le cercle très fermé des licornes en Mars 2022. L’entreprise s’est également classée en première position dans les rapports G2 Winter ’23 dans six catégories, notamment les plateformes de données client, le marketing mobile et la personnalisation.

Au cours du quatrième trimestre de 2022, Insider a également révélé de nouvelles fonctionnalités telles que: nouvelle AMP pour e-mails, les intégrations TikTok et Shopify, les alertes de prix cross-canal et les alertes de retour en stock.

 

[Interview croisée] – Comment piloter son dispositif CRM ?

La performance de votre dispositif CRM réside dans votre capacité à l’organiser, le faire vivre et à le piloter.
Facile à dire, plus difficile à faire. Si toutes les PME ou presque utilisent aujourd’hui un CRM, rares sont celles qui parviennent à les exploiter pleinement.

Pour vous permettre de passer rapidement un cap sur le sujet, nous avons interrogé des experts du sujet :

A la clé ? Des conseils pratiques et des retours d’expérience en format texte synthétique ainsi que l’intégralité de leurs réponses en vidéo dans cet article.

1 – Pouvez-vous vous présenter en quelques mots ?

Grégoire Mialet

Je suis Grégoire Mialet, CEO de C-Ways. Notre objectif est de faire prendre conscience à nos clients de la valeur de la data et de tout ce que ça peut leur apporter aujourd’hui avec les nouveaux dispositifs : marketing automation, activation en temps réel, omnicanalité…

Des concepts sur lesquels ils butent quand ils passent à l’opérationnel. Bien que sensibles à l’expérience client, ils s’interrogent sur les outils à mettre en place pour connecter ou centraliser l’ensemble de leurs données clients.

Nous leur apportons des éléments de réponse stratégiques avant de les mettre en relation avec des éditeurs de solutions adaptés à leurs besoins.

Marion Duchatelet

Je suis consultante en e-mailing chez Basender.

J’accompagne nos clients dans le choix de leurs outils de routage, lorsqu’ils souhaitent se tourner vers un nouvel outil.
J’effectue également des audits de leur stratégie et par la même occasion je dresse leur feuille de route pour les trois à six douze prochains mois. Il peut s’agir d’analyses statistiques, des contenus email, des questions relatives à la personnalisation ou la segmentation.

Enfin, notre accompagnement prend la forme de séances de coaching pour m’assurer que les points qu’on a soulevés lors de l’audit soient bien appliqués tout au long de l’année.

Frédéric Miteve

Je pilote le pôle marketing CRM d’Acemis, un cabinet de conseil dont le cœur de métier est l’expérience client. Nous avons 20 ans d’existence et réalisons un chiffre d’affaires de 9 millions avec 35 collaborateurs. Notre cabinet accompagne des projets marketing B2B et B2C sur les outils de centre de contact, de marketing automation et de force de vente.

Clémentin Leduc

Je suis Marketing Scientist chez Almavia. Mon job consiste à aider nos clients à déployer des solutions marketing pertinentes pour aider nos clients à optimiser le « customer journey » de leurs propres clients.

Almavia propose un accompagnement global autour de l’expérience client – notamment à travers le déploiement de solutions CRM marketing – auprès de clients nationaux et internationaux.

2 – Quels sont les dispositifs de gouvernance que vous recommanderiez à une entreprise de taille moyenne ?

Grégoire Mialet

Dans ce type d’entreprise, le sujet est très isolé. L’équipe CRM de 2-3 personnes peine à faire comprendre les enjeux auprès de la direction générale.

« Le premier enjeu est lié à l’acculturation de la donnée clients et la connaissance clients »

Le premier niveau c’est de comprendre les données dont on a besoin pour traiter cette connaissance clients et pour générer l’activation. A ce stade, interagir sur le parcours transactionnel avec des logiques d’abandons de paniers, de cross-selling, d’up-selling suffit amplement.

En matière de gouvernance des données, je recommande d’aller sur des solutions cloud pour faciliter l’intégration des données et des solutions de type CDP pour réunir les données essentielles : retour de satisfaction client, plaintes auprès du service client, parcours digital et offline.

Marion Duchatelet

En général dans les organisations de cette taille, l’équipe CRM est une équipe marketing au sens plus large.

L’idéal est de pouvoir s’appuyer sur 2 documents partagés au sein de cette équipe :

  • Un planning d’envoi à six mois avec les éléments clés associés à chaque campagne : anglage, date, cible, tests…
  • Un document de suivi de la performance de ces campagnes : délivrabilité, taux d’ouverture, cliqueurs,..

Il y a plusieurs indicateurs que je vais surveiller en particulier. Par exemple, le nombre de cliqueurs, le nombre de désabonnements et le taux d’insatisfaction : pour savoir s’il est en-dessous de 10%. Et s’il est possible de l’avoir, je vais regarder le nombre de transactions.

Pour mener à bien ce projet, je conseille aux équipes CRM de prendre une heure par semaine pour compléter ces indicateurs dans leur outil de routage. Puis une fois par trimestre, de prendre du recul pour étudier l’évolution des indicateurs clés. Ensuite, il faut creuser par cibles pour déterminer le comportement de chaque profil : prospects, clients actifs, anciens clients, par produit, par pays etc.

Enfin, on présente cela au board : les instantes dirigeantes et l’équipe data/DSI, ou ceux qui sont en charge du modèle de données afin d’aligner toutes les parties prenantes en matière de vision, d’objectifs, de priorités, d’actions CRM, de statistiques. Il faut que l’ensemble des acteurs soit en phase. Puis de manière cyclique, on revalide chaque trimestre où on fait évoluer la stratégie.

Frédéric Miteve

Il est important de décloisonner les différents métiers en CRM (marketing, ventes, service) et d’associer les profils techniques des intégrateurs de données pour avoir une vue consolidée des clients et un parcours client sans couture. Pour cela, il est conseillé de créer des plateaux qui regroupent toutes les équipes et tous les profils nécessaires pour mettre en œuvre le projet, en impliquant au maximum tous les profils qui pourraient être concernés. Il est aussi important d’avoir un comité de pilotage avec les bonnes personnes impliquées pour faciliter la communication entre les métiers et les parties techniques.

Clémentin Leduc

Je recommande pour une petite équipe CRM dans une PME d’avoir un plan précis de déploiement pour dimensionner la gouvernance et améliorer l’implication des différentes équipes. Il est important de mettre en place un cadre précis pour les projets avec des actions bien définies et des rendez-vous réguliers pour analyser les problèmes et trouver des solutions. Il est également important de mettre en place des comités de pilotage et de projet réguliers et rapides, mais sans tomber dans la surconsommation de réunions. La fréquence idéale pour un comité de pilotage ou de projet est d’un par semaine pendant les six premiers mois.

3 – Comment mesurer l’impact d’un dispositif CRM ?

Grégoire Mialet

Aujourd’hui je pense que c’est très compliqué de mesurer efficacement une campagne car bien souvent, le coût de mesure est plus important que le coût de la campagne elle-même.

Notamment à travers l’email dont on sait que c’est un canal fragile du fait de la sollicitation excessive des consommateurs. Aujourd’hui, le taux d’ouverture est un indicateur mais il ne fait pas le succès d’une campagne.

Il faut surtout mettre l’accent sur des campagnes omnicanales, automatisées et scénarisées car l’impact d’un email peut parfois influer sur un acte d’achat en boutique. Il y a deux choses sur lesquelles s’attarder :

  • Les indicateurs de santé et d’engagement sur le long terme de sa base de données clients : fréquence d’achat, taux de rétention/attrition, l’évolution de leur panier etc.
  • Utiliser les populations blanches : populations figées sur une longue temporalité (6 mois) au cours de laquelle elle ne va rien recevoir. C’est un échantillon témoin qui comparé à l’échantillon test, permettra d’évaluer l’efficacité du plan CRM et éventuellement l’améliorer.

Marion Duchatelet

Je recommande de prendre les mêmes taux pour les scénarios (que pour les campagnes) mais en isolant les performances de chaque email. Parfois dans un scénario il y a trois e-mails. Si j’ai un taux d’insatisfaction qui est énorme sur le deuxième e-mail, peut-être que je devrais l’enlever ou parler autrement.

Il faut également mesurer les emails d’un point de vue temporel pour déterminer à quel moment les gens se désabonnent par exemple. Si l’insatisfaction est beaucoup plus grande dans le troisième email, est-il pertinent de le faire partir plus tôt ?

Il est nécessaire de se poser ce type de questions tous les trimestres, d’émettre des hypothèses afin de lister des points d’amélioration.

En substance, je conseille de se pencher sur le nombre de cliqueurs, le taux d’insatisfaction et le taux de conversion (si l’objectif principal est la conversion). Certaines marques relaient simplement le positionnement marketing et les valeurs de l’entreprise pour ne pas pousser à la surconsommation. D’autres marques ne veulent pas pousser à fond la conversion pour éviter d’entrer dans une logique de surconsommation.

Frédéric Miteve

Il est critique de mesurer l’impact du dispositif CRM en utilisant des indicateurs de bout en bout, c’est-à-dire en croisant les données des campagnes marketing avec les données issues des autres outils métiers pour analyser l’impact réel sur les ventes ou sur la fidélité des clients. Il faut aussi savoir prendre en compte la question de l’attribution des ventes, qui peut être complexe, en mettant en place un modèle d’attribution avancé pour éviter de dévaloriser certains canaux de communication.

Clémentin Leduc

Un cycle d’implémentation CRM se déroule en 3 phases / années :

  • Année 1 : Construction, faire en sorte que les outils fonctionnent, focus engagement.
  • Année 2 : Stabiliser la solution, mise en place des parcours clients.
  • Année 3 : Aller chercher l’incrémental, focus conversion.

Je recommande de bien établir les objectifs en début de projet afin de déterminer les impacts du dispositif CRM. Pour mesurer l’impact, nous utilisons plusieurs méthodes telles que la comparaison des résultats avant et après la mise en place du CRM, la mesure des retombées des campagnes marketing et l’utilisation d’outils de veille pour relier les retombées d’une campagne au chiffre d’affaires généré.

4 – Comment rapprocher la connaissance clients des actions CRM ?

Grégoire Mialet

La convergence est indispensable notamment pour prioriser les actions que l’on souhaite déployer. Au départ, on ne peut pas intervenir sur tous les sujets : marketing automation, campagnes classiques, campagnes de réactivation etc. C’est à ce moment-là que la connaissance clients intervient.

Par rapport aux comportements des clients, il faut se demander ce qui est prioritaire en termes d’impact business : améliorer la rétention, favoriser un deuxième achat, prioriser le cross-selling etc.

Le plus important c’est que cette connaissance clients soit diffusée au-delà de l’équipe CRM
Notamment à la direction générale qui va investir sur des sujets à forte valeur ajoutée. Cela nécessite une bonne interaction entre l’équipe CRM, l’équipe marketing et l’équipe data/SI.

Marion Duchatelet

C’est un vaste sujet. Quand on pose la question aux annonceurs, ce qu’ils aimeraient savoir sur leurs clients, c’est leurs centres d’intérêt. D’autant plus quand le catalogue produit est riche. Plusieurs approches sont possibles :

  • Catégoriser les liens : Associer les liens à des centres d’intérêts ou des catégories de produit en retail. On utilise ensuite ces centres d’intérêt pour segmenter notre base ou pour personnaliser nos emails.
  • Le scoring : En associant la catégorisation de liens à l’historique d’achat et à des questionnaires déclaratifs placés à des endroits stratégiques.
  • Le marketing téléphonique : Appeler 10-20 clients qui sont vraiment engagés envers la marque permettrait d’en savoir plus sur leur rapport à la marque.

Frédéric Miteve

Il est important de rapprocher la connaissance clients des actions CRM en utilisant un programme relationnel qui regroupe un ensemble de projets et d’acteurs. Cela permet de collecter des informations sur les clients à travers différents canaux et de les partager entre les équipes pour améliorer les actions marketing.

Il est essentiel d’avoir une structure qui permet de regrouper toutes ces informations pour une vision globale de la connaissance clients. Cependant, il peut être difficile de motiver les différentes équipes à contribuer à cette connaissance client, surtout dans les entreprises de petite taille qui n’ont pas de personne dédiée à cette tâche.

Clémentin Leduc

Pour rapprocher la connaissance clients des actions CRM, il est critique de définir les objectifs en début de projet et d’utiliser des études pour analyser le comportement des clients. Il est important de segmenter les clients en utilisant les données disponibles, ensuite on peut utiliser des outils pour pousser les analyses et améliorer les activations marketing. Il faut aussi rassembler toutes les divisions d’une entreprise pour avoir une vision consolidée des actions et des retombées. Enfin, il faut réconcilier les équipes de data pour utiliser les outils de veille disponibles.

5 – Comment penser un dispositif CRM dans un contexte international ?

Grégoire Mialet

Il n’y a pas de recette miracle. Il faut prendre en compte le niveau de maturité des pays sur le sujet. Certains pays ont des contraintes opérationnelles que l’on à tendance à oublier : gestion des réseaux, onboarding des équipes, notoriété de la marque etc. Ils ne peuvent pas être experts de tout.

Je recommande une gouvernance bien réfléchie, fruit d’une concertation entre tous les pays. Personnellement, je recommande un canva d’activation automatisé et centralisé qui doit être commun à tous les pays. Que j’aille en France ou en Italie, mon rapport à la marque doit être le même. Il doit y avoir un socle commun basé sur le cycle de vie client (soit toutes les interactions à forte valeur ajoutée que l’on va pouvoir automatiser). Dans tous les cas il faut un seul outil qui puisse nourrir les équipes pays et il faut également le temps de former les équipes pays à la maîtrise de cet outil.

Marion Duchatelet

Selon moi, ce qui marche assez bien, c’est l’autonomie des filiales dans tout ce qui est campagnes hebdomadaire et mensuelle. L’idéal c’est d’avoir un outil avec le même templating e-mail afin d’avoir une même cohérence graphique et idéalement une charte éditoriale partagée auprès de chaque équipe en prenant en ligne de compte les spécificités culturelles, la façon de traduire etc. Cela suppose de mettre à disposition un outil dans lequel le template est géré par le siège mais partagé aux locaux.

Puis chaque mois, je partagerais les bonnes pratiques par pays afin de confronter les idées et transposer celles qu’on peut reproduire d’un pays à un autre. Pour ce qui est des scénarios, c’est automatisé au sein d’un seul outil en général. C’est mieux que ce soit pris en main par le siège. Mais par contre la traduction des messages doit être vérifiée par l’équipe locale. L’essentiel c’est qu’il existe des réunions pour aligner tous les parties, être cohérent au niveau de la charte graphique des stats par pays etc…

Frédéric Miteve

Dans les projets internationaux, nous nous appuyons sur des cores modèles qui peuvent être intégraux ou partiels selon le degré de centralisation de l’organisation. Pour la connaissance client, cela dépend des comptes globaux ou locaux. Il est important de séparer les pays en groupes avec des fonctionnements différents pour s’adapter aux spécificités de chaque marché.

Clémentin Leduc

Pour une entreprise internationale, il est important d’avoir un socle commun pour le dispositif CRM qui convient à toutes les entités. Cela permet de garantir une continuité de service et facilite les évolutions au gré des besoins du groupe.

Cependant, il est également important de prendre en compte les différences culturelles, de comportement et de taille entre les différentes entités et de les intégrer dans une couche supplémentaire pour chacun des contextes. Il faut aussi considérer les demandes de développement pour un grand nombre de pays en même temps, pour éviter un déploiement et des évolutions complexes.

6 – Un petit mot en conclusion?

Marion Duchatelet

J’ai mis en place avec Jonathan Lauriaux un podcast cet été. Il s’intitule Sobriété marketing possible…?. Parce qu’on constate que si on veut être utile au monde de demain, il faut peut-être arrêter de pousser à la surconsommation notamment à travers l’emailing. Ce qu’on voit chez nos clients, c’est qu’ils ont du mal à relâcher la pression marketing et à savoir quoi mettre dans leurs e-mails.

En tant qu’individus, ils sont convaincus par la démarche. Mais au niveau business, ce n’est pas la feuille de route qu’ils ont choisie. On essaie de bousculer cette vision-là, d’énoncer des questions et d’apporter des réponses, parfois à nos propres interrogations. Pour ce faire, on interview des entreprises à impact qui ont déjà passé ce cap-là. Pour finir, je vais poser une question à vos lecteurs : Est-ce qu’on a vraiment besoin de scoring, de personnalisation ou d’IA dans une stratégie CRM/emailing ?

Frédéric Miteve

Chez Acemis, nous avons un ADN orienté client. Nous encourageons nos clients à se mettre à la place des clients finaux pour comprendre leurs besoins réels. Cependant, il est facile d’oublier cet objectif en se concentrant sur les projets techniques et organisationnels.

Pour cette raison, nous avons développé une offre autour de la « voix du client », pour prendre en compte les signaux faibles et forts des clients. Dans les projets marketing, nous insistons sur l’importance de s’organiser dès le début pour évaluer l’impact sur les clients et savoir si les campagnes et les contenus ont été utiles pour eux.

 

Zoom sur le coût d’un dispositif Data Analytics pour une PME

Le coût d’un dispositif Data Analytics, pour une PME, s’échellonne entre 10 000 et 100 000 euros par an. Le niveau d’investissement va dépendre de la taille de l’entreprise, du nombre d’employés et de vos besoins. Selon nous, les entreprises devraient réserver environ 2 à 6 % de leur budget total à l’analyse des données.

La bonne nouvelle, c’est que la Data Analytics n’est plus l’apanage des grandes entreprises. Les petites et moyennes génèrent des quantités considérables de données et peuvent clairement tirer profit d’une analyse des données pour prendre de meilleures décisions.

Nous allons voir dans cet article combien une PME qui souhaite faire de la Data Analytics doit être prête à investir pour atteindre ses objectifs.

Le budget consacré à la Data Analytics doit représenter 2 à 6 % de vos dépenses

En moyenne, les entreprises consacrent entre 2 et 6% de leurs dépenses totales à l’analyse des données, ce qui inclut le coût des outils, des salaires et des prestataires. La Data Analytics, domaine qui connaît une croissance considérable depuis quelques années, permet de convertir des données brutes (et non exploitées) en informations et en enseignements utiles à la prise de décision.

Le volume de données à disposition a également augmenté en raison de l’influence de l’Internet des objets (IoT) et des appareils connectés. Les données ont augmenté en volume tout en gagnant un nouveau niveau de diversité et de richesse. Pour qu’une entreprise soit performante, le réseau de données disponible doit être optimisé.

L’analyse de données offre la possibilité de prendre des décisions commerciales mieux informées et d’affiner les produits ou services proposés pour offrir à leurs clients une meilleure expérience. D’après une étude réalisée par SAS, 72 % des entreprises affirment que l’analyse des données a joué un rôle essentiel dans leur capacité d’innovation.

La différence de performance entre les grandes entreprises et les PME est due à l’analyse des données en tant que facteur de compétitivité. Cela souligne donc la nécessité de la Data Analytics quelle que soit la taille de votre entreprise.

Une entreprise qui a un chiffre d’affaires d’environ 2 millions d’euros doit investir près de 100 000 euros par an. D’ordinaire, cela semble être une somme importante à dépenser sur le revenu disponible, mais la plupart des entreprises de cet ordre disposent à peine des outils d’analyse de données nécessaires. Notons que cette estimation globale prend en compte le temps qui serait consacré à l’analyse des données et aux rapports par toutes les équipes.

Combien votre entreprise investit-elle aujourd’hui dans la Data Analytics ?

Si vous souhaitez vraiment maximiser la valeur de l’actif que représentent vos données clients, vous devez être prêt à investir un montant conséquent dans la Data Analytics.

Plusieurs options peuvent être envisagées pour mettre sur pied un dispositif de Data Analytics – et tout cela dépend de votre entreprise, de ses caractéristiques et de vos choix. Il y a essentiellement 3 postes de coût :

  • Le coût humain (salaires).
  • Le coût des outils.
  • Le coût des services/prestas.

Nous vous aidons à estimer le coût de votre dispositif Data Analytics dans ce modèle gratuit que nous vous invitons à utiliser :


Accéder à la ressource

Le coût humain

Les personnes sont également cruciales lors de l’analyse des données, car l’objectif final est d’influencer la volonté de vos clients. Il est donc essentiel de se pencher sur la manière dont vous dénichez et tirez profit de ces talents.

Ainsi, le coût humain exige que vous identifiiez en amont ceux qui peuvent contribuer à intégrer les activités axées sur les données au sein de l’organisation. Ces personnes ont déjà des compétences analytiques dans votre entreprise, et vous pouvez les renforcer afin de réduire le coût de l’embauche de prestataires. Aussi, il convient de mettre en place une formation continue avec des outils accessibles et modernes.

Si vous êtes une PME, vous pouvez utiliser cette méthode pour réduire les coûts humains à long terme. Toutefois, vous devrez peut-être faire appel à des experts pour lancer le processus et former vos employés.

Les services

L’investissement de votre entreprise dans l’analyse des données doit être relativisé s’il s’agit d’un service acquis. Il existe des agences et d’autres entreprises qui se chargent de l’analyse des données pour d’autres sociétés, ce qui vous aiderait à déterminer le coût pour votre PME.

Par exemple, vous pourriez passer un contrat avec une agence de gestion de la relation client (CRM) pour mettre en place des flux de travail de marketing automatisés. Dans ce cas, l’agence passerait suffisamment de temps à réconcilier certaines sources de données clients. Elle contribuerait à développer un certain niveau de connaissance du client pour faciliter l’analyse ou la segmentation RFM, puis passerait aux flux d’e-mails.

Tout comme le coût humain, ce niveau de flux de travail aurait un coût distinct et jouerait un rôle essentiel dans l’investissement que votre entreprise consacre à l’analyse des données.

> Découvrez notre Top 100 des Prestataires Data (agences et cabinets de conseil).

Les outils

Des outils de reporting spécifiques aux PME existent pour faire de la Data Analytics. Pour en choisir un, il faut commencer par certains outils de reporting populaires comme Google Data Studio. Ce dispositif est basé sur les données de Gsheet et Google Analytics, qui se sont avérés efficaces pour analyser les données de l’entreprise.

Les entreprises trouvent toujours utiles les vrais outils de BI et achètent Metabase ou PowerBI, ce qui mène à l’étape suivante. L’étape suivante consiste à mettre en place une infrastructure de données de base avec un entrepôt de données.

Il existe Google BigQuery et des logiciels ETL comme Airbyte ou Fivetran. Pour ces outils, il existe des licences, qui varient d’un acteur à un autre, ce qui affecte le montant que votre entreprise devra dépenser.

> Pour aller plus loin, découvrez comment mesurer le ROI de votre dispositif data.

Le coût de l’externalisation de la Data Analytics VS recruter en interne un Data Engineer/Analyst/Scientist

En fonction du type de service qu’ils proposent, les data engineers coûtent plus ou moins chers. Pour de nombreuses entreprises, une équipe interne de data scientists semble être la seule option. Disposer d’une équipe d’analystes de données est idéal pour les grandes entreprises.

Pour les petites et moyennes entreprises, ce n’est pas une solution disponible. La plupart de ces entreprises se tournent vers l’externalisation pour commencer leur parcours d’analyse de données.

Voici une ventilation du coût d’une équipe interne de science des données par rapport au prix de l’externalisation des services de données :

Les agences/cabinets Data Analytics

Le recours à des sociétés data analytics est connu pour être fiable en raison de plusieurs facteurs. Les consultants sont connus pour leur expérience dans divers secteurs. Il est donc plus facile pour eux de fournir des résultats plus rapidement.

Un avantage de cette méthode est le niveau d’engagement qu’elle requiert par rapport à l’embauche d’un employé à temps plein. Cependant, il est essentiel de noter que ces sociétés de conseil traditionnelles coûtent environ 50 à 100 euros de l’heure. Dans certains cas, les coûts sont encore plus élevés, car le travail s’étend sur des semaines ou des mois.

exemple cabinet conseil data analytics
Un exemple de cabinet de conseil Data Analytics : Cartelis.

Ainsi, l’engagement d’une société de conseil nécessiterait au moins 2 000 à 4 000 euros pour une semaine de travail. Même s’il s’agit de la première option d’analyse des données pour votre entreprise, elle n’est pas forcément la plus rentable. Ce n’est pas forcément une solution durable car elle dépend de facteurs externes.

Les freelances spécialisés en Data Analytics

Les freelances peuvent remplir la même fonction que les cabinets de conseil, mais à un prix inférieur en raison de la main-d’œuvre nécessaire. Il peut s’agir d’un seul freelance ayant suffisamment d’expérience pour vous aider à analyser les données de votre entreprise.

Dans la plupart des cas, le coût de l’analyse dépend toujours de la portée du projet.

Le projet sera à court terme, comme dans les cabinets de conseil traditionnels, ce qui signifie un engagement minimal. L’engagement de freelances serait estimé à 1000 $ par semaine, ce qui est considérablement abordable. Les freelances externalisés peuvent également différer dans leur qualité, c’est pourquoi le recrutement est essentiel.

exemple plateforme freelances it
Un exemple de plateforme pour recruter un freelance IT : Freelance Informatique.

Cependant, il est impossible de déterminer le retour sur investissement (ROI) et la valeur ajoutée pour l’entreprise. Les barrières linguistiques et culturelles peuvent être un problème avec l’externalisation des freelances, car la plupart se trouvent dans des pays comme la Chine et l’Inde.

Cela peut entraîner des frictions entre votre entreprise et le fournisseur de services d’analyse de données. Bien que l’externalisation des freelances puisse contribuer à réduire les dépenses, vous devez tenir compte des différences.

Monter une équipe Data Analytics en interne

Avec un consultant interne, il y a quelqu’un qui fait partie de l’entreprise depuis un certain temps. Cela permet de confier les analyses de l’entreprise à quelqu’un qui est considéré comme une personne extérieure. La seule nécessité pour que cela fonctionne est de former l’employé pour qu’il comprenne le contexte de votre entreprise et de votre secteur.

Par rapport au travail avec des consultants, cela réduit le niveau de friction avec les tâches déléguées.

Trouver le bon analyste peut être une question de temps, ce qui entrave la qualité du service fourni.

Le processus d’embauche peut également être fastidieux et nécessiter un engagement pour s’assurer de trouver la personne idéale.

On peut également craindre que les analystes à plein temps deviennent superflus pendant la saison morte. Le coût minimal du maintien en poste d’un spécialiste interne est d’environ 60 000 $ par rapport à ce que coûtent les autres analystes de données.

Certains diront même que le processus d’embauche et d’intégration d’un nouvel employé est dû à cela. Bien qu’il s’agisse d’une option fiable, elle coûterait néanmoins beaucoup plus cher à l’entreprise.

Conclusion

Les données sont essentielles au développement de votre entreprise car elles permettent d’établir des modèles de comportement. Le comportement des clients, leurs besoins et les données acquises tout au long de la gestion d’une entreprise sont autant de bénéfices de l’analyse de données. Elles améliorent la capacité d’innovation d’une entreprise et fournissent une base pour des décisions plus axées sur les données.

La Data Analytics peut être externalisée à un prestataire de services, à un freelance, ou bien gérée en interne par vos équipes. Chacune de ces options a ses avantages et ses inconvénients. Certaines sont plus coûteuses que d’autres, et leur coût varie en fonction du budget alloué à l’analyse des données.

Toutefois, si nous devions donner une fourchette, il est conseillé aux entreprises de réserver environ 2 à 6 % de leur budget total à l’analyse des données.

Les outils d’exploitation des données tels qu’Octolis peuvent réduire considérablement le coût global de l’analyse des données. Octolis dispose d’une base de données marketing intelligente qui vous permettra d’intégrer vos sources de données et vos outils de CRM ou d’automatisation du marketing.

Essayez l’outil d’exploitation des données Octolis !

Webinar : Quels sont les fondamentaux de la Connaissance clients en E-Commerce / Retail ?

On a échangé avec beaucoup de marques ecommerce / retail ces derniers mois pour présenter Octolis. ll y a un sujet qui revenait souvent : la connaissance clients.

Le sujet est compliqué. On atteint vite les limites de Google Analytics et d’Excel, mais l’étape d’après est difficile.

Dans ce webinar, les experts CRM de l’Agence Dn’D et d’Octolis vont vous proposer des solutions simples afin de gagner rapidement en maturité sur le sujet :

Les intervenants :

    • Carole CHEVROT – Responsable Offre CRM & Marketing Automation – Agence Dn’D
    • Yassine HAMOU TAHRA – Co-fondateur et CEO @ Octolis.

Replay & présentation

Les ressources

Webinar : Comment exploiter pleinement votre solution de Marketing Automation ?

Les outils de Marketing Automation sont largement sous-utilisés.

Beaucoup d’entreprises s’équipent d’outils très costauds et chers, comme Salesforce ou Adobe, pour finalement déployer 2 scénarios qu’ils pourraient faire avec SendinBlue pour quelques centaines d’euros.

Heureusement, c’est loin d’être une fatalité.

Dans ce webinar, les experts data / CRM de Cartelis et d’Octolis vont vous présenter un plan d’action clair pour tirer parti au maximum de votre solution de marketing automation :

Les intervenants :

  • Quentin SUREAU – Directeur Associé @ Cartelis.
  • Yassine HAMOU TAHRA – Co-fondateur et CEO @ Octolis.

Replay & présentation

 

Les ressources

Baromètre DNVB : Enseignements clés & Etude à télécharger

Le baromètre DNVB que vous allez découvrir est le fruit d’un partenariat entre Octolis et l’agence Coudac, experte en ecommerce et growth marketing. Cette collaboration a été l’occasion de faire un état des lieux des principales tendances en cours : prééminence du combo Shopify <> Klaviyo, super-performance de certains secteurs des DNVB, difficultés rencontrées par les pure players, montée en puissance des « ONVB », turbulences sur les Social Ads, etc.

Télécharger notre baromètre DNVB 2022

Bref, vous allez apprendre des tas de choses. Même nous, qui éditons une CDP taillée pour le Retail et l’Ecommerce, qui connaissons bien le marché, nous avons appris des choses :). Cet article de synthèse présente les principaux enseignements du baromètre et présente notre méthodo.

Les 6 principaux enseignements à retenir sur les DNVB en 2022

#1 La nouvelle norme = le couple Shopify + Klaviyo

Plus de la moitié (55,6%) des DNVB utilisent Shopify pour éditer et gérer leur site ecommerce. 41,3% utilisent Klaviyo pour gérer les scénarios de marketing automation.

Comment expliquer un tel succès ?

  • Une intégration parfaite

Le premier élément de réponse semble être le partenariat noué entre ces deux acteurs. A l’origine, Klaviyo a été conçu pour les utilisateurs Shopify. Ses scénarios ont été taillés pour le e-commerce. Shopify a investi pas moins de 100 millions d’euros dans le développement de Klaviyo.

Aujourd’hui, bien que Klaviyo revendique de nouvelles intégrations, notamment avec PrestaShop et Magento, son intégration la plus profonde demeure celle avec Shopify.

  • Ils permettent de passer rapidement un cap sur le Marketing Automation et le CRM

Klaviyo exploite la moindre donnée clients provenant de Shopify, si bien que le commerçant a la possibilité de créer des flux d’e-mails et de SMS avec des triggers basés sur des events Shopify et d’utiliser ces mêmes données pour des segmentations plus fines. A cela s’ajoutent des scores sur l’étagère très utiles en e-commerce (LTV, panier moyen, les conversions, la fréquence d’achat, les articles préférés…).

De plus, disposer de ces 2 outils marque la fin du marketing de masse (absence de segmentation) et permet de mettre rapidement en place les scénarios d’automation classiques (mail de bienvenue, anniversaire, etc… ) ou plus avancés (relance de panier abandonnés, relance d’inactifs, cross-selling…)

Notons également que le développement par Shopify d’une offre de système de caisse permettrait aux DNVB d’exploiter les données offline dans leurs actions marketing-ventes, ce qui est aujourd’hui une friction que nombre d’entre elles regrettent lorsqu’elles développent leur activité en point de vente.

  • Une proposition de valeur qui va dans le sens de l’histoire : une relation clients plus approfondie

Le business model des DNVB et des D2C (Direct-To-Consumer) se base sur l’absence d’intermédiaire. Cette spécificité leur permet de gérer en propre leurs données clients. De cette maîtrise de la donnée découle une exploitation minutieuse et exhaustive qui, couplée à un branding percutant, permet d’offrir une expérience client plus personnalisée et plus séduisante.

Les DNVB accordent également beaucoup d’importance à la valorisation des clients existants. D’autant plus dans un contexte où en acquérir de nouveaux coûte + cher. En effet, l’année 2022 a été marquée par une explosion des coûts d’acquisition qu’a d’ailleurs dénoncée le collectif « We Are Lucioles« . En cause :

  • Le RGPD protège désormais les internautes mais limite la précision de campagnes ce qui impacte leurs performances.
  • La multiplication des marques sur des segments limités augmente la pression sur le client web, plus versatile et de moins en moins engagé.
  • Les GAFAM exercent un monopole toujours plus offensif.

Les limites du couple Shopify – Klaviyo

A partir d’un certain niveau de développement (80 – 100 employés / + 10M de CA), les DNVB envisagent des solutions plus robustes que celles qui sont présentées dans notre baromètre. Des solutions comme Braze par exemple, sont capables de gérer simultanément le push, l’email et le sms.

Notons également que les solutions « tout-en-un » qui centralisent la gestion du front et du back-end, limitent la créativité et la capacité à aller encore plus loin sur l’UX et la connaissance clients.

#2 Les catégories Bien-être, Alimentation et Accessoires surperforment

En moyenne, les DNVB de (+30 employés) ont vu leur croissance exploser. Mais les catégories qui se distinguent sont :

  • Les Accessoires (25%)
  • L’Alimentation (39%)
  • Le Bien-être (27%)

Ce succès s’explique pour les raisons suivantes :

  • Une fréquence d’achat importante et un CAC plus bas

C’est directement à la nature des produits. On achète plus souvent des produits alimentaires ou des accessoires qu’une voiture ou un appartement. Par ailleurs, les produits appartenant à ces 3 catégories coûtent moins cher. Ce combo fréquence d’achat élevée + CAC bas créé un terreau parfait pour créer des mécaniques relationnelles puissantes.

  • Un « unit economic » favorable

Les produits de beauté, par exemple, ont une valeur élevée, un poids et des dimensions faibles. C’est idéal pour les acteurs de la vente à distance.

  • Un engagement émotionnel fort

Pour que les facteurs de choix aillent au-delà de la simple comparaison des prix il faut que le client éprouve un certain attachement à l’égard du produit ou plus largement de la marque. Les 3 catégories de DNVB qui surperforment ont en général un branding fort.

  • Une disponibilité de catégories adjacentes appropriée pour améliorer la taille du panier/la CLTV > Upsell / cross sell

Les DNVB spécialisées dans les accessoires, l’alimentaire et le bien-être ont en général un grand catalogue produits, avec des produits très souvent complémentaires et similaires, ce qui favorise la mise en place de mécaniques de cross-sell/upsell, et donc l’augmentation de la lifetime value.

  • Un faible taux de retour

Ces catégories de produits connaissent un taux de retour relativement faible comparé aux vêtements et les chaussures.

#3 Les difficultés des pures players

Nous avons remarqué que la croissance moyenne des entreprises omnicanales (online + offline) résiste mieux que les pures players (100% Ecommerce).

En effet, les 10 premiers résultats de notre Flops – 30 sont à:

  • 70% des pures players
  • 30% des flagships (DNVB ayant déployé des points de vente)

Cela s’explique par :

  • La conjoncture globale
    • Les chiffres du premier trimestre 2021 étaient excellents à cause des restrictions sanitaires liées au Covid-19. Cette baisse est en fait un retour à la normale.
    • Les produits fabriqués en Chine n’arrivent plus jusqu’aux entrepôts européens, car les ports et les usines sont à l’arrêt à cause de la stratégie zéro Covid du président Xi Jinping.
    • L’inflation modifie le comportement des consommateurs, qui font plus attention à leur portefeuille. Cela pèse sur les résultats de l’e-commerce non alimentaire.
    • La hausse des prix de l’énergie, des salaires ou encore du coût des emballages pèse sur les marges des e-commerçants, dont la rentabilité diminue à vue d’œil.
  • La loi de la concurrence, qui frappe de plein fouet le business model des DNVB déjà très exploité

L’éclosion de nombreuses DNVB ces dernières années entraîne une concurrence impitoyable sur les marges et les coûts d’acquisition. Et cette concurrence a tendance à s’accentuer quand les DNVB ciblent les digital natives.

  • Une grosse dépendance à l’acquisition en ligne, qui est aujourd’hui beaucoup plus chère.

Nous vous en parlions précédemment, le coût d’acquisition en ligne a doublé.

Vers un nouveau type d’acteurs : les ONVB

Face à l’accroissement des coûts d’acquisition en ligne, le RGPD et la versatilité du client en ligne, il est devenu plus difficile pour une DNVB d’acquérir et de retenir un utilisateur en ligne. Dans ce contexte, certaines DNVB ont commencé à s’intéresser au point de vente physique pour acquérir de nouveaux clients à moindre coût. Ce sont les ONVB ou (Omnicanal Native Vertical Brand).

A l’image de la D2C LePantalon qui a commercialisait uniquement sur son site internet avant d’ouvrir des points de vente physiques pour offrir une expérience client plus immersive.

Vous avez besoin de structurer rapidement votre relation omnicanale ?

On vous propose un template à télécharger gratuitement pour accélérer rapidement sur le sujet.

#4 Une année difficile sur les Social Ads

Les faits marquants de l’année 2022

Au niveau des social ads, 2022 fut une année difficile pour de nombreux e-commerçants. Les marques se sont heurtées à plusieurs obstacles :

  • La mise à jour de l’iOS 14 qui a rendu plus difficile le tracking des clients en ligne (entre 30 et 35% des données ont été perdues depuis iOS14) et par extension la performance de leurs campagnes publicitaires dans un contexte d’augmentation de la concurrence et donc de hausse des coûts.
  • Facebook, l’un des principaux moteurs de nombreux e-commerçants a vu son nombre d’utilisateurs diminuer pour la première fois en depuis sa création en 2004. L’un des principaux facteurs de cette diminution historique est la montée en puissance de TikTok et Pinterest qui signent les plus grosses progressions en 2022. En conséquence, les marques utilisent d’autres leviers pour diversifier leur stratégie d’acquisition en plus de leur levier principal, Facebook. Elles investissent à 44% dans Facebook Ads, à 29% dans Pinterest Ads et à 19% dans TikTok.

Notons tout de même que certains commerçants (les 25% les plus performants) ont réussi à tirer leur épingle du jeu.

Coûts20212022Variation
CPM4,48€5,74€+15%
CPC0,65%0,68%+4,5%
CTR0,77€0,85€+10%

L’augmentation du CPC induit un gros impact sur le volume de clics sortants.  Pour contenir l’augmentation du CPC, une seule solution, améliorer la qualité de ses ads pour augmenter le CTR et donc limiter l’augmentation du CPC.

Nos conclusions

Qu’est-ce qui différencie les 25% e-commerçants qui ont les meilleures performances ?

Peu importe la taille du business, il y a deux facteurs sur lesquels ils sont meilleurs :

  1. La croissance de trafic en moyenne +250% (pour les – de 500k€) à +67% (pour les + de 5M) de croissance de trafic par rapport à l’année précédente. Ces performances s’expliquent donc par l’augmentation massive des dépenses publicitaires.
  2. Le taux de conversion 2,62% en moyenne, + de 80% supérieur à la médiane à 1,46% des sites. Ce qui signifie que leurs produits et offres convertissent beaucoup plus de clients à l’échelle.

Évidemment, la combinaison des deux est un total banger puisque si vous augmentez votre trafic, mais que votre taux de conversion reste le même, autant vous dire que vous générez de la croissance pure.

#5 Levées de fonds & profils des dirigeants

Les fonds les plus représentés dans notre baromètre 2022 sont les suivants :

  • Experienced Capital (6.5%). Ce fonds d’investissement est dédié aux marques premium D2C.
  • Founders Future (6.5%). Créé en 2018 par l’entrepreneur Marc Menasé, ce fonds finance principalement des startups de la tech et du digital.
  • The Family (4,3%). Fonds d’investissements en capital-risque qui a notamment investi dans CaptainTrain, Algolia ou PayFit.

Vous trouverez ci-dessous ces 3 fonds d’investissements et leurs investissements associées :

A noter que la majorité des levées de fonds de notre baromètre (21/30) concerne les DNVB dont le nombre d’employés est inférieur à 30 collaborateurs.

En ce qui concerne le profil des dirigeants, voici les chiffres clés que nous avons identifiés :

  • Plus de 3/4 d’entre eux sont des hommes.
  • Plus de la moitié des dirigeants sont issus d’une école de commerce.
  • L’âge moyen pour créer une DNVB est de 36 ans.
  • L’école de commerce la plus représentée est HEC Paris.

La méthodologie suivie pour construire notre Baromètre DNVB

#1 Identification des acteurs + 1er niveau d’enrichissement via LinkedIn Sales Navigator

Pour sélectionner les 380+ acteurs DNVB qui figurent sur notre baromètre 2022, nous avons dans un premier temps mené une recherche sur Sales Navigator.

#2 Calcul et estimation du taux de croissance par entreprise

Pour établir le taux de croissance des DNVB sur 1 et 2 ans, nous nous sommes basés sur deux approches :

Lorsque le nombre d’employés de la DNVB était égal ou supérieur à 30, LinkedIn Premium nous fournissait son taux de croissance sur 1 et 2 ans.

Voici un exemple avec Jimmy Fairly :

En revanche, lorsque ce nombre était inférieur à 30, LinkedIn Premium ne nous fournissait aucune information.

Pour pallier cela, nous avons calculé le taux de croissance des DNVB concernées en calculant leurs taux de croissance linéaire sur 1 et 2 ans avec comme constante 2 employées à la date de création.

Voici un exemple avec la DNVB Hypnia :

  • Date de création : 2016
  • Nombre d’employés en 2016 : 2 (notre hypothèse)
  • Année de l’étude : 2022
  • Nombre d’employés en juillet 2022 : 16

Selon la méthode de calcul linéaire, nous avons  :  16 / 2 ^ ( 1 / 2022 – 2016 ) ) – 1  = 26%

Ainsi depuis 2016, le taux de croissance sur 1 an d’Hypnia est de 26% d’après notre méthode de calcul linéaire.

Pour le taux de croissance sur 2 ans, nous avons mis ce résultat au carré.

#3 Données enrichies par différents outils sur les dimensions clefs

Stack marketing

Pour rappel, la stack marketing est la somme des outils utilisée par l’équipe marketing pour mener à bien ses projets et mesure leur efficacité. Les types d’outils les plus utilisés sont :

  • le CRM ou Customer Relationship Management comme HubSpot ou Salesforce.
  • Le CMS ou Content Management System comme PrestaShop ou Shopify.
  • L’outil de Marketing Automation comme SendinBlue ou Klaviyo.
  • L’outil de Ticketing comme Zendesk ou Gorgias.

Pour parvenir à identifier le plus d’outils marketing possibles en un minimum d’efforts, nous avons utilisé Wappalyzer.

Funding

Pour identifier le montant des levées de fonds et le nom des fonds d’investissement qui leur sont associés, nous avons exploité les données d’un référent en la matière : Crunchbase

Dirigeants

Enfin, pour approfondir et enrichir notre étude, nous avons fait appel à SocieteInfo pour identifier le nom des dirigeants.

#4 Croisement et analyse des données

Une fois que toutes ces infos étaient en notre possession, nous avons travaillé d’arrache-pied pour aboutir à des insights clés. On espère que notre ressource vous plaira !

Télécharger notre Baromètre DNVB 2022

Pour accéder à la ressource, il vous suffit de vous inscrire en quelques clics.
Au clic sur le bouton ci-dessous, vous arriverez sur un formulaire d'inscription rapide. Une fois inscrit, il y a un onglet "Ressources" qui apparaîtra dans le menu du haut qui vous permettra d'accéder à l'ensemble des ressources en téléchargement gratuit. Avec un peu de chance, vous aurez une bonne surprise, il y aura d'autres ressources qui vous seront utiles 😊

👉 Je m'inscris pour télécharger la ressource

Comment mettre en place du cross-selling en Retail/Ecommerce ?

Comment mettre en place des scénarios de cross-selling depuis son outil de Marketing Automation ? Épineuse question. Les outils de Marketing Automation vous permettent de mettre en place et de déployer plusieurs cas d’usages classiques.

Mais si vous souhaitez aller un peu plus loin, la tâche peut vite s’avérer complexe. Surtout quand on est une PME…Dans cet article, nous allons vous donner les clés pour franchir cette étape.

A quel moment faut-il envisager le cross-selling ?

La montée en régime du cross-selling moderne

Le cross-selling est devenu plus visible, et surtout plus intelligent à l’ère du digital. On pense naturellement aux recommandations produits d’Amazon (qui étaient responsables de 35% des ventes dès 2006…) ou aux bornes du McDonald’s qui nous poussent à ajouter une petite glace à la fin.

cross sell vs up sell
La plupart des retailers ont mis en place des recommandations produits sur le site web, voire par email également. On estime généralement que cela permet d’augmenter le panier moyen de 5 à 20%. La fourchette est large car l’impact du cross-sell est rarement mesuré correctement.

Pour augmenter le panier moyen, les moteurs de recommandations privilégient :

  • Des produits complémentaires au produit initial

produits complementaires cross selling

  • Des produits populaires (les produits les plus prisés par les clients passés)

produits populaires cross selling

  • Des produits pouvant générer un achat d’impulsion (juste avant la validation du panier)

cross selling produits impulsifs

En revanche, si ce sont les meilleures recommandations à court terme, ce ne sont pas forcément celles qui augmentent la valeur de vie à long terme. A long terme, ce ne sont pas les clients qui ont acheté un sac avec leur ordinateur qui seront les meilleurs clients, ce sont plutôt ceux qui ont auront acheté un ordinateur, un livre et une place de spectacle.

Différencier cross-selling et diversification produits

La diversification produits est une stratégie de cross-selling de long terme. L’objectif est d’augmenter le nombre de catégories différentes dans lequel un client a acheté au moins un produit. On peut aussi le formaliser différemment, l’objectif est d’augmenter la part de clients qui ont acheté au moins un produit dans plus de N catégories.

Cette deuxième formulation est souvent plus pertinente car il n’y a pas d’intérêt à pousser un client à tester toutes les catégories, l’enjeu c’est plutôt d’atteindre un niveau minimum de diversification chez davantage de clients.

cercle vertueux cross selling

Quand on analyse des bases clients de retailers, on se rend compte que les clients « multi-catégories » représentent très souvent une grosse partie des clients dépensant le plus ET des clients les plus fidèles. Ce sont des clients qui ont développé une véritable relation de confiance avec la marque. On parle ici d’une corrélation et non d’une relation de cause à effet, c’est un cercle vertueux qu’il faut alimenter.

Les clients satisfaits par leurs premiers achats, dans une ou deux catégories, seront plus enclins à découvrir une nouvelle catégorie de produits. Et si ce nouvel achat s’avère satisfaisant, ils achèteront désormais plus facilement dans d’autres catégories de produits, et ainsi de suite.

Attention toutefois à ne pas généraliser trop vite. Les opérations de cross-selling, ou de diversification produit, sont toujours rentables globalement, mais pas forcément pour tous les clients. Si vous poussez une nouvelle catégorie de produits à un client mécontent, cela pourrait s’avérer négatif. Voici une belle étude qui illustre les limites du cross-selling pour certains profils clients.

Quand faut-il investir sur la diversification produit ?

C’est une démarche qui fait davantage sens quand :

  • Vous avez plus de 40% de vos clients ayant réalisé plus de 2 achats qui ont acheté dans plus de 2 catégories de produit différentes.
  • Les clients multi-catégories ont une LTV  au moins 30% supérieure aux autres. Vous pouvez comparer les clients de plus 2 ans ayant acheté dans 4+ catégories différentes par rapport à ceux ayant acheté dans 1 ou 2 catégories différentes.
  • Vous pouvez vous permettre d’attendre un an pour mesurer les fruits du travail.

Comment mettre en place du cross-selling ?

Prérequis pour mettre en place une stratégie de cross-selling :

Sources de données

  • Liste des clients
  • Achats réalisés
  • Produits achetés
  • Matrice de complémentarité entre catégories

Outils

  • Marketing Automation
  • Outil de transformation de données (comme Octolis ;-))

#1 Construire une matrice de cross-selling pour identifier les opportunités

Pour définir quelle(s) catégorie(s) de produits il faut recommander, la première étape c’est d’observer les corrélations historiques. Les clients ayant acheté dans la catégorie A ont-ils davantage acheté de produits dans la catégorie B, C ou D ?

Pour cela, on vous invite fortement à commencer par formaliser une matrice de cross-sell par catégories. Pour que les chiffres soient plus signifiants, on exclue généralement les clients ayant réalisé un seul achat.

Voici à quoi cela peut ressembler :

matrice cross sell
Dans l’exemple, on voit qu’il y a 54 230 clients ayant acheté au moins un produit de la catégorie A, et parmi eux, 22,7% ont également acheté un produit de la catégorie D. On ne sait pas si c’est avant ou après, mais on observe une corrélation.

#2 Construire une deuxième matrice avec les catégories recommandées

L’objectif est de construire le tableau qui permet de définir pour chaque client, quelles sont les catégories de produits à recommander en fonction des catégories de produits dans lesquelles il a déjà acheté.

La première matrice doit nous servir de base pour ce travail. Si on observe que 30% des clients ayant acheté dans la catégorie A ont aussi acheté un produit de la catégorie C, alors qu’ils sont 5% à avoir acheté dans la catégorie D, on a envie de recommander la catégorie C aux clients ayant acheté dans la catégorie A.

A nuancer néanmoins, car la connaissance de votre métier peut vous amener à faire des corrélations de produits qui ne sont pas encore observables dans l’historique d’achat. Les raisons peuvent être diverses :

  • Il peut s’agir d’une nouvelle catégorie de produit, donc peu d’historiques de données
  • Il peut s’agir d’une catégorie de produits très transversale plus facile à pusher,
  • Il peut s’agir d’une catégorie de produits avec une forte marge, etc.

Il y a plusieurs manières de construire cette matrice. Au départ, on recommande souvent que cela reste simple, tout en donnant un peu de souplesse aux responsables produits souhaitant faire évoluer les recommandations. Cela peut prendre la forme d’une note de 0 à 10 qui évalue la sensibilité d’un client d’une catégorie pour les autres catégories.

Voici à quoi peut ressembler la matrice de recommandation de catégories.

matrice recommandation de produits

#3 Ajouter des champs calculés par client pour avoir le nombre et la liste des catégories

Une fois ce travail réalisé au niveau des catégories, on peut commencer à travailler par individu. On commence généralement par calculer pour chaque individu :

  • Le nombre de catégories de produits dans lequel il a acheté au moins un produit. Ce sera le KPI à améliorer qui sera suivi dans le temps.
  • La liste des catégories dans lesquelles un produit a déjà été acheté.

#4 Ajouter un champ calculé avec les catégories recommandées

On arrive à l’étape la plus complexe, il s’agit de créer un champ calculé avec les catégories à recommander en priorité. La démarche est relativement simple, on part de la liste des catégories dans lesquelles un produit a été acheté, et pour chacune de ces catégories, on regarde dans la matrice de complémentarité quelles sont catégories à suggérer.

Généralement, on prend les 2 catégories les plus corrélées à condition qu’elle dépasse au moins X% de corrélation dans la première matrice. On aboutit à la fin à une liste de catégories complémentaires aux catégories initiales.

Pour faire ce travail correctement, il faut aussi intégrer une logique de poids, afin d’être en mesure de prioriser la liste des catégories obtenue à la fin. Si un client a acheté 10 produits de la catégorie A, et un seul de la catégorie B, il est préférable de lui recommander des catégories de produits complémentaires de la catégorie A plutôt que de la catégorie B.

#5 Inviter les clients à découvrir les catégories complémentaires

Le plus simple est d’utiliser le canal email, mais il est tout fait possible de pusher les catégories complémentaires sur le site web ou dans vos publicités. Pour cela, il faut envoyer les champs calculés définis dans les étapes précédentes dans votre outil de Marketing Automation, et créer un scénario pour faire découvrir les catégories complémentaires.

Ce type de scénario est souvent restreint aux clients ayant déjà acheté plusieurs fois, dans plus de 2 catégories différentes. Il peut être déclenché X jours après le Nème achat (N > 1), à condition que le nombre de catégories dans lequel le client a déjà acheté soit supérieur à 2.

Dans une même séquence, on peut décider de pousser une ou plusieurs catégories, tout dépend du type de produits / services. Plus les produits sont chers, et supposent d’être bien présentés, plus on privilégie de présenter une seule catégorie de produits par message. L’email peut introduire la catégorie avec un zoom sur les 3 produits populaires de cette catégorie, et un code promo restreint sur la catégorie si cela fait sens.

Déployer en temps réel le cross-selling tout en gardant la main sur vos données

Auparavant, le déploiement de ce type de cas d’usage nécessitait l’appui de l’équipe technique, qui a une bande passante déjà bien remplie, ou l’allocation d’un budget spécifique pour faire appel à une agence. On était proche du lobbying interne.

L’étape d’après consistait à suivre le projet. Mais les échanges étaient souvent chronophages, laborieux et asynchrones. Autant vous dire que tout changement de stratégie pouvait nécessiter plusieurs semaines voire plusieurs mois de concertation avant d’être finalement adopter ou rejeter.

Aujourd’hui, il existe des CDP comme Octolis qui vont vous aider à :

  • Connecter vos sources de données afin d’avoir une vue unifiée

  • Créer une audience avec vos contacts, vos achats et vos produits et le GSheet matrice catégories
  • Exécuter rapidement en no-code (ou via requêtes SQL si un jour vous disposez d’une compétence data dans votre équipe) vos champs calculés « simples » :
    • Nombre de catégories où un achat a été réalisé
    • Liste des catégories où un achat a été réalisé
  • Ajouter le champ calculé avancé « Recommandation catégories »

  • Déployer vos cas d’usage en temps réel dans vos outils de Marketing Automation (Klaviyo, MailChimp, Braze…). Tout en vous laissant un niveau de contrôle et de transparence total.

Octolis s’appuie sur la logique de poids – évoquée précédemment – mais également sur d’autres données (en option) comme les pages visitées pour affiner et personnaliser la pertinence de la recommandation produits. CDP accessible pour les PME, Octolis permet aux équipes marketing de gagner en autonomie en en contrôle sur leurs données.

Choix Prestataire Data – Top 100 des agences et cabinets de conseil

Les prestataires data (cabinets de conseil, SSII, agences) sont de plus en plus nombreux. Leurs périmètres d’action sont larges et tous ne sont pas experts dans les mêmes domaines.

On peut faire appel à une agence data pour beaucoup de sujets différents : Data Management, BI, Web Analytics, ou encore Data Science.

Des terminologies plus ou moins claires qui laissent planer le doute quant aux compétences qui leur sont associées. Choisir le bon prestataire, dont l’expertise correspond à vos besoins est difficile dans un écosystème si hétérogène.

Nos clients font souvent appel à ces prestataires lorsqu’ils structurent leur dispositif data. On croise beaucoup d’acteurs différents et on a eu envie de vous faciliter la vie.

Résultat : Un top 100 (rien que ça!) des prestataires data au niveau français, classés par domaines d’expertise.

Choisir un prestataire pour un projet de Data Management

Le rôle d’un prestataire en Data Management

La notion de Data Management fait référence à l’ensemble des processus liés à l’intégration, au stockage, à l’organisation et à la maintenance des données que crée ou collecte une entreprise.

L’objectif d’une stratégie de Data Management est de standardiser, dédupliquer et désiloter des données issues de sources différentes et donc de formats très variés. Ces données saines et exploitables sont ensuite mises à la disposition des outils d’activation et d’analytics pour améliorer la performance opérationnelle et la prise de décision ‘data-driven’.

Plus concrètement, le rôle d’un prestataire spécialisé en Data Management consiste à cartographier les flux de données en fonction des objectifs métiers, et à aider à faire les bons choix en termes de dispositif data. Ce prestataire intervient en amont de l’activation : sur l’ingestion et la transformation des données.

Sélection d’un prestataire en Data Management

NomDescriptionSpecialitésNombre d'employés
Meet Your PeopleMeet Your People c’est une équipe de consultants CRM indépendants basée à Paris.Notre mission ?Vous conseiller et vous accompagner dans la mise en œuvre d’une stratégie CRM éthique, responsable et performante. Donnons du sens à vos actions ! CRM , marketing , Marketing client , data, digital, connaissance client, expérience client, feedback management, voice of customer, parcours client, marketing automation, customer journey3
UnNest - Agence Data MarketingA la frontière de la Tech et de la Data, UnNest accompagne les équipes marketing in-house ou en agence pour utiliser au mieux leur donnée "First party".Nous mettons en place pour nos clients une équipe data externalisée, capable de délivrer des projets et des applications data en un temps record pour les marques, les "scale up" et les agences de marketing digital.Analytics, Data Consulting, Digital Analytics, Data Marketing, Cloud Data Warehouse, RGPD, Data Engineering, Data Analysis, Tracking, Google Big Query, Fivetran, Google Cloud Platform, ETL, Martech11
CartelisNotre culture business alliée à notre forte expertise technique nous permet d’accompagner avec succès les organisations dans l’organisation, le paramétrage et l’exploitation des outils de webanalyse.CRM, Marketing client, Relation client, Parcours Client, GDPR, RGPD, DMP, Données Client, Service Client, Automated marketing Plan Relationnel, RCU, CDP, Marketing Automation, Marketing Opérationnel, AMOA, Consultant, Conseil, Agence, Cabinet Conseil, Parcours Client, GRC, PRM, Fidélisation, Programme Fidélité14
Real Consulting DataReal Consulting Data is a digital and data science company dedicated to healthcare. It helps stakeholders accelerate their decision-making through a structured data ecosystem. Business Intelligence, Real world evidence data, Market Research, Open Data, analytics, Real life data, Big data, Smart data, Health data, Data science, Datamining, Consulting, Market Access28
CustUpCustUp est un conseil opérationnel en Relation Clients.Nous structurons et mettons en œuvre le Marketing Clients et les schémas de dialogue des entreprises.Pour ce faire, nous utilisons le CRM, le Marketing Automation et les Centres de Contacts.CRM, Centre de contacts, Abonnement, Marketing client, Relation client, Parcours Client, GDPR, RGPD, DMP, Données Client, Service Client, Automated marketing, Formation Relation Client, Plan Relationnel, RCU, CDP, Marketing Automation, Marketing, Marketing Opérationnel, AMOA, AMOE, Consultant, Conseil, Agence, Cabinet Conseil, CX, CMJ, Parcours Client, GRC, PRM, Fidélisation, Programme Fidélité29
ADBIRéinventer les processus métiers, optimiser les systèmes d’information ou rendre les nouvelles technologies de l’information et de la communication accessibles et efficaces pour toutes les entreprises.Business Intelligence, Big Data, Master Data Management, Expertise TALEND, BI59
SingulierCombining business consultancy, digital design thinking, marketing, technology and data to rapidly solve complex business problems for CEOs, their executives and investors. Digital strategy, Digital transformation, Innovation, Data, UX, CRM, Branding, Digital marketing, Digital IT, Change management, Digital coaching, E-commerce, Due diligences72
ADDINNADDINN est un cabinet de conseil et d'ingénierie en systèmes d'informations, spécialisé dans les secteurs de la Banque, de l'Assurance et de la Grande Distribution.Pilotage / Gouvernance des projets, Transformation SI, Big Data, DevOps, Assistance Technique, Cartographie des processus, Digital & Software Factory75
Keley ConsultingFrom strategy to roll-out, from ideas to reality. Keley helps start-ups to grow and big companies to become start-ups again. We offer an integrated approach that combines Strategy, Data, Consulting, Technology and Design, with smart profils.Stratégie digitale, Omnicanal, Stratégie & expérience client, E-commerce, CRM, Pilotage de projets, Stratégie data, Open Innovation, Acquisition, SEO, UX & Design thinking, Design d'interface, CRO, Branding & communication, Data-driven marketing, Intelligence augmentée, Ingénierie83
eFrontecheFrontech, société de conseil et intégrateur spécialisé, accompagne la mise en œuvre de solutions digitales au service de la relation client et de l’intelligence des données.CRM, Salesforce, SIEBEL, BI, Oracle Sales Cloud, Rightnow, OBIEE, Oracle CRM On Demand, Cloud, Salesforce Sales Cloud, Salesforce Service Cloud, Salesforce Marketing Cloud, Microsoft, Dynamics CRM, Oracle Marketing Cloud, Eloqua, Pardot, Data, IA99
DataValue ConsultingDataValue Consulting est un cabinet de conseil IT qui accompagne les entreprises des secteurs privé et public dans la valorisation de leur data.Le cabinet spécialiste s'appuie sur une double compétence de ses consultants en management et en technologie.Conseil, Stratégie IT, Big Data, Data Management, Pilotage de la performance, Business Intelligence, EPM, Saas, Management, Technologie, AMOA, Expertise technologique, Data Marketing, Data, Données, Gouvernance de la Data, Consulting, Stratégie, Digital, Finance, Datavisualisation, Data Management, Data Intégration104
Rhapsodies ConseilNotre mission consiste à accompagner nos clients dans leur transformation, depuis la définition de la stratégie des systèmes d’informations jusqu’aux étapes de mise en œuvre opérationnelle et d’accompagnement du changement.Transformation Agile, Transformation DATA, Architecture SI, Architecture d'Entreprise, Pilotage des Transformations, Performance Economique IT , Internal Digital Experience, Sourcing & Vendor Management, Monétique, Paiements, Architectures Innovantes, Gouvernance & Transformation du Run, Risques, Réglementaire & Conformité107
TALYSTo better serve its clients, the firm is organized around 3 Business Units:• The Consulting Business unit, The Solutions Business unit, .• The Expertise Business Unit.Assistance à la maîtrise d'ouvrage, Organisation / Business process management, Conduite du changement, Data Cleansing, Choix de solutions, Risk Management, Digital Transformation, Design Thinking, BI, Nearshoring, Fintech, Credit Management System, Microfinance solutions, Stratégie RH114
Apgar ConsultingApgar Consulting is a leading data advisory company, recognized by Analysts, that supports its customers in their journey to build a foundation for trusted data. MDM, Data Governance, DQM, Data Migration, Information Strategy, Metadata Management, API, iPaaS, Master Data Management, Data Integration, Data Integration, Meta Data Management, Data Preparation, UX Design, Data visualization, TIBCO, EBX, Data Virtualization, Semarchy, Boomi, Data Catalog, Data Platform, Data Fabric, Data Architecture, Data Advisory126
Kea & PartnersKea & Partners est le premier cabinet européen de conseil en stratégie "Entreprise à Mission", au sens de la loi Pacte, également membre de la communauté B Corp. Depuis 2001, nous œuvrons aux côtés des directions générales à un capitalisme à visage humain. stratégie & croissance, transformation, transformation responsable, Business Models, Performance & compétitivité, Management & leadership, Excellence opérationnelle, Gouvernance & structure, Entreprise à Mission, B Corp, Impact, Responsabilité, Innovation, Digital, Data, Systèmes d'information, Sociodynamique, Actifs Immatériels, Stratégie220
KeyrusCreator of value in the era of Data and DigitalKeyrus helps enterprises take advantage of the Data and Digital paradigm to enhance their performance, assist them with their transformation and generate new levers for growth and competitiveness.Management & Transformation, Data Intelligence, Digital Experience2387
Business & DecisionBusiness & Decision is an international Information Services Company, specializing, since its creation, in operating and analyzing Data.Data, Digital, CRM, Digital Transformation, Data Science, Data Visualisation, Gouvernance des données, Intelligence artificielle, Protection des données, Green AI, Data Mesh, Customer experience, Data Intelligence, Data Architecture, Customer Management, Data Cloud, RGPD2919
Gfi worldGfi became Inetum, Poisitive digital flow. Present in 26 countries, Inetum is a leading provider of value-added IT services and software. Inetum occupies a differentiating strategic position between global firms and niche entities. Consulting, Applications Services, Infrastructure Services, Software, smart cities, IoT, Blockchain, DevOps, artificial intelligence, Industry 4.0, Digital Transformation, Outsourcing, Cloud, Innovation, Application Management, Cybersecurity, data management, digital banking, digital retail4706

Quelles sont les différentes composantes de la stack data moderne ?

Vous souhaitez en savoir plus sur les outils et les briques de la stack data moderne ? Nous avons rédigé un article complet sur le sujet qui vous permettra d’y voir plus clair. Découvrez notre introduction à la stack data moderne.

Choisir un prestataire pour un projet BI

Le rôle d’un prestataire BI

L’objectif de la « BI » ou Business Intelligence est de transformer des données brutes en leviers d’actions pour l’entreprise afin d’orienter les prises de décisions.

Un prestataire en BI va donc s’attacher à rendre les données plus accessibles et lisibles à travers des dashboards ou reporting.

Un bon prestataire en Business Intelligence est très souvent un profil hybride, doté d’une double casquette :

  • Technique – Challenge la fiabilité des données, propose de les auditer si besoin, capable de traiter les données si besoin. Solide connaissance des principaux outils (Tableau, Power BI, Qlik) et vision ‘fonctionnelle’ pour vous proposer la meilleure approche.
  • Métier – En mesure de se mettre à votre place pour parfaitement saisir vos enjeux et vos objectifs quotidiens. Étudie vos fonctionnements et process à travers des interviews poussés avec les utilisateurs de la solution en question.

Sélection de prestataires BI

NomDescriptionSpecialitésNombre d'employés
MFG LabsMFG Labs is a data consultancy and implementation company that supports companies in improving their decision-making, automating their processes and creating new services through data science, design and cutting-edge technologies.Data analysis, Interaction design, Strategic consulting, Data science, Infrastructure, Development, Data engineering, Web analytics, Digital media, machine learning, deep learning, artificial intelligence, Operational research, big data, software development, Cloud, UX design, Decision-making tool, Statistics, applied mathematics, AI, reinforcement learning, optimisation, Data Strategy, logistics, media, decision making24
SmartpointSmartpoint est un acteur indépendant du conseil et des services en technologies de l'information, spécialisé en e-business, Customer Relationship Management et Business Intelligence.Data, IA, Machine Learning, Deep Learning, Data Management, Cloud data platforms, Data insights, Devops, Data Quality Management, Business Intelligence, Smart Data, Data lake, Datawarehouse, Analytics, développement, Data Pipeline, Big Data, Data visualisation, Azure, AWS, GCP, Microstrategy, Qlik, Talend, Microsoft, Power BI, Tableau, Thoughtspot, MongoDB, Tibco, .NET, Angluar, Teradata, SGBD, IBM, Oracle50
MLMConseilMLMCONSEIL est une société de conseil et de développement en ingénierie informatique, qui a pour but d'apporter une réponse fiable et innovante aux attentes des entreprises en tenant compte de leurs besoins et enjeux stratégiques.Business Intelligence, ERP & CRM, Sécurité & Réseaux, Les Métiers AMOA & AMOE, Big Data, BI, ESN, SI, Intégration de système , Data Science51
ActinvisionFounded in 2014, Actinvision strives to give you the means to analyze and generate value from your data, helping your organization adopt a data driven culture.Business Intelligence, Data Integration, Data Visualization, BI Applications, Tableau Software, Analytics, Data Prep, Alteryx, Data Science, Self Service BI, dataiku, Datawarehouse, Snowflake, Power BI, Matillion, Talend, Informatica64
SolutionecSolutionec – Solution Excellence Center – is a Paris-based business intelligence and analytics consulting firm that delivers ambitious and innovative solutions for the leading players in the healthcare and life sciences industry worldwide.Business Intelligence, Data Science, Analytics, Market Access, Forecasting, Sales Force Effectiveness, Performance Reporting, Market Assessments, Artificial Intelligence, Project Management, Marketing & CRM Analytics, Key Opinion Leader Analytics, Competitive Intelligence, Social Media Monitoring and Analysis, Data Managment74
TRIMANE | Expert BI et Big DataFondée en 2005, TRIMANE est une société de services à taille humaine (82 collaborateurs), experte dans le domaine de la BI et du Big Data.BI , Décisionnel, Big Data, Datavisualisation, Data Science, Data Analyse, Cloud, Data Engineering , IA76
NEOSYSNeoSys est un cabinet de conseil spécialisé dans la transformation digitale des entreprises.Gestion de projet, Conseil en systemes d'information, Developpement informatique, Externalisation / Offshoring, BI & Data, Business Solutions, ERP, CRM, CMS, DevOps, Business Productivity80
RS2iChez RS2i, nous avons à cœur de réaliser votre transformation digitale, et ce, grâce à notre expertise acquise de longue date.📝 ➟ 💻Depuis 30 ans, RS2i est reconnu comme le spécialiste de l’ingénierie informatique et intégrateur de solutions logicielles. Transformation digitale, BPM, ECM, Big Data, BI, ERP, Case Management, Gestion de projets, Business consulting, Systèmes d'information, Ingénierie, Smart automation, OPCO, GED, IA, RPA, Data Virtualization, DATA89
Elevate | Agence Data & Technologies MarketingElevate, agence conseil spécialiste en Data Marketing, Data & Tech et Consumer & Market Insights. Nous intervenons à la croisée du conseil et de la mise en oeuvre opérationnelle sur des projets Digital & Data en délivrant un accompagnement bout-en-bout.Marketing, Webanalytics, Digital Analytics, Conversion, Adtech, Martech, Datalake, DMP, CRM, Digital Consulting, Data Consulting, Marketing Automation, Tracking, AB Test, Dashboard, Attribution, Analytics, Big Data, Data, Data Visualization, Data Science, CRO, MVT, Data Analysis, Personalization, Data Engineering, Social Listening, Customer Voice91
MydralMydral est une Data Company. Notre mission est d’utiliser l’Analytics comme levier de transformation de l’entreprise. Nous démocratisons les outils de Data Prep et de Data Viz en les rendant accessibles à tous.Business Intelligence, Business Discovery, Data Discovery, Projets BI Agile et Big Data, Formation et création de centres de compétences BI, Big data, BI Agile, Preuve de concept, Tableau Software, Centre de formation Tableau Software et Alteryx, Intelligence Artificielle, IA, Analytics, DataPrep, DataViz, DataScience93
POLARYS"Offrir la meilleure expérience analytique à nos clients"​.POLARYS est spécialisé dans le conseil, la conception et la mise en œuvre de projets décisionnels, Créée en 2004 par Eric Guigné, la société compte aujourd’hui plus de 160 collaborateurs qui conjuguent expérience métier et maîtrise des technologies.Business Intelligence, Big Data, TMA, EPM, Conseil & Intégration, Pilotage de la performance, Reporting, Budgeting, Analyse, Pilotage de la masse salariale, Contrôle de gestion social, Gestion des rémunérations variables, Schéma directeur SI, AMOA, data science, datavizualisation, BI98
KYUKYU Associés, cabinet de conseil en Management vous accompagne sur vos enjeux de croissance, d’efficacité et de maitrise des risques.Créé en 2002, KYU compte aujourd’hui plus d’une cinquantaine de consultants à Paris, Londres et Cologne au service de grands groupes français et internationaux.Offre et Expérience Client, Opérations, Risk Management, Customer Relationship, Change Management, Achats, Supply Chain, Lean Management, Etudes prospectives, Développement Produits, Assurance, Consulting, Systèmes d'information, Cyber, Business Continuity, Développement Produit, RSE, SAV, BI, Achats, Emploi, Formation, Compétences, Développement Durable101
ANAYAAnaya a été créée en 2005 avec la Business Intelligence comme cœur de métier qui a naturellement évolué vers les technologies du Big Data.Conseil, SSII, Risk, Décisionnel, Business Intelligence, Marketing Intelligence, Big Data, MOA Banque107
DecideOm - Expert Data100% Data // Analysez mieux, Décidez plus vite. DecideOm vous donne les moyens de transformer vos données en indicateurs pertinents, pour faciliter le pilotage de votre activité et optimiser vos performances.Informatique décisionnelle, Elaboration budgétaire, Qlik : Qlik Sense, QlikView, Business Intelligence, Tableau Software, ETL, Datavisualisation, MyReport, Analyse cartographique, Reporting, Stambia, Jedox, NPrinting, Talend, Snowflake, Alteryx, Datapreparation, Data-Science, Prédictif, KPI, Indicateurs de performance110
Augusta Reeves - SAP Global PartnerAugusta Reeves was founded in 1998 as an IT services company with three areas of expertise: 1. Integration of SAP solutions- Back-office solutions ECC 6.0 (all modules) 2. The integration of Electronic Document Management (EDM) solutions 3. The integration of SOA architectures and new associated technologies.SAP, ERP, ECC, CRM, Hybris, SCP (SAP Cloud Platform), SAC (SAP Analytics Cloud), Cloud, Innovation, Transformation Digitale, Conseil Système d'Information, S/4 Hana, S/4 Hana Cloud, C/4 Hana, SAP Business ByDesign, Ingénierie & Services, Construction, Wholesale, BI Décisionnel, BTP, FIORI128
Siderlog ConseilCabinet de conseil - Transformation des Métiers- Performance des organisations- Valorisation des donnéesConseil en management, organisation, RH, Conseil en management des SI, Conseil opérationnel SI - AMOA, Management de projets, Conduite du changement, Business Intelligence / Big Data, Digitalisation, digital143
CylleneChez Cyllene, on couvre le spectre complet de votre besoin en termes de :📣 Conseils🧬 Définition d’architectures☁️ Hébergement & Services managés🔐 Cybersécurité & Formations♟ Déploiement de technologies applicatives et web🎲 Data Intelligence & Data Analytics.Hébergement, Infogérance, Infrastructure, Cloud, Amazon Web Services, Microsoft Azure, Hybridation, Gestion globale de la sécurité, Audit, Réseaux, Délégation technique, Services Collaboratifs, Poste de travail, Développement d'applications, Marketing digital, Développement de sites internet220
AVISIAFounded in 2007, AVISIA has become over the years a leading player in Data, Digital & Technologies.Through a passionate team, we are specialized in Consulting, Integration and the realization of Data Centric projects.Business Intelligence, Performance Analytique, Big Data, Conseil & AMOA, Data Science, Digital, Data Engineering, Décisionnel, Web Analytics, Google Cloud Platform, Dataiku, SAS, Google Analytics226
MicropoleMicropole partneres its customers in the creation of high value-added projects by helping them in their transformation at organizational, functional and technical levels.consulting, engineering, training, e-commerce, relation client, business intelligence, transformation digitale, pilotage de la performance, gouvernance des données, master data management, connaissance client, élaboration budgétaire, big data, Digital Experience, Data intelligence1269

Les meilleurs outils de BI

Quelles sont les différences entre un outil de data viz et un outil de BI ? Quels sont les meilleurs outils ? Comment les comparer ? On répond à toutes ces questions comparatif des meilleurs outils de Data Viz.

Choisir un prestataire pour un projet Web Analytics

Le rôle d’un prestataire Web Analytics

L’analyse Web est le processus de collecte, de traitement et d’analyse des données d’un site Web.

Les compétences que vous devez attendre de votre agence d’Analytics sont les suivantes :

  • Analyse de l’activité de vos utilisateurs sur votre site web via des outils de tracking (Google Analytics, Matomo, Jitsu).
  • Définition des KPIs à analyser, des objectifs à atteindre et d’un plan de taggage, qui permettront de visualiser l’activité en ligne.
  • Cartographie du parcours utilisateur et optimisation de l’UX / UI.
  • Identifier les canaux et les actions pour générer plus de trafic : Social Ads, Search Ads, SEO.
  • Optimiser la conversion on-site via des outils comme Optin Monster et de l’AB Test.

Cela nécessite bien sûr d’être très proche des équipes métiers et d’avoir une très bonne compréhension des enjeux business.

Sélection de prestataires en Web Analytics

NomDescriptionSpecialitésNombre d'employés
BorylDu conseil à la mise en œuvre opérationnelle, nous permettons aux entreprises de toute taille disposant d’un business en ligne de booster leur croissance en collectant et transformant leurs données marketing (analytics, média, CRM, back-office, etc) en actions concrètes et intelligentes.6
StratelloExpert du conseil et de l’accompagnement en stratégies marketing clients omni canal, notre mission a pour objectif d’accélérer vos performance business grâce à une meilleure Expérience client.Marketing clients, Omnicanal, Crosscanal, Multicanal, Parcours clients, ROI, Retail, CRM, Marketing web, Cabinet conseil, Conseil, Consulting, Consultant, Conseil marketing, Relations clients, persona, RGPD, marketing automation, design thinking, automobile, programme de fidélité, tourisme, banque et assurance, Experience client12
TrackAdTrackAd develops technologies to improve the performance of digital advertising campaigns.They address the challenges of recruiting new customers, monitoring ROI, analyzing contribution and automating data collection.eCommerce, Data Management Platform (DMP), ROI, Performance Marketing, Analytics, Predictive Marketing, Tag Management, Data-driven Marketing, Acquisition, CRM, Machine Learning, Artificial Intelligence, Data Collection, Advanced Algorithms, Affiliation, Fraud Detection, Marketing Campaigns, Qualified Leads37
Peak AcePeak Ace, l'agence SEO & SEA accompagne ses clients dans l'acquisition de trafic qualifié issu des moteurs de recherche.SEO, Référencement, Web Analytics, Web marketing, SEM, sea40
NewQuest"We are a full service digital agency!"​ à la française...For 11 years NewQuest has been providing web and digital services to clients all over the world. E-marketing, Web Analytics, E-commerce, Internet solutions, IoT, Connected Objets, Web Development, Webdesign, UX Design, Video, Event, Digital Strategy, PrestaShop, MailChimp, WordPress, Motion Design41
DigitalkeysEn 2008, Thierry Decroix et Sandra Retailleau décident de créer Data Filiation qui deviendra très vite Digitalkeys, agence experte en business digital. 2 serial entrepreneurs, passionnés du web qui ont déjà compris à l’époque le tournant du digital.Business digital, e-commerce, SEO, SEM, AFFILIATION, E MAILING, PRM CRM, collecte de leads, Native Ads, sea, Référencement naturel, Liens sponsorisés, Programmatique, Web Analytics, Web Influence, Social Ads, Formation, Webmarketing, Retargeting, stratégie de contenu, Google Adwords, Formation, RTB, Google Partner Premier, TV, Content Marketing55
WAISSOFondée en 2003 par des professionnels du Marketing et du Data, Waisso est une agence digitale spécialisée dans l’optimisation du marketing client en alliant technologie, data et contenu pour une approche plus innovante.MARKETING CRM, MARKETING CLOUD, ADOBE PARTNER, SPRINKLR, GIGYA, DIGITAL MARKETING, CROSS CHANNEL, ACQUISITION, FIDELISATION, ORACLE, CAMPAIGN MANAGEMENT, CONSULTING, ANALYTICS, SEGMENTATION, CONTENU DIGITAL, BIG DATA, SOCIAL MEDIA, BUSINESS INTELLIGENCE, MOBILE MARKETING, ACQUISITION72
1ere Position1ère Position is a team of passionate experts living the Internet culture since 1999.SEM (Search Engine Marketing), SEO (Search Engine optimization), smo, SEA (Search Engine Advertising), webmarketing, web marketing, Référencement naturel, social marketing, Google Adwords, Google Analytics, Facebook Ads, Twitter Ads, Linkedin Ads76
ESV FRANCEESV (previously eSearchvision) is a Digital Marketing Agency specialising in Search Marketing, Social Media, Data Analytics, Branding / Creative and Strategy Consulting Services. We are international specialists with over 12 languages spoken.Search Marketing, Display Advertising, Mobile Advertising, Social Media Advertising, PPC, Performance Marketing, Marketing, International Campaign Management, Consultation, Services, Landing Page Optimization, RTB, Performance Display, Remarketing, Attribution Modeling80
PIXALIONE | SEO, SEA, SMA & DATAPIXALIONE est une Agence Search Marketing (SEO, SEA, SMA) & Web Analytics propriétaire d’une suite logicielle unique au monde issue de partenariats avec des écoles et universités comme le CNRS, ENPC, Centrale Paris, l'Universitat Politècnica de València.SEO, SEA, Stratégie, Data Analytics, Refonte (SEO), RP Digitale, Content, Search Engine Analysis, Internet Marketing, Competitive Analysis, Keyword Analytics, Brand Monitoring, Content Analysis, Keyword Research, Backlinks Analysis, Netlinking, Référencement Naturel, Référencement Payant, Acquisition, Trafic, socialmedia, socialads, sma, social81
RnDAgence conseil en marketing digital organisée autour de trois métiers : • Conseil et réalisation de stratégies internet • eMarketing • Développements techniques spécifiques (back office, intégration systèmes d'information, reporting)Marketing digital, Développement web, e-Commerce, SEO, SEA, SEM, Social ads, Gestion de projet, Identité graphique, UX Design, UX Design, Content marketing, Stratégie de marque, Planning stratégique, Webmarketing, Acquisition d'audience, Social media, CRM, E-réputation, Analytics89
ExperteamExperteam est une société de conseil et d’expertise IT qui accompagne et accélère 🚀 la transformation digitale des entreprises et des organisations.Digital Workplace, Cloud computing, Data Analytics, IoT, Conseil, Intégration, Industrialisation, Transformation Digitale, Déploiement, Exploitation, MCO, Data Centres, Cloud public, Cloud Privé, Collective Intelligence, HyperMobility, Sécurité Digitale97
RESONEOCréé en 2004, RESONEO est un cabinet de conseil en stratégie et en marketing pour le e-business qui réunit aujourd’hui 60 consultants spécialisés sur Internet et les nouvelles technologies.SEO, SEM, Google Analytics, AMOA, eMarketing, Stratégie online, E-réputation, Stratégie de contenu, Data, SEA, Display, Social Ads, SMO, Formation101
OpenStudioDepuis toujours, notre agence utilise au sein de sa structure ainsi que pour les projets clients des solutions Open Source et possède une très forte expérience dans ce domaine.THELIA, Symfony, e-commerce, php, intelligence artificielle, AI, react.js, e-commerce b2b, data-visualisation, OCR, moteur de recommandation, prédiction, aide à la décision, big data, extranet, intranet, logiciels métiers, sirh, erp, crm104
MeltOne AdvisorySome would think of us as one of the numerous management and IT consulting firm supporting their customers in their transformation projects. It’s true but good news, there is much more behind!EPM / CPM cadrage, choix d'outil, implémentation, ERP, DATA & Analytics, DATA VISUALISATION, TAGETIK, ANAPLAN, SAP, SAPHANA, HANA, EPM104
UNAMIUNAMI, agence digitale, accompagne et réalise les ambitions web de plus d’une trentaine de grands comptes et de pure players dans des univers marketing B2C et B2B. Unami compte parmi ses clients SFR, LinkedIn, L'Express, Prisma Média, les Vins d’Alsace, dinh van, Mondadori, Numergy, Sodexo.Stratégie digitale, UX, UI, Prototypage, Méthode agile, Tests utilisateurs, AB Testing, Analytics, Tableau de bord, Tracking, SEO, ContentSquare, Kameleoon, ABTasty, Google Analytics, AT internet, Hotjar, Google Data Studio118
CyberCitéAgence SEO / SEA / Content Marketing / Social Ads / Data Analytics / Inbound Marketing / Recherche et Développement.SEO, SEA, Display, Comparateurs / Marketplaces, Adexchange RTB, Web Content, Linking, Data Analytics, Stratégies digitales, Social Media (agence OnlySo), Facebook Ads, Inbound Marketing, Google Ads141
Adone ConseilAdone is now the 1st European management consulting firm in the Luxury and Retail industries and executes strategic and operational missions for Business and IT departments on projects involving: e-Commerce, Data, Customer Experience, Digital in Store, PIM-DAM, PLM, Supply Chain or else Green Transition.Assistance à maîtrise d'ouvrage (AMOA), Gestion de projet, Conseil en système d'information, Digital, Luxe, Parfums et Cosmétiques, Mode, Horlogerie et Joaillerie, Tourisme, Hôtellerie, Digital in Store, PIM, DAM, CRM, Supply Chain, e-commerce, Data, Analytics, Clienteling, OMS, PMO, Consultant412
Fifty Fivefifty-five aide les marques à exploiter de façon optimale les données et la technologie pour développer des stratégies marketing plus pertinentes !Web Analytics456

Choisir un prestataire pour un projet Data Science

Le rôle d’un prestataire en Data Science

La Data Science consiste à traiter de larges volumes de données afin de dégager des tendances invisibles dont vont découler des informations qui serviront ensuite la prise de décision.

Un prestataire en Data Science va mettre en place des algorithmes complexes de machine learning afin de construire des modèles prédictifs et d’anticiper tel ou tel comportement client par exemple.

Les compétences principales d’un bon cabinet de conseil en Data Science :

  • Machine Learning & modeling – Les modèles mathématiques vous permettent d’effectuer des calculs et des prédictions rapides sur la base de ce que vous savez déjà des données. La modélisation fait également partie de l’apprentissage automatique et consiste à identifier l’algorithme le plus approprié pour résoudre un problème donné et à former ces modèles.
  • Statistiques – Les statistiques sont au cœur de la Data Science. Une solide maîtrise des statistiques peut vous aider à extraire plus d’intelligence et à obtenir des résultats plus significatifs.
  • Programmation – Un certain niveau de programmation est nécessaire pour mener à bien un projet de science des données. Les langages de programmation les plus courants sont Python et R.
  • Management de base données – Un data scientist compétent doit comprendre comment fonctionnent les bases de données, comment les gérer et comment en extraire des données.

Sélection de prestataires en Data Science

NomDescriptionSpecialitésNombre d'employés
Prevision.ioPrevision.io develops a full automated Machine Learning Plateform that increase productivity in datascience projects , reduce time to market to delivers accurate predictive models and put them in production, and delivers a full palet of explainability to understand the decisions of the models.Machine Learning, Predictive Analytics, Data Science, B2B, SaaS, Predictive Modeling, Artificial Intelligence, Enterprise Software, Big Data, Cloud Computing, Analytics21
PolynomOur Mission : Discover new growth drivers and ensure their sustainability by helping companies harness the potential of their data.Our Approach : Combine a deep understanding of business specificities with Data Science and Software cutting-edge toolbox mastery.Strategy, Data Science, Consulting, Software Craftsmanship, Big Data, Artificial Intelligence, Pricing, Predictive Maintenance, Marketing Tech30
C-WaysC-Ways is a consulting company specialised in data sciences. Thanks to innovative methods of data capture and modelling, C-Ways helps administrations and leading companies in the sectors of mobility, fashion, luxury goods, financial services, sport, consumer goods, etc. to make informed decisions.market research, predictive marketing, data modeling, data science, client surveys, prospective, web analytics, automotive, retail, luxury, big data, data driven marketing, modeling, creative data32
BIAL-XFondée en 2007, BIAL-X est cabinet d'experts en performance Data.Ces dernières années marquent une véritable révolution du digital. Objets connectés, réseaux sociaux, smartphones … créent un fort volume de données.Big Data, Business Intelligente, Data Science, Data Visualisation, Intelligence Artificielle, Transformation Digitale, Machine Learning, Deep Learning32
OctopeekThe company was founded in 2010 by Abdelkrim Talhaoui, who earned a Master's in Mathematics from Telecom ParisTech and an MBA from ESSEC, and Mahmoud Zakaria, who holds a Master's in Mathematical Engineering and a Doctorate in Mathematics and Information Technology from Telecom ParisTech. Data Science, Machine learning, Data Mining, Data Visualization, Deep Learning, Big Data, Intelligence Artificielle, Consulting, Formation33
ALEIAALEIA is the AI platform (AI as a service) that proposes an open, secure, and industrialized solution to accelerate your Artificial Intelligence projects.Data Science, Machine Learning, Artificial Intelligence, Automated Machine Learning, Augmented Analytics, Machine Learning Operations (MLOps), Applied AI, Enterprise AI, Datalake, End-to-End Data Science Platform, Data protection, Cyber, Energy, Logistic, Mobility33
Data-MajorA la manière d’un véritable état-major dédié à nos clients, les équipes de Data-Major sont chargées de conseiller, synthétiser l’information, d’aider à la décision, d’organiser, de planifier, de délivrer, de piloter, de suivre, de contrôler et d’en tirer les enseignements. Pilotage, Expertise, Développement, Data Intelligence, Data Management, Data Science, Qualité, Résultat, Business Intelligence, Architecture, Management, Consulting, Direction de projet, Gestion de projet, Créativité, Engagement, Humain Responsable, Data Exchange, DataViz, Roadmap, Flux, Data Hub, Pilotage, ESB, ETL, MDM, Master Data Management, Data Catalog, Transparence, API, Agile, AMOA, Optimisation des Processus, IA, Cloud, Architecture, Data Quality, Qualité des données, Data Analytics, Data Integration43
HeuritechHeuritech is a cutting-edge fashion technology company that offers brands data-driven trend forecasting.Artificial Intelligence, Deep Learning, Fashion, Image & text recognition, Luxury Goods , Machine Learning 63
ProbayesSince 2003 Probayes the AI expert powering your performance.Referents on the whole value chain, we collaborate with all sectors.We are multi-specialists, ready to serve you and your strategic challenges.We shape with you your customized solution.Artificial intelligence, chatbots, logistique, recherche opérationnelle, Gestion énergie, Optimisation, Réseaux Bayesiens, Réseaux de neurones, Vision, Traitement automatique du langage, Machine Learning, NLP, Data Science, Deep Learning, Fusion de capteurs, Ontologies, Séries temporelles, Classification non supervisée, Réapprentissage automatique, Traitement du signal, Analyse statistique, Industrie, Véhicule autonome, Automobile, Défense, Logistique, Distribution, Santé, Énergie, Banque, Assurance, classification supervisée, computer vision63
QuintenSociété pionnière dans l’Intelligence Artificielle appliquée à l’amélioration de la performance des organisations notamment dans le domaine de la Santé, la Banque et l'Assurance.Big Data, Smart Data, Data Science, Analytics, Business Intelligence, Prédiction, Data Mining, Data visualisation, Smart Applications , Conduite du changement, Machine learning, Intelligence Artificielle, ROI, Indicateur de performance, Transformation numérique, Conseil stratégique opérationnel, Santé, Deep learning, Data Strategy, AI Application, Quinten Academy, AI strategy, NLP, Medtech, Device, IOT, RWE, Clinical Studies, Conventional Studies, HRTech, Insurtech65
BluestoneBluestone est une société de conseil et de services spécialisée dans les métiers de la Data Science.Data Science, Business Intelligence, Business Analytics, Ingénierie applicative, Nouvelles technologies, Big Data68
BeelixBeelix est une société de conseil en Transformation Digitale et Big Data animée par une approche qui lui est propre : le "Bee Yourself, Bee Your Best"​.DIGITAL, CONSEIL, transformation digitale, big data, agile, product management, product owner, scrum, project management, gestion de projet, data-science, coach agile, applications mobiles, datalake91
EquancyCrée en 2002, Equancy est un cabinet de conseil au croisement de la stratégie digitale et de la data. Sa mission : adresser les enjeux de croissance et de performance des entreprises, en exploitant les nouvelles technologies, l’Intelligence Artificielle et la donnée sous toutes ses formes. Strategy, Data Science, Data Technology, Media Performance, Marketing Performance111
ConverteoConverteo est un cabinet d’experts en Big Data et Data Science qui optimise les performances de ses clients du parcours client à l’offre de produits.Web Analytics313
Devoteam G CloudOur mission is to build cultures of innovation at companies by transforming the way they work and elevating their customer experiences.Google Cloud, Cloud Computing, Google Cloud Platform, lumapps, GSA, Google API, Maps, Kubernetes, Google Workspace, Chrome Enterprise, BigQuery, Anthos, Hybrid- & multi-Cloud, Apigee, Data & Smart Analytics, Data Warehouse Modernisation, Data Lakes, Artificial Intelligence, Machine Learning, IT Infrastructure Modernisation, Application Modernisation, Cloud Migration, Change Management, Big Data, Digital Workplace, Android, Google Search, Chromebooks, Digital Signage, Smartsheet, AO Docs, Customer Experience, Hyper Personalisation, Contact Centres, Conversational AI, Document AI, Voice bots, Chatbots, Technology Consulting, Managed Services, Google Cloud Training479
Artefact Artefact est une agence digitale constituée d’experts du marketing et d’ingénieurs. Elle accompagne ses clients dans la mise en place d’expérience clients modernes grâce aux nouvelles technologies.Data Science1240

Choisir un prestataire pour un projet Big Data

Le rôle d’un prestataire Big Data

Comme son nom l’indique, le Big Data désigne simplement des ensembles de données extrêmement volumineux. Cette taille, associée à la complexité et à la nature évolutive de ces ensembles de données, leur a permis de dépasser les capacités des outils traditionnels de gestion des données.

Les caractéristiques des « Big Data » :

  • Volume – Les Big Data sont énormes, dépassant de loin les capacités des méthodes normales de stockage et de traitement des données.
  • Variété – Les grands ensembles de données ne se limitent pas à un seul type de données, mais se composent de plusieurs types de données. Les Big Data se composent de différents types de données, des bases de données tabulaires aux images et aux données audio, quelle que soit la structure des données.
  • Vélocité – La vitesse à laquelle les données sont générées. Dans le Big Data, de nouvelles données sont constamment générées et ajoutées aux ensembles de données fréquemment. Ce phénomène est très répandu lorsqu’il s’agit de données qui évoluent en permanence, comme les réseaux sociaux, les appareils IoT et les services de surveillance.
  • Fiabilité – Il y aura inévitablement certaines incohérences dans les ensembles de données en raison de l’énormité et de la complexité du big data.
  • Valeur – L’utilité des actifs du Big Data. La valeur du résultat de l’analyse des Big Data peut être subjective et est évaluée en fonction des objectifs commerciaux.

Votre prestataire doit donc être en mesure de gérer ce type de données. Mais vous l’avez compris, ces besoins sont limités à un petit nombre de grands groupes.

Parmi les outils à maîtriser on pense bien sûr à tous les data warehouse modernes AWS, Azure, GCP et Snowflake pour le stockage. Databriks ou Apache Hadhoop pour le processing.

Sélection de prestataires Big Data

NomDescriptionSpecialitésNombre d'employés
DECILIADécilia est une société de conseil spécialisée dans la data intelligence. Forte de son expertise, elle accompagne depuis 2008 les acteurs du CAC 40 et les Grands Comptes à fort potentiel dans la réalisation de leurs projets data driven.Business Intelligence, Big Data, Microsoft SQL Server, SAP Business Objects, Data Science, Azure, Machine Learning, Dataviz26
DatalyoDATALYO est un cabinet de conseil spécialiste de la donnée, basé à Lyon, Clermont-Ferrand et en Haute-Savoie.Indépendants et innovants, nous croyons en l'importance de comprendre et maîtriser les données pour créer de la valeur.Big Data, Data, Business Intelligence, Dataviz, Machine Learning, Data Science40
Kaisens DataCabinet de conseil en informatique spécialisé en Big Data et Intelligence Artificielle. Kaisens Data vous accompagne dans vos projets de transformation numérique avec une offre de service sur mesure. Venez découvrir notre expertise !Big Data, Business Intelligence, Intelligence Artificielle, Data Science, Machine Learning, Deep Learning, NLP, Text Mining40
WewyseFace au raz-de-marée du Big Data et de l’IA, deux possibilités pour les entreprises : subir ou saisir cette vague et profiter de son immense potentiel d’innovation.WeWyse vous aide à appréhender, à adopter et à transformer en business ces puissants leviers technologiques.Big Data, Data Science, Data Strategy, Data Driven, Intelligence Artificielle, Machine Learning, Data, Deep Learning, BI, Data Visualization, Data Engineering41
KynapseKynapse is a management consulting company specialized in Big Data and Digital TransformationData Consulting.Big Data, Conseil, digital transformation, transformation digitale, Data Science, Intelligence Artificielle, Machine Learning42
EulidiaTired of delayed deliveries, tripled budgets, unused data applications, and unhappy business users ?With Eulidia, embark on a smooth and exciting journey to turn data into business performance and increased competitivity.We accompany you from defining value-added business cases and objectives to the full realization of your data projects.Business Intelligence, Datavisualization, Data Management, Big Data, Business Analytics, Data Science, Cloud, Conseil en management, UX BI, AWS, Datawarehousing, Machine Learning, Recherche Opérationnelle, Data Driven60
CenovaCenova est un cabinet de conseil en forte croissance dont la vocation est d’accompagner ses clients dans leur mutation vers de nouveaux modèles B2C, en particulier sur des enjeux d’omnicanalité, de mobilité, de numérisation et de personnalisation.Marketing, Sales, Retail, Customer Experience, Transformation, SmartData, CRM, SCM, Innovation, Technology, Big Data, Digital Platform, omnicanal, Machine learning, mode, Mode, Luxe, Data Intelligence, Intelligence Artificielle75
YsanceYsance - Your Data in ActionTwo professions, one goal. With both of its professions, Ysance pursues a common goal: to reveal the value of your customer data and to put them into action.Big Data, Data Integration, Data Architecture, Data Science, Dataviz & Analytics, Digital Marketing, Customer Journey, AI, Artificial Intelligence, Retail, Cloud77
VAGANETPionnier du delivery agile depuis 2014, VAGANET met à disposition de ses clients des expertises techniques et fonctionnelles spécialisées dans la transformation et l’actualisation du patrimoine digital.Prestations et services informatique, Développement Informatique, IOT, Big Data, DevOps, Nouvelles technologies, innovation, ITSM, Microsoft Dynamics 365, INFOR EAM, Power BI, Azure Cloud, AWS, CI/CD, IBM Maximo, SAP Business One, UX/UI77
OpenvalueCréé fin 2014, Openvalue est un cabinet de conseil et d’intégration spécialisé en Data & Intelligence Artificielle : Machine Learning, NLP, Deep Learning, Computer Vision.Internet des Objets, Big Data, Objets connectés, Innovations digitales, Dataviz, M2M, Machine to Machine, Machine Learning, Internet of Things, IoT, Business Intelligence, Cassandra, Cloud computing, NoSQL, Hadoop, MapReduce, ElasticSearch, Data Visualisation, Natural Language Processing, Computer vision, Deep Learning, Spark, Cloudera, Microsoft Azure, Intelligence Artificielle, Deep Learning, Spark, UX Design, Développement web104
Ntico[LE DIGITAL PAR EXPERIENCE]Ntico, entreprise de services numérique est une communauté de talents, présentes à Lille et à Orléans, partageant des valeurs essentielles pour un accompagnement total et personnalisé de ses clients.Informatique, Java/J2EE, Chefferie de projet, Direction de projet, Décisionnel, Web, Retail, IT, Cloud, DevOps, Data, Agilité, SupplayChain, BI, Flux, Ordonnancement, Lille104
Artemys Normandie (groupe Artemys)Le groupe Artemys se pose, depuis plus de trente ans, en acteur indépendant présent sur le marché des infrastructures, Cloud & DevOps, des End User Services, du BI et Big Data, de la sécurité et des réseaux, de l’Open Source et de l’accompagnement MOE et MOA.Infrastructure, Stockage, Infogérance, Business intelligence, Expertise base de données, Centre de services, Assistance Technique, Migration serveurs, Active Directory, Microsoft Exchange, Virtualisation, Cloud, Architecture, End User Services, BI , Big Data, Mobilité, DevOps, OpenSource111
CellenzaCellenza est un cabinet de Conseil IT, expert des technologies Microsoft.Nous accompagnons nos clients dans leurs projets stratégiques de transformation et d’innovation au service de leur business.Cloud, Agilité , Web, Mobilité, Integration, craftsmanship, Terraform, Kubernetes, FinOps, Azure, DevOps, Data, API, Microsoft, Databricks, TransformationDigital, IA, BusinessProductivity, BusinessIntelligence, Sécurité, Software, Consulting, MLOps, DevOps140
DigoraUse the full potential of your data and your IS to overcome your challenges in terms of availability, performance and security.Take control of your personal challenges around the Cloud, IoT, Big Data and DevOps automation with the support of Digora, a well-known expert in data management.Infrastructure logicielle, bases de données, Gestion des données, haute disponibilité, Oracle, Cloud, Big Data, IoT, Conseil IT, consulting, database, sécurité informatique156
ADVANCED SchemaFounded in 2001, ADVANCED Schema is a Consulting and Outsourcing Services company. Operating in Europe and North America, for 15 years the group has provided its clients with expertise in Data Warehousing, Business Intelligence and CRM.Business Intelligence, Datawarehousing, Big Data, Customer Relationship Management, Digital, CRM, Developpement, Intelligence artificielle159
Velvet ConsultingVelvet Consulting is the leading consulting firm in assisting organizations in their customer orientation. Since 2004, thanks to our 250 Marketing enthusiasts people, we accelerate business performance by building a fullest and effective customer experience.Stratégie Client, Performance, Innovation, Change, Datamining, Business Intelligence, Digital, CRM - Customer Relationship Management, EMA - Entreprise Marketing Automation, Big Data, Mobilité, Omnicanal, Big Data270
TalanTalan is a technology innovation and transformation consultancy. For more than 15 years, Talan has advised companies and administrations, supported them and implemented their transformation and innovation projects in France and abroad.Conseil, AMOA SI, MOE, Support, Architecture SI, Transformation Agile, Digital, Consulting, IT Consulting, CRM, BIG DATA, IoT, Blockchain, IA, innovation, Data, big data3235
CGICGI accompagne ses clients dans la définition de leur stratégie d’intégration de l’IA ainsi que dans la mise en œuvre des projets d’automatisation, de machine learning, de RPA ou d’assistants virtuels.BI61761
CapgeminiExpert en Big Data, Capgemini aide ses clients à maîtriser pleinement votre écosystème d’information.Big Data310031

Les fondamentaux du phygital commerce, par Maxence Dislaire, expert phygital commerce [interview]

La contraction de “méta” et “universe” donne “métaverse”. Mais qu’est ce que donne la contraction de “physique” et “digital” ? “Physital” , “Phygital ? Et c’est quoi au juste le “phygital” ? Un mélange entre le “e-commerce et les magasins” comme bon nombre de personnes le pensent ? Pour vous parler de ce terme nébuleux, galvaudé et à la mode, nous avons interviewé l’expert français du phygital commerce : Maxence Dislaire.

Maxence Dislaire

Le « Chevalier du Phygital Commerce »

Maxence Dislaire est un pionnier. En 2010 il a le nez creux. Convaincu que le Retail tel qu’on le connaît n’existera plus d’ici quelques années, il décide de partir en croisade en montant sa boîte : Improveeze. Celui qui se définit comme le “Chevalier du Commerce Phygital” mène depuis une campagne de sensibilisation à l’égard des retailers et pure players.
Son combat ? Aider les acteurs du retail qui connaissent une perte de vitesse ou qui veulent ouvrir des points de vente physiques. Comment ? En les aidant à se réinventer au travers d’un concept : le phygital commerce.

Peux-tu te présenter en quelques mots ?

Je viens du monde du digital, et je suis ingénieur de formation. Depuis près de 15 ans, je cherche la bonne manière de vendre avec des écrans interactifs. J’analyse les magasins sous l’angle du digital en magasin, pour aider tous les commerçants physiques à ne plus dépendre de leurs mètres carrés. J’aide les commerçants à ne plus être enfermés dans cette prison de mètres carrés et ne plus dépendre de leurs stocks pour être capable de vendre sans aucune limite. Grâce à des outils digitaux. Il y a énormément de bruits, de tests, d’échecs sur ce sujet en retail.

Et à force d’avoir analysé des centaines de magasins en France et partout en Europe, j’ai fini par découvrir la recette des choses qui marchent et celle qui ne marchent pas. Il est même parfois possible d’expliquer pourquoi cela ne marche pas. Mais cette recette-là n’existe dans aucun livre aujourd’hui. Il n’y a pas de livre sur le “Phygital Commerce”. C’est peut-être pour cela que certaines personnes ne savent pas que le phygital commerce existe. Au risque de se dire “Je vais installer des bornes en magasin et avec mon site e-commerce, ça fera l’affaire”.

Qu’est ce qui t’a amené à t’intéresser au sujet du phygital commerce ?

Il y a 15 ans, ma bande de potes et moi avons décidé d’offrir à notre ami d’enfance, une guitare électrique pour son anniversaire. C’est moi qui suis chargé d’acheter son cadeau. Deux solutions s’offrent à moi. La première, c’est Internet. Sauf que comme je ne suis absolument pas musicien, je ne peux pas chercher d’ampli, ou de guitares sur Internet. Je ne saurais même pas quel mot-clé mettre. Et même si j’achetais quelque chose, je suis un peu près certain que ce serait décevant pour mon ami. Donc je décide d’aller voir un spécialiste dans un très grand magasin du Nord de la France qui fait 3000 m2.

Je rentre dans le magasin et je vois sur ma droite des centaines de guitares accrochées sur le mur. Mais au bout de 20 minutes de visite guidée, je reviens bredouille à l’accueil. L’ampli, la guitare et l’étui à guitare que je recherchais étaient introuvables.

Comme je suis néophyte et que je ne connais pas les magasins de musique, je demande naturellement au vendeur de m’indiquer d’autres points de vente dans la région. Je le vois très gêné. Puis il regarde autour de lui et me dit “Suivez-moi”. Il retourne sa caisse, sort son clavier, sa souris et commence à chercher sur Internet des guitares sur les sites de ses concurrents…Pendant 45 min.

Donc c’est à la suite d’une mauvaise expérience que tu t’es intéressé au sujet ?

Exactement ! A l’époque, je n’avais pas passé un bon moment avec ce vendeur lorsqu’il était sur Internet parce qu’au final, il faisait tout et moi rien, j’étais très passif. Je n’avais pas apprécié ce cérémonial de vente.

Cette expérience-là m’a beaucoup fait réfléchir car en en apparence on pourrait se dire que le vendeur a commis une faute professionnelle. Mais ce jour-là, je me suis dit que le problème n’était pas le vendeur mais plutôt le modèle économique du magasin qui était obsolète.

Ce jour-là, j’ai également compris que les magasins étaient en train de “crever la gueule ouverte”. Le magasin est contraint par des mètres carrés et des stocks. Comment rivaliser avec une entreprise qui a un énorme catalogue et qui le promeut sur Internet ?

Peux-tu nous définir plus précisément la notion de “Phygital” ?

Le phygital c’est tout ce qui est digital dans les lieux accueillant du public. Ça inclue :

  • les magasins
  • les salles de sport
  • les gares
  • les aéroports
  • les distributeurs automatiques de billets
  • les écrans de publicité dans la rue
  • les plans interatifs….

Le phygital commerce c’est le phygital qui est lié au commerce. Comme le commerçant ne peut pas avoir des stocks infinis dans des mètres carrés qui sont finis, il va utiliser le digital pour vendre. Par conséquent, le phygital commerce répond à une problématique de vente, d’espaces, de mètres carrés. Et ces outils digitaux-là (tablette, mobile, borne…) sont ceux du commerçant.

L’idée du phygital commerce c’est de procurer la meilleure expérience de vente possible. Or en utilisant le téléphone des clients on ne peut pas tenir cette promesse. Si on laisse le client interagir avec son propre téléphone, on devient dépendant de son réseau mobile, de l’état de sa batterie ou de son téléphone. C’est pourquoi la meilleure expérience client en matière de cérémonial de vente, c’est lorsque le commerçant gère lui-même les outils digitaux. 

En substance, le phygital commerce c’est le matériel dont dispose le commerçant qui n’appartient par extension pas aux clients.

A l’inverse, dans le e-commerce, c’est le client qui maîtrise son matériel : ordinateur, tablette, téléphone. Le consommateur est chez lui.

Voilà pourquoi je préfère utiliser une définition de sens plus qu’une définition issue du marketing. Un entrepreneur qui a besoin d’exécuter un plan business clair, précis, de briefer ses équipes, de les missionner, a besoin d’avoir une définition de sens pour appliquer sa stratégie.

On confond souvent omnicanal et phygital, peux-tu nous éclairer à ce sujet ?

Effectivement, le phygital commerce n’est pas à confondre avec l’omnicanal, une erreur qui est souvent faite. Quand vous recherchez le mot “phygital” sur Google, vous tombez souvent sur des articles où vous voyez le mobile du client en point de vente.

 

 

C’est très confus car il n’y a pas de règles sur le sujet. D’ailleurs, les trois principaux usages du téléphone mobile en magasin sont :

  1. prendre des photos
  2. téléphoner
  3. rechercher sur Google

C’est rarement pour acheter en magasin. Si vous souhaitez avoir la meilleure stratégie omnicanale possible, vous avez besoin d’être : 

  1.  le meilleur en e-commerce 
  2.  le meilleur sur la partie physique.
    Et pour être le meilleur sur la partie physique, il faut que vous ayez du digital dans vos points de vente. Donc vous devez être le meilleur sur la partie phygitale.


Vous avez des pure players comme
ProjetXParis qui ont ouvert des magasins sans aucun matériel digital. Mais ils s’inscrivent dans une stratégie omnicanale : ils ont un site web, des magasins…Mais à l’intérieur du magasin, il n’y a pas d’outils digitaux qui permettent de faire du phygital commerce. Si vous voulez atteindre le stade ultime de l’omnicanal, vous avez besoin de passer au commerce alternatif et phygital.

Quelles sont les raisons pour lesquelles peu d’enseignes ont encore vraiment accéléré sur le sujet ?

Le phygital commerce est un métier qui n’existe pas vraiment en tant que tel. Si vous cherchez des écoles de commerce spécialisées en phygital commerce vous n’en trouverez sans doute aucune. Pourtant, il y a des écoles de commerce spécialisées en digital, en e-commerce etc…

Certains considèrent que c’est une extension ou une variante du digital. En échangeant avec beaucoup de personnes, j’ai parfois entendu “c’est un peu près du e-commerce sauf que c’est en point de vente” , “nous on va mettre notre site e-commerce en magasin”.

C’est généralement très artisanal parce qu’il n’y a pas de recette. Il n’y a pas de livre qui nous dit que le phygital commerce c’est telle ou telle chose, comment il faut faire pour le mettre en œuvre et pourquoi il faut le faire de cette façon-là.

Il existe des livres sur le e-commerce qui listent la recette. Par exemple, si un commerçant n’optimise pas son site web pour les moteurs de recherches son site web n’ira pas bien loin. Il en va de même pour le référencement naturel. Ce sont des ingrédients de la recette.

Le phygital commerce c’est une autre recette qui n’est pas accessible facilement, il a fallu que je l’invente, que je l’analyse moi-même ces 15 dernières années et au-delà de cela, quand on ne sait même pas que la recette existe, on essaye de la déduire. C’est l’intuition qui va parler, le bon sens. Mais parfois le bon sens peut vous amener à faire des choses catastrophiques.

Je vais vous donner un exemple. Il y a quelques semaines,  je suis allé voir un pure player qui a ouvert un point de vente physique. Il a probablement dû se dire “Je vais prendre mon site e-commerce et le mettre en magasin”. Pourquoi ? Parce qu’au moment de payer, il propose de payer via PayPal :

 


PayPal dans le e-commerce c’est plutôt une bonne pratique. C’est connu et apprécié des consommateurs. Pourtant une bonne pratique dans le monde de l’e-commerce devient une très mauvaise pratique dans le monde réel. Pire que tout, ce n’est pas légal.

A quel moment / A partir de quelle taille une enseigne doit-elle l’envisager ?

Ce que je constate depuis 15 ans, c’est que toutes les tailles d’entreprises sont passées au phygital commerce : 

  • Des entreprises qui avaient déjà des points de vente physiques.
  • Des pure players qui voulaient en ouvrir.
  • Des petits commerçants qui voulaient développer leur activité.


Parce que les entreprises qui y ont recours ont un énorme caillou dans leurs chaussures. Elles ne peuvent pas écouler leurs produits car elles n’ont pas suffisamment de places en magasin. Au-delà du handicap évident, elles se mettent en défaut concurrentiel par rapport à des concurrents en ligne. En réalité, il n’y a pas de taille idéale. Tout simplement parce que c’est très vite rentable. 

Prenons un exemple. Un magasin de jouets qui a 120 mètres carrés et un trampoline aura des difficultés à le vendre.
Avec une borne, vous ne prenez pas de risque sur votre trésorerie, vous n’avez pas de loyer correspondant au trampoline qui prend énormément de place dans votre magasin, vous n’avez pas non plus à payer la manutention et le temps de mettre ce trampoline en zone d’exposition (décartonner, enlever les palettes, le mettre en magasin, l’étiqueter…). Cela prend un temps fou.

Le commerçant qui arrive à vendre un trampoline à 600 euros depuis une borne, je peux vous dire que ces 600 euros-là valent beaucoup plus que ceux du trampoline immobilisé en magasin.

Aujourd’hui le modèle traditionnel du commerce tel qu’on le connaît aujourd’hui, c’est-à-dire piloter par les stocks et les mètres carrés est mort. Il n’a plus aucun avenir. Pourtant c’est encore 99% du paysage.

Peux-tu nous présenter quelques exemples d’enseignes qui auraient dû prendre le virage du phygital commerce ?


Si je veux rester dans mon domaine d’expertise, je vais vous parler de 
PicWicToys. C’est la même histoire que Camaïeu sur le fond du modèle économique. Mais elle est plus facile à faire comprendre. PicWicToys a un peu moins de 100 magasins.

Je suis allé dans l’un d’entre eux pour analyser ce qui s’y faisait. Au rayon plein air, j’ai vu ça :

 


Imaginez un instant le nombre de jeux de plein air que vous pouvez trouver chez Amazon.

D’un point de vue concurrentiel, ça n’a plus aucun avenir. Ceci n’a aucun sens face à l’offre des autres entreprises qui ont un positionnement à  gamme large.

Ce que j’appelle le “cancer du retail”,  dont de nombreuses entreprises ont été victimes et seront victimes dans les années à venir, c’est le modèle économique “des 4 murs”.

Peux-tu nous présenter quelques exemples de phygitalisation réussies ?

Il y a 3 mois je suis arrivé à une conclusion très étonnante. J’ai cru pendant 15 ans que le marché du digital en point de vente serait pris et dominé par les retailers historiques : ceux qui ont de grandes chaînes de magasins et depuis que je travaille avec des pure players, j’ai remarqué qu’ils étaient beaucoup plus performants à tous les niveaux : en terme de chiffre d’affaires, d’agilité, de performance, de puissance de modèle économique, des compétences des équipes…

Maintenant, je pense que ce sont les pure players qui vont dominer le retail de demain. Leur positionnement fait d’eux des entreprises très sensibles aux problématiques liées aux stocks, la trésorerie ou à la manutention. Les pure players veulent être hyper spécialisés dans un domaine précis et pour se faire ils doivent, proposer le catalogue de produits la plus large possible sur le segment en question.

Ce positionnement se fait également ressentir en magasin. Les vendeurs ont la capacité de conseiller les clients sur plus de produits que leur magasin peut en compter. Là ou les vendeurs des retailers historiques étaient habitués à uniquement vendre ce qu’ils avaient sous leurs yeux ou en stocks.

Basket4Ballers


Basket4Ballerz était pure player PrestaShop depuis 13 ans. Puis ils ont finalement décidé d’ouvrir un magasin puis un deuxième à Paris. Lorsqu’un pure player ouvre un magasin, c’est un énorme challenge.


Le pure player qui se lance à un plusieurs centaines de milliers de références en catalogue. C’est ce qui fait sa force. La raison d’être des pure players c’est de se différencier des magasins physiques en référençant toute l’offre possible sur un segment donné. Pour devenir parfois le référent en la matière. C’est ce qu’a fait Amazon. C’est ce que fait ManoMano. C’est ce que fait Motoblouz sur le segment de la Moto et c’est ce que fait Basket4Ballerz sur le segment du Basketball.

 

Les produits de la NBA, très prisés sur leur site internet, représentent 30% de leur chiffre d’affaires. Bien loin des 100 000 mètres carrés qu’il faudrait pour accueillir tous les produits du catalogue.

Comment faire pour générer du chiffre d’affaires en point de vente physique sachant qu’un tiers de ses produits NBA sont vendus en ligne ? Une technique issue du phygital commerce existe. C’est le phygital commerce proactif. Elle consiste à utiliser une borne interactive avec un système de boutons et de mindmap qui entourent l’écran. L’objectif est de représenter le fait qu’il y a plus d’offres que ce qui est visible de prime abord sur un écran ordinaire. Car avec le syndrome du paresseux, les clients ne vont que rarement sur les écrans maintenant.

En revanche, avec ce petit “coup de pouce”(nudge), il y a 2000 fois plus d’interactions écran que sur un écran ordinaire. C’est ce qu’on appelle une technique d’acquisition de trafic phygitale.

L’acquisition de trafic phygitale n’a rien à voir avec l’acquisition de trafic en ligne. En ligne, il y a Google, en point de vente phygital il y a ce “coup de pouce”(nudge) par exemple.


Motoblouz


Motoblouz suit la même trajectoire que Basket4Ballerz. C’est un pure player à l’origine qui a décidé de commercialiser ses produits en points de vente physiques. Ils ont près de 300 000 produits en catalogue. Leur entrepôt fait 60 000 mètres carrés. Mais leur magasin en fait seulement 200 ! 

C’est pourquoi ils ont installé des bornes interactives aux quatre coins du magasin. Résultat, 1,5 million d’euros de chiffre d’affaires dont 80% sont faits sur les bornes interactives. La marge nette de ce 1,2 million d’euros n’aurait pas été la même si elle avait été réalisée grâce à des stocks en magasin (loyers, trésorerie, manutention…).

En conclusion, que proposes-tu avec Improveeze aux enseignes retail qui veulent avancer sur le sujet ?

Improveeze est une agence d’accompagnement global pour les pure players et retailers qui veulent ouvrir des points de vente physiques. Nous sommes en train de nous hyperspécialiser dans l’accompagnement des pure players, des DNVB qui veulent passer le cap du point de vente physique avec la bonne méthode. Et la bonne méthode c’est de refléter la puissance de son offre et la puissance de son storytelling. Nous les aidons à bâtir et déployer une stratégie opérationnelle dans le retail : nous couvrons l’emplacement, l’agencement, les outils, les méthodes, l’animation des vendeurs, la gouvernance d’entreprise, la stratégie de contenu. 

Nous fournissons également la solution logicielle et matérielle qui est dédiée au cérémonial de vente en magasin (POS, bornes interactives, mobiles vendeurs, écrans interactifs etc…). Enfin nous fournissons également des prestations liées aux matériels : installation, maintenance, hotline…

Et en parallèle, nous avons Phygital Academy, qui est un centre de formation, de coaching et de conseil en stratégie retail phygitalisée. Nous aidons les entreprises à appréhender le phygital commerce et à le mettre en œuvre.

Suivez Maxence Dislaire sur LinkedIn et venez assister au store Tour phygital qu’il anime en ligne en visio tous les premiers jeudi de chaque mois, entre 12 et 13h30 !

 

Choix prestataire CRM – 70+ cabinets de conseil, agences & intégrateurs

Le CRM est un sujet complexe qui requiert des compétences variées. Difficiles de les avoir toutes en interne, du coup, cela fait vivre beaucoup de prestataires. On peut faire appel à un prestataire pour beaucoup de sujets différents : parcours clients, aide au choix de solutions CRM (marketing, commercial ou service client), paramétrage des logiciels, conception des messages, etc. Les spécialités se recoupent et sont difficiles à lire quand on n’est pas expert du métier.

Nos clients installent souvent Octolis lors d’une phase de restucturation de leur écosystème CRM. Du coup, on croise beaucoup de professionnels différents. Des cabinets de conseil CRM, des ESN / intégrateurs techniques, des agences en conception d’emails, des freelances data, etc.

A force de croiser des prestas, on s’est dit que ce serait sympa de consolider les noms quelque part. Résultat, un fichier assez complet de 70+ professionnels CRM dans un GSheet téléchargeable.

On a essayé de les classifier, et d’en sélectionner quelques uns pour chaque catégorie dans l’article ci-dessous. Je parle d’essayer, car c’est difficile de mettre dans une seule catégorie des boites de services qui font tout, avec des profils à la fois consultants strat, développeur, chef de projet CRM.

Télécharger notre Top 70+ prestataires CRM français

 

Sélection de cabinet de conseils CRM

> Pour concevoir le dispositif cible : parcours clients, plan relationnel, choix logiciels, orga cible, etc.

NomDescriptionSpécialitésNb employés
MeetYourPeopleMeet Your People c’est une équipe de consultants CRM indépendants basée à Paris. Notre mission ? Vous conseiller et vous accompagner dans la mise en œuvre d’une stratégie CRM éthique, responsable et performante. Donnons du sens à vos actions !CRM , marketing , Marketing client , data, digital, connaissance client, expérience client, feedback management, voice of customer, parcours client, marketing automation et customer journey 3
BadsenderBadsender est une agence spécialisée en eCRM et en email marketing. Conseil - Stratégie eCRM et emailing, choix outils de gestion de campagne ou audit délivrabilité Déploiement - Qu’il s’agisse de migrer vos données et vos campagnes vers votre nouvelle plateforme emailing ou de déployer votre nouvelle stratégie eCRM Production - L’intégration HTML d’emails, la rédaction de contenus et la conception de designs d’emails Email Marketing, Emailing, eCRM, sCRM, Newsletter, Conseil, Analyse, déploiement, production, fullservice8
CartelisCabinet de conseil Data Marketing & CRM. Nous accompagnons nos clients, qu'il s'agisse de grands groupes ou de PME, dans leur projet de transformation digitale avec une approche centrée autour des données clients. Notre équipe de consultants de haut niveau met en place des dispositifs d'analyse et d'exploitation des données à très forte valeur ajoutée : modélisation du parcours client, scoring comportemental, benchmark DMP / CRM, déploiement de scénarios relationnels, etc.Architecture CRM, Parcours clients, Plan relationnel, Marketing Automation, RCU / CDP, Analytics, Données clients, RGPD, Data gouvernance, Data Marketing, OKR, Attribution12
StratelloExpert du conseil et de l’accompagnement en stratégies marketing clients omni canal, notre mission a pour objectif d’accélérer vos performance business grâce à une meilleure Expérience client. Pour cela, nous diagnostiquons les parcours clients, construisons vos personas, définissons vos futurs Parcours cibles, élaborons la stratégie data et formulons vos scénarios de marketing automation … Marketing clients, Omnicanal, Crosscanal, Multicanal, Parcours clients, ROI, Retail, CRM, Marketing web,Conseil marketing, Relations clients, persona, RGPD, marketing automation13
CustupCustUp est un conseil opérationnel en Relation Clients. Nous structurons et mettons en œuvre le Marketing Clients et les schémas de dialogue des entreprises. Pour ce faire, nous utilisons le CRM, le Marketing Automation et les Centres de Contacts. Nous organisons la collecte et l’exploitation des Données Clients : le carburant de la Relation Clients à distance.CRM, Centre de contacts, Abonnement, Marketing client, Relation client, Parcours Client, GDPR, RGPD, DMP, Données Client, Service Client, Automated marketing, Formation Relation Client24
RelatiaFondée en 2010, L’Agence Relatia, l'agence de marketing relationnel digital SoLoMo, en particulier pour les enjeux Drive2Store ou Store2Digital. Notre spécialité : acquisition ou fidélisation de vos clients via l'exploitation des dernières innovations en terme de services connectés.E-CRM, Emailing, E-Marketing, M-CRM, Mobile Marketing, Advertising, email responsive, Agence digitale, digital Marketing, Agence E-CRM, drive to store, geolocalisation, datamining36
ColoradoCréé en 2003, Colorado Groupe accompagne ses clients pour imaginer et mettre en œuvre une expérience client fluide, efficace et innovante. Colorado Groupe s’appuie sur la complémentarité de ses 2 activités : 1. Le conseil en marketing et innovation sur l’Expérience Client 2. ’analyse des attentes clients et le développement du Customer Insight avec sa solution SaaS innovante ConsumerLiveConseil en relation client, Pilotage et management de l'expérience client, Solution de Customer Feedback Management et Solutions d'écoute et d'analyse de la Voix du Client 44
SingulierCréés pour l'ère numérique de deuxième génération, nous sommes une équipe d'entrepreneurs de la transformation numérique. Nous combinons le conseil aux entreprises, la réflexion sur le design numérique, le marketing, la technologie et les données pour résoudre rapidement des problèmes commerciaux complexes pour les PDG, leurs cadres et les investisseurs. Nous constituons des taskforces d'entrepreneurs pour mener des opérations numériques stratégiques avec des investisseurs et des entreprises.Digital strategy, Digital transformation, Innovation, Data, UX, CRM, Branding, Digital marketing, Digital IT, Change management, Digital coaching, E-commerce, Due diligences56
EMertonEmerton is a global high-end strategy consulting group, with offices in Europe, North America and Asia.Strategy consulting, Digital transformation, Business transformation, Innovation, data & analytics, Due diligences,Data science70
WaissoFondée en 2003 par des professionnels du Marketing et du Data, Waisso est une agence digitale spécialisée dans l’optimisation du marketing client en alliant technologie, data et contenu pour une approche plus innovante. Nous avons construit une entreprise où des hommes et des femmes, relevant de différentes expertises (ingénieurs, data scientists, consultant marketing, etc.) travaillent ensembles pour répondre aux nouvelles exigences d’un marketing bouleversé par le digital.Marketing Crm, Marketing Cloud, Adobe Partner, Sprinklr, Gigya, Digital Marketing, Cross Channel, Acquisition, Fidelisation, Oracle, Campaign Management, Consulting, Analytics, Segmentation, Contenu Digital, Big Data, Social Media, Business Intelligence, Mobile Marketing, Acquisition74
VertoneVERTONE est un cabinet de conseil en stratégie et management. Il se distingue par ses missions d’orientations stratégiques autour des métiers du marketing, du développement commercial, de l'expérience client et de la fidélisation, avec une approche centrée sur le client final. Strategy and management consulting, Marketing strategy, Customer relationship management, Digital strategy, Customer value development, Product and offer strategy, Stratégie marketing, Conseil en stratégie et management, Management de la relation client, Stratégie digitale, Développement de la valeur client, Innovation d'offres et de services, Fidélisation client162
KPCKPC est un acteur de référence dans le pilotage de la performance et de l’expérience client. Grâce à la convergence de nos savoir-faire, nous proposons des solutions pour construire l’entreprise intelligente et digitale de demain. La gestion intelligente des données est au coeur de notre ADN, et de notre culture d’entreprise. Nos partenariats stratégiques et nos équipes pluri-disciplinaires permettent à KPC d’offrir à ses clients la vision, l’expérience et le savoir-faire nécessaires pour développer, personnaliser, intégrer et déployer les solutions les plus performantes.Data Intelligence & Analytics, Customer Experience & Digital, ERP, Data Science, Big Data, Marketing Automation, Transformation Numerique, Crm, Adobe Campaign, Ia, Salesforce,, Selligent Et Anaplan 219
Velvet ConsultingVelvet Consulting est le cabinet leader de l'accompagnement des entreprises dans leur orientation client. Depuis 2004, grâce à 200 passionnés de Marketing, nous accélérons la performance des sociétés en construisant une expérience client riche, innovante et efficace grâce à notre approche globale et la complémentarité de nos pôles d’expertises. Depuis juillet 2020, nous avons rejoint le groupe WPP et le réseau Wunderman Thompson.Stratégie Client, Performance, Innovation, Change, Datamining, Business Intelligence, Digital, CRM, Marketing Automation, Big Data, Mobilité, Omnicanal, Big Data232
NijiNiji est une société de conseil, de design et de mise en œuvre technologique, au service de la transformation numérique des entreprises. Niji accompagne depuis 2001 un très grand nombre d'acteursdans l’accélération et la réussite de leur mutation digitale, au service de leur stratégie, de leur distribution multicanale et de leur fonctionnement interne.Conseil en stratégie numérique, Ingénierie et conseil technologique, Design de service, Réalisation logicielle979

 

Sélection d’ESN & conseil IT

> Pour définir l’architecture technique CRM  et intégrer les outils CRM à l’écosystème existant

NomDescriptionSpécialitésNb employés
ArtefactArtefact is an award-winning responsible strategy and design firm. We help your organization face the future with confidence and craft the products and experiences that bring your vision to life. Our touchstone is responsible design – creating lasting value for people, business, and society. Named one of Fast Company's Most Innovative Companies, we partner with organizations like Dell, Hyundai, Eli Lilly, Seattle Children's Hospital, the Bill and Melinda Gates Foundation, and more.user experience design, interaction design, product design, digital innovation, software design, industrial design, creative66
VertoneVERTONE est un cabinet de conseil en stratégie et management. Il se distingue par ses missions d’orientations stratégiques autour des métiers du marketing, du développement commercial, de l'expérience client et de la fidélisation, avec une approche centrée sur le client final. Strategy and management consulting, Marketing strategy, Customer relationship management, Digital strategy, Customer value development, Product and offer strategy, Stratégie marketing, Conseil en stratégie et management, Management de la relation client, Stratégie digitale, Développement de la valeur client, Innovation d'offres et de services, Fidélisation client162
ConverteoGrâce à notre équipe de plus de 200 consultants, spécialistes et experts, nous sommes un accélérateur de performance intervenant du cadrage à la réalisation. Connecteur entre le marketing et l'IT, pragmatique et indépendant, nous œuvrons pour le transfert de compétences à nos équipes clientes.conversion, optimisation, webanalytics, formation, adtech, martech, datalake, datascience, digital marketing, digital consulting, data consulting, DMP, Marketing Automation, data engineering, CRO, Consulting, Marketing, Technologie205
ColombusColombus Consulting est une société de conseil en management spécialisée dans le changement d'entreprise et la gestion de projets complexes. Il intervient sur les secteurs des services financiers, des marchés financiers, de l'énergie et des services publics. Basés en France et en Suisse, nos +170 consultants interviennent au niveau opérationnel et exécutif.stratégie opérationnelle, conduite du changement, pilotage de programmes, systèmes d'information, operational strategy, operations performance optimization, change management, complex program management, méthode agile, organisation, digital, data, CRM, marketing, innovation, MarTech, AdTech, GDPR, RGPD, SAFE, Marketing Automation, Customer service, RPA235
AdoneC’est pour accompagner les grands acteurs du Luxe dans leur transformation digitale et les aider à créer des expériences clients remarquables, qu'Adone Conseil a été créé en 2007. Adone réalise des missions stratégiques et opérationnelles sur des projets e-Commerce, Data, Customer Experience, Digital in Store, PIM-DAM, PLM, Supply Chain ou encore Green Transition.Assistance à maîtrise d'ouvrage (AMOA), Gestion de projet, Conseil en système d'information, Digital, Luxe, Parfums et Cosmétiques, Mode, Horlogerie et Joaillerie, Tourisme, Hôtellerie, Digital in Store, PIM, DAM, CRM, Supply Chain, e-commerce, Data, Analytics, Clienteling, OMS, PMO, Consultant345
AGIDepuis plus de 50 ans, nous avons bâti notre réputation en reflétant les besoins des marques de la meilleure façon possible. Nous comprenons les avantages de tout offrir sous un même toit. C'est pourquoi les architectes, les designers et les entreprises de divers secteurs d'activité choisissent AGI pour tous leurs besoins en matière de signalisation, d'image de marque et de maintenance.Architectural Imaging, Architectural Signage, National Programs, Image Maintenance, Facility Design Services, Interior Signage and Wayfinding, ATM Housing, Kiosks, and Toppers, Digital Signage, Exterior Signage, Innovative Solutions, Sign Maintenance, Electrical Service, EVCE Installation & Service, Interior & Exterior Lighting777
NijiNiji est une société de conseil, de design et de mise en œuvre technologique, au service de la transformation numérique des entreprises. Niji accompagne depuis 2001 un très grand nombre d'acteursdans l’accélération et la réussite de leur mutation digitale, au service de leur stratégie, de leur distribution multicanale et de leur fonctionnement interne.Conseil en stratégie numérique, Ingénierie et conseil technologique, Design de service, Réalisation logicielle979
AccentureAccenture est une entreprise internationale de conseil en management, technologies et externalisation. Combinant son expérience et ses capacités de recherche et d’innovation développées et mises en œuvre auprès des plus grandes organisations du monde sur l’ensemble des métiers et secteurs d’activité, Accenture aide ses clients - entreprises et administrations - à renforcer leur performance.Management Consulting, Systems Integration and Technology, Business Process Outsourcing et Application and Infrastructure Outsourcing1138
KeyrusActeur international du conseil et des technologies, Keyrus a pour mission de donner du sens aux données, en révélant toute leur portée, notamment sous un angle humain. S'appuyant sur l'expérience cumulée de plus de 3 000 collaborateurs et présent dans 22 pays sur 4 continents, Keyrus est l'un des principaux experts internationaux en matière de données, de conseil et de technologie.Management & Transformation, Data Intelligence, Digital Experience2315
TalanTalan est un cabinet de conseil en innovation et transformation par la technologie. Depuis plus de 15 ans, Talan conseille les entreprises et les administrations, les accompagne et met en œuvre leurs projets de transformation et d’innovation en France et à l’international. Conseil, AMOA SI, MOE, Support, Architecture SI, Transformation Agile, Digital, Consulting, IT Consulting, CRM, BIG DATA, IoT, Blockchain, IA, innovation, Data, big data2903
WavestoneÀ la confluence du conseil en management et du conseil numérique, Wavestone accompagne les entreprises et organisations de premier plan dans la réalisation de leur transformation la plus critique sur la base d'une conviction unique et centrale : il ne peut y avoir de transformation réussie sans une culture partagée d'enthousiasme pour le changement. Strategy & Management Consulting, Innovation Management & Funding, Marketing, Sales & Customer Experience, Digital & IT Strategy, Digital & Emerging Technologies, IT & Data Architecture3907
BearingPointBearingPoint est un cabinet de conseil indépendant avec des racines européennes et une portée mondiale.Nous transformons les entreprises. Nous aidons nos clients à atteindre leurs objectifs en appliquant notre profonde expertise sectorielle et fonctionnelle pour comprendre et répondre à leurs besoins spécifiques.Nos consultants sont passionnés et très engagés, avec un état d'esprit pragmatique mais innovant.Business Consulting, Technology Consulting, Management Consulting, Digital & Strategy, Advanced Analytics, Digital Platforms, RegTech, Software Development et Agile Advisor 9154
CGIDes idées sur lesquelles vous pouvez agirFondée en 1976, CGI est l'une des plus grandes entreprises de services-conseils en TI et en affaires au monde. Dans 21 secteurs d'activité et sur 400 sites dans le monde, nous fournissons des services-conseils en TI et en affaires complets, évolutifs et durables qui sont informés à l'échelle mondiale et fournis à l'échelle locale.Business consulting, Systems integration, Intellectual property, Managed IT, Business process services, Digital transformation, Emerging technology57529

 

Conseil opérationnel & Agences CRM

> Pour piloter la mise en place d’un nouvel outil, paramétrer des campagnes / scénarios, créer des messages, etc.

NomDescriptionSpécialitésNb employés
CapitaineMailVotre agence spécialiste de l’email marketing, innovant et performant, à Grenoble.Intégrateur email, délivrabillité, conseil emailing, conception messages1
AltercreationStudio de création graphique et agence digitale au service des entreprises depuis 2006, Alter Création concentre son énergie afin de mettre en lumière tous vos projets de communication, de la création de votre identité visuelle à la réalisation de votre site web, de vos éditions sur tous supports à vos campagnes e-mailings.Design web, Email marketing4
ComexporerAgence de marketing digital à ParisComexplorer est une agence qui propose, grâce à une méthodologie unique, d’aider les entreprises à accroitre leur vente, leur trafic web, à qualifier leur leads, à transformer et fidéliser leur clientèle. Inspiré du modèle startup, l’agence propose une nouvelle approche du marketing, plus pragmatique et plus pertinente : le lean marketing. Inbound marketing, Réseaux sociaux, Growth hacking, Stratégie marketing digital, marketing automation5
BadsenderBadsender est une agence spécialisée en eCRM et en email marketing. Conseil - Stratégie eCRM et emailing, choix outils de gestion de campagne ou audit délivrabilité Déploiement - Qu’il s’agisse de migrer vos données et vos campagnes vers votre nouvelle plateforme emailing ou de déployer votre nouvelle stratégie eCRM Production - L’intégration HTML d’emails, la rédaction de contenus et la conception de designs d’emails Email Marketing, Emailing, eCRM, sCRM, Newsletter, Conseil, Analyse, déploiement, production, fullservice8
MajeliceMajelice est une agence digitale experte en email marketing.Nous accompagnons nos clients dans leur transformation digitale par le biais de mise en œuvre d’opérations de e-marketing (email & SMS).Nous répondons avec le même soin et la même expertise à tous les besoins de nos clients, qu’il s’agisse de la mise en place d’une simple newsletter, d’un scénario de fidélisation ou d’une mécanique complexe de recrutement multicanal. email marketing, emailing, sms marketing, creation graphique, emails personnalisés, campagnes scénarisées, real time email marketing, routage, délivrabilité, responsive design, intégration html, analyse et recommandations, animation de bases de données, newsletters, marketing automation9
FysaneFYSANE est une agence de Marketing Automation dont le siège est basé à Paris. Elle intègre les compétences nécessaires pour mener à bien la transformation digitale de votre entreprise.Notre mission est de vous accompagner dans la réalisation de vos projets, de la conception à la mise en œuvre tout en garantissant un suivi.Notre partenariat avec Adobe nous permet de mettre à disposition des consultants ayant une expertise dans la solution de l’écosystème Marketing Automation Adobe Campaign Classic ou Standard.Marketing Services, Digital, CRM, Adobe Campaign, Intégration HTML, Gestion de campagne cross-canal, ACQUISITION, FIDELISATION, Stratégie Client10
CartelisCabinet de conseil Data Marketing & CRM. Nous accompagnons nos clients, qu'il s'agisse de grands groupes ou de PME, dans leur projet de transformation digitale avec une approche centrée autour des données clients. Notre équipe de consultants de haut niveau met en place des dispositifs d'analyse et d'exploitation des données à très forte valeur ajoutée : modélisation du parcours client, scoring comportemental, benchmark DMP / CRM, déploiement de scénarios relationnels, etc.Architecture CRM, Parcours clients, Plan relationnel, Marketing Automation, RCU / CDP, Analytics, Données clients, RGPD, Data gouvernance, Data Marketing, OKR, Attribution12
InboundValueInbound Value est une agence de communication digitale spécialisée dans l’Inbound Marketing. Notre agence travaille principalement avec des clients en B2B notamment dans le secteur des « SaaS » (Software As A Service). Nous permettons à des entreprises BtoB de saisir les opportunités que leur offre internet, en leur apportant plus de trafic qualifié ainsi que des leads de qualité qui sont susceptibles de devenir des clients.Inbound Marketing, SEO, Social Media, Marketing Digital, Hubspot, Strategie digitale, Content Marketing, Growth Hacking, E-Mail Marketing, Lead Generation, Trafic Generation, B2B, SaaS, Marketing Automation23
CustupCustUp est un conseil opérationnel en Relation Clients. Nous structurons et mettons en œuvre le Marketing Clients et les schémas de dialogue des entreprises. Pour ce faire, nous utilisons le CRM, le Marketing Automation et les Centres de Contacts. Nous organisons la collecte et l’exploitation des Données Clients : le carburant de la Relation Clients à distance.CRM, Centre de contacts, Abonnement, Marketing client, Relation client, Parcours Client, GDPR, RGPD, DMP, Données Client, Service Client, Automated marketing, Formation Relation Client24
MarkentiveMarkentive fournit des talents, des processus et des technologies pour faire de votre transformation un succès. Que votre projet soit de trouver l'inspiration, de construire un écosystème digital (CRM, Site Web, Marketing), de mener des campagnes ou simplement de développer vos compétences, nos experts peuvent vous aider. Markentive vous invite à prendre le chemin de la croissance (pour de bon).Conseil en stratégie, Marketing, strategie digitale, Marketing digital, inbound marketing, Transformation digitale, Hubspot, Marketo, marketing automation, act-on, growth, CRM35
KissTheBrideAgence conseil en marketing client du groupe Loyalty Company.Kiss The Bride marie nativement la précision des data et la force des émotions pour donner naissance à des expériences clients originales, engageantes et profitables. 3 directions d’Agences : Lille / Paris / LyonHub d’expertises pluridisciplinaires : Consulting & Projects management - Data & Engineering - Création, Content & Social - Digital - Plateformes technologiques - Opérations marketing140 collaborateurs - 25 M€ de CA - 21 récompenses professionnelles - +100 clientscommunication, digital, marketing, marketing client, relation client, stratégies de fid et d'engagement, animation de réseaux, performance commerciale, data, expérience client72
WaissoFondée en 2003 par des professionnels du Marketing et du Data, Waisso est une agence digitale spécialisée dans l’optimisation du marketing client en alliant technologie, data et contenu pour une approche plus innovante. Nous avons construit une entreprise où des hommes et des femmes, relevant de différentes expertises (ingénieurs, data scientists, consultant marketing, etc.) travaillent ensembles pour répondre aux nouvelles exigences d’un marketing bouleversé par le digital.Marketing Crm, Marketing Cloud, Adobe Partner, Sprinklr, Gigya, Digital Marketing, Cross Channel, Acquisition, Fidelisation, Oracle, Campaign Management, Consulting, Analytics, Segmentation, Contenu Digital, Big Data, Social Media, Business Intelligence, Mobile Marketing, Acquisition74
DnDSituée à Paris, Montpellier, Lille & Nantes, Dn'D est une agence conseil en création d’expériences digitales et E-Commerce. Elle conseille et accompagne les entreprises du B2B et du B2C (luxe, retail, industrie, grande consommation, etc) dans leur stratégie online depuis 2004.E-Commerce Agency, Consulting, Web Design, Web Development, Web Marketing, Magento, Akeneo PIM, Oro CRM, Mirakl MarketPlace, PWA, Vue Storefront, Adobe, CRM, Marketing Automation et OroCommerce 85
The Social clientNous sommes une agence CX Digitale. Les conversations et interactions composent notre terrain de jeu. Nous concevons, réalisons et animons de nouvelles expériences qui alimentent les conversations entre les marques & les clients. Nous optimisons vos canaux digitaux avec une approche customer centric en identifiant les opportunités et en implémentant de nouvelles solutions.Chatbot, Digital CRM, Digital Marketing, Social Media Management, Social Media Intelligence, Social Ads, Brand Community, Social Influence Marketing, eCRM, Interaction design, Visual IVR, Digital Care, Customer Support, Artificial Intelligence, Automation, Selfcare176
Velvet ConsultingVelvet Consulting est le cabinet leader de l'accompagnement des entreprises dans leur orientation client. Depuis 2004, grâce à 200 passionnés de Marketing, nous accélérons la performance des sociétés en construisant une expérience client riche, innovante et efficace grâce à notre approche globale et la complémentarité de nos pôles d’expertises. Depuis juillet 2020, nous avons rejoint le groupe WPP et le réseau Wunderman Thompson.Stratégie Client, Performance, Innovation, Change, Datamining, Business Intelligence, Digital, CRM, Marketing Automation, Big Data, Mobilité, Omnicanal, Big Data232

 

Cabinets de conseil data

> Pour analyser votre base clients, et exploiter vos données au maximum

NomDescriptionSpécialitésNb employés
InetumPrésent dans 26 pays, Inetum est un leader incontournable des services informatiques à valeur ajoutée et des logiciels. Inetum occupe un positionnement stratégique différenciant entre les opérateurs de taille mondiale et les acteurs de niche. Avec près de 27 000 collaborateurs, le Groupe atteindra ainsi les 2,3 milliards d’euros de chiffre d’affaires sur 2019 (pro forma).Consulting, Applications Services, Infrastructure Services, Software, smart cities, IoT, Blockchain, DevOps, artificial intelligence, Industry 4.0 5
UnnestA la frontière de la Tech et de la Data, UnNest accompagne les équipes marketing in-house ou en agence pour utiliser au mieux leur donnée "First party" Nous mettons en place pour nos clients une équipe data externalisée, capable de délivrer des projets et des applications data en un temps record pour les marques, les "scale up" et les agences de marketing digital.Analytics, Data Consulting, Digital Analytics, Data Marketing, Cloud Data Warehouse, RGPD, Data Engineering, Data Analysis, Tracking, Google Big Query, Fivetran, Google Cloud Platform, ETL et Martech 11
MFGMFG Labs est une société de conseil et réalisation experte en data et en intelligence artificielle. Nous aidons les entreprises à améliorer leurs prises de décisions, à optimiser leurs processus et à créer de nouveaux services grâce à l'application de data science, de digital analytics, de design et des technologies les plus avancées.Data analysis, Data science, Infrastructure, Development, Data engineering, Web analytics, Digital media, machine learning, big data, software development 24
C-WaysC-Ways est une société de conseil spécialisée en data sciences. Grâce à des méthodes innovantes de captation et de modélisation de données, C-Ways accompagne dans leurs décisions les administrations et les entreprises leaders des secteurs de la mobilité, de la mode, du luxe, des services financiers, du sport, de la grande consommation…market research, predictive marketing, data modeling, data science, client surveys, big data, data driven marketing, modeling et creative data 27
ArtefactArtefact is an award-winning responsible strategy and design firm. We help your organization face the future with confidence and craft the products and experiences that bring your vision to life. Our touchstone is responsible design – creating lasting value for people, business, and society. Named one of Fast Company's Most Innovative Companies, we partner with organizations like Dell, Hyundai, Eli Lilly, Seattle Children's Hospital, the Bill and Melinda Gates Foundation, and more.user experience design, interaction design, product design, digital innovation, software design, industrial design, creative66
ElevateThe ELEVATE Group is a collection of 3 hyper-focused businesses each with a different center of gravity. All under one global roof. The result: A Group that's much stronger than the sum of its parts. We bring clarity to our customers toughest revenue generations through Data Integrity, Demand Generation, and Business Insights.Data Integrity, Demand Generation, Data Analytics, Lead Generation, CRM Management, Marketing Automation Management, BI Dashboard Development, Marketing Strategy, Contact Identification73
KeleyStratégie digitale, Omnicanal, Stratégie & expérience client, E-commerce, CRM, Pilotage de projets, Stratégie data, Open Innovation, Acquisition, SEO, UX & Design thinking, Design d'interface, CRO, Branding & communication, Data-driven marketing, Intelligence augmentée et Ingénieri Stratégie digitale, Omnicanal, Stratégie & expérience client, E-commerce, CRM, Pilotage de projets, Stratégie data, Open Innovation, Acquisition, SEO, UX & Design thinking, Design d'interface, CRO, Branding & communication, Data-driven marketing, Intelligence augmentée et Ingénierie 84
RhapsodiesRhapsodies Conseil, s’investit auprès de chacun de ses clients pour concevoir des réponses sur mesure combinant compétences métiers, expertises techniques et pratiques agiles. Nos solutions novatrices sont bâties en collaboration étroite avec nos clients dans une démarche de co-construction garantissant une réponse alignée à leurs besoins.Transformation Agile, Transformation DATA, Architecture SI, Architecture d'Entreprise, Pilotage des Transformations, Performance Economique IT , Internal Digital Experience101
DataValueDataValue Consulting est un cabinet de conseil IT qui accompagne les entreprises des secteurs privé et public dans la valorisation de leur data. Le cabinet spécialiste s'appuie sur une double compétence de ses consultants en management et en technologie. Nous aidons nos clients depuis la formalisation de leur stratégie jusqu’à la mise en œuvre de leurs projets data.Conseil, Stratégie IT, Big Data, Data Management, Pilotage de la performance, Business Intelligence, Gouvernance de la Data, Datavisualisation, Data Management, Data Intégration134
ConverteoGrâce à notre équipe de plus de 200 consultants, spécialistes et experts, nous sommes un accélérateur de performance intervenant du cadrage à la réalisation. Connecteur entre le marketing et l'IT, pragmatique et indépendant, nous œuvrons pour le transfert de compétences à nos équipes clientes.conversion, optimisation, webanalytics, formation, adtech, martech, datalake, datascience, digital marketing, digital consulting, data consulting, DMP, Marketing Automation, data engineering, CRO, Consulting, Marketing, Technologie205
KPCKPC est un acteur de référence dans le pilotage de la performance et de l’expérience client. Grâce à la convergence de nos savoir-faire, nous proposons des solutions pour construire l’entreprise intelligente et digitale de demain. La gestion intelligente des données est au coeur de notre ADN, et de notre culture d’entreprise. Nos partenariats stratégiques et nos équipes pluri-disciplinaires permettent à KPC d’offrir à ses clients la vision, l’expérience et le savoir-faire nécessaires pour développer, personnaliser, intégrer et déployer les solutions les plus performantes.Data Intelligence & Analytics, Customer Experience & Digital, ERP, Data Science, Big Data, Marketing Automation, Transformation Numerique, Crm, Adobe Campaign, Ia, Salesforce,, Selligent Et Anaplan 219
KeyrusActeur international du conseil et des technologies, Keyrus a pour mission de donner du sens aux données, en révélant toute leur portée, notamment sous un angle humain. S'appuyant sur l'expérience cumulée de plus de 3 000 collaborateurs et présent dans 22 pays sur 4 continents, Keyrus est l'un des principaux experts internationaux en matière de données, de conseil et de technologie.Management & Transformation, Data Intelligence, Digital Experience2315
TalanTalan est un cabinet de conseil en innovation et transformation par la technologie. Depuis plus de 15 ans, Talan conseille les entreprises et les administrations, les accompagne et met en œuvre leurs projets de transformation et d’innovation en France et à l’international. Conseil, AMOA SI, MOE, Support, Architecture SI, Transformation Agile, Digital, Consulting, IT Consulting, CRM, BIG DATA, IoT, Blockchain, IA, innovation, Data, big data2903
Business & DécisionsBusiness & Decision est un groupe international des services du numérique, spécialisé, depuis sa création, dans l’exploitation et l’analyse de données.  Data Intelligence, Big Data, Data Gouvernance, véritables socles de l’intelligence artificielle et de l’expérience digitale, sont les domaines d’expertise et de spécialisation du groupe.  Business & Decision, filiale d’Orange Business Services, emploie 2 400 talents dans 10 pays dans le monde et dans 14 villes en France. Data, Digital, CRM, Digital Transformation, Data Science, Data Visualisation, Gouvernance des données, Intelligence artificielle, Protection des données, Green AI, Data Mesh 2921

 

Intégrateurs data / CRM

> Pour mettre en place les flux de données, et paramétrer les outils CRM

NomDescriptionSpécialitésNb employés
CeziumCezium est votre partenaire de confiance sur tous les sujets relatifs au marketing digital:- spécialiste des solutions de marketing automation (notamment Salesforce Marketing Cloud)- conseil avisé sur les sujets DMP (POC ou stratégie d'industrialisation)- partenaire innovant (ISV sur la plate-forme Salesforce avec des applications dédiées à Marketing Cloud) - coaching et formation.marketing, martech, salesforce, adobe, dmp, marketing cloud, customer experience, analytics, customer journey, cdp, sfmc7
AtejaAteja founded in 2012. Intégrateur des solutions CRM Sage. Sage CRM Standard. Développement de projets ETL Talend Open Studio. Déploiement de portail intranet Microsoft Sharepoint. Emploi 5 personnes. www.ateja.fr Basé à Euratechnologies - technopole NTICSageCRM, CRM, Sharepoint, Talend Open Studio, INES CRM, Sage CRM, Salesforce23
SynalticDepuis 2004, Synaltic est un véritable spécialiste en Data Management, et propose une nouvelle perspective sur les systèmes d’information de plus en plus « Data Driven ». Grâce à ses choix de partenaires dès leur plus jeune âge et l'appui de ses 30 collaborateurs certifiés, Synaltic accompagne ses clients dans toutes les étapes de la valorisation de leurs données. Il s’agit d’un véritable artisan de la donnée avec des valeurs indissociables telles que le partage, la curiosité, la polyvalence, l'innovation et la durabilité.Expertise, Projet, Formation, Support, R&D, Data Preparation, Dataviz, Développement, Data Lake, Data Integration, Méthodologie Projet, Conseil, Open Source, Open Data, Data Management, Business Intelligence30
AIDAI&DATA est la plus ancienne société de Data Marketing en France. Créés en 1972 (nous fêtons nos 50 ans en 2022 !), nous avons déjà réalisé plus de 2 000 projets data, principalement pour les Grands Comptes, tous secteurs confondus. Nous travaillons principalement pour des grands comptes dans tous les secteurs d’activité : Leclerc Voyages, Compagnie Marco Polo, Bioderma, Botanic, EDF, Puy du Fou, MAIF, Harmonie Mutuelle, Société Générale, etc... Au total, nous gérons pour ces marques près de 250 millions de clients et 50 milliards de transactions par an.Datamining, CRM services, Data Quality, Marketing strategy, Datascience, Datamarketing, Textmining, Machine Learning, Consulting, Data Training56
SynoliaSynolia est une société de conseil et de services spécialisée dans la mise en place de dispositifs sur-mesure plaçant le client au cœur de l’entreprise. Rapidement Synolia tisse des liens étroits avec des éditeurs innovants et s’entoure des meilleurs talents, tous partageant les mêmes valeurs d’innovation, d’excellence et de proximité. CRM, eCommerce, eBusiness, SugarCRM, Magento, Prestashop, QlikView, Marketing Automation, OroCRM, relation client, CRM Open Source, Salesfusion98
AvisiaFondé en 2007, AVISIA est devenu au fil des années un acteur de référence en Data, Digital & Technologies. A travers une équipe de passionnés, nous sommes spécialisés dans le Conseil, l’Intégration et la réalisation de projets « Data Centric ». Business Intelligence, Performance Analytique, Big Data, Conseil & AMOA, Data Science, Digital, Data Engineering, Décisionnel, Web Analytics, Google Cloud Platform, Dataiku, SAS, Google Analytics182
CylleneChez Cyllene, on couvre le spectre complet de votre besoin en termes de : 1. Conseils 2. Définition d’architectures 3. Hébergement & Services managés 4. Cybersécurité & Formations 5. Déploiement de technologies applicatives et web 6. Data Intelligence & Data AnalyticsRCU, CDP, Architecture data, Hébergement, Maintenance, Infogérance, Base de données, Data analytics218

Télécharger notre Top 70+ prestataires CRM français

Pour accéder à la ressource, il vous suffit de vous inscrire en quelques clics.
Au clic sur le bouton ci-dessous, vous arriverez sur un formulaire d'inscription rapide. Une fois inscrit, il y a un onglet "Ressources" qui apparaîtra dans le menu du haut qui vous permettra d'accéder à l'ensemble des ressources en téléchargement gratuit. Avec un peu de chance, vous aurez une bonne surprise, il y aura d'autres ressources qui vous seront utiles 😊

👉 Je m'inscris pour télécharger la ressource

Comment mesurer le ROI de mon dispositif data ?

Il n’est pas facile de mesurer le ROI d’un dispositif data ou l’impact d’une fonction data. Pour un dirigeant soucieux de bien doser ses investissements, c’est un challenge.

Il y a au moins 2 raisons qui expliquent cette difficulté :

  • La fonction data est relativement nouvelle. Il n’y a pas encore de framework faisant autorité permettant de mesurer son impact. D’ailleurs, le rôle et la place dans l’organisation de la fonction data ne sont pas toujours bien clairs. Certaines équipes data reportent au CTO, d’autres aux CFO, d’autres au CMO…
  • La fonction data a un impact indirect sur les KPIs business de l’entreprise. Il s’agit d’une fonction support qui n’est pas directement génératrice de revenus comme peuvent l’être les fonctions Marketing ou Sales.

Télécharger notre template ROI Data Stack gratuitement

Notre conviction est que le ROI d’une fonction data varie suivant la taille de l’équipe data. C’est une idée que nous avions déjà présentée dans notre guide pour structurer la fonction Data / Analytics en startups. Pour résumer :

  • Votre équipe data a entre 0 à 5 personnes ? Son rôle principal est la fiabilisation des données, c’est-à-dire la gestion de la qualité des données. C’est sur cela que vous allez pouvoir la juger et mesurer son ROI.
  • Votre équipe data a entre 5 à 10 personnes ? Son rôle principal est l’opérationnalisation des données, c’est-à-dire la mise à disposition des données directement dans les outils des équipes métier.
  • Votre équipe data a plus de 10 personnes ? Son rôle est l’amélioration de la productivité des équipes.
roi team data enjeux
Source : Castordoc.

De ces rôles ou objectifs découlent des indicateurs que nous allons vous détailler. Nous avons aussi conçu pour vous une ressource GSheets 100% home-made qui devrait vous être utile. Pour produire ce guide, nous avons choisi de nous inspirer du beau travail réalisé par nos amis anglophones de chez Castordoc.

ROI d’une petite équipe data : Fournir des données fiables

Une petite équipe data (entre 0 et 5 personnes) doit se concentrer sur un objectif principal : fournir des données propres et fiables aux équipes business et aux décisionnaires. C’est donc la qualité des données qui va servir d’étalon pour mesurer le ROI de l’équipe et de l’infrastructure data.

Il existe 5 critères pour évaluer la qualité d’une donnée : l’exactitude, l’exhaustivité, la cohérence, la fiabilité et l’utilisabilité. Chacun de ces critères peut se décliner en KPIs et être utilisé pour évaluer le ROI de l’équipe data.

L’exactitude

L’exactitude des données définit le niveau de correspondance entre vos données et la réalité. C’est le critère de base. Si le nombre de commandes enregistré dans le data warehouse est différent de celui rapporté par les commerciaux, il y a un problème, vos données sont inexactes Le KPI consiste à évaluer la proportion de données exactes parmi l’ensemble de vos données.

roi stack data exactitude

Une autre approche consiste à calculer le taux d’exactitude pour chaque data set et à le rendre accessible aux utilisateurs sous la forme d’un pourcentage affiché dans leurs outils. On peut ensuite définir une règle de gouvernance : « si moins de X% d’exactitude, ne pas utiliser ce champ ».

La complétude

Le taux de complétude désigne le pourcentage de champs complétés pour un attribut donné. Par exemple, si vous avez l’adresse postale de 80% de vos contacts, 80% est le taux de complétude de l’attribut « adresse ». On peut aussi calculer le champ de complétude d’une base de données, en prenant en compte l’ensemble des colonnes. Le taux de complétude se mesure de la manière suivante :

roi stack data completude
Là encore, le taux de complétude peut être affiché dans les outils des utilisateurs métier et des règles peuvent être définies pour déterminer à partir de quel taux de complétude un champ peut être utilisé (pour créer un segment par exemple).

La cohérence

La cohérence désigne l’absence de conflit entre vos données. Si vous avez 2 outils qui stockent les adresses postales et que ces 2 outils affichent des valeurs différentes, il y a un conflit et donc un problème de cohérence. Soit dit en passant, l’unification des données dans une base centrale résout ce problème. Mais on peut aussi parler de conflit dans un même outil si, par exemple, votre revenu mensuel n’est pas cohérent avec votre chiffre d’affaires et vos coûts. Il y a donc 2 types de conflits. La cohérence est plus complexe à calculer que les autres métriques. Elle se calcule à deux niveaux : entre deux colonnes, entre deux tables.

roi stack data coherence

La fiabilité

Une donnée est fiable si elle fait l’objet de confiance de la part des personnes qui l’utilisent. Pour qu’une donnée soit fiable, elle doit disposer d’un niveau de garantie suffisant quant à sa qualité. Si l’équipe marketing décide de ne pas utiliser telles données parce qu’elle estime qu’elles ne reflètent pas la réalité, il y a un problème de fiabilité. La fiabilité est un critère subjectif dépendant des critères objectifs présentés plus haut : exactitude, complétude et cohérence. Il y a plusieurs manières de mesurer la fiabilité des données.

roi stack data fiabilite

L’utilisabilité

La question est simple : est-ce vos données sont utilisées par le métier ? Pour être utilisées, elles doivent être utilisables. Pour être utilisables, les données doivent être facilement accessibles et facilement interprétables.

Un ensemble de données répondant aux 4 critères vus précédemment peut très bien être inutilisable si les données sont difficiles à trouver et à comprendre…L’utilisabilité est le critère ultime de qualité des données. On peut améliorer l’utilisabilité des données en ajoutant des métadonnées, en documentant les données. D’où la métrique que nous vous proposons.

roi stack data utilisabilite

Deux autres métriques sont possibles : le nombre de requêtes d’utilisateurs demandant à ce que la donnée soit présentée autrement, le nombre d’utilisateurs cibles utilisant effectivement les systèmes qui leur sont destinés.

ROI d’une équipe data de taille intermédiaire : Faciliter l’exploitation opérationnelle des données

Une équipe data de taille intermédiaire (entre 5 et 10 personnes) n’a plus pour seul objectif de fiabiliser les données pour aider l’entreprise à prendre des décisions data-driven. Elle doit aussi rendre ces données exploitables au quotidien par les équipes métiers, par les opérationnels. L’exploitation opérationnelle de la donnée est son enjeu.

Impact sur les performances opérationnelles

Créer des reportings avec des données fiables, c’est bien, mais les données n’ont pas seulement vocation à alimenter des tableaux de bord. Le niveau supérieur consiste à pousser les données directement dans les outils utilisés par le métier pour que les équipes puissent utiliser les données au jour le jour, dans leurs process quotidiens. Les données sont « opérationnalisées ».

C’est, par exemple, mettre en place un flux permettant que le NPS remonte automatiquement dans la fiche client du CRM, avec mise à jour en temps réel quand il s’agit de données chaudes. Et plus largement, cela consiste à faire en sorte que les segments, les scores et autres agrégats calculés dans l’outil de data management soient automatiquement synchronisés dans les applicatifs métier, au bon endroit.

C’est ce que l’on appelle « l’operational analytics », qui est facilitée par l’adoption d’outils gérant les flux de données de la base centrale vers les différents applicatifs (ce qu’on appelle les Reverse ETL).

Nous avons produit un article invité sur le site du Journal du Net au sujet de cette approche « operational analytics » . Si vous voulez aller plus loin, nous vous en recommandons chaudement la lecture.

A un niveau plus avancé donc, mesurer le ROI d’une équipe data ou d’une stack data va consister à mesurer l’augmentation des performances des équipes métiers grâce aux données mises à disposition dans leurs outils. Grâce aux données rendues opérationnelles :

  • Les marketers utilisent des segments plus fins qui leur permettent de concevoir des campagnes mieux ciblées
  • Les commerciaux priorisent mieux les leads dans leur pipeline
  • Le support priorisent mieux les tickets

Nous avons conçu un framework qui va vous aider à mesurer le ROI de l’operational analytics sur la partie qui nous intéresse : le marketing. Le fonctionnement de ce framework est simple :

  • Vous renseignez le coût de votre dispositif data : le coût homme et le coût logiciels.

roi stack data template octolis couts

  • Vous estimez ensuite ce que vous pourriez gagner grâce à votre stack data. Pour cela, vous devez définir vos différents cas d’usage et, pour chaque cas d’usage, faire une estimation de son impact sur la réduction des coûts d’acquisition et/ou sur la performance (conversion, panier moyen, fréquence d’achat).

roi equipe data cas usage operationnels

  • Les pourcentages sont calculés en valeurs monétaires sur la base des métriques que vous avez renseignées dans le template.

roi equipe data cas usage operationnels 2

Une fois tout cela fait, vous n’avez plus qu’à utiliser la formule [(gains – coûts) / coûts] pour calculer le ROI de votre dispositif data.

Impact sur l’Analytics

Une bonne infrastucture data, une bonne stack data permet aussi de booster le ROI de l’équipe data. Il y a plusieurs métriques ou dimensions à prendre en compte pour mesurer cet impact :

  • L’équipe data est moins sollicitée pour fournir des analyses ad hoc. L’operational analytics permet aux équipes métier de gagner en autonomie dans la production d’analyses adhoc du fait de la mise à disposition des données directement dans les applicatifs et de l’utilisation d’outils self-service business user-friendly.  Pour mesurer cet impact, vous pouvez utiliser la métrique suivante :

roi stack data impact analytics

  • L’équipe data a plus facilement et rapidement accès aux données. Un manque de documentation, l’absence de data cataloging ou une mauvaise gouvernance des données peuvent compliquer l’accès aux données. Il faut parfois plusieurs jours pour qu’un data scientist accède aux données dont il a besoin pour construire ses modèles. Avec une bon dispositif data, les professionnels de la donnée perdent moins de temps à accéder aux données et consacrent plus de temps à les analyser, les exploiter.

roi stack data impact analytics accessibilite

  • L’équipe data répond plus rapidement aux demandes du métier. La mise en place d’une stack data moderne ou, en tout cas, d’une infrastructure data cohérente permet de traiter plus rapidement les demandes des équipes métier. Comment calculer cet impact ? Par exemple en mesurant la satisfaction des équipes métier vis-à-vis de l’équipe data ou en calculant un temps moyen de réponses (plus difficile à mesurer…).

ROI d’une équipe data importante : Améliorer la productivité

Une équipe data bien structurée, comportant au moins 10 personnes, peut se proposer des objectifs encore plus ambitieux : améliorer la productivité de l’organisation. Comment ? De 3 manières : en optimisant la stack data, en réduisant le temps passé par les équipes métier sur les sujets data, en améliorant la productivité des équipes analytics et métier.

Optimisation de la stack data

Dans une stack data moderne, l’architecture Data et IT est simplifiée. Finies les infrastructures lourdes basées sur des solutions anciennes On-Premise, finie la multiplication inutile des outils, fini le temps perdu à maintenir des pipelines de données complexes ou des bases de données qui tombent régulièrement en panne.

L’un des ROI d’une équipe data mature réside dans sa capacité à mettre en place une stack data moderne adaptée aux objectifs/besoins de l’entreprise et à optimiser le coût général de l’infrastructure data, du management de la data.

Comme nous l’expliquions dans notre article De la stack data moderne à l’expérience data moderne, « la stack data moderne rend simple, rapide, souple et abordable ce qui était autrefois compliqué, long, rigide et coûteux ». L’automatisation des process, des flux, l’effondrement des coûts de stockage, tout cela fait gagner du temps et de l’argent.

Comprendre la stack data moderne

Un Data Engineer qui aurait été cryogénisé en 2010 et que l’on réveillerait aujourd’hui ne comprendrait pas grand-chose à la stack data moderne. Il n’a fallu que quelques années pour que tout change dans la manière de collecter, extraire, acheminer, stocker, préparer, transformer, redistribuer et activer les données. On vous explique tout dans notre guide introductif à la Stack Data Moderne.

Réduction du temps passé par les équipes métier sur les sujets data

L’objectif d’une équipe data mature est, par les moyens qu’elle met à disposition, par l’infrastructure qu’elle construit, de limiter le temps passé par les équipes métier à travailler sur des sujets data, que ce soit construire des reportings, effectuer des analyses adhoc ou synchroniser les données entre les outils, etc.

Notre framework vous permet de calculer le coût total lié au temps passé par les équipes métier sur les sujets data. Vous pouvez vous en servir pour estimer ce que cela vous coûte aujourd’hui et ce que cela vous coûterait si vous optimisiez l’organisation des équipes et votre dispositif data.

roi team data productivite equipe

Productivité des équipes data

Une organisation et une infrastructure data solides permettent d’augmenter la productivité de l’équipe data. Une équipe data mature comprend deux types de profils bien distincts :

  • Les ingénieurs data, chargés de gérer l’infrastructure, les pipelines, la disponibilité des données.
  • Les analystes, au sens large, ce qui inclut les data analysts et les data scientists.

Dans une équipe data structurée, chacun de ces deux types profils génère un ROI différent pour l’entreprise :

  • Le ROI principal délivré par les « ingénieurs data » = la disponibilité des données pour les analystes. Les ingénieurs data ont rarement un impact direct sur les KPIs business d’une entreprise. En revanche, on peut mesurer leur impact sur la productivité des équipes analytics. La disponibilité (et la fraîcheur) des données est un bon indicateur pour évoluer l’efficience d’une stack data. Quels KPIs utiliser ? Par exemple, le nombre de fois qu’un dataset est délivré dans les temps aux équipes analytics, ou bien la fréquence de rafraîchissement des datasets (jour, heure, temps réel). Une autre solution consiste à mesurer le downtine, c’est-à-dire le temps perdu à résoudre les incidents. Voici comment le mesurer :
roi stack data downtime
Si vous avez 10 incidents data par mois et que chacun prend en moyenne 4 heures pour être détecté et 3 heures pour être résolus, votre downtime mensuel est de 70 heures.
  • Le ROI principal délivré par les « analystes data » = la réduction du volume de sollicitations provenant des équipes métier. On pourrait dire, en caricaturant un peu, que les ingénieurs data travaillent à améliorer la productivité des analystes data et que les analystes data travaillent à améliorer la productivité des équipes métier. Si les équipes métier (marketing, sales, service client, finance…) passent leur temps à interroger les analystes pour obtenir des réponses à leurs questions, c’est que les données ne sont pas suffisamment opérationalisées. Cela impacte leur productivité mais aussi celles des analystes data, qui ont moins de temps à consacrer à leur cœur de métier : la production d’analyses (data analysts) et la production de modèles (data scientists). Le ROI des analystes de la data peut se mesurer au volume de sollicitations en provenance des équipes métier.

roi stack data equipe data analytics

En résumé :

  • Le ROI des ingénieurs data se mesure à l’impact qu’ils ont sur la productivité des analystes data.
  • Le ROI des analystes data se mesure à l’impact qu’ils ont sur la productivité des équipes métier.

Plus que jamais, à ce stade de maturité de l’équipe data, ce n’est pas les outputs (la qualité des données, par exemple) qui permettent d’évaluer le ROI de l’infrastructure data, mais les impacts (sur le business).

Conclusion

Résumons-nous. Notre conviction est que c’est la taille, le degré de maturité de l’organisation et le niveau de structuration de l’équipe data qui déterminent les objectifs et les indicateurs de mesure de ROI de la fonction data. Le rôle et le niveau d’ambition d’une équipe data ne peuvent pas être le même suivant qu’elle comporte 2 ou 30 personnes…

  • Si votre entreprise a une fonction data récente avec des ressources limitées (0 – 5 personnes), c’est sa capacité à fournir des données fiables au métier qui servira de boussole pour évaluer le ROI.
  • Si votre entreprise dispose d’une fonction data plus étoffée et plus mature (5 – 10 personnes), c’est la capacité à « opérationnaliser » les données qui servira d’indicateur.
  • Si votre entreprise a une fonction data structurée, comportant au moins 10 personnes avec des rôles bien définis, répartis entre les ingénieurs data et les analystes data, le ROI se mesurera à partir de l’impact sur la productivité de l’entreprise.

Une fois que l’on a compris l’objectif principal de la fonction data de son entreprise, les métriques sont relativement faciles à déduire. Nous vous en avons donné quelques-unes, vous pourrez sans doute en imaginer d’autres. Nous espérons aussi que la ressource que nous avons produite vous sera utile. Nous comptons sur vous pour en faire un bon usage 🙂

Téléchargement de notre template ROI Data Stack.

Pour accéder à la ressource, il vous suffit de vous inscrire en quelques clics.
Au clic sur le bouton ci-dessous, vous arriverez sur un formulaire d'inscription rapide. Une fois inscrit, il y a un onglet "Ressources" qui apparaîtra dans le menu du haut qui vous permettra d'accéder à l'ensemble des ressources en téléchargement gratuit. Avec un peu de chance, vous aurez une bonne surprise, il y aura d'autres ressources qui vous seront utiles 😊

👉 Je m'inscris pour télécharger la ressource

ROPO : Comment mesurer son impact et en tirer parti ?

Vous avez un site e-commerce. Certains visiteurs s’y rendent pour faire leurs recherches mais finalisent leur parcours d’achat en magasin. Il y a donc une part du CA des magasins qui est attribuable en droit au digital. Comment la mesurer ? C’est l’enjeu du ROPO, un enjeu d’attribution très simple à comprendre, plus difficile à traiter.

Les enjeux liés au ROPO sont plus actuels que jamais. Les points de contact dans le Retail se sont multipliés. On parle maintenant de commerce omnicanal, de « commerce unifié ». Les barrières entre le digital et le offline sont enjambées sans scrupule par les consommateurs.

Contrairement à ce qu’on prédisait il y a 10 ou 20 ans, le e-commerce n’a pas dépassé le commerce physique, qui reste loin devant. Le vrai chantier de travail consiste par conséquent à améliorer la coordination du online et du offline pour générer plus de ventes en ligne et en magasin.

Le ROPO est un comportement client qu’il faut intégrer dans les modèles d’analyse de la performance.

Notre volonté dans cet article est double :

  • Vous aider à mesurer le ROPO, c’est-à-dire la part des ventes offline attribuable à vos efforts digitaux (site web, email…).
  • Vous montrer comment on peut utiliser le ROPO pour améliorer le chiffre d’affaires global de l’entreprise.

Ajoutons que le ROPO est un enjeu marketing ET organisationnel. On ne peut pas faire l’impasse sur ce deuxième aspect. Bon nombre des problèmes business auxquels peut faire face une entreprise trouvent leur origine dans des problèmes d’organisation.

En l’occurrence, beaucoup de retailers se sont développés en deux pôles séparés : un pôle magasins et un pôle e-commerce. Force est de constater que les objectifs des responsables de magasins ne sont que très rarement harmonisés avec les objectifs des responsables e-commerce. Cela crée des problèmes en interne en termes d’attribution des ventes, si ce n’est des conflits.

La mesure et la prise en compte du ROPO ont aussi pour finalité de casser cette logique pour que les deux dimensions – online & offline – ne soient plus concurrentes mais complémentaires, et que toutes les fonctions business de l’entreprise aillent dans la même direction.

Le ROPO : un enjeu marketing encore et toujours d’actualité pour les retailers

Research Online Purchase Offline [ROPO] – Définition

ROPO est l’acronyme de Research Online, Purchase Offline. Le ROPO décrit la part du chiffre d’affaires réalisé en magasin qui revient aux efforts investis online.

Il n’y a pas un commerçant qui ne doute de l’influence du online sur le offline. Combien de parcours d’achat commencent sur le web pour s’achever en magasin ?

« Je cherche un produit sur un site internet en utilisant mon ordinateur ou mon mobile, je le trouve, je cherche le magasin le plus proche de chez moi, je vérifie qu’il a ce produit en magasin, si oui je m’y déplace pour l’acheter ».

Le offline peut aussi influencer les ventes online, même si c’est moins le sujet de notre article :

« Je me balade dans la rue par une belle journée estivale, j’entre dans un magasin, je découvre mon futur frigidaire dans les rayons, mais je préfère commander sur le site web pour bénéficier de la livraison ».

Voici deux exemples typiques de la manière dont le online et le offline peuvent s’intégrer dans un même parcours d’achat. Nous aurions aussi pu parler du click & collect, bien sûr. On utilise le web pour acheter, mais aussi pour trouver un magasin ou vérifier que le magasin a le produit recherché.

La part des ventes en magasin attribuable au digital porte le nom d' »effet ROPO ».

ropo marketing effect
Source : Google.

En 2008, Google France publiait les résultats d’une enquête mettant en avant l’effet ROPO. Dans le schéma ci-dessous, extrait de cette étude, on peut voir que beaucoup de recherches en ligne aboutissent sur un achat en magasin. L’inverse existe aussi, mais dans une proportion beaucoup plus faible. Ces chiffres sont périmés mais ont pour mérite de montrer que le ROPO n’est pas une réalité nouvelle.

effet ropo etude google
Source : Google. Il s’agit des résultats d’une enquête menée en 2008. Beaucoup de choses ont changé depuis. La part de recherches réalisée en ligne est bien supérieure à 39% aujourd’hui, mais on voit déjà, en 2008, qu’une partie des recherches en ligne aboutit à des achats en magasin. C’est la définition même de l’effet ROPO.

On pourrait multiplier les statistiques démontrant l’impact du comportement ROPO. Il y a par exemple une étude de DigitasLBi Global Survey menée en 2014 qui nous apprend que 88% des consommateurs font des recherches en ligne avant d’acheter en magasin (Source). On a aussi trouvé une étude du très sérieux organisme Statista qui mesure l’impact du ROPO pour chaque famille de produits. L’étude est plus récente (2021) mais ne concerne que le marché polonais…Si ça vous intéresse, vous pouvez aller y jeter un œil.

Il est finalement assez difficile de trouver des chiffres, des études. La faiblesse de la littérature statistique illustre la difficulté qu’il y a à mesurer l’effet ROPO. Mais nous allons vous donner des techniques pour y arriver 🙂

Pourquoi cette tendance est toujours d’actualité ?

L’effet ROPO a été mis en évidence il y a 15 ans mais il est plus d’actualité que jamais. Pourquoi ? Parce que, plus que jamais :

  • Les consommateurs lisent des avis clients en ligne avant de se déplacer en magasin pour acheter. Les avis clients sont utilisés pour se faire une idée sur un produit, un service, une marque, un magasin…Une étude du cabinet McKinsey de 2021 a montré que le volume d’avis clients déposés en ligne avait bondi de 87% entre 2019 et 2020. La lecture des avis est devenue un incontournable en phase de recherche.
  • Les consommateurs utilisent internet pour trouver leur magasin. Une étude Bright Local de 2017 montre que 97% des consommateurs utilisent le web pour trouver un magasin proche de chez eux. On utilise le web non seulement pour découvrir des produits et les notes attribuées par les clients à ces produits, mais aussi pour trouver des magasins où se déplacer.

comportement ropo etude bright local

  • Les consommateurs utilisent le web pendant leur expérience en magasin. Beaucoup de consommateurs sortent leur smartphone quand ils sont en magasin que ce soit pour comparer les prix, télécharger leur coupon, vérifier s’il existe des promotions sur le site, scanner des QR codes, chercher des produits.

La conclusion qui s’impose est simple : la plupart des achats en magasin sont l’aboutissement d’un parcours d’achat qui a commencé sur le web.

Pourquoi les magasins physiques sont-ils encore si importants ?

On a un moment cru que l’ecommerce prendrait la place du commerce physique, que les boutiques en ligne finiraient par remplacer les magasins physiques. Force est de constater que cette prédiction ne s’est pas accomplie.

Le commerce en ligne (produits et services) a encore connu une belle progression en France en 2021, s’établissant à 129 milliards d’euros. Mais il faut remettre les choses en perspective et rappeler que cela ne représente que 14,1% du commerce de détail (Source : Fevad). Près de 5 achats sur 6 sont donc réalisés en magasin.

statistiques ecommerce france
Source des données : Fevad. Graphique produit par Comarketing News. Malgré la progression importante et continue du ecommerce, la vente en ligne ne représentait que 14,1% du commerce de détail en 2021 en France.

Comment expliquer la place toujours largement prédominante des magasins dans le commerce de détail ?

Il y a deux raisons principales selon nous :

  • Les clients aiment essayer les produits avant de les acheter. Et ça, ce n’est pas possible sur une boutique en ligne…On recherche en ligne, mais on préfère se déplacer en magasin pour toucher, essayer, regarder, sentir avant d’acheter.
  • Les clients ont une aversion pour la livraison. Sur internet, la livraison est le principal frein à l’achat. Les délais de livraison, les coûts de livraison, la complexité des procédures de retour font partie des principales raisons des abandons de panier.

Comment mesurer l’impact du digital sur les ventes physiques ?

Passons maintenant de la théorie à la pratique. Il existe trois approches pour mesurer l’impact du digital sur les ventes en magasin.

#1 Créer un multiplicateur ROPO basé sur les données Google Analytics

Cette technique permet de mesurer la contribution indirecte de votre site ecommerce sur vos ventes en magasin en utilisant Google Analytics.

Précisons d’entrée de jeu que le calcul du ROPO repose nécessairement sur un modèle d’attribution probabiliste, et non déterministe (sauf dans le cas du click & collect).

Des signaux ROPO aux hypothèses

La démarche consiste d’abord à :

  • Identifier les signaux du comportement ROPO. Le store locator est l’exemple de signal par excellence d’un comportement ROPO. Vous pouvez légitimement faire l’hypothèse qu’un visiteur de votre site qui recherche sur votre site web le magasin le plus proche de chez lui a l’intention de se déplacer en magasin pour acheter.
  • Construire des hypothèses crédibles, basées sur l’expérience de l’équipe marketing, sur les résultats des campagnes marketing passées. Il y aura forcément une dose d’intuition dans ces hypothèses, il est impossible de faire autrement. Pour chaque signal identifié, vous devez faire 3 hypothèses :
    • Le pourcentage de signaux qui se transforme en visite en magasin. Si l’on reprend notre exemple, il est possible d’estimer le pourcentage d’utilisateurs du store locator qui sont vraiment en recherche active d’un magasin en analysant de manière avancée les parcours web dans Google Analytics.
    • Le pourcentage de visites en magasin qui se transforment en achat (taux de conversion en magasin).
    • Le panier moyen des visiteurs de magasins provenant du site web. Vous pouvez vous baser sur le panier moyen qui apparaît dans vos reportings.

Des hypothèses au calcul de l’effet ROPO

Ces hypothèses vont vous permettre de calculer le revenu offline attribuable à votre site ecommerce. Si vous avez 10 000 visiteurs par mois qui utilisent le store locator, que vous faites les hypothèses que 20% se déplaceront effectivement en boutique, que 40% d’entre eux achèteront pour un panier moyen de 50 euros, vous pouvez estimer que le chiffre d’affaires généré grâce au store locator de votre site web est de :

10 000 x 0,20 x 0,40 x 50 = 40 000 €

Vous devez faire le même calcul pour tous les signaux digitaux que vous avez identifié.

Il faut aussi, bien entendu, intégrer les achats click & collect.

De l’effet ROPO au calcul du coefficient multiplication ROPO

Une fois que vous avez une estimation du chiffre d’affaires magasin généré grâce au ecommerce, vous pouvez définir un coefficient multiplicateur ROPO. Il se calcule en divisant le chiffre d’affaires online par le chiffre d’affaires généré en magasin grâce au site. Si votre ecommerce génère 100 000 euros de CA par mois et que le CA généré offline grâce au site est estimé à 50 000 euros, votre coefficient est de 2.

Ce coefficient multiplicateur vous permet de gagner du temps dans le calcul du ROPO. Vous avez fait 200 000 euros de CA ecommerce ce mois-ci ? Alors, le CA ROPO est de 100 000 euros. Vous n’avez plus qu’à intégrer ce coefficient dans le compte de résultats pour mesurer la contribution réelle du digital au chiffre d’affaires global de l’entreprise.

#2 Evaluer la contribution de l’email sur le CA des magasins

La première technique permet de mesurer la part du site ecommerce dans le CA en magasin. La deuxième technique que nous allons vous présenter va vous permettre cette fois de mesurer la contribution de l’email, de vos campagnes et scénarios d’emailing.

Là encore, il s’agit de construire un modèle d’attribution basé sur des hypothèses. La technique consiste à attribuer X% des ventes offline au canal email en fonction des ouvertures et clics dans vos emailings. Il est important de prendre en compte la dimension temporelle, c’est-à-dire le temps qui s’écoule entre l’ouverture ou le client et la vente offline.

Voici la démarche à suivre :

  • Vous définissez les campagnes emailings qui entrent dans le périmètre de votre calcul, à savoir : les campagnes emailings qui selon vous ont un impact sur les ventes physiques. Vous pouvez intégrer toutes les campagnes de nature promotionnelle.
  • Vous définissez une règle d’attribution : si 100 clients cliquent dans un email et qu’ils achètent en magasin dans les XX jours suivant l’ouverture, alors vous attribuez YY% des ventes au canal email. Il y a donc 2 choix à faire, et même 3 :
    • Le choix de l’événement email : l’ouverture ou le clic. Le clic témoigne d’un niveau d’engagement plus élevé que la simple ouverture. Nous avons pour cette raison tendance à conseiller à nos clients d’utiliser le clic.
    • Le choix de la plage de temps : 30 jours, 45 jours, 60 jours…Le choix doit être cohérent avec le cycle d’achat moyen et les habitudes d’achat dans votre secteur d’activité.
    • Le pourcentage d’attribution au canal email en cas de conversion magasin.

Ce modèle d’attribution n’est possible que si et seulement si vous identifiez les clients qui achètent en magasin, au moyen du programme de fidélité ou autre.

#3 Evaluer la contribution du site web sur le CA des magasins

Cette troisième approche est une alternative à la première approche basée sur le coefficient multiplicateur ROPO. Elle est identique à la deuxième approche dans son fonctionnement.

La technique utilisée pour mesurer la contribution du canal email aux ventes offline peut en effet aussi être utilisée pour mesurer la contribution du site ecommerce. Si un internaute visite le site ecommerce et qu’il achète en magasin dans les XX jours suivant, la vente est attribuée au ecommerce. On peut ajouter plus de granularité dans l’analyse en déclinant :

  • Selon le canal d’acquisition du visiteur ecommerce : SEO, AdWords…
  • Selon le nombre de pages visitées : on peut par exemple décider d’attribuer 20% d’une vente physique au site ecommerce si le visiteur a visité 2 pages, 40% s’il a visité 10 pages, etc.
  • Selon la nature des pages visitées, leur degré d’intention. Si le visiteur visite la page produit du produit X et qu’il achète ce produit X en magasin 10 jours après, l’attribution est plus évidente que si ce visiteur avait visité la page d’un produit appartenant à une autre famille (ou, pire, une page institutionnelle).

Il existe beaucoup de possibilités pour complexifier le modèle, mais une chose est sûre : il n’est praticable que sur les visiteurs identifiés du site web et en magasin.

Comment transformer l’effet ROPO en opportunités business ?

L’analyse du ROPO ne sert pas simplement à améliorer l’attribution des ventes entre le digital et le offline. Le ROPO peut aussi être utilisé comme levier pour améliorer la stratégie marketing et générer plus de revenus. Voici quelques pistes d’actions.

Utiliser le ROPO pour adapter la stratégie marketing et augmenter les ventes (online et offline)

L’analyse de l’effet ROPO permet d’adapter sa stratégie marketing afin d’augmenter la conversion en magasin et sur le site. Dans un de ses articles de blog, Matthieu Tranvan, expert marketing, propose une démarche intéressante. Elle consiste à construire une segmentation client basée sur le ROPO.

Le graphique ci-dessous, tiré d’un cas client de Matthieu Tranvan, présente les différences de taux de conversion en fonction de deux variables :

  • La présence ou non d’un magasin dans la région du visiteur web.
  • L’utilisation ou non du store locator.

ropo attribution canal ecommerce

Les résultats ne sont pas surprenants : un visiteur qui utilise le store locator et qui découvre qu’il existe un magasin près de chez lui convertira beaucoup moins sur le site ecommerce. Il se sert du site ecommerce pour trouver son magasin et se déplace dans le magasin proche de chez lui pour effectuer son achat.

On peut dégager 3 personas à partir de cette analyse :

  • Persona 1 : une personne vivant en zone urbaine, plutôt jeune, qui utilise le site pour trouver un magasin proche de chez lui. Il préfère acheter en magasin.
  • Persona 2 : une personne qui vit également en zone urbaine mais qui préfère acheter en ligne plutôt que de se déplacer en magasin. Elle n’utilise pas le store locator. On peut imaginer une personne urbaine mais plus âgée ou une personne avec des enfants à charge – en tout cas il s’agit d’une personne moins encline à marcher ou à prendre sa voiture pour effectuer un achat.
  • Persona 3 : une personne qui est en dehors de la zone de chalandise d’un magasin, qui habite probablement en zone rurale ou périphérique. Cette personne utilise le site internet pour faire ses achats, par nécessité plus que par choix.

Voici un exemple de segmentation que l’on peut créer à partir d’une analyse du ROPO. Cette segmentation peut ensuite être utilisée pour affiner sa stratégie marketing et ses offres promotionnelles : remise en magasin, livraison offerte, livraison en 1 jour…

Le ROPO comme levier pour augmenter la conversion web

Pour finir nous allons vous présenter trois techniques consistant à augmenter la conversion web grâce au ROPO.

#1 Améliorer votre scénario de relance de panier abandonné

La première consiste à intégrer les achats en magasin dans votre scénario de relance de panier abandonné. Imaginez une personne qui visite votre site web, qui ajoute un produit à son panier et l’abandonne avant de finaliser la commande. Que faites-vous ? Vous lui envoyez un message de relance. C’est comme ça que fonctionne tout bon scénario de relance de panier abandonné.

Sauf qu’il est possible que ce client décide d’acheter le produit en magasin. Combien de paniers abandonnés sur le web se transforment en paniers achetés en magasin ? Plus que vous ne le croyez !

Notre conseil : intégrez les données transactionnelles magasins dans votre scénario de relation de panier abandonné. Cela vous permettra de ne pas envoyer l’email de relance aux clients qui ont finalement acheté en magasin, mais de leur envoyer à la place un email post-transactionnel. Cela suppose d’étendre un petit peu le délai avant l’envoi du message de relance…

#2 Inciter à l’achat les visiteurs du site web pendant leur recherche sur votre site

S’il y a un effet ROPO, cela veut bien que vos clients commencent leur parcours d’achat sur votre site ecommerce. Il existe des leviers pour augmenter le taux de conversion ecommerce, pour inciter les visiteurs à convertir plus rapidement pendant leur phase de recherche. Comment ? En levant les freins à l’achat en ligne.

C’est-à-dire ? Par exemple, en mettant en avant le fait que la livraison est gratuite si c’est le cas, que les retours sont gratuits, si c’est le cas, en améliorant la visibilité des produits qui correspondent aux préférences, habitudes, comportements navigationnels des visiteurs, etc. Vous pouvez aussi inciter les visiteurs à conclure leur achat sur le web en leur proposant des remises, un cadeau au-delà de X euros achetés, etc.

Cet article n’a pas pour vocation de vous détailler les différentes stratégies possibles pour augmenter le taux de conversion d’un site ecommerce, mais sachez que si vous avez un effet ROPO, c’est d’abord parce que votre site ecommerce est un point de contact clé de votre business. Un point de contact qui peut être optimisé.

#3 Mesurer l’effet ROPO des campagnes Facebook Ads

Facebook propose une fonctionnalité qui permet de mesurer l’impact des publicités sur les achats en boutique. Vous pouvez tracer les achats en magasin qui ont eu lieu suite à une exposition à une annonce Facebook.

Pour utiliser cette fonctionnalité, vous devez charger vos données clients (email, téléphone, nom et prénom, adresse, date de naissance) dans votre compte Facebook. Cela vous permet ensuite d’identifier les achats magasin réalisés suite à l’exposition à une publicité. Vous pouvez régler la durée : 24 heures, 7 jours, 28 jours…

Nous arrivons à la conclusion de cet article.

Résumons les 2 enjeux du ROPO :

  • Réussir à le mesurer pour rendre à César ce qui est à César, en identifiant la part des ventes offline que l’on doit attribuer au digital (site ecommerce, emailings…).
  • Exploiter l’analyse de l’effet ROPO pour booster aussi bien les ventes ecommerce que les ventes en magasin.

Nous avons abordé ces deux sous-sujets, sans avoir la prétention de les épuiser. Mais nous espérons que cet article a répondu aux principales questions que vous vous posiez sur le ROPO.

Vous l’aurez compris, la mesure et l’utilisation du ROPO supposent une bonne intégration des données, une réconciliation des données online et offline.

C’est là qu’une Customer Data Platform légère comme Octolis peut intervenir.

En tant qu’éditeur, mais aussi dans notre ancienne vie de consultants, nous avons eu l’occasion d’accompagner des entreprises confrontées à des enjeux d’attribution dont celui du ROPO.

Si vous êtes en prise avec ces problématiques, qui sont aussi de beaux challenges à relever, nous pouvons en discuter ensemble. N’hésitez pas à nous contacter si vous voulez savoir comment une solution comme Octolis peut vous aider à intégrer l’effet ROPO dans votre stratégie marketing. On vous répondra rapidement, promis.

Pourquoi ma société est-elle passée d’Excel à Power BI ?

Pour lire, analyser et interpréter les data, la première solution d’une entreprise est souvent l’utilisation de tableurs tels qu’Excel ou Google Sheets. Les fonctions de création de visuels de ces outils permettent de rapidement faire parler nos données. Mais ces tableurs ont leurs limites, et beaucoup d’entreprises ont fait le choix de passer à des outils de data visualisation tels que Power BI (développé par Microsoft, Power BI est actuellement le leader sur le marché des outils de data visualisation).

Nous avons recueilli le témoignage de Rémi et Pierre, ils ont tous les 2 fait le choix de passer d’Excel à Power BI au sein de leur entreprise, mais avec des profils assez différents :

  • Rémi est Sales Manager, et ex Data Manager à BMS International (Vendeur Amazon dans le top 100 des vendeurs Amazon européens). A BMS International, ils utilisent la data tous les jours pour suivre la rentabilité de nos produits, fournisseurs, transporteurs, équipes…
  • Pierre est PDG de la société AXAL, leader de la livraison spécialisée, le déménagement et le transport d’œuvres d’Art dans le grand Est. Afin de rester concurrentiel, AXAL a besoin de franchir un cap dans l’exploitation de la grande quantité de données qu’ils ont en leur possession.

Jean-Pascal Lack

Data Viz & Power BI Expert

Ingénieur centralien et expert Power BI avec plus de 7 années d’expérience, Jean-Pascal a accompagné de nombreuses entreprises (des grands groupes comme Sanofi, LVMH à des PME) à mettre en place des tableaux de bords Power BI pour différents usages métiers.

D’où vous est venue l’idée de passer à Power BI ?

🗣️ Rémi

Notre start-up étant assez jeune, nous utilisions uniquement des fichiers Google Sheets pour faire du reporting. Cependant, au fur et à mesure que nous grandissions, le nombre de data a exploité a grandi exponentiellement, et nous nous sommes vite retrouvés face aux limites de Google Sheets : une taille de fichier limité à 4 millions de cellules, et un fichier qui devient déjà lent dès le franchissement du seuil d’1 million de cellules.

On ne pouvait donc pas conserver la data au niveau le plus fin (détail des ventes au jour), nous étions alors obligés d’agréger les data à la semaine voire au mois : cela avait un double désavantage, nous perdions non seulement en finesse des data et donc d’analyse, mais l’agrégation des data était aussi un travail long et manuel.

Par ailleurs, dès que l’on voulait analyser la data selon un nouvel axe (par marque, année de lancement, zone de production, performance des produits), il fallait recréer un outil pour transformer et agréger la data selon l’axe voulu.

Nous avons donc fait le choix de nous tourner vers un outil de data visualisation, dont contrairement à Excel ou Google Sheets, la fonctionnalité première est l’analyse et la visualisation des données.

🗣️ Pierre

Dans notre société nous avons 3 ERP différents pour chacun de nos services. Il en résulte que la data ainsi que les quelques tableaux de bord étaient éparpillés.

Nous avons donc fait le choix de passer à un outil de data visualisation pour améliorer ces 2 points d’une part automatiser l’extraction de la data, d’autre part faciliter et centraliser l’accès à nos tableaux de bord.

Suite à un audit sur notre stratégie digitale ainsi qu’une recommandation de notre partenaire KPMG, nous avons creusé la piste de l’outil de data visualisation Power BI.

Nous nous sommes alors aperçus des points ci-dessous qui nous ont confortés sur le choix de Power BI :

  • Power BI est intégré à la suite Microsoft 365 (que l’on utilise déjà chez nous)
  • Il est possible de consulter nos rapports Power BI directement via le web (sans avoir à installer un logiciel)
  • Power BI est largement utilisé dans le monde de l’entreprise et est leader sur son marché

💡 L’avis de Jean-Pascal Lack, expert Power BI

Avec la grande quantité de données éparpillées dans les différents outils qu’utilise une entreprise, il devient très difficile d’analyser précisément la data, soit juste avec un simple tableur, soit via les indicateurs standards mis à disposition par l’outil.

Pour permettre à son entreprise de faire les meilleurs choix, en s’appuyant sur des KPI explicites, adéquats et précis, l’utilisation d’un outil de data visualisation devient vite nécessaire. Ils sont une multitude à avoir émergé ces dernières années, dont le leader actuel est Microsoft Power BI.

Gartner outils BI 2022

Que vous apporte Power BI de plus comparé à Excel ?

🗣️ Rémi

La migration vers Power BI nous a permis de revoir nos différentes règles métiers ainsi que les transformations depuis nos sources de données. Alors qu’avant nous avions des règles de métiers différentes en fonction des outils/ services, désormais nous avons homogénéisé nos règles et centralisé au même endroit toutes nos sources de données. Cela nous a permis d’améliorer grandement notre confiance en nos données.

« Désormais nous avons homogénéisé nos règles et centralisé au même endroit toutes nos sources de données. Cela nous a permis d’améliorer grandement notre confiance en nos données »

Par ailleurs, une fois le modèle de données créé sous Power BI, une autre grande force de Power BI est sa capacité de filtrer facilement et rapidement la donnée selon plusieurs axes de son choix. Nous avons pu gagner en profondeur de l’analyse et identifier des patterns qui ne nous étaient pas facilement accessibles auparavant.

🗣️ Pierre

Excel est très flexible, mais malheureusement Excel ne permet pas de facilement d’extraire de la donnée. Cette étape d’extraction de la donnée de nos différents outils était donc très chronophage et les collaborateurs n’avaient pas le temps de produire (et donc consulter !) les indicateurs internes. Par faute de temps, ils produisaient et consultaient les indicateurs seulement lorsque cela leur était directement demandé.

Grâce au module d’extraction et de transformation de données de Power BI, le temps de production de nos rapports a été divisé par 4 au moins ! Désormais les collaborateurs produisent et consultent quotidiennement les différents indicateurs et cela change complètement notre manière de piloter nos activités. Nous allons même extraire des informations avec Power BI dans des fichiers PDF, ce qui nous semblait à l’époque inimaginable car trop manuel.

« Grâce au module d’extraction et de transformation de données de Power BI, le temps de production de nos rapports a été divisé par 4 au moins ! »

Par ailleurs, la mise en forme est plus poussée avec Power BI, ce qui permet de faire des tableaux de bord très clairs. En témoigne l’adoption très rapide de Power BI par les différents services, chacun a désormais son tableau de bord.

💡 L’avis de Jean-Pascal Lack, expert Power BI

Power BI est bien plus performant que Excel dans bien des domaines, mais si je devais donner mon top 3, cela serait :

  1. Automatisation et extraction des données.Power BI peut se connecter à une multitude de sources de données (fichier Excel, CSV, PDF, TXT, site web, base de données, outils en ligne tels qu’Asana, Zendesk, Google Analytics mais aussi à un dossier contenant des centaines de fichiers Excel ayant un format similaire) via son ETL (Power Query).
    Par ailleurs Power BI dispose d’une interface de mise à jour automatique des données d’un tableau de bord ce qui permet de s’assurer que les utilisateurs consultent toujours un tableau de bord à jour.
  2. Accepte un gros volume de données. Power BI peut se connecter à plusieurs sources de données, créer plusieurs tables de données, les nettoyer, les transformer, les relier entre elles, et ceci sur plusieurs dizaines de millions de lignes de données. Pour le lecteur d’un tableau de bord sous Power BI, l’affichage des visuels sera quasiment instantané, il ne remarquera même pas que derrière un simple visuel se cachent en réalité des millions de lignes d’informations. Cela est littéralement impossible sur un tableur tel qu’Excel.
  3. Interface de création de visuel très user-friendly. Pas besoin d’être un expert en UX pour faire des rapports clairs via Power BI ! L’interface se base principalement sur un système de drag & drop ce qui la rend très intuitive. Par ailleurs, Power BI propose une grande sélection de visuels, même des cartes géographiques, qui sont paramétrables et personnalisables en quelques clics sans taper une ligne de code.

 
interface tableau exemple

L’interface de Tableau

Quelles sont vos limites actuelles avec Power BI ?

🗣️ Rémi

Au début, nous nous attendions à migrer tous nos rapports et outils Excel sous Power BI. Cependant, il est important de noter qu’un utilisateur ne peut pas rentrer de la data dans Power BI, car Power BI se limite à être un outil spécialisé dans la data visualisation.

Nous avons alors compris que l’on ne remplacera pas tous nos fichiers Excel par des rapports Power BI, mais plutôt que Power BI est complémentaire à Excel, puisque c’est l’outil qui permet de visualiser des données rentrées sous Excel.

« on ne remplacera pas tous nos fichiers Excel par des rapports Power BI, mais plutôt que Power BI est complémentaire à Excel, puisque c’est l’outil qui permet de visualiser des données rentrées sous Excel. »

 

🗣️ Pierre

L’interface de Power BI est relativement facile à prendre en main, ce qui nous permet après une petite formation de créer assez facilement nous-même des rapports assez simples. Par contre, si l’on veut créer des KPI sur mesure, ou faire des tableaux de bords plus poussés, nous avons besoin d’un expert Power BI, c’est là que nous avons fait appel à un consultant externe.

💡 L’avis de Jean-Pascal Lack, expert Power BI :

Grâce à son interface intuitive, un utilisateur novice ayant eu une formation peut rapidement créer son propre tableau de bord. En revanche, dès que l’on veut créer un tableau de bord se basant sur plusieurs tables de données ou créer des indicateurs spécifiques, il faudra faire appel à un utilisateur expérimenté sur Power BI, afin de garantir d’avoir à la fois un rapport performant, mais aussi des KPI justes.

Par ailleurs, il ne faut pas avoir à choisir entre Excel ou Power BI, ce sont avant tout deux logiciels complémentaires. Excel est un tableur, il permet de très facilement de saisir de la donnée, alors que Power BI est un outil qui permet entre autres de justement de mieux visualiser la donnée qui est présente dans ses fichiers Excel.

A-t-il été difficile pour votre société de vous former sur Power BI ou de trouver des personnes avec ces compétences ?

🗣️ Rémi

Nous avons pris plus d’un an pour trouver la bonne personne ! Etant donné que nous n’avions aucune personne avec un profil IT, nous cherchions plus qu’un simple développeur Power BI, mais un analyste qui pouvait avoir une vraie compréhension des enjeux du business, et qui pouvait tout prendre en charge, de la rédaction du cahier des charges, au développement et déploiement de la solution au sein de l’entreprise.

Par ailleurs, du fait de la spécificité de notre activité, nos besoins en reporting évoluent quasiment tous les trimestres. C’est pourquoi nous avons fait le choix de recruter en CDI un expert data avec plusieurs années d’expérience.

🗣️ Pierre

Nous n’avions pas la compétence en interne et nous n’avions pas besoin d’une personne à temps plein sur Power BI, suite à des recommandations nous nous sommes donc tournés vers la plateforme de freelance Malt.

Depuis 6 mois désormais, un freelance expert Power BI nous accompagne à hauteur de 3 heures par semaine sur la mise en place et le déploiement de tableaux de bord Power BI.

Lors de la sélection de notre freelance, nous avons mis l’accent sur l’aspect pédagogique du freelance. En effet, nous voulions devenir au maximum autonomes sur la création, la maintenance et l’évolution de nos tableaux de bord. Nous avons désormais plusieurs personnes chez nous qui peuvent créer par eux-mêmes leurs propres tableaux de bord via Power BI !

« Lors de la sélection de notre freelance, nous avons mis l’accent sur l’aspect pédagogique du freelance. En effet, nous voulions devenir au maximum autonomes sur la création, la maintenance et l’évolution de nos tableaux de bord. »

 

💡 L’avis de Jean-Pascal Lack, expert Power BI :

Si vous voulez déployer Power BI au sein de votre entreprise, le recrutement d’un expert Power BI est recommandé pour vous assurer que les bons choix sont faits dès le début.

En fonction de votre profil et de votre besoin, vous pourrez alors vous tourner vers une des 3 solutions suivantes : recruter en interne, recruter un freelance, ou passer par une ESN.

Le choix de l’ESN est souvent le plus sécurisé (où l’ESN aura la charge de répondre précisément à votre besoin, et disposera d’une expertise approfondie sur tous les sujets de la data), mais la plus chère.

Le recrutement d’un freelance expérimenté (via une des multiples plateformes qui existent) est une solution qui présente l’avantage d’être très rapide et flexible, tout en combinant un bon rapport qualité/prix.

Enfin le recrutement en interne vous assurera un meilleur transfert de connaissances au sein de votre entreprise. C’est l’option la moins chère mais aussi la moins flexible.

De la stack data moderne à l’expérience data moderne

Qu’est-ce que la stack data moderne ?

La stack data moderne a un sens différent suivant la personne à qui vous vous adressez.

Pour les ingénieurs analytics, c’est un bouleversement technologique majeur. Pour les fondateurs de startups, c’est une révolution dans la manière de travailler. Pour les investisseurs, ce sont des dizaines de milliards de dollars levés et un marché florissant. Pour Gartner, la stack data moderne est à la base d’une stratégie data & analytics totalement nouvelle.

Etc. Etc.

Pour nous, la stack data moderne rend simple, rapide, souple et abordable ce qui était autrefois compliqué, long, rigide et coûteux.

Il fallait autrefois dépenser des dizaines de milliers d’euros pour maintenir une base de données qui tombait régulièrement en panne, embaucher un ingénieur à temps plein pour intégrer les données Salesforce au data warehouse, payer toute une équipe de développeurs pour permettre aux analystes d’utiliser SQL dans un navigateur.

Aujourd’hui, tout cela ne vous prend que 30 minutes. C’est un game changer incroyable.

Les organisations n’ont pas encore pleinement pris conscience de la révolution apportée par la stack data moderne. C’est notre conviction et c’est aussi celle partagée par Benn Stancil, chief analytics officer et fondateur de Mode, dans une très belle tribune publiée sur son blog « The Modern Data Experience« . Nous nous en sommes très largement inspirés pour rédiger l’article que vous vous apprêtez à découvrir.

Nous le rejoignons complètement sur la nécessité de penser la stack data moderne comme une expérience. La finalité n’est pas de construire une nouvelle architecture data/tech, c’est de transformer l’expérience des utilisateurs (business, data et tech). A trop penser techno, on finit par en oublier l’essentiel et faire échouer les projets.

Les limites de la stack data moderne

La stack data moderne peine à rendre la data plus accessible aux utilisateurs business

Nous avons vu que chacun s’accordait à penser que la stack data moderne était quelque chose de formidable, même si c’est pour des raisons différentes. Mais interrogez les utilisateurs business, vous n’aurez pas le même son de cloche. Pour eux, la stack data moderne n’a rien de fantastique.

Pour la plupart des gens en fait (je parle des gens agréables, sociaux, du genre à pouvoir passer une soirée sans se disputer sur le formatage SQL), la stack data moderne est une expérience, et souvent…un ensemble d’expériences désagréables :

  • Essayer de comprendre pourquoi la croissance ralentit la veille du conseil d’administration
  • Essayer de mettre tout le monde d’accord sur les revenus trimestriels quand les différents outils & dashboards disent tous des choses différentes.
  • Partager à un client les métriques d’usage de son produit et entendre ce client vous expliquer que sa liste d’utilisateurs actifs inclut des individus qui ont arrêté d’utiliser le produit depuis plus de 6 mois.
  • Recevoir un message Slack du CEO qui vous dit que son rapport d’activité quotidien est encore cassé.
  • Etc.

Pour reprendre l’analogie d’Erik Bernhardsson, fondateur de Modal Lab, si la stack data moderne est un restaurant, toutes les frustrations que l’on vient de décrire sont celles que l’on a lorsque l’on mange un plat sans saveur. Le chef a investi dans l’amélioration des cuisines, mais les clients (les utilisateurs business, mais aussi les analystes data) sont ici pour déguster de bons plats servis par un personnel attentionné dans un cadre agréable.

Tant que vous n’arrivez pas à ce résultat, votre technologie, votre « stack data moderne », si révolutionnaire qu’elle soit, est quelque chose de théorique.

Définition et analyse de la Stack Data Moderne

Vous n’êtes pas certain de comprendre ce que recouvre ce terme ? Dans ce cas, nous vous invitons chaudement à lire notre article introductif à la stack data moderne. Vous y découvrirez ce qui a conduit à cette nouvelle organisation des outils au service d’un meilleur usage de la data et les principales briques constituant la stack data moderne.

La stack data moderne se résume trop souvent à une multiplication des outils

Les utilisateurs business n’arrivent pas à utiliser les données comme il faudrait. Ils sont insatisfaits, frustrés. La première réaction quand quelque chose ne fonctionne pas consiste à multiplier les outils. On crée des cartographies de tous les outils et systèmes à disposition et on essaie de trouver l’endroit où on pourrait venir en caler un nouveau.

Même si chaque outil pris individuellement permet de réaliser les tâches pour lesquelles il est fait de manière plus efficace, fractionner l’écosystème en utilisant des briques de plus en plus petites ne permet pas de résoudre les vrais challenges.

stack data moderne mapping
Représentation d’une stack data moderne. Source : a16z.

Comme l’explique bien Erik Bernhardsson, l’hyperspécialisation nous rend excellents pour couper des oignons et cuire les tartes aux pommes, mais c’est une mauvaise façon de gérer un restaurant.

Non, la stack data moderne ne consiste pas à empiler le plus d’outils possibles. Elle ne doit pas être le prétexte à une prolifération des technos. Prendre cette voie, c’est le plus sûr moyen de créer une stack data qui ne remplit pas sa promesse : aider les utilisateurs à travailler mieux grâce aux données.

Benchmark complet des outils de la Stack Data Moderne

Même si la stack data moderne ne se réduit pas à une combinaison de nouveaux outils (et c’est tout le propos de l’article que vous lisez), on ne peut pas faire l’impasse sur les technologies. On vous a préparé un benchmark complet des outils de la stack data moderne. Type d’outil, origine, modèle économique, réputation sur le marché… chaque solution est présentée dans le détail, dans un beau GSheet facile à exploiter et téléchargeable gratuitement. Bonnes découvertes !

liste outils stack data

La stack data moderne peine à devenir une culture d’entreprise

Lorsque nous réfléchissons aux limites de la stack data moderne telle qu’elle est imaginée et vécue dans bon nombre d’entreprises, c’est le terme de « culture » qui nous vient, cette culture vaguement définie comme une combinaison des compétences que nous avons (ou pas), des structures organisationnelles de nos équipes et à partir de termes flous comme « culture des données », « culture data-driven ».

Ces éléments sont importants, mais il faut bien être conscient qu’une culture data ne s’inculque pas en offrant à ses équipes des manuels ou en organisant des séminaires.

Si les gens ne sont pas enthousiasmés par l’avenir que leur promettent les promoteurs de la stack data moderne, si les gens sont rebutés par le travail à accomplir pour devenir « data-driven », nous ne pouvons pas nous contenter de les inviter à rejoindre le bateau. Il faut réussir à gagner leur enthousiasme. Il faut les convaincre.

Pour cette raison, la stack data moderne comprise comme projet techno n’est pas suffisante. Ce n’est pas de cette manière que vous créerez de l’adhésion. Les entreprises doivent aller plus loin que la stack data moderne et chercher à concevoir une expérience data moderne. Je vous présenterai dans un instant quelques principes directeurs pour construire ce chemin.

Quelques exemples inspirants de stack data efficientes

On dit parfois que les équipes data devraient toujours penser ce qu’elles créaient comme un produit et leurs collègues comme des clients. Si on admet cette idée, quel devrait être ce produit ? A quoi devrait ressembler le chemin qui nous mène d’une question, qui nous fait passer par des technologies, des outils, des collaborations, des échanges pour aboutir à une réponse ? Comment construit-on une stack data moderne conçue comme un produit au service des utilisateurs cibles ?

On n’arrive que rarement à répondre de manière satisfaisante à ces questions.

Ce n’est pas une fatalité. Certaines entreprises ont réussi à trouver des réponses pertinentes.

Airbnb, Uber et Netflix ont construit des stack data intégrées, avec des outils analytics, des outils de reporting, un catalogue de métriques, des catalogues de données et des plateformes ML. Contrairement aux éditeurs des logiciels qu’ils utilisent, les outils qui composent ces stacks data sont au service d’un objectif plus grand qu’eux-mêmes. Les outils sont au service de l’entreprise, et non l’inverse.

Les résultats sont impressionnants :

  • Chez Uber par exemple, les salariés peuvent rechercher une métrique, la visualiser à travers différentes dimensions et passer directement d’une exploration no-code à l’écriture de requêtes, tout cela pendant qu’une IA veille à éviter les redondances.
  • Airbnb a construit un dispositif similaire : un data catalog et un référentiel de métriques sont connectés à un outil d’exploration des données et un IDE SQL.
  • Netflix a créé un workflow pour créer, partager, déployer, planifier et explorer des notebooks qui gèrent tout, des dashboards à la production de modèles.
stack data netflix
La stack data de Netflix, une machine de guerre au service de l’efficience opérationnelle.

Les questions les plus importantes à se poser

Il ne fait aucun doute que ces outils ne sont pas parfaits. Mais ils offrent une fenêtre sur les questions les plus importantes qu’il faut se poser :

  • A quoi ça sert d’utiliser une stack data moderne ?
  • Qu’est-ce qu’une stack data m’apporte de plus concrètement ?
  • Quelle est la meilleure façon pour les gens de répondre à une série de questions, de faire confiance aux réponses et de décider ce qu’il faut faire ensuite ?
  • En quoi pouvons-nous aider les gens qui se préoccupent d’avoir une stack data moderne qui marche, sans se soucier d’où passe la frontière entre un produit et un service ?
  • Qu’est-ce que nous pouvons construire aux gens qui sont dans le restaurant pour qu’ils profitent de leur dîner et n’aient pas à penser à qui prépare les oignons et comment les cuisiniers cuisinent ?

La stack data moderne est décentralisée et cela a un coût

Quelle que soit la définition de la stack data moderne que vous utilisez, presque tout le monde, nous compris, s’accorde à dire qu’elle doit être décentralisée.

Je ne cherche pas ici à vous vendre une approche plus qu’une autre. Mon objectif n’est pas d’entamer une discussion sur les fondements philosophiques de la stack data moderne. Doit-elle être cloud-first, plutôt modulaire ou monolithique, version control ou peer review ? Ce n’est pas le sujet.

Mon point, c’est que la décentralisation qui sous-tend l’approche stack data moderne a un coût. Pourquoi ? Parce que l’architecture se reflète sur l’expérience de ses utilisateurs. Les lignes de faille qui séparent les produits de la stack deviennent des lignes de faille entre les différentes expériences d’utilisation. Il est là le challenge.

Si la stack data moderne est parfois décevante, c’est que loin d’aider les utilisateurs, elle conduit à une fragmentation de l’expérience. La fragmentation des outils aboutit à une fragmentation de l’expérience. C’est ce contre quoi il faut chercher à aller.

Pour trouver la solution, posons-nous cette question : comment une multitude d’entités souveraines et souvent concurrentes peuvent-elles s’unir pour construire quelque chose de cohérent ?

Un petit détour par l’évolution du commerce international

L’histoire du commerce international peut nous aider à trouver la solution. Avant la Première Guerre mondiale, la plupart des accords commerciaux internationaux (traités sur les tarifs et les restrictions) étaient des accords bilatéraux, entre deux pays. Au fur et à mesure que les pays européens se sont industrialisés, un réseau d’accords bilatéraux a vu le jour, centré sur les principaux partenaires commerciaux et souvent piloté par eux : dans le cas européen, la Grande-Bretagne et la France.

En 1947, après deux guerres mondiales, la crise de 29 et la mode pour le protectionnisme, 23 des principaux partenaires commerciaux du monde ont signé l’Accord général sur les tarifs douaniers : le GATT. En raison du poids des membres fondateurs, l’accord n’a cessé d’attirer à lui de nouveaux signataires dans la deuxième moitié du XXème siècle. Le GATT a finalement été remplacé en 1995 par l’Organisation mondiale du commerce, l’OMC. Aujourd’hui, l’OMC a 164 membres qui représentent 98% du commerce international.

Bien que de nombreux pays négocient encore des accords commerciaux bilatéraux ou régionaux, le commerce mondial est principalement régi par les traités mondiaux de l’OMC plutôt que par un réseau complexe de milliers d’accords bilatéraux.

La stack data moderne doit accomplir la même évolution que celle du commerce international

Encore aujourd’hui, la stack data, ce sont des centaines d’Etats membres en orbite autour de grosses plateformes comme Snowflake, Fivetran, dbt et quelques autres. Les relations entre les éditeurs sont gérées par des intégrations bilatérales qui permettent de combler les fossés entre les outils. Les intégrations bilatérales sont à la stack data ce que les accords bilatéraux sont au commerce international.

Dans des écosystèmes aussi complexes que ceux du commerce international ou des technologies data, les intégrations bilatérales montrent rapidement leurs limites. L’approche n’est pas scalable. On aboutit à un patchwork désordonné d’accords ou d’intégrations qui ne peut que se désagréger (et qui se désagrége) avec le temps. Le GATT et l’OMC en sont la preuve.

outils data prep connexion donnees exemple octolis
Toutes les solutions de Data Management proposent des connecteurs, et Octolis n’y déroge pas, évidemment. Mais construire une stack data moderne ne se réduit pas à faire des ponts entre chacune de vos solutions. Octolis propose un outil tout-en-un qui vous permet de rationaliser vos intégrations et de centraliser la préparation des données.

Construits à partir des plus grandes économies du monde, ces accords ont créé une vision commune et des principes directeurs de la politique commerciale qui, même s’ls ne sont pas toujours juridiquement contraignants, ont contribué à faire pencher le monde dans une direction commune.

La stack data moderne doit accomplir la même évolution. Nous allons essayer de synthétiser les principes directeurs qui doivent la gouverner.

Différentes approches pour construire une Stack Data Moderne

La stack data, c’est l’ensemble des outils gravitant autour du data warehouse qui va vous permettre de valoriser vos données et de pleinement les exploiter dans vos applicatifs métier. Sachez qu’il existe plusieurs manières de construire une stack data moderne, plusieurs approches possibles : l’approche best of breed, l’approche agence, l’approche tout-en-un. Pour en savoir plus, découvrez notre article sur le sujet.

Principes directeurs pour une expérience data moderne

La stack data moderne fournit une roadmap SI. Pour que la stack data moderne se traduise pour les utilisateurs par une expérience data moderne, quelques principes directeurs doivent être suivis. Voici ceux auxquels je crois.

#1 Les utilisateurs business doivent pouvoir faire leur métier sans devoir se transformer en data analyst

On a beaucoup parlé de démocratisation des données. C’est une expression à la mode et les objectifs sont louables : permettre à chaque utilisateur de manipuler les données en autonomie et ainsi libérer les équipes data des tâches ingrates qui leur sont traditionnellement confiées pour qu’elles puissent se concentrer sur des projets à forte valeur ajoutée.

La démocratisation des données a eu tendance à devenir une prescription : « Devenez tous analystes grâce aux outils no code ! ». Ce projet a largement échoué comme on peut le constater aujourd’hui avec le recul que l’on a.

L’expérience de la stack data moderne que nous appelons de nos vœux ne consiste pas à mettre les données dans les mains des utilisateurs pour leur laisser le soin de les analyser. Ce que nous voulons, c’est intégrer les données dans les systèmes opérationnels où elles se trouvent déjà pour libérer la productivité de leurs utilisateurs. Les données doivent aider les gens à mieux faire leur travail, plutôt que de leur ajouter un nouveau travail à faire.

#2 La data science et la BI doivent fusionner

On a pris l’habitude de penser que les analystes data devaient travailler dans des outils techniques avancés et que tous les autres collaborateurs devaient utiliser des outils de BI user-friendly. C’est faux. Les outils de BI drag & drop peuvent être très utiles pour les data scientists chevronnés et tout le monde peut devenir un consommateur d’analyses avancées.

powerbi interface
Les data scientists ont aussi vocation à utiliser des outils de Data Viz (ici, PowerBI).

Dans une expérience data moderne, les utilisateurs doivent pouvoir passer sans problème de la visualisation d’un KPI provenant d’un catalogue de données sous contrôle à l’exploration de ce KPI à l’aide de groupements et de filtres, puis à son incorporation dans des analyses techniques approfondies. On doit pouvoir visualiser sur la même interface hommes machines des KPIs intégrés à des tableaux de bord et explorer les données qui alimentent ces KPIs pour approfondir le niveau d’analyse.

Les personnes qui consomment des données ne devraient jamais avoir à sortir d’un outil pour approfondir leurs analyses. Si la stack data moderne nous parle d’intégration des données dans une architecture tech, l’expérience data moderne nous parle d’intégration des expériences.

#3 Les utilisateurs doivent avoir confiance dans les données qu’ils ont sous les yeux

« Est-ce que ces données sont fiables ? » est l’une des questions les plus frustrantes et l’une des plus courantes que les gens posent à propos des données. Aujourd’hui, la réponse à cette question dépend essentiellement de signaux implicites :

  • Qui a construit ces résultats ?
  • Est-ce que ça a été modifié récemment ?
  • Est-ce que ça paraît crédible ?

Ces questions nous conduisent à des recherches interminables. On utilise plusieurs outils pour confirmer les résultats. On perd du temps. Voire pire : on n’utilise pas les données, faute de confiance.

Pour que les utilisateurs aient confiance dans les données qu’ils visualisent et qu’ils manipulent, il faut que chaque set de données indique de lui-même si les processus amont qui l’ont constitué sont corrects ou non, à jour ou non, en un mot : fiables.

Dans une expérience data moderne, on passe du temps à débattre sur les actions à prendre à cause d’un chiffre lu sur un tableau de bord plutôt qu’à vérifier si ce chiffre est juste ou non.

#4 Ne pas oublier ce que l’on a appris

Les informations que nous présentent les outils de BI sont éphémères. Elles disparaissent au fil des mises à jour des données et des mises à jour du design des reportings. Les données récentes chassent les données anciennes. Les analyses ad hoc sont notées à la va-vite et sans méthode. Les conversations se perdent dans les flux Slack.

Dans une expérience data moderne, ce que les données nous apprennent fait l’objet d’un enregistrement, d’une historisation. On ne perd rien des analyses que l’on a faites. On garde la mémoire des enseignements. C’est le plus sûr moyen d’avancer et de ne pas refaire les erreurs du passé.

#5 Les métriques doivent être gérées à un niveau global

En général, les métriques sont pilotées à un niveau local dans les outils de BI. Chaque équipe gère à son niveau ses KPIs, leur mode de calcul, les ratios de synthèse, l’évolution du dispositif de pilotage. Dans une stack data décentralisée et modulaire, on aboutit rapidement à un patchwork de calculs dupliqués et souvent contradictoires.

Une expérience data moderne suppose de la coordination. La gestion et l’évolution des métriques doivent être centralisées. Si les règles de calcul d’un KPI change, ce changement doit être diffusé partout : dans les tableaux de bord de BI, dans les notebooks Python, dans les pipelines ML opérationnels.

#6 Il ne faut pas communiquer uniquement par tableaux

A force de vous plonger dans les données, vous ne finissez par ne plus voir que des structures relationnelles : des tables, des lignes, des colonnes, des jointures. Et pour cause, la plupart des outils data présentent les données sous cette forme. Et c’est sous cette forme que les data analysts se confrontent aux donnés.

Mais pour tous les autres utilisateurs, les données se présentent de manière plus protéiforme, sous forme de métriques dans une série temporelle, de représentations abstraites dans des domaines métiers complexes, de comptes rendus écrits…Les utilisateurs doivent pouvoir interroger et explorer les données de différentes manières, pas uniquement dans des tables et des colonnes.

#7 Il faut construire un pont entre le passé et le futur

Il est tentant de concevoir la stack data moderne comme une discontinuité, le saut d’un passé que l’on veut oublier vers un avenir radieux. Construire une stack data moderne, pour beaucoup, c’est faire table rase du passé. C’est une conception fausse. Ce n’est pas une rupture, c’est une transition. Une transition qui ne mettra pas un terme à tous les problèmes et tous les freins que peut rencontrer un utilisateur de données. Dites-vous bien que vous continuerez à utiliser Excel ! Dans une expérience data moderne, il faut savoir négocier avec cette réalité et admettre qu’une partie du passé se conserve.

#8 L’expérience data moderne est création continue d’imprévisibles nouveautés

Les analyses ne sont pas prévisibles. Ce n’est pas un processus linéaire qui peut être anticipé. On sait d’où l’on part : une question. On ne sait pas où l’on va. Une question en appelle de nouvelles. De la même manière, une infrastructure data est un système évolutif qui se transforme à mesure que les enjeux business et que les sources de données changent.

Les analyses construites à partir de l’infrastructure data évoluent et font évoluer le système qui leur sert de base. L’expérience data moderne répond à la logique des systèmes émergents. Elle démarre petite, grandit, grossit, conquiert de nouveaux territoires. Les expériences et les systèmes rigides ont toujours un coût à la fin.

#9 L’expérience data moderne casse les murs

Les stacks data ont pour habitude de créer des murs et les différents utilisateurs collaborent entre eux en se jetant des choses par-dessus les murs érigés : les ingénieurs data jettent des pipelines aux analysts, les développeurs BI jettent des rapports aux utilisateurs métiers, les analystes jettent des résultats à qui veut bien les recevoir. Le caractère modulaire des stacks data modernes est une tentation à créer encore plus de murs.

De la même manière que dbt a cassé un mur, une expérience data moderne doit briser les autres en encourageant la collaboration et le partage entre les équipes business, data et tech.

Il y aurait beaucoup de choses à dire sur chacun de ces sujets. Ce sont des sujets dont il faut parler, ce sont des conversations qu’il faut avoir. Si l’on ne pense pas l’expérience data moderne qui doit accompagner la stack data moderne, on peut réussir à construire une belle architecture d’outils, mais la promesse à laquelle on croyait (la révolution technologique, la transformation du fonctionnement de l’entreprise) ne se réalisera pas.

Data viz : Les meilleurs outils de visualisation des données

Adopter un outil de data visualisation oui mais lequel ? Quels sont les types d’outils à ma disposition ? Existe-t-il des outils gratuits pour initier cette démarche avant d’aller plus loin ? En quoi un outil de « data viz » est-il différent d’un outil de business intelligence ? Sur quels critères choisir mon outil de data viz ?

Voici les questions auxquelles nous avons tâché de répondre dans cet article, bonne lecture 🙂

Quels sont les différents types d’outils de visualisation de données ?

Comprendre la différence entre data visualisation et Business Intelligence

Face à la complexité du traitement de la donnée, les entreprises ont de plus en plus recours à des outils permettant de transformer cette ressource en leviers d’actions utilisables par les différentes équipes à des fins stratégiques.

Il existe pour cela deux catégories principales d’outils : les outils de data visualisation et les outils de business intelligence (BI).

On définit la visualisation de données comme étant le processus permettant de transformer d’importants volumes de données dans un contexte visuel. La visualisation des données consiste à générer des éléments visuels à partir des données. Il peut s’agir de tableaux, de graphiques, de diagrammes, d’images, de modèles, de films, etc.

Exemple de dashboard animé réalisé avec Tableau Public

Les outils et applications de Business Intelligence quant à eux sont utilisés pour analyser les données des opérations commerciales et transformer les données brutes en informations significatives, utiles et exploitables.

La première étape de toute forme de Business Intelligence consiste à collecter des données brutes ou des données historiques. Ensuite, les outils de Business Intelligence aident à la visualisation, à la création de rapports et aux fonctions d’analyse qui sont utilisées pour interpréter de grands volumes de données à partir des données brutes.

dashobard power bi

Exemple de dashboard de BI réalisé avec Power BI

CaractéristiquesData visualisationBusiness Intelligence
ObjectifFaciliter la compréhension des conclusions d’une analyse de données Transformer des données brutes en leviers d’actions pour l’entreprise afin d’orienter les prises de décisions
DéfinitionReprésentation graphique des élément clefs de l’analyse de donnéesEnsemble des pratiques de collecte, d’analyse et de présentation de données visant à orienter la prise de décisions
Expertise requiseLa manipulation de ces outils est plus facile que pour les softwares d’analyse statistique traditionnels Ce processus nécessite une variété de compétences, de la collecte de données à la prise de décisions
Type d'usagePrésentation de l’information en temps réel ou après le traitement des donnéesPrise de décision en direct ou après analyse
Types de donnéesTables de données structurées Jeux de données reliés entre eux concernant l'activité de l'entreprise
FocusCréer des rapports graphiques clairsDonner des indications business et éclairer la prise de décisions
Utilisé pourReprésenter de façon la plus intuitive les indicateurs clefs de l’activitéDéfinir et calculer les principaux indicateurs clefs
Caractéristiques principalesReprésentation intuitive de l’information Lecture facile et rapide de l’information permettant de mieux la mémoriser Permet d’interagir avec la donnée Permet d’analyser l’activité de l’entreprise et de suivre les principaux indicateurs (KPI) Aide les dirigeants et les managers à prendre des décisions éclairées par l’analyse des performances passées

Ces deux types d’outils sont donc essentiels dans un contexte où l’usage efficace de la data est clef pour faire face à la concurrence. Les outils de BI permettent de prendre des décisions étayées par l’analyse des performances passées quand les outils de data visualisation visent à représenter clairement ces analyses.

Outils de data visualisation gratuits et open source

Il existe une multitude d’outils de visualisation de données, de qualité parfois inégale, dont certains sont open source – le code est accessible publiquement – et d’autres gratuits. Le choix du type d’application a une importance certaine sur la capacité de l’entreprise à traiter les données de façon pertinente et efficace.

Open source

Un software est dit open source lorsque son code source est accessible publiquement, souvent sur des plateformes dédiées telles que Git Hub. Ainsi chaque développeur peut lire, copier et éditer le code de l’application et s’en servir librement pour un usage personnel ou professionnel.

L’accès au code lorsque l’on utilise une application open source est un atout indéniable qui offre la possibilité de personnaliser le software pour le rendre parfaitement adéquat aux besoins de l’entreprise, sans avoir besoin de développer intégralement un outil en interne. Une application open source permet donc de bénéficier d’un gain de temps et d’une réduction des coûts de développement sans souffrir pour autant d’un manque de flexibilité.

Gratuit

On trouve des applications d’une complexité très variable parmi le vaste catalogue des outils de data visualisation, dont les plus complets requièrent du temps et des efforts avant d’être complètement maîtrisés. Il existe cependant des outils gratuits, plus légers et plus accessibles qui nécessitent un temps de prise en main bien moindre.

La facilité d’usage de ces applications allant de pair avec la facilité d’implémentation au sein des équipes rend le recours à ces outils particulièrement intéressant pour des personnes peu formées au code et ayant besoin de mettre en place une solution rapidement.

Top 50 des dashboards Ecommerce sur Google Data Studio

Vous souhaitez mettre en place des dashboards de data viz pour suivre de plus près les performances de votre activité e-commerce ? Découvrez et testez les meilleurs dashboards Data Studio que nous avons sélectionnés pour vous.

liste outils stack data

Qu’attendre d’un outil de visualisation de données ?

Caractéristiques principales

Les outils de visualisation de données sont essentiels dans le traitement de la data, mais pour que leur usage soit pertinent il est nécessaire qu’ils répondent à certaines caractéristiques afin de faciliter la compréhension qu’auront les utilisateurs de l’ensemble des données.

CaractéristiquesAttentes
IntégrabilitéLa possibilité d’intégrer les représentations graphiques des données dans les applications déjà implémentées afin d’en faciliter l’accès.
Possibilités d'actionLes représentations graphiques doivent être porteuses de sens et offrir des conclusions qui pourront être mises en place au sein de l’activité.
Performance L’usage régulier d’un outil de data visualisation dépend de la vitesse à laquelle il va fournir des conclusions à l’utilisateur, qui risque de s’en détourner si le temps d’attente est trop important. L’usage des GPU par certaines applications permet de réduire les temps de calculs et de latence, et offre ainsi une meilleur expérience pour l’utilisateur.
Infrastructure dynamiqueLe recours à des services cloud dédiés pour la gestion du big data permet faciliter la gestion de jeux de données volumineux et de réduire le cout de développement et d’implémentation pour les outils de data visualisation.
Exploration interactive L’outil doit permettre aux utilisateurs d’interagir facilement avec leurs jeux de données (par le biais de filtres ou de groupement par exemple) afin qu’ils puissent rapidement valider ou vérifier leurs hypothèses.
CollaborationLa possibilité pour plusieurs utilisateurs de travailler simultanément sur une même analyse, évitant ainsi le recours à l’envoi de fichiers statiques et permettant un gain de temps non négligeable.
Support pour le streaming de data Un support pour le streaming de data permet d’utiliser des sources de données variées apportant un volume de données plus important, tels que les réseaux sociaux, les applications mobiles ou l’internet des objets (IoT).
Intégration d’intelligence artificielle L’utilisation d’intelligence artificielle permet de simplifier, d’accélérer et d’approfondir les analyses, allant même jusqu’à fournir des prédictions. Il faut cependant s’assurer que cela n’affecte pas négativement les performances.
Management des métadonnées intégré Une bonne gestion des métadonnées permettra aux utilisateurs métiers d’avoir une compréhension claire des données qu’ils manipulent et ainsi de préciser leur analyses.
Accès simplifié en libre-service La possibilité de créer rapidement un modèle pour tester des hypothèses sans avoir besoin de recourir à un développeur.

Principaux critères de différenciation

Lorsque l’on compare différents outils de data visualisation, il faut accorder une attention particulière à certaines caractéristiques qui vont véritablement différencier les outils entre eux.

  • Capacité à s’adapter au besoin business :

Lors du choix d’un outil il est nécessaire de s’interroger d’abord sur la façon dont la data visualisation pourra répondre aux besoins de l’entreprise afin de s’assurer que le software soit capable de faire face à tous les cas d’usage.

Une bonne application permettra d’ajouter des extensions ou de créer des graphiques customisés qui s’adapteront parfaitement aux besoins.

  • Facilité d’apprentissage :

En fonction des profils (tech, métiers…) concernés par l’usage de l’application, il faudra prêter une attention particulière à la facilité de prise en main de l’outil.

Certains outils ne requièrent pas d’expérience particulière, d’autres seront plus complexes mais proches d’outils existants tel qu’Excel, et d’autres enfin nécessiteront le recours au code.

  • Captation et stockage des données :

Certains outils permettent de se connecter facilement à un grand nombre de bases de données assurant ainsi une implémentation facile dans le SI. Il faut aussi considérer la capacité de l’outil à transformer ces données pour proposer une analyse pertinente.

  • Analyse et interprétation :

En fonction du software, les filtres, les groupements et les autres moyens d’analyses de données seront plus ou moins puissants et nombreux. Cela aura un effet direct sur la qualité du traitement des données et son interprétation.

  • Prix :

Le prix est naturellement un élément différenciant majeur réparti sur une fourchette particulièrement large allant de la gratuité totale à des abonnements de plus de 100€ par mois et par utilisateur. Il est toutefois pertinent de s’intéresser aux packages que proposent les outils les plus chers, dont les versions basiques seront parfois suffisantes.

  • Communauté d’utilisateurs :

Les problématiques auxquelles la documentation de l’outil n’apporte pas de réponse sont récurrentes. La possibilité de se tourner vers d’autres utilisateurs plus expérimentés est alors un atout considérable. Ainsi, certains outils comme Power Bi ou Tableau bénéficient d’une importante communauté active sur divers forums tels que Stackoverflow ou les forums dédiés des applications où il sera possible de trouver de l’aide et bien souvent une solution.

stackoverflow-powerbi

A titre d’indication, on trouve plus de 30 500 résultats sur stackoverflow en cherchant le mot-clef « powerbi » concernant des sujets aussi variés que l’utilisation d’une API Rest sur Power BI desktop ou l’intégration d’image dans un reporting Power BI.

Meilleurs outils de data visualisation

En considérant les points précédents, nous avons sélectionné les meilleurs outils de data visualisation : ceux que nous préférons et que nos clients utilisent le plus.

NomDescriptionPricing
Fusion ChartsFusionCharts is another JavaScript-based option for creating web and mobile dashboards. It includes over 150 chart types and 1,000 map types. It can integrate with popular JS frameworks (including React, jQuery, React, Ember, and Angular) as well as with server-side programming languages (including PHP, Java, Django, and Ruby on Rails).From 499$ per month
GrafanaGrafana is open-source visualization software that lets users create dynamic dashboards and other visualizations. It supports mixed data sources, annotations, and customizable alert functions, and it can be extended via hundreds of available plugins. That makes it one of the most powerful visualization tools available.Free version of from 8$ per month
SigmajsSigmajs is a single-purpose visualization tool for creating network graphs. It’s highly customizable but does require some basic JavaScript knowledge in order to use. Graphs created are embeddable, interactive, and responsive.Free
PolymapsPolymaps is a dedicated JavaScript library for mapping. The outputs are dynamic, responsive maps in a variety of styles, from image overlays to symbol maps to density maps. It uses SVG to create the images, so designers can use CSS to customize the visuals of their maps.Free
Chart jsChart.js is a simple but flexible JavaScript charting library. It’s open source, provides a good variety of chart types (eight total), and allows for animation and interaction.Free

Meilleurs outils BI

Nous avons sélectionné les meilleurs outils de data visualisation : ceux que nous préférons et que nos clients utilisent le plus.

NameDescriptionPricing
MicrosoftpowerBIMicrosoft Power BI is one of the leading business intelligence solutions on the market. It allows you to connect any data source to produce reporting and data visualisation. Power BI also offers advanced data preparation capabilities.From $4,995 per month
QlikviewThis is a much older product than Power BI because it had launched way back in 1993, even before the world was exposed to data-driven decision makings. This product also aims at providing data insights from large data sets.From $1350 to $1500
MetabaseMetabase is a business intelligence tool that is an open-source and easy method to generate dashboards and charts. It also solves ad-hoc queries without implying SQL and views the elaborated data as rows in the database. The user can configure it in five minutes and give him a separate platform to answer the queries.From $85/month
SisenseSisense is a Business Intelligence Software & Analytics platform that helps you simplify complex data and create analytic apps.On plan
LookerLooker is a BI tool that helps you analyze and share real-time analytics. It also combines all the data and provides an overview.On plan

Meilleurs outils de data visualisation gratuits et en open source

Les considérations économiques poussent souvent à choisir un outil gratuit. Ce choix sensé au premier abord peut avoir des conséquences négatives s’il n’est pas bien réfléchi. En effet, implémenter un outil inadapté affectera directement la qualité des analyses et imposera de changer d’outil peu de temps après. Nous conseillons donc de s’orienter vers notre sélection d’applications.

NomDescriptionType
RedashRedash is a cloud-based and open-source data visualization and analytics tool. It runs on an SQL server and sports an online SQL editor. The tool has both hosted and open-source/self-hosted versions. Open Source
d3jsAlso known simply as D3, D3.js is an open-source JavaScript library used for visualizing and analyzing data. The acronym ‘D3’ stands for ‘data-driven documents’. Thus, with a strong emphasis on the web standards of HTML, SVG, and CSS, D3 focuses on efficient data-based manipulation of documents.Open Source
Rapid minerRapidMiner is a suite of software programs on the cloud. The entire suite is used for shoring up a sequential data analytics environment. In-depth data visualization is only a part of the suite.Open Source
Raw GraphsBuilt on D3.js, RAWGraphs makes data sourcing and visualization extremely easy. Here are other features and functionalities of this tool that merits it a place among the best open-source data visualization tools of today.Open Source
KnimeKNIME is one of the best open-source data visualization software out there right now. The interface is considerably easy to master. It also presents its data output in a way that anyone with basic knowledge of charts and graphs can understand.Open Source
Tableau PublicTableau Prep est la solution de data preparation proposée par Tableau, l’un des principaux concurrents de Power BI. Beaucoup plus abordable que Power BI, le module Tableau Prep vous permet de consolider, dédupliquer et nettoyer les données que vous utiliserez pour faire vos analyses dans Tableau. Free
Google StudioGoogle Data Studio is a great, free data visualization tool that lets you build interactive dashboards, and customized, beautiful reporting.Free
InfogramInfogram is a fully-featured drag-and-drop visualization tool that allows even non-designers to create effective visualizations of data for marketing reports, infographics, social media posts, maps, dashboards, and more.Free
DatawrapperDatawrapper was created specifically for adding charts and maps to news stories. The charts and maps created are interactive and made for embedding on news websites. Their data sources are limited, though, with the primary method being copying and pasting data into the tool.Free
Flourish PublicFlourish Public enables immersive storytelling rather than more traditional ways of visualizing as tables, diagrams, and dashboards. Unlike Tableau Public, Flourish does not require a desktop edition.Free

Quelles compétences pour être un bon Data Analyst ?

Pour recruter un Data Analyst, il est essentiel d’avoir une compréhension très claire de son rôle dans l’entreprise et des compétences requises, qui sont comme nous le verrons un subtil mélange de hard et de soft skills.

Votre première étape, en tant que recruteur, va consister à rédiger une fiche de poste décrivant le rôle de la personne dans l’entreprise, les résultats attendus et les compétences exigées. Pour réaliser cette étape, nous vous conseillons de découvrir cet excellent modèle basé sur le fameux livre « Who: The A Method for Hiring ».

Dans notre article, nous avons fait le choix de la simplicité. Après avoir rappelé ce qu’était un Data Analyst, son rôle, ses tâches, nous passerons en revue les principales compétences attendues.

competences data analyst
source : beamjobs.

Précisons d’emblée que les compétences recherchées varient en fonction des caractéristiques et de la taille de l’organisation. Pour prendre un exemple très simple, si vous n’avez pas de data engineer, vous devrez recruter un data analyst capable de jouer le rôle de data engineer, de gérer les pipelines de données. On parle parfois d' »analytics engineer » pour définir ces profils polyvalents.

La graphique proposée ci-dessus met en avant les compétences techniques recherchées par les recruteurs. On retrouve les grands classiques : la maîtrise du SQL (la base), des outils de BI, d’Excel, des langages de programmation Python ou R…Mais la qualité d’un data analyst se mesure de plus en plus à ses soft skills comme nous allons le voir. Bonne lecture !

Comprendre le rôle d’un Data Analyst

Les différents rôles dans une équipe data

Parce qu’une image vaut mieux que mille mots, commençons par cette belle illustration des différents rôles dans une équipe data :

role equipe data
Source : abartholomew.com

Une équipe data réunit des profils dont les compétences se répartissent autour de 3 grands pôles :

  • L’ingénierie data, c’est-à-dire l’organisation des pipelines des données, la capacité à organiser les flux entre les sources de données, le data warehouse et les outils. Le Data Engineer est le métier de la data qui incarne le mieux ce pôle.
  • La data analysis, qui consiste à analyser les données pour en tirer des enseignements utiles pour le business et les prises de décision stratégiques. Le Data Analyst est le métier de la data qui incarne le mieux ce pôle et celui sur lequel on va concentrer dans cet article.
  • La modélisation, qui consiste à construire des modèles d’analyse avancés, notamment des modèles statistiques et prédictifs. Ce sont les mathématiciens et les statisticiens de haut niveau qui incarnent le mieux ce pôle.

Ces trois pôles dessinent un ensemble de rôles. Nous avons parlé des Data Engineers, des Data Analysts, des statisticiens. Mais il existe aussi des profils à l’intersection de plusieurs pôles, comme le montre très bien le schéma. Le Data Analyst est à l’intersection du pôle Analysis et du pôle Statistics. Les analytics engineers sont en quelque sorte des data analysts ayant une forte appétence pour la gestion des flux et transformations de données (ETL).

Surtout, ces différents rôles peuvent être endossés par 1 ou n personnes suivant la taille de l’organisation et les enjeux autour de la data. Typiquement, dans les petites organisations, le Data Analyst et le Data Engineer sont généralement la même personne. À l’inverse, dans les grandes organisations, un même rôle peut être partagé entre plusieurs personnes.

Data Engineer Vs Data Analyst vs Data Scientist

Avant d’entrer dans le détail des compétences nécessaires à un Data Analyst, rappelons les différences entre un Data Analyst, un Data Engineer, un Data Scientist et un Analytics Engineer.

data scientist data engineer data analyst
Source : Université d’Adelaide.

Data Engineer, le gestionnaire des pipelines de données

Le data engineer est le rôle qui consiste à mettre en place les pipelines de données. Il gère la manière dont les données sont stockées dans le système d’information, chargées dans l’entrepôt de données et redistribuées dans les différents outils de l’entreprise. Il est responsable de l’infrastructure data de l’entreprise. C’est un technicien.

En résumé, le data engineer est celui qui gère les process ETL : Extraction – Transformation – Load. Il utilise pour cela des outils spécialisés comme Stitch ou Fivetran. Il assure la maintenance et les évolutions du data warehouse cloud de l’entreprise : Snowflake, BigQuery, Redshift, Azure

Pour prendre des exemples parlants, c’est votre data engineer qui garantit que votre instance dbt est bien sur la dernière version, qui gère les permissions dans Snowflake, qui gère et édite les workflows Airflow.

Panorama des outils d’intégration des données

En 2020 une organisation utilise en moyenne 110 applications Saas, contre seulement 8 en 2015. Ces outils augmentent la performance opérationnelle mais créent des silos qui freinent le déploiement des cas d’usage de la donnée. Découvrez notre tour d’horizon des outils pour intégrer toutes les données de votre entreprise : iPaaS, ETL, ELT, CDP, Reverse ETL.

Data Analyst, celui qui transforme les données en enseignements business

Le Data Analyst a pour rôle de dégager des enseignements à partir de l’analyse des données de l’entreprise. Il est chargé de faire « parler les données », via des outils de Business Intelligence et des méthodes d’analyse. Il construit des tableaux de bord et des data visualizations à l’aide d’outils comme Power BI, Tableau ou Looker.

Le Data Analyst est sans doute le rôle le plus important dans une équipe data, car c’est lui qui fait le pont entre le reste de l’équipe data et les équipes métier. Il analyse les données pour répondre aux questions posées par les décideurs et le métier.

Il a un pied dans les données et un pied dans le business.

Mais nous aurons l’occasion dans quelques instants de revenir en détail sur ce rôle clé 🙂

Data scientist, le constructeur de modèles d’analyse avancés (machine learning, IA…)

Le data scientist créé des modèles d’analyse, des algorithmes de machine learning pour prédire ou automatiser les actions data-dépendantes. Il se base sur les principes de la data science pour répondre à des questions complexes auxquelles l’analyse classique ne permet pas de répondre.

Les tâches et responsabilités d’un Data Analyst

Recentrons-nous sur le métier de Data Analyst. Le rôle d’un Data Analyst est d’interpréter les données pour répondre à des problématiques spécifiques.

Voici une liste des principales tâches qu’un Data Analyst est amené à réaliser au cours de ses journées :

  • Rassembler les données. Les data analysts sont souvent amenés à collecter les données eux-mêmes, quelles que soient les formes que cela prend : mettre en place des sondages, tracker les caractéristiques des visiteurs du site internet ou acheter des sets de données auprès de fournisseurs spécialisés.
  • Nettoyer les données. Les données brutes peuvent contenir des informations dupliquées, des erreurs ou des valeurs aberrantes. Nettoyer les données consiste à maintenir la qualité des données. De la qualité des données dépend la validité des analyses !
  • Modélisation des données. La modélisation des données consiste à organiser les données en vue des analyses. Elle permet au data analyst de choisir le type de données qu’il souhaite stocker/collecter et d’établir les relations entre les catégories de données. Une bonne maîtrise de la structure des bases de données relationnelles est requise !
  • Interprétation des données. Interpréter les données consiste essentiellement à découvrir des patterns ou des tendances grâce à l’analyse des données.
  • Présenter les résultats. Le data analyst communique les résultats de ses analyses aux décideurs et au métier. Comment ? En utilisant l’art de la data visualization, en construisant des graphiques, des tableaux, des rapports pour présenter les informations dans un format compréhensible par les personnes intéressées.

Les tâches d’un data analyst varient d’une entreprise à l’autre. Le travail d’un data analyst ne sera pas le même dans une petite organisation et dans une grande organisation. Dans les entreprises qui ont de grosses équipes data, le data analyst utilise beaucoup moins ses compétences en modélisation de données (ce travail est confié aux analytics engineers) mais est beaucoup plus focus sur la compréhension du business et la collaboration entre l’équipe data & les équipes métier.

Si vous envisagez de recruter un data analyst et que vous cherchez de l’inspiration pour rédiger la fiche de poste parfaite, nous vous conseillons la lecture de cet excellent article de getdbt : Guide to writing data, analytics engineer, and data analyst job descriptions.

Les compétences techniques d’un Data Analyst

SQL

C’est la compétence technique numéro 1. C’est le principal outil utilisé par les data analysts pour mettre à jour, organiser et explorer les données stockées dans des bases relationnelles. SQL est un langage de base de données très puissant sur lequel les data analysts peuvent facilement passer plusieurs heures par jour. Vous trouverez la mention de « SQL » dans toutes les fiches de poste de Data Analyst.

Dans tous les process de recrutement, on demande au candidat de rédiger des requêtes SQL. C’est vraiment la base. Le succès de SQL, qui est un langage remontant aux années 1970 (!), s’explique par le succès persistant des bases de données relationnelles.

Voici quelques exemples de la manière dont un data analyst utilise le SQL :

  • Joindre, agréger et filtrer les données d’une table de données
  • Extraire des rapports CSV pour les parties prenantes (données brutes)
  • Créer des rapports plus complets à partir de données issues de Tableau, Looker…
  • Créer des connexions de données statiques ou live pour alimenter les reportings ou les tableaux de bord

Tableurs

Reconnaissons qu’il est parfois plus facile de gérer, visualiser et manipuler vos données dans une feuille de calcul après les avoir requêtées avec SQL. Utiliser des tableurs n’est sans doute pas la compétence la plus intéressante, mais c’est probablement l’une de celles qu’un data analyst utilise le plus souvent au quotidien.

Microsoft Excel et Google Sheets sont les deux principales solutions du marché. Excel propose des fonctionnalités plus avancées mais Google Sheets a l’avantage d’être plus adapté au travail collaboratif.

Voici quelques exemples de la manière dont un data analyst utilise les tableurs Excel ou Google Sheets :

  • Visualiser rapidement des données
  • Partager rapidement des données
  • Mettre en lumière certaines données pour faire des comparaisons
  • Classer des données
  • Grouper des données (en utilisant des tableaux croisés dynamiques)
  • Faire des analyses rapides à la volée (en mode « dirty »)
  • Utiliser la pléthore de fonctions que les tableurs proposent (ce sont des outils bien plus puissants qu’on le pense généralement !)
  • Imaginer et utiliser des formules de calcul maison
  • Utiliser la mise en forme conditionnelle
  • Présenter des enseignements aux parties prenantes de l’entreprise (un Excel peut très bien être utilisé pour créer des tableaux de bord et des reportings)

Langages de programmation (R et Python)

SQL permet d’extraire les données dont on a besoin à partir de l’entrepôt de données. Les langages de programmation R et Python, quant à eux, permettent de faire des analyses (beaucoup) plus avancées que ce qu’il est possible de faire avec un tableur Excel.

Les langages de programmation les plus utilisés par les data analysts sont R et Python. Ce ne sont pas les seuls. On utilise aussi (mais beaucoup moins) SAS et Java. Maîtriser un ou plusieurs langages de programmation est un gros avantage quand on est data analyst.

Voici quelques exemples de la manière dont un data analyst utilise les langages de programmation R ou Python :

  • Calculer la significativité statistique d’un phénomène
  • Utiliser des bibliothèques pour réaliser des tâches plus facilement et/ou plus efficacement :
    • Bibliothèques Python : Pandas pour la préparation et la manipulation des données, Matplotlib pour la data visualization, Scikit-learn pour l’analyse régressive et les arbres de décision.
    • Bibliothèques R : Dplyr pour la préparation et la manipulation des données, Ggplot2 pour la data visualization.
  • Réaliser des expérimentations et tester des hypothèses
  • Utiliser des techniques statistiques classiques comme ANOVA (Analyse de la Variance)
  • A/B tester des produits
  • Analyser les valeurs aberrantes
  • Analyser la qualité des données
  • Faire de la régression

Il y a des tonnes de fonctions qui utilisent des méthodologies statistiques et peuvent être mises en œuvre grâce aux langages de programmation. Tous les data analysts ne maîtrisent pas ces langages, mais c’est un avantage compétitif certain. Il est de plus en plus conseillé, quand on est data analyst ou qu’on aspire à le devenir, de maîtriser au moins un de ces langages informatiques.

langages programmation python r sas java
Source : beamjobs.com

Data Visualization

Les data analysts doivent être capables de partager de manière claire, simple et concise les résultats de leurs analyses. La data visualization permet de communiquer des informations et des enseignements basés sur la data à des personnes qui ne sont pas data analysts.

Elle consiste, comme son nom l’indique, à utiliser des moyens visuels : graphiques, courbes, bâtonnets, etc. pour illustrer des enseignements. La Data Visualization est une des compétences incontournables du data analyst. Tableau, Power BI, Jupyter Notebook et Excel sont parmi les outils les plus populaires pour créer des data visualizations.

Voici quelques exemples de la manière dont un data analyst utilise la data visualization :

  • Articuler des données complexes dans un format (visuel) facile à comprendre
  • Partager des données ou des résultats aux autres parties prenantes de manière simple
  • Comparer des données entre elles
  • Explorer les données. Point important : la data visualization peut aussi être utilisée pour découvrir des enseignements impossibles à déduire de suites de chiffres.
  • Visualiser beaucoup de données et d’informations dans un même endroit, sans avoir à scroller ou à sauter d’un écran à l’autre.

Data preparation

On estime que près de 80% du temps de travail des professionnels de la data consiste à nettoyer et préparer les données. C’est colossal. Mais ce travail est indispensable car avant d’analyser les données il faut les réunir, les consolider, les nettoyer et parfois les transformer. De mauvaises données aboutissent à de fausses analyses.

Ce n’est clairement pas la partie la plus intéressante du métier de data analyst. C’est d’ailleurs dommage que la data prep continue de consommer autant de bande passante quand on sait qu’il existe des solutions (dont Octolis) permettant d’automatiser toutes les étapes de préparation des données.

octolis preparation des données
Octolis, une solution Data Ops permettant de gérer l’ensemble des étapes de préparation des données sur une même interface.

Voici quelques exemples de la manière dont un data analyst utilise la data preparation :

  • Choisir les données à intégrer dans le périmètre de l’analyse.
  • Identifier les sources dans lesquelles sont captées et/ou stockées ces données.
  • Récupérer des données pour les intégrer dans un environnement d’analyse (tableur, outil de BI…)
  • Normaliser les données
  • Nettoyer les données, en retraitant les données erronées ou aberrantes qui peuvent affecter l’analyse

Outils de Data Preparation

Les équipes data passent le plus clair de leur temps à préparer les données. C’est une aberration quand on sait qu’il existe des outils de dataprep qui permettent de faire d’énormes gains de productivité. Découvrez notre panorama des outils de data preparation.

Les soft skills que doit maîtriser un Data Analyst

La pensée critique

Cette compétence n’est pas propre au métier de data analyst, tout le monde est d’accord. Mais c’est important de la mentionner ici car c’est le genre de compétences qui permet de distinguer les bons data analysts des moins bons.

Qu’est-ce que la pensée critique appliquée à la data analysis ? C’est, par exemple, la capacité à savoir quelles données collecter et comment les processer pour obtenir les réponses aux questions qu’on cherche. Connecter des données ne nécessite pas de pensée critique. Mais savoir quelles données connecter, c’est une autre affaire et c’est sur cette capacité, souvent fondée sur l’intuition, qu’on reconnaît un bon data scientist. La pensée critique, c’est aussi ce qui permet au data analyst :

  • D’imaginer les modèles d’analyse les plus adaptés pour répondre à tel ou tel type de questions
  • D’identifier des patterns derrière et au-delà des données qu’il a sous les yeux

L’écriture et la communication

Le data scientist interprète les données pour aider les décideurs à prendre des décisions et les équipes métier à travailler plus efficacement. Contrairement au data engineer, le data analyst est en contact direct avec les autres parties prenantes de l’entreprise. Il doit savoir se faire comprendre d’elles. Le data analyst doit savoir s’exprimer face à des personnes qui n’ont pas forcément de compétences en analyse data.

Les compétences relationnelles font partie des soft skills du data analyst. Il doit savoir s’exprimer, parler, expliquer, mais aussi écouter (en phase de kick off, le data analyst écoute plus qu’il ne parle). Il doit savoir vulgariser, parler de manière simple et accessible de sujets techniques parfois très ardus.

Un data analyst est amené à rédiger des rapports et des recommandations. Il doit donc aussi savoir écrire. Il doit être bilingue et maîtriser aussi bien la langue des chiffres que celles des mots.

Les capacités communicationnelles sont une compétence fondamentale : vous pouvez être le meilleur analyste du monde, si vous ne savez pas expliquer les résultats de vos analyses et convaincre vos collègues de l’intérêt de vos analyses, vous ne faites pas le job jusqu’au bout.

La résolution de problèmes

Un data analyst est une personne qui trouve des réponses à des questions posées par les équipes métier. Il doit avoir une bonne compréhension des questions posées et des problèmes sous-jacents à résoudre. Il doit être capable de reformuler les questions dans le langage de la data et de l’analyse.

Son rôle est aussi de découvrir des patterns, des tendances et des relations entre données permettant d’amener à des découvertes utiles. La résolution de problèmes est une compétence indissociable de la pensée critique. Il faut être innovant et créatif pour devenir un bon data scientist.

La compréhension du business

Le data scientist ne travaille pas dans les nuages, même s’il utilise certainement beaucoup d’outils cloud. Il travaille au sein d’une entreprise qui évolue dans un secteur spécifique, avec une activité particulière, des parcours clients singuliers.

Le data analyst est partie prenante de son entreprise. Son travail, ses analyses sont au service des finalités business : améliorer la productivité, mieux cibler les clients, réduire les coûts, réduire le churn, augmenter la performance commerciale, etc.

Une bonne compréhension de l’activité et du contexte métier de l’entreprise est absolument indispensable. Un data analyst qui travaille pour une boutique en ligne, par exemple, doit avoir une parfaite compréhension du ecommerce et de ses enjeux. Un data analyst qui travaille pour une entreprise de vente de quincaillerie aux professionnels doit comprendre ce marché et son fonctionnement.

Nous avons fait le tour des principales compétences techniques et « soft » requises pour exercer le métier de Data Analyst. En tant que recruteur, ce sont toutes les compétences que vous devez évaluer. En fonction de votre entreprise et de votre besoin, certaines compétences seront plus critiques que d’autres. Quoi qu’il en soit, prenez le temps de faire le bon choix. Le recrutement d’un data analyst est une étape importante dans la vie d’une entreprise.

Top 50 des dashboards Ecommerce sur Google Data Studio

Google Data Studio est un outil formidable. L’outil est très facile d’utilisation, le plus compliqué comme souvent, c’est de savoir ce qu’on veut. Il est possible de faire des dashboards dans tous les sens, et beaucoup de boites se retrouvent avec plusieurs dashboards qui se recoupent plus ou moins, et qui sont souvent incomplets et pas vraiment mis à jour.

Avant de vous lancer dans la création d’un dashboard, je vous conseille clairement de prendre le temps de définir vos besoins précisément, et trouver les bonnes inspirations.

Vous trouverez ci-dessous notre top 50 des dashboard e-commerce.
La plupart sont gratuits et vous pourrez facilement copier celui qui sera le plus proche de votre besoin.
 

Télécharger le benchmark des 50 dashboard gratuitement

Les différents types de dashboard Ecommerce

Dashboard global – Léger

Ce dashboard présente la situation de l’entreprise de manière assez globale, en mettant en évidence les chiffres clés et les informations les plus importantes. Ce type de dashboard est principalement utilisé par les cadres supérieurs et les fondateurs pour avoir une vision des résultats de l’entreprise sans avoir trop de détails. Cela leur permet de prendre les décisions adéquates et d’avoir les principaux KPIs mis en évidence.

Principaux KPI = Conversions Rate, Customer Lifetime Value, Sales, ROI…

Dashboard global – Détaillé –

Ce type de dashboard est assez similaire au précédent, sauf qu’il est beaucoup plus détaillé. Bien que les fondateurs et les cadres supérieurs soient également la cible, ces dashboards offrent souvent une meilleure compréhension. En effet, il va permettre une analyse plus détaillée et ainsi creuser les mêmes KPIs mais de manière plus précise.

Principaux KPI = Segmentation par canal, ROI, Conversions Rate, Customer Lifetime Value, Sales…

Acquisition

Le dashboard d’acquisition permet de bien observer « l’apport » de vos nouveaux clients à votre entreprise, et c’est une donnée clé pour votre réussite. Ce type de dashboard est destiné pour les managers d’acquisition et les managers de trafic.

Principaux KPI = CAC (Customer Acquisition Cost), LTV (Life Time Value), Churn Rate, New client rate, Conversion rate…

Segmentation par canal

La segmentation par canal est une étape clé dans la compréhension et l’analyse des données. Si votre stratégie est de vous concentrer sur certains points alors ce type de dashboard peut vous être très intéressant par exemple pour mettre en avant la gestion des produits, les indicateurs clés de performance. La segmentation par canal offre une explication approfondie de la préférence des produits, de la tendance de croissance de l’industrie, des principaux moteurs du marché en utilisant les diagrammes de données notamment. Ces dashboards sont beaucoup utilisés par les Channel Manager.

Principaux KPI = Average Income per Client, Conversion rate, Demographics KPI (age, country…) , Engagement, Traffic…

Analyse de funnel

Grâce aux dashboards d’analyse de funnels, vous pouvez déterminer où les utilisateurs entrent et sortent du processus de conversion/vente. Vous pouvez ensuite déterminer et éliminer les ralentissements et blockages dans ce processus pour booster les ventes du site Web. Ce type de dashboard est régulièrement utilisé par les data analyst.

Principaux KPI = Performance over time, Clics and Impressions, Customer Lifetime Value, Sales Funnel Flow…

Performance de Google Ads

Ces dashboards de performance de vos campagnes Google Ads mettent en avant des informations vitales pour vos campagnes en cours et les suivantes. Un dashboard Google Ads vous aidera à garder le contrôle de vos campagnes Google Ads en trouvant les bons mots-clés pour le bon public. Ces informations seront très utiles pour les marketer et ceux qui sont à l’origine de cette campagne.

Principaux KPI = Clics, Impressions, CPC, Conversion, CPA, Top Campaigns…

Retention

Un dashboard de rétention (fidélisation) de la clientèle permet de suivre les principaux indicateurs centrés sur le client, tels que le taux de fidélisation, le taux de désabonnement, la croissance du MRR et le nombre de clients fidèles. De cette façon, une entreprise génère des informations détaillées sur ses opportunités de croissance. Les responsables de la rétention CRM auront une grande utilité à utiliser ce genre dashboard;

Principaux KPI = Taux de retention et de désabonnement, Le Net Promoter Score (NPS) , Taux de rachat, Panier moyen

Performance des produits

Les dashboards qui concernent la performance des produits fournissent des informations sur les performances des campagnes et des produits afin que votre équipe puisse procéder aux ajustements nécessaires pour atteindre les objectifs de vente. Cet outil est utilisé par les responsables chefs de produits

Principaux KPI = CLTV,  Taux de rétention, Satisfaction client, Sessions par utilisations

SEO

Le dashboard SEO affiche tous les éléments-clés de votre campagne SEO dans une interface en temps réel. Cela inclut généralement des mesures telles que le suivi du classement des mots-clés, le trafic organique, les conversions Web et les backlinks créés. Les dashboards SEO améliorent les performances des recherches organiques de vos clients et vous fournissent toutes les données dont vous avez besoin pour rendre compte de vos progrès.

Principaux KPI = Recherche organique, Mot-clés, Impressions …

Performance de la vitesse du site

Avec ce type de dashboard, vous pouvez obtenir rapidement un aperçu des performances de vitesse de votre site Web en quelques clics seulement. Vous pouvez également trouver les tendances et approfondir les différents systèmes d’exploitation et navigateurs pour obtenir les meilleurs/pires sites.

Principaux KPI = Vitesse de la page, SEO, Traffic, Taux de rebond, Durée moyenne de la session,

Approche méthodologique

1. Définir vos dashboards

La plupart des gens vont être satisfaits d’un dashboard qui offre une vue d’ensemble de leur activité, mais choisir le bon dashboard est très important. Pour que votre entreprise d’Ecommerce cartonne, il est de votre devoir de savoir et de comprendre comment votre entreprise fonctionne vraiment, ce qui fonctionne bien, ce qui ne fonctionne pas et quelles pourraient être les meilleures décisions à prendre. Il existe une multitude de dashboards sur le web et vous pouvez vous sentir perdu et ne pas vraiment savoir lequel est le meilleur pour votre cas d’utilisation. Faisons aussi simple que possible pour vous, le dashboard d’Ecommerce dont vous aurez besoin dépend de vos objectifs et de ce que vous voulez voir, comprendre et réaliser avec vos données.

Quel que soit le dashboard dont vous avez besoin, il existe deux points de départ importants pour toute entreprise e-commerce :

  • Premièrement, les sources de trafic, il est capital pour vous de connaître les performances de votre entreprise. Si vous surveillez vos sources de trafic, vous serez en mesure de voir clairement quels canaux rapportent le plus de visites, de taux de conversion et donc de revenus à votre entreprise. En vous adaptant à ces données, vous pourrez envisager une stratégie pour cibler et augmenter le trafic vers ces sources.
  • Ensuite, votre revenu, oui c’est évident et bien sûr il doit être inclus dans votre dashboard même si certains dashboards spécifiques ne se concentreront pas sur le revenu mais sur la pertinence de vos campagnes (Google Ads, Emailing …). Vous pouvez utiliser le revenu pour donner une vue d’ensemble de votre activité mais aussi pour le décomposer par produits, canaux, etc…

2. Dresser la liste de toutes les sources de données dont vous avez besoin

Data Studio peut se brancher nativement à tous les outils Google : Search Console, Google Analytics, Google Ads, etc. Vous pouvez également brancher des GSheet, ou encore mieux connecter Data Studio à BigQuery, le Data Warehouse de Google dans lequel vous pouvez faire descendre des données d’autres outils.
Avant de construire vos dashboards, il faut lister toutes les sources de données dont vous aurez besoin. Idéalement, il faut faire ce travail en partant de chaque rapport / graphique dans votre dashboard idéal. Vous listez les rapports dans un Gsheet, et pour chacun, vous notez les sources de données qui seront nécessaires.

3. Choisissez vos outils

Les outils de dashboard

Dans le domaine du Ecommerce, on retrouve le plus souvent :

  • Google Data Studio :  Google Data Studio va vous fournir tout ce dont vous avez besoin pour transformer les analyses de données de vos clients en informations compréhensibles.Les rapports sont faciles à lire et à partager, et peuvent être personnalisés pour chaque client. Vous pouvez également choisir comment afficher les données (sous forme diagramme à barres, graphique, graphique linéaire, etc.).
  • Metabase : Metabase est un outil de BI open source. Il vous permet de poser des questions sur vos données et d’afficher les réponses dans des formats adaptés, qu’il s’agisse d’un graphique à barres ou d’un dashboard détaillé.
  • Qlikview :  QlikView est une solution classique d’analyse predictive, en clair QlikView vous permet de développer et de fournir rapidement des dashboards interactifs. L’utilisation de QlikView est nettement plus compliqué que Google Data Studio mais vous permet aussi certaines analyses plus détaillées.

Besoin d’un Data Warehouse  ?

Au début, vous pouvez connecter votre outil de dashboard directement aux sources de données. Lorsque le nombre de sources de données augmente et que la nécessité de « joindre » des dashboards apparaît, il est judicieux d’envisager un Data Warehouse (comme Google BigQuery ou une simple base de données Postgres) dans lequel vous consoliderez toutes les sources de données. Quels sont les signaux d’alarme quand on a besoin d’un Data Warehouse?

  • Si vous devez analyser vos données et qu’elles proviennent de plusieurs sources
  • Si vous devez séparer vos données analytiques de vos données transactionnelles.
  • Si vous voulez augmenter les performances de vos analyses les plus fréquentes.

Pipelines de données, comment collecter les données ?

Google Data Studio peut se connecter directement à tous les outils Google, cependant vous pouvez avoir besoin d’autres sources de données (backend Ecommerce, service client, ..).
Dans ce cas vous pouvez envisager des outils comme Supermetrics, Funnel, Octolis pour les utilisateurs du marketing, le processus est simple, la solution choisie permet d’extraire les données de vos sources (quelle qu’elles soient), les transforme pour pouvoir mieux les exploiter puis les connecte à une DWH.

Une autre alternative, si vous avez des compétences en ingénierie serait Fivetran et Airbyte. Fondamentalement, Fivetran permet de recueillir efficacement les processus buisness et les données des clients à partir de leurs sources, de sites Web et de serveurs associés. Les données recueillies sont ensuite transférées à d’autres outils à des fins d’analyse, de marketing et de stockage de données.

20 modèles de dashboard de performance globale

The Ecommerce Speed Dashboard

Le modèle de ce dashboard est conçu pour les entreprises d’Ecommerce qui ont mis en place un suivi d’Ecommerce amélioré sur Google Analytics.
Ce rapport est fait pour vous si vous recherchez des informations détaillées organisées d’une meilleure manière que les données de Google Analytics.
Le dashboard montre le revenu annuel, les achats et le revenu par achat.
En outre, le modèle montre des informations sur la vue du produit, vous serez en mesure de filtrer les données en fonction du profil, de la date, de la source et du pays.
L’objectif est de déterminer le montant de vos revenus, le taux de conversion et les produits les plus performants.

  • Source : Google Analytics
  • Prix : Gratuit

The Aro Digital eCommerce Dashboard

Le dashboard Ecommerce d’Aro est un modèle global contenant de nombreux détails sur les transactions de commerce électronique.
Il dispose d’une très bonne sélection de KPI, ce qui vous permet de segmenter toutes vos données dans un endroit unique, qu’il s’agisse de données démographiques ou de canaux.

Le modèle comprend 4 pages qui présentent la plupart des éléments clés du marketing de recherche.

  • Source : Google Analytics
  • Prix : Gratuit

Tableau de bord de l’expérience utilisateur

  • Source : Google Analytics
  • Prix : Gratuit

KPI Summary Dashboard

  • Source : Google Analytics
  • Prix : Gratuit

Search Console Explorer Studio

  • Source : Google Analytics
  • Prix : Gratuit

Google Analytics Audit

  • Source : Google Analytics
  • Prix : Gratuit

Essential Google Ads Template

  • Source : Google Analytics
  • Prix : 99€

70 facts about visitors dashboard

  • Source : GA4
  • Prix : Gratuit

ResponseTab Ecommerce Dashboard

  • Source : Google Analytics
  • Prix : Gratuit

All-in-one dashboard for the big screens

  • Source : GA4
  • Prix : 99€

Google Analytics 4 dashboard

  • Source : Google Analytics
  • Prix : Gratuit

Complete Digital overview for mobile devices

  • Source : Google Analytics
  • Prix : 60€

Web Analytics Dashboard

  • Source : GA4
  • Prix : Gratuit

Data Studio Ecommerce Template

  • Source : Google Analytics
  • Prix : Gratuit

ROPO dashboard

  • Source : Google Analytics
  • Prix : Gratuit

Enhanced eCommerce Analytics Dashboard

  • Source : Google Analytics
  • Prix : Gratuit

Adobe analytics website performance overview template

  • Source : Adobe Analytics
  • Prix : de 40 à 200€ par mois

Ecommerce Overview performance Dashboard

  • Source : Shopify, Snapchat, Instagram, Pinterest, Facebook, GA
  • Prix : Gratuit

Hubspot Marketing Performance template

  • Source : Hubspot
  • Prix : Gratuit

Website Master Template

  • Sources : Google Analytics, Google Ads, Google Search Console
  • Prix : Gratuit

4 modèles de dashboard de segmentation par canal

Mobile ecommerce dashboard

  • Source : Google Analytics
  • Prix : Gratuit

E-commerce performance report

  • Source : Google Analytics
  • Prix : Gratuit

Website summary

  • Source : Google Analytics
  • Prix : Gratuit

Attribution report

  • Source : Google Analytics
  • Prix : Gratuit

4 modèles de dashboard d’acquisition

The Merchandise Store Website Performance Report

  • Source : Google Analytics
  • Prix : Gratuit

Engagement, Loyalty, and Traffic Growth Dashboard

  • Source : Google Analytics
  • Prix : Gratuit

Social Media Dashboard Import

  • Source : Google Analytics
  • Prix : Gratuit

Website performance report for the merchandise store

  • Source : Google Analytics
  • Prix : Gratuit

4 modèles de dashboard d’analyse de funnel

The Facebook Campaign Template

Ce dashboard contient des informations très pertinentes sur l’Ecommerce, la première page nous permet de voir quelques détails sur les revenus et les achats, et la dernière page vous avez accès à un dashboard d’aperçu des funnels avec quelques détails sur les campagnes à faible funnels.

Il est difficile de trouver de bons modèles Facebook, la plupart d’entre eux sont orientés-Ecommerce, et celui-ci donne un véritable aperçu de la campagne Facebook, pas trop spécifique mais plutôt détaillé.

Ce modèle fournit des données sur les impressions, les clics et les achats, mais aussi sur les objectifs de la campagne, le montant dépensé, les revenus, le ROAS et les résultats.

Pour vous donner un aperçu du dashboard, il y a 6 pages : aperçu, répartition de l’audience, répartition de la créativité, aperçu du funnel et enfin niveau de la campagne.

  • Source : Google Analytics
  • Prix : Gratuit

GA4 Ecommerce Conversion Funnel Template

  • Source : Google Analytics
  • Prix : 59€

E-mail Dashboard

  • Source : Google Analytics
  • Prix : Gratuit

The Enhanced Ecommerce Funnel Template

  • Source : Google Analytics
  • Prix : Gratuit

4 modèles de dashboard de performance des campagnes Google Ads

Adwords Performance Snapshot

  • Source : Google Analytics, Google Ads
  • Prix : Gratuit

Ultimate Google Ads report

  • Source : Google Ads
  • Prix : Gratuit

Adwords Data Studio Template Report

  • Source : Google Analytics, Google Ads
  • Prix : Gratuit

Adsens monthly Overview

  • Source : Google Ads
  • Prix : Gratuit

8 modèles de dashboard de retention

Google Merchandise Store Report

  • Source : Google Analytics
  • Prix : Gratuit

The Sales and Shopping Behavior Dashboard

  • Source : Google Analytics
  • Prix : Gratuit

Google Analytics 4 Data Studio Template

  • Source : Google Analytics
  • Prix : 69€

Periodic Revenue Template

  • Source : Google Analytics
  • Prix : 49€

Ultimate Google Ads Dashboard

  • Source : Google Analytics
  • Prix : Gratuit

The perfect Google Analytics Dashboard

  • Source : Google Analytics
  • Prix : Gratuit

All in one Ecommerce Dashboard

  • Source : Google Analytics
  • Prix : Gratuit

Ecommerce Performance Report

  • Source : Google Analytics
  • Prix : Gratuit

3 modèles de dashboard de performance des produits

The Enhanced eCommerce Dashboard

  • Source : Google Analytics
  • Prix : 100€

All-in-one Search Console Template

  • Source : Google Analytics
  • Prix : Gratuit

Google Merchandise Store Ecommerce Report

Dans ce dashboard, vous pouvez trouver toutes les dimensions et métriques concernant les produits ajoutés aux paniers, les ventes, les sessions, le taux de « ajouté panier « . Pour aller droit au but, vous pouvez filtrer vos données par catégorie d’appareil, type d’utilisateur et pays…
En conclusion, ce dashboard vous offre une vue globale des tendances et des informations assez pointues.

  • Source : Google Analytics
  • Prix : Gratuit

2 modèles de dashboard SEO

SEO Dashboard

  • Source : Google Analytics
  • Prix : Gratuit

Search Console Explorer Studio v1.3

  • Source : GA4
  • Prix : Gratuit

1 modèle de dashboard de performance de la vitesse du site

Performance de la vitesse du site

  • Source : GA4
  • Prix : Gratuit

Téléchargement de notre benchmark complet des dashboard Ecommerce data studio.

Pour accéder à la ressource, il vous suffit de vous inscrire en quelques clics.
Au clic sur le bouton ci-dessous, vous arriverez sur un formulaire d'inscription rapide. Une fois inscrit, il y a un onglet "Ressources" qui apparaîtra dans le menu du haut qui vous permettra d'accéder à l'ensemble des ressources en téléchargement gratuit. Avec un peu de chance, vous aurez une bonne surprise, il y aura d'autres ressources qui vous seront utiles 😊

👉 Je m'inscris pour télécharger la ressource

Panorama des outils d’intégration de données

D’après statistica, en 2020 une organisation utilise en moyenne 110 applications Saas, contre “seulement” 8 en 2015. Si le recours de plus en plus fréquent à ces outils a considérablement augmenté les performances opérationnelle des organisations, elle s’est en revanche accompagnée de la création de “silos de données” qui freinent la mise en place de cas d’usage nécessitant le recours à plusieurs outils.

Pour répondre à ce nouvel enjeu, de nouveaux outils d’intégration de données se développent : les iPaaS, les CDP, les ELT mais également les Reverse ETL. Quel est le positionnement de chacun de ces outils, comment les comparer et surtout comment faire le bon choix, on vous dit out dans cet article !

Les enjeux autour de l’intégration des données

Intégration de données : définition

On appelle intégration des données le processus de centralisation de l’information entre bases de données (internes ou externes). Il peut s’agir des datawarehouses, ainsi que des outils et systèmes tiers qui génèrent et stockent de la donnée. L’objectif est d’avoir une vue unique de données provenant de plusieurs sources. Les outils d’intégration utilisent tous la même technologie sous-jacente : les API.

Prenons l’exemple d’une application mobile utilisant les outils suivants pour gérer son activité :

  • Facebook et Google Ads afin d’acquérir de nouveaux utilisateurs
  • Google Analytics pour suivre le trafic sur son site web et sur l’application mobile
  • Une base de données MySQL pour stocker les informations générales
  • Marketo pour l’envoi d’emails marketing et la gestion des prospects
  • Zendesk pour le support client
  • Netsuite pour la comptabilité et le suivi financier

Chacune de ces applications contient un silo d’informations sur les opérations de l’entreprise. Pour obtenir une vue à 360 degrés de son activité, ces données doivent être regroupées en un seul endroit. C’est ce processus que l’on appelle communément « intégration des données ».

Les bénéfices d’un processus d’intégration de données solide

Tout d’abord, l’intégration des données permet d’améliorer la collaboration et l’unification des systèmes au sein d’une société. En effet, les employés de différents départements ont de plus en plus besoin d’accéder aux données de l’entreprise, qu’elles concernent les clients ou les produits. Une source unique et sécurisée de données facilite l’entraide entre équipes et booste l’efficacité de l’entreprise.

De plus, un processus d’intégration solide permet de faire gagner du temps aux équipes IT chargées de développement. Les employés n’ont alors plus besoin d’établir des connexions eux-mêmes évitent également de refaire tous les rapports manuellement, les données peuvent être mises à jour en temps réel.

Enfin, l’intégration assure des données de plus grande qualité. Au fur et à mesure que les données sont intégrées dans le système centralisé, les problèmes de qualité sont identifiés. Les améliorations nécessaires sont mises en œuvre plus rapidement que lorsque les données viennent de plusieurs sources. Les données sont donc plus fiables.

Quels outils pour intégrer vos données ?

Des solutions ont été créées pour résoudre le problème d’intégration des logiciels et des applications fonctionnant de manière isolée les unes des autres, ne disposant pas d’un flux de communication automatique. Il existe différents types d’intégration que l’on peut regrouper sous des familles d’outils :

  • iPaaS (Integration Platform as a Service) : les données circulent directement entre les applications Cloud, avec peu ou pas d’intégration dans l’iPaaS comme Zapier ou Integromat.
  • CDP (Customer Data Platform) : les données circulent entre les applications Cloud via une plateforme hub centrale qui permet des transformations modérées de la data.
  • ETL (Extract, Transform and Load) : les données sont transférées des applications Cloud vers un datawarehouse, en passant par une couche de transformation robuste intégrée à l’outil.
  • ELT (Extract, Load, and Transform) : les données passent des applications Cloud à un datawarehouse directement, et la transformation des données a lieu dans le datawarehouse via SQL. La principale différence ici est qu’avec l’ETL, la transformation a lieu avant le chargement des données dans l’entrepôt, alors qu’avec l’ELT, la transformation a lieu après.
  • Reverse ETL : les données passent d’un datawarehouse à des applications Cloud, à l’inverse du processus ETL, on peut ici citer Octolis en France ou encore Census aux US.
    Comme le montre le schéma ci-dessous, le recours à ses différentes solutions a suivi l’évolution de l’organisation du SI clients. Cette organisation s’est structurée d’abord principalement autour du couple CRM marketing- iPaas, puis au travers des CDP et enfin aujourd’hui la stack data moderne bascule un nouveau couple : Datawarehouse Cloud & Reverse ETL!


L’évolution des outils d’intégration de données depuis 2010

Les iPaas comme Zapier / Integromat

Les iPaas (Integration Platform as a Service) sont des plateformes technologiques qui relient les différents systèmes utilisés par une entreprise, permettant l’intégration et le partage des données entre eux, offrant ainsi une vision unique. L’iPaas fonctionne comme un tuyau d’un outil A vers un outil B. L’inconvénient majeur réside donc dans la difficulté d’intégrer plusieurs sources.
Une plateforme iPaas « en tant que service » fournit un cadre et un environnement dans le Cloud.
L’un des avantages principaux des iPaaS est le fait qu’ils offrent une interface visuelle pour construire des intégrations, permettant aux équipes commerciales de prendre le contrôle de leurs besoins d’automatisation des flux de travail. Grâce aux ‘iPaaS, des concepts de codage sont transformés en une interface utilisateur facile à manipuler, même pour les profils non techniques.

Parmi les solutions iPaas les plus populaires aujourd’hui, nous retrouvons Tray et Workato, plutôt ciblées pour les grandes entreprises, et Zapier, Integromat et Automate.io, plutôt destinées aux PME.

  • Avantages
    • Simplicité d’utilisation de l’interface
    • Nombre de connecteurs disponibles
  • Inconvénients
    • Prix élevé : Bloquant pour de gros volumes de données
    • Difficulté à croiser les données de plusieurs sources

Les CDP comme Segment ou Tealium

Les Customer Data Platform collectent et rassemblent les données provenant de différentes sources et les envoient vers différentes destinations.
Côté métier, la CDP permet aux équipes marketing de créer des segments basés sur le comportement et les caractéristiques des utilisateurs, et de synchroniser ces segments avec des outils tiers pour offrir des expériences personnalisées. Le tout sans dépendre des équipes techniques d’ingénierie de données.

Sur le marché, on retrouve des CDP horizontales telles que Segment, mParticle, Lytics et Tealium, ainsi qu’à des CDP verticales telles que Amperity (retail et hôtellerie) et Zaius (ecommerce), qui s’attachent à répondre aux besoins de secteurs spécifiques.

  • Avantages
    • Personnalisation forte
    • Manipulation des données facile par les équipes métiers
  • Inconvénients
    • Déplacements de données selon modèle prédéfini
    • Fournisseurs de logiciels pas toujours compatibles

Les outils ETL / ELT comme Talend ou Fivetran

Dans la famille d’outils ETL, les données sont d’abord extraites des bases de données et sources tierces (principalement des outils SaaS pour les ventes, le marketing et le support), puis transformées pour répondre aux besoins des analystes, et enfin, chargées dans un datawarehouse.

La transformation des données est particulièrement gourmande en ressources et en temps, ce qui a un impact significatif sur le délai entre l’extraction et le chargement des données.

Cependant, grâce aux progrès des technologies de l’écosystème data, l’ETL est en train d’être remplacé par l’ELT, plus rapide et plus flexible. On peut dire que l’ELT est l’approche moderne de l’ETL, qui est en grande partie alimentée par les datawarehouses Cloud tels que Redshift, Snowflake et BigQuery. Devenus extrêmement rapides et fiables, ces solutions permettent d’effectuer la transformation au sein même du datawarehouse.

Pour les segments des ELT et ETL, les principaux outils du marché sont Talend, Airbyte et Fivetran.

  • Avantages
    • Souplesse
    • Fonctionnement en « batch » ou « unitaire »
  • Inconvénients
    • Connecteurs sortants généralement limités aux base de données
    • Utilisation réservée à des profils assez techniques

Les outils d’activation de données ou reverse ETL comme Octolis

L’outil de Reverse ETL s’est construit en partant du constat que les équipes IT n’arrivent pas à répondre efficacement aux demandes d’extraction de données des départements sales, marketing ou encore service client. Le manque d’intégration des données limite énormément l’utilisation des outils métiers de la stack marketing.

Tandis que l’ETL que nous avons vu précédemment fait « monter » les données sources dans le datawarehouse, le Reverse ETL fait « redescendre » ces données dans les applications métiers. Le Reverse ETL synchronise les données du datawarehouse dans les outils d’activation, tel que le montre le schéma :

Source : La stack data moderne, Octolis

Un outil de Reverse ETL comme Octolis, l’outil français de référence prend en charge :

  • L’extraction de données d’un datawarehouse à un rythme régulier
  • Le chargement de ces données dans les outils de vente, de marketing et d’analyse
  • Le déclenchement d’une API arbitraire chaque fois que les données changent

Les équipes IT gèrent déjà le datawarehouse comme la source principale de données clients, qu’ils gardent propre et cohérente à des fins d’analyse. Le transfert de ces données vers les applications Cloud, à partir de la même source, est donc une évidence. Les équipes IT peuvent enfin gérer un pipeline de données unique pour que les équipes métiers puissent analyser et agir sur les données.

Les équipes de vente, de marketing et d’analyse vont maintenant pouvoir être en mesure d’analyser et d’agir sur des données qui étaient jusque-là compliquées à avoir.

  • Points forts des outils Reverse ETL
    • Croisement de plusieurs sources
    • Fonctionnement en « batch » ou « unitaire »
    • Simplicité d’usage pour des profils marketing ou data analysts

Les Reverse ETL constituent une nouvelle famille de logiciels d’intégration de données souple et qui a vocation à devenir une pièce fondamentale de la stack data moderne.

Marketing cross-canal – Définition, Exemples et Méthodologie

Il est de plus en plus difficile de suivre le parcours du client. Cela s’explique par le fait que les consommateurs engagent les marques sur différents canaux, passant souvent par plusieurs points de contact numériques avant d’être prêts à acheter. C’est pourquoi le concept de marketing cross canal a fait son apparition.

L’omnicanal permet aux entreprises de s’adapter à l’innovation technologique, tout en améliorant l’expérience utilisateur. Cross canal, omnicanal, commerce unifié : les termes ne manquent pas pour désigner l’expérience client ultime à laquelle aspirent toutes les marques !

Dans cet article, on aborde le sujet du marketing cross canal à travers des exemples et les enjeux data que soulève la mise en place de cette relation client uniforme, sur tous les canaux.

Marketing cross canal : une approche aujourd’hui incontournable

La mort du marketing multi canal

Tout d’abord, pour bien comprendre la différence entre multicanal et omnicanal, commençons par une définition. Le marketing multicanal consiste à utiliser séparément plusieurs canaux uniques pour communiquer avec les clients et les engager. Cependant, les différents canaux fonctionnent indépendamment et n’offrent donc pas une expérience unifiée de l’expérience utilisateur.

L’une des principales raisons pour lesquelles le marketing multicanal ne fonctionne plus est que les comportements d’achat des consommateurs ont fondamentalement changé ces dernières années. Aujourd’hui, vous pouvez accéder aux produits d’une marque via Facebook, Instagram, leur site de e-commerce, leur newsletter, les comparateurs de prix… etc. Les internautes peuvent passer par sept points de contact (ou plus !) avant de réaliser leur premier achat.

Assurer la cohérence multicanale de votre marketing devient alors un véritable défi, puisque vous devez modifier vos messages marketing pour chaque canal. En effet, les utilisateurs doivent avoir la même première impression de votre marque qu’ils voient une publicité sur Facebook ou qu’ils se connectent sur votre site.

Selon une étude d’Accenture, 91 % des consommateurs sont plus susceptibles de faire des achats auprès de marques qui leur fournissent des recommandations pertinentes. Pour cela, une stratégie omnicanale est un facteur clef de réussite. Alors que l’approche multicanale traite chaque source de donnée séparément, l’omnicanal place l’utilisateur au centre de son modèle, pour lui proposer une expérience personnalisée.

Et l’avènement du marketing cross canal

marketing cross-canal

Le marketing omnicanal, quant à lui, utilise plusieurs canaux connectés entre eux pour atteindre et convertir les clients. Il permet une transition plus simple et plus transparente d’un canal à l’autre. Les différents canaux enregistrent des informations sur le client et les communiquent entre eux, de manière à créer un parcours client unique et unifié.

Lorsque vous faites du marketing cross-canal, vos messages et votre image de marque sont cohérents sur plusieurs canaux. Ces canaux fonctionnent ensemble, ce qui permet d’engager efficacement les clients lorsqu’ils passent d’un canal à un autre et d’un appareil à un autre dans leur parcours d’achat.

Une bonne stratégie de marketing cross-canal apporte de nombreux avantages. Parmi eux :

  • Exploiter les données clients pour créer des expériences pertinentes et personnalisées. Grâce aux rapports et aux analyses, vous pouvez voir quels sont les canaux préférés des clients, quel contenu les a poussés à la conversion et quels sont les éventuels points de blocage
  • Renforcer la cohérence de la marque sur l’ensemble des canaux et des campagnes de marketing, ce qui permet de cultiver une relation de confiance avec les clients
  • Gagner du temps pour vous concentrer sur la stratégie marketing, car vous n’avez plus besoin de créer des messages individuellement pour chaque canal
  • Optimiser le retour sur investissement (ROI) de votre marketing. En concentrant vos efforts de marketing sur l’ensemble des canaux, vous pourrez cartographier clairement les points de contact afin de déterminer comment une personne est devenue un prospect et comment ce prospect est devenu un client. À partir de là, vous pourrez contextualiser et personnaliser le message et l’offre pour vos clients cibles.

Pour résumer, une approche marketing omnicanale va stimuler la croissance de votre entreprise, en s’adaptant aux attentes de vos utilisateurs. En effet, les clients attendent une expérience transparente et cohérente entre les canaux. S’ils visitent votre page Facebook par exemple, ils s’attendront à retrouver votre style sur votre site web ou même dans vos newsletters.

Exemples de cas d’usages cross canal

Le marketing omnicanal peut s’utiliser pour attirer et convertir les visiteurs, augmenter les taux de fidélisation, favoriser les recommandations ou encore réactiver les clients qui n’ont pas acheté depuis longtemps.

Voici quatre exemples de cas d’utilisation pour vous aider à comprendre concrètement l’application du marketing cross-canal.

Activer de nouveaux internautes

Imaginons une marque de vêtements. Une cliente visite votre boutique physique, ne se décide pas sur une robe en particulier et repart donc sans rien acheter.

Et bien, pour convertir cette cliente grâce au crosscanal, vous pouvez lui demander si elle souhaite recevoir des notifications push sur les nouveaux arrivages via son mobile. Vous pouvez également lui proposer une réduction en échange de son adresse mail, pour l’intégrer à votre base de données client et la solliciter pour des campagnes ultérieures.

Lutter contre l’abandon de panier

Vous avez un site de e-commerce et certains internautes placent des produits dans le panier sans jamais passer à l’achat ? Pour remédier à ce problème, vous pouvez créer un flux de panier abandonné.

L’omnicanal vous permet alors de lancer des campagnes de retargeting sur les réseaux sociaux ou encore d’afficher des pop-ups sur le site web. Vous pouvez également envoyer des emails ou des SMS pour rappeler aux internautes ce qu’ils ont laissé dans leur panier. En travaillant le wording de votre message et en affichant la photo de l’un des articles du panier abandonné, vous pourrez convertir de nombreuses transactions qui étaient jusque-là sur pause !

Up-selling et cross-selling

Ces deux techniques de vente sont des stratégies possibles pour vendre aux clients existants. L’objectif est d’augmenter la valeur moyenne des commandes, en vendant un meilleur produit de la même gamme (up-selling) ou en offrant des extras et accessoires (cross-selling).

L’up-selling et le cross-selling peuvent être implémentés par le biais de l’email marketing, en diffusant des publicités sur Facebook, par SMS ou bien directement sur le site web en les affichant sur les pages de détail des produits. Ce cas d’usage du cross-canal s’applique à tous les secteurs d’activité.

Réactivation de clients inactifs

Vous avez des clients qui ont acheté une fois ou deux sur votre site, mais que vous n’avez pas revus depuis ? Si oui, vous pouvez utiliser des campagnes de marketing cross-canal pour les inciter à revenir ! Dans l’illustration ci-dessous, on prend l’exemple d’une marque de vêtements.

Vous pouvez leur envoyer une réduction par email, leur présenter des ventes flash par notifications push sur le web ou encore lancer des publicités Facebook de retargeting. Les options sont multiples pour réactiver ces clients inactifs !

Comment mettre en place une stratégie marketing cross canal ?

Une stratégie de marketing cross-canal réussie vous aidera à vous connecter aux internautes, au bon endroit et au bon moment, pour les transformer en clients acheteurs. Investir dans le marketing omnicanal peut donc vous aider à faire grandir rapidement votre entreprise. Cependant, cela peut aussi s’accompagner de certains défis que vous devez garder à l’esprit.

Les challenges du marketing cross canal

Premièrement, vous ne pouvez fournir des messages et des recommandations personnalisés que si vous disposez d’une vue complète à 360 degrés de chaque client. Pour ce faire, vous devez collecter des informations à partir de plusieurs sources disparates (par exemple : messagerie, réseaux sociaux, boutique en ligne, sites physiques, applications mobiles… etc). Puis, vous devrez les transformer en insights actionnables, au sein d’une base de données unifiant ces différentes sources.

Deuxièmement, le marketing omnicanal nécessite de bons outils. En général, une marque a besoin de six à dix outils différents pour offrir des expériences personnalisées. Le problème est qu’à mesure que ces piles technologiques se développent, la complexité, le coût et l’inefficacité des campagnes augmentent également. Vous devez donc définir vos objectifs, votre budget et votre stratégie dès le départ, afin de déterminer les outils qui pourraient correspondre à votre besoin.
L’exécution d’un marketing omnicanal implique plusieurs divisions du marketing, mais également des équipes data, aux profils plus techniques. Pour une mise en œuvre efficace sur tous les canaux, elle nécessite les bonnes technologies. Dans la suite de l’article, nous vous aidons à choisir l’outil adapté.

Choisir le bon outil

Offrir une expérience client personnalisée passe avant tout par une bonne connaissance du parcours d’achat des différents profils utilisateurs. Une CDP va vous permettre de mesurer les interactions avec vos clients et prospects, sur tous vos canaux, en mettant à disposition une base de données unifiée. La CDP est donc l’alliée du cross-canal !

Pour constituer votre CDP, vous avez plusieurs options :

CDP dites « sur l’étagère »

Il existe de nombreuses raisons d’utiliser des CDP prêtes à l’emploi. Elles sont notamment plébiscitées pour leur rapidité de déploiement sur le marché ou leur facilité d’installation. Ainsi, si vous disposez de peu de temps ou de peu de ressources techniques, une CDP sur étagère peut faire l’affaire.

En revanche, ces CDP prêtes à l’emploi proposent des modèles préconçus qui peuvent être limitants si votre projet dépasse le scope de l’outil. De manière générale, les CDP sur étagère offrent moins de profondeur sur des fonctionnalités comme la résolution d’identité ou les intégrations. Si vous avez besoin d’un outil flexible avec un niveau avancé de personnalisation, ce type de CDP n’est pas le plus adapté.

Il existe alors des alternatives qui pourraient s’avérer plus pertinentes pour les besoins particuliers de votre entreprise.

CDP sur mesure

Face au manque de flexibilité des CDP sur étagère, certaines entreprises font le choix du sur mesure, et construisent une plateforme adaptée à leurs besoins. Premier avantage, cette solution permet de se focaliser sur les cas d’usages marketing que vous avez définis comme stratégiques. Elle permet aussi d’en développer des nouveaux à mesure que vous construisez la CDP.

D’autre part, une CDP sur mesure vous permet de reprendre le contrôle de vos données. En effet, elles seront alors hébergées sur vos serveurs et non plus chez un éditeur tiers comme c’est le cas des CDP sur étagère.

Bien sûr, cette option a également ses inconvénients. Pour commencer, elles exigent des compétences en ingénierie et data. Peu d’organisations disposent de moyens suffisants pour mobiliser une équipe sur un tel projet, pouvant d’étendre jusqu’à 4 mois. La construction d’une CDP in-house est ainsi réservée aux grandes structures, qui sont plus matures sur l’exploitation de leurs données client.

Utiliser votre datawarehouse comme un hub opérationnel

L’objectif d’une CDP est de créer une base de données centralisée, unifiant plusieurs sources de votre organisation où se trouvent des données client. Mais en réalité, le datawarehouse s’inscrit déjà comme la source unique de vérité de vos données. Qu’il soit cloud ou moderne, un datawarehouse est un référentiel de données qui regroupe différentes sources disparates.

La dernière option pour construire votre CDP est donc d’utiliser directement votre datawarehouse ! En effet, en se plaçant comme le référentiel opérationnel de votre dispositif data, il vous permet de répondre aux cas d’usages traditionnels d’une CDP. Parmi eux, on retrouve d’une part la vision client unifiée. Elle permet d’analyser le comportement de vos utilisateurs sur tous les canaux en temps réel. D’autre part, il y a l’intégration de vos segmentations et modèles de scoring dans vos outils métiers.

Mais, pour que vos données remontent de votre datawarehouse vers vos outils métiers opérationnels, il vous faudra des connecteurs. Encore une fois, à moins de disposer d’une grande équipe d’ingénieurs data disponibles, il est difficile de créer et maintenir ce type de connecteurs sur mesure. La solution se présente donc comme une CDP 2.0. Elle répond à ce besoin précis tout en se basant sur votre datawarehouse existant.

Les avantages à utiliser votre data warehouse comme CDP

On a écrit un article complet sur le sujet si vous souhaitez en savoir plus.

Ce nouveau type de CDP comme Octolis utilisant le datawarehouse comme un hub opérationnel présente de nombreux avantages :

  • Données centralisées dans un seul répertoire. Contrairement aux CDP sur étagère et sur mesure, vos données client ne sont pas séparées de la source du datawarehouse, ce qui permet de réduire le coût et le temps de déploiement.
  • Traitements des données. Le procédé est simplifié puisque vous ne transformez vos données qu’une seule fois. Elles sont ensuite stockées pour être utilisées par la suite dans vos outils métiers.
  • Contrôle des données. Vos données sont hébergées sur vos serveurs, vous en êtes maîtres.

Pourquoi est-il important de garder le contrôle des données des clients ?

Êtes-vous vraiment certain d’avoir le contrôle sur vos données clients ? Si vous lisez ces lignes, c’est peut-être qu’un doute vous assaille. Et vous avez raison de douter, car il y a des chances que vous n’ayez pas la maîtrise de vos données.

Si vos données clients sont stockées dans vos logiciels (CRM, CDP, Marketing Automation), vous n’avez pas un accès complet aux données et vous n’êtes pas libre de gérer les règles de sécurité et de confidentialité de manière aussi fine qu’il le faudrait. Vous êtes prisonnier des modèles de données proposés (imposés…) par les éditeurs. Vous êtes enfermé dans leur écosystème. Rassurez-vous, si vous êtes dans ce cas vous n’êtes pas le seul. La plupart des organisations acceptent de stocker leurs données dans leurs applicatifs Saas.

Il est temps que les choses changent et que vous repreniez le contrôle de vos données clients.

Comment faire ? C’est le sujet de cet article.

Les 3 dimensions clés du contrôle des données

Commençons par préciser de quoi on parle. Qu’est-ce que ça veut dire concrètement avoir le contrôle de ses données ? Il y a  3 dimensions clés associées au contrôle des données. Avoir le contrôle sur ses données, c’est :

  1. Avoir un accès complet à ses données.
  2. Pouvoir gérer la sécurité des données (droits & permissions).
  3. Gestion de la confidentialité des données.

Revenons en détail sur chacun de ces points, en nous appuyant sur des exemples d’outils : Google Analytics, Snowflake et Amazon S3.

CritèresGoogle AnalyticsSnowflakeAWS S3Data center 'in-house'
Accessibilité des données🔒🔒🔒🔒🔒🔒🔒🔒🔒
Sécurité des données🔒🔒🔒🔒🔒🔒🔒🔒
Contrôle de la confidentialité🔒🔒🔒🔒🔒🔒🔒🔒

#1 Accessibilité des données (Niveau d’ouverture des données)

Première dimension de contrôle des données : l’accessibilité, le niveau d’accès à vos données. Il varie suivant les outils et systèmes utilisés. Si l’on prend les exemples de Google Analytics, de Snowflake et de AWS 3, il y a un point commun : dans les trois cas, les données sont hébergées dans le cloud, mais le niveau d’accessibilité des données n’est pas du tout identique.

Les données stockées dans Google Analytics ne sont accessibles qu’au travers des tableaux de bord et rapports auxquels Google vous donne accès. Il n’y a pas moyen d’accéder aux données sous-jacentes qui sont utilisées pour construire les dashboards. Vous ne pouvez pas faire de requête SQL sur la base de données Google Analytics. Donc, clairement, le niveau d’accès aux données sur Google Analytics est très faible. Vous n’avez pas le contrôle de vos données !

Dans une infrastructure cloud comme Snowflake, vous pouvez interagir avec vos données via des requêtes SQL complexes, en bénéficiant de toute la puissance de calcul offerte par un DWH Cloud moderne. Par contre, vous ne pouvez pas exécuter de Spark jobs.

Ce serait possible techniquement, mais très coûteux à faire dans la pratique. C’est en revanche faisable avec Amazon S3 qui, de ce fait, est la solution qui offre le meilleur niveau d’accès aux données. Non seulement, vous pouvez connecter S3 à vos outils de BI et exécuter des requêtes SQL, mais vous pouvez extraire les données et les charger dans Spark ou vos autres applications.

La question de l’accès aux données englobe aussi celle de la portabilité des données, c’est-à-dire de la capacité d’extraire les données de l’outil où elles sont stockées pour les héberger ailleurs, dans une autre base, un autre outil. En matière de portabilité, c’est Amazon S3 qui remporte la palme. Vous pouvez facilement basculer vos données d’Amazon S3 vers Google Cloud par exemple. À l’inverse, les données de Google Analytics ne peuvent être extraites vers d’autres systèmes dans leur état brut.

#2 Sécurité des données (gestion et contrôle des accès & permissions)

La deuxième dimension du contrôle des données, c’est la sécurité. Le niveau de sécurité des données se mesure à la capacité que vous avez de gérer les accès à vos données. Si vous gérez tout, alors le niveau de sécurité des données est au top. Si vous choisissez une solution cloud, qu’il s’agisse de Google Analytics et d’une infrastructure cloud comme Amazon S3, vous n’avez pas de contrôle complet sur la sécurité des données. Vous êtes limité par les fonctionnalités de gestion d’accès & de droits proposées par la solution.

Sur Google Analytics, vous pouvez gérer les accès basés sur l’utilisateur, mais vous ne pouvez pas mettre en place un contrôle d’accès basé sur les attributs, contrairement à ce qui est possible avec Amazon S3. Si vous stockez vos données sur vos propres machines, vous pouvez créer des mécaniques de gestion des droits et des permissions 100% sur-mesure. Le niveau de contrôle sur la sécurité des données sera toujours inférieur avec une solution SaaS/Cloud qu’avec une solution auto-hébergée. Plus les données que vous stockez sont sensibles, plus il est important de bien s’informer sur les politiques appliquées par les éditeurs cloud…

Les besoins en matière de gestion de la sécurité ne sont pas les mêmes d’une entreprise à l’autre. Une entreprise qui a une petite base clients et qui collecte peu de données sur ses clients aura typiquement moins de gêne à héberger ses données dans une infrastructure cloud comme Snowflake ou Amazon S3 qu’une grande banque qui stocke de gros volumes de données très sensibles.

#3 Gestion de la confidentialité

La gestion de la confidentialité est la troisième dimension du contrôle des données.

La sécurité des données, dont nous avons parlé plus haut, c’est la question de savoir qui a accès à vos données. La confidentialité des données, c’est la question de l’usage des données et celle de savoir si l’usage que vous voulez faire des données est légal et consenti par l’utilisateur.

Reprenons nos 3 exemples pour illustrer cette dimension : Google Analytics, Snowflake et Amazon S3. Dans ces trois entreprises, il y a des collaborateurs qui ont accès à vos données brutes. Par contre, ce qu’ils peuvent faire ou font avec vos données varie :

  • Google Analytics. Il y a forcément des salariés de Google qui ont accès aux rapports que vous avez configurés dans Analytics. Il est très probable que Google utilise « vos » données Google Analytics pour créer un profil utilisateur et à des fins marketing. Même si l’on ne sait pas très bien ce que Google fait de vos données visiteurs/clients, il n’y a aucun doute sur le fait qu’il les utilise.
  • Snowflake et AWS3. Il y a des chances que des salariés au sein de ces entreprises aient un accès plus ou moins limité à vos données brutes, mais leurs capacités d’analyse sont plus limitées. Il faudrait qu’ils soient capables de faire du reverse engineering pour utiliser vos données. Ils n’ont pas la capacité de relier les données clients entre elles et de créer un profil utilisateur comme peut le faire Google. Par ailleurs, signalons que, dans S3, vous avez la possibilité de crypter vos données.

En matière de confidentialité, c’est à des solutions d’infrastructure cloud comme Snowflake ou AWS 3 que va le point, clairement.

Absence de contrôle des données = risque

Le couplage données <> applicatifs, un héritage des éditeurs de CRM/CDP

Les données clients sont exploitées par les solutions CRM, les logiciels de Marketing Automation et autres Customer Data Platforms. Elles en constituent le carburant. Ce qui caractérise ces logiciels, c’est le couplage données <> applicatifs. En clair, vos données sont stockées dans les applicatifs, dans vos logiciels. Il n’y a pas de séparation de la couche de données et de la couche logicielle.

C’est le mode de fonctionnement traditionnel des éditeurs de CRM et de CDP. Les données sont collectées, stockées et activées par et dans le logiciel. Le CRM, ou la CDP, est à la fois base de données (avec accès restreint aux données) et outil d’activation. Le développement du modèle SaaS dans l’univers du CRM n’a pas changé grand-chose à cette situation : le couplage reste la règle. Traditionnel ou SaaS, même combat. Même chose pour les Customer Data Platforms dont on parle tant depuis quelques années.

La campagne « anti logiciel » de Salesforce à ses débuts, avant de devenir le symbole de ces écosystèmes fermés 

Pourquoi stocker les données clients dans les logiciels (CRM, CDP…) est problématique ?

Le fait que les données clients soient stockées dans les applicatifs pose problème pour plusieurs raisons. Ce caractère problématique, pour des raisons évidentes, est rarement évoqué par les éditeurs, pas plus que par les intégrateurs et autres ESN qui profitent de la prison dont ce couplage est synonyme.

guantanomo numérique

Le « Guantanamo numérique », évoqué par Louis Naugès, où les ESN jouent le rôle de gardiens des DSI emprisonnés.

Les données clients sont votre actif le plus précieux. Or, les éditeurs CRM, CDP, Marketing Automation ne vous donnent qu’un accès restreint à ces données. Vous êtes prisonnier des modèles de données imposés par le logiciel, vous ne vous pouvez pas accéder à vos données dans leur état brut et les organiser dans le modèle de données de votre choix. Vous êtes limité par les choix d’infrastructure faits par l’éditeur de la solution.

Les conséquences sur le plan métier sont plus graves qu’elles ne le semblent. Le manque de flexibilité des modèles de données proposées par ces éditeurs réduit la capacité de vos équipes marketing à adapter les scores et les règles de traitement aux spécificités de votre activité. Des campagnes moins ciblées ou une personnalisation moins importante, peut être fatal dans la course à la relation client ultime et omnicanal que mènent les marques aujourd’hui.

L’autre conséquence directe de ce manque de flexibilité réside dans le manque de progression et de maturité de vos équipes dans l’exploitation des données clients. Vos équipes métiers ne vont pas apprendre à imaginer des cas d’usage en dehors du cadre proposé par votre CRM ou CDP et vous passerez à côté d’opportunités au sein de votre parcours client.

Découvrir des cas d’usages métiers

Pour vous aider à imaginer ce que vous seriez en mesure de faire si vous aviez un total contrôle sur vos données, nous avons constitué une librairie de cas d’usages concrets, n’hésitez pas à la consulter.

D’autre part, l’accès à votre base de données clients, organisée et stockée dans votre CRM/CDP, est payant. Vous devez payer pour visualiser et utiliser vos données ! Vous devez payer des droits d’accès. Comme chacun sait, le modèle économique des solutions classiques d’activation des données clients (CRM, Marketing Automation, ERP, CDP) est la tarification au nombre d’utilisateur. Même un utilisateur qui n’a besoin d’accéder à la base de données de manière très ponctuelle devra s’acquitter d’un abonnement.

En fait, vous êtes enfermé dans un écosystème donné qui vous coupe de l’extérieur. Cet écosystème, c’est celui construit par l’éditeur. Il peut être vaste : pensons aux CRM qui proposent des dizaines de modules différents. Mais ça n’en reste pas moins un cadre rigide.

L’exemple de BlackBerry

Pour illustrer, prenons l’exemple de BlackBerry. On doit cet exemple à David Bessis, qui le décrit dans un bel article Medium consacré à la montée en puissance des technologies data ouvertes. Grosso modo, BlackBerry étaient les rois du monde de 2001 à 2008. Et puis est arrivé l’iPhone, en 2007. Et puis un peu plus tard encore, Android. Et patatra, BlackBerry s’est effondré.

Entre 2008 et 2012, la part de marché de BlackBerry a été divisée par 20. Il y a plusieurs raisons à cela, mais la principale est la suivante : BlackBerry a été construit comme une boîte noire. Personne ne pouvait créer d’applications BlackBerry, c’était BlackBerry qui avait la main sur l’écriture du code…contrairement à iOS et Android qui se sont tout de suite positionnés comme des plateformes ouvertes.

À l’instar de BlackBerry, les éditeurs CRM / CDP sont des plateformes fermées qui freinent le développement et l’enrichissement de vos cas d’usage data. Pensez-y, comme vous seriez plus libres si vous pouviez disposer de vos données dans une base indépendante de votre CRM/CDP pour pouvoir l’exploiter dans d’autres outils, pour d’autres finalités !

Une solution, même s’il s’agit d’une suite de logiciels, ne peut pas tout faire. S’enfermer dans l’écosystème d’un éditeur, c’est forcément passer à côté de certains usages de la donnée clients.

Comment la stack data moderne permet de reprendre le contrôle de vos données ?

Nous avons montré qu’il y avait un problème : le couplage des données et des applicatifs qui les utilisent. La conséquence, c’est le manque de contrôle des données, de vos données clients. La solution, c’est ce dont nous allons parler maintenant : la Stack Data Moderne. Le terme est barbare, jargonneux, on vous l’accorde, mais la réalité qu’il désigne est simple. C’est une nouvelle manière d’organiser les données, une organisation tripartite :

  1. Un Datawarehouse Cloud qui sert de socle data de l’entreprise. C’est la base de données principale de l’entreprise qui permet d’unifier les données structurées et semi-structurées.
  2. Les outils métiers qui exploitent les données à des fins d’analyse mais aussi et surtout à des fins d’activation. En clair, les outils de BI de type Tableau ou PowerBI mais aussi et surtout les outils de type CRM, Marketing Automation, Google/Facebook Ads, Diabolocom…
  3. Un ETL et/ou un Reverse ETL qui permet de faire circuler la donnée entre le Datawarehouse et les autres systèmes de l’entreprise : les logiciels.

Le Datawarehouse moderne comme socle opérationnel

Précisons que nous ne parlons pas ici des Datawarehouses de la nouvelle génération, en plein essor depuis le début des années 2010 : les Datawarehouses cloud. On pense à des noms comme BigQuery (Google), Snowflake, Redshift (Amazon) ou Azure (Microsoft)… Ces infrastructures cloud se sont démocratisées et sont désormais accessibles aux PME, aux startups…

Alors, de quoi parle-t-on ? Un Datawarehouse moderne est une base de données cloud qui sert à stocker toutes les données structurées ou semi-structurées de l’entreprise. Plus qu’un simple entrepôt, un Datawarehouse est une machine de guerre qui permet d’exécuter des requêtes SQL et de réaliser des opérations de jointure sur des volumes énormes de données…le tout beaucoup plus rapidement que les bases de données transactionnelles (OLTP).

Nous sommes convaincus aujourd’hui :

  • Que les données doivent être stockées dans une base de données distincte des logiciels.
  • Que le Datawarehouse cloud est de loin la solution la plus puissante et la plus économique pour faire office de base de données maîtresse.

Dans cette optique, le Datawarehouse a vocation à devenir la clé de voûte, la solution pivot du système d’information de l’entreprise moderne. Dans cet article sur la Stack Data Moderne, nous revenons plus en détail sur nos convictions vis-à-vis des infrastructures cloud de type Datawarehouse et les principaux avantages de ces solutions. Découvrez aussi notre article « Pourquoi vous devez utiliser votre Data Warehouse pour jouer le rôle de Customer Data Platform« .

ETL & Reverse ETL

On peut se représenter la Stack Data Moderne de cette manière :

octolis

L’ETL et le Reverse ETL sont les outils qui permettent de mieux faire circuler la donnée dans le système d’information et dans les outils, tout en en gardant le contrôle. Plus précisément :

  • L’ETL (Extract – Transform – Load) est la technologie qui se connecte aux sources de données, les transforme et les charge dans le Datawarehouse cloud. Deux exemples d’ETL ? Stitch Data & Fivetran.
  • Le Reverse ETL est une famille de solutions plus récente qui permet de redistribuer les données du Data Warehouse aux outils métiers (CRM, Marketing Automation, ecommerce…), sous forme de segments, d’agrégats, de scorings. Il est la pièce maîtresse qui permet de mettre les données du datawarehouse au service des équipes métiers. Un exemple de Reverse ETL ? Octolis !

customer data stack

C’est cette architecture data moderne, articulant Data Warehouse Cloud et ETL/Reverse ETL, qui assure le plus haut niveau de contrôle des données :

  • Les données sont stockées dans une base de données indépendante des logiciels. En clair, elles ne sont stockées ni dans vos applicatifs métiers, ni dans votre ETL, ni dans votre Reverse ETL, mais dans votre entrepôt de données.
  • Vous pouvez créer des modèles de données sur-mesure répondant à vos besoins et cas d’usage spécifiques.
  • Les performances de calcul de votre BDD sont bien meilleures que ce qu’offrent les éditeurs de CRM/CDP.
  • Vous contrôlez de manière centralisée et granulaire les accès et les permissions à la base de données (le DWH).

Conclusion

Les entreprises doivent prendre conscience des risques et des coûts qu’il y a à stocker les données clients dans des logiciels, aussi puissants soient-ils (CDP). Aujourd’hui, il est possible et souhaitable que vous repreniez le contrôle sur vos données clients. Nous avons vu que cela passait par une nouvelle organisation de vos données, ce qu’on appelle de manière un jargonneuse la « stack data moderne » : vos données clients sont hébergées et consolidées dans un Data Warehouse et redistribuées à vos logiciels via une solution de type « Reverse ETL » comme Octolis.

La souveraineté des données est une condition nécessaire (bien que non suffisante) pour déployer des cas d’usage des données innovants et ROIstes. En clair, reprendre le contrôle de vos données clients est la première étape pour devenir réellement data-driven.

Comparatif de 40+ logiciels de marketing automation – Benchmark téléchargeable

Pour les non-initiés, l’écosystème des logiciels de marketing automation est difficilement lisible.

Et pour cause, il existe des dizaines de solutions que l’on peut assimiler à des outils marketing automation ! Pourtant, difficile voire impossible, de comparer une solution légère comme Sendinblue dont le prix s’élève à quelques dizaines d’euros par mois à une solution beaucoup plus complète comme Salesforce Marketing Cloud pour laquelle on parlera de dizaine de milliers d’euros.

Vous souhaitez déployer un logiciel de marketing automation mais vous peinez à identifier la solution adaptée à votre besoin ?

Pas de panique 🙂 On a comparé pour vous plus de 40 logiciels, qu’on a catégorisés en fonction de leur positionnement, de leur coût et de leur périmètre fonctionnel !

benchmark marketing automation

Accéder au benchmark gratuitement

Pour comparer des choux avec des choux, il faut comprendre la différence entre choux et carottes

Avant de rentrer dans le vif du sujet, commençons par rappeler quelques bases importantes lorsqu’il s’agit de choisir votre outil « CRM Marketing » ou de marketing automation.

Différents types de logiciels de marketing automation

Nous l’avons évoqué au cours de l’introduction, de plus en plus de logiciels se revendiquent comme appartenant à cette nouvelle famille d’outils. Comme vous pouvez l’imaginer, il existe peu de points communs entre une solution à moins de 5k € par an comme Sendinblue et une solution comme Adobe Campaign, pour laquelle il faudra compter environ 10 fois plus !

Pour faciliter votre compréhension du marché, nous avons catégorisé les outils disponibles à travers 3 grandes familles. Ce classement est principalement basé sur le prix, mais ce dernier impacte directement la couverture fonctionnelle proposée et principalement en ce qui concerne la gestion de la base de données clients.

familles marketing automation

  • Les solutions « légères » : Souvent issues d’outils d’emailing, ces solutions se sont développées et proposent désormais des modules de marketing automation corrects. La gestion des données clients est basique et la plupart du temps limitée à une clé « email ».
  • Les solutions « intermédiaires » : Plus robustes, elles permettent une gestion de la base de données clients (sans grande flexibilité) sur laquelle reposent vos scénarios de marketing automation.
  • Les solutions « avancées » : On les appelle également « écosystèmes » tellement ces solutions se révèlent puissantes et souples en termes d’architecture et de BDD mulli-tables. Leur limite ? Le coût bien entendu,  tant sur le set-up que sur la licence. Ces outils s’adressent définitivement à des organisations très matures.

 

Différents niveaux de profondeur pour chaque fonctionnalité

L’utilisation de termes très jargonneux sur les pages « produit » de ces différentes solutions ne facilite pas votre compréhension. En effet, si la majorité des logiciels proposent les briques fonctionnelles ci-dessous, leur profondeur est en réalité très variable.

 


Source : Choix logiciel eCRM par Cartelis

On vous invite à lire l’article source réalisé par nos partenaires Cartelis, un cabinet de conseil data / CRM, pour avoir plus de détail sur les différents niveaux de profondeur de chaque fonctionnalité.

Différentes architectures CRM envisageables : l’articulation base clients + Marketing Automation

Pour les organisations matures dont les besoins sont avancés notamment en termes de référentiel client et de vision 360° des clients, votre choix ne se résume pas aux solutions « avancées » évoquées précédemment.
Il y a pas mal de limites structurelles à faire de votre solution de Marketing Automation votre base de données clients principale, notamment :

  • Modèle de données rigide
  • Pas de traitements de données : déduplication multi-clés, ajout de champs calculés, etc.
  • Pas d’accès direct à la base de données
  • Pas de traitements de données en temps réel
  • Dépendance forte à l’éditeur de la solution de Marketing Automation, etc.

Pour répondre à ces limites, de plus en plus d’entreprises font le choix de mettre en place une base de données clients en amont de leur solution de Marketing Automation. Il peut s’agir d’un Référentiel Client Unique (RCU) sur mesure, et/ou d’un logiciel de type Customer Data Platform (CDP) comme Octolis qui permet de gérer la base de données clients.

En simplifiant, vous pouvez considérer qu’il y a deux grandes approches.

options architecture crm

Dans le cas de l’approche #1, on a tendance à prendre un logiciel Marketing Automation intermédiaire ou avancée, qui propose plus de souplesse dans la gestion des données. Dans le cas de l’approche #2, on peut choisir un outil de Marketing Automation plus léger sur la gestion des données.

Pour réfléchir à l’organisation de votre écosystème CRM (ou SI Clients dans la novlangue IT), la question de l’organisation des données clients doit la première. Il faut lister vos sources de données, les traitements nécessaires (réconciliation, traitements, champs calculés, etc.), et à partir de là, comparer les différentes options d’architecture envisageables. La grille de lecture ci-dessous peut faire peur, mais elle permet de prendre le sujet dans son ensemble. A noter que dans le schéma ci-dessous, la terminologie « eCRM » correspond à l’outil de marketing automation.

Grille de lecture des différentes architectures CRM envisageables 

architectures CRM

On y pense pas assez au départ, mais très souvent, une architecture associant un outil CDP et un outil de marketing automation léger permet de répondre à l’ensemble des exigences. On dispose ainsi de la flexibilité nécessaire pour gérer la base de données dans la CDP (surtout si le logiciel CDP est indépendant de la BDD comme c’est le cas chez Octolis), et d’un outil de marketing automation léger ou intermédiaire facilement utilisable par les équipes.

 

Les logiciels de marketing automation pour PME / ETI (B2C)

Intéressons nous maintenant aux solutions destinées aux entreprises dont le CA annuel se situe entre 5 et 10 millions d’€. Ces solutions qualifiées d’intermédiaires vous offrent la possibilité de manipuler (avec plus ou moins de précision) votre base de données clients sur laquelle reposent vos scénarios. Cette connexion avec la base de données vous permet d’associer vos contacts à des événements, ainsi que de croiser plusieurs sources de données.

En termes de positionnement, il faudra compter entre 20 et 50k € / an pour exploiter une solution de ce type. En fonction de vos besoins, il sera nécessaire de prévoir une phase d’intégration afin de déployer la solution à vos outils existants et de paramétrer les différentes sources de données.

NomDescriptionNb employés
SplioSplio est un CRM marketing très orienté commerce de détail. Made in France, Splio est une solution particulièrement dynamique et innovante. De nouveaux modules sont régulièrement lancés (dernièrement : Splio Loyalty, qui permet de gérer des programmes de fidélité avancés). Splio est bon aussi bien sur la partie gestion de base de données que sur la partie activation des données (campagnes, automation).142
ActitoLancée en 2000 par une équipe belge, Actito est un logiciel CRM marketing qui s’adresse essentiellement aux PME et aux ETI (positionnement mid-market). Très complet, Actito présente les 4 fonctionnalités clés des CRM marketing : la base de données, la gestion de campagnes marketing, l’automation et le reporting. Avec une mention spéciale pour l’outil de Marketing Automation, à la fois assez simple à utiliser et ultra-complet. Globalement, l’interface d’Actito est l’une des plus ergonomiques du marché et les prix sont très compétitifs. Qui plus est, l’éditeur a noué un grand de nombre de partenariats qui permettent d’enrichir les fonctionnalités proposées.298
EmarsysLancé au début des années 2000, Emarsys est un CRM marketing destiné principalement aux acteurs du e-commerce et du Retail en général (c’est la solution CRM utilisée par eBay notamment). La solution permet d’orchestrer des campagnes marketing en omnicanal et de créer des scenarios complexes de Marketing Automation basés sur le comportement des clients sur le site web. L’outil propose aussi un moteur de recommandation très puissant. Côté coût, Emarsys se situe dans la moyenne du marché.807
BrazeBraze (anciennement Appboy) est une plateforme d'engagement tout au long du cycle de vie qui crée des liens solides entre les gens et leurs marques préférées. Braze donne aux marques les moyens d'humaniser leurs liens avec les clients grâce à la technologie, ce qui se traduit par une meilleure expérience et une meilleure rétention, une valeur vie client et un retour sur investissement accrus. Les équipes utilisent Braze pour offrir des expériences de messagerie hautement personnalisées qui couvrent tous les canaux, toutes les plateformes et tous les appareils.709
NP6NP6 conjugue Customer Data Platform et marketing automation omnicanal, conçue pour augmenter l'engagement et la fidélité client. Depuis une interface unique et intuitive, NP6 vous permet de centraliser toutes vos données online et offline, de segmenter finement vos audiences et de communiquer avec vos clients sur leurs canaux favoris : email, mobile, web, réseaux sociaux, print, ...93
BlueshiftLe Blueshift SmartHub CDP offre aux spécialistes du marketing tous les outils nécessaires pour fournir des expériences pertinentes et connectées tout au long du parcours du client omnicanal. Cette plateforme unique, flexible et facile à utiliser, unifie les données clients de toute source, libère l'intelligence avec une IA personnalisable et active les données en temps réel avec une prise de décision automatisée. Les spécialistes du marketing peuvent désormais orchestrer une expérience client omnicanal connectée et la façonner activement en fonction de la compréhension et des comportements des clients en temps réel.95
ActiveTrailUn logiciel d'e-mail marketing et de marketing automation "tout-en-un". Proposez un e-mail marketing mobile et réactif extrêmement facile à utiliser, des modèles de newsletter, des campagnes SMS, un générateur de pages de renvoi, un outil d'enquête, des outils d'optimisation, des fonctionnalités de marketing automation, des formulaires de lead intelligents et un stimulateur de ventes e-commerce.36
Act-OnAct-On est une plateforme de marketing automation qui stimule l'innovation pour permettre aux marketeurs de donner le meilleur d'eux-mêmes. Act-On est un espace de travail intégré apte à répondre aux besoins de l'expérience client, de la reconnaissance à l'acquisition en passant par la rétention et la fidélisation. Grâce à Act-On, les marketeurs peuvent générer de meilleurs résultats commerciaux et maximiser la valeur vie client (CLV).238
AutopilothqAutopilot convient aux start-up, aux PME et aux grandes entreprises. Il vous permet de créer des e-mails au format texte, télécharger des fichiers HTML personnalisés, sélectionner votre modèle de bibliothèque ou créer votre propre bibliothèque à l'aide de notre éditeur d'e-mails avancé, équipé de fonctionnalités glisser-déposer. Vous pouvez envoyer des e-mails ciblés concernant les comportements et les centres d'intérêt, les personnaliser à l'aide de texte dynamique, réaliser des tests A/B et ajouter des points de contact multicanaux, tels que les messages envoyés par le biais d'applications, les SMS et les publicités Facebook. Vous pouvez suivre la performance de vos e-mails grâce à des fonctions détaillées de reporting et l'optimiser en vous basant sur les résultats en temps réel.57
MappMapp Cloud est une solution intégrée de marketing cloud qui réalise à la fois l'acquisition d'audiences ciblées, l'orchestration et l'exécution de campagnes marketing cross-canal.387

Les logiciels de marketing automation destinés aux grandes entreprises  (B2C)

Commençons notre panorama des outils de marketing automation B2C par les solutions destinées aux ETI, dont le CA est supérieur à 10 millions d’€ annuel.

Singulièrement différentes des outils que nous avons présentés jusque-là, ces solutions « écosystèmes » sont principalement proposées par les mastodontes de la gestion de la relation client : Oracle, Salesforce et Adobe.

On note tout de même que des acteurs Européens comme Selligent (Belgique) proposent des alternatives solides et sont plus adaptés aux besoins des ETI qu’à ceux des grands groupes.

La fourchette de prix se situe ici entre 20 et 50k€ annuel pour les solutions comme Selligent, puis au-delà des 50k€ pour les outils proposés par les firmes américaines.

NomDescriptionNb employés
Adobe CampaignAdobe Campaign (anciennement Neolane) est la solution d’Adobe dédiée à la gestion des campagnes et scenarios marketing cross-canal. Elle fait partie de la suite Adobe Marketing Cloud. C’est le CRM marketing le plus utilisé dans les grands groupes. La solution est très complète, aussi bien en ce qui concerne les fonctionnalités de base de données que du Marketing Automation. Revers de la médaille, Adobe Campaign n’est pas le logiciel le plus simple à intégrer et à utiliser…25191
Salesforce Marketing CloudSolution marketing leader pour accroître l'engagement avec chaque consommateur. Utilisez sa gestion de données performante pour collecter, organiser et stocker en toute sécurité des first, second et third-party data ainsi que des données hors ligne afin de créer des profils de données consommateurs complets. Personnalisez chaque interaction tout au long du parcours avec votre marque à l'aide de l'IA intégrée. Impliquez ensuite chaque consommateur à grande échelle en utilisant les solutions e-mail, mobiles, publicitaires et sociales leaders du secteur.47306
SelligentLancé en 1999, Selligent s’adresse aux grandes entreprises, notamment dans les secteurs du tourisme, de l’automobile, de l’édition et des services financiers. La solution excelle aussi bien sur le volet base de données que sur les fonctionnalités de gestion de campagnes et de reporting CRM. Selligent permet aussi de faire du Marketing Automation à un niveau avancé. C’est une valeur sure. L’interface a le mérite d’être très ergonomique et facile à prendre en main. Selligent s’enrichit régulièrement de nouvelles briques fonctionnelles, ce qui contribue à l’intérêt de la solution (rachat récent d’un moteur d’IA pour de la recommandation).392
MagnewsMagnews est la plateforme multicanale pour le Marketing Digital et Marketing Automation par e-mail, SMS, notifications push, web, marketing et réseaux sociaux, disponible en format SaaS en ligne et sur site (“on premise”).63
Oracle ResponsysGrâce à une seule plateforme, les équipes marketing peuvent gérer et orchestrer toutes les interactions avec les clients que ce soit par email, sms, les réseaux sociaux, l'affichage et le web.185400
AcousticAnciennement IBM Watson Campaign Automation, Acoustic permet d'offrir des expériences exceptionnelles aux clients tout au long du parcours de l'acheteur en tirant parti des données clients, en fournissant des informations analytiques et en automatisant les interactions inter-canaux pertinentes.824
ZetaZeta Global est une société de technologie marketing basée sur les données qui combine le troisième plus grand ensemble de données (2,4B+ identités) avec l'intelligence artificielle axée sur les résultats pour débloquer les intentions des consommateurs, personnaliser les expériences et favoriser l'acquisition, la fidélisation et la croissance des clients. 1251

Les logiciels de marketing automation pour TPE (B2C)

Terminons notre tour d’horizon des outils de marketing automation par les solutions destinées aux TPEs orientées B2C. Pour donner un ordre de grandeur quant à la maturité de votre entreprise, nous avons considéré comme TPE les entreprises dont le CA est inférieur à 2 millions d’€.

Ces solutions « légères » sont pour la plupart issues de solutions d’emailing à l’origine limitée à l’envoi de newsletters. Ces outils sont désormais plus complets mais les fonctionnalités de marketing automation proposés sont souvent limitées à la clé email.

En fonction de vos besoins, le coût annuel de ces solutions s’élève à :

  • Moins de 5k € pour des outils très légers comme Sendinblue.
  • Entre 5 et 20k€ pour des outils plus robustes comme ActiveCampaign.
NomDescriptionNb employés

Les logiciels de marketing automation pour des acteurs B2B

Comme nous l’avons évoqué au cours de l’introduction, les solutions de marketing automation orientées B2B sont très souvent développées par des éditeurs de CRM commerciaux et proposent donc des fonctionnalités différentes de celles citées précédemment :

  • Faire le tri client / prospect
  • Rattacher un individu à une entreprise
  • Scorer les prospects (individuellement ou par entreprise)
  • Remonter les données depuis l’outil de marketing automation vers le CRM commercial
NomDescriptionNb employés
HubspotHubSpot CRM s'adresse aux petites et moyennes entreprises (10-200 employés) pour lesquelles les feuilles de calcul ne suffisent pas, mais qui n'ont pas besoin des fonctions avancées d'une CRM complexe pour grande entreprise.4912
WebmecanikWebmecanik est un outil d'automatisation marketing complet Français idéal pour les PME, ETI et agences web qui gèrent plusieurs comptes clients, que ce soit en B2B ou en B2C. Webmecanik Automation permet de mettre en place des campagnes marketing automatisées performantes. L'objectif étant de développer de manière pertinente une meilleure gestion de la relation client.27
IntercomIntercom construit une suite de produits de messagerie pour les entreprises visant à accélérer leur croissance tout au long du cycle de vie du client. Il s'agit d'une plateforme de croissance complète pour le marketing, les ventes et le soutien. Les entreprises les plus prospères au monde, comme Atlassian, Shopify et New Relic utilisent Intercom afin de stimuler leur croissance par le biais de chats, de bots et de communications personnalisées avec les clients.926
MakesbridgeLe système Bridgemail de Makesbridge couvre toutes les fonctions essentielles de gestion des prospects, telles que le marketing par courrier électronique, le publipostage, le suivi des prospects, l'automatisation des ventes, les pages de renvoi, les réponses automatiques, le suivi des campagnes et l'analyse web.18
SalesmanagoSALESmanago Marketing Automation fournit des solutions de nouvelle génération qui redéfinissent la façon dont les outils de marketing traditionnels sont utilisés dans les entreprises d'e-commerce, B2C et B2B. Chaque jour, ils vont au-delà des attentes concernant les capacités d'e-mail marketing, le contenu dynamique de site web personnalisé, le marketing sur les médias sociaux, le marketing automation anonyme, la publicité en ligne. L'objectif principal est de créer un produit qui permet aux utilisateurs de mettre en œuvre tout type de processus de marketing qu'ils désirent.12
Oracle EloquaPionnier dans le domaine du marketing automatisé, Eloqua est lancé en 1999 et racheté par Oracle en 2013. Particulièrement axée sur le B2B, la solution fédère une grande communauté de 70 000 utilisateurs. Cet outil est particulièrement puissant pour vous permettre de suivre vos leads, grâce à un logiciel CRM intégré, pour améliorer vos techniques d’acquisition sur de multiples canaux et pour édifier votre lead scoring. Par ailleurs, il vient en aide aux entreprises concernant leur stratégie de lead nurturing pour diffuser des contenus à forte valeur ajoutée, selon les actions réalisées par les contacts, destinées à les transformer en clients. Pour vous aider dans votre plongeon dans le marketing automatisé, Oracle met à votre disposition de nombreuses ressources et des services de consulting. Ce qui n’est pas du luxe, car la plateforme est assez complexe et nécessite une formation au préalable.185400
Salesforce PardotMarketing automation, une plateforme intelligente sur le CRM. Pardot permet aux équipes de marketing et de vente de travailler ensemble pour rechercher et suivre des leads, conclure davantage d'affaires et maximiser le retour sur investissement. La gestion des leads de Pardot comprend l'intégration au CRM, l'e-mail marketing, le suivi des leads, le lead scoring et le reporting du retour sur investissement afin d'aider les équipes de marketing et vente à collaborer pour générer et qualifier les leads, raccourcir les cycles de vente et suivre le retour sur investissement du marketing.47306

Téléchargement du benchmark complet de 40+ solutions de marketing automation

Pour accéder à la ressource, il vous suffit de vous inscrire en quelques clics.
Au clic sur le bouton ci-dessous, vous arriverez sur un formulaire d'inscription rapide. Une fois inscrit, il y a un onglet "Ressources" qui apparaîtra dans le menu du haut qui vous permettra d'accéder à l'ensemble des ressources en téléchargement gratuit. Avec un peu de chance, vous aurez une bonne surprise, il y aura d'autres ressources qui vous seront utiles 😊

👉 Je m'inscris pour télécharger la ressource

Benchmark complet des outils de la stack data moderne

L’écosystème Data a beaucoup évolué ces dernières années. Des centaines d’outils ont émergé pour couvrir des besoins de plus en plus spécifiques. Même quand on réalise une veille très régulière, on découvre chaque semaine de nouveaux outils prometteurs.

On a pris le sujet à bras le corps, et on vous a préparé un benchmark complet des outils de la stack data moderne. Type d’outil, origine, modèle économique, réputation sur le marché… chaque solution est présentée dans le détail, sous d’un beau GSheet, facile à exploiter et téléchargeable gratuitement 🙂

liste outils stack data

Accéder au template gratuitement

Le GSheet est en téléchargement gratuit en bas de l’article, et pour ceux qui veulent avoir un aperçu rapide, on a extrait les principaux acteurs de chaque catégorie ci-dessous. N’hésitez pas à commenter l’article pour suggérer de nouveaux outils, on mettra à jour la ressource de temps en temps.

#1 ELT

Le processus ELT (Extract – Load – Transform) est une amélioration d’un processus existant depuis maintenant plus de 30 ans : l’ETL (Extract – Transform – Load). Avec les outils ELT, on charge (L) avant de transformer (T).

Les outils ELT chargent donc les données brutes directement dans le Data Warehouse cible, au lieu de les déplacer vers un serveur de traitement pour les transformer. Ici, le nettoyage, l’enrichissement et la transformation des données s’effectuent dans le Data Warehouse lui-même. Les données brutes y sont stockées indéfiniment, ce qui permet de multiples transformations et, in fine, les cas d’usage métiers.

ETL vs ELT: What&#39;s the Difference? Rivery ETL Tools

Source : Rivery.io

La limite de ces outils réside dans leur complexité : ils impliquent la multiplication de Data Lake s dont la connexion aux solutions métiers est un vrai challenge et nécessite la création de connecteurs sur-mesure.

NomDescriptionNb employés
FivetranFivetran s'est imposée en quelques années comme la solution ELT légère de référence, principalement pour sa simplicité d'utilisation.554
AirbyteAirbyte est une solution ELT open source moderne qui connait une grosse dynamique depuis 2020.20
StitchdataStitchData est une solution ELT légère, avec un bon rapport qualité / prix. Racheté par Talend, le leader historique des ETL "traditionnels", en 2018.83
MatillionMatillion est une solution ELT complète à destination d'entreprises matures. Une alternative solide à Talend.331
FunnelFunnel est une solution ELT moderne packagée pour faciliter la mise en place de reporting marketing cross-sources.192
RiveryRivery est une solution ELT assez complète et plus simple d'utilisation que la plupart de ses concurrents.62
xPlentyxPlenty est une solution ELT moderne. Une alternative à Fivetran.30

#2 Web tracking « first party »

Les solutions de tracking « first party » & « third party » se réfèrent aux types de cookies sur lesquels ces solutions s’appuient.

  • Les cookies « first party » sont inscrits entre des pages qui partagent un eTLD+1 (effective top-level domain plus one part), par exemple en naviguant de blog.cartelis.com/article_1 à blog.cartelis.com/article_2.
  • Les cookies « third party » en revanche, sont inscrits entre des pages qui ne sont pas issues du même domaine. Ces cookies étant très utilisés pour le retargeting notamment, leur collecte est désormais limitée au consentement des utilisateurs par la directive « ePrivacy » en Europe. Cela entraîne des pertes de données importantes (30-40%), les solutions de tracking de ce type sont donc beaucoup moins précises.

Dans ce contexte, les plateformes de collecte de données « first party » utilisent des cookies définis côté serveur, ce qui leur permet d’être moins affectées par cette perte de données et donc de fournir des données plus précises tout en respectant la vie privée des utilisateurs.

NomDescriptionNb employés
SnowplowSnowplow est la solution de tracking first party open source de référence. C'est la principale alternative à Google Analytics 360.96
Keen.ioKeen.io est une solution de web tracking first party très utilisé par des startups qui cherchent une alternative low cost à Segment pour historiser les logs web / mobile.23
JitsuJitsu est le petit dernier, une solution de tracking open source prometteuse avec plusieurs fonctionnalités très intéressantes.5

#3 Data Warehouse cloud

Ces solutions sont distribuées en mode SaaS et ce sont donc les éditeurs (les outils ci-dessous) qui ont la charge de la maintenance. Contrairement aux architectures des Data Warehouses traditionnels, ici chaque solution dispose d’une architecture différente mais propose des avantages similaires (par rapport aux architectures traditionnelles) :

  • Coûts initiaux & permanents beaucoup plus faibles : Les différents composants requis pour les entrepôts de données traditionnels, sur site, entraînent des dépenses initiales coûteuses et ces solutions prennent la maintenance en charge.
  • Rapidité : Les solutions sur le cloud sont nettement plus rapides à déployer, en partie grâce à l’utilisation de l’ELT.
  • Flexibilité : Les Data Warehouse Cloud sont conçus pour tenir compte de la diversité des formats et des structures des données volumineuses.
  • Évolution : Les ressources élastiques du cloud sont idéales pour l’échelle requise par les grands ensembles de données.

Retrouvez ci-dessous les principaux outils de ce type du marché :

NomDescriptionNb employés
BigQueryGoogle Bigquery est le datawarehouse à bas coût de Google. Il est reconnu pour son rapport qualité / prix.250000
AWS RedshiftRedshift est la solution datawarehouse de l'écocystème AWS. 95686
SnowflakeSnowflake est une solution datawarehouse moderne, qui a connu un gros succès ces dernières années.3337
ClickhouseClickHouse est un système de gestion de base de données OLAP orienté colonnes, rapide et opensource. 15
FireboltFirebolt est un cloud datawarehouse qui fournit aux entreprises tech des performances rapides pour une gestion de données à grande échelle.117

#4 Data transform

La transformation des données est le processus qui consiste à modifier le format, la structure ou les valeurs des données. Les processus tels que l’intégration de données, la migration de données, l’entreposage de données et le traitement de données peuvent tous impliquer une transformation des données.

La transformation des données peut être :

  • Constructive (ajout, copie et réplication de données),
  • Destructive (suppression de champs et d’enregistrements),
  • Esthétique (normalisation des salutations ou des noms de rue)
  • Sstructurelle (renommage, déplacement et combinaison de colonnes dans une base de données).

Dans une stack data moderne, les solutions de transformation de données ci-dessous, n’interviennent qu’au moment de la requête (selon le modèle ELT).

NomDescriptionNb employés
DBTDBT est devenue la solution de référence pour préparer / transformer ses données au dessus de votre datawarehouse.121
PopSQLPopSQL est un éditeur SQL moderne et collaboratif.5
DataformDataform est une solution de préparation / transformation de données très intégrée à l'écosystème Google Cloud.2

#5 Orchestration de données

L’orchestration des données est le processus qui consiste à prendre des données en silo à partir de plusieurs emplacements de stockage de données, à les combiner et à les organiser, puis à les rendre disponibles pour les outils d’analyse de données. L’orchestration des données permet aux entreprises d’automatiser et de rationaliser la prise de décision basée sur les données.

Les solutions d’orchestration des données permettent d’alimenter de nombreux processus, notamment :

  • Le nettoyage, l’organisation et la publication de données dans un entrepôt de données,
  • Le calcul de mesures commerciales,
  • L’application de règles pour cibler et impliquer les utilisateurs par le biais de campagnes emails,
  • La maintenance de l’infrastructure de données
  • L’exécution d’une tâche TensorFlow pour entraîner un modèle de machine learning
NomDescriptionNb employés
AirflowApache Airflow est la solution d'orchestration de flux de données de référence, pour créer, planifier et surveiller des flux en lignes de commande et via une interface.2008
AstronomerAstronomer est une surcouche d'Apache Airflow pour orchestrer une chaine de traitements de données, avec un gros focus sur le monitoring.137
FlyteFlyte est une plateforme open source d'automatisation cloud des flux de travail pour les données complexes et les processus de ML à grande échelle.
DagsterDagster, une bibliothèque open source pour la création de systèmes tels que les processus ETL et les pipelines ML.

#6 Data science

Les outils de Data science ont qui vise à remédier à ce problème :

  • Comme les entreprises ont commencé à collecter de grandes quantités de données provenant de nombreuses sources différentes, il est de plus en plus nécessaire de disposer d’un système unique pour les stocker.
  • Rendre les images, les sons et les autres données non structurées facilement accessibles pour entraîner des modèles de machine learning.

Les outils de Data science permettent donc d’extraire des informations exploitables à partir de données brutes afin d’identifier des tendances et des corrélations au sein de celles-ci.

NomDescriptionNb employés
DataikuDataiku est une belle plateforme qui simplifie le travail de préparation de donnnées, et la mise en place de modèles Data Science.1808
AlteryxAlteryx est une plateforme qui simplifie le travail de préparation de donnnées, et la mise en place de modèles Data Science.1808
DatarobotDataRobot permet de créer et de déployer des modèles data science / IA facilement.1421
DatabricksDatabricks est une plateforme complète en surcouche de votre datawarehouse avec des fonctionnalités Analytics et Data science avancées.2395

#7 Data Catalog / Gouvernance

Un catalogue de données est un inventaire organisé des actifs de données qui permet aux analystes et aux autres utilisateurs de données de localiser, d’accéder et d’évaluer les données dans un emplacement centralisé pour des utilisations analytiques et commerciales.

Les catalogues de données s’appuient sur les métadonnées pour permettre d’effectuer rapidement des recherches dans l’ensemble de l’écosystème de données d’une organisation, de comprendre les données à leur disposition et de les rendre opérationnelles.

NomDescriptionNb employés
CollibraCollibra est une solution de data catalog / gouvernance très complète à destination d'entreprises matures.855
AtlanAtlan est une une solution de data gouvernance moderne : catalog, quality, lineage, exploration, etc.87
CastorCastor est un outil de data catalog / exploration moderne et collaboratif.11
AtaccamaAtaccama est une une solution de data gouvernance moderne qui permet de gérer vos tables de référence (rôle de MDM).267
AmundsenAmundsen est un moteur de recherche de données et de métadonnées open source qui permet d'indexer des ressources de donnée (tables, tableaux de bord, flux, etc...).

#8 Data activation

Les outils de data activation croisent et synchronisent vos données clients issues de multiples sources, online et offline, afin de les rendre actionnables dans vos outils métiers pour créer des segments d’audience sur-mesure et donc personnaliser au maximum l’expérience client.

On retrouve ici différentes sous-catégories d’outils :

  • Data Management Platform
  • Solutions Revers ETL
  • Customer Data Platform.
NomDescriptionNb employés
OctolisOctolis est une solution qui permet de croiser des données internes, et de les synchroniser avec des outils marketing.9
CensusCensus est une solution qui permet de synchroniser les données de votre datawarehouse avec des outils marketing.30
HightouchHightouch est une solution qui permet de synchroniser les données de votre datawarehouse avec des outils marketing.29
GrouparooGrouparoo est une solution reverse ETL open source. Une alternative à Octolis ou Census.5
SeekwellSeekwell est un outil d'analyse et de visualisation de donnée basé sur du SQL et qui s'intègre avec Google Sheets, Salesforce, Zendesk et Slack.3
KeboolaKeboola est une solution collaborative de data management pour croiser et partager des datasets.57
SyncariSyncari est une plateforme complète pour croiser et synchroniser des données.41

#9 Dataviz

Les outils de visualisation de données permettent de créer plus facilement des représentations visuelles de grands ensembles de données. Lorsqu’il s’agit d’ensembles de données comprenant des centaines de milliers ou des millions de points de données, l’automatisation du processus de création d’une visualisation, du moins en partie, facilite considérablement le travail du concepteur.

Ces visualisations de données peuvent ensuite être utilisées à des fins diverses : tableaux de bord, rapports annuels, documents de vente et de marketing, diapositives pour investisseurs, et pratiquement partout où les informations doivent être interprétées immédiatement.

Ces outils permettent de visualiser la data à travers des graphiques ou autres éléments visuels.

NomDescriptionNb employés
MetabaseMetabase est un outil de business Intelligence et de visualisation de données open source avec fonctionnalités SQL.31
SupersetSuperset est un logiciel open source cloud de Datavisualisation capable de gérer des données à l'échelle du pétaoctet.2007
ModeMode est un outil complet d'analyse de données et de reporting pour les professionnels des données et les responsables commerciaux. Mode combine un éditeur SQL cloud, des manuels collaboratifs pour Python et R, des visuels interactifs ainsi que des rapports et tableaux de bord en direct qui peuvent être partagés.161

Malgré nos efforts pour vous présenter dans le détail quelques dizaines de solutions qui représentent selon nous les catégories principales d’outils de la stack data moderne, difficile d’être exhaustif car il en existe en réalité des centaines.

Pour avoir une idée du dynamisme de l’offre sur ce marché florissant, on vous invite à jeter un coup d’œil à la cartographie du marché des outils Data réalisée par mattturck.com.

Téléchargement de notre benchmark complet des outils qui composent la stack data moderne

Pour accéder à la ressource, il vous suffit de vous inscrire en quelques clics.
Au clic sur le bouton ci-dessous, vous arriverez sur un formulaire d'inscription rapide. Une fois inscrit, il y a un onglet "Ressources" qui apparaîtra dans le menu du haut qui vous permettra d'accéder à l'ensemble des ressources en téléchargement gratuit. Avec un peu de chance, vous aurez une bonne surprise, il y aura d'autres ressources qui vous seront utiles 😊

👉 Je m'inscris pour télécharger la ressource

Pourquoi vous devez utiliser votre Data Warehouse pour jouer le rôle de Customer Data Platform

Vos données de contacts sont dispersées dans vos différents outils / bases de données ? Vous voulez unifier vos données clients pour mieux les exploiter ? C’est le challenge de nombreuses entreprises, et il n’est pas simple.
Les outils CRM peuvent jouer partiellement ce rôle, mais ils ont de grosses limites structurelles : manque de souplesse dans le modèle de données, incapacité à réconcilier différentes tables, difficulté à rajouter des champs calculés, surtout sur des données comportementales (ex: essayez de calculer le nombre d’emails ouverts sur les X derniers jours..).
Les éditeurs de logiciels CRM ont lancé des offres « CDP » ou « Customer 360 » pour répondre à ces challenges, mais ce n’est pas la seule approche possible. En simplifiant, deux solutions s’offrent à vous :

  • Déployer une Customer Data Platform sur l’étagère.
  • Faire de votre Data Warehouse votre Customer Data Platform.

La première option ne permet pas de construire une stack data moderne et présente plusieurs inconvénients. Les technologies datawarehouse ont beaucoup changé, et désormais il est possible d’utiliser votre DataWarehouse comme une CDP.

L’émergence des Customer Data Platforms

La Customer Data Platform est une technologie à la mode. Comment expliquer ce succès ? Quelles sont les limites de ces solutions « sur l’étagère » ?

Pourquoi tant de bruit autour des Customer Data Platforms (CDP) ?

C’est bien connu, la donnée clients est devenue l’actif le plus précieux des entreprises. C’est elle qui permet de proposer des expériences clients personnalisées, d’optimiser le ciblage marketing, de construire des programmes relationnels efficaces…

Les entreprises n’ont jamais eu autant de données à disposition.  Comme le dit joliment Angela Sun dans un article publié sur Hull.io : « Il y a désormais plus de bytes de données dans le monde que d’étoiles dans l’univers. »

Ce sont les étoiles qui sont devenues la limite de ce qu’il est possible de faire grâce aux données. Réjouissons-nous ! C’est la bonne nouvelle.

Mais la donnée clients n’a de valeur que si elle est organisée, unifiée et synchronisée. Et c’est là que l’on bute sur le problème majeur auquel sont confrontées la plupart des entreprises : la dispersion des données dans le système d’information. Aujourd’hui peu d’entreprises exploitent pleinement leurs données.

Les raisons de cette dispersion des données sont bien connues : multiplication des points de contact, des canaux, nouvelles technologies, essor des SaaS…Inutile d’y revenir, nous nous intéressons ici aux solutions.

Justement, la Customer Data Platform est apparue comme la solution à ce problème. Le succès des CDP est à la hauteur des enjeux. Depuis 2018, la CDP est dans toutes les bouches comme le montre ce graphique :

customer data platform google trends
Source : Google Trends.

Mais, qu’est-ce qu’au juste une Customer Data Platform ?

Customer Data Platform : Définition & fonctionnement

Adobe, Salesforce, Oracle, SAP : tous ces acteurs proposent aujourd’hui des « Customer Data Platforms ». Le marché des CDP draine des investissements colossaux. Selon une étude, le chiffre d’affaires combiné des éditeurs de CDP s’élèvera à plus de 10 milliards de dollars en 2025, contre 2,4 milliards en 2020.

La Customer Data Platform est une technologie qui permet d’unifier toutes les sources de données clients online et offline de l’entreprise (essentiellement first-party) pour créer une source unique de vérité. Les données sont unifiées autour de profils clients consistants : individus en B2C, entreprises en B2B. Le coeur de la CDP, c’est la « résolution d’identité », chaque nouveau point de contact est attribuée à un individu unique pour avoir une vision 360° de chaque contact.

La Customer Data Platform répond directement au problème dont nous avons parlé tout à l’heure. Elle unifie les données dispersées. Elle met fin à l’éclatement des données dans le système d’information.

L’unification des données facilite la gestion des données, leur enrichissement, leur nettoyage mais aussi bien sûr leur activation par les différents outils MarTech de l’entreprise. Les données unifiées et nettoyées de la CDP sont redistribuées aux autres outils sous forme de segments, d’agrégats, de scorings…Bref, la CDP est un constructeur d’audiences. Et ce n’est pas tout, l’unification des données dans la CDP facilite aussi la gouvernance des données et aide les entreprises à gérer leurs données en conformité avec les règles de protection des données (GDPR et consorts). Pour mieux comprendre le périmètre fonctionnel d’une CDP, vous pouvez parcourir cet article réalisé par notre partenaire, le cabinet de conseil Cartelis.

L’utilisation d’une Customer Data Platform ne nécessite pas de compétences techniques avancées, raison pour laquelle la CDP est généralement gérée directement par l’équipe marketing. C’est l’une des forces des CDP et l’une des raisons de l’engouement pour ces technologies.

Segment et Treasure Data sont de beaux exemples de Customer Data Platforms. Mais il existe un bon nombre des acteurs français, comme Ysance ou Campdebase.

customer data platform np6
La Customer Data Platform unifie les données autour de profils clients consistants. Source : NP6.

Les promesses déçues de la Customer Data Platform

Pour plusieurs raisons, nous pensons que les promesses faites par les CDP sur l’étagère n’ont pas été tenues. Tout d’abord, et c’est ce qui saute le plus aux yeux, les Customer Data Platforms…ne sont pas des plateformes. Ce ne sont pas des plateformes ou des écosystèmes conçus comme des frameworks sur lesquels des applications tierces pourraient venir se greffer. Les CDP « sur l’étagère » proposées par les Salesforce et autres Adobe sont en réalité des suites de logiciels qui vous enferment dans un environnement rigide.

C’est d’ailleurs une ironie de l’histoire, si on se rappelle que le grand mot d’ordre de Salesforce à ses débuts était « The End of Software ».

Au-delà de ce problème de dépendance à l’éditeur, il existe d’autres limites importantes :

  • Votre Customer Data Platform n’est pas une source unique de vérité. Pourquoi ? Parce que la CDP n’est pas un hub, mais un nœud juste un peu plus gros que les autres dans le SI Client. Un logiciel de plus en somme…La preuve ? Si vous faites de la BI, vous n’allez pas extraire les données de votre CDP, mais de votre Data Warehouse. On se retrouve ainsi avec plusieurs « single source of truth », et cela pose rapidement des problèmes. Dans la CDP, la déduplication des contacts est réalisée différemment que dans le datawarehouse, du coup, on n’obtient pas le même nombre de contacts dans la CDP / CRM que dans les reportings branchés sur le datawarehouse. Plus gênant encore, les règles de calcul du chiffre d’affaires, avec la prise en compte des remboursements / promotions notamment, sont réalisés par des analystes directement dans le datawarehouse, du coup, le CA ne sera pas le même dans la CDP que dans vos reportings. Après quelques années, ces exemples se multiplient, et créent plein de difficultés au quotidien.
  • La CDP empêche une coordination efficace entre le Marketing et l’IT. La Customer Data Platform s’est construite sur une promesse tape à l’oeil : l’équipe marketing allait enfin reprendre le contrôle sur la gestion des données clients. Plus besoin de l’équipe IT, l’équipe marketing allait devenir autonome. Cette approche ne va pas dans le bon sens selon nous. La gestion d’une stack data moderne repose sur un dialogue efficace entre l’IT et le marketing, pas sur un court-circuitage de l’IT. Ce dialogue est nécessaire pour répondre aux et challenger les problèmes data complexes, pour construire des modèles de données adaptés aux besoins du marketing. Lorsque l’on met hors jeu l’équipe IT dans la gestion d’une technologie, ce n’est pas à l’équipe marketing que l’on redonne le pouvoir, c’est à l’éditeur.
  • La Customer Data Platform n’est pas une technologie flexible. Cela rejoint le point précédent. La CDP impose ses modèles de données ou en tous cas ne donne que peu de marges de manœuvre dans la personnalisation de ces modèles. Segment Personas, par exemple, ne propose que deux objets de base : les utilisateurs et les comptes. Vous ne pouvez unifier vos données qu’autour de l’un ou l’autre de ces objets. Qui plus est, il est impossible à un utilisateur d’appartenir à plusieurs comptes. Vous êtes forcés de faire entrer vos données dans un moule semi-rigide qui ne correspond pas forcément aux caractéristiques de votre métier.
  • La Customer Data Platform est une solution coûteuse. Les CDP coûtent cher. Et acheter une CDP, c’est aussi acheter la philosophie de son éditeur, sa politique en matière de données…et donc perdre un peu de contrôle sur la manière de collecter, de transformer et d’exploiter les données.

La Customer Data Platform n’est donc pas l’alpha et l’oméga. De plus en plus d’entreprise se tournent vers une autre approche pour unifier et activer les données clients : transformer le Data Warehouse en Customer Data Platform. L’essor des technologies de Data Warehouse Cloud modernes (Snowflake en particulier, mais aussi les incontournables BigQuery et Redshift) ont rendu cette approche possible et très compétitive.

Pourquoi vous devez construire votre Customer Data Platform dans votre Data Warehouse

Vous avez déjà votre CDP : c’est votre Data Warehouse

Lorsqu’on dit « Customer Data Platform », on pense tout de suite aux solutions sur l’étagère se définissant explicitement comme des « CDP ». Mais en fait, on peut tout à fait construire une « Customer Data Platform » sans utiliser de CDP sur l’étagère…Vous voyez où je veux en venir ? Oui, votre Data Warehouse peut jouer le rôle d’une Customer Data Platform.

Pourquoi acheter quelque chose que l’on a déjà (au moins en puissance) ?

Qu’est-ce qu’un Data Warehouse Cloud ?

Un Data Warehouse (DWH) est une base dans laquelle vous agrégez les données en provenance de vos différentes sources. Les données sont chargées dans le DWH par lots (en batch) via un outil ETL (Extract – Transform – Load) comme Talend (ou ELT comme Fivetran). Une fois chargées dans le DWH, les données sont organisées en tables de faits et en tables de dimensions. Utiliser un DWH consiste à joindre les différentes tables via des requêtes SQL.

organisation donnees dwh modelisation etoile
La modélisation en étoile des données du Data Warehouse. Exemple avec un Data Mart de Ventes.

Les Data Warehouse sont traditionnellement utilisés pour faire du reporting et de la BI. Un DWH stocke notamment les données de commande (table 1), les données du catalogue produit (table 2), les événements utilisateurs (table 3). Il permet ainsi de répondre à des questions comme : « Combien de commandes avons-nous par mois pour chaque famille de produit ? » > La réponse est obtenue en joignant les tables 1, 2 et 3 via une requête SQL.

Le Reverse ETL, la brique pour transformer votre DWH en CDP

Mais les solutions Data Warehouse modernes, cloud, permettent d’aller beaucoup plus loin que la simple analyse de données. Couplé à un outil « Reverse ETL », un Data Warehouse est en mesure de devenir une Customer Data Platform. Un Reverse ETL, c’est une solution pour activer vos données internes. C’est la brique qui permet de synchroniser les données du Data Warehouse avec les applicatifs métiers et autres outils marketing (CRM, Marketing Automation, Service client, outils publicitaires, etc.).

Avec une solution comme Octolis, vous pouvez synchroniser n’importe quel agrégat / segment de données dans vos outils métiers. Soit en utilisant une interface visuelle, soit en utilisant SQL.

Le Reverse ETL vous permet par exemple de faire redescendre :

  • Les données relatives à la fréquence d’achat des clients dans la solution de Marketing Automation.
  • Le revenu généré par chaque contact / entreprise dans le CRM Commercial.
  • Les top clients, avec leur LTV, dans vos outils publicitaires type Google Ads / Facebook.
  • Les données relatives à l’utilisation des services dans Zendesk…

On pourrait lister des dizaines de cas d’usage, cf. bibliothèque de cas d’usages.Le principe est toujours le même : alimenter en continu les applicatifs métiers avec les données du DWH dont les équipes ont besoin. Le Reverse ETL permet de transformer votre Data Warehouse en une base clients opérationnelle.

Conclusion

Cette approche consistant à monter la Customer Data Platform dans le DWH (via un Reverse ETL) est à envisager très sérieusement. Pourquoi ? Parce qu’elle réunit les avantages principaux des CDP sur l’étagère, sans leurs inconvénients. Cette approche permet en effet de :

  • Concevoir une CDP répondant exactement à vos besoins. Avec des outils comme dbt et Octolis, vous pouvez faire travailler votre Data Warehouse exactement comme vous en avez besoin.
  • Créer une infrastructure data plus solide. Là où les CDP sur l’étagère ne gèrent que les données clients, le Data Warehouse peut accueillir toutes vos données. Cela facilite la valorisation et la gouvernance des données.
  • Gagner en flexibilité. Les outils nécessaires à la transformation de votre DWH en CDP sont peu onéreux…contrairement aux CDP sur l’étagère qui coûtent très cher. L’approche « DWH » vous permet de gérer votre stack data de manière flexible, sans avoir besoin à chaque fois de contacter le support de la CDP et de vous entendre dire : »Notre outil ne permet pas de faire ça… ».