Recherche

Les 7 bases de valorisation des données

Publié par le

Définir un référentiel de données


« Que l'on parle de l'identification des sources de collecte, de déduplication, d'enrichissement, l'adresse est la base de toute action visant à optimiser les données », rappelle Isabelle Durou, directrice générale de Safig Dataway. L'adresse (postale ou électronique) constitue le point de départ et d'aboutissement de toute opération de valorisation de la donnée. Un repère d'autant plus essentiel que le développement des technologies on line et la multiplication des sources de collecte a compliqué le travail de gestionnaires de bases, conscients de la nécessité de transcender la diversité des données. L'intégration d'usines à gaz du type CRM, agrégations mal maîtrisées de systèmes et de plates-formes hétéroclites, a intensifié le magma. Pour requêter correctement des données en provenance de sources multiples, l'entreprise doit mettre en place un modèle standard de lecture et d'évaluation. « La première étape de l'optimisation consiste dans la définition d'un référentiel unique », soutient Stéphane Dietrich, directeur général de Neolane.

Différencier données internes et externes


La qualification des données repose sur deux types de critères : internes et externes. Critères de qualification endogènes (ne nécessitant pas l'apport d'information depuis des sources extérieures à la base de données) : appartenance à une catégorie de clientèle en fonction du chiffre d'affaires généré, RFM (récence, fréquence, montant). Ou localisation géographique (dès lors que l'on dispose d'une adresse postale). Les données de localisation font, en effet, partie des éléments endogènes susceptibles d'apporter des informations précieuses sur un client ou un prospect. Le niveau de granularité de l'Iris (2 000 foyers) permet des projections très fiables. « On utilise généralement le géomarketing pour pallier un manque d'information sur le client », affirme Didier Richaudeau, directeur de l'activité data mining de Soft Computing. Critères exogènes : âge, composition du foyer, comportement d'achats auprès d'autres marques ou entreprises. Ces qualifications s'obtiennent via diffusion et retour de questionnaires, par le croisement avec des fichiers extérieurs ou par scoring et extrapolation à partir de sources extérieures.

Astreindre la base à une double qualification


Quelle que soit la facture originale des données (données constatées, données déclarées ou données déduites), quel que soit l'objectif affecté à leur valorisation - conquête, fidélisation, vente additionnelle -, la qualification actionne deux grandes familles d'items. Elle va soumettre la base ou le fichier à des questions récurrentes - idéalement au moins deux fois par an -, principalement autour de données socio-démographiques : âge, revenus, composition du foyer… Parallèlement, la qualification va projeter sur les données des critères conjoncturels : “Qu'avez-vous acheté ces derniers mois”, “Connaissez-vous cette marque ?”…

Gérer la disponibilité des données par le “data quality management”


La logique opérationnelle impose un paramétrage du modèle de traitement informatique afin de veiller à la disponibilité des données. Imaginons une opération commerciale reposant, entre autres, sur un scoring de fréquence des achats. Il n'est pas acquis que le critère fréquence soit disponible sur l'ensemble des adresses ou sur un segment de cible. En se dotant d'outils de data quality management, le gestionnaire de la base recevra des alertes régulières lui indiquant le niveau de disponibilité des critères sur les différents agrégats préalablement définis. Dès lors que l'on aura déterminé, pour chacun des scores, le seuil plancher de tolérance en deçà duquel le déclenchement de la campagne ne pourra être actionné, restera à lancer les actions de qualification nécessaires.

Ne pas démultiplier les grandes familles de segmentation


« Nous vendons tous un certain nombre de critères qui ne servent à rien », lâche le responsable d'une société de traitement des données. Construire une base, collecter des adresses, agréger des critères : rien ne sert d'étendre toujours plus les dimensions d'une base clients ou prospects, ni d'en enrichir la profondeur si les données acquises ne doivent jamais servir. La vocation d'une base est de transformer des données brutes en informations opérationnelles. Sa valorisation ne procède pas de sa construction, mais de son exploitation. Certaines bases, comme Claritas, proposent 2 500 critères de segmentation. Un potentiel avec lequel un gestionnaire de bases de données clients ne doit pas chercher à rivaliser. Limiter les critères à un petit dénominateur commun suffit bien souvent, dès lors que l'on a éprouvé ses choix par une série de tests ou d'actions en réel. Les items de qualification, généralement retenus par les vépécistes, les entreprises de grande consommation ou les acteurs du secteur caritatif font, en l'occurrence, référence. A commencer par la classification au chiffre d'affaires apporté : petit, moyen ou gros client. Viennent ensuite les grands critères socio-démographiques : âge, composition du foyer, localisation géographique. Puis des éléments discriminants en termes de comportement d'achat, notamment le classique RFM (récence, fréquence, montant).

Définir le juste niveau de profondeur des enrichissements


Jusqu'où ne pas aller trop loin dans un enrichissement de la base ? Peut-on déterminer un seuil au-delà duquel l'accumulation des données devient non seulement stérile, mais aussi contre-productive et économiquement invalidante ? Car, stocker des données coûte cher. A fortiori s'il s'agit d'une donnée non exploitée ou inutilement exploitable. Le coût de conservation d'une base reste très délicat à chiffrer. Les professionnels eux-mêmes se perdent en conjectures. « On a estimé que la seule conservation d'une adresse revient à 0,15 euro par an à compter de 600 000 adresses », indique Jean-Michel Moulié, président d'Apollinis et directeur général de Wegener, qui prêche, néanmoins, la vigilance face à ce type de projection. Difficile de fixer une limite générique à la profondeur des enrichissements. La vérité est empirique. « A chaque entreprise de tester, de lancer des ballons sur des segments de cible, de comparer et d'arrêter le bon scénario économique entre niveau de qualification et efficacité commerciale », affirme le patron d'Apollinis.

Projeter des scores prédictifs sur des données historisées


« La valorisation des cibles récurrentes implique une logique d'anticipation. Tant en matière de RNVP (restructuration, normalisation, validation postale) que de qualification des adresses. L'optimisation des données est un travail cyclique », affirme Thierry Fée, directeur du département BDD de Wunderman Interactive. L'édition logicielle propose un certain nombre d'outils prédictifs permettant, par exemple, de prévenir l'attrition financière. Intéressant pour les vendeurs en ligne, qui peuvent détecter et anticiper le niveau de risque financier d'un client. « Nous travaillons sur la notion d'identification de potentiel du client ou du prospect. De premières expériences viennent d'être lancées sur ces nouveaux modèles. Il est encore trop tôt pour en mesurer les résultats », affirme Andréa Micheaux. Mais qui dit anticipation dit historisation. C'est en engrangeant les informations et en les classifiant dans des architectures standardisées que l'on pourra les soumettre à des modèles prédictifs. « Une donnée est un capital dynamique. Encore faut-il l'historiser », souligne Jean-Michel Moulié.

Les principaux critères de segmentation


B to C Critères géographiques - La région. - Le type d'habitat : rural/urbain, centre-ville/banlieue. - Les tranches d'agglomération. Critères socio-démographiques - Age, sexe, nationalité, situation de famille. - Niveau d'études. - CSP. - Métier. Critères comportementaux - Nature et historique des achats. - Montant des achats. - Fréquence des achats. - Fidélité à la marque. - Mode d'achat (points de vente, à distance…) - Réaction aux sollicitations commerciales. Critères d'attitude - Relation du client ou du prospect avec d'autres marques et avec la consommation en général (enrichissement par les mégabases). B to B Critères géographiques - Région. Critères économiques - Code NAF (activité principale). - Date de création. - Taille salariale. - Chiffre d'affaires. - Bénéfices. - Structure juridique. - Répartition capitalistique. - Etablissements secondaires. Critères comportementaux - Nature et historique des achats. - Montant des achats. - Fréquence des achats. - Fidélité à la marque. - Mode d'achat (points de vente, à distance…). - Réaction aux sollicitations commerciales. - Fonction des décisionnaires. - Fonction des acheteurs.

Cahier réalisé par Muriel Jaouën

Mobile : où en sont les annonceurs ?

Mobile : où en sont les annonceurs ?

Mobile : où en sont les annonceurs ?

Comment les annonceurs perçoivent-ils le mobile, qui absorbe une part de plus en plus croissante des investissements publicitaires ? Réponse [...]

Robotique : Hease, le robot d'accueil du retail

Robotique : Hease, le robot d'accueil du retail

Robotique : Hease, le robot d'accueil du retail

Hease Robotics présentera au CES Las Vegas 2017 son robot équipé d'intelligence artificielle à destination des acteurs du retail et de l'hospitalité. [...]

Hackathon : innover en mode marathon

Hackathon : innover en mode marathon

Hackathon : innover en mode marathon
Arte
Au coeur de l'hackathon organisé par la chaine de télévision Arte.

Sortir un nouveau produit en 48h chrono ? Telle est la promesse du hackathon. Le phénomène, en plein boom, séduit les marques.