E-marketing.fr Le site des professionnels du marketing

Recherche
Magazine Marketing

Bien exploiter le scoring pour une efficacité maximale

Publié par le

Un bon score, c'est d'abord une affaire de réflexion et de bon sens. Qui garantissent que l'on sait quoi chercher et comment arriver à le trouver. Mais aussi une question de méthode à appliquer, prenant en compte périodes de validation et de remise à jour des scores. Sans oublier l'objectif premier d'un score, à savoir fournir des informations exploitables aux services marketing et commerciaux.

Je m'abonne
  • Imprimer


Réussir à mettre efficacement en oeuvre des scores, ce n'est pas simplement s'efforcer de recueillir un maximum d'informations sur des personnes et appliquer telle ou telle méthode sur ces données pour en tirer des enseignements. Bien sûr, il faut en passer par ces phases d'exploitation, qui constituent le coeur même du scoring. Mais, comme dans beaucoup d'autres domaines, travailler sur de mauvaises données en entrée ne peut amener qu'un mauvais résultat. C'est pourquoi un bon scoring suppose une période de réflexion en amont, permettant de poser la problématique globale du score (quel est l'objectif premier de la campagne que l'on veut mettre en oeuvre à l'aide de ce scoring ?) et de déterminer sa finalité (que cherche-t-on ?). Pour Stéphane Amarsy (Koba), « il est fondamental de comprendre la culture du client et sa problématique. Sans cela, ça ne peut pas fonctionner. » Ensuite seulement, on pourra commencer à se pencher sur les outils et méthodes à utiliser pour arriver à ces résultats. Comme le souligne Philippe Cheval (BCA), « on peut paramétrer des choses aussi sophistiquées que l'on veut. Mais, si la problématique est mal posée, si les variables utilisées sont peu explicatives ou mal enrichies, cela ne donnera rien. » Le premier élément qui va conditionner toute la suite des opérations, c'est le brief de l'annonceur ou du commanditaire. S'agit-il d'une campagne de fidélisation de clients, de recrutement de nouveaux abonnés, de promotion de nouveaux produits auprès de personnes connues de l'annonceur ? Quel que soit cet objectif, il permet à la fois de savoir sur quel type de données le score va être élaboré (un fichier de clients avec historique et de nombreuses informations, un fichier de prospects a priori peu renseign...) mais également de déterminer les moyens à mettre en oeuvre pour arriver au résultat attendu par le commanditaire.

UNE OEUVRE DE COMMUNICATION


A partir de là, on peut commencer à entrer dans le vif du sujet, à regarder sur quelles données travailler, quelles méthodes utiliser pour en tirer des enseignements et comment les présenter ensuite. Comme le note Philippe Cheval, un bon scoring, « c'est une base de données bien conçue et bien comprise, une analyse statistique réussie et une communication adaptée aux utilisateurs des résultats du scoring, en n'oubliant pas que ce score s'insère dans une logique industrielle dont il ne faut pas sortir ». La dimension communication du scoring est essentielle à plusieurs niveaux. Avant tout parce que les résultats obtenus par les statisticiens vont être exploités par des équipes commerciales ou marketing qui ont besoin de les appréhender pour mieux cibler leur message et leur campagne. Partant de là, cette dimension influe également sur la façon de travailler des équipes s'occupant du scoring et ce sur quoi ils vont travailler. « Il vaut mieux un calcul simple qui résolve 98 % des choses qu'un sophistiqué qui résout 98,5 % des problèmes », souligne Philippe Cheval. A partir de là, il faut travailler à déterminer les informations à exploiter sans idée préconçue. Comme le précise Yves Allard (Chronaxies), « le scoring n'est pas là pour valider une idée, mais pour donner des informations à un moment donné ». Ce qui impose de savoir éliminer les données inutiles ou trompeuses et de se recentrer sur celles qui ont une véritable signification. « Il faut savoir bien définir ce que l'on cherche », note Anne Gayet (AID). Dans la pratique, cela signifie prendre en considération les données révélant un comportement et pas celles découlant de ce comportement. L'exemple type, c'est celui d'un abonné à un service de téléphonie mobile qui passe à la concurrence. Si l'on s'arrête sur les deux mois de son historique avant qu'il n'ait résilié son abonnement, on ne pourra que constater que sa consommation a diminué. Mais il s'agit d'un comportement consécutif à sa décision de résiliation. L'important étant de déterminer quels sont les comportements symptomatiques d'une décision prochaine de résiliation, il faut remonter plus loin dans le temps pour trouver des informations réellement exploitables dans un score d'attrition (voir les points clés). Pour Stéphane Amarsy, « il faut toujours commencer par valider la méthode, les informations sur lesquelles on va travailler. Si l'on rencontre un problème à ce niveau, on peut recommencer facilement, cela coûtera moins cher que de se fourvoyer sur le ciblage d'un mailing ! »

AVOIR DES DONNÉES OU NON


Parallèlement, définir et travailler sur ces données implique que l'on dispose de ces informations. Et là, deux cas sont envisageables : soit elles sont présentes, soit il faut les récupérer. Quand on dispose de ces données, l'important est de savoir déterminer les bons indicateurs, de trouver celles qui ont un sens ou non. « Si l'on travaille sur un programme de fidélité, par exemple, on dispose d'un historique très détaillé, note Anne Gayet. A partir de là, il faut définir les bons indicateurs, en déterminant sur quelle durée on va remonter (un mois, trois mois, six moi...) et quel intervalle on va fixer pour borner ces indicateurs (15 jours, un moi...). Il faudra ensuite les tester sur la problématique précise posée pour recenser les éléments les plus efficaces. » Si l'on ne dispose pas de données de base, par exemple si l'on fait une campagne auprès de prospects, le problème est plus épineux. Il faut à la fois savoir déterminer les informations qui vont être les plus efficaces pour le scoring et les faire dire aux personnes susceptibles d'être touchées par la campagne. Ce qui impose de récupérer ces informations en interrogeant ces personnes. « C'est une bonne occasion de communiquer avec les gens et une excellente opportunité d'obtenir des informations très pertinentes, précise Anne Gayet. En fait, un bon scoring combine science du questionnaire et science de l'exploitation. »

TESTER, TOUJOURS TESTER


La bonne exploitation d'un scoring, son peaufinage, passent aussi par de nombreux tests. Bien sûr, l'expérience permet d'effectuer un tri préalable, de créer un premier filtre. Ce qui est obligatoire, ne serait-ce que pour des questions budgétaires. « On enrichit une base à partir des données des gens qui ont répondu à une offre, note Yves Allard. Quand on envoie un message pour tester un fichier, on ne travaille pas sur un échantillon représentatif des Français. Il faut forcément procéder à une présélection. » En effet, l'idéal serait de pouvoir tester le message sur l'intégralité des gens, mais quel budget permettrait une telle opération ? C'est pour cela que les tests sur les fichiers sont importants, ils permettent d'affiner la connaissance des répondants, de vérifier la validité de ses postulats. « On teste un même message sur un échantillon supposé "bon" et sur un autre échantillon supposé "mauvais" pour vérifier que les premiers répondent bien à la sollicitation et que les seconds ne répondent pas », précise Anne Gayet. Le risque, c'est de tirer de mauvaises conclusions des résultats de ces tests, de se laisser abuser par des différences qui n'en sont pas. Un exemple de cet écueil est donné par Yves Allard : « Prenons un fichier de 100 000 adresses que l'on divise aléatoirement en 10 fichiers de 10 000 adresses que l'on envoie simultanément. Admettons que le nombre de réponses se situe entre 95 et 105 selon les échantillons. Peut-on considérer que ceux qui sont situés au-dessus de 100 sont les plus intéressants ? Non, car la différence n'est statistiquement pas significative. » Le test est aussi un outil de suivi du scoring, permettant de voir dans quelle mesure les scores passés ont évolué. Comme le note Anne Gayet, « un score est un outil de mesure qui ne donne de résultats que si tous les éléments extérieurs sont les mêmes ». Mais l'on sait que rien n'est figé dans le temps, ce qui oblige à revoir en permanence ses scores. Le test est un bon révélateur de l'évolution d'un scoring, un moyen de déterminer quand et à quel niveau il faut le mettre à jour. « Quand les résultats des "mauvais" fichiers rejoignent ceux des "bons", il est temps de se poser des questions », ajoute Anne Gayet. Schématiquement, il existe deux types différents de mises à jour possibles pour un score. La première, la plus légère, consiste à conserver les formules et les critères utilisés et à simplement influer sur les coefficients que l'on attribue à ces critères en fonction de l'évolution constatée dans le comportement des utilisateurs faisant partie de la cible. Une opération qui ne remet pas en cause la structuration du score. La seconde forme de mise à jour, en revanche, impose une remise à plat complète du score dans tous ses aspects. Une opération qui peut arriver de façon très fréquente : « Si les données ou les comportements évoluent vite, les scores peuvent être remis à plat plusieurs fois par an », précise Anne Gayet. Yves Allard va même plus loin en énonçant que « le scoring est une démarche permanente, qui n'est pas applicable dans le temps mais seulement sur une offre donnée. Il peut y avoir des variations très importantes dans le temps, ce qui implique de refaire le score très régulièrement ». Enfin, de manière plus générale, améliorer ses compétences en matière de scoring et obtenir les meilleurs résultats passe encore et toujours par la pratique. « Plus on fait des scores, meilleur on est », conclut Philippe Cheval.

 
Je m'abonne

Bruno Ferret, Xavier Lucron

NEWSLETTER | Abonnez-vous pour recevoir nos meilleurs articles