E-marketing.fr Le site des professionnels du marketing

Recherche
Magazine Marketing

VI / Etudes et analyses

Publié par La rédaction le

Je m'abonne
  • Imprimer

Choisis, normalisés, validés, enrichis, les fichiers ont parcouru un long chemin pour aboutir à l'ultime étape: l'analyse destinée à comprendre, ou prédire, le comportement des clients. Reporting, géomarketing, modélisation, data mining, tout est possible si l'intégration de ces outils est bien menée.

L'adoption d'un outil d'analyse de données ne représente que la partie visible de l'iceberg décisionnel. Le choix des données, l'intégration des utilisateurs finaux et la définition des besoins sont tout aussi importants. Ils définissent le cadre du projet décisionnel de l'entreprise et les outils nécessaires. Dans 80% des cas, il s'agit d'un besoin de reporting classique: réalisation des rapports et mise à distance auprès des publics concernés. Par la suite, ces besoins peuvent évoluer graduellement vers la gestion de campagnes, l'exploration de données ou le data mining.

A - Les étapes de l'analyse data

L'analyse des données sert tantôt à expliquer le comportement des clients, tantôt à le prédire. La mise au point de segmentations ou de modèles facilite la prise de décision, au niveau stratégique ou opérationnel.

1- Définir l'objectif: autrement dit déterminer ce que l'on doit apprendre, savoir, prédire et comment on va l'utiliser. Il s'agit de situer le problème posé dans le contexte métier, de la prise en compte des expériences passées à la connaissance des conditions futures d'utilisation des résultats.

2 - Faire le bilan des données nécessaires pour mener à bien l'étude: que ce soit des données internes (informations issues des achats, commandes, appels émis ou reçus par le centre de contacts, etc.) et/ou des données dites «externes» (mégabases, profils sociodé- mographiques par commune, etc.). Il sera aussi décidé, lors de cette étape, du choix et de la taille de l'échantillon d'étude. Bien évidemment, la pertinence des résultats d'une analyse et des décisions qui en découlent seront fonction de la qualité des informations stockées dans le système d'information décisionnel. Une qualité qui dépend de trois critères: la justesse de l'information à sa source, sa récence et le traitement qu'elle subira. Enfin, pour vérifier le traitement subi par l'information, il est nécessaire d'établir l'historique et de tracer le parcours de la donnée. De plus en plus d'éditeurs, comme Dataflux, A.I.D ou Spad, proposent des briques consacrées à la gestion de la qualité de la donnée.

3- Mettre en forme l'ensemble des données rassemblées et les agréger à un niveau d'information commun: il s'agit d'abord de les rapprocher et de créer des indicateurs, des agrégats pertinents à partir de données variées et détaillées. Une exploration statistique permet alors de faire un premier tri, en éliminant les données trop souvent incomplètes, peu fiables, trop hétérogènes dans leur alimentation passée, ou peu pertinentes.

4- En fonction de l'objectif poursuivi et des types d'informations qui sont maniées, il faut choisir dans la palette des méthodes celles qui sont les plus adaptées. Si l'entreprise choisit de faire du data mining, elle peut utiliser les méthodes descriptives (comme la technique de la segmentation) ou encore les méthodes prédictives (comme la technique du score).

5- La mise en production, ou implémentation, vient clôturer le processus d'initialisation: elle est quasi immédiate lorsque le système opérationnel intègre un outil qui ne requiert pas de développements informatiques spécifiques.

6- La mesure de performance: on étudie le comportement réel après avoir appliqué la méthode construite. Cela permet à la fois de vérifier qu'un modèle statistique a bien répondu à l'objectif fixé et de mesurer le ROI.

B - Un marché bien structuré

Le marché des progiciels en informatique décisionnelle est très vaste. Le choix de la technologie dépend des besoins de l'entreprise, de sa taille et de son métier. L'offre en business intelligence est organisée en quatre familles: le reporting (Business Objects, Cognos), l'analyse multidimensionnelle et relationnelle (Hyperion, Microstrategy), le data mining (SPSS, SAS, Bayesia, KXEN , SPAD ou encore Complex Systems) et les solutions métiers intégrant des capacités d'extraction et de segmentation (Neolane, Coheris, Selligent, Pivotal ou encore Sage).

Chaque branche est composée de deux types d'outils: d'un côté, les plateformes génériques, entièrement paramétrables mais plus longues à intégrer, de l'autre, les outils packagés, prêts à l'emploi, faciles à déployer mais difficilement adaptables. Certains éditeurs, comme SAP et Oracle, proposent une gamme complète de produits, depuis la création et l'alimentation de datawarehouse, jusqu'à l'exploration et l'analyse des données.

A mesure que les briques technologiques sont rendues disponibles, fonctionner par itération auprès des utilisateurs permet de mieux définir les indicateurs pertinents, les informations utiles et les processus à ajuster. Ces échanges impliquent fortement les utilisateurs dans le projet, facilitent la prise en main des progiciels et permettent d'optimiser le délai de mise en production. Point important selon les intégrateurs: ces itérations ne se limitent pas à la phase d'implémentation mais elles continuent de façon permanente, afin d'adapter le décisionnel à l'environnement marché de l'entreprise.

C - Quel droit pour le data mining?

A chaque étape de la définition d'un plan de data mining, plusieurs règles issues de la loi informatique, fichiers et libertés vont s'appliquer afin de déterminer les différents types de données à collecter ou à identifier, les modalités pour lesquelles la base sera traitée et, enfin, les traitements à effectuer. Il existe plusieurs contraintes. Les premières sont liées à la nature des traitements effectués. Le géomarketing, le scoring ou la segmentation comportementale sont, en effet, des techniques très encadrées. Les deuxièmes découlent de l'obligation de traiter des données exactes et complètes. Enfin, les troisièmes sont liées à la nature même des données. Il faut, par ailleurs, ne pas oublier l'existence des données sensibles (numéro de Sécurité sociale, condamnations, moeurs, opinions politiques...).

3 QUESTION A... Alexandre Losson, directeur de la division CRM Business & Décision

Dans la mise en place d'un programme CRM, l'analyse des besoins est-elle une étape essentielle? Bien sûr. Il convient d'abord de préciser la stratégie de relation client et les objectifs business, organisationnels et techniques. Cette étape doit permettre de fixer une première feuille de route avec un business case associé. Pour cela, il faut définir les stratégies relationnelles par grands segments de clients (quelles offres sur quels segments, sur quels canaux, quels investissements, quels niveaux de service...), mais aussi la cartographie fonctionnelle qui va supporter les processus de relation client à chaque moment du cycle de vie et parcours (prospection, vente, fulfilment, service, pilotage). Enfin, il faut déterminer les choix de solutions et partenaires (éditeurs, maîtrise d'ouvrage, maîtrise d'oeuvre, conduite du changement) et réaliser le programme par étapes et lots: méthodologie projet, réalisation fonctionnelle et technique, formation et conduite du changement, mesure de l'atteinte des objectifs et, le cas échéant, adaptation de la feuille de route.


Quelles sont les erreurs à ne pas commettre dans l'analyse d'un projet? Il est important d'avoir le soutien fort de la direction générale au quotidien. Il ne faut pas prendre le risque de vouloir réaliser le programme en une seule fois et avoir un projet trop long. Autre erreur à ne pas commettre: voir le programme sous le seul angle technique. Il est indispensable de traiter en parallèle les aspects business, organisation, humains et techniques et ne pas sous-estimer la conduite du changement. Enfin, il convient de choisir des progiciels et faire du développement spécifique: il faut s'appuyer le plus possible sur les standards produits. In fine, il ne faut pas oublier que la conception et les besoins peuvent être figés dès le départ. Il s'agit d'avoir une approche de conception itérative basée sur des processus qui sont «maquettés» dans les solutions.
Quelles sont les principales tendances?
Nous constatons une montée en puissance et maturité des solutions en mode SaaS (Software as a Service) basées sur un modèle d'abonnement, mais aussi une accélération sur les aspects marketing (lead management, push d'offres en temps réel, personnalisation cross canal...) et les programmes de fidélité. De même que l'e-service (selfcare, call chat...) y compris en tant que source de revenu. Autres tendances qui deviennent des priorités fortes: l'optimisation des processus de vente (gestion des territoires, des quotas, commissionnements, gestion des appels d'offres complexes, forecasting temps réel...); l'intégration de la business intelligence dans les applications opérationnelles et l'intégration des problématiques social media pour les marques (image, connaissance client, marketing).

C - 1. S'assurer de la légalité des traitements engagés

Examiner ces contraintes pour déterminer la légalité des traitements envisagés s'impose d'autant plus que des formalités déclaratives devront être effectuées auprès de la Commission nationale de l'informatique et des libertés (Cnil). Et l'analyse déclarative s'avère extrêmement complexe, puisque le choix déclaratif lui-même sera déterminant pour la licéité des opérations de data mining: dispense de déclaration, autorisation après arrêté ou décret, déclaration simplifiée ou ordinaire... Ces formalités devront être menées avant même la mise en oeuvre du traitement. A défaut, des sanctions pénales ou civiles particulièrement lourdes peuvent être prononcées par les tribunaux ou la Cnil.

La politique de data mining devra, enfin, tenir compte du respect du droit des personnes fichées, d'autant que celles-ci peuvent désormais s'opposer à la prospection commerciale. Une étude très précise devra donc être menée, tant sur les informations portées à la connaissance des personnes fichées que sur le traitement desdites informations. Cette étude sera bien sûr plus complexe pour des entreprises utilisant les réseaux de communication électronique. En effet, des accords spécifiques devront exister compte tenu de la loi sur la confiance dans l'économie numérique, qui réglemente l'utilisation des adresses e-mails dans le cadre des campagnes publicitaires. S'assurer de la licéité des traitements, déclarer ou redéclarer, et respecter les accords avec les personnes fichées constituent donc les éléments-clés d'une politique de data mining puisqu'en fonction de ces prérequis, le projet sera envisageable ou non.

C - 2. Encadrer sa politique de data mining

Encadrer les relations entre les différents intervenants mettant en place une solution de data mining est un des axes majeurs de la politique. En effet, il est essentiel de définir le rôle de chacun d'entre eux, les prestations à réaliser ainsi que les modalités afférentes, tant en termes de prix que de délais. Une définition très précise de la responsabilité et des garanties de chacun des acteurs doit évidemment y être mentionnée.

Outre les aspects juridiques liés à la loi informatique, fichiers et libertés, et aux responsabilités de chaque acteur, un des aspects essentiels de ces contrats concerne la propriété des données en tant que telles mais également des bases de données, voire des logiciels utilisés. En premier lieu, si les données ne sont pas originales et sont souvent exclues de la protection des droits d'auteur, leur protection peut toutefois être assurée par les règles de la concurrence déloyale ou parasitaire mais aussi par les règles du contrat. Il en est de même pour l'utilisation des bases de données et ce, même si elles peuvent bénéficier d'une protection spécifique. L'un des enjeux essentiels de cette protection est de permettre, notamment aux producteurs de bases, d'interdire l'extraction mais également la réutilisation de toute ou partie substantielle du contenu du fichier lorsque la constitution, la vérification ou la présentation de ce contenu a nécessité un certain investissement. Enfin, le logiciel en tant que tel, utilisé pour des opérations de data mining ou bien développé de manière spécifique pour une entreprise, est aussi?'objet de droits. Encadrer son utilisation ou sa cession doit donc être envisagé dès le début des pourparlers.

C - 3. Internet

Récemment, la Cnil a souhaité alerté les professionnels du secteur en matière de protection de la vie privée sur Internet. Ainsi, le 26 mars 2009, la Commission a émis un avis sur le marketing ciblé sur lew Web, en rappelant notamment que «l'analyse des comportements sur Internet n'est possible que si l'internaute en a été dûment informé et s'il peut s'y opposer de manière simple et rapide». Elle se déclare d'ailleurs favorable à l'élaboration d'un code de bonnes pratiques par les professionnels.

De même, le 25 juin 2009, le groupe des «Cnil» européennes (G29) a précisé les règles applicables aux réseaux sociaux en demandant, entre autres, la définition de paramètres par défaut, qui limitent la diffusion des données des internautes, ou encore la suppression des comptes restés inactifs pendant une longue période.

 
Je m'abonne

La rédaction

NEWSLETTER | Abonnez-vous pour recevoir nos meilleurs articles