En ce moment En ce moment

Le quanti ad hoc : À la RECHERCHE de VALEUR AJOUTEE

Publié par le

Disposer d'études plus réactives et plus directement opérationnelles sont les grandes attentes des entreprises. Pour répondre à cette demande, les instituts d'études ont modelé leur offre. Les formidables progrès de la technologie informatique et des télécommunications ne sont pas étrangers à cette évolution. Qui affecte le quanti de l'amont, c'est-à-dire du recueil de l'information, à l'aval, c'est-à-dire au data mining et au conseil.

  • Imprimer


En France comme en Europe, les études ad hoc quanti représentent plus d'un tiers des investissements études des entreprises qui ont totalisé 31 milliards de francs sur ce continent en 1998. En France, les panels et les omnibus pèsent un peu plus que les études ad hoc quanti. Et la part de ces dernières continue de progresser en France depuis 95. Sur quels domaines portent les demandes en études ad hoc quanti ? L'actualité a entraîné une préoccupation sur les prix psychologiques et les effets de seuil dus au passage à l'euro et au double affichage. L'Ifop, Research International, IOD, ACNielsen, IRI Secodip, l'Institut français de Démoscopie sont les principaux instituts à s'être penchés sur le sujet. Une enquête de Syntec Etudes auprès des entreprises clientes révèle que les demandes de demain porteront en particulier sur les études concernant la marque, qu'il s'agisse des études sur le capital de la marque ou sur l'efficacité de la communication. Message bien reçu de la part des sociétés d'études qui, si elles ne devancent pas la demande, font toutefois preuve de réactivité pour proposer le plus rapidement possible des produits répondant aux problématiques de leurs clients. Il suffit de regarder les principales offres du marché de ces dix-huit derniers mois pour s'en persuader. Elles vont de la réflexion sur la valeur financière des marques (Ipsos a créé un pôle dédié à ce type d'études) au développement de méthodologies qui cherchent à identifier et évaluer les leviers de la marque : c'est, par exemple, Brand Dynamics de Millward Brown, Brand Health Check de Novaction, Prométhée de Sécodip, Brand Navigator de GfK, Equity Engine de Research International. RI complète d'ailleurs son offre en introduisant une dimension émotionnelle dans l'approche non verbale des marques avec le Brand Side Gallery. Dans cette optique, RI est en train de développer un nouvel outil, Consumer needs, qui se penchera sur les attentes fondamentales des consommateurs (sécurité...) et la façon dont une marque peut y répondre.

Satisfaction et fidélité : des créneaux porteurs


Dans le domaine de la satisfaction, qui représente déjà quelque 10 % du marché des études et qui affiche une progression à deux chiffres, Ipsos a structuré son offre autour d'une approche Système CESAR (Customer Experience and Satisfaction Analysis and Return) alors que Taylor Nelson Sofres inscrit à l'ordre du jour 1999 la commercialisation d'un nouveau produit, Focus II (qui a pris le meilleur de Focus I et le meilleur de Nexus), dont la promotion internationale est placée sous la responsabilité d'Alain Denis, qui a quitté son poste de directeur général de Sofres Belgique pour prendre de nouvelles fonctions au sein de la nouvelle structure Taylor Nelson Sofres Worldwide en tant que International Business Director. Toute une génération d'études s'interroge aussi aujourd'hui sur la fidélité du consommateur. On peut citer RI qui met au point un loyalty model relié au modèle Equity Engine. Ou Taylor Nelson Sofres qui détient la licence pour l'Union européenne du Conversion Model, modèle qui mesure la prédictivité de la valeur du client et son attachement à la marque, et donc sa capacité à la consommer quel que soit son niveau de satisfaction. Conversion Model permet de détecter les clients fragiles ou vulnérables et donc de définir les items sur lesquels il convient de jouer pour engendrer des clients fidèles, explique Amaury de Condé, Dga du groupe Taylor Nelson Sofres. C'est un modèle qui dépasse la simple mesure comportementale. Parallèlement les marchés tests se sophistiquent. Le développement d'outils comme Scannel ou MarketingScan est venu répondre aux questions qui se posent lors des différentes étapes du processus de lancement et ajouter au volet "marché test simulé" le volet "marché test en condition réelle". Dont le succès est réel : voir l'ouverture par MarketingScan d'une deuxième zone test au Mans (Rubrique Etudier de ce numéro). Taylor Nelson Sofres est désormais présent sur les deux, simulé et réel, puisqu'avec le volet Optima Volume, module de marché test simulé, produit de segmentation et de positionnement de marque, le groupe entre sur les MTS. Les marchés tests ont toujours été un secteur étude important. Mais aujourd'hui, la demande de normes grandit, fait remarquer Amaury de Condé qui s'occupe plus particulièrement du développement de la commercialisation internationale d'Optima II. On note par ailleurs un intérêt constant des clients pour des mesures régulières dans le temps, des trackings. Aux trackings traditionnels publicitaires, s'ajoutent désormais des trackings de marque, de climat interne, de satisfaction qui viennent remplacer ou compléter les baromètres.

La distribution aussi


Et, parce que la distribution est une composante à part entière et incontournable du marketing, et que l'ECR se développe, les études portant sur la perception qu'ont les distributeurs des marques et sur les comportements des acteurs de la distribution se multiplient. Au-delà des perceptions des relations avec la concurrence, explique Helen Zeitoun, Dga de GfK France, il faut travailler sur l'identification des leviers des comportements du distributeur vis-à-vis d'une marque. GfK a développé cette approche en France et en Allemagne et la structure désormais au niveau international. C'est l'optimisation au sein du marketing du quatrième P, poursuit-elle. Après Price, Product, Promotion voici Place, c'est-à-dire la distribution. En parallèle des interrogations sur le category management, on retrouve le besoin de replacer le consommateur au sein de la problématique de comportement. Bruno Botton, Dg de RI France, place ici toutes les nouvelles études et outils d'observation dont les carnets de consommation, d'autant plus instructifs qu'on les croise avec des attitudes, ou les études sur la façon dont un consommateur appréhende la catégorie de produit (clustering, natural grouping, par exemple, qui vont au-delà des clivages classiques).

Quand les études se rapprochent de la R&D


Depuis deux à trois ans, nous avons constaté une demande très forte des études adressées au marketing et à la recherche et développement, et même à la R&D avant le marketing, constate Helen Zeitoun qui souligne que cette tendance s'est renforcée depuis 1998. Pourquoi ? Parce que l'innovation est toujours plus fondamentale dans la conquête de parts de marché. Pour GfK, cela s'est traduit par la mise au point de toute une série d'études, de Genius (approche quali itérative de génération d'idées) à l'adaptation d'U&A Navigator en module spécifique pour répondre aux besoins de la R&D et aider à déterminer les bénéfices produit à mettre en avant pour un meilleur impact. Le besoin de développement d'idées et de concepts a donné lieu à toute une génération d'outils et approches, certaines quali (notamment chez GfK, RI, MSM, Démoscopie, Reason Why, Insemma, The Added Value Company avec Idea Generator...), d'autres quanti (Microtest Screen de RI, Ideamap dont l'Ifop a la licence en France), d'autres encore quali-quanti (Spring Board Workshop de The Added Value Company, Market Audit...). Aujourd'hui, les clients ont besoin d'études utiles, utilisables, opérationnelles immédiatement, constate David Taylor, directeur général adjoint de The Added Value Company France. Et parce qu'il faut comprendre, l'intégration du quali au quanti est de plus en plus fréquente alors que la Sémiométrie (Taylor Nelson Sofres) et les courants socio-culturels (CCA, SocioVision, Risc) viennent qualifier le quanti. Les clients ont besoin de comprendre plus vite pour réagir plus vite, ajoute Bruno Botton. Si cette attente ne date pas d'aujourd'hui, elle est devenue encore plus prégnante, ce qui oblige nos sociétés à construire des types d'études qui peuvent répondre à cette attente et apporter un véritable bénéfice client.

Etre plus réactif pour plus de valeur ajoutée


Pour aider le client à être plus réactif, les sociétés d'études commencent à comprendre qu'il faut aller au-delà des études. Le problème n'est pas la quantité de données - elles ne manquent pas -, constate Michel Jambu, expert en analyse de données et systèmes d'information à la Direction scientifique du Cnet-France Télécom, qui vient de publier deux ouvrages sur le data mining (1). Par contre, c'est dans le bon usage des traitements appliqués aux données que les responsables marketing trouveront des éléments de connaissance qualifiée qui leur permettront du faire du marketing sur mesure. C'est dans cette logique que le data mining intervient comme ensemble des traitements opérables sur des données préalablement choisies en fonction d'un objectif bien déterminé. On a donc, d'un côté, les données issues d'enquêtes et études et de l'autre des bases de données commerciales. Il s'agit désormais de relier les deux pour dire pourquoi et comment. Le mariage data mining et études de typologies ou de comportement est l'étude marketing opérationnelle des années 2000, fait remarquer Elisabeth Martine-Cosnefroy, directrice du développement et directrice marketing des Services de l'Ifop. Tous les instituts n'ont pas fait cette conversion, loin s'en faut, même si un certain nombre s'interroge et commence à comprendre que l'avenir est là. Déjà, le groupe Taylor Nelson Sofres développe une application d'analyse des données et de reporting, MIRIAD (Managed Integrated Research Information and Database), un système capable d'intégrer des données consommateurs relevés à fréquences régulières à d'autres données (vente, données économiques, investissements publicitaires...). Pour les instituts d'études, parce qu'il faut être toujours plus opérationnel, il faut s'inscrire dans le conseil et l'accompagnement d'action, souligne Elisabeth Martine-Cosnefroy. Et le data mining en fait partie. Le data mining, c'est la valorisation de données à forte plus value, explique Michel Jambu. Il faut investir sur le savoir qui est aujourd'hui le seul avantage compétitif. Maîtriser la qualité des données devient également un enjeu dans l'écoute et la connaissance des clients. La qualité de la décision dépend donc directement de la qualité des données et de la capacité des outils de data mining à mettre en oeuvre ces mêmes données. C'est une opportunité pour les sociétés d'études. Leur rôle sort amplifié par les nouvelles technologies, estime Michel Jambu. On entre dans une nouvelle génération.

L'apport des nouvelles technologies


Si le data mining est rendu possible, c'est bien grâce aux progrès de l'informatique. Depuis quelques années d'ailleurs, le monde des études est l'un des meilleurs clients des nouvelles technologies. Elles ont permis la ré-exploitation des outils existants comme, par exemple, le nouveau travail effectué sur les études U&A. On revisite le savoir-faire en apportant de la valeur ajoutée à tous les stades des études, constate Bruno Botton : qualité du recueil, compréhension de la problématique client, vision plus transversale... Les technologies ont permis d'améliorer l'existant notamment dans le recueil de l'information : CATI, CAPI, CAPI multimédia, CAWI, ATI, autant de nouvelles techniques d'interview assurant plus de rapidité, plus de qualité, plus de fonctionnalité à des coûts sinon moindres, du moins sans inflation. De plus en plus souvent, les sociétés d'études donnent aux clients un logiciel dédié d'exploitation pour leur permettre de travailler sur les résultats. Une démarche que l'on retrouve d'ailleurs très clairement au niveau des grands fournisseurs de données que sont les sociétés de panels. Avec Ideamap, le travail commence avec la remise des résultats, aime à dire Elisabeth Martine-Cosnefroy. L'émergence d'Internet comme nouvel outil de recueil de données apporte aussi des possibilités en attendant la télévision interactive. Parallèlement, les nouvelles technologies vont se mettre au service de l'analyse des verbatim, des lettres de réclamation... Mais la technologie intervient aussi à d'autres niveaux et permet de nouvelles approches : utilisation de la réalité virtuelle pour les tests de packs, les simulations de linéaires (RI, Ifop, Consultest, MCA...). La technologie est au point, estime Bruno Botton. Aujourd'hui, c'est la créativité méthodologique qui doit utiliser la technologie. Autre impact : la technologie a modifié la façon de présenter et de restituer les résultats des études et les rendre, par exemple, plus interactifs : résultats sous forme de bases de données propres au client, CD-Rom, Internet... ; présentation avec micro-ordinateur, intégration de films vidéo (images), de verbatim (son) ; possibilité de fractionner les résultats et d'adapter la présentation au public spécifique chez le client (Dg, marketing, R&D, forces de vente, agence de communication...). La valorisation des résultats amène certaines sociétés, comme The Added Value Company, à faire travailler une agence de design pour visualiser, par exemple, les typologies (portraits, visuels de gens, de leur vie...). Pour un faible coût additionnel, les résultats sont plus performants et génèrent de la croissance, estime David Taylor.

Vers le partenariat client/institut


L'Intranet offre, encore, de nouvelles possibilités en facilitant l'appropriation des résultats d'études tout en réduisant les coûts (rapports papier...). Le service Satisfaction Clientèle d'EDF a choisi cette solution pour diffuser les résultats de ses enquêtes de satisfaction clientèle à ses 102 centres, 300 agences réparties sur neuf régions. Tous les trimestres, jusqu'ici, c'était 1 000 rapports de 50 pages soit 1,5 tonne de papier, souligne Jean Ricard, responsable Enquêtes Satisfaction Clientèle d'EDF/GDF qui a confié la réalisation du projet Intranet à Stetson. En année 2, une fois amorti l'investissement initial, nous réaliserons des économies de coûts (rapports papier) tout en fournissant des données plus riches plus rapidement. Les résultats parviennent aux agents avec deux semaines d'avance sur les rapports papier, par exemple. Autre avantage, avec le logiciel Media de Speedware, l'Intranet devient un outil de data mining permettant de réaliser des tableaux de bord sur mesure. Mais toutes ces évolutions ont un coût que les sociétés d'études doivent supporter. Ce sont des investissements informatiques considérables, en hard comme en soft, sans oublier la compatibilité entre les sociétés d'un même groupe ou réseau. D'autant plus considérables que ces équipements sont rapidement obsolètes et qu'il faut se tenir à la pointe de l'art dans ce domaine. Les sociétés d'études sont conscientes de l'effort à consentir. Pour se différencier au niveau mondial, commente Bruno Botton. Pour renforcer la valeur du métier, souligne Helen Zeitoun. Un métier qui se dirige également vers plus de consulting ; ce qui change la relation avec le client pour l'amener vers plus de partenariat. La modification des structures études au sein des grands groupes internationaux (Procter & Gamble a changé, pour le réduire, son département études au niveau mondial) renforce le besoin en consulting de ces derniers. Les sociétés d'études auront un rôle de plus en plus stratégique à jouer auprès des directions générales et des directions marketing, conclut Helen Zeitoun. (1) Introduction au data mining, analyse intelligente des données et Méthode de base de l'analyse de données chez Eyrolles.

Ce qu'est le data mining, ce qu'il n'est pas par Michel Jambu (Cnet-France Télécom)


Le data mining que l'on pourrait traduire par "creuser les données" comme on creuse les mines de charbon est un "processus d'analyse fine et intelligente des données détaillées, processus itératif et interactif permettant aux managers du marketing ou du Support Client de prendre des décisions et de mettre en place des actions sur la base d'informations analysées et synthétisée". a) Data mining n'est ni datawarehousing ni système d'information. Information n'est pas informatique. Gestion de l'information n'est pas exploitation de l'information et accéder à l'information au moyen de logiciels de type E.L.S. ne permet pas de répondre aux problèmes de connaissance fine et individualisée des clients. b) Le data mining opère plus volontiers sur les données détaillées que sur les données agrégées. Les données agrégées sont un piège pour le manager du marketing qui croit accéder à une synthèse des données alors qu'il ne fait que mutiler les données et ne tient plus compte de leur diversité et de leur complexité. Cette pratique de l'agrégation abusive résiste au temps alors que depuis l'avènement de l'ordinateur elle n'est pas souvent utilisée ni justifiée. Il sera toujours temps d'agréger les données quand cela sera nécessaire alors que perdre l'accès aux données détaillées sera dommageable pour l'accès à la connaissance du client. c) Le data mining est un processus d'acquisition progressif des connaissances et non pas une méthode miracle qui fait croire que l'on peut trouver des solutions à ces problèmes sans investigations approfondies guidées par les interrogations de l'utilisateur de données. Les technologies de data mining sont certes indispensables à ces investigations, elles sont loin d'être suffisantes. C'est l'intelligence de l'utilisateur (le manager marketing ou du Service Client) qui produit la valeur de l'information au moyen de ces technologies. d) Le data mining n'est pas une nouveauté technologique. L'un des premiers "data miner" fut le pharaon qui, voulant fixer le montant de l'impôt, avait fait construire au bord du Nil des nilomètres, qui permettaient de mesurer la hauteur de crue et corrélativement (data mining) d'en déduire le montant de la récolte donc de fixer le montant de l'impôt. De nos jours, la quasi-totalité des techniques mathématiques sont disponibles sous forme de progiciels utilisables sur micro-ordinateurs. Il n'y a donc aucun obstacle majeur à leur usage, sinon d'en connaître leur domaine d'utilisation et la manière de les utiliser dans les cas les plus concrets. C'est un problème de formation, de savoir-faire et non de technologies.

ANIKA MICHALOWSKA

Autres articles

Agnès b.: un air de Paris à Hong Kong!
Agnès b.: un air de Paris à Hong Kong! Agnès b.: un air de Paris à Hong Kong!

Agnès b.: un air de Paris à Hong Kong!

Par

Alors qu en France la marque est plutot discrete Hong Kong rien voir Ses boutiques de vetements sont nombreuses mais aussi les cafes brandes [...]

[Étude] Les Français toujours accros au shopping
[Étude] Les Français toujours accros au shopping

[Étude] Les Français toujours accros au shopping

Par

Les Francais plebiscitent toujours autant le shopping et sont de plus en plus adeptes des nouveaux services et innovations selon etude de Hammerson [...]

Avec GeoMatch, CSA fait dans le micro-local
Avec GeoMatch, CSA fait dans le micro-local

Avec GeoMatch, CSA fait dans le micro-local

Par

institut etudes deploie une nouvelle offre de test offres et de concepts geolocalises l echelle de la plus petite division locale statistique [...]