Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

30 novembre 2010

Le nouvel âge de la relation client

Une interview que m'a accordée Thierry Spencer autour des "nouvelles formes de dialogue et d'interaction avec les clients, Thierry est auteur du blog www.sensduclient.com et co-fondateur du site www.testntrust.com,

12:09 Écrit par Denis Henri Failly dans Marketing, Medias sociaux, Web 2, TIC | Lien permanent | Commentaires (1) | Tags : thierry spencer, age du client, client, crm, relation client, conversation, denis failly | |  Facebook | | Pin it! |  Imprimer | | |

28 juin 2007

Relation client

Quelques vidéos repérées sur Laser TV autour de la Relation Client :

L'Expérience Client
Philippe Lemoine, PDG LaSer


Customer Continuity Connexion
par Jean Yves Granger, Directeur Prospective, Coordination Marketing et Commerciale - LaSer

 


18:30 Écrit par Denis Henri Failly dans Marketing | Lien permanent | Commentaires (2) | Tags : Laser, philippe lemoine, crm, relation client, expérience client | |  Facebook | | Pin it! |  Imprimer | | |

23 avril 2007

Petite histoire de Base (Crm et gestion de données)

Article que j'ai publié précédemment sur visionarymarketing téléchargeable aussi ici en pdf


1- Genèse et balbutiements
2- Un enrichissement gradué
3- Promesses et vertiges
4- Audience de la mesure et mesure d'audience
5- Les missions du gestionnaire de la Base de Données
6- De la donnée vers la connaissance
7- La collecte en ligne de données, une question d’alibis
8- Du sociostyle au webstyle



1 - Genèse et balbutiements

C’était pendant la pénultième année du siècle dernier, une base de données de quelques gigas octets paramétrée et construite de façon simple autour du client par et pour les utilisateurs internes en charge de la connaissance client. Le site dit communautaire (déjà !)medium_LOU.gif au nom de friandise (vous avez deviné ?) avait pour vocation d’offrir moult fonctionnalités de communications dont le Web mail. De jour en jour de mois en mois à la bourse de la valeur d’un site c’était le nombre d’internautes et le trafic (pages vues...) qui importaient, la fameuse masse critique, aujourd’hui on parle enfin de taux de transformation. Il fallait donc être apte à fournir plus qu’une idée du volume de vos ID (identifiants par abonnés) en base de données. Chacun y allait de son petit formulaire d’inscription par mimétisme, plagiat pur et simple (sur certains items ou formulations spécifiques d’items), d’autres plus aptes à se projeter se disaient sans doute « engrangeons toutes données même les plus privatives ou les plus inutiles, on ne sait jamais, cela peut toujours servir !».

Ainsi donc commença une «datagenèse » une préhistoire de la donnée Web qui n’était pas de la connaissance client, rappelons-le.


2 - Un enrichissement gradué

Les données sociodémographiques de base qualifiaient sur une base minimaliste les membres de notre site qui dans sa vocation de Webmailer nécessitait un « sign-up ». Tris à plats tris croisés permettaient ainsi d’extraire des états statistiques descriptifs à vocation panoramique (les grandes données clés diffusables en interne, à la presse et en première intention aux annonceurs). Mais un premier saut qualitatif se fit jour quand les sites, dont le nôtre commencèrent à s’intéresser aux centres d’intérêts « hors site » des internautes.


A cette période beaucoup de ces questionnaires étaient soit mal formulés (catégories « valises » des items a cocher, trop étroites ou trop larges) soit trop longs (donc dissuasifs pour l’internaute nouvel entrant) soit réduits au stricte minimum (log in, mot de passe) et donc frustrant pour l’analyse de données. Se posait donc alors au chargé d’études Web un tant soit peu curieux et rigoureux une véritable problématique du questionnaire d’inscription. Ce souci et cet art du questionnaire sont encore d’actualité puisque sur certains sites (e-recrutement et Cvthèques par exemple), l’hétérogénéité persiste d’un site à l’autre.

En effet sur nombre de ces sites on constate trop souvent au niveau des items des questionnaires :

Des confusions entre secteurs, métiers et fonctions, des référentiels différents,
Une absence dans les sélections de certains « nouveaux métiers » (type Km, dataminer...),
Une impossibilité de sélections multiples dans certains choix (assez frustrant).
Ici comme ailleurs on peut donc parfois s’interroger sur la communication inter-services qui préside à la conception « amont » de certaines bases de données en terme d’inputs notamment. La fameuse « inculture » organique et le cloisonnement intra-organisation encore et toujours …


3 - Promesses et vertiges

A cette époque la cyber-évangélisation happe frénétiquement nombres d’annonceurs. Le cyberespace enfante et s’enfante lui même (autopoïèse [1] ) prolifère de façon exponentiel faisant se côtoyer créativité, arnaque, le tout et n’importe quoi, mais aussi les germes prometteurs de sites encore viables aujourd’hui. Naturellement un certain nombre de fondamentaux en management, marketing, finance, logistique, passe à la trappe et des concepts émergent ou sont réappropriés et réinvestis d’une nouvelle identité fructueuse pour nombre de prestataires et autres gourous (exemple le « one to one [2] »). Et chacun connaît la suite de la transition de la bulle à la baudruche Internet, où certains voulant oublier où se faire oublier ont brûlé rapidement certaines idoles adorées hier.


4 - Audience de la mesure et mesure d'audience

Concernant la mesure d’audience Internet, le CESP [3] entame l’audit de certains logiciels de mesures (« site-centric » et user-centric » [4] ) et délivre par ailleurs une terminologie officielle des indicateurs d’audience (visite, visiteurs...). Plus tard, en 2002, face au développement de formats d’espaces publicitaires de plus en plus interactifs (Rich-media) l’IAB [5] en définit les standards et entame l’étude NetImpact II [6] sur l’efficacité publicitaire.

Quant aux organismes d’études spécialisées ainsi que les régies d’achats d’espaces publicitaires, ils collaborent pour s’accorder sur de nouvelles définitions ou extensions de définitions (Bêta de mémorisation [7] par Carat, notion de GRP [8] Internet plus récemment) communes et acceptées par tous. En clair, l’émergence d’une certaine rationalisation par les méthodes (réimposer des fondamentaux) permet de lutter contre l’entropie [9] d’un système à la complexité croissante. Ainsi donc cette âge de l’accès et de l’excès a engendré une multiplication des interactions et des processus qui les portaient.

Les prémisses de l’ADSL haut débit (enfin ce qu’on appelait haut débit en France en regard de la Corée du Sud, comme quoi tout est relatif ; notons cependant que l'offre d’aujourd’hui tend à se mettre à la hauteur de nos ambitions, voire même à les dépasser), les possibilités d’interactions et de rétroactions (feedback temps réel de services personnalisés en CRM) avec les internautes sont à ce moment là encore pauvres (malgré quelques applications en B to B type Web call-back). Ce qui signifie que certaines données plus qualitatives, potentiellement « historisables [10] » ne sont pas intégrées dans les bases de données clients dès lors orientées « volume » et non « valeur », mais encore eût-il fallu que les outils existent ou qu’ils soient accessibles (coût et dimensionnement).


5 - Les missions du gestionnaire de la Base de Données

Ainsi, les premières briques de notre « méga base » nous permettaient :

- Le croisement et la consolidation et de données pour sortir de nouveaux agrégats calculés (données trafic et
données internautes),
- La diffusion de tableaux de bords et de « profiling [11]» mensuels en terme de trafic et d’usage du site,
- Le ciblage (via une interface ad hoc) pour le compte des régies publicitaires,
- Des études dites « flash » synthétiques sur des segments d’internautes eu égard à leur(s) centre(s) d’intérêts,
- Une mini R & D local, qui m’ont permis de tester quelques indicateurs (notion d’élasticité page vue / visite selon
un modèle behavioriste stimulus / réponse).

La notoriété de notre site, le trafic engendré, l’effet volume (plusieurs millions d’abonnés) aiguisaient naturellement l’appétit de prestataires de données qui se seraient bien vu racheter notre base. Au lieu de se précipiter peut-être auraient-ils dû s’interroger sur ce que représentaient véritablement le nombre d’internautes réellement actifs sur le site plutôt que de compter un nombre d’identifiants dans une base de données, qui le temps faisant, appelaient naturellement des actualisations (nettoyage, dédoublonnage, suppression compte inactifs, etc.).
Mais note base, véritable gisement, n’était pas à vendre.


6 - De la donnée vers la connaissance

Par ailleurs, à un volume de données croissant en quantité et en qualité, devait correspondre une architecture logicielle idoine et justement dimensionnée. Ainsi je commençais à être pris par le « mining spirit ». Invité à Londres par la société SPSS (qui diffuse les applications logicielles du même nom en statistiques et datamining), je pris conscience au vu des exposés applicatifs faits par les intervenants (secteur bancaires, aérien, distribution) de la puissance potentielle de ces outils.

 Comment extraire des pépites de connaissance (« nuggets ») à partir de l’information client. Comment fouiller, « forer » véritablement les données (sens étymologique du mot datamining) pour essayer de détecter selon le cas des régularités, des associations, des relations ou des dimensions cachées au sein du gisement de données de la base ?
Notre méga base était un embryon de data-warehouse qui s’ignorait, et j’entrais pendant quelques temps dans l’ivresse des algorithmes d’apprentissage (réseaux neuronaux, cartes de Kohonen [13] ) de classification [K-means [14] , etc.] pour « torturer » et faire parler mes données à des fins de marketing prédictif par exemple.

L’objectif eût été à terme non plus de travailler sur les membres d’une communauté utilisatrice de fonctionnalités gratuites (Chat, Webmail) mais sur de vrais clients dans le cadre d’une offre « monétisée» :

- Prévention de l’attrition client (churn),
- Développement de ventes croisées (up-selling) avec nos partenaires commerciaux,
- Personnalisation de programmes relationnels (Loyalty program...),
- Exploitation / optimisation du multicanal (Webmail, web, SMS…),
- Mesure et optimisation de la rentabilité (ROI) des actions marketing (emailing, e-pub.

Je me rendis vite compte que s’il n’existait pas un véritable projet datamining, une pensée de la connaissance client, comprise, portée et expliquée aux utilisateurs par des dirigeants convaincus et convaincants, tout cela demeurerait très expérimental et n’avancerait pas. N’oublions pas que le recours aux algorithmes et aux fonctionnalités des logiciels n’est pas une fin en soi et qu’il existe un cercle vertueux du datamining :

- Identifier le domaine d’étude (Objectifs de la recherche),
- Préparer les données (70 % du temps passé),
- Agir sur la base de données (techniques et algorithmes),
- Evaluer les actions et optimiser (récursivité).

La démarche est incrémentale, itérative et récursive permettant d’affiner et d’ajuster progressivement le système. Quant à la préparation des données elle est naturellement chronophage car très logiquement déterminante :

- Codage, format et cohérence des données en amont (référentiel, dictionnaire),
- Données manquantes (suppression ? Regroupement ? Substitution ?),
- Combinaison de variables, variables précalculées, etc.


On comprend donc pourquoi la notion de projet prenait tout son sens et nécessitait à mon sens une forte mobilisation à moyen et long terme, notion quelque peu mise de côté en ces années de vision « court-termiste » et de pratiques opportunistes que l’on pourrait décrire comme du « surfing management ».C’est ainsi que nous utilisâmes une solution logicielle au nom fruité [15] pour faire tourner nos fameux algorithmes, l’application nous était gracieusement prêtée à l’essai mais se révéla pour nos décideurs quelque peu surdimensionnée eu égard à nos besoins (ce qui n’était pas ma conviction en dehors des problèmes de coûts). Au delà de l’outil qui peut être ou ne pas être convaincant selon des critères très factuels et rationnels (coût, performance, technicité...) on réalise qu’il y à là un véritable problème, presque épistémologique de « connaissance de la connaissance », voire de culture et de vision distanciée pour « penser » encore une fois « la connaissance client ».

Mon doux rêve de franchir une étape supplémentaire demeura donc à l’état de « Data Workshop ».


7 - La collecte en ligne de données, une question d’alibis

Les données déclaratives des internautes qui s’inscrivent sur un site deviennent pour certaines variables rapidement obsolètes pour peu qu’on ne les actualise pas et qu’on n’en vérifie pas la pertinence. De plus les données les plus dynamiques et porteuses de sens demeurent les données comportementales.

Elles peuvent faire l'objet d'indicateurs (non exhaustifs) dont l'utilité varie selon les sites (sites de collecte de données marketing, sites d'e-commerce, sites Corporate, etc.) , dont l'objet est aussi de corriger les dysfonctionnements du site.

Ce n'était pas forcément la priorité, trois ou quatre chiffres de bases intéressaient les décideurs, ceux qui permettaient de se comparer aux concurrents, de s'auto-contempler dans les « clic parades » officiels, de communiquer dans la presse spécialisée, etc. Il s'agissait de faire du chiffre point.

On imagine donc combien les enseignements issus des comportements clients passaient inaperçus et pourtant les quelques indicateurs suivants étaient déjà riches d'enseignements :

- Origine de la visite (sites partenaires, moteurs/annuaires, clics sur e-pub, campagne emailing, …),
- Type de pages vues, zones visitées (notion de zones chaudes, zones froides comme en distribution, zone de
décrochage, …),
- Exhaustivité de la visite (nombre pages vues / nombre total de pages), couverture (zones thématiques ou
rubriques visitées/total rubriques),
- Récence (dernière visite), fréquence des visites, montants en volume (pages visités, temps passé), montants
en valeur (cas des sites transactionnels),
- Taux de transformation ou taux d'abandon sur les sites comprenant des formulaires d'informations ou de
transaction,
- Chemin critique de navigation (l'internaute suit-il un parcours-type et récurrent),
- Tout indicateurs (en valeur absolue, en % et en variation) de statistiques descriptives calculables sur ces
données

Désormais, notamment sur des sites à fort trafic et forte profondeur, le recours à des solutions de Web datamining devient nécessaire, d'autant plus si l'on souhaite croiser les données de profils déclaratifs et de comportements historisés (millions de logs [16] ), modéliser (marketing prédictif, scoring par exemple) et au final extraire des pépites de connaissances clients opérationnelles. Ainsi, à défaut de pouvoir tout avoir et tout faire, je cherchais de nouveaux moyens de collecter et enrichir les profils de nos internautes membres. Il s’agissait alors de trouver des « alibis » de captation d’informations.

En effet diffuser medium_image013.2.jpgun questionnaire long et fastidieux est naturellement dissuasif; nous inventons alors ce que j’appelle le QDP, questionnaire thématique à diffusion progressive, il s’agissait tout simplement de profiter de connexions des internautes identifiés (inscription/identification obligatoire ) pour leur proposer de répondre de façon assez simple et rapide à une question thématique, non pas sous forme de « pop up » volante mais dans un format intégré dans leur interface familière de gestion de leur compte Webmail.

De fil en aiguille, de connexion en connexion sur une période d’un mois on recommence l’opération en essayant constamment de trouver un juste équilibre entre l’efficacité(récupérer une réponse pertinente sur l’internaute) et le caractère non intrusif (parasitage de la navigation) ; il faut donc être à la fois clair, concis et attractif. Progressivement nous arrivons en quelques semaines à récupérer sur plusieurs centaines de milliers de répondants de données tournant autour des thématiques suivantes :

- Pratiques/ usages du web,
- Pratiques Touristiques,
- Pratiques Financières (Banque, organismes de crédits, assurances),
- Pratiques et équipements de sports,
- Habitudes Médias (presse, Tv, radio),
- Equipement TIC,
- Abonnement téléphonie,
- Equipement Automobile,
- Logement Habitation,
- Etc.

Chaque thématique s’inscrit dans une formulation dont l’objet au final est de savoir:

- Qui (unité(s) consommatrice(s)),
- Quoi (produits, services, marques),
- Où (contexte, lieux fréquentés, canaux utilisés),
- Comment (usages spécifiques),
- Combien (taux de possession d’équipements, fréquence, montant),
- Quand (récence et fréquence achat/utilisation),
- Intentions (achat, souscription...à court ou moyen terme).

A noter l’attention toute particulière accordée aux intentions exprimées, comme réservoir de prospection future en marketing direct. Une fois ces données collectées il devenait aisée de créer une interface de sélection affinitaire pour le ciblage annonceurs (e-pub et e-mailing et permission) et on pouvait même « packager des profils types » selon des critères suffisamment saillants.


8 - Du sociostyle au webstyle

Partant d’une hypothèse tout à fait discutable que les modes de vie réels, les opinions, pouvaient impacter (et non pas expliquer) les comportements « virtuels » nous entreprîmes de portraitiser nos internautes ; qu’est ce à dire ?

Il s’agissait tout simplement de présenter à l’internaute des affirmations, jugements ou opinions sur lesquelles il devait s’exprimer en choisissant celles qui lui correspondaient le mieux.

Ces questions étaient liées aux valeurs, aux imaginaires et aux rapports entretenus dans divers domaines de la vie quotidienne (loisirs, technologies, les autres, la famille, l’argent. Le travail...). Evidemment en amont de ces questionnaires, avaient été définis des portraits types, représentés (pour le coté « fun ») par des figures emblématiques célèbres (personnages, acteurs, chanteurs...) susceptibles de « parler » à nos cibles répondantes (dont la majorité avait entre 15 et 30 ans).

Il y eut, de mémoire medium_image015_copy.jpgplus de 250 000 répondants en quelques semaines et nous parvenions dès lors à dégager quelques grands segments qualitatifs au sein desquels nous pouvions répartir nos internautes. Voila une petite histoire de base, béaba de la data qui montre modestement à nombre de PME comment on peut avec un peu de bon sens, générer de la connaissance client sans céder forcément aux sirènes des solutions toutes faites parfois lourdes et inabordables. A l’inverse se lancer dans une démarche datamining ne s’improvise pas et relève d’un véritable projet. Connaître plus et mieux ses clients est en soi un véritable projet d’entreprise avec des méthodes, des compétences, des applications et des coûts.
Le tout est de savoir ce que l’on veut faire, et surtout ce que l’on cherche.
 
 

Denis FAILLY



[1] « L'autopoïèse est le modèle d'organisation d'un réseau dans lequel chaque composant doit participer à la production ou à la transformation des autres. Certains de ces composants forment une frontière ou clôture opérationnelle, qui circonscrit le réseau de transformations tout en continuant de participer à son autoproduction. » (Source L’encyclopédie de l’Agora (http://agora.qc.ca/mot.nsf/Dossiers/Autopoiese)

[2] The One to One Manager: Real-World Lessons in Customer Relationship Management by Don Peppers, Martha Rogers http://www.amazon.com/exec/obidos/tg/detail/-/0385494084/002-4952669-3431218?v=glance . Le site Web de Peppers & Rogers se trouve à l’adresse: http://www.1to1.com.

[3] Le CESP (Centre d’Etudes des Supports de Publicité) est un organisme chargé de l’audit et du contrôle des études d’audiences des médias en france, http://www.csp.org

[4] Soit en Français, mesure par le site ou mesure par l’utilisateur.

[5] IAB: « Créé en 1998, l’IAB compte à ce jour 100 sociétés membres. La mission de l'IAB est triple : 1) structurer le marché de la communication sur Internet, 2) favoriser son usage et optimiser son efficacité, 3) L'IAB c'est également un réseau d'experts au service des autres organisations professionnelles, des institutions et des médias qui s'interrogent sur l'impact du développement de cette nouvelle donne économique ». Informations issues du site de l’IAB à l’adresse : http://www.iabfrance.com/home/home.asp

[6] NetImpact 2 : disponible sur le site de l’IAB : http://www.iabfrance.com/travaux/netimpact.asp

[7] Le Bêta de mémorisation est la probabilité qu’un individu exposé une fois à un message publicitaire le mémorise, voir l’article http://www.journaldunet.com/0210/021001pub.shtml

[8] « GRP (Gross Rating Point) ou Point de Couverture Brute : Indice de pression d’une campagne publicitaire sur une cible définie. Il s’agit du nombre moyen de contacts d’une campagne publicitaire rapporté à 100 personnes de la cible étudiée. Plus précisément, le GRP est calculé à l’aide de la formule suivante: taux de couverture (ou taux de pénétration) multiplié par la répétition moyenne. Exemple : Un site touche 18,6% des femmes entre 18 et 49 ans. Si cette population cible a l’occasion de voir deux fois un message publicitaire (fréquence moyenne de répétition de la publicité sur le site de 2), on obtient un GRP de 18,6 x 2 = 37,2 ». Source : Encyclopédie e-business du Journal du Net à l’adresse http://www.journaldunet.com/encyclopedie/definition/445/33/21/grp.shtml.

[9] Entropie : « Grandeur thermodynamique exprimant le degré de désordre de la matière ». Source : http://atilf.atilf.fr/ le Trésor de la Langue française informatisé.

[10] Barbarisme souvent utilisé en gestion de base de données et en informatique, désignant toute action pouvant donner lieu à un historique (alias historisation). Gageons que, ce terme ayant une signification particulière dans un contexte professionnel, on puisse un jour l’ajouter à notre dictionnaire.

[11] Alias « Profilage »

[12] http://visionarymarketing.com/articles/internetsearch2003.html

[13] Voir sur http://www.web-datamining.net, à la page http://www.web-datamining.net/publications/dossiers/neural/sasiml.asp

[14] Pour les spécialistes et inconditionnels du jargon quantitatif http://www.fas.umontreal.ca/BIOL/Casgrain/fr/labo/R/v3/description/kmeans.html

[15] Clémentine de SPSS, NDLR (voir http://www.spss.com/fr/Produits_Solutions/Detail_Clementine.htm pour plus de détails sur cette offre de ce célèbre éditeur de logiciels Marketing.

[16] Terme technique désignant les traces laissées par une activité sur un ordinateur, serveur, applicatif, site Web, etc. Habituellement traduit en Français par l’expression « fichier journal ». Il s’agit ici de la trace des visiteurs d’un site Web.




21:40 Écrit par Denis Henri Failly dans Marketing | Lien permanent | Commentaires (0) | Tags : datamining, crm, denis failly, marketing, base de données | |  Facebook | | Pin it! |  Imprimer | | |

21 mars 2007

Le principe de segmentation marketing à t-il encore un sens ?

Publié sur le Journal du Management le 27 juillet 2005

Ecoutez en Mp3


Du macroscosme au « mésocosme » client

A l’instar de la physique qui par changement d’échelle ajuste sa focale, du regard « Macro » (le macroscope, le visible ) au « micro » (l’invisible, au cœur du noyau atomique) la segmentation marketing suit un processus métaphoriquement comparable. Il s’agit de découper son marché, sa population de client pour descendre du global au local.
Le graal, la particule élémentaire du Marketer serait de pouvoir décortiquer chaque individu – client (profil, actions, intentions…) pour agir en réel mode One to One. Devant l’impossibilité matérielle et financièrement non rentable d’une telle démarche, sur des volumes de plus en plus énormes de clients, la limite plancher d’aggrégation est bien souvent le segment (niveau intermédiaire « méso » qui serait à l’image du regard au niveau moléculaire du scientifique).
Identifiable, manipulable, exploitable (nécessité d’un minimum d’individus par segments) la segmentation permet ainsi de créer des répartitions, des groupes d’individus de telle manière que les unités au sein d’un même groupe soient les plus semblables (homogénëité intra) entre elles et les plus dissemblables d’un groupe à l’autre (hétérogénëité inter).
A partir de ce principe de base, moult méthodes intégrées dans des applications Crm et Datamining permettent via la statistique classique ou des algorythmes plus avancés (application Crm et Datamining…) de « partitionner » ses clients.


Divisez sans relier n’est pas connaître

La pratique de la segmentation nous rappelle étrangement un des principes de la rhétorique cartésienne pour laquelle l’analyse (du grec analusis = décomposition, la lyse en biochimie = coupure, séparation) consiste à découper l’objet d’étude en autant de parties élementaires séparées les unes des autres pour avoir connaîssance du tout.
On constate déjà dans ce principe la volonté de disjoindre et de cloisonner (non transversalité).
En analyse de base de données, le marketing fait donc appel pour décider et agir à des méthodes de découpage, de compartimentation issues de sciences « académiques » dites exactes. On peut donc s’interroger à l’heure d’une réthorique Marketing qui se prétend hautement relationnelle, sur la légitimité d’un quantitativisme qui, utilisé à l’excès, réduirait de fait le « sujet - client» à un seul objet de dénombrement.
Ce réductionnisme ampute naturellement la connaissance du client dans sa constitution multidimensionnelle, sa définition complexe et psycho-sociologique.


Un marketing en recomposition

Ce constat est d’ailleurs à rapprocher des pratiques alternatives du Marketing (street marketing, marketing expèrientiel, intermédiation C to C…) qui est à la mesure de l’insensibilisation croissante des clients et notamment des plus jeunes aux « mécaniques » classiques de marketing et de communication.
Ce « néo » marketing à visage humain (H to H : Human to Human) en émergence devient « in vivo » en se recentrant sur la vie réelle, le mouvement, l’affect, l’émotion, le sens.


L’assise scientifique d’une connaissance

D’Aristote à Auguste Comte en passant par Descartes nous gardons ancré en nous l’héritage (formatage ?) des critères de la scientificité d’une connaissance :

  • Hypothèse ontologique : les phénomènes connaissables ont une réalité extérieur à l’observateur
  • Hypothèse déterministe : principe de causalité et invariance des lois auxquels sont assujettis les phénomènes
  • Réductionnisme : diviser en autant de parties qu’il se peut
  • Principe de raison suffisante (logique déductive): exemple du syllogisme qui fonde une conclusion sur deux propositions posées comme vraies (tous les hommes sont mortels, or Socrate est un homme, donc Socrate est mortel).

Ces oukases de la scientificité ne sont plus gravés dans le marbre, au vu de l’évolution de certaines sciences (physique quantique, sciences du chaos et des systèmes non linéaires et complexes…). Mais les sciences dites de gestion, par nécessité d’être reconnues dans l’arbre « reconnaissant » des connaissances officielles et certainement non contente d’être qualifiées stupidement de sciences molles, ont adopté, emprunté des méthodologies scientifiques (la cybernétique étant aussi passée par là).

Naturellement les sciences de gestion ont contaminé l‘ensemble des disciplines s’y rattachant avec des méthodes aux fondements scientifiques (mathématiques de la décision, statistiques, recherche opérationnelles, modèles d’optimisation…).
Le Marketing, « inter ou trans-discipline » par excellence, n’avait donc aucune raison d’être épargné par « cet emprunt scientifique » tant et si bien que le Client a été intégré progressivement comme objet de connaissance.

Ainsi donc aujourd’hui ce même client enregistré en base ou en entrepôt de données est traité par les « Crmistes » comme une ontologie c’est à dire, un objet de la nature, une donnée « à priori », extèrieure à son observateur.
Cette perspective reviendrait donc à dire que le client existerait indépendemment de la représentation que nous en avons et surtout indépendamment de l’observateur (marketer, analyste de données).


De la segmentation à la défragmentation

Le regard sociologique (post ou hypermoderne) s’attache moins à l’individu (in-divisible) comme singularité, qu’à la personne (du latin personna = masque) multi - appartenante à des communautés, des « galaxies » virtuelles ou réelles, des « micro-sociétés » liquides, instables, mouvantes. La nouvelle logique de groupement serait donc inversée, moins réductrice que la segmentation puisque il s’agirait de recomposer, de « relier » au lieu de « délier ». Bref une vision plus de l’ordre du « champs » (au sens de la Physique), du « maillage clients» éphémère, flou et souple, voir même de l’Attracteur étrange (cf théorie du chaos). Cette vision ne ferait plus du client un simple Objet clos du « connaître », mais un vrai Projet de connaissance ouverte.


Denis FAILLY

01:05 Écrit par Denis Henri Failly dans Marketing | Lien permanent | Commentaires (0) | Tags : Marketing, marketing, post modernité, compexité, web 2.0, client, crm | |  Facebook | | Pin it! |  Imprimer | | |

01 janvier 2007

Réflexion Marketing

Mes articles (parus sur Journal du Net, Neteconomie, VisionnaryMarketing, prospective foresight, FrenchWeb...)

"L'approche 2.0 comme prélude ou prétexte à un "Self Marketing"

"La Marketronique pour survivre sur les marchés de l’attention et en économie de la capture"

"Le principe de segmentation marketing a-t-il encore un sens ?"

"De l'usage de la métaphore au service de la connaissance client"

"Du B2C au H2H"

"Perspective(s) d'une Prospective client"

"Future prospects for marketing prospective"

"Etes - vous un Sujet Réticulaire Persistant (SRP)

"Objets Intelligents Non Identifiés"

"Marketing et Mémétique"

"Petite histoire de Base" (en 3 parties)

19:40 Écrit par Denis Henri Failly dans Marketing | Lien permanent | Commentaires (0) | Tags : failly, articles marketing, web2.0, crm, connaissance client, études, épistémologie | |  Facebook | | Pin it! |  Imprimer | | |

07 septembre 2006

De l'usage de la métaphore pour penser la connaissance client

Une de mes premiers articles publié en juillet 2003 sur Neteconomie

Sommaire

I - Introduction : du sens de la métaphore
II - Le chaos qui met k.o.
III - Le cantique du quantique
IV - Théorie des catastrophes : La rupture à consommer
V - Perspectives





I - Introduction : du sens de la métaphore

Pensée complexe, transversalités, approche organique et cellulaire des organisations et des processus, postmodernité…, sont les constituants d’une « épistémè » qui peut nous éclairer sur les changements de paradigmes qu’appelle la navigation en environnement incertain.

Pour les boussoles de l’entreprise (décideurs, prospectivistes, Responsables d’études…) ces approches à priori plus « spirituelles » qu’applicatives peuvent être des aides à la réflexion, à la distanciation parfois, des amortisseurs de rupture, des catalyseurs d’anticipation.
L’ hyper - information, l’interactivité, le changement permanent au sein des structures, des processus, des acteurs, des rapports à l’autre et au monde rappellent, nous semble t-il, l’impérieuse nécessité de faire émerger du sens, de l’intelligence, de l’audace dans nos analyses, nos recommandations, nos actions, en un mot : nos pratiques.

La Métaphore - une sorte de « benchmarking » qui s’écoute rai(ré)sonner) inspirée des théories scientifiques peut - être une aide riche d’enseignements pour « penser la pensée complexe », sortir des raisonnements binaires et linéaires et peut-être aussi d’un certain déterminisme parfois obtus car dogmatique :

il s’agit de donner et se donner matière à penser.

Comprendre les contours, cerner les images projetées, pour établir des parallèles entre les représentations propre à des univers « à priori » différents (imaginaire de l’homme de sciences / imaginaire de l’homme de marketing) me paraît fructueux.
Evidemment il ne s’agit pas d’en user avec excès, ni d’en tirer des conclusions hâtives et définitives.

En nous limitant aux domaines des études marketing et de la connaissance client qui sont les nôtres, nous prendrons trois exemples partiels, théorie du chaos, physique quantique et théorie des catastrophes, qui d’ailleurs se rejoignent sur certains points de l’exercice métaphorique.
Au final ce rapide balayage nous amènera à relativiser certains discours et pratiques dans le domaine de la connaissance client et à tenter de les re-situer dans la perspective plus globale de la post-modernité dont les contenus et les contours influent sur les perceptions, les comportements et leur mesure.



II - Le chaos qui met k.o.

Un système chaotique est un système complexe, fonction de multiples paramètres et dont la singularité est d’être très sensible aux conditions initiales de sa gestation ou de son expression.


La sensibilité critique aux conditions initiales

Une cause très petite, imperceptible, une sensibilité aux conditions initiales (perturbations, variation infime d’un paramètre) peut perturber, voire sur - amplifier un phénomène et le modifier complètement.

L’image poétique, vulgarisatrice et largement médiatisée de « l’effet papillon » nous vient dés lors, à l’esprit.
Dans le domaine du marketing et des études on peut aisément appliquer ce regard métaphorique.
En effet du côté de celui qui mesure ou participe à la mesure (l’observateur, Responsable d’études, enquêteur) d’un phénomène, d’un comportement, il existe des risques de biais que les spécialistes connaissent bien et que nous ne détaillerons pas ici.
Ces biais potentiels sont susceptibles, comme par réaction en chaîne, de limiter la validité interne d’une étude (effet de halo, effet d’ordre, effet de contamination…induits par les questionnaires par exemple).
De plus, les conditions de l’Etude, la disposition d’esprit et d’expression de celui qui questionne et du répondant au moment de la rencontre, de l’interaction (humaine ou artificielle via les technologies), influencent inexorablement même subrepticement, l’orientation de la mesure à toutes les phases (collecte, traitement, analyse, résultats).
C’est donc le « subrepticement », l’imprévu, le non maitrisé ou non maîtrisable, qui peut tout changer et qui s’apparente à la condition initiale de l’effet papillon.

Un effet qui peut mettre K.O. (par le chaos) la moindre prévision.

papillon.jpg




Maintenant du côté de l’Observé, outre les effets pré - cités, on peut facilement envisager des « effets papillons » dans des situations courantes de relations, de fréquentations, de consommations, de transactions, générant par exemple des effets d’expériences, de perceptions positives ou négatives (polarités) et donc des réactions idoines (mauvaise image perçue entrainant zapping, infidélité…).
Ces réactions peuvent être (sur)-amplifiées selon la qualité de l’interaction vécue (qualité de la relation avec un vendeur, une hot line ou tout autre service prétendant être orienté client…).

Cette première analogie nous rappelle combien l’individu ou groupes d’individus (segments) que l’on étiquette par réductionnisme, sous le vocable de « consommateurs », « clients », « internautes », « mobinautes »…est avant tout un système dynamique, multiple, changeant, imprévisible, en interaction constante, qui façonne le monde et est façonné par lui en retour.
L’homo sapiens est à la fois sapiens, oeconomicus, ludens (joueur), reticulus (réseau, relation), zappens (volatile)
La mesure de la sensibilité du client, son état, sa « vibration » que nous désignons par comportements, attitudes…est bien fonction de la sensibilité de la mesure.



III - Le cantique du quantique

La métaphore inspirée de la physique quantique nous paraît aussi intéressante que la précédente pour rappeler la difficulté à saisir l’individu « conso - acteur »
L’approche situationniste (moments, temps de vie et de consommation par exemple) permet déjà de sortir de la vision statique et réductrice de l’individu socio - démographiquement défini, vision souvent encore utilisée comme unique donnée de connaissance par nombre de « Marketers », de Responsables d’études et d’Analystes de Bases de Données.
Il est bien évident que la logique économique intervient (rentabilité / coûts d’étude) dans la dualité quantitative / qualitative.


Physique quantique et connaissance client

Les échanges d’énergie entre lumière et matière ne sont possible que par paquets discontinus, appelés : quanta

En général la connaissance clients (profils, comportements….) n’est possible que par un processus du type collecte, traitement, analyse.
Une mise en relation minimale directe ou indirecte est nécessaire, entre l’Observateur et l’Observé.
Elle correspond, soit à l’énergie engagée pour créer la rencontre entre le Chargé d’études et les individus étudiés qui vont révéler leur « vérité » perçue / vécue, soit à l’énergie investie entre individu et émetteur d’origine (entreprise commanditaire de l’étude par exemple).
Cette relation existe par les échanges, les flux relationnels, transactionnels, informationnels entre l’entreprise, la marque, le site Web…qui donnent matière et raison d’être à l’étude.
Dans le cas présent, c’est le caractère discontinu de ces « paquets relationnels » qui fonde la métaphore.
Puisque il est matériellement impossible d’effectuer une mesure réelle et permanente, si ce n’est à l’instant t (éventuellement renouvelée aux instants t+n, cf. panels…), de ce qu’est le client dans toutes ses dimensions intéressant le marketing (comportements, attitudes, opinions, relations, réseaux…) on est obligé de le figer
dans l’instant de la mesure, avec la simplification, la réduction que cela impose.


La dualité onde - particule

La physique classique considère d’un côté les ondes de l’autre les corpuscules (images des billes pour les particules), la physique quantique conçoit la co-existence onde / corpuscules (logique du ET).

On rejoint ici le point précédent en l’approfondissant, en effet chaque individu est porteur à un moment donnée (t) de ce que je qualifierai de spectre identitaire et comportementale, à savoir un ensemble de données lié à :

-son profil socio - démographique,
-ses attitudes, opinions, motivations, perceptions…relatives aux Marques, Entreprises, produits / services, etc,
-ses comportements d’achats, ré - achats, fidélité, infidélité,
-ses moments de vie et ses contextes de consommation…

Ce spectre est naturellement très mouvant, même si le profil classique (socio-démographique) est relativement statique à moyen et long terme.
Tout ce qui relève de la perception et donc du rendu de cette perception est très instable et changeant parfois à très court terme (on retrouve l’ « effet papillon » potentiel cité plus haut).
Par analogie avec l’espace quantique, l’individu se retrouverait donc dans un espace flou et probabiliste, sorte de plasma, appréhendable sur certaines singularités à un certain moment (les données classiques à l’instant de la mesure du Chargé d’Etude) mais insaisissable dans sa totalité, son « énergie », sa « fréquence » réelle.

Il n’est rien de plus constant que le changement

Les comportements individuels sont aussi sujets à interrogations pour l’analyse, du fait :
- du caractère parfois simultané, superposé des comportements selon une logique du ET par opposition au OU
binaire.
- une tendance au paradoxe dont s’accommode très bien notre sujet et que l’on peut trouver par exemple dans
les différences constatées entre le déclaratif (dans une enquête, un questionnaire auto - administré) et le«constaté » (actions réelles).

Hors aujourd’hui toute la difficulté n’est-elle pas d’appréhender le sujet dans sa complexité, son caractère multi - dimensionnel.
A l’instar d’une particule qui change de niveau d’énergie (superposition dynamique de mouvements potentiels) le consommateur saute donc d’un espace à un autre (espace de choix, d’offres, d’attitudes, de transactions, de fréquentations, d’achats…), ces sauts s’expriment notamment par des comportements d’abandon, d’Infidélité, de zapping…qu’essaient justement d’endiguer les acteurs marketing.

quanti.2.jpg



Qu’il soit prospect, client fidèle ou occasionnel, notre client est avant tout humain, il attend donc en retour des offres, des messages, des discours de marques qui parlent à toutes ses dimensions (statut, moments, perceptions…).
Il nous faut peut-être passer de l’USP (Unique Selling Proposition) des publicitaires à la MSP (« Multi - selling proposition), capable de faire du « selling » en « global », « cross », « up » et pourquoi pas « down » si cela correspond à l’attente « justement » dimensionnée du client.


La non séparabilité

Deux particules émises dans deux directions opposées et quel que soit leur distance demeurent en corrélation à travers l’espace - temps comme si elles demeuraient indissociables, jumelles malgré la distance (cf. Einstein, Podolky, Rosen puis Alain Aspect).

Appliqué à notre sujet ce principe pourrait correspondre à un effet d‘histoire.
En effet un individu (prospect, client) qui a interagit (relation, transaction) dans le passé avec un émetteur (entreprise, marque, produit, service) forme un tout inséparable, c’est la vision expérientielle de la relation.
Il est amusant de penser que si la non séparabilité s’appliquait réellement aux êtres humains qui sont constitués de particules, cela signifierait que nous pourrions être ubiquistes, ici et ailleurs en même temps, appréhender l’individu serait encore plus inimaginable.


Principe de superposition

Un état quantique décrit une particule qui peut être présente sur des niveaux d’énergies différents.

Si on assimile par métaphore la particule à l’individu, on est incapable de le localiser, il se situe quelque part dans une sorte de « no man’s land » flou, indéterminé.


Principe d’indétermination ou d’incertitude (cf. Heisenberg)

Si l'on connaît parfaitement la position d'une particule, on ne peut en connaître la vitesse et inversement.
Sur de très courtes durées l'incertitude sur la mesure de l'énergie est très grande, c'est-à-dire que l'énergie peut fluctuer considérablement sur de très courtes durées.
Cela implique que le comportement de la matière à l'échelle de l'infiniment petit n'est pas déterminé ou prévisible.
Les mesures que l'on peut effectuer sur la vitesse et la position de particules sub-atomiques expriment, non pas des certitudes, mais seulement des probabilités.

quantique.jpg



Connaître le profil d’un individu au moment de la mesure ne nous donne pas d’informations sur sa mobilité, sa dynamique voire sa « malléabilité » comportementale, attitudinale…sa pré - disposition au changement à très court terme.

Enfin de façon plus classique et pour relativiser n’oublions pas que le regard, l’analyse de l’Observateur, du Chargé d’Etudes (sa lumière !) interagit, tel le photon avec l’électron, avec l’objet, sujet de son étude, et par la même le modifie.
La moindre mesure interfère avec l'objet de la mesure et…le change.



IV - Théorie des catastrophes : La rupture à consommer

Le mot catastrophe doit être envisagé ici au sens de son étymologie grec « Katastrophê » c'est – à dire « bouleversement » changement brusque et non prévu
Il s’agit plus d’une démarche, d’une méthode pour rendre plus intelligible, via la métaphore par exemple, des situations ou des systèmes complexes.
Différents modèles de comportements ont été proposé : pli, fronce, queue d’aronde, papillon.
La catastrophe, au sens pré – défini, se produit lorsqu’on passe d’un état d’équilibre stable donné, à un nouvel état stable différent, naturellement cet équilibre peut - être relative et fragile.

Le client dans toutes ses composantes (actions, perceptions…) pourrait ainsi être envisagé comme un champ informationnel, protéiforme.
Les actions, flux, stimuli…dont se nourrit le client, via un émetteur (campagne marketing / communication des marques par exemple), ou un observateur (Chargé d’Etudes…) et qu’il nourrit en retour (interactions) déterminent, une figure topologique au travers de la quelle le client va se mouvoir à partir d’une situation initiale (instant 0 de l’observation ou de la réception du stimulus émetteur) considérée comme un point d’équilibre.
Partant de là, une trajectoire multi – modale s’offre au client qui peut « naviguer » selon son état du moment (réceptivité de l’instant, perceptions, expériences passées d’une marque, d’un produit, d’un point de vente..) ou selon que sa démarche est exploratoire (achat spontané, ou prise d’informations) ou confirmatoire (achat réfléchi).
Le choix d’une trajectoire (modalité comportementale) entraîne une catastrophe (au sens défini plus haut), c'est-à-dire la rupture de l’équilibre initial (symbolisée par la fronce par exemple dans l’un des modèles de la théorie des catastrophes de R. THOM).
Les modalités de choix, traduites en comportements et donc en trajectoires déterminent ainsi un espace des possibles (achat – non achat, fidélité - infidélité,…).

catastro.3.jpg



V - Perspectives


Modèles d’analyse

Le statut « quantique » de l’entité individu - client, l’évolution chaotique, imprévisible, de ses comportements et perceptions qui nous révèlent sa réalité subjective posent questions sur la valeur « d’avant-vente » des données et de la connaissance client. On peut souligner à cet égard :

- le caractère très contextuel, subjectif de certaines données (évènements et faits générateurs de la donnée)
- la dépendance entre variables et évènements dans le monde réel par opposition à certains principes
statistiques et probabilistes (postulat d’indépendance)
- le déterminisme de certains modèles statistiques dont la fixation des règles fait forcément l’objet d’un parti pris,
ne signe t-il pas la faible pertinence, si ce n’est le caractère très relatif de certaines pratiques et applications ?
- l’interrogation sur la justesse, la volatilité, la durée de vie de la donnée


Base de données

La base de données clients idéale devrait pouvoir intégrer une vision multi - temporelle du couple données - études (celles qui sont extraites des bases) et se structurer selon :

- le temps long des études lourdes (6 mois un an),
- le temps médian de la gestion de la base de données (heures, jours, semaines)
- le temps court voir très court du réel observable mais…peu observé car matériellement inobservable : « le vif du sujet »


Gestion de la relation client (GRC / CRM)

Quant à la GRC, il peut sembler étonnant lorsque l’on consulte certains ouvrages, lorsque l’on assiste à certaines conférences, voire même aux rares formations (formations initiales) existantes, d’entendre les mêmes discours stéréotypés, très formatés, uniformes sur la GRC et de notre point de vue, dénués de toute approche qualitative, affective, humanisante…distanciée.


Quid de la relation proprement dite ?

En réalité Enseignants ou Experts nous parlent, plus souvent de la gestion de la donnée client que de la relation client et quand bien même la composante relation est abordée, elle relève bien souvent des outils et des technologies (Call Center, Base de données, Système d’Informations…)
Hors la multi - dimensionnalité du client évoquée plus haut se perçoit, se conçoit, dans un rapport véritablement bilatéral, « affectio personae », empathique entre l’entreprise et son client.
Certains d’entre nous ont certainement déjà reçu des appels téléphoniques d’opérateurs de services dont l’interlocuteur se présente comme « votre » conseiller (délocalisé dans un Call Center indépendant de l’opérateur et que vous ne connaissez d’ailleurs pas).
Dans une longue litanie récitatif digne d’un bon petit soldat robot, ledit conseiller vous débite alors son discours, lu son écran d’ordinateur, sans vous laisser en placer une, productivité oblige !
Mais entre deux extrêmes, la causerie au coin du feu et le discours formaté, plaqué sur du vivant (pour reprendre le mot de Bergson sur le rire) il y a certainement un juste milieu,…un peu d’authenticité !


Du B to C au H to H

La substance d’une relation se définie aussi par son contenu, un supplément d’âme derrière lequel doit savoir s’effacer le « média ».
En quête de sens, à la vérité que révèle le client doit correspondre la vérité de celui qui le sollicite.
Savoir - faire, savoir – être, doivent pouvoir se conjuguer dans une subtile alchimie non pas pour vendre ou collecter toujours plus des données, mais pour vendre ou nourrir sa connaissance client toujours mieux et juste.
Revenir aux fondamentaux en faisant du B to C par du H to H (human to human) n’est pas une régression en soi.


Management et culture interne

A un niveau plus global, et pour l’avoir observé, il est clair que certaines organisations, certains collaborateurs restent ancrés dans une mono - culture métier « quasi - mécaniste », par trop de spécialisation elle entretient malheureusement une « inculture » organique.
Dés lors la vision transverse, « hologramique » (la partie à conscience du tout et inversement), sensible…d’un projet, d’une problématique, d’une connaissance (client par exemple) leur échappe.


Modernité / Post modernité

Par une sorte de saturation de la projection dans l’avenir et des promesses illusoires (dans tous les domaines) notre sujet avant d’être client surfe dans tout les domaines de la vie sur des vagues par nature mouvantes,
Ces formes éphémères, se construisent et se déconstruisent en permanence (espaces d’échanges, de relations, de transactions, de mobilité…).
Une analogie avec la « physique des fluides » (par opposition à une physique des solides) nous suggèrerait une vision d’écoulement de tourbillons, de flux et de reflux, de mélanges, de bifurcations aléatoires.
On ne peut plus, comme le pratique la pensée Moderne (rationalisme notamment), analyser l’individu sans l’englober dans son agrégat d’appartenance (communauté, tribu, liens, micro - solidarités, …).
L’individu ne vaut dés lors, que par cette appartenance qui fait sens dans et par une vision globalisante.
Ce que saisit l’Analyste Chargé d’Etudes de l’individu n’est que la partie émergée, superficielle de l’être, un point de cristallisation d’un magma comportemental, sociologique, psychologique.
Hors le sujet se meut dans ce que nous nommerons un bassin de forme, mouvant par définition, et où co-existent flux et reflux, vagues et courants contradictoires, éphémères.
Les jeunes générations sont d’ailleurs de ce point de vue, exemplaires.

En effet, l’opportunisme dans l’action (consumériste ou non), l’effet d’histoire immédiat et éphémère dans les relations, l’effervescence de l’être aspiré dans le collectif (Rave - party, manifestations, concerts…) est symptomatique.
Certains jeunes semblent aménager, construire, voire « bricoler » par, pour et dans le quotidien (par opposition aux utopies et grandes idéologies séculaires) leur propre « vivre - ensemble ».
Par bouffées émotionnelles, au gré des évènements, les individus se créent des « Legos » idéologiques d’appoint, prétextes aux liens, à l’agrégation communautaire.

Les technologies de l’information, la pratique de l’hyper-navigation, le virtuel, la possible réalisation du « anywhere, anything, anytime », renforce le phénomène et favorisent un imaginaire, une pensée et des comportements pétris de « Carpe diem », « d’ici et maintenant » où se croisent des champs d’attraction – répulsion et se propage une communion de l’instant…éphémère.

A la suite de Sociologues, tel Edgar MORIN, ou Michel MAFFESOLI, dont la pensée et les écrits nous inspirent, nous pensons que les pratiques linéaires, binaires, cartésiennes, déterministes, analytiques (dont s’alimentent la connaissance client), par habitude, réflexe, « formatage » lié à l’éducation, ne sont plus en phase avec les réalités de la Post-modernité et de la Complexité
Naturellement cette remarque concerne moult domaines et le temps est peut - être venu de promouvoir une « Ecologie de l’esprit » propre à (re)modeler, orienter les Savoirs -faire et Savoirs -être pour et par l’humain.

Denis Failly 

15:10 Écrit par Denis Henri Failly dans Marketing | Lien permanent | Commentaires (5) | Tags : chaos, complexité, quantique, crm, marketing | |  Facebook | | Pin it! |  Imprimer | | |