My Ekino App Theme with Twig template rendered by WordPress!
Data / IA Archives - Ekino FR
On ne présente plus ChatGPT. En tout cas, je ne le ferai pas dans cet article, mais si vous voulez mieux comprendre le modèle originel à la base de ChatGPT (GPT), on en parlait il y a 2 ans avec Julien Laugel, CEO de MFG Labs, dans ce podcast1 (et la genèse du modèle est détaillée dans cet article).
La hype autour de ce modèle super puissant montre l’importance croissante que prennent les outils fonctionnant grâce à de l’intelligence artificielle dans notre quotidien. Face à ces changements, notre métier de designer lui aussi doit évoluer. Je me demandais alors : Quelles seraient les guidelines spécifiques au design d’interface d’un outil fonctionnant grâce à de l’intelligence artificielle ?
J’ai posé cette question à ChatGPT en partant du principe que l’algorithme allait me donner un patchwork de ce qui se disait sur le sujet jusqu’en 2021, sans oublier que bien que les résultats soient impressionnants, ChatGPT a ses limites qui sont notamment :
Le biais de formation : il reproduit les biais présents dans les textes qui ont servi à l’entraîner
Des limites de compréhension : certains prompts2 ou nuances de langage humain sont incompris
Des limites de génération : ChatGPT est un algorithme, pas un humain : il ne possède donc pas de capacité de réflexion. Il peut générer des textes mais sans analyse. C’est comme si, pour un exposé sur un sujet précis, vous effectuiez des recherches sur internet et vous rassembliez des informations qui paraissent pertinentes et présentiez cet assemblage. Le résultat est un exposé sur le sujet à partir de réflexions existantes, sans parti pris, sans opinion et sans réelle analyse.
L’output3 de ChatGPT constitue donc une base dont nous évaluerons la pertinence et sur laquelle nous construirons notre réflexion, rien de plus.
Ma question posée sur ChatGPT : Quelles guidelines sont spécifiques au design d’interfaces d’un outil fonctionnant grâce à de l’intelligence artificielle ?
Le résultat :
Faire preuve de transparence : il est important de fournir à l’utilisateur des informations sur les actions que l’IA est en train de réaliser et sur les raisons pour lesquelles elle les réalise, afin de renforcer la confiance de l’utilisateur dans l’outil.
Prévoir des mécanismes de contrôle et de révision : il est important de permettre à l’utilisateur de contrôler et de réviser les actions de l’IA pour s’assurer que celles-ci correspondent à ses attentes et à ses objectifs.
Fournir des indications claires et précises : l’interface doit être conçue de manière que l’utilisateur comprenne facilement comment interagir avec elle, en utilisant des icônes et des labels clairs et explicites.
Favoriser la flexibilité et la personnalisation : l’interface doit être conçue de manière à permettre à l’utilisateur de personnaliser son utilisation de l’outil en fonction de ses besoins et préférences.
Gérer les erreurs et les échecs de manière appropriée : il est important de prévoir des mécanismes pour gérer les erreurs et les échecs de manière à minimiser leur impact sur l’expérience utilisateur.
Faciliter l’utilisation : l’interface doit être conçue de manière à être facile à utiliser, même pour les utilisateurs peu expérimentés.
Maintenir la confiance de l’utilisateur : l’interface doit être conçue de manière à maintenir la confiance de l’utilisateur dans l’outil et à lui montrer que ses données et sa vie privée sont protégées.
Le résultat n’a rien de révolutionnaire mais c’est un ensemble de règles qui semblent cohérentes. Voyons ce qu’elles valent dans le détail. Pour ancrer notre réflexion dans le réel, nous évaluerons leur pertinence directement sur l’interface Chat GPT elle-même ainsi que sur d’autres interfaces de services faisant appel à de l’IA.
1. Transparence sur les actions de l’IA
Il est important de fournir à l’utilisateur des informations sur les actions que l’IA est en train de réaliser et sur les raisons pour lesquelles elle les réalise, afin de renforcer la confiance de l’utilisateur dans l’outil.
Partiellement appliqué
Dans cette guideline plusieurs niveaux de transparence sont abordés : le pourquoi et le comment.
Pourquoi : ChatGPT est transparent dans son intention et ses actions. L’utilisateur sait qu’il essaie de répondre du mieux qu’il peut à ses questions. L’objectif de cette plateforme ainsi que les usages des informations récoltées sont expliqués sur la page de garde et dans la FAQ.
Comment (quelles sources de données, etc.) : Pour la description du fonctionnement, quelques papiers existent 4, mais il n’y a pas d’indication sur le fonctionnement du modèle. Pour ChatGPT, la transparence pourrait venir de la mise à disposition des sources utilisées pour générer ses résultats. Mais cela est-il seulement possible techniquement ?
D’autres interfaces donnent bien à leurs utilisateurs des indications sur les raisons de leurs actions et par là même, sont plus transparentes. C’est le cas de certaines recommandations Netflix qui sont explicitement faites suite au visionnage de contenu similaire.
2. Contrôle et révision par l’utilisateur :
Il est important de permettre à l’utilisateur de contrôler et de réviser les actions de l’IA pour s’assurer que celles-ci correspondent à ses attentes et à ses objectifs.
Appliqué
L’utilisateur a bien le contrôle sur les résultats de l’IA dans le sens où il peut :
Changer son prompt pour mieux orienter la réponse de la machine.
Générer une nouvelle réponse à sa question ou arrêter la génération de contenu si la première version ne lui plaît pas.
Répondre aux premiers résultats avec une nouvelle demande précisant son besoin pour que le modèle génère une nouvelle réponse.
Un autre exemple de contrôle par l’utilisateur est la suggestion de réponses par Gmail. Si l’utilisateur sélectionne une des réponses proposées, il peut ensuite la modifier avant envoi. Cela permet de gagner du temps tout en gardant le contrôle.
3. Indications claires et précises :
L’interface doit être conçue de manière que l’utilisateur comprenne facilement comment interagir avec elle, en utilisant des icônes et des labels clairs et explicites.
Partiellement appliqué
L’utilisation de l’interface est claire, notamment grâce aux exemples de prompt, de capacités et de limites de l’outil présentés au début de chaque nouveau chat.
La clarté d’utilisation pourrait toutefois être améliorée avec deux éléments :
Une indication dans le champ à remplir pour signifier aux utilisateurs qu’il suffit d’écrire dans la barre inférieure. Voici quelques exemples « chattez avec GPT ici », « comment puis-je vous aider ? » ou encore « indiquez votre requête ici ».
Mettre la plateforme dans d’autres langues que l’anglais. Si l’algorithme est capable d’interagir avec l’utilisateur dans sa propre langue – mes prompts fonctionnaient en anglais comme en français et ChatGPT répondait dans la langue de mon prompt – l’interface n’est disponible qu’en anglais. Cela induit en erreur car il n’est pas évident que l’on puisse écrire des prompts dans une autre langue que l’anglais. Pire encore, cela peut être bloquant pour des utilisateurs non anglophones.
4. Flexibilité et personnalisation :
L’interface doit être conçue de manière à permettre à l’utilisateur de personnaliser son utilisation de l’outil en fonction de ses besoins et préférences.
Partiellement appliqué
L’outil ChatGPT en lui-même est très flexible, étant donné qu’il génère des réponses en fonction des prompts des utilisateurs. Il s’adapte à sa langue et à son niveau de vocabulaire. L’interface, elle, n’offre aucune possibilité de personnalisation à part le Light/Dark mode. Cela peut être lié au fait que ce soit une version Béta. Plusieurs aspects de la plateforme pourraient pourtant être personnalisables, comme la langue et l’accessibilité.
5. Gestion appropriée des erreurs et échecs
Il est important de prévoir des mécanismes pour gérer les erreurs et les échecs de manière à minimiser leur impact sur l’expérience utilisateur.
Trois erreurs identifiées :
1. Problème de connexion
Appliqué : Lorsque l’on veut se connecter ou interagir avec ChatGPT mais que le serveur est surchargé, il nous est expliqué pourquoi cela est impossible et il nous est donné la possibilité d’être recontacté par mail lorsque le système sera de nouveau fonctionnel.
2. Incapacité de répondre : Appliqué
Le système identifie certaines questions auxquelles il n’est pas capable de répondre. Dans ce cas, les raisons de cette incapacité sont expliquées et une alternative est proposée à l’utilisateur.
Dans le cas ci-dessus, ChatGPT ne sait pas qui a gagné la dernière coupe du monde. Il m’explique pourquoi et me propose de me référer à une autre source d’information fiable.
3. Erreur du système : Non appliqué
S’il y a une erreur du système, la barre de dialogue disparaît et l’utilisateur ne sait pas comment remédier à la situation… En dessous du terme « network error », il pourrait être indiqué la marche à suivre : recharger la page, par exemple.
6. Facilité d’utilisation
L’interface doit être conçue de manière à être facile à utiliser, même pour les utilisateurs peu expérimentés.
Appliqué
Le site ChatGPT ressemble à une plateforme de chat classique. Il est donc relativement facile d’utilisation car la plupart des utilisateurs ont déjà fait l’expérience de ce type d’interactions.
7. Maintenance de la confiance de l’utilisateur
L’interface doit être conçue de manière à maintenir la confiance de l’utilisateur dans l’outil et à lui montrer que ses données et sa vie privée sont protégées.
Non appliqué
L’interface ne montre pas que la vie privée et les données sont protégées. Au contraire, lors de la première connexion il est explicitement demandé à l’utilisateur de ne pas partager d’informations confidentielles. Dans un sens, cela peut générer de la confiance par la transparence de la démarche.
Cette règle n’est donc pas appliquée parce qu’elle n’est pas pertinente dans tous les cas.
Ouverture
En y réfléchissant, on s’aperçoit que les guidelines de ChatGPT ne sont pas, pour la plupart, spécifiques à des outils fonctionnant avec de l’Intelligence artificielle. Contrôle et révision par l’utilisateur, indications claires et précises, flexibilité et personnalisation, gestion des erreurs et des échecs et facilité d’utilisation sont des reformulations des heuristiques ergonomiques de Bastien et Scapin.
Ces règles ont permis de lister quelques bonnes pratiques du design d’interfaces sans toutefois répondre à ce qui fait la spécificité d’une interface fonctionnant avec de l’intelligence artificielle, et sont l’enjeu principal, la relation homme-algorithme. Le design, est un élément clef dans la définition des interactions entre les utilisateurs et leur outil. Lorsque l’outil est un modèle d’intelligence artificielle (avec de nouvelles capacités et la possibilité d’évoluer dans le temps et face au contexte), le design s’en voit impacté. À partir de là, de nouvelles questions peuvent se poser : comment les systèmes (humain et algorithme) vont-ils communiquer ? Jusqu’où iront leurs actions respectives ? Comment vont-ils collaborer ? Comment vont-ils évoluer ensemble ?
Dans cette optique, j’ajouterais ainsi les règles suivantes à celles mentionnées, lesquelles sont d’ailleurs appliquées par l’interface ChatGPT :
Éviter l’excès de confiance qui pourrait mener à une mauvaise utilisation de l’outil en explicitant les limites du système. Un conducteur de voiture autonome qui s’assoupit ou ne regarde plus du tout la route risque un accident (ce qui est d’ailleurs arrivé). Il fait alors une mauvaise utilisation de la voiture autonome par excès de confiance. Dans notre cas, un utilisateur qui prend tout pour vrai ce qui est généré dans le chat commettrait la même erreur comme l’explique Seth Godin dans cet article. L’interface chatGPT lutte contre l’excès de confiance en indiquant clairement et à chaque début de chat les limitations du modèle.
Se prémunir contre l’excès de confiance peut aussi se faire en indiquant un niveau de confiance dans les résultats de l’algorithme, comme le fait Netflix pour ses recommandations. D’ailleurs, comment définir un niveau de confiance dans la reco alors même que celle-ci dépend du corpus initial qui a servi à le poser ?
Récupérer du feedback et montrer qu’il sera pris en compte. En faisant cela l’interface Chat GPT récolte les informations nécessaires pour améliorer l’interface et crée de la confiance et un sentiment de considération chez l’utilisateur.
Enfin, si ChatGPT ne peut pas nous apporter la vérité absolue sur les bonnes pratiques de design d’un outil fonctionnant avec de l’IA, il peut nous apporter une grande aide dans notre quotidien de designer. ChatGPT peut être très utile sur certaines tâches peu critiques de notre métier comme le benchmarking, la rédaction de textes pour des maquettes ou encore la recherche d’inspiration produit. Nous n’avons pas fini d’explorer.
[1] Rdv sur les plateformes de podcast pour découvrir l’épisode de AIE et Julien Laugel sur GPT-3:
[2] Comme on lit un prompteur, le prompt est le bout de texte qui passe par le modèle d’IA pour générer un résultat que l’on appellera output
[3] Comme on lit un prompteur, le prompt est le bout de texte qui passe par le modèle d’IA pour générer un résultat que l’on appellera output
[4] GPT1,2,3, et “instructGPT”, qui est le process qui explique comment chatGPT a été fine tune
Comment créer des personas pilotés par la data ?
Retrouvez la version originale de l’article de Think Design en anglais : How to create personas driven by data ? Dans cet article, nous nous penchons sur le rôle de la data comme puissant levier dans le processus de création de persona. À mesure que nous améliorons la connaissance et la compréhension de nos clients, […]
“Si vous ne pouvez pas le mesurer, vous ne pouvez pas l’améliorer”
Lord Kelvin – physicien britannique du XIXe siècle
La marque de vêtements Betabrand souhaitait augmenter ses ventes à San Francisco. Ils ont fait appel à une société spécialisée dans l’analyse d’images afin d’enrichir leur connaissance du parcours de leurs clients en point de vente. Plusieurs cartes de chaleur ont ainsi été générées afin d’illustrer le parcours emprunté par les clients et les articles qu’ils manipulent dans le magasin. En sachant combien de personnes touchaient un article, Betabrand a pu avoir de la visibilité sur la popularité de ses articles, et identifier de potentiels freins liés au prix des articles ayant été beaucoup manipulés mais très peu achetés.
Ce type de technologie révolutionne le secteur de la distribution car il permet d’offrir de la visibilité sur l’optimisation d’espace, la stratégie de prix ou encore les comportements du client. Cela démontre combien il est important de mettre en œuvre une stratégie analytique de mesure.
Passer d’organisation “data-aware” à une organisation “data-driven” requiert de maîtriser ses sources de données tout en étant capable de les exploiter et de mettre en place une stratégie. Une stratégie data définit quelles données doivent être collectées et encadre ce qui doit être mesuré.
Que mesurer ? Les indicateurs de performances ne sont pas nécessairement les bonnes métriques
Comment savoir si un produit ou un service est performant ?
Comment savoir si la proposition de valeur d’un produit a réellement été améliorée ?
Alors qu’un certain nombre de KPI peuvent avoir été déterminés en fonction d’objectifs commerciaux, une des composantes clés de la stratégie de mesure est souvent mise de côté : l’audience. En effet, si les actions des utilisateurs peuvent vous aider à prédire la valeur d’une mesure, une analyse “audience first” peut améliorer le caractère mesurable de votre proposition de valeur. Une approche centrée utilisateur peut ainsi contribuer à déterminer ce qui intéresse le plus votre audience, créant ainsi une boucle vous permettant d’improviser.
3 étapes à considérer afin d’impliquer les utilisateurs dans votre stratégie de mesure
Capitaliser sur votre patrimoine digital afin de mesurer les actions utilisateur
Comprendre les indicateurs comportementaux, sur la base des données capturées
Découvrir des indicateurs comportementaux qui pourraient être quantifiés en métriques activables
Prenons un exemple afin d’illustrer une approche centrée utilisateurpour redéfinir une stratégie de mesure.
Imaginons une passagère régulière d’une compagnie aérienne qui donne son avis sur son dernier vol au service client.
C’était une bonne expérience. J’étais confortablement installée. J’ai regardé un film sur l’écran. Cependant, mon partenaire et moi avons utilisé deux paires d’écouteurs pour regarder le film sur deux écrans différents. Nous aurions aimé pouvoir le voir ensemble. De plus, nous n’avons pas pu obtenir de sièges adjacents, et nous avons dû demander à d’autres passagers d’échanger nos sièges, ce que nous aurions préféré éviter.
Quelles actions les utilisateurs ont-ils pris ?
S’asseoir confortablement sur le siège
Regarder un film sur l’écran intégré au siège
Le couple a regardé le même film sur deux écrans différents
Ils ont échangé leurs sièges
Qu’indiquent ces actions à propos de leurs motivations comportementales et de leur satisfaction ?
Ils étaient bien installés
Ils se sont occupés
Ils n’ont pas pu se divertir ensemble
Ils n’ont pas pu profiter de la compagnie de l’autre
Quels indicateurs comportementaux pourraient être quantifiés en métriques réelles ?
Contenus visionnés par voyageur
Pourcentage de sièges voisins attribués à des partenaires de voyage (sur la même réservation)
Enrichissez votre proposition de valeur grâce à l’analyse de vos métriques
Tous vos utilisateurs ne sont pas similaires, et ils ne devraient pas tous être traités de la même façon. Ce qui peut paraître divertissant pour l’un, ne le sera pas forcément pour l’autre. D’où l’importance de segmenter les utilisateurs ayant recours à vos services de manière régulière : vos ambassadeurs, ou du moins vos ambassadeurs potentiels. En segmentant les utilisateurs en fonction de leur affinité avec la marque, leurs actions doivent nécessairement être analysées afin de pouvoir mettre en œuvre une stratégie de mesure.
Cinq questions à se poser :
Qui sont mes ambassadeurs ? Qui sont ces personnes ?
Quelles actions réalisent-ils ?
Quels sont les points de friction dans leur expérience ?
Quelles sont les métriques activables liées à ces derniers ?
Les tests et la mesure vous permettront de mettre en œuvre des décisions pilotées par la donnée en ce qui concerne le ciblage et la hauteur de vos investissements afin d’avoir un meilleur ROI. Il n’y a pas d’approche universelle à la mesure, tout particulièrement en cette période de changement – mais vous connaissez votre marché : la bonne stratégie dépendra de vos objectifs, vos clients, et des spécificités de votre industrie.
Clustering de données : comment faire naître l’ordre dans votre chaos ?
Retrouvez la version originale de l’article de Think Design en anglais : Clustering Datasets: How to discover your order in the chaos? A quoi sert le clustering de données ? “Aidez-nous à mieux comprendre nos clients afin de mieux leur promouvoir nos produits !” Que feriez-vous si votre direction marketing vous chargeait de cette mission […]
En tout mesurant, on aurait tendance à croire qu’on a la maîtrise sur chacune des données qui sont mises à notre disposition. Cependant, choisir ce mode de reporting peut diluer l’attention que vous portez aux métriques relatives à vos priorités commerciales. En effet, avec la croissance exponentielle de la quantité de données provenant des canaux digitaux, il peut être facile de perdre la vue d’ensemble. Découvrez dans cet article nos 7 conseils pour mieux appréhender l’analyse de vos données. Bonne lecture !
Nos 7 conseils pour mieux comprendre et analyser vos données
1. Définir le meilleur framework pour vos données
Si un détail vous empêche d’avoir une vision globale de vos données, ou si vous perdez de vue ce qui devrait être mesuré, alors mettre en place un framework dédié peut très certainement vous aider. Un framework de mesure bien pensé et structuré vous aidera -ainsi que vos partenaires et votre organisation- à vous concentrer sur l’essentiel, et permettra ainsi d’améliorer votre prise de décision. En effet, celui-ci se concentre sur la traduction d’objectifs en indicateurs de performance facilitant l’évaluation des performances d’une campagne ou d’un projet dans son ensemble.
2. Mettre à plat les objectifs de votre campagne
Un bon framework se construit avant tout en partant des objectifs commerciaux dudit projet. Ils sont la pierre angulaire de l’analyse des performances et permettent de mettre en évidence les domaines clés de l’évaluation et de l’analyse au plus tôt. Les objectifs doivent répondre à la question suivante :
« Quel est le problème que la campagne ou le projet tente de résoudre ? ».
3. Comprendre comment votre audience cible peut avoir une influence sur vos métriques
Le choix de l’audience pour laquelle la campagne sera la plus pertinente peut avoir un impact sur les résultats. De plus, les budgets et les efforts sont souvent dirigés vers les publics ayant les plus grandes chances de conversion.
Le taux d’engagement d’un même utilisateur pour une campagne donnée peut varier dans le temps. Il est donc d’autant plus important de comprendre comment une audience a été sélectionnée. Par exemple, les utilisateurs se comporteront-ils tous de la même manière que votre meilleur client ? La réponse est probablement non, et cela devrait également être pris en compte lors de la définition de vos KPIs.
4. Identifier les parcours utilisateur au sein de la campagne
Les parcours utilisateurs représentent le chemin qu’empruntent les usagers pour atteindre le point final de la campagne ou projet, ou pour réaliser l’action souhaitée. Ainsi, tous les points de contact avec lesquels un utilisateur peut interagir représentent des points uniques dans le parcours, depuis la visualisation d’une publicité, jusqu’à l’ajout d’un produit dans un panier et la réalisation d’un achat. Plus il faut d’étapes et de temps aux utilisateurs pour arriver à l’action souhaitée, plus le taux de conversion risque d’être faible.
Une fois que vous avez identifié les principaux composants de votre campagne : l’objectif, le public cible et le parcours utilisateur principal, vous pouvez passer à la phase suivante, à savoir la définition de vos KPIs et de vos objectifs.
5. Refléter les objectifs de la campagne à travers les métriques
Cela peut être réalisé en hiérarchisant les actions d’un parcours utilisateur. En général, un cadre de mesure se compose d’un ou deux indicateurs clés de performance (KPIs) primaires, puis d’une liste de KPIs secondaires. Les KPIs primaires se situent généralement à la fin du parcours utilisateur, tandis que les KPI secondaires représentent d’autres actions qu’un utilisateur peut entreprendre au cours de son parcours.
Par exemple, si vous publiez une offre d’emploi, un indicateur clé de performance primaire pourrait être le nombre de candidats retenus, tandis que des mesures comme la durée moyenne de la session sur la page de candidature seraient un indicateur clé de performance secondaire.
6. Évaluer vos indicateurs de référence
Avec une liste de métriques définies qui reflètent précisément vos objectifs, il est impératif d’analyser et de comprendre les progrès dans le temps. Et la notion de progrès peut s’interpréter selon deux critères : la saisonnalité et la tendance.
La saisonnalité mesure les fluctuations prévisibles sur une période cyclique, par exemple une semaine ou une année ;
Alors que la tendance mesure la direction sous-jacente, à la hausse ou à la baisse, dans laquelle vous vous dirigez.
Vous devez toujours essayer d’examiner vos résultats dans le contexte du secteur dans lequel vous opérez, des facteurs macroéconomiques (tels qu’une pandémie !) et des performances de tout concurrent dominant. Les résultats doivent contribuer à établir des objectifs réalistes pour les futurs campagnes ou projets.
7. Adopter un cadre de mesure en adéquation avec votre stratégie
Après avoir créé un framework structuré comme indiqué ci-dessus, vous devriez être en mesure de définir une liste de métriques pouvant être évaluées par rapport à des critères de référence et classées en fonction d’un ensemble d’objectifs. Cela devrait vous fournir, ainsi qu’à vos parties prenantes, une image plus complète des résultats de vos campagnes ou projets, et ainsi faciliter l’identification de vos leviers d’optimisation.
De nombreuses sources d’optimisation et de croissance peuvent découler d’une stratégie qui valorise l’utilisation des données en fonction d’objectifs clairement définis. Dans ce domaine, nos consultants sont bien placés pour mettre au point un framework permettant de maximiser le potentiel de vos données.
Partie 2 – Mieux comprendre vos clients grâce au profilage progressif
Ce n’est plus un secret : la connaissance client est un enjeu majeur pour les entreprises. Une meilleure connaissance de leurs centres d’intérêts ou encore leurs attentes favorisera la mise en place de contenus personnalisés et spécifiques à leurs besoins. Si vous avez lu notre 1er article sur le sujet, vous aurez compris que la […]
Le profilage progressif (ou Progressive Profiling) est une approche de la collecte de données qui nous permet de développer progressivement notre connaissance d’un client et de son comportement au fil du temps.
Cette approche de la capture de données présente une myriade d’avantages :
Augmenter les taux de conversion (CRO)
Créer des expériences utilisateur plus personnalisées (CX)
Augmenter les ventes (ROI)
Accélérer le parcours d’achat de l’utilisateur
Générer de meilleures leads et donc permettre une meilleure segmentation
Améliorer la perception de la marque
Vous pouvez intégrer plusieurs typologies de données dans le profil d’une personne, notamment :
Les données « transactionnelles », telles que les achats effectués
Les données « comportementales », telles que les pages Web visitées
Les données « personnelles ou d’attributs », telles que l’adresse ou l’âge
Les données d’identité, telles que les cookies ou l’adresse électronique
Les données contextuelles, telles que les indicateurs d’intérêt
De toute évidence, plus vous disposez de données sur vos clients, mieux vous pourrez savoir qui ils sont, ce qui vous permettra de leur proposer des communications personnalisées et opportunes. Ainsi, cela permettra aussi de délivrer la Next Best Action (NBA) avec le bon message destiné à la bonne personne, sur le bon canal et au bon moment.
Dans cette 1re partie, nous aborderons les 3 premières composantes à prendre en compte pour faciliter le profilage : la capture, la réconciliation et la récupération des données. La 2nde partie traitera de l’amélioration de la qualité des données via la définition d’une taxonomie standardisée et l’enrichissement des données.
Comment capturer ces données clients ?
Il n’est pas réaliste de s’attendre à tout savoir sur vos clients dès le premier jour. En outre, les comportements évoluent dans le temps, tant dans le tunnel d’achat que dans les cycles de vie des clients. En réalité, nous capturons beaucoup d’informations pertinentes au fil du temps, car des données sont produites à chaque interaction.
Généralement, une entreprise n’est pas équipée pour interpréter les données générées. Par ailleurs, la façon dont elles sont capturées n’est pas toujours structurée de manière à le permettre.
Compte tenu de cela, il y a quelques dimensions à prendre en compte pour faciliter le profilage :
La réconciliation des données
La centralisation des données
La taxonomie
Combler les vides
Réconciliation des données
Il y a diverses occasions de collecter des informations tout au long du parcours client. Avec la multiplication des canaux par lesquels les entreprises collectent leurs données, il peut être difficile de percevoir comment ces informations interagissent les unes avec les autres.
Nous voyons principalement des canaux intervenant à la source du tunnel d’achat, comme les médias et le web, qui traitent avec des entités « inconnues ». Ainsi, la connaissance du visiteur ne se résume qu’à un identifiant (un nombre) et ne nous permet pas de connaître leur identité. À mesure que les clients avancent dans le tunnel d’achat, ils sont plus susceptibles de se faire connaître de la marque et de devenir une entité « connue », par exemple en donnant une adresse électronique et leur nom. Cela permet d’utiliser des canaux tels que l’e-mail, le SMS ou même un ciblage plus précis dans les médias.
Cependant, en raison de la multitude de canaux et d’identités qui ont été générées pour un même client, les informations obtenues peuvent être disparates. Cela empêche d’avoir une vision complète de son parcours. Ce qui augmente le risque que les communications soient moins pertinentes, voire irritantes. Par exemple, si les données transactionnelles, comme un achat, ne sont pas liées aux canaux comportementaux, le client sera continuellement ciblé pour des produits qu’il a déjà achetés. Cela risque d’entraîner un déficit de budget et peut aussi nuire à la perception de la marque qui ne connaît pas son client. À l’inverse, il est possible de manquer des occasions de ventes incitatives, sachant que le client a consulté d’autres produits avant l’achat, et qu’un produit supplémentaire pourrait donc être recommandé après la transaction.
La clé est la capacité à identifier un individu à travers les canaux et de consolider les interactions et les événements qu’il a réalisés dans un parcours client holistique. Avec l’évolution des solutions techniques telles que la proéminence des plateformes de données clients (Customer Data Platforms), des résolutions d’identité sont disponibles pour unifier les fiches clients sur tous les canaux en une vue unique via des liens déterministes et probabilistes en temps réel. Il s’agit essentiellement de prendre les identifiants ou les clés primaires qui sont produits dans chaque canal ou ensemble de données et de les relier à un identifiant principal consolidé, comme représenté ci-dessous.
Centralisation des données
La possibilité d’unifier l’identité des clients sur tous les canaux permet de consolider et centraliser les informations, d’enrichir le profil du client et les caractéristiques ou attributs qu’il possède. En outre, la centralisation des données permet de mettre à jour fréquemment le profil du client, en tenant compte de tout changement d’intérêts ou de préférences. Cela peut également simplifier les solutions techniques d’une entreprise, de sorte que toutes les plates-formes accessibles par des visiteurs se réfèrent à une seule source contenant les informations clés, plutôt que de chercher sur différentes base de données, fournissant ainsi à l’entreprise une seule source de vérité pour prendre la décision.
Maintenant que nous savons qui est qui, les interactions des clients vont constituer un flux d’événements reprenant l’ensemble de leurs actions, de manière chronologique, et sur l’ensemble des canaux. Les entreprises peuvent ensuite capitaliser sur ces informations pour mieux comprendre les parcours clients. En identifiant les points communs sur la base de caractéristiques de profil similaires, elles peuvent ainsi déterminer la meilleure action suivante (NBA), comme vous avez pu le lire dans l’article de Salesforce Interaction Studio.
La suite au prochain épisode !
Comprendre les dashboards intelligents et comment y arriver ?
L’interprétation de vos données clients et de votre expérience client vous permet d’élaborer le parcours utilisateur, ce qui est essentiel si vous voulez par la suite anticiper la meilleure action ou conversation avec le client. Tour d’horizon des dashboards et la manière dont vous pouvez les transformer en dashboards intelligents pour mieux connaître vos clients […]
Today in the business world, we talk about change. The advent of AI is transforming our entire society. Tech companies heavily invest in R&D to stay on top of the game while older industries are trying to catch up on their digital transformation.
I was always intrigued by having a tangible representation of the different entities of the company as it would surely reveal interesting insights on how it is managed.
As you would imagine, few corporations were willing to let me access their organizational chart under my own data art studio Kirelion. As soon as I joined l’Atelier d’ekino (ekino’s innovation department), I was fortunate enough to be able to work on this idea and to apply it to our parent group: Havas.
Spoiler: it turns out that the knowledge extracted from this analysis is extremely valuable and can drastically help to make informed data-drive.
An idea is worthless without execution
Paraphrasing a common saying in the startup world, having an idea is great but until you can make it happen, it is just an idea.
In our case, to execute this idea, I first needed to get my hands dirty and collect data about the Organizational chart of the group.
Fortunately, Havas recently migrated to WorkDay, an ERP for finance/HR in order to simplify and rationalize within the group. This named TalentSpace acts as an internal LinkedIn where people can expose their talents and background. On top of that the tool provides their title, physical location, company name, ways of reaching them and their boss.
Personal private view for each Havas employee
For those who may fear leakage of private info, rest assured that as a regular employee, I could only access anonymized GDPR-compliant (no names) information with the consent of the HR department. Note that when I started working on the project not all the subsidies had migrated to the platform (hence the lower number of data points).
My own personal hierarchy chain to the top!
As with all new data-driven projects, I started by agglomerating information. One point worth noticing is the gender balance of the organization with more women in all 4 branches of the group.
The distribution of managers is slightly in favor of men in the top-management with a turning point at level 4, 0 being the CEO Yannick Bolloré. This level 4 roughly corresponds to the executive committee of each individual digital agency that the group manages.
Of course, there is much more to be shown that I can’t share here such as the distribution of job titles, the number of managers per agencies and at which level, the subsidies’ location of each agency and how they interact for instance.
When you start adding the job title in the mix, you can also anticipate the shortage/recruitment of talents you need to recruit to achieve your strategic goals.
This is just a bunch of examples but as you can imagine, it is extremely valuable and actionable info when your job is to manage and have a strategic vision of a company.
From data visualization to data art
Visualizing the hierarchy
So far we have talked about the value of collecting organizational info on a company. Let’s remember that we extracted a network connecting all employees to their direct superior. As you know, this simple one-to-one relationship does not necessarily reflect the real chain of command but it is already a good start to build a visualization.
Here is an attempt at revealing the hierarchical levels of the group using a radial tree layout.
A classic and very useful data visualization used to explore the hierarchy of the company from a central node (the root of the tree), here being the CEO. By counting the number of circles we can assess the depth of the tree: how many hierarchical positions we have from the lowest entry point (the interns) to the CEO. Each dot is employee, colored according to the group sub-branches such as Havas Health, Havas Creative, BETC or ekino.
The dataset is too complex to be able to visualize all its dimensions in a 2D representation. As a general rule in a network visualization, proximity on the image does not necessarily imply proximity in the data. In our previous radial tree, we can clearly see the different hierarchical layers, but we miss a sense of quantity. Indeed, most nodes are drawn almost on top of each other, making it difficult to assess the volume of employees per branch.
When data viz is not enough
To solve this problem, we have basically two options: adding a companion data visualization (like the barchart on top) to indicate the volume per branch or per sub company or improve/modify our radial tree layout.
First, instead of having a circular shape we could put everything in line like a file system folder view. The problem with this one is that the list becomes very long and boring to look at: you probably need to scroll to see it correctly or unzoom it so far you won’t see anything.
Coming back to our radial chart, we also put more nodes on each line with no overlap and unzoom even further away. The issue in this case, as with all angle-based visualizations, is that the human visual system has a hard time evaluating angles precisely and thus difficulty counting the number of employees. For the curious reader and avid data viz designer, this observation led to the famous blog post: “Death to Pie charts”.
This problem is also the perfect opportunity to get creative in the data viz itself and gradually enter the realm of data art. Because it is already a compromise between different visual features, we could as well introduce aesthetics and emotions in the mix!
To iterate over a design, the data viz practitioner must ask him/herself questions that criticize the current implementation. For instance:
How would the audience judge its interpretability compared to the previous one?
Is the color palette appropriate for the data at hand?
Does it look more emotionally engaging, if so why?
On top of that, other artistic concerns must be addressed such as:
What is the concept behind this piece?
Is there a sense of harmony, symmetry in it?
How does it compare to previous pieces, too much similar? Coherent with the series?
Is the shape supposed to be figurative or totally abstract?
Do the colors resonate with the tone and idea behind the piece?
Data art to the rescue
A fuzzy radial tree displaying the hierarchy of the Havas group. While the hierarchical levels are harder to discernate, this data viz shows the total number of employees more accurately. Subjectively, it also offers a more interesting artistic shape like a multicolored iris.
These questions led me to create this “fuzzy” radial tree.
A zoom on ekino France, where I work. Notice how ekino’s blue is mixed with orange. It is due to the different email aliases belonging to its former organization Fullsix. Hence, some points are still labeled as Fullsix’s orange instead of ekino.
While it is harder to count the number of layers, we have a better sense of the total number of employees. If you are interested in the technical details, it was created by using the previous radial tree and by applying a bit of a force-directed layout to it.
“Art is never finished, only abandoned.”
« Art is never finished, only abandoned »
Leonardo Da Vinci
Once I “finished” this fuzzy radial data artwork, I put it as my wallpaper and moved on to other projects for a few months. I knew it was not in its final stage, yet I had no idea how to drastically improve it. Improving one aspect, such as visual compactness, would make a regression in another, like the interpretability for instance. In addition, I was so used to see a circular representation for these types of datasets that I had a hard time imagining something else.
I had to start fresh, a blank slate so to say, to be able to come up with something new.
Breaking the circle of death
If you are used to working with graph datasets, you know that most layout algorithms have a tendency to create circular-like shapes. It comes from the fact that they try to minimize the distance from the center of mass of the network without overlapping too much.
In layman’s terms, it means that most mathematical formula researchers use to draw networks on screen are based on the same physics model and that it often yields a circular shape.
Despite my love for these circular shapes, I wanted to create something radically different and kickstart creativity without doing a ring.
My first tries were leaning towards isometric shapes, but being a 2D artwork (to be printed) introducing a false sense of perspective didn’t really work for me here. I gradually came up to this triangular shape that I find compelling because it is so unusual in the network visualization world. It clearly shows each individual employee of the group, organized into each sub organization as we had before.
Another data art representation of the Havas employees network. The color palette is different but it is still linked to the different sub organizations in the group. Notice how well we can observe each individual employee. However, links between each subordinate are hidden, emphasizing more on the group as a whole instead of who is the boss. The CEO is still at the center of the piece in white.
Despite my enthusiasm for the previous triangular shape, I realized that it occluded the hierarchical nature of the network too much. I will keep this idea for a future piece where it really makes sense, here I clearly needed to go back to showing the links albeit more poetically…
“Together”
After countless other iterations and refinements, I am happy to present the final version of the data artwork: “Together”. I hope that you find it visually engaging, not to say beautiful, and that it resonates within you as it did with me.
This artwork visualizes the hierarchical positions of employees of the Havas group. The Havas group is one of the top leading communication groups in the world with a presence in more than 100 countries. In other words, the CEO is linked to his executive committee, the CXOs, who in turn are linked to their subordinates in each branch, and so forth. This particular network thus starts from the top management to the lowest entry position within the group.
Final words
I hope that this article shed some light around the process behind the creation of a data artwork and the value behind this novel integrated approach: from data to visualization to art.
As we saw, the ability to analyze internal organisational chart data proves to be extremely valuable for the top management, shareholders as well as human resources.
More generally, the brand image is one of the most valuable assets of a company both for its clients and employees. Departing from classical marketing schemes, data art adds a unique perspective on branding, mixing emotions and cognition altogether, as we expose the essence of the company in one artwork.
Interview du Dr Kirell Benzi, intervenant à la Data Visualization Society le 16 juillet prochain
Les données sont partout. Leur visualisation devient donc un enjeu de plus en plus important. La capacité à créer, comprendre, et interpréter des data est essentielle pour communiquer sur des sujets aussi variés que l’économie, la science, la politique, l’éducation, la santé, la culture, et dans de nombreux aspects de notre vie quotidienne. Data Visualization […]
Le site ekino.fr souhaite utiliser des cookies pour rendre votre expérience unique, comme vous. Si vous l’acceptez, nous enregistrerons des informations relatives à votre navigation afin de vous permettre de visualiser des videos Youtube. Via ces cookies tiers, Youtube collectera et utilisera des données qui lui sont propres, conformément à sa politique de confidentialité et à sa politique cookies. Lorsque vous aurez fait votre choix, vous pourrez le modifier à tout moment. Vous pouvez également poursuivre votre navigation uniquement avec les cookies strictement nécessaires ou non soumis à consentement (mesures d’audiences et de statistiques exemptés) en cliquant sur la croix. Pour en savoir plus, Politique de cookies et Politique de Confidentialité.
Cookies strictement nécessaires
Always active
Le site utilise des cookies strictement nécessaires à la fourniture de service que vous avez demandé ou facilitant la communication par voie électronique. Il s’agit de cookies indispensables qui vous permettent de naviguer sur notre site et d’utiliser ses fonctionnalités. Ils sont paramétrables via votre navigateur ; néanmoins, cela pourra affecter les fonctionnalités du site.
Preferences
The technical storage or access is necessary for the legitimate purpose of storing preferences that are not requested by the subscriber or user.
Mesures d’audience et statistiques
The technical storage or access that is used exclusively for statistical purposes.Le site utilise des cookies statistiques de Matomo permettant d’établir des statistiques et des volumes de fréquentation et d’utilisation des divers éléments composant notre site (rubriques et contenus visités, parcours, temps de visite) ce qui nous permet d’améliorer l’intérêt et l’ergonomie de nos services. Conformément au guide et aux conditions d’exemption édictés par la Cnil, ces cookies ne sont pas soumis au consentement préalable. Vous pouvez néanmoins à tout moment exprimer votre choix via le présent Module de gestion des cookies. En cas de refus, nous ne saurons pas quand vous avez visité Notre site web et ne serons pas en mesure de surveiller ses performances. Pour plus d’information, voir notre Politique de Cookies. Pour en savoir plus sur Matomo.
Cookie d’interaction ou de réseau social
Le site souhaiterait utiliser des cookies d’interaction/réseau sociaux, Youtube, ayant pour finalité la visualisation de contenus multimédia hébergés sur les réseaux sociaux ou plateformes et intégrés sur notre site. Pour plus d’information, voir notre Politique de Cookies. Pour en savoir plus sur YouTube.