Innovation Archives - Page 2 of 2 - Ekino FR

On entend beaucoup parler d’innovation technologique, d’innovation produit ou encore d’innovation business. Est-ce que tu peux revenir sur la définition même de l’innovation ?

Il s’agit d’abord d’apporter quelque chose de nouveau, une nouvelle expérience. L’innovation d’usage et/ou business est un terme très large. De l’assistant vocal à l’intelligence artificielle, en passant par la blockchain, il s’agit de poser un regard et une vision alternatifs sur les sujets à fort potentiel business et d’exploration. Et évidemment, concevoir et réaliser cette vision.

L’innovation est-elle réellement un levier de compétitivité ?

Sans aucun doute. Et ce, pour tous les secteurs d’activité : luxe, banque, commerce, automobile… L’innovation a une dimension stratégique. Maintenir une veille constante des changements et des forces en mouvement aujourd’hui permet de maintenir une vigilance à court et moyen terme. Ce qui peut permettre aux entreprises de se donner la chance d’anticiper et de changer la donne sur le marché qui les concerne.
C’est un minimum nécessaire. Mais pour ma part, je suis convaincu qu’il faut aller plus loin et tâcher de dégager une vision à plus long terme : 10, 15 voire 30 ans.
Il faut sans cesse anticiper, et se préparer pour ne pas se mettre en posture passive, à subir constamment la pression de ses concurrents.

L’innovation est-elle pour autant devenue un marqueur fort de différenciation ?

Certaines entreprises innovent à des rythmes très soutenus. Quand un acteur innove sur votre marché, vous devez souvent vous contraindre à le suivre pour être en mesure de proposer au moins le même niveau de service. Cela implique beaucoup d’investissements, et pourtant vous ne vous démarquez pas pour autant. D’où l’importance d’être proactif, d’investir dans l’innovation et de communiquer autour de ces sujets. Mais pas n’importe comment, il est primordial de travailler à une innovation pragmatique.

Qu’entends-tu par innovation pragmatique ?

Chez ekino, nous avons toujours eu une culture de l’exigence. Envers nous-mêmes bien sûr, mais également envers les technologies et les expériences sur lesquelles nous travaillons. Mais pour ça, il ne faut pas avoir peur des échecs. Innover, c’est aussi prendre des risques. Cela fait partie du métier. Ces risques, nous ne les subissons pas, nous les transformons en opportunités. Nous mettons en place des méthodologies de conception pour tester et tirer un maximum d’enseignements de ces expériences pour toutes les transformer en atout et en opportunitées commerciales. Nous allons aller chercher les nouveaux usages dont personne ne se doute; pour avoir une vision claire de ce qui peut enrichir l’expérience et les objectifs du client final. Nous partons des besoins clients, et si l’innovation ne résout pas ses problématiques spécifiques, nous lui proposons une autre solution. C’est pour cette raison qu’il est très important de travailler en transversalité avec les équipes commerciale, technique, et marketing. On écoute, on apprend, on recherche, on propose, et on conçoit. Nous sommes convaincus que ce n’est qu’en confrontant nos concepts à la vie réelle qu’on développera les bons outils. C’est ça l’innovation pragmatique.

Le coût que peut représenter l’innovation est souvent un frein pour certaines entreprises. Comment faire ?

Tester une idée ne coûte pas forcément cher. Par exemple, chez ekino, nous mettons en place des “pretotypes”. C’est une phase en amont du prototype; une sorte de mise à l’épreuve qui nous permet d’investir peu tout en tirant le maximum d’enseignements. Avant d’investir ou de faire investir à un client un budget pour un projet innovant, nous devons nous assurer que la solution remplira bien ses objectifs. Une fois l’usage validé auprès des cibles, on peut développer le concept étape par étape et passer à l’industrialisation. Il ne faut pas avoir peur de l’innovation. Une simple et bonne idée n’est pas nécessairement coûteuse. C’est parfois une réorganisation de l’existant qui fera toute la différence.

L’innovation s’intègre t-elle facilement au sein des structures traditionnelles ?

Déployer des solutions/outils innovants a un impact au sein de l’organisation des entreprises qui souhaitent se lancer dans l’innovation. Il est de notre devoir d’accompagner les équipes internes dans cette transformation. Pour cela, nous travaillons main dans la main avec nos équipes Design et UX. Ces équipes vont passer du temps au sein des sociétés pour comprendre leur fonctionnement, identifier leurs besoins, et comprendre leur complexité. Tout au long du projet, nous intégrons les équipes métier, leurs retours et témoignages et nous les accompagnons pour une parfaite adaptation au nouveau dispositif.

Est-il possible aujourd’hui d’anticiper les innovations de demain ?

Innover est devenu une nécessité pour beaucoup de nos clients. Il faut la surveiller, la capter, la comprendre, l’étudier, et la challenger. Aujourd’hui, il ne suffit plus d’être passif et d’attendre qu’une nouvelle innovation vienne résoudre sa problématique ou menacer son business model. Aujourd’hui, le rythme des nouvelles innovations est si radical et rapide qu’il est essentiel d’être un véritable moteur de son changement pour comprendre les enjeux de demain. Au sein de l’Atelier, nous utilisons des méthodologies d’anticipation stratégique pour identifier les enjeux techniques, d’usage et business à long terme. Cela nous permet de déterminer le type de recherches que nous devons mener pour pousser plus loin encore les sujets d’innovation et faire en sorte qu’ils puissent déployer tout leur potentiel de valeur.

Peux-tu nous en dire un peu plus sur les missions de l’Atelier d’ekino ?

L’Atelier ekino Paris a vu le jour il y a 4 ans maintenant. C’est un centre de recherche et développement axé sur l’innovation digitale. Nous fonctionnons en deux activités principales perméables entre elles :

La veille et la recherche appliquée business : nous faisons une veille constante et rigoureuse. Nous challengeons toutes les nouvelles innovations pour mettre à l’épreuve leur valeur réelle, c’est-à dire leur valeur d’usage et leur valeur business. Nous en tirons un rapport argumenté qui nous permet de trancher sur l’utilité ou non de ces innovations pour nos clients. Une fois cette veille faite et testée, nous allons encore plus loin en menant des recherches orientées “business”. Nous collaborons avec des chercheurs et nos équipes internes pour faire avancer “l’état de l’art” et stabiliser nos découvertes pour les proposer à nos clients.

L’accompagnement : forts de ces expertises, ces enseignements et ces expériences, nous pouvons accompagner nos clients du conseil jusqu’à l’industrialisation. C’est dans cette phase que notre collaboration étroite avec nos équipes design et technique prend tout son sens. Nous pouvons ainsi mener des projets innovants, ayant un sens et de la valeur ajoutée, construits avec la qualité industrielle d’ekino.

Comment ces recherches se mènent-elles concrètement ?

Nous nous entourons de nombreux collaborateurs. Par exemple sur la relation homme/machine, nous échangeons avec des chercheurs, mais aussi avec des scénaristes de cinéma. L’idée est de créer une expérience conversationnelle convaincante et naturelle avec la machine pour aller plus loin que les dialogues actuels souvent déceptifs des chatbots. Les discussions ne sont pas fluides, ce qui nous fait complètement passer à côté de l’expérience globale qui est promise à l’origine. Cette nouvelle étape du chatbot, nous préférons l’appeler “agent conversationnel” dans le sens où il devient un vrai canal de dialogue avec la marque ; un accès facile et naturel à ses services.

Un dernier conseil à donner pour les entreprises qui souhaiteraient se lancer dans l’innovation ?

Oui ! Enfin il s’agit plutôt de questions à soulever que d’un conseil. Posez-vous ces deux questions et vous aurez déjà une première idée de la partie de votre business sur laquelle innover.

  • Si j’étais un concurrent sans limite de ressources innovantes, comment j’attaquerais ma propre valeur sur mon marché ?
  • Quelle partie de mon business n’a pas évoluée depuis un moment ? Ce sera celle qui sera la plus sensible à l’émergence de nouvelles innovations.

Crash test : Les assistants personnels

Mobilité contre immobilité Bougez, soyez mobile, vas là-bas, reviens ici… tout bouge aujourd’hui, et la technologie nous accompagne, voire nous y encourage, comme les traqueurs d’activité par exemple. Les smartphones, les montres connectées nous suivent et font office d’assistant personnel. « OK Google, donne-moi la météo pour ce week-end. »  « Siri, rappelle-moi que j’ai rendez-vous avec Mathilde […]

Lire la suite de Crash test : Les assistants personnels

Avec la collaboration de Ky Lân Vu Tong

Depuis ce début d’année, on entend beaucoup parler de chatbot. Ils redeviennent tendance grâce à des acteurs comme Facebook, qui donnent la possibilité de les intégrer directement dans leur application Messenger. Soucieux de créer toujours de nouvelles expériences à travers leurs plates-formes, et avec une application de messagerie qui compte désormais près de 900 millions d’utilisateurs, Facebook permet aux marques de se ré-approprier ce canal qui leur a toujours échappé. Rappelons nous de l’introduction des fanpages qui avaient bouleversé la manière dont les marques devaient communiquer avec leurs consommateurs sur le web. Les chatbots leur permettent d’aller encore plus loin dans l’expérience de marque et notamment de pouvoir avoir une relation directe et privilégiée avec leurs consommateurs.

De plus, avec le constat que les détenteurs de smartphone n’utilisent que très peu d’applications à cause de la charge cognitive que ça implique (la télécharger, s’inscrire, apprendre à s’en servir, s’en servir au quotidien, etc), Facebook en est arrivé à la conclusion que les services proposés par les marques à travers ces applications pouvaient passer directement par Messenger.

Début juillet, plus de 11 000 bots existaient sur Messenger. Sur les quelques chatbots que nous avons testés (Poncho, CNN, KLM, Meetic, etc), nous trouvons que leur expérience utilisateur pourrait être améliorée. Dès lors, quels sont les leviers possibles en terme d’expérience, pour encourager l’adhésion à ce concept ? Quelle est l’expérience ultime du chatbot ?

Petit histoire du chatbot

Les chatbots ou agents conversationnels existent depuis environ 50 ans. Un des tout premiers chatbots s’appelle ELIZA, conçue pour simuler un psychothérapeute rogérien. ELIZA fonctionne grâce à l’analyse sémantique. C’est-à-dire par reconnaissance de formes et de mots-clés et répond grâce à ce modèle structurel. Cette première expérience a tellement bien fonctionné qu’elle a donné son nom à un nouveau symptôme “l’effet ELIZA”. L’effet ELIZA désigne la tendance à assimiler de manière inconsciente le comportement d’un ordinateur à celui d’un être humain. Ce comportement découle directement de notre capacité à l’anthropomorphisme. Cette façon que nous avons d’attribuer des caractéristiques humaines au moindre objet / animal / figure est ancrée très fortement depuis la petite enfance. Un simple smiley est interprété en visage amical seulement grâce à ces éléments de ponctuation : )

Alors qu’ELIZA a été conçue dans le but précis d’aide à la personne, d’autres chatbots ont vu le jour à des fins purement conversationnelles, par exemple Cleverbot. Cleverbot fonctionne différemment d’ELIZA : il est basé sur l’apprentissage. Plus on lui parle, plus il apprend et plus il est capable de répondre à une phrase donnée par rapport aux conversations qu’il aura eu auparavant. Cleverbot est donc là pour discuter. Malheureusement la discussion coupe court car très vite, le robot répond des choses incohérentes. Résultat d’un apprentissage sans compréhension du contexte ni discernement des intentions de l’interlocuteur.

Le test de Turing

Lorsqu’on parle d’expérience concernant les chatbots, on entend souvent parler aussi du test de Turing. Il teste la capacité de la machine à imiter l’être humain dans une conversation écrite. Ce test est très simple : via une interface, il consiste à confronter une personne face à un ordinateur et face à une autre personne. Si le cobaye n’arrive pas à distinguer l’ordinateur de son homologue humain, le test est réussi.

Contrairement aux idées reçues, ce test a été franchi avec succès de nombreuses fois.

ELIZA et Cleverbot eux-même, y ont été soumis et ont plutôt réussi. Controversé, le test de Turing ne teste pas l’intelligence de l’ordinateur mais son imitation d’une conversation avec un homme. Cependant, que recherche-t-on aujourd’hui, lorsque nous conversons avec un chatbot ? L’illusion de la compréhension et de l’expression naturelle n’est-elle pas suffisante pour assurer un dialogue satisfaisant ?

Attention ! Nous ne parlons pas de faire croire à un utilisateur qu’il parle à un être humain alors que ce n’est pas le cas. Il s’agit d’instaurer un dialogue naturel avec une machine présentée comme telle.

Pour une expérience idéale

Nous supposons que pour obtenir une bonne expérience, un utilisateur préférera discuter de manière fluide et simple avec un chatbot. En d’autres termes, discuter comme avec un autre être humain. Afin d’optimiser au mieux cette expérience, il est préférable de déterminer des traits d’expression qui, en provoquant l’imaginaire de l’utilisateur, lui feront projeter un caractère. Un profil psychologique qui n’existe bien sûr pas.

Cependant, cet imaginaire nous semble nécessaire pour créer un lien relationnel nécessaire à la bonne conduite de la conversation.

Pour cela, nous avons théorisé quelques pistes qui pourraient aider / faciliter l’adhésion des chatbots dans notre vie quotidienne.

  • L’empathie

L’empathie est un des éléments qui va permettre de créer une expérience fluide et agréable. Cela facilitera la relation de confiance entre l’utilisateur et le chatbot. Concernant ce dernier, il peut en montrer des signes tels qu’être à l’écoute de son interlocuteur, montrer un désir de mieux le connaître, lui poser des questions, orienter la discussion vers l’utilisateur et son besoin. Ces signes qui créent une expérience agréable sont aussi mis en place dans le but de récolter des données afin de s’ajuster au mieux à l’utilisateur.

De l’autre côté, l’utilisateur aura l’impression d’être entendu, écouté et compris.

  • L’illusion d’ego

Le chatbot devrait simuler une individualité. Il utilisera le pronom « Je » pour parler de lui et donner l’illusion d’un ego. Il pourra même être amené à exprimer des signes de désir (“J’aurai aimé…, j’ai toujours rêvé de…”), d’hésitation (“Je ne sais pas…”), d’appréhension, etc. afin de lui donner un aspect plus humain. Il n’a pas besoin d’être parfait, ni de comprendre systématiquement car l’incompréhension est humaine. Ainsi, cela stimulera l’imaginaire de l’utilisateur et cela lui permettra de se projeter plus facilement.

C’est ce qu’a essayé de faire Meetic avec ces deux chatbots. Ils ont créé les profils de Lara et Tom afin que l’utilisateur puisse avoir l’impression de discuter avec une vraie personne. Mais ici l’expérience chute avec le jeu de questions/réponses à clic.

  • Le langage

Le langage naturel est ce qui fera la différence entre parler à un robot et parler à un chatbot sympathique. Aujourd’hui, il existe deux types de chatbots : celui dicté par les commandes et celui qui tente d’imiter le langage naturel en analysant les mots de son interlocuteur. Pour imiter au mieux l’expression naturelle, cela passe par l’humour, les temps de réflexion, inclure les sonorités à l’écrit, des smileys montrant des intentions ou des émotions, partager le même niveau linguistique car cela permet de garder une proximité avec son interlocuteur. Attention tout de même à évaluer la distance sociale que l’utilisateur souhaite garder car tout le monde ne souhaite pas être familier avec son assistant virtuel.

Toutes ces micro-interactions / actions qui sont les éléments d’une conversation normale, adaptées au contexte, donnent l’illusion d’une écoute attentive et d’une envie d’offrir un service.

  •  Le contexte de discussion

Ce qui peut faire la force d’un chatbot est sa prise en compte du contexte. En effet, répondre “Je mange des pommes.” à la question “Salut, ça va ?” cassera automatiquement l’expérience ainsi que l’espoir de l’utilisateur d’avoir une expérience conversationnelle avec son chatbot. Or, ici, si le bot prenait en compte le contexte tel que :

  • le début de la conversation,
  • le fait que ce soit une question,
  • et l’analyse sémantique de la phrase ;

cela lui permettrait sûrement de pouvoir répondre “Oui, ça va.”. Ainsi, l’utilisateur gagnerait en confiance et continuerait à parler “normalement” avec son chatbot. Bien entendu, plus la discussion avance, plus la conversation est difficile à tenir. C’est pourquoi, déterminer un périmètre d’intervention précis permet au robot d’avoir un contexte de réflexion donné et connu de l’utilisateur. Cela limitera les déceptions de l’utilisateur lorsqu’il lui pose une question à laquelle il ne peut pas répondre.

Cependant, un système de rattrapage pour recentrer la conversation peut s’avérer utile dans le cas où l’utilisateur sort du contexte du chatbot. Par exemple, dès l’instant où le chatbot n’a pas un indice de confiance suffisant dans son analyse contextuelle de la phrase de l’utilisateur, il peut demander une réponse plus claire sans pour autant faire chuter l’expérience.

Dans le cas d’un chatbot de réservation de billets de train par exemple, “Veuillez reformuler votre réponse.” est moins engageant que “Je n’ai pas bien compris. Voulez-vous toujours partir à Rome ?”.

Conclusion

Nous avons abordé ici les chatbots du point de vue d’une expérience complète et naturelle. Suite à cette réflexion, nous pourrions nous poser la question de savoir si l’illusion de parler comme avec un être humain lorsqu’il converse avec un chatbot, est vraiment l’expérience ultime qu’un utilisateur recherche. En réalité, cette question n’a pas lieu d’être aujourd’hui car nous sommes très loin d’atteindre cette expérience.

Si les technologies ont beaucoup évolué depuis les années 50, notamment ces dernières années avec l’arrivée du Machine Learning, l’usage que l’on doit en faire, la direction que devraient prendre les recherches appliquées sont encore à définir.

Alors les chatbots seraient-ils une fausse promesse ? Heureusement non. Nous pouvons déjà créer et évaluer une bonne expérience dans un contexte limité et maîtrisable. Nous vous invitons d’ailleurs à lire l’article d’Emmet Connoly, qui pose des principes de design offrant une expérience utilisateur optimale appliquée à la technologie disponible.

Le contraste entre ces principes et nos recherches nous fait prendre conscience du gouffre technologique qui reste à combler mais aussi de voir à quel point nous essayons d’humaniser la technologie. En effet, nous pouvons constater qu’aujourd’hui, dans un monde où règne la technologie, l’humanisation devient un élément moteur dans son évolution, alors qu’à l’inverse, nous nous appliquons de plus en plus à mesurer, détailler, circonscrire l’humain.

L’autonomie des objets connectés

Nous étions au Salon de l’Internet des Objets (SiDo) cette année à Lyon. C’est le premier évènement français qui rassemble de grands acteurs de l’IoT (Internet Of Things), des industriels, des entreprises spécialisées, voire des chercheurs dont le domaine déborde sur l’IoT. Plusieurs débats de qualité y ont été menés et l’un d’eux, assez pointu, a particulièrement retenu notre attention […]

Lire la suite de L’autonomie des objets connectés

Même si au départ, identifié comme un atelier, le sujet de Marc Van Rymenant s’est finalement traduit par une présentation, ce qui ne l’a pas rendu inintéressant pour autant. Dans un premier temps, il nous présente le fonctionnement du cerveau et ses différents mécanismes. Sans rentrer dans les détails, il nous explique que le cerveau est composé de 3 couches, le cerveau « reptilien », le cerveau « émotionnel » et le cerveau « logique ». Or le cerveau « émotionnel » agit comme un filtre qui permet de mettre en évidence ce qui nous intéresse. A la préhistoire, il permettait de fixer l’attention sur une proie. Aujourd’hui il nous permet de fixer notre attention sur l’espace d’une interface proposant le produit que l’on veut acheter. Marc nous apprend également que 95% des activités du cerveau sont non conscientes et que nous prenons des décisions grâce à des mécanismes automatiques.

Pour étudier le fonctionnement du cerveau et le comportement des utilisateurs vis-à-vis des interfaces, il nous explique que les techniques telles que l’AB testing sont utiles pour faire émerger une version par rapport à une autre, mais n’explique pas pourquoi ça marche ou ça ne marche pas. Alors qu’au contraire, les neurosciences cherchent à expliquer ce qu’il se passe dans notre cerveau et à voir ce qu’il fait.

Certaines études ont d’ailleurs pu montrer que dans le cadre d’une interface qui intéresse fortement l’utilisateur, le cerveau « émotionnel » signale au cerveau « logique » les éléments qu’il doit analyser plus en profondeur. Si les éléments ne correspondent pas aux attentes de l’utilisateur pour exécuter la tâche voulue, les deux cerveaux rentrent en compétition et dans un cas extrême le cerveau cognitif peut inhiber le fonctionnement du cerveau « émotionnel » pour se focaliser sur une tâche cognitive.

Pour pouvoir étudier ces comportements et le cerveau à des moments aussi précis et pendant des laps de temps aussi court, ils utilisent des IRMF (Imagerie par résonnance magnétique fonctionnelle) et non des EEG (Électro-encéphalogramme), qui ne montrent que 16 zones de l’activité du cerveau. Ces zones sont en surface et ne peuvent pas montrer les émotions du sujet étudié. Il est également peu utile de se baser sur des techniques classiques quanti et quali parce que seul un faible pourcentage d’activités est analysé. Daniel Kahnemann (Prix Nobel d’économie en 2002 et auteur de « système 1 / Système 2 : les deux vitesses de la pensée ») signale que « la plupart du temps les personnes étudiées ne font pas ce qu’elles disent ou ce que nous pensons qu’elles disent ». En somme, ces études n’apportent que 5% des réponses concernant leurs interactions avec le service proposé.

Le filtre que constitue notre cerveau « émotionnel » peut évoluer. L’effet « Banner Blindness » très connu aujourd’hui en est un exemple. Lorsqu’un sujet regarde un site composé de 3 colonnes, ce dernier ne regarde plus la colonne de droite, car associé automatiquement à une zone de publicité qui ne correspond pas à ses objectifs. C’est l’association à une tentative de manipulation qui met en alerte notre cerveau et nous prémuni du danger.

Enfin et pour conclure sa présentation, Il nous propose une méthode de conception inversée. En partant d’une page vide, on détermine les actions (Retrouver, Interagir, découvrir, engager, etc…) attendues par zone avec les hypothèses de contenus associés. Ensuite on détermine la trajectoire théorique des yeux sur la page en mettant en avant la zone de visibilité dû à la Fauvea. Une fois cette étape effectuée, il nous propose de déterminer, pour chaque zone, le niveau de l’effort cognitif, le niveau d’affect, le niveau du moteur et les liens de perception avec les zones environnantes attendues. (Par exemple : Cognition – Effort Moyen, Affect – Normal, Moteur – Interaction simple, Perception – Lien fort avec la zone supérieure)”

Plus d’articles sur ce sujet sur  : http://www.simplifyinginterfaces.com/

Voir les articles des autres conférence :

(Programme complet des conférences : http://uxday.flupa.eu/programme)

Comment l’Intelligence artificielle métamorphose la création numérique

Cette présentation de Dominique Sciamma et Florent Aziosmanoff nous a montré une nouvelle démarche dans le cadre de la création numérique. Dominique Sciamma nous a expliqué qu’aujourd’hui, il faut dépasser l’interface et penser intelligence artificielle : créer des RObjets. Les RObjets sont des Robots Objets qui perçoivent le monde, l’analysent, prennent des décisions et agissent. De cette démarche, […]

Lire la suite de Comment l’Intelligence artificielle métamorphose la création numérique

Dans sa série SUR-FAKE de 2015, le photographe Antoine Geiger traite des addictions aux écrans et montre dans une de ses photos un groupe de visiteurs au musée ; ils ne regardent pas les œuvres mais consultent leurs smartphones. Altérés par un logiciel, les visages des visiteurs sont étirés jusqu’à l’écran et traduisent cette obsession.

En effet, sans nous en rendre compte, nous consultons environ 221 fois notre smartphone par jour. Golden Krishna, designer chez Google et auteur du livre “The best interface is no interface”, pointe du doigt l’impact énorme qu’a la technologie dans notre quotidien.

« Are you sick? There’s an app for that! Need to pray? There’s an app for that! Dead? Well, there’s an app for that, too! ».

Au bureau, en soirée, dans la chambre à coucher, jusque dans la salle de bain… fini le temps des piles de BD et des magazines people dans les toilettes ! Les applications captent toute notre attention et se rendent indispensables.

« When we saw problems, we slapped an interface on it ».

Golden Krishna dénonce ici le « screen-based thinking ». L’exemple qu’il donne du système Lockitron est significatif : cette application permettait de déverrouiller une serrure sans avoir besoin de chercher ses clés dans son sac… mais en passant par 12 étapes successives ! Il s’agit de se poser les bonnes questions : les utilisateurs veulent-ils vraiment que leur porte soit fermée à clé, ou veulent-ils seulement que leur maison ne soit accessible qu’à eux ? Google a bien été le premier à réaliser que la rationalisation du résultat est la meilleure des réponses à une conception. Qui aurait pu penser qu’un site conçu pour que les utilisateurs y passent le moins de temps possible serait le plus utilisé ?

C’est en étudiant correctement les comportements et en se posant les bonnes questions que l’on peut recueillir les bonnes données. L’interprétation de ces données est la clé d’un bon design qui peut donner ce que l’utilisateur veut, quand il veut, sans même le lui demander. Reprenons l’exemple du système Lockitron: une start-up berlinoise a su répondre correctement aux besoins des utilisateurs : elle a pensé un système qui permet d’ouvrir une porte sans les mains grâce à une technologie sans fil : kiwi.ki. Et ça fonctionne. Comment ? ça n’a pas d’importance. Les utilisateurs sont plus intéressés par le résultat final, obtenu facilement et rapidement, que par le temps qu’ils passent sur une interface, à cliquer sur des boutons.

Toujours dans sa série SUR-FAKE de 2015, Antoine Geiger montre ici un cycliste sur un vélib à Paris prenant un selfie. Le traitement graphique qui fait que son visage est absorbé par l’écran de son smartphone traduit cette dépendance.

La cohabitation entre les individus et la technologie peut donc faire sens en construisant un monde sans interface digitale. Je cite Golden Krishna, « It’s time to think outside the screens ». Le design de fonctionnalités et le rapport aux résultats sont deux concepts qui font la différence entre une bonne et une mauvaise conception. Cette différence de démarche est une innovation plus significative que l’innovation par l’écran. En tant que designer UX, nous devons nous concentrer sur l’élaboration de l’expérience vécue par l’utilisateur et résoudre les vrais problèmes. Et s’il s’agissait de simplifier et de minimiser au maximum les interactions entre une interface et l’utilisateur en rendant l’intégration des produits dans la vie quotidienne de la manière la plus transparente possible ?

Demain peut-être, nous pourrions attendre le bus, dîner avec des amis, aller au cinéma, faire du sport… ou seulement discuter sans être sans cesse absorbés par nos téléphones !

Photographies publiées avec l’aimable autorisation d’Antoine Geiger.

Visual Aesthetics in Human-Computer Interaction and Interaction Design

Pendant très longtemps, l’esthétique visuelle a été délaissée au profit de l’ergonomie. Tractinsky explique cette négligence en citant les principes de Vitruve qui sont les suivants : Firmitas : représente la force et la durabilité Utilitas : utilité et le caractère approprié de l’objet Venustas : la beauté. Le firmitas et l’utilitas étaient très bien […]

Lire la suite de Visual Aesthetics in Human-Computer Interaction and Interaction Design

This article is available in english.

Introduction

Depuis les débuts de l’informatique, l’homme cherche à communiquer avec les machines. Si les nombreux langages de programmation permettent une forme d’échange entre l’homme et la machine, on aimerait que cette communication se fasse de façon plus naturelle. Pour que cela soit possible, il faut d’abord que la machine “comprenne” ce que l’utilisateur lui dit puis qu’elle soit capable de répondre d’une manière compréhensible par l’homme.

La discipline dernière ce processus s’appelle le Natural Language Processing (NLP) ou Traitement Automatique du Langage Naturel (TALN) en français. Elle étudie la compréhension, la manipulation et la génération du langage naturel par les machines. Par langage naturel, on entend le langage utilisé par les humains dans leur communication de tous les jours par opposition aux langages artificiels comme les langages de programmation ou les notations mathématiques.

Le NLP est parfois confondu avec le NLU (en) dont l’expression est apparue plus récemment. Le NLU (Natural Language Understanding ou Compréhension du Langage Naturel en français) est en réalité un sous-domaine du NLP qui s’intéresse spécifiquement à la compréhension du langage écrit. Il regroupe des tâches comme l’analyse de sentiments (en), le résumé automatique de texte (en), les systèmes de questions-réponses (en), les agents conversationnels,….

Bref historique

Figure 2. Chronologie du NLP.

Le NLP est un champ de recherche qui commence avec les débuts de l’informatique moderne et prend réellement son essor ces dernières années. Son histoire débute dans les années 40 et 50. Elle se concentre alors essentiellement sur la traduction de phrases simples. On peut citer l’expérience Georgetown (en) en 1954 qui comportait la traduction complètement automatique de plus de soixante phrases russes en anglais.

Puis dans les années 60 et 70, on voit l’émergence des premiers chatbots comme ELIZA (1964). Mais c’est à la fin des années 80 que le NLP fait sa révolution avec l’introduction des algorithmes de _Machine Learning_ dans le traitement du langage et l’augmentation de la puissance informatique.

Actuellement, avec les technologies informatiques toujours plus perfectionnées et abordables, la quantité de données open source toujours plus importante et l’utilisation du _Deep Learning_, le NLP est en pleine expansion. Le Deep Learning est utilisé dans de nombreuses tâches du NLP entraînant une amélioration significative de leur performance. Il est également à l’origine du développement d’une méthode de transformation de mots en vecteurs numériques appelée _Word Embedding_. Cette technique est une réelle avancée car elle permet d’obtenir des vecteurs quantitatifs qui conservent la similarité contextuelle des mots.

Quelques tâches du NLP

Le tâches du NLP sont nombreuses et plus ou moins complexes. Parmi les tâches courantes, on peut citer la segmentation de texte. Il en existe différents degrés. Pour la segmentation d’un texte en phrases, on parlera de _Sentence Boundary Disambiguation_ (en) (SBD). Il s’agit alors de déterminer où commence et où s’arrête une phrase. Pour cela, on peut s’appuyer sur un ensemble de règles pré-établies ou déterminées par apprentissage à partir d’un texte.

# Input<br />
"Ceci est 1 première phrase. Puis j'en écris une seconde. pour finir en voilà une troisième sans mettre de majuscule"

# Output<br />
Ceci est 1 première phrase.<br />
Puis j'en écris une seconde.<br />
pour finir en voilà une troisième sans mettre de majuscule

# Input<br />
"Ceci est une première phrase Ceci en est une seconde mais il manque un point pour les séparer"

# Output<br />
Ceci est une première phrase Ceci en est une seconde mais il manque un point pour les séparer

On peut aussi fractionner un texte en unités plus petites appelées tokens, on parle alors de tokenisation (en). Les tokens peuvent être des mots, des n-grammes (groupe de n tokens consécutifs), des chiffres, des symboles et de la ponctuation.

# Input<br />
"Les tokens peuvent êtres des symboles $, des chiffres 7 et des mots!"

# Output<br />
['Les', 'tokens', 'peuvent', 'êtres', 'des', 'symboles', '$', ',', 'des', 'chiffres', '7', 'et', 'des', 'mots', '!']

Enfin, il est possible de faire de la segmentation de topics. Plusieurs approches sont possibles :

  • Il peut s’agir d’une approche supervisée de classification de documents. Dans ce cas, les topics sont déjà connus et l’on entraîne un modèle de classification à partir d’un corpus de textes labellisés selon les topics pour ensuite utiliser ce modèle sur un nouvel ensemble de textes.
  • Il peut également s’agir d’une approche non supervisée où l’on essaye de faire apparaître les topics principaux d’un ensemble de textes puis de relier les topics aux textes. On parle alors de _Topic Modeling_ (en).
 
Figure 3. Exemple de visualisation de Topic Modeling.

Les tâches de classifications ne se limitent pas aux topics. Il est possible de classer des textes ou bien des phrases selon leur polarité (positif versus négatif) par exemple. La classification est une approche dite supervisée. Elle nécessite d’avoir des jeux de données labellisés, ce qui n’est pas toujours aisé à trouver. On peut alors utiliser des approches non supervisées de clustering qui vont permettre de regrouper des phrases ou des textes similaires sans avoir besoin d’un jeu de données labellisé.

D’autres tâches très courantes en NLP sont le _Part-Of-Speech Tagging_ (POS-Tagging ou étiquetage morpho-syntaxique en français) et le _Named-Entity Recognition_ (NER ou reconnaissance d’entités nommées en français). La première consiste à associer à chaque mot d’un texte sa classe morphosyntaxique (nom, verbe, adjectif…) à partir de son contexte et de connaissances lexicales.

Figure 4. Exemple de représentation sous forme d'arbre de POS-Tagging obtenu avec la librairie Python NLTK.

La deuxième tâche permet de reconnaître dans un texte un certain type de concepts catégorisables dans des classes telles que noms de personnes, noms d’organisations ou d’entreprises, noms de lieux, quantités, distances, valeurs, dates….

Figure 5. Exemple de représentation sous forme d'arbre de NER obtenu avec la librairie Python NLTK.

Enfin parmi les tâches de NLP plus complexes, on peut citer la traduction automatique (Machine Translation, MT en anglais). La traduction automatique statistique (Statistical Machine Translation, SMT en anglais) repose sur des algorithmes prédictifs qui “apprennent” à partir d’un corpus parallèle, c’est-à-dire un ensemble de textes en plusieurs langues, en relation de traduction mutuelle. La traduction automatique neurale (Neural Machine Translation, NMT en anglais) s’appuie sur des algorithmes de Deep Learning.

Figure 6. Exemple de traduction Français-Anglais.

Toutes les tâches citées précédemment se concentrent sur l’analyse et la compréhension du langage naturel mais un autre aspect important du NLP est la génération automatique de textes (Natural Language Generation, NLG en anglais). Le NLG permet notamment d’automatiser la génération de rapports, de résumés, de paraphrases, de réponses dans un système de dialogue….

Exemples d’applications courantes en NLP

Toutes ces différentes tâches permettent de développer des applications et outils dont beaucoup nous servent au quotidien. Comme précisé précédemment, la traduction automatique est utilisée par Google Translate mais aussi par beaucoup d’autres outils de traduction comme l’application mobile Microsoft Translator permettant de traduire des documents dans une soixantaine de langues différentes ou encore Skype Translator pour faciliter les conversations de groupes allant jusqu’à 100 interlocuteurs.

On assiste à l’heure actuelle à une multiplication des chatbots et assistants personnels (Google Now, Cortana, Siri). Ces technologies font appel à plusieurs tâches de NLP pour “comprendre” la demande de l’utilisateur et y répondre sous forme de langage naturel.

Figure 7. Processus d’un système de dialogue.

Schématiquement, dans un processus de système de dialogue (en), la déclaration de l’utilisateur (sous forme vocale ou textuelle) est pré-traitée par diverses méthodes de NLP. Le résultat du pré-traitement est ensuite analysé par une unité de NLU. Puis les informations sémantiques sont analysées par le “dialog manager” qui garde l’historique et l’état du dialogue et gère le flux général du dialogue. La dernière phase va permettre de générer une réponse à l’utilisateur sous une forme comprise par celui-ci.

La classification de textes permet de construire des détecteurs de spams ou faire de l’analyse de sentiments pouvant être utilisée par exemple dans la prédiction d’une élection, du succès ou non d’un film ou tout autre produit.

Le clustering permet de regrouper des documents similaires et peut être utilisé dans un système de recommandation d’articles par exemple.

Enfin de nombreuses tâches de NLP sont utiles pour faire de l’extraction d’informations. Le Topic Modeling par exemple, permet de déterminer les thèmes principaux d’un document sans avoir à le lire et d’en extraire des mots clefs.

Conclusion

Comme nous avons pu le voir dans cette première partie introductive, le NLP est un champ de recherche en plein développement. Sa grande complexité, liée à l’ambiguïté du langage naturel et à la très grande diversité des langues existantes, en fait un domaine très intéressant qui va continuer à évoluer et à s’améliorer. Cette évolution passe notamment par le développement de frameworks et l’enrichissement des données disponibles. Ces deux points seront abordés dans la seconde partie de l’introduction.

Bibliographie

Crédit images

L’ensemble des illustrations sont sous licence CC0 (en).