Innovation Archives - Ekino FR

Les services vocaux ont connu une croissance massive ces dernières années, avec une vitesse d’adoption plus rapide que celle du mobile les années précédentes. La croissance de la voix ne repose pas seulement sur le recours aux assistants vocaux intelligents, tels qu’Alexa d’Amazon, mais aussi sur la voix intégrée dans de nombreux appareils tels que les voitures, les maisons et les villes. L’interaction humaine avec les services vocaux a conduit à la nécessité de modèles clairement définis pour gérer les interactions des utilisateurs. C’est là que le design conversationnel entre en jeu.

Le design conversationnel est le principe de conception d’expériences sans recourir aux moyens traditionnels tels que le clavier, la souris ou une interface utilisateur graphique. Alors, comment créer des expériences utilisant la voix ? Les conversations doivent être fluides, humaines, répondre aux attentes des utilisateurs et, surtout, ne pas contenir d’erreurs. Les interactions humaines n’ont pas d’erreurs, alors celles entre un utilisateur et un assistant vocal ne devraient pas non plus en avoir. Cet article vous propose de plonger dans l’univers de la voix en vous partageant nos retours d’expérience sur des projets concrets.

Qu’est-ce que le multimodal ?

Le mot “conversation” est défini par un échange de mots. Cependant, il a une portée plus large et doit être multimodal. Le terme “multimodal” fait référence au débit de conversation et à la cohérence dans le système des assistants vocaux, aux services multicanaux et à l’expérience de l’interaction humaine.

Toutefois, la technologie de la voix à elle seule est une solution à court terme, mais ne peut être viable sur le long terme. Une expérience multimodale représente le résultat idéal à atteindre. Cela permettra une expérience centrée utilisateur solide avec de nombreuses fonctionnalités et plus pertinente.

Une approche multimodale optimale pourrait donc commencer par une conversation vocale sur Alexa, puis passer sur une interface visuelle pour un service de cartographie par exemple, ou livrer un document par courrier électronique à la demande de l’utilisateur. La vraie puissance des expériences multimodales est de couvrir l’ensemble de l’écosystème.

Nous développons actuellement des expériences multimodales pour nos clients. J’aimerais toutefois dire que nous avons commencé il y a quelques années avec un système entièrement défini, mais avec tous les nouveaux processus, il faut parfois des échecs et des changements d’approche pour arriver à ce stade de la démarche.

Comment en sommes-nous arrivés au design conversationnel ?

Nous avons commencé à construire des services vocaux il y a quelques années, avant même que les enceintes connectées n’arrivent sur le marché, en nous procurant le premier appareil Alexa des États-Unis. Bien qu’utilisés de manière simple lors de la réalisation de prototypes client ou de démonstrations durant nos pitchs, ces services étaient bien fonctionnels : la grande majorité des requêtes vocales qui leur étaient adressés généraient une réponse, et ce, sans passer par la phase d’entraînement que requiert le machine learning. Leurs réponses étaient très singulières et, à l’époque, provenaient d’écosystèmes plus vastes.

Cependant, depuis cette époque, nous avons constaté un changement d’approche, qui s’éloigne de ce que nous considérons comme une méthode ascendante avec la technologie comme point de départ, pour en adopter une plus descendante. Nous centrons maintenant notre approche sur l’expérience utilisateur et sur son besoin, en intégrant avec nos clients des écosystèmes plus vastes.

Dans certains cas, nous avons commencé par développer des plateformes qui nous permettent, non seulement d’extraire facilement le contenu d’un service vocal, mais aussi de faire bénéficier à l’écosystème du client l’ensemble de ses services, du web marketing ou du emailing. En élargissement ainsi l’accès à l’écosystème, nous pouvons désormais fournir à nos clients des solutions multimodales parfaitement adaptées à leurs besoins.

Notre approche du design conversationnel nous permet de déterminer ce que les utilisateurs sont capables de faire grâce à cette plateforme tout en comprenant leurs besoins et les contraintes techniques de celle-ci. En approfondissant cette méthodologie dans un tel projet, nous pouvons orienter et développer les discussions. En définissant le débit et la logique, nous pouvons donc créer une expérience utilisateur robuste. Cette approche, dans la plupart des cas, utilise d’autres aspects des écosystèmes clients, ce qui rend la solution la plus efficace possible. Le concept de design conversationnel englobe la rédaction, l’interaction avec l’utilisateur, la création audio et les compétences techniques de développement pour parvenir à la solution souhaitée.

L’analyse et la mesurabilité deviennent également essentielles. La magie du modèle conversationnel est que nous disposons de retours utilisateurs en temps réel. Nous pouvons voir la façon dont ils interagissent avec le service, identifier leurs besoins et utiliser ces informations pour redéfinir le produit afin de l’améliorer et le rendre meilleur et plus utile à l’avenir.

L’avenir de la voix

Le design conversationnel nous a aidé à développer et concevoir de meilleurs produits pour nos clients. Alors que les services vocaux gagnent en maturité, les interactions les plus simples deviennent rares et les expériences fictives sont sans intérêt. Les services vocaux interactifs et engageants avec un réel objectif et qui s’intègrent dans l’écosystème global d’une entreprise sont désormais monnaie courante. Les réelles expériences multimodales, qui transmettent le message à la bonne interface et au bon moment, ne peuvent qu’améliorer le développement de ces produits.

Avec l’ajout fréquent de nouvelles fonctionnalités, les assistants vocaux fournis par Google, Microsoft et Amazon arrivent à maturité. L’expérience utilisateur devient alors essentielle. Le marché arrivera à maturité avec des offres de voix de synthèse, de référencement vocal et de voix intégrées de plus en plus courantes dans les foyers et les smart cities.

Conclusion & Conseils

Le design conversationnel consiste à apprendre aux ordinateurs à être plus humains dans leurs discussions et dans leurs habitudes. Bien évidemment, ceci est plus facile à dire qu’à faire, mais suivre ces principes peuvent aider :

  • Faites comme les humains : les conversations avec ces machines doivent être naturelles, sans friction et surtout explicites.
  • Adaptez-vous aux contraintes techniques : nous voulons reproduire le comportement d’humain à humain, mais les systèmes informatiques ne sont pas humains, des erreurs se produiront. Nous devons contourner cette contrainte et d’autres comme les mots par invocation (le “Ok Google” d’Alexa*).
  • Tirez le meilleur parti des atouts techniques : les systèmes informatiques peuvent être plus puissants que les humains car ils ne se lassent jamais des questions. Ils peuvent également trouver et partager facilement des informations et peuvent dépasser nos attentes.

À force d’adopter des dispositifs vocaux, la relation entre les humains et les robots se développera, et pour que cela fonctionne au mieux, ils doivent d’ores et déjà apprendre à communiquer entre eux. C’est là que concept de design conversationnel montrera sa véritable valeur et son utilité.

  • Il pourrait bien être supprimé dans les 12 prochains mois. Si c’est le cas, cela rendra le référencement plus critique.

Interview du Dr Kirell Benzi, keynote speaker au AI Governance Forum le 9 juin prochain

Peux-tu nous parler de AI Governance Forum ? Il s’agit d’une conférence internationale qui a pour but d’approfondir les enjeux et bénéfices de l’utilisation de l’IA dans les grands sujets sociétaux tels que la santé ou le changement climatique ainsi que la culture. Destinée aux décideurs de l’industrie et aux gouvernants institutionnels (UE, UNESCO, ONU, […]

Lire la suite de Interview du Dr Kirell Benzi, keynote speaker au AI Governance Forum le 9 juin prochain

De Matrix à Second Life

Un peu d’histoire de Métavers. C’est en lisant les romans de William Gibson et de Neil Stephenson que j’ai pris conscience du concept du Métavers et des mondes de réalité alternative. Le Métavers de Stephenson est le concept d’un espace partagé, où les humains, en tant qu’avatars, interagissent les uns avec les autres dans un monde virtuel en trois dimensions. Le roman de Gibsons, Neuromancien, est basé sur un monde similaire appelé Matrix, qui s’est par la suite transformé en une franchise cinématographique à succès. Ces mondes contiennent des monnaies, des biens immobiliers et leurs propres écosystèmes. Une réplication presque identique du monde humain. Des événements se produisent, que vous soyez là ou non, c’est un écosystème vivant. Le Métavers a toujours été décrit comme une forme d’évasion des problèmes du monde réel… aurait-il ici des parallèles à faire avec notre situation actuelle ?

Un certain nombre de plateformes ont été développées au fil des années pour essayer de recréer ce concept de Métavers. L’une des premières tentatives réelles et des plus connues de création d’un environnement a été le lancement de Second Life en 2003. Tout le monde s’est plongé dans cet univers, même les professionnels, des entreprises qui ont recréé leurs magasins et vendu de vrais produits, jusqu’aux créatifs qui ont créé des agences. Nous avons même inondé le Metaworld en 2007, afin de sensibiliser au réchauffement climatique.

Les créateurs de Second Life, Linden Labs, ont connu une certaine renaissance, en introduisant récemment Tilia, une monnaie qui peut alimenter des environnements virtuels. Entre-temps, Facebook a développé Horizon pour le casque de réalité virtuelle Oculus. Il est actuellement en version bêta, mais permettra aux utilisateurs de créer et de se socialiser dans un monde nouveau, encore plus immersif puisqu’il se fait via un casque. Horizon pourrait bien être le plus proche du concept de Métavers de Neil Stephenson à ce jour.

Comment Fortnite est en train de changer la donne ?

Le Métavers issu de la science-fiction a toujours été accessible par des casques de réalité virtuelle, avec contrôle vocal et retour haptique. Uniquement des éléments distincts que nous avons aujourd’hui, que ce soit avec les casques Oculus VR, l’adoption massive de haut-parleurs intelligents via Alexa et Google et l’émergence du retour haptique dans les jeux. Une chose qu’ils n’ont pas encore, c’est un monde virtuel cohérent qui fusionne toutes ces choses ensemble.

Cela m’amène à la plateforme Fortnite d’Epic games, que nous pourrions ne pas considérer naturellement comme un Métavers ou comprendre comme tel. J’ai découvert cette idée pour la première fois dans un article de Paul Tassi paru dans Forbes*.

Fortnite est une plateforme de jeux en ligne qui a été développée en 2011 avec un lancement public en 2017 avec Battle Royale comme jeu gratuit. La première année, le jeu a attiré 45 millions de joueurs dans le monde entier. Aujourd’hui, le nombre d’utilisateurs actifs dépasse 125 millions et ne cesse de croître.

Alors pourquoi Fortnite pourrait-il être un Métavers ? Il est d’abord considéré comme un jeu, mais en peu de temps, il s’est transformé en un lieu de rencontre social, où les joueurs peuvent se retrouver, discuter, et s’envoyer des messages tout en jouant.

Alors que Fortnite est devenu un lieu de rencontre social éloigné du monde réel, les marques et les célébrités ont suivi. Il y a quelques semaines, par exemple, le rappeur Travis Scott a donné un concert en exclusivité sur la plateforme devant 12 millions de personnes, une version de lui-même de 60 mètres. Ce concert fait suite à un autre concert de Marshmallow qui a attiré plus de 10,7 millions de spectateurs, ainsi qu’un lancement exclusif de Star Wars en avant-première avec une présentation du réalisateur.

Ce modèle de franchise comprend non seulement des concerts, mais aussi des éléments du jeu qui peuvent être monétisés, comme Skins. Les Skins sont des tenues pour les Avatars qui coûtent jusqu’à 20€. Ces skins ont inclus les personnages de John Wick, Batman et Star Wars. Même si le concert de Travis était gratuit, on estime que les ventes de la franchise pourraient dépasser le million de dollars.

Les concerts de Fortnite ne sont pas seulement intéressants en raison de la taille du public et de l’engagement, mais aussi parce que, dans le climat actuel, c’est le seul concert auquel vous pouvez assister en direct, virtuellement. Comme le confinement se prolonge et qu’il n’a pas de fin précise, nous nous sommes tournés vers de nouvelles façons de communiquer, de se réunir entre amis, et bien au-delà du confinement, cela pourrait devenir le “nouveau normal“. Il sera intéressant de voir comment les entreprises commenceront à s’adapter à ce nouveau changement de modèle dans leurs méthodes de travail, en envisageant de nouveaux espaces et de nouvelles plateformes pour travailler.

Comment le Métavers peut aider les entreprises à entrer dans le “nouveau normal” ?

Le travail à distance et la disparition du bureau, évoqués au début des années 2000, n’ont jamais été appliqués en raison des contraintes technologiques. Bien que les entreprises du digital aient adopté le télétravail il y a quelque temps, que ce soit par l’intermédiaire de Slack ou de Microsoft Teams. Cependant, avec l’amélioration des réseaux domestiques, toutes les entreprises ont adopté le travail à distance, même si cela leur a été imposé. Cette adoption actuelle de la technologie pourrait-elle être l’impulsion nécessaire ?

Avec l’évolution des plateformes et des technologies, de nombreuses façons de se connecter et de travailler ont vu le jour, que ce soit via la vidéoconférence, WhatsApp ou même les salles de discussion en VR. Nous avons été contraints d’adopter en masse ces nouveaux moyens de communication et cela semble bien fonctionner. Je pense toujours qu’en matière de technologie, les gens ont eu tendance à dissocier vie professionnelle et vie privée, ce qui est normal, mais ces deux mondes fusionnent maintenant plus que jamais. Surtout en ce qui concerne les outils et les plateformes utilisés.

Nous avons donc vu ce qu’était le Métavers et comment Fortnite est devenu plus qu’un simple jeu. Non seulement un endroit où les joueurs se rencontrent et se présentent en tant qu’avatars, mais un monde où les joueurs, les marques et les IP se heurtent et coexistent tous. Nous avons également vu comment Facebook a créé une plateforme de réalité virtuelle pour socialiser et créer des mondes, et comment nous, public, adoptons ces plateformes pour se connecter, à la fois pour le travail et pour le jeu. Mais lorsque nous retournerons au travail, que sera le “Nouveau Normal” ?

Cela signifiera certainement plus de travail à distance, des espaces de travail réduits, des plateformes de collaboration. Mais de la même manière dont nous avons adopté la technologie pour faire face à la situation actuelle, ces plateformes vont se développer et nous offriront de nouvelles opportunités.

Concevoir le bureau de demain

Je vais donc faire un pas en avant ici même si nous n’en sommes pas encore à ce stade. Mais le jour où nous utiliserons un casque VR pour nous connecter à un bureau virtuel ne saurait tarder. Lorsque nous rencontrerons des collègues de travail du monde entier en tant qu’avatars, où qu’ils soient dans le monde, nous discuterons d’idées, nous toucherons et explorerons des produits, nous passerons en revue des créations. Nous pourrons ensuite les amener chez le client et présenter le tout dans un monde virtuel. Les architectes pourront rencontrer des collègues du monde entier, discuter des plans et même visiter le site de construction, discuter de l’avancement des travaux avec le responsable du site, ajouter des modifications en temps réel, le tout sans quitter leurs bureaux respectifs. Les enseignants pourront emmener leurs élèves faire un tour du monde, rencontrer des personnages historiques, et la classe du futur pourrait être virtuelle*. Ou encore, un médecin spécialiste qui accompagne d’autres chirurgiens dans leurs opérations comme s’ils étaient ensemble au bloc opératoire. Les possibilités peuvent être infinies. Ce monde de Réalité Virtuelle hyper immersif pourrait être le nouveau World Wide Web, le Métavers réalisé.

Il existe actuellement de nombreux produits de VR sur le marché, dans des secteurs tels que la formation et l’éducation avec Engage et Rumii, où les gens peuvent communiquer et travailler dans un espace virtuel. Il existe des environnements médicaux tels que l’Oxford Medical Simulation, où les professionnels de la santé peuvent apprendre comment prendre en charge des patients sans risque pour eux. Et enfin, des outils de collaboration tels que Meeting Room et Glue. Ces produits vont tous dans la bonne direction, mais le problème réside dans le fait qu’il s’agit d’environnements distincts. Lorsqu’il existera un seul et unique monde où nous pourrons nous connecter et aller partout, alors le Métavers sera certainement concret et aura un impact réel non seulement sur notre vie sociale, mais aussi sur notre façon de travailler et d’interagir les uns avec les autres. Imaginez aussi la réduction de notre empreinte globale et de notre impact sur l’environnement, comme nous l’avons déjà vu lors du confinement avec une réduction considérable de la pollution mondiale.

Ainsi, ce nouveau monde de réalité virtuelle hyper-immersif est un peu à la traîne, mais sera à la pointe de ce nouveau Web. S’agira-t-il d’une plateforme de jeu comme Epic Games, ou d’une des grandes entreprises comme Microsoft, Google, Amazon ou Facebook ? Seul le futur nous le dira, mais la crise actuelle va certainement changer le monde du travail. Il faudra donc se préparer à rejoindre la prochaine révolution de la communication, le “nouveau normal”.

*Paul Tassi: Forbes
Fornite 2020
Ready Player One
Image credit: Josh Riemer

On entend beaucoup parler d’innovation technologique, d’innovation produit ou encore d’innovation business. Est-ce que tu peux revenir sur la définition même de l’innovation ?

Il s’agit d’abord d’apporter quelque chose de nouveau, une nouvelle expérience. L’innovation d’usage et/ou business est un terme très large. De l’assistant vocal à l’intelligence artificielle, en passant par la blockchain, il s’agit de poser un regard et une vision alternatifs sur les sujets à fort potentiel business et d’exploration. Et évidemment, concevoir et réaliser cette vision.

L’innovation est-elle réellement un levier de compétitivité ?

Sans aucun doute. Et ce, pour tous les secteurs d’activité : luxe, banque, commerce, automobile… L’innovation a une dimension stratégique. Maintenir une veille constante des changements et des forces en mouvement aujourd’hui permet de maintenir une vigilance à court et moyen terme. Ce qui peut permettre aux entreprises de se donner la chance d’anticiper et de changer la donne sur le marché qui les concerne.
C’est un minimum nécessaire. Mais pour ma part, je suis convaincu qu’il faut aller plus loin et tâcher de dégager une vision à plus long terme : 10, 15 voire 30 ans.
Il faut sans cesse anticiper, et se préparer pour ne pas se mettre en posture passive, à subir constamment la pression de ses concurrents.

L’innovation est-elle pour autant devenue un marqueur fort de différenciation ?

Certaines entreprises innovent à des rythmes très soutenus. Quand un acteur innove sur votre marché, vous devez souvent vous contraindre à le suivre pour être en mesure de proposer au moins le même niveau de service. Cela implique beaucoup d’investissements, et pourtant vous ne vous démarquez pas pour autant. D’où l’importance d’être proactif, d’investir dans l’innovation et de communiquer autour de ces sujets. Mais pas n’importe comment, il est primordial de travailler à une innovation pragmatique.

Qu’entends-tu par innovation pragmatique ?

Chez ekino, nous avons toujours eu une culture de l’exigence. Envers nous-mêmes bien sûr, mais également envers les technologies et les expériences sur lesquelles nous travaillons. Mais pour ça, il ne faut pas avoir peur des échecs. Innover, c’est aussi prendre des risques. Cela fait partie du métier. Ces risques, nous ne les subissons pas, nous les transformons en opportunités. Nous mettons en place des méthodologies de conception pour tester et tirer un maximum d’enseignements de ces expériences pour toutes les transformer en atout et en opportunitées commerciales. Nous allons aller chercher les nouveaux usages dont personne ne se doute; pour avoir une vision claire de ce qui peut enrichir l’expérience et les objectifs du client final. Nous partons des besoins clients, et si l’innovation ne résout pas ses problématiques spécifiques, nous lui proposons une autre solution. C’est pour cette raison qu’il est très important de travailler en transversalité avec les équipes commerciale, technique, et marketing. On écoute, on apprend, on recherche, on propose, et on conçoit. Nous sommes convaincus que ce n’est qu’en confrontant nos concepts à la vie réelle qu’on développera les bons outils. C’est ça l’innovation pragmatique.

Le coût que peut représenter l’innovation est souvent un frein pour certaines entreprises. Comment faire ?

Tester une idée ne coûte pas forcément cher. Par exemple, chez ekino, nous mettons en place des “pretotypes”. C’est une phase en amont du prototype; une sorte de mise à l’épreuve qui nous permet d’investir peu tout en tirant le maximum d’enseignements. Avant d’investir ou de faire investir à un client un budget pour un projet innovant, nous devons nous assurer que la solution remplira bien ses objectifs. Une fois l’usage validé auprès des cibles, on peut développer le concept étape par étape et passer à l’industrialisation. Il ne faut pas avoir peur de l’innovation. Une simple et bonne idée n’est pas nécessairement coûteuse. C’est parfois une réorganisation de l’existant qui fera toute la différence.

L’innovation s’intègre t-elle facilement au sein des structures traditionnelles ?

Déployer des solutions/outils innovants a un impact au sein de l’organisation des entreprises qui souhaitent se lancer dans l’innovation. Il est de notre devoir d’accompagner les équipes internes dans cette transformation. Pour cela, nous travaillons main dans la main avec nos équipes Design et UX. Ces équipes vont passer du temps au sein des sociétés pour comprendre leur fonctionnement, identifier leurs besoins, et comprendre leur complexité. Tout au long du projet, nous intégrons les équipes métier, leurs retours et témoignages et nous les accompagnons pour une parfaite adaptation au nouveau dispositif.

Est-il possible aujourd’hui d’anticiper les innovations de demain ?

Innover est devenu une nécessité pour beaucoup de nos clients. Il faut la surveiller, la capter, la comprendre, l’étudier, et la challenger. Aujourd’hui, il ne suffit plus d’être passif et d’attendre qu’une nouvelle innovation vienne résoudre sa problématique ou menacer son business model. Aujourd’hui, le rythme des nouvelles innovations est si radical et rapide qu’il est essentiel d’être un véritable moteur de son changement pour comprendre les enjeux de demain. Au sein de l’Atelier, nous utilisons des méthodologies d’anticipation stratégique pour identifier les enjeux techniques, d’usage et business à long terme. Cela nous permet de déterminer le type de recherches que nous devons mener pour pousser plus loin encore les sujets d’innovation et faire en sorte qu’ils puissent déployer tout leur potentiel de valeur.

Peux-tu nous en dire un peu plus sur les missions de l’Atelier d’ekino ?

L’Atelier ekino Paris a vu le jour il y a 4 ans maintenant. C’est un centre de recherche et développement axé sur l’innovation digitale. Nous fonctionnons en deux activités principales perméables entre elles :

La veille et la recherche appliquée business : nous faisons une veille constante et rigoureuse. Nous challengeons toutes les nouvelles innovations pour mettre à l’épreuve leur valeur réelle, c’est-à dire leur valeur d’usage et leur valeur business. Nous en tirons un rapport argumenté qui nous permet de trancher sur l’utilité ou non de ces innovations pour nos clients. Une fois cette veille faite et testée, nous allons encore plus loin en menant des recherches orientées “business”. Nous collaborons avec des chercheurs et nos équipes internes pour faire avancer “l’état de l’art” et stabiliser nos découvertes pour les proposer à nos clients.

L’accompagnement : forts de ces expertises, ces enseignements et ces expériences, nous pouvons accompagner nos clients du conseil jusqu’à l’industrialisation. C’est dans cette phase que notre collaboration étroite avec nos équipes design et technique prend tout son sens. Nous pouvons ainsi mener des projets innovants, ayant un sens et de la valeur ajoutée, construits avec la qualité industrielle d’ekino.

Comment ces recherches se mènent-elles concrètement ?

Nous nous entourons de nombreux collaborateurs. Par exemple sur la relation homme/machine, nous échangeons avec des chercheurs, mais aussi avec des scénaristes de cinéma. L’idée est de créer une expérience conversationnelle convaincante et naturelle avec la machine pour aller plus loin que les dialogues actuels souvent déceptifs des chatbots. Les discussions ne sont pas fluides, ce qui nous fait complètement passer à côté de l’expérience globale qui est promise à l’origine. Cette nouvelle étape du chatbot, nous préférons l’appeler “agent conversationnel” dans le sens où il devient un vrai canal de dialogue avec la marque ; un accès facile et naturel à ses services.

Un dernier conseil à donner pour les entreprises qui souhaiteraient se lancer dans l’innovation ?

Oui ! Enfin il s’agit plutôt de questions à soulever que d’un conseil. Posez-vous ces deux questions et vous aurez déjà une première idée de la partie de votre business sur laquelle innover.

  • Si j’étais un concurrent sans limite de ressources innovantes, comment j’attaquerais ma propre valeur sur mon marché ?
  • Quelle partie de mon business n’a pas évoluée depuis un moment ? Ce sera celle qui sera la plus sensible à l’émergence de nouvelles innovations.

Projet étudiant : Le robot assistant de l’Atelier !

L’idée La première étape était d’imaginer notre système, comment notre compagnon va évoluer au sein de l’Atelier ? Quels types d’interactions va-t-il développer ? C’est en se posant ces questions que nous sommes arrivé au schéma principal suivant : notre assistant doit avoir un langage corporel le plus complet possible, comprendre ce qu’on lui demande ainsi que reconnaître […]

Lire la suite de Projet étudiant : Le robot assistant de l’Atelier !

Mobilité contre immobilité

Bougez, soyez mobile, vas là-bas, reviens ici… tout bouge aujourd’hui, et la technologie nous accompagne, voire nous y encourage, comme les traqueurs d’activité par exemple. Les smartphones, les montres connectées nous suivent et font office d’assistant personnel. « OK Google, donne-moi la météo pour ce week-end. »  « Siri, rappelle-moi que j’ai rendez-vous avec Mathilde à 16h. »

Dans toute cette agitation, on en oublierait presque qu’il y a des moments d’immobilité. La maison, le bureau ou même la voiture sont des espaces dans lesquels on ne se déplace plus, du moins dans l’environnement proche. L’intérêt des assistants personnels nomades est-il alors remis en question ? Pas vraiment. Les services sont toujours disponibles ; vous ne manquerez pas votre rendez-vous avec Mathilde. Alors quelle place pour leur cousins sédentaires ?

De la contrainte naissent les possibles

Tout comme le design produit ou l’architecture, ce sont les contraintes qui forgent un service cohérent. Contraintes d’UX, de mobilité, ou d’environnement. C’est justement dans cette dernière contrainte que les Amazon Echo et autres Google Home peuvent tirer leur épingle du jeu.

La technologie nomade est générale ou user centric only alors que sa cousine sédentaire évolue dans un environnement contraint mais connu : maison, bureau, voiture. Ses capacités sont donc plus spécifiques, moins générales, plus étendues dans cet environnement.

Le service n’est plus dans votre smartphone, mais chez vous, avec vous. Inutile de sortir le téléphone, il suffit de demander à voix haute. Ajoutez à ça un service qui s’adapte aux habitudes de son utilisateur et vous avez l’assistant de vos rêves.

Privacy by design

Forcément, le sujet de la sécurité des données est à prendre en compte dès la conception. Je ne m’étendrai pas dessus, ce n’est pas le sujet de l’article. Mais une remarque tout de même : la voix est comme une empreinte digitale vocale et devrait être traitée avec la même attention que celle-ci ou que la reconnaissance faciale.

La technologie est d’ailleurs déjà disponible pour un Speech-To-Text traité en local, sans envoi de son sur le réseau. Snips et Pepper de SoftBank Robotics utilisent d’ailleurs ce système local. Pourquoi s’en priver ? Ce n’est hélas pas le cas de l’Amazon Echo ou du Google Home.

Dans le vif du sujet

C’est bien beau tout ça mais qu’en est-il du développement d’applications sur ces bêtes-là ? Nous avons pu mettre la main sur un Amazon Echo et un Google Home, les assistants personnels sédentaires les plus en vue actuellement.

Pour nos tests de prise en main, nous avons choisi de développer la partie service (qui va traiter la demande de l’utilisateur et y répondre) de nos applications Google et Amazon sur une fonction Lambda pour mutualiser ce développement. Lambda est un service d’Amazon qui permet de créer et d’héberger notre service sur le cloud.

Amazon Echo

Pour créer une application, Amazon nous propose quelque chose de simple, composé de deux couches :

  • Une skill (l’application elle-même)
  • Une fonction Lambda

La skill va prendre en charge toute la partie déclaration de l’application et interaction. C’est ici que vous déclarez vos Intents, Entitites, l’invocation, la déclaration de l’application, etc.

La fonction Lambda traite la commande vocale qu’elle reçoit sous forme de JSON et renvoie une String qui sera dite par Alexa. Simple !

L’installation se fait naturellement par la page dédiée à la gestion de votre Amazon Echo. Un développement sans douleur, ce qui n’a pas forcément été le cas avec son cousin estampillé Google.

Google Home

Les Actions chez Google requièrent plus de couches pour les connecter à une Lambda.

  • La Lambda bien sûr
  • Une API Gateway sur AWS pour faire la liaison entre la Lambda et Api.ai
  • Api.ai qui va rassembler toutes les schémas d’interaction (intents et entities).
  • La déclaration de l’Action sur la console Google qui déclare l’application et le nom d’invocation.

Pas de problème particulier pour le développement de l’Action, sinon qu’il y a plus d’étapes à réaliser que sur Amazon Echo. La séparation entre Api.ai et l’Action sur la console notamment est un peu dommage par rapport à Amazon.

Par contre, un simulateur est disponible sur Api.ai pour tester le tout par écrit ou par la voix. Un très bon point !

Le nom de l’invocation

Le choix du nom de l’application est plus contraignant que sur Amazon Echo. Il faut absolument qu’il y ait deux mots, certains sont réservés (Bot par exemple). Si vous souhaitez donner un nom original (dans notre cas Ekibot), vous devez montrer patte blanche et en faire la demande à Google, qui vérifiera que vous possédez bien le nom de domaine.

Dans les cas les plus communs, vous devrez donc choisir deux mots du dictionnaire comme : Half Pigeon, ou Red Dummy, c’est gratuit, c’est cadeau.

Quelques déboires

L’Action est prête, le Google Home branché et configuré. Selon la doc, il suffit d’avoir l’Action et le device connectés au même compte Google pour qu’elle soit déployée automatiquement pour être testée.

Ok Google, can I talk to Little Robot?

Rien, l’application n’est pas reconnue ou même installée. On reprend tout depuis le début histoire de vérifier que l’on a rien oublié. La réponse vient finalement, après frustration et injures, du support de Google.

Au moment de nos tests, les actions n’étaient déployables que sur les devices configurés en anglais US. Le nôtre était en anglais UK. Un détail d’importance… Dans le cas où l’on devrait développer une Action pour l’Europe, même anglophone, cette limitation est rédhibitoire. En espérant une mise à jour des conditions de déploiement bientôt.

Une fois la langue changée, aucun problème, on interagit bien avec le Google Home qui a téléchargé automatiquement l’application.

À noter au passage que _”OK Google” _a tendance à réveiller les smartphones Android branchés à portée de voix… Embêtant…

Les langues

Amazon Echo supporte aujourd’hui l’anglais US, UK et l’allemand. Le device de Google, quant à lui, en supporte plus. Pas moins de cinq langues, dont beaucoup d’anglais (US, UK, Canada et Australie) et le français canadien. À noter qu’il sort en France le 3 août, une sixième langue viendra donc s’y ajouter.

On peut regretter que la déclaration des applications sur ces assistants personnels ne soient pas internationalisables facilement. Pour chaque langue ajoutée, il faudra redéclarer un agent complet sur Api.ai ou une nouvelle Skill sur Amazon.

Les assistants personnels en bref

Selon nos tests, Google Home est plutôt un assistant personnel de bureau : il faut être en face et relativement proche pour que votre commande soit reconnue. Son design indique d’ailleurs clairement un avant et un arrière.

Contrairement à l’Amazon Echo qui se destine à un usage moins contraint. Nous avons pu le lancer et contrôler nos lumières depuis n’importe quel point de la pièce sans aucun problème.

Enfin, le développement nous a paru bien plus simple et rapide à mettre en place sur l’Echo d’Amazon que sur son homologue de Google.

Il y a clairement un côté Internet of Things à développer sur ces machines. Elles sont statiques et donc ancrées au coeur de la maison, des habitudes de ses résidents. Une exploitation correcte et respectueuse utilisée par un service efficace permettrait d’en faire de parfaites conciergeries pour tous mais surtout pour chacun.

Chatbot : un conte de fée pour les utilisateurs ?

Avec la collaboration de Ky Lân Vu Tong Depuis ce début d’année, on entend beaucoup parler de chatbot. Ils redeviennent tendance grâce à des acteurs comme Facebook, qui donnent la possibilité de les intégrer directement dans leur application Messenger. Soucieux de créer toujours de nouvelles expériences à travers leurs plates-formes, et avec une application de […]

Lire la suite de Chatbot : un conte de fée pour les utilisateurs ?
robot Marvin par Nick Olejniczak
Photo originale par Nick Olejniczak, sous licence CC BY-NC 2.0.

Depuis maintenant un peu plus d’un an, les robots-compagnons fleurissent sur les sites de crowdfunding. Ils promettent d’accompagner toute la famille dans les tâches du quotidien, de rappeler aux parents de récupérer l’aînée à la danse et racontent même des histoires au petit cadet. Ils apprennent des comportements et des habitudes de leurs propriétaires et suivent tout le foyer chaque jour sur du long terme.

Ils offrent donc un ensemble de services, disposent de capteurs qui leur permettent de les enrichir et s’intègrent au quotidien de l’utilisateur. Cette définition ressemble bien à celle d’un objet connecté !

Un objet connecté oui, mais bien plus aussi

Le robot implique traditionnellement un aspect mécatronique1, des bras motorisés ou une capacité de déplacement. Buddy, par exemple, est un robot français créé par Rodolphe Hasselvander (le monsieur sur la gauche de la photo). Il peut se déplacer sur ses roues, surveiller la maison, gérer un agenda ou encore rappeler de prendre des médicaments. Et comme il s’agit d’un projet open-source, le potentiel n’en est que plus grand et la liste de ses fonctionnalités va sans nul doute s’agrandir.

le robot français Buddy entouré d'une famille
Le robot français Buddy

Jibo quant à lui ne dispose que d’une mobilité très réduite lui permettant tout au plus de se tourner dans une direction ou d’adopter une expression corporelle. Il s’agit pourtant toujours très clairement d’un robot. Il se positionne davantage comme un assistant personnel de toute la famille.

le robot américain Jibo dans une cuisine
Le robot américain Jibo

De conception encore plus minimale, la sphère russe LexyBot joue sur l’ubiquité du terme « robot », qui est utilisé dans les domaines mécanique et digital. Les CleverBot, Elbot et autres sont des « robots de conversation » avec lesquels il est possible d’avoir une conversation suivie en ligne. C’est exactement ce qu’est Lexy, mais embarqué dans une sphère.

le robot russe Lexybot
Le robot russe LexyBot

Dans ce cas-là, il est très clair que nous ne sommes plus très loin de l’objet connecté.

Donc si un robot peut ne pas être mécanisé, quelle différence entre les deux domaines ?

L’expérience utilisateur bien entendu ! Le design du robot offre un terrain propice à un transfert émotionnel fort.  L’être humain, animal social, a une merveilleuse tendance à anthropomorphiser dès qu’il le peut, à prêter des intentions humaines à une peluche, un dessin animé, ou un automate dans notre cas.

Ainsi, demander directement et oralement à notre robot de lancer la cuisson de la dinde ou de surveiller la maison pendant les vacances devient plus naturel grâce à ce transfert ; transfert encouragé par sa réponse enjouée qui nous fait ressentir qu’il est ravi de nous rendre service.

« Wilsooooon ! » Chuck Noland – Seul au monde

Là où l’objet connecté doit se fondre dans le quotidien de l’utilisateur, en disparaissant presque au profit du service, le robot social doit pouvoir être un objet de transfert efficace, un terrain propice à un transfert émotionnel, à un transfert affectif. Le propriétaire du robot n’est pas dupe, il n’a aucune raison de penser qu’il y a, au-delà de l’objet, un être conscient et sensible.

Pourtant le design d’un robot permet un transfert émotionnel suffisamment puissant pour que l’on puisse ressentir un mal-être à la vue d’un robot maltraité comme l’a démontrée, en 2013, une étude de l’Université de Duisburg-Essen en Allemagne.

Cette relation peut d’ailleurs être à elle seule un intérêt au robot-compagnon. Il y a quelques années maintenant que PARO, le robot-phoque, accompagne des thérapies des malades d’Alzheimer. Il offre un support contre l’anxiété, permet de réduire la prise médicamenteuse et de stimuler les malades.

Plus proche, certaines agences spatiales comptent bien se servir de ce transfert pour l’exploration spatiale habitée : Kirobo a déjà accompagné en 2013 un astronaute japonais en mission durant six mois. Ses prérogatives étaient de tenir compagnie à son colocataire, de lui parler dans sa langue et de le divertir du mieux possible. La vidéo de leurs échanges est particulièrement impressionnante, sachant que la discussion n’a pas été préparée à l’avance. L’intelligence artificielle de Kirobo réussit à donner l’impression d’un bavardage très convaincant.

le robot japonais Kiribo
Le robot japonais Kiribo

Robots-compagnons et objets connectés : Une ère de services

Les robots-compagnons ont une dimension relationnelle qui est leur caractéristique primordiale. Ils impliquent de pouvoir offrir une illusion de vie et d’intentions positives. L’expérience utilisateur qu’ils doivent permettre est l’une des plus fondamentale et compliquée qu’il soit de simuler : avoir l’impression d’avoir été entendu et compris par un être indépendant et bienveillant.

Nous pouvons cependant dire qu’ils sont des objets connectés dans le sens où ils offrent un panel de services, disposent de capteurs de stimulus externes (micros, caméras, peau capacitive, etc.) et doivent évoluer à partir des données qu’ils auront récoltées. Ne pas s’adapter aux habitudes de la famille serait rédhibitoire pour l’adoption du robot au sein du domicile sur le long terme.

Réduits à leur plus simple expression, à leur plus simple utilité, il s’agit dans les deux cas d’un portail vers une offre de services. Si la caractéristique du robot-compagnon est le lien social qu’il encourage, sa valeur se retrouve forcément dans ce qu’il a à offrir au quotidien, tout comme l’objet connecté.

Pour que ce marché prenne toute son envergure et passe d’un eldorado hypothétique à un écosystème bien enraciné chez les utilisateurs, il devient nécessaire de développer des services digitaux reposant sur du machine learning2, affutés par la donnée, bref taillés sur-mesure pour un unique utilisateur. Ces services transforment à eux seuls une simple expérience ponctuelle en un accompagnement efficace sur le long terme. Que ce soit en robotique pour les particuliers ou dans le domaine des objets connectés, ils sont sans nul doute la clef qui ouvre la porte à la qualité, à la valeur, à un intérêt réel pour les clients finaux avides de rupture que sont 55% des français3.

Notes :

1. [Mécatronique : Synergie de la mécanique, de l’automatique, de l’électronique et de l’informatique.] retour

2. [Machine learning : Domaine de l’intelligence artificielle. Il regroupe la conception, l’analyse et le développement de machines évoluant via un processus systémique.] retour

3. [Source : Etude MediaCom sur Maddyness.] retour

L’autonomie des objets connectés

Nous étions au Salon de l’Internet des Objets (SiDo) cette année à Lyon. C’est le premier évènement français qui rassemble de grands acteurs de l’IoT (Internet Of Things), des industriels, des entreprises spécialisées, voire des chercheurs dont le domaine déborde sur l’IoT. Plusieurs débats de qualité y ont été menés et l’un d’eux, assez pointu, a particulièrement retenu notre attention […]

Lire la suite de L’autonomie des objets connectés