Retour sur la conférence d’Amélie Boucher “L’UX du futur : au delà des buzzword” traitant des expériences conversationnelles avec des machines learning.
Quels sont les impacts de ces nouvelles technologies sur leurs utilisateurs ? Facilitent-elles réellement les usages ? Pour répondre à ces questions, Amélie Boucher prend pour exemple trois technologies que nous utilisons quotidiennement, ou presque.
Les assistants vocaux
Les utilisateurs emploient de plus en plus les interactions vocales via les smartphones et objets connectées afin d’obtenir des informations, réaliser une action, accélérer une recherche… Les promesses apportées par les assistants vocaux sont multiples : celle de défier l’espace, ne pas avoir besoin de la vision, ne pas avoir à faire d’efforts.
C’est un tout nouveau monde qui s’offre aux designers UX.
Pourtant Amélie Boucher est loin d’être convaincue. Selon elle, les assistants vocaux ne sont pas adaptés à toutes les situations, voire même utilisables uniquement dans de rares contextes de tranquillité, chez soi et sans bruit alentour. Il est vrai qu’il est toujours compliqué dans un environnement bruyant ou dans un lieu public d’exprimer des requêtes orales à une interface.
Cet argument ne pose aucun problème à l’essentiel du marché que sont les utilisateurs d’enceintes intelligentes. Ces enceintes sont de petits joujoux que nous déposons sur une étagère et que nous utilisons pour impressionner nos invités en soirée avec des : “Ok Google…”, “Dis Siri…”, Hey Cortana…”, “Alexa…”. Le taux d’adoption de ces produits ne cesse d’augmenter : Selon une étude d’OCC Strategy Consultants les foyers équipés de ces enceintes pourraient passer de 13% aujourd’hui à 55% en 2022.
Ces gadgets confrontent néanmoins les utilisateurs à de réelles problématiques.
La complexité du langage homme / machine
Amélie Boucher nous fait remarquer que demander quelque chose à une enceinte prend du temps : une phrase est linéaire et il n’existe pas de raccourci. Cela paraît être une remarque sommaire, pourtant en discutant avec un utilisateur de Google Home, j’ai appris que dire “Ok Google…” à chaque fois qu’il faut s’adresser à l’enceinte peut être très agaçant. A force d’utilisation nous souhaitons aller au plus court. Pourquoi s’encombrer de formalités face à un robot ?
La variété des choix proposés
Lorsque nous naviguons sur un site e-commerce, la multiplicité des produits rend l’utilisation d’un assistant vocal inutile : l’enceinte ne peut pas nous dicter la liste de tous les produits, nous aurions oublié les premiers items avant même qu’elle arrive à la fin de la liste. Utiliser l’interface d’une enceinte intelligente pour commander sur un site demanderait des capacités mémorielles considérables. Par conséquent, l’enceinte va se limiter à deux, trois choix. Certainement les produits des marques les plus actives du marché.
Se pose alors la question de la réduction du périmètre du champs des possibles. Que faisons-nous de l’ouverture à la liberté ?
L’exemple d’un site e-commerce est très parlant, mais pour n’importe quel autre site dès qu’il est question de choisir dans une liste, la découvrabilité devient faible.
Résultat : les requêtes exprimées auprès de ces enceintes intelligentes doivent être simples et leurs réponses également. Les conversations sont bien entendu limitées en ce sens et les utilisateurs s’adaptent comme ils peuvent. Amélie Boucher parle de la rationalité sèche des enceintes intelligentes.
Les chatbots
Bien connues, les chatbots sont une technologie en pleine évolution – nous vous en parlions ici.
Les chatbot sont des logiciels robots présents sur les sites afin d’aider les utilisateurs à naviguer. Disponibles à n’importe quelle heure du jour ou de la nuit, ils sont moins rebutant qu’une FAQ ou un appel téléphonique.
Ces chatbots sont facilement identifiés grâce à leur interface similaire à celle des messagerie instantanées, toujours située en bas à droite des sites. Un atout, car aujourd’hui tous les internautes utilisent régulièrement ce type d’interface. La fonctionnalité de cet outil est donc évidente pour l’utilisateur : quelqu’un va répondre à ses interrogations instantanément ou presque.
Si vous cherchez sur Internet ce qu’est un chatbot vous verrez souvent sa définition associée au verbe “simuler”. Le chatbot simule une conversation, il joue un rôle, celui de l’humain. C’est certainement l’une des raisons pour lesquelles il nous arrive de douter de l’identité de notre interlocuteur. Est-ce un humain ou un robot ? Et ce doute peut-être fondé car derrière les chatbox des conseillers humains peuvent également se cacher. Une étude de Pew Research Center réalisée sur 4 500 américains informe que seulement 47% des sondés se disent capables de faire la différence entre un chatbot et un humain. Autrement dit plus de la moitié des utilisateurs ne savent pas à qui ils s’adressent.
Soyons honnêtes, avant même de poser nos questions dans une chatbox nos premières interrogations vont être sur la nature de ladite “Lucie”. Nous jouons très souvent aux devinettes en posant des questions pièges. Ce jeu, bien que amusant, fait perdre du temps à l’utilisateur. D’autre part une appréhension sur le ton à adopter, ainsi que de la frustration peuvent vite se créer. Nous ne nous adressons pas de la même manière à un robot ou à une personne. Si votre robot se fait passer pour un humain, les utilisateurs lui poseront des questions très formelles et précises et ils risquent de se retrouver face à un chatbot qui échouera à leur répondre. Hors s’ils savent dès le début que c’est un robot ils s’adapteront naturellement dans la formulation de leurs questions et iront à l’essentiel. Il sera alors plus évident pour votre robot de répondre correctement aux demandes.
Amélie Boucher nous alerte particulièrement sur les chatbots bavards qui nous en disent trop avant même que l’utilisateur ait pu engager une conversation. Tout comme sur l’utilisation de chatbots inadaptés sur des sites qui ne proposent pas de service client.
La technologie des chatbots est astucieuse, mais attention à ne pas provoquer de mauvaises expériences.
Les pré-réponses
Une autre expérience de machine learning est celle des pré-réponses dans les boîtes de messagerie, comme Gmail, Facebook, LinkedIn et bien d’autres. Grâce aux suggestions de réponses proposées par l’interface, l’utilisateur gagne du temps, il n’a plus besoin de taper au clavier, en deux clics la réponse est envoyée !
Amélie Boucher nous fait remarquer qu’en choisissant la solution de facilité les gens sont moins investis dans leur réponse, ils ne prennent plus le temps d’écrire et n’ont plus besoin de réfléchir. En effet, la machine le fait pour eux. D’autant plus que le principe même du machine learning est d’apprendre de ses expériences et donc des autres, c’est à dire de tous les utilisateurs. Comprenons par là que les réponses proposées sont celles de tout le monde. Pourtant, chacun a sa propre manière de dire les choses.
Evidemment nous ne sommes pas du tout obligés de répondre “MERCI !” si nous ne le souhaitons pas. Mais, comme nous le savons tous, le pouvoir suggestif d’une interface est immense. Et il est toujours plus facile de choisir les raccourcis.
Amélie Boucher nous interpelle sur l’éventuel appauvrissement du discours. Si tout le monde parle de façon identique et de manière brève, les réponses pré-proposées le seront également. Pour pousser plus loin la réflexion : est-ce qu’un appauvrissement du discours ne serait pas égal à un appauvrissement de la relation ?
Cette technologie est sans doute intéressante dans une relation homme/machine (réponses rapides et efficaces). Mais est-elle éthiquement viable dans une relation humain/humain ? Le trop d’efficacité n’entraîne-t-il pas une perte d’humanité ?
En tant qu’UX Designers nous devons avoir conscience des avantages de ces technologies qui évoluent sans cesse mais aussi de leurs dérives sur les comportements des utilisateurs. Et c’est en connaissance de cause que nous devons les conseiller ou non à nos clients pour leurs futurs produits.