Assistants personnels vocaux : quelles opportunités pour les marques ?

Si l’on parle beaucoup d’interfaces vocales et d’assistants vocaux ces derniers temps, il semble que les marques ne perçoivent pas encore pleinement l’intérêt qu’elles pourraient en tirer.

Est-ce que votre marque doit investir ce marché ? Quels sont les enjeux, les risques et les opportunités ?

Voici quelques pistes de réflexion…et d’action !

De la vue à l’ouïe, du toucher à la parole  

En 1984, Apple lance le Macintosh et inaugure la commercialisation (et donc l’usage) à grande échelle des interfaces GUI (Graphic User Interface), appelées aussi WIMP (pour Windows, Icons, Menus and Pointing device), qui reposent notamment sur l’usage d’un objet physique (le « pointing device » : souris, plus tard trackpad) qui permet d’actionner des éléments affichés graphiquement sur l’écran.

Avec le développement des interfaces tactiles notamment sur smartphones et tablettes (et très certainement demain sur laptops), on est passé à une ère post-WIMP, qui fait toujours intervenir les mêmes sens (vue et toucher principalement), mais en désintermédiant le toucher, car on n’utilise plus un pointing device, mais on actionne directement, par le toucher, l’élément visualisé sur l’écran.

Mais les interfaces tactiles n’ont pas (encore) remplacé les interfaces WIMP, même s’il est probable que la souris (ou le trackpad) disparaisse dans les prochaines années sur les laptops (les desktops devenant des appareils de niche).

Par contre, le tactile résout la complexité présente dans le modèle WIMP, car désormais on touche ce que l’on voit.
Il est d’ailleurs toujours frappant de constater la facilité avec laquelle les enfants ou les personnes âgées n’ayant jamais utilisé d’interfaces WIMP utilisent naturellement et instinctivement les interfaces tactiles.

Le développement des interfaces vocales impose à l’utilisateur un changement plus profond : la parole et l’ouïe remplacent en quelque sorte le toucher et la vue (même si la vue est toujours mobilisée dans certaines interfaces vocales, et si l’ouïe est déjà mobilisée sur les interfaces WIMP).

L’assistant personnel, accélérateur de l’usage des interfaces vocales

Le développement de l’usage des laptops, smartphones et tablettes, qui disposent d’un micro intégré par défaut, a permis l’essor des interfaces vocales, notamment dans la commande d’une tâche (voice input). « Les interfaces vocales n’ont pas été inventées à la Silicon Valley, cela fait 10 ans que ça existe, notamment via la reconnaissance vocale et certains jeux vidéos (Tom Clancy’s EndWar, la série SOCOM…) » décrypte Frédéric Cavazza, consultant en transformation digitale.
Mais c’est véritablement le développement de ce qu’on nomme les assistants personnels (Siri, Alexa, Google Assistant…), plus que le perfectionnement de l’Intelligence artificielle, qui a fait exploser l’usage des interfaces vocales.

C’est plus précisément la sortie en France le 13 juin dernier de l’enceinte connectée Amazon Echo, et de l’assistant personnel vocal Alexa qui y est intégré, qui a projeté la lumière sur les assistants vocaux et plus globalement sur les interfaces vocales, la sortie de Google Home en 2017 ayant été moins commentée.

Rien de plus normal, car comme tout device,  les enceintes connectées (hardware) incarnent et concrétisent physiquement le concept d’assistant personnel (software) et plus globalement d’interfaces vocales (car les assistants vocaux sont également présents sur d’autres devices : smartphone, tablettes, applications…).

Quels usages pour les interfaces vocales ?

Schématiquement, on peut regrouper l’usage des interfaces vocales en deux contextes :

  • Quand les mains sont occupées (au volant, en cuisinant,…)
  • Quand l’utilisateur pense qu’il sera plus facile et plus rapide de dire une instruction et d’écouter le résultat que de saisir (sur un clavier) et lire les résultats (sur un écran).

Les interfaces vocales n’ont donc pas vocation à remplacer les interfaces tactiles, ni même les interfaces WIMP, « Elles ouvrent de nouveaux contextes d’utilisation. Elles allongent la plage d’exposition des utilisateurs à une marque, ses offres et ses messages », analyse Frédéric Cavazza.

Si l’on se place d’un point de vue de la relation client / marque, nous sommes donc actuellement dans un modèle dans lequel le service client peut satisfaire la totalité des tâches demandées par l’utilisateur, le site web, une grande partie (tâches complexes), l’application mobile (ou la version web mobile), une moindre partie, et les assistants personnels, uniquement des micro-tâches.

Interfaces-utilisateur-marque

Au-delà de la complexité et du nombre de tâches gérées, c’est également l’implication de l’utilisateur qui varie fortement selon l’interface, de faible avec le service client ou les interfaces vocales (car c’est ce dernier qui réalise les tâches), à forte pour un site internet (car c’est l’utilisateur qui réalise les tâches, souvent en totale autonomie).

Concrètement, cela signifie pour les entreprises que les coûts de développements d’interfaces vocales vont s’ajouter à ceux, déjà existants, consacrés aux autres interfaces, comme c’est le cas pour les applications mobiles qui n’ont pas remplacé les sites web, mais de la même manière couvert d’autres contextes d’usages (mobilité notamment) que ceux offerts par les ordinateurs.

Mais il faut garder en tête qu’il ne s’agit que d’une interface, ce qui signifie que la base de données (contenus, images) qui alimente un site, une application ou une interface vocale reste la même. L’enjeu est alors l’interconnexion entre les données et les interfaces (même si cela est rendu facile par les API), mais aussi et surtout la structuration des données, qui devient un enjeu majeur.

Comment ma marque peut-elle présente sur les assistants vocaux ?

Pour une marque, il y a deux façons d’être présent sur les assistants personnels :

  1. Être présent dans l’index qui adresse les réponses à des requêtes, qu’elles soient des requêtes pratiques (« coiffeur lyon »), de culture générale (quel est l’âge d’Arielle Dombasle ») ou d’actualités.
  2. Développer sa propre interface qui est ensuite publiée sur un store (les skills sur Amazon, les actions sur Google) et qui peut être appelé par son nom par l’utilisateur qui souhaite utiliser une skill en particulier.

Analysons les enjeux propres aux deux cas de figure.

Être référencé dans l’index des assistants : the winner (and the richest ?) takes it all !

Dans ce premier moyen d’être présent pour une marque, les enjeux sont immenses, et identiques à la logique de visibilité dans les moteurs de recherche. A un détail près : devant une requête, l’assistant personnel ne fournit pas une liste de résultat que l’utilisateur doit scanner comme sur Google, mais fournit la plupart du temps une seule réponse, sans forcément citer la source (Google cite systématiquement la source pour certains types de requêtes tandis qu’Alexa n’en fournit généralement pas) 

Cette façon de traiter les requêtes est inhérente aux assistants personnels, car c’est justement ce dernier qui prend en charge la sélection du bon résultat, contrairement aux moteurs de recherche ou celui-ci doit faire le job de scanner et sélectionner les résultats afin de trouver le ou les plus pertinents.

D’ailleurs, il est intéressant de constater que lorsque l’assistant vocal renvoie, à la place d’une réponse vocale, une liste de résultats sur un écran (comme c’est souvent le cas sur smartphone), forçant les utilisateurs à interagir avec l’écran, ces derniers vivent cela comme un retour en arrière : si l’utilisateur doit lui-même chercher et trouver le bon résultat (ce qui requiert plus de temps pour parvenir au but, une action physique et une charge cognitive supplémentaire), le dispositif ne peut donc plus se nommer « assistant ».

Mais comment les assistants personnels vocaux construisent leur index ?

Ici les modèles sont très différents, et reflètent l’histoire et le métier de chaque plateforme : Google, dont c’est le métier d’indexer et de classer le web, va être en mesure d’aller indexer et chercher différents types de sources, et de les citer.

Son assistant personnel Google Assistant fonctionne avec un index à deux niveaux : le premier qui indexe le web et qui peut donc afficher un résultat provenant d’un site spécifique (à l’image de la recherche Google sur web), le deuxième qui indexe via des plateformes partenaires, sélectionnées (wikipédia pour les requêtes de culture générale, Google Business / Maps pour les requêtes pratiques, weather pour la météo…).

Ces deux modèles posent donc pour les entreprises des enjeux de visibilité bien différents : dans le premier modèle, on est dans la problématique classique de SEO, à la différence que l’objectif n’est pas d’être dans les premiers résultats, mais d’être le premier résultat.

Ce niveau implique des enjeux évidemment de contenus (avec une rédaction de pages orientée Questions / réponses, un langage orienté utilisateur), mais aussi sémantiques (structuration des données et des contenus sur les pages web).

Dans le deuxième modèle, l’enjeu est de travailler sur ses données et contenus publiés sur les plateformes indexées (wikipédia, google My Business), le cas échéant d’y être présent (logique d’annuaire), encore faudrait-il pouvoir les connaître précisément.

Alexa et Siri quant à eux, fonctionnent uniquement sur le deuxième modèle, à l’image d’Apple et Amazon dont l’indexation du web n’est pas le métier.

Des skills et des actions

Le deuxième moyen pour une entreprise d’être présent sur les assistants vocaux est de développer sa propre fonction vocale, les skills sur Alexa ou les actions sur Google (Siri ne propose pas encore ce modèle). Une fois publiée sur un store  – un peu à l’image des applications mobiles – , l’utilisateur peut ensuite invoquer la fonction vocale en prononçant son nom.

C’est ce qu’a fait Marmiton, le premier site de recette français, en proposant ses recettes de cuisine Sur Alexa et Google Assistant, dans un contexte d’usage très propice au vocal (mains occupées).

: « Amazon nous a contacté avant le lancement d’Alexa pour proposer une skill Marmiton. Nous nous sommes dit qu’il serait intéressant de proposer l’expérience cuisine. Amazon nous a beaucoup aidé et accompagné dans le développement de la skill. » explique Lorine Guiot, Chef de produit assistant vocaux chez Marmiton.

« Il a fallu apprendre à Alexa à comprendre les mots de notre univers (par exemple si un mot évoque une recette, un ingrédient, un nombre de personnes ou une unité de mesure) mais aussi les dire » poursuit-elle, « mais le développement n’est au final pas très complexe », ce que confirme Frédéric Cavazza.

Un fort enjeu de promotion et de fidélisation

Contrairement aux applications qui sont installées par l’utilisateur sur son smartphone, les skills sont simplement activées et non téléchargées, ce qui facilite l’accès, mais pose un enjeu de mémorisation et donc de fidélisation de l’usage de la skill.

Sans interface visuelle comme le dashboard sur un smartphone, rien ne rappelle à l’utilisateur d’une enceinte connecté qu’il peut utiliser la skill EDF, Nike ou marmiton. En amont, se pose aussi la question de la promotion de la skill : « promouvoir la skill n’est pas évident » témoigne Lorine Guiot. En effet, l’usage des assistants personnels vocaux n’est pas encore très développé et les utilisateurs connaissent mal l’univers, les termes et les possibilités offertes par ces outils.

Il est d’ailleurs frappant de constater que les termes d’assistants personnels, d’enceintes connectées, d’intelligence artificielle sont des concepts flous et encore peu lisibles à l’esprit du grand public, mais également des professionnels du marketing et de la communication.

Quelle monétisation et quels modèles économiques ?

Faudra-t-il mettre la main à la poche pour que son contenu arrive en première position, que ce soit via l’index global ou via des plateformes ?

Pour Frédéric Cavazza, il ne fait aucun doute que Google, Amazon et les autres vont monétiser la visibilité des marques sur les assistants personnels, ceci au risque de complexifier encore plus la compréhension de la façon de fonctionner de ces technologies.
« Amazon vend certainement à perte son enceinte Alexa, de la même manière qu’ils vendent à perte leurs kindle », analyse Frédéric Cavazza. La source de revenus se réalise donc sur la monétisation des contenus et des services.

Au niveau des skills, les marques disposant d’une plus faible notoriété n’auront sans doute pas la possibilité de bénéficier d’une aussi forte assistance d’Amazon dans le développement ni d’une aussi grande visibilité. Cependant, il est possible pour une marque de monétiser une skill, c’est ce qu’à fait Marmiton avec Daucy, qui sponsorise le flash info “l’idée gourmande du jour” concocté par Marmiton.

Alors, mon entreprise doit-elle être présente sur les assistants personnels ?

Votre marque est sans doute déjà présente sur Google Assistant, puisque ce dernier indexe le web, mais votre contenu n’est peut-être pas forcément accessible, du fait à la fois d’un contexte ultra-concurrentiel mais aussi d’une prime aux grands médias / sites / services.

Au delà de ce point, il est important d’avoir une approche globale et de travailler sur les axes de travail suivant :

  • Être en veille constante sur l’évolution des interfaces vocales, notamment des assistants vocaux personnels : fonctionnement, modèle économique, possibilités de monétiser des contenus ou des skills. Nous sommes en effet dans une période où l’innovation et les évolutions vont être nombreuses et rapides dans ce domaine, il faut les suivre !
  • Proposer un site vocal-friendly (contenus orientés questions / réponses, web sémantique, données structurées…)
  • Étudier la pertinence de développer des skills / actions et les développer  : on imagine bien que pour certains domaines, les skills peuvent être très pertinentes (pour les écoles / universités : heures et lieux des cours, messages administratifs, emploi du temps…, pour les collectivités territoriales, : horaires de services, événements dans la ville, informations administratives…), pour d’autres moins (secteur BtoB, mode…)

Dis Siri, on y va ?

Laisser un commentaire