Décryptage
C'est la question que nos clients nous posent le plus souvent en ce moment.
Et nous avons tendance à répondre simplement par : "en adoptant une stratégie User Centric pensée dans un parcours cross-device tout en anticipant les futurs touchpoints".
Concrètement, il y a deux manières de construire une réponse :
- La première, un peu mécanique, tendrait à s'appuyer sur un processus d'analyse et d'optimisation SEO.
- La seconde prend appui sur les bases techniques de la recherche vocale augmentée d'une méthodologie UX/UI.
Si vous le souhaitez, nous pouvons d'ores et déjà contextualiser le phénomène de recherche vocale.
Dans la plupart des cas, le voice search est utilisé par des usagers cherchant à obtenir des informations sur les commerces et établissements locaux.
Source : Google-US 2018
Les données présentées ci-dessous sont issues d’une étude menée en 2018 par l’institut Toluna sur un panel représentatif de 1013 personnes.
Ce que nous retiendrons particulièrement sont les types d’usage et les fréquences d’usage des assistants vocaux.
C’est notamment grâce à ces deux KPIs que nous allons pouvoir itérer sur l’utilisation actuelle et future du voice search.
Restons tout de même indulgents quant aux données, celles-ci ont certainement déjà évolué positivement.
Grâce à ces différentes études sur les marchés américain et français, nous sommes en mesure de tirer deux conclusions sur les optimisations SEO nécessaires afin d'être visible ("audible") auprès des "vocaux-nautes".
Commençons par nous affranchir dès maintenant du processus d'analyse et d'optimisation SEO (la première méthode) dans le but de partir sur une base stable.
Voici tout simplement les 10 points d'optimisation à vérifier pour améliorer votre visibilité vocale :
Voici typiquement ce à quoi pourrait ressembler une réponse de type agence "spécialisée en référencement naturel". Il ne s'agit ni plus ni moins que d'un deck de recommandations en 10 slides détaillées avec une recommandation spécifique pour chaque slide.
C'est exactement à cet instant de la réflexion que Niji se démarque.
Chez Niji, nous avons la chance d'avoir une mixité de profils séniors et une culture de l'échange (la pause café y est sans doute pour quelque chose) qui nous permet d'apporter un "layer" expérience utilisateur à la recherche vocale.
Par conséquent, à la question "Comment Niji optimise l'expérience utilisateur grâce à la recherche vocale ?" nous répondrons tout naturellement :
"Niji optimise l'expérience utilisateur grâce à la recherche vocale en adoptant une stratégie User Centric pensée dans un parcours cross-device tout en anticipant les futurs touchpoints".
Vous allez très probablement nous glisser quelques remarques sur cette réponse légèrement marketée... (à juste titre). En effet, nous ajoutons trois calques d'analyse à notre stratégie de recherche vocale, voici comment nous appliquons notre méthodologie.
Avant de démarrer nos analyses SEO vocales, nous constituons un groupe de réflexion UX/UI/SEO.
Ce groupe va analyser les besoins des internautes/vocaux-nautes afin de déterminer quels types de questions sont en mesure de se poser vos utilisateurs à propos de votre business.
À cet instant du projet, les équipes UX, UI et SEO vont étudier les différentes pistes susceptibles d'être exploitées en tant que leviers d'opportunités pour votre business case.
Pour les équipes UX, c'est la phase de définition des opportunités et "blockers" face à l'accès aux informations recherchées sur votre site.
Inputs :
Pour les équipes UI, la phase d'analyse consiste à comprendre l'environnement existant dans le but d'optimiser l'expérience utilisateur sur vos différentes interfaces.
Inputs :
Pour les équipes SEO, l'objectif est de consolider les axes d'optimisation UX/UI, grâce aux jeux de données accessibles en référencement naturel.
Inputs :
En conclusion de ce processus, nos équipes vont se tourner vers l'avenir afin d'identifier les futurs leviers d'opportunités.
Cette phase a pour objectif d'itérer sur les opportunités futures de leviers d'expérience utilisateur en fonction des évolutions technologiques actuelles. Pour cela, plusieurs recettes existent. En ce qui concerne Niji, nous testons régulièrement différents modèles d'itérations technologiques et humaines. Voilà, nous vous avons livré le secret de l'optimisation de l'expérience utilisateur grâce à la recherche vocale chez Niji !
Puisque nous venons de voir comment utiliser la recherche vocale pour optimiser votre expérience utilisateur, nous allons donc passer à la vitesse supérieure !
La recherche vocale a beaucoup fait parler d’elle ces dernières années, certains marketeurs « made in US » ont annoncé le voice search comme la nouvelle révolution dans les modes de consommation. En réalité, le voice search est en train de produire le même effet sur la recherche textuelle que ce que la recherche textuelle a produit au premier annuaire web il y a plus de 20 ans.
La recherche vocale n’est que la partie visible d’une technologie beaucoup plus poussée.
L’IA conversationnelle va totalement repousser les frontières du webmarketing tel qu’on le connaît. Le dialogue qui va s’instaurer entre les IA et les consommateurs sera en mesure d’impacter et de modifier le comportement de ces derniers (les vocaux-nautes). Il peut sembler difficile de faire la distinction entre le voice search et les assistants vocaux. Nous vous proposons de délimiter une frontière entre ces derniers.
Lorsque l’on pense à la recherche vocale, nous avons l’impression de parler d’une technologie récente. À l’échelle de l’homme, cette technologie existe depuis plus de 60 ans (1961 - IBM Shoebox | Speech recognition tool). Certes, la recherche vocale peut sembler révolutionnaire en 2019, néanmoins la technologie de traitement du langage naturel (NLP) qui permet un interfaçage avec les résultats de recherche est « assez simple ». Une requête produite avec la voix est retranscrite textuellement, pour être ingurgitée par le moteur de recherche afin de proposer un résultat de recherche. Il ne s’agit ni plus ni moins que de requêtes envoyées à une AI de moteur de recherche afin d’obtenir un résultat. Ce cheminement logique se termine lors de l’obtention du résultat.
La différence entre le voice search et l'IA conversationnelle (composante de l'assistant vocal) est tout simplement la manière d’effectuer les recherches et c’est potentiellement cela qui risque de bouleverser nos habitudes. Les assistants vocaux utilisent notre voix pour engager un « dialogue » avec nous, dans le but de nous faire poser une question et de trouver une réponse, ou bien encore de contrôler d'autres technologies (IoT). C’est précisément ici qu’est la différence. Au lieu d'utiliser Google, Bing, Yahoo, etc. directement, nous posons maintenant des questions à des tiers tels que Google Assistant, Siri, Alexa, Cortana, et nous dialoguons avec.
Ces tiers sont des assistants digitaux qui s’activent au son de notre voix. Par conséquent, nous sommes plus enclins à dire « Ok Google », « Siri…» ou « Alexa…» à chaque fois que nous avons une question ou que nous recherchons des informations. Ensuite, les assistants vocaux se connectent directement avec le moteur de recherche correspondant (à leur fabricant) pour accéder aux features snippets (knowledge graph, instant answer) et à leur référentiel de connaissances spécifiques afin de nous fournir une réponse.
C'est donc bien l'IA qui change la façon dont les internautes engagent une recherche. En conclusion, sur le marché de demain, vous devrez penser votre marketing en fonction des IA conversationnelles des géants du web. Vous devrez aussi songer à la notion d’identité vocale de votre marque, surtout dans le cas où vous envisagez l’utilisation de chatbots vocaux ou autre IA conversationnelle pour mieux discuter avec vos utilisateurs/clients/prospects.
Pour conclure, vous vous êtes probablement doutés au cours de votre lecture (pour ceux qui sont arrivés jusqu'ici !) que cet article est issu de notre méthodologie, et nous faisons le pari que vous allez tester avec votre assistant vocal.
Merci à vous et bonne expérience vocale !