Personae d’IA conversationnelle : la fin de K9, le rêve C-3PO
Au cœur de notre étude se trouve une question cruciale : comprendre ce que les interviewés mettent derrière le terme d’intelligence artificielle conversationnelle. Plus particulièrement, pour eux, à partir de quel moment un chatbot n’est plus un chatbot mais une « véritable » IA conversationnelle. Les réponses à cette question englobent divers aspects décisionnels : capacité à collaborer, à auto-apprendre, à berner son interlocuteur en lui faisant croire qu’il parle à un humain…
Pour traiter l’ensemble de ces marqueurs, nous vous proposons aujourd’hui une lecture à travers le prisme de trois personae d’IA conversationnelle. Et pour ce faire, nous avons décidé de les associer à de célèbres robots de la pop-culture.
K9 : Le robot utile mais limité
Pour illustrer une première frontière entre chatbot et IA conversationnelle sur la base des interviews réalisées, K9, le robot chien de Doctor Who, est une bonne analogie.
Construit avec des scripts préétablis et des réponses prédéfinies, il permet une collaboration avec des humains. Bien que cette collaboration reste limitée, l’outil est capable de traiter les éléments de dialogue et d’appliquer quelques niveaux d’analyse de la donnée, en se basant sur certains paramètres de son environnement externe. Ainsi, il vise à fournir la réponse la plus utile possible à son interlocuteur.
On est ici dans l’exemple typique du chatbot ou de l’IA conversationnelle correspondant à la définition que l’on en fait, interconnecté à quelques API du système d’information et programmé avec des règles de décision claires en fonction des différents paramètres entrants.
Il se différencie d’un automate par sa capacité à comprendre les intentions humaines en analysant l’ensemble de la phrase et pas seulement des mots clés, pour apporter la réponse la plus pertinente possible dans son set référentiel, autrement dit, son set de réponses pré-entrainées.
La réponse est certes programmée et prévisible, mais K9 a la capacité de fournir un niveau de satisfaction de base, pour des tâches simples. Il aidera le Docteur dans ses pérégrinations.
Ce type d’IA reste néanmoins limité avec des parcours utilisateurs au caractère enfermant, point relevé par nombreux de nos interviewés. Pour eux, s’ils ont effectivement permis de démocratiser l’usage des IA conversationnelles en entreprise, le caractère limitant des conversations et le risque de tourner en rond est très présent. Ils ont été des facteurs limitants pour l’industrie et sont en partie la cause du coup de frein des entreprises dans l’usage de ce type de technologies pour leur relation client.
K9 a bien des limites, et ces limites expliquent que nombre des interviewés ne considèreraient pas sa version IA conversationnelle comme une véritable IA. Pour eux, certains marqueurs clés manquent pour que l’on puisse parler d’IA conversationnelle. Mais plutôt que de vous les lister, laissez-nous vous illustrer le deuxième niveau de maturité à travers une comparaison avec HAL 9000, l’IA embarquée de Discovery One.
HAL 9000 : le début de l’IA « véritable », mais pas sans risques
HAL 9000 possède tout d’abord une remarquable capacité à collaborer avec les humains en gérant notamment de façon simultanée le dialogue et l’analyse approfondie des données. Il a la capacité de comprendre la volonté de l’utilisateur et d’y répondre de manière contextuelle en étant connecté à l’ensemble du système du vaisseau (l’ensemble du système d’information de l’entreprise ?). Les humains n’hésitent pas à se reposer sur lui, en allant même jusqu’à lui confier leur survie.
Une limite ressort toutefois : l’IA, du fait de sa capacité d’auto-apprentissage, prend des décisions qui ne lui ont pas été apprises et des dérives sont possibles, jusqu’au point où elles deviennent visibles pour les utilisateurs si elles ne sont pas supervisées. Heureusement, dans notre cas, le destin ne sera probablement pas aussi funeste que pour l’équipage du Discovery One, mais une mauvaise expérience utilisateur n’est jamais loin.
Si l’on s’éloigne quelques instants de notre comparaison pour se recentrer sur les informations remontées par nos interviewés, il ressort deux points majeurs à garder en tête concernant les limites de telles IA.
Premièrement, il est essentiel de souligner que le bon fonctionnement de ce type d’IA requiert une supervision humaine significative. En effet, leur capacité d’auto-apprentissage est limitée, et, sans supervision adéquate, peut rapidement entraîner des biais et des dérives qui ont tendance à s’accentuer au fil du temps.
Le deuxième élément clé qui émerge dans notre exemple est que de nombreux interviewés évaluent le niveau d’une IA en fonction de sa capacité à répondre de manière satisfaisante aux demandes des utilisateurs. Si l’ensemble de la satisfaction ne peut uniquement incomber à l’outil, force est de constater que nombre de professionnels ont rencontré des limites technologiques lors de leurs projets de mise en place de tels outils.
Pour répondre à l’ensemble des marqueurs d’une véritable IA conversationnelle d’après nos interviewés, notre persona HAL 9000 a de fait lui aussi ses limites.
C-3PO : la collaboration avec l’humain et la satisfaction au centre de l’IA
L’IA conversationnelle rassemblant l’ensemble des marqueurs qui nous ont été partagés au cours de ces 14 entretiens devrait être capable de comprendre le langage naturel, de collaborer, d’auto-apprendre de ses expériences, et ce, tout en gardant un niveau de satisfaction utilisateur élevé.
Qui de mieux que C-3PO avec sa carcasse dorée, pour représenter cet idéal de l’IA conversationnelle ?
Il est capable d’une excellente collaboration avec les humains à qui il offre ses services de traduction et de communication interculturelle chaque jour. Ses connaissances évoluent et il est capable d’ajouter de nouveaux protocoles sociaux à ses connaissances sur la base de ses expériences. Il comprend parfaitement le langage naturel et est capable de s’adapter aux nuances de la communication humaine (notamment les états émotionnels). Et tout cela en fournissant un haut niveau de satisfaction du fait de sa communication fluide qui laisserait penser que l’on communique avec un humain sans sa voix robotique.
Du ChatBot à l’IA conversationnelle ultime, encore un long chemin à parcourir
Vous l’aurez compris, quand on parle de la limite entre chatbot et IA conversationnelle, de nombreux facteurs sont à prendre en compte et ces facteurs sont propres au vécu de chacun.
Si des progrès ont été faits dans les dernières années pour sortir des arbres de décision et de la détection du besoin de l’utilisateur par mots clés, de nombreuses améliorations sont encore attendues dans ce domaine.
Les récentes percées en lien avec l’IA générative permettent d’en résoudre une partie, mais pour nos interviewés, de réelles limites demeurent : incapacité à gérer le call to action, scénarios complexes, escalade vers un humain.
L’intégration des forces de la partie algorithmique de l’IA conversationnelle et des capacités de l’IAG dans un même produit est un enjeu majeur dans les années à venir pour les fournisseurs ainsi que pour les entreprises dans leur capacité à l’intégrer à leur quotidien.