Le monde de l’assurance, des mutuelles et de la protection sociale est l’un des secteurs, voire le secteur, le plus mature dans l’adoption de l’intelligence artificielle au cœur de ses métiers (souscription, gestion et analyse des sinistres, lutte contre la fraude…). Ce secteur a été l’un des premiers à se saisir des robots conversationnels qui sont le support d’interactions massives entre les centres de service et les clients ou les collaborateurs.
L’arrivée de ChatGPT et consorts donne un coup de projecteur sans précédent, annonçant voire initiant, une véritable révolution sur l’intelligence artificielle conversationnelle… Mais comment les professionnels de la relation client de ce secteur pionnier appréhendent-ils concrètement les interactions directes entre leurs clients et une IA ?
Nous avons décidé d’explorer le sujet en interviewant des professionnels de la relation client, de l’innovation et du digital : quelles sont les réalités de l’intelligence artificielle conversationnelle dans l’entreprise : succès, désillusions, et au-delà, quels sont les mythes et fantasmes qu’elle nourrit ? Cette série d’articles se propose de restituer l’analyse des 14 interviews de managers de haut niveau que nous avons réalisées sur le sujet.
Nous avons interrogé nos interlocuteurs sur les risques qu’ils voient à l’IA conversationnelle de façon totalement ouverte, sans induction particulière. Leurs réponses, ici reprises, sont des développements spontanés. Ils ont développé en moyenne 3 risques chacun, pour un total d’une quarantaine de réponses.
Bien que ce n’ait pas toujours été explicite, nos interlocuteurs ont formulé au moins une partie de leurs réponses en pensant aux intelligences artificielles conversationnelles génératives en général, et à ChatGPT (ou d’autres outils qui l’utilisent en sous-jacent) en particulier. Pour preuve, certains ont évoqué la conservation et l’utilisation des informations issues des conversions à des fins d’entrainement de ChatGPT. Une minorité d’entre eux a également évoqué la mise en place récente dans leur entreprise de règles interdisant aux collaborateurs l’utilisation de ChatGPT ou l’utilisation de données clients en interaction avec cet outil.
Premier risque : la fuite de données !
Plus de 3 de nos interlocuteurs sur 4 évoquent un risque patent lié à la divulgation de données sensibles, en particulier aux fuites de données personnelles des clients.
Pour eux, l’intelligence artificielle les expose aux risques de fraude et impose une vigilance toute particulière aux enjeux de confidentialité. Pour certains, la robustesse et la sécurité des solutions qui « vont taper dans nos bases de données » reste à prouver. L’intelligence artificielle conversationnelle se pose en cible privilégiée des hackers pour « récupérer des données clients ». D’autres peuvent aussi évoquer des « erreurs » qui ressemblent furieusement à des hallucinations : l’IA conversationnelle mal maîtrisée pourrait divulguer à un client les données d’un autre client.
Pour pondérer, certains interlocuteurs soulignent que le risque accru de vol de données a amené à l’accélération de la protection de la donnée, sur le plan technique, mais également dans l’éthique et la transparence. Ils mentionnent la forte vigilance des autorités européennes sur les technologies utilisées, la protection des données clients et le type d’informations transitant dans le Cloud. Cette prudence se trouvant renforcée par l’IA générative.
Certains interviewés infèrent explicitement un risque sur le client lui-même en projetant leur propre crainte : interagir avec une IA conversationnelle pourrait le rendre méfiant ou lui faire craindre des problèmes dans la confidentialité de ses données ; cela serait moins vrai pour les interactions vocales que pour les conversations écrites – type chat – qui « rendent encore plus conscient que l’on donne des informations ».
Deuxième risque : les hallucinations
Le deuxième risque le plus évoqué par nos interlocuteurs – deux tiers d’entre eux – est lié à la non-maîtrise des informations qui sont données par l’intelligence artificielle : l’IA conversationnelle peut répondre de façon incontrôlée aux clients. Il n’est pas possible de totalement maîtriser ce que l’IA répond, car « l’IA a ses biais ».
Tous les interviewés évoquent ici spécifiquement les IA génératives qui peuvent avoir des hallucinations ; certains précisent explicitement que si ce risque est parfaitement maitrisé sur les technologies matures d’intelligence artificielle de compréhension des intentions, il reste structurellement présent sur les technologies d’IA générative qui peuvent inventer des informations, produire des réponses imprécises, incomplètes, voire erronées ou carrément déplacées : « Après tout, elles ont été conçues pour digérer des informations et restituer des synthèses ».
Au-delà de la satisfaction client, certains interviewés approfondissent plus spécifiquement le risque juridique que cela implique dans les métiers de la banque et de l’assurance, sous supervision directe d’instances nationales ou européennes : l’entreprise est juridiquement engagée sur le caractère fiable et pertinent de toutes les informations et les conseils donnés aux prospects ou aux clients : communiquer une information au client qui ne soit pas adaptée peut entraîner de sérieuses difficultés.
Troisième risque : les impacts sociaux et leur mauvaise maîtrise
La troisième réponse la plus fréquente – qui représente un petit cinquième du total – évoque à la fois une opportunité et un risque : il ne fait aucun doute que l’IA conversationnelle va remplacer l’humain sur les plus gros volumes d’interaction peu complexes et que la technologie va continuer à développer son potentiel de traitement de cas d’usages de plus en plus complexes…
Cela ouvre la voie à un repositionnement des conseillers sur des interactions à plus forte valeur ajoutée. Il est même, pour certains, probable que des conseillers vont devenir des « moniteurs de bots ». Ces évolutions vont vers une montée en gamme (et en rémunération) des emplois avec un travail plus complexe.
L’IA conversationnelle est bien qualifiée de rupture technologique : si l’intérêt des emplois de service va notamment se recentrer sur la qualité du conseil, renforcée par l’expérience, cela va également se traduire par une réduction de l’emploi. Dans tous les cas, l’accompagnement social de la mise en œuvre est un point clé tant dans la montée en compétences que dans la reconversion des professionnels de la relation. Il est indispensable d’anticiper et d’accompagner les collaborateurs au bon rythme et à la mesure des impacts.
Quatrième risque : le désengagement et la perte de sens et de compétences
En quatrième position, même s’il s’agit là de moins d’une réponse sur dix, nos interlocuteurs mentionnent un risque de désengagement intellectuel, en évoquant leurs propres interactions avec des IA conversationnelles génératives. En lien avec les impacts sociaux, et surtout si « la technologie est vue comme une fin en soi », ils infèrent un risque de perte de compétences et de sens des activités pour les conseillers clientèle.
Très minoritaire : le risque de rejet d’une interaction non humaine
De façon surprenante, le risque de proposer une expérience incompatible avec les souhaits des clients n’est évoqué que par une petite minorité : deux interviewés, représentant des mutuelles. La proposition d’une interaction directe avec une machine est en fort décalage avec l’image et les modèles très « humains » d’entreprise. Synonyme de déshumanisation, elle est susceptible de décevoir, voire de heurter la sensibilité des adhérents. « Dans tous les cas, l’humain doit rester à au plus un clic ! »
Au-delà des risques liés aux technologies elles-mêmes, la mauvaise maîtrise de leur mise en œuvre induit des risques
Plusieurs interviewés ont exprimé que le recours à l’intelligence artificielle conversationnelle portait également, comme tout projet d’exploitation d’un levier technologique, des risques liés à une mauvaise maîtrise de la mise en œuvre. Ils ont en particulier évoqué :
- Le défaut de co-construction avec les clients et les collaborateurs pouvant conduire à des solutions inadaptées,
- La mauvaise anticipation des impacts techniques, en particulier les difficultés à s’intégrer dans un environnement non ou mal « apisé » : « La qualité du SI et l’héritage organisationnel peuvent être des freins importants pour apporter des réponses personnalisées ou lorsque l’on souhaite des actions avec l’IA »
- La mauvaise maîtrise des contenus et des activités d’apprentissage pouvant générer des inexactitudes et des biais (discriminations…)
Enfin, un interviewé a clairement mentionné le risque de dépendance technologique : l’Intelligence Artificielle Conversationnelle est aujourd’hui un « oligopole » : seules de très grosses entreprises sont à même d’acquérir les puissances de stockage et de calcul nécessaires au développement de l’offre.
Finalement, le nombre total de risques évoqués spontanément par les interviewés reste assez contraint.