1.2 C
Paris
AccueilFacktualitéChatbot d'Air Canada : pourquoi RAG est meilleur qu'un LLM pour les faits

Chatbot d'Air Canada : pourquoi RAG est meilleur qu'un LLM pour les faits

Récemment, Air Canada a fait la une des journaux concernant l'issue de Moffatt c.Air Canada, dans laquelle Air Canada a été contrainte de verser une compensation à M. Moffatt après que ce dernier ait été désavantagé par les conseils donnés par un chatbot sur le site Internet d'Air Canada concernant la politique tarifaire de ce dernier en cas de deuil. Lorsque M. Moffatt a demandé s'il pouvait demander le tarif de deuil après son retour du vol, le chatbot a répondu que c'était le cas, même si le lien qu'il a fourni vers la page officielle de la politique de deuil indiquait le contraire.

Ce dernier aspect du dossier est de loin l'aspect le plus intéressant de cette affaire, car il soulève de nombreuses questions sur les détails techniques de ce chatbot qu'Air Canada avait déployé sur son site Internet. Étant donné que l'idée de base derrière un tel chatbot est qu'il utilise une source organisée de documentation et de politiques (d'entreprise), l'hypothèse avancée par beaucoup est que ce chatbot particulier a plutôt utilisé un LLM contenant des informations plus génériques, provenant éventuellement de nombreux autres agents publics. -pages de politique orientées vers.

Quoi qu’il en soit, les chatbots sont de plus en plus utilisés par les entreprises, mais au lieu de purs LLM, ils utilisent ce qu’on appelle RAG : Retrieval Augmented Generation. Cela contourne le modèle de langage et récupère à la place des informations factuelles à partir d'une source de documentation vérifiée.

Pourquoi les LLM ne font pas de faits

L’un des principaux problèmes liés à l’utilisation des LLM et à l’attente de réponses honnêtes aux questions est que cela n’est pas possible, en raison du fonctionnement des modèles de langage. Ce sur quoi ils agissent, c'est la probabilité que certains mots et expressions apparaissent en séquence, mais il n'y a pas de « vérité » ou de « mensonge » intégré dans leurs pondérations de paramètres. Cela conduit souvent à des situations discordantes avec des chatbots tels que ChatGPT où il peut sembler que le système ment, change d'avis et joue généralement vite et librement avec des déclarations factuelles.

La manière dont les sociétés LLM telles qu'OpenAI traitent généralement ce problème consiste à agir sur une réponse négative de l'utilisateur humain à la requête en exécutant à nouveau la même requête via le LLM, avec quelques modifications pour, espérons-le, obtenir une réponse que le l'utilisateur curieux trouvera plus agréable. On pourrait ici affirmer que pour savoir ce qu'est « vrai » et « faux », un certain niveau d'intelligence est nécessaire, ce dont les LLM, de par leur conception, sont complètement incapables.

Dans le cas d'Air Canada, cela est plus qu'évident, comme le chatbot l'a déclaré avec assurance à M. Moffatt, entre autres :

Offres Air Canada réduites tarifs de deuil si vous devez voyager en raison d'un décès imminent ou d'un décès dans votre famille immédiate.

Si vous devez voyager immédiatement ou avez déjà voyagé et souhaitez soumettre votre billet à un tarif réduit en cas de deuil, veuillez le faire dans les 90 jours suivant la date d'émission de votre billet en remplissant notre formulaire de demande de remboursement de billet.

Ici, la section « tarifs de deuil » soulignée était liée à la politique officielle d'Air Canada, mais le chatbot n'avait pas cité cette réponse à partir du lien du document de politique officiel. Une explication pourrait être que le modèle de support a été formé avec le mauvais texte, ou qu'un mauvais document de politique interne a été interrogé, mais l'élément « 90 jours » est pour autant que quiconque puisse le déterminer – y compris la section de commentaires de l'article d'Ars Technica. sur le sujet – ce qui n’a jamais été une politique de cette compagnie aérienne en particulier. Ce qui est également intéressant, c'est qu'Air Canada a maintenant supprimé le chatbot de son site, ce qui suggère qu'elle n'utilisait pas RAG.

Mettre à la terre les LLM avec les RAG

Les LLM présentent de nombreux inconvénients en ce qui concerne les informations factuelles, même au-delà de ce qui précède. Là où un LLM est également plutôt restrictif, c'est lorsqu'il s'agit de se tenir à jour avec de nouvelles informations, car à l'intérieur du modèle, les nouvelles informations devront être intégrées en tant que paramètres correctement pesés (« entraînés »), tandis que les anciennes données doivent être supprimées ou mises à jour. . Il est possible qu'un tout nouveau modèle doive être formé à partir de nouvelles données de formation, ce qui rend l'exécution d'un chatbot basé sur LLM coûteuse en termes de calcul et financièrement.

Dans un récapitulatif d'IBM Research, ils passent en revue bon nombre de ces avantages et inconvénients et expliquent pourquoi les RAG sont utiles dans toute situation où vous souhaitez non seulement pouvoir faire confiance à une réponse fournie, mais également pouvoir vérifier les sources. Cette « mise à la terre » d'un LLM signifie le contourner efficacement et faire fonctionner le système davantage comme un moteur de recherche Internet traditionnel, bien que le LLM soit toujours utilisé pour ajouter du texte de saveur et l'illusion d'une conversation cohérente car il offre plus de flexibilité qu'un chatbot utilisant uniquement scripts statiques.

Le système de génération augmentée de récupération de Facebook, comprenant un récupérateur pré-entraîné (Query Encoder + Document Index) avec un modèle séquence à séquence (seq2seq) pré-entraîné (Générateur) pour trouver les documents les plus appropriés (top-K) à partir desquels la sortie est généré.  (Crédit : Piktus et al., 2020)
Le système de génération augmentée de récupération de Facebook, comprenant un récupérateur pré-entraîné (Query Encoder + Document Index) avec un modèle séquence à séquence (seq2seq) pré-entraîné (Générateur) pour trouver les documents les plus appropriés (top-K) à partir desquels la sortie est généré. (Crédit : Piktus et al., 2020)

L'idée d'utiliser ces méthodes plus traditionnelles avec les LLM pour les empêcher de dérailler a été lancée pour la première fois par Meta (née Facebook) dans un article de 2020, dans lequel ils ont utilisé un outil d'extraction basé sur un réseau neuronal pour accéder aux informations dans un index vectoriel de Wikipédia. Cela prend en charge une gamme de différents types de requêtes, notamment des questions, la vérification des faits et la génération de questions triviales. Le composant récupérateur n'a donc qu'à être entraîné pour pouvoir trouver des informations spécifiques dans les documents préparés, ce qui ajoute immédiatement la possibilité de vérifier les informations fournies à l'aide de ces documents plutôt que de s'appuyer sur un modèle paramétré très opaque.

Dans l'exemple fourni par IBM, ils décrivent un scénario dans lequel un employé pose un certain nombre de questions à un chatbot de l'entreprise, qui récupère les dossiers RH de l'employé, vérifie les jours de vacances disponibles, compare la demande aux politiques de l'entreprise et combine les informations résultantes dans une réponse. . Bien sûr, dans l'article de Facebook, il est noté que les LLM améliorés par RAG sont encore très capables d'« halluciner » et ont besoin d'être « affinés » pour rester en ligne. Le bon côté des choses, grâce à l'utilisation de RAG, est que les sources peuvent être fournies et liées, de sorte que ledit employé puisse ensuite les vérifier pour vérifier que la réponse était correcte.

Les LLM sont toujours stupides

Le problème avec les chatbots est qu’à moins qu’ils n’aient été soigneusement écrits par un être humain (avec un contrôle qualité validant leur travail), ils sont voués à échouer. Avec les chatbots purement basés sur LLM, cela ne fait aucun doute, car les réponses fournies vont du plausible au complètement illusoire. La mise à la terre des LLM avec RAG réduit la quantité d'absurdités inventées, mais en l'absence de toute intelligence et compréhension de ce que l'algorithme génère en réponse, il ne peut pas non plus y avoir de responsabilité.

Autrement dit, la responsabilité (et la responsabilité) est transférée à l'entité qui a choisi de mettre en place le chatbot, comme cela a été succinctement et à juste titre démontré dans Moffatt c.Air Canada. En fin de compte, quel que soit le degré d’avancée ou de complexité du système et de ses algorithmes, la responsabilité incombe à l’élément humain en charge. Comme le dit le juge du Tribunal de résolution civile qui a présidé l'affaire dans la décision : « Il devrait être évident pour Air Canada qu'elle est responsable de toute l'information présentée sur son site Web. Peu importe que les informations proviennent d’une page statique ou d’un chatbot.

À la lumière d’un tel cas, une entreprise devrait sérieusement se demander s’il existe un avantage concevable à disposer d’une fonctionnalité de chatbot sur son site Web public plutôt qu’une fonctionnalité de recherche très performante qui pourrait toujours utiliser le traitement du langage naturel pour fournir des résultats de recherche plus pertinents. mais qui laisse les résultats liés à des documents écrits et validés par des humains comme réponse faisant autorité. Tant pour Air Canada que pour M. Moffatt, un tel système aurait été gagnant-gagnant et toute cette histoire désagréable aurait pu être évitée.

François Zipponi
François Zipponihttps://10-raisons.com/author/10raisons/
Je suis François Zipponi, éditorialiste pour le site 10-raisons.com. J'ai commencé ma carrière de journaliste en 2004, et j'ai travaillé pour plusieurs médias français, dont le Monde et Libération. En 2016, j'ai rejoint 10-raisons.com, un site innovant proposant des articles sous la forme « 10 raisons de... ». En tant qu'éditorialiste, je me suis engagé à fournir un contenu original et pertinent, abordant des sujets variés tels que la politique, l'économie, les sciences, l'histoire, etc. Je m'efforce de toujours traiter les sujets de façon objective et impartiale. Mes articles sont régulièrement partagés sur les réseaux sociaux et j'interviens dans des conférences et des tables rondes autour des thèmes abordés sur 10-raisons.com.
Articles récents