Dans le monde d'aujourd'hui, qui évolue rapidement, il est essentiel de se tenir au courant des dernières avancées et tendances dans son domaine. C'est pourquoi les systèmes de gestion des connaissances sont devenus de plus en plus populaires, offrant aux organisations un lieu centralisé pour stocker et accéder à leurs connaissances. Cependant, tous les systèmes de gestion des connaissances ne se valent pas. Dans cet article de blog, nous allons explorer comment l'utilisation de modèles de langage, tels que le LLM récemment publié, peut améliorer l'efficacité de votre base de connaissances spécifique à un domaine. Nous aborderons les bases des modèles de langage et la façon dont ils peuvent être formés sur les données de votre organisation pour améliorer la précision de la recherche, automatiser le marquage et même générer du nouveau contenu. Plongeons dans l'aventure !
Un LLM est un grand modèle de langage. Le GPT-4 d'OpenAI en est un exemple, le LLamA de Meta en est un autre. Nous avons délibérément choisi ici de nous en tenir au terme général LLM pour désigner ces modèles. N'oubliez pas que chacun de ces modèles a été entraîné sur un gigantesque ensemble de données (accessibles au public).
Il a été clairement démontré que ces LLM ont une compréhension significative du langage général et qu'ils sont capables de (re)produire des informations pertinentes pour les informations présentes dans leurs données de formation. C'est pourquoi les outils génératifs tels que ChatGPT répondent étonnamment bien aux questions portant sur des sujets que le LLM a rencontrés au cours de sa formation.
Mais ce qui échappe à l'emprise directe de ces énormes LLM, ce sont les données qui sont si précieuses au sein de chaque organisation : la base de connaissances interne. La question qui se pose donc massivement est la suivante :
Comment pouvons-nous exploiter la puissance de ces LLM pour débloquer des informations stockées dans une base de connaissances spécifique sur laquelle ils n'ont pas été formés à l'origine ?
Pour ce faire, ne pouvons-nous pas simplement introduire notre base de connaissances interne en tant que données supplémentaires sur lesquelles le LLM doit être formé ? Ou, si vous voulez, pouvons-nous affiner le LLM sur notre base de connaissances spécifique.
Oui, vous pouvez très probablement le faire. Mais pour répondre à des questions fiables, ce n'est peut-être pas la meilleure solution.
Voici Billy le rat de bibliothèque. Billy est un grand modèle linguistique et il a dévoré une quantité gigantesque d'informations en ligne, ce qui lui a permis d'acquérir des connaissances considérables. Cependant, Billy, aussi intelligent qu'il soit, n'a pas lu tous les livres de votre bibliothèque personnelle très spécifique.
Le réglage fin consiste à présenter à Billy le rat de bibliothèque tous les livres de votre base de connaissances très spécifique et à le laisser ingurgiter toutes ces informations supplémentaires savoureuses. De cette manière, le rat de bibliothèque Billy ne connaît pas seulement toutes les informations générales, il en sait également beaucoup sur le contenu de votre base de connaissances spécifique.
Félicitations, grâce à ce processus de mise au point, vous avez transformé Billy en un Billy très spécifique qui en sait beaucoup sur votre domaine spécifique ! Nous vous montrons ci-dessous comment vous pouvez commencer à mettre Billy au travail. En posant des questions à votre rat de bibliothèque amélioré, vous pouvez vous attendre à des réponses qui utilisent à la fois les informations de son gigantesque ensemble d'apprentissage général et les informations stockées dans votre base de connaissances spécifique.
Bien que puissant, le problème crucial de cette approche est que vous n'avez que peu d'informations sur la manière dont votre rat de bibliothèque a trouvé ses réponses. En outre, l'affinement d'un LLM a des conséquences (coûteuses).
Nous énumérons les principales raisons pour lesquelles le réglage fin de Billy n'est pas à la hauteur :
Heureusement, tous ces problèmes peuvent être résolus. Si vous cherchez à répondre à des questions de manière vérifiable et à éviter les hallucinations, vous n'avez peut-être pas besoin du rat de bibliothèque hyper-moderne, demandons simplement au bon vieux bibliothécaire où trouver les réponses à vos questions.
L'idée qui sous-tend la génération améliorée par récupération (RAG) est assez simple. Rappelez-vous que l'objectif est de débloquer les informations contenues dans notre base de connaissances. Au lieu de libérer (c'est-à-dire d'affiner) notre ver de bibliothèque, nous indexons de manière exhaustive les informations de notre base de connaissances.
Dans le schéma ci-dessus, nous illustrons comment le Smart Retriever fonctionne comme un bibliothécaire. Idéalement, le bibliothécaire connaît parfaitement le contenu de sa bibliothèque. Pour un visiteur posant une certaine question, il saurait exactement quel chapitre de quel livre recommander.
D'un point de vue plus technique, il s'agit d'un moteur de recherche sémantique. Dans ce cas, les embeddings sont des représentations vectorielles de sections de documents et permettent une description mathématique du sens réel stocké dans chaque section. En comparant les embeddings, nous pouvons déterminer quelles sections de texte sont similaires en termes de signification à d'autres sections de texte. Cet aspect est crucial pour le processus de recherche présenté ci-dessous.
Deux éléments essentiels sont en jeu :
La raison pour laquelle cette approche est appelée " Génération améliorée par extraction" devrait maintenant être claire. En fonction de la question posée, vous récupérez d'abord les informations les plus pertinentes dans votre base de connaissances interne ; vous augmentez ensuite la phase de génération typique en transmettant ces informations pertinentes de manière explicite au composant de génération.
En dehors de ces points forts, l'aspect multilingue des LLM est de toute beauté. Vous pouvez disposer d'une base de connaissances composée de recettes purement italiennes avec lesquelles votre ami français amateur de pâtes peut dialoguer en français.
Il est à noter que dans la section ci-dessus, nous avons rejeté le réglage fin comme une option valable parce que nous avions peu de contrôle sur la clarté de la source, ce qui augmentait le risque d'hallucination.
Il convient de noter que l'approche RAG, alimentée par un LLM général, ne fonctionne bien que si la base de connaissances spécifique ne contient pas de jargon super spécifique que le LLM ne peut pas comprendre à partir de sa formation générale.
Imaginez que vous ayez besoin que les réponses de votre solution suivent "le ton et le jargon" présents dans votre base de connaissances. Dans ce cas, la mise au point de votre LLM semble moins évitable.
Il pourrait s'agir d'une approche valable permettant de traiter un jargon spécifique et d'incorporer ensuite votre LLM affiné dans l'architecture RAG afin d'en récolter les avantages combinés. Au lieu de travailler avec un rat de bibliothèque, vous utiliseriez alors votre Billy spécialement formé pour alimenter le générateur et/ou les composants du Smart Retriever.
Excellente question.
La recherche sémantique (recherche intelligente) existe depuis un certain temps, tout comme l'IA générative (certaines formes primitives existent depuis des décennies).
Cependant, nous avons assisté à des avancées décisives au cours des derniers mois.
Sur le plan technologique , nous avons récemment assisté à des progrès considérables dans les performances des LLM. Ces progrès ont un impact positif sur la solution RAG à deux niveaux :
Cette amélioration de la qualité générative s'accompagne d'une augmentation de la traction. Auparavant, les entreprises ne pouvaient pas facilement imaginer les possibilités d'un système reposant sur l'IA générative. Aujourd'hui, grâce à la large couverture médiatique et à l'adoption d'outils tels que ChatGPT, l'intérêt général s'est accru de manière exponentielle.
Ainsi, bien que des versions médiocres de RAG aient été possibles pendant un certain temps, les améliorations technologiques et l'augmentation de la traction se traduisent par une opportunité de marché fructueuse.
Dans cette section, nous vous présentons quelques-uns des principaux défis liés à la mise en place d'une solution RAG réussie.
Charmés par le potentiel de RAG et intrigués par les défis qui y sont liés, nous allons maintenant examiner une solution réelle basée sur RAG.
Si le concept de génération assistée par récupération suscite votre intérêt, vous vous posez peut-être la question :
Ai-je ce qu'il faut pour tester une solution basée sur les RAG ?
Eh bien, si c'est le cas :
Dans ce cas, oui, le RAG pourrait être la solution pour vous.
À titre expérimental, nous avons récemment réalisé une petite démonstration pour montrer comment cette technologie peut être utilisée pour aider le personnel gouvernemental à répondre plus facilement aux questions parlementaires.
Dans ce cas, les connaissances spécifiques sont les suivantes :
La valeur commerciale, quant à elle, est présente :
Si vous cherchez des indications sur la manière de mettre en œuvre techniquement une solution similaire, restez à l'écoute pour un article de blog ultérieur dans lequel nous nous pencherons sur les détails techniques de la mise en place de RAG.