Cross-sectoriel

RAG et fine-tuning : 2 méthodes pour améliorer la pertinence des chatbots d’IA générative

Publié le 17 octobre 2024 Lecture 25 min

A sa sortie fin novembre 2022, ChatGPT a gagné plus d’un million d’utilisateurs en 5 jours. Il aura suffi de seulement 2 mois au chatbot pour atteindre les 100 millions d’utilisateurs, soit 20 fois plus rapidement que Netflix à qui il a fallu 3 ans et demi !

Divertissante dans un premier temps, cette nouvelle technologie a tout de suite attisé les convoitises. En effet, l’intelligence artificielle est vouée à révolutionner de nombreux domaines. Cependant, pour ce faire, il faut qu’elle devienne fiable. Aujourd’hui, l’IA est limitée par ses hallucinations, son absence d’intelligence émotionnelle, sa faible expertise et sa déconnexion de l’actualité. Pour améliorer sa fiabilité, on peut par exemple personnaliser et optimiser les modèles pour des tâches spécifiques. C’est ici que le fine-tuning et la génération augmentée par récupération (RAG) entrent en jeu. Dans cet article, Alcimed explore ces 2 méthodes capables d’améliorer la pertinence et la qualité des réponses générées par les chatbots.

Qu’est-ce qu’un modèle pré-entraîné ?

Quand on parle de modèles d’IA, on parle généralement d’algorithmes utilisant des réseaux de neurones. Cette technologie est utilisée par les Larges Modèles de Langage (LLM) comme ChatGPT ou Mistral Large, par les algorithmes de génération d’images ou de reconnaissance visuelle. Ces modèles sont entraînés sur des jeux de données très volumineux, leur permettant d’acquérir une base solide dans le domaine de compétences qu’ils vont maîtriser. Il est possible de régler de nombreux paramètres sur les différentes couches d’un réseau pour modifier la manière dont est traitée l’information. On arrive à plusieurs milliards de paramètres lorsque les modèles sont vraiment volumineux (de quoi laisser de la place à la personnalisation…) !

Qu’est-ce que le fine-tuning et le RAG ?

Le fine-tuning consiste à prendre un modèle pré-entraîné et à l’adapter pour des tâches ou des domaines spécifiques avec moins de données. Cette méthode permet d’améliorer les performances du modèle sur des tâches particulières, en affinant les poids des connexions neuronales et ses paramètres pour mieux répondre aux exigences spécifiques tout en conservant les connaissances acquises précédemment.

La génération augmentée par récupération (RAG) est quant à elle une technique où un modèle de langage est combiné avec un système de récupération d’informations. Lors de la génération de réponses, le modèle utilise un moteur de recherche pour retrouver des informations pertinentes à partir d’une base de données ou d’un corpus documentaire externe, puis intègre ces informations dans le processus de génération de texte. Le but est d’enrichir les réponses du modèle avec des informations actuelles et spécifiques qui ne sont pas nécessairement contenues dans son entraînement initial. Cela permet au modèle de fournir des réponses plus informées, précises et détaillées qu’un modèle traditionnel ne pourrait le faire.

Ainsi, le fine-tuning entraîne un modèle sur un domaine spécifique, à la manière d’un étudiant qui réviserait tout particulièrement les machines thermiques pour son examen de thermodynamique. D’autre part, le RAG fournit des informations au modèle au moment de la génération de la réponse, à la manière d’un examen de thermodynamique qui fournirait le concept nouveau de machine thermique aux étudiants pour qu’ils répondent aux questions.

Enfin, une combinaison des deux méthodes existe : le RAFT. La méthode RAFT (Retrieval-Augmented Fine-Tuning) combine les forces du fine-tuning et du RAG pour améliorer encore davantage la pertinence des chatbots d’IA générative. En intégrant l’accès en temps réel à des informations externes tout en affinant le modèle avec des données spécifiques, RAFT permet une adaptation plus précise aux besoins de l’utilisateur. Cette approche hybride innovante maximise la performance du chatbot en tirant parti des avantages des deux techniques.

Le fine-tuning est particulièrement utile dans les domaines où la collecte de grandes quantités de données annotées est coûteuse ou peu pratique. De nombreux modèles spécialistes ont ainsi émergé avec LEGAL-BERT pour le domaine légal, BloombergGPT pour la finance, Meditron de Meta en santé ou encore Codestral de Mistral pour le code informatique. L’acteur français Mistral a d’ailleurs sorti une interface appelée ‘La Plateforme’ sur laquelle il est possible de personnaliser leurs modèles.

De nombreux grands groupes tels qu’Axa ou Capgemini ont également adopté le RAG en interne pour capitaliser au maximum sur leurs nombreux documents. Les modèles sont hébergés sur leurs propres serveurs ce qui leur permet de ne partager aucun document en ligne. Ils ont ainsi à disposition un agent conversationnel spécifiquement adapté à leurs connaissances, facilitant ainsi grandement la recherche d’information.

En 2024, les investissements d’Amazon, Microsoft, Google et Meta dans les usines de serveurs sont estimés à 200 milliards de dollars1https://www.lemonde.fr/economie/article/2024/06/14/derriere-l-ia-la-deferlante-des-data-centers_6239694_3234.html#:~:text=Dans%20ce%20pays%2C%20les%20centres,%2C%20EirGrid%2C%20le%20RTE%20irlandais. Ces investissements sont en grande partie nécessaire pour justement améliorer la fiabilité des modèles existants et approfondir leur spécialisation.


Découvrez comment notre équipe data peut vous accompagner dans vos projets liés à l’intelligence artificielle >


Les limites et défis de la spécialisation des LLM

La spécialisation des modèles d’IA n’est évidemment pas exempte de défis. Les principaux sont les suivants :

  • Qualité et quantité des données : Le fine-tuning nécessite des données étiquetées en quantité suffisante et de bonne qualité afin d’assurer un réentraînement performant des modèles. Ces jeux de données sont souvent laborieux à obtenir et traiter.
  • Surapprentissage : Le surapprentissage se produit lorsqu’un modèle apprend à mémoriser les données d’entraînement plutôt qu’à généraliser les motifs. Des précautions sont à prendre pour éviter ce phénomène.
  • Préoccupations liées aux biais : Les modèles spécialisés peuvent hériter des biais présents dans les modèles pré-entraînés ou les données d’entraînement, conduisant à des résultats injustes ou discriminatoires. Les entreprises doivent accorder la priorité à l’équité, à la transparence et aux considérations éthiques lors du déploiement de systèmes d’IA dans des environnements réels.
  • Contraintes de ressources : Le fine-tuning peut être coûteux en termes de calcul, en particulier pour les modèles et les jeux de données de grande taille. Il est donc nécessaire de bien évaluer les ressources informatiques et les capacités d’infrastructure pour assurer une formation et un déploiement efficaces des modèles.
  • Adaptation aux formats des données : Lors du fine-tuning sur des données spécifiques à une entreprise, les différences de formats ou de structures par rapport aux standards utilisés dans les modèles pré-entraînés peuvent poser des problèmes. Un travail supplémentaire est souvent nécessaire pour adapter le modèle à ces spécificités, afin de garantir une bonne intégration avec les systèmes internes existants.

Alors que l’IA se démocratise de plus en plus, la spécialisation des modèles entraînés représente une avancée significative dans ce domaine. Elle permet une personnalisation sans précédent et une efficacité accrue dans de très nombreux domaines en s’adaptant aux besoins spécifiques de l’utilisateur. En surmontant les défis actuels, nous pouvons espérer un avenir où le fine-tuning et le RAG ouvrent la porte à des innovations encore plus ciblées et impactantes, dans les domaines de la santé ou de l’industrie par exemple. L’exploration continue de ce domaine ne fera que renforcer notre capacité à façonner l’IA selon nos besoins, marquant ainsi une ère de véritable collaboration entre l’humain et la machine. Alcimed peut vous accompagner dans vos projets, n’hésitez pas à contacter notre équipe !


A propos de l’auteur,

Paul-Emile, Data Scientist au sein de l’équipe Sciences de la vie d’Alcimed en France.

Vous avez un projet ?

    Parlez-nous de votre terre inconnue

    Vous avez un projet et vous souhaitez en parler avec un de nos explorateurs, écrivez-nous !

    Un de nos explorateurs vous recontactera très vite.


    Pour aller plus loin