Maîtrisez les hallucinations de votre modèle de langage
Details
Le mardi 14 mai, de 12h15 à 13h00, Eric Debeir (Directeur technique et scientifique de Datalchemy) animera un webinaire sur le thème du contrôle des hallucinations des LLM.
Les Large Language Models sont partout, mais souffrent toujours d'hallucinations rendant leur utilisation délicate. Ces outils peuvent produire des résultats impressionnants, puis faillir sans prévenir. Peut-on exploiter leurs bons côtés tout en limitant leurs échecs ? Nous observons ces dernières années une approche de plus en plus répandue où le LLM, utilisé pour ses capacités d'exploration, est conjugué à un autre outil validant ses résultats. AlphaGeometry, approche SAFE de Deepmind, combinaison avec des tests unitaires, nous détaillerons ces méthodes et verrons comment celles-ci préfigurent une utilisation efficace pertinente des LLMs, pas si loin de ce que l'on observe dans l'exploitation de jumeaux numériques.
N'hésitez pas à visiter notre site : [https://datalchemy.net/ ](Datalchemy)
Merci, et au plaisir de vous compter parmi les participant.e.s.
