Mit Unsicherheitsquantifizierung zu vertrauenswürdigen KI-Agenten


Details
Agentensysteme gelten als neuer Standard im Bereich generativer KI. Doch ihre Anwendung in der Praxis scheitert oft an mangelnder Zuverlässigkeit – bedingt durch die Selbstüberschätzung großer Sprachmodelle und sogenannte „Halluzinationen“.
In diesem Vortrag zeigen wir, wie Unsicherheitsquantifizierung (Uncertainty Quantification, UQ) dabei hilft, die innere Unsicherheit von LLMs messbar zu machen – und damit vertrauenswürdigere Ergebnisse zu erzielen.
Wir stellen praxisnahe UQ-Methoden vor und demonstrieren, wie unsicherheitsbewusste LLM-Pipelines zu robusteren und zuverlässigeren GenAI-Anwendungen führen – insbesondere bei Retrieval-Augmented Generation (RAG) und agentenbasierten Architekturen.
Lerne, wie du mit UQ gezielt Unsicherheiten in LLMs erkennst und kontrollierst – und so die Basis für vertrauenswürdige KI-Agenten schaffst.
Mit Jörn Malich: Domain Engineering Lead GenAI & NLP bei Schwarz IT KG

Mit Unsicherheitsquantifizierung zu vertrauenswürdigen KI-Agenten