Brown Bag Lunch: LLM-as-a-Judge mit G-Eval
Details
HINWEIS: Findet online-only statt. Zoom-Link: tba
Brown Bag Demo: Bewertung von LLM-Ergebnissen mittels LLM-as-a-Judge-Ansatz: G-Eval
Referent: Julius
Sprache: Deutsch
In diesem kurzen Brown Bag Meeting (15 Minuten Demo + 5 Minuten Q&A) stellen wir das G-Eval-Framework zur Bewertung von LLM-Ergebnissen vor. Die Entwicklung von Prompts kann durch die konsequente Bewertung optimiert werden. langfuse, langchain, databricks (Playground) stellen grafische Frontends für das Implementieren zur Verfügung.
Gezeigt wird:
- Was der LLM-as-a-Judge-Ansatz ist und wie er mit G-Eval umgesetzt ist.
- Welche Funktionen und Vorteile die Web-Oberfläche bietet
- Eine kurze Live-Demo mit einem lokalen Modell
Zielgruppe:
Alle, die an einer systematischen Prompt-Entwicklung und Optimierung interessiert sind – ganz gleich ob Entwickler:in, Prompt-Designer:in oder technikaffine Nutzer:in.
Sprache:
Die Session findet auf Deutsch statt.
Dauer:
20 Minuten Demo, 5 Minuten Fragen & Diskussion
**As the main sponsor, masem research institute GmbH is pleased to make this meetup possible again: masem.ai**
Referent:in: Guido
Ort: Zoom / Online-only: tba