Zum Inhalt springen

Details

HINWEIS: Findet online-only statt. Zoom-Link: tba

Brown Bag Demo: Bewertung von LLM-Ergebnissen mittels LLM-as-a-Judge-Ansatz: G-Eval
Referent: Julius
Sprache: Deutsch

In diesem kurzen Brown Bag Meeting (15 Minuten Demo + 5 Minuten Q&A) stellen wir das G-Eval-Framework zur Bewertung von LLM-Ergebnissen vor. Die Entwicklung von Prompts kann durch die konsequente Bewertung optimiert werden. langfuse, langchain, databricks (Playground) stellen grafische Frontends für das Implementieren zur Verfügung.

Gezeigt wird:

  • Was der LLM-as-a-Judge-Ansatz ist und wie er mit G-Eval umgesetzt ist.
  • Welche Funktionen und Vorteile die Web-Oberfläche bietet
  • Eine kurze Live-Demo mit einem lokalen Modell

Zielgruppe:
Alle, die an einer systematischen Prompt-Entwicklung und Optimierung interessiert sind – ganz gleich ob Entwickler:in, Prompt-Designer:in oder technikaffine Nutzer:in.

Sprache:
Die Session findet auf Deutsch statt.

Dauer:
20 Minuten Demo, 5 Minuten Fragen & Diskussion

**As the main sponsor, masem research institute GmbH is pleased to make this meetup possible again: masem.ai**

Referent:in: Guido
Ort: Zoom / Online-only: tba

Artificial Intelligence
Natural Language Processing
Hadoop
Big Data
Open Source

Mitglieder interessieren sich auch für