Wed, Nov 12 · 5:30 PM CET 
Wir freuen uns sehr Johannes Rabauer mit folgendem Thema begrüßen zu dürfen (in-person, Weiden i.d.Opf., Sprache: Deutsch/English):
Spring vs. Quarkus: KI-Backends live mit lokalem LLM bauen 
Format:  Keine Slides — reines Live-Coding + öffentliches Repository (Code nachher / live verlinkt)
Worum geht’s: 
Wir bauen live das Backend zu einer voll funktionsfähigen Demo-Applikation und zwar zweimal. Das Frontend (Spring + Vaadin) und eine lokale Ollama-Instanz (für das LLM) sind schon vorbereitet. So können wir uns voll darauf konzentrieren, wie sich beide Frameworks im direkten Vergleich schlagen: beim Coden, beim Integrieren und beim Verstehen.
Das Besondere: 
Das bedeutet: Alle können das gezeigte System direkt zuhause oder im Unternehmen ausprobieren: DSGVO-freundlich, weil alles lokal läuft.
Live-Vergleich der Developer Experience beider Frameworks, inklusive Integration eines lokalen LLMs über Ollama.
Ablauf: 
5–30 min: Live-Coding Runde 1: Spring + Spring AI → funktionierender Backend-Flow, LLM-Anbindung, erste Responses
30–45 min: Live-Coding Runde 2: Quarkus + LangChain4J → gleicher Use-Case, andere APIs, andere Developer Experience
45–50 min: Fazit, Live-Vergleich, Q&A, Repository-Link
Takeaways: 
Versteht, wie sich lokale LLMs mit Ollama sauber und DSGVO-konform einbinden lassen
Erhaltet ein Repository, das sich mit einem einzigen Befehl starten lässt. Keine Abhängigkeiten, kein Build-Chaos
Und natürlich: jede Menge Live-Coding, keine Folien 😎
Für wen: 
Agenda 
Swag and Raffle 
Speaker 
Rechtliches