🚀 Self-Hosted LLM Stack – Production-Ready AI ohne Vendor Lock-in
Cloud-Services sind bequem, aber bringen Datenschutz-, Kosten- und Abhängigkeitsrisiken mit sich. In meinem Talk zeige ich, wie man mit Open-Source-Tools wie Docker, Ollama und Open-WebUI aktuelle Modelle wie Gemma, Mistral oder Qwen3 komplett on-premises betreibt.
Von Hardware-Anforderungen bis zur Live-Demo: Installation, Konfiguration und produktiver Einsatz – ein praxisnaher Weg zu mehr Kontrolle und Freiheit in KI-Projekten.
Sprecher: Florian Wolf
https://www.linkedin.com/in/florian-wolf-berlin
Gerne auf der offiziellen Webseite anmelden. Hier begrenzt MeetUp die Teilnehmerzahl. Sie ist nicht begrenzt.
https://ki-klub-werder.de/veranstaltungen/lokale-llms-oktober-2025