Warum KI-Agenten gefährlich sind - Was sichere Architekturen besser machen
Details
KI-Agenten gelten als nächster Schritt der Automatisierung, doch erste Praxiserfahrungen zeigen: Sobald LLMs eigenständig handeln dürfen, entstehen neue Angriffsflächen. Prompt Injection, Regelumgehungen und halluzinierte Aktionen sind keine Randphänomene, sondern strukturelle Probleme heutiger Agenten-Designs.
Der Vortrag argumentiert, dass klassische Schutzmechanismen dieses Grundproblem nicht lösen. Stattdessen werde Architekturen vorgestellt, die LLMs bewusst auf das Verstehen beschränken. Entscheidungen und Aktionen werden durch separate, klassische Mechanismen übernommen wie bspw. der klassische KI-Planning-Algorithmus, der explizit erlaubte und überprüfbare Aktionspläne erzeugt.
Mit einem praxisnahen Beispiel wird gezeigt, wie sich dadurch Sicherheitsrisiken deutlich reduzieren lassen. Die verschiedenen Ansätze werden in dem Vortrag bzgl. der Vor- und Nachteile gegenübergestellt. Der Fokus des Vortrags liegt auf einem architekturellen Denkmodell für sicherere KI-Agenten – nicht auf formalen Details.
Sprecher
Dr. Sönke Magnussen
Zeitplan
- 1750 Zoom wird geöffnet
- 1800 Start des Termins mit Ankommen
- 1805 Talk
- 1900 Offizielles Ende (wer noch Fragen hat gerne länger)
Wer Ideen zu Themen für weitere Meetups hat, kann uns diese unter WPS software@work meetup zukommen lassen - Feedback erwünscht !
