Transparency by Design durch erklärbare oder selbsterklärende KI

Details

Bei unserem letzten Meetup in diesem Jahr dreht sich alles um das Thema (Selbst-) Erklärbarkeit und Transparenz sowie rechtliche Behandlung von künstlicher Intelligenz: Glaubt man der Black Box Society, so sind Algorithmen böse und gehören überwacht. Einzelne Vorfälle diskriminierender und unkontrollierter algorithmischer Entscheidungen verringern außerdem die Akzeptanz von KI Systemen.

Ein Erklärmodell mit Entscheidungsparametern und einem Interface, das Erklärungen transparent macht, kann dieser Intransparenz entgegenwirken. Dies erhöht nicht nur die Transparenz, sondern wahrt gleichzeitig auch die Betroffenenrechte nach DSGVO. Ein solches Erklärmodell kann außerdem zur Systemoptimierung im Bereich der Klassifizierung beitragen und dabei helfen, die Grenzen der KI genauer zu verstehen. Bisherige juristische Bestrebungen lösen die problematische Intransparenz jedoch nicht ausreichend auf.

Sinnvoller könnte es sein, das System sich einfach selbst erklären zu lassen – inwiefern das geht und was sonst noch so möglich ist, erfahrt ihr im Rahmen des ersten Teils. Danach wird die urheberrechtliche Behandlung von Machine Learning-Modellen thematisiert. Anschließend wollen wir dann darüber diskutieren, inwiefern die rechtlichen Grundlagen mit der technischen Realität funktionieren können. Wir freuen uns auf euch! :)

Lisa Käde ist wissenschaftliche Mitarbeiterin und Doktorandin bei Prof. Dr. Thomas Dreier, M.C.J., am Zentrum für Angewandte Rechtswissenschaften am Karlsruher Institut für Technologie. Im Rahmen ihrer Doktorarbeit forscht sie zu den urheberrechtlichen Fragestellungen rund um Machine Learning. Als Wirtschaftsinformatikerin (B.Sc., DHBW Stuttgart) und Rechtswissenschaftlerin (1. Staatsexamen, Freiburg) bringt sie aus beiden Welten das nötige Hintergrundwissen für die Beantwortung von Schnittstellenfragen mit. Neben ihrer Doktorarbeit beteiligt sie sich außerdem zunehmend an Legal Tech-Projekten.

Stephanie von Maltzan ist wissenschaftliche Mitarbeiterin und Doktorandin am Zentrum für Angewandte Rechtswissenschaften am Karlsruher Institut für Technologie. Sie forscht vor allem zu den Themen der IT-Sicherheit und Predictive Analytics. Ihre Arbeit fokussiert sich weiterhin auf die Zusammenhänge zwischen neuen Technologien und Recht und Gesellschaft. Nach Abschluss des 2. Staatsexamens und der Absolvierung des Fachanwalts für Informationstechnologien arbeitet sie derzeit an Projekten im Bereich der IT-Sicherheit und der Robotik.