Demystifying (Big) Data and Deep Learning

Softwerkskammer Thüringen
Softwerkskammer Thüringen
Öffentliche Gruppe

Carl Zeiss AG

Carl-Zeiß-Promenade 10 · Jena

Wie du uns findest

Zum Besuchereingang / Hauptpforte fahren. Auf Besucherparkplatz parken.

Bild des Veranstaltungsortes

Details

Zum Jahresauftakt freuen wir uns schon darauf mit Euch zu einem Meetup der ganz besonderen Klasse bei einer regionalen und weltweit sehr bekannten Firma durchstarten zu dürfen. Kurzum wir werden an dem Abend zu Gast bei der Carl Zeiss AG in Jena sein um uns über die Themen Big Data, Deep Learning und Machine Learning auszutauschen. Lasst uns gemeinsam herausfinden wie der aktuelle Stand der Technik ist.

AGENDA:

18:00 Doors Open
18:15 Willkommen von der Softwerkskammer Thüringen (Benjamin Nothdurft) und der Carl Zeiss AG
18:30 Demystifying (Big) Data and Deep Learning – Denis Stalz-John (codecentric)
19:45 Pause
20:15 Machine Learning im praktischen Einsatz am Beispiel von VISUHEALTH – Dr. Timo Stich (ZEISS)
20:45 World-Café zu Big Data, KI & Machine Learning (mit MindMap)
21:15 Doors Close
21:30 Gemeinsamer Ausklang (ZEISS Lounge oder Wagnergasse)

VORTRAG: Demystifying (Big) Data and Deep Learning – Denis Stalz-John Data-Scientist (codecentric AG)
PROFIL: www.xing.com/profile/Denis_StalzJohn

Deep Learning ist aktuell “heiß” – viel Hype, viele überzogene Erwartungen, aber auch eine ganze Reihe beeindruckende Erfolgsgeschichten. Und da einige KI-Experten bereits vorhersagen, dass Deep Learning die “Software 2.0” werden wird, ist es ein guter Zeitpunkt, sich das Thema einmal näher anzuschauen. In dieser Session werde ich einen breiten Überblick über Deep Learning geben. Wir beginnen mit einer grundsätzlichen Einordnung des Themas, etwas Geschichte und einigen theoretischen Grundlagen, die wir verwenden, um eine kleine Deep-Learning-Taxonomie zu erstellen.

Danach untersuchen wir das Ökosystem:

- Welche Tools und Bibliotheken gibt es?
- Was sind ihre Stärken und Schwächen?
- Wie fühlen sie sich an und wann sollte man was einsetzen?
- Wie schwer ist es, einen Einstieg in die Entwicklung zu finden?
- Was sind die typischen Fallen auf dem Weg?

Diese und noch mehr Fragen adressieren wir auf unserer Reise durch das Deep-Learning-Ökosystem. Nach der Session werden Sie ein viel besseres Verständnis bzgl. des Warum, Was und Wie von Deep Learning haben, und Sie werden eine Idee haben, ob und wie Sie es in Ihre eigene Arbeit integrieren wollen.

VORTRAG: Machine Learning im praktischen Einsatz am Beispiel von VISUHEALTH – Dr. Timo Stich – Team Lead Machine Learning (ZEISS Corporate Research)
PROFIL: www.linkedin.com/in/timo-stich-14b411124

ZEISS ist weltweit als Hersteller hochpräziser optischer Systeme bekannt. Immer mehr Dinge können mit diesen Systemen sichtbar gemacht, immer kleinere Strukturen aufgelöst, immer komplexere Objekte dargestellt und untersucht werden. Gleichzeitig führt dies auch zu immer größeren Datenmengen, welche beim Aufnahmeprozess entstehen – Datenmengen in Größenordnungen, die immer öfter nicht mehr vollständig manuell untersucht werden können.

Aktuelle Neuerungen in den Forschungsgebieten Machine Learning und AI ermöglichen eine signifikante Verbesserung der Performance auf vielen Computer Vision und Bildinterpretationsaufgaben. Im Vortrag geben wir einen Überblick wie wir bei ZEISS Machine Learning einsetzen um unsere Systeme intelligenter und performanter zu machen. Dadurch entsteht in erster Linie ein Mehrwert für unsere Kunden, es wird aber auch der Entwicklungsprozess vereinfacht und die Applikationsexperten stärker eingebunden.

Wir werden diese Aspekte am konkreten Beispiel der ZEISS VISUHEALTH Plattform besprechen. Mit Hilfe dieser Plattform können schon heute Erblindungen bei Diabetespatienten frühzeitig erkannt und somit durch geeignete Behandlung verzögert oder vermindert werden, auch wenn diese Patienten keine Möglichkeit zum direkten Zugang zu Augenärzten haben. Am Beispiel der Entwicklung von ZEISS VISUHEALTH und den enthaltenen Algorithmen werden die typischen Herausforderungen aktueller ML-Projekte deutlich: kontinuierlich wachsende Datenmengen, Versionierungs- und Trackingsysteme für Daten und trainierte Modelle sowie enge Zusammenarbeit von Machine Learning und Applikationsexperten.