Czy praca w AI Safety jest dla mnie?
Details
Zapraszamy studentów, doktorantów, pracowników naukowych i wszystkich zainteresowanych na panel dyskusyjny poświęcony karierze w obszarze bezpieczeństwa sztucznej inteligencji (AI safety).
Podczas spotkania przybliżymy różnorodne ścieżki zawodowe: od badań technicznych nad modelami AI, przez politykę i AI governance (w tym regulacje takie jak AI Act), po ekonomiczne aspekty rozwoju sztucznej inteligencji.
W panelu wezmą udział eksperci specjalizującymi się zarówno w technicznej jak i społecznej stronie badań nad bezpieczeństwem AI. Podzielą się swoim doświadczeniem z pracy w tym obszarze oraz wskażą możliwości zatrudnienia w organizacjach non-profit, akademii czy instytucjach unijnych. Po dyskusji zaplanowana jest sesja Q&A, podczas której publiczność będzie mogła zadać pytania zaproszonym ekspertom.
Celem wydarzenia jest promowanie świadomego podejścia do bezpieczeństwa sztucznej inteligencji, minimalizowania związanych z nią ryzyk, w tym ryzyk egzystencjalnych, oraz przekazanie wiedzy ułatwiającej znalezienie pracy w tym obszarze.
Będzie też pizza!
Po wydarzeniu zapraszany na nieformalny after do klubokawiarni Życie Jest Fajne : )
Parę słów o panelistach:
Jan Betley to niezależny badacz specjalizujący się w bezpieczeństwie sztucznej inteligencji (AI safety), ze szczególnym naciskiem na uczenie, rozumowanie i bezpieczeństwo dużych modeli językowych (LLM). Jest związany z organizacją Truthful AI, gdzie prowadzi badania nad zachowaniami modeli AI, w tym nad backdoorami i samoświadomością behawioralną. Współautor głośnego badania “Emergent Misalignment”, ukazującego jak douczenie modelu AI na jednym specyficznym zadaniu może prowadzić do jego złośliwych działań na wielu płaszczyznach.
Anna Sztyber-Betley posiada doktorat z automatyki i robotyki, jest adiunktem na Politechnice Warszawskiej w Instytucie Automatyki i Robotyki na Wydziale Mechatroniki. Współpracuje z organizacją Truthful AI, gdzie doradza w zakresie badań nad bezpieczeństwem. Współtworzyła pracę “Emergent Misalignment” oraz prowadziła badania w zakresie tzw. out of context reasoning LLM-ów.
Michał Kubiak to niezależny konsultant ds. polityki AI, specjalizujący się w governance AI, w tym wdrażaniu AI Act i promowaniu zaufanej sztucznej inteligencji. Współpracuje m.in. z ORCG, BlueDot Impact i ML4Good, organizacjami z obszaru AI safety. Jego zainteresowania obejmują bezpieczeństwo i etykę AI, prawo nowych technologii oraz adopcję AI w sektorze publicznym.
Jakub Growiec jest profesorem ekonomii w Szkole Głównej Handlowej w Warszawie (SGH), gdzie kieruje badaniami nad wzrostem gospodarczym i ekonomią sztucznej inteligencji. Jest doradcą ekonomicznym w Departamencie Analiz Ekonomicznych NBP oraz autorem prac na temat funkcji produkcyjnych i ryzyka egzystencjalnego związanego z AI. Omawia potencjalne scenariusze, od wyginięcia ludzkości po nieograniczony dobrobyt dzięki AI.
