[BEZPŁATNIE] AI Security w praktyce: zagrożenia, ryzyka i mechanizmy ochrony
Детали
🟢 Obowiązkowa bezpłatna rejestracja:
https://stacja.it/produkt/bezplatnie-ai-security-w-praktyce-zagrozenia-ryzyka-i-mechanizmy-ochrony/
🟢 Warsztat wieczorny w godz. 9:00-17:00 (8 h) 🟢
🟢 Czego się nauczysz?
- Warsztat przygotowuje do samodzielnego identyfikowania i analizowania zagrożeń bezpieczeństwa w systemach sztucznej inteligencji,
- Warsztat przygotowuje do bezpiecznego wykorzystania popularnych narzędzi AI.
🟢 Dla kogo jest ten warsztat?
Warsztat dedykowany:
- Specjalistom ds. bezpieczeństwa IT z podstawową wiedzą o AI,
- Inżynierom lub deweloperom AI,
- Architektom rozwiązań AI,
- Menedżerom projektów AI.
🟢 Wymagania wstępne
Podstawowe doświadczenie z uzyciem AI.
Wymagania instalacyjne:
Konta:
- https://chatgpt.com/ - darmowe konto,
- https://gemini.google.com/app - darmowe konto,
- https://app.n8n.cloud - konto trial.
Programy:
- LM Studio (https://lmstudio.ai) - w ramach tego programu do pobrania są modele: "featherless-ai-quants/meta-llama-Llama-Guard-3-8B-GGUF", "qwen/qwen2.5-vl-7b",
- Visual Studio Code (https://code.visualstudio.com/) - zalogowane dowolnym kontem,
- ToolHive (https://toolhive.dev/).
🟢 Prowadzący
Adrian Sroka:
Ascron / SecurityChampions
https://www.linkedin.com/in/adriansroka/
https://www.diwebsity.com/
Architekt bezpieczeństwa i konsultant IT.
Z pasją tworzy nowe rozwiązania oraz udoskonala istniejące, podnosząc jednocześnie ich techniczną, jak i funkcjonalną wartość. W pracy stosuje podejście oparte na współpracy i wiedzy. Zorientowany na zbliżanie do siebie bezpieczeństwa i dewelopmentu. Mając duże doświadczenie w tworzeniu systemów IT, jest w stanie skutecznie budować praktyki i społeczności bezpieczeństwa w firmach.
🟢 Program
Moduł 1: Podstawy działania systemów AI:
– Podstawowe koncepcje i architektura systemów AI,
– Kluczowe algorytmy i modele w uczeniu maszynowym,
– Proces uczenia modeli: od danych treningowych do wdrożenia,
– Rodzaje systemów AI.
Moduł 2: Bezpieczeństwo wybranych narzędzi i zastosowań AI:
– Chatboty i generatory tekstu (Chat AI),
– Asystenci programowania (AI Coding Assistants),
– Serwery modeli i protokoły kontekstowe (Model Context Protocol – MCP),
– Automatyzacja procesów z wykorzystaniem AI.
Moduł 3: Zagrożenia związane z modelami językowymi (LLM):
– OWASP LLM Top 10 – przegląd zagrożeń,
– Przykłady rzeczywistych ataków,
– Główne ryzyka związane z LLM,
– Różnice między klasycznym bezpieczeństwem IT a bezpieczeństwem AI.
UWAGA
Liczba miejsc ograniczona! Organizator zastrzega sobie prawo do odwołania wydarzenia w przypadku niezgłoszenia się minimalnej liczby uczestników.
🟢 Obowiązkowa bezpłatna rejestracja:
https://stacja.it/produkt/bezplatnie-ai-security-w-praktyce-zagrozenia-ryzyka-i-mechanizmy-ochrony/
