Wed, Dec 10 · 6:30 PM CET
Come fanno gli LLM a capire il linguaggio umano?
Come puoi specializzare un modello per il tuo lavoro?
Come fanno le AI ad usare documenti privati e informazioni aggiornate?
Un pizzico di teoria, esempi pratici e nessuna illusione di uscire dal TechLab come esperti di AI generativa: questo laboratorio è un’occasione per esplorare insieme, in modo pratico e guidato, come funzionano gli LLM. Partiremo da un problema reale e proveremo a
risolverlo con tecniche via via più complesse. Dai prompt di base ai system prompt, fino ad accennare a tecniche di RAG.
L’obiettivo non è “imparare tutto”, ma capire come e quando usare queste tecniche, cosa aspettarsi e come orientarsi nel costruire applicazioni basate sull’AI generativa.
LLM, Prompt engineering, RAG, Transformers: la sessione aiuterà a mettere ordine, chiarire i concetti e fornirà strumenti per capire quando usare cosa.
In questo workshop esploreremo i fondamenti dei sistemi moderni basati su LLM. Attraverso un notebook Python interattivo, metteremo subito in pratica i concetti teorici, con codice funzionante che potrai
testare e rimaneggiare.
Cosa imparerai:
Transformers e LLM : Un pizzico di teoria per capire con che tipo di modelli lavoreremo.
Prompt Engineering : Partire da prompt semplici e vederne i limiti.
System Prompt & Contesto : Introduzione ai system prompt e alla gestione dello “stile” o del “ruolo” del modello.
RAG (Retrieval-Augmented Generation) : Come arricchire le risposte degli LLM con conoscenze esterne.
Fine-Tuning & Metriche di Valutazione : Panoramica delle tecniche più utilizzate per specializzare un modello su compiti specifici in modo efficiente.
GLI SPEAKER
Alessandro Polidori , Fabrizio Chiovoloni e Daniele Salerno lavorano per Develer. Fanno parte del team AI, dedicato allo sviluppo di soluzioni basate su Deep Learning, principalmente in ambito Computer Vision.
GLI ARGOMENTI CHE TRATTEREMO
Transformers
- Introduzione al paper "Attention Is All You Need" di Vaswani et al. (2017)
- Concetti chiave: attention, encoder-decoder, parallelizzazione, tokenizzazione.
Setup ambiente interattivo e problema-esempio
Prompt engineering e System prompt
- Applicazione al problema-esempio
- Panoramica RAG
- Perché utilizzare un RAG
- Applicazione al problema-esempio
Panoramica sulle tecniche di fine-tuning
- Introduzione al fine-tuning
- Metriche di valutazione di un LLM
- Quando ha senso “finetunare” un modello
GLI OBIETTIVI DELLA SESSIONE
I partecipanti otterranno una panoramica chiara e strutturata del funzionamento dei sistemi basati su LLM, dalle basi teoriche fino agli approcci pratici più in voga. Il workshop fornirà strumenti concreti per orientarsi tra concetti come Transformers, Prompt Engineering, Fine-tuning, RAG, mostrando quando e come impiegarli.
PRE-REQUISITI :
- Conoscenza base di Python
- Aver usato almeno una volta Jupyter Notebook
- Familiarità con i concetti base del machine/deep learning
Anche se non hai esperienza pratica di Deep Learning, il corso ti offrirà una panoramica chiara dei concetti alla base degli LLM e degli strumenti utilizzabili anche in autonomia. In sole 3 ore potrai farti un’idea di come funzionano questi sistemi, in quali contesti si utilizzano e perché si sceglie un approccio piuttosto che un altro, senza bisogno di background accademico o tecnico.
-----------------------------------------------------------------------
🍕 L’apericena è offerto da Develer: ti chiediamo di registrarti solo se sei certo/a di poter partecipare.
In caso di imprevisti, avvisaci almeno 48 ore prima dell’evento: in questo modo eviteremo sprechi di cibo e costi inutili .