Fai parlare i tuoi dati: dalla ricerca semantica agli LLM


Dettagli
Immagina di poter trasformare una semplice raccolta di documenti in un sistema capace di capire le tue domande, trovare in pochi millisecondi le informazioni più pertinenti e generare una risposta ragionata e citabile. È esattamente il viaggio che faremo insieme: partendo dal cuore di una Semantic Search—gli embedding e un Vector DB—ne sveleremo la logica, la implementeremo from scratch in Python e la useremo come trampolino per un Retrieval-Augmented Generation completo di modello generativo LLM e reranker.
Non assisterai a slide teoriche: scriveremo codice dal vivo, ragionando perché certe scelte fanno la differenza, quali modelli BERT-like conviene usare oggi e come orchestrare i diversi componenti affinché parlino la stessa lingua. Otterremo un prototipo funzionante, da espandere con idee più ambiziose.
Parleremo inoltre di alcuni casi reali di applicazione industriali di sistemi di Semantic Search e RAG!
Ci vediamo alle 18:30 negli spazi di Open Campus (Cagliari). Alle 20:00 brindiamo con un aperitivo di networking: il momento perfetto per confrontarsi, scambiare idee e far decollare nuove collaborazioni.
L’evento è in presenza, a ingresso libero fino a esaurimento posti, organizzato da Rombo.AI in collaborazione con Open Campus.
Ti aspettiamo!

Fai parlare i tuoi dati: dalla ricerca semantica agli LLM