KI-Zaubertrick enthüllt - So funktionieren Generative Sprachmodelle wie GPT


Details
Jeder erinnert sich an sein erstes Mal mit ChatGPT – ein absoluter Mind Blow!
Doch wie funktioniert GPT wirklich? Viele Erklärungen sprechen davon, dass Texte in Tokens und dann in Vektoren zerlegt werden, aber das erklärt kaum, wie ein Modell tatsächlich „Kontext versteht“.
Welche Rolle spielen die unzähligen Parameter dabei? Das Geheimnis liegt in der Transformer-Architektur, die wir hier verständlich und ohne komplizierte Mathematik entschlüsseln. Lass uns die Magie hinter Generativer KI enthüllen und verstehen, was Sprachmodelle wie GPT so faszinierend macht!
Wir haben nach langer Zeit wieder Gregor Biswanger zu Gast, der uns in einem interessanten Abend durch die KI-Zaubertricks enthüllt.

KI-Zaubertrick enthüllt - So funktionieren Generative Sprachmodelle wie GPT