Meetup Live : ¿Cómo funciona un LLM por dentro?
Details
Usas ChatGPT, Gemini o Claude a diario, pero ¿sabes realmente cómo funcionan por dentro? La mayoría de usuarios solo ve el prompt y la respuesta. Y es ese desconocimiento de la mecánica interna de un LLM es lo que lleva a decisiones costosas en arquitectura, latencia y optimización.
El próximo 10 de diciembre a las 6:30 p.m. (Hora Colombia), la comunidad de Cloud Computing Colombia, Source Meridian y Santiago Hincapié de Google DeepMind, te invitan a un LinkedIn Live, en el que analizaremos la base de los LLM, sin matemáticas pesadas.
En esta conversación, conocerás:
💥 Cómo funciona la cadena de atención, de token a embedding y a la matriz, explicado con demos y analogías sencillas.
💥 Cuáles son las diferencias prácticas entre entrenamiento, finetuning y RLHF para una mejor gestión del modelo.
💥 Cuáles son algunos métodos importantes, como Greedy, Top-P, Temperatura y la eficiencia de Speculative Decoding.
Además obtendrás insights sobre la Ingeniería de Prompting, el uso efectivo del contexto y el manejo de límites de ventana.
