Esta charla explorará el fascinante recorrido de los autoencoders, una de las arquitecturas más influyentes del deep learning. Partiendo de su estructura esencial —encoder, decoder y espacio latente—, descubriremos cómo un modelo diseñado para comprimir datos acabó sentando las bases de la generación creativa.
A lo largo de la sesión se explicarán sus limitaciones y las variantes más relevantes, como los Variational Autoencoders (VAE) y las U-Net, con ejemplos visuales que ilustran reconstrucciones de imágenes, interpolaciones en el espacio latente y segmentación.
Veremos también cómo los autoencoders siguen presentes en aplicaciones prácticas como la detección de anomalías, la visión médica y la síntesis de datos. Finalmente, cerraremos conectando este viaje con su papel silencioso en los modelos generativos modernos, desde los VAEs hasta Stable Diffusion.
Una charla para entender cómo una idea tan simple —aprender a reconstruir— sigue inspirando a los modelos que hoy crean.
Agenda