Hackeando el Prompt: Vulnerabilidades y Defensas en Aplicaciones con LLMs
Detalles
En la era de la IA generativa, el texto se ha convertido en una nueva superficie de ataque. Al integrar LLMs en aplicaciones empresariales, emergen vulnerabilidades críticas como la prompt injection, capaces de eludir controles, exponer datos sensibles o ejecutar acciones no previstas.
En esta charla exploraremos cómo funcionan estos ataques en la práctica, analizando los tres vectores más peligrosos: ataques directos, indirectos y exfiltración de datos. A través de una demo en vivo de una aplicación tipo “Analista SQL”, veremos cómo un atacante puede manipular el modelo… y cómo defendernos más allá de simplemente “escribir mejores prompts”.
Temas relacionados
AI/ML
Artificial Intelligence
