Déployer un LLM (llama3 ou deepseek) sur AWS avec Terraform
Details
Lors de ce MeetUp, nous allons déployer un modèle de langage open-source tel que Llama 3 (ou DeepSeek) sur une infrastructure AWS équipée de GPU.
En partant de zéro, nous construirons ensemble une architecture complète et reproductible grâce à Terraform pour l’infrastructure as code, et Docker pour la conteneurisation.
Vous découvrirez comment :
- Provisionner une infrastructure GPU sur AWS
- Automatiser le déploiement avec Terraform
- Conteneuriser et exécuter un LLM en toute efficacité
- Mettre en place les bases d’un environnement prêt pour la production
Un session pratique et concrète pour tous ceux qui veulent passer de la théorie à l’implémentation réelle des LLM dans le cloud.
Related topics
Artificial Intelligence Machine Learning Robotics
Amazon Web Services
New Technology
Technology
Terraform
