Skip to content

Details

Lors de ce MeetUp, nous allons déployer un modèle de langage open-source tel que Llama 3 (ou DeepSeek) sur une infrastructure AWS équipée de GPU.

En partant de zéro, nous construirons ensemble une architecture complète et reproductible grâce à Terraform pour l’infrastructure as code, et Docker pour la conteneurisation.
Vous découvrirez comment :

  • Provisionner une infrastructure GPU sur AWS
  • Automatiser le déploiement avec Terraform
  • Conteneuriser et exécuter un LLM en toute efficacité
  • Mettre en place les bases d’un environnement prêt pour la production

Un session pratique et concrète pour tous ceux qui veulent passer de la théorie à l’implémentation réelle des LLM dans le cloud.

Related topics

Artificial Intelligence Machine Learning Robotics
Amazon Web Services
New Technology
Technology
Terraform

You may also like