Objectifs
- Comprendre l'écosystème et les modèles de Mistral AI
- Manipuler et exécuter des modèles open-weights localement
- Préparer et nettoyer un dataset d'instruction tuning
- Appliquer un fine-tuning PEFT/LoRA avec HuggingFace
- Déployer un modèle fine-tuné via vLLM ou Ollama
- Sécuriser et superviser un modèle déployé
Description
Cette formation de 3 jours sur Mistral AI guide les participants de la compréhension des modèles open-weights à leur déploiement pratique, via un projet fil rouge : fine-tuner Devstral sur des tickets de code internes pour créer un assistant IA de développement (explication, correction de code Python et analyse d'images). Prérequis : Bases solides en Python et Machine Learning, avec une égalisation interactive en début de formation. Le programme progresse logiquement : Jour 1 introduit l'écosystème Mistral (modèles comme 7B, Devstral), l'architecture et la mise en place locale (transformers, vLLM), avec tests de prompts ; Jour 2 porte sur la préparation de datasets (nettoyage JSONL, RGPD), le fine-tuning PEFT/LoRA et l'évaluation (métriques comme HumanEval) ; Jour 3 couvre l'optimisation, le déploiement sécurisé (FastAPI, guards) et l'intégration (Streamlit, monitoring MLflow). Les méthodes d'apprentissage privilégient les exercices pratiques hands-on chaque jour (installation, fine-tuning sur datasets anonymisés, déploiement d'une app web interactive), des mises en situation réalistes et des comparaisons de performances pour une progression expérientielle immersive. À l'issue, les participants maîtrisent l'exécution locale, le fine-tuning efficace, l'évaluation, le déploiement souverain et la sécurisation d'assistants IA, favorisant une autonomie immédiate en entreprise.
Liste des sessions
Human Coders
- 0184173896
- formation@humancoders.com
Centre de formation
Lieu de formation





