Ce qu'on enseigne et pourquoi ça marche
Depuis 2018, on construit des ateliers autour d'un constat simple : apprendre l'IA et la data science en faisant de vrais projets, pas en regardant des diapositives. Chaque formation est conçue pour que tu repars avec quelque chose de concret.

Tous les ateliers disponibles
Des formations courtes et ciblées. Chaque atelier dure entre 2 et 6 semaines — tu peux enchaîner ou choisir selon ce qui t'intéresse vraiment.
Python pour la data science
On part de zéro. Pandas, NumPy, nettoyage de données — tout ce qu'il faut pour travailler avec de vrais jeux de données sans galérer.
Premiers modèles ML avec scikit-learn
Régression, classification, validation croisée — on construit et évalue des modèles sur des problèmes concrets, pas des exemples jouets.
Traitement du langage naturel
Tokenisation, embeddings, classification de textes. On utilise des outils comme spaCy et HuggingFace pour traiter de vrais corpus en français.
Visualisation de données avec Python
Matplotlib, seaborn, plotly — on apprend à choisir le bon graphique pour le bon usage, pas juste à copier-coller du code.
Réseaux de neurones avec PyTorch
Architectures CNN et RNN, backpropagation, fine-tuning. On travaille sur des projets réels avec des données images et séquentielles.
SQL et bases de données pour analystes
Requêtes complexes, jointures, fenêtres analytiques — on apprend à extraire de l'information utile depuis des bases relationnelles.
.jpg)
IA générative en pratique — créer avec les LLM
Cet atelier répond à une question précise : comment intégrer un modèle de langage dans un vrai projet sans que ça devienne un cauchemar technique. On travaille avec l'API OpenAI, LangChain et des patterns de prompting concrets.
- Construire un pipeline RAG (Retrieval-Augmented Generation) de zéro
- Gérer les coûts d'API et éviter les pièges courants de latence
- Évaluer la qualité des sorties avec des métriques reproductibles
- Livrable final : une mini-application fonctionnelle et documentée