En 6 semaines, construis ton data product complet.
Piloté par IA. Déployé en prod.
Tu décris ton besoin métier. L'agent produit le code aux normes de la stack : DuckDB, Polars, Streamlit, Docker. Tu valides, tu déploies, tu possèdes le résultat. Sans licence propriétaire. Sans dépendance IT. Sans écrire une ligne from scratch.
- 10 Skills Claude Code fournis : tu pilotes un agent, tu ne codes pas from scratch
- Reporting auto : PDF, PPT, alertes Slack, email
- Déploiement Docker autonome : tu ne passes plus par l'IT
(Power BI, Tableau, Qlik)
dépendre de l'IT
par Claude Code aux normes de la stack
à mémoriser : tu pilotes, tu ne codes pas
Ce qu'on entend avant chaque inscription
5 objections fréquentes — et comment ce bootcamp y répond concrètement.
"Le projet final c'était analyser des ventes de pizza d'un dataset Kaggle. Inutilisable pour mon boss."
Chaque semaine produit un livrable sur ton cas d'usage réel (ou le jeu de données PME fourni). Semaine 1 : mini-app KPI. Semaine 4 : app avec write-back. Semaine 6 : app en production. Livrable présentable à un décideur non-technique.
"J'ai 3 formations achetées que j'ai jamais terminées. Le découpage en modules de 2h ne colle pas avec mon emploi du temps."
Format Done-With-You : 1h30 de live chaque semaine avec deadlines. L'engagement du groupe et le hot-seat font terminer. Pas 300 vidéos asynchrones — 6 semaines avec un formateur qui voit si tu décroches.
"J'ai eu 3h sur CRISP-DM sans jamais voir à quoi ressemble un vrai livrable BI en entreprise."
Pas de slides sur les frameworks. Semaine 1, J7 : tu as une app qui tourne. Le pipeline DuckDB/Polars est généré par l'agent et validé par toi. Chaque module = 1 livrable concret : dashboard, rapport auto, pipeline, app déployée.
"Le formateur avait 2 ans d'expérience et n'avait jamais déployé un dashboard en production."
Gaël Penessot : auteur Business Intelligence avec Python (ENI, 600+ exemplaires, 2e édition en cours). Formateur LinkedIn Learning (cours Polars). Utilisateur Claude Code depuis sa sortie en production. J'ai construit mes propres produits avec la stack que j'enseigne.
"En octobre, une feature Power BI rendait 2 modules entiers caducs dans ma dernière formation."
Stack 100% open-source : DuckDB, Polars, Streamlit, Docker. Aucune feature propriétaire ne rend un module caduc. Les templates Skills sont mis à jour à chaque version majeure de la stack. Accès aux mises à jour à vie.
"J'ai déjà acheté 5 formations. Je sais déjà que je ne terminerai pas celle-là non plus."
Ce bootcamp est limité à 10 participants. Pas un catalogue asynchrone — un programme avec un groupe restreint, des deadlines, et 2 appels 1:1. La structure force l'achèvement. C'est structurel, pas une promesse.
La parole à mes apprenants
Avis vérifiés des étudiants de la formation Streamlit Unleashed
Tableau, Power BI, Qlik : ces outils excellent dans le reporting standard.
Mais ils partagent tous la même limite : quand tes cas d'usage évoluent, tu frappes le même mur.
Le mur du code : “je ne suis pas développeur”
Passer à Python, c'est apprendre une syntaxe, des librairies, des patterns. Pour un analyste Power BI avec 10 ans d'expérience, c'est 6 à 12 mois avant d'être autonome. La plupart abandonnent avant.
Avec Claude Code, un set de Skills qui encode les conventions de la stack, et les bons plugins de contexte, tu décris ton besoin en langage métier. L'agent produit le code, tu relis, tu valides, tu déploies. La courbe passe de 6 mois à 6 semaines.
Le piège de la “Lecture Seule”
Tes utilisateurs veulent corriger une ligne, valider une prévision, saisir une donnée métier directement depuis le dashboard. Dans les outils BI, cette opération basique est bloquée ou coûteuse.
Sur Tableau, le write-back exige une extension tierce payante connectée à un backend séparé. Sur Power BI, il existe depuis 2025 un write-back natif, mais uniquement avec une licence Fabric Capacity, en plus des licences Pro existantes.
Dans tous les cas : une couche d'infrastructure à financer, à maintenir, à faire valider par l'IT. Sur Streamlit, c'est 15 lignes de Python, et tu l'as déployé toi-même ce week-end.
Le mur de la dépendance IT
Mettre un dashboard en production ne devrait pas nécessiter un ticket, une réunion, et trois semaines d'attente.
Pourtant : gateway obligatoire chez Power BI. Tableau Server ou Tableau Cloud avec des rôles admin à configurer. Qlik Sense Enterprise avec une infrastructure serveur dédiée. Peu importe l'outil, la prod passe par quelqu'un d'autre.
Avec un fichier Python, un Dockerfile et un VPS à 20 €/mois, ton app est en ligne. Tu as déployé seul. Tu peux corriger un bug en 10 minutes sans ouvrir un ticket.
Le coût de la diffusion
Chaque nouvel utilisateur qui veut accéder à ton dashboard te coûte de l'argent. Ce n'est pas près de s'arrêter.
Power BI Pro : 14 $/utilisateur/mois. Tableau Viewer : 15 $/utilisateur/mois. Qlik Sense : 30 $/utilisateur/mois. Pour 500 viewers, la facture annuelle oscille entre 84 000 et 180 000 $ selon l'outil, juste pour lire des rapports.
Une Data App Python, c'est une URL. Tu la partages à 5 personnes ou à 500 : le coût d'infrastructure ne change pas. Tes utilisateurs n'ont pas besoin de compte, de licence, ni d'un accès au tenant de l'entreprise.
Le vibe coding : ça marche en local, pas en prod
ChatGPT, Gemini, Copilot : en quelques prompts, tu génères une app qui tourne sur ta machine. Puis tu essaies de la partager. Erreur de dépendance. Session state qui explose. Pas d'authentification. Pas de Docker. Pas de CI/CD.
Le code généré sans architecture ni conventions n'est pas production-ready. C'est un prototype. Ce bootcamp t'apprend à piloter l'agent avec les bonnes règles pour que ce qu'il produit soit déployable dès le départ.
Ton outil met à jour. Ta prod casse.
Tu n'as pas décidé de cette mise à jour. Mais c'est toi qui gères les conséquences.
Power BI modifie le rendu de ses visuels sans prévenir. Tableau change des comportements de filtre entre versions majeures. Qlik fait évoluer son moteur associatif et tes expressions ne se comportent plus comme avant. À chaque release, tu vérifies ce qui a cassé.
Avec Docker, tu fiches chaque dépendance à la version que tu as testée. Tu décides quand mettre à jour, et si quelque chose casse, le rollback prend une commande.
Ce qu'ils disaient avant de rejoindre
Plus de 70 % de mon temps en train de faire des extractions. Je veux utiliser Streamlit pour rendre les 8 services de mon entreprise indépendants.
Les outils comme Power BI coûtent cher et on peut être bridé. Avec Python on peut faire beaucoup plus et proposer de vraies solutions métier.
J'ai tenté Metabase, Superset, ça répond jamais à 100 % des besoins. L'idée, c'est de devenir 100 % autonome sur le prototypage et l'outillage de mon quotidien.

Gaël Penessot
Auteur, Formateur & Mentor Data
Auteur de Business Intelligence avec Python (ENI Editions, 600+ exemplaires vendus, 2e édition en cours). Formateur LinkedIn Learning (cours Polars). Utilisateur quotidien de Claude Code depuis sa sortie. J'ai construit mes produits, ma plateforme et mes automatisations avec. Mon approche n'est pas académique : je t'aide à construire des outils qui ont un véritable impact business. J'ai formé 69 professionnels de la data et packagé mes meilleurs templates pour te faire gagner des semaines de développement.
Ne suis pas un cours.
Apprends à piloter un agent qui code à ta place.
Tu viens avec un cas d'usage bloqué sur tes outils actuels. En 6 semaines, tu maîtrises l'agent, tu construis ton data product, et tu pars avec une app en production.
Ton set de Skills Claude Code (fourni)
Un set complet de Skills encode les conventions de la stack : structure projet, DuckDB, Polars, composants Streamlit, auth, Docker, export PDF, alertes Slack. Installé une fois, ton agent produit du code aux normes du bootcamp à chaque demande. Les Skills sont notre point de départ, pas un gadget. Si Claude Code disparait demain, tu gardes l'architecture, les patterns et la stack. Les Skills t'apprennent à structurer, pas à dépendre.
Ton CLAUDE.md projet
On construit ensemble le CLAUDE.md de ton cas d'usage : contexte métier, contraintes techniques, règles de code, conventions de commit. C'est la mémoire statique de ton agent, celle qui persiste à chaque session.
Maîtrise des CLI : ton agent exécute, il ne simule pas
Ton agent apprend à piloter gh (GitHub), duckdb CLI, docker, uv, git, jq, curl. Ces outils sont dans son ADN : il les a vus des millions de fois dans ses données d'entraînement. Résultat : fiabilité quasi-totale, consommation de tokens minimale, commandes composables via les pipes Unix. Pas de schéma à charger en début de session.
Plugins de productivité : là où se joue la vraie différence
Le moat des utilisateurs avancés, ce sont les plugins de contexte et de mémoire. Tu maîtrises claude-mem pour la mémoire inter-sessions, context-mode pour sandboxer les gros outputs et économiser du contexte, backlog pour la gestion de tâches cross-sessions, commit pour les messages Git conformes. Ces plugins transforment Claude Code d'un assistant ponctuel en système persistant.
MCP : l'exception, pas la règle
On utilise MCP uniquement pour ce que le CLI ne couvre pas : Notion, Figma, services cloud sans API CLI pratique. Tu sauras quand l'utiliser, quand t'en passer, et pourquoi ce choix est structurant pour ton budget tokens et ta fiabilité. Pas de MCP installé par défaut.
Subagents + Hooks : industrialiser la qualité
Un subagent code-reviewer qui valide les conventions de la stack. Un subagent data-validator qui génère les contrats Pandera. PreToolUse hooks pour bloquer les actions risquées. PostToolUse hooks pour lancer les tests automatiquement. Tu industrialises la qualité sans y penser.
Mentoring + Code review + 1:1
1h30 de live par semaine en hot-seat : tu viens avec tes blocages, je prends ton écran, on débloque. Code review asynchrone en vidéo. 2 appels 1:1 stratégiques (kick-off projet + déploiement prod).
Ce que tu sauras faire en 6 semaines
Setup agent + architecture
Installation Claude Code, Skills, CLAUDE.md de ton projet. Maîtrise des CLI essentiels (gh, git, duckdb, docker, uv). Plugins de contexte installés et configurés. Premier pipeline DuckDB + Polars généré par l'agent. Validation Pandera via subagent dédié. Tu pilotes, l'agent code. Premier livrable visible dès J7 : une mini app KPI connectée au pipeline.
Dashboard + automatisation
App Streamlit avec cross-filtering, CRUD, write-back. Subagents pour la review de code et la génération de tests. Reporting PDF/PPT automatisé, alertes Slack sur franchissement de seuil. Tu apprends à découper un besoin métier en instructions précises pour l'agent.
Déploiement + production
Conteneurisation Docker, CI/CD GitHub Actions (piloté via gh CLI). Hooks pour la qualité continue. Monitoring, logging. Ton app tourne en prod, maintenue par toi, augmentée par l'agent. Plan de maintenance long terme. Alternative déploiement intranet disponible pour les environnements IT contraints (grand compte, secteur public).
La stack pour créer de vraies applications data
Le résultat : une application métier sur-mesure, capable d'écrire en base de données, d'intégrer des modèles ML, et déployable sans coût de licence par utilisateur.
Le programme
Un accompagnement de 6 semaines qui coûte moins cher qu'un an de licences BI pour 6 viewers.
Cette cohorte est complète. Inscris-toi pour la cohorte 2.
- 6 sessions live de groupe (1h30/semaine)
- 2 appels 1:1 stratégiques
- Code review asynchrone illimité
- Set de Skills Claude Code fourni
- Templates Docker, app, CLAUDE.md inclus
- Accès aux modules vidéos premium
- Projet fil rouge avec données réelles fourni si pas de cas client
Paiement en 3 ou 4 fois sans frais disponible sur demande
- Tout le contenu de la cohorte 2
- Applicable à partir de la 3e cohorte
Contexte ROI6 viewers coûtent entre 1 000 et 2 160 $/an selon l'outil (14 $/mois Power BI Pro, 15 $/mois Tableau Viewer, 30 $/mois Qlik Sense). Cet accompagnement te donne l'autonomie de déployer des apps sans aucun coût par utilisateur, à vie.
Déjà étudiant Streamlit Unleashed ? Contacte-moi avant de t'inscrire. Un crédit de 200 € est appliqué automatiquement sur le tarif du bootcamp.
Questions fréquentes
Quelle différence avec un bootcamp Python classique ?
Quelle différence avec une formation Claude Code généraliste ?
Pourquoi pas tout faire avec des MCP ?
Sources : Scalekit et Firecrawl, 2025-2026.
Claude Code, combien ça coûte ?
Est-ce que je deviens dépendant de Claude Code ?
Et si je n'ai pas encore de cas client ou de projet en tête ?
"Streamlit ne fait pas de cross-filtering comme Power BI"
st.plotly_chart supporte nativement les événements de sélection via on_select="rerun" avec trois modes : clic direct, box selection, et lasso. Tu cliques sur un point d'un graphique, Streamlit retourne les données, et tu filtres les autres visuels. La différence : ce n'est pas “magique”, il faut l'écrire en Python. Mais c'est plus flexible.Mon outil BI a un modèle sémantique. Streamlit n'en a pas, non ?
Ce qu'on construit ici est différent. Avec DuckDB, ta logique métier s'écrit en SQL standard : jointures, vues, CTEs. Pas de syntaxe propriétaire à apprendre. Ton code est lisible par n'importe quel développeur, testable unitairement, et versionnable sur Git. Tu n'es plus dépendant d'une interface graphique pour comprendre ce que fait ton modèle.
"Streamlit ce n'est pas scalable, c'est pour du prototype"
Streamlit remplace-t-il mon outil BI actuel ?
Tes rapports standard qui tournent bien sur Tableau, Power BI ou Qlik ? Garde-les. Ils font ce pour quoi ils ont été conçus.
Ce qu'on construit ici, c'est ce que ton outil ne peut pas faire : une app qui écrit en base, qui intègre un modèle ML, qui envoie un email depuis l'interface, qui donne à tes utilisateurs un vrai formulaire métier. Pas un dashboard. Une application.
"Je ne suis pas développeur, Streamlit c'est du code"
"Mes données sont sensibles, Streamlit n'a pas de RLS"
"Pourquoi pas juste utiliser Metabase ou Superset ?"
Une question avant de réserver ? Réponse rapide sur WhatsApp.
Contacter sur WhatsAppPrêt à construire ton data product
en production en 6 semaines ?
Le bootcamp est limité à 10 participants par cohorte. Commence par un appel de diagnostic gratuit (30 min) pour valider que ton cas d'usage est le bon fit.
Ce que tu vas obtenir lors de l'appel :
- Validation de ton cas d'usage (est-ce que Python est la bonne solution ?)
- Estimation réaliste du temps de développement
- Recommandations sur la stack (DuckDB vs PostgreSQL, Streamlit vs Dash...)
- Réponses à toutes tes questions sur le format et l'accompagnement
Sans engagement • 30 minutes • Réponse sous 24h