Présentation de la Formation DBT (Data Build Tool)
Vous travaillez avec un entrepôt de données (Snowflake, BigQuery, Redshift, PostgreSQL…) ? Vous gérez des pipelines SQL, mais vous cherchez une manière plus fiable, modulaire et industrialisée de construire vos transformations ?
Cette formation DBT (Data Build Tool) est faite pour vous. En seulement 2 jours intensifs, vous apprendrez à concevoir des modèles robustes, testés, documentés et parfaitement intégrés à votre écosystème data.
Adopté par des milliers d’organisations dans le monde, DBT est devenu l’outil incontournable pour l’ingénierie des données en SQL. Que vous soyez data analyst, data engineer ou data scientist, vous repartirez avec des compétences directement applicables à vos projets.
Formation DBT 100 % pratique, animée par des experts de la data, avec des jeux de données concrets, des cas métiers et un mini-projet fil rouge.
Programme détaillé de la Formation DBT
Objectifs
- Comprendre l’architecture et les concepts fondamentaux de DBT
- Structurer et exécuter un projet DBT de bout en bout
- Créer des modèles SQL dynamiques et maintenables
- Mettre en place des tests, de la documentation et des snapshots
- Intégrer DBT dans une pipeline de données avec de bonnes pratiques
Organisation de la formation DBT (Data Build Tool)
Jour 1 — De la découverte à la modélisation maîtrisée
Matin — Fondamentaux de DBT et mise en route
- Présentation générale : modern data stack, rôle de DBT
- Philosophie ELT vs ETL
- Installation de DBT (CLI ou DBT Cloud)
- Connexion à un data warehouse (BigQuery, Snowflake, PostgreSQL…)
- Structure d’un projet DBT (arborescence, fichiers clés, YAML)
- Exécution de base :
dbt run
,dbt debug
,dbt compile
- Premier modèle simple (staging d’une table brute)
Exercice pratique 1 : Créer un projet DBT connecté à un entrepôt, loader un fichier seeds
et créer un modèle stg_clients
.
Après-midi — Modélisation SQL avec DBT et Jinja
- Modèles : structure, bonnes pratiques de nommage
- Utilisation de
ref()
et gestion des dépendances entre modèles - Création d’une vue intermédiaire et d’un modèle final
- Introduction à Jinja : variables, blocs, filtres
- Création de modèles dynamiques avec Jinja (ex : filtrage conditionnel, templates)
- Utilisation des
seeds
comme données de référence
Exercice pratique 2 : Créer un flux staging → intermediate → marts
sur un jeu de données CRM (clients, commandes, produits), avec logique Jinja.
Jour 2 — Fiabilisation, documentation, industrialisation
Matin — Tests, documentation, snapshots
- Tests intégrés (
not_null
,unique
,relationships
,accepted_values
) - Écriture de tests personnalisés
- Création et utilisation de
sources
- Génération de documentation (
dbt docs generate
,serve
) - Écriture de documentation dans les YAML : modèles, colonnes, sources
- Création et usage des
snapshots
: suivi des évolutions de données
Exercice pratique 3 : Ajouter des tests à l'ensemble des modèles + générer la documentation complète + ajouter un snapshot sur la table clients
.
Après-midi — Industrialisation et bonnes pratiques
- Structuration du projet : staging / intermediate / marts
- Organisation des dossiers et conventions de nommage
- Introduction à DBT Cloud : environnement, déclencheurs, scheduler
- Intégration dans un pipeline CI/CD (Git, GitHub Actions, dbt Cloud jobs…)
- Déploiement multi-environnement (dev/prod)
- Introduction aux macros avancées et packages DBT Hub
Mini-projet final (fil rouge) : Chaque participant (ou binôme) construit un mini-pipeline analytique :
- Chargement de données (seeds ou source)
- Construction de modèles multi-niveaux
- Tests + documentation + snapshot
- Présentation du résultat (structure, dépendances, tests, doc)
Outils d’évaluation des compétences
-
Quiz et QCM à la fin de chaque module pour valider l’acquisition des connaissances théoriques.
-
Mini-projets guidés
-
Auto-évaluation sur la compréhension et la mise en application des concepts.
-
Feedback individuel : chaque participant se voit proposer un bilan de ses points forts et axes d’amélioration.
Quels profils et quels prérequis pour la formation
Profils :
- Data analysts, data engineers, data scientists
- Professionnels de la donnée souhaitant industrialiser leurs transformations
Prérequis :
- Maîtrise de SQL (jointures, agrégations, CTE)
- Familiarité avec un entrepôt de données (BigQuery, Redshift, PostgreSQL, etc.)
Les outils
-
DBT (Data Build Tool) : L’outil central de la formation : permet de transformer, tester et documenter des données en SQL. Version utilisée : DBT CLI (ligne de commande) ou DBT Cloud https://www.getdbt.com/
-
PostgreSQL (ou autre data warehouse compatible DBT) : Entrepôt de données relationnel utilisé comme backend pour exécuter les modèles DBT. https://www.postgresql.org/
-
Visual Studio Code (VS Code) : Éditeur de code utilisé pour écrire les modèles SQL, fichiers YAML, et macros Jinja. https://code.visualstudio.com/
-
Git + GitHub : Suivi de version du projet DBT, bonnes pratiques collaboratives, intégration CI/CD. https://git-scm.com/ https://github.com/
Solutions de financement
Plusieurs solutions existent pour financer votre formation et dépendent de votre situation professionnelle.
Découvrez-les sur notre page Comment financer sa formation ou contactez nous.
Besoin de conseils ou d'informations, contactez-nous au 01.72.25.40.82
Tarifs et Modalités d’inscription
Prochaines Sessions et Lieux de Formation formation DBT (Data Build Tool)
Tarif inter-entreprises :
1200 euros par participant pour 2 jours / 14 heures
- Réductions disponibles pour les financements personnels, les étudiants et en cas d'inscriptions multiples
- Nos tarifs sont HT et n'incluent pas les déjeuners
- Tarif intra-entreprise (sur mesure, selon vos besoins) : nous contacter pour évaluation
Prochaines sessions :
3 et 4 juillet 2025
Lieux de la formation :
Paris ou à distance
Inscription et demande d'informations
Veuillez remplir le formulaire ci-dessous pour vous inscrire, obtenir un devis ou des détails sur la formation proposée.
Toutes nos formations peuvent être prises en charge par l'ensemble des OPCO grâce à notre certification Qualiopi.
Cette formation est disponible en session sur mesure organisée dans votre structure pour un groupe allant jusqu'à 8 participants. Contactez-nous pour organiser une session.
Ils nous font confiance
Chez stat4Decision, nous mettons tout en œuvre pour vous offrir des formations data de haute qualité, adaptées aux besoins réels de votre entreprise et de votre équipe. Nos formateurs, à la fois experts en data science, machine learning et intelligence artificielle, proposent une approche pédagogique alliant théorie et pratique afin de garantir une montée en compétences rapide et durable.
Nous privilégions les petits groupes pour un accompagnement personnalisé et des échanges riches, ce qui vous permettra de maîtriser les techniques de data en les appliquant directement à des cas concrets de votre secteur d’activité. De plus, notre équipe reste à votre disposition après la formation pour vous soutenir dans la mise en application de vos nouveaux savoir-faire.
En choisissant stat4Decision, vous investissez dans une formation data reconnue pour son excellence et sa capacité à vous aider à relever les défis de la transformation data. Faites confiance à notre expertise pour accélérer vos projets data et stimuler l’innovation au sein de votre organisation.
Partager cette page