Formation DBT (Data Build Tool)

4.8 / 5
python data

Prix
1200 euros / personne
2 jours / 14 heures

Lieux
Paris ou à distance

Prochaines sessions
3 et 4 juillet 2025


Présentation de la Formation DBT (Data Build Tool)

Vous travaillez avec un entrepôt de données (Snowflake, BigQuery, Redshift, PostgreSQL…) ? Vous gérez des pipelines SQL, mais vous cherchez une manière plus fiable, modulaire et industrialisée de construire vos transformations ?

Cette formation DBT (Data Build Tool) est faite pour vous. En seulement 2 jours intensifs, vous apprendrez à concevoir des modèles robustes, testés, documentés et parfaitement intégrés à votre écosystème data.

Adopté par des milliers d’organisations dans le monde, DBT est devenu l’outil incontournable pour l’ingénierie des données en SQL. Que vous soyez data analyst, data engineer ou data scientist, vous repartirez avec des compétences directement applicables à vos projets.

Formation DBT 100 % pratique, animée par des experts de la data, avec des jeux de données concrets, des cas métiers et un mini-projet fil rouge.

Programme détaillé de la Formation DBT

Objectifs

  • Comprendre l’architecture et les concepts fondamentaux de DBT
  • Structurer et exécuter un projet DBT de bout en bout
  • Créer des modèles SQL dynamiques et maintenables
  • Mettre en place des tests, de la documentation et des snapshots
  • Intégrer DBT dans une pipeline de données avec de bonnes pratiques

Organisation de la formation DBT (Data Build Tool)

Jour 1 — De la découverte à la modélisation maîtrisée

Matin — Fondamentaux de DBT et mise en route

  • Présentation générale : modern data stack, rôle de DBT
  • Philosophie ELT vs ETL
  • Installation de DBT (CLI ou DBT Cloud)
  • Connexion à un data warehouse (BigQuery, Snowflake, PostgreSQL…)
  • Structure d’un projet DBT (arborescence, fichiers clés, YAML)
  • Exécution de base : dbt run, dbt debug, dbt compile
  • Premier modèle simple (staging d’une table brute)

Exercice pratique 1 : Créer un projet DBT connecté à un entrepôt, loader un fichier seeds et créer un modèle stg_clients.

Après-midi — Modélisation SQL avec DBT et Jinja

  • Modèles : structure, bonnes pratiques de nommage
  • Utilisation de ref() et gestion des dépendances entre modèles
  • Création d’une vue intermédiaire et d’un modèle final
  • Introduction à Jinja : variables, blocs, filtres
  • Création de modèles dynamiques avec Jinja (ex : filtrage conditionnel, templates)
  • Utilisation des seeds comme données de référence

Exercice pratique 2 : Créer un flux staging → intermediate → marts sur un jeu de données CRM (clients, commandes, produits), avec logique Jinja.

Jour 2 — Fiabilisation, documentation, industrialisation

Matin — Tests, documentation, snapshots

  • Tests intégrés (not_null, unique, relationships, accepted_values)
  • Écriture de tests personnalisés
  • Création et utilisation de sources
  • Génération de documentation (dbt docs generate, serve)
  • Écriture de documentation dans les YAML : modèles, colonnes, sources
  • Création et usage des snapshots : suivi des évolutions de données

Exercice pratique 3 : Ajouter des tests à l'ensemble des modèles + générer la documentation complète + ajouter un snapshot sur la table clients.

Après-midi — Industrialisation et bonnes pratiques

  • Structuration du projet : staging / intermediate / marts
  • Organisation des dossiers et conventions de nommage
  • Introduction à DBT Cloud : environnement, déclencheurs, scheduler
  • Intégration dans un pipeline CI/CD (Git, GitHub Actions, dbt Cloud jobs…)
  • Déploiement multi-environnement (dev/prod)
  • Introduction aux macros avancées et packages DBT Hub

Mini-projet final (fil rouge) : Chaque participant (ou binôme) construit un mini-pipeline analytique :

  • Chargement de données (seeds ou source)
  • Construction de modèles multi-niveaux
  • Tests + documentation + snapshot
  • Présentation du résultat (structure, dépendances, tests, doc)

Outils d’évaluation des compétences

  • Quiz et QCM à la fin de chaque module pour valider l’acquisition des connaissances théoriques.

  • Mini-projets guidés

  • Auto-évaluation sur la compréhension et la mise en application des concepts.

  • Feedback individuel : chaque participant se voit proposer un bilan de ses points forts et axes d’amélioration.


Quels profils et quels prérequis pour la formation

Profils :

  • Data analysts, data engineers, data scientists
  • Professionnels de la donnée souhaitant industrialiser leurs transformations

Prérequis :

  • Maîtrise de SQL (jointures, agrégations, CTE)
  • Familiarité avec un entrepôt de données (BigQuery, Redshift, PostgreSQL, etc.)

Les outils

  • DBT (Data Build Tool) : L’outil central de la formation : permet de transformer, tester et documenter des données en SQL. Version utilisée : DBT CLI (ligne de commande) ou DBT Cloud https://www.getdbt.com/

  • PostgreSQL (ou autre data warehouse compatible DBT) : Entrepôt de données relationnel utilisé comme backend pour exécuter les modèles DBT. https://www.postgresql.org/

  • Visual Studio Code (VS Code) : Éditeur de code utilisé pour écrire les modèles SQL, fichiers YAML, et macros Jinja. https://code.visualstudio.com/

  • Git + GitHub : Suivi de version du projet DBT, bonnes pratiques collaboratives, intégration CI/CD. https://git-scm.com/ https://github.com/


Solutions de financement

Plusieurs solutions existent pour financer votre formation et dépendent de votre situation professionnelle.
Découvrez-les sur notre page Comment financer sa formation ou contactez nous.

Prix
1200 euros / personne
2 jours / 14 heures

Lieux
Paris ou à distance

Prochaines sessions
3 et 4 juillet 2025

Inscription

Besoin de conseils ou d'informations, contactez-nous au 01.72.25.40.82

Tarifs et Modalités d’inscription

Prochaines Sessions et Lieux de Formation formation DBT (Data Build Tool)

Tarif inter-entreprises :
1200 euros par participant pour 2 jours / 14 heures

  • Réductions disponibles pour les financements personnels, les étudiants et en cas d'inscriptions multiples
  • Nos tarifs sont HT et n'incluent pas les déjeuners
  • Tarif intra-entreprise (sur mesure, selon vos besoins) : nous contacter pour évaluation

Prochaines sessions :
3 et 4 juillet 2025

Lieux de la formation :
Paris ou à distance

Inscription et demande d'informations

Veuillez remplir le formulaire ci-dessous pour vous inscrire, obtenir un devis ou des détails sur la formation proposée.

Toutes nos formations peuvent être prises en charge par l'ensemble des OPCO grâce à notre certification Qualiopi.

    ouinon
    ouinon
    ouinon
    En cliquant sur "Envoyer", vous acceptez que vos données personnelles soient utilisées pour vous recontacter dans le cadre de votre demande.
    Pour connaître et exercer vos droits, veuillez consulter notre politique de confidentialité.


    D'AUTRES FORMATIONS POUR VOUS


    Organiser une session sur mesure !

    Cette formation est disponible en session sur mesure organisée dans votre structure pour un groupe allant jusqu'à 8 participants. Contactez-nous pour organiser une session.


    Ils nous font confiance



    Chez stat4Decision, nous mettons tout en œuvre pour vous offrir des formations data de haute qualité, adaptées aux besoins réels de votre entreprise et de votre équipe. Nos formateurs, à la fois experts en data science, machine learning et intelligence artificielle, proposent une approche pédagogique alliant théorie et pratique afin de garantir une montée en compétences rapide et durable.

    Nous privilégions les petits groupes pour un accompagnement personnalisé et des échanges riches, ce qui vous permettra de maîtriser les techniques de data en les appliquant directement à des cas concrets de votre secteur d’activité. De plus, notre équipe reste à votre disposition après la formation pour vous soutenir dans la mise en application de vos nouveaux savoir-faire.

    En choisissant stat4Decision, vous investissez dans une formation data reconnue pour son excellence et sa capacité à vous aider à relever les défis de la transformation data. Faites confiance à notre expertise pour accélérer vos projets data et stimuler l’innovation au sein de votre organisation.

    Partager cette page