Prépare la certification Databricks Data Engineer Professional
Entraîne-toi avec 240+ questions originales en français, des examens blancs chronométrés et des explications détaillées sur Lakehouse avancé, Delta Live Tables, Unity Catalog, optimisation Spark/Photon, CI/CD avec Asset Bundles et orchestration multi-environnements.
Essai gratuit · Questions corrigées · Examens blancs chronométrés · Préparation indépendante
Questions corrigées
Domaines couverts
Examen blanc chronométré
Questions et corrections
Détails de l’examen Databricks DEP
Les tarifs et la disponibilité peuvent évoluer : vérifie toujours sur la page officielle avant l’inscription.
Code examen
Databricks DEP
Éditeur
Databricks
Niveau
Professional · Data Engineer
Format
60 questions (59 scorées + 1 unscored)
Durée
120 minutes
Score requis
Non publié officiellement (≈ 70 %)
Langues
Anglais · JP · PT-BR · KR
Validité
2 ans
Prérequis
Aucun officiel · DEA Associate fortement recommandée
Tarif
200 USD
Tarif officiel Databricks — vérifier les variations selon la région
Source officielle : databricks.com — Data Engineer Professional
Compétences mesurées par Databricks DEP
Les 10 domaines officiels avec leurs pondérations à jour. Chaque domaine est couvert par des questions originales en français.
Développement de code (Python & SQL)
22%PySpark, Spark SQL, UDF/UDAF, scripting Python sur Databricks.
- •PySpark DataFrame API · transformations / actions
- •Spark SQL avancé · CTEs · window functions
- •UDFs · vectorized UDFs · UDAFs
- •Modules Python · imports · dependencies
- •Notebooks · widgets · paramétrage
Optimisation des coûts et performances
13%Tuning des clusters Photon / Jobs, AQE, broadcast, skew, OPTIMIZE, partitioning, bucketing.
- •All-Purpose vs Job clusters · Photon
- •Adaptive Query Execution (AQE)
- •Broadcast joins · skew handling
- •OPTIMIZE · ZORDER · VACUUM
- •Partitioning vs bucketing stratégiques
Transformation, nettoyage et qualité
10%Delta Lake (MERGE, UPSERT, DELETE), DLT expectations, Change Data Feed, déduplication.
- •MERGE · UPSERT · DELETE Delta
- •DLT · expectations · EXPECT, FAIL, DROP
- •Change Data Feed · CDC
- •Déduplication · gestion des nulls
- •Schema evolution · enforcement
Surveillance et alerting
10%Monitoring Jobs / DLT, Lakehouse Monitoring, SLA, audit logs, observabilité.
- •Jobs UI · DLT pipelines monitoring
- •Lakehouse Monitoring · profiles · alerts
- •SLA · refresh metrics · success rate
- •Audit logs · system tables
- •Observabilité end-to-end
Sécurité et conformité
10%Service principals, PAT, Unity Catalog (GRANT/REVOKE, row filters, column masks), chiffrement.
- •Service principals · PAT · OAuth
- •Unity Catalog · GRANT / REVOKE · ownership
- •Row filters · column masks
- •Chiffrement · credentials vault
- •RGPD · audit · classification
Débogage et déploiement
10%Debug Spark, déploiement avec CLI, REST API, Asset Bundles, Terraform, Repos / Git.
- •Spark UI · Query Plan · DAG
- •Databricks CLI · REST API
- •Asset Bundles · Terraform
- •Repos · Git · CI/CD
- •Environnements dev · staging · prod
Ingestion et acquisition
7%Auto Loader, COPY INTO, Structured Streaming (Kafka, Kinesis, Event Hubs).
- •Auto Loader · cloudFiles · schema evolution
- •COPY INTO · idempotence
- •Structured Streaming · Kafka · Kinesis
- •Dead-letter patterns · retries
- •JDBC · ODBC · external sources
Gouvernance des données
7%Unity Catalog : catalogs, schemas, managed vs external, lineage, tags, Marketplace.
- •Catalogs · schemas · managed / external tables
- •Data lineage · column-level
- •Tags · classification · discovery
- •Databricks Marketplace · Delta Sharing
- •Cross-workspace governance
Modélisation des données
6%Medallion (Bronze/Silver/Gold), star schema, Data Vault, SCD type 1/2/3.
- •Bronze · Silver · Gold layers
- •Star schema vs Data Vault
- •SCD type 1 · 2 · 3
- •Surrogate keys · grain
- •Physical design pour analytics
Partage et fédération
5%Delta Sharing inter-organisations, Lakehouse Federation, accès cross-workspace.
- •Delta Sharing · open / Databricks-to-Databricks
- •Lakehouse Federation · external sources
- •Snowflake · Postgres · MySQL · Redshift
- •Cross-workspace permissions
- •Reader accounts · recipients
Teste-toi avec une question Databricks DEP
Format proche de l’examen : QCM scénarisés, distracteurs réalistes, explication détaillée et piège fréquent à éviter.
sales.raw_orders doit être accessible en lecture par l'équipe analytics (analytics_team), mais uniquement pour les lignes où region = 'EU'. Quelle approche est la plus propre ?Pourquoi préparer DEP avec DataCertification ?
Questions scénarisées
Questions originales en français qui reproduisent le style DEP : étude de cas, multi-choix piégeurs, raisonnement attendu en production.
Examens blancs chronométrés
Reproduction des conditions Databricks : 60 questions, 120 minutes et bilan par domaine.
10 domaines couverts
Code, performance, transformations, monitoring, sécurité, deploy, ingestion, governance, modeling, sharing.
Entraînement pratique complémentaire
Renforce Python, SQL et l’analytics engineering pour ancrer les concepts en mission Lakehouse.
Complète ta préparation avec de la pratique
DEP valide la maîtrise avancée du Lakehouse. En mission, tu écris du Python, du SQL et tu modélises. Ces 3 labs renforcent les fondations.
Progresser en Python data
Pandas, NumPy, APIs, automation — utile pour PySpark, les UDFs et l’écosystème Databricks.
S’entraîner en PythonRenforcer SQL
Window functions, CTEs, MERGE, requêtes analytiques — la base de Spark SQL et des transformations Delta.
S’entraîner en SQLPratiquer l’analytics engineering
Medallion, SCD, qualité, incrémental — exactement ce que tu construis sur le Lakehouse Databricks.
Découvrir le Lab Analytics EngineeringCe que tu dois maîtriser avant l’examen
Concepts qui apparaissent le plus dans DEP et qui causent le plus d’erreurs en mission Databricks.
- ✓PySpark DataFrame API · transformations / actions / lazy
- ✓Spark SQL avancé : window functions, CTEs, MERGE
- ✓Auto Loader (`cloudFiles`) · schema evolution · checkpointing
- ✓Structured Streaming · stateful operations · watermarks
- ✓Delta Lake : MERGE, OPTIMIZE, VACUUM, time travel
- ✓Delta Live Tables : expectations, modes, refresh
- ✓Optimisation Spark : Photon, AQE, broadcast, skew
- ✓Partitioning · bucketing · ZORDER
- ✓Unity Catalog : catalogs, schemas, managed / external
- ✓Row filters · column masks · GRANT / REVOKE
- ✓Asset Bundles · Terraform · CI/CD avec Repos
- ✓Lakehouse Monitoring · system tables · audit logs
Questions fréquentes sur Databricks DEP
Qu’est-ce que la certification Databricks Data Engineer Professional ?
Quels sujets sont couverts par l’examen ?
Combien de temps faut-il pour préparer l’examen ?
Faut-il avoir passé la DEA Associate avant ?
Les questions DataCertification sont-elles les vraies questions de l’examen ?
L’examen est-il disponible en français ?
Faut-il de la pratique réelle sur Databricks ?
Quels entraînements pratiques sont recommandés ?
DataCertification est-il affilié à Databricks ?
Prêt à décrocher ta certification Databricks DEP ?
240+ questions, examens blancs chronométrés et focus production. Commence gratuitement.
Essai gratuit · Aucune carte bancaire requise
Explore aussi
DataCertification est une plateforme éducative indépendante, non affiliée à Databricks. Databricks® et Delta Lake® sont des marques de Databricks, Inc. Les questions sont créées à des fins pédagogiques et ne proviennent pas de l’examen officiel.