logo

Microsoft Certified: Azure Enterprise Data Analyst Associate (DP500)

Cette formation Microsoft certifiante de quatre jours couvre les méthodes et les pratiques pour effectuer des analyses de données avancées à grande échelle. Les étudiants s'appuieront sur leur expérience d'analyse existante et apprendront à mettre en œuvre et à gérer un environnement d'analyse de données, à interroger et à transformer des données, à mettre en œuvre et à gérer des modèles de données, et à explorer et visualiser des données. Dans ce cours, les étudiants utiliseront Microsoft Purview, Azure Synapse Analytics et Power BI pour créer des solutions d'analyse.

Il s'agit d'un cours fournissant une préparation complète à l'examen DP-500: Conception et implémentation de solutions d’analytique à l’échelle de l’entreprise avec Microsoft Azure et Microsoft Power BI pour l'obtention de la certification Microsoft Certified: Azure Enterprise Data Analyst Associate.

Microsoft

Solutions applicables

Classe publique

Classe virtuelle
Date planifiéeDate planifiée
1 Avril 2024
$2495$
 
Français
Classe virtuelle
Date planifiéeDate planifiée
20 Mai 2024
$2495$
 
Français
Classe virtuelle
Date planifiéeDate planifiée
24 Juin 2024
$2495$
 
Français
Classe virtuelle
Date planifiéeDate planifiée
29 Juillet 2024
$2495$
 
Français
Classe virtuelle
Date planifiéeDate planifiée
2 Septembre 2024
$2495$
 
Français
2495$
Durée: 
4 jours / 28 heures

Classe privée

Classe virtuelle
Nombre de participants minimum: 4
4 jours / 28 heures
Prix sur demande
français ou anglais
Plan de formation: 

Conception et implémentation de solutions d’analytique à l’échelle de l’entreprise avec Microsoft Azure et Microsoft Power BI (DP-500T00)

Module 1: Exploration des services de données Azure pour l’analytique moderne

  • Présentation de l’écosystème de données Azure
  • Exploration de l’architecture des solutions d’analytique modernes

Module 2: Présentation des concepts de l’Analytique données

  • Présentation des types d’Analytique données
  • Exploration du processus d’Analytique données
  • Présentation des types de données et du stockage de données

Module 3: Explorer l’analyse de données à grande échelle

  • Explorer les rôles et responsabilités de l’équipe de données
  • Revoir les tâches et outils relatifs aux analystes de données
  • Mise à l’échelle des analyses avec Azure Synapse Analytics et Power BI
  • Stratégies de mise à l’échelle des analyses

Module 4: Présentation de Microsoft Purview

  • Qu’est-ce que Microsoft Purview?
  • Comment Microsoft Purview fonctionne
  • Quand utiliser Microsoft Purview

Module 5: Découvrir les données approuvées avec Microsoft Purview

  • Rechercher des ressources
  • Parcourir les ressources
  • Utiliser des ressources avec Power BI
  • Effectuer une intégration à Azure Synapse Analytics

Module 6: Artefacts de données de catalogue à l’aide de Microsoft Purview

  • Inscrire et analyser des données
  • Classifier et étiqueter les données
  • Effectuer une recherche dans le catalogue de données

Module 7: Gérer les ressources Power BI avec Microsoft Purview

  • Enregistrez et numérisez un locataire Power BI
  • Rechercher et parcourir les ressources Power BI
  • Afficher les métadonnées et la traçabilité Power BI

Module 8: Intégrer Microsoft Purview et Azure Synapse Analytics

  • Cataloguer les ressources de données Azure Synapse Analytics dans Microsoft Purview
  • Connecter Azure Purview à un espace de travail Azure Synapse Analytics
  • Rechercher dans un catalogue Purview dans Synapse Studio
  • Suivre la traçabilité des données dans les pipelines

Module 9: Présentation d’Azure Synapse Analytics

  • Ce qu’est Azure Synapse Analytics
  • Comment fonctionne Azure Synapse Analytics?
  • Quand utiliser Azure Synapse Analytics

Module 10: Utiliser un pool SQL serverless Azure Synapse pour interroger des fichiers dans un lac de données

  • Comprendre les fonctionnalités des pools SQL serverless Azure Synapse et les cas d’usage
  • Interroger des fichiers avec un pool SQL serverless
  • Créer des objets de base de données externes

Module 11: Analyser des données avec Apache Spark dans Azure Synapse Analytics

  • Découvrir Apache Spark
  • Utiliser Spark dans Azure Synapse Analytics
  • Analyser les données avec Spark
  • Visualiser les données avec Spark

Module 12: Analyser les données dans un entrepôt de données relationnelles

  • Concevoir un schéma d’entrepôt de données
  • Création de tables d’entrepôt de données
  • Charger des tables d’entrepôt de données
  • Interroger un entrepôt de données

Module 13: Choisir un framework de modèle Power BI

  • Décrire les principes de base du modèle Power BI
  • Déterminer quand développer un modèle d’importation
  • Déterminer quand développer un modèle DirectQuery
  • Déterminer quand développer un modèle composite
  • Choisir un framework de modèle

Module 14: Comprendre la scalabilité dans Power BI

  • Décrire l’importance des modèles scalables
  • Implémenter les bonnes pratiques de modélisation des données Power BI
  • Configurer des jeux de données volumineux

Module 15: Créer et gérer des flux de données Power BI évolutifs

  • Définir des cas d’usage pour les flux de données
  • Créer des ressources réutilisables
  • Mettre en œuvre les bonnes pratiques

Module 16: Créer des relations de modèle Power BI

  • Comprendre les relations de modèle
  • Configurer des relations
  • Utiliser des fonctions de relation DAX
  • Comprendre l’évaluation des relations

Module 17: Utiliser les fonctions Time Intelligence DAX dans les modèles Power BI Desktop

  • Utiliser des fonctions Time Intelligence DAX
  • Calculs Time Intelligence supplémentaires

Module 18: Créer des groupes de calcul

  • Comprendre les groupes de calcul
  • Explorer les fonctionnalités et l’utilisation des groupes de calcul
  • Créer des groupes de calcul dans un modèle

Module 19: Appliquer la sécurité du modèle Power BI

  • Restreindre l’accès aux données de modèle Power BI
  • Restreindre l’accès aux objets de modèle Power BI
  • Appliquer les pratiques de modélisation adéquates

Module 20: Utiliser des outils pour optimiser le niveau de performance de Power BI

  • Utiliser l’analyseur de performances
  • Résoudre les problèmes de performances DAX avec DAX Studio
  • Optimiser un modèle de données en utilisant Best Practice Analyzer

Module 21: Comprendre les concepts avancés de visualisation des données

  • Créer et importer un thème de rapport personnalisé
  • Activer des visuels personnalisés dans un rapport
  • Concevoir et configurer des rapports Power BI pour l’accessibilité
  • Créer des visuels personnalisés avec R ou Python
  • Passer en revue les performances des rapports à l’aide de l’analyseur de performances

Module 22: Surveiller les données en temps réel avec Power BI

  • Décrire l’analytique en temps réel Power BI
  • Configurer l’actualisation automatique de la page
  • Créez des tableaux de bord en temps réel
  • Configurer des rapports paginés d’actualisation automatique

Module 23: Créer des rapports paginés

  • Obtenir des données
  • Créer un rapport paginé
  • Utiliser des graphiques sur le rapport
  • Publier le rapport

Module 24: Fournir une gouvernance dans un environnement Power BI

  • Éléments de la gouvernance des données
  • Configurer les paramètres de locataire
  • Déployer des visuels d’organisation
  • Gérer des codes incorporés
  • Paramètres d’aide et de support

Module 25: Faciliter la collaboration et le partage dans Power BI

  • Espaces de travail évolués
  • Impact sur les utilisateurs Power BI
  • Autorisations dans les espaces de travail v2
  • Applications dans Power BI
  • Partager
  • Publier sur le web
  • Incorporer et lier dans les portails
  • Étiquettes de sensibilité des données
  • Confidentialité des données

Module 26: Utilisation de la supervision et de l’audit

  • Mesures d’utilisation pour les tableaux de bord et les rapports
  • Métriques d’utilisation pour les tableaux de bord et les rapports – nouvelle version
  • Journaux d’audit
  • Journal d’activité

Module 27: Provisionner la capacité Premium dans Power BI

  • Gestion des ressources Premium
  • Prise en charge de plusieurs zones géographiques
  • BYOK (Bring Your Own Key)
  • Outils externes proposés

Module 28: Établir une infrastructure d’accès aux données dans Power BI

  • Passerelles personnelles et passerelles d’entreprise
  • Comment les données sont actualisées
  • Configuration réseau requise pour la passerelle
  • Où installer la passerelle?
  • Établir des passerelles à haute disponibilité
  • Établir l’équilibrage de charge des passerelles
  • Documentation sur l’analyse des performances de la passerelle
  • Plusieurs sources de données par passerelle
  • Gérer les utilisateurs de la passerelle
  • Mappage d’utilisateurs Active Directory avec la recherche de propriété personnalisée

Module 29: Élargir la portée de Power BI

  • Développement personnalisé des API REST
  • Provisionner une capacité Power BI Embedded
  • Présentation des dataflows
  • Explication d’un dataflow
  • Créer un dataflow
  • Fonctionnalités de flux de données sur Power BI Premium
  • Applications modèles – Packages d’installation
  • Applications modèles – Entités installées
  • Gouvernance des applications modèles

Module 30: Automatiser l’administration de Power BI

  • API REST - service Power BI
  • Applets de commande Microsoft Power BI pour Windows PowerShell et PowerShell Core
  • Installer et utiliser les applets de commande Power BI
  • Appels d’API REST de test
  • Écrire des scripts pour les tâches typiques de l’administrateur

Module 31: Créer des rapports à l’aide de Power BI au sein d’Azure Synapse Analytics

  • Décrire l’intégration de l’espace de travail Power BI et Synapse
  • Comprendre les sources de données Power BI
  • Décrire les options d’optimisation de Power BI
  • Visualiser les données avec des pools SQL serverless

Module 32: Concevoir une stratégie Application Lifecycle Management (ALM) Power BI

  • Définir la gestion du cycle de vie des applications
  • Recommander une stratégie de contrôle de code source
  • Concevoir une stratégie de déploiement

Module 33: Créer et gérer un pipeline de déploiement Power BI

  • Comprendre le processus de déploiement
  • Créer un pipeline de déploiement
  • Attribuer un espace de travail
  • Déployer du contenu
  • Utiliser des pipelines de déploiement

Module 34: Créer et gérer des ressources Power BI

  • Créer des ressources Power BI réutilisables
  • Explorer les ressources Power BI avec la vue de traçabilité
  • Gérer un jeu de données Power BI avec le point de terminaison XMLA
Exclusivités: 
  • Une participation GRATUITE à la formation Microsoft Certified: Azure Fundamentals (AZ900)  - valeur de 695$!
  • Bon de participation à l'examen inclus - valeur de 225$!
  • Un an d'accès à l'enregistrement vidéo de votre cours 
  • 180 jours d'accessibilité au laboratoire technique sur Internet
  • Bon de participation à l'examen inclus
  • Matériel didactique à jour avec Microsoft Learn
  • Badge de réussite du cours Microsoft
Pré-requis: 

Les candidats à cette certification doivent avoir des compétences Power BI avancées, notamment la gestion des référentiels de données et le traitement des données dans le cloud et en local, ainsi que l’utilisation de Power Query et DAX (Data Analysis Expressions). Ils doivent aussi avoir des compétences dans la consommation des données depuis Azure Synapse Analytics et savoir interroger des bases de données relationnelles, analyser des données avec Transact-SQL (T-SQL) et visualiser des données.

Informations sur le titre de compétences: 

Caractéristiques de l’examen 

  • Code de l’examen: DP-500 
  • Titre: Conception et implémentation de solutions d’analytique à l’échelle de l’entreprise avec Microsoft Azure et Microsoft Power BI 
  • Durée: 150 minutes  
  • Nombre de questions: 40 à 60  
  • Format de questions: À choix multiples, à réponses multiples, basé sur des scénarios 
  • Note de passage: 700 de 1000 
  • Coût: 0$ (inclus dans votre formation)

Sujets de l’examen 

  • Implémenter et gérer un environnement d’analytique données  
  • Interroger et transformer des données 
  • Implémenter et gérer des modèles de données 
  • Explorer et visualiser des données 
  • Tous les détails…

Compréhension du DP-500 : Aperçu 

L'examen DP-500 est officiellement intitulé "Conception et implémentation de solutions d’analytique à l’échelle de l’entreprise avec Microsoft Azure et Microsoft Power BI" et fait partie des certifications Azure de Microsoft. Il cible les personnes cherchant à être reconnues en tant qu'ingénieurs de données Azure. Cet examen évalue la capacité d'un candidat à mettre en œuvre des solutions de données, concevoir des solutions de stockage de données, gérer et développer le traitement des données, ainsi que sécuriser les plateformes de données. 

 Structure et contenu de l'examen DP-500 

Blueprint de l'examen DP-500 : L'examen DP-500 couvre un large éventail de sujets cruciaux pour l'ingénierie des données sur Azure. Cela inclut la conception de la sécurité des données et la conformité, la mise en œuvre de solutions de données pour le traitement hybride et par lots, la gestion et le développement du traitement des données, et la conception de solutions de stockage de données. 

Questions et préparation à l'examen DP-500  

La préparation à l'examen DP-500 implique la compréhension de différents services Azure liés à l'ingénierie des données. Les candidats sont recommandés d'explorer Azure Data Lake Storage, Azure Synapse Analytics, Azure Databricks, Azure Cosmos DB, Azure Data Factory, et d'autres services pertinents. L'expérience pratique, les travaux pratiques, les modules d'apprentissage officiels de Microsoft et les tests pratiques peuvent considérablement aider à la préparation à l'examen. 

Ressources et cours de formation DP-500 

Ressources de certification Microsoft DP-500 : Plusieurs ressources de formation sont disponibles pour aider les individus à se préparer à l'examen DP-500. Celles-ci incluent les chemins d'apprentissage officiels de Microsoft, les sessions de formation dirigées par un instructeur et les tests pratiques spécifiquement adaptés au DP-500. 

DP-500 vs. PL-300 et DP-203 

Comparativement, le DP-500 diffère du PL-300 et du DP-203. Le PL-300 se concentre sur la plateforme Microsoft Power, mettant l'accent sur Power Apps, Power Automate et Power BI. D'autre part, le DP-203 se concentre spécifiquement sur l'ingénierie des données sur Azure, tandis que le DP-500 approfondit la conception et la mise en œuvre de solutions de plateforme de données. 

Signification de la certification DP-500 

L'obtention de la certification DP-500 valide les compétences d'un professionnel dans l'architecture et la mise en œuvre de solutions de données Azure. Cela démontre une expertise dans la gestion des plateformes de données, l'optimisation du stockage des données, du traitement, et garantit la sécurité - un atout inestimable dans le paysage actuel axé sur les données. En conclusion, la certification DP-500 marque une étape importante pour les ingénieurs de données Azure, confirmant leur compétence dans la conception et la mise en œuvre de solutions de données de pointe au sein de l'écosystème Azure. 

Questions fréquemment posées sur la certification DP-500 (FAQ) 

Est-ce que le DP-500 en vaut la peine ?  

L'obtention de la certification DP-500 est hautement précieuse pour les ingénieurs de données Azure. Elle valide l'expertise dans la conception et la mise en œuvre de solutions de données Azure, démontrant la compétence dans le stockage, le traitement et la sécurité des données au sein de l'écosystème Azure. Elle peut considérablement améliorer les opportunités de carrière et la crédibilité dans le domaine de l'ingénierie des données. 

Comment se préparer pour le DP-500 ? 

Une préparation efficace pour le DP-500 implique diverses stratégies : Utiliser les ressources d'apprentissage officielles de Microsoft, les guides d'étude et les chemins d'apprentissage adaptés au DP-500. Acquérir de l'expérience pratique avec les services de données Azure tels que Data Lake Storage, Synapse Analytics, Azure Databricks, Data Factory et Cosmos DB. Inscrivez-vous à des sessions de formation dirigées par un instructeur et utilisez des questions spécifiques au DP-500 et des simulations pour se familiariser avec le format de l'examen. 

Est-ce que le DP-500 est facile ? 

La perception de la facilité du DP-500 (Microsoft Azure Database Administrator) dépend du niveau d'expérience et de familiarité de chaque individu avec les concepts liés à l'administration de bases de données sur Microsoft Azure. Pour certains, cela peut sembler abordable, tandis que d'autres peuvent trouver certains aspects plus complexes. Une préparation adéquate et une compréhension approfondie des sujets couverts peuvent contribuer à faciliter l'examen. 

Quelle est la différence entre le DP-500 et le PL-300 ?  

Le DP-500 se concentre sur l'ingénierie des données Azure, couvrant des domaines tels que la conception de solutions de données, la sécurité des données, le traitement et le stockage au sein des services Azure. D'autre part, le PL-300 est centré autour de la plateforme Microsoft Power, mettant l'accent sur Power Apps, Power Automate et Power BI, se concentrant davantage sur le développement d'applications et l'automatisation des flux de travail plutôt que sur l'ingénierie des données au sein d'Azure. 

Contactez-nous pour des informations sur le prix:

Eccentrix
Teléphone: 1-888-718-9732
Courriel: info@eccentrix.ca

2000, McGill College, 6e étage
Montréal, Québec H3A 3H3
www.eccentrix.ca