Logo de l'organisme de formation

La formation au coeur de l'avenir technologique

Représentation de la formation : Big Data - Concevoir et piloter un projet

Big Data - Concevoir et piloter un projet

Formation à distance
Durée : 14 heures (2 jours)
Durée :14 heures (2 jours)
HT
Se préinscrire
Durée :14 heures (2 jours)
HT
Se préinscrire
Durée :14 heures (2 jours)
HT
Se préinscrire

Besoin d’adapter cette formation à vos besoins ?

N’hésitez pas à nous contacter afin d’obtenir un devis sur mesure !

Formation créée le 20/03/2024. Dernière mise à jour le 21/03/2024.

Version du programme : 1

Programme de la formation

Objectif de formation : À la fin de la formation, les participants seront en mesure de comprendre les principes fondamentaux du Big Data, de planifier et de concevoir des projets Big Data, d'implémenter des solutions techniques appropriées, de surveiller et d'évaluer l'exécution des projets, et d'appliquer les bonnes pratiques de gestion de projet dans un contexte Big Data.

Objectifs de la formation

  • Comprendre les principes fondamentaux du Big Data, y compris les défis associés à la gestion de gros volumes de données
  • Être en mesure de planifier et de concevoir des projets Big Data en tenant compte des besoins métier et des contraintes techniques
  • Acquérir des compétences pratiques pour implémenter des solutions Big Data en utilisant des technologies telles que Hadoop, Spark et Kafka
  • Savoir surveiller et évaluer l'exécution des projets Big Data, en identifiant les KPI pertinents et en gérant les risques associés
  • Appliquer les bonnes pratiques de gestion de projet dans un contexte Big Data, en mettant l'accent sur l'agilité, la collaboration et l'adaptabilité aux changements

Profil des bénéficiaires

Pour qui
  • Professionnels IT
  • Architectes de données
  • Data analysts
  • Chefs de projet
Prérequis
  • Connaissance de base des concepts de bases de données et du fonctionnement général des systèmes informatiques
  • Familiarité avec les principes de base du traitement de données
  • Une expérience préalable avec des technologies Big Data comme Hadoop, Spark ou Kafka est un plus, mais n'est pas obligatoire

Contenu de la formation

  • Introduction au Big Data et concepts fondamentaux (2 heures)
    • Définition et caractéristiques du Big Data, y compris les trois V (Volume, Variété, Vélocité)
    • Les fondamentaux du Big Data
    • Présentation des technologies Big Data telles que Hadoop, Spark, Kafka, et leur rôle dans la gestion de gros volumes de données
    • Travaux pratiques : suivi d'une exploration des données volumineuses (Big Data) à l'aide d'outils tels que Hadoop Distributed File System (HDFS) et Spark DataFrame
  • Planification d'un projet Big Data (3 heures)
    • Processus de planification d'un projet Big Data, y compris l'analyse des besoins métier, l'identification des cas d'utilisation et la définition des objectifs du projet
    • Méthodologies de gestion de projet adaptées au Big Data, telles que Agile ou Scrum
    • Travaux pratiques : Élaboration d'une feuille de route pour un projet Big Data basée sur des études de cas réels, avec l'identification et la priorisation des cas d'utilisation du Big Data pour un scénario d'entreprise spécifique
  • Conception et architecture de projet Big Data (3 heures)
    • Conception d'une architecture de données distribuée, en mettant l'accent sur l'utilisation de solutions telles que Hadoop Distributed File System (HDFS) pour le stockage et Apache Spark pour le traitement
    • Exploration des modèles de conception pour le Big Data, tels que Lambda Architecture et Kappa Architecture
    • Travaux pratiques : Conception d'une architecture de données distribuée pour un cas d'utilisation donné en utilisant des outils comme Apache Hadoop, Spark, et Kafka, suivi de la modélisation de schémas de données adaptés aux besoins de traitement distribué dans un environnement Big Data
  • Mise en œuvre et exécution d'un projet Big Data (3 heures)
    • Implémentation d'un pipeline de traitement de données en temps réel avec Apache Spark Streaming ou Kafka Streams, ou en mode batch avec Apache Spark
    • Utilisation d'outils de requêtage comme Apache Hive ou Apache Impala pour l'analyse interactive des données
    • Travaux pratiques : Développement de scripts d'analyse de données distribués en utilisant des langages comme Python ou Scala avec Spark
  • Surveillance, évaluation et gestion des risques (3 heures)
    • Surveillance des performances du système Big Data et identification des indicateurs clés de performance (KPI)
    • Évaluation des risques potentiels liés à la sécurité, à la qualité des données et à la scalabilité du projet
    • Analyse d'études de cas réelles de projets Big Data réussis et identification des meilleures pratiques adoptées
    • Application des bonnes pratiques de conception et d'implémentation à un cas d'utilisation spécifique à travers des exercices pratiques
    • Travaux pratiques : Configuration de mécanismes de surveillance pour surveiller les performances et la santé du cluster Hadoop/Spark, suivi de l'évaluation des risques potentiels liés à la sécurité des données et à la disponibilité des ressources dans un projet Big Data
Équipe pédagogique

Professionnel expert technique et pédagogique.

Suivi de l'exécution et évaluation des résultats
  • Feuilles de présence.
  • Questions orales ou écrites (QCM).
  • Mises en situation.
  • Formulaires d'évaluation de la formation.
  • Certificat de réalisation de l’action de formation.
Ressources techniques et pédagogiques
  • Espace numérique de travail
  • Documents supports de formation projetés
  • Exposés théoriques
  • Etude de cas concrets
  • Quiz en salle
  • Mise à disposition en ligne de documents supports à la suite de la formation

Qualité et satisfaction

Taux de satisfaction des apprenants, nombre d'apprenants, taux et causes des abandons, taux de retour des enquêtes, taux d'interruption en cours de prestation...