Talend Open Studio Data Integration - Initiation et approfondissement
Besoin d’adapter cette formation à vos besoins ?
N’hésitez pas à nous contacter afin d’obtenir un devis sur mesure !
Formation créée le 20/03/2024. Dernière mise à jour le 21/03/2024.
Version du programme : 1
Programme de la formation
Objectif de formation : Les apprenants apprendront à concevoir, développer et déployer des jobs d'intégration de données efficaces pour répondre aux besoins complexes des entreprises en matière d'intégration de données.
Objectifs de la formation
- Comprendre les principes fondamentaux de l'intégration de données et l'architecture de Talend Open Studio
- Maîtriser les fonctionnalités de conception de jobs d'intégration de données à l'aide de l'interface graphique de Talend
- Savoir manipuler et transformer différents types de données en utilisant les composants et les routines disponibles dans Talend
- Acquérir des compétences avancées en développement et en optimisation de jobs d'intégration de données avec Talend
- Être capable de déployer et de planifier l'exécution des jobs d'intégration de données dans différents environnements
Profil des bénéficiaires
- Architectes de solutions
- Ingénieurs data
- Développeurs
- Connaissance de base des concepts d'intégration de données et des bases de données relationnelles
- Compréhension des principes de base de la programmation et de la manipulation des données
- Expérience pratique avec des outils d'intégration de données ou des ETL est un plus, mais n'est pas obligatoire
Contenu de la formation
-
Introduction à Talend Open Studio Data Integration (5 heures)
- Présentation des concepts clés de l'intégration de données, notamment ETL (Extract, Transform, Load), data warehousing et data lakes
- Exploration de l'architecture de Talend Open Studio et de ses fonctionnalités principales telles que les jobs, les métadonnées et les composants
- Configuration des connexions aux bases de données relationnelles telles que MySQL, PostgreSQL, et aux sources de données NoSQL comme MongoDB
- Travaux pratiques : Construction d'un job simple pour extraire des données d'une source, les transformer et les charger dans une destination
-
Compréhension des composants de base de Talend (8 heures)
- Exploration approfondie des composants de lecture (tFileInput*, tDatabaseInput*), de transformation (tMap, tFilterRow, tAggregateRow) et d'écriture (tFileOutput*, tDatabaseOutput*)
- Utilisation des schémas pour définir la structure des données et assurer leur intégrité tout au long du flux de traitement
- Pratique des transformations de données telles que le filtrage, le tri, l'enrichissement et la normalisation
- Introduction aux expressions régulières et aux fonctions avancées pour manipuler les données
- Travaux pratiques : Réalisation de transformations de données complexes à l'aide des composants Talend
-
Gestion des sources de données (7 heures)
- Connexion à une variété de sources de données, y compris des bases de données, des fichiers plats (CSV, Excel) et des API REST
- Utilisation de schémas dynamiques pour gérer des structures de données variables et inconnues à l'avance
- Exploration des fonctionnalités avancées des composants Talend, notamment tJava, tAggregateRow, tReplicate, etc
- Travaux pratiques : Création de flux de données complexes qui impliquent des opérations de jointure, d'agrégation et de filtrage sur plusieurs sources
-
Planification et gestion des jobs Talend (8 heures)
- Configuration des déclencheurs de job (temps, événements, etc.) à l'aide du gestionnaire de planification
- Utilisation du Planificateur de tâches pour automatiser les processus de traitement de données
- Gestion des erreurs et des logs avec la manipulation des exceptions
- Structuration de projets et de jobs pour une maintenance facile et une collaboration efficace
- Travaux pratiques : Automatisation de processus ETL : implémentation de stratégies de gestion des erreurs pour garantir la fiabilité et la robustesse des flux de données
-
Déploiement et surveillance des jobs Talend (7 heures)
- Exportation des jobs et des métadonnées vers un environnement de production
- Configuration de la surveillance et des alertes pour suivre l'exécution des jobs en temps réel
- Optimisation des performances : identification et résolution des goulets d'étranglement dans les flux de données, utilisation de techniques d'optimisation telles que la parallélisation, l'indexation et la mise en cache
- Travaux pratiques : Utilisation des outils de surveillance pour suivre l'exécution des jobs et résoudre les problèmes éventuels
Professionnel expert technique et pédagogique.
- Feuilles de présence.
- Questions orales ou écrites (QCM).
- Mises en situation.
- Formulaires d'évaluation de la formation.
- Certificat de réalisation de l’action de formation.
- Espace numérique de travail
- Documents supports de formation projetés
- Exposés théoriques
- Etude de cas concrets
- Quiz en salle
- Mise à disposition en ligne de documents supports à la suite de la formation