| Niveau d'études visé | Bac +5 |
|---|---|
| Date de la prochaine session | Sept. 2026 |
| Durée de la formation en année | Non renseignée |
| Statut de l'école | Privé |
| Formation reconnue par l'État | Oui |
| Rythme de formation | Temps plein - Alternance |
| Modalité | En présentiel |
| Prix | Non renseigné |
Description
Avec cette certification, EPSI souhaite répondre au besoin croissant en compétences liées à l’ingénierie des données.
Elle souhaite proposer aux entreprises des profils de certifiés/certifiées d’un niveau technique informatique élevé et dotés d’une expertise pointue en data comme le requiert le métier de Data Engineer.
Programme
- Fondamentaux de l’ingénierie des données : architecture des systèmes, gestion des bases de données, ETL et pipelines de données
- Big Data et technologies associées : Hadoop, Spark, NoSQL, traitement distribué et stockage massif
- Data science appliquée : statistiques, apprentissage automatique, visualisation et interprétation des données
- Sécurité, gouvernance et éthique des données : confidentialité, conformité RGPD, gestion des risques et éthique numérique
- Projet professionnel et stages en entreprise : mise en pratique des compétences, management de projet et communication technique
Objectifs de la formation
L’apprenant.e durant la formation sera capable de :
- Collecter les besoins Data des directions métiers de l’entreprise afin de bâtir ou faire évoluer la/les plateformes de données dans le respect des besoins et attentes des directions métiers et de vérifier l’alignement stratégique
- Concevoir les cahiers des charges technique et fonctionnel d’un projet de développement d’une plateforme Big Data à l’aide des besoins utilisateurs collectés afin de cadrer le développement
- Conduire une équipe projet en diffusant les fondamentaux de l’agilité : adaptation, flexibilité et amélioration continue au sein de l’équipe afin d’être en mesure d’absorber les changements de priorité qui peuvent intervenir dans un contexte de forte contrainte de temps et d’incertitudes
- Concevoir une architecture de collecte et de restitution de données robuste, évolutive, sécurisée et utilisant l’intelligence artificielle (machine learning) afin d’améliorer en continu sa capacité à prédire les besoins Data des experts métiers utilisateurs
- Concevoir une architecture de stockage de données (data warehouse, data lake…) permettant de répondre aux besoins Data des experts métiers et respectant la politique de sécurité des données définie par le/la RSS
- Mettre en place un système d’ingestion de données structurées et non structurées afin de permettre la manipulation et l’accès aux données ainsi que l’authentification des utilisateurs
- Développer un pipeline de données et/ou un pipeline ETL prenant en compte l’environnement technologique déployé (infrastructure, services, applications…) dans le respect du cahier des charges de la solution proposée
- Automatiser des opérations de déploiement, de tests et de maintenance curative et préventive afin de s’assurer de la fiabilité de la solution tout au long de son cycle de vie
Découvrir l’établissement


Voir l’établissement