| Niveau d'études visé | Bac +5 |
|---|---|
| Date de la prochaine session | Sept. 2026 |
| Durée de la formation en année | Non renseignée |
| Statut de l'école | Privé |
| Formation reconnue par l'État | Oui |
| Rythme de formation | Temps plein - Alternance |
| Modalité | En présentiel |
| Prix | Non renseigné |
| Accréditation(s) | FC-RNCP, QUALIOPI |
Description
Avec cette certification, EPSI souhaite répondre au besoin croissant en compétences liées à l’ingénierie des données.
Elle souhaite proposer aux entreprises des profils de certifiés/certifiées d’un niveau technique informatique élevé et dotés d’une expertise pointue en data comme le requiert le métier de Data Engineer.
Thématiques abordées
- Conception et développement d’une plateforme Big Data : collecte, assemblage, traitement et stockage des données.
- Administration et supervision de plateformes Big Data : MLOps, DataOps, outils et monitoring.
- Préparation et mise à disposition des données : analyse des besoins, préparation, datavisualisation et tableaux de bord.
- Analyse et définition de la stratégie Big Data alignée avec la stratégie business : élaboration de la feuille de route projets.
- Pilotage de projets Big Data en environnement agile : gestion de projet, architecture et infrastructure Big Data.
Objectifs de la formation
L’apprenant.e durant la formation sera capable de :
- Collecter les besoins Data des directions métiers de l’entreprise afin de bâtir ou faire évoluer la/les plateformes de données dans le respect des besoins et attentes des directions métiers et de vérifier l’alignement stratégique
- Concevoir les cahiers des charges technique et fonctionnel d’un projet de développement d’une plateforme Big Data à l’aide des besoins utilisateurs collectés afin de cadrer le développement
- Conduire une équipe projet en diffusant les fondamentaux de l’agilité : adaptation, flexibilité et amélioration continue au sein de l’équipe afin d’être en mesure d’absorber les changements de priorité qui peuvent intervenir dans un contexte de forte contrainte de temps et d’incertitudes
- Concevoir une architecture de collecte et de restitution de données robuste, évolutive, sécurisée et utilisant l’intelligence artificielle (machine learning) afin d’améliorer en continu sa capacité à prédire les besoins Data des experts métiers utilisateurs
- Concevoir une architecture de stockage de données (data warehouse, data lake…) permettant de répondre aux besoins Data des experts métiers et respectant la politique de sécurité des données définie par le/la RSS
- Mettre en place un système d’ingestion de données structurées et non structurées afin de permettre la manipulation et l’accès aux données ainsi que l’authentification des utilisateurs
- Développer un pipeline de données et/ou un pipeline ETL prenant en compte l’environnement technologique déployé (infrastructure, services, applications…) dans le respect du cahier des charges de la solution proposée
- Automatiser des opérations de déploiement, de tests et de maintenance curative et préventive afin de s’assurer de la fiabilité de la solution tout au long de son cycle de vie
Découvrir l’établissement

Voir l’établissement
Autres formations qui pourraient te plaire
Voir plus de formations similaires

