| Niveau d'études visé | Bac +5 |
|---|---|
| Date de la prochaine session | Sept. 2026 |
| Durée de la formation en année | 2 ans |
| Statut de l'école | Privé |
| Formation reconnue par l'État | Oui |
| Rythme de formation | Temps plein - Alternance |
| Modalité | En présentiel |
| Prix | Non renseigné |
| Accréditation(s) | QUALIOPI |
Description
Aujourd’hui, le volume croissant des données disponibles, leur variété et la rapidité avec laquelle elles sont créés, ont fait basculer un grand nombre d’entreprises dans l’ère du big data.
Certaines entreprises s’orientent alors de plus en plus vers des organisations dites « data centric », avec la constitution d’équipe et de compétences techniques dédiées.
La clé du succès avec le big data ne réside pas dans la quantité de données collectées par une entreprise, mais dans sa capacité de traitement et de son utilisation. Ceci a pour conséquence de faire apparaître de nouveaux besoins métiers autour de cette data.
C’est notamment le cas pour le métier de Data Engineer.
Avec cette certification, EPSI souhaite répondre au besoin croissant en compétences liées à l’ingénierie des données.
Elle souhaite proposer aux entreprises des profils de certifiés/certifiées d’un niveau technique informatique élevé et dotés d’une expertise pointue en data comme le requiert le métier de Data Engineer.
Programme
- Fondamentaux de la Data Science et programmation (Python, SQL, R)
- Architecture Big Data et gestion des bases de données (NoSQL, Hadoop, Spark)
- Modélisation statistique, apprentissage automatique et intelligence artificielle
- Visualisation des données et storytelling pour la prise de décision
- Projet professionnel, éthique des données et gestion de projet en ingénierie des données
Objectifs de la formation
L’apprenant.e durant la formation sera capable de :
- Collecter les besoins Data des directions métiers de l’entreprise afin de bâtir ou faire évoluer la/les plateformes de données dans le respect des besoins et attentes des directions métiers et de vérifier l’alignement stratégique
- Concevoir les cahiers des charges technique et fonctionnel d’un projet de développement d’une plateforme Big Data à l’aide des besoins utilisateurs collectés afin de cadrer le développement
- Conduire une équipe projet en diffusant les fondamentaux de l’agilité : adaptation, flexibilité et amélioration continue au sein de l’équipe afin d’être en mesure d’absorber les changements de priorité qui peuvent intervenir dans un contexte de forte contrainte de temps et d’incertitudes
- Concevoir une architecture de collecte et de restitution de données robuste, évolutive, sécurisée et utilisant l’intelligence artificielle (machine learning) afin d’améliorer en continu sa capacité à prédire les besoins Data des experts métiers utilisateurs
- Concevoir une architecture de stockage de données (data warehouse, data lake…) permettant de répondre aux besoins Data des experts métiers et respectant la politique de sécurité des données définie par le/la RSS
- Mettre en place un système d’ingestion de données structurées et non structurées afin de permettre la manipulation et l’accès aux données ainsi que l’authentification des utilisateurs
- Développer un pipeline de données et/ou un pipeline ETL prenant en compte l’environnement technologique déployé (infrastructure, services, applications…) dans le respect du cahier des charges de la solution proposée
- Automatiser des opérations de déploiement, de tests et de maintenance curative et préventive afin de s’assurer de la fiabilité de la solution tout au long de son cycle de vie
Découvrir l’établissement

