| Niveau requis | Bac+3 |
|---|---|
| Niveau d'études visé | Bac +5 |
| Date de la prochaine session | Sept. 2026 |
| Durée de la formation en année | Non renseignée |
| Statut de l'école | Non renseigné |
| Formation reconnue par l'État | Oui |
| Rythme de formation | Alternance |
| Modalité | En présentiel |
| Prix | Non renseigné |
| Accréditation(s) | QUALIOPI, FC-RNCP |
Description
Le Mastère 1 - Data Engineer d'Ingetis Paris forme des experts capables de concevoir et déployer des infrastructures de données massives pour répondre aux enjeux stratégiques des entreprises.
Au cœur du programme : la maîtrise des technologies Big Data (Hadoop, Spark, Kafka), l'architecture cloud computing (Azure, AWS), le développement de pipelines de données automatisés et l'implémentation de solutions DataOps pour le suivi des flux.
Les étudiants acquièrent une expertise technique avancée en programmation (Python, Java, Scala), bases de données NoSQL (MongoDB, Cassandra), outils ETL (Talend) et Machine Learning, tout en développant des compétences en gestion de projet agile et gouvernance des données.
Cette formation certifiante de niveau Bac+5 (titre RNCP niveau 7) prépare les futurs Data Engineer, Architectes Big Data, Ingénieurs DataOps et Consultants en infrastructure Data à porter la transformation digitale des organisations dans un environnement technologique en constante évolution.
Thématiques abordées
- Fondamentaux du Big Data : architecture des systèmes distribués, écosystèmes Hadoop et Spark
- Ingénierie des données : conception et optimisation de pipelines, ETL/ELT, intégration de données
- Stockage et gestion des données : bases NoSQL, entrepôts de données, data lakes, modélisation
- Programmation pour la data : Python avancé, SQL, automatisation et scripting
- Cloud et déploiement : services cloud (AWS, GCP), orchestration, conteneurs et déploiement continu
Objectifs de la formation
- Concevoir et déployer des pipelines de données robustes et scalables adaptés aux besoins métier.
- Maîtriser les outils et langages clés (Python, SQL, Spark) pour le traitement et l’analyse de données massives.
- Implémenter des architectures data modernes incluant bases de données relationnelles et non relationnelles.
- Assurer la qualité, la sécurité et la gouvernance des données tout au long de leur cycle de vie.
- Optimiser la performance des systèmes de gestion de données et automatiser les processus de traitement.
Découvrir l’établissement

