Critères de l'offre
Métiers :
- Data Engineer (H/F)
- + 1 métier
Expérience min :
- 3 à 5 ans
Compétences :
- DEVOPS
- Cloud
- JIRA
- Python
- Gitlab
- + 2 compétences
Lieux :
- Lyon (69)
Conditions :
- CDI
- À partir de 45 000 € par an
- Temps Plein
- Aucun déplacement à prévoir
Description du poste
Contexte
Vous rejoignez une équipe Data dynamique dédiée au développement de solutions permettant de valoriser un très fort volume de données issues d'un environnement connecté.
Au sein d'un écosystème cloud moderne, vous intervenez sur la construction, l'optimisation et l'industrialisation de pipelines robustes, monitorés et résilients.
Votre rôle contribuera directement à l'évolution d'une plateforme data stratégique au cœur des activités de notre client, dans un contexte mêlant innovation technologique, performance opérationnelle et enjeux data à grande échelle.
Vos missions
En tant que Data Engineer, vos principales responsabilités seront les suivantes :
Concevoir, développer et maintenir des pipelines de données robustes et scalables.
Mettre en place et optimiser des traitements de données complexes (SQL, Python).
Industrialiser et monitorer les traitements dans un environnement cloud.
Participer aux travaux d'analyse de données en amont et en aval des chaînes de traitement.
Contribuer à l'amélioration continue de la plateforme data (qualité, performance, résilience).
Collaborer étroitement avec les data scientists, analystes et experts métier.
Travailler dans un cadre Agile et participer aux rituels de l'équipe.
Documenter les développements pour garantir la maintenabilité et le partage de connaissances.
Compétences techniques recherchées
Vous maîtrisez les fondamentaux du data engineering et êtes à l'aise pour concevoir, développer et maintenir des pipelines de données robustes, performants et adaptés à des volumes importants. Votre expertise couvre aussi bien le développement que l'industrialisation, dans un environnement cloud moderne. Vous savez analyser les données, en garantir la qualité et collaborer efficacement avec une équipe pluridisciplinaire.
Engineering & Développement Data
Conception et développement de pipelines data
Maîtrise du SQL avancé (idéalement BigQuery)
Développement Python orienté data
Industrialisation et monitoring de traitements
Orchestration de workflows (Airflow / Composer)
Cloud & Infrastructure
Utilisation d'un environnement Cloud (préférence pour GCP)
Infrastructure as Code avec Terraform
Mise en place de pipelines CI/CD (GitLab)
Versionnement avec Git / GitLab
Data & Analyse
Analyse exploratoire de données
Contrôle qualité des datasets
Capacité à comprendre et formaliser les besoins métier
Méthodes & Collaboration
Pratique des méthodologies Agile (Jira)
Collaboration au sein d'équipes pluridisciplinaires
Rédaction de documentation technique claire et structurée
Atouts complémentaires
Connaissances des environnements IoT / LPWAN / radio
Culture DevOps
Sensibilité à la performance, la résilience et la qualité des traitements
DRAKS est la Business Unit France d'AVA6 dédiée aux métiers de la Data, de l'Ingénierie Logicielle, du DevOps et du Cloud. Portée par une ambition forte d'innovation et d'excellence technologique, DRAKS accompagne ses clients dans la conception, la réalisation et l'optimisation de leurs systèmes d'information modernes. Qu'il s'agisse de valoriser la donnée, d'industrialiser les développements ou de fiabiliser les infrastructures cloud, DRAKS mobilise des expertises pointues pour répondre aux enjeux stratégiques de performance, de résilience et de scalabilité.
Intégrée à l'écosystème AVA6, DRAKS s'inscrit dans une logique de synergie entre les métiers historiques de l'infrastructure et les nouveaux usages du numérique. En s'appuyant sur une organisation à taille humaine, des expertises de haut niveau et une culture du delivery, DRAKS se positionne comme un partenaire de confiance pour construire des solutions durables et innovantes, au service des directions métiers et IT.

