Critères de l'offre
Métiers :
- Développeur Big Data (H/F)
Expérience min :
- 3 à 5 ans
Secteur :
- ESN, Editeurs de logiciel, Services informatiques
Compétences :
- Hive
- Shell
- VBA
- Linux unix
- Apache Spark
- + 2 compétences
Lieux :
- Lyon (69)
Conditions :
- Indépendant / Franchisé
- 330 € - 400 €
- Temps Plein
Description du poste
Organisation
Dans le cadre de ses activités liées au traitement de données volumineuses, une organisation recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l'accompagner dans la gestion d'une plateforme Hadoop.
Objectif de la mission
Réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, notamment la mise en place d'extractions et l'accompagnement des utilisateurs.
Description de la mission
Le candidat, rattaché au responsable en charge du traitement de données volumineuses, sera principalement chargé de :
Prendre en charge l'évolution des flux de données et reprendre les développements existants pour leur alimentation, en faisant évoluer ceux-ci selon les besoins. (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter)
Définir la spécification technique des tâches, fournir des requêtes de référence, réaliser des revues de code, et accompagner d'éventuels alternants ou stagiaires.
Mettre en place des processus d'extraction à partir des données.
Assurer le support de niveau 2.
Faire respecter les consignes d'utilisation auprès des utilisateurs.
Garantir le respect des délais de livraison dans un environnement exigeant.
Contribuer à la maintenabilité, la performance et l'exploitabilité de la plateforme.
Il veillera également à respecter l'utilisation des modèles référencés ou leur évolution, en collaboration avec la Direction Technique et la Gouvernance des Données.
Le profil doit posséder des compétences avérées en communication, diplomatie, capacité d'intégration, partage de connaissances, documentation, et accompagnement des utilisateurs.
Dans le cadre de ses activités liées au traitement de données volumineuses, une organisation recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l'accompagner dans la gestion d'une plateforme Hadoop.
Objectif de la mission
Réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, notamment la mise en place d'extractions et l'accompagnement des utilisateurs.
Description de la mission
Le candidat, rattaché au responsable en charge du traitement de données volumineuses, sera principalement chargé de :
Prendre en charge l'évolution des flux de données et reprendre les développements existants pour leur alimentation, en faisant évoluer ceux-ci selon les besoins. (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter)
Définir la spécification technique des tâches, fournir des requêtes de référence, réaliser des revues de code, et accompagner d'éventuels alternants ou stagiaires.
Mettre en place des processus d'extraction à partir des données.
Assurer le support de niveau 2.
Faire respecter les consignes d'utilisation auprès des utilisateurs.
Garantir le respect des délais de livraison dans un environnement exigeant.
Contribuer à la maintenabilité, la performance et l'exploitabilité de la plateforme.
Il veillera également à respecter l'utilisation des modèles référencés ou leur évolution, en collaboration avec la Direction Technique et la Gouvernance des Données.
Le profil doit posséder des compétences avérées en communication, diplomatie, capacité d'intégration, partage de connaissances, documentation, et accompagnement des utilisateurs.
Référence : 606907

