Aller au contenu principal
DGTL Performance recrutement

Concepteur Développeur Big Data H/F DGTL Performance

  • Paris - 75
  • CDI
  • Bac +2
  • Bac +3, Bac +4
  • Bac +5
  • Secteur informatique • ESN
Lire dans l'app

Détail du poste

Analyse des besoins et des cas d'usages :
Participer aux réunions de lancement de projet pour comprendre les objectifs business organisés par les solutions manager RH et Finance
Analyser et formaliser les besoins fonctionnels et techniques en collaboration avec les architectes et les chefs de projet
Rédiger les spécifications techniques liées à la solution à implémenter.
Conception et développement des pipelines de données :
Concevoir des solutions de traitement de données en utilisant les technologies adaptées : Apache Spark, Hadoop, Databricks et Snowflake.
Implémenter des pipelines ETL/ELT performants et évolutifs pour le traitement et le stockage des données.
Intégrer les sources de données, les API, et autres systèmes externes.
Garantir la qualité des données à travers des mécanismes de validation et de contrôle de qualité.

Déploiement et configuration des environnements de traitement :
Configurer et déployer les environnements nécessaires sur des infrastructures cloud (AWS, Azure, GCP) ou sur des clusters Hadoop/Spark.
Utiliser Databricks pour optimiser les workflows et automatiser les processus de traitement des données.
Gérer les accès aux systèmes et assurer la sécurité des données traitées.

Optimisation des performances :
Analyser les performances des solutions développées et proposer des axes d'optimisation.
Ajuster les configurations des clusters et des environnements (ex. ajustement des ressources pour Spark).
Appliquer les bonnes pratiques de partitionnement, de parallélisme et de gestion des ressources pour améliorer les temps de réponse.

Assurance qualité et tests :
Mettre en place des tests unitaires et des tests d'intégration pour garantir la qualité des pipelines de données.
Assurer un suivi des erreurs et des alertes sur les traitements de données.
Réaliser des revues de code régulières et veiller à la documentation des développements.

Maintenance évolutive et support :
Assurer la maintenance des solutions en production et intervenir pour résoudre les incidents de données.
Implémenter les évolutions demandées par les utilisateurs ou en fonction des nouvelles technologies disponibles.
Assurer une veille technologique pour adapter les solutions aux nouvelles versions des outils utilisés.

Documentation
Spécifications techniques : Un document détaillant la conception technique des pipelines de données et des processus d'intégration, incluant des diagrammes d'architecture et des flux de données.
Code source et scripts : Le code source des solutions développées dans les technologies utilisées (Spark, Hadoop, Databricks, Snowflake...
Scripts de configuration et d'automatisation des tâches de traitement (déploiement, intégration, tests).
Tests et validation : Une couverture de tests (unitaires et d'intégration) permettant de valider la qualité du code et le bon fonctionnement des cas d'usages.
Un rapport de tests avec les résultats des différents tests effectués sur les pipelines de données.
Documentation technique et d'exploitation : Documentation détaillée sur le fonctionnement des solutions déployées, incluant des procédures de mise à jour et de maintenance. Manuel utilisateur ou guide d'exploitation des pipelines, décrivant les interfaces de données et les processus métiers.
Rapport de performance : Un rapport d'analyse des performances des pipelines de données, avec des recommandations d'optimisation, des temps de traitement avant et après optimisation, etc.
Suivi des incidents et des corrections : Un suivi détaillé des incidents rencontrés en production, des actions correctives mises en place, et des évolutions apportées.
Livraison et mise en production : Livraison des solutions de données testées, validées et prêtes à être mises en production.
Mise en place d'un plan de déploiement avec une procédure de rollback en cas de problème

Profil :
Compétences requises :
Big data,
Hadoop database,
Spark ,
Python,
PostGreSQL,databricks

Publiée le 04/12/2025 - Réf : 2427587

Concepteur Développeur Big Data H/F

DGTL Performance
  • Paris - 75
  • CDI
Publiée le 04/12/2025 - Réf : 2427587

Finalisez votre candidature

sur le site du recruteur

Créez votre compte pour postuler

sur le site du recruteur !

Ces offres pourraient aussi
vous intéresser

MP Data recrutement
Paris - 75
CDI
55 000 - 65 000 € / an
Télétravail partiel
Voir l’offre
il y a 29 jours
KARAVEL GROUPE recrutement
KARAVEL GROUPE recrutement
Paris 10e - 75
CDI
Télétravail partiel
Voir l’offre
il y a 28 jours
Sqyemploi.Fr recrutement
Voir l’offre
il y a 29 jours
Voir plus d'offres
Initialisation…
Les sites
L'emploi
  • Offres d'emploi par métier
  • Offres d'emploi par ville
  • Offres d'emploi par entreprise
  • Offres d'emploi par mots clés
L'entreprise
  • Qui sommes-nous ?
  • On recrute
  • Accès client
Les apps
Application Android (nouvelle fenêtre) Application ios (nouvelle fenêtre)
Nous suivre sur :
Informations légales CGU Politique de confidentialité Gérer les traceurs Accessibilité : non conforme Aide et contact