- Trouver mon job s
- Trouver mon entreprise s
-
Accès recruteur
-
Emploi
- Formation
-
Mon compte
-
Hellowork a estimé le salaire pour cette offre
Cette estimation de salaire pour le poste de Concepteur Développeur Big Data H/F à Paris est calculée grâce à des offres similaires et aux données de l’INSEE.
Cette fourchette est variable selon expérience.
Salaire brut min
42 500 € / an 3 542 € / mois 23,35 € / heureSalaire brut estimé
51 200 € / an 4 267 € / mois 28,13 € / heureSalaire brut max
65 000 € / an 5 417 € / mois 35,71 € / heureCette information vous semble-t-elle utile ?
Merci pour votre retour !
ESN
-
Cette offre est publiée par une ESN. Le poste peut être situé au sein de l’entreprise indiquée ou chez un client pour lequel elle recrute.
Concepteur Développeur Big Data H/F DGTL Performance
- Paris - 75
- CDI
- Bac +2
- Bac +3, Bac +4
- Bac +5
- Secteur informatique • ESN
Détail du poste
Analyse des besoins et des cas d'usages :
Participer aux réunions de lancement de projet pour comprendre les objectifs business organisés par les solutions manager RH et Finance
Analyser et formaliser les besoins fonctionnels et techniques en collaboration avec les architectes et les chefs de projet
Rédiger les spécifications techniques liées à la solution à implémenter.
Conception et développement des pipelines de données :
Concevoir des solutions de traitement de données en utilisant les technologies adaptées : Apache Spark, Hadoop, Databricks et Snowflake.
Implémenter des pipelines ETL/ELT performants et évolutifs pour le traitement et le stockage des données.
Intégrer les sources de données, les API, et autres systèmes externes.
Garantir la qualité des données à travers des mécanismes de validation et de contrôle de qualité.
Déploiement et configuration des environnements de traitement :
Configurer et déployer les environnements nécessaires sur des infrastructures cloud (AWS, Azure, GCP) ou sur des clusters Hadoop/Spark.
Utiliser Databricks pour optimiser les workflows et automatiser les processus de traitement des données.
Gérer les accès aux systèmes et assurer la sécurité des données traitées.
Optimisation des performances :
Analyser les performances des solutions développées et proposer des axes d'optimisation.
Ajuster les configurations des clusters et des environnements (ex. ajustement des ressources pour Spark).
Appliquer les bonnes pratiques de partitionnement, de parallélisme et de gestion des ressources pour améliorer les temps de réponse.
Assurance qualité et tests :
Mettre en place des tests unitaires et des tests d'intégration pour garantir la qualité des pipelines de données.
Assurer un suivi des erreurs et des alertes sur les traitements de données.
Réaliser des revues de code régulières et veiller à la documentation des développements.
Maintenance évolutive et support :
Assurer la maintenance des solutions en production et intervenir pour résoudre les incidents de données.
Implémenter les évolutions demandées par les utilisateurs ou en fonction des nouvelles technologies disponibles.
Assurer une veille technologique pour adapter les solutions aux nouvelles versions des outils utilisés.
Documentation
Spécifications techniques : Un document détaillant la conception technique des pipelines de données et des processus d'intégration, incluant des diagrammes d'architecture et des flux de données.
Code source et scripts : Le code source des solutions développées dans les technologies utilisées (Spark, Hadoop, Databricks, Snowflake...
Scripts de configuration et d'automatisation des tâches de traitement (déploiement, intégration, tests).
Tests et validation : Une couverture de tests (unitaires et d'intégration) permettant de valider la qualité du code et le bon fonctionnement des cas d'usages.
Un rapport de tests avec les résultats des différents tests effectués sur les pipelines de données.
Documentation technique et d'exploitation : Documentation détaillée sur le fonctionnement des solutions déployées, incluant des procédures de mise à jour et de maintenance. Manuel utilisateur ou guide d'exploitation des pipelines, décrivant les interfaces de données et les processus métiers.
Rapport de performance : Un rapport d'analyse des performances des pipelines de données, avec des recommandations d'optimisation, des temps de traitement avant et après optimisation, etc.
Suivi des incidents et des corrections : Un suivi détaillé des incidents rencontrés en production, des actions correctives mises en place, et des évolutions apportées.
Livraison et mise en production : Livraison des solutions de données testées, validées et prêtes à être mises en production.
Mise en place d'un plan de déploiement avec une procédure de rollback en cas de problème
Profil :
Compétences requises :
Big data,
Hadoop database,
Spark ,
Python,
PostGreSQL,databricks
Publiée le 04/12/2025 - Réf : 2427587
Créez une alerte
Concepteur Développeur Big Data H/F
- Paris - 75
- CDI
Finalisez votre candidature
sur le site du
recruteur
Créez votre compte pour postuler
sur le site du
recruteur !
sur le site du recruteur
sur le site du recruteur !
Ces offres pourraient aussi
vous intéresser
Recherches similaires
- Emploi Concepteur développeur informatique
- Emploi Informatique
- Emploi Développeur
- Emploi Technicien support informatique
- Emploi Développeur Java
- Emploi DevOps
- Emploi Product owner
- Entreprises Informatique
- Entreprises Concepteur développeur informatique
- Entreprises Paris
- Emploi Big data
- Emploi Livraison
- Emploi Apache
- Emploi Technologies
- Emploi Manuel
- Emploi CDI Paris
Testez votre correspondance
Chargement du chat...
{{title}}
{{message}}
{{linkLabel}}