Aller au contenu principal
Living Packets France recrutement

Tech Lead Data H/F Living Packets France

  • Sainte-Luce-sur-Loire - 44
  • CDI
  • Télétravail partiel
  • Bac +5
  • Services aux Personnes • Particuliers
  • Services aux Entreprises
  • Exp. 7 ans min.
Lire dans l'app

Les missions du poste

Vous prenez la responsabilité technique de la plateforme data de LivingPackets - une base existante qui nécessite une refonte pour accompagner les enjeux à venir. Votre mission : reconstruire une plateforme data robuste, scalable et orientée produit, capable de soutenir la croissance et les ambitions d'innovation de l'entreprise.

MISSION

La plateforme data existe mais elle doit être repensée pour supporter la montée en charge des événements IoT, des besoins analytiques plus sophistiqués, une gouvernance à renforcer, et une équipe Produit/Innovation qui a besoin de réponses rapides à partir des données.

Votre rôle couvre trois axes :

  • Refondre et industrialiser - architecture data warehouse, pipelines, gouvernance, performance
  • Rendre la donnée exploitable - transformation, qualité, accessibilité pour Produit et Innovation
  • Anticiper - FinOps, scalabilité, intégration de l'IA dans les workflows data

POURQUOI CE RÔLE EST INTÉRESSANT

  • L'IA comme levier central : LivingPackets intègre activement l'IA générative dans ses pratiques d'ingénierie. Sur la data, cela signifie : génération et optimisation de pipelines assistés, détection d'anomalies, documentation automatisée, exploration augmentée. Ce rôle implique de piloter cette intégration, pas seulement d'en bénéficier
  • Sources de données riches et hétérogènes : événements IoT en temps réel (géoloc, capteurs, états de shipments), données transactionnelles multi-services, données opérationnelles - une diversité de sources que peu de plateformes offrent
  • Chantier d'architecture structurant : une plateforme à mi-chemin, avec des fondations à repenser et des choix structurants à faire pour les 3 prochaines années
  • Impact direct sur les décisions Produit et Innovation : votre travail se traduit en features, en arbitrages, en roadmap
  • Rôle de Tech Lead : encadrement technique et coaching de l'équipe Data Analysts en place, en lien direct avec le Head of Engineering
  • Organisation à décisions rapides : peu de niveaux hiérarchiques, POC encouragés, arbitrages directs

IMPACT & RESPONSABILITÉS CLÉS

Architecture & performance du data warehouse

Objectif : une plateforme qui tient à l'échelle et qui coûte ce qu'elle doit coûter

  • Concevoir et faire évoluer l'architecture data warehouse (modélisation Bronze/Silver/Gold, partitionnement, stratégie de stockage)
  • Optimiser les performances des pipelines et des requêtes : plans d'exécution, indexing, matérialisation - chaque requête lente est un coût et une friction pour les utilisateurs
  • Piloter le FinOps data : suivi de la consommation, optimisation des coûts de stockage et de compute, alerting sur les dérives
  • Mettre en place le monitoring et l'alerting des pipelines : détection de défaillances, SLA de fraîcheur, notification proactive avant que les utilisateurs ne remontent le problème

Pipelines & transformation de la donnée

Objectif : des données fraîches, fiables et prêtes à l'emploi

  • Concevoir et maintenir les pipelines de bout en bout : ingestion, transformation, enrichissement, agrégation
  • Intégrer les sources hétérogènes : événements IoT temps réel, PostgreSQL des services Backend
  • Construire les modèles SQL/dbt pour les usages analytiques Produit, Innovation, Clients et reporting interne
  • Garantir la qualité de la donnée à chaque étape : tests automatisés, règles de validation, traçabilité des anomalies

Gouvernance & data management

Objectif : une donnée qu'on peut expliquer, auditer et faire confiance

  • Mettre en place la gouvernance data : ownership des datasets, data catalog, dictionnaire de données, lineage graphes
  • Assurer la conformité RGPD : pseudonymisation, anonymisation, gestion des PII dans les pipelines, politiques de rétention
  • Définir et faire respecter les standards de qualité et de documentation de la plateforme
  • Former et guider l'équipe Data Analysts existante sur les bonnes pratiques et les outils de la plateforme

Consommation de la donnée & impact Produit/Innovation

Objectif : rendre la donnée accessible et activable par toutes les équipes consommatrices

  • Collaborer avec l'équipe Produit pour comprendre les besoins analytiques et prioriser les chantiers data en conséquence
  • Travailler avec l'équipe Innovation pour identifier les données pertinentes pour les cas d'usage IA/ML (détection d'anomalies, prédiction, NLP sur données opérationnelles)
  • Mettre à disposition des équipes techniques internes des datasets fiables pour l'amélioration continue : suivi de la qualité firmware, analyse des comportements IoT, détection de régressions en production
  • Outiller les équipes support client avec les données nécessaires à l'accompagnement de la transformation logistique : visibilité sur les expéditions, détection proactive des anomalies, indicateurs de performance par partenaire
  • Exposer des datasets propres et documentés, consommables directement par les analystes et les modèles
  • Être force de proposition : identifier les opportunités data qui peuvent créer de la valeur produit, technique ou opérationnelle, pas seulement répondre aux demandes entrantes

CONCRÈTEMENT

Une semaine type

  • Début de semaine - alignement & priorisation : sync avec Head of Engineering et équipe Produit/Innovation, revue des pipelines en cours, priorisation des chantiers data
  • Milieu de semaine - exécution & architecture : développement de pipelines, optimisation de requêtes, design review d'architecture, monitoring des coûts et performances
  • Fin de semaine - gouvernance & collaboration : data quality checks, documentation, sessions avec les Data Analysts, exploration / POC sur des pistes d'amélioration ou d'innovation

Objectifs 3 mois

  • Mois 1 : audit complet de la plateforme existante - architecture, coûts, qualité, pipelines critiques. Identification des risques et des quick wins
  • Mois 2 : premier chantier structurant livré (architecture warehouse, optimisation FinOps ou refonte d'un pipeline critique) + mise en place du monitoring/alerting
  • Mois 3 : gouvernance posée (data catalog, ownership, standards), premiers datasets consommés par Produit ou Innovation, roadmap data partagée avec le Head of Engineering

Le profil recherché

ENVIRONNEMENT TECHNIQUE

Processing

PySpark (AWS EMR / Glue) - ou équivalent Snowpark / Spark on Snowflake

Warehouse

AWS S3 + Athena / Redshift - Snowflake évalué comme axe alternatif structurant

Streaming

AWS Kinesis (événements IoT temps réel)

Transform

SQL / dbt

Sources

PostgreSQL (services Go), ERP Sylob, événements SNS/SQS

Orchestration

AWS Step Functions / Airflow

Monitoring

CloudWatch + alerting à structurer

Gouvernance

Data catalog, lineage, RGPD

7+ ans d'expérience en développement firmware, dont au moins 2 ans en rôle de référent ou Tech Lead sur un produit en production.


Vous n'avez pas besoin de maîtriser chaque technologie du stack dès le départ. Ce qui compte : vous avez déjà opéré une plateforme data en production, vous comprenez les enjeux d'architecture et de gouvernance, et vous avez le réflexe de mesurer avant d'optimiser.


Compétences clés

  • Data warehouse : modélisation (Bronze/Silver/Gold ou équivalent), partitionnement, stratégies de stockage et de requêtage à l'échelle
  • Pipelines PySpark : transformations, optimisation des plans d'exécution, gestion des partitions, déduplication
  • SQL avancé : fenêtrage, CTEs, optimisation de requêtes analytiques, compréhension des plans d'exécution
  • FinOps data : suivi et optimisation des coûts cloud (compute + stockage), alerting sur les dérives
  • Monitoring & alerting : surveillance des pipelines, SLA de fraîcheur, détection proactive des défaillances
  • Gouvernance data : data catalog, lineage, ownership, gestion des PII / RGPD
  • Cloud data services : AWS (S3, Glue, Kinesis, Athena, EMR, Redshift) et/ou Snowflake - maîtrise d'au moins un de ces environnements en production, capacité de transposition sur l'autre

Mindset & façon de travailler

Ce qui nous importe autant que le niveau technique, c'est comment vous travaillez.

  • À l'aise avec l'IA comme co-développeur : vous utilisez déjà les outils d'IA générative pour générer des pipelines, optimiser des requêtes, documenter des datasets, détecter des anomalies - et vous savez exactement où le jugement humain sur la donnée reste non-négociable
  • Architecte autant que développeur : vous pensez la plateforme avant d'écrire du code - scalabilité, coûts, gouvernance ne sont pas des afterthoughts
  • Autonome et volontaire : vous identifiez les problèmes sans qu'on vous les décrive, vous proposez une direction, vous agissez
  • Proactif : vous remontez les risques tôt, vous venez avec des solutions - pas seulement avec des questions
  • Engagé : un pipeline qui produit des données incorrectes reste votre problème jusqu'à ce qu'il soit compris et corrigé
  • Sait rendre compte : communication régulière et claire vers votre n+1 sur l'avancement, les coûts, les risques - sans avoir besoin d'être relancé
  • Pédagogue : vous savez expliquer un choix d'architecture à une équipe Produit non-technique et défendre un arbitrage FinOps devant le Head of Engineering

Bienvenue chez Living Packets France

LivingPackets place l'intelligence au coeur de l'emballage, avec l'emballage le plus sûr et le plus durable au monde permettant pour la première fois des transactions totalement transparentes.

Tout cela en réduisant considérablement les déchets générés par le e-commerce et toutes les industries qui envoient ou reçoivent des colis (tonnes de plastique utilisées pour des emballages à usage unique) et en sauvant des millions d'arbres.

Prêt à rejoindre une entreprise révolutionnaire qui repousse les limites de la technologie et de la logistique ? Chez LivingPackets, nous sommes des pionniers de l'innovation, des créateurs de solutions de pointe et des visionnaires du secteur.

Nous recherchons des esprits créatifs, des penseurs audacieux et des innovateurs passionnés pour contribuer à notre mission de réinventer le monde de la logistique.

En tant que membre de l'équipe LivingPackets, vous travaillerez aux côtés des meilleurs talents de l'industrie, dans un environnement de travail stimulant, où la diversité et l'inclusion sont valorisées.

Rejoignez-nous et faites partie d'une entreprise en pleine croissance qui révolutionne la façon dont le monde se connecte et se déplace.

La carte

2 Rue Adrienne Bolland

44980 Sainte-Luce-sur-Loire

Localiser le poste

Publiée le 28/04/2026 - Réf : 4018013/28598959 TLD/44S

Envoyez votre candidature

dès maintenant !

Créez votre compte Hellowork et

envoyez votre candidature !

Ces offres pourraient aussi
vous intéresser

SYD Digital Care recrutement
SYD Digital Care recrutement
Saint-Herblain - 44
CDI
Télétravail partiel
Voir l’offre
il y a 7 jours
VYV Ecoute & Solutions recrutement
Vertou - 44
CDI
40 000 - 45 000 € / an
Voir l’offre
il y a 3 jours
Externatic recrutement
Externatic recrutement
Nantes - 44
CDI
50 000 - 55 000 € / an
Télétravail partiel
Voir l’offre
il y a 12 jours
Voir plus d'offres
Initialisation…
Les sites
L'emploi
  • Offres d'emploi par métier
  • Offres d'emploi par ville
  • Offres d'emploi par entreprise
  • Offres d'emploi par mots clés
L'entreprise
  • Qui sommes-nous ?
  • On recrute
  • Accès client
Les apps
Nous suivre sur :
Informations légales CGU Politique de confidentialité Gérer les traceurs Accessibilité : non conforme Aide et contact