Contexte
Vous souhaitez rejoindre une structure engagée dans les transitions environnementales, où les données sont au cœur de la production de connaissance et de la prise de décision ?
Nous recrutons un·e Data Engineer pour concevoir et faire évoluer une nouvelle plateforme de données au sein d’une équipe technique dynamique, à la croisée de l'innovation, de la rigueur scientifique et de l’impact concret.
En tant que Data Engineer, vous participerez à la mise en place d’une architecture de données moderne, modulaire et évolutive, intégrant les standards actuels de traçabilité, de gouvernance et d’exposition.
Architecture & Traitement de la donnée
Concevoir, développer et maintenir des pipelines d’ingestion, transformation et exposition (ETL/ELT)
Définir les architectures de stockage et de traitement adaptées aux différents cas d’usage (analyse, visualisation, IA, modélisation)
Structurer des espaces de données (datalake, entrepôt analytique, couches de présentation)
Mettre en œuvre des stratégies d’orchestration, d’automatisation et de supervision
Qualité, documentation & gouvernance
Garantir la qualité, fraîcheur et cohérence des données mises à disposition
Documenter les jeux de données et assurer leur traçabilité via un système de catalogage
Définir les interfaces de restitution adaptées aux utilisateurs (API, requêtes, exports)
Appliquer les bonnes pratiques en matière de sécurité, confidentialité (RGPD) et contrôle d’accès
Participer à la définition et au déploiement de la gouvernance des données
Veille & amélioration continue
Assurer une veille technologique active sur les architectures, outils et pratiques
Accompagner les équipes métiers dans la prise en main de la plateforme
Être force de proposition sur les choix d’outillage et les évolutions
Formation Bac+5 (école d’ingénieur, master ou équivalent) en data engineering, informatique ou domaine connexe
Solide expérience en conception de pipelines de données et en architecture data
Maîtrise de Python (pandas, pyarrow, pytest, packaging, etc.)
Expérience sur des outils comme Airflow, MageAI, etc.
Connaissances en bases de données SQL et NoSQL (PostgreSQL, MongoDB…)
Bonne compréhension des environnements conteneurisés (Docker, Kubernetes apprécié)
Pratique des outils de CI/CD, orchestration et versioning (Git, GitLab…)
Sensibilité aux enjeux de sécurité et de conformité (ex. RGPD)
Appétence pour l’open source et la culture DevOps
Bonus appréciés
Connaissances dans le domaine agricole ou environnemental
Expérience dans le déploiement d’une plateforme data from scratch
Type de contrat : CDI – Statut Cadre
Localisation : Sud ou Ouest de la France (plusieurs sites au choix)
Télétravail : Jusqu’à 2 jours/semaine
Rémunération : Entre 40 et 50 K€ selon profil
Avantages :
Tickets restaurant (prise en charge à 60 %)
Mutuelle entreprise
Intéressement
Plan d’épargne retraite collectif avec abondement
26 jours de congés + 10 à 14 RTT + jours de pont offerts