Requirements: French
Company: LeHibou
Region: Montreuil , le-de-France
Contexte & Objectif de la missionAu sein de la division, l?quipe Data Platforms conoit, dveloppe et maintient les infrastructures data stratgiques du Groupe. Elle soutient les initiatives d?IA, de machine learning, d?automatisation et de conformit rglementaire, en mettant disposition des plateformes robustes, scalables et scurises.L?une des pierres angulaires de cet cosystme est le Data Hub, qui permet la centralisation, la gouvernance et la distribution des donnes de manire transverse, l?chelle du groupe. Ce hub joue un rle central dans l?industrialisation des usages data internes.Dans ce contexte, nous renforons notre capacit de support avec la mise en place d?un dispositif d?exploitation et de support N2 sur les composants c?ur du Data Hub.? Description de la prestationVous contribuerez aux activits d?exploitation, de support et d?amlioration continue des plateformes suivantes, dployes sur Kubernetes (IBM IKS aujourd?hui, OpenShift demain) :? Apache Spark? Apache Airflow / Astronomer? Starburst (Trino)Les missions incluent :? Assurer le support N2 en production (analyse, rsolution d''incidents, root cause analysis).? Participer au tuning et l?optimisation des traitements Spark, l?amlioration des DAG Airflow, et la gestion fine des catalogues Trino.? Accompagner les quipes Data Science et Mtiers dans une utilisation performante et scurise des plateformes.? Contribuer l?automatisation, la documentation et l?amlioration continue des environnements.? Participer aux revues de logs, mtriques et traces pour garantir l?observabilit et la rsilience des composants.? Comptences attendues? Techniques? Exprience confirme en environnement Data en production (support N2, run).? Matrise de Kubernetes, et au moins deux de ces trois briques :? Apache Spark (profiling, tuning, configuration, gestion des ressources),? Apache Airflow / Astronomer (optimisation, supervision),? Starburst / Trino (catalogues, optimisation de requtes SQL).? Bonne connaissance de l?cosystme d?observabilit : Grafana, Kibana, Dynatrace ou quivalents.? Comptences en scripting (Python, Bash, Ansible?).? Connaissance des chanes CI/CD (GitLab CI, Jenkins).? Matrise de Helm, YAML, dploiement sur clusters Kubernetes.? Notions de scurit apprcies : HashiCorp Vault, PKI, RBAC.Profil candidat:? Soft Skills? Capacit interagir avec des quipes varies (infra, data science, data engineering).? Esprit d?analyse et rigueur dans la gestion d?incidents.? Autonomie, esprit d?quipe, proactivit.? Langues? Franais courant? Anglais professionnel (changes avec certaines quipes techniques l?international)