SoyHuCe - Le centre dexcellence oprationnel en Data / IA et Web de JAKALA Nos quipes combinent les expertises ncessaires la cration de solution data cl-en-main : collecte, traitement, analyse, algorithmie, exploitation, intgration et UX/UI. Elles rpondent ainsi des cas dusage varis, dans de multiples secteurs : retail, nergie, loisirs, industrie, assurance, secteur publique, sant.... En pratique elles sont principalement bases Paris et Caen et sorganisent en 3 tribus : Le Data Lab : expertise en Algorithmie, Data Science IA avec capacit dindustrialisation ; en lead sur les projets RD La Digital Factory : intgration des innovations dans des solutions web / app et mise lchelle auprs des utilisateurs Le Customer Success : accompagnement fonctionnel et gestion de projets En interne, toutes les initiatives sont valorises : les ides, les avances techniques et la monte en comptences, le tout dans une ambiance challengeante et bienveillante. Opportunits de carrire stimulantes Rejoindre JAKALA en France, cest bnficier du meilleur des deux mondes : lagilit et limpact dune scale-up, tout en sappuyant sur la solidit dun leader europen. Vous aurez lopportunit de travailler sur des projets ambitieux et innovants, aux cts dexperts reconnus, avec lappui de partenariats technologiques de premier plan. Les valeurs qui guident les Jakalers Embrace Data Make it count Grow Together Deliver our best Be Purpose Driven Nous sommes engags ! Pour le bien-tre de chacun, pour construire des relations durables avec nos cosystmes, pour enrichir et partager nos expertises. Engags dans l'' inclusion des personnes en situation de handicap, en garantissant des conditions de travail adaptes et accessibles tous. Engags pour le bien-tre au travail , nous sommes convaincus que des quipes panouies, dans un environnement respectueux et quilibr, sont la cl de la russite. Descriptif du poste Au sein de notre Data Lab, tu travailles conjointement avec les Data Scientists, Data Engineers, MLE/MLOps engineer dj en poste et tu es impliqu.e dans la prise de dcisions lie aux solutions Data et leur volution. A cet effet, tu es en charge de : Contribuer au dveloppement de notre offre Data et lindustrialisation de plateformes data pour nos clients Comprendre, analyser et proposer des solutions techniques rpondant aux besoins des Plateformes digitales et des projets internes Dfinir larchitecture logiciel ETL / ELT en collaboration avec tes pairs Travailler la donne sous toutes ses formes (stockage, laboration de modles, structuration, nettoyage) Rdiger de la documentation technique (diagrammes UML, documentation dAPI, ...), Partager ton savoir-faire avec les diffrents membres de lquipe Concevoir et dvelopper des connecteurs entre les sources de donnes (internes et/ou externes) et la plateforme Concevoir et dvelopper des pipelines de traitements de donnes (batch et/ou temps rel) dans un environnement Big Data Assurer une veille technologique et savoir mener bien un projet de RD Tu assures en autonomie les missions suivantes en interne ou auprs de nos clients grands comptes : Cartographier des donnes et des flux de donnes Implmenter des algorithmes danalyse de donnes pour lindustrialisation Collecter, consolider et modliser de gros volumes de donnes (Big Data, Data Warehouses, Data Lakes) Dvelopper et automatiser des flux de donnes et leurs visualisations en dashboards, reporting Sassurer de la scalabilit, scurit, stabilit et disponibilit des donnes de la plateforme Analyser les donnes web pour rpondre aux questions mtiers et participer la construction de larchitecture Big Data Mettre en place du squencement et de la supervision des flux prcites en grant les cas limites Comptences attendues Bon niveau en dveloppement : De script ETL : Python (Pandas, API Rest, FaaS), Java (ex Kafka Connect, SOAP), Spark (PySpark, Databricks, Delta Lake) De script ELT : DBT (ex. Snowflake, PostgreSQL) Connaissance conception et administration dentrept de donnes : Snowflake, Big Query, PostgreSQL LakeHouse : Delta Lake Connaissance message broker : RabbitMQ, Kafka Comptences cloud : Kubernetes, Conteneurisation, Fournisseur cloud (AWS, GCP ou Azure), Infrastructure As Code (Terraform) Exprience darchitecture et de dimensionnement dune architecture cloud via des services manags Cartographie des donnes Profil recherch Diplme dtudes suprieures dans le systme dinformation, computer sciences, big data (cole dingnieurs, cole spcialise ou quivalent universitaire), tu justifies dau moins 5 ans d''exprience en Data engineering . Tu as une expertise reconnue sur la mise en place de pipelines complets de valorisation de donnes massives, de la collecte la mise disposition dapplications en passant par le traitement. La matrise de langlais est apprcie. Certifications indispensables : GCP Professionnal