Requirements: French
Company: SoyHuCe|a JAKALA team
Region: Paris , le-de-France
SoyHuCe - Le centre dexcellence oprationnel en Data / IA et Web de JAKALA
Nos quipes combinent les expertises ncessaires la cration de solution data cl-en-main : collecte, traitement, analyse, algorithmie, exploitation, intgration et UX/UI.
Elles rpondent ainsi des cas dusage varis, dans de multiples secteurs : retail, nergie, loisirs, industrie, assurance, secteur publique, sant.
En pratique elles sont principalement bases Paris et Caen et sorganisent en 3 tribus :
- Le Data Lab : expertise en Algorithmie, Data Science & IA avec capacit dindustrialisation ; en lead sur les projets R&D
- La Digital Factory : intgration des innovations dans des solutions web / app et mise lchelle auprs des utilisateurs
- Le Customer Success : accompagnement fonctionnel et gestion de projets
En interne, toutes les initiatives sont valorises : les ides, les avances techniques et la monte en comptences, le tout dans une ambiance challengeante et bienveillante.
Opportunits de carrire stimulantes
Rejoindre JAKALA en France, cest bnficier du meilleur des deux mondes : lagilit et limpact dune scale-up, tout en sappuyant sur la solidit dun leader europen. Vous aurez lopportunit de travailler sur des projets ambitieux et innovants, aux cts dexperts reconnus, avec lappui de partenariats technologiques de premier plan.
Les valeurs qui guident les #Jakalers
Embrace Data Make it count Grow Together Deliver our best Be Purpose Driven
Nous sommes engags ! Pour le bien-tre de chacun, pour construire des relations durables avec nos cosystmes, pour enrichir et partager nos expertises.
Engags dans l''inclusion des personnes en situation de handicap, en garantissant des conditions de travail adaptes et accessibles tous.
Engags pour le bien-tre au travail, nous sommes convaincus que des quipes panouies, dans un environnement respectueux et quilibr, sont la cl de la russite.
Descriptif du poste
Au sein de notre Data Lab, tu travailles conjointement avec les Data Scientists, Data Engineers, MLE/MLOps engineer dj en poste et tu es impliqu.e dans la prise de dcisions lie aux solutions Data et leur volution.
A cet effet, tu es en charge de :
- Contribuer au dveloppement de notre offre Data et lindustrialisation de plateformes data pour nos clients
- Comprendre, analyser et proposer des solutions techniques rpondant aux besoins des Plateformes digitales et des projets internes
- Dfinir larchitecture logiciel ETL / ELT en collaboration avec tes pairs
- Travailler la donne sous toutes ses formes (stockage, laboration de modles, structuration, nettoyage)
- Rdiger de la documentation technique (diagrammes UML, documentation dAPI, ),
- Partager ton savoir-faire avec les diffrents membres de lquipe
- Concevoir et dvelopper des connecteurs entre les sources de donnes (internes et/ou externes) et la plateforme
- Concevoir et dvelopper des pipelines de traitements de donnes (batch et/ou temps rel) dans un environnement Big Data
- Assurer une veille technologique et savoir mener bien un projet de R&D
Tu assures en autonomie les missions suivantes en interne ou auprs de nos clients grands comptes :
- Cartographier des donnes et des flux de donnes
- Implmenter des algorithmes danalyse de donnes pour lindustrialisation
- Collecter, consolider et modliser de gros volumes de donnes (Big Data, Data Warehouses, Data Lakes)
- Dvelopper et automatiser des flux de donnes et leurs visualisations en dashboards, reporting
- Sassurer de la scalabilit, scurit, stabilit et disponibilit des donnes de la plateforme
- Analyser les donnes web pour rpondre aux questions mtiers et participer la construction de larchitecture Big Data
- Mettre en place du squencement et de la supervision des flux prcites en grant les cas limites
Comptences attendues
Bon niveau en dveloppement :
- De script ETL : Python (Pandas, API Rest, FaaS), Java (ex Kafka Connect, SOAP), Spark (PySpark, Databricks, Delta Lake)
- De script ELT : DBT (ex. Snowflake, PostgreSQL)
- Connaissance conception et administration dentrept de donnes : Snowflake, Big Query, PostgreSQL
- LakeHouse : Delta Lake
- Connaissance message broker : RabbitMQ, Kafka
- Comptences cloud : Kubernetes, Conteneurisation, Fournisseur cloud (AWS, GCP ou Azure), Infrastructure As Code (Terraform)
- Exprience darchitecture et de dimensionnement dune architecture cloud via des services