Who We Are
Role Description
Popis nabídky
- správa a konfigurace Databricks workspace pomocí Terraformu, CLI a SDK
- řízení nastavení prostředí (clustery, knihovny, compute policies, přístupová oprávnění)
- definice a údržba katalogů, schémat a tabulek pomocí Unity Catalog
- zajištění bezpečnosti, škálovatelnosti a vysoké dostupnosti platformy
- podpora implementace konceptu Data Mesh napříč doménami
- technická podpora a poradenství pro datové analytiky, vědce a byznys uživatele
- vedení onboardingových, školících a enablement aktivit pro adopci platformy
- tvorba a správa technické dokumentace, účast na agilním vývoji a sprint plánech
- spolupráce probíhá hybridně v poměru 2-3 dny v týdnu onsite v Praze
Požadavky
- minimálně 5 let zkušeností s vývojem a správou cloudových big data platforem (Azure / GCP)
- minimálně bakalářské vzdělání v oblasti informatiky nebo příbuzném oboru
- aktivní znalost angličtiny na úrovni minimálně B2 (každodenní komunikace čistě v AJ)
- pokročilé zkušenosti:
- výborná znalost prostředí Databricks, Delta Lake a Spark
- práce s nástroji jako Apache Airflow, Azure Data Factory nebo Apache Beam
- pokročilá znalost Terraformu, Pythonu a CI/CD nástrojů (např. GitHub Actions)
- výborná orientace v oblasti datové bezpečnosti, správy, monitoringu a governance
- výborné komunikační a koordinační dovednosti v rámci mezinárodního týmu
- výhodou:
- zkušenost s technologiemi Kafka, Flink, nebo podobným frameworkem
- předešlá práce v Agile metodologii
- zkušenosti z oblasti finančních trhů
We Expect You to Have:
Oops! Something went wrong while submitting the form.
.png)

