kafkadata engineeringazuresparkdatabrickspysparkbankingdata governancedelta lake
Вакансия из Telegram канала - Название доступно после авторизации
Пожаловаться
75
Хорошая вакансия
развернуть
Роль четко определена с хорошим стеком технологий в растущем банковском секторе, но контрактный характер и ограниченный диапазон зарплаты могут вызывать опасения по поводу долгосрочной стабильности.
Requirements:
• 5+ years in data engineering (2+ years hands‑on with Azure Databricks)
• Strong expertise in PySpark, Spark SQL & Delta Lake
• Experience building streaming pipelines (Kafka / Event Hub / Structured Streaming)
• Knowledge of data quality, lineage & Unity Catalog
• Fluent English (project language)
• Ability to work independently in a fast‑paced banking environment
Responsibilities:
🔸 Develop & optimize ETL/ELT pipelines on Azure Databricks
🔸 Build streaming data solutions using Kafka & Structured Streaming
🔸 Implement data governance via Unity Catalog & MLflow
🔸 Ensure data quality, lineage & compliance with banking standards
🔸 Collaborate with analysts & product owners on delivery
How to Apply: Send your CV to: Показать контакты (PLEASE specify: Your current location (city, country), Salary expectations in USD Gross/month)
Будьте осторожны: если работодатель просит войти в их систему, используя iCloud/Google, прислать код/пароль, запустить код/ПО, не делайте этого - это мошенники. Обязательно жмите "Пожаловаться" или пишите в поддержку. Подробнее в гайде →
Текст вакансии взят без изменений
Источник - Telegram канал. Название доступно после авторизации