Требования:
Проектировать, создавать и поддерживать масштабируемые конвейеры обработки данных (пакетные и/или потоковые). Разрабатывать и оптимизировать модели данных для аналитики и отчетности.Обеспечивать качество данных посредством проверки, мониторинга и сверки.Работать с AWS-стеком (Glue, Redshift, Lambda и т. д.) для создания надежной инфраструктуры данных. Сотрудничать с аналитиками, специалистами по обработке данных и заинтересованными сторонами бизнеса для предоставления решений в области данных. Улучшать процессы CI/CD, тестирование и наблюдаемость конвейеров обработки данных. (На уровне специалиста) Принимать архитектурные решения и руководить межкомандными инициативами. Уверенный практический опыт создания конвейеров обработки данных и платформ данных. Глубокие знания SQL и моделирования данных. Опыт с распределенной обработкой данных (Spark / Databricks / аналогичные). Опыт с облачными платформами, предпочтительно AWS. Владение Python / Scala / Java. Английский язык B2-C1. Желательно: Опыт с Databricks. Знание инструментов бизнес-аналитики (например, Power BI). Опыт с крупномасштабными средами обработки данных. Понимание качества данных, управления данными и передовых методов работы.
Локация:📍Удалённо из Европы, Сербии, Грузии, Армении, Казахстана и др. Индийское стандартное время (IST) (UTC+5:30).
Контакт для отклика: Показать контакты + CV Про карьеру, рост и ценность себя: @jobstobeloved
Будьте осторожны: если работодатель просит войти в их систему, используя iCloud/Google, прислать код/пароль, запустить код/ПО, не делайте этого - это мошенники. Обязательно жмите "Пожаловаться" или пишите в поддержку. Подробнее в гайде →
Текст вакансии взят без изменений
Источник - Telegram канал. Название доступно после авторизации