Покажет вашу совместимость и напишет письмо
Подробное описание вакансии:
Нажмите, чтобы развернуть...
Ищем Data Engineer, который реально любит копаться в данных и понимает, что происходит под капотом. Много ETL, витрины, архитектура и ответственность за состояние всего Data LakeHouse.
Обязанности
- Собирать и развивать ядро Data LakeHouse: ETL, витрины, факт-таблицы, измерения
- Работать со стеком Trino + Spark + Iceberg
- Настраивать дата-контракты и следить за качеством данных
- Проектировать архитектуру DLH под стабильность и производительность
- Мониторить платформу и быстро реагировать на инциденты
Требования
- Уверенный SQL и Python
- Хорошее понимание СУБД и принципов хранения данных
- Опыт построения хранилищ данных, структурированных и не только
- Практика с Docker, Kubernetes, Airflow, Kafka, Spark
- Понимание YAML, JSON, Git, S3
- Базовое понимание DevOps и CI/CD
Будет плюсом
- Опыт с Grafana / Zabbix / Prometheus будет плюсом
Дополнительная информация
Зарплата обсуждается индивидуально. Формат работы: офис в Ташкенте. График работы: полный рабочий день, 5/2.
Будьте осторожны: если работодатель просит войти в их систему, используя iCloud/Google, прислать код/пароль, запустить код/ПО, не делайте этого - это мошенники. Обязательно жмите "Пожаловаться" или пишите в поддержку. Подробнее в гайде →
Текст вакансии взят без изменений