Назад
5 часов назад

Middle+/Senior Data Engineer (ClickHouse, Trino, S3)

220 000 - 310 000
Формат работы
remote (только Russia)
Тип работы
fulltime
Грейд
middle/senior
Страна
Russia
vacancy_detail.hirify_telegram_tooltipВакансия из Telegram канала -

Мэтч & Сопровод

Покажет вашу совместимость и напишет письмо

Описание вакансии

#РФ #вакансия #удаленно #remote #DataEngineer

Вакансия: Data Engineer/Специалист по миграции и аналитике данных (ClickHouse, Trino, S3)
Грейд: Middle+/Senior
Компания: JETLYN
Формат: удаленно
Локация: Россия
Гражданство: РФ
Вилка ЗП: от 220 000 до 310 000 рублей на руки в месяц
Условия оформления, формат: ТК/ИП

📌 О проекте
Ключевая задача подразделения — миграция архитектуры хранения и обработки данных с Apache Hive и Greenplum на современный стек: S3 + Trino + ClickHouse. Вам предстоит участвовать в проектировании, реализации и оптимизации нового корпоративного хранилища данных (EDW), обеспечивая бесшовный перенос бизнес-логики и аналитических процессов.

🔍 Ключевые задачи
Проектирование и реализация миграции данных и ETL/ELT-процессов на новый стек (S3 → Trino/ClickHouse).
Разработка, оптимизация и рефакторинг сложных SQL-запросов для аналитики, отчетности и витрин данных.
Интеграция данных из SAP-систем (HCM, ERP) и других корпоративных источников.
Обеспечение качества, согласованности и валидация данных после перехода на новую архитектуру.
Участие в развитии и поддержке архитектуры корпоративного хранилища данных (EDW).
✅ Обязательные требования
Продвинутый уровень SQL 🔥 (это критически важное требование: умение писать сложные запросы, оконные функции, оптимизация планов выполнения, работа с терабайтами данных).
Уверенный опыт работы с экосистемой Hadoop: Hive, Spark.
Опыт коммерческой эксплуатации или миграции Greenplum (или иных MPP-СУБД).
Знание современных аналитических стеков: ClickHouse, Trino, работа с хранилищами S3.
Опыт проектирования и разработки EDW (Corporate Data Warehouse).
Понимание методологий анализа данных, построения витрин и метрик.
Знание архитектуры данных и бизнес-процессов в SAP (модули HCM, ERP).

💡 Будет преимуществом
Владение Python для автоматизации, написания UDF и интеграционных скриптов.
Опыт оркестрации пайплайнов в Apache Airflow.
Опыт работы с ETL-инструментами (в т.ч. SAS DI).
Знание Apache NiFi для потоковой передачи и маршрутизации данных.
Опыт использования Power Designer для DDL-моделирования и проектирования схем.

Технологический стек
SQL (основной), ClickHouse, Trino, Greenplum, S3, Hadoop/Hive, Spark, Apache Airflow, Python, Apache NiFi, SAS DI, Power Designer, SAP (HCM/ERP), EDW.

Резюме и вопросы направляйте, пожалуйста, в телеграмм в ЛС 📲

Будьте осторожны: если работодатель просит войти в их систему, используя iCloud/Google, прислать код/пароль, запустить код/ПО, не делайте этого - это мошенники. Обязательно жмите "Пожаловаться" или пишите в поддержку. Подробнее в гайде →

Текст вакансии взят без изменений

Источник -