Вакансия из Telegram канала - Название доступно после авторизации
Пожаловаться
82
Хорошая вакансия
развернуть
Отличный шанс возглавить миграцию на современный стек данных с понятными задачами и рыночной оплатой. Требование по SAP сужает круг, но технический вызов здесь очень интересный.
Кликните для подробной информации
Узкая нишаСмесь со старым стекомСовременный стекПонятный scopeДостойная оплата
Оценка от Hirify AI
Мэтч & Сопровод
Покажет вашу совместимость и напишет письмо
Создать профиль и узнать мэтч
Описание вакансии
#РФ #вакансия #удаленно #remote #DataEngineer
Вакансия: Data Engineer/Специалист по миграции и аналитике данных (ClickHouse, Trino, S3)
Грейд: Middle+/Senior
Компания: JETLYN
Формат: удаленно
Локация: Россия
Гражданство: РФ
Вилка ЗП: от 220 000 до 310 000 рублей на руки в месяц
Условия оформления, формат: ТК/ИП
📌 О проекте
Ключевая задача подразделения — миграция архитектуры хранения и обработки данных с Apache Hive и Greenplum на современный стек: S3 + Trino + ClickHouse. Вам предстоит участвовать в проектировании, реализации и оптимизации нового корпоративного хранилища данных (EDW), обеспечивая бесшовный перенос бизнес-логики и аналитических процессов.
🔍 Ключевые задачи
Проектирование и реализация миграции данных и ETL/ELT-процессов на новый стек (S3 → Trino/ClickHouse).
Разработка, оптимизация и рефакторинг сложных SQL-запросов для аналитики, отчетности и витрин данных.
Интеграция данных из SAP-систем (HCM, ERP) и других корпоративных источников.
Обеспечение качества, согласованности и валидация данных после перехода на новую архитектуру.
Участие в развитии и поддержке архитектуры корпоративного хранилища данных (EDW).
✅ Обязательные требования
Продвинутый уровень SQL 🔥 (это критически важное требование: умение писать сложные запросы, оконные функции, оптимизация планов выполнения, работа с терабайтами данных).
Уверенный опыт работы с экосистемой Hadoop: Hive, Spark.
Опыт коммерческой эксплуатации или миграции Greenplum (или иных MPP-СУБД).
Знание современных аналитических стеков: ClickHouse, Trino, работа с хранилищами S3.
Опыт проектирования и разработки EDW (Corporate Data Warehouse).
Понимание методологий анализа данных, построения витрин и метрик.
Знание архитектуры данных и бизнес-процессов в SAP (модули HCM, ERP).
💡 Будет преимуществом
Владение Python для автоматизации, написания UDF и интеграционных скриптов.
Опыт оркестрации пайплайнов в Apache Airflow.
Опыт работы с ETL-инструментами (в т.ч. SAS DI).
Знание Apache NiFi для потоковой передачи и маршрутизации данных.
Опыт использования Power Designer для DDL-моделирования и проектирования схем.
Технологический стек
SQL (основной), ClickHouse, Trino, Greenplum, S3, Hadoop/Hive, Spark, Apache Airflow, Python, Apache NiFi, SAS DI, Power Designer, SAP (HCM/ERP), EDW.
Резюме и вопросы направляйте, пожалуйста, в телеграмм в ЛС Показать контакты 📲
Будьте осторожны: если работодатель просит войти в их систему, используя iCloud/Google, прислать код/пароль, запустить код/ПО, не делайте этого - это мошенники. Обязательно жмите "Пожаловаться" или пишите в поддержку. Подробнее в гайде →
Текст вакансии взят без изменений
Источник - Telegram канал. Название доступно после авторизации