Мокка
Work format
remote
Work type
fulltime
Region
russia
Grade
middle
3 days ago
Data Engineer
greenplum
etl
sql
python
airflow
dbt
docker
git
apache kafka
rest api
300 000-390 000
RUB
#job #вакансия #DataEngineer #Greenplum #MPP #фултайм #remote
Вакансия: Data Engineer
Формат работы: на выбор - офис, гибрид, удаленка (можно вне РФ)
Занятость: full-time с гибким началом рабочего дня
Офис: г. Москва, м. Тульская, Варшавское шоссе, 9с1Б, БЦ “Даниловская Мануфактура”
Зарплатная вилка: 300 - 390 тыс руб gross + ДМС + курсы англ языка и разговорная практика с европейским офисом + ежегодно повышаем ЗП + техника (Macbook или PC @Dell) + отсрочка от призыва и мобилизации (аккредитованная ИТ компания)
Оформление: ТК, ИП
Гражданство: РФ
Компания: https://mokka.ru — международная fintech компания, лидер сегмента BNPL в России и Восточной Европе (Buy Now Pay Later – покупай сейчас, плати потом). Сервисы Мокка представлены в более 7 тыс. торговых точек наших партнеров, таких как Lamoda, OneTwoTrip, OZON, М.Видео, Эльдорадо, Детский мир и др, а количество пользователей уже 15+ млн. Сервис работает в РФ, Польше, Румынии, Болгарии.
Команда аналитической платформы:
— Head of Data and Analytics;
— Data Engineer - 3;
— BI Analyst - 3;
— ML Engineer - 4.
Стек DE: Greenplum, S3, Apache NiFi, Apache Kafka, Apache Airflow, Python, DBT, CI\CD - Gitlab, REST API, Docker, Soda core.
Смежные команды: 7 продуктовых команд, в РФ и Европе, команда DevOps, команда саппорта и др.
Зона ответственности:
— проектирование, разработка и оптимизация архитектуры DWH (Greenplum, Data Vault);
— разработка и поддержка ETL-процессов с использованием Nifi и Airflow, подключение новых источников данных;
— написание трансформаций и моделирование данных с использованием DBT;
— мониторинг и контроль работы регламентных процессов обновления данных;
— решение инцидентов с качеством данных;
— создание витрин данных;
— поддержка CI/CD процессов для обработчиков и загрузчиков данных;
— документация обработчиков данных и витрин, которые часто используются;
— рефакторинг имеющихся обработчиков с целью оптимизации;
— создавать решения (например, для заливки моделей / фичей) оптимизированные под запись;
— наполнение базы знаний;
Пожелания к опыту:
— знание методологий проектирования DWH;
— опыт в разработке и поддержке DWH и ETL от 3 лет;
— знание SQL на хорошем уровне: оконные функции, иерархические запросы, оптимизация производительности запросов;
— опыт работы с DBT;
— хорошее знание Python: знать что такое virtualenv, уметь remote-development, уметь оформлять тесты и настраивать линтеры;
— хорошее знание Airflow: уметь писать собственные hooks и operators, умение пользоваться внутренними возможностями airflow по хранению параметров соединений, создание и поддержание документации по дагам;
— Linux: знание основных команд, умение писать bash-скрипты, умение работать с pipe;
— умение работать с docker контейнерами;
— опыт работы с git, настройка пайплайнов в gitlab-ci;
— опыт настройки и использования Apache Kafka, знание Avro формата;
— хорошее знание REST API;
Nice to have:
— опыт работы с S3;
— опыт работы с колоночными СУБД (Greenplum, Vertica, Teradata, Clickhouse): уметь разворачивать, проектировать схемы для витрин в зависимости от назначения, настраивать мониторинг и бэкапы, анализ и оптимизация запросов;
— Apache NiFi: хотя бы уверенные теоретические знания;
— Soda Core;
— знание Cloud concepts (Yandex Cloud, AWS);
Условия:
— формат работы: на выбор - офис, гибрид, удаленка (можно вне РФ);
— оформление: ТК РФ, ИП;
— оклад: 300-390К руб gross + ежегодное повышение ЗП;
— ДМС со стоматологией;
— отсрочка от призыва и мобилизации (аккредитованная ИТ компания);
— гибкое начало рабочего дня (с 08:00 до 11:00 мск);
— техника на выбор: MacBook Pro или PC @Dell;
— открытая простая коммуникация в команде;
— приятные корпоративы: https://www.instagram.com/p/CScEi9iqgUL/.
Как устроен процесс найма:
Видео-звонок с HR → Техническое вью → Финальное вью → Оффер.
Контакты для связи:
Гульжана Менажиева
Вакансия: Data Engineer
Формат работы: на выбор - офис, гибрид, удаленка (можно вне РФ)
Занятость: full-time с гибким началом рабочего дня
Офис: г. Москва, м. Тульская, Варшавское шоссе, 9с1Б, БЦ “Даниловская Мануфактура”
Зарплатная вилка: 300 - 390 тыс руб gross + ДМС + курсы англ языка и разговорная практика с европейским офисом + ежегодно повышаем ЗП + техника (Macbook или PC @Dell) + отсрочка от призыва и мобилизации (аккредитованная ИТ компания)
Оформление: ТК, ИП
Гражданство: РФ
Компания: https://mokka.ru — международная fintech компания, лидер сегмента BNPL в России и Восточной Европе (Buy Now Pay Later – покупай сейчас, плати потом). Сервисы Мокка представлены в более 7 тыс. торговых точек наших партнеров, таких как Lamoda, OneTwoTrip, OZON, М.Видео, Эльдорадо, Детский мир и др, а количество пользователей уже 15+ млн. Сервис работает в РФ, Польше, Румынии, Болгарии.
Команда аналитической платформы:
— Head of Data and Analytics;
— Data Engineer - 3;
— BI Analyst - 3;
— ML Engineer - 4.
Стек DE: Greenplum, S3, Apache NiFi, Apache Kafka, Apache Airflow, Python, DBT, CI\CD - Gitlab, REST API, Docker, Soda core.
Смежные команды: 7 продуктовых команд, в РФ и Европе, команда DevOps, команда саппорта и др.
Зона ответственности:
— проектирование, разработка и оптимизация архитектуры DWH (Greenplum, Data Vault);
— разработка и поддержка ETL-процессов с использованием Nifi и Airflow, подключение новых источников данных;
— написание трансформаций и моделирование данных с использованием DBT;
— мониторинг и контроль работы регламентных процессов обновления данных;
— решение инцидентов с качеством данных;
— создание витрин данных;
— поддержка CI/CD процессов для обработчиков и загрузчиков данных;
— документация обработчиков данных и витрин, которые часто используются;
— рефакторинг имеющихся обработчиков с целью оптимизации;
— создавать решения (например, для заливки моделей / фичей) оптимизированные под запись;
— наполнение базы знаний;
Пожелания к опыту:
— знание методологий проектирования DWH;
— опыт в разработке и поддержке DWH и ETL от 3 лет;
— знание SQL на хорошем уровне: оконные функции, иерархические запросы, оптимизация производительности запросов;
— опыт работы с DBT;
— хорошее знание Python: знать что такое virtualenv, уметь remote-development, уметь оформлять тесты и настраивать линтеры;
— хорошее знание Airflow: уметь писать собственные hooks и operators, умение пользоваться внутренними возможностями airflow по хранению параметров соединений, создание и поддержание документации по дагам;
— Linux: знание основных команд, умение писать bash-скрипты, умение работать с pipe;
— умение работать с docker контейнерами;
— опыт работы с git, настройка пайплайнов в gitlab-ci;
— опыт настройки и использования Apache Kafka, знание Avro формата;
— хорошее знание REST API;
Nice to have:
— опыт работы с S3;
— опыт работы с колоночными СУБД (Greenplum, Vertica, Teradata, Clickhouse): уметь разворачивать, проектировать схемы для витрин в зависимости от назначения, настраивать мониторинг и бэкапы, анализ и оптимизация запросов;
— Apache NiFi: хотя бы уверенные теоретические знания;
— Soda Core;
— знание Cloud concepts (Yandex Cloud, AWS);
Условия:
— формат работы: на выбор - офис, гибрид, удаленка (можно вне РФ);
— оформление: ТК РФ, ИП;
— оклад: 300-390К руб gross + ежегодное повышение ЗП;
— ДМС со стоматологией;
— отсрочка от призыва и мобилизации (аккредитованная ИТ компания);
— гибкое начало рабочего дня (с 08:00 до 11:00 мск);
— техника на выбор: MacBook Pro или PC @Dell;
— открытая простая коммуникация в команде;
— приятные корпоративы: https://www.instagram.com/p/CScEi9iqgUL/.
Как устроен процесс найма:
Видео-звонок с HR → Техническое вью → Финальное вью → Оффер.
Контакты для связи:
Гульжана Менажиева