Вакансия из Telegram канала - Название доступно после авторизации
Пожаловаться
75
Хорошая вакансия
развернуть
Роль четко определена с хорошим стеком технологий и приемлемым диапазоном зарплат, но требование к обширному опыту может ограничить круг потенциальных кандидатов.
Кликните для подробной информации
Высокая зарплатаЧетко определенная рольСовременный стек технологийТребуется обширный опытСектор телеком
Оценка от Hirify AI
Мэтч & Сопровод
Покажет вашу совместимость и напишет письмо
Создать профиль и узнать мэтч
Описание вакансии
#РФ #вакансия #удаленно #remote #DataAnalyst
Вакансия: Аналитик данных Грейд: Senior Компания: JETLYN Формат: удаленно Локация: Россия Гражданство: #РФ Вилка ЗП: от 230 000 до 320 000 рублей на руки в месяц Условия оформления, формат: ТК/ИП
Сфера деятельности: телеком
🟡Основные задачи
• Разработка, оптимизация и поддержка ETL/ELT-процессов для обработки больших объемов данных (100+ млн записей)
• Проектирование и развитие хранилища данных (DWH): многомерные модели, «звёздная» схема, витрины данных
• Оркестрация пайплайнов данных: создание и поддержка DAG-файлов в Apache Airflow, настройка расписаний и зависимостей
• Интеграция данных из разнородных источников: реляционные БД, API, файловые системы, потоковые данные
• Мониторинг и обеспечение надежности процессов: настройка алертов (Slack/почта), работа с Grafana/Prometheus
• Оптимизация производительности: тюнинг Spark-задач, оптимизация Hive-запросов, управление ресурсами кластера
• Взаимодействие с командами аналитики, разработки и бизнеса для формирования требований и передачи данных в производство
🟡Требования ‼️ Опыт работы: не менее 7 лет в области аналитики данных / инженерии данных, из них ≥3 лет — с Apache-стеком
• Образование: высшее техническое (информатика, прикладная математика, ИТ)
• Apache Spark: разработка и оптимизация скриптов на Scala/Python для обработки 100+ млн записей, понимание архитектуры Spark (executors, partitions, shuffle)
• Apache Airflow: создание DAG-файлов для оркестрации задач (ежедневная выгрузка в HDFS), настройка алертов (Slack/почта), работа с сенсорами и операторами
• Apache Dolphin: опыт интеграции с внешними API и БД через XML-конфигурации
• Hadoop/Hive: написание оптимизированных Hive-запросов, настройка HDFS (партицирование, бакетирование, репликация, сжатие)
• SQL: сложные запросы (JOIN, оконные функции, CTE, агрегации), оптимизация выполнения, понимание планов запросов
• Мониторинг: настройка дашбордов в Grafana, интеграция с Prometheus, создание алертов для ETL-процессов
• Интеграция данных: работа с разнородными источниками (БД, REST/SOAP API, CSV/JSON/XML-файлы), понимание форматов данных и протоколов передачи
✅Будет преимуществом
• Опыт работы с Apache Kafka, Apache Flink для потоковой обработки данных
• Знание принципов построения Data Lake / Data Mesh
• Опыт работы с облачными платформами (Yandex Cloud, SberCloud, AWS, GCP)
• Навыки работы с Docker, Kubernetes для контейнеризации задач
• Понимание методологий DataOps, CI/CD для пайплайнов данных
• Опыт менторства и проведения код-ревью
Резюме и вопросы направляйте, пожалуйста, в телеграмм в ЛС Показать контакты 📲🤝
Будьте осторожны: если работодатель просит войти в их систему, используя iCloud/Google, прислать код/пароль, запустить код/ПО, не делайте этого - это мошенники. Обязательно жмите "Пожаловаться" или пишите в поддержку. Подробнее в гайде →
Текст вакансии взят без изменений
Источник - Telegram канал. Название доступно после авторизации