Назад

Эта вакансия старше 7 дней и может быть неактуальной.

Чтобы не пропустить новые вакансии и откликаться в числе первых, подпишитесь на уведомления в Telegram

22 дня назад

Senior разработчик

Формат работы
remote (Russia)
Тип работы
fulltime
Грейд
senior/lead
vacancy_detail.hirify_telegram_tooltipВакансия из Telegram канала -

Мэтч & Сопровод

Покажет вашу совместимость и напишет письмо

Описание вакансии

Senior разработчик
                                                           
                                            
Локация: Удалённо в РФ (кроме Москвы и Петербурга)
Компания: PrideInBrains (заказная разработка)
ЗП: по договоренности (зависит от формата оформления)
Занятость: Полная
                                                                                                 
Формат оформления - ТК РФ или ИП

Обязанности:
Будущий IT Lead будет отвечать за проектирование и развитие архитектуры потоковой обработки данных/батч на Flink, Kafka и Tarantool. Он возглавит команду инженеров, выстроит процессы разработки, контроля качества и CI/CD. Основная цель — обеспечить масштабируемость, отказоустойчивость и скорость обработки данных в real-time-системах. Нужно будет разрабатывать и оптимизировать пайплайны и сервисы, влияющие на ключевые бизнес-показатели. Также предстоит внедрять стандарты качества данных и мониторинг. Важна способность переводить бизнес-требования в архитектурные решения и доводить их до реализации.

Общие требования:
1. Опыт работы от 5 лет в сфере Big Data / Data Engineering / Stream Processing.
2. Практика проектирования и построения архитектуры высоконагруженных систем.
3. Опыт лидерства или технического наставничества: формирование команды, код-ревью, распределение задач, обучение.
4. Навыки оптимизации производительности, обеспечения отказоустойчивости и масштабируемости решений.
5. Способность объяснять архитектурные решения бизнес-языком.

Технический профиль:
Языки: Scala (основной), Java — приветствуется.
Потоковая обработка: Apache Flink (ключевой), Kafka (высоконагруженные топики, 500k+ RPS).
Batch-обработка: Apache Spark, Hadoop.
Оркестрация и интеграция: Airflow, NiFi.
Базы данных: Tarantool, PostgreSQL, H2, NoSQL-решения.
Инфраструктура: Docker, Kubernetes, CI/CD (GitLab, Jenkins).
Мониторинг и логирование: опыт с системами алертинга и контроля качества данных.
Data Quality / Data Catalog / ETL-pipeline опыт обязателен.

Ключевые проектные компетенции:
1. Разработка и эксплуатация потоковых витрин данных объёмом от 100 млрд строк и выше.
2. Создание фреймворков и движков для унификации ETL-процессов, тестирования, построения витрин.
3. Опыт построения архитектуры real-time систем (время отклика < 100 мс).
4. Запуск систем, оказывающих влияние на P&L бизнеса (например, маркетинговые предложения, антифрод, scoring).
5. Разработка решений для автоматизированного контроля качества данных.
6. Ведение code review, технических митингов, документирование решений.

💬 Резюме отправлять:

–––
Бесплатный постинг вакансий: @freeIT_job
Забирай 📚 Базу Знаний

Будьте осторожны: если вас просят войти в iCloud/Google, прислать код/пароль, запустить код/ПО, не делайте этого - это мошенники. Обязательно жмите "Пожаловаться" или пишите в поддержку. Подробнее в гайде →

Текст вакансии взят без изменений

Источник -