Вакансия из Telegram канала - Название доступно после авторизации
Пожаловаться
55
Не очень вакансия
развернуть
Описание вакансии довольно подробное, но характер аутсорсинговой компании вызывает опасения по поводу нагрузки и стабильности проектов. Кроме того, зарплата не указана, что добавляет неопределенности.
Аутсорсинговая компанияЗарплата не указанаПодробные обязанности
Оценка от Hirify AI
Мэтч & Сопровод
Покажет вашу совместимость и напишет письмо
Создать профиль и узнать мэтч
Описание вакансии
Senior разработчик
Локация: Удалённо в РФ (кроме Москвы и Петербурга) Компания: PrideInBrains (заказная разработка) ЗП: по договоренности (зависит от формата оформления) Занятость: Полная
Формат оформления - ТК РФ или ИП
Обязанности:
Будущий IT Lead будет отвечать за проектирование и развитие архитектуры потоковой обработки данных/батч на Flink, Kafka и Tarantool. Он возглавит команду инженеров, выстроит процессы разработки, контроля качества и CI/CD. Основная цель — обеспечить масштабируемость, отказоустойчивость и скорость обработки данных в real-time-системах. Нужно будет разрабатывать и оптимизировать пайплайны и сервисы, влияющие на ключевые бизнес-показатели. Также предстоит внедрять стандарты качества данных и мониторинг. Важна способность переводить бизнес-требования в архитектурные решения и доводить их до реализации.
Общие требования:
1. Опыт работы от 5 лет в сфере Big Data / Data Engineering / Stream Processing.
2. Практика проектирования и построения архитектуры высоконагруженных систем.
3. Опыт лидерства или технического наставничества: формирование команды, код-ревью, распределение задач, обучение.
4. Навыки оптимизации производительности, обеспечения отказоустойчивости и масштабируемости решений.
5. Способность объяснять архитектурные решения бизнес-языком.
Технический профиль:
Языки: Scala (основной), Java — приветствуется.
Потоковая обработка: Apache Flink (ключевой), Kafka (высоконагруженные топики, 500k+ RPS).
Batch-обработка: Apache Spark, Hadoop.
Оркестрация и интеграция: Airflow, NiFi.
Базы данных: Tarantool, PostgreSQL, H2, NoSQL-решения.
Инфраструктура: Docker, Kubernetes, CI/CD (GitLab, Jenkins).
Мониторинг и логирование: опыт с системами алертинга и контроля качества данных.
Data Quality / Data Catalog / ETL-pipeline опыт обязателен.
Ключевые проектные компетенции:
1. Разработка и эксплуатация потоковых витрин данных объёмом от 100 млрд строк и выше.
2. Создание фреймворков и движков для унификации ETL-процессов, тестирования, построения витрин.
3. Опыт построения архитектуры real-time систем (время отклика < 100 мс).
4. Запуск систем, оказывающих влияние на P&L бизнеса (например, маркетинговые предложения, антифрод, scoring).
5. Разработка решений для автоматизированного контроля качества данных.
6. Ведение code review, технических митингов, документирование решений.
Будьте осторожны: если вас просят войти в iCloud/Google, прислать код/пароль, запустить код/ПО, не делайте этого - это мошенники. Обязательно жмите "Пожаловаться" или пишите в поддержку. Подробнее в гайде →
Текст вакансии взят без изменений
Источник - Telegram канал. Название доступно после авторизации