aipythonkubernetesterraformawsllmmicroservicesci cd
Вакансия из Telegram канала - Название доступно после авторизации
Пожаловаться
45
Не очень вакансия
развернуть
Описание вакансии довольно подробное, но отсутствие информации о зарплате и исключение крупных регионов вызывает сомнения в привлекательности этой возможности.
Кликните для подробной информации
Зарплата не указанаИсключение крупных регионовПодробное описание роли
Оценка от Hirify AI
Мэтч & Сопровод
Покажет вашу совместимость и напишет письмо
Создать профиль и узнать мэтч
Описание вакансии
Senior Backend Engineer
Прямой работодатель AGIMA ( agima.ru )
OAЭ Сеньор Информационные технологии • Разработка • Python • Backend • AWS • WEB 13 марта Удаленная работа Опыт работы более 5 лет Работодатель AGIMA Короткая ссылка: geekjob.ru/hiGE Откликнуться Описание вакансии
Location: NO Middle East, Russia, Belarus, Ukraine, North Korea. Contract: 1 year
About the role
We’re hiring a backend-first engineer to build and operate the systems that put Generative AI into production for document + drawing understanding (text and image). This role focuses on designing scalable microservices, APIs and inference pipelines that call foundation models (today: Bedrock on AWS) and make those model capabilities reliable and production-ready.
What you’ll own
Design and implement backend microservices and APIs that integrate with foundation models to serve inference for document + drawing processing.
Build scalable request-routing, caching and queuing strategies for inference traffic (handling spikes and bursty workloads).
Implement service-level CI/CD and observability for inference pipelines (logging, metrics, alerting).
Deploy and operate services in Kubernetes (deployments, rollouts, health checks); cluster administration is provided by platform/SRE.
Integrate with AWS services and ensure correct IAM/least-privilege for service-to-service access.
Collaborate with data scientists / ML engineers (they own model training; you own production integration).
Help shape operational practices for production inference (on-call scope to be clarified; expected to support service-level incident response).
Must-have (core requirements)
5+ years building production backend systems / APIs in Python.
Experience with inference orchestration patterns (async workers, batching, GPU orchestration) or familiarity with GPU-based workloads
Familiarity with ML lifecycle tools (MLflow, model registries, experiment tracking)
Experience with real-time and batch inference services, feature stores, or production SageMaker usage
Специализация Информационные технологии Разработка Python Backend AWS Отрасль и сфера применения WEB Уровень должности Сеньор
Показать контакты
Будьте осторожны: если работодатель просит войти в их систему, используя iCloud/Google, прислать код/пароль, запустить код/ПО, не делайте этого - это мошенники. Обязательно жмите "Пожаловаться" или пишите в поддержку. Подробнее в гайде →
Текст вакансии взят без изменений
Источник - Telegram канал. Название доступно после авторизации