MLOps Engineer (Middle+/Senior)

Whydot
Занятость Полная занятость
Полная занятость
Адрес Узбекистан, Ташкент
Описание вакансии

Мы – технологический проект, который решает одну из самых сложных задач в современном AI: учит машины понимать языки нашего региона. Наши ML-модели – это ядро продукта, и мы ищем опытного MLOps-инженера, который построит надежный "мост" между нашими исследованиями и миллионами пользователей.

Ваша миссия – создать и автоматизировать инфраструктуру, которая позволит нашей команде ML-инженеров быстро и безопасно доставлять свои модели в production, а также обеспечит их стабильную и эффективную работу 24/7.

Чем предстоит заниматься:

  • Автоматизация (CI/CD for ML): Выстроить и поддерживать пайплайны для автоматической сборки, тестирования и развертывания ML-моделей.

  • Инфраструктура как код (IaC): Управлять и развивать инфраструктуру для обучения и инференса моделей (GPU-серверы, Kubernetes-кластеры).

  • Оптимизация и масштабирование: Оптимизировать производительность моделей (скорость инференса, потребление ресурсов) и проектировать масштабируемые ML-сервисы.

  • Мониторинг: Внедрить систему мониторинга для отслеживания технической (нагрузка, ошибки) и продуктовой (качество предсказаний) производительности моделей.

  • Инструменты для команды: Разрабатывать внутренние инструменты, которые упростят и ускорят работу ML-инженеров (например, для версионирования данных и моделей, управления экспериментами).

Наши ожидания от кандидата:

  • Вы работали инженером в области DevOps, SRE или MLOps от 2-х лет.

  • Уверенно пишете на Python для автоматизации задач.

  • Имеете практический опыт с Docker и Kubernetes (k8s).

  • Настраивали CI/CD-пайплайны с помощью GitLab CI, Jenkins или аналогов.

  • Работали с одним из облачных провайдеров (Yandex Cloud, AWS, GCP, Azure).

Будет большим плюсом, если вы:

  • Имеете опыт работы с инструментами MLOps-стека (MLflow, Kubeflow, DVC, Airflow).

  • Работали с GPU-инфраструктурой.

  • Понимаете жизненный цикл ML-моделей и основные проблемы, возникающие при их эксплуатации.

  • Настраивали системы мониторинга на базе Prometheus, Grafana, ELK Stack.

Что мы предлагаем взамен:

  • Сложные и нетривиальные задачи: Работа с high-load ML-сервисами, GPU-кластерами и state-of-the-art моделями.

  • Сильную команду и открытую культуру: Вы будете работать в команде с ML Team Lead и сильными инженерами, которые ценят надежную инфраструктуру.

  • Отличные условия: Мы предлагаем конкурентную заработную плату, хороший соцпакет и полное соблюдение ТК РУз.

Требования
Опыт От 1 года до 3 лет
Условия работы
График работы Полный день
Добавлено вчера
Для связи с работодателем или просмотра контактов нажмите на кнопку