MLOps Engineer

150 000 - 250 000 ₽

Рыночная зарплата

Мы аккредитованная IT-компания wmt group, занимаемся как разработкой собственных продуктов на стыке ML и AI, которые делают мир лучше, так и реализуем проекты разработки в крупных компаниях формате outstaff и outsource. У нас колоссальный опыт в разработке продуктов различной сложности, но при этом, мы не только создаем код - мы работаем с людьми.

Наша уникальность в том, что мы не просто IT-компания, мы пространство, в котором тебе всегда будет чем заняться, чему научится, с кем пообщаться, получить помощь и поддержку в любой ситуации.

Ключевые требования:

  • Опыт работы в роли ML Engineer, MLOps Engineer или смежной роли от 3-х лет.

  • Глубокое понимание полного жизненного цикла ML-моделей (MLOps): от исследования и обучения до деплоя, мониторинга и поддержки.

  • Практический опыт контейнеризации ML-приложений (Docker) и оркестрации (Kubernetes, Kubeflow).

  • Умение строить и поддерживать CI/CD/CT пайплайны для машинного обучения (с использованием GitLab CI, GitHub Actions, Jenkins, Argo CD/Workflows).

  • Опыт работы с облачными ML-платформами и сервисами (MLflow, Vertex AI, SageMaker, Azure ML) и облачными провайдерами (AWS, GCP, Azure).

  • Знание инструментов версионирования данных, моделей и экспериментов (DVC, MLflow, Weights & Biases).

  • Навыки написания production-ready кода на Python, включая тестирование (pytest) и код-ревью.

  • Опыт настройки мониторинга ML-систем (метрики модели, дрейф данных, логирование, трейсинг).

Будет преимуществом:

  • Опыт работы с фреймворками для feature store (Feast, Hopsworks).

  • Знание инфраструктурных инструментов (Terraform, Helm).

  • Понимание принципов работы основных ML-фреймворков (PyTorch, TensorFlow, Scikit-learn).

  • Навыки работы с системами потоковой и пакетной обработки данных (Apache Kafka, Apache Airflow, Apache Beam).

  • Опыт оптимизации и ускорения инференса моделей (ONNX, Triton Inference Server).


Поделиться:

Опубликована день назад

Мы обрабатываем данные посетителей и используем куки в соответствии с политикой конфиденциальности.