Senior MLOps / Recsys

По договоренности


Мы - команда MLOps в отделе Рекомендаций. Именно с помощью Рекомендаций в WB совершается более трети всех покупок. Наша команда по-своему уникальна, так как очень тесно связана с бизнес- продуктами, которые выводятся на реальных пользователей с помощью наших технологий.

Над алгоритмами и продуктами рекомендаций трудится большое количество DS/ML специалистов, которым необходимо предоставить все условия, чтобы их процесс разработки от идеи до выкатки в prod был удобным, понятным, быстрым и безопасным.

Для организации этого процесса мы разрабатываем и внедряем различные инструменты, а также выстраиваем ML инфраструктуру - как для ресерча, так и для продовых запусков.

Что нужно делать

  • Развивать существующие MLOps инструменты, утилиты и библиотеки, повышать их надежность, внедрять новые "фичи";
  • Дорабатывать существующие Open-source инструменты под нужды команды;
  • Внедрять MLOps инструменты для автоматизации процессов жизненного цикла ML-моделей;
  • Оптимизировать инфраструктуру для Highload ML сервисов, заниматься оптимизацией инференса ML моделей;
  • Обеспечивать быстрое масштабирование и высокую доступность ML инфраструктуры;
  • Помогать DS'ам в создании пайплайнов и сервисов в production среде (помощь в продуктивизации), оптимизировать их производительность;
  • Развивать системы мониторинга и логирования ML решений;
  • Помогать проектировать и планировать ресурсы, инфраструктуру и архитектуру решений;
  • Участвовать в разработке стратегии развития MLOps направления;
  • Менторить младших специалистов;
  • Повышать качество внешней и внутренней документации по нашим продуктам.

Какой опыт и знания нужны

  • Экспертное владение Python;
  • Опыт деплоя в production с помощью Kubernetes, глубокое понимание его работы, опыт работы с Helm-чартами;
  • Опыт построения сложных CI/CD пайплайнов (Gitlab CI/CD) и продвинутый опыт использования VCS (Git);
  • Опыт инференса ML/LLM моделей в production под высокой нагрузкой (Triton Nvidia Inference Server, vLLM);
  • Знания и опыт в оптимизации ML моделей для инференса;
  • Практический опыт внедрения с дальнейшей эксплуатацией MLOps инструментов для пользователей - Airflow, Dagster, Argo Workflows, Prefect, Flyte, MLFlow, JupyterHub, DVC, LakeFS, Seldon Core, KubeFlow и др;
  • Понимание современных алгоритмов машинного обучения и жизненного цикла ML модели;
  • Опыт написания пайплайнов / оптимизации запросов на Spark под экосистемой Hadoop;
  • Понимание современных архитектур распределенных систем / опыт реализации и использования для обучения/инференса;
  • Знание библиотек для веб-разработки: asyncio, FastAPI, Celery (SAQ);
  • Знакомство с компонентами мониторинга и логирования (Thanos, Grafana, OpenSearch).

Будет плюсом

  • Продвинутая оптимизация инференса ML/LLM моделей (Quantization Aware Training, Post Training Quantization, PV Tuning и др.);
  • Опыт использования KubeFlow + KNative + KServe + ArgoCD;
  • Distributed / MultiNode Training / Inference - от построения архитектуры до способов запуска моделей;
  • Опыт построения online/offline Feature Store собственными силами, либо с помощью готовых решений: Feast, Tecton;
  • Опыт работы с online/offline надежным и быстрым векторным поиском (Qdrant, LanceDB).

Наш стек

MLOps: Kubernetes, Gitlab CI/CD, JupyterHub, Airflow, ClearML, Qdrant, Triton Nvidia Inference Server, vLLM, Kong, Label Studio
DE: Greenplum, ClickHouse, DataLens, Spark / Hadoop
DevOps: Nginx, Katran, Helm

Мы предлагаем

  • Интересные задачи, и исследовательские, и прикладные, возможность переключаться между ними и видеть улучшения от них в production;
  • Большие данные, сотни миллионов товаров, миллиарды действий пользователей в день, ресурсы и инфраструктуру, необходимые для работы с ними;
  • Гибридный или удаленный формат работы с гибким началом рабочего дня;
  • Бесплатное питание в наших офисах;
  • Скидки на фитнес и образовательные программы.

Поделиться:

Опубликована 4 дня назад

Мы обрабатываем данные посетителей и используем куки в соответствии с политикой конфиденциальности.