Tech Lead / AI Solutions Engineer (Generative AI / LLM)
По договоренности
- Технопарк
- Коломенская
- Тульская
Основная цель
Сформировать технологическое лидерство в области AI/LLM/ML и выстроить короткий цикл «гипотеза → прототип → пилот» с контролем качества, бюджета и рисков. Обеспечить быстрое создание и проверку гипотез, разработку прототипов и вывод в пилот ключевых AI-решений компании (включая продукты типа «Ассистент аналитика» и «Ассистент по документам»).
Ключевые обязанности
- Разработка и интеграция решений на основе больших языковых моделей (LLM) в продукты компании.
- Работа с архитектурой ИИ-систем: выбор моделей, оркестрация, масштабирование, мониторинг
- Построение архитектуры и процессов разработки AI-решений (RAG, NL→SQL, guardrails, observability).
- Настройка и оптимизация LLM (fine-tuning, RAG, prompt-engineering, quantization и пр.).
- Быстрая проверка гипотез и выбор применимых технологий под бизнес-кейсы.
- Интеграция ИИ-компонентов в существующие backend/frontend-системы.
- Настройка процесса delivery (CI/CD), контроль качества, метрик и наблюдаемости.
- Разработка прототипов и выведение их в продакшен в рамках AI-платформы компании.
- Обеспечение безопасности, комплаенса и контроля стоимости (контекст-сжатие, кеши, квоты).
- Оценка и выбор между open-source и проприетарными LLM (Llama, Mistral, GPT, Claude и др.).
- Коллаборация с продуктовыми менеджерами и разработчиками для реализации ИИ-функционала.
- Поддержание исследовательского бэклога: планирование экспериментов, оценка технологий и подходов.
- Формирование и развитие технической команды (2–5 специалистов по инфраструктуре и LLM).
Технические компетенции
- Опыт работы с LLM и генеративным ИИ (минимум 2–3 года)
- Уверенное владение Python, а также фреймворками: LangChain, LlamaIndex, Hugging Face Transformers, vLLM и др.
- Понимание архитектуры современных LLM, методов адаптации моделей , RAG и пр.
- Базовое понимание ML/DL, но не обязательно глубокая экспертиза в ML-алгоритмах
- Опыт разработки production-ready ИИ-приложений
- Желательно:
- опыт работы с векторными базами данных (Pinecone, Weaviate, Qdrant), streaming inference, LLM observability
- Архитектура и Backend: проектирование API, очереди/кеши, Postgres, Redis, мониторинг (SLO p95/p99).
- Инфраструктура / MLOps: DEV/PROD окружения, Docker/Kubernetes, CI/CD для моделей и промптов, observability (OpenTelemetry).
- Безопасность: PII-маскирование, RBAC/ABAC, защита от prompt-injection, аудит-логи.
- Навыки управления delivery-циклом и командой (2–5 человек).
- Умение самостоятельно предлагать и проверять технологические гипотезы.
Будет плюсом
- Опыт участия в создании ИИ-ассистентов, чат-ботов, копирайтинг-инструментов и т.п.
- Знание MLOps-практик и инструментов LLM-observability.
- Понимание рисков LLM (hallucinations, bias, safety).
- Готовность быстро строить MVP и адаптировать решения под бизнес-цели.
Адрес: Россия, Москва, Варшавское шоссе, 26
Опубликована 14 часов назад
Вакансия в подборках
Похожие вакансии
до 500 000 ₽