Дата-инженер / Data Engineer
По договоренности
Стек: Инфраструктура Я.Облако (s3, Airflow, ClickHouse, Spark, Kafka, DataLens), Python, SQL, Kafka, Airflow
Чем предстоит заниматься:
- Интегрировать данные из разных источников (Oracle, Яндекс Метрика, AppMetrica, сторонние БД) в ClickHouse;
- Развивать архитектуру хранилищ, выбирать технологии и подходы с учетом специфики каждого юнита;
- Проектировать и автоматизировать сбор витрин из сырых данных через Airflow;
- Отвечать за стабильную работу пайплайнов: мониторинг, логирование, поддержка, багфикс;
- Мониторинг и оптимизация производительности системы хранения данных.
Мы предлагаем:
- Возможность присоединиться к профессиональной, высоко мотивированной и результативной команде из 200+ сотрудников R1, перспективы карьерного роста;
- Официальное трудоустройство в аккредитованный IT-актив компании ООО "Эр-1", оплачиваемые отпуск, командировки, больничные;
- Работу в офисе в одном из городов присутствия R1 на ваш выбор - Москва, Санкт-Петербург, Пермь;
- Рыночную заработную плату по результатам собеседования;
- ДМС со стоматологией после испытательного срока, 100% компенсацию больничного;
- Комфортные офисные условия;
- Корпоративные программы от наших партнеров;
- Бонусное подключение к телеком-услугам Дом.ru по тарифу «Сотрудник»;
- Яркую корпоративная жизнь и дружелюбную атмосферу в коллективе профессионалов!
Что важно:
- Продвинутые знания в работе с распределенными системами хранения и обработки данных (приоритет ClickHouse, Spark);
- Уверенное знание SQL (умеренное стремление к оптимальным запросам и понимание путей их достижения);
- Продвинутый уровень Python для построения EL, ETL, ELT конвейеров с гарантиями обеспечения качества данных (приоритет Airflow);
- Аккуратность, ответственность, внимательность к деталям;
- Умение работать с версиями кода (Git).
Будет преимуществом:
- Опыт с облачными платформами (AWS, GCP, Azure, Яндекс.облако);
- Понимание работы табличного формата Iceberg и архитектуры DataLake (опыт успешного внедрения - значительное преимущество);
- Опыт работы с фреймворком dbt (опыт успешного внедрения - значительное преимущество);
- Понимание концепции обозримости данных и аспектов работы дата-каталога;
- Стремление к проактивной работе с инцидентами в данных;
- Понимание концепции и инструментов передачи данных в реальном времени (приоритет - опыт работы с Kafka);
- Понимание CI/CD (GitLab CI).
Адрес: Россия, Пермь, шоссе Космонавтов, 111Ик2
Опубликована 17 часов назад
Похожие вакансии
Вакансии быстро закрываются — подпишитесь на наш канал в MAX сейчас, чтобы видеть их первыми.
Подписаться в MAX ... витрины и потоки данных на основе потребностей бизнес-пользователей Участвовать в проектах по развитию Data ... Platform Писать скрипты SQL и Python, это опционально Прорабатывать интеграции с внешними системами для Data ...
- Полный день
- Опыт от 3 лет
- Пермь
10 дней назад
Т-Банк — это амбициозные ИТ-проекты и высоконагруженные системы: от мобильного банка и облачного колл-центра до инвестиционных площадок и ML-продуктов. Наша пользовательская аудитория — более 36 млн человек. Важная часть команды — SRE-инженеры, котор...
- Полный день
- Опыт от 3 лет
- Пермь
10 дней назад
от 150 000 ₽
Рыночная зарплата
... обязанностей в команде; высшее профильное (либо дополнительное) образование в сфере ИТ, ПО или Big Data ...
- Полный день
- Опыт от 3 лет
- Пермь
месяц назад