Data Analyst Engineer (Middle)
По договоренности
Мы IT-FINANCE - команда крутых специалистов, которые разрабатывают программное обеспечение для лидогенерации и fintech компаний.
Сейчас мы находимся в поисках опытного Data Analyst, который усилит нашу команду. Если ты стремишься к профессиональному развитию в среде опытных и проактивных коллег, смело осталяй свой отклик!
Чем предстоит заниматься:
-
Взаимодействие с продуктовой и аналитической командами для настройки метрик и автоматизации отчётности;
-
Проектирование и развитие аналитических витрин (Data Marts) для бизнеса и продуктовых команд;
-
Разработка, оптимизация и поддержка SQL- и dbt-моделей;
-
Настройка и сопровождение ETL/ELT-процессов совместно с Data Engineers;
-
Интеграция данных из различных источников: DWH, CRM, CDC, clickstream
-
Работа с хранилищами данных (Greenplum, S3);
-
Оптимизация производительности запросов и процессов загрузки данных;
-
Разработка и внедрение проверок качества данных и тестов в dbt, поддержка корректности данных в аналитических витринах и отчётах;
-
Подготовка дата-сетов для моделей машинного обучения и исследований;
-
Участие в развитии архитектуры DWH и внедрении лучших практик;
- Ведение задач в трекере, своевременное докладывание о статусах процессов и их изменение
Что мы ожидаем от будущего коллеги:
-
Опыт работы с данными от 3 лет — в аналитике, DWH или BI-направлениях;
-
Понимание юнит-экономики трафика (AR, CTR, EPC, EPV) и финансовых метрик (ROI);
-
Умение формулировать аналитические гипотезы и доносить выводы до бизнеса понятным языком;
-
Отличное знание SQL (CTE, оконные функции, join’ы, оптимизация запросов под большие объёмы данных);
-
Опыт работы с Greenplum или другими клоночными и MPP-СУБД (ClickHouse, BigQuery, Snowflake, Redshift и др.);
-
Понимание архитектуры DWH и принципов построения слоёв данных;
-
Опыт работы с dbt (моделирование, тестирование, документация);
-
Навыки настройки и мониторинга пайплайнов в Airflow;
-
Опыт работы с объектными хранилищами;
-
Владение Python (pandas, numpy, airflow operators) для автоматизации и проверки данных;
- Умение структурировать задачи, документировать решения и взаимодействовать с инженерными командами
Будет плюсом:
-
Опыт работы с CDC-процессами, Kafka или потоковой обработкой данных;
-
Опыт построения систем контроля качества данных;
-
Знание принципов data governance, data lineage, metadata management;
-
Знание Trino / Presto для построения federated-запросов и интеграции данных;
-
Опыт системного анализа при интеграции данных из внешних источников;
- Понимание A/B-тестирования, статистических методов анализа и методов машинного обучения
Что мы предлагаем:
- Достойный уровень заработной платы, включающий ежегодную индексацию;
- Гибкий подход оформлению сотрудничества (ТК, ГПХ);
- Льготы IT аккредитованной компании;
-
Полностью удаленная работа (нам не важно в каком городе или в какой стране ты будешь находиться);
-
Гибкий график, а также у нас стандартная пятидневная рабочая неделя;
-
Корпоративное оборудование;
-
ДМС со стоматологией и телемедициной, профессиональной психологической поддержкой и др.;
-
Компенсация внешнего обучения за счет компании;
- Работа в коллективе крутых специалистов в сфере IT и FinTech, а также дружественная атмосфера без лишних формальностей;
-
Крутые корпоративы 2 раза в год, в т.ч. для удаленных сотрудников.
Опубликована 9 часов назад