Требования:
- Опыт работы инженером данных / ETL-разработчиком от 1 года.
- Отличное знание SQL (оптимизация, сложные запросы, window functions).
- Опыт работы с Airflow (настройка DAG, Sensors, Hooks, Connections, XCom и т.п.).
- Навыки работы с dbt (моделирование, тестирование, деплой).
- Опыт администрирования или использования ClickHouse или других СУБД.
- Понимание принципов построения DWH / Data Lake, ETL/ELT, data lineage.
- Опыт работы в Linux-среде, базовые знания Docker.
- Умение писать читаемый и воспроизводимый код (Python, Bash, SQL).
- Ответственность за качество данных и стабильность пайплайнов.
Будет плюсом:
- Опыт настройки CI/CD (GitLab CI, Jenkins, GitHub Actions).
- Знание инструментов мониторинга (Grafana, Prometheus, Sentry).
- Опыт работы с BI-инструментами (Metabase, Tableau, Power BI).
- Опыт оптимизации ClickHouse под большие объемы данных.
Обязанности:
- Разработка и поддержка ETL/ELT-пайплайнов для загрузки, трансформации и интеграции данных из различных источников (API, базы данных, файлы, стриминг).
- Проектирование и оптимизация хранилищ данных (DWH)
- Обеспечение качества, целостности и актуальности данных на всех этапах их жизненного цикла.
- Работа с различными источниками данных и системами оркестрации (Airflow).
- Автоматизация процессов обработки данных, мониторинг и логирование.
- Сотрудничество с аналитиками, дата-сайентистами и разработчиками для предоставления корректных и своевременных данных.
- Разработка и документирование архитектуры данных и внутренних стандартов работы с ними.
- Оптимизация производительности SQL-запросов и пайплайнов.
Условия:
• Полная занятость, график 5/2
• Удобный и обустроенный офис в Технопарке
• Современный стек технологий, команда профессионалов и интересные проекты
• Возможность роста и реализации своих идей
• Оплата обучения, сертификаций, участия в конференциях
• Конкурентная заработная плата и корпоративные бонусы