Мы расширяем наш AI-отдел и ищем Middle DevOps/MLOps инженера, который хочет работать над действительно современными и технологически сложными задачами. У нас не просто инфраструктура - мы строим платформу для запуска и масштабирования продвинутых AI-моделей, создаём собственные продукты в области искусственного интеллекта и используем максимально современный стек: Python-сервисы, Docker Swarm, K8S (Helm), HAProxy, Nginx, продуманные CI/CD пайплайны и высоконагруженные ML-модули, работающие на GPU и CPU.
У нас вы сможете работать над задачами, которые требуют реального понимания Computer Science, производительности и архитектуры распределённых систем - от оптимизации моделей до построения устойчивой инфраструктуры для их продакшн-инференса.
Если вам интересны сложные инженерные вызовы, хочется строить ML-платформы будущего и работать рядом с командой, создающей передовые AI-решения, - у нас вам точно понравится.
Чем предстоит заниматься:
DevOps:
- Проектирование, настройка и поддержка инфраструктуры на базе Docker Swarm и Kubernetes (Helm, deployments, services, ingress).
- Настройка CI/CD пайплайнов в GitLab (build/test/deploy).
- Конфигурирование и оптимизация Nginx как reverse proxy и load balancer.
- Настройка мониторинга, логирования и алертинга(prometheus, grafana, loki, sentry).
- Автоматизация развёртывания и внутренних процессов.
- Оптимизация производительности сервисов и устранение узких мест.
MLOps:
- Деплой и обслуживание ML‑моделей в продакшене.
- Настройка инференс‑пайплайнов на GPU/CPU.
- Контейнеризация моделей и оптимизация Docker‑образов.
- Настройка пайплайнов обновления моделей.
- Мониторинг производительности и стабильности инференса.
- Работа с Python‑микросервисами, интегрирующими ML‑модели.
Computer Science / Architecture:
- Понимание сетевых протоколов и принципов распределённых систем.
- Знание алгоритмов, оптимизации, принципов многопоточности и параллелизма.
- Анализ производительности: CPU, память, I/O.
- Умение диагностировать и устранять архитектурные и инфраструктурные проблемы.
Требуемый стек:
Обязательный:
- Python
- Docker / Docker Swarm
- Kubernetes + Helm
- Nginx
- GitLab CI/CD
- Linux (Ubuntu)
- Базовое понимание ML‑моделей и принципов инференса
Желательно:
- Опыт работы с GPU (NVIDIA, CUDA)
- Опыт с Triton, TorchServe, FastAPI inference endpoints
- Prometheus, Grafana, Loki, ELK
- Bash, Makefile
- Redis, PostgreSQL
Наши ожидания:
- От 2 лет опыта в DevOps/MLOps/SRE.
- Умение писать поддерживаемый код на Python.
- Глубокое понимание Docker: сетей, слоёв, оптимизации.
- Опыт работы с оркестраторами (Swarm, Kubernetes).
- Знание HTTP, WebSocket, TCP/IP.
- Понимание принципов CI/CD.
- Умение работать с высоконагруженными сервисами.
Что предлагаем:
- Конкурентную заработную плату с индексацией по результатам работы
- Оплачиваемый отпуск, больничные и комфортный рабочий график.
- Адекватное, лояльное и поддерживающее руководство, которое помогает развиваться, а не мешает работать.
- Атмосферу стартапа: быстрые решения, инициативность приветствуется.
- Возможность развиваться одновременно в DevOps и MLOps, прокачивая как инфраструктуру, так и экспертизу в ML-инференсе.
- Современный стек: Kubernetes, Python, GPU-инференс, high-load сервисы, потоковые ML-системы.
- Прямое влияние на архитектуру, выбор технологий и ключевые инженерные решения.
