Требование:
Глубокое понимание архитектуры Transformer и принципов работы LLM
Практический опыт работы с OpenAI API (function calling, structured outputs), Claude, open-source моделями (LLaMA, Mistral)
Продвинутый Prompt Engineering (CoT, ReAct, Few-shot, оптимизация токенов)
Проектирование и внедрение RAG-систем (FAISS / Pinecone / Qdrant, hybrid search, re-ranking)
Python (продвинутый уровень), PyTorch / HuggingFace Transformers
LangChain / LlamaIndex, построение AI-агентов и multi-agent систем
Интеграция моделей через API, создание AI-ботов и автоматизаций
Базовое понимание MLOps (Docker, деплой, мониторинг моделей)
Опыт работы с embeddings, fine-tuning (LoRA / PEFT)
Опыт работы:
От 2+ практического опыта
От 1+ в преподавании
Условия:
3 раза в неделю, по 1.5 часа проводятся оффлайн занятия
