AI Engineer / AI Integrator — Master Plan v4 FINAL
9 марта 2026 → 1 января 2027 Фаза 0 (март–апр): Фундамент  |  Фаза 1 (апр–май): Агентская база  |  Фаза 2 (июн): Деплой+Диплом  |  Фаза 3 (июл–авг): Fine-tuning+Премиум  |  Осень–декабрь: Добивка+Коммерция

ProGlib
Самостоятельно
Деплой/Диплом
Специализация
☐ = сделать  |  ☑ = готово
ФАЗА 0 — ФУНДАМЕНТ 9 марта → 19 апреля (6 недель)
0 → 35%
Период 🎓 ProGlib 📚 Самостоятельно 💡 Почему сейчас? 🔧 Инструменты 🧪 Проект 📚 Источники 📈 Стек %
9–15 марНеделя 1 ProGlib
  • Базовый Python
  • Функции, модули
Не повторять. Вперёд.
Самост.
Git + AI-теория
  • Ahillary бонус ур.1 (Git): commit, branch, push, pull, merge, .gitignore — пройти полностью
  • Ahillary Notion «AI модели для чайников» — прочитать
  • Зарегистрироваться: claude.ai + anthropic.com, получить API key
  • Начать использовать Claude.ai ежедневно вместо Google
📚 Ahillary бонус ур.1 (git) + githowto.com/ru + Ahillary Notion (AI чайники)
Было: Python базис.
Сейчас: Git — инструмент #1 профессионала. Без него нет истории кода, нет портфолио.
Потом: 1 коммит каждый день.
Git + GitHubВерсионирование кода. Каждый коммит — запись прогресса. GitHub = публичное портфолио для работодателей.
Claude.ai (браузер)Ежедневный ИИ-помощник. Объясняет код, ошибки, концепции. Использовать вместо Google.
  • Создать репозиторий ai-engineer на GitHub
  • Первый коммит: структура папок проекта
  • Правило на всё время: min 1 commit/day
REPOPROG githowto.com/rugithowto.com/ru — интерактивный Git тренажёр
YTLINAL 3Blue1Brownподписаться — старт с нед.2
GitClaude.ai
5%
16–22 марНеделя 2 ProGlib
Классы и ООП
  • __init__, self, методы экземпляра
  • Наследование, полиморфизм
  • @dataclass — короткий способ писать классы
  • Инкапсуляция, dunder-методы
  • SOLID principles on practice
📚 ProGlib + Ahillary ур.8 (ООП) — Notion конспект
Самост.
Ollama: первая локальная AI-модель
  • Установить Ollama: ollama.com/download
  • ollama run llama3.2 — задать вопрос прямо в терминале
  • Ahillary Notion «Как выбрать AI модель» + «Параметры модели»: 4B, Q4_K_M, context length
  • Понять: GPT vs Claude vs Llama vs Mistral — у каждого своё применение
  • 🔢 Математика (20 мин/день): 3Blue1Brown Essence of Linear Algebra — гл.1–3: Vectors, Linear combinations, span, Linear transformations and matrices
  • 📺 ШАД:
📚 ollama.com + Ahillary Notion: Ollama + параметры модели + shad.yandex.ru/gptweek
Было: Python, Git.
Сейчас: ООП — весь AI-код (LangChain, Pydantic, LangGraph) строится на классах. Без ООП их код нечитаем. Ollama — понимаешь как модели работают локально до вызова платного API.
OllamaAI-модели локально, бесплатно. Для экспериментов когда не хочется тратить токены API. llama3.2, mistral, phi3.
  • Прорешать практику, под целевую задачу
YTLINAL 3B1B LinAlg гл.1–3Vectors, Transformations — 20 мин/день
YTAI ШАД | GPT Weekshad.yandex.ru/gptweek — Лек.1 + Лек.2(20мин) на нед.2
GitOllamaООП
10%
23–29 марНеделя 3 ProGlib
HTTP, REST, внешние API
  • requests: GET, POST, заголовки, статус-коды
  • Работа с JSON-ответами
  • python-dotenv: .env файл для секретов
  • venv: виртуальное окружение
📚 ProGlib + Ahillary ур.7 (парсинг) — Notion конспект
Самост.
Первый вызов Claude API из Python
  • pip install anthropic python-dotenv
  • 10 строк: отправить сообщение → получить ответ от Claude API
  • Разница: Claude.ai (браузер) ≠ API (токены) ≠ Claude Code ($20/мес CLI)
  • Prompt Engineering: docs.anthropic.com/en/docs/build-with-claude/prompt-engineering/overview — 30 мин, системно: structured prompts, in-context learning, defensive prompting
  • Ahillary ур.7: BeautifulSoup4, GET-запросы — понять принцип парсинга HTML
  • 🔢 Математика (20 мин/день): 3B1B LinAlg гл.4–6 (Matrix multiplication, Determinant, Inverse matrices). Параллельно: StatQuest YouTube — Statistics Fundamentals плейлист (Histograms, Mean/Variance)
  • 📺 ШАД:
    • GPT Week — Лек.5 «Alignment» (~30 мин): RLHF, SFT — почему модели отвечают определённым образом. Объясняет механику prompt engineering который учишь сейчас
📚 docs.anthropic.com/quickstart (Python) + Ahillary ур.7 Notion + shad.yandex.ru/gptweek
Было: ООП, Ollama.
Сейчас: HTTP = язык интернета. Все данные — через HTTP. Первый вызов API — понимаешь как агент работает под капотом прежде чем использовать Claude Code как «магию».
Anthropic APIClaude из кода. Платишь за токены (~$0.003/1K). Основа всех агентов.
requests + dotenvrequests = HTTP из Python. dotenv = секреты в .env, не в коде.
  • Попробовать парсерить новостные источники (ex., FT) (requests + xml + bs4 + mcp pw) → тестовый источник для отработки
  • Через API обратиться к LLM (Claude) → тестовый запуск с извлечением информации (параметры подвигать)
YTSTATS StatQuest: Statistics FundamentalsYouTube — Histograms, Distributions
YTAI ШАД | GPT Weekshad.yandex.ru/gptweek — Лек.5 Alignment на нед.3
OllamaAnthropic APIrequests
16%
30 мар–5 апрНеделя 4 ProGlib
pandas, NumPy, matplotlib
📚 ProGlib + pandas.pydata.org/docs/getting_started
Самост.
HuggingFace: знакомство + NLP Course старт
  • Ollama run through local API
  • Зарегистрироваться на huggingface.co
  • Прочитать 3 Ahillary конспекта по HuggingFace: обзор / выбор модели / карточка модели
⚠️ Отпуск. Сделано только: Ollama local API + HF регистрация. Остальное → нед.5
📚 Ahillary Notion (3 HF конспекта) + huggingface.co/learn/nlp-course (гл.1-2)
Было: API, парсинг.
Сейчас: pandas = главный инструмент для данных (котировки, новости, хроматограммы — всё таблицы). HF NLP Course бесплатный, закладывает фундамент понимания трансформеров до их запуска.
Ollama local APIHTTP-запросы к локальной модели. Понимаешь как работает LLM-сервер до перехода на облако.
pandas (перенос на нед.5)Таблицы в Python. Любые данные: новости, котировки, химические измерения.
YTCALC 3B1B Calculus гл.1–5Derivatives, Chain Rule — перенесено на нед.5
BOOKML Hands-On ML (C1)Géron — гл.1: The ML Landscape — перенесено на нед.5
PDFLLM HF NLP Course гл.1–2nlp-course — pipeline API, введение — перенесено на нед.5
Anthropic APIOllama
22%
6–12 апрНеделя 5 ProGlib
pandas, NumPy
  • NumPy: массивы, векторные операции
  • pandas DataFrame: создание, фильтрация, groupby, merge
ProGlib — Курс ML
Старт: Введение в ML + Линейная регрессия
  • Тема 1: Введение в машинное обучение — типы задач, supervised/unsupervised, метрики
  • Тема 2: Линейные модели: регрессия — МНК, MSE, MAE, R², интерпретация коэффициентов
ProGlib — Курс Математика AI
Старт: Векторы + Линейная регрессия через МНК
  • Занятие 1: Векторы и матрицы, операции с ними — применение в ML
  • Занятие 2: Линейная регрессия — реализация в NumPy vs sklearn
📚 proglib.academy/machine-learning + proglib.academy/math-for-ds-express + pandas.pydata.org/docs/getting_started
Самост.
Перенос с нед.4 + продолжение
  • HuggingFace: найти модель sentiment-analysis → протестировать в браузере (Inference API)
  • Не устанавливать transformers — только понять структуру экосистемы
  • HuggingFace NLP Course гл.1–2: pipeline API, введение
  • 🔢 Математика (20 мин/день): 3B1B Calculus гл.1–5 (Derivatives, Chain Rule). StatQuest Statistics Fundamentals YT (YouTube плейлист) — смотреть параллельно по теме: Probability, Distributions, p-values. 2–3 видео/нед, ~10 мин каждое. Это плейлист, не книга.
  • 📺 ШАД (max 2 лекции):
📚 huggingface.co/learn/nlp-course (гл.1-2) + shad.yandex.ru/abweek + shad.yandex.ru/agentsweek
Было: API, парсинг, Ollama.
Сейчас: ProGlib выдал два полноценных курса (ML + математика) вместо отдельных уроков. Курс ML — фундамент sklearn и хроматографии. Математика AI — линал, матан и МНК для понимания моделей изнутри.
КУРСML ProGlib MLproglib.academy/machine-learning — темы 1–3 на этой неделе
КУРСCALC ProGlib Математика AIproglib.academy/math-for-ds-express — занятия 1–2 на этой неделе
HuggingFace Hub (браузер)2.2 млн моделей. Сейчас — смотрим и понимаем структуру.
  • Пройти темы 1–2 ML курса + занятия 1–2 математики
  • HF: sentiment-analysis модель → протестировать в браузере
  • pandas: загрузить CSV с котировками → посчитать базовые метрики
YTCALC 3B1B Calculus гл.1–5Derivatives, Chain Rule — 20 мин/день
BOOKML Hands-On ML (C1)Géron — гл.1: The ML Landscape
PDFLLM HF NLP Course гл.1–2nlp-course — pipeline API, введение (читать)
YTSTATS ШАД | A/B Weekshad.yandex.ru/abweek — Лек.1 на нед.5
YTAI ШАД | Agents Weekshad.yandex.ru/agentsweek — Лек.1.1 на нед.5
Anthropic APIpandas/NumPyML курсМатематика AI
28%
13–19 апрНеделя 6 ProGlib — Курс ML (продолжение)
Градиентный спуск + Классификация
  • Тема 3: Градиентный спуск и его модификации — SGD, Adam, RMSprop, L1/L2 регуляризация
  • Тема 4: Линейные методы классификации — логистическая регрессия, sigmoid, precision/recall/F1/ROC-AUC
ProGlib — Курс Математика AI (продолжение)
Матричные разложения + Производные
  • Занятие 3: Матричные разложения (SVD) — снижение размерности, рекомендательные системы в NumPy
  • Занятие 4–5: Функция одной переменной, пределы + Функции нескольких переменных — частные производные, градиент
📚 proglib.academy/machine-learning + proglib.academy/math-for-ds-express
Самост.
async/await + RAG первый pipeline + ML метрики
  • RAG: Ahillary RAG ур.1–2 — первый pipeline
  • Цепочка: документ → чанки → embeddings → ChromaDB → поиск → LLM → ответ
  • ML метрики на практике: confusion matrix, ROC-AUC — sklearn на реальных данных
  • 🔢 LinAlg (добить в этот период): 3B1B LinAlg гл.7 «Inverse matrices, column space» + гл.9 «Dot products and duality» (~25 мин). Зачем сейчас: гл.9 = математика embeddings и cosine similarity в RAG, который строишь на этой неделе. Без этого RAG — магия.
📚 Ahillary ур.9 Notion + Ahillary YouTube ур.1-2 + github.com/CrashNosok/RAG_lessons
Было: ML курс темы 1–2, HF знакомство.
Сейчас: ML курс углубляется в классификацию (precision/recall/F1 — будут нужны для оценки RAG). async — без него агент блокируется. RAG = основа «Задумки». Переходная неделя перед ФАЗОЙ 1.
Pipeline: ProGlib Математика AI зан.3–5 (SVD, производные, градиент) → ProGlib ML темы 3–6 (градиентный спуск, классификация, SVM) → Ahillary ур.9 (async) → Ahillary RAG ур.1–2 → ML метрики (confusion matrix, ROC-AUC).
Параллельно: 3B1B Calculus гл.6–9 + 3B1B LinAlg + Hands-On ML гл.2–4 (по возможности).
КУРСML ProGlib MLТемы 4–6: классификация, SVM, нелинейные методы
КУРСCALC ProGlib Математика AIЗанятия 3–5: SVD, пределы, частные производные
asyncio (Python)Параллельное выполнение. Агент тянет данные из 3 источников — без asyncio медленно.
ChromaDB (учебная)Векторная БД для первых RAG экспериментов. Потом заменим на Qdrant.
  • RAG на 2–3 PDF → вопросы → ответы с источниками
  • ML метрики: confusion matrix + ROC-AUC на sklearn данных
YTSTATS StatQuest: ROC + Confusion MatrixYouTube — по теме метрик недели
BOOKML Hands-On ML (C1)гл.2–4: end-to-end, Classification
ML курсasyncioRAG/ChromaDB
35%
ФАЗА 1 — АГЕНТСКАЯ БАЗА 20 апреля → 31 мая (6 недель)
35 → 74%
Период 🎓 ProGlib 📚 Самостоятельно 💡 Почему сейчас? 🔧 Инструменты 🧪 Проект 📚 Источники 📈 Стек %
20–26 апрНеделя 7 ProGlib 20.04
ИИ-агенты в 2026
  • Агент vs чат-бот vs просто LLM — разница
  • Выбор модели: цена/качество/скорость/контекст (ex., openrouter)
  • Бенчмарки: SWE-bench, AgentBench, LMArena
ProGlib 23.04
Управление мышлением агента
  • effort, бюджеты токенов/шагов/стоимости
  • Авто-маршрутизация: дешёвая→дорогая
ProGlib — Курс Математика AI
Занятие 6: Оптимизация и интегрирование
  • Методы оптимизации: градиентный спуск, его модификации
  • Интегрирование: связь с суммированием градиентов в сети
📚 ProGlib + anthropic.com/research/building-effective-agents
Самост.
Docker (впервые!) + n8n + Ahillary YouTube ур.3
  • SemolinaCode ур.14 (Docker): Docker Desktop, образы/контейнеры/volume — начать отсюда
  • Ahillary ур.9 (async): GIL, asyncio, coroutines, gather — конспект Notion. Понять: синхронный vs асинхронный — почему агенты требуют async
  • matplotlib базовый (30 мин): линейный график, гистограмма, scatter — df.plot() и plt.show(). Закрываем пробел с нед.4. seaborn: heatmap по желанию после, не обязательно сейчас.
📚 SemolinaCode TG ур.14 (Docker) + docs.n8n.io + Ahillary YouTube ур.3
⚠ Docker ставится впервые — начни с SemolinaCode ур.14!
Было: RAG/ChromaDB, async, ML метрики.
Сейчас: Docker нужен именно здесь — n8n и Qdrant требуют его. Ставить раньше было незачем. n8n — автоматизация визуально, понимаешь пайплайны до написания кода. ML курс уходит в фоновый режим: 1 тема/нед параллельно.
Docker DesktopИзолированные контейнеры. n8n, Qdrant, Langfuse — одной командой. Никаких конфликтов зависимостей.
n8nВизуальный конструктор пайплайнов. Блоки + стрелки: источник → обработка → выход.
КУРСCALC ProGlib Математика AIЗанятие 6: Оптимизация и интегрирование — математика градиентного спуска
  • Parser (разбор)
  • HW LR&GD ML (practice)
YTLINAL 3B1B LinAlg гл.7+9Inverse matrices + Dot products — 25 мин, фундамент RAG
RAGDockern8n
42%
27 апр–3 майНеделя 8 ProGlib — Курс ML
Тема 5: Методы опорных векторов (SVM) (пн)
  • Максимизация отступа, ядра (kernel trick), кросс-валидация
Зачем: Qdrant = векторные расстояния, SVM = геометрия разделения — одна математика
ProGlib 27.04
RAG-системы углублённо (вт)
  • Agentic RAG, GraphRAG
  • Query expansion, multi-hop retrieval
  • Qdrant, pgvector, LlamaIndex
  • Предобработка грязных документов
ProGlib 30.04
PydanticAI (ср)
  • Schema-first: типы вместо ручного JSON
  • Validation loops: автоисправление LLM
ProGlib — Курс Математика AI
Занятие 7: Матанализ практика — градиентный спуск с нуля
  • Реализация GD в NumPy: закрепление занятия 6 на практике
📚 ProGlib + ai.pydantic.dev/docs + qdrant.tech/documentation
Самост.
RAG улучшение: Ahillary ур.3–6 + ProGlib практики + RAG Roadmap
  • 🔢 Математика (пн): 3B1B Calculus гл.6–9 (Backprop интуиция). 3B1B Neural Networks гл.1 «But what is a neural network?» (~19 мин). StatQuest SVM: Part 1 «Main Ideas» + Part 2 «Polynomial Kernel» + Part 3 «Radial Kernel» + Cosine Similarity (~30 мин суммарно, 4 видео — прямо под тему SVM нед.8).
  • Ahillary YouTube ур.3: SitemapLoader, RecursiveURLLoader, HTML-aware chunking, RuBERT embeddings (PrefixEmbeddings) — индексация (ср)
  • Ahillary YouTube ур.4: MMR retriever, фильтры по метаданным, улучшение postprocessing и промпта — пройти (ср), фокус на коде
  • Ahillary YouTube ур.5: концепция трейсинга (LangSmith) — @traceable, spans, LLM-as-a-judge (чт); инструмент prod: LangFuse (нед.12)
  • Ahillary YouTube ур.6: ReAct-агент над RAG — rewrite_question + run_rag, агент решает когда делать retrieval (чт)
  • 📚 ProGlib практики RAG (ср):
    • Практика 1: Hybrid Search (BM25+Vector, RRF) + Recursive Chunking + Single-stage Reranking → метрики Hit Rate, NDCG
    • Практика 2: Multi-stage Reranking + Parent Doc Retrieval + Query Expansion (HyDE — осторожно, шум в узких доменах!)
  • 📚 RAG Roadmap (ProGlib 2026) — изучить структуру (пт):
    • Baseline: Hybrid Search + Reranking → Hit Rate ≥0.85, MRR ≥0.75, NDCG ≥0.70
    • Optimization: Multi-stage Reranking + Parent Doc Retrieval → Faithfulness ≥0.85, Answer Relevancy ≥0.80
    • Advanced: Contextual Retrieval (+15–20% Hit Rate) + Context Compression (−35–50% токенов) + Late Chunking (Jina 2024, +10–12%)
    • Enterprise: Agentic RAG (LangGraph, −78% ошибок) + GraphRAG + Multi-hop → нед.11+
📚 Ahillary YouTube ур.3–6 + ProGlib практики RAG 1–2 + ProGlib презентация RAG 2026 + 3B1B Neural Networks
Было: ChromaDB, базовый RAG.
Сейчас: RAG улучшение по ProGlib Roadmap: Hybrid Search + Reranking + RAGAS метрики. Ahillary ур.3–6: от индексации до ReAct-агента над RAG. Baseline замерен — теперь есть точка отсчёта.
QdrantПродакшн векторная БД. Ядро RAG в экономическом проекте.
RAGASOpen-source RAG evaluation. Метрики: Context Precision, Faithfulness, Answer Relevancy. De-facto стандарт offline-оценки.
LangSmith (концепция)Коммерческий трейсинг LLM: @traceable, spans, LLM-as-a-judge. Изучаем концепцию; в prod — LangFuse self-hosted (нед.12).
PydanticAIСтрогие типы для ответов LLM. Агент возвращает объект — не парсишь JSON руками.
КУРСML ProGlib MLТема 5: SVM — геометрия разделения, kernel trick. Синхронизировано с Qdrant (векторные расстояния)
КУРСCALC ProGlib Математика AIЗанятие 7: GD с нуля — практическое закрепление занятия 6
  • NewsItem: title, source, date, importance(1–5), topic, confirmed(bool) — схема работает
  • Claude API возвращает именно эту схему при оценке новости
  • RAGAS baseline: Hit Rate и Faithfulness замерены на 1_rag_pdf
PDFLINAL MML Book гл.5–6mml-book.github.io — Vector spaces
BOOKML Hands-On ML (C1)гл.7–8: Ensemble, Dimensionality Reduction
PDFAI ProGlib: RAG-системы 202670-страничная презентация: RAG Roadmap (4 фазы), SOTA таблица (HyDE=Нет, Fusion=Да), метрики RAGAS, стек prod (RAGAS+LangFuse+DeepEval), 10 архитектур 2026
YTSTATS ШАД | A/B Weekshad.yandex.ru/abweek — Лек.2: Ошибки I/II рода, MDE на нед.10
YTDL 3B1B: LLMs explained briefly~8 мин — карта LLM перед агентами и PydanticAI
n8nQdrantRAGASPydanticAI
50%
4–10 майНеделя 9 ProGlib 4.05
Browser/Desktop automation (пт)
  • Playwright — браузер из Python
  • Sandbox, минимальные права
  • Подтверждение перед рискованными действиями
ProGlib 7.05
Первый ИИ-агент (вс)
  • LLM + инструменты + цикл ReAct
  • Tool use: поиск, файлы, код
ProGlib — Курс ML
Тема 6: Нелинейные методы классификации (сб)
  • Полиномиальные признаки, регуляризация L1/L2
Зачем: нелинейность решений агента = та же нелинейная классификация
ProGlib — Курс Математика AI
Занятие 8: Введение в теорию вероятностей
  • Распределения, условная вероятность, формула Байеса
Зачем: LLM = вероятностная модель, embeddings = вероятностная геометрия
📚 ProGlib + playwright.dev/python/docs/intro
Самост.
RAG Advanced + Playwright практика + Google GenAI
  • Playwright: скрипт → открыть сайт → взять заголовки → JSON
  • 🔢 Математика (нед.9): 3B1B Neural Networks гл.2 «Gradient descent, how neural networks learn» (~21 мин) (ср) + гл.3 «What is backpropagation really doing?» (~13 мин) (чт) 3B1B Calculus финал гл.10–12 (пт) (~15 мин): «e + natural log» + «Integration» + «Differentiation via limits» — гл.10 = sigmoid/softmax, этого достаточно; гл.13–14 пропустить. StatQuest Decision Trees Part 1 («Classification Trees»): ~18 мин, опережающий просмотр — тема ProGlib придёт на нед.10. (сб)
  • 📚 RAG Advanced (из ProGlib Roadmap — после практик нед.8) (сб):
    • Contextual Retrieval (Anthropic): добавить контекст каждого чанка перед индексацией (+15–20% Hit Rate)
    • Context Compression: убрать шум из retrieved docs (−35–50% токенов, CohereRerank)
    • Late Chunking (Jina 2024): embeddings с учётом соседних чанков (+10–12%)
    • Оценить через RAGAS: Noise Robustness ≥0.90, Latency P95 <3s
  • 📺 5-Day Gen AI Intensive (Google/Kaggle): github.com/sauravkumar8178/5-Day-Gen-AI-Intensive-Course-with-Google — Day 1–3: embeddings, RAG architecture, agents. Параллельно с RAG Advanced этой недели.
  • 📺 NirDiamant/Prompt_Engineering: SGR (Structured Generation Refinement) + SO (Self-Optimization) техники — применить к RAG промптам нед.8–9
  • 📺 ШАД Agents Week Лек.2+3 → перенесены на нед.11 (LangGraph + Multi-Agent: максимальная синергия)
📚 playwright.dev/python + github.com/sauravkumar8178/5-Day-Gen-AI-Intensive-Course-with-Google + github.com/NirDiamant/Prompt_Engineering + 3B1B Calculus гл.10–14
Было: Базовые RAG-техники (нед.8).
Сейчас: RAG Advanced — Contextual Retrieval, Context Compression, Late Chunking. Playwright — для сайтов без API. Claude Code уже установлен и используется.
Claude Code (CLI-агент)Агент в терминале. Читает файлы, пишет код, запускает команды. Основной инструмент разработки. $20/мес.
PlaywrightУправляет реальным браузером из Python. Для сайтов без API.
КУРСML ProGlib MLТема 6: Нелинейные методы — полиномиальные признаки, регуляризация
КУРСCALC ProGlib Математика AIЗанятие 8: Теория вероятностей — база для понимания LLM и Qdrant
  • Claude Code переписывает RSS-парсер с sync на async — попросить его
  • Playwright: заголовки с сайта → JSON → в Qdrant
BOOKDL StatQuest Neural Networks (B2)гл.4–6: Backprop, Activation functions
PDFPROG Claude Code docsdocs.anthropic.com
YTAI ШАД | Agents Weekshad.yandex.ru/agentsweek — Лек.2: Memory + Лек.3: Workflow на нед.11
YTDL 3B1B Neural Networks гл.2–3 + Calculus финалNN гл.2 «Gradient descent» (~21 мин) + гл.3 «Backprop» (~13 мин); Calculus гл.10–12 (~15 мин); StatQuest Decision Trees Pt.1 (~18 мин, опережающий)
PDFAI 5-Day Gen AI Intensive (Google/Kaggle)github.com/sauravkumar8178 — Day 1–3: embeddings, RAG, agents
PDFAI NirDiamant/Prompt_Engineeringgithub.com/NirDiamant — SGR + SO техники для RAG промптов
QdrantClaude CodePlaywright
56%
11–17 майНеделя 10 ProGlib 12.05
MCP + LangFlow
  • Model Context Protocol — стандарт интеграций
  • LangFlow: визуальный прототипинг
  • Webhooks, триггеры, schedule
ProGlib 14.05
RAG: parent retrieval, Redis-кэш ProGlib — Курс ML
Тема 7: Решающие деревья
  • ID3, CART, гиперпараметры, визуализация
Зачем: дерево = структурированная маршрутизация, аналог agent routing
ProGlib — Курс Математика AI
Занятие 9: Случайные величины — реализация Наивного Байеса
  • Случайные величины, математическое ожидание, дисперсия
  • Наивный Байес в NumPy — вероятностная классификация
📚 modelcontextprotocol.io/docs + langflow.org + redis.io/docs/getting-started
Самост.
MCP: 3 сервера к Claude Code
  • MCP 1: filesystem (встроен в Claude Code — уже работает)
  • MCP 2: Brave Search MCP — веб-поиск из агента (github.com/modelcontextprotocol/servers)
  • MCP 3: написать свой Python MCP-сервер get_news(topic) → 5 новостей из RSS
  • Прочитать ПОЛНЫЙ ГАЙД (файл проекта): разделы «CLI-агенты» и «MCP» полностью
  • 🔗 Redis (новый инструмент, 30 мин): pip install redis → redis.io/docs/getting-started → понять get/set/expire как semantic cache. Зачем: ProGlib этой же недели преподаёт Redis-кэш в RAG — без базового понимания это будет магия.
  • 🔢 Математика (нед.10): 3B1B Neural Networks гл.4 «Backpropagation calculus» (~10 мин) — финал backprop-блока. 3B1B LinAlg гл.15 «Eigenvalues and eigenvectors, quick trick» (~15 мин, предпоследний перед PCA). StatQuest: Decision Trees Part 2 («Regression Trees», ~15 мин) + Naive Bayes (~10 мин, прямо под ProGlib тему этой недели).
  • 📺 ШАД (1 лекция, перенесена с нед.8):
📚 modelcontextprotocol.io + ПОЛНЫЙ ГАЙД (файл проекта) + github.com/modelcontextprotocol/servers + shad.yandex.ru/abweek
Было: Claude Code работает.
Сейчас: MCP = стандарт подключения инструментов к агентам. Написать свой MCP = перейти от «использую агентов» к «строю агентные системы». Ключевая компетенция.
MCP (Model Context Protocol)Стандарт Anthropic. Написал MCP-сервер — агент работает с твоими данными как со встроенными функциями.
LangFlowDrag-and-drop редактор. Не для прода — для понимания архитектуры визуально.
КУРСML ProGlib MLТема 7: Решающие деревья — ID3, CART. Аналог agent routing в структуре данных
КУРСCALC ProGlib Математика AIЗанятие 9: Случайные величины + Наивный Байес в NumPy
  • get_news(topic) → список NewsItem работает как MCP
  • В Claude Code: «найди новости про инфляцию» → агент сам вызывает инструмент
BOOKML Hands-On ML (C1)гл.9: Unsupervised Learning — K-means, DBSCAN, GMM (прямо под тему ML курса этой недели)
PDFCALC MML Book гл.7mml-book.github.io — Optimization (GD, SGD)
YTSTATS ШАД | A/B Weekshad.yandex.ru/abweek — Лек.2: Ошибки I/II рода, MDE на нед.10
Claude CodeMCPLangFlow
62%
18–24 майНеделя 11 ProGlib 18.05
LangGraph: профессиональная оркестрация
  • State machine: состояния, ветвления, retries
  • Checkpoint: сохранение и восстановление
  • Human-in-the-loop: пауза, ожидание
  • Time-travel дебаг — откат к любому состоянию
ProGlib 21.05
Мультиагентные системы
  • CrewAI/AutoGen: роли, коллаборация
  • Long-term memory между сессиями
ProGlib — Курс ML
Тема 8: Ансамблевые методы
  • Бэггинг, Random Forest — важность признаков
ProGlib — Курс Математика AI
Занятие 10: Основы статистики и проверки гипотез
  • t-тест, доверительные интервалы
Зачем: оценка качества агента = статистическая задача; RAGAS через неделю
📚 langchain-ai.github.io/langgraph/tutorials
Самост.
LangGraph граф для «Задумки по экономике»
  • 📱 Telegram Bot API (впервые, 1 час): pip install aiogram≥3 → bot = Bot(token) → dp = Dispatcher() → @dp.message_handler → dp.start_polling(). Источник: docs.aiogram.dev/en/latest → Quick Start. Зачем: human_review() в графе ниже отправляет вопрос именно через Telegram-бота. Без этого шага Telegram — магия.
  • Написать LangGraph граф (4 узла):
  • → fetch_news() — тянет новость из RSS
  • → evaluate() — LLM оценивает через PydanticAI → NewsItem
  • → human_review() — ПАУЗА, вопрос в Telegram
  • → store_or_reject() — пишет в Qdrant или отклоняет
  • 🔢 3B1B LinAlg (финал): гл.13 «Change of basis» + гл.14 «Eigenvectors and eigenvalues» + гл.16 «Abstract vector spaces» (~25+23 мин). Зачем: PCA = нахождение собственных векторов ковариационной матрицы; гл.16 = функции как векторы — теоретическое завершение LinAlg-блока.
  • 🔢 StatQuest YT: «Neural Networks Pt.1» + «Backpropagation» (~30 мин) — база перед трансформерами. Random Forest Part 1 (~10 мин) — прямо под ProGlib тему 8. Word Embedding and Word2Vec (~15 мин) — зачем: embeddings в RAG = это и есть word embedding идея.
  • 📺 3B1B Neural Networks гл.5–6 (~54 мин): «Transformers, the tech behind LLMs» (~27 мин) + «Attention in transformers, step-by-step» (~27 мин). Смотреть после StatQuest NN, до нед.12. Attention = механика embeddings в RAG — RAGAS на следующей неделе станет понятен изнутри.
  • 📺 ШАД (2 лекции, перенесены с нед.9):
📚 langchain-ai.github.io/langgraph/tutorials + docs.aiogram.dev/en/latest (Quick Start) + StatQuest YouTube (Neural Networks) + 3B1B Neural Networks (гл.5–6) + shad.yandex.ru/agentsweek
Было: MCP, Qdrant, PydanticAI.
Сейчас: все кирпичи готовы. LangGraph = момент сборки. Граф строим именно для «Задумки» — реальный целевой проект, не абстрактный пример.
Про LangChain: LangGraph используется напрямую с PydanticAI — знание классического LangChain не требуется. LCEL (Runnable, chain) понятны из контекста RAG-пайплайна нед.6.
LangGraphГраф состояний для агентов. Узлы (функции) + переходы. Полный контроль: паузы, повторы, ветвления, откат к любому состоянию.
КУРСML ProGlib MLТема 8: Random Forest — бэггинг, важность признаков
КУРСCALC ProGlib Математика AIЗанятие 10: Статистика + t-тест — фундамент под RAGAS следующей недели
  • «Задумка по экономике» v0.1 — живёт!
  • Новость → оценка → Telegram «подтвердить?» → Qdrant
  • Первый рабочий прототип целевого проекта
YTLINAL 3B1B LinAlg гл.13–14Change of basis + Eigenvectors — 25 мин, ключ к PCA
YTDL StatQuest: Neural Networks YTYouTube — «Neural Networks Pt.1» + «Backpropagation» (~30 мин). Зачем: база перед трансформерами и Karpathy
YTDL 3B1B: Transformers + Attention (гл.5–6)~54 мин — после StatQuest NN: attention = механика embeddings, до RAGAS нед.12
BOOKDL StatQuest Neural Networks (B2)гл.7–10: Attention, Transformers
BOOKDL Hands-On ML (C1)гл.10–11: Neural Networks с Keras
YTAI ШАД | Agents Weekshad.yandex.ru/agentsweek — Лек.2: Memory + Лек.3: Workflow на нед.11
MCPLangGraphCrewAI (теория)
68%
25–31 майНеделя 12 ProGlib 25.05
AgentOps + Cost control
  • Langfuse/LangSmith: трейсинг, дашборды
  • RAGAS/DeepEval: автооценка RAG
  • Semantic cache — экономия токенов
  • SLA-алерты при деградации
ProGlib — Курс ML (финал)
Темы 10–11: Кластеризация + PCA/t-SNE
  • Тема 10: K-means, DBSCAN — кластеризация новостей по темам
  • Тема 11: PCA, t-SNE, Isolation Forest — снижение размерности embeddings
  • Тема 9 (бустинг) + Тема 12 (рекосистемы) → нед.13
ProGlib — Курс Математика AI (финал)
Финальный проект: градиентный спуск для предсказания цен
  • Всё изученное за 10 занятий — в одном NumPy-проекте. 🎉 Математика AI завершена!
📚 ProGlib + langfuse.com/docs + docs.ragas.io
Самост.
Langfuse self-hosted + RAGAS первый отчёт
  • Поднять Langfuse через docker-compose (langfuse.com/docs/deployment/self-host)
  • Подключить к LangGraph — трейсы каждого запуска в дашборде
  • RAGAS: оценить RAG на 10 вопросах — faithfulness, answer_relevancy
  • Алерт в Telegram: стоимость за день больше $2 → сообщение
  • n8n: добавить LLM-ноду → пайплайн вызывает Claude для оценки
  • 🔢 Математика (нед.12): 3B1B Neural Networks гл.7 «How might LLMs store facts» (~23 мин) — MLP как key-value хранилище, прямо под RAGAS faithfulness этой недели. StatQuest: Encoder-Only Transformers (BERT) (~15 мин) + PCA Step-by-Step (~22 мин) + t-SNE (~12 мин) — 3 видео, под ProGlib темы 10–11 (PCA/t-SNE).
  • 📺 ШАД (3 лекции — идеально по теме):
📚 langfuse.com/docs + docs.ragas.io/tutorials + docs.n8n.io + shad.yandex.ru/agentsweek
Было: LangGraph работает.
Сейчас: система живёт — нужен мониторинг немедленно. Без Langfuse не знаешь почему агент дал плохой ответ. RAGAS — измеряешь качество, а не угадываешь.
Langfuse (self-hosted)Мониторинг LLM. Каждый шаг агента: вход → выход → стоимость → ошибки. Бесплатно при self-hosted.
RAGASАвтооценка RAG: faithfulness (не галлюцинирует?), answer_relevancy (по делу?), context_precision.
КУРСML ProGlib MLТемы 10–11: Кластеризация K-means + PCA/t-SNE — под RAGAS этой недели
КУРСCALC ProGlib Математика AI (финал)Финальный проект: GD для предсказания цен — 🎉 Математика AI завершена!
  • Langfuse: трейсы всех запусков видны
  • RAGAS: faithfulness больше 0.7 — цель недели
  • n8n с LLM-оценкой работает
BOOKML Hands-On ML (C1)гл.12–13: Custom Models, Preprocessing
YTAI ШАД | Agents Weekshad.yandex.ru/agentsweek — Лек.4: Agent Evaluation + Лек.5.1+5.2: Production Engineering на нед.12
КУРСML ProGlib MLproglib.academy/machine-learning — Темы 10–11: кластеризация, PCA/t-SNE
YTDL StatQuest ML+DL — сводка по неделям 🗼нед.8: SVM Pt.1–3 + Cosine Sim | нед.9: Decision Trees Pt.1 | нед.10: Decision Trees Pt.2 + Naive Bayes | нед.11: Random Forest Pt.1 + Word Embedding | нед.12: BERT + PCA + t-SNE | нед.13: AdaBoost + Gradient Boost + XGBoost + Transformer NN | нед.16–18: PyTorch intro + Coding NN | нед.19–22: Coding ChatGPT-Like Transformer. Макс. 4 видео/нед, не форсировать.
LangGraphLangfuseRAGAS
74%
ФАЗА 2 — БЕЗОПАСНОСТЬ + ДЕПЛОЙ + ДИПЛОМ 1 июня → 18 июня
74 → 84%
Период 🎓 ProGlib 📚 Самостоятельно 💡 Почему сейчас? 🔧 Инструменты 🧪 Проект 📚 Источники 📈 Стек %
1–7 июнНеделя 13 ProGlib 1.06
Безопасность агентов
  • Prompt injection, tool hijacking
  • Docker/E2B sandboxing
  • Guardrails: фильтры и политики
ProGlib 4.06
A2A: агент-агент коммуникация
  • Паттерны межагентного взаимодействия
  • MCP + A2A в одном решении
ProGlib — Курс ML (финал)
Темы 9 + 12: Бустинг + Рекомендательные системы
  • Тема 9: XGBoost, CatBoost, LightGBM — бустинг как итеративная коррекция ошибок
  • Тема 12: Рекомендательные системы — matrix factorization. 🎉 ML курс завершён!
📚 ProGlib + e2b.dev/docs
Самост.
VPS деплой — Ahillary бонус ур.4 (ДОБАВЛЕНО из ahillary_3)
  • Ahillary бонус ур.4: настройка сервера (SSH, nginx, systemd), шифрование данных — пройти полностью
  • Написать Dockerfile для Python-агента
  • Docker Compose: агент + Qdrant + Langfuse — один файл, одна команда
  • Все секреты в .env — никаких ключей в коде
  • Задеплоить на VPS: Hetzner CX21 (€3.9/мес) или DigitalOcean ($6/мес)
  • restart: always — автозапуск при падении
  • 🔢 Математика (нед.13): 3B1B Neural Networks гл.8 «Visualizing attention, a transformer's heart» (~26 мин). StatQuest: AdaBoost (~22 мин) + Gradient Boost Part 1 (~15 мин) + XGBoost Part 1 (~20 мин) — прямо под ProGlib тему 9 (бустинг). Transformer Neural Networks (~36 мин) — «опередить» Karpathy концептуально.
  • 📺 ШАД (2 лекции, max):
📚 Ahillary бонус ур.4 (сервер+шифрование) + docs.docker.com/compose + hetzner.com/cloud + shad.yandex.ru/sreweek
Было: система работает локально.
Сейчас: деплой = разница между «у меня на компе» и «работает всегда». Ahillary бонус ур.4 идеально сюда — перед выходом в интернет: SSH, nginx, шифрование.
Docker ComposeВесь стек одной командой: docker compose up -d. Агент + Qdrant + Langfuse вместе.
VPSСервер 24/7 в интернете. €3.9–6/мес. Hetzner — лучшее соотношение цена/мощь.
КУРСML ProGlib ML (финал)Тема 9: XGBoost/CatBoost + Тема 12: Рекосистемы — 🎉 ML курс завершён!
  • docker compose up -d → вся система на VPS 24/7
  • Guardrail: больше 5 запросов/мин → стоп + алерт в Telegram
BOOKLLM Hands-On LLMs (D1)начать — гл.1–2 введение
YTMLOPS ШАД | SRE Weekshad.yandex.ru/sreweek — Лек.1+2: инфраструктура и диагностика на нед.13
LangfuseDocker ComposeVPS
79%
8–18 июнНед. 14–15 ProGlib 8.06
Дипломный проект ProGlib v1
  • MCP + LangGraph + AgentOps + security — всё вместе
  • «Как в проде»: метрики, бюджеты, воспроизводимость

🎓 Диплом ProGlib: 18.06
Самост.
«Задумка по экономике» v1.0 — полная сборка
  • RAG: 10+ PDF по экономике загружены в Qdrant
  • n8n: 3 источника новостей парсятся по расписанию
  • LangGraph: полный цикл оценки работает
  • Telegram: вопрос → ответ с источником и уверенностью
  • Langfuse: трейсы видны, стоимость под контролем
  • README на GitHub на английском: архитектура, как запустить
  • 🔢 3B1B Neural Networks гл.9 (финал курса): «GPT from scratch» (~26 мин) — смотреть в свободный вечер во время диплом-спринта. Замыкает весь NN-курс 3B1B (гл.1–9). После этого Karpathy «Let's build GPT» в нед.21–22 — уже не магия.
  • 📺 ШАД (фоновый просмотр, перенос с нед.13):
Было: все компоненты работают.
Сейчас: финальная сборка. «Задумка» = дипломный проект ProGlib = первый кейс портфолио. Три в одном.
Весь стек Фаз 0–2Момент синтеза. Всё изученное в одном работающем проекте.
  • «Задумка по экономике» v1.0 — 24/7 на VPS
  • Диплом ProGlib сдан 18.06
  • Первый публичный кейс задокументирован
PDFPROG aiogram — Telegram Botdocs.aiogram.dev — Telegram интеграция уже нужна в v1.0
PDFAI LangGraph docstutorials — полный граф для диплома
VPS
84%
ФАЗА 3 — FINE-TUNING + СПЕЦИАЛИЗАЦИЯ 19 июня → 31 августа (10 недель)
84 → 100%
Период 🎓 ProGlib 📚 Самостоятельно 💡 Почему сейчас? 🔧 Инструменты 🧪 Проект 📚 Источники 📈 Стек %
19 июн–6 июлНед. 16–18 ProGlib (конец июня)
FinOps: оптимизация затрат
  • Semantic cache / prefix caching
  • Model routing: дешёвая→дорогая модель
  • Атрибуция стоимости по фичам
  • Алерты при аномалиях стоимости
📚 ProGlib + gptcache.readthedocs.io
Самост.
vLLM (local inference) + Fine-tuning ТЕОРИЯ (читать)
  • pip install vllm → запустить Mistral 7B или Qwen2.5 7B локально
  • ⚠ vLLM требует NVIDIA GPU. Без GPU — использовать Ollama как fallback: те же эксперименты с качеством/latency, другой сервер.
  • Подключить к LangGraph вместо Claude API для тестов
  • Замерить: качество vs стоимость vs latency — записать в таблицу
  • GGUF (CPU-квантование) vs AWQ (GPU-квантование) — разобрать разницу. Numerical precision: fp16, bf16, int8, int4 — что стоит за цифрами (20 мин)
  • Inference Optimization: метрики latency (TTFT, TPOT), batching стратегии, compute vs memory-bound — vllm.readthedocs.io serving/openai_compatible_server
  • HuggingFace LLM Course гл.3–6: fine-tuning теория + Datasets + Tokenizers — дочитать то что читали в нед.5–6, теперь с пониманием практики
  • Chemometrics PDF гл.1–3: базовая статистика для аналитической химии
  • 📺 ШАД (3 лекции, растянуть на 3 недели):
  • 🔥 PyTorch ПРАКТИКА (обязательно перед июльским LoRA!):
    • StatQuest YT (4 видео): «PyTorch for Deep Learning» intro (~22 мин) + «Coding a Neural Network in PyTorch» (~25 мин) + «RLHF» (~19 мин). Смотреть до кода — концептуальная основа.
    • StatQuest Neural Networks (B2) гл.4–7: запускать код! Tensor операции, forward pass, обратное распространение с autograd — не читать, а набирать и смотреть что происходит.
    • Karpathy micrograd (github.com/karpathy/micrograd): 150 строк, автодифференцирование с нуля — читать и разбирать. Зачем: после этого LoRA в июле не магия.
    • Цель: к концу нед.18 уметь написать простую нейросеть на PyTorch без помощи туториала.
📚 vllm.readthedocs.io + huggingface.co/learn/llm-course (гл.3-6 дочитать) + Chemometrics PDF (гл.1-3) + github.com/karpathy/micrograd + StatQuest YT (PyTorch+RLHF) + StatQuest B2 (гл.4-7, запускать код) + shad.yandex.ru/llmscalingweek (Тема 1+5) + shad.yandex.ru/gptweek (Лек.6)
Было: диплом сдан, система на проде.
Сейчас: оптимизируем стоимость — реальные деньги тратятся. vLLM учит что отдать дешёвой 7B, что — Claude. Fine-tuning теория читается сейчас — к августу готовы к практике.
vLLMHigh-performance сервер для локальных моделей. Альтернатива Claude API когда хватает качества 7B.
Semantic CacheПохожий вопрос задавался → из кэша без LLM. Экономия 30–40% токенов.
  • Semantic cache в проекте: измерить экономию за неделю в Langfuse
  • Первые PCA-эксперименты на хроматографических данных (sklearn)
BOOKAI AI Engineering (D2)Chip Huyen книга — начать читать
BOOKLLM Hands-On LLMs (D1)гл.3–5: embeddings, text generation
PDFCHEM Chemometrics PDFгл.1–3 — статистика для хим. данных (файл в проекте)
PDFLINAL MML Book гл.10–12mml-book.github.io — Dimensionality Reduction
YTDL 3B1B: How LLMs store facts (гл.7)~23 мин — перед LoRA fine-tuning: понимание механики MLP как key-value хранилища
vLLMSemantic Cache
87%
7–31 июлНед. 19–22 ProGlib (30 июл)
Security углублённо
  • Prompt injection: типы атак, защиты
  • DLP: фильтрация PII и секретов
  • RBAC: scoped tokens, kill switch
  • Red teaming: атаковать своего агента
ProGlib (нач. авг)
Infrastructure углублённо
  • Streaming / WebSockets
  • Queue-based архитектура
  • Code sandboxing (E2B)
📚 ProGlib + e2b.dev/docs
Самост.
Fine-tuning ПРАКТИКА (LoRA/QLoRA) + специализация химия
  • pip install peft transformers datasets accelerate
  • Взять небольшую модель: gemma-2b или phi-3-mini
  • LoRA fine-tuning на 100–200 своих Q&A парах (химия или экономика)
  • Сравнить base vs fine-tuned на 10 тестовых вопросах — оформить как эксперимент
  • Chemometrics гл.4–6: PCA, PLS, cluster analysis. PLS (Partial Least Squares): читать как специальный случай регрессии — Y = X·β в пространстве латентных переменных. MML Book гл.10 (Dimensionality Reduction) — сначала понять PCA, затем PLS как его supervised-аналог. Без этого глава по PLS будет туманной.
  • sklearn Pipeline: PCA → классификатор на хроматографических данных CSV
  • MCP-инструмент: analyze_chromatogram(file_path) → интерпретация пиков
  • HF LLM Course гл.7 + гл.11: NLP tasks (гл.7) — NER, Q&A; Fine-tune LLMs (гл.11) — LoRA + PEFT с trl. Прямо под задачу LoRA/QLoRA этих недель. Запускать код!
  • 📺 3B1B NN + StatQuest + Karpathy (обязательный порядок):
    • 3B1B Neural Networks гл.5–9 уже просмотрены в нед.11–15. Напомнить себе гл.8–9 («Attention» + «GPT from scratch») — 10 мин. Гл.1–4 просмотрены в нед.8–10.
    • StatQuest YT: «Coding a ChatGPT-Like Transformer from Scratch» (~31 мин) — смотреть перед Karpathy, закрепляет архитектуру без глубокого кода.
    • Andrej Karpathy: Let's build GPT — PyTorch с нуля. Смотреть после 3B1B и micrograd (нед.16–18). Цель: понять как работает трансформер изнутри до LoRA.
📚 huggingface.co/docs/peft + Chemometrics PDF (гл.4-6) + huggingface.co/learn/nlp-course + 3B1B Neural Networks гл.5–9 (гл.1–4 просмотрены в нед.8–10) + StatQuest Coding ChatGPT-Like Transformer + Karpathy YouTube
Было: vLLM, fine-tuning теория прочитана.
Сейчас: первый fine-tuning эксперимент — не для прода, для понимания изнутри. Специализация по химии — оформляем в рабочий код — это уникальное конкурентное преимущество.
PEFT / LoRAFine-tuning больших моделей с минимальными ресурсами. LoRA = адаптерные матрицы — обучать можно на Colab бесплатно.
HuggingFace transformers + datasetsЗапуск и дообучение моделей. datasets = готовые датасеты или свои данные.
  • Fine-tuning: base vs LoRA — разница задокументирована в README
  • AI-инструмент для хроматографии: CSV → агент → интерпретация пиков — прототип работает
BOOKDL Hands-On ML (C1)гл.15–17: Sequences, Attention, Transformers
PDFPROG PyTorch Tutorials (официальные)pytorch.org/tutorials — Basics: Tensors, Autograd, Training Loop. Справочник при ступоре в LoRA.
PDFCHEM Chemometrics PDFгл.4–6: PCA, PLS, Cluster Analysis (файл в проекте)
YTCHEM StatQuest: PCA Step-by-StepYouTube — поиск "PCA StatQuest"
PDFLLM HF LLM Course гл.7 + гл.11llm-course — NLP tasks + Fine-tune LLMs (LoRA, PEFT, trl) — запускать код!
YTDL StatQuest: Coding a ChatGPT-Like Transformer (~31 мин)YouTube — смотреть перед Karpathy «Let's build GPT». Гл.1–9 3B1B NN просмотрены ранее (нед.8–15).
YTDL Andrej Karpathy: Let's build GPTYouTube — PyTorch с нуля, нед.21–22
vLLMPEFT/LoRAtransformersChemometrics ML
92%
1–20 авгНед. 23–26 ProGlib 6.08 Local Inference углублённо
ProGlib 10.08 Governance & Compliance
ProGlib 17.08 Enterprise MCP + Human approvals
ProGlib 20.08 Capstone: нагрузочное тест., red teaming, Go/No-Go
📚 ProGlib + locust.io
Самост.
OpenClaw + финальный спринт портфолио
  • OpenClaw на VPS: установить, подключить к Telegram, написать первый skill.md. Источник: openclaw.ai → Docs → Getting Started (убедиться что страница жива, иначе — github.com поиск openclaw)
  • Fallback если openclaw.ai недоступен: Claude Code + systemd cron + Telegram webhook — аналогичный результат персонального агента 24/7.
  • Release Engineering: версионирование промптов через git tags
  • A/B тест промптов: 2 варианта оценки → выбрать лучший через RAGAS
  • Кастомный MCP-сервер для хроматографии — публичный GitHub
  • GitHub: 2 публичных репо + README + схема архитектуры + демо-видео (Loom)
  • LinkedIn на английском: «AI Engineer | AI Integration for Analytical Chemistry»
  • 2 кейса: «проблема → решение → результат» → LinkedIn post
  • HF LLM Course гл.10: Curate high-quality datasets — как собрать и разметить данные для fine-tuning. Прямо под A/B тест промптов и Release Engineering этих недель.
  • 📺 ШАД (A/B Week финал):
📚 openclaw.ai + docs.anthropic.com/claude-code + loom.com + shad.yandex.ru/abweek (Лек.3+4+5)
Было: оба проекта работают.
Сейчас: упаковать в портфолио. AI-инженер без публичного кода — невидимка. Два репо + LinkedIn + кейсы = рыночная видимость.
OpenClawПерсональный AI-агент 24/7. Telegram → агент выполняет задачи. Всегда онлайн.
Release EngineeringВерсионирование промптов, A/B тесты в проде, rollback при деградации.
  • Кейс 1: Экономический агент — RAG + LangGraph + n8n + Telegram
  • Кейс 2: AI-инструмент для хроматографии — MCP + sklearn + HuggingFace
  • Оба на VPS, задокументированы, ссылки в LinkedIn
BOOKLLM Hands-On LLMs (D1)финальные главы: fine-tuning, deployment
BOOKML 100-Page ML Book (C2)справочник — быстрое освежение
PDFLLM HF LLM Course гл.10llm-course — Curate datasets для fine-tuning
PEFT/LoRAOpenClawRelease Eng.
97%
21–31 авгФИНАЛ ProGlib 31.08
🎓 Диплом Capstone
  • Список компаний: фармацевтика, нефтехимия, промышленная аналитика — кто платит за AI
  • Первые холодные контакты в LinkedIn (на английском)
  • Оформить Upwork профиль: AI Engineer for Scientific Analytics
Итог: ты готов к выходу на рынок.
✅ К 1 сентября: AI Engineer — рабочие кейсы, fine-tuning понимание, специализация, GitHub, LinkedIn. Готов к коммерции.
PROG Upwork Getting Startedupwork.com — оформление профиля AI Engineer
PROG LinkedIn profile guidelinkedin.com/help — оптимизация профиля для найма в AI/ML нише
Весь стек
100%
ОСЕНЬ–ДЕКАБРЬ 2026 — ПРОДВИНУТЫЙ УРОВЕНЬ + КОММЕРЦИЯ 1 сентября → 1 января 2027

Сентябрь 2026 — Математика для ML + Продвинутый Fine-tuning

Что изучаешь (по неделям)
  • Нед.1 (1–7 сент): Stepik «Математика для анализа данных» — закрыть пробелы по линалу и теорверу: stepik.org/course/95. Внимание: к сентябрю 3B1B + Math AI уже пройдены — использовать Stepik как ревизию, не повтор. Если тема уже ясна — пропускать.
  • Нед.2 (8–14 сент): fast.ai «Practical Deep Learning for Coders» — урок 1–3 (fast.ai/courses). Практика первой — без этого LoRA и QLoRA не становятся интуитивными.
  • Нед.3 (15–21 сент): QLoRA на Google Colab: дообучить Llama 3.1 8B на своих Q&A данных (химия или экономика) → опубликовать на HuggingFace Hub. HF LLM Course гл.12: Build Reasoning Models (DeepSeek R1-style, GRPO) — к сентябрю есть база LoRA из июля.
  • Нед.4 (22–30 сент): DPO (Direct Preference Optimization) — прочитать arxiv.org/abs/2305.18290. Сравнение: base vs LoRA vs QLoRA — оформить как эксперимент/статью на GitHub. Начало Проекта 3: AI-агент для автоматизации лабораторной отчётности.
📚 stepik.org/course/95 + fast.ai + huggingface.co/learn/llm-course + colab.research.google.com
Что строишь
  • Дообученная модель для классификации химических соединений → опубликовать на HuggingFace Hub
  • Сравнение: base vs LoRA vs QLoRA — оформить как эксперимент/статью на GitHub
  • Начало Проекта 3: AI-агент для автоматизации лабораторной отчётности
Почему сейчас
После августа — фундамент AI-систем есть. Сентябрь — закрываем математические пробелы и переходим от «запускаю fine-tuning» к «понимаю что происходит внутри». Публикация модели на HF Hub = первый вклад в open-source = репутация в сообществе.

Октябрь 2026 — Продвинутые паттерны + Первые коммерческие проекты

Что изучаешь (по неделям)
  • Нед.1 (1–7 окт): SQL основы (2–3 часа, обязательно первым делом): mode.com/sql-tutorial или Khan Academy SQL — SELECT, WHERE, JOIN, GROUP BY, CREATE/INSERT. Без этого «PostgreSQL для разработчиков» будет сложно. Один вечер, не курс. Затем: Stepik «PostgreSQL для разработчиков» — переход с SQLite на Postgres для продакшн БД.
  • Нед.2 (8–14 окт): Udemy: «LangChain & Vector Databases in Production» (Activeloop) — продакшн RAG с реальными кейсами. Паттерны: Reflection, Plan-and-Execute, Corrective RAG, Self-RAG — stateful агенты нового уровня. D2 «AI Engineering» (Chip Huyen книга) — основная читка: по 1 главе в вечер параллельно с Udemy. Начать с гл.1 (системная архитектура) → гл.2 (evaluation) — прямо под паттерны этой недели.
  • Нед.3 (15–21 окт): DeepEval, Phoenix (Arize) — сравнить с RAGAS, выбрать лучший оценочный инструмент. Corrective RAG поверх «Задумки по экономике» — агент сам проверяет качество своего ответа.
  • Нед.4 (22–31 окт): Kubernetes основы: Pod, Deployment, Service — понимание, не продакшн ещё (k8s.io/docs). Первый коммерческий проект: реальная компания (LinkedIn / знакомые / холодные обращения) → автоматизация одного процесса → коммерческий договор.
📚 mode.com/sql-tutorial + udemy.com + arxiv.org/abs/2310.11511 (Corrective RAG) + stepik.org + k8s.io/docs
Что строишь
  • Corrective RAG поверх «Задумки по экономике» — агент сам проверяет качество своего ответа
  • Проект 3 (продолжение): PDF входит → структурированный лабораторный отчёт выходит
  • Первый коммерческий проект: реальная компания → автоматизация одного процесса → документированный кейс для портфолио
Почему сейчас
Октябрь — время искать первых клиентов и монетизировать навыки. Стек есть, кейсы есть. Первый коммерческий проект — важнее следующего курса. LinkedIn + холодные обращения + знакомые — три канала поиска. LinkedIn заявки на AI-специалистов в фармацевтике и химии уже есть; видимость на платформе — ключ к ним. Corrective RAG — клиенты требуют надёжности. PostgreSQL — SQLite не масштабируется.

Ноябрь 2026 — Multimodal + MLOps + Второй коммерческий проект

Что изучаешь (по неделям)
  • Нед.1 (1–7 ноя): Multimodal агенты: Claude Vision API → анализ изображений спектров и хроматограмм. HuggingFace Audio Course (huggingface.co/learn/audio-course) — обработка спектров в виде аудиоданных. Прототип: изображение хроматограммы → Claude Vision → интерпретация + числа.
  • Нед.2 (8–14 ноя): Stepik «MLOps: от модели к продукту» — CI/CD для ML, автоматическое переобучение. MLOps pipeline: автоматическое переобучение модели при новых данных.
  • Нед.3 (15–21 ноя): GraphRAG (Microsoft, github.com/microsoft/graphrag) — более мощный RAG для связанных сущностей (компании-персоны-события). Применить к экономическому агенту. «Designing Machine Learning Systems» (Chip Huyen) — читать онлайн бесплатно, по главе в неделю.
  • Нед.4 (22–30 ноя): User Feedback Integration: feedback loops, data flywheels, human-in-the-loop как осознанный паттерн (Chip Huyen гл. про feedback). Второй коммерческий проект (продолжение или новый клиент). LinkedIn: 10+ постов за осень о проделанной работе, специализации, lessons learned.
📚 huggingface.co/learn/audio-course + stepik.org + github.com/microsoft/graphrag + huyenchip.com/book
Что строишь
  • Multimodal агент: изображение хроматограммы → Claude Vision → интерпретация + числа
  • MLOps pipeline: автоматическое переобучение модели при новых данных
  • GraphRAG для экономического агента: связи компании-персоны-события
  • Второй коммерческий проект (продолжение или новый клиент)
Почему сейчас
Мультимодальность открывает химические данные как картинки (спектры, хроматограммы — это изображения). MLOps — клиенты хотят чтобы «обновлялось само». GraphRAG мощнее для связанных данных в экономике.

Декабрь 2026 — Итоговые проекты + Позиционирование + План на 2027

Что изучаешь (по неделям)
  • Нед.1 (1–7 дек): Kubernetes продвинутый: автомасштабирование, rolling updates — для продакшн деплоя. D3 «GenAI System Design» (ByteByteGo) — читать параллельно: как объяснять архитектуру систем на клиентских встречах. По 1 главе в день.
  • Нед.2 (8–14 дек): D4 «Practical MLOps» — читать ключевые главы: CI/CD для ML, model versioning, monitoring. Проект 4: полный MLOps pipeline — данные → fine-tuning → деплой → мониторинг → автообновление. D4 читается прямо под проект.
  • Нед.3 (15–21 дек): Anthropic API: новые возможности за осень — docs.anthropic.com. Habit навсегда: arxiv.org — 1 статья в неделю по агентам / fine-tuning / RAG (начало привычки). AI Alignment: anthropic.com/research — понять позицию лидера рынка.
  • Нед.4 (22–31 дек): Статья на Habr (рус.) или Medium (eng.) — «Как построил AI-систему для аналитической химии за 9 месяцев». GitHub: 4 публичных репозитория. LinkedIn: активная подписка на рост (500+ связей в нише, регулярные посты). Список потенциальных клиентов / партнёров на Q1 2027.
Что строишь / публикуешь
  • Проект 4: полный MLOps pipeline — данные → fine-tuning → деплой → мониторинг → автообновление
  • Статья: Habr (рус.) или Medium (eng.) — «Как построил AI-систему для аналитической химии за 9 месяцев»
  • GitHub: 4 публичных репозитория, документация на английском
  • LinkedIn: 10+ постов за осень, 500+ связей, видимость в нише
  • Портфолио: 2–3 задокументированных проекта, готовых к презентации клиентам
Цель к 1.01.2027
Технически: full-stack AI engineer — от fine-tuning до продакшн деплоя с MLOps.

Коммерчески: 1–2 коммерческих проекта на портфолио, практика работы с реальными клиентами.

Репутационно: LinkedIn (10+ постов, 500+ связей в нише) + GitHub (4 репозитория) + публикация на Habr/Medium = видимость на рынке.

К 2027–2028: при развитии специализации (AI + аналитическая химия) → удалённые контракты и собственные проекты.
📦 Полный стек к 1 января 2027

Инфра и среда

Python 3.10+, Git (ветки, PR, tags), Docker + Compose, VPS Linux (SSH, nginx), venv, .env, Node.js, PostgreSQL (осень)

Инструменты разработки

Claude Code (CLI, основной), VS Code, Playwright (web automation), asyncio, Loguru (логирование)

AI-оркестрация агентов

LangGraph (граф состояний), PydanticAI (типизация), LangChain, CrewAI (теория), MCP (свои серверы), LangFlow (прототипы)

RAG и память

Qdrant (продакшн), ChromaDB (прототипы), LlamaIndex, GraphRAG (осень), Corrective RAG, Self-RAG, parent retrieval

Локальные модели

Ollama, vLLM, HuggingFace Hub, GGUF (CPU-квантование), AWQ (GPU-квантование), OpenClaw (персональный агент)

Fine-tuning (август–осень)

PEFT/LoRA, QLoRA (Colab), HuggingFace transformers + datasets + accelerate, DPO (теория), публикация на HF Hub

Автоматизация и интеграции

n8n (пайплайны), MCP (стандарт), Playwright, Telegram Bot API, Webhooks, A2A

Мониторинг и качество

Langfuse (self-hosted), LangSmith, RAGAS, DeepEval, RAGAS A/B-тест, Semantic Cache, Cost dashboard

Данные и классический ML

pandas, NumPy, matplotlib, seaborn, plotly, scikit-learn, yfinance, BeautifulSoup4

MLOps (декабрь)

CI/CD для ML, автопереобучение, Kubernetes основы, rolling deploys, Model versioning

🎯 Специализация (уникальная ниша)

Chemometrics: PCA, PLS, cluster analysis. Анализ хроматограмм через ML. Multimodal: Vision API для спектров. AI для аналитической химии — ниша почти пустая.

❌ Не тратить время

Cursor (фронтенд-IDE), AutoGen (LangGraph лучше), Solidity/Aptos/Twitter-боты (Ahillary бонус — пропустить полностью), web3/крипто, Kubernetes до декабря
Реализуемость: при 3–4 ч/день без пропусков. Через 6 месяцев ты строишь рабочие агентные системы: RAG, LangGraph, MCP, деплой, мониторинг.

Специализация AI + аналитическая химия — ниша почти пустая. Фармацевтика, нефтехимия, промышленная аналитика — активно ищут AI-специалистов. Два рабочих кейса + LinkedIn к январю 2027 создают условия для удалённых контрактов и собственных проектов.

К 2027–2028 с этим стеком ты попадаешь в 5% специалистов по AI-интеграции для hard science отраслей. Пустая ниша + правильный стек = несимметричное преимущество. При развитии портфолио реалистично рассчитывать на $5–15k/мес удалённо, плюс собственные проекты.
⚠ Риск 1 — Темп: ProGlib 2–3 занятия/нед + самостоятельная программа параллельно — плотно. Если ProGlib отстаёт — самостоятельное НЕ режешь. Режешь время на ProGlib.
⚠ Риск 2 — Fine-tuning: Глубокий fine-tuning за 6 мес при текущем уровне нереален. Теория — с апреля. Базовый LoRA эксперимент — август. Полноценно — осень. Так и запланировано.
⚠ Риск 3 — Выгорание: 180 дней подряд по 3–4 ч — физиология. Реши заранее: 1–2 тихих дня в месяц. Это управление ресурсами, не слабость.
⚠ Риск 4 — Монетизация: Первые коммерческие проекты в октябре–ноябре опираются на реальный спрос. LinkedIn + GitHub создают видимость, но требуют постоянного наполнения. Стабильный доход зависит от качества портфолио и способности находить и удерживать клиентов.
⏱ Правила продуктивного дня
Блок 1 (1–1.5 ч): Курс ProGlib — лекция или задание. Без параллельных вкладок.
Блок 2 (1.5–2 ч): Самостоятельная практика по плану недели. Пишешь, запускаешь, ломаешь, чинишь. Claude Code помогает — но каждую строчку объясняешь себе вслух или пишешь 1–2 строки в дневнике.
Блок 3 (20–30 мин): 1 git commit + 3–5 строк: что сделал, что непонятно, что завтра.

Правило понимания: Можешь объяснить за 2 минуты голосом — что сделал и почему именно так? Нет → не двигаешься дальше.

Из Ahillary берёшь: ООП (ур.8), async (ур.9), парсинг (ур.7), базы данных (доп. ур.5), Playwright (доп. ур.4), Git (бонус ур.1 — ДОБАВЛЕНО в v3), сервер+шифрование (бонус ур.4 — ДОБАВЛЕНО в v3), Pydantic (архив ур.2 — только Pydantic-раздел), RAG ур.2/3/5/6.

HuggingFace LLM Course (huggingface.co/learn/llm-course): гл.1–2 (нед.4, читать) → гл.3–4 (нед.5–6, читать при наличии времени — нед.5 перегружена, можно перенести на нед.6) → гл.5–6 (нед.6–7, читать) → гл.7+11 (июль, запускать код!) → гл.10 (август) → гл.12 (сентябрь). Гл.8 и 9 — пропустить.

Математика (недели 2–8): 20–30 мин/день — 3Blue1Brown (линал + calculus) и StatQuest YouTube (статистика). Не отдельным блоком — вечером перед сном или в перерыве. К неделе 6 у тебя будет концептуальная база для понимания ML изнутри.

3B1B + StatQuest правило (недели 8–22): Буфер: 1–2 «тихих» дня в месяц без обязательств. Это управление ресурсами.
📚 БИБЛИОТЕКА ИСТОЧНИКОВ — ПОЛНЫЙ КАТАЛОГ
📖 ПРАВИЛЬНЫЙ ПОРЯДОК — не нарушать:
① МАРТ–МАЙ (параллельно с курсом) → 3B1B LinAlg + Calculus + StatQuest Statistics YT
② АПР–ИЮЛЬ → StatQuest ML YT (SVM→DT→RF→XGBoost, по темам недели) + Hands-On ML Géron (C1, по главам)
③ МАЙ–АВГ → StatQuest Neural Networks & AI (B2) + HuggingFace NLP Course
④ ИЮЛЬ → Karpathy "Let's build GPT" YT (нед.21–22, после 3B1B гл.1–9 + StatQuest ChatGPT Transformer)
④ АВГ–СЕНТ → Hands-On LLMs (D1)
⑤ СЕНТ–ОКТ → AI Engineering книга Chip Huyen (D2) — только после D1 и мат.базы!
⑥ НОЯ–ДЕК → GenAI System Design ByteByteGo (D3) + Practical MLOps (D4)

🔢 МАТЕМАТИКА — фундамент (март–май, 20 мин/день)

Смотреть параллельно с курсом. Не читать подряд — по 2–3 видео в неделю, строго в порядке.

Линейная алгебра

YTLINAL 3Blue1Brown — Essence of Linear Algebra 15 видео, бесплатно, ~10–15 мин каждое.
Лучший визуальный линал. Покрывает всё нужное для ML.
Нед.2: гл.1–3 (Vectors, Transformations) · Нед.3: гл.4–8 (Matrix mult, Determinant, Inverse) · Нед.4–5: гл.9–12 · Нед.6: гл.13–15 (Eigenvalues → это PCA)
→ YouTube плейлист
Сравнение: единственный топовый ресурс по линалу такого качества. MML Book — академический справочник, но не для первого знакомства.
PDFLINAL Mathematics for Machine Learning — eBook (справочник) Бесплатно PDF. Академический. Линейная алгебра, Calculus, теорвер для ML.
НЕ читать подряд — открывать при конкретном ступоре.
Полезные главы: гл.2 (LinAlg recap, нед.5), гл.5–6 (Vector spaces, нед.8), гл.7 (Optimization, нед.10), гл.10–12 (Dimensionality Reduction, июнь).
→ mml-book.github.io
Сравнение: 3B1B — для понимания, MML Book — для доказательств и формул. Используй вместе: сначала 3B1B, потом MML если хочется глубже.

Calculus

YTCALC 3Blue1Brown — Essence of Calculus 12 видео, бесплатно, ~10–15 мин каждое.
Нед.4: гл.1–5 (Derivatives, Chain Rule, Gradient интуиция) · Нед.5–6: гл.6–9 (Gradient Descent → как учится LinearRegression) · Нед.7: гл.10 «e и натуральный логарифм» + гл.11 «Integration» + гл.12 «Differentiation через limits» · Нед.8: гл.13 «Higher derivatives» + гл.14 «Taylor series»
→ YouTube плейлист
Сравнение: единственный нужный ресурс по calculus для ML. MML Book гл.5–7 — если нужны формальные определения.
PDFLINAL MML Book гл.5–7 — Calculus + Optimization Справочник. Гл.5: Vector calculus. Гл.6: Probability. Гл.7: Continuous Optimization (SGD, momentum).
Открывать при ступоре на нед.10+ (MCP, fine-tuning теория).
→ mml-book.github.io
Сравнение: 3B1B даёт интуицию, MML Book даёт формальный аппарат. MML нужен если идёшь глубже в теорию, 3B1B достаточно для практики AI Engineer.

Статистика и теорвер

YTSTATS StatQuest — Statistics Fundamentals плейлист Бесплатно. Гистограммы, Mean/Variance, Distributions, p-values, Bayes, MLE.
Нед.3–5: смотреть по теме недели (нед.5 — ROC/AUC/Confusion Matrix прямо с тем что учишь в ProGlib).
→ @StatQuest YouTube
Сравнение: StatQuest YT — самый быстрый старт. StatQuest Statistics книга (B3) — то же самое + Python примеры + более полно. ISLP — академически строже, на сентябрь.
BOOKSTATS StatQuest — Illustrated Guide to Statistics (B3) Josh Starmer. 319 стр. Python + R примеры. Иллюстрированный.
Histograms → Probability Distributions → Hypothesis Testing → p-values → Regression → t-tests → Power Analysis.
→ StatQuest.org/store
Сравнение: лучше чем ISLP для старта — проще, с картинками. ISLP строже, ISLP в сентябрь. B3 — если хочешь книгу под руку с апреля.

🧬 КЛАССИЧЕСКИЙ ML (апрель–август)

StatQuest ML YT плейлист заменил книгу B1 в недельных планах (апрель–июль). B1 книга — опциональный справочник. Géron C1 остаётся основным кодовым ресурсом.

BOOKML StatQuest — Illustrated Guide to ML (B1) [заменена YT плейлистом] Josh Starmer. 305 стр. Иллюстрированный. Без воды.
ML Fundamentals → Cross Validation → Statistics → Linear Regression → Gradient Descent → Logistic Regression → Naive Bayes → Model Assessment → Regularization → Decision Trees → SVM → Neural Networks.
В недельных планах заменена на StatQuest ML YT плейлист (@StatQuest). Книга опциональна — покупать не нужно, YouTube охватывает те же темы бесплатно.
→ Gumroad (автор) · → Amazon
Сравнение: заменена YT плейлистом, который охватывает те же темы по неделям (нед.8–13). Géron C1 остаётся основным кодовым ресурсом.
BOOKML Hands-On ML (Géron, C1) ⭐ ОСОБО РЕКОМЕНДОВАНА Aurélien Géron. 3-е изд., O'Reilly. Весь ML pipeline от данных до деплоя. TF синтаксис, концепции универсальны.
Гл.1 (нед.4) → гл.2–4 (нед.6) → гл.5–8 (нед.7–8) → гл.10–13 (нед.11–12) → гл.15–17 (июль).
→ amzn.to/4l4veCZ
Сравнение: самая полная практическая книга по ML. B1 (StatQuest) проще, C2 (100-Page) компактнее, ISLP строже. C1 — основная на апрель–июль.
BOOKML The Hundred-Page ML Book (C2) Компактный справочник. Весь ML за ~150 стр. Читать быстро как обзор.
→ amzn.to/3FNAzzN
Сравнение: не замена C1, а дополнение. C1 глубокий и с кодом, C2 — быстрое освежение. Использовать в августе перед портфолио.
PDFML ISLP — Intro to Statistical Learning (Python, C3) Бесплатно PDF. Академически строгий. Python-версия. Regression, Classification, Trees, SVM, Deep Learning.
→ statlearning.com
Сравнение: строже чем StatQuest, проще чем Elements of Statistical Learning (который скипаем). Использовать в сентябре для углубления теории когда уже есть практика.

🧠 DEEP LEARNING — нейросети и трансформеры (май–сентябрь)

Читать после StatQuest ML YT (нед.8–13). PyTorch — не TensorFlow.

BOOKDL StatQuest — Neural Networks & AI (B2) ⭐ Josh Starmer. 363 стр. Примеры на PyTorch.
Backpropagation → Attention → Transformers → hands-on PyTorch.
Нед.8–12: читать по главам. Август: финальные главы под fine-tuning.
StatQuest-store/" target="_blank">→ StatQuest.org/store · → Amazon
Сравнение: лучше Géron гл.10–11 для первого понимания нейросетей — проще и на PyTorch. Karpathy глубже и с нуля строит GPT. Порядок: B2 → Karpathy.
YTDL Andrej Karpathy — "Let's build GPT" + "Intro to LLMs" PyTorch трансформер с нуля. Один из лучших материалов по нейросетям в мире.
"Intro to LLMs" (1 час) — сначала. "Let's build GPT" — после B2.
→ @AndrejKarpathy
Сравнение: Karpathy — практика с нуля. B2 (StatQuest) — теория с картинками. 3B1B Neural Networks плейлист — интуиция. Все три дополняют друг друга.
YTDL 3Blue1Brown — Neural Networks плейлист 8 видео. Расставлены по неделям — не смотреть подряд.
Нед.8: «Large Language Models explained briefly» (~8 мин) — карта LLM перед углублённым RAG/Qdrant
Нед.11: Гл.5 «Transformers, the tech behind LLMs» (~27 мин) + Гл.6 «Attention in transformers, step-by-step» (~27 мин) — под LangGraph + StatQuest B2 гл.7-10
Нед.16–18: Гл.7 «How might LLMs store facts» (~23 мин) — перед fine-tuning теорией, понимание механики LoRA
Нед.19–20: Гл.1 «But what is a neural network?» (~19 мин) + Гл.2 «Gradient descent» (~21 мин) + Гл.3 «Backpropagation, intuitively» (~13 мин) + Гл.4 «Backpropagation calculus» (~10 мин) — до Karpathy (нед.21–22)
Пропустить: Guest video Welch Labs (генерация изображений) — не в специализации.
→ Neural Networks плейлист
Сравнение: самое чистое визуальное объяснение backprop и трансформеров. Короче StatQuest. Расставлен по неделям чтобы каждое видео попадало точно в тему момента.
YTDL PyTorch Tutorials (официальные) Практика PyTorch. Старт с августа параллельно с LoRA.
→ pytorch.org/tutorials
Сравнение: официальные доки хороши для справки. B2 (StatQuest) лучше для первого понимания PyTorch концепций. Используй вместе.

🤖 AI ENGINEERING — LLM и продакшн (август–декабрь)

Читать строго в указанном порядке. Chip Huyen книга — последней.

BOOKLLM Hands-On Large Language Models (D1) Практика LLM end-to-end: embeddings, fine-tuning, deployment.
Старт нед.13, основная читка нед.16–23.
Читать ДО книги Chip Huyen (D2).
→ amzn.to/4kGW0ld
Сравнение: более практичный чем D2. D2 — системный взгляд на архитектуру. D1 сначала — строишь руками, D2 — понимаешь зачем.
BOOKAI AI Engineering — Chip Huyen (D2) Продакшн AI системы. RAG, fine-tuning, evaluation, inference, архитектура.
⚠️ Читать ПОСЛЕ D1 + твёрдой базы Python + ML.
Старт нед.16, основная читка сентябрь–октябрь.
→ amzn.to/3Zy737M
Сравнение: самая полная книга по AI Engineering на 2025–2026. D1 = практика, D2 = архитектура и системное мышление. Видео-обзор (76 мин) = карта перед чтением.
BOOKAI GenAI System Design Interview (ByteByteGo, D3) Ali Aminian & Hao Sheng. System design для production AI. Позиционирование на рынке.
Ноябрь–декабрь.
Сравнение: D2 = как строить системы, D3 = как объяснять их на интервью и клиентам. Взаимодополняют.
PDFLLM HuggingFace LLM Course (бывший NLP Course) Бесплатно. 12 глав. Трансформеры → fine-tuning → LLM techniques.
Переименован из "NLP Course" в "LLM Course" в 2025 — добавлены гл.10–12.
Когда читать по главам:
Гл.1–2: нед.4 (читать, не кодить — нет базы DL)
Гл.3–4: нед.5–6 (читать теорию fine-tuning — нед.5 перегружена, при нехватке времени сдвинуть на нед.6)
Гл.5–6: нед.6–7 (Datasets + Tokenizers — читать)
Гл.7 + 11: нед.19–22 (июль) — запускать код! NLP tasks + LoRA/PEFT с trl
Гл.10: нед.23–26 (август) — curate datasets для fine-tuning
Гл.12: сентябрь — reasoning models (DeepSeek R1-style)
Гл.8, 9: пропустить (форумы и Gradio — не приоритет)
→ huggingface.co/learn/llm-course
Сравнение: D1 (Hands-On LLMs) — книга с кодом, D2 (Chip Huyen) — архитектура. HF Course — официальные доки в форме курса. Используй все три: HF Course = как пользоваться библиотеками, D1 = строишь руками, D2 = понимаешь зачем.

⚙️ MLOPS — деплой и мониторинг (декабрь)

BOOKMLOPS Practical MLOps (O'Reilly, D4) CI/CD для ML, автопереобучение, мониторинг моделей в проде.
Декабрь — когда уже есть опыт с деплоем на VPS и Langfuse.
→ amzn.to/44hTn3q
Сравнение: единственная книга по MLOps в списке. Хорошо дополняет практику деплоя из нед.13.
YTDL fast.ai — Practical Deep Learning for Coders Бесплатно. Практика первая, теория потом. Альтернативный путь к DL.
Сентябрь — как альтернатива если B2 (StatQuest) не зашёл.
→ fast.ai/courses
Сравнение: fast.ai = практика-first, B2 = теория-first с PyTorch. Стиль разный — выбери что ближе. Не нужно оба.

⚗️ ХИМИЯ + ML — специализация (июнь–июль)

PDFCHEM Statistics & Chemometrics for Analytical Chemistry (H1) Файл в проекте: Statistics_and_Chemometrics_for_Analytical_Chemistry_6th.pdf
Гл.1–3 (нед.16–18, июнь): базовая статистика для хим. данных.
Гл.4–6 (нед.19–22, июль): PCA, PLS, Cluster Analysis → прямо для хроматографии.
Сравнение: единственный специализированный источник по хемометрике в списке. Дополняется sklearn docs (decomposition) и StatQuest PCA видео.
YTCHEM StatQuest — PCA Step-by-Step Лучшее визуальное объяснение PCA. Прямо под хроматографические данные.
Июль — параллельно с Chemometrics гл.4–6.
→ @StatQuest → поиск "PCA StatQuest"
Сравнение: Chemometrics PDF = что делать с данными, StatQuest PCA = почему это работает математически. Оба нужны.

❌ СКИПНУТО — почему

ML Specialization (Andrew Ng, Coursera) — дублирует ProGlib + Géron + StatQuest. Лишняя нагрузка.
Deep Learning Specialization (DeepLearning.AI) — закрывается StatQuest B2 + Karpathy + HF NLP Course, которые лучше и бесплатнее.
The Elements of Statistical Learning — академически тяжёлый, для research/PhD. Для AI Engineer ISLP (C3) достаточно и проще.
Python / CS50 / NeetCode / Learn Python — Python уже знаешь (нед.1 = "не повторять, вперёд"). CS50 слишком общий. NeetCode = алго для FAANG-интервью, не под твою задачу.

StatQuest ML YT — скипнуть (включены в план) или не скипать ключевые:
Скипнуть (тема уже закрыта ProGlib глубже): K-Nearest Neighbors, Linear Discriminant Analysis, Ridge/Lasso Regression (ProGlib тема 6), Cross Validation deep-dive (ProGlib тема 2), Logistic Regression (ProGlib тема 5), Clustering K-means (ProGlib тема 10).
Скипнуть (не в твоём стеке): CatBoost (в плане XGBoost — достаточно), LightGBM (аналогично), R-related видео, Survival Analysis, Cox Model.
Скипнуть StatQuest DL (закрыто 3B1B + Karpathy лучше): Long Short-Term Memory (LSTM) — нет в плане, устаревший для LLM; GAN / VAE — не в стеке; CNN deep-dive — не нужен для NLP-специализации.
НЕ скипать (включены в план): SVM, Decision Trees, Random Forest, AdaBoost, Gradient Boost, XGBoost, Naive Bayes, Word Embedding, PCA, t-SNE, Neural Networks Pt.1+Backprop, Encoder-Only Transformers (BERT), Transformer Neural Networks, PyTorch intro, Coding NN in PyTorch, RLHF, Coding ChatGPT-Like Transformer, Attention in Transformers.

🎓 ШАД ЯНДЕКС — интенсивы (по записям)

Короткие интенсивы от практиков Яндекса. Записи доступны на страницах курсов после проведения. Смотреть точечно по неделям плана — не курсами целиком.

YTAI GPT Week — Введение в LLM + Alignment Практики Яндекса, кто строил YandexGPT. Сжато и по делу: как работают LLM изнутри.
Нед.2: Лек.1 «Введение в LLM» (~35 мин) — токены, context window, pretrain
Нед.2: Лек.2 «Претрейн» (первые 20 мин) — концептуальная часть: что такое pretrain-модель
Нед.3: Лек.5 «Alignment» (~30 мин) — RLHF, SFT, почему модели отвечают так как отвечают
Нед.16: Лек.6 «Ускорение инференса LLM» (~45 мин) — KV-cache, батчинг, квантование
Пропустить: Лек.3–4 (Претрейн полностью + Подготовка данных — GPU-кластер, не твой стек), все семинары.
→ shad.yandex.ru/gptweek
Сравнение: в отличие от HF LLM Course (теория-документация) и Chip Huyen (архитектура систем) — GPT Week даёт взгляд изнутри от людей, которые запускали YandexGPT в прод. Дополняет, не заменяет.
YTSTATS A/B Week — статистика для тестирования Практики Яндекс Go. Передовые методы A/B тестирования — не академия, а то что работает в продакшн.
Нед.5: Лек.1 «Статистика для A/B: распределения, t-тест» (~1 час) — статбаза под ML метрики
Нед.5: Лек.2 «Ошибки I и II рода, MDE» (~1 час) — false positive/negative = precision/recall другими словами
Нед.23–26 (авг): Лек.3 «KS-тест, Манн-Уитни, метрики отношения» — сравнение двух промптов
Нед.23–26 (авг): Лек.4 «Доверительные интервалы, CUPED» — меньше данных для значимого результата
Нед.23–26 (авг): Лек.5 «Стратификация, peeking, Байес» — как не смотреть на результат до конца теста
→ shad.yandex.ru/abweek
Сравнение: StatQuest Statistics — интуиция и визуализация. A/B Week — прикладная статистика для конкретных задач: ML метрики и A/B тест промптов. Оба нужны, в разное время.
YTAI Agents Week — агенты от архитектуры до продакшна Практики Яндекс Лавки, Алисы, Yandex Cloud. 5 лекционных дней. Самый важный ШАД-курс для AI Engineer.
Нед.5: Лек.1.1 «Intro to AI Agents LLM» (~50 мин) — ReAct loop, архитектура агентов
Нед.5: Лек.1.2 «Tools. MCP» (~50 мин) — инструменты и MCP концептуально
Нед.9: Лек.2 «Memory and Guardrails» (~1 час) — память агента, ограничители поведения
Нед.9: Лек.3 «AI Agent Workflow. Multi-Agent. Multimodality» (~55 мин) — оркестрация
Нед.10: Лек.5.1 «Production Engineering for LLM Agents» (~60 мин) — Docker, деплой, мониторинг
Нед.12: Лек.4 «Agent Evaluation» (~1 час) + Лек.5.2 «Production Engineering (продолжение)» (~60 мин)
→ shad.yandex.ru/agentsweek
Сравнение: Chip Huyen 76 мин (Agents секция) — обзор с высоты птичьего полёта. Agents Week — детали реализации от людей, которые запустили агентов в Яндекс Лавке и Алисе. Смотреть после Chip Huyen как углубление.
YTMLOPS SRE Week — инфраструктура и диагностика Инфраструктура высоконагруженных систем. Нед.13 — прямо перед и во время деплоя на VPS.
Нед.13: Лек.1 «Как ломаются большие системы» (~45 мин) — статистика поломок, что мониторить
Нед.13: Лек.2 «CPU, память, диски и сеть» (~45 мин) — что читать в htop и iostat
Нед.14–15: Лек.3 «Утилиты диагностики Linux» (~45 мин) — htop, iostat, df, netstat
Нед.14–15: Лек.5 «SLO, алерты, incident management» (~45 мин) — SLO под Langfuse-мониторинг
Пропустить: Лек.4 (распределённые системы — у тебя один VPS), оба семинара.
→ shad.yandex.ru/sreweek
Сравнение: Ahillary бонус ур.4 — как настроить сервер (SSH, nginx). SRE Week — как понимать что происходит на сервере после запуска. Ahillary = установка, SRE = эксплуатация.
YTLLM LLM Scaling Week — арифметика DL и инференс Инженеры команды YandexGPT. Как масштабируют LLM и оптимизируют инференс в продакшне.
Нед.16 (июн): Тема 1 «Арифметика глубокого обучения» (~1 час) — fp16, FLOPS, memory bandwidth. Смотреть первой!
Нед.16–17 (июн): Тема 5 «Inference challenges» (лекция + семинар, ~1.5 часа) — KV-cache, batching, latency/throughput
Пропустить: Тема 2 (MoE), Темы 3.1–3.2 (FP8/Triton), Тема 4 (коммуникации) — всё про GPU-кластер, не твой стек.
→ shad.yandex.ru/llmscalingweek
Сравнение: Hands-On LLMs (D1) — практика vLLM и квантования с кодом. LLM Scaling Week — как те же проблемы решают в Яндексе на масштабе. Смотреть параллельно с D1 нед.16: Тема 1 до D1, Тема 5 после первых экспериментов с vLLM.