| Период |
🎓 ProGlib |
📚 Самостоятельно |
💡 Почему сейчас? |
🔧 Инструменты |
🧪 Проект |
📚 Источники |
📈 Стек |
% |
| 9–15 марНеделя 1 |
ProGlib
- Базовый Python
- Функции, модули
Не повторять. Вперёд.
|
Самост.
Git + AI-теория
- Ahillary бонус ур.1 (Git): commit, branch, push, pull, merge, .gitignore
— пройти полностью
- githowto.com/ru — интерактивный тренажёр по git (1–2 ч)
- Ahillary Notion «AI модели для чайников» — прочитать
- Зарегистрироваться: claude.ai + anthropic.com, получить API key
- Начать использовать Claude.ai ежедневно вместо Google
📚 Ahillary бонус ур.1 (git) + githowto.com/ru + Ahillary Notion (AI
чайники)
|
Было: Python базис. Сейчас: Git — инструмент #1
профессионала. Без него нет истории кода, нет портфолио. Потом: 1 коммит каждый день.
|
Git + GitHubВерсионирование кода. Каждый коммит — запись
прогресса. GitHub = публичное портфолио для работодателей.
Claude.ai (браузер)Ежедневный ИИ-помощник. Объясняет код,
ошибки, концепции. Использовать вместо Google.
|
- Создать репозиторий ai-engineer на GitHub
- README: цель, стек, план — на русском
- Первый коммит: структура папок проекта
- Правило на всё время: min 1 commit/day
|
|
GitClaude.ai |
5%
|
| 16–22 марНеделя 2 |
ProGlib
Классы и ООП
- __init__, self, методы экземпляра
- Наследование, полиморфизм
- @dataclass — короткий способ писать классы
- Инкапсуляция, dunder-методы
- SOLID principles on practice
📚 ProGlib + Ahillary ур.8 (ООП) — Notion конспект
|
Самост.
Ollama: первая локальная AI-модель
- Установить Ollama: ollama.com/download
- ollama run llama3.2 — задать вопрос прямо в терминале
- Ahillary Notion «Как выбрать AI модель» + «Параметры
модели»: 4B,
Q4_K_M, context length
- Понять: GPT vs Claude vs Llama vs Mistral — у каждого своё применение
- 🔢 Математика (20 мин/день): 3Blue1Brown
Essence of Linear Algebra — гл.1–3: Vectors, Linear combinations,
span, Linear transformations and matrices
- 📺 ШАД:
📚 ollama.com + Ahillary Notion: Ollama + параметры модели + shad.yandex.ru/gptweek
|
Было: Python, Git. Сейчас: ООП — весь AI-код (LangChain,
Pydantic, LangGraph) строится на классах. Без ООП их код нечитаем. Ollama — понимаешь как
модели работают локально до вызова платного API.
|
OllamaAI-модели локально, бесплатно. Для экспериментов когда не
хочется тратить токены API. llama3.2, mistral, phi3.
|
- Прорешать практику, под целевую задачу
|
|
GitOllamaООП |
10%
|
| 23–29 марНеделя 3 |
ProGlib
HTTP, REST, внешние API
- requests: GET, POST, заголовки, статус-коды
- Работа с JSON-ответами
- python-dotenv: .env файл для секретов
- venv: виртуальное окружение
📚 ProGlib + Ahillary ур.7 (парсинг) — Notion конспект
|
Самост.
Первый вызов Claude API из Python
- pip install anthropic python-dotenv
- 10 строк: отправить сообщение → получить ответ от Claude API
- Разница: Claude.ai (браузер) ≠ API (токены) ≠ Claude Code ($20/мес CLI)
- Prompt Engineering: docs.anthropic.com/en/docs/build-with-claude/prompt-engineering/overview
— 30 мин, системно: structured prompts, in-context learning, defensive prompting
- Ahillary ур.7: BeautifulSoup4, GET-запросы — понять принцип парсинга HTML
- 🔢 Математика (20 мин/день): 3B1B LinAlg гл.4–6 (Matrix multiplication, Determinant, Inverse
matrices). Параллельно: StatQuest YouTube — Statistics Fundamentals плейлист (Histograms,
Mean/Variance)
- 📺 ШАД:
- GPT Week — Лек.5 «Alignment» (~30 мин): RLHF, SFT — почему модели отвечают определённым образом. Объясняет механику prompt engineering который учишь сейчас
📚 docs.anthropic.com/quickstart (Python) + Ahillary ур.7 Notion + shad.yandex.ru/gptweek
|
Было: ООП, Ollama. Сейчас: HTTP = язык интернета. Все данные
— через HTTP. Первый вызов API — понимаешь как агент работает под капотом прежде чем
использовать Claude Code как «магию».
|
Anthropic APIClaude из кода. Платишь за токены (~$0.003/1K).
Основа всех агентов.
requests + dotenvrequests = HTTP из Python. dotenv = секреты в
.env, не в коде.
|
- RSS Reuters → 5 заголовков → один в Claude API → оценка важности 1–5
- Попробовать парсерить новостные источники (ex., FT) (requests + xml + bs4 + mcp pw) → тестовый источник для отработки
- Через API обратиться к LLM (Claude) → тестовый запуск с извлечением информации (параметры подвигать)
|
|
OllamaAnthropic APIrequests |
16%
|
| 30 мар–5 апрНеделя 4 |
ProGlib
pandas, NumPy, matplotlib
- NumPy: массивы, векторные операции (→ перенесено на нед.5)
- pandas DataFrame: создание, фильтрация, groupby, merge (→ перенесено на нед.5)
- matplotlib: линейный, гистограмма, scatter (→ перенесено на нед.6)
- Чтение/запись CSV, Excel (→ перенесено на нед.5)
📚 ProGlib + pandas.pydata.org/docs/getting_started
|
Самост.
HuggingFace: знакомство + NLP Course старт
- Ollama run through local API
- Зарегистрироваться на huggingface.co
- Прочитать 3 Ahillary конспекта по HuggingFace: обзор / выбор модели / карточка модели
- Найти модель sentiment-analysis → протестировать в браузере (→ перенесено на нед.5)
- НЕ устанавливать transformers — только понять структуру экосистемы (→ перенесено на нед.5)
- HuggingFace NLP Course гл.1–2: pipeline API, введение (→ перенесено на нед.5)
- 🔢 Математика: 3B1B Calculus гл.1–5 + StatQuest ML гл.1–3 (→ перенесено на нед.5)
⚠️ Отпуск. Сделано только: Ollama local API + HF регистрация. Остальное → нед.5
📚 Ahillary Notion (3 HF конспекта) + huggingface.co/learn/nlp-course
(гл.1-2)
|
Было: API, парсинг. Сейчас: pandas = главный инструмент для данных
(котировки, новости, хроматограммы — всё таблицы). HF NLP Course бесплатный, закладывает
фундамент понимания трансформеров до их запуска.
|
Ollama local APIHTTP-запросы к локальной модели. Понимаешь как работает LLM-сервер до перехода на облако.
pandas (перенос на нед.5)Таблицы в Python. Любые данные: новости, котировки, химические измерения.
|
- yfinance → DataFrame → 2 графика (цена + объём)
- Объединить котировки + RSS в один DataFrame по дате
|
BOOKML Hands-On ML (C1)Géron — гл.1: The ML
Landscape — перенесено на нед.5
PDFLLM HF NLP Course гл.1–2nlp-course —
pipeline API, введение — перенесено на нед.5
|
Anthropic APIOllama |
22%
|
| 6–12 апрНеделя 5 |
ProGlib
pandas, NumPy
- NumPy: массивы, векторные операции
- pandas DataFrame: создание, фильтрация, groupby, merge
ProGlib — Курс ML
Старт: Введение в ML + Линейная регрессия
- Тема 1: Введение в машинное обучение — типы задач, supervised/unsupervised, метрики
- Тема 2: Линейные модели: регрессия — МНК, MSE, MAE, R², интерпретация коэффициентов
- Тема 3 (Градиентный спуск) → перенесена на нед.6: Calculus гл.6–9 (математика GD) будет пройден, тема встаёт осознанно
ProGlib — Курс Математика AI
Старт: Векторы + Линейная регрессия через МНК
- Занятие 1: Векторы и матрицы, операции с ними — применение в ML
- Занятие 2: Линейная регрессия — реализация в NumPy vs sklearn
📚 proglib.academy/machine-learning + proglib.academy/math-for-ds-express + pandas.pydata.org/docs/getting_started
|
Самост.
Перенос с нед.4 + продолжение
- HuggingFace: найти модель sentiment-analysis → протестировать в браузере (Inference API)
- Не устанавливать transformers — только понять структуру экосистемы
- HuggingFace NLP Course гл.1–2: pipeline API, введение
- 🔢 Математика (20 мин/день): 3B1B Calculus гл.1–5 (Derivatives, Chain Rule). StatQuest Statistics Fundamentals YT (YouTube плейлист) — смотреть параллельно по теме: Probability, Distributions, p-values. 2–3 видео/нед, ~10 мин каждое. Это плейлист, не книга.
- 📺 ШАД (max 2 лекции):
📚 huggingface.co/learn/nlp-course (гл.1-2) + shad.yandex.ru/abweek + shad.yandex.ru/agentsweek
|
Было: API, парсинг, Ollama. Сейчас: ProGlib выдал два полноценных курса (ML + математика) вместо отдельных уроков. Курс ML — фундамент sklearn и хроматографии. Математика AI — линал, матан и МНК для понимания моделей изнутри.
|
КУРСML ProGlib MLproglib.academy/machine-learning — темы 1–3 на этой неделе
КУРСCALC ProGlib Математика AIproglib.academy/math-for-ds-express — занятия 1–2 на этой неделе
HuggingFace Hub (браузер)2.2 млн моделей. Сейчас — смотрим и понимаем структуру.
|
- Пройти темы 1–2 ML курса + занятия 1–2 математики
- HF: sentiment-analysis модель → протестировать в браузере
- pandas: загрузить CSV с котировками → посчитать базовые метрики
|
BOOKML Hands-On ML (C1)Géron — гл.1: The ML
Landscape
PDFLLM HF NLP Course гл.1–2nlp-course —
pipeline API, введение (читать)
|
Anthropic APIpandas/NumPyML курсМатематика AI |
28%
|
| 13–19 апрНеделя 6 |
ProGlib — Курс ML (продолжение)
Градиентный спуск + Классификация
- Тема 3: Градиентный спуск и его модификации — SGD, Adam, RMSprop, L1/L2 регуляризация
- Тема 4: Линейные методы классификации — логистическая регрессия, sigmoid, precision/recall/F1/ROC-AUC
ProGlib — Курс Математика AI (продолжение)
Матричные разложения + Производные
- Занятие 3: Матричные разложения (SVD) — снижение размерности, рекомендательные системы в NumPy
- Занятие 4–5: Функция одной переменной, пределы + Функции нескольких переменных — частные производные, градиент
📚 proglib.academy/machine-learning + proglib.academy/math-for-ds-express
|
Самост.
async/await + RAG первый pipeline + ML метрики
- RAG: Ahillary RAG ур.1–2 — первый pipeline
- Цепочка: документ → чанки → embeddings → ChromaDB → поиск → LLM → ответ
- ML метрики на практике: confusion matrix, ROC-AUC — sklearn на реальных данных
- 🔢 LinAlg (добить в этот период): 3B1B LinAlg гл.7 «Inverse matrices, column space» + гл.9 «Dot products and duality» (~25 мин). Зачем сейчас: гл.9 = математика embeddings и cosine similarity в RAG, который строишь на этой неделе. Без этого RAG — магия.
📚 Ahillary ур.9 Notion + Ahillary YouTube ур.1-2 + github.com/CrashNosok/RAG_lessons
|
Было: ML курс темы 1–2, HF знакомство. Сейчас: ML курс углубляется в классификацию (precision/recall/F1 — будут нужны для оценки RAG). async — без него агент блокируется. RAG = основа «Задумки». Переходная неделя перед ФАЗОЙ 1.
Pipeline: ProGlib Математика AI зан.3–5 (SVD, производные, градиент) → ProGlib ML темы 3–6 (градиентный спуск, классификация, SVM) → Ahillary ур.9 (async) → Ahillary RAG ур.1–2 → ML метрики (confusion matrix, ROC-AUC). Параллельно: 3B1B Calculus гл.6–9 + 3B1B LinAlg + Hands-On ML гл.2–4 (по возможности).
|
КУРСML ProGlib MLТемы 4–6: классификация, SVM, нелинейные методы
КУРСCALC ProGlib Математика AIЗанятия 3–5: SVD, пределы, частные производные
asyncio (Python)Параллельное выполнение. Агент тянет данные из 3 источников — без asyncio медленно.
ChromaDB (учебная)Векторная БД для первых RAG экспериментов. Потом заменим на Qdrant.
|
- RAG на 2–3 PDF → вопросы → ответы с источниками
- ML метрики: confusion matrix + ROC-AUC на sklearn данных
|
BOOKML Hands-On ML (C1)гл.2–4: end-to-end,
Classification
|
ML курсasyncioRAG/ChromaDB |
35%
|
| Период |
🎓 ProGlib |
📚 Самостоятельно |
💡 Почему сейчас? |
🔧 Инструменты |
🧪 Проект |
📚 Источники |
📈 Стек |
% |
| 20–26 апрНеделя 7 |
ProGlib 20.04
ИИ-агенты в 2026
- Агент vs чат-бот vs просто LLM — разница
- Выбор модели: цена/качество/скорость/контекст (ex., openrouter)
- Бенчмарки: SWE-bench, AgentBench, LMArena
ProGlib 23.04
Управление мышлением агента
- effort, бюджеты токенов/шагов/стоимости
- Авто-маршрутизация: дешёвая→дорогая
ProGlib — Курс Математика AI
Занятие 6: Оптимизация и интегрирование
- Методы оптимизации: градиентный спуск, его модификации
- Интегрирование: связь с суммированием градиентов в сети
📚 ProGlib + anthropic.com/research/building-effective-agents
|
Самост.
Docker (впервые!) + n8n + Ahillary YouTube ур.3
- SemolinaCode ур.14 (Docker): Docker Desktop, образы/контейнеры/volume — начать отсюда
- Ahillary ур.9 (async): GIL, asyncio, coroutines, gather — конспект Notion. Понять: синхронный vs асинхронный — почему агенты требуют async
- Поднять n8n: docker run -p 5678:5678 n8nio/n8n → localhost:5678
- Первый n8n-пайплайн: Schedule → HTTP Request (RSS) → Write to File
- matplotlib базовый (30 мин): линейный график, гистограмма, scatter —
df.plot() и plt.show(). Закрываем пробел с нед.4. seaborn: heatmap по желанию после, не обязательно сейчас.
📚 SemolinaCode TG ур.14 (Docker) + docs.n8n.io + Ahillary YouTube ур.3
⚠ Docker ставится впервые — начни с SemolinaCode ур.14!
|
Было: RAG/ChromaDB, async, ML метрики. Сейчас: Docker нужен именно здесь — n8n и Qdrant требуют его. Ставить раньше было незачем. n8n — автоматизация визуально, понимаешь пайплайны до написания кода. ML курс уходит в фоновый режим: 1 тема/нед параллельно.
|
Docker DesktopИзолированные контейнеры. n8n, Qdrant, Langfuse — одной командой. Никаких конфликтов зависимостей.
n8nВизуальный конструктор пайплайнов. Блоки + стрелки: источник → обработка → выход.
КУРСCALC ProGlib Математика AIЗанятие 6: Оптимизация и интегрирование — математика градиентного спуска
|
- Parser (разбор)
- n8n: теста ради каждое утро 9:00 → 5 новостей из RSS → CSV файл
- HW LR&GD ML (practice)
|
|
RAGDockern8n |
42%
|
| 27 апр–3 майНеделя 8 |
ProGlib — Курс ML
Тема 5: Методы опорных векторов (SVM) (пн)
- Максимизация отступа, ядра (kernel trick), кросс-валидация
Зачем: Qdrant = векторные расстояния, SVM = геометрия разделения — одна математика
ProGlib 27.04
RAG-системы углублённо (вт)
- Agentic RAG, GraphRAG
- Query expansion, multi-hop retrieval
- Qdrant, pgvector, LlamaIndex
- Предобработка грязных документов
ProGlib 30.04
PydanticAI (ср)
- Schema-first: типы вместо ручного JSON
- Validation loops: автоисправление LLM
ProGlib — Курс Математика AI
Занятие 7: Матанализ практика — градиентный спуск с нуля
- Реализация GD в NumPy: закрепление занятия 6 на практике
📚 ProGlib + ai.pydantic.dev/docs + qdrant.tech/documentation
|
Самост.
RAG улучшение: Ahillary ур.3–6 + ProGlib практики + RAG Roadmap
- 🔢 Математика (пн): 3B1B Calculus гл.6–9 (Backprop интуиция). 3B1B Neural Networks гл.1 «But what is a neural network?» (~19 мин). StatQuest SVM: Part 1 «Main Ideas» + Part 2 «Polynomial Kernel» + Part 3 «Radial Kernel» + Cosine Similarity (~30 мин суммарно, 4 видео — прямо под тему SVM нед.8).
- Ahillary YouTube ур.3: SitemapLoader, RecursiveURLLoader, HTML-aware chunking, RuBERT embeddings (PrefixEmbeddings) — индексация (ср)
- Ahillary YouTube ур.4: MMR retriever, фильтры по метаданным, улучшение postprocessing и промпта — пройти (ср), фокус на коде
- Ahillary YouTube ур.5: концепция трейсинга (LangSmith) — @traceable, spans, LLM-as-a-judge (чт); инструмент prod: LangFuse (нед.12)
- Ahillary YouTube ур.6: ReAct-агент над RAG — rewrite_question + run_rag, агент решает когда делать retrieval (чт)
- 📚 ProGlib практики RAG (ср):
- Практика 1: Hybrid Search (BM25+Vector, RRF) + Recursive Chunking + Single-stage Reranking → метрики Hit Rate, NDCG
- Практика 2: Multi-stage Reranking + Parent Doc Retrieval + Query Expansion (HyDE — осторожно, шум в узких доменах!)
- 📚 RAG Roadmap (ProGlib 2026) — изучить структуру (пт):
- Baseline: Hybrid Search + Reranking → Hit Rate ≥0.85, MRR ≥0.75, NDCG ≥0.70
- Optimization: Multi-stage Reranking + Parent Doc Retrieval → Faithfulness ≥0.85, Answer Relevancy ≥0.80
- Advanced: Contextual Retrieval (+15–20% Hit Rate) + Context Compression (−35–50% токенов) + Late Chunking (Jina 2024, +10–12%)
- Enterprise: Agentic RAG (LangGraph, −78% ошибок) + GraphRAG + Multi-hop → нед.11+
📚 Ahillary YouTube ур.3–6 + ProGlib практики RAG 1–2 + ProGlib презентация RAG 2026 + 3B1B Neural Networks
|
Было: ChromaDB, базовый RAG. Сейчас: RAG улучшение по ProGlib Roadmap: Hybrid Search + Reranking + RAGAS метрики. Ahillary ур.3–6: от индексации до ReAct-агента над RAG. Baseline замерен — теперь есть точка отсчёта.
|
QdrantПродакшн векторная БД. Ядро RAG в экономическом проекте.
RAGASOpen-source RAG evaluation. Метрики: Context Precision, Faithfulness, Answer Relevancy. De-facto стандарт offline-оценки.
LangSmith (концепция)Коммерческий трейсинг LLM: @traceable, spans, LLM-as-a-judge. Изучаем концепцию; в prod — LangFuse self-hosted (нед.12).
PydanticAIСтрогие типы для ответов LLM. Агент возвращает объект — не парсишь JSON руками.
КУРСML ProGlib MLТема 5: SVM — геометрия разделения, kernel trick. Синхронизировано с Qdrant (векторные расстояния)
КУРСCALC ProGlib Математика AIЗанятие 7: GD с нуля — практическое закрепление занятия 6
|
- NewsItem: title, source, date, importance(1–5), topic, confirmed(bool) — схема
работает
- Claude API возвращает именно эту схему при оценке новости
- RAGAS baseline: Hit Rate и Faithfulness замерены на 1_rag_pdf
|
BOOKML Hands-On ML (C1)гл.7–8: Ensemble, Dimensionality
Reduction
PDFAI ProGlib: RAG-системы 202670-страничная презентация: RAG Roadmap (4 фазы), SOTA таблица (HyDE=Нет, Fusion=Да), метрики RAGAS, стек prod (RAGAS+LangFuse+DeepEval), 10 архитектур 2026
YTDL 3B1B: LLMs explained briefly~8 мин — карта LLM перед агентами и PydanticAI
|
n8nQdrantRAGASPydanticAI |
50%
|
| 4–10 майНеделя 9 |
ProGlib 4.05
Browser/Desktop automation (пт)
- Playwright — браузер из Python
- Sandbox, минимальные права
- Подтверждение перед рискованными действиями
ProGlib 7.05
Первый ИИ-агент (вс)
- LLM + инструменты + цикл ReAct
- Tool use: поиск, файлы, код
ProGlib — Курс ML
Тема 6: Нелинейные методы классификации (сб)
- Полиномиальные признаки, регуляризация L1/L2
Зачем: нелинейность решений агента = та же нелинейная классификация
ProGlib — Курс Математика AI
Занятие 8: Введение в теорию вероятностей
- Распределения, условная вероятность, формула Байеса
Зачем: LLM = вероятностная модель, embeddings = вероятностная геометрия
📚 ProGlib + playwright.dev/python/docs/intro
|
Самост.
RAG Advanced + Playwright практика + Google GenAI
- Playwright: скрипт → открыть сайт → взять заголовки → JSON
- 🔢 Математика (нед.9): 3B1B Neural Networks гл.2 «Gradient descent, how neural networks learn» (~21 мин) (ср) + гл.3 «What is backpropagation really doing?» (~13 мин) (чт) 3B1B Calculus финал гл.10–12 (пт) (~15 мин): «e + natural log» + «Integration» + «Differentiation via limits» — гл.10 = sigmoid/softmax, этого достаточно; гл.13–14 пропустить. StatQuest Decision Trees Part 1 («Classification Trees»): ~18 мин, опережающий просмотр — тема ProGlib придёт на нед.10. (сб)
- 📚 RAG Advanced (из ProGlib Roadmap — после практик нед.8) (сб):
- Contextual Retrieval (Anthropic): добавить контекст каждого чанка перед индексацией (+15–20% Hit Rate)
- Context Compression: убрать шум из retrieved docs (−35–50% токенов, CohereRerank)
- Late Chunking (Jina 2024): embeddings с учётом соседних чанков (+10–12%)
- Оценить через RAGAS: Noise Robustness ≥0.90, Latency P95 <3s
- 📺 5-Day Gen AI Intensive (Google/Kaggle): github.com/sauravkumar8178/5-Day-Gen-AI-Intensive-Course-with-Google — Day 1–3: embeddings, RAG architecture, agents. Параллельно с RAG Advanced этой недели.
- 📺 NirDiamant/Prompt_Engineering: SGR (Structured Generation Refinement) + SO (Self-Optimization) техники — применить к RAG промптам нед.8–9
- 📺 ШАД Agents Week Лек.2+3 → перенесены на нед.11 (LangGraph + Multi-Agent: максимальная синергия)
📚 playwright.dev/python + github.com/sauravkumar8178/5-Day-Gen-AI-Intensive-Course-with-Google + github.com/NirDiamant/Prompt_Engineering + 3B1B Calculus гл.10–14
|
Было: Базовые RAG-техники (нед.8). Сейчас: RAG Advanced — Contextual Retrieval, Context Compression, Late Chunking. Playwright — для сайтов без API. Claude Code уже установлен и используется.
|
Claude Code (CLI-агент)Агент в терминале. Читает файлы, пишет код, запускает команды. Основной инструмент разработки. $20/мес.
PlaywrightУправляет реальным браузером из Python. Для сайтов без API.
КУРСML ProGlib MLТема 6: Нелинейные методы — полиномиальные признаки, регуляризация
КУРСCALC ProGlib Математика AIЗанятие 8: Теория вероятностей — база для понимания LLM и Qdrant
|
- Claude Code переписывает RSS-парсер с sync на async — попросить его
- Playwright: заголовки с сайта → JSON → в Qdrant
|
BOOKDL StatQuest Neural Networks (B2)гл.4–6:
Backprop, Activation functions
|
QdrantClaude CodePlaywright |
56%
|
| 11–17 майНеделя 10 |
ProGlib 12.05
MCP + LangFlow
- Model Context Protocol — стандарт интеграций
- LangFlow: визуальный прототипинг
- Webhooks, триггеры, schedule
ProGlib 14.05
RAG: parent retrieval, Redis-кэш
ProGlib — Курс ML
Тема 7: Решающие деревья
- ID3, CART, гиперпараметры, визуализация
Зачем: дерево = структурированная маршрутизация, аналог agent routing
ProGlib — Курс Математика AI
Занятие 9: Случайные величины — реализация Наивного Байеса
- Случайные величины, математическое ожидание, дисперсия
- Наивный Байес в NumPy — вероятностная классификация
📚 modelcontextprotocol.io/docs + langflow.org + redis.io/docs/getting-started
|
Самост.
MCP: 3 сервера к Claude Code
- MCP 1: filesystem (встроен в Claude Code — уже работает)
- MCP 2: Brave Search MCP — веб-поиск из агента
(github.com/modelcontextprotocol/servers)
- MCP 3: написать свой Python MCP-сервер get_news(topic) → 5 новостей из RSS
- Прочитать ПОЛНЫЙ ГАЙД (файл проекта): разделы «CLI-агенты» и «MCP»
полностью
- 🔗 Redis (новый инструмент, 30 мин):
pip install redis → redis.io/docs/getting-started → понять get/set/expire как semantic cache. Зачем: ProGlib этой же недели преподаёт Redis-кэш в RAG — без базового понимания это будет магия.
- 🔢 Математика (нед.10): 3B1B Neural Networks гл.4 «Backpropagation calculus» (~10 мин) — финал backprop-блока. 3B1B LinAlg гл.15 «Eigenvalues and eigenvectors, quick trick» (~15 мин, предпоследний перед PCA). StatQuest: Decision Trees Part 2 («Regression Trees», ~15 мин) + Naive Bayes (~10 мин, прямо под ProGlib тему этой недели).
- 📺 ШАД (1 лекция, перенесена с нед.8):
📚 modelcontextprotocol.io + ПОЛНЫЙ ГАЙД (файл проекта) +
github.com/modelcontextprotocol/servers + shad.yandex.ru/abweek
|
Было: Claude Code работает. Сейчас: MCP = стандарт подключения
инструментов к агентам. Написать свой MCP = перейти от «использую агентов» к
«строю агентные системы». Ключевая компетенция.
|
MCP (Model Context Protocol)Стандарт Anthropic. Написал MCP-сервер — агент работает с твоими данными как со встроенными функциями.
LangFlowDrag-and-drop редактор. Не для прода — для понимания архитектуры визуально.
КУРСML ProGlib MLТема 7: Решающие деревья — ID3, CART. Аналог agent routing в структуре данных
КУРСCALC ProGlib Математика AIЗанятие 9: Случайные величины + Наивный Байес в NumPy
|
- get_news(topic) → список NewsItem работает как MCP
- В Claude Code: «найди новости про инфляцию» → агент сам вызывает инструмент
|
BOOKML Hands-On ML (C1)гл.9: Unsupervised Learning — K-means, DBSCAN, GMM (прямо под тему ML курса этой недели)
|
Claude CodeMCPLangFlow |
62%
|
| 18–24 майНеделя 11 |
ProGlib 18.05
LangGraph: профессиональная оркестрация
- State machine: состояния, ветвления, retries
- Checkpoint: сохранение и восстановление
- Human-in-the-loop: пауза, ожидание
- Time-travel дебаг — откат к любому состоянию
ProGlib 21.05
Мультиагентные системы
- CrewAI/AutoGen: роли, коллаборация
- Long-term memory между сессиями
ProGlib — Курс ML
Тема 8: Ансамблевые методы
- Бэггинг, Random Forest — важность признаков
ProGlib — Курс Математика AI
Занятие 10: Основы статистики и проверки гипотез
- t-тест, доверительные интервалы
Зачем: оценка качества агента = статистическая задача; RAGAS через неделю
📚 langchain-ai.github.io/langgraph/tutorials
|
Самост.
LangGraph граф для «Задумки по экономике»
- 📱 Telegram Bot API (впервые, 1 час): pip install aiogram≥3 → bot = Bot(token) → dp = Dispatcher() → @dp.message_handler → dp.start_polling(). Источник: docs.aiogram.dev/en/latest → Quick Start. Зачем: human_review() в графе ниже отправляет вопрос именно через Telegram-бота. Без этого шага Telegram — магия.
- Написать LangGraph граф (4 узла):
- → fetch_news() — тянет новость из RSS
- → evaluate() — LLM оценивает через PydanticAI → NewsItem
- → human_review() — ПАУЗА, вопрос в Telegram
- → store_or_reject() — пишет в Qdrant или отклоняет
- 🔢 3B1B LinAlg (финал): гл.13 «Change of basis» + гл.14 «Eigenvectors and eigenvalues» + гл.16 «Abstract vector spaces» (~25+23 мин). Зачем: PCA = нахождение собственных векторов ковариационной матрицы; гл.16 = функции как векторы — теоретическое завершение LinAlg-блока.
- 🔢 StatQuest YT: «Neural Networks Pt.1» + «Backpropagation» (~30 мин) — база перед трансформерами. Random Forest Part 1 (~10 мин) — прямо под ProGlib тему 8. Word Embedding and Word2Vec (~15 мин) — зачем: embeddings в RAG = это и есть word embedding идея.
- 📺 3B1B Neural Networks гл.5–6 (~54 мин): «Transformers, the tech behind LLMs» (~27 мин) + «Attention in transformers, step-by-step» (~27 мин). Смотреть после StatQuest NN, до нед.12. Attention = механика embeddings в RAG — RAGAS на следующей неделе станет понятен изнутри.
- 📺 ШАД (2 лекции, перенесены с нед.9):
📚 langchain-ai.github.io/langgraph/tutorials + docs.aiogram.dev/en/latest (Quick Start) + StatQuest YouTube (Neural Networks) + 3B1B Neural Networks (гл.5–6) + shad.yandex.ru/agentsweek
|
Было: MCP, Qdrant, PydanticAI. Сейчас: все кирпичи готовы.
LangGraph = момент сборки. Граф строим именно для «Задумки» — реальный целевой
проект, не абстрактный пример. Про LangChain: LangGraph используется напрямую с PydanticAI — знание классического LangChain не требуется. LCEL (Runnable, chain) понятны из контекста RAG-пайплайна нед.6.
|
LangGraphГраф состояний для агентов. Узлы (функции) + переходы. Полный контроль: паузы, повторы, ветвления, откат к любому состоянию.
КУРСML ProGlib MLТема 8: Random Forest — бэггинг, важность признаков
КУРСCALC ProGlib Математика AIЗанятие 10: Статистика + t-тест — фундамент под RAGAS следующей недели
|
- «Задумка по экономике» v0.1 — живёт!
- Новость → оценка → Telegram «подтвердить?» → Qdrant
- Первый рабочий прототип целевого проекта
|
YTDL StatQuest: Neural Networks YTYouTube — «Neural Networks Pt.1» + «Backpropagation» (~30 мин). Зачем: база перед трансформерами и Karpathy
YTDL 3B1B: Transformers + Attention (гл.5–6)~54 мин — после StatQuest NN: attention = механика embeddings, до RAGAS нед.12
BOOKDL StatQuest Neural Networks (B2)гл.7–10:
Attention, Transformers
BOOKDL Hands-On ML (C1)гл.10–11: Neural Networks с
Keras
|
MCPLangGraphCrewAI
(теория) |
68%
|
| 25–31 майНеделя 12 |
ProGlib 25.05
AgentOps + Cost control
- Langfuse/LangSmith: трейсинг, дашборды
- RAGAS/DeepEval: автооценка RAG
- Semantic cache — экономия токенов
- SLA-алерты при деградации
ProGlib — Курс ML (финал)
Темы 10–11: Кластеризация + PCA/t-SNE
- Тема 10: K-means, DBSCAN — кластеризация новостей по темам
- Тема 11: PCA, t-SNE, Isolation Forest — снижение размерности embeddings
- Тема 9 (бустинг) + Тема 12 (рекосистемы) → нед.13
ProGlib — Курс Математика AI (финал)
Финальный проект: градиентный спуск для предсказания цен
- Всё изученное за 10 занятий — в одном NumPy-проекте. 🎉 Математика AI завершена!
📚 ProGlib + langfuse.com/docs + docs.ragas.io
|
Самост.
Langfuse self-hosted + RAGAS первый отчёт
- Поднять Langfuse через docker-compose (langfuse.com/docs/deployment/self-host)
- Подключить к LangGraph — трейсы каждого запуска в дашборде
- RAGAS: оценить RAG на 10 вопросах — faithfulness, answer_relevancy
- Алерт в Telegram: стоимость за день больше $2 → сообщение
- n8n: добавить LLM-ноду → пайплайн вызывает Claude для оценки
- 🔢 Математика (нед.12): 3B1B Neural Networks гл.7 «How might LLMs store facts» (~23 мин) — MLP как key-value хранилище, прямо под RAGAS faithfulness этой недели. StatQuest: Encoder-Only Transformers (BERT) (~15 мин) + PCA Step-by-Step (~22 мин) + t-SNE (~12 мин) — 3 видео, под ProGlib темы 10–11 (PCA/t-SNE).
- 📺 ШАД (3 лекции — идеально по теме):
📚 langfuse.com/docs + docs.ragas.io/tutorials + docs.n8n.io + shad.yandex.ru/agentsweek
|
Было: LangGraph работает. Сейчас: система живёт — нужен
мониторинг немедленно. Без Langfuse не знаешь почему агент дал плохой ответ. RAGAS —
измеряешь качество, а не угадываешь.
|
Langfuse (self-hosted)Мониторинг LLM. Каждый шаг агента: вход → выход → стоимость → ошибки. Бесплатно при self-hosted.
RAGASАвтооценка RAG: faithfulness (не галлюцинирует?), answer_relevancy (по делу?), context_precision.
КУРСML ProGlib MLТемы 10–11: Кластеризация K-means + PCA/t-SNE — под RAGAS этой недели
КУРСCALC ProGlib Математика AI (финал)Финальный проект: GD для предсказания цен — 🎉 Математика AI завершена!
|
- Langfuse: трейсы всех запусков видны
- RAGAS: faithfulness больше 0.7 — цель недели
- n8n с LLM-оценкой работает
|
BOOKML Hands-On ML (C1)гл.12–13: Custom Models,
Preprocessing
YTDL StatQuest ML+DL — сводка по неделям 🗼нед.8: SVM Pt.1–3 + Cosine Sim | нед.9: Decision Trees Pt.1 | нед.10: Decision Trees Pt.2 + Naive Bayes | нед.11: Random Forest Pt.1 + Word Embedding | нед.12: BERT + PCA + t-SNE | нед.13: AdaBoost + Gradient Boost + XGBoost + Transformer NN | нед.16–18: PyTorch intro + Coding NN | нед.19–22: Coding ChatGPT-Like Transformer. Макс. 4 видео/нед, не форсировать.
|
LangGraphLangfuseRAGAS |
74%
|
| Период |
🎓 ProGlib |
📚 Самостоятельно |
💡 Почему сейчас? |
🔧 Инструменты |
🧪 Проект |
📚 Источники |
📈 Стек |
% |
| 1–7 июнНеделя 13 |
ProGlib 1.06
Безопасность агентов
- Prompt injection, tool hijacking
- Docker/E2B sandboxing
- Guardrails: фильтры и политики
ProGlib 4.06
A2A: агент-агент коммуникация
- Паттерны межагентного взаимодействия
- MCP + A2A в одном решении
ProGlib — Курс ML (финал)
Темы 9 + 12: Бустинг + Рекомендательные системы
- Тема 9: XGBoost, CatBoost, LightGBM — бустинг как итеративная коррекция ошибок
- Тема 12: Рекомендательные системы — matrix factorization. 🎉 ML курс завершён!
📚 ProGlib + e2b.dev/docs
|
Самост.
VPS деплой — Ahillary бонус ур.4 (ДОБАВЛЕНО из ahillary_3)
- Ahillary бонус ур.4: настройка сервера (SSH, nginx, systemd), шифрование данных —
пройти полностью
- Написать Dockerfile для Python-агента
- Docker Compose: агент + Qdrant + Langfuse — один файл, одна команда
- Все секреты в .env — никаких ключей в коде
- Задеплоить на VPS: Hetzner CX21 (€3.9/мес) или DigitalOcean ($6/мес)
- restart: always — автозапуск при падении
- 🔢 Математика (нед.13): 3B1B Neural Networks гл.8 «Visualizing attention, a transformer's heart» (~26 мин). StatQuest: AdaBoost (~22 мин) + Gradient Boost Part 1 (~15 мин) + XGBoost Part 1 (~20 мин) — прямо под ProGlib тему 9 (бустинг). Transformer Neural Networks (~36 мин) — «опередить» Karpathy концептуально.
- 📺 ШАД (2 лекции, max):
📚 Ahillary бонус ур.4 (сервер+шифрование) + docs.docker.com/compose +
hetzner.com/cloud + shad.yandex.ru/sreweek
|
Было: система работает локально. Сейчас: деплой = разница между
«у меня на компе» и «работает всегда». Ahillary бонус ур.4 идеально сюда
— перед выходом в интернет: SSH, nginx, шифрование.
|
Docker ComposeВесь стек одной командой: docker compose up -d.
Агент + Qdrant + Langfuse вместе.
VPSСервер 24/7 в интернете. €3.9–6/мес. Hetzner
— лучшее соотношение цена/мощь.
КУРСML ProGlib ML (финал)Тема 9: XGBoost/CatBoost + Тема 12: Рекосистемы — 🎉 ML курс завершён!
|
- docker compose up -d → вся система на VPS 24/7
- Guardrail: больше 5 запросов/мин → стоп + алерт в Telegram
|
BOOKLLM Hands-On LLMs (D1)начать — гл.1–2 введение
|
LangfuseDocker ComposeVPS |
79%
|
| 8–18 июнНед. 14–15 |
ProGlib 8.06
Дипломный проект ProGlib v1
- MCP + LangGraph + AgentOps + security — всё вместе
- «Как в проде»: метрики, бюджеты, воспроизводимость
🎓 Диплом ProGlib: 18.06
|
Самост.
«Задумка по экономике» v1.0 — полная сборка
- RAG: 10+ PDF по экономике загружены в Qdrant
- n8n: 3 источника новостей парсятся по расписанию
- LangGraph: полный цикл оценки работает
- Telegram: вопрос → ответ с источником и уверенностью
- Langfuse: трейсы видны, стоимость под контролем
- README на GitHub на английском: архитектура, как запустить
- 🔢 3B1B Neural Networks гл.9 (финал курса): «GPT from scratch» (~26 мин) — смотреть в свободный вечер во время диплом-спринта. Замыкает весь NN-курс 3B1B (гл.1–9). После этого Karpathy «Let's build GPT» в нед.21–22 — уже не магия.
- 📺 ШАД (фоновый просмотр, перенос с нед.13):
|
Было: все компоненты работают. Сейчас: финальная сборка.
«Задумка» = дипломный проект ProGlib = первый кейс портфолио. Три в одном.
|
Весь стек Фаз 0–2Момент синтеза. Всё изученное в одном
работающем проекте.
|
- «Задумка по экономике» v1.0 — 24/7 на VPS
- Диплом ProGlib сдан 18.06
- Первый публичный кейс задокументирован
|
PDFPROG aiogram — Telegram Botdocs.aiogram.dev — Telegram интеграция уже нужна в v1.0
PDFAI LangGraph docstutorials — полный граф для диплома
|
VPS |
84%
|
| Период |
🎓 ProGlib |
📚 Самостоятельно |
💡 Почему сейчас? |
🔧 Инструменты |
🧪 Проект |
📚 Источники |
📈 Стек |
% |
| 19 июн–6 июлНед. 16–18 |
ProGlib (конец июня)
FinOps: оптимизация затрат
- Semantic cache / prefix caching
- Model routing: дешёвая→дорогая модель
- Атрибуция стоимости по фичам
- Алерты при аномалиях стоимости
📚 ProGlib + gptcache.readthedocs.io
|
Самост.
vLLM (local inference) + Fine-tuning ТЕОРИЯ (читать)
- pip install vllm → запустить Mistral 7B или Qwen2.5 7B локально
- ⚠ vLLM требует NVIDIA GPU. Без GPU — использовать Ollama как fallback: те же эксперименты с качеством/latency, другой сервер.
- Подключить к LangGraph вместо Claude API для тестов
- Замерить: качество vs стоимость vs latency — записать в таблицу
- GGUF (CPU-квантование) vs AWQ (GPU-квантование) — разобрать разницу. Numerical
precision: fp16, bf16, int8, int4 — что стоит за цифрами (20 мин)
- Inference Optimization: метрики latency (TTFT, TPOT), batching стратегии, compute vs
memory-bound — vllm.readthedocs.io serving/openai_compatible_server
- HuggingFace LLM Course гл.3–6: fine-tuning теория + Datasets + Tokenizers —
дочитать то что читали в нед.5–6, теперь с пониманием практики
- Chemometrics PDF гл.1–3: базовая статистика для аналитической химии
- 📺 ШАД (3 лекции, растянуть на 3 недели):
- 🔥 PyTorch ПРАКТИКА (обязательно перед июльским LoRA!):
- StatQuest YT (4 видео): «PyTorch for Deep Learning» intro (~22 мин) + «Coding a Neural Network in PyTorch» (~25 мин) + «RLHF» (~19 мин). Смотреть до кода — концептуальная основа.
- StatQuest Neural Networks (B2) гл.4–7: запускать код! Tensor операции, forward pass, обратное распространение с autograd — не читать, а набирать и смотреть что происходит.
- Karpathy micrograd (github.com/karpathy/micrograd): 150 строк, автодифференцирование с нуля — читать и разбирать. Зачем: после этого LoRA в июле не магия.
- Цель: к концу нед.18 уметь написать простую нейросеть на PyTorch без помощи туториала.
📚 vllm.readthedocs.io + huggingface.co/learn/llm-course (гл.3-6 дочитать) + Chemometrics PDF (гл.1-3) + github.com/karpathy/micrograd + StatQuest YT (PyTorch+RLHF) + StatQuest B2 (гл.4-7, запускать код) + shad.yandex.ru/llmscalingweek (Тема 1+5) + shad.yandex.ru/gptweek (Лек.6)
|
Было: диплом сдан, система на проде. Сейчас: оптимизируем
стоимость — реальные деньги тратятся. vLLM учит что отдать дешёвой 7B, что — Claude.
Fine-tuning теория читается сейчас — к августу готовы к практике.
|
vLLMHigh-performance сервер для локальных моделей. Альтернатива
Claude API когда хватает качества 7B.
Semantic CacheПохожий вопрос задавался → из кэша без LLM.
Экономия 30–40% токенов.
|
- Semantic cache в проекте: измерить экономию за неделю в Langfuse
- Первые PCA-эксперименты на хроматографических данных (sklearn)
|
BOOKLLM Hands-On LLMs (D1)гл.3–5: embeddings, text
generation
PDFCHEM Chemometrics PDFгл.1–3 — статистика
для хим. данных (файл в проекте)
YTDL 3B1B: How LLMs store facts (гл.7)~23 мин — перед LoRA fine-tuning: понимание механики MLP как key-value хранилища
|
vLLMSemantic Cache |
87%
|
| 7–31 июлНед. 19–22 |
ProGlib (30 июл)
Security углублённо
- Prompt injection: типы атак, защиты
- DLP: фильтрация PII и секретов
- RBAC: scoped tokens, kill switch
- Red teaming: атаковать своего агента
ProGlib (нач. авг)
Infrastructure углублённо
- Streaming / WebSockets
- Queue-based архитектура
- Code sandboxing (E2B)
📚 ProGlib + e2b.dev/docs
|
Самост.
Fine-tuning ПРАКТИКА (LoRA/QLoRA) + специализация химия
- pip install peft transformers datasets accelerate
- Взять небольшую модель: gemma-2b или phi-3-mini
- LoRA fine-tuning на 100–200 своих Q&A парах (химия или экономика)
- Сравнить base vs fine-tuned на 10 тестовых вопросах — оформить как эксперимент
- Chemometrics гл.4–6: PCA, PLS, cluster analysis. PLS (Partial Least Squares): читать как специальный случай регрессии — Y = X·β в пространстве латентных переменных. MML Book гл.10 (Dimensionality Reduction) — сначала понять PCA, затем PLS как его supervised-аналог. Без этого глава по PLS будет туманной.
- sklearn Pipeline: PCA → классификатор на хроматографических данных CSV
- MCP-инструмент: analyze_chromatogram(file_path) → интерпретация пиков
- HF LLM Course гл.7 + гл.11: NLP tasks (гл.7) — NER, Q&A; Fine-tune LLMs (гл.11) — LoRA + PEFT
с trl. Прямо под задачу LoRA/QLoRA этих недель. Запускать код!
- 📺 3B1B NN + StatQuest + Karpathy (обязательный порядок):
- 3B1B Neural Networks гл.5–9 уже просмотрены в нед.11–15. Напомнить себе гл.8–9 («Attention» + «GPT from scratch») — 10 мин. Гл.1–4 просмотрены в нед.8–10.
- StatQuest YT: «Coding a ChatGPT-Like Transformer from Scratch» (~31 мин) — смотреть перед Karpathy, закрепляет архитектуру без глубокого кода.
- Andrej Karpathy: Let's build GPT — PyTorch с нуля. Смотреть после 3B1B и micrograd (нед.16–18). Цель: понять как работает трансформер изнутри до LoRA.
📚 huggingface.co/docs/peft + Chemometrics PDF (гл.4-6) +
huggingface.co/learn/nlp-course + 3B1B Neural Networks гл.5–9 (гл.1–4 просмотрены в нед.8–10) + StatQuest Coding ChatGPT-Like Transformer + Karpathy YouTube
|
Было: vLLM, fine-tuning теория прочитана. Сейчас: первый
fine-tuning эксперимент — не для прода, для понимания изнутри. Специализация по химии
— оформляем в рабочий код — это уникальное конкурентное преимущество.
|
PEFT / LoRAFine-tuning больших моделей с минимальными ресурсами.
LoRA = адаптерные матрицы — обучать можно на Colab бесплатно.
HuggingFace transformers + datasetsЗапуск и дообучение моделей.
datasets = готовые датасеты или свои данные.
|
- Fine-tuning: base vs LoRA — разница задокументирована в README
- AI-инструмент для хроматографии: CSV → агент → интерпретация пиков —
прототип работает
|
BOOKDL Hands-On ML (C1)гл.15–17: Sequences, Attention,
Transformers
PDFPROG PyTorch Tutorials (официальные)pytorch.org/tutorials — Basics: Tensors, Autograd, Training Loop. Справочник при ступоре в LoRA.
PDFCHEM Chemometrics PDFгл.4–6: PCA, PLS,
Cluster Analysis (файл в проекте)
PDFLLM HF LLM Course гл.7 + гл.11llm-course — NLP
tasks + Fine-tune LLMs (LoRA, PEFT, trl) — запускать код!
YTDL StatQuest: Coding a ChatGPT-Like Transformer (~31 мин)YouTube — смотреть перед Karpathy «Let's build GPT». Гл.1–9 3B1B NN просмотрены ранее (нед.8–15).
YTDL Andrej Karpathy: Let's build GPTYouTube — PyTorch с нуля, нед.21–22
|
vLLMPEFT/LoRAtransformersChemometrics ML |
92%
|
| 1–20 авгНед. 23–26 |
ProGlib 6.08 Local Inference углублённо
ProGlib 10.08 Governance & Compliance
ProGlib 17.08 Enterprise MCP + Human approvals
ProGlib 20.08 Capstone: нагрузочное тест., red teaming, Go/No-Go
📚 ProGlib + locust.io
|
Самост.
OpenClaw + финальный спринт портфолио
- OpenClaw на VPS: установить, подключить к Telegram, написать первый skill.md. Источник: openclaw.ai → Docs → Getting Started (убедиться что страница жива, иначе — github.com поиск openclaw)
- Fallback если openclaw.ai недоступен: Claude Code + systemd cron + Telegram webhook — аналогичный результат персонального агента 24/7.
- Release Engineering: версионирование промптов через git tags
- A/B тест промптов: 2 варианта оценки → выбрать лучший через RAGAS
- Кастомный MCP-сервер для хроматографии — публичный GitHub
- GitHub: 2 публичных репо + README + схема архитектуры + демо-видео (Loom)
- LinkedIn на английском: «AI Engineer | AI Integration for Analytical Chemistry»
- 2 кейса: «проблема → решение → результат» → LinkedIn post
- HF LLM Course гл.10: Curate high-quality datasets — как собрать и разметить данные для
fine-tuning. Прямо под A/B тест промптов и Release Engineering этих недель.
- 📺 ШАД (A/B Week финал):
📚 openclaw.ai + docs.anthropic.com/claude-code + loom.com + shad.yandex.ru/abweek (Лек.3+4+5)
|
Было: оба проекта работают. Сейчас: упаковать в портфолио.
AI-инженер без публичного кода — невидимка. Два репо + LinkedIn + кейсы = рыночная
видимость.
|
OpenClawПерсональный AI-агент 24/7. Telegram → агент
выполняет задачи. Всегда онлайн.
Release EngineeringВерсионирование промптов, A/B тесты в проде,
rollback при деградации.
|
- Кейс 1: Экономический агент — RAG + LangGraph + n8n + Telegram
- Кейс 2: AI-инструмент для хроматографии — MCP + sklearn + HuggingFace
- Оба на VPS, задокументированы, ссылки в LinkedIn
|
BOOKML 100-Page ML Book (C2)справочник — быстрое
освежение
PDFLLM HF LLM Course гл.10llm-course —
Curate datasets для fine-tuning
|
PEFT/LoRAOpenClawRelease Eng. |
97%
|
| 21–31 авгФИНАЛ |
ProGlib 31.08 🎓 Диплом Capstone |
- Список компаний: фармацевтика, нефтехимия, промышленная аналитика — кто платит за AI
- Первые холодные контакты в LinkedIn (на английском)
- Оформить Upwork профиль: AI Engineer for Scientific Analytics
|
Итог: ты готов к выходу на рынок.
|
— |
✅ К 1 сентября: AI Engineer — рабочие кейсы, fine-tuning
понимание, специализация, GitHub, LinkedIn. Готов к коммерции.
|
PROG Upwork Getting Startedupwork.com — оформление профиля AI Engineer
PROG LinkedIn profile guidelinkedin.com/help — оптимизация профиля для найма в AI/ML нише
|
Весь стек |
100%
|
Инфра и среда
Python 3.10+, Git (ветки, PR, tags), Docker + Compose, VPS Linux (SSH, nginx),
venv, .env, Node.js, PostgreSQL (осень)
Инструменты разработки
Claude Code (CLI, основной), VS Code, Playwright (web automation),
asyncio, Loguru (логирование)
AI-оркестрация агентов
LangGraph (граф состояний), PydanticAI (типизация), LangChain, CrewAI
(теория), MCP (свои серверы), LangFlow (прототипы)
RAG и память
Qdrant (продакшн), ChromaDB (прототипы), LlamaIndex, GraphRAG (осень), Corrective
RAG, Self-RAG, parent retrieval
Локальные модели
Ollama, vLLM, HuggingFace Hub, GGUF (CPU-квантование), AWQ (GPU-квантование),
OpenClaw (персональный агент)
Fine-tuning (август–осень)
PEFT/LoRA, QLoRA (Colab), HuggingFace transformers + datasets +
accelerate, DPO (теория), публикация на HF Hub
Автоматизация и интеграции
n8n (пайплайны), MCP (стандарт), Playwright, Telegram Bot API,
Webhooks, A2A
Мониторинг и качество
Langfuse (self-hosted), LangSmith, RAGAS, DeepEval, RAGAS A/B-тест,
Semantic Cache, Cost dashboard
Данные и классический ML
pandas, NumPy, matplotlib, seaborn, plotly, scikit-learn, yfinance,
BeautifulSoup4
MLOps (декабрь)
CI/CD для ML, автопереобучение, Kubernetes основы, rolling deploys, Model
versioning
🎯 Специализация (уникальная ниша)
Chemometrics: PCA, PLS, cluster analysis. Анализ
хроматограмм через ML. Multimodal: Vision API для спектров. AI для аналитической химии — ниша
почти пустая.
❌ Не тратить время
Cursor (фронтенд-IDE), AutoGen (LangGraph лучше),
Solidity/Aptos/Twitter-боты (Ahillary бонус — пропустить полностью), web3/крипто, Kubernetes до
декабря
Реализуемость: при 3–4 ч/день без пропусков. Через 6 месяцев ты строишь рабочие агентные
системы: RAG, LangGraph, MCP, деплой, мониторинг.
Специализация AI + аналитическая химия — ниша почти пустая. Фармацевтика, нефтехимия,
промышленная аналитика — активно ищут AI-специалистов. Два рабочих кейса + LinkedIn к январю
2027 создают условия для удалённых контрактов и собственных проектов.
К 2027–2028 с этим стеком ты попадаешь в 5% специалистов по AI-интеграции для hard science
отраслей. Пустая ниша + правильный стек = несимметричное преимущество. При развитии портфолио реалистично рассчитывать на $5–15k/мес удалённо, плюс собственные проекты.
⚠ Риск 1 — Темп: ProGlib 2–3 занятия/нед + самостоятельная
программа параллельно — плотно. Если ProGlib отстаёт — самостоятельное НЕ режешь. Режешь
время на ProGlib.
⚠ Риск 2 — Fine-tuning: Глубокий fine-tuning за 6 мес при текущем
уровне нереален. Теория — с апреля. Базовый LoRA эксперимент — август. Полноценно —
осень. Так и запланировано.
⚠ Риск 3 — Выгорание: 180 дней подряд по 3–4 ч —
физиология. Реши заранее: 1–2 тихих дня в месяц. Это управление ресурсами, не слабость.
⚠ Риск 4 — Монетизация: Первые коммерческие проекты в октябре–ноябре опираются на реальный спрос. LinkedIn + GitHub создают видимость, но требуют постоянного наполнения. Стабильный доход зависит от качества портфолио и способности находить и удерживать клиентов.
Блок 1 (1–1.5 ч): Курс ProGlib — лекция или задание. Без параллельных вкладок.
Блок 2 (1.5–2 ч): Самостоятельная практика по плану недели. Пишешь, запускаешь, ломаешь,
чинишь. Claude Code помогает — но каждую строчку объясняешь себе вслух или пишешь 1–2 строки в
дневнике.
Блок 3 (20–30 мин): 1 git commit + 3–5 строк: что сделал, что непонятно, что
завтра.
Правило понимания: Можешь объяснить за 2 минуты голосом — что сделал и почему именно так? Нет
→ не двигаешься дальше.
Из Ahillary берёшь: ООП (ур.8), async (ур.9), парсинг (ур.7), базы данных (доп. ур.5), Playwright
(доп. ур.4),
Git (бонус ур.1 — ДОБАВЛЕНО в v3),
сервер+шифрование (бонус ур.4 —
ДОБАВЛЕНО в v3), Pydantic (архив ур.2 — только Pydantic-раздел), RAG ур.2/3/5/6.
HuggingFace LLM Course (huggingface.co/learn/llm-course): гл.1–2 (нед.4, читать) →
гл.3–4 (
нед.5–6, читать при наличии времени — нед.5 перегружена, можно перенести на нед.6) → гл.5–6 (нед.6–7, читать) → гл.7+11 (июль,
запускать код!) → гл.10 (август) → гл.12 (сентябрь). Гл.8 и 9 — пропустить.
Математика (недели 2–8): 20–30 мин/день — 3Blue1Brown (линал + calculus) и
StatQuest YouTube
(статистика).
Не отдельным блоком — вечером перед сном или в перерыве. К неделе 6 у тебя будет концептуальная база для
понимания ML изнутри.
3B1B + StatQuest правило (недели 8–22):
- 4 видео/нед — норма, 6 — максимум. Не превышать: лучше посмотреть меньше и понять, чем прокрутить и забыть.
- Смотреть по расписанию недели, не наперёд. Каждое видео привязано к теме курса — это намеренно.
- 3B1B Neural Networks гл.1–9: строго по неделям (нед.8→гл.1, нед.9→гл.2-3, нед.10→гл.4, нед.11→гл.5-6, нед.12→гл.7, нед.13→гл.8, нед.14-15→гл.9). Не смотреть вперёд.
- StatQuest ML (SVM, Decision Trees, RF, XGBoost) — параллельно с ProGlib темой недели. StatQuest DL (Transformer, BERT) — параллельно с нед.12-13.
- 3B1B LinAlg / Calculus добиваем в нед.10–11 (гл.15–16 LinAlg), потом закрыты.
Буфер: 1–2 «тихих» дня в месяц без обязательств. Это управление ресурсами.
📖 ПРАВИЛЬНЫЙ ПОРЯДОК — не нарушать:
② АПР–ИЮЛЬ →
StatQuest ML YT (SVM→DT→RF→XGBoost, по темам недели) + Hands-On ML Géron (C1, по главам)
③ МАЙ–АВГ →
StatQuest Neural Networks & AI (B2) + HuggingFace NLP Course
④ ИЮЛЬ → Karpathy "Let's build GPT" YT (нед.21–22, после 3B1B гл.1–9 +
StatQuest ChatGPT Transformer)
④ АВГ–СЕНТ → Hands-On LLMs (D1)
⑤ СЕНТ–ОКТ → AI Engineering книга Chip Huyen (D2) — только после D1 и
мат.базы!
⑥ НОЯ–ДЕК → GenAI System Design ByteByteGo (D3) + Practical MLOps (D4)
🔢 МАТЕМАТИКА — фундамент (март–май, 20 мин/день)
Смотреть параллельно с
курсом. Не читать подряд — по 2–3 видео в неделю, строго в порядке.
Линейная алгебра
YTLINAL 3Blue1Brown —
Essence of Linear Algebra
15 видео, бесплатно, ~10–15 мин каждое.
Лучший визуальный линал. Покрывает всё нужное для ML.
Нед.2: гл.1–3 (Vectors, Transformations) · Нед.3: гл.4–8 (Matrix mult, Determinant, Inverse) ·
Нед.4–5: гл.9–12 · Нед.6: гл.13–15 (
Eigenvalues → это PCA)
→
YouTube плейлист
Сравнение: единственный топовый ресурс по линалу такого качества. MML Book —
академический справочник, но не для первого знакомства.
PDFLINAL Mathematics
for Machine Learning — eBook (справочник)
Бесплатно PDF. Академический. Линейная алгебра, Calculus, теорвер для ML.
НЕ читать подряд — открывать при конкретном ступоре.
Полезные главы: гл.2 (LinAlg recap, нед.5), гл.5–6 (Vector spaces, нед.8), гл.7 (Optimization,
нед.10), гл.10–12 (Dimensionality Reduction, июнь).
→ mml-book.github.io
Сравнение: 3B1B — для понимания, MML Book — для доказательств и формул. Используй
вместе: сначала 3B1B, потом MML если хочется глубже.
Calculus
YTCALC 3Blue1Brown —
Essence of Calculus
12 видео, бесплатно, ~10–15 мин каждое.
Нед.4: гл.1–5 (Derivatives, Chain Rule, Gradient интуиция) · Нед.5–6: гл.6–9 (
Gradient Descent →
как учится LinearRegression) · Нед.7: гл.10 «e и натуральный логарифм» + гл.11 «Integration» + гл.12 «Differentiation через limits» · Нед.8: гл.13 «Higher derivatives» + гл.14 «Taylor series»
→
YouTube плейлист
Сравнение: единственный нужный ресурс по calculus для ML. MML Book гл.5–7 — если
нужны формальные определения.
PDFLINAL MML Book
гл.5–7 — Calculus + Optimization
Справочник. Гл.5: Vector calculus. Гл.6: Probability. Гл.7: Continuous Optimization (SGD,
momentum).
Открывать при ступоре на нед.10+ (MCP, fine-tuning теория).
→ mml-book.github.io
Сравнение: 3B1B даёт интуицию, MML Book даёт формальный аппарат. MML нужен если
идёшь глубже в теорию, 3B1B достаточно для практики AI Engineer.
Статистика и теорвер
YTSTATS StatQuest —
Statistics Fundamentals плейлист
Бесплатно. Гистограммы, Mean/Variance, Distributions, p-values, Bayes, MLE.
Нед.3–5: смотреть по теме недели (нед.5 — ROC/AUC/Confusion Matrix прямо с тем что учишь в
ProGlib).
→ @StatQuest YouTube
Сравнение: StatQuest YT — самый быстрый старт. StatQuest Statistics книга (B3) —
то же самое + Python примеры + более полно. ISLP — академически строже, на сентябрь.
BOOKSTATS StatQuest —
Illustrated Guide to Statistics (B3)
Josh Starmer. 319 стр. Python + R примеры. Иллюстрированный.
Histograms → Probability Distributions → Hypothesis Testing → p-values → Regression → t-tests →
Power Analysis.
→ StatQuest.org/store
Сравнение: лучше чем ISLP для старта — проще, с картинками. ISLP строже, ISLP в
сентябрь. B3 — если хочешь книгу под руку с апреля.
🧬 КЛАССИЧЕСКИЙ ML (апрель–август)
StatQuest ML YT плейлист заменил книгу B1 в недельных планах (апрель–июль). B1 книга — опциональный справочник. Géron C1 остаётся основным кодовым ресурсом.
BOOKML StatQuest —
Illustrated Guide to ML (B1) [заменена YT плейлистом]
Josh Starmer. 305 стр. Иллюстрированный. Без воды.
ML Fundamentals → Cross Validation → Statistics → Linear Regression → Gradient Descent → Logistic
Regression → Naive Bayes → Model Assessment → Regularization → Decision Trees → SVM → Neural
Networks.
В недельных планах заменена на StatQuest ML YT плейлист (@StatQuest). Книга опциональна — покупать не нужно, YouTube охватывает те же темы бесплатно.
→ Gumroad (автор) ·
→ Amazon
Сравнение: заменена YT плейлистом, который охватывает те же темы по неделям (нед.8–13). Géron C1 остаётся основным кодовым ресурсом.
BOOKML Hands-On ML
(Géron, C1) ⭐ ОСОБО РЕКОМЕНДОВАНА
Aurélien Géron. 3-е изд., O'Reilly. Весь ML pipeline от данных до деплоя. TF синтаксис, концепции
универсальны.
Гл.1 (нед.4) → гл.2–4 (нед.6) → гл.5–8 (нед.7–8) → гл.10–13 (нед.11–12) → гл.15–17 (июль).
→ amzn.to/4l4veCZ
Сравнение: самая полная практическая книга по ML. B1 (StatQuest) проще, C2
(100-Page) компактнее, ISLP строже. C1 — основная на апрель–июль.
BOOKML The Hundred-Page
ML Book (C2)
Компактный справочник. Весь ML за ~150 стр. Читать быстро как обзор.
→ amzn.to/3FNAzzN
Сравнение: не замена C1, а дополнение. C1 глубокий и с кодом, C2 — быстрое
освежение. Использовать в августе перед портфолио.
PDFML ISLP — Intro to
Statistical Learning (Python, C3)
Бесплатно PDF. Академически строгий. Python-версия. Regression, Classification, Trees, SVM, Deep
Learning.
→ statlearning.com
Сравнение: строже чем StatQuest, проще чем Elements of Statistical Learning
(который скипаем). Использовать в сентябре для углубления теории когда уже есть практика.
🧠 DEEP LEARNING — нейросети и трансформеры (май–сентябрь)
Читать после StatQuest ML YT (нед.8–13). PyTorch — не TensorFlow.
BOOKDL StatQuest — Neural
Networks & AI (B2) ⭐
Josh Starmer. 363 стр. Примеры на
PyTorch.
Backpropagation → Attention → Transformers → hands-on PyTorch.
Нед.8–12: читать по главам. Август: финальные главы под fine-tuning.
StatQuest-store/" target="_blank">→ StatQuest.org/store ·
→ Amazon
Сравнение: лучше Géron гл.10–11 для первого понимания нейросетей — проще и на
PyTorch. Karpathy глубже и с нуля строит GPT. Порядок: B2 → Karpathy.
YTDL Andrej Karpathy —
"Let's build GPT" + "Intro to LLMs"
PyTorch трансформер с нуля. Один из лучших материалов по нейросетям в мире.
"Intro to LLMs" (1 час) — сначала. "Let's build GPT" — после B2.
→ @AndrejKarpathy
Сравнение: Karpathy — практика с нуля. B2 (StatQuest) — теория с картинками. 3B1B
Neural Networks плейлист — интуиция. Все три дополняют друг друга.
YTDL 3Blue1Brown — Neural
Networks плейлист
8 видео. Расставлены по неделям — не смотреть подряд.
Нед.8: «Large Language Models explained briefly» (~8 мин) — карта LLM перед углублённым RAG/Qdrant
Нед.11: Гл.5 «Transformers, the tech behind LLMs» (~27 мин) + Гл.6 «Attention in transformers, step-by-step» (~27 мин) — под LangGraph +
StatQuest B2 гл.7-10
Нед.16–18: Гл.7 «How might LLMs store facts» (~23 мин) — перед fine-tuning теорией, понимание механики LoRA
Нед.19–20: Гл.1 «But what is a neural network?» (~19 мин) + Гл.2 «Gradient descent» (~21 мин) + Гл.3 «Backpropagation, intuitively» (~13 мин) + Гл.4 «Backpropagation calculus» (~10 мин) — до Karpathy (нед.21–22)
Пропустить: Guest video Welch Labs (генерация изображений) — не в специализации.
→
Neural Networks плейлист
Сравнение: самое чистое визуальное объяснение backprop и трансформеров. Короче StatQuest. Расставлен по неделям чтобы каждое видео попадало точно в тему момента.
YTDL PyTorch Tutorials
(официальные)
Практика PyTorch. Старт с августа параллельно с LoRA.
→ pytorch.org/tutorials
Сравнение: официальные доки хороши для справки. B2 (StatQuest) лучше для первого
понимания PyTorch концепций. Используй вместе.
🤖 AI ENGINEERING — LLM и продакшн (август–декабрь)
Читать строго в указанном
порядке. Chip Huyen книга — последней.
BOOKLLM Hands-On Large
Language Models (D1)
Практика LLM end-to-end: embeddings, fine-tuning, deployment.
Старт нед.13, основная читка нед.16–23.
Читать ДО книги Chip Huyen (D2).
→ amzn.to/4kGW0ld
Сравнение: более практичный чем D2. D2 — системный взгляд на архитектуру. D1
сначала — строишь руками, D2 — понимаешь зачем.
BOOKAI AI Engineering —
Chip Huyen (D2)
Продакшн AI системы. RAG, fine-tuning, evaluation, inference, архитектура.
⚠️ Читать ПОСЛЕ D1 + твёрдой базы Python + ML.
Старт нед.16, основная читка сентябрь–октябрь.
→ amzn.to/3Zy737M
Сравнение: самая полная книга по AI Engineering на 2025–2026. D1 = практика, D2 =
архитектура и системное мышление. Видео-обзор (76 мин) = карта перед чтением.
BOOKAI GenAI System
Design Interview (ByteByteGo, D3)
Ali Aminian & Hao Sheng. System design для production AI. Позиционирование на рынке.
Ноябрь–декабрь.
Сравнение: D2 = как строить системы, D3 = как объяснять их на интервью и
клиентам. Взаимодополняют.
PDFLLM HuggingFace LLM
Course (бывший NLP Course)
Бесплатно. 12 глав. Трансформеры → fine-tuning → LLM techniques.
Переименован из "NLP Course" в "LLM Course" в 2025 — добавлены гл.10–12.
Когда читать по главам:
Гл.1–2: нед.4 (читать, не кодить — нет базы DL)
Гл.3–4: нед.5–6 (читать теорию fine-tuning — нед.5 перегружена, при нехватке времени сдвинуть на нед.6)
Гл.5–6: нед.6–7 (Datasets + Tokenizers — читать)
Гл.7 + 11: нед.19–22 (июль) —
запускать код! NLP tasks + LoRA/PEFT с trl
Гл.10: нед.23–26 (август) — curate datasets для fine-tuning
Гл.12: сентябрь — reasoning models (DeepSeek R1-style)
Гл.8, 9: пропустить (форумы и Gradio — не приоритет)
→
huggingface.co/learn/llm-course
Сравнение: D1 (Hands-On LLMs) — книга с кодом, D2 (Chip Huyen) — архитектура. HF
Course — официальные доки в форме курса. Используй все три: HF Course = как пользоваться
библиотеками, D1 = строишь руками, D2 = понимаешь зачем.
⚙️ MLOPS — деплой и мониторинг (декабрь)
BOOKMLOPS Practical
MLOps (O'Reilly, D4)
CI/CD для ML, автопереобучение, мониторинг моделей в проде.
Декабрь — когда уже есть опыт с деплоем на VPS и Langfuse.
→ amzn.to/44hTn3q
Сравнение: единственная книга по MLOps в списке. Хорошо дополняет практику деплоя
из нед.13.
YTDL fast.ai — Practical
Deep Learning for Coders
Бесплатно. Практика первая, теория потом. Альтернативный путь к DL.
Сентябрь — как альтернатива если B2 (
StatQuest) не зашёл.
→ fast.ai/courses
Сравнение: fast.ai = практика-first, B2 = теория-first с PyTorch. Стиль разный —
выбери что ближе. Не нужно оба.
⚗️ ХИМИЯ + ML — специализация (июнь–июль)
PDFCHEM Statistics &
Chemometrics for Analytical Chemistry (H1)
Файл в проекте: Statistics_and_Chemometrics_for_Analytical_Chemistry_6th.pdf
Гл.1–3 (нед.16–18, июнь): базовая статистика для хим. данных.
Гл.4–6 (нед.19–22, июль): PCA, PLS, Cluster Analysis → прямо для хроматографии.
Сравнение: единственный специализированный источник по хемометрике в списке.
Дополняется sklearn docs (decomposition) и StatQuest PCA видео.
YTCHEM StatQuest — PCA
Step-by-Step
Лучшее визуальное объяснение PCA. Прямо под хроматографические данные.
Июль — параллельно с Chemometrics гл.4–6.
→ @StatQuest → поиск "PCA
StatQuest"
Сравнение: Chemometrics PDF = что делать с данными, StatQuest PCA = почему это
работает математически. Оба нужны.
❌ СКИПНУТО — почему
ML Specialization (Andrew Ng, Coursera) — дублирует ProGlib + Géron +
StatQuest. Лишняя
нагрузка.
Deep Learning Specialization (DeepLearning.AI) — закрывается
StatQuest B2 + Karpathy + HF NLP
Course, которые лучше и бесплатнее.
The Elements of Statistical Learning — академически тяжёлый, для research/PhD. Для AI Engineer
ISLP (C3) достаточно и проще.
Python / CS50 / NeetCode / Learn Python — Python уже знаешь (нед.1 = "не повторять, вперёд").
CS50 слишком общий. NeetCode = алго для FAANG-интервью, не под твою задачу.
StatQuest ML YT — скипнуть (включены в план) или
не скипать ключевые:
Скипнуть (тема уже закрыта ProGlib глубже): K-Nearest Neighbors, Linear Discriminant Analysis, Ridge/Lasso Regression (ProGlib тема 6), Cross Validation deep-dive (ProGlib тема 2), Logistic Regression (ProGlib тема 5), Clustering K-means (ProGlib тема 10).
Скипнуть (не в твоём стеке): CatBoost (в плане XGBoost — достаточно), LightGBM (аналогично), R-related видео, Survival Analysis, Cox Model.
Скипнуть StatQuest DL (закрыто 3B1B + Karpathy лучше): Long Short-Term Memory (LSTM) — нет в плане, устаревший для LLM; GAN / VAE — не в стеке; CNN deep-dive — не нужен для NLP-специализации.
НЕ скипать (включены в план): SVM, Decision Trees, Random Forest, AdaBoost, Gradient Boost, XGBoost, Naive Bayes, Word Embedding, PCA, t-SNE, Neural Networks Pt.1+Backprop, Encoder-Only Transformers (BERT), Transformer Neural Networks, PyTorch intro, Coding NN in PyTorch, RLHF, Coding ChatGPT-Like Transformer, Attention in Transformers.
🎓 ШАД ЯНДЕКС — интенсивы (по записям)
Короткие интенсивы от практиков Яндекса. Записи доступны на страницах курсов после проведения. Смотреть точечно по неделям плана — не курсами целиком.
YTAI GPT Week — Введение в LLM + Alignment
Практики Яндекса, кто строил YandexGPT. Сжато и по делу: как работают LLM изнутри.
Нед.2: Лек.1 «Введение в LLM» (~35 мин) — токены, context window, pretrain
Нед.2: Лек.2 «Претрейн» (первые 20 мин) — концептуальная часть: что такое pretrain-модель
Нед.3: Лек.5 «Alignment» (~30 мин) — RLHF, SFT, почему модели отвечают так как отвечают
Нед.16: Лек.6 «Ускорение инференса LLM» (~45 мин) — KV-cache, батчинг, квантование
Пропустить: Лек.3–4 (Претрейн полностью + Подготовка данных — GPU-кластер, не твой стек), все семинары.
→ shad.yandex.ru/gptweek
Сравнение: в отличие от HF LLM Course (теория-документация) и Chip Huyen (архитектура систем) — GPT Week даёт взгляд изнутри от людей, которые запускали YandexGPT в прод. Дополняет, не заменяет.
YTSTATS A/B Week — статистика для тестирования
Практики Яндекс Go. Передовые методы A/B тестирования — не академия, а то что работает в продакшн.
Нед.5: Лек.1 «Статистика для A/B: распределения, t-тест» (~1 час) — статбаза под ML метрики
Нед.5: Лек.2 «Ошибки I и II рода, MDE» (~1 час) — false positive/negative = precision/recall другими словами
Нед.23–26 (авг): Лек.3 «KS-тест, Манн-Уитни, метрики отношения» — сравнение двух промптов
Нед.23–26 (авг): Лек.4 «Доверительные интервалы, CUPED» — меньше данных для значимого результата
Нед.23–26 (авг): Лек.5 «Стратификация, peeking, Байес» — как не смотреть на результат до конца теста
→ shad.yandex.ru/abweek
Сравнение: StatQuest Statistics — интуиция и визуализация. A/B Week — прикладная статистика для конкретных задач: ML метрики и A/B тест промптов. Оба нужны, в разное время.
YTAI Agents Week — агенты от архитектуры до продакшна
Практики Яндекс Лавки, Алисы, Yandex Cloud. 5 лекционных дней. Самый важный ШАД-курс для AI Engineer.
Нед.5: Лек.1.1 «Intro to AI Agents LLM» (~50 мин) — ReAct loop, архитектура агентов
Нед.5: Лек.1.2 «Tools. MCP» (~50 мин) — инструменты и MCP концептуально
Нед.9: Лек.2 «Memory and Guardrails» (~1 час) — память агента, ограничители поведения
Нед.9: Лек.3 «AI Agent Workflow. Multi-Agent. Multimodality» (~55 мин) — оркестрация
Нед.10: Лек.5.1 «Production Engineering for LLM Agents» (~60 мин) — Docker, деплой, мониторинг
Нед.12: Лек.4 «Agent Evaluation» (~1 час) + Лек.5.2 «Production Engineering (продолжение)» (~60 мин)
→ shad.yandex.ru/agentsweek
Сравнение: Chip Huyen 76 мин (Agents секция) — обзор с высоты птичьего полёта. Agents Week — детали реализации от людей, которые запустили агентов в Яндекс Лавке и Алисе. Смотреть после Chip Huyen как углубление.
YTMLOPS SRE Week — инфраструктура и диагностика
Инфраструктура высоконагруженных систем. Нед.13 — прямо перед и во время деплоя на VPS.
Нед.13: Лек.1 «Как ломаются большие системы» (~45 мин) — статистика поломок, что мониторить
Нед.13: Лек.2 «CPU, память, диски и сеть» (~45 мин) — что читать в htop и iostat
Нед.14–15: Лек.3 «Утилиты диагностики Linux» (~45 мин) — htop, iostat, df, netstat
Нед.14–15: Лек.5 «SLO, алерты, incident management» (~45 мин) — SLO под Langfuse-мониторинг
Пропустить: Лек.4 (распределённые системы — у тебя один VPS), оба семинара.
→ shad.yandex.ru/sreweek
Сравнение: Ahillary бонус ур.4 — как настроить сервер (SSH, nginx). SRE Week — как понимать что происходит на сервере после запуска. Ahillary = установка, SRE = эксплуатация.
YTLLM LLM Scaling Week — арифметика DL и инференс
Инженеры команды YandexGPT. Как масштабируют LLM и оптимизируют инференс в продакшне.
Нед.16 (июн): Тема 1 «Арифметика глубокого обучения» (~1 час) — fp16, FLOPS, memory bandwidth.
Смотреть первой!
Нед.16–17 (июн): Тема 5 «Inference challenges» (лекция + семинар, ~1.5 часа) — KV-cache, batching, latency/throughput
Пропустить: Тема 2 (MoE), Темы 3.1–3.2 (FP8/Triton), Тема 4 (коммуникации) — всё про GPU-кластер, не твой стек.
→ shad.yandex.ru/llmscalingweek
Сравнение: Hands-On LLMs (D1) — практика vLLM и квантования с кодом. LLM Scaling Week — как те же проблемы решают в Яндексе на масштабе. Смотреть параллельно с D1 нед.16: Тема 1 до D1, Тема 5 после первых экспериментов с vLLM.