Только начинаешь путь в Data Science или хочешь освоить востребованную профессию с нуля.
Новичок без опыта в IT
{1}
Желаешь систематизировать или дополнить знания и расти в карьере.
Действующий Data Scientist, ML-инженер
{2}
Хочешь выйти за рамки разработки и применить свои навыки в ИИ и анализе данных.
Опытный разработчик
{3}
Технических и естественнонаучных специальностей, и хочешь расширить свой пул компетенций.
Студент и выпускник
{4}
Хочешь сменить профессию, освоить новую сферу и перейти в IT
Желаешь сменить профессию
{5}
Программа
Узнаете, как построить успешную карьеру в ИИ, научитесь грамотно составлять резюме и проходить собеседования.
Экспертная консультация
Карьерная сессия с экспертом по поиску работы в IT
Курс про контролируемую разработку AI-агентов: качество, стоимость, наблюдаемость и тестирование.
3-19 недель | практика
Разработка AI-агентов
Сможете создавать модели, обучать их на реальных данных и оценивать качество предсказаний.
Машинное обучение
6 недель | практика
Сможете писать собственные программы, анализировать данные и автоматизировать повторяющиеся задачи.
Основы Python
7 недель | 1 финальный проект
Сможете применять математические методы для решения прикладных задач в анализе данных и машинном обучении.
Математика
5 недель | практика
Программа [5 блоков, 28 тем, 1 финальный проект]
Основы Python
Неделя 1
Установка программного обеспечения
Знакомство с Рython. Компилятор и интерпретатор.
Запрос данных у пользователя. Функция input
Тестовые задания и задачи
Неделя 2
Операции с целыми и вещественными числами
Типы данных
Переменные
Логические операции. Операции сравнения.
Условия if/else.
Тестовые задания и задачи
Неделя 3
Базовая работа со строками.
Методы split и join.
Остальные методы строк.
Тестовые задания и задачи
Неделя 4
Базовая работа со списками. Метод append
Методы списков.
Срезы списков и строк.
Цикл while.
Тестовые задания и задачи
Неделя 5
Цикл for. Функции range() и print().Инструкции break и continue
Цикл for. Функция enumerate(). Вложенные циклы.
Генераторы списков.
Тестовые задания и задачи
Неделя 6
Функции.
Словари.
Работа с файлами.
Модули
Библиотеки.
Тестовые задания и задачи
Неделя 7
Создание бота для телеграм.
Парсинг веб-страниц
Неделя 8
Бонусные материалы
Итоговый проект
Программа [10 тем | практика]
Математика для DS
[Неделя 1] 1. Векторы и матрицы, операции с ними Теория:
Разберём, что такое векторы и матрицы, их базовые свойства.
Поймём, что такое определитель, ранг и обратимость
Разберем правила умножения и транспонирования
Практика:
В NumPy создадим массивы
Освоим различные операции над одномерными и двумерными массивами.
Результат: Уверенно оперируете матрицами и векторами и понимаете, как эти знания применяются 🛠 Сможете решать задачи:
Реализовывать базовые матричные операции
Находить обратные матрицы/ранги матриц
Осуществлять линейные преобразования и решать СЛАУ.
2. Линейная регрессия и МНК Теория:
Познакомимся с концепцией линейной зависимости
Построим модель линейной регрессии, разберём метод наименьших квадратов для поиска весов
Обсудим допущения и интерпретацию коэффициентов
Практика:
Реализуем МНК в NumPy и сравним со scikit-learn.
Научимся базовой подготовке данных и валидации моделей.
Результат: Умеете обучать, интерпретировать и оценивать линейную модель. 🛠 Сможете решать задачи: Строить простые прогностические модели, оценивать их качество.
[Неделя 2] 3. Матричные разложения Теория:
Познакомимся с собственными значениями/векторами и их смыслом.
Изучим SVD: разложение, применение к снижению размерности и построению рекомендательных систем.
Практика:
Реализуем SVD в NumPy
Снизим размерность данных
Построим рекомендательную систему
Результат: Понимаете, когда и как применять матричные разложения. 🛠 Сможете решать задачи:
Снижать размерность данных
Фильтровать шум
Реализовывать рекомендательные системы
4. Функция одной переменной, пределы Теория:
Вспомним определения функции, области определения, множества значений.
Научимся вычислять пределы и узнаем их основных свойства.
Обсудим непрерывность и типы разрывов.
Практика:
Вычислим типовые пределы (алгебраические приёмы, эквивалентности)
Изучим поведение функции около точки.
Результат: Умеете находить пределы и распознавать непрерывность. 🛠 Сможете решать задачи: Задачи на пределы и реализацию классификации разрывов.
[Неделя 3] 5. Экстремумы и ФНП (функции нескольких переменных) Теория:
Производная и критические точки, критерии минимума/максимума.
Функции нескольких переменных, частные производные, градиент.
Практика:
Научимся искать экстремумы, вычислять производные для функций нескольких переменных.
Результат: Понимаете, как устроены локальные экстремумы в одномерном и многомерном случае. 🛠 Сможете решать задачи: Оптимизировать простые функции
6. Оптимизация и интегрирование Теория:
Разберём идею градиентного спуска: поговорим про шаг, сходимость и критерии остановки.
Освежим знания про интегралы и методы интегрирования.
Практика:
Реализуем градиентный спуск.
Посчитаем простые интегралы.
Результат: Умеете реализовывать простые оптимизационные алгоритмы и считать интегралы. 🛠 Сможете решать задачи: Прикладные задачи оптимизации в ML и оценивать площади/средние величины по кривым.
[Неделя 4] 7. Математический анализ: практика Теория:
Свяжем производную функции потерь и направление наискорейшего убывания
Рассмотрим MSE и его градиент.
Практика: С нуля построим линейную регрессию с помощью градиентного спуска. Результат: Получите рабочий пайплайн с чистым, воспроизводимым кодом. 🛠 Сможете решать задачи: Обучать модели на своих данных, диагностировать и улучшать качество.
8. Введение в теорию вероятностей Теория:
События, аксиомы вероятности, условная вероятность и формула полной вероятности.
Формула Байеса и интуиция Наивного Байесовского Классификатора.
Практика: Смоделируем вероятностные эксперименты, оценим частоты, реализуем наивный Байес (NumPy) и сравним с sklearn. Результат: Уверенно оперируете вероятностями и Байесовским выводом на простых задачах. 🛠 Сможете решать задачи: Классификацию на NB, задачи на условные/полные вероятности.
[Неделя 5] 9. Случайные величины Теория:
Дискретные и непрерывные СВ,математическое ожидание, дисперсия, ковариация.
Практика: Генерируем выборки в NumPy/SciPy, строим гистограммы/плотности, сравниваем теоретические и выборочные моменты. Результат: Понимаете выбор распределения под задачу и умеете оценивать его параметры. 🛠 Сможете решать задачи: Моделирование, оценка рисков/вероятностей, расчёт ожиданий и вариативности на данных.
10. Основы статистики и проверки гипотез Теория:
Нулевая/альтернативная гипотезы, ошибки I/II рода, p-value и доверительные интервалы.
t-тесты для одной и двух выборок и их предпосылки.
Практика:
Считаем доверительные интервалы, проводим t-тесты, интерпретируем результат и силу эффекта
Смотрим влияние размера выборки.
Результат: Грамотно формулируете и проверяете гипотезы, делаете статистически корректные выводы. 🛠 Сможете решать задачи: A/B-тесты, сравнение средних/пропорций и принятие решений на основе данных.
Программа [12 тем | практика]
Машинное обучение
[Неделя 1] Введение в машинное обучение Теория:
Познакомимся с базовыми понятиями и терминологией ML
Изучим основные типы задач
Разберём различия между обучением с учителем, без учителя и обучением с подкреплением
Практика:
Научимся отличать типы задач друг от друга и формулировать бизнес-задачи под ML
Проанализируем примеры датасетов и определим подходящие типы алгоритмов
Изучим базовые метрики для оценки качества различных типов задач
Результат: Понимать фундаментальные концепции машинного обучения, уметь классифицировать задачи по типам. 🛠 Сможете решать задачи: определение типа ML-задачи для бизнес-кейсов, выбор подходящих алгоритмов для различных предметных областей, формулировка технического задания для ML-проектов.
Линейные модели: регрессия Теория:
Изучим линейную регрессию как основу предсказательного моделирования и её математическую формулировку
Разберём функции потерь и метрики качества регрессии: MSE, MAE, R², RMSE
Рассмотрим основы градиентного спуска как метода оптимизации и концепцию переобучения
Практика:
Реализуем линейную регрессию
Научимся интерпретировать коэффициенты модели
Результат: Понимать принципы работы линейной регрессии, уметь применять градиентный спуск для оптимизации. 🛠 Сможете решать задачи: предсказание цен на недвижимость, прогнозирование продаж, оценка стоимости автомобилей, анализ зависимости зарплаты от опыта работы.
[Неделя 2] Градиентный спуск и его модификации Теория:
Изучим различные варианты градиентного спуска
Познакомимся с методами регуляризации L1 и L2 для предотвращения переобучения
Разберём продвинутые оптимизаторы: Adam, RMSprop и стратегии настройки гиперпараметров
Практика:
Сравним производительность различных вариантов градиентного спуска на практических задачах
Реализуем регуляризацию L1 и L2, изучим их влияние на отбор признаков
Поэкспериментируем с различными значениями гиперпараметров
Результат: Понимать различия между методами оптимизации, уметь выбирать подходящие гиперпараметры. 🛠 Сможете решать задачи: отбор важных признаков в высокоразмерных данных, ускорение сходимости алгоритмов машинного обучения.
Линейные методы классификации Теория:
Изучим логистическую регрессию и сигмоидную функцию активации
Разберём метрики качества классификации: accuracy, precision, recall, F1-score, ROC-AUC
Рассмотрим проблему несбалансированных классов и основы многоклассовой классификации
Практика:
Реализуем логистическую регрессию и интерпретируем её вероятностные предсказания
Построим и проанализируем матрицу ошибок, научимся выбирать оптимальный порог классификации
Поработаем с несбалансированными данными: техники семплирования, взвешивание классов
Результат: Понимать принципы классификации, уметь оценивать качество моделей 🛠 Сможете решать задачи: детекция спама в электронной почте, медицинская диагностика по симптомам, определение кредитоспособности клиентов
[Неделя 3] Методы опорных векторов (SVM) Теория:
Изучим концепцию максимизации отступа и роль опорных векторов в построении модели
Познакомимся с особенностями решения нелинейно разделимых задач
Разберём различные типы ядер и параметр регуляризации
Практика:
Реализуем линейный SVM
Поэкспериментируем с различными ядрами для решения нелинейных задач
Настроим гиперпараметры SVM с использованием кросс-валидации
Результат: Понимать геометрическую интерпретацию SVM, уметь применять различные ядра для нелинейных задач. 🛠 Сможете решать задачи: классификация текстов и документов, распознавание рукописных символов, задачи биоинформатики
Нелинейные методы классификации Теория:
Изучим общие подходы к построению нелинейных разделяющих поверхностей
Разберём полиномиальные признаки и различные способы создания нелинейности
Рассмотрим проблему размерности и методы регуляризации в нелинейных методах
Практика:
Создадим полиномиальные признаки для линейных алгоритмов
Сравним производительность линейных и нелинейных подходов на синтетических данных
Применим различные методы регуляризации для контроля сложности нелинейных моделей
Результат: Понимать принципы создания нелинейных моделей, уметь контролировать сложность модели. 🛠 Сможете решать задачи: классификация сложных паттернов в данных, анализ нелинейных зависимостей в финансовых временных рядах
[Неделя 4] Решающие деревья Теория:
Изучим принципы построения решающих деревьев и критерии разбиения: энтропия, индекс Джини
Разберём алгоритмы ID3, C4.5, CART и критерии остановки роста дерева
Рассмотрим методы обрезки деревьев и интерпретируемость как ключевое преимущество
Практика:
Реализуем построение решающего дерева с различными критериями разбиения
Визуализируем структуру деревьев и интерпретируем правила принятия решений
Поэкспериментируем с гиперпараметрами для контроля переобучения
Результат: Понимать алгоритмы построения деревьев, уметь интерпретировать модели и извлекать бизнес-правила. 🛠 Сможете решать задачи: создание экспертных систем принятия решений, автоматизация бизнес-процессов, медицинская диагностика с объяснимыми правилами, кредитный скоринг с прозрачными критериями.
8. Ансамблевые методы: бэггинг и случайный лес Теория:
Изучим концепцию ансамблевого обучения и метод бэггинга для снижения дисперсии
Разберём алгоритм случайного леса и случайный отбор признаков[
Познакомимся с разложением ошибки на bias и variance и методами оценки важности признаков
Практика:
Реализуем бэггинг на основе решающих деревьев
Построим модель случайного леса и настроим её гиперпараметры
Проанализируем важность признаков и используем её для отбора фичей
Результат: Понимать принципы ансамблевого обучения, уметь применять бэггинг и случайный лес. 🛠 Сможете решать задачи: прогнозирование в условиях высокой неопределённости, анализ важности факторов в сложных системах, обработка больших объёмов разнородных данных, повышение надёжности ML-систем.
[Неделя 5] Градиентный бустинг и современные реализации Теория:
Изучим принципы градиентного бустинга и последовательное обучение слабых моделей
Разберём современные реализации: XGBoost, CatBoost, LightGBM и их особенности
Рассмотрим методы регуляризации и предотвращения переобучения в бустинге
Практика:
Реализуем простой градиентный бустинг
Поэкспериментируем с XGBoost, CatBoost и LightGBM на различных датасетах
Настроим гиперпараметры и применим продвинутые техники интерпретации
Результат: Понимать принципы градиентного бустинга, уметь выбирать подходящую реализацию. 🛠 Сможете решать задачи: сможете полноценно участвовать в соревнованиях по машинному обучению (Kaggle), реализовывать прогнозирование в бизнесе с высокой точностью, обрабатывать данные с категориальными признаками
10. Обучение без учителя: кластеризация Теория:
Изучим основные методы кластеризации: K-means, иерархическая кластеризация, DBSCAN
Разберём метрики качества кластеризации и методы определения оптимального количества кластеров
Рассмотрим различные меры расстояния и их влияние на результаты кластеризации
Практика:
Реализуем алгоритм K-means и проанализируем его сходимость
Применим иерархическую кластеризацию и построим дендрограммы
Поэкспериментируем с DBSCAN для выявления кластеров произвольной формы
Результат: Понимать принципы кластеризации, уметь выбирать подходящий алгоритм для конкретного типа данных. 🛠 Сможете решать задачи: сегментация клиентов для маркетинга, группировка товаров в интернет-магазине, анализ социальных сетей, поиск аномалий в данных, исследовательский анализ данных без меток.
[Неделя 6] Понижение размерности и детектирование аномалий Теория:
Изучим проблему проклятия размерности и метод главных компонент (PCA)
Познакомимся с альтернативными методами: LDA, t-SNE, UMAP для визуализации данных
Разберём методы детектирования аномалий: статистические, основанные на плотности
Практика:
Применим PCA для понижения размерности и визуализации данных
Сравним различные методы понижения размерности на высокомерных данных
Реализуем алгоритмы детектирования аномалий и оценим их производительность
Результат: Понимать методы понижения размерности, уметь применять PCA для предобработки данных. 🛠 Сможете решать задачи: сжатие изображений и видео, визуализация высокоразмерных данных, обнаружение мошеннических транзакций, поиск дефектов в производстве, мониторинг IT-систем на предмет аномалий.
12. Рекомендательные системы Теория:
Изучим основные подходы: коллаборативная фильтрация user-based и item-based
Разберём контентные методы и гибридные подходы, сочетающие различные техники
Рассмотрим проблемы холодного старта, разреженности данных и современные методы их решения
Практика:
Реализуем коллаборативную фильтрацию на основе пользователей и товаров
Построим контентную рекомендательную систему с использованием признаков товаров
Применим методы матричного разложения для рекомендаций
Результат: Понимать архитектуру рекомендательных систем, уметь выбирать подходящий метод для предметной области. 🛠 Сможете решать задачи: создание рекомендаций товаров в e-commerce, персонализация контента в стриминговых сервисах, рекомендации друзей в социальных сетях, подбор вакансий для соискателей, персонализированная реклама.
Программа [3 тарифа]
Разработка AI-агентов
[1] ИИ-агенты в 2026 Теория:
Вы узнаете, чем настоящий ИИ‑агент отличается от обычного чат‑бота и «просто большой модели».
Разберём, как выбирать модели под задачу: по качеству, стоимости, длине контекста, скорости ответа и возможностям вызова инструментов.
Поймёте, где агенты реально приносят бизнес‑результат: в автоматизации браузера и десктопа, оркестрации API и рутинных операциях.
Также посмотрим на актуальные бенчмарки.
Практика: На практике вы запустите локальные модели (Llama, Mistral) через Ollama или vLLM, настроите режимы работы и выберете подходящие инструменты под конкретную задачу.
[2] Управление «мышлением» агента Теория:
Вы научитесь управлять тем, «насколько сильно» агент думает над задачей: когда нужен глубокий анализ, а когда достаточно быстрого ответа.
Разберём, как задавать лимиты по шагам, времени и стоимости, чтобы агент не уходил в бесконечные циклы и не сжигал бюджет.
Поймёте, как строить авто‑маршрутизацию: сначала дешёвая модель, а при необходимости — более «умная» и дорогая.
Практика: На практике вы настроите лимиты и маршрутизацию между моделями, отладите цепочки рассуждений и точки, где агент «переходит на следующий уровень» качества.
[3] RAG-системы Теория:
Вы узнаете, что такое Agentic RAG и GraphRAG, и в каких случаях они действительно нужны.
Разберём, что кроме простого векторного поиска можно делать: расширять запрос, делать многошаговый поиск, искать по родительским документам.
Поймёте, как правильно предобрабатывать данные: добавлять метаданные, версии, убирать дубли и готовить данные «как для продакшна».
Обсудим, как работать с «грязными» документами: сканами, таблицами, неразборчивым текстом - как их правильно разбивать на чанки и собирать контекст.
Посмотрим на хранилища: Supabase/Postgres (pgvector), Qdrant/Weaviate, Redis (кэш, сессии, лимиты).
Отдельно затронем LlamaIndex как альтернативный стек для продвинутых RAG‑решений.
Практика: На практике вы соберёте RAG‑пайплайн на больших и неоднородных данных и сравните несколько подходов: собственный векторный поиск, LlamaIndex и другие инструменты.
[4] Структурный вывод и типизация PydanticAI Теория:
Вы поймёте, как писать агентов «по схеме»: задавать типы и схемы ответов, а не парсить JSON вручную.
Узнаете, как заставить агента рассуждать в рамках схемы (schema‑guided reasoning).
Научитесь как передавать контекст, права и ключи через зависимости, а не через промпт, и как строить циклы валидации: как сделать, что если ответ не прошёл проверку, то агент сам его исправляет.
Практика: На практике вы опишете схемы для инструментов и ответов агента, настроите циклы валидации и самокоррекции.
[5] Управляем компьютером с помощью агента Теория:
Вы узнаете, как управлять браузером и десктопом без API — через legacy‑софт и старые кабинеты.
Разберём, как добавлять визуальные подтверждения перед рискованными действиями и как безопасно запускать агента: изоляция, минимальные права, контроль доменов и действий.
Практика: На практике вы соберёте первого агента‑«робота‑человека», который выполняет рутинные операции в браузере или на десктопе, и настроите подтверждения и ограничения на опасные действия.
[6] Пишем первого AI-агента Теория:
Вы узнаете, как быстро собрать прототип агента визуально, используя LangFlow, чтобы проверить идею без написания кода.
Разберём, как перейти от прототипа к продакшен‑решению на LangGraph: описывать состояния, ветвления и повторы в виде кода.
Поймёте, как связывать агента с внешними системами через триггеры, webhook‑и и расписания, превращая его в «клей» между сервисами для MVP.
Познакомитесь с готовыми конструкторами: OpenAI Agent Builder и Yandex AI Studio, и посмотрите обзор альтернатив — Vertex AI Agent Builder, Bedrock Agents, Copilot Studio, Dify/Flowise.
Практика: На практике вы соберёте MVP‑агента сначала в визуальном конструкторе, затем перенесёте его логику в код на LangGraph и подключите к внешним сервисам через триггеры и интеграции.
Да, этот курс подходит абсолютно для всех, кто хочет начать карьеру в Data Science или углубить свои знания. Даже если вы никогда не работали с данными, Python или ML, вы получите все необходимые навыки с нуля.
Нет, опыт в IT не обязателен. Мы начинаем с основ Python и объясняем математику простым языком. Все задания рассчитаны на постепенное освоение: от простых скриптов до построения моделей машинного обучения.
Картой (российской и зарубежной), рассрочкой, по счету от организации
В длительность курса закладывается максимальное время для изучения материала — чтобы даже очень занятые студенты могли учиться в комфортном темпе. Если же ты освоишь программу быстрее, мы выдадим диплом раньше указанного срока.
Да, по итогам курса ты соберешь портфолио из 5 реальных проектов: от анализа данных до ML-моделей. Эти проекты помогут тебе показать работодателю свои навыки.
Курс рассчитан на практический результат. На карьерной консультации ты совместно с HR-специалистом подготовишь резюме, научишься презентовать себя на собеседованиях и откликаться на вакансии так, чтобы тебя заметили. Ты получишь доступ к ИИ-боту для анализа резюме и поддержку в поиске работы, а знания и проекты из портфолио повысят твои шансы на успешное трудоустройство.
Да, живые вебинары проходят в модуле «AI-агенты» — 1 раз в неделю на протяжении 5 недель. Остальные модули асинхронные, но с поддержкой преподавателей и чатов для вопросов. Ты получишь гибкость обучения и возможность практиковаться в своём темпе, но при этом не останешься без помощи экспертов.
Мы обновляем программу каждый год, учитывая последние тренды и инструменты в Data Science и AI. Ты будешь учиться на современных технологиях, которые востребованы на рынке прямо сейчас.
Менторы отвечают на вопросы в Telegram-чатах.
Да, заявку рассмотрят банки: Т-Банк, ОТП, Ренессанс, МТС, Открытие, Kviku. Также можно оплатить курс частями через сервис «Долями».
Чтобы получить сертификат о прохождении специализации, необходимо завершить домашние задания и сделать дипломный проект к моменту завершения обучения (курс длится 8 месяцев)