Только начинаешь путь в Data Science или хочешь освоить востребованную профессию с нуля.
Новичок без опыта в IT
{1}
Желаешь систематизировать или дополнить знания и расти в карьере.
Действующий Data Scientist, ML-инженер
{2}
Хочешь выйти за рамки разработки и применить свои навыки в ИИ и анализе данных.
Опытный разработчик
{3}
Технических и естественнонаучных специальностей, и хочешь расширить свой пул компетенций.
Студент и выпускник
{4}
Хочешь сменить профессию, освоить новую сферу и перейти в IT
Желаешь сменить профессию
{5}
Программа
Узнаете, как построить успешную карьеру в ИИ, научитесь грамотно составлять резюме и проходить собеседования
Экспертная консультация
Карьерная сессия с экспертом по поиску работы в IT
Сможете разрабатывать собственных агентов, оценивать их качество и подбирать подходящие инструменты под разные задачи.
9 недель | практика
AI-агенты
Сможете создавать модели, обучать их на реальных данных и оценивать качество предсказаний.
Машинное обучение
6 недель | практика
Сможете писать собственные программы, анализировать данные и автоматизировать повторяющиеся задачи.
Основы Python
7 недель | 1 финальный проект
Сможете применять математические методы для решения прикладных задач в анализе данных и машинном обучении.
Математика
5 недель | практика
Программа [5 блоков, 28 тем, 1 финальный проект]
Основы Python
Неделя 1
Установка программного обеспечения
Знакомство с Рython. Компилятор и интерпретатор.
Запрос данных у пользователя. Функция input
Тестовые задания и задачи
Неделя 2
Операции с целыми и вещественными числами
Типы данных
Переменные
Логические операции. Операции сравнения.
Условия if/else.
Тестовые задания и задачи
Неделя 3
Базовая работа со строками.
Методы split и join.
Остальные методы строк.
Тестовые задания и задачи
Неделя 4
Базовая работа со списками. Метод append
Методы списков.
Срезы списков и строк.
Цикл while.
Тестовые задания и задачи
Неделя 5
Цикл for. Функции range() и print().Инструкции break и continue
Цикл for. Функция enumerate(). Вложенные циклы.
Генераторы списков.
Тестовые задания и задачи
Неделя 6
Функции.
Словари.
Работа с файлами.
Модули
Библиотеки.
Тестовые задания и задачи
Неделя 7
Создание бота для телеграм.
Парсинг веб-страниц
Неделя 8
Бонусные материалы
Итоговый проект
Программа [10 тем | практика]
Математика для DS
[Неделя 1] 1. Векторы и матрицы, операции с ними Теория:
Разберём, что такое векторы и матрицы, их базовые свойства.
Поймём, что такое определитель, ранг и обратимость
Разберем правила умножения и транспонирования
Практика:
В NumPy создадим массивы
Освоим различные операции над одномерными и двумерными массивами.
Результат: Уверенно оперируете матрицами и векторами и понимаете, как эти знания применяются 🛠 Сможете решать задачи:
Реализовывать базовые матричные операции
Находить обратные матрицы/ранги матриц
Осуществлять линейные преобразования и решать СЛАУ.
2. Линейная регрессия и МНК Теория:
Познакомимся с концепцией линейной зависимости
Построим модель линейной регрессии, разберём метод наименьших квадратов для поиска весов
Обсудим допущения и интерпретацию коэффициентов
Практика:
Реализуем МНК в NumPy и сравним со scikit-learn.
Научимся базовой подготовке данных и валидации моделей.
Результат: Умеете обучать, интерпретировать и оценивать линейную модель. 🛠 Сможете решать задачи: Строить простые прогностические модели, оценивать их качество.
[Неделя 2] 3. Матричные разложения Теория:
Познакомимся с собственными значениями/векторами и их смыслом.
Изучим SVD: разложение, применение к снижению размерности и построению рекомендательных систем.
Практика:
Реализуем SVD в NumPy
Снизим размерность данных
Построим рекомендательную систему
Результат: Понимаете, когда и как применять матричные разложения. 🛠 Сможете решать задачи:
Снижать размерность данных
Фильтровать шум
Реализовывать рекомендательные системы
4. Функция одной переменной, пределы Теория:
Вспомним определения функции, области определения, множества значений.
Научимся вычислять пределы и узнаем их основных свойства.
Обсудим непрерывность и типы разрывов.
Практика:
Вычислим типовые пределы (алгебраические приёмы, эквивалентности)
Изучим поведение функции около точки.
Результат: Умеете находить пределы и распознавать непрерывность. 🛠 Сможете решать задачи: Задачи на пределы и реализацию классификации разрывов.
[Неделя 3] 5. Экстремумы и ФНП (функции нескольких переменных) Теория:
Производная и критические точки, критерии минимума/максимума.
Функции нескольких переменных, частные производные, градиент.
Практика:
Научимся искать экстремумы, вычислять производные для функций нескольких переменных.
Результат: Понимаете, как устроены локальные экстремумы в одномерном и многомерном случае. 🛠 Сможете решать задачи: Оптимизировать простые функции
6. Оптимизация и интегрирование Теория:
Разберём идею градиентного спуска: поговорим про шаг, сходимость и критерии остановки.
Освежим знания про интегралы и методы интегрирования.
Практика:
Реализуем градиентный спуск.
Посчитаем простые интегралы.
Результат: Умеете реализовывать простые оптимизационные алгоритмы и считать интегралы. 🛠 Сможете решать задачи: Прикладные задачи оптимизации в ML и оценивать площади/средние величины по кривым.
[Неделя 4] 7. Математический анализ: практика Теория:
Свяжем производную функции потерь и направление наискорейшего убывания
Рассмотрим MSE и его градиент.
Практика: С нуля построим линейную регрессию с помощью градиентного спуска. Результат: Получите рабочий пайплайн с чистым, воспроизводимым кодом. 🛠 Сможете решать задачи: Обучать модели на своих данных, диагностировать и улучшать качество.
8. Введение в теорию вероятностей Теория:
События, аксиомы вероятности, условная вероятность и формула полной вероятности.
Формула Байеса и интуиция Наивного Байесовского Классификатора.
Практика: Смоделируем вероятностные эксперименты, оценим частоты, реализуем наивный Байес (NumPy) и сравним с sklearn. Результат: Уверенно оперируете вероятностями и Байесовским выводом на простых задачах. 🛠 Сможете решать задачи: Классификацию на NB, задачи на условные/полные вероятности.
[Неделя 5] 9. Случайные величины Теория:
Дискретные и непрерывные СВ,математическое ожидание, дисперсия, ковариация.
Практика: Генерируем выборки в NumPy/SciPy, строим гистограммы/плотности, сравниваем теоретические и выборочные моменты. Результат: Понимаете выбор распределения под задачу и умеете оценивать его параметры. 🛠 Сможете решать задачи: Моделирование, оценка рисков/вероятностей, расчёт ожиданий и вариативности на данных.
10. Основы статистики и проверки гипотез Теория:
Нулевая/альтернативная гипотезы, ошибки I/II рода, p-value и доверительные интервалы.
t-тесты для одной и двух выборок и их предпосылки.
Практика:
Считаем доверительные интервалы, проводим t-тесты, интерпретируем результат и силу эффекта
Смотрим влияние размера выборки.
Результат: Грамотно формулируете и проверяете гипотезы, делаете статистически корректные выводы. 🛠 Сможете решать задачи: A/B-тесты, сравнение средних/пропорций и принятие решений на основе данных.
Программа [12 тем | практика]
Машинное обучение
[Неделя 1] Введение в машинное обучение Теория:
Познакомимся с базовыми понятиями и терминологией ML
Изучим основные типы задач
Разберём различия между обучением с учителем, без учителя и обучением с подкреплением
Практика:
Научимся отличать типы задач друг от друга и формулировать бизнес-задачи под ML
Проанализируем примеры датасетов и определим подходящие типы алгоритмов
Изучим базовые метрики для оценки качества различных типов задач
Результат: Понимать фундаментальные концепции машинного обучения, уметь классифицировать задачи по типам. 🛠 Сможете решать задачи: определение типа ML-задачи для бизнес-кейсов, выбор подходящих алгоритмов для различных предметных областей, формулировка технического задания для ML-проектов.
Линейные модели: регрессия Теория:
Изучим линейную регрессию как основу предсказательного моделирования и её математическую формулировку
Разберём функции потерь и метрики качества регрессии: MSE, MAE, R², RMSE
Рассмотрим основы градиентного спуска как метода оптимизации и концепцию переобучения
Практика:
Реализуем линейную регрессию
Научимся интерпретировать коэффициенты модели
Результат: Понимать принципы работы линейной регрессии, уметь применять градиентный спуск для оптимизации. 🛠 Сможете решать задачи: предсказание цен на недвижимость, прогнозирование продаж, оценка стоимости автомобилей, анализ зависимости зарплаты от опыта работы.
[Неделя 2] Градиентный спуск и его модификации Теория:
Изучим различные варианты градиентного спуска
Познакомимся с методами регуляризации L1 и L2 для предотвращения переобучения
Разберём продвинутые оптимизаторы: Adam, RMSprop и стратегии настройки гиперпараметров
Практика:
Сравним производительность различных вариантов градиентного спуска на практических задачах
Реализуем регуляризацию L1 и L2, изучим их влияние на отбор признаков
Поэкспериментируем с различными значениями гиперпараметров
Результат: Понимать различия между методами оптимизации, уметь выбирать подходящие гиперпараметры. 🛠 Сможете решать задачи: отбор важных признаков в высокоразмерных данных, ускорение сходимости алгоритмов машинного обучения.
Линейные методы классификации Теория:
Изучим логистическую регрессию и сигмоидную функцию активации
Разберём метрики качества классификации: accuracy, precision, recall, F1-score, ROC-AUC
Рассмотрим проблему несбалансированных классов и основы многоклассовой классификации
Практика:
Реализуем логистическую регрессию и интерпретируем её вероятностные предсказания
Построим и проанализируем матрицу ошибок, научимся выбирать оптимальный порог классификации
Поработаем с несбалансированными данными: техники семплирования, взвешивание классов
Результат: Понимать принципы классификации, уметь оценивать качество моделей 🛠 Сможете решать задачи: детекция спама в электронной почте, медицинская диагностика по симптомам, определение кредитоспособности клиентов
[Неделя 3] Методы опорных векторов (SVM) Теория:
Изучим концепцию максимизации отступа и роль опорных векторов в построении модели
Познакомимся с особенностями решения нелинейно разделимых задач
Разберём различные типы ядер и параметр регуляризации
Практика:
Реализуем линейный SVM
Поэкспериментируем с различными ядрами для решения нелинейных задач
Настроим гиперпараметры SVM с использованием кросс-валидации
Результат: Понимать геометрическую интерпретацию SVM, уметь применять различные ядра для нелинейных задач. 🛠 Сможете решать задачи: классификация текстов и документов, распознавание рукописных символов, задачи биоинформатики
Нелинейные методы классификации Теория:
Изучим общие подходы к построению нелинейных разделяющих поверхностей
Разберём полиномиальные признаки и различные способы создания нелинейности
Рассмотрим проблему размерности и методы регуляризации в нелинейных методах
Практика:
Создадим полиномиальные признаки для линейных алгоритмов
Сравним производительность линейных и нелинейных подходов на синтетических данных
Применим различные методы регуляризации для контроля сложности нелинейных моделей
Результат: Понимать принципы создания нелинейных моделей, уметь контролировать сложность модели. 🛠 Сможете решать задачи: классификация сложных паттернов в данных, анализ нелинейных зависимостей в финансовых временных рядах
[Неделя 4] Решающие деревья Теория:
Изучим принципы построения решающих деревьев и критерии разбиения: энтропия, индекс Джини
Разберём алгоритмы ID3, C4.5, CART и критерии остановки роста дерева
Рассмотрим методы обрезки деревьев и интерпретируемость как ключевое преимущество
Практика:
Реализуем построение решающего дерева с различными критериями разбиения
Визуализируем структуру деревьев и интерпретируем правила принятия решений
Поэкспериментируем с гиперпараметрами для контроля переобучения
Результат: Понимать алгоритмы построения деревьев, уметь интерпретировать модели и извлекать бизнес-правила. 🛠 Сможете решать задачи: создание экспертных систем принятия решений, автоматизация бизнес-процессов, медицинская диагностика с объяснимыми правилами, кредитный скоринг с прозрачными критериями.
8. Ансамблевые методы: бэггинг и случайный лес Теория:
Изучим концепцию ансамблевого обучения и метод бэггинга для снижения дисперсии
Разберём алгоритм случайного леса и случайный отбор признаков[
Познакомимся с разложением ошибки на bias и variance и методами оценки важности признаков
Практика:
Реализуем бэггинг на основе решающих деревьев
Построим модель случайного леса и настроим её гиперпараметры
Проанализируем важность признаков и используем её для отбора фичей
Результат: Понимать принципы ансамблевого обучения, уметь применять бэггинг и случайный лес. 🛠 Сможете решать задачи: прогнозирование в условиях высокой неопределённости, анализ важности факторов в сложных системах, обработка больших объёмов разнородных данных, повышение надёжности ML-систем.
[Неделя 5] Градиентный бустинг и современные реализации Теория:
Изучим принципы градиентного бустинга и последовательное обучение слабых моделей
Разберём современные реализации: XGBoost, CatBoost, LightGBM и их особенности
Рассмотрим методы регуляризации и предотвращения переобучения в бустинге
Практика:
Реализуем простой градиентный бустинг
Поэкспериментируем с XGBoost, CatBoost и LightGBM на различных датасетах
Настроим гиперпараметры и применим продвинутые техники интерпретации
Результат: Понимать принципы градиентного бустинга, уметь выбирать подходящую реализацию. 🛠 Сможете решать задачи: сможете полноценно участвовать в соревнованиях по машинному обучению (Kaggle), реализовывать прогнозирование в бизнесе с высокой точностью, обрабатывать данные с категориальными признаками
10. Обучение без учителя: кластеризация Теория:
Изучим основные методы кластеризации: K-means, иерархическая кластеризация, DBSCAN
Разберём метрики качества кластеризации и методы определения оптимального количества кластеров
Рассмотрим различные меры расстояния и их влияние на результаты кластеризации
Практика:
Реализуем алгоритм K-means и проанализируем его сходимость
Применим иерархическую кластеризацию и построим дендрограммы
Поэкспериментируем с DBSCAN для выявления кластеров произвольной формы
Результат: Понимать принципы кластеризации, уметь выбирать подходящий алгоритм для конкретного типа данных. 🛠 Сможете решать задачи: сегментация клиентов для маркетинга, группировка товаров в интернет-магазине, анализ социальных сетей, поиск аномалий в данных, исследовательский анализ данных без меток.
[Неделя 6] Понижение размерности и детектирование аномалий Теория:
Изучим проблему проклятия размерности и метод главных компонент (PCA)
Познакомимся с альтернативными методами: LDA, t-SNE, UMAP для визуализации данных
Разберём методы детектирования аномалий: статистические, основанные на плотности
Практика:
Применим PCA для понижения размерности и визуализации данных
Сравним различные методы понижения размерности на высокомерных данных
Реализуем алгоритмы детектирования аномалий и оценим их производительность
Результат: Понимать методы понижения размерности, уметь применять PCA для предобработки данных. 🛠 Сможете решать задачи: сжатие изображений и видео, визуализация высокоразмерных данных, обнаружение мошеннических транзакций, поиск дефектов в производстве, мониторинг IT-систем на предмет аномалий.
12. Рекомендательные системы Теория:
Изучим основные подходы: коллаборативная фильтрация user-based и item-based
Разберём контентные методы и гибридные подходы, сочетающие различные техники
Рассмотрим проблемы холодного старта, разреженности данных и современные методы их решения
Практика:
Реализуем коллаборативную фильтрацию на основе пользователей и товаров
Построим контентную рекомендательную систему с использованием признаков товаров
Применим методы матричного разложения для рекомендаций
Результат: Понимать архитектуру рекомендательных систем, уметь выбирать подходящий метод для предметной области. 🛠 Сможете решать задачи: создание рекомендаций товаров в e-commerce, персонализация контента в стриминговых сервисах, рекомендации друзей в социальных сетях, подбор вакансий для соискателей, персонализированная реклама.
Программа [5 тем | практика]
AI-агенты
Что освоите: Создание интеллектуальных агентов и мультиагентных систем Ключевые темы: RAG-системы, фреймворки crewAI/AutoGen/LangGraph, протокол MCP, оценка качества агентов Проект: End-to-end AI-агент с интеграцией внешних API Карьера в Data Science - 1 практическая сессия с экспертом по поиску работы в IT
[Неделя 1] Вводное занятие Стартовое занятие с Максимом Шаланкиным — в записи. Узнаете, как устроен курс, какие инструменты и методы будете использовать, чтобы учиться максимально эффективно. 📄 Лонгрид по теме «Базовые понятия в LLM»
[Неделя 2] LLM и их особенности, первый агент на langchain На занятии посмотрим как выбрать LLM для задачи — квантизованные модели, instruct-модели и пр, какие есть способы запуска LLM — как использовать API, как развернуть LLM локально с помощью Ollama, как происходит токенизация для разных языков и как это влияет на стоимость решения.
Рассмотрим реализация памяти в цепочках langchain и обсудим зачем подключать внешние источники если уже есть модели с контекстом более 10 М токенов. В конце реализуем пару простых агентов на langchain. 🧠 Тест на проверку знаний
[Неделя 3] RAG и оценка его качества 📄 Лонгрид по теме «RAG и оценка его качества». На занятии познакомимся с основными компонентами RAG, векторными базами и ANN, другими Retrievers. Рассмотрим модификации RAG и подходы к генерации датасета для тестирования получившегося решения, подход LLM as a judge. В итоге соберем полный пайплайн RAG-системы с оценкой качества.
[Неделя 4] QA сессия 📄 Лонгрид по теме «Multi Agent System».
[Неделя 5] Multi Agent System Вводный обзор MAS, коллективное принятие решений, механизмы обмена информацией и координации агентов между собой. Дебаты между агентами, actor-critic подходы. Multi-step agents. Знакомство с библиотеками crew ai, autogen, langgraph, llamaindex, smolagents, swarm от open ai Фреймворк для анализа промптов spade 🧠 Тест на проверку знаний
[Неделя 6] AI-агенты: инструменты, флоу и сравнение фреймворков 📄 Лонгрид по теме «AI-агенты: инструменты, флоу и сравнение фреймворков» Углубимся в практику с популярными фреймворками, обсудим проблему оценки результатов. Tools для AI агентов и их основные типы, workflows. Методы оценки качества работы AI-помощников, GAIA. Сравнение библиотек для построения мультиагентных систем. 🧠 Тест на проверку знаний
[Неделя 7] QA сессия 📄 Лонгрид по теме «Model Context Protocol».
[Неделя 8] Model Context Protocol Рассмотрим протокол для унифицированной работы с tools — MCP и фреймворк FastMCP. Создадим end-to-end MCP приложение. 🧠 Тест на проверку знаний
[Неделя 9] QA сессия.
Карьерная сессия с экспертом по поиску работы в IT 1 неделя
Доступ к самостоятельному изучению материала: учись в удобное время
Предзаписанные вебинары с разбором сложных тем
Видеозаписи от экспертов
Фидбек и общение в чате Telegram
12 месяцев доступа ко всем материалам
QA сессии с экспертами к каждому модулю
8 месяцев обучения
Как проходит курс
Овладей ключевыми навыками работы с ИИ
Построение ML-моделей от самых базовых линейных вариаций до продвинутых рекомендательных систем
Разработка AI-агентов и интеграция их с внешними сервисами
Применение математических методов для анализа данных
Программирование на Python
Matplotlib Statsmodels
Портфолио: 5 реальных проектов
Seaborn
Pandas Scikit-learn
XGBoost, LightGBM, CatBoost
NumPy
Инструменты:
Ключевые навыки:
5 реальных проектов разной сложности, демонстрирующих весь спектр навыков современного ИИ-разработчика.
Да, этот курс подходит абсолютно для всех, кто хочет начать карьеру в Data Science или углубить свои знания. Даже если вы никогда не работали с данными, Python или ML, вы получите все необходимые навыки с нуля.
Нет, опыт в IT не обязателен. Мы начинаем с основ Python и объясняем математику простым языком. Все задания рассчитаны на постепенное освоение: от простых скриптов до построения моделей машинного обучения.
Картой (российской и зарубежной), рассрочкой, по счету от организации
В длительность курса закладывается максимальное время для изучения материала — чтобы даже очень занятые студенты могли учиться в комфортном темпе. Если же ты освоишь программу быстрее, мы выдадим диплом раньше указанного срока.
Да, по итогам курса ты соберешь портфолио из 5 реальных проектов: от анализа данных до ML-моделей. Эти проекты помогут тебе показать работодателю свои навыки.
Курс рассчитан на практический результат. На карьерной консультации ты совместно с HR-специалистом подготовишь резюме, научишься презентовать себя на собеседованиях и откликаться на вакансии так, чтобы тебя заметили. Ты получишь доступ к ИИ-боту для анализа резюме и поддержку в поиске работы, а знания и проекты из портфолио повысят твои шансы на успешное трудоустройство.
Да, живые вебинары проходят в модуле «AI-агенты» — 1 раз в неделю на протяжении 5 недель. Остальные модули асинхронные, но с поддержкой преподавателей и чатов для вопросов. Ты получишь гибкость обучения и возможность практиковаться в своём темпе, но при этом не останешься без помощи экспертов.
Мы обновляем программу каждый год, учитывая последние тренды и инструменты в Data Science и AI. Ты будешь учиться на современных технологиях, которые востребованы на рынке прямо сейчас.
Менторы отвечают на вопросы в Telegram-чатах.
Да, заявку рассмотрят банки: Т-Банк, ОТП, Ренессанс, МТС, Открытие, Kviku. Также можно оплатить курс частями через сервис «Долями».
Чтобы получить сертификат о прохождении специализации, необходимо завершить домашние задания и сделать дипломный проект к моменту завершения обучения (курс длится 8 месяцев)