Екатерина Трофимова — Научный сотрудник, Центр ИИ, LAMBDA, к.к.н НИУ ВШЭ Дмитрий Антипов – Мастер спорта по AI-first разработке и спикер Highload++, AI Journey, Yandex PML Андрей Носов — AI-архитектор, Raft Ex-Nokia Bell Labs, Huawei, MTS AI Антон Будняк — Сооснователь & CPO, Airate
Вы познакомитесь с ключевыми аспектами интеграции AI/LLM в backend-системы: узнаете, какую роль играют интеллектуальные агенты, когда лучше применять полноценный агент, а когда достаточно стандартного workflow;
Изучите типовые сценарии внедрения AI-функциональности через API-сервисы, внутренние инструменты и процессы автоматизации;
Получите представление о возможностях и ограничениях современных решений на основе искусственного интеллекта.
Спроектируете схему интеграции AI-модулей в backend-инфраструктуру;
Детально пропишите зоны ответственности каждого компонента системы.
Результат: Ваш сервис станет устойчивее и надежнее благодаря грамотно выстроенной архитектуре и чётко определённым зонам ответственности.
Теория:
Погрузитесь в основы интеграции больших языковых моделей (LLM) в backend-сервисы;
Узнаете, как правильно встраивать AI-логику в инфраструктуру приложения;
Освойте стандарты OpenAI-compatible API: структуру запросов, принципы составления эффективных prompt’ов и настройки ключевых параметров модели;
Разберётесь в тонкостях структурированного вывода данных и создании надежных API-контрактов;
Изучите два принципиально разных подхода к реализации AI-задач: классический workflow (пошаговая последовательность вызовов API) и современный агентский подход (где самообучающаяся модель самостоятельно выбирает следующий шаг);
Поймете, как интегрировать внешние сервисы и инструменты, а также организовывать надежную оркестрацию запросов и обрабатывать возможные ошибки.
Практика:
Реализуете каркас backend-сервиса с полноценной AI-логикой;
Создадите слой оркестрации AI-запросов, обеспечивающий стабильность и отказоустойчивость вашей системы;
Разработаете четкие API-контракты и схемы запросов, гарантирующие предсказуемость и безопасность взаимодействий между компонентами системы.
Результат: Встроите LLM в реальный backend, не нарушая архитектуру сервиса. Выберете подходящий подход — workflow или агент — под конкретную задачу, и обеспечите стабильную работу системы даже при непредсказуемом поведении модели.
Теория:
Разберётесь, что такое инструмент (tool) с точки зрения инженера: как он описывается, регистрируется и передаётся модели;
Изучите принципы написания описаний инструментов — как формулировать их так, чтобы агент обращался к ним точно и в нужный момент;
Поймёте, по какой логике агент принимает решение вызвать внешний сервис, и освоите принципы проектирования слоя с инструментами как отдельного архитектурного слоя;
Рассмотрите типичные проблемы: ошибки вызовов, задержки, превышение лимитов и стратегии их обработки.
Практика:
Самостоятельно опишете и зарегистрируете инструменты для своего — агента;
Подключите реальные внешние сервисы и настроите корректную обработку ошибок и таймаутов;
Проверите, как агент выбирает нужный инструмент в зависимости от контекста задачи.
Результат: Спроектируете слой с инструментами, который легко расширять новыми инструментами. Обеспечите устойчивость агента к сбоям внешних сервисов — без падения всей системы.
Теория:
Познакомитесь с принципами RAG;
Изучите архитектуру базы знаний агента: индексирование документов, векторные базы данных и гибридный поиск;
Разберётесь, как обновлять данные без потери качества и как обеспечить непротиворечивость знаний при росте базы;
Освоите интеграцию RAG как отдельного инструмента агента — чтобы он сам решал, когда и что искать.
Практика:
Самостоятельно настроите пайплайн индексирования и подключите векторную БД к своему агенту;
Реализуете поиск по базе знаний: векторный и по ключевым словам — и сравните качество результатов;
Встроите RAG как инструмент: агент будет самостоятельно обращаться к базе, читать релевантные фрагменты и использовать их при генерации ответа.
Результат: Построите систему, в которой агент работает с актуальными и проверенными данными, а не галлюцинирует. Получите RAG как полноценный инструмент агента — с поиском, чтением и использованием данных из базы знаний в реальном времени.
Теория:
Изучите основные источники нестабильности в AI-сервисах: ошибки внешних API, превышение лимитов и непредсказуемые задержки LLM;
Освоите стратегии повторных запросов и принципы настройки оптимальных таймаутов;
Разберётесь с идемпотентностью — как гарантировать уникальность операций и не дублировать вызовы при повторах;
Познакомитесь с очередями сообщений как буфером между сервисами, стратегиями снижения функциональности ради стабильности и схемами резервирования на случай полного отказа компонента.
Практика:
Соберёте библиотеку обработки ошибок и таймаутов для своего AI-сервиса;
Настроите конфигурацию лимитов и таймаутов под реальные условия работы с LLM API;
Опишете и реализуете схему обработки отказов — что делает система, когда модель недоступна или возвращает ошибку.
Результат: Построите сервис, который не падает при сбоях внешних провайдеров и корректно деградирует вместо полного отказа. Снизите число инцидентов в продакшене и настроите надёжный AI backend с готовой библиотекой обработки ошибок, настроенными таймаутами и схемой отказоустойчивости.
Теория:
Познакомитесь с особенностями тестирования AI-решений: почему классические unit-тесты здесь недостаточны и как работать с недетерминированными ответами модели;
Изучите принципы создания бенчмарков: как их формировать, выбирать метрики и фиксировать базовый уровень качества;
Разберёте подходы к автоматизации проверки качества и сравнению версий промптов и конфигураций;
Освоите критерии прогресса: как формализовать понятие «новая версия лучше» и избежать субъективных оценок.
Практика:
Самостоятельно разработаете бенчмарк качества для конкретной задачи своего агента: опишете тестовые кейсы, выберете метрики и зафиксируете показатели качества;
Запустите автоматизированную проверку и сравните две версии конфигураций по своему бенчмарку.
Результат: Обоснуете изменения в промптах и конфигурациях данными, а не интуицией. Выстроите процесс итеративного улучшения AI-системы с измеримым контролем качества. Создадите собственный бенчмарк качества, адаптированный под конкретную задачу.
Включает 6 базовых недель + 5 дополнительных
Теория:
Вы познакомитесь с ключевыми аспектами интеграции AI/LLM в backend-системы: узнаете, какую роль играют интеллектуальные агенты, когда лучше применять полноценный агент, а когда достаточно стандартного workflow;
Изучите типовые сценарии внедрения AI-функциональности через API-сервисы, внутренние инструменты и процессы автоматизации;
Получите представление о возможностях и ограничениях современных решений на основе искусственного интеллекта.
Спроектируете схему интеграции AI-модулей в backend-инфраструктуру;
Детально пропишите зоны ответственности каждого компонента системы.
Результат: Ваш сервис станет устойчивее и надежнее благодаря грамотно выстроенной архитектуре и чётко определённым зонам ответственности.
Теория:
Погрузитесь в основы интеграции больших языковых моделей (LLM) в backend-сервисы;
Узнаете, как правильно встраивать AI-логику в инфраструктуру приложения;
Освойте стандарты OpenAI-compatible API: структуру запросов, принципы составления эффективных prompt’ов и настройки ключевых параметров модели;
Разберётесь в тонкостях структурированного вывода данных и создании надежных API-контрактов;
Изучите два принципиально разных подхода к реализации AI-задач: классический workflow (пошаговая последовательность вызовов API) и современный агентский подход (где самообучающаяся модель самостоятельно выбирает следующий шаг);
Поймете, как интегрировать внешние сервисы и инструменты, а также организовывать надежную оркестрацию запросов и обрабатывать возможные ошибки.
Практика:
Реализуете каркас backend-сервиса с полноценной AI-логикой;
Создадите слой оркестрации AI-запросов, обеспечивающий стабильность и отказоустойчивость вашей системы;
Разработаете четкие API-контракты и схемы запросов, гарантирующие предсказуемость и безопасность взаимодействий между компонентами системы.
Результат: Встроите LLM в реальный backend, не нарушая архитектуру сервиса. Выберете подходящий подход — workflow или агент — под конкретную задачу, и обеспечите стабильную работу системы даже при непредсказуемом поведении модели.
Теория:
Разберётесь, что такое инструмент (tool) с точки зрения инженера: как он описывается, регистрируется и передаётся модели;
Изучите принципы написания описаний инструментов — как формулировать их так, чтобы агент обращался к ним точно и в нужный момент;
Поймёте, по какой логике агент принимает решение вызвать внешний сервис, и освоите принципы проектирования слоя с инструментами как отдельного архитектурного слоя;
Рассмотрите типичные проблемы: ошибки вызовов, задержки, превышение лимитов и стратегии их обработки.
Практика:
Самостоятельно опишете и зарегистрируете инструменты для своего — агента;
Подключите реальные внешние сервисы и настроите корректную обработку ошибок и таймаутов;
Проверите, как агент выбирает нужный инструмент в зависимости от контекста задачи.
Результат: Спроектируете слой с инструментами, который легко расширять новыми инструментами. Обеспечите устойчивость агента к сбоям внешних сервисов — без падения всей системы.
Теория:
Познакомитесь с принципами RAG;
Изучите архитектуру базы знаний агента: индексирование документов, векторные базы данных и гибридный поиск;
Разберётесь, как обновлять данные без потери качества и как обеспечить непротиворечивость знаний при росте базы;
Освоите интеграцию RAG как отдельного инструмента агента — чтобы он сам решал, когда и что искать.
Практика:
Самостоятельно настроите пайплайн индексирования и подключите векторную БД к своему агенту;
Реализуете поиск по базе знаний: векторный и по ключевым словам — и сравните качество результатов;
Встроите RAG как инструмент: агент будет самостоятельно обращаться к базе, читать релевантные фрагменты и использовать их при генерации ответа.
Результат: Построите систему, в которой агент работает с актуальными и проверенными данными, а не галлюцинирует. Получите RAG как полноценный инструмент агента — с поиском, чтением и использованием данных из базы знаний в реальном времени.
Теория:
Изучите основные источники нестабильности в AI-сервисах: ошибки внешних API, превышение лимитов и непредсказуемые задержки LLM;
Освоите стратегии повторных запросов и принципы настройки оптимальных таймаутов;
Разберётесь с идемпотентностью — как гарантировать уникальность операций и не дублировать вызовы при повторах;
Познакомитесь с очередями сообщений как буфером между сервисами, стратегиями снижения функциональности ради стабильности и схемами резервирования на случай полного отказа компонента.
Практика:
Соберёте библиотеку обработки ошибок и таймаутов для своего AI-сервиса;
Настроите конфигурацию лимитов и таймаутов под реальные условия работы с LLM API;
Опишете и реализуете схему обработки отказов — что делает система, когда модель недоступна или возвращает ошибку.
Результат: Построите сервис, который не падает при сбоях внешних провайдеров и корректно деградирует вместо полного отказа. Снизите число инцидентов в продакшене и настроите надёжный AI backend с готовой библиотекой обработки ошибок, настроенными таймаутами и схемой отказоустойчивости.
Теория:
Познакомитесь с особенностями тестирования AI-решений: почему классические unit-тесты здесь недостаточны и как работать с недетерминированными ответами модели;
Изучите принципы создания бенчмарков: как их формировать, выбирать метрики и фиксировать базовый уровень качества;
Разберёте подходы к автоматизации проверки качества и сравнению версий промптов и конфигураций;
Освоите критерии прогресса: как формализовать понятие «новая версия лучше» и избежать субъективных оценок.
Практика:
Самостоятельно разработаете бенчмарк качества для конкретной задачи своего агента: опишете тестовые кейсы, выберете метрики и зафиксируете показатели качества;
Запустите автоматизированную проверку и сравните две версии конфигураций по своему бенчмарку.
Результат: Обоснуете изменения в промптах и конфигурациях данными, а не интуицией. Выстроите процесс итеративного улучшения AI-системы с измеримым контролем качества. Создадите собственный бенчмарк качества, адаптированный под конкретную задачу.
Теория:
Познакомитесь с основными паттернами многоагентных систем и поймёте, когда применять каждый;
Изучите разделение ролей между управляющим агентом и рабочими агентами: кто принимает решения, кто выполняет специализированные задачи;
Разберёте механизмы передачи данных между агентами и принципы координации действий без конфликтов;
Освоите изоляцию контекста: обеспечение независимой работы каждого агента в своём пространстве — и стратегии объединения итоговых результатов.
Практика:
Спроектируете схему оркестрации для многоагентной системы: опишете роли агентов, потоки данных и точки передачи управления;
Реализуете управляющую часть сервиса, которая запускает сабагентов, собирает их результаты и принимает решение о следующем шаге.
Результат: Декомпозируете сложную задачу на специализированных агентов и распределите нагрузку между ними. Построите систему, в которой сбой одного агента не парализует всю оркестрацию.
Теория:
Познакомитесь с основными шаблонами развёртывания AI-сервисов и поймёте, чем они отличаются от деплоя обычного backend-приложения;
Изучите принципы контейнеризации: как упаковать сервис с его зависимостями так, чтобы он одинаково работал в любой среде и легко масштабировался;
Разберёте подходы к интеграции в инфраструктуру компании: подключение к внутренним сервисам, секретам и ресурсам;
Освоите требования к продакшн-запуску: конфигурирование окружений, управление переменными, логирование и стратегии обновления.
Практика:
Подготовите конфигурационные файлы для развёртывания своего AI-сервиса от Dockerfile до конфигурации окружения;
Напишете сценарий обновления и релиза новой версии.
Результат: Самостоятельно подготовите AI-сервис к запуску в инфраструктуре реальной компании. Обеспечите воспроизводимость деплоя и безопасное обновление без ручных операций на сервере. Создадите конфигурационные файлы для развёртывания и готовый сценарий релиза, применимый в реальном рабочем процессе.
Теория:
Познакомитесь со спецификой мониторинга AI-сервисов: какие метрики и события важны именно для LLM-систем — латентность, стоимость токенов, качество ответов — и чем это отличается от классического backend-мониторинга;
Изучите принципы трассировки вызовов агентов: как отслеживать цепочку обращений к инструментам и зависимым компонентам и восстанавливать полный путь выполнения задачи;
Разберёте подходы к наблюдению за качеством в продакшене: как фиксировать деградацию до того, как её заметят пользователи;
Освоите механизмы сбора пользовательской обратной связи и её интеграцию в цикл улучшения сервиса.
Практика:
Настроите систему накопления и хранения знаний о работе сервиса: логи вызовов, трассы агентов, метрики качества;
Реализуете механизм быстрого поиска и диагностики неполадок — чтобы при инциденте за минуты находить, на каком шаге и почему сломалось.
Результат: Диагностируете деградацию качества AI-сервиса по данным мониторинга, а не по жалобам пользователей. Сократите время на разбор инцидентов благодаря полной трассировке цепочки вызовов. Получите настроенную систему наблюдаемости с трассировкой агентов, метриками качества и инструментом быстрой диагностики.
Теория:
Познакомитесь с тем, как структура запроса влияет на стоимость вызова модели: длина контекста, количество токенов, выбор модели — и как небольшие изменения в промпте дают ощутимую экономию;
Изучите принципы подбора модели под задачу: когда дорогая модель избыточна и чем её можно заменить без потери качества;
Разберёте механизмы кэширования результатов, оптимизации частоты вызовов и установки лимитов — как на уровне бюджета, так и на уровне нагрузки;
Освоите понятие цены качества: как формализовать баланс между точностью ответов и стоимостью их получения при масштабировании.
Практика:
Составите схему настройки лимитов и бюджетов для своего AI-сервиса;
Построите карту контроля финансовых показателей: какие метрики собирать, как визуализировать расходы и где искать точки оптимизации.
Результат: Осознанно выбираете модель и конфигурацию под конкретный сценарий: дешёвый или дорогостоящий. Создаете схему лимитов и бюджетов и карту финансового контроля, готовые к применению в реальном AI-сервисе.
Теория:
Познакомитесь с причинами перехода на локальный inference: контроль над данными, независимость от внешних провайдеров, предсказуемая стоимость и соответствие требованиям безопасности;
Изучите критерии подбора модели под задачу: размер, архитектура, требования к памяти и GPU — и как найти баланс между качеством и доступными ресурсами;
Разберёте варианты организации инфраструктуры: выбор оборудования, фреймворков для инференса (Ollama, vLLM, llama. cpp) и способов развёртывания;
Освоите стратегии миграции с удалённых endpoint’ов на локальные — как переключить сервис с минимальными изменениями в коде;
Рассмотрите реальные ограничения и компромиссы: где локальное решение проигрывает облаку и как это учитывать при принятии архитектурных решений.
Практика:
Развернёте локальную модель в своей среде и подключите её к сервису вместо удалённого API;
Проверите производительность и сравните качество ответов с облачным аналогом для конкретной задачи.
Результат: Обоснованно делаете выбор между облачным и локальным инференсом под требования конкретного проекта. Самостоятельно разворачиваете приватную модель в инфраструктуре компании с учётом ограничений оборудования.
💪 Суперсила: Проектирует AI-системы с учетом реальных ограничений бизнеса: нагрузки, инфраструктуры и требований к отказоустойчивости. Специализируется на создании независимых и масштабируемых решений, где архитектура сразу закладывается под работу в продакшене.
На курсе: Андрей разберет, как работать с данными и знаниями в AI-системах: построение RAG, выбор подходов к поиску и организация хранения данных. Покажет, как выстраивается взаимодействие агентов и сервисов, как устроена оркестрация компонентов, а также какие практики используются для мониторинга, диагностики и поддержки качества AI-решений в продакшене.
Достижения:
Ведущий AI-архитектор (Raft, Astra Development, международные проекты в MENA)
Работал в Nokia Bell Labs, Huawei, ABBYY, MTS AI, Promobot
Руководил R&D и AI-подразделениями (Raft, ОЦРВ РЖД, Promobot)
Запускал NLP-направления с нуля и реализовал десятки AI/ML-проектов
Опыт работы в международных исследовательских командах (Финляндия, Бельгия)
Образование: MSc KU Leuven (Belgium) – Linguistics & AI PhD Tampere University (Finland) – Communication Science
Екатерина Трофимова
💪 Суперсила: Соединяет академическую экспертизу и практику: умеет объяснить, как устроены AI-системы «под капотом» и как их корректно встроить в реальные сервисы через инструменты и взаимодействие с внешними системами.
На курсе: Екатерина разберет, как проектировать инструменты для AI-агентов и выстраивать взаимодействие с внешними сервисами: как описывать tool layer, как агент принимает решения о вызове инструментов и какие ограничения возникают в продакшене.
Достижения:
Научный сотрудник Центра И И Сколтеха
Научный сотрудник лаборатории LAMBDA НИУ ВШЭ
Специализируется на ML, NLP и интеллектуальных системах
Разрабатывает и преподает курсы по LLM, генеративным моделям и AI
Публикуется в международных журналах (PeerJ, Journal of Physics)
Исследует генерацию ML-пайплайнов и кодогенерацию
Участвует в прикладных и образовательных проектах (в том числе Сбер)
Образование: МГУ (экономический факультет) Магистратура: ВШЭ × Сколтех (Data Science) Кандидат компьютерных наук, НИУ ВШЭ
Дмитрий Антипов
💪 Суперсила: Объяснять сложное просто, умение работать руками и широкая технологическая насмотренность.
На курсе: Дмитрий разберет, как понять, что система «стала лучше»: как тестировать и оценивать качество AI-систем через построение своих бенчмарков и развитие культуры evals-driven, а так же как превратить это в постоянный инженерный процесс.
Достижения:
16+ лет в разработке, из них 6 лет в AI
Разработал десятки сложных AI-проектов по данным и речевым технологиям
Спикер ключевых технологических конференций: Highload++, Yandex PML, AI Journey и других
Участник программного комитета AIConf
Куратор ODS
Собрал свой agentic harness, который создает проекты по голосовым сообщениям в мессенджере
Пишет статьи на Habr и ведет канал про разработку и AI
Типичные задачи, где backend-команды используют AI-агентов
На курсе вы научитесь строить backend-сервисы для таких AI-систем
AI отвечает на вопросы пользователей и вызывает backend-сервисы продукта
Поддержка пользователей
{1}
AI обрабатывает заявки и запускает бизнес-процессы через API
Автоматизация внутренних процессов
{2}
AI принимает решения и вызывает нужные backend-инструменты
Интеграции между сервисами
{6}
AI анализирует данные и формирует отчеты и объяснения
Генерация аналитики
{4}
AI ищет ответы в базе знаний и возвращает релевантные результаты
Поиск по данным и документации
{3}
AI помогает пользователям работать с сервисом и выполнять действия через инструменты
AI-агенты внутри продукта
{5}
Выберите формат обучения
Инженерный трек
Проект: Production-ready AI backend (реальный кейс)
Доведёшь сервис до уровня, который можно показать работодателю:
Выбирай нужное количество мест на потоке и оформляй счёт от компании. Мы гарантируем бронирование выбранных мест до момента оплаты.
Плати как удобно
Выстави счёт и оплати как юридическое лицо
Что говорят наши студенты: предыдущие потоки
Вопросы – ответы
Да. Организаторы помогают получить доступ, а также предусмотрена траектория импортозамещения с отечественными моделями и open-source решениями.
Участникам продвинутого и премиум-тарифов предоставляют вычислительные ресурсы. Задания потребляют токены, и программа учит оптимизировать расход.
Да, все занятия записываются и остаются доступными в течение года после окончания курса.
Для обзорного трека достаточно базовых знаний программирования. Для продвинутого трека рекомендуется опыт работы с Python, Docker и понимание основ машинного обучения. Мы предоставляем вводные материалы перед стартом курса.
Курс включает живые вебинары с экспертами длительностью 1.5–2 часа, практические работы с проверкой кода от экспертов.
LangFlow, LangGraph, AutoGen, CrewAI, MCP, а также инструменты эксплуатации: Langfuse, LangSmith и др. Для advanced RAG дополнительно рассматриваем LlamaIndex.
Да. В расширенном треке есть модуль про A2A и паттерны кросс-платформенного взаимодействия, плюс связка A2A + MCP в общей архитектуре.
В продвинутом тарифе проводится разбор кода. В премиальном тарифе дополнительно включён курс по эксплуатации агентов (AgentOps).
Да. Курс ориентирован на практическое применение: архитектурные паттерны и типовые ошибки, а финальный проект можно адаптировать под реальную задачу вашей компании.
Остались вопросы?
Оставьте заявку, и мы свяжемся с вами для консультации
Я ничего не понял, у меня есть вопрос, куда писать как быть, что делать????