Разработка LLM-сервисов

Создавайте AI-сервисы на базе больших языковых моделей с нуля до production
Длительность: 4 дня (16 часов консультаций)
Уровень: Средний
30 000 ₽
О семинаре

Комплексный семинар по разработке LLM-сервисов от теории до практики. Вы научитесь не только использовать LLM как ядро приложений, но и самостоятельно разворачивать инфраструктуру для их работы. Освоите on-premise развёртывание (Ollama, vLLM+Kubernetes), настройку среды разработки в VS Code, работу с OpenAI API и создание агентов. Семинар строится вокруг консультационных сессий с практикой по современным инструментам: MCP-тулинг, Context7, Playwright и локальные RAG-системы.

Программа семинара

  • Архитектура больших языковых моделей (LLM)
  • Концепция LLM-сервисов и агентов
  • On-premise развёртывание: Ollama и vLLM+Kubernetes
  • Работа с OpenAI API через curl и программные интерфейсы
  • Настройка VS Code для разработки LLM-сервисов
  • Разработка агентов для создания AI-приложений
  • MCP-тулинг: Context7 и Playwright
  • Локальные RAG-системы: построение и интеграция
Навыки, которыми поделятся эксперты

Python
Ollama
vLLM
Kubernetes
OpenAI API
VS Code Extensions
MCP (Model Context Protocol)
Context7
Playwright
RAG (Retrieval-Augmented Generation)
Пререквизиты

  • Опыт программирования на Python или Java

  • Базовые знания Linux

  • Понимание REST API и сетевых протоколов

  • Желательно: базовые знания Docker/Kubernetes

Записаться на семинар

Выберите удобную дату

Оставьте заявку