Разработка LLM-сервисов
Создавайте AI-сервисы на базе больших языковых моделей с нуля до production
Длительность: 4 дня (16 часов консультаций)
Уровень: Средний
30 000 ₽
О семинаре
Комплексный семинар по разработке LLM-сервисов от теории до практики. Вы научитесь не только использовать LLM как ядро приложений, но и самостоятельно разворачивать инфраструктуру для их работы. Освоите on-premise развёртывание (Ollama, vLLM+Kubernetes), настройку среды разработки в VS Code, работу с OpenAI API и создание агентов. Семинар строится вокруг консультационных сессий с практикой по современным инструментам: MCP-тулинг, Context7, Playwright и локальные RAG-системы.
Программа семинара
- Архитектура больших языковых моделей (LLM)
- Концепция LLM-сервисов и агентов
- On-premise развёртывание: Ollama и vLLM+Kubernetes
- Работа с OpenAI API через curl и программные интерфейсы
- Настройка VS Code для разработки LLM-сервисов
- Разработка агентов для создания AI-приложений
- MCP-тулинг: Context7 и Playwright
- Локальные RAG-системы: построение и интеграция
Навыки, которыми поделятся эксперты
Python
Ollama
vLLM
Kubernetes
OpenAI API
VS Code Extensions
MCP (Model Context Protocol)
Context7
Playwright
RAG (Retrieval-Augmented Generation)
Пререквизиты
Опыт программирования на Python или Java
Базовые знания Linux
Понимание REST API и сетевых протоколов
Желательно: базовые знания Docker/Kubernetes