ZIL.talks#3 Токены и Блокировки: как запустить нейросеть у себя дома, когда интернет против тебя
Четвёртый выпуск ZIL.talks о том, как жить с блокировками, поднять локальную нейросеть Qwen на RTX 3060 и получить своего ИИ-помощника без подписок и облаков.
Команда ZIL.digital
31 декабря 2025 г.
О чем выпуск
В четвёртом выпуске подкаста ZIL.talks мы говорим о том, как оставаться на связи с миром нейросетей, когда всё вокруг блокируется, а аккаунты горят как спички.
Наш новый железный герой — компактный компьютер, который помещается под столом, но тянет локальные LLM-модели. Михаил и Татьяна Ровнягины показывают, как настроить нейросеть Qwen на видеокарте RTX 3060, заставить её писать код, сочинять сказки и даже помогать в разработке через автодополнение в VS Code.
Темы выпуска
- Почему Gemini, Anthropic и OpenAI стали почти недоступны и как с этим жить
- Что такое Ollama и как запустить свою нейросеть за 5 минут
- Как поднять Qwen 3 8B локально: железо, настройки и реальные цифры
- Сколько слов в секунду генерирует модель и достаточно ли этого для разработки
- Автодополнение кода на Qwen 2.5 Coder — работает ли оно быстрее, чем ты думаешь
Практика: ИИ у тебя под столом
- Разворачиваем окружение на домашнем ПК с RTX 3060
- Настраиваем Ollama и пробуем несколько пресетов Qwen
- Учим модель писать код, сочинять сказки и помогать в рабочих задачах
- Подключаем локальную LLM к VS Code для автодополнения и подсказок
Фейлы и маленькие победы
- Забавные провалы: как нейросеть пыталась сделать «зелёные логи как в Матрице»
- Где локальная LLM пока уступает облачным сервисам
- В каких задачах локальный ИИ уже сегодня «закрывает» потребности разработчика
Для кого этот выпуск
Если ты устал от блокировок, хочешь иметь своего ИИ‑помощника без ежемесячных подписок и любишь ковыряться в железе, этот выпуск точно для тебя.
Поднимаем локальную нейросеть, меряем скорость генерации, обсуждаем ограничения и делимся практическими сценариями, которые уже работают в лаборатории ZIL.digital.