У подкаста есть видео-версия (opens new window)
Обсуждаем с Саввой использование LLM на практике. Разбираем реальные workflow и методы, которые сами используем, чтобы выжимать из Claude Code его максимум. От базовой настройки до запуска десятков агентов одновременно и интеграции китайских моделей.
Основные темы:
- Claude Code: настройка и продвинутые техники
- Агенты, Skills, Hooks: как это работает на практике
- Cerebras + китайские модели: x15 к скорости
- MCP для Jira, Git и других сервисов
- Автоматизация рутины: от тестов до документации
💙 Выпуск вышел при поддержке AvitoTech
Состав:
- Николай Тузов (opens new window) — ведущий выпуска
- Савва (opens new window)
👾 Мой Телеграм-Канал (opens new window) в котором я публикую анонсы выпусков, собираю ваш фидбэк, пишу гайды по Go и не только.
🗣️ Наш чат - Gopher Club (opens new window) - здесь присутствуют гости из всех выпусков.
# Где ещё можно послушать
- Mave (opens new window) - тут также есть список экзотических платформ, на которых можно послушать подкаст
- Apple Podcasts (opens new window) (ITunes)
- Яндекс Музыка — скоро
# Тайминги
- 00:00 О чем выпуск: Практика использования LLM
- 01:29 Спонсор выпуска (AvitoTech)
- 03:04 Савва: Путь в IT и трансформация в эпоху AI
- 07:20 AI в реальной жизни: Gemini 3.0 Pro и помощь в Японии
- 09:08 Почему Claude Code, а не Cursor?
- 12:32 Пайплайн работы: от аналитики до чистого кода
- 15:18 Режимы Thinking и Ultra-Thinking
- 15:58 Планирование и интеграция с Jira через MCP
- 17:56 Перекрестное опыление: использование разных моделей (Gemini + GPT)
- 21:55 Эволюция: от восторга Copilot до суровой реальности
- 26:41 Особенности Claude Code: лимиты и управление контекстом
- 29:38 CLAUDE.md: Глобальные и локальные правила проекта
- 31:06 Skills vs MCP
- 31:50 Skills: Как научить AI писать QA Notes хорошо
- 35:49 Хуки — правильная финализация работы агента
- 37:14 Агенты: Тестировщик, Оркестратор и Девопс
- 38:27 20 агентов параллельно — Метод «Грубой силы»
- 43:20 Проверка идей: написание крипто-парсера за пару часов
- 50:49 Построение DevOps-инфраструктуры с нуля через AI
- 54:31 Поиск багов, анализ логов и цепочек вызовов
- 59:12 Брейншторм архитектуры и работа с базой данных
- 01:02:13 Скорость x15: Китайские модели через MCP (Cerebras)
- 01:12:07 Почему Junie не взлетел: Ассистент vs Автономность
- 01:14:33 Лайфхак: AI для Performance Review
- 01:18:13 Kubernetes и терминал Warp
- 01:19:19 Git: Разрешение конфликтов и массовый рефакторинг
- 01:23:32 Профайлинг (pprof) и поиск узких мест
- 01:25:20 Опасности: удаление тестов и no-lint
- 01:31:12 Использование моделей напрямую в IDE (IntelliJ, Zed)
- 01:32:52 Экономика: стоимость китайских моделей vs OpenRouter
- 01:34:00 Железо для локальных моделей: Mac Studio vs RTX 5090
- 01:43:35 Как успевать за обновлениями инструментов
- 01:56:07 Обзор китайских моделей: DeepSeek, Qwen, Yi, Minimax
- 02:04:56 Сравнение топов: Gemini 3.0 Pro, GPT-5 и Claude 4.5 Sonnet / Opus
- 02:06:57 Изучение языков с Gemini (Кейс с японскими глаголами)
- 02:16:44 Будущее джунов и проблема «Vibe Coding»
- 02:22:10 Наш практический стрим с демонстрацией использования LLM
