Go Get Podcast

Обсуждаем язык Go и всё, что с ним связано

Выпуск #19: Как разработчику выжать максимум из LLM?

У подкаста есть видео-версия (opens new window)

Обсуждаем с Саввой использование LLM на практике. Разбираем реальные workflow и методы, которые сами используем, чтобы выжимать из Claude Code его максимум. От базовой настройки до запуска десятков агентов одновременно и интеграции китайских моделей.

Основные темы:

  • Claude Code: настройка и продвинутые техники
  • Агенты, Skills, Hooks: как это работает на практике
  • Cerebras + китайские модели: x15 к скорости
  • MCP для Jira, Git и других сервисов
  • Автоматизация рутины: от тестов до документации

💙 Выпуск вышел при поддержке AvitoTech

Состав:


👾 Мой Телеграм-Канал (opens new window) в котором я публикую анонсы выпусков, собираю ваш фидбэк, пишу гайды по Go и не только.

🗣️ Наш чат - Gopher Club (opens new window) - здесь присутствуют гости из всех выпусков.


# Где ещё можно послушать

# Тайминги

  • 00:00 О чем выпуск: Практика использования LLM
  • 01:29 Спонсор выпуска (AvitoTech)
  • 03:04 Савва: Путь в IT и трансформация в эпоху AI
  • 07:20 AI в реальной жизни: Gemini 3.0 Pro и помощь в Японии
  • 09:08 Почему Claude Code, а не Cursor?
  • 12:32 Пайплайн работы: от аналитики до чистого кода
  • 15:18 Режимы Thinking и Ultra-Thinking
  • 15:58 Планирование и интеграция с Jira через MCP
  • 17:56 Перекрестное опыление: использование разных моделей (Gemini + GPT)
  • 21:55 Эволюция: от восторга Copilot до суровой реальности
  • 26:41 Особенности Claude Code: лимиты и управление контекстом
  • 29:38 CLAUDE.md: Глобальные и локальные правила проекта
  • 31:06 Skills vs MCP
  • 31:50 Skills: Как научить AI писать QA Notes хорошо
  • 35:49 Хуки — правильная финализация работы агента
  • 37:14 Агенты: Тестировщик, Оркестратор и Девопс
  • 38:27 20 агентов параллельно — Метод «Грубой силы»
  • 43:20 Проверка идей: написание крипто-парсера за пару часов
  • 50:49 Построение DevOps-инфраструктуры с нуля через AI
  • 54:31 Поиск багов, анализ логов и цепочек вызовов
  • 59:12 Брейншторм архитектуры и работа с базой данных
  • 01:02:13 Скорость x15: Китайские модели через MCP (Cerebras)
  • 01:12:07 Почему Junie не взлетел: Ассистент vs Автономность
  • 01:14:33 Лайфхак: AI для Performance Review
  • 01:18:13 Kubernetes и терминал Warp
  • 01:19:19 Git: Разрешение конфликтов и массовый рефакторинг
  • 01:23:32 Профайлинг (pprof) и поиск узких мест
  • 01:25:20 Опасности: удаление тестов и no-lint
  • 01:31:12 Использование моделей напрямую в IDE (IntelliJ, Zed)
  • 01:32:52 Экономика: стоимость китайских моделей vs OpenRouter
  • 01:34:00 Железо для локальных моделей: Mac Studio vs RTX 5090
  • 01:43:35 Как успевать за обновлениями инструментов
  • 01:56:07 Обзор китайских моделей: DeepSeek, Qwen, Yi, Minimax
  • 02:04:56 Сравнение топов: Gemini 3.0 Pro, GPT-5 и Claude 4.5 Sonnet / Opus
  • 02:06:57 Изучение языков с Gemini (Кейс с японскими глаголами)
  • 02:16:44 Будущее джунов и проблема «Vibe Coding»
  • 02:22:10 Наш практический стрим с демонстрацией использования LLM