SEO — это марафон: как AI-агенты помогают не сойти с дистанции
TL;DR: Я сделал небольшой open-source шаблон для ведения SEO-проектов с Claude Code. В нём slash-команды для управления сессиями, анализа данных и ревью контента. Первые результаты: 10+ объёмных статей — объем и качество лучше, чем у до-агентных AI-статей и конечно дешевле копирайтеров. Бесплатные инструменты для трекинга позиций. Забрать на GitHub.
SEO — долгоиграющая, но важная составляющая любого интернет-проекта. За несколько лет SEO позволяет практически отказаться от платных источников трафика, и чем раньше начать, тем скорее наступит этот момент. SEO — это месяцы методичной работы: исследование ключевых слов, написание статей, анализ показателей, корректировка стратегии — и по кругу. Рутина съедает время. Состоявшийся бизнес предпочитает отдать это SEO-специалистам или агентствам. Это и недёшево, и качество работы видно только через несколько месяцев. Стартапы обычно бросают SEO и не потому, что оно не работает, а потому что выгорают раньше, чем появляются результаты.
А что если AI возьмёт на себя рутину, пока вы фокусируетесь на стратегии и креативе?
Агенты хорошо вписываются в сценарий длительной рутинной работы. Последний год я использую Claude Code для разработки и решил испробовать его агентские возможности для построения базового SEO-воркфлоу для e-commerce. Первые результаты: практически бесплатно (не считая подписки Claude Code), 10+ опубликованных статей, ежемесячная отчётность сократилась с часов до 5 минут, аудит контента теперь занимает секунды вместо дней.
Выложил шаблон проекта на GitHub и буду признателен за комментарии, а возможно, и ваш контрибьюшен.
Реальность SEO-работы
Базовый цикл работ по SEO выглядит примерно так:
Фаза 1-3: Исследование (недели 1-4)
- Аудит текущего сайта
- Исследование 100-200 ключевых слов
- Анализ 3-5 конкурентов
- Построение контент-стратегии
Фаза 4-6: Исполнение (месяцы 2-6)
- Исправление выявленных технических недостатков
- Написание 5-10 статей в месяц
- Оптимизация существующих страниц
- Построение внутренней перелинковки
Фаза 7-8: Поддержка (постоянно)
- Отслеживание позиций еженедельно
- Анализ показателей ежемесячно
- Обновление неэффективного контента
- Наращивание внешних ссылок
В каждой фазе есть повторяющиеся задачи. Исследование ключевиков — это одни и те же запросы в разных инструментах. Написание статей следует шаблонам. Анализ показателей — это выгрузка данных из одних и тех же источников и сравнение с теми же бенчмарками.
Именно здесь AI-агенты сильны: четкое выполнение хорошо определённых задач.
Что значит «агентский» подход
Сегодня практически любая языковая модель справляется с написанием статьи на заданную тему, а если ей на вход дать основную мысль и структуру, то она получится уникальной. Однако SEO требует написания большого количества статей с учётом обширного списка вводных, и здесь на помощь приходят агенты. Вы формируете долговременную память проекта и создаете агентские команды для рутинных операций:
- Управление сессиями: загрузка контекста в начале, сохранение прогресса в конце
- Анализ данных: обработка выгрузок из Яндекс.Вебмастера и Google Search Console
- Контроль качества: прогон нескольких критиков по черновикам перед публикацией
- Генерация отчётов: создание ежемесячных отчётов по шаблонам
- Аудит контента: сканирование сайта на пробелы и возможности
Модели гораздо быстрее обрабатывают большой объем контента по заданным критериям, и объединение этих операций в единую схему позволяет делать эти задачи в реальном времени.
Структура шаблона
Вот как я организую SEO-проект с AI-ассистентом:
.claude/
├── context/ # Текущее состояние
│ ├── active-context.md # Приоритеты спринта
│ └── progress.md # Что сделано, что дальше
├── memory/ # Долгосрочные знания
│ └── memory-bank.md # Стратегические инсайты
├── skills/ # Slash-команды
│ ├── start-session/
│ ├── end-session/
│ ├── monthly-report/
│ └── analyze-webmaster/
└── workflows/ # Документация процессов
├── SEO_WORKFLOW.md
└── CONTENT_WRITING_GUIDE.md
scripts/
└── content_audit/ # Python-утилита
└── main.py
content/
├── drafts/
├── published/
└── calendars/
research/
├── keywords/
├── analytics/
└── content-audit/
Директория .claude/ — ключевая. В ней всё, что нужно AI для понимания проекта и стабильного выполнения задач.
Slash-команды (Skills)
Claude Code поддерживает «skills» — кастомные промпты, которые вызываются через /command. Вот те, что я использую ежедневно:
/start-session
Загружает контекст проекта в начале работы:
- Читает активные приоритеты
- Проверяет статус прогресса
- Загружает memory bank
- Выдаёт саммари статуса
/end-session
Сохраняет прогресс и коммитит изменения:
- Обновляет трекинг прогресса
- Коммитит в git с детальным сообщением
- Выдаёт саммари сессии
/analyze-webmaster
Обрабатывает выгрузки из Яндекс.Вебмастера:
- Анализирует запросы, страницы, устройства, географию
- Находит точки роста
- Генерирует детальный отчёт
/monthly-report
Генерирует ежемесячный отчёт:
- Создаёт шаблон из структуры
- Настраивает директорию для снапшота данных
- Выдаёт чеклист для сбора данных
/review-article
Прогоняет несколько критиков по контенту:
- Проверка SEO-соответствия
- Качество языка (проверка на уровне носителя)
- E-E-A-T сигналы
- Соответствие интенту пользователя
- Анализ читабельности
- Коммерческая интеграция
Последняя команда особенно полезна. Вместо зыбкой надежды, что статья получилась с первого раза, вы получаете структурированную обратную связь с разных точек зрения до публикации. Это здорово повышает качество контента.
Хотите попробовать? Склонируйте шаблон и запустите /start-session, чтобы увидеть в действии.
Утилита аудита сайта и сбора позиций
Помимо skills для Claude Code, шаблон включает Python-утилиту для анализа всего сайта:
cd scripts/content_audit
python main.py --full
Она сканирует sitemap, извлекает контент и генерирует:
- Инвентаризацию контента всего сайта (CSV)
- Gap-анализ (ключевики, которые вы упускаете)
- Возможности оптимизации CTR
- Детекцию каннибализации (страницы, конкурирующие за одни ключевики)
Результат интегрируется с данными Google Search Console и Яндекс.Вебмастера для полной картины. Это конечно не TopVisor, но зато бесплатно.
Необходимые данные и как их получить
В будущих версиях это можно будет получать через API, но пока воркфлоу требует загрузки файлов из нескольких источников:
| Данные | Источник | Как получить |
|---|---|---|
| Ключевые слова | Яндекс.Вордстат, Ahrefs, SEMrush | Экспорт в CSV |
| Поисковые показатели | Google Search Console, Яндекс.Вебмастер | Скачать отчёты |
| Контент сайта | Ваш sitemap | Автоматически через Python-скрипт |
| Данные конкурентов | Ручное исследование | Документировать в research/ |
Шаблон включает понятные места для каждого типа данных и инструкции по обработке.
Чего не следует ожидать
Стоит упомянуть об ограничениях. Этот шаблон:
- Не напишет финальные статьи без вашего участия: AI-черновики всё ещё требуют экспертных вводных и полировки
- Не гарантирует позиции: базовые принципы SEO никто не отменял
- Не заменит экспертизу: вам нужно понимать SEO, чтобы направлять AI
- Не генерирует изображения: выдаст промпты для AI-генерации, но у Claude нет генерации картинок
Этот подход позволяет значительно ускорить и упростить создание SEO-контента, но он не сделает все за вас.
Как начать
1. Склонировать шаблон
git clone https://github.com/stikhonchuk/ai-seo-workflow.git my-seo-project
cd my-seo-project
rm -rf .git && git init
2. Настроить под свой проект
cp scripts/content_audit/config.example.py scripts/content_audit/config.py
# Отредактируйте config.py с вашим доменом
3. Обновить файлы контекста
Замените плейсхолдеры в:
.claude/context/active-context.md.claude/context/progress.md.claude/memory/memory-bank.md
4. Начать использовать
claude # Запустить Claude Code
/start-session # Загрузить контекст
Мультипроектная архитектура
Если пожелаете внести свою лепту в развитие этого шаблона, то он поддерживает hub-and-spoke модель:
┌─────────────────────────────────────┐
│ ПУБЛИЧНЫЙ ШАБЛОН (ai-seo-workflow) │
│ - Общие воркфлоу │
│ - Общие скрипты │
│ - Улучшения от сообщества │
└─────────────────────────────────────┘
▲ ▲
│ cherry-pick │ cherry-pick
│ (анонимизировано) │ (анонимизировано)
│ │
┌─────────────────┐ ┌─────────────────┐
│ project-a │ │ project-b │
│ (приватный) │ │ (приватный) │
└─────────────────┘ └─────────────────┘
Улучшения идут в обе стороны:
- Обновления шаблона → приватные проекты через
git pull upstream - Приватные улучшения → шаблон через anonymize + cherry-pick
Скрипт анонимизации (scripts/anonymize.py) помогает подготовить файлы для публичного контрибьюшена, заменяя проектные данные на плейсхолдеры.
В разработке
Шаблон активно развивается. Текущие направления:
Контрибьюшены
Если попробуете этот воркфлоу и улучшите его, контрибьюшены приветствуются:
- Форкните репозиторий
- Внесите изменения
- Запустите
python scripts/anonymize.py --check .чтобы убедиться, что нет приватных данных - Отправьте pull request
Баг-репорты и улучшения документации тоже несомненно приносят пользу.
Почему open source?
Три причины:
- Побуждает нормально документировать: когда знаешь, что другие будут использовать — документируешь нормально
- Улучшения от сообщества: другие могут решить проблемы, с которыми я не сталкивался
- Референтное использование: чем больше проектов, тем более качественным будет шаблон и тем более полезным для всех
Уникальная ценность не в SEO-советах (их хватает). Она в паттерне интеграции: как сделать AI постоянной частью долгоиграющего проекта, а не разовым инструментом.
FAQ
Нужна ли подписка Claude Pro/Max? Claude Code требует подписку или API-доступ. Сам шаблон бесплатный.
Можно ли использовать с ChatGPT или другими AI? Skills написаны специально под Claude Code, но структура воркфлоу (файлы контекста, memory bank, трекинг прогресса) может быть адаптирована под другие инструменты.
Что если я не использую Google Search Console? Шаблон включает и анализ Яндекс.Вебмастера. Если Google не важен, можно не использовать его статистику.
Репозиторий: github.com/stikhonchuk/ai-seo-workflow
Сделано с: Claude Code от Anthropic
English version: dev.to/stikhonchuk/seo-is-a-marathon-how-ai-agents-can-help-you-stay-the-course-3i2d
Это v1.0 шаблона. Это не готовый продукт, а скорее первые наброски. Буду рад фидбеку.
