Заметили, что SEO статьи больше не дают прежнего трафика, а эффект от ведения блога на сайте словно замерз? Вас мучает вопрос, не скатился ли ваш сайт в тень новых AI-систем вроде ChatGPT, Claude или Perplexity? Или платите за рекламу больше, чем можно было бы при нормально working органике? Скорее всего, причина в том, как поисковые и AI-боты видят (или не видят) ваш контент через robots.txt. С 2025–2026 годов игра изменилась: обычного запрета на “всех AI” уже не достаточно — и необдуманные блокировки могут отрезать вам трафик от новых AI-поисковиков.
Давайте разберём, что происходит, нужно ли срочно менять настройки сайта, как с этим жить бизнесу и какие статьи для сайта по-прежнему приносят заявки из поиска. Поехали!
- Что изменилось: встречайте AI-ботов нового поколения
- Почему бизнес страдает, если не следить за robots.txt?
- Mini-кейс: сайт b2b-услуг и «слепая» блокировка AI-ботов
- Чем управлять: теперь три типа AI-ботов в robots.txt
- Автоматизированный трафик уже обогнал человеческий: что это значит?
- AI Overviews и снижение органического трафика с Google
- Появление GEO — Generative Engine Optimization
- Mini-кейс: интернет-магазин, SEO тексты и рост трафика через AI-индексацию
- Robots.txt: чей user-agent что значит, и почему «копипаст» больше не работает?
- Mini-кейс: блог эксперта, SEO контент и smart robots.txt
- Практические рекомендации: что делать прямо сейчас
- Вывод: как не выпасть из AI-поиска и сохранить заявки с сайта
Что изменилось: встречайте AI-ботов нового поколения
До недавнего времени всё было просто: для поисковиков — Яндекс, Google, BingBot; для AI — в лучшем случае пара user-agent строк, которые мало кто блокировал осознанно. Сейчас же каждый крупный AI-поисковик — OpenAI, Anthropic, Perplexity — отделяет ботов для обучения, индексации (поиска), и выдачи по запросу пользователя.
- ClaudeBot — обучает ИИ на ваших текстах
- Claude-SearchBot — индексирует контент для вывода в AI-поиске
- Claude-User — лезет на сайт, когда человек задаёт специфический вопрос
И теперь, блокируя “одного” бота, вы не закрываете другим доступ. Более того, некорректная настройка robots.txt легко приводит к полной потере видимости вашего сайта в новых ответах AI и даже снижению органического трафика.
Почему бизнес страдает, если не следить за robots.txt?
Бизнесы обычно замечают последствия не сразу:
- Органического трафика стало резко меньше, хотя позиции в Яндекс и Google особо не просели.
- В Google Search Console растёт доля Zero-click поисков — AI-обзоры отвечают на всё сами, пользователи не заходят на ваш сайт.
- В платной рекламе стоимость лида растёт.
- Заявок с сайта – кот наплакал, старые статьи в блоге перестали «выстреливать» по трафику.
Виноват может быть как устаревший блог, так и то, что ваш сайт не видит ни ChatGPT, ни Claude — и их современные собратья. Поэтому правильная настройка доступа для ботов уже стала частью контент-стратегии. Теперь нельзя просто скопировать в robots.txt блок всего подряд: потеряете всё, от ИИ-поиска до собственных органических заявок.
Mini-кейс: сайт b2b-услуг и «слепая» блокировка AI-ботов
В 2025-м ко мне обратился клиент: топ позиций по Яндексу есть, а органический трафик падает, лиды с блога ушли в минус. Виноватым оказался копипастный запрет на всех ботов AI в robots.txt («чтобы не использовали наши тексты»). В итоге:
- блокировка Claude-SearchBot и OAI-SearchBot,
- исключение сайта из подборок ChatGPT и Claude,
- падение видимости в новых AI-системах,
- реферальный трафик ушёл к конкурентам.
Как исправили: настроили robots.txt — разрешили индексацию для search-ботов и для user fetchers, а доступ к контенту для тренировки моделей ограничили. Итог — спустя 2 месяца +28% к органике и новые заявки без доп. бюджета.
Чем управлять: теперь три типа AI-ботов в robots.txt
- Бот для обучения (ClaudeBot, GPTBot): если блокируете — вашу статью не учит общий ИИ. SEO-прямого эффекта не даёт, просто не обижаемся, что нас не цитируют в AI).
- Бот для поиска / индексации (Claude-SearchBot, OAI-SearchBot): если вы его блокируете, новые поисковики на базе AI не увидят ваш сайт и не предложат его пользователям.
- Бот по запросу пользователя (Claude-User): если заблокирован, сайту сложнее попасть в “развернутые” ответы AI при индивидуальных запросах, хотя не всегда подчиняется robots.txt (разнится от платформы к платформе).
Резюмируя — тотальная блокировка приводит к полной потере видимости в AI-поиске, а игнор ситуации уводит ваш контент в тренировки ИИ для конкурентов. Подумайте, что важнее.
Автоматизированный трафик уже обогнал человеческий: что это значит?
Согласно Imperva, ещё в 2024 году 51% всего интернет-трафика — боты. Значит, управление через robots.txt — теперь вопрос не только защиты авторских прав, но и выживания в поисковой среде.
AI Overviews и снижение органического трафика с Google
В Google и Яндексе AI-модули выжимают суть из контента и всё чаще отвечают сами, без перехода на сайты. Исследования показывают:
- Кликов на органику становится меньше.
- Время на результатах поиска (SERP) растёт.
- Рост доли поисков без перехода на сайт — даже если у вас выдающийся SEO копирайтинг.
Отсюда — всё важнее попадать не только в ТОП-10, но и в т.н. AI-ответы, для чего нужно разрешить search-ботам AI индексировать ваш сайт.
Появление GEO — Generative Engine Optimization
Сегмент SEO становится сложнее: поисковые системы нового поколения требуют осознанного Generative Engine Optimization. Нужно заранее готовить контент так, чтобы AI-поисковики (не только Googlebot и Яндекс) могли его распознать, процитировать и привести к вам пользователя. Не блокируйте каналы, которыми завтра к вам придут клиенты!
Mini-кейс: интернет-магазин, SEO тексты и рост трафика через AI-индексацию
У магазина комплектующих для авто проблемы: SEO статьи писались давно, трафика мало, реклама дорого стоит. Что сделали:
- Провели аудит robots.txt (был полный запрет на все ИИ-боты).
- Разрешили Claude-SearchBot и OAI-SearchBot.
- Обновили SEO тексты на ключевых категориях под новые поисковые интенты.
- Через 3 месяца — трафик с поиска +17%, заявки с органики выросли, доля платного трафика стала ниже на 20%.
Урок: правильно писать SEO статьи — важно. Но если вы не даёте им пройти в новые AI-поисковики, успеха не будет.
Robots.txt: чей user-agent что значит, и почему «копипаст» больше не работает?
- Разные user-agent строки для каждого бота — блокируете по одной, по другой можно пускать.
- Ретроспектива: в 2024-м сайты копировали «список блоков»; в 2026-м требуются точечные решения.
- Можно (и нужно) блокировать доступ к обучающим ботам, но разрешать индексацию поисковикам AI, если хотите трафик.
Mini-кейс: блог эксперта, SEO контент и smart robots.txt
У консультанта по праву блог был заброшен, стагнация трафика. Внедрили:
- Контент-план для блога под новые AI-интенты.
- SEO-оптимизированные статьи для сайта на заказ.
- Гибкую настройку robots.txt: блок только обучающих, разрешение index и fetch-ботам.
Итог: спустя 4 месяца +34% органики и значительный рост консультационных заявок без увеличения рекламного бюджета.
Практические рекомендации: что делать прямо сейчас
- Проверьте robots.txt — выделяете ли вы ботов для AI search, training и user fetch отдельно?
- Подготовьте список user-agent для разрешения/блокировки, проверяйте его регулярно (AI-роботы часто меняются!).
- Оцените статьи на сайте — попадают ли они в новые AI-выдачи, или вы для систем не существуете?
- Начните плановое наполнение сайта статьями под новые пользовательские интенты (ответы на вопросы, обзоры, инструкции).
- Меряйте: рост органического трафика, глубину просмотра, обращения «с поиска» — это ключевые метрики.
- Избегайте: спама ключевиками, «пустых» текстов и отключения всего AI без осознанной стратегии.
Вывод: как не выпасть из AI-поиска и сохранить заявки с сайта
Контент-стратегия и seo копирайтинг в 2026 — это не только про правильные seo статьи для сайта, но и про умение делить ботов на друзей и недругов с помощью robots.txt, следить за трендами поискового поведения и регулярно обновлять свой блог практическими материалами. Не блокируйте то, что завтра даст приток целевой аудитории.
Путь такой: сначала аудит (robоts.txt, контент, структура), потом — исправление ошибок, создание уникального контента и стратегическое наполнение сайта статьями под современные алгоритмы. И помнить: «Гонись не за частотой, а за целевыми заявками из поиска — всё остальное подтянется».







