Представьте: у вашего сайта падает органический трафик на сайт, снижается число заявок, а доля пользователей с поиска — всё меньше. При этом аналитика показывает: на сервер всё чаще стучатся ИИ-краулеры — роботы новых поисковых систем, обучающие боты крупных ИИ-платформ и ассистенты вроде ChatGPT. Вы проверяете robots.txt, а там всё стандартно для Google и Яндекс. Почему перестал расти трафик, что менять, и стоит ли прямо сейчас блокировать AI-ботов или, наоборот, пускать их на сайт?
В 2026 году стоит по-новому смотреть и на SEO статьи для сайта, и на стратегию доступа для разных умных ботов. Разберём на практике:
- Что происходит: сайты теряют органический трафик из поиска
- Чем отличаются AI-краулеры и почему их блокируют
- Почему бизнес страдает: меньше заявок, выше зависимость от рекламы
- Как меняется ландшафт SEO: кейс с новостным сайтом
- Рост блокировок AI-ботов и влияние на SEO для сайта
- Стратегии: блокировать ли AI-ботов или пускать?
- Мини-кейс: интернет-магазин и выбор доступа
- Инновации: “Pay Per Crawl” и zip-бомбы для защиты от AI-краулеров
- AI-боты и разные ниши: где боты, там и трафик?
- Метрики и риски: что измерять, что контролировать
- Что делать сейчас: пошаговый план владельцу сайта
- Реалистичный вывод
Что происходит: сайты теряют органический трафик из поиска
Классическая ситуация последних месяцев: мало трафика из поиска, блог есть, статьи публикуются, а новых переходов нет. Причина — AI-обзоры в поисковых системах. Пользователи всё чаще получают ответы прямо в поиске, не переходя по ссылкам. Недавние исследования показали: с начала 2025 года информационные сайты в среднем потеряли до 30% посещаемости из-за ИИ-аннотаций и ассистентов в поиске.
- Google, Яндекс и новые AI-поисковики выдают краткие ответы по основным вопросам пользователя прямо в выдаче.
- Сайты-первоисточники начинают чувствовать, что контент становится больше «топливом» для платформ, чем точкой входа для клиентов или рекламных лидов.
Чем отличаются AI-краулеры и почему их блокируют
В 2025–2026 году владельцы сайтов столкнулись с выбором: какие боты могут читать ваш сайт, а для каких лучше закрыть двери? Исследование Hostinger показывает: AI-краулеры для обучения моделей (например, GPTBot от OpenAI) чаще других получают отказ — их доля доступа снизилась с 84% до 12% за год. Одновременно ассистентские поисковые боты (например, OAI-SearchBot) наращивают охват: у OpenAI — уже 55%, у TikTok и Apple — порядка 20–25%. В чём разница?
- Обучающие боты собирают максимум данных для создания новых моделей. Обычно не возвращают вам трафик (работают «в закрома»).
- Боты-ассистенты работают на пользователей, показывая ваш контент напрямую в ответах… иногда даже с ссылкой на сайт.
Почему бизнес страдает: меньше заявок, выше зависимость от рекламы
Уменьшается органический трафик — падает количество заявок и конверсия сайта. Больше приходится вкладываться в платную рекламу (PPC, контекст, соцсети): лид дорожает на глазах, появляется опасная зависимость от платного трафика. Старые SEO статьи для продвижения сайта уже не работают так, как раньше.
- Вторая проблема — прямой увод пользователей с поиска: все ответы «съедает» AI-ассистент.
- Третья: нагрузка на серверы и непонятные расходы на обслуживание трафика от нежелательных ботов.
Как меняется ландшафт SEO: кейс с новостным сайтом
Мини-кейс — новостной портал в тематике городской жизни:
- Исходно: регулярные публикации, условия — блог не даёт трафика, сайт не растёт по органике, а источниковый контент массово уходит в ответы поисковых AI-сервисов.
- Что сделали: пересмотрели контент-стратегию блога, внедрили защиту от обучающих ботов (блокировка GPTBot, ClaudeBot и др.), но открыли доступ OAI-SearchBot — чтобы оставаться в ответах ChatGPT и сохранять минимальный приток аудитории с «новых поисковиков». Одновременно пересобрали семантику — часть информационных статей перевели в экспертизу, чтобы ответы не «каннибализировались» AI.
- Итог: темпы падения органики снизились; средняя глубина просмотра выросла с 1,2 до 2,1; количество заявок с органики вернулось к показателям начала года. Расходы на рекламу снизились на 18%.
Рост блокировок AI-ботов и влияние на SEO для сайта
Факт: в октябре 2025 года 60% уважаемых новостных сайтов уже блокируют по крайней мере один AI-бот в robots.txt — сравните с 9% сайтов без верификации информации.
Это реакция сильных игроков рынка: закрывают обучающие боты, но часто открыты для поисковых/ассистентских, которые реально приводят трафик.
Важно: блокировка основных поисковых краулеров (Googlebot, Яндекс.Бот) — путь в никуда: исчезновение из поиска.
Стратегии: блокировать ли AI-ботов или пускать?
Hostinger и Cloudflare советуют середину — блокировать обучающие боты (GPTBot, ClaudeBot, CCBot), чтобы ваш контент не уносился в ИИ без пользы для вас, и разрешать асистентские/search-боты — чтобы получать хоть какой-то трафик с новых поисковых интерфейсов.
- Проверяйте серверные логи, чтобы знать, кто приходит чаще — что нужно блокировать, а что можно оставить ради эксперимента и анализа трафика.
- Используя CDN-блокировки (Cloudflare и другие), можно быстро перекрыть доступ «нахальным» ботам или составить белый список ботов по целям бизнеса.
Мини-кейс: интернет-магазин и выбор доступа
Магазин текстильных изделий заметил пик обращений от неизвестных ботов. После анализа логов — львиная доля пришлась на AI-тренинг-ботов, что увеличивало нагрузку на сервера и расходы. Боты заблокировали, оставили только Googlebot, Bingbot и OAI-SearchBot. Итог: экономия на хостинге и CDN 22% в месяц, органика без потерь, сайт чаще всплывает в ответах AI-поисковиков с прямыми переходами.
Инновации: “Pay Per Crawl” и zip-бомбы для защиты от AI-краулеров
С июля 2025 года Cloudflare предлагает функцию «Pay Per Crawl»: теперь AI-краулеры должны платить за сканирование сайтов, а у владельцев появляется стимул допустить только желаемых ботов. Для особо надоедливых — хитрый приём: zip-бомбы (многогигабайтные архивы, открывающиеся как ловушки), которые замедляют работу агрессивных AI-ботов и экономят ресурсы. Да, это крайний метод, для обычных seo-статей и блога не нужен, но для уникальных материалов — вполне.
AI-боты и разные ниши: где боты, там и трафик?
В 2025 году посещения AI-ботов выросли в 3 раза по сравнению с прошлым годом. Особый рост — в электронной коммерции (+170%), онлайн-образовании (+120%), туризме (+110%). В этих сферах блокировали чаще только обучающих ботов — чтобы сохранить конкурентные преимущества и не «кормить» интеллект конкурентов.
Метрики и риски: что измерять, что контролировать
- Органический трафик — база. Сравнивайте до/после публикации статей для сайта, блокировок ботов, появления в выдаче AI-поиска.
- Заявки из поиска — считаются в аналитике, можно сравнить с предыдущим периодом, чтобы увидеть тренд не только по посещениям, но и по реальному бизнес-эффекту.
- Доля переходов из AI-интерфейсов — CRM, Яндекс.Метрика или отдельные параметры в UTM.
- Глубина просмотра и время на сайте — растёт после внедрения более экспертных и уникальных материалов, особенно если конкурентные ответы «скрадываются» AI.
Риски — слишком жёсткая блокировка (можно закрыть даже тех, кто приводит клиентов); переспам SEO-статей для сайта в попытке вернуть трафик; тексты для сайта, не проходящие детектор ИИ, что повышает вероятность фильтров и ухудшает восприятие у пользователя.
Что делать сейчас: пошаговый план владельцу сайта
- Проведите аудит доступа ботов: кто читает ваш сайт, зачем, как влияет на трафик и загрузку.
- Отдельно проработайте контент-план для блога: добавьте экспертные статьи, концентрируйтесь на сложных ответах (с примерами, схемами, уникальным опытом), которые сложно «переварить» ИИ в кратком ответе.
- Составьте стратегию по ботовым доступам: чётко прописать, кого блокировать, кого пускать и зачем.
- Регулярно анализируйте результаты: органический трафик на сайт, заявки из поиска, расходы на ресурсы и рекламу.
- Не забывайте про человеческие тексты для сайта — это главный страховочный трос для любого бизнеса в новом поисковом ландшафте.
Реалистичный вывод
Блокировки AI-краулеров и правильное наполнение сайта статьями сегодня — уже не экзотика, а часть гигиены для любого контент-проекта. В одной нише (электронная коммерция, инфо-сервисы) иногда хватает пары уникальных SEO статей и грамотно прописанных robots.txt. В другой (новостные порталы, медиа, экспертные блоги) нужна полноценная контент-стратегия блога, ежемесячное написание статей и продуманная политика допуска AI-ботов. Помните — от вашего сайта всё равно рано или поздно что-то улетит в нейросети. Важно, чтобы пользы для вашего бизнеса было больше, чем риска.







