Вы только что запустили сайт — не абы какой шаблон, а полноценную платформу на Astro, блог с двумя языками, продуктовый лендинг. И что дальше? Трафика нет, заявки не идут, зависимость от платной рекламы всё та же, а блог больше радует дизайном, чем цифрами в Яндекс.Метрике. Если это про вас — вы не одиноки. В 2026 году сайт может быть технически идеальным, но без SEO и нового слоя GEO (Generative Engine Optimization) банально не попасть ни в поисковую выдачу, ни в свежие AI-ответы. Давайте разберём, что происходит с сайтами сегодня, почему старые методы уже не срабатывают, и что можно (и нужно!) делать, чтобы выходить из зоны “нулевого трафика”.
- Что случилось с SEO в 2026 году: кратко и по делу
- GEO: новая реальность для сайтов и блогов
- Почему SEO уже не работает “как раньше”
- POSSE: публикуй у себя, дублируй на площадки
- Техническая база: что сделать на старте
- GEO — генеративная оптимизация: что это и как внедрять
- Новая конкуренция: место среди AI-ответов
- Метрики и где искать точки роста
- Где риски и как не загубить SEO и GEO статьями
- Базовые шаги: маленькие улучшения — реальные сдвиги
- Выводы: SEO и GEO — это уже «и», а не «или»
Что случилось с SEO в 2026 году: кратко и по делу
Сайты сталкиваются с тремя главными болями: нет трафика из поиска, нет заявок с блога и дорогой платный трафик. Причины знакомы: либо статьи не закрывают реальный запрос пользователя, либо сайт не сигнализирует поисковикам — “у меня качественный, уникальный материал!”. И как будто этого мало — в игру зашли большие языковые модели: теперь ваш блог должен нравиться ещё и ИИ.
GEO: новая реальность для сайтов и блогов
Если раньше борьба шла за ТОП Google и Яндекса, то теперь на поле вышел ещё один игрок — AI-поисковики и ассистенты. По свежим данным Similarweb, количество zero-click поисков выросло с 56% до 69% за год. Люди всё чаще видят готовый ответ и не кликают вообще. А Pew Research Center фиксирует падение CTR до 8% при показе AI Overview. Привычный сценарий “писать, оптимизировать, ждать органический трафик” больше не гарантирует заявки и видимость вашего сайта.
Почему SEO уже не работает “как раньше”
В старой схеме было просто: собрал ключи, написал SEO статью для сайта, заказал их упаковку – и жди посетителей. Теперь этого мало. Вот реальные проблемы:
- Тексты пишутся “как для робота”, но не для человека — их не цитирует ни поисковик, ни AI
- На всех страницах одинаковые meta-теги — сайт не разбирается и не показывается по нужным запросам
- Нет обновлений или перелинковки — блог теряет видимость
Бытовой пример из жизни: вёл я блог корпоративного SaaS-продукта, статьи есть, но трафик из поиска не растёт. Разобрались — банально отсутствуют уникальные title и description, статей много, а страниц-магнитов под реальные запросы — ноль. После ручной доработки и перелинковки пошёл органический рост.
POSSE: публикуй у себя, дублируй на площадки
Многие живут на чужих платформах: делятся в Telegram, Хабре или Medium, упуская контроль над контентом. POSSE (Publish on Own Site, Syndicate Elsewhere) решает задачу: оригинал — на вашем сайте, копии — где угодно. Так вы не теряете весь архив, когда сторонний сервис меняет правила.
- Контроль авторских прав — всегда canonical и авторство за вами
- Гибкая интеграция (RSS, рассылки, автопостинг) — никаких платформенных ограничений
- Меньше риска остаться без канала связи с аудиторией
Кейс: один эксперт вел канал, выкладывал материалы только там. Потом Telegram “подурезал” охваты, и весь актив превратился в пустую статистику. После запуска блога — стали писать статьи для сайта, внедряли синдикацию. Итог — заявки поступают с поиска, а не только через лояльных подписчиков.
Техническая база: что сделать на старте
Вот чек-лист, с которым я начинаю любой проект (был опыт и на Astro, и на WordPress, и на самописных платформах):
- Уникальные title и description для каждой страницы/статьи
- Canonical — чтобы избежать дублей
- Hreflang — для версий на разных языках
- OG-теги (open graph) — чтобы ссылки выглядели презентабельно в мессенджерах и соцсетях
- Sitemap.xml — исключительно контентные страницы, ничего лишнего
- robots.txt — открыт для всех; не режьте ботов, если хотите попасть в AI-ответы
- Структурированная разметка (JSON-LD — BlogPosting/Person) — помогает и поиску, и AI
Заказали у меня однажды seo тексты на сайте юриста. Всё оформили по списку, добавили видимый блок “автор-эксперт”, прописали PersonSchema. Через три месяца 50% запросов в отчёте Яндекс.Вебмастера ведут именно на авторские статьи, первым абзацем дающие чёткий ответ — CTR вырос почти вдвое.
GEO — генеративная оптимизация: что это и как внедрять
Generative Engine Optimization — это не хайп, а новый слой работы с сайтом. Если вы хотите, чтобы ваш блог не пропал в ответах ChatGPT или Яндекс.Нейро, внедряйте:
- Контент без клиентского JS: всё отдавать в HTML, чтобы AI-краулеры не споткнулись о пустой div
- Structured data: описывать статьи метаданными, указывать автора
- Открытые robots.txt для AI-роботов
- Авторский пласт: видимый блок “Автор” и корректная микроразметка Person
- Answer-first-страницы: начинайте статьи с прямого ответа на вопрос
- Ссылки на первоисточники: повышает доверие как ИИ, так и пользователей
В заключении одного из недавних кейсов: сайт учительницы английского, большинство заявок шло с рекламы в Яндексе. Запустили блог, каждую статью оформили по GEO (structured data, уникальный meta, автор), открыли robots для AI. Через 2 месяца в статистике появились заходы со сторонних AI-ассистентов и увеличилось число прямых переходов по имени бренда.
Новая конкуренция: место среди AI-ответов
Search Engine Land отмечает: AI-ответы цитируют всего 3-7 сайтов за один запрос. Пропустить настройку structured data — значит, отдать шанс конкуренту попасть в генеративный блок. Реальная борьба за внимание — это уже не “оказаться в топ-10”, а “быть в числе процитированных”.
Метрики и где искать точки роста
- Органический трафик (данные Яндекс.Вебмастер/Google Search Console)
- Глубина просмотра и поведение в блоге: видна ли статья до конца, читают ли перелинковку
- Заявки из поиска и прямые заходы: что реально даёт вам “контент-магнит”?
- Показы в лентах AI-ассистентов: метрики появятся, но пока отслеживаем косвенно (прямые брендовики, referral с AI-источников)
Где риски и как не загубить SEO и GEO статьями
- Переспам ключами: сразу минус в ранжировании и риск забаниться в поиске
- Неестественные тексты: люди уходят, модели игнорируют
- Отсутствие обновлений: каждый свежий релиз поисковика может обнулить старые позиции, если не работать над блогом
В моей практике были ошибки: на медицинском портале пытались “нагнать” органику искусственно длинными выходными текстами. Результат — низкая глубина просмотра и постоянный запрос на “как понять что seo текст качественный”. Настроили аналитику, сократили портянки, добавили микроразметку — органика ожила, заявки пошли.
Базовые шаги: маленькие улучшения — реальные сдвиги
- Проверьте, уникальны ли title и description на каждой странице
- Оформляйте OG, canonical, hreflang
- Добавьте Author block и микроразметку Person
- Ведите блог регулярно, а не по вдохновению раз в полгода
- Используйте answer-first подход: отвечайте сразу, детали — ниже по тексту
В меньших нишах часто достаточно пары хорошо написанных статей для сайта, чтобы занять видимые позиции. В конкуренции (например, услуги, IT, обучение) нужен полноценный план: контент-стратегия блога, ежемесячное профессиональное написание SEO статей на заказ, аудит и оптимизация.
Выводы: SEO и GEO — это уже «и», а не «или»
Сегодняшний стандарт — грамотная связка SEO и GEO, потому что видимость в поиске и ответах ИИ уже напрямую связаны с вашей способностью получать заявки и расти органически, без вечного бюджета на рекламу. Конкурентность ниши, возраст сайта и качество технической базы — вот реальные ограничения. Сделайте аудит контента, закажите написание статей для сайта под ключ, внедрите базовые GEO-хаки (canonical, structured data, открытый robots.txt, видимый блок автора) — и начните отслеживать метрики уже с первого месяца. Сегодня это не «будущее», а условие выживания блога.







