ИИ-оптимизация в 2026 году: результаты исследования
23.02.2026Директор отдела контент-маркетинга Ahrefs Райан Лоу (Ryan Law) опубликовал сводные данные по исследованию возможностей SEO для AI. В течение трех месяцев cервис анализировал 1+ млрд “точек данных”, как они это называют, в рамках 11 исследований. Выводы про текущую оптимизацию под ИИ-поиск уместились в десять основных пунктов (и вызвали бурное обсуждение, а местами и осуждение). Читайте список и мои выводы ниже.
Результаты исследования факторов ранжирования в ИИ-ответах
- Упоминания на YouTube — самый сильный предиктор видимости в ИИ-системах (корреляция 0,737) — сильнее, чем рейтинг домена, ссылки и любые «классические» SEO-факторы. Ютуб часто цитируется в AI-ответах, Google и OpenAI обучаются на контенте из видео-сервиса.
- По одному и тому же запросу AI Mode и AI Overviews приходят к одинаковым выводам в 86% случаев, но почти полностью цитируют разные источники (пересечение цитирований всего 13,7%). Ответы AI Mode в 4 раза длиннее и упоминают в 3 раза больше сущностей.
- Длина контента почти не связана с цитируемостью в AI (0,04). 53% цитирований в AI Overviews ведут на страницы короче 1 000 слов. Писать супер-длинные тексты не обязательно для ИИ-видимости.
- Google все еще приводит в 345 раз больше трафика, чем ChatGPT, Gemini и Perplexity вместе! При этом ChatGPT дает 80%+ всего ИИ-трафика на сайты.
- AI Overviews имеют 70% шанс измениться от одного замера к следующему; «жизнь» контента в среднем всего 2,15 дня. При этом семантический смысл остается удивительно стабильным (0,95 cosine similarity / косинусного сходства).
- Посты-подборки «Лучшее [то-то]» составляют 43,8% всех типов страниц, которые цитирует ChatGPT. 35% этих подборок — с доменов низкой авторитетности.
- 79% подборок, которые цитирует ChatGPT, были обновлены в 2025, и 76% самых цитируемых страниц обновлялись за последние 30 дней. Свежесть контента для ИИ важна как никогда.
- Когда у вопроса нет валидного ответа, AI-системы часто выбирают сфабрикованный контент с конкретными цифрами (84% — почти каждый раз). Лучше всего сопротивлялся ChatGPT (84% точности), а Grok и Copilot оказались полностью манипулируемыми.
- Domain Rating слабо коррелирует с AI-видимостью (всего 0,266–0,326 на разных платформах). Количество страниц на сайте кореллирует еще слабее (0,194).
- 67% из топ-1000 источников, которые цитирует ChatGPT, по сути «вне доступа» для маркетологов: Википедия дает 29,7%, затем идут главные страницы сайтов (23,8%) и редакционный контент (всего 19,4%).
Список источников:
https://ahrefs.com/blog/ai-overviews-vs-ai-mode/
https://ahrefs.com/blog/ai-brand-visibility-correlations/
https://ahrefs.com/blog/ai-vs-made-up-brand-experiment/
Что все это значит для оптимизаторов под “ИИ-поиск”?
Что это значит для оптимизации в 2026 году, когда множество владельцев бизнеса, маркетологов и лиц, принимающих решения, задумались о появлении в ответах ИИ, когда все внезапно захотели «быть в ответах ИИ», как раньше хотели «быть в ТОП-10»?
1) AI-видимость ≠ SEO-сила
Ответы ИИ не панацея и ни один ИИ не даст вам нормального коммерческого “органического” трафика, как бы вы ни старались. Domain Rating и “классические” сигналы авторитета могут оказаться вторичными. Влияют по сути не “вес сайта”, а доступность знания: насколько оно ясно сформулировано, структурировано, обновляется, и вообще существует ли в нужном формате. Как вы будете добиваться этого в интернет-магазине?
2) YouTube – не универсальный рецепт
ИИ-видимость уже мультимедийна, а не только тексты. Но по факту ведь YouTube/видео/дистрибуция – это не “добавка к SEO”, а параллельный слой. У многих B2B-компаний, например, YouTube даже не в топ-50 каналов. Конечно, возможно, что вывод про Ютуб в иследовании зависит от типа запросов: Ahrefs смотрит на категорийные запросы с небольшим хвостом и информационные формулировки, в то время как B2B чаще живет в “solution-oriented” (“лучший X для Y”), где видео по умолчанию менее представлено. Но на практике здесь все равно важен вопрос: что именно из видео считывается как значимый фактор – речь, субтитры, описание, заголовок?..
3) Тип запроса важнее «магического фактора»
Оптимизация под ИИ возможна, но не для всех типов бизнеса и не по всем типам запросов. Информационные, коммерческие, транзакционные, “лучший”, навигационные – ИИ может собирать ответы по-разному. То, что “работает” для информационного НЧ запроса, может почти не работать для аналогичного B2B-запроса.
4) AI Overviews нестабильны: «полураспад выдачи» — это новая реальность
Если цитирования меняются каждые пару дней, то “сделал оптимизацию и забыл” превращается в миф. Побеждает операционная модель: обновления, ревизии, поддержка страниц, регулярная проверка фактов, чистка устаревшего. Готовы сделать свой бизнес информационным? Или хотя бы завести отдел-аналог псевдо-СМИ?))
5) Король – не длина текста, а читабельность для машины
Cвязка “структура + ясные сущности + доказательства + обновления” выглядит самой сильной и это происходит совсем не потому, что требуется “написать полотно на 4000 слов”.
6) “Списки лучшего” по-прежнему рулят
И это одновременно смешно и тревожно. Списки и сравнения доминируют в ИИ-ответах, причем часто с низкоавторитетных доменов. Это значит, что рынок пока не имеет “фильтров” для отсеивания спама по сути. И, да, окно возможностей есть, но оно же и окно для манипуляций.
7) Манипулируемость ИИ – это удар по “демократии цитирования”
Как говорится, скоро на экранах. Но при этом если ИИ-системы уже так легко кормятся фальшивыми цифрами и “уверенным тоном”, они будут вынуждены закручивать гайки. И тогда инфраструктура, доверие, консистентность и настоящие бренды могут снова стать решающими. Как быстро это произойдет и с помощью каких инструментов, ответа пока нет ни у кого.
8) Атрибуция будет врать вам в лицо
Представьте, что человек увидел вашу компанию в ответе ИИ, запомнил название, а потом пришел к вам «как нормальный человек»: открыл браузер и вбил бренд в Google, или ввел адрес сайта руками, нашел его в закладках, переслал ссылку себе в мессенджер и открыл оттуда, или вообще спросил у коллеги “как называется тот сервис” и потом пошел искать. В аналитике это почти никогда не выглядит как “пришел из ChatGPT / Gemini / Perplexity”.
Почему так происходит? Некоторые ИИ-платформы не дают кликабельных ссылок (или дают их так, что люди ими не пользуются). Пользователь получает ответ, но не нажимает “источник”. Он просто понял идею, запомнил бренд и пошел искать. Даже если ссылки есть, путь пользователя часто многошаговый: ИИ – осознание – Google/Direct – сайт. Analytics во всех этих случаях засчитает лишь последний шаг. То есть вы увидите “Organic Search” или “Direct”, а не источник, который реально “подкинул идею”.
В B2B эффект еще больше усугубляется. Потому что люди делают ресёрч, обсуждают в Slack/почте, открывают сайт позже, возвращаются с другого устройства, приходят через брендовый поиск. В итоге ИИ мог стать первым касанием, но в отчете его нет.
Что из этого следует на практике? Если смотреть только на “Referral traffic” (переходы по ссылкам), можно сделать ложный вывод: “ИИ не работает, потому что трафика из него нет”. Но он работает как верх воронки: формирует выбор, повышает узнаваемость, направляет исследование.
ИИ-эффект часто проявляется не как “новые клики”, а как рост брендовых запросов (название компании/продукта), рост direct трафика, больше “почти брендовых” запросов (с вашими ключами + “название”), рост конверсий на существующем трафике (потому что люди приходят более прогретые), появление ответов в опросах “откуда о нас узнали” – “в ChatGPT / в ИИ”.
Как с этим жить? Отслеживать брендовый спрос и динамику direct/search одновременно с активностью в ИИ. Делать контрольные точки: например, запустили серию обновлений/страниц под ИИ – смотрим через 2–6 недель, что меняется в брендовых запросах и конверсиях, а не только в рефералах.
7 вопросов по ИИ-оптимизации, которые у меня остались после исследования Ahrefs без ответа
Вообще вопросов больше, конечно, но постарался сгруппировать их более-менее коротко по темам.
- Есть ли разбивка по типам запросов? Инфо/коммерческие/транзакционные/“best-of” — где какая модель цитирует что и насколько стабильно?
- B2B vs B2C: отличается ли «граф цитирования»? Какие домены лидируют, насколько меньше видео, какие форматы доминируют (доки, продуктовые страницы, блоги)?
- Что именно в YouTube влияет на цитирование? Упоминание голосом, субтитры, таймкоды, описание, title? Где грань между “информативно” и “спамно”?
- Как определяется “новизна”? Если сайт обновляет контент без обновления даты – видит ли это система? Что сильнее: timestamp издателя, частота переобхода, изменения в тексте?
- Длинные страницы выигрывают “в сумме”, даже если по одной выдаче это не видно? Не “один ответ”, а “количество разных ответов, где страницу цитируют”. Возможно, длина работает косвенно – через раскрытие сущностей/вопросов.
- Сколько людей реально пользуются AI Mode (особенно в B2B)? Если аудитория не доверяет и отключает, часть оптимизации превращается в игру с витриной без покупателей.
- Какие социальные источники кроме Reddit/YouTube реально влияют? И насколько “социальность” важна: обсуждение, цитируемость, повторяемость нарратива?
Альтернативные предположения (дабы не верить цифрам как религии)
Когда смотришь на такие исследования, очень легко впасть в соблазн: увидеть корреляцию и тут же назначить ее причиной. «YouTube главный предиктор AI-видимости? Отлично, срочно всем пилить YouTube». Это человеческая реакция: мозг любит простые рычаги. Проблема в том, что интернет – не рычаг, а странный организм. И иногда то, что выглядит как кнопка, на самом деле всего лишь лампочка на приборной панели.
История с YouTube вполне может быть именно такой лампочкой. Не обязательно “YouTube делает бренд видимым для ИИ”. Возможно, все наоборот: бренды, которые уже видимы (у которых есть рынок, комьюнити, PR, партнеры, упоминания, дискуссии), просто чаще присутствуют на YouTube, потому что у них есть причины и ресурсы быть там. Видео становится не «причиной цитирования», а маркером того, что бренд вообще существует в публичном поле, что его обсуждают, пересказывают и объясняют. ИИ в этом смысле как студент: он цитирует тех, кого чаще встречает в учебниках и на лекциях, а не тех, кто “лучше оптимизировался под цитирование”.
То же самое можно сказать про Domain Rating и вообще про “авторитет” в классическом SEO-значении. Слабая роль DR сейчас может выглядеть как революция, как отмена старого мира: «ссылки больше не важны, авторитет умер». Но это очень похоже на болезнь роста.
Вот показательная цитата в комментариях к исследованию, один из директоров ИИ-подразделения в крупной компании пишет: “Доменная авторитетность сейчас слабый фактор, но останется ли так? AI не может бесконечно работать в режиме “кто угодно может ранжироваться”. Данные про манипуляции (пункт №8) показывают, почему.” – Да, отвечает представитель Ahrefs, “думаю им придется лучше фильтровать спам, иначе такие, как мы, испортим AI всем :)”
Когда система молодая и фильтры еще не дотянуты, она берет то, что доступно, структурировано и легко переваривается. Это не победа «демократии контента», это стадия, где еще не создан иммунитет. А иммунитет обязательно появится – просто потому, что иначе спам превратит ответы ИИ в мусорный поток. Когда манипуляций станет слишком много, авторитет и верификация вернутся – возможно, в другой форме, не как “рейтинг домена”, но как набор сигналов доверия: проверяемость, консистентность, репутация источника, прозрачные правки, следы реального мира.
И вот здесь всплывает феномен listicles, этих вечных “best X for Y”, которые, как тараканы после апокалипсиса, переживут любую смену алгоритмов. Они доминируют не потому, что мир стал глупее (хотя иногда кажется, что да), а потому что это структурно удобный формат. Список – это готовая упаковка смысла. Его легко сжать в пять строк, легко переложить в ответ, легко свернуть в “варианты”. ИИ, по природе своей, должен обожать такие формы, потому что они напоминают ему собственный процесс – компрессию, резюмирование, выдачу вариантов. Поэтому низкоавторитетные “лучшие сервисы” могут всплывать снова и снова не потому, что это истина, а потому что это удобная форма здесь-и-сейчас.
Но есть еще один слой, который часто прячется за красивыми цифрами: сами измерения. Любой датасет – это не зеркало реальности, а окно с определенным углом обзора.
В ответах комментаторам Ryan Law также прямо пишет (дословный перевод): “Индекс BR построен на базе Keywords Explorer, так что он действительно смещен в сторону short-tail. Интересно, смогу ли я выделить подмножества B2B vs B2C ключей и посмотреть, как меняется дисперсия по самым цитируемым доменам — кажется, из этого может получиться классное исследование!”
Если база ключей смещена в короткие и информационные запросы, то выводы будут говорить именно про этот мир – мир коротких формулировок, энциклопедических вопросов, массовых тем. А B2B, документация, интеграции, узкие “как сделать X в Y при условии Z” — живут в другом пространстве. Там меньше видео, больше доков, больше комьюнити, больше “неочевидных” источников, которые редко попадают в массовые выборки. Поэтому часть “сенсационных” выводов может быть не универсальными законами, а особенностями того, куда направили фонарик.
И наконец, “свежесть” / “новизна”. Это слово с точки зрения ИИ-оптимизатора ейчас звучит как новая религия: обновляйся, иначе исчезнешь. Но свежесть тоже может быть не тем, чем кажется. Возможно, ответы ИИ меняются не потому, что смысл мира меняется каждые два дня, а потому что меняется сцена, то, что оказалось под рукой у системы в момент генерации: пересобранные сниппеты, новые формулировки, новый порядок доступа. Иногда это не “контент устарел”, а “контент по-другому увидели”. Шум переиндексации, а не реальная динамика знания. И если смотреть на это так, становится понятно, почему семантический смысл может оставаться стабильным, а цитаты и источники будут плясать, как будто их трясет.
В итоге картина получается не про “один секретный фактор”, а про взросление экосистемы. Сейчас ИИ-поиск похож на ранний интернет: много удобных форматов, много дыр, возможностей и одновременно много иллюзий причинности. Но главный риск – принять текущую фазу за окончательные законы физики. А главный шанс – научиться думать как исследователь: различать причину и маркер, понимать смещение выборки, не перепутать “удобно для модели” с “правильно для бизнеса”, и помнить, что любые фильтры рано или поздно закручивают просто потому, что иначе все превращается в спам, а спам убивает доверие, а без доверия у ИИ-поиска нет будущего.
Что делать в 2026 с ИИ-оптимизацией (без фанатизма)
- Оптимизируйте под “цитируемость”, а не под “ранжирование”. Сущности, четкие определения, доказательства, таблицы/списки, короткие выводы, актуальные даты — это корм для моделей.
- Сделайте процесс обновления контента частью процесса. Не «кампания», а «обслуживание знания». Иначе вы будете вынуждены оптимизировать под окно в 2 дня, распыляя ресурсы.
- Разведите стратегии для B2B и “всего остального”. B2B часто выигрывает через: документацию, страницы решений, сравнения, кейсы, FAQ, интеграции, security/compliance-страницы — а не через “контент ради контента”.
- Видео – как слой присутствия, но сначала проверьте спрос и формат. Если ваш сегмент реально не смотрит видео, не надо делать культ Ютуба. С другой стороны, если тема объяснима, повторяема и есть спрос, видео может стать вашим “новым линкбилдингом”.
- Не верьте атрибуции как бухгалтеру после вечеринки. Смотрите на брендовые запросы, direct, рост конверсий, появление в списках сравнения, упоминания и только потом на реферал.
- В 2026 оптимизация под ИИ все больше похожа не на SEO-трюки, а на производство и обслуживание знания: структурированного, проверяемого, обновляемого и раскиданного по форматам так, чтобы его было где встретить. Обращайтесь за консультацией!


