Интервью: Как оптимизировался интернет-магазин Wikimart.ru

Интервью: Как оптимизировался интернет-магазин Wikimart.ru

02.05.2011 5 Автор Дмитрий Разахацкий
Print Friendly, PDF & Email

Алексей Чекушин, аналитик торгового центра Wikimart.ru, рассказывает о продвижении этого проекта и различных аспектах организации внутреннего seo. Отрывок из программы “Топ Эксперт” на МегаиндексТв. Текстовая версия + видео. Рекомендую всем, кто занимается или планирует заниматься продвижением крупных интернет-магазинов.

Викимарт – это онлайновый торговый центр. Его принципиальное отличие от интернет-магазина – в бизнес-схеме работы. Интернет-магазин сам продает какие-то товары, мы – это торговый центр, куда может прийти посетитель и купить товар у какого-то другого магазина через наш интерфейс и наш колл-центр. При этом магазин [на нашей площадке] платит деньги не за клики, не за что-то еще, а за каждый проданный и доставленный товар. То есть фактически мы планируем стать русским Ебэем, но по более прогрессивной бизнес-схеме.

Как оптимизировали wikimart.ru

Seo – это один из основынх источников трафика Викимарта, в декабре 2010г. среднесуточный трафик был около 70000 человек. Начинали год примерно с 10000 в сутки и вышли на такие вот значительные цифры.

– Я правильно понимаю, что фактически на вашем сайте отсутствует уникальный контент, ваш принцип работы таков, что вы забираете информацию о товарах у других магазинов и уже на них перенаправляете трафик?

Мы не перенаправляем трафик, весь заказ проходит через наш интерфейс. Но правда то, что большинство контента на сайте не является уникальным.

– Это интересно, т.к. нередко на конференциях и семинарах приходится слышать, что обязательно нужен уникальный контент и без него справиться очень сложно…

При продвижении такого большого сайта был кейс, который в принципе не встречается при продвижении более мелких сайтов – этот кейс называется “полная индексация всего сайта“.

На Викимарте на данный момент порядка 1,5 миллиона страниц, которые потенциально могут принести трафик. Задача была загнать их все в индекс. Начинали мы с цифр где-то 200-300 тысяч страниц. Проблемы были как и в обходе сайта роботом, так и в принятии решения поисковиком после посещения роботом, добавлять или нет страницу в индекс.

Мы нашли решение для первой ситуации – это было сделано для Гугла, и нашли решение, как сделать так, чтобы страницы даже с неуникальным контентом попадали в индекс.

– Можешь немножко поподробнее этот момент разобрать? Особенно интересно, какием образом страницу удвалось поднять выше в поисковой выдаче, чем оригинал?

Я не могу сказать, что нам всегда удавалось поднять выше, чем оригинал – ясное дело, что не всегда эта задача реализуема. Часто мы были ниже, но тем не менее приносили трафик.

А как удалось загнать? Мы сделали простую достаточно аналитику: посмотрели, по каким страницам ходит робот и сделали “апдейтную аналитику”.

То есть, когда происходит текстовый апдейт в Яндексе, мы пробиваем индексацию всех страниц и делаем сравнение индексов – какие страницы попали в индекс, какие выпали, какие остались, какие были посещены и не попали в индекс. Исходя из этого строятся различные срезы, которые позволили нам найти решение, как загонять такие страницы в индекс.

Еще по теме  Яндекс летит на Вегу, или Почему предновогодние пресс-релизы врут не договаривают :)

Оказалось, что от объема уникальности контента это не сильно зависит. Страницы даже с контентом от 1000 символов могли не попасть в индекс, и вероятность попадания составляла изначально около 40%.

Основная проблема была со страницами моделей. Дело в том, что Яндекс по-разному индексирует разные страницы и по-разному принимает решение об их индексации.

– То есть могут быть даже страницы одинаковые, по шаблону, но разных кластеров, товарных групп…

Даже в одной товарной группе два абсолютно одинаковых товара, различается только id и описание, – но один в индексе, а другой нет. Это был типичный случай.

Оказалось, что нужно просто сделать так, чтобы Яндекс понимал, что 1) эта страница – это страница карточки товара 2) что этот товар можно купить на сайте.

Когда для Яндекса стали понятны эти две вещи, тогда у нас пошла индексация.

– Возникает понимание, за счет чего можно это сделать – наверно, это указание цены и подобных моментов. Но возникает вопрос: вы решили проблему индексирования, а по запросам высокочастотным вы продвигаете сайт?

Мы продвигаем сайт и по высокочастотным, и по низкочастотным запросам.

– Возникают какие-то проблемы или наоборот бонусы от того, что сайт такой необычный?

Из этого возникает проблема, она связана с текущими алгоритмами Яндекса. Когда мы продвигаем сайт, самое простое, что можно сделать – заделаться под похожий сайт уже в топе и за счет этого выйти наверх. Однако, сайт у нас один, структура всех разделов одна, и что делать, в общем-то, непонятно, когда нет похожих сайтов.

Мы решили эту проблему так: создали так называемый seo-конструктор – это система, которая позволяет оптимизатору, выставляя определенные значения, менять определенные места в коде страницы без изменения его внешнего вида, и таким образом подстраиваться под то, что есть в топе.

– По моему опыту, такое сложно реализовать в компаниях, посокльку приходится провеодить существенную работу над доработкой самого сайта.

Совершенно верно, эта задача делалась в течение более чем 3 недель группой программистов.

– Обычно клиенты неохотно идут на подобные доработки. Большинство даже не понимает, что это может быть настолько необходимо для seo. Вроде бы непонятно, что делают семь человек над одним сайтом – обычно ищут одного оптимизатора, на 40 тысяч рублей…

Наверно, у вас есть очень интересные аналитические возможности для сравнения между разными тематиками, насколько доля запросов однословных соотносится со шлейфом низкочастотников – можно какие-то примеры привести?

Да, есть диаметрально противоположные примеры. Но основная тенденция такова, что доля низкочастотного трафика доминирует над высокочастотным. Но если задумываться о коммерческой эффективности, то во многих тематиках одно-двух словных высокочастотные запросы будут продавать гораздо больше.

Как пример, тематика “радиотелефоны”, где люди мало знают о конкретных моделях, поэтому запрос “радиотелефон” является продающим. У нас был опыт: как только этот запрос появился в топ-10, сразу пошли продажи в этой тематике.

Кроме того, низкочастотные запросы бывают разной конверсии. Недавно наш второй аналитик делал анализ конверсии по нашему сайту – оказалось, что лучше всего среди низкочастотных продают запросы с уточняющим словом “купить”, как нам подсказывает капитан Очевидность, и, как ни странно, “Москва”, “в Москве” – они являются более продающими.

Еще по теме  E-commerce в России: оплата товара и доставка как преграда для новых интернет-магазинов

– Алексей, чем занимается аналитик в Викимарте?

Роль аналитика на данный момент весьма обширна. Основная задача – это мониторинг всего процесса продвижения.

Когда речь идет о процессе продвижения сайта из 10 страничек, мониторинг заключается в чем: посмотреть позиции, ссылочки и т.д.

Когда мы работаем с крупным проектом, нам необходимо отслеживать все уровни, начиная с появления страницы на сайте, насоклько она корректна для seo, проходить дальше все уровни – посещение поисковым роботом, релевантность, ранжирование, и т.д. Все эти уровни требуется оценивать и обслуживать. Естественно, для этого требуется своя аналитическая часть, самописная аналитическая система, которую мы уже для себя сделали.

Вторая задача – это внесение изменений на сайт, то есть через аналитика идет полностью работа с техническими заданиями программистам компании.

Третья задача – работа с внутренними сервисами, то есть через аналитика идут техзадания на разработку внутренних сервисов.

Четвертое – это собственно аналитика поисковых алгоритмов.

– Что в Викимарте делают семь оптимизаторов – почему недостаточно одного?

На самом деле, уже не семь, а восемь. И будет человек 15-20. Зачем это нужно…

– В отделе seo? У меня это даже в голове не умещается…

Да, чтобы продвигать один сайт… На самом деле все очень просто. Викимарт – это такой сайт, где отдельные товарные категории, которых сейчас 3000, являются фактически отдельным сайтом.

Например, категория “Ноутбуки” – там семантика идет по всем ноутбукам, соответственно в конкурентах тематические сайты типа notik.ru и т.д. Нам нужно конкурировать с ними, занимать лидирующие позиции.

Основных товарных категорий, которые приносят 90% оборота, у нас порядка 300. Сколько категорий может вести один оптимизатор? Фактически, сайтов. В зависимости от уровня автоматизации и требований уровня достижимого топа – от 10 до 30, не больше.

– Есть компании, которые утверждают, что их специалисты ведут по 150 проектов…

Вопрос здесь в коммерческой эффективности продвижения. Если работать по принципу “я написал текст, закупил ссылки, а дальше карма – запрос вышел или нет”, то такой подход вполне реализуем, можно работать с самописными агрегаторами либо существующими.

А если нам нужно вывести запрос, мы предлагаем оптимизатору любые ресурсы типа “хочешь текст – на текст, ссылки – держи любые ссылки, правки на сайте – да, пожалуйста, но запрос ты должен вывести”, тогда существенно сужается количество запросов, с которыми оптимизатор может работать.

Плюс помимо оптимизации необходима, конечно, аналитика – у нас сейчас ею занимаются 2 человека, а будут 4, поскольку задач очень много.

В задачи аналитики позже войдет и полноценное формирование ссылочного окружения, не только оптимизаторского, а вообще всего.

Еще по теме  Доменная зона By празднует совершеннолетие! Поздравления и немного статистики

Плюс конечно, это разработка – сейчас работают 2 программиста, а будет 4-5.

– У нас получилась неплохая презентация Викимарта, я думаю, кто-то из слушателей уже мечтает там работать…

Каким образом вы решили проблему прописывания тайтлов, каких-то еще элементов, генерации текста для такого большого количества страниц? Вы же не вручную это все прописываете…

Да, не вручную, у нас реализована следующая система: есть 4 основных типа страниц, которые участвуют в продвижении, и для каждого из них мы можем прописать шаблон, в котором есть такие переменные, допустим, как название товарной категории, ее синонимы, название бренда – синонимы бренда – перевод бренда, и т.д.

Исходя из этих шаблонов тайтлы задаются по всему сайту. Если у какой-то страницы тайтл прописан вручную (а это можно сделать для любой пригодной для продвижения страницы), то вводится он. Оптимизатор ставит свой тайтл, а для всего сайта выбирается наиболее оптимальный по шаблону.

– Какие рекомендации вы могли бы дать веб-разработчику по созданию сайта для seo – на что делать упор? Например, не использовать такие технологии как Ajax для скрытия текста…

Когда сайт создается под seo, нужно понимать, что мы создаем сайт сейчас, а существовать он будет долго. Чтобы не пришлось потом его переделывать и чтобы оптимизатор мог с ним работать максимально удобно, должна быть максимально гибкая возможность проведения внутреннего seo.

В идеале – вплоть до того, чтобы на сайте были блоки текста и остального контента (меню, картинок и др.), которые можно менять в коде местами без изменения визуального отображения. То есть максимальная гибкость кода при том, что сайт визуально остается тем же самым.

Я не стал бы категорично относиться к java-скрипту, аяксу – они имеют свое применение, например, когда нам нужно скрыть от поисковика какой-то контент. Javascript применим, когда нужно скрыть от поисковика ссылку полностью. У нас на странице не остается вообще тега “a href” – просто остается “span” и какой-то “id”, и внутрь него подгружается ссылка.

– Есть информация, что когда мы вставляем в ссылку rel=”nofollow”, для Гугла вес отнимается, но не передается – вы замеряли это?

Нет, это технически не представляется возможным замерить с хорошей достоверностью по косвенным факторам, а прямо нам не дадут посмотреть, какой вес у страницы. PageRank – это такой эфемерный показатель, он является логарифмическим и обновляется очень редко…

– С Яндексом аналогичная ситуация?

Мы не задаемся этим вопросом, потому что у нас нет надобности вообще использовать ссылки с nofollow – мы знаем, как закрыть только от Яндекса, или от Гугла и от Яндекса, больше нам не нужно.

– Какая тогда была цель закрытия ссылки через аякс?

Дело в том, что даже если на ссылке стоит nofollow, поисковой робот все равно по ней переходит. А нам нужно, чтобы не переходил вообще…


Какая модель оплаты SEO услуг кажется вам более справедливой?

Результаты

Загрузка ... Загрузка ...