A A A

На сайте каждого хорошего интернет-магазина есть блок с фильтрацией, при помощи которого пользователи могут быстро найти интересующий их товар. Этот функционал — обязательный атрибут интернет-магазина.

Типичный пример фильтров на интернет-магазине:

filtr
Но фильтры также могут нанести существенный ущерб ранжированию и индексации сайта в поисковых системах. К сожалению, владельцы бизнеса об этом не задумываются на этапе создания интернет-магазина, а стоило бы, так как внедрение минимального SEO-friendly избавит сайт от технических проблем с индексацией и ранжированием ресурса в поисковых системах.

Разберемся какие проблемы для ранжирования несут в себе наиболее распространенные методы фильтрации.

1. Система фильтрации на Ajax:

Фильтры в данном случае применяются без перезагрузки страницы и при этом url-адрес страницы не изменяется.

Пример реализации:

http://www.red.ua/category/id/70/zhenskaja-odezhda/platja/

 

8f41e6aa63296234f4a73a00d2ac8546

Как вы можете заметить, при применении фильтра — url-адрес страницы не изменяется, но товары, удовлетворяющие условиям, отображаются в каталоге.

Есть ещё вариант такой фильтрации, когда после текущего url адреса добавляется что-то вроде:

#category_id=51&page=1&path=37_51&sort=p.date_added&order=DESC&limit=24&
route=product%2Fcategory&min_price=2490&max_price=8889&attribute_value[10][]=да

Это, скорее всего, система фильтрации на CMS Opencart, тоже Ajax. Всё страницы с хештегом # не индексируются, поэтому рассмотрим данные варианты вместе.

В коде страницы/кеше поисковых систем нет ссылок на страницы фильтрации. В индекс страницы с результатами поиска не попадут в таком случае, так как отдельных url-адресов под результаты фильтрации нет.

Отсюда следует, что никаких дублей быть не может и поисковая система не тратит краулинговый бюджет на сканирование и индексацию бесполезных страниц по результатам фильтрации вида:

Женские платья / Синие / 44размера / Mexx / цена от 100 до 500 грн / Распродажа

Очевидно, что на такую страницу не будет трафика, так как это не обусловлено спросом. Нет смысла создавать сотни тысяч таких страниц, это не даст никакого результата, только загрузит робота работой по сканированию миллионов таких страниц.

Но есть и проблема: куда должны вести запросы вида:

  • Женские платья Mexx,
  • Женские платья из льна,
  • Женские платья из Белоруссии.

Для таких запросов нет релевантных страниц, трафик по таким запросам сайт не получит, а это уже проблема. Сайт теряет множество трафика из-за отсутствия релевантных страниц для товарные групп, которые обусловлены спросом.

Плюсы: Нет дубликатов, нет проблем с индексацией.

Минусы: Нет подкатегорий для сбора целевого трафика.

Варианты решения проблемы:

В данном случае нам не нужно решать проблемы с индексацией, дублями и мусорными страницами, поэтому тут рекомендаций будет не так много.

  1. Необходимо, в первую очередь, собрать семантическое ядро для всех страниц сайта. Выявить, исходя из спроса, какие подкатегории необходимы для каждой товарной группы.
  2. Создать для каждого кластера запросов отдельную страницу.
  3. Оптимизировать созданные страницы
  4. Получать трафик.

Примеры реализации :

http://electronics.wikimart.ru/communication/cell/

6844171
http://stylus.com.ua/ru/products/mobile_phones/index.html

6858509

Добавив все необходимые подкатегории, но не стоит забывать про:

  • Генерацию корректных чпу url-адресов для подкатегорий;
  • Корректную ссылку на подкатегорию в коде страницы, чтобы поисковые системы правильно индексировали новые страницы;
  • Изменение url-адреса при клике на ссылку;
  • Уникальные мета теги и заголовок h1 для подкатегорий, контент;
  • Передачу веса на новые подкатегории, так как на новые страницы всего 1 внутренняя ссылка (из материнской категории). Это очень важно.

 

2. Фильтрация с добавлением параметра к url-адресу:

Пример:

При применении фильтра, например, «выбор бренда» к url-адресу добавляется параметр http://www.lamoda.ua/c/355/clothes-zhenskaya-odezhda/?brands=23673

Кроме фильтров по цвету, бренду, материалу могут быть общие фильтры для каждой категории, например:

  • По цене,
  • От а до я,
  • По количеству товаров на странице,
  • По популярности,
  • По названию,
  • Новые,
  • Акционные.

Количество таких фильтров может быть очень большим, что, в свою очередь, порождает множество одинаковых по своему содержанию и назначению страниц.

Так как у каждой такой страницы есть уникальный url-адрес, поисковые системы сканируют данные страницы и добавляют многие из них в поисковый индекс. В результате мы получаем сотни тысяч страниц в индексе поисковых систем, но содержат полезный контент далеко не все.

Получается, вот такая картина:

6837239

  • Загружено роботом — 860 148.
  • Страниц в поиске — 116 946.
  • Полезных и уникальных страниц на сайте ~ 5 000.

Получается следующая ситуация — поисковые системы скачали с сайта почти миллион страниц, а полезных, с точки зрения поисковых систем, всего 0,5%.

Поисковые системы не будут ранжировать высоко сайт, на котором полезное содержание нужно выискивать. У сайта из-за этого проблемы с индексированием, так как квота расходуется на дубликаты и мусорные страницы, а не на полезное содержимое.

Плюсы: есть посадочные страницы для подкатегорий.

Минусы: множество дублей и мусорных страниц, проблемы с индексацией, сайт низко ранжируется.

Решение проблемы:

Данный вид фильтрации гораздо сложнее оптимизировать, так как вариантов решения проблемы очень много.

В первую очередь нам необходимо определиться с целями, а именно:

  • Не допустить попадание в индекс поисковых систем страниц, которые не содержат никакой полезной информации.
  • Обеспечить максимальный охват целевой аудитории.
  • Не допустить сканирование мусорных и дублирующихся страниц. Разумно использовать краулинговый бюджет.

Необходимо выделить общие параметры для фильтров, по которым мы сможем закрыть данные страницы от индексации при помощи файла Robots.txt.

Примеры параметров, по которым нужно определить страницы и закрыть их от индексации:

Возьмем всё тот же сайт Lamoda.ua , навскидку я нашёл там следующие параметры:

http://www.lamoda.ua/c/355/clothes-zhenskaya-odezhda/?sizes=30663
http://www.lamoda.ua/c/355/clothes-zhenskaya-odezhda/?seasons=5592
http://www.lamoda.ua/c/355/clothes-zhenskaya-odezhda/?price=500%2C3700

Это, конечно же, не все параметры, которые нужно закрыть от индексации.

Т.е. нам необходимо закрыть от индексации все страницы, которые содержат в url-адресе следующие фрагменты:

  • ?sizes=
  • ?seasons=
  • ?price=

Т.е. мы выбираем все мусорные и бесполезные страницы (которые не принесут нам трафика) и закрываем их от сканирования.

Мы используем для этих целей файл Robots.txt, так как не хотим чтобы поисковые системы даже сканировали сотни тысяч бесполезных страниц. Таким образом мы экономим краулинговый бюджет в пользу полезных категорий.

Теперь попытаемся увеличить охват целевой аудитории при помощи оптимизации страниц фильтров, которые могут приносить трафик (бренд, материал).

  1. Собираем семантическое ядро;
  2. Исходя из семантики, оптимизируем страницы фильтров под запросы;
  3. Меняем url-адрес на чпу (если не слишком проблематично);
  4. Реализуем перелинковку для того, чтобы увеличить вес данных страниц.

Таким вот нехитрым образом можно существенно расширить охват целевой аудитории и привлечь дополнительно много трафика из поисковых систем.

В заключение

При создании/продвижении интернет-магазина важно правильно оптимизировать систему фильтрации, чтобы сайт ранжировался в соответствии со своей релевантностью.

Если вы нашли ошибку, выделите участок текста и нажмите Ctrl + Enter или , чтобы сообщить нам.

  • Liza Ivleva

    спасибо за подробное описание. у меня есть вопросы:

    1. каким образом закрывать get параметры от индексации, если не через robots.txt?

    2. как распределять по страницам фильтров пересекающиеся ключевые фразы, например,
    «угловая мебель для гостиной на заказ классика»
    «угловая мебель для гостиной»
    «гостиные классика»,
    если раздел «гостиные» содержит фильтры: «угловые», «классические» и т.д. ?

    как избежать «каннибализации» ключевых слов?

    3. как составляете матрицу сайта, чтобы понять какие фильтры будут в каждом разделе? вручную или используете сервисы?

    • Добрый день, большое спасибо за вопросы.

      1. Можно при помощи мета тега robots=»noindex, follow».

      2. Я бы распределил запросы таким образом:

      Угловая мебель для гостиной:
      «угловая мебель для гостиной на заказ классика»
      «угловая мебель для гостиной»

      Гостиные в классическом стиле:
      «гостиные классика»

      Не нужно дробить структуру слишком мелко, чтобы под каждый потенциальный запрос была отдельная страница — это путь под фильтр. Тут главное не переусердствовать.

      Под запрос «угловая мебель для гостиной на заказ классика» я не рекомендую делать отдельную страницу, в разы проще будет на странице «угловая мебель для гостиной» добавить вхождения ключевых слов «на заказ» «классика» и запрос будет в топе.

      Я не сторонник создавать комбинации из фильтров, с ними всегда очень много проблем, как с определением релевантной страницы, так и с распределением веса.Стоит заморачиваться только если есть большой спрос, а не один запрос с частотностью 10.

      3. Что такое матрица сайта?) При сборе семантики сразу видно под какие группы запросов нужно создавать страницы.

      • Liza Ivleva

        спасибо!

        про матрицу сайта говорит Гроховский почти в каждом семинаре. Дело в том, что когда собираешь ядро из сотен тысяч запросов для большого интернет-магазина хочется наглядно видеть структуру будущего сайта, чтобы можно было сразу понять иерархию разделов, категорий, фильтров, например, какую категорию с какой можно объединить, в каких категориях нашлись пересекающиеся запросы и т.д. В экселе это делать не удобно. Вот и возник вопрос, может быть Вы пользуетесь каким-то сервисом для таких целей?

        • Понятно, у каждого своя терминология. Лично мне тяжело работать с большими объемами данных в одном месте. Я люблю всё делать последовательно и структурировано, по очереди собирая семантику на различные категории, оптимизирую все страницы и потом уже перехожу к следующей большой категории.

          Лично мне так удобно, и не возникает никаких проблем с визуализацией в голове структуры сайта. Поэтому не использую никаких сервисов для работы с собранной семантикой. Не было необходимости в этом.

          • Liza Ivleva

            поняла Вас, спасибо за ответ.

          • Нет проблем, спасибо за вопрос)

  • Liza Ivleva

    спасибо за подробное описание. у меня есть вопросы:

    1. каким образом закрывать get параметры от индексации, если не через robots.txt?

    2. как распределять по страницам фильтров пересекающиеся ключевые фразы, например,
    «угловая мебель для гостиной на заказ классика»
    «угловая мебель для гостиной»
    «гостиные классика»,
    если раздел «гостиные» содержит фильтры: «угловые», «классические» и т.д. ?

    как избежать «каннибализации» ключевых слов?

    3. как составляете матрицу сайта, чтобы понять какие фильтры будут в каждом разделе? вручную или используете сервисы?

    • Добрый день, большое спасибо за вопросы.

      1. Можно при помощи мета тега robots=»noindex, follow».

      2. Я бы распределил запросы таким образом:

      Угловая мебель для гостиной:
      «угловая мебель для гостиной на заказ классика»
      «угловая мебель для гостиной»

      Гостиные в классическом стиле:
      «гостиные классика»

      Не нужно дробить структуру слишком мелко, чтобы под каждый потенциальный запрос была отдельная страница — это путь под фильтр. Тут главное не переусердствовать.

      Под запрос «угловая мебель для гостиной на заказ классика» я не рекомендую делать отдельную страницу, в разы проще будет на странице «угловая мебель для гостиной» добавить вхождения ключевых слов «на заказ» «классика» и запрос будет в топе.

      Я не сторонник создавать комбинации из фильтров, с ними всегда очень много проблем, как с определением релевантной страницы, так и с распределением веса.Стоит заморачиваться только если есть большой спрос, а не один запрос с частотностью 10.

      3. Что такое матрица сайта?) При сборе семантики сразу видно под какие группы запросов нужно создавать страницы.

      • Liza Ivleva

        спасибо!

        про матрицу сайта говорит Гроховский почти в каждом семинаре. Дело в том, что когда собираешь ядро из сотен тысяч запросов для большого интернет-магазина хочется наглядно видеть структуру будущего сайта, чтобы можно было сразу понять иерархию разделов, категорий, фильтров, например, какую категорию с какой можно объединить, в каких категориях нашлись пересекающиеся запросы и т.д. В экселе это делать не удобно. Вот и возник вопрос, может быть Вы пользуетесь каким-то сервисом для таких целей?

        • Понятно, у каждого своя терминология. Лично мне тяжело работать с большими объемами данных в одном месте. Я люблю всё делать последовательно и структурировано, по очереди собирая семантику на различные категории, оптимизирую все страницы и потом уже перехожу к следующей большой категории.

          Мне так удобно, и не возникает никаких проблем с визуализацией в голове структуры сайта. Поэтому не использую никаких сервисов для работы с собранной семантикой. Не было необходимости в этом.

          • Liza Ivleva

            поняла Вас, спасибо за ответ.

          • Нет проблем, спасибо за вопрос)

  • Борислав

    Подскажите, как правильно закрыть и стоит ли закрывать фильтры в robots? Пациент: интернет магазин обуви Sniker.ua
    Можно разобрать на примере этой категории http://sniker.ua/jenschinam/women_shoes/botinki_women/

    Спасибо