Оптимізація фільтрів в інтернет-магазині

На сайті кожного якісного інтернет-магазину є блок з фільтрацією, за допомогою якого користувачі можуть швидко знайти необхідний їх товар. Цей функціонал – обов’язковий атрибут інтернет-магазину.

Типовий приклад фільтрів на інтернет-магазині:

filtr
Але фільтри також можуть завдати істотної шкоди ранжирування та індексації сайту в пошукових системах. На жаль, власники бізнесу не замислюються про це на етапі створення інтернет-магазину, а варто було б, оскільки впровадження мінімального SEO-friendly позбавить сайт від технічних проблем з індексацією і ранжуванням ресурсу в пошукових системах.

Розберемо які проблеми для ранжирування несуть в собі найбільш поширені методи фільтрації.

1.Система фільтрації на Ajax:

Фільтри в цьому випадку застосовуються без перезавантаження сторінки та при цьому url-адреса сторінки не змінюється.

Приклад реалізації:
http://www.red.ua/category/id/70/zhenskaja-odezhda/platja/

 

8f41e6aa63296234f4a73a00d2ac8546

Під час застосування фільтру – url-адреса сторінки не змінюється, але товари, що задовольняють умови, зображаються в каталозі.

Є ще варіант такої фільтрації, коли після поточної url адреси додається щось на кшталт:

#category_id=51&page=1&path=37_51&sort=p.date_added&order=DESC&limit=24&
route=product%2Fcategory&min_price=2490&max_price=8889&attribute_value[10][]=да

Це, швидше за все, система фільтрації на CMS Opencart, теж Ajax. Все сторінки з хештегом # не індексуються, тому розглянемо ці види разом.

У коді сторінки/кеші пошукових систем немає посилань на сторінки фільтрації. В індекс сторінки з результатами пошуку не потрапляють в такому випадку, бо окремих url-адрес під результати фільтрації немає.

Звідси випливає, що ніяких дублів бути не може і пошукова система не витрачає краулінговий бюджет на сканування та індексацію непотрібних сторінок за результатами фільтрації виду:

Жіночі сукні / Сині / 44розміру / Mexx / Ціна від 100 до 500 грн / Розпродаж

Очевидно, що на таку сторінку НЕ буде трафіку, бо це НЕ обумовлено попитом. Немає сенсу створювати сотні тисяч таких сторінок, це не дасть ніякого результату, тільки завантажить роботів які скануватимуть мільйонів таких сторінок.

Але є й проблема. Куди повинні вести пропозиції:

  • Жіночі сукні Mexx,
  • Жіночі сукні з льону,
  • Жіночі сукні з Білорусії.

Для таких запитів немає релевантних сторінок, трафік за такими запитами сайт не отримає, а це вже проблема. Сайт втрачає безліч трафіку через відсутність релевантних сторінок для товарних груп, які обумовлені попитом.

Плюси: Немає дублікатів, немає проблем з індексацією.

Мінуси: Немає підкатегорій для збору цільового трафіку.

Варіанти вирішення проблеми:

В цьому випадку нам не потрібно вирішувати проблеми з індексацією, дублями та сміттєвими сторінками, тому тут рекомендацій буде не так багато.

  1. Необхідно, в першу чергу, зібрати семантичне ядро для всіх сторінок сайту. Виявити у попиті, які підкатегорії необхідні для кожної товарної групи.
  2. Створити для кожного кластера запитів окрему сторінку.
  3. Оптимізувати створені сторінки
  4. Отримувати трафік.

Приклади реалізації:

http://electronics.wikimart.ru/communication/cell/

6844171
http://stylus.com.ua/ru/products/mobile_phones/index.html

6858509

Додавши всі необхідні підкатегорії, але не варто забувати про:

  • Генерацію коректних ЧПУ url-адрес для підкатегорій;
  • Коректні посилання на вкладену категорію в коді сторінки, щоб пошукові системи правильно індексували нові сторінки;
  • Зміну url-адреси під час кліку на посилання;
  • Унікальні метатеги та заголовок h1 для підкатегорій, контент;
  • Передачу ваги на нові підкатегорії, оскільки на нові сторінки всього 1 внутрішнє посилання (з материнської категорії). Це дуже важливо.

 

2. Фільтрація з додаванням параметра до url-адреси:

Приклад:

Під час застосування фільтра, наприклад, «вибір бренду» до url-адреси додається параметр http://www.lamoda.ua/c/355/clothes-zhenskaya-odezhda/?brands=23673

Крім фільтрів за кольором, бренду, матеріалу можуть бути загальні фільтри для кожної категорії, наприклад:

  • За ціною,
  • Від а до я,
  • За кількістю товарів на сторінці,
  • За популярністю,
  • За назвою,
  • Нові,
  • Акційні.

Кількість таких фільтрів може бути дуже великою, що, в свою чергу, породжує безліч однакових за своїм змістом і призначенням сторінок.

Оскільки у кожної такої сторінки є унікальна url-адреса, пошукові системи сканують дані сторінки та додають багато з них в пошуковий індекс. В результаті ми отримуємо сотні тисяч сторінок в індексі пошукових систем, але містять корисний контент далеко не всі.

Виходить, ось така картина:

6837239

  • Завантажено роботом – 860 148.
  • Сторінок в пошуку – 116 946.
  • Корисних і унікальних сторінок на сайті ~ 5 000.

Виходить наступна ситуація – пошукові системи завантажити з сайту майже мільйон сторінок, а корисних, з точки зору пошукових систем, всього 0,5%.

Пошукові системи не ранжуватимуть високо сайт, на якому корисний зміст потрібно вишукувати. У сайта через це проблеми з індексуванням, через те, що квота витрачається на дублікати та сміттєві сторінки, а не на корисне вміст.

Плюси: є посадкові сторінки для підкатегорій.

Мінуси: безліч дублів і сміттєвих сторінок, проблеми з індексацією, сайт низько ранжується.

Рішення проблеми:

Даний вид фільтрації набагато складніше оптимізувати, бо варіантів вирішення проблеми дуже багато.

В першу чергу нам необхідно визначитися з цілями, а саме:

  • Не допустити потрапляння в індекс пошукових систем сторінок, які не містять ніякої корисної інформації.
  • Забезпечити максимальне охоплення цільової аудиторії.
  • Не допустити сканування сміттєвих дубльованих сторінок. Розумно використовувати краулінговий бюджет.

Необхідно виділити загальні параметри для фільтрів, за якими ми зможемо закрити сторінки від індексації за допомогою файлу Robots.txt.

Приклади параметрів, за якими потрібно визначити сторінки та закрити їх від індексації:

Візьмемо сайт Lamoda.ua, я знайшов там такі параметри:

http://www.lamoda.ua/c/355/clothes-zhenskaya-odezhda/?sizes=30663
http://www.lamoda.ua/c/355/clothes-zhenskaya-odezhda/?seasons=5592
http://www.lamoda.ua/c/355/clothes-zhenskaya-odezhda/?price=500%2C3700

Це, звичайно ж, не всі параметри, які потрібно закрити від індексації.

Тобто нам необхідно закрити від індексації всі сторінки, які містять в url-адресі наступні фрагменти:

  • ?sizes=
  • ?seasons=
  • ?price=

Тобто ми вибираємо всі сміттєві та непотрібні сторінки (які не принесуть нам трафік) і закриваємо їх від сканування.

Ми використовуємо для цих цілей файл Robots.txt, тому що не хочемо, щоб пошукові системи навіть сканували сотні тисяч непотрібних сторінок. Таким чином ми економимо краулінговий бюджет на користь корисних категорій.

Тепер спробуємо збільшити охоплення цільової аудиторії за допомогою оптимізації сторінок фільтрів, які можуть приносити трафік (бренд, матеріал).

  1. Збираємо семантичне ядро;
  2. Виходячи із семантики, оптимізуємо сторінки фільтрів під запити;
  3. Міняємо url-адреса на ЧПУ (якщо не дуже проблематично);
  4. Реалізуємо перелінкування для того, щоб збільшити вагу даних сторінок.

Таким от нехитрим чином можна істотно розширити охоплення цільової аудиторії та привернути додатково багато трафіку з пошукових систем.

На кінець

Під час створення / просування інтернет-магазину важливо правильно оптимізувати систему фільтрації, щоб сайт ранжувався відповідно до своєї релевантності.

Аліна Глазиріна

головний редактор блогу Inweb

Підпишіться і будьте в курсі!

Аліна пише про головні новини інтернет-маркетингу
Користувальницької угоди