«Тексти, згенеровані штучним інтелектом, зруйнують просування вашого сайту в пошуковиках», — Денис Килимчук, керівник вебстудії Whiteweb

Денис Килимчук, керівник вебстудії Whiteweb та засновник стартапу автоматичної перевірки сайтів Revalin, поділився досвідом і висновками про те, як тексти, згенеровані ШІ, впливають на пошукову видачу. Передаємо слово.

Денис Килимчук

Штучний інтелект та тексти

Трохи більше року тому вийшов ChatGPT — чатбот зі штучним інтелектом, створений на базі нейромережі GPT-3 від OpenAI. І буквально за місяць інтернет засипало текстами, створеними нейромережею.

Зазначу, що ChatGPT — це далеко не перша спроба створити систему, яка змогла б оперувати природними мовами на рівні людини або дуже близькому до нього. Але вона стала першою, яка вийшла на вільний ринок і стала доступна широкій аудиторії.

Тести «у вузьких колах» проводилися ще раніше. Ось як в 2020 році студент Ліам Порр створив блог, де за допомогою GPT-3 генерував мотиваційні статті на кшталт «успішний успіх», «йди до цілі» і таке інше.

Статті прочитало понад 26 000 людей, вони збирали досить багато лайків та позитивних коментарів. І лише одна людина запідозрила, що тексти написані роботом — але її все одно захейтили інші читачі.

Особисто я ставився до згенерованих текстів досить насторожено, але ми активно тестували інструмент для власних цілей. Штучний інтелект чудово показав себе в генерації описів товарів, невеликих інформаційних текстів, навіть пресрелізів.

З точки зору економії ресурсів — взагалі шикарно. Навіть джун-копірайтер за допомогою ШІ міг видати в 5-10 разів більше адекватного тексту, ніж профі-спеціаліст. Так, в складних статтях були помітні огріхи, робот не давав посилань на джерела інформації, а при фактчекінгу інколи виявлялося, що чат подав недостовірні твердження. Проте загальний результат був цілком прийнятним.

Я помітив, що практично всі наші клієнти стали використовувати ChatGPT для генерації контенту на власні сайти. Логіка проста — навіщо платити копірайтеру, якщо можна зробити майже так само, але безплатно.

Складні задачі для генерації статей: кейс команди Revalin

Отже, після успішних тестів на нескладних описах товарів ми вирішили спробувати написати за допомогою ШІ статті для просування бренду в блогах та ЗМІ.

Ми взяли один з хороших матеріалів, написаний копірайтером. За кілька місяців він отримав понад 20 000 переглядів та вийшов в топ Google. На жаль, ми не можемо його показати, адже власник бренду не дав дозволу використовувати його в наших кейсах.

За допомогою ChatGPT ми вирішили зробити декілька рерайтів, щоб опублікувати на агрегаторах та отримати додаткові посилання на проєкт. І ось які інсайти ми отримали.

З рерайтом тексту ChatGPT справляється, але для цього потрібно більше часу, ніж на генерацію. Справа в тому, що бот не здатен обробити відразу статтю цілком. 8 або 10 тисяч знаків — це для нього завеликий запит. Щоб виконати задачу, потрібно дробити матеріал на невеликі смислові блоки до тисячі знаків об’ємом, а це неминуче призводить до дрібних смислових помилок, різниці в подачі матеріалу та інколи зміни термінології.

Замість Ctrl+C та Ctrl+V спеціалісту потрібно було провести досить серйозну підготовчу роботу, а після рерайту витратити досить часу на редагування готової копії. Це все ще було швидше, ніж написання з нуля, проте про десять текстів щодня можна було забути. Один копірайтер міг зарерайтити з допомогою ChatGPT максимум 2-3 статті за робочий день. Для порівняння — досвідчений копірайтер може якісно рерайтити приблизно одну або півтори таких статті щодня. Написання з нуля трохи довше — близько однієї статті на два дні.

По ресурсам все ще економія, але вже не така відчутна, як з генерацією простих описів.

В результаті ми отримали три копії статті, які досить непогано передавали оригінальний матеріал. Усі три копії опублікували на агрегаторах. Через місяць вирішили подивитися на результат — і здивувалися.

В топ не потрапила жодна копія — ми проаналізували трафік на сторінки з текстами за допомогою окремого інструменту нашого сервісу та побачили, що органічних переходів з пошуковиків немає взагалі. При цьому сторінки були проіндексовані, без проблем пробивалися, якщо в стрічку пошуку написати заголовок статті. На одну таку статтю ми навіть витратили кілька доларів на таргетинг — платні перегляди йшли без проблем. Але по основним ключам та органіці — повний нуль, наче їх не існує.

Чому так відбувається? Гіпотеза та її підтвердження

За цей рік у нас було чотири клієнти, які мали складнощі з просуванням власних сайтів — органічного трафіку було вкрай мало. Вони мали різну направленість, були створені на різних мовах та орієнтовані на різну цільову аудиторію.

Діяли ми по давно відпрацьованому алгоритму:

  1. Спочатку знайшли помилки сайтів за допомогою власної програми для перевірки сайтів Revalin.
  2. Потім налагодили роботу бекенду та фронтенду.
  3. Підправили користувацький шлях.

Але трафік не зростав.

Ми довго не могли зрозуміти, що саме не так. Але після спроби зарерайтити статті за допомогою ШІ все стало ясно.

Власники сайтів вирішили зекономити гроші на створенні контенту на створили описи на всі основні сторінки сайтів за допомогою ШІ. Проблема була саме в цьому.

Google та інші пошуковики мають власні системи, які перевіряють тексти, що проходять індексацію. І після виходу ChatGPT у відкритий доступ вони стали перевіряти, був текст написаний людиною чи згенерований ШІ.

Звичайно, Google не розкриває власні алгоритми аналізу текстів, але лідери ринку вже давно помітили, що тексти від нейромереж просто не потрапляють в топ пошуковика, якими б класними вони не були.

Тобто, якщо на одній з основних сторінок сайту Google під час індексації знаходить згенерований текст, він просто виключає її з видачі по всіх ключових запитах. Якщо ж таке на всьому сайті — потенційна цільова аудиторія його просто не бачить.

Вийти з такого тіньового фільтра не просто. Адже потрібно заново написати усі тексти на сайті та провести досить тривалу роботу з публікації якісних посилань на інших порталах.

Якщо дивитися з позиції чистої вигоди: власник сайту втрачає набагато більше, ніж економить за допомогою згенерованих текстів. Так, це швидше, ніж робота копірайтера або контент-агенції, і практично безкоштовно. Але в результаті це може заблокувати органічний трафік на місяці — розміри недоотриманих доходів будуть значно перевищувати витрати на написання якісних статей на сайті.

Публікація ШІ-текстів на інших ресурсах взагалі не дає жодного результату для просування сайту. Формально посилання є, але воно не працює, бо статтю не знаходять у видачі та позитивної ваги сторінці воно не додає.

Штучний інтелект і контент — краще не треба

ChatGPT та аналогічні йому нейромережі — це класна штука, яка має мільйон практичних застосувань. Але створення контенту для сайтів з їх допомогою — одна з найгірших помилок, яку тільки можна зробити. У довгостроковій перспективі це не приносить жодної користі та при цьому несе серйозні ризики тіньового бану від пошуковиків, які повністю обріжуть органічний трафік.

Чи варте воно того? Я вважаю, що однозначно ні.

Проте нейромережі можуть бути дійсно корисними для вдосконалення та просування сайтів. Наприклад, для більш швидкого та точного аналізу основних показників. Але про це я розкажу в наступному матеріалі.