Referr - Система крауд-маркетингу

Конспект Q/A сесії з лінкбілдінгу на закордонних ринках з Артемом Пилипцем

Автор: Олена Туранова
23 Вересня 2022

Олена Туранова
Олена Туранова
Контент-маркетолог referr.com.ua

Як правильно створити та оптимізувати текст на сайті? Потрібно будувати посилання на кожну мовну версію сторінки чи достатньо тільки на основну? Як розрахувати скільки потрібно посилань, щоб наздогнати конкурентів по видачі?

На ці та інші питання відповість Артем Пилипець, який був гостем на третій Q/A сесії в офіційному телеграм-каналі Реферра.

Артем — керівник відділу просування SEO7 та засновник проєкту “Школа SEO“.

А для тих, хто більше сприймає текстовий контент, ми підготували конспект сесії з акцентами на головних думках та тезах🖋️

Зміст
  1. Якщо сайт, який вже має дві мовні версії, планує виходити на європейський ринок та створити ще одну версію, що краще — додати її в підпапку або зробити на новому домені?
  2. Як впливає субдомен на основний домен та чи є взагалі вплив?
  3. Як правильно створити та оптимізувати текст на сайті?
  4. Чи використовуєте ви на сайтах клієнтів автоматично генеровані тексти штучного інтелекту (наприклад, GPT-2 тексти)
  5. Чи мали досвід використання “текстів-матриць” та синонімайзерів?
  6. Мультимовну версію сайту робити за допомогою сервісів автоматичного перекладу чи наймати професійних перекладачів?
  7. Чи актуально давати однакові назви товарів однією мовою на сайті, де дві та більше мови?
  8. Як організувати роботу райтера, якщо ніша технічна і вимагає базового розуміння ніші та нюансів?
  9. Потрібно будувати посилання на кожну мовну версію сторінки чи достатньо тільки на основну?
  10. Наскільки важлива унікальність тексту російською мовою, якщо для вас вона не важлива?
  11. Є 100 сайтів зі згенерованим контентом (по 15К статей на кожному) та 10К донорів, з яких можна ставити посилання (наприклад, дуже якісні форумні/інші через ГСА). Як би ви застосували цю кількість посилальної маси під ці сайти?
  12. Як розрахувати скільки потрібно посилань, щоб наздогнати конкурентів по видачі?
  13. Google Analytics та Google Search Console показують різні цифри (розбіжність в рази). Кому ви вірите в таких ситуаціях?
  14. Чи були у вас історії, коли ви ставили дуже багато посилань на новий домен, що призводило до потрапляння під фільтр?
  15. Багато сайтів просуваються спонсорськими посиланнями в блоці “Sponsors” на різних донорах. Чи використовуєте ви такі посилання та що про них думаєте?
  16. Як розподіляти безанкорні посилання та анкори, які повторюють ключові слова в залежності від якості донорів? Чи безпечно на топових майданчиках розміщувати SEO-анкори?

Якщо сайт, який вже має дві мовні версії, планує виходити на європейський ринок та створити ще одну версію, що краще — додати її в підпапку або зробити на новому домені?

Тут важливо розуміти ваші запити: якщо вони будуть англомовні, то вони будуть регіонально залежні чи регіонально незалежні. Якщо ви продаєте якісь фізичні продукти, які конкурують із місцевими сайтами, наприклад, одяг, косметичні засоби чи спортивний інвентар, то ви побачите місцеві інтернет-магазини та кілька великих маркетплейсів типу Amazon.

Якщо ви бачите у видачі багато місцевих магазинів, значить вам треба імітувати місцевий сайт. Ви або повинні бути великим маркетплейсом, або місцевим сайтом. Якщо ви продаєте фізичні продукти із регіонально-залежними запитами, вам потрібен домен цього регіону, вам потрібно буде прив’язати до цього регіону свій домен. Тобто, робити це на домені com.ua неможливо.

Якщо у вас регіонально незалежний домен (.org, .net, .com), то ви в цілому можете зробити папку і намагатись її прив’язати. Але, якщо подивитесь на успішні кейси, то найчастіше в топі будуть регіональні домени (якщо це не великі сайти).

Тому я б радив, якщо ви хочете вийти на ринок Іспанії, Польщі, Німеччини чи навіть Швейцарії, робити регіональний домен у зоні тієї країни, на яку ви виходите. Робити окремий сайт під цей регіон, з контактами регіону, з пунктом видачі в цьому регіоні. Це дасть вам значно швидше прийти в топ за своїми запитами, своїми товарами.

Якщо це цифрові товари, наприклад, ключі до ігор, електронні книги або копії цифрових товарів, то вони регіонально незалежні. Ви можете взяти свій домен, зробити там безліч мовних версій та просувати по регіонам, бо ви просуваєтесь не стільки по гео, скільки по мовах і будете конкурувати у видачі німецькою, іспанською, англійською та ін.

Отже, локальні запити, регіонально залежні — треба робити окремий домен і просуватися в цьому регіоні. Якщо це регіонально незалежні запити, то робите підпапку (особливо якщо у вас регіонально незалежний домен), прив’язуєте папку в Google Search Console і просуваєтесь.

Як впливає субдомен на основний домен та чи є взагалі вплив?

Багато залежить від того, для чого ви робите домен.

Google у своїх інструкціях пише, що сайт — це не домен, це сторінки, щільно з’єднані між собою посиланнями. Сайтом може бути окрема підпапка всередині домену. Окрема папка може розглядатися як окремий сайт. Окремий субдомен може розглядатися як окремий сайт.
Також Google підкреслює, що навіть декілька доменів і декілька підпапок можуть розглядатися як один сайт, в теорії, якщо вони об’єднані перехресним посиланням.

На практиці субдомен визначається як підсайт всередині основного сайту. Я рекомендував би вам використовувати субдомени, якщо ви хочете щось відокремити від основного домену. Наприклад, ви хочете відокремити якийсь тип сторінок: у вас є товар і ви робите блог. Це спірне питання, але ви хочете так зробити, тому що там будуть інші типи запитів, буде гарний блог і ви хочете зробити піддомен.

Або у вас новинний портал і дуже багато новин. І ви хочете відокремити спортивний розділ. Тобто, спорт — це насправді найбільша новинна тема. Якщо ми збираємо ключові слова в новинах, то найбільша новинна тема — це не фінанси, не політика, це спорт. І ми хочемо зробити новинний розділ спорту — можна подумати про те, щоби зробити його на піддомені. Тут є свої плюси та мінуси, але можна подумати.

Часто на субдомен виносять щось заборонене або сіре. Наприклад, ви продаєте багато різних книжок і в тому числі еротику. Ви не хочете еротичні книжки розміщати на основному домені, тому що там можуть бути якісь фільтри, специфіка алгоритму, яка буде накладатися на весь домен.

Може у вас якісь описи, якісь слова специфічні… Ви можете все це винести на субдомен, назвати субдомен “еротика” і таким чином відокремити цей розділ сайту. Ви показуєте: ось у мене всі книжки, а тут — книжки специфічні. Так само роблять, наприклад, деякі інтернет-магазини зі зброєю. Ось тут все, а зброю винесли на піддомен.

Тобто, субдомен потрібен нам тоді, коли ми хочемо щось відокремити, або, інший варіант — це регіональний субдомен. По суті, теж відокремлення, виділяємо якісь регіональні або мовні версії. Тому ми повинні собі поставити питання: “Навіщо нам субдомен? Які його цілі?”. Правильна ціль — відокремити щось від основного домену (тому, що воно може заважати, мати інший тип контенту, або інший регіон).

Є специфічні моменти по використанню субдомену. Наприклад, раніше субдомени використовували для того, щоб зайняти більше позицій в пошуку. Тобто, робили одну і ту саму сторінку на 10 субдоменах і таким чином можна було зайняти половину видачі. Зараз цей баг не працює, вже давно.

До питання “як використовувати субдомени” — залежить від того, що ви від них хочете, так і використовуйте. Принципово поганого в них нічого немає, але ви повинні розуміти, навіщо це вам. Якщо ви не розумієте, навіщо, то скоріш за все вам субдомен не потрібен.

І дивіться, як використовують конкуренти, це важливо. Якщо ви бачите, що якийсь розділ сайту всі конкуренти винесли на субдомен і він отримає трафік, добре працює — подумайте, може вони це зробили не просто так. Подумайте і скопіюйте це рішення.

Як правильно створити та оптимізувати текст на сайті?

Припустимо, ревью топ-10 спортивних годинників

Якщо ми пишемо статтю “ревью годинників, топ-10”, то я раджу подивитися об’єм такої статті у конкурентів і зробити трохи більше. Не супербагато, не треба робити вдвічі-втричі більше — це не працює. Але на 10-15% більше — це не буде гірше. Подивіться середнє по конкурентах і зробіть трохи більше.

Також ви можете орієнтуватись на найбільший текст у видачі — це теж хороша стратегія. Візьміть найбільший і трошки допишіть, на 5-10% більше за найбільший текст.

До того як почати працювати з ключами, я раджу подивитися, з яких елементів складається сторінка. Це тільки на перший погляд, просто текст. Подивіться, як оформлено кожен елемент годинника:

  • які підзаголовки;
  • чи виводять характеристики, якщо виводять, то які;
  • як характеристики оформлені: списком чи таблицею;
  • чи є фото, скільки їх;
  • які це фото — студійна зйомка чи живі фото;
  • чи є відео;
  • яке відео: презентація з офіційного сайту чи огляд, більш живе;
  • чи є відгуки;
  • чи є якісь порівняльні таблиці.

Подивіться, з яких блоків формується сторінка. Бо Google зараз дивиться не тільки на текст та ключові слова. Він також дивиться, чи є блоки, які можуть потенційно задовольнити клієнта. Ці блоки — це дуже важливо.

Перше, що я для себе формулюю — які блоки мені потрібні.

Далі я думаю, чи зможу я зробити такий контент. Бо інколи ти дивишся і думаєш “я б цей блок не зробив, я не буду знімати авторське відео, в мене його немає”. Тобто, можливо, я не буду навіть туди лізти. Або якийсь онлайн тул, якого в мене нема і я не буду туди лізти.

Подивились на блоки, зрозуміли, що можемо зробити цей контент. Ми дійшли до тексту. Тепер ми дивимось, який це текст: це відгуки, описи чи якісь загальні рекомендації.

Текст може бути по-різному написаний. Подивіться, що він описує: які характеристики та матеріали годинника, чи як він використовується. Важливі не просто об’єм і ключові слова, а і про що (як носити годинник і як його робили — це різні тексти).

І далі ви вже підходите до ключових слів. Берете свою фокусну ключову фразу, наприклад, “топ-10 годинників для пробіжок”. Йдете в Ahrefs Keyword Explorer, вставляєте цей ключ і дивитесь всі хвости, які там є: “найкращі”, “2022 року”, “бренди” та ін. З цього обираємо 5-10 фокусних ключових фраз, на які будемо орієнтуватись, за якими будемо відстежувати позиції та просувати саме цей текст.

Головний фокус-ключ ставимо в заголовок із прямим входженням, вторинні фокус-ключі розкидаємо по H2 і H3. Робимо хоча б одне точне входження в тексті для загальних правил. Якщо це якась дуже важлива сторінка, то я раджу вам використати якийсь сервіс, який покаже вам перетинання різних слів у текстах видачі — тобто, створить тематичний словник.

Це може бути щось дуже звичне, яке просто показує ключові слова, які зустрічаються у конкурентів. А може бути щось трошки просунуте, наприклад, Surfer SEO, який створить вам більш детальну інструкцію: які слова зустрічаються, як часто їх писати, які словоформи, які цифри.

Також зверніть увагу не тільки на окремі слова, але й на словосполучення — диграми, триграми. Бо ці словосполучення, які зустрічаються у ваших конкурентів в текстах — це теж, скоріш за все, якісь популярні хвости семантики, які треба вписати.

Якщо це важлива сторінка, я беру Surfer SEO, проганяю їм та передивляюсь, щоб у мене всі основні ключі вписувались.

Якщо це проста сторінка, не дуже важлива, прохідна під якийсь ключ. Тоді:

  • фокус-ключ — Title, H1 і текст 2-3 рази;
  • вторинні фокус-ключі — H2 і в текст треба додати 1 раз;
  • тематичний словник.

Кожного разу це буде різна кількість ключових слів на 1000 символів. Інколи це може бути 2 рази на 1000 символів, інколи — пів разу, а часом і 5 ключів на 1000 символів. Я раджу порівнювати з конкурентами та робити, як конкуренти.

Чи використовуєте ви на сайтах клієнтів автоматично генеровані тексти штучного інтелекту (наприклад, GPT-2 тексти)

Я експериментував із цим. Наразі на сайтах клієнтів генерацію штучним інтелектом ми не використовуємо, повну генерацію. Я експериментував із цим на своїх сайтах, і це працює частково під деякі задачі.

На моїй практиці 100% генерація працює погано. Працює, коли ми робимо детальне завдання, генеруємо по абзацу, а потім збираємо ці абзаци вручну, відбираючи найбільш ефективні.

Сервіси генерації, якими я користувався, пишуть різні варіанти, а потім із цих варіантів я збираю статті. Але ця вибірка найкращих елементів для фінальної статті — це вже ручна робота. Просто через API набрати собі текст — якась фігня виходить.

Потім частіше за все треба редактура. Трошечки підправити моменти, бо інколи все проходить нормально, а інколи читаєш речення і розумієш, що там немає сенсу. Якщо ми розраховуємо, що це хоч хтось буде читати, то, на мій погляд, краще трошечки редагувати, хоча б за 3-5$, щоб хоч хтось вичитав цей текст. Навіть якщо це мільйонник і навіть якщо у вас там десятки чи сотні тисяч, то краще відредагувати.

Ми використовуємо щось типу генерації, але… Я часто використовую перекладений контент. Зараз перекладачі, сайти, що працюють на базі штучного інтелекту, роблять це дуже добре і, якщо правильно налаштувати, виходить значно краще, ніж генерація штучним інтелектом.

І я використовую спінери під такі сайти. Я щось паршу і це спіню. Я намагався рерайтити штучним інтелектом, але те, що мені рерайтить штучний інтелект, на мій погляд, гірше, ніж те, що я спіню (тобто заміняю слова на синоніми).

Штучний інтелект — дуже перспективна штука, я раджу з ним експериментувати, але поки що готовий контент, на мій погляд, навіть англійською мовою, він згенерувати повністю не може, потрібно задіювати людину.

І тут питання, скільки це буде коштувати. Якщо людина за вичитку хоче 10$, то, може, вона мені просто перекладений текст відредагує, бо я потребую прям норм контент за 10$. Тут питання, що на виході.

На мій погляд, штучний інтелект поки не дає нормальний контент.

Також важливо, як згенерований контент на сайті вплине на ранжування тексту Google. Навіть якщо останній апдейт пошукової системи не відреагує на цю генерацію зараз, то якийсь із наступних точно відреагує. Або буде намагатися.

Я впевнений, що експерименти Google із генерацією контенту набагато успішніші, ніж наші. Звісно вони будуть намагатися щось із цим зробити.

Гра на дві сторони, в якій Google все одно переможе.

Знаєте, де, на мій погляд, ідеально використовувати генерований контент? Для тексту на дропах під PBN, під редіректи, під що завгодно. Ви купили дроп, нагенерили туди ключів на 20-30 сторінок і дивитесь, чи ключі ранжуються. Є потенціал у дропа чи нема. Бо тестувати якимось нормальним контентом — це дорого. А от генерувати, по-моєму, найперспективніша ніша.

Чи мали досвід використання “текстів-матриць” та синонімайзерів?

Коли я казав слово “Спінінг” я саме це мав на увазі. Тобто це коли в нас є текст, є одне й те саме слово і воно синонімізується десятьма синонімами. Навіть фрази/речення синонімізуються.

Так коли у нас є 100 000 сторінок і ми зробили формулу, яка потенційно має 400 000 варіантів, то все одно будемо мати унікальні описи, бо в нас запас генерації більший.

Також треба розуміти, чи цей контент має потенціал конкурувати. Бо, наприклад, я бачив, що деякі інтернет-магазини заливають купу товарів і думають “Зараз як згенерую описи!”. І генерують. І нічого не отримують. Чому? Бо якщо на один і той самий товар у конкурентів нормальний контент, а у вас генерація — то ви скоріш за все не займете ніяких позицій.

Якщо ви розумієте, що у всіх плюс-мінус генерація, то тоді так, ви скоріш за все зайдете. Ви повинні розуміти, що Google насправді розуміє весь цей спінінг. І щоб це зрозуміти, не треба мати якісь надзвичайні здібності, бо Google проводить різні види стемінгу. Якщо ми подивимось будь-яку книжку про те, як робити пошукову систему, там є така штука як “стемінг”.

Стемінг буває двох видів:

  • коли ми спрощуємо всі слова до кореня, до елементарної словоформи;
  • коли ми спрощуємо слова до найвживанішого синоніма.

Коли ви проводите аналіз тексту до найвживанішого синоніма, потім до розповсюдженої словоформи, а потім розраховуєте текстові open rate, то ви це робите для того, щоб “білочка” і “білченя” були одним словом.

Якщо ви це розумієте, то ви розумієте, що ваш спінінг нічого насправді не дає. Він дає деяку унікальність символів, це теж важливо, але по смислу він нічого не дає. Коли ми синонімами замінили всі слова, Google це розуміє, що йдеться про однакові сторінки, просто із різними синонімами.

Тому сподіватися, що ви генерацією та синонімайзингом обійдете дійсно нормальний контент, не раджу.

Мультимовну версію сайту робити за допомогою сервісів автоматичного перекладу чи наймати професійних перекладачів?

Поєднувати. Якщо сторінок багато, перекладаєте автоматичним перекладачем, а потім винаймаєте людей, які вичитують. Ніяк інакше.

І обов’язково не віддавайте в переклад просто файли інтерфейсів без пояснень. Перекладач повинен розуміти, що цей напис буде робити. Тому, що, коли перекладач просто перекладає слово (автоматичний, чи людина) він не розуміє контекст, де це слово буде вживатись, і перекладе якусь нісенітницю. І тоді у вас десь на слові “реєстрація” буде слово “ресепшн”, якщо будете перекладати щось таке. І так воно і буде, бо слово наче й переклали, а смисл не зрозуміли.

Тому використовуйте, якщо тексту багато, автоматичний переклад, але не забувайте зробити базову вичитку, бо будуть неправильні речення, буде поганий контент.


Коментар від Ігоря Рудника:

Ми минулого року перекладали Collaborator українською, а цього року ще англійською та польською. Тому у мене свіжі уявлення про весь цей процес.

Проблема виникає в тому, що автоматичний переклад відривається від контексту і ми отримуємо нісенітницю, коли імпортуємо це в інтерфейс.

Є такі сервіси, котрі спеціально розроблені для локалізації. Ви налаштовуєте API, передаєте по API всі тексти, скріни сторінок, а всередині сервісу є біржа з перекладачами, які вам перекладають.

Ще ми розділили інтерфейсний текст, який ми маємо гарно перекласти та текст від користувачів (наприклад, відгуки, опис майданчиків та ін.). Ці тексти ми перекладаємо по API через Google Translate, як це роблять, умовно, Tripadvisor чи Booking. У них можна побачити кнопку “подивитися оригінальний текст”, але за замовчуванням контент показується мовою вашого інтерфейсу.

Якщо йдеться про текст в блозі, то його має професійний перекладач перекладати, інакше нічого гарного з того не буде.


Чи актуально давати однакові назви товарів однією мовою на сайті, де дві та більше мови?

Скоріш за все мається на увазі, коли товар називається англійською, наприклад, якісь кросівки чи ноутбук: циферки-циферки-літери. І у нас виходить, що ми перекладаємо хоч 10 мовами, але в нас все одне й те саме. Або, наприклад, комп’ютерна гра. Вона називається латинкою і всюди пишеться однаково. Або якась електроніка: PlayStation всюди так називається. Що з цим робити?

Зазвичай можна унікалізувати якимись хвостами. Додати характеристики, назви регіону, якісь хвости по семантиці, ключові слова. Тобто, називати не просто “HP1628K”, а називати “ноутбук HP1628K” і ось вже слово “ноутбук” буде у вас перекладатися, якщо вам хочеться.

Інколи буває таке, що ви не можете перекласти, наприклад, автозапчастини, якісь розхідники або техніку. Наприклад, це кейс, шуруп, деталь, клапан, помпа, які мають просто специфічний номер із літер та символів та не має ніякої точної назви. Наприклад, це втулка, але це не втулка, а просто специфікація.

В такому разі можна не сильно хвилюватися про те, що у вас задублюються тайтли. Більшість аналізаторів, таких як: SEORank Screaming Frog чи Semrush — що завгодно, будуть говорити (“у вас помилка, дублі тайтлів”), але якщо це специфічний товар, то дублі тайтлів — це нічого страшного.

Головне дивитися, щоб ці сторінки індексувалися і не попали в статус, що Google визначив для них іншу канонічну адресу.

Якщо ви заходите в Google Search Console і там в розділі “Покриття” є такий звіт по сторінках в статусі “для сторінки Google визначив іншу канонічну адресу”, це значить, що Google вважає, що сторінка — копія, і підклеїв її під якусь іншу сторінку. Треба слідкувати за цим, щоб якісь сторінки з однаковими назвами не склеювались в одну сторінку, щоб Google розумів, що це різні сторінки.

Тут допоможе:

  • ставити на них різний canonical;
  • використовувати структуровану розмітку, де вказувати різні id товарів;
  • hreflang — це суперважливо, розмітка мовних версій вказує таким чином, що є англійська, німецька, польська версії товару.

Якщо все ж таки, навіть з hreflang, Google ці сторінки склеює і визначає один канонікал, тоді вже треба унікалізувати хвостами та проганяти через Google Index API, щоб воно якось залітало в індекс. Якщо хвости не допоможуть — унікалізувати тіло сторінки, але це важче.

Як організувати роботу райтера, якщо ніша технічна і вимагає базового розуміння ніші та нюансів?

Є два способи:

  • нормально шукати копірайтера з досвідом в цій ніші,
  • шукати людину, яка буде редагувати цей текст після недосвідченого копірайтера.

Нічого іншого, скільки я працюю в SEO, я не бачив. Або хтось, хто знає тему, перевіряє, або образу ми наймаємо людину, яка знає тему. От і все налаштування процесу.

Зазвичай спочатку пише хтось і ми перевіряємо, а потім намагаємось, якщо проєкт вже пішов і ми можемо дати трохи більше грошей, то намагаємось знайти автора із розумінням теми.

Така маленька порада: шукайте автора із розумінням теми не на фрилансі, а на сайті пошуку роботи. Зробіть вакансію, напишіть, що вам треба віддалена робота та автор, який буде писати тексти з якоїсь теми, а не просто копірайтера. Так ви більш ймовірно знайдете автора.


Коментар від Ігоря Рудника:

Доповню, що, по-перше, розмістити вакансію на сайті роботи — то дуже гарний лайфхак. Ми теж там знаходили людей, яких мали б шукати на фрилансі, але насправді ні.

Друге це те, що ми нещодавно із товаришем проговорювали лайфхак про те, як писати гарно для IT. Є саме програміст, який вичитує тексти на предмет адекватності змісту. Зрозуміло, що, якби то писав програміст, воно було б більш глибоко, але, якщо це загальна стаття, достатньо вичитки, щоб там не було супергострих помилок, які одразу викликали б відразу.

Технічний пруфрідінг — це, напевно, єдине, що достовірно дасть вам більш-менш нормальний контент.


Також робіть максимально детальний план тексту. SEO-спеціалісти це вже знають і це зрозуміло більшості. Тобто не просто “напишіть текст на тему”, а з підзаголовками, з планом, що там має бути, якісь характеристики.

Чим детальніше ви напишете план статті, тим більша ймовірність того, що не дуже досвідчена особа зможе написати вам статтю. Бо виконавець буде змушений шукати слова та теми з плану та в результаті напише нормальну статтю.


Коментар від Ігоря Рудника:

Минулого тижня у Collaborator вийшла стаття на тему “Як самостійно через Google Таблиці розпарсити видачу для того, щоб спарсити всі підзаголовки в статтях”. І це гарна основа, щоб зробити ТЗ для написання текстів. Ви берете, умовно “як вибрати ноутбук”, парсите топ-10 та зі статей витягаєте всі заголовки H2, H3. Таким чином маєте план кожної статті в топ-10 в табличці. Його об’єднуєте в один план та отримуєте основу для написання ТЗ. Це доволі непогана механіка і я любив таке робити, вона дозволяє зробити повну статтю на основі того, що є в топі.


Потрібно будувати посилання на кожну мовну версію сторінки чи достатньо тільки на основну?

Потрібно на кожну мовну версію.

Сторінки конкурують між собою. Коли у вас є дві мовні версії — це дві різні сторінки. Є нюанси та специфічні регіони. Україна — дуже специфічний регіон. SEO-спеціалісти в Україні отримують дуже специфічний досвід.

Як працює пошук: ви вбиваєте запит якоюсь мовою й отримуєте результати пошуку тією самою мовою. Так працює у більшості регіонів та в більшості випадків пошуку. В Україні та деяких інших країнах відбувається так, що ви можете вбити запит однією мовою, а отримати результати пошуку іншою. Тому, що Google вважає, що у цьому регіоні можна підмішувати іншомовні результати, змішувати різні мови у видачі.

Якщо ви зараз подивитесь на google.com.ua запит “купить ноутбук”, ви отримаєте велику частину результатів українською мовою, тому що люди обирають україномовні результати всупереч тому, що шукають російською. І це дуже незвична поведінка для пошукової системи, вона показує, як Google вміє підлаштовуватися під користувача в залежності від регіону.

І тут, будуючи посилання на україномовну версію, ви можете отримувати позиції одночасно і по україномовним, і по російськомовним запитам.

Але в Штатах так само не вийде. Якщо ви робите на Штати сайт і у вас є іспанською мовою сторінка та англійською, то ви будете окремо просувати іспанську та англійську, тому що іспанські результати не підмішуються до англомовної видачі.

Зазвичай нам потрібні посилання на різні сторінки окремо, але бувають такі специфічні ситуації як в Україні зараз. Можливо, ця ситуація зміниться й у нас розділяться російськомовна та україномовна видачі. І зараз можна просувати одну мовну версію й отримувати позиції там, і там. Це дуже цікаво і дуже незвично. Тому зазвичай різні сторінки будуємо по-різному.

Наскільки важлива унікальність тексту російською мовою, якщо для вас вона не важлива?

Якщо російськомовні сторінки для вас неважливі, то і текст російською мовою для вас не важливий. Якщо ви не збираєтесь конкурувати, збирати щось із пошуку і для вас ця аудиторія нецільова; ви зробили просто щоб було, то ви можете розміщувати там не дуже якісний контент. Можна навіть подумати над тим, щоб закрити цю версію від індексації.

Якщо ви розумієте, що там поганий контент, або ви бачите, що він не індексується, я б закрив його від індексації якимось meta robot noindex, щоб не дуже якісний контент не заважав іншим сторінкам. Щоб у пошукової системи не було враження, що ми маємо на сайті багато сміттєвих сторінок. Але, якщо регіон для вас не важливий, то наскільки важливий контент для цього регіону? Відповідь в самому питанні.

Є 100 сайтів зі згенерованим контентом (по 15К статей на кожному) та 10К донорів, з яких можна ставити посилання (наприклад, дуже якісні форумні/інші через ГСА). Як би ви застосували цю кількість посилальної маси під ці сайти?

Перше — треба пріоретизувати, подивитися, що ранжується, а що ні.

Я б, напевно, насипав якусь долю посилань на кожен домен, без пріоритезації. Взяв би десь по 50-100 донорів, невелику кількість, і насипав би на кожен домен, щоб був базовий посилальний профіль. Якісь домени вже можуть мати посилання, в якихось нема.

Якщо ми просто пріоретизуємо за позиціями, то побачимо, які є сайти нормальні, з посиланнями, і туди ще досиплемо. Нормальна стратегія. Але можливо, один із сайтів, який мав менше посилань на старті, теж має хороший потенціал, але його сторінки не підросли просто тому, що вони не мають лінків. Припустимо, це новий сайт, в якого 3 посилання, або взагалі 0.

Я б досипав на кожен домен, щоб у кожного було хоча б по 20-30 посилань. І потім уже пріоретизував і дивився, що буду просувати.

Це момент, про який ніколи не питають, але він один із найважливіших — це план. План куди та що ти будеш ставити. І тут я б не просто вигрузив ці позиції з якоїсь Google Search Console, а почав би робити скорінг.

Базово це взяти ключі, в яких є покази чи частотність, хоча б 100-200 показів на місяць. Вигрузити, подивитись на позиції, що там ранжується в 50-30-20 позиціях. А потім ключі, які були відсіяні на першому кроці прогнати, наприклад, через Ahrefs і подивитись, яка медіана та яка середня кількість доменів на топ-10. Бо треба розуміти, що є ключ із частотою 1000, і там треба 100 доменів чи 1000. А є ключ з потенційною частотою 1000 і там треба 3 домени.

Я провів би скорінг спочатку за частотою, потім за кліками, потім за позиціями, а далі за посиланнями у видачі — де скільки треба посилань (це досить просто зробити через Ahrefs, там можна сотнями грузити ключі та отримувати ці дані), та ключі, які я вважаю не дуже конкурентними, де я поставлю посилання і вони вилізуть.

Я ще б передивився потенціал конверсії. Скоріш за все вам ті позиції потрібні, щоб щось кудись конвертувати (якісь партнерки тощо). І кожен ключ має свій потенціал конверсії. Якщо ви розумієте свою тему, якщо є якась статистика — подивіться.

Наприклад, ми сьогодні казали про “10 найкращих годинників” — це потенційно добрий ключ, він має потенціал до конверсії. З ним можна перевести людину до якоїсь партнерки, яка запам’ятається і людина там щось може придбати, або її дожене якась реклама і ми щось отримаємо.

Але якщо це теж про годинники, але “як винайшли годинник”, то скоріш за все там ви нічого не конвертуєте, бо людина зайде, почитає і вийде. Якийсь трафік принесе, але конверсії не буде. Тому третій етап — подивитися, чи конвертують ці ключі, чи є у них потенціал до конверсій.

Тут багато аналізу, особливо в третьому етапі. І тому це треба буде розбити на декілька місяців. І потім проставляти цей об’єм посилань, який є, на ті ключі, які ми пріоретизували, із запасом на 20-25%. Скоріш за все, такий великий об’єм посилань — це наполовину спам, або якась частина спаму, і воно індексуватись не буде; або буде із великою затримкою. Тому шукаємо першу 1000 ключів, чистимо, робимо посилальний план, беремо запас 20-25% і відправляємо, аби ставили посилання.

Буде такий процес:

  • розкидати трошки лінків на всі сайти, подивитись, які просуваються та ростуть;
  • взяти ті, що просуваються, пріоретизувати та зробити лінк-план порціями по 1000 ключів;
  • відправити лінкбілдеру, який завідує цією сіткою чи спамілкою (він ставить посилання за нашими ключами, а тоді ми розуміємо, як це все працює.

І ось такими ітераціями це все працює. Ставимо відстеження, як індексуються посилання, щоб розуміти, чи впливають вони, чи не впливають. І по-друге, дивимося на динаміку того, на що ми посилаємось, хоча б загалом на сторінки. НЕ на запити, бо об’єм великий. І так дивимось, чи працює воно. Якщо не працює, вносимо зміни в ітерації.

Як розрахувати скільки потрібно посилань, щоб наздогнати конкурентів по видачі?

Перше, що ми повинні розуміти: ми не можемо цього зробити із високою точністю. Ми можемо це зробити приблизно.

Перше та найпростіше — це взяти два показники:

  • медіана по referring domains по топ-10;
  • середня кількість referring domains по топ-10.

В Ahrefs є така функція, де ми можемо завантажити топ-10, а також ми можемо це зробити в Google Таблицях зведеною таблицею. Навіть рахувати нічого не треба, просто кнопочками. Ми отримаємо показники, яких буде достатньо для базового аналізу. Ми маємо якийсь діапазон, скільки нам треба посилань: 10, 100 чи 1000.

Також ми можемо порівняти свою сторінку на цьому етапі. Наприклад, у топ-10 середня кількість referring domains 10, а в нас вже 20. А чого ми не в топі?

Тоді я додаю 2 коефіцієнти:

  • середній DR по топ-10;
  • наскільки ми відстаємо за позиціями.

Наприклад, середній DR видачі 95. Тобто в топі велетенські сайти: Вікіпедія, Times, CNN — всі велетенські сайти. DR — показник не супер, але він дає нам деяке розуміння, якщо у нас, наприклад, середній DR 5, а в топі 95. Зрозуміло, що тут ми зі своїми 20 проти 10 посиланнями не обійдемо цей DR.

Тому я беру числовий коефіцієнт, припустимо, називаю рандомну цифру — 5. Якщо у нас менший DR, то нам треба взяти у 2 чи в 3 рази більше посилань.

Якщо у нас DR приблизно такий самий, а все одно ми не в топі, то дивимось на контент. Можливо не в посиланнях взагалі проблема. В принципі, може проблема з контентом, і скільки ми будемо навалювати, в топ все одно не вийдемо, навіть якщо дуже багато розмістимо посилань.

Перевірили контент, перевірили DR, перевірили середню кількість посилань. Не допомогло. Тоді наступне. Дивимось, що за посилання. Це форуми, сабміти, якийсь спам чи нормальні посилання?

Розділяємо за якістю донора, за типом посилання. Я зазвичай розбиваю на діапазони по DR: 10-20; 20-30; 30-40 — всі діапазони DR з кроком 10. Потім дивлюсь, скільки блогів і хоч чогось схожого на аутріч, а скільки форумів і сабмітів. І скільки головних сторінок.

Наприклад, я бачу, що у конкурента 10 сторінок із яких 5 головних — це багато, це не просто 5-10 форумів. Я дивлюсь на якісні показники. Вони дають розуміння, що нам треба побудувати.

Можливо, у нас стільки ж або більше посилань, але вони гірші. У нас 10 форумів, а у них — 10 аутрічу. Можливо, в цьому проблема.

Зазвичай більшість спеціалістів зупиняються десь тут: розбивають посилання за якістю, за типами, і дивляться, чому саме щось не спрацювало. Якщо вас такий рівень не влаштовує, ви хочете next level, тоді можна спробувати розрахувати.

В мене є скрипт, який перші два етапи робить автоматично: я просто завантажую дані, а там все є. Зараз я хочу, щоб цей скрипт по цьому топу будував функцію і по цій функції розраховував, скільки яких посилань мені треба.

Це можна зробити, але так не роблять майже ніколи. Бо точність таких розрахунків все одно низька. Навіть якщо ми будемо щось прогнозувати, точність буде низькою. Руками це точно робити не треба. Якщо у вас є автоматичний інструмент — це ще пів біди. А вручну ви витратите 2-3 години й отримаєте ті самі дані, які могли б отримати за 20 хвилин аналізу.

Google Analytics та Google Search Console показують різні цифри (розбіжність в рази). Кому ви вірите в таких ситуаціях?

Так, вони показують різні дані, і це логічно, тому що Google Search Console показує кліки, а Google Analytics показує перегляди та хости. Це три різних показники, тому це три різні цифри. Це логічно.

Щоб зрозуміти різницю, я раджу почитати документацію Google Analytics, як вони це збирають. І тоді стане зрозуміліше, чому це різні речі.

Ще цікавий досвід ви отримаєте, щоб зрозуміти цю різницю, якщо ви спробуєте накручувати кліки та побачите, що зараховується в хости, в перегляди та в Search Console. Так ще краще ви зрозумієте, що і як рахується.

Чи були у вас історії, коли ви ставили дуже багато посилань на новий домен, що призводило до потрапляння під фільтр?

Треба тут розуміти, що я займаюся майже завжди білим лінкбілдінгом. Найсиріше, з чим я працював — це кредити. Я не спеціалізуюсь на чомусь сірому, я загалом працюю із клієнтськими проєктами у відносно білих нішах.

Якщо це не бетінг чи ще щось чорне, в мене була б ідея вкласти бюджет в PR. Якщо є гроші, щоб подарувати 10 ноутбуків — подаруйте 10 ноутбуків. Розіграти їх якось круто, дистрибутувати та, можливо, посилань буде більше.

Або кудись гроші задонатити та розіграти піар-акцію навколо цього. Часто, якщо є необмежений бюджет на лінки й проєкт не сірий, краще інвестувати в PR.

Тож повернемось, чи було таке, що насипали багато лінків і банило — в Goole не було. Ніколи не було такого, що ми насипали круті лінки і нас банили.

Тут є проблема в тому, що ви кажете “насипаємо круті лінки та насипаємо PBN”. Я розумію, що, якщо хороший бюджет, ця сітка хороша, але серед PBN можуть бути погані (ми ж їх багато беремо і всі не перевіряємо).

І якщо ми на модерацію закинемо, то навіть хороші PBN можуть зробити нам проблеми. Особливо, якщо ми не контролюємо нормально анкорні листи та там десь щось трошечки переспамимо анкорами, тут буде проблема не стільки в динаміці, скільки в комплексі.

Погані анкори плюс велика динаміка, плюс те, що це PBN, а все ж таки власник сітки може нам не все казати. Наприклад, у нього на частині сітки можуть висіти якісь санкції, які ми не побачили.

Відповідь така: за багато хороших посилань Google не забанить. Якщо серед хороших посилань є PBN, треба бути обережними саме з ними.

Багато сайтів просуваються спонсорськими посиланнями в блоці “Sponsors” на різних донорах. Чи використовуєте ви такі посилання та що про них думаєте?

До блоку “Спонсори”, я із підозрою відношусь. Коли прям написано: “Спонсорські лінки” і там блок лінків. На мій погляд, туди краще не заходити.

Як ми це робили. Ми казали: ми вам платимо гроші, ви розміщуєте. Ну і там не так розповсюджені спонсорські лінки, там були спонсорські блоки. А ми намагались домовитись про формулювання “Ми радимо цей сайт для перегляду трансляцій”. І ми завжди, коли виходить новина, просили їх вказувати “Де сьогодні дивитись матч? Дивіться його тут”. Просто за замовчуванням ми до цього домовлялись. А коли у вас є контекст, куди вставити посилання на трансляцію, ви не шукаєте, де ще вона буде, а ставите “трансляція буде тут” завжди.

Таке спонсорство виглядає більш органічно. Залазити у великий блок спонсорів на 50 посилань, я б теж тричі подумав. І скоріш за все туди б не ліз. Але, якщо всі юзають, то, мабуть, працює — я б тестував. Не впевнені — тестуйте.

Я б закупив частину, поставив би на якийсь розділ середнього пріоритету, і згодом би масштабував. Якщо у вас один сайт, і ви боїтеся, що його відфільтрує, що логічно, то головне мати хороший контакт із цими сайтами, щоб, якщо що, все прибрати.

Не так страшно будувати посилання, як розуміти, що ви їх потім не приберете. Будуйте, тестуйте і майте нормальний контакт із вебмайстром.

Як розподіляти безанкорні посилання та анкори, які повторюють ключові слова в залежності від якості донорів? Чи безпечно на топових майданчиках розміщувати SEO-анкори?

Якщо ви берете одне посилання на топовому донорі та ставите там SEO-анкор — це повністю безпечно. За одне посилання вас не забанять.

Тут важливе не одне посилання, а загальний вигляд вашого посилального профілю. Динаміка і що зараз ви робите.

Якщо ви ставите сотні посилань в один і той самий ключ, якийсь на 100% сеошний, то навіть якщо це топові донори, ви підвищуєте ризик отримати санкції. Як за цим ключем окремо, так і за сторінками, і за сайтом.

Одне таке посилання нічого поганого не зробить, а навпаки може навіть підвищити позиції. Бо точний ключ, хороші посилання — це те що працює. Але треба розбавляти. Якщо ви поставили кілька хороших ключів, ставте якісь інші ключі, без анкору.

Як розрахувати? За конкурентами. Вивантажуєте посилання ваших конкурентів, дивитесь, що вони будують: анкор, безанкор; як розставляють, як заходять в топ.

Якщо ви сумніваєтесь, що бачите всі посилання — тоді із досвіду. Як спеціалісти зазвичай радять: 20-30% — анкору, 70-80% — безанкору.

Насправді це не універсальний рецепт. Десь можна анкору більше насипати, а десь, можливо, анкор зовсім не потрібен — це найкращий підхід.

Ну і третій варіант — намацуйте. Почніть із 50/50 або 30/70. Якщо погано росте, то ставте більше анкору. Якщо воно росло, а потім почало просідати — значить ви перебрали з анкором, знімайте і ставте безанкор. І ви знайдете саме той відсоток, який працює під вашу сторінку.


На цьому все)

Підписуйтесь на телеграм-канал Referr, щоб першим дізнаватися про нові сесії питань та відповідей, долучайтеся до лінкбілдінг чату, щоб дискутувати на тему просування сайтів посиланнями та не забудьте приєднатися до нашого YouTube-каналу, де ми постійно розміщуємо записи Q/A сесій з експертами. Також рекомендуємо додати наш блог у закладки, щоб не пропустити нові конспекти сесій😉

Соломія Возняк
SEO-фахівець з просування e-commerce проєктів, kwitka.com.ua
Інтернет-магазини

Не так давно працюю із компанією Referr, але вже бачу позитивні зміни у позиціях сайту і, звісно, в посилальному профілі. Відзначу професійний та організований підхід до роботи. В команді працюють кваліфіковані, уважні до деталей спеціалісти, які чітко дотримуються термінів. Загалом задоволена співпрацею і можу порекомендувати компанію Referr іншим. Вдячна команді за їхню роботу!

Ознайомитись з усіма 292 відгуками
Кейс Від 0 до 13 000 осіб на добу в ніші криптовалют💰

+150

доменів, що посилаються

+13К

відвідувачів на добу

Вивчити детальний кейс
Зареєструйтесь
Чи не підійшов тариф? Зверніться до нашого менеджера

Залишити відповідь

Ваш e-mail не буде опубліковано. Усі поля є обов'язковими для заповнення.