Пошукові алгоритми Google – як просувати сайт правильно?

Автор: Юлиан Клицаков в SEO оптимізація от 22 Жовтня 2019

Поисковые алгоритмы Google – продвигаем сайт

З 1998 року алгоритми Google – тема досить животрепетна. Не встигли SEO оптимізатори порозумітися з Пандою, як в зоопарку з’явився новий мешканець. Та й попереднім звірятам шерстку почистили. І кожного разу, читаючи новини IT-сфери, сеошники лише підвищують рівень своєї спантеличеності. Чергове оновлення алгоритмів пошукової системи примушує їх рвати з голови волосся, топтати шапку й бризкати слиною, вивергаючи везувістичні прокльони.

А тим часом, все досить просто і прозоро: при оновленні будь-яких алгоритмів пошукової системи Google у разі, якщо сайт наповнений унікальним контентом високої якості, якщо він написаний копірайтером з усвідомленням потреб цільової аудиторії, позиції сайту лише ростимуть.

І хоча за останні роки у SEO оптимізаторів з’явилося стійке відчуття, що алгоритми націлені на протидію їх роботі, це в корені не вірно, адже головна їх мета – не шкода сеошникам, а допомога користувачам. І відноситися до алгоритмів Гуглу слід саме так, інакше пошукова оптимізація сайту буде неправильною.

Алгоритм Google Panda – інспектор контенту

Запущений 23 лютого 2011 року, апдейти – щомісячно. У вузьких кругах відомий як «Фермерський Алгоритм». Його головним завданням стало підвищення якості результатів пошуку, внаслідок чого більша половина сайтів випала з ТОП-100, віддавши свої позиції більш інформативним ресурсам.

Спочатку сеошники вирішили, що Панда штрафує сайти з неякісною посилальною масою, проте боротьба з неприродними посиланнями в круг його завдань не входить. Замість цього Panda знижує в рейтингу сайти з неунікальним (скопійованим) контентом.

Крім того, Panda займається оцінкою якості сайтів по сотням різних параметрів:

  • тексти з орфографічними та стилістичними помилками;
  • надмірна реклама на сайті;
  • низький відсоток додавання сайту в закладки браузеру;
  • відсутність соціальної активності (рекомендація друзям, лайки та шери);
  • недостатньо інформативні відповіді на поставлені користувачами питання;
  • схожість з сайтами конкурентів;
  • відсутність смислового навантаження в текстах;
  • низька оновлюваність контенту.

Алгоритм Google Penguin – ревізор посилань

Запущений 24 квітня 2012 року, апдейти – в режимі реального часу. На відміну від відносно милого ведмедя, вдарив дуже боляче, хоча й не так масштабно, уразивши лише близько 3,1 % сайтів, в одну мить перетворивши тисячі зовнішніх посилань на справжнісінький пшик.

І якщо раніше авторитет сайту в очах пошукової системи визначався з оглядкою на число сайтів, що посилаються на нього, то тепер Google навчився визначати якість сайтів-донорів і розпізнавати штучні маніпуляції посиланнями.

Говорячи простіше, одне хороше посилання з авторитетного джерела тепер може важити так само, як і тисяча посилань з сайтів-одноденок, а тому бездумна закупівля посилань більше не працює. Як не працюють й інші маніпуляції:

  • велика кількість неякісних посилань з комерційними анкорами;
  • посилання з нерелевантних і нетематичних сайтів;
  • посилання з сайтів-сателітів;
  • участь в посилальних схемах.

Алгоритм Google Pirate – «Не пройдеш!»

Запущений в серпні 2012 року, безпосередньо торкнувся ресурсів, що порушили «Закон про авторське право в цифрову епоху». Алгоритм жорстоко карає сайти, що отримали скарги з боку правовласників або так чи інакше залучені в розгляди з питань піратства.

Останній апдейт стався в жовтні 2014 року.

 Алгоритм Google Pigeon – голуб з недоброю звісткою

Запущений 24 липня 2014 року й націлений на підвищення ранжирування локальних сайтів у пошуку. Тобто місцеві, міські ресурси, отримали деякий карт-бланш і стали помітніші в пошуку – користувач отримує результати, ґрунтовані на його місці розташування: киянин – київські сайти, користувач з Харкова – сайти місцевих фірм, а одесит – свої ж одеські сайти. Якщо, звичайно, ці ресурси пропускає Пінгвін і Панда. Останній апдейт алгоритму відбувся 22 грудня 2014 року.

Не пройти через Pigeon досить просто:

  • відсутність фірми на картах Google;
  • велика відстань до користувача.

Алгоритм Google Hummingbird – запит під мікроскопом

Офіційно був запущений 26 вересня 2013 року, хоча фактично почав свою роботу місяцем раніше, 20 серпня. Такий сюрприз викликав невелику панічну атаку у багатьох SEO оптимізаторів, тим паче, що подія співпала з черговим оновленням Пінгвіна.

Алгоритм Колібрі базується на семантичному пошуку, розкладаючи по поличках кожну букву пошукового запиту, визначаючи смислове навантаження і значення слів. І тепер, якщо, приміром, користувач надрукує «в яких місцях можна випити пива в Києві», пошукова система без проблем зрозуміє, що під «місцями» маються на увазі «бари», «кафе» і «паби».

З алгоритмом Hummingbird Google став «розумнішим» і навчився розглядати сенс кожного пошукового запиту, видаючи результати, ґрунтовані на сенсі пошукової фрази, а не на її дослівному значенні. Це істотно відбилося і на контенті: по-справжньому релевантні тексти стали набагато значиміші за низькотематичні статті з перспамом ключовиками.

Алгоритм Mobile Friendly Update

Запущений 21 квітня 2015 року і своєю метою ставить підвищення оптимізації сайту під мобільні пристрої. Важливо, що цей алгоритм націлений на конкретну сторінку, а не на сайт в цілому, завдяки чому дозволяє оптимізатору вживати точкові заходи, підвищуючи видачу цільової сторінки.

Дружні до мобільних пристроїв сторінки тепер вище ранжируються в результатах мобільного пошуку. На десктопну версію сайту алгоритм нічим не вплинув.

Алгоритм RankBrain – штучний інтелект від Гуглу з усіма витікаючими

Офіційно запущений 26 жовтня 2015 року, хоча, можливо, розробники впровадили його набагато раніше. Це не просто алгоритм, але й унікальна система машинного навчання, що поставила перед собою завдання надати користувачеві кращі й більш релевантні результати пошуку.

З алгоритмом RankBrain пошукова система краще розуміє запити, але головний плюс – це надання користувачам можливості оцінювання роботи алгоритму, подальше навчання та осмислення системою дій такого користувача. Якщо простіше, то система розвивається, з кожним днем стаючи все більш «розумною».

Постраждати від RankBrain можна, якщо сайт не оптимізований під пошукові запити або має надто багато відмов.

Алгоритм Possum – на варті міста

Запущений 1 вересня 2016 року і став доповненням раніше запущеного алгоритму Pigeon, піднімаючи в ранжируванні сайти компаній, розташованих щонайближче до користувача, чиє місцерозташування й стало основою роботи даного пошукового апдейта.

Опосум жорстко відфільтрував афільовані організації – приміром, з однаковими адресами або номерами телефонів, в той же час підвищуючи у видачі сайти компаній з фізичними адресами.

Алгоритм Fred – борець з рекламою

Запущений 8 березня 2017 року. Знижує у видачі сайти, які зловживають банерною, pop-up й іншими видами реклами, ресурси з великою кількістю посилань і роботизованих SEO текстів.

Згідно інформації від Google, вольєр ще багато, і зоопарк постійно поповнюватиметься. В той же час не варто забувати й про старичків, що дуже б’ють тростиною з-за рогу. Наприклад, недавнє оновлення алгоритму Payday Loan, що пройшло хоча практично й непомітно, проте серйозно торкнулося сайтів зі спамом в тематиці кредитування, адалт й інших.

Hilltop, Florida, Orion, Austin, Caffeine – усі ці алгоритми пошукової системи продовжують діяти й сьогодні, і кожен SEO копірайтер зобов’язаний їх знати.

© Студія копірайтингу «Ямбус»

Понравилась статья? Поделись с друзьями!

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *