С 1998 года алгоритмы Google – тема достаточно животрепещущая. Не успели SEO оптимизаторы поладить с Пандой, как в зоопарке добавился новый житель. Да и предыдущим зверятам шерстку почистили. И каждый раз, читая новости IT-сферы, оптимизаторы лишь повышают уровень своей озадаченности. Очередное обновление алгоритмов поисковой системы заставляет их рвать с головы волосы, топтать шапку и брызгать слюной, извергая везувистические проклятия.

А между тем, всё достаточно просто и прозрачно: при обновлении любых алгоритмов поисковой системы Google в случае, если сайт наполнен уникальным контентом высокого качества, если он написан копирайтером с осознанием потребностей целевой аудитории, позиции страницы будут лишь расти.

И хотя за последние годы у SEO оптимизаторов появилось стойкое ощущение, что алгоритмы нацелены на противодействие их работе, это в корне не верно, ведь главная их цель – не оптимизатор, а конечный пользователь. Относиться к алгоритмам Гугла следует именно так, в противном случае поисковая оптимизация сайта будет неправильной.

Алгоритм Google Panda – инспектор контента

Запущен 23 февраля 2011 года, апдейты – ежемесячно. В узких кругах известен как «Фермерский Алгоритм». Его главной задачей стало повышение качества результатов поиска, в результате чего большая половина сайтов выпала из ТОП-100, отдав свои позиции более информативным ресурсам.

Поисковые алгоритмы Google – продвигаем сайтПоначалу сеошники решили, что Панда штрафует сайты с некачественной ссылочной массой, однако борьба с неестественными ссылками в круг его задач не входит. Вместо этого Panda понижает в рейтинге сайты с неуникальным (скопированным) контентом.

Кроме того, Panda занимается оценкой качества сайтов по сотням различных параметров:

  • тексты с орфографическими и стилистическими ошибками;
  • чрезмерная реклама на сайте;
  • низкий процент добавления сайта в закладки браузера;
  • отсутствие социальной активности (рекомендация друзьям, лайки и шеры);
  • недостаточно информативные ответы на заданные пользователями вопросы;
  • схожесть с сайтами конкурентов;
  • отсутствие смысловой нагрузки в текстах;
  • низкая обновляемость контента.

Алгоритм Google Penguin – ревизор ссылок

Запущен 24 апреля 2012 года, апдейты – в режиме реального времени. В отличие от относительно милого медведя, ударил необычайно больно, хотя и не так масштабно, поразив лишь порядка 3,1 % сайтов, в один миг превратив тысячи внешних ссылок в самый настоящий пшик. И если раньше авторитет сайта в глазах поисковой системы определялся с оглядкой на число ссылающихся на него сайтов, то теперь Google научился определять качество сайтов-доноров и распознавать искусственные манипуляции ссылками. Говоря проще, одна хорошая ссылка с авторитетного источника теперь может весить так же, как и тысяча ссылок с сайтов-однодневок, а потому бездумная закупка ссылок больше не работает.

Как не работают и другие манипуляции:

  • большое количество некачественных ссылок с коммерческими анкорами;
  • ссылки с нерелевантных и нетематических сайтов;
  • ссылки с сайтов-сателлитов;
  • участие в ссылочных схемах;

Алгоритм Google Pirate – «Не пройдешь!»

Запущен в августе 2012 года и напрямую коснулся ресурсов, нарушивших «Закон об авторском праве в цифровую эпоху». Алгоритм жестоко карает сайты, получившие жалобы со стороны правообладателей или так или иначе вовлеченные в разбирательства по вопросам пиратства. Последний апдейт произошел в октябре 2014 года.

Алгоритм Google Pigeon – голубь с недоброй вестью

Запущен 24 июля 2014 года и нацелен на повышение ранжирования локальных сайтов в поиске. То есть местные, городские ресурсы, получили некоторый карт-бланш и стали более заметны в поиске – пользователь получает результаты, основанные на его местоположении: киевлянин – киевские сайты, пользователь из Харькова – сайты местных фирм, а одессит – свои же одесские сайты. Если, конечно, эти ресурсы пропускает Пингвин и Панда. Последний апдейт алгоритма был 22 декабря 2014 года.

Не пройти через Pigeon достаточно просто:

  • отсутствие фирмы на картах Google;
  • большое расстояние до пользователя.

Алгоритм Google Hummingbird – запрос под микроскопом

Официально был запущен 26 сентября 2013 года, хотя фактически начал свою работу месяцам ранее, 20 августа. Такой сюрприз вызвал небольшую паническую атаку у многих SEO оптимизаторов, тем более, что событие совпало с очередным обновлением Пингвина.

Алгоритм Колибри базируется на семантическом поиске, раскладывая по полочкам каждую букву поискового запроса, определяя смысловую нагрузку и значение слов. И теперь, если, к примеру, пользователь напечатает «в каких местах можно выпить пива в Киеве», поисковик без проблем поймет, что под «местами» имеются в виду «бары», «кафе» и «пабы».

С алгоритмом Hummingbird Google стал «умнее» и научился рассматривать смысл каждого поискового запроса, выдавая результаты, основанные на смысле поисковой фразы, а не на её дословном значении. Это существенно отразилось и на контенте: по-настоящему релевантные тексты стали гораздо значимее низкотематичных статей с перспамом ключевиками.

Алгоритм Mobile Friendly Update

Запущен 21 апреля 2015 года и своей целью ставит повышение оптимизацию сайта под мобильные устройства. Важно, что данный алгоритм нацелен на конкретную страницу, а не на сайт в целом, благодаря чему позволяет оптимизатору принимать точечные меры, повышая выдачу целевой страницы.

Дружественные к мобильным устройствам страницы теперь выше ранжируются в результатах мобильного поиска. На десктопную версию сайта алгоритм ничем не повлиял.

Алгоритм RankBrain — ИИ от Гугла со всеми вытекающими

Официально запущен 26 октября 2015 года, хотя, возможно, разработчики внедрили его гораздо раньше. Это не просто алгоритм, но и уникальная система машинного обучения, поставившая перед собой цель предоставить пользователю лучшие и более релевантные результаты поиска.

С алгоритмом RankBrain поисковик лучше понимает запросы, но главный плюс – это предоставление пользователю возможности оценивания работы алгоритма и последующее обучение, и осмысливание системой действий такого пользователя. Говоря проще, система развивается, каждый новый раз становясь всё более «умной».

Пострадать от RankBrain можно, если сайт не оптимизирован под поисковые запросы или имеет слишком много отказов.

Алгоритм Possum – на страже города

Запущен 1 сентября 2016 года и стал дополнением ранее запущенного алгоритма Pigeon, поднимая в ранжировании сайты компаний, расположенных ближе всего к пользователю, чье месторасположения и стало основой работы данного поискового апдейта.

Опоссум жёстко отфильтровал аффилированные организации – к примеру, с одинаковыми адресами или номерами телефонов, вместе с тем повышая в выдаче сайты компаний с физическими адресами.

Алгоритм Fred – борец с рекламой

Запущен 8 марта 2017 года. Понижает в выдаче сайты, злоупотребляющие банерной, pop-up и другими видами рекламы, ресурсы с большим количеством исходящих ссылок и роботизированных SEO текстов.

По заверениям Google, вольеров ещё много, и зоопарк будет пополняться. Вместе с тем не стоит забывать и про старичков, больно бьющих тростью из-за угла. Например, недавнее обновление алгоритма Payday Loan, прошедшее хотя практически и незаметно, но серьезно затронуло сайты со спамом в тематике кредитования, адалт и прочие.

Hilltop, Florida, Orion, Austin, Caffeine – все они продолжают действовать и сегодня, и уважающий себя SEO копирайтер обязан их знать.

© Студия копирайтинга «Ямбус»

Заказать бесплатную консультацию
Поможем быстро вывести сайт в топ-3