Архив метки: Google

Фильтр Google Duplicate Content (неуникальный контент)

Неуникальный контент – явление достаточно распространенное и свидетельствует не только о нарушении авторского права на текст и нежелании вебмастера платить копирайтеру, но и о полном незнании алгоритмов работы поисковых систем.

Проверка на Duplicate Content – первое, что происходит при индексации страницы. Обнаружив краденный или скопированный из различных источников контент, Google тотчас помечает его значком неуникальности и с полной предвзятостью пессимизирует страницу в выдаче, каким бы оптимизированным текст на ней не был.

«НК» фильтр подвергает ворованный контент достаточно широкому спектру проверок:

  • поиск сайтов с аналогичным краденым контентом и сравнение времени публикации;
  • определение времени индексации страниц и сравнение его друг с другом;
  • выявление активных ссылок с других доменов, ведущих на страницу;
  • определение числа пользователей, посетивших страницу;
  • подсчет числа комментариев на странице с не уникальным контентом.

Сравнивая все эти параметры у идентичных на пер вый взгляд страниц, Гугл определяет наиболее трастовый сайт, и зачастую им становится вовсе не тот, где текст появился впервые, а тот, который лучше раскручен, а в результатах выдачи может показать как несколько вариантов, так и один, и вполне возможны случаи, когда ворованные статьи в выдаче будут выше, нежели оригинал.

Как вывести сайт из-под фильтра Google Duplicate Content?

Вариантов действия у вебмастера всего два: написать в поддержку Гугла и объяснить ситуацию (если своровали у вас) или полностью удалить со своего сайта потерявший уникальность контент – независимо от того, кому принадлежит копирайт.

Учитывая тот факт, что алгоритмы Google полностью автоматизированы, уповать на «ручное решение» техподдержки не стоит. Гораздо проще будет по доброй воле очистить свой сайт от не уникального контента, заменив его новым, уникальным текстом, сделав рерайт или (если вам плевать на своих читателей) пропустив через синонимайзер. В случае же, если вы не умеете самостоятельно писать или переделывать статьи, закажите их в нашей студии копирайтинга.

Заказать копирайт для сайта

Гугл давно научился распознавать не уникальные тексты и отправлять сайты под бан. А потому не рискуйте репутацией своего сайта и размещайте на его страницах только уникальные статьи!

© Студия копирайтинга «Ямбус»

Опубликовал Главред в SEO от 29 июля 2017

Новый алгоритм Google заработает 21 апреля

21 апреля Google планирует изменить поисковый алгоритм, оптимизировав его под мобильные устройства, ведь, как известно, мобильным интернетом пользуется довольно большое число пользователей. Предполагается, что новый алгоритм улучшит ранжирование результатов поисковой выдачи на мобильных устройствах и сделает поиск информации более качественным и быстрым.

Новый алгоритм Google заработает 21 апреля Сегодня мобильным интернетом пользуется более 1,5 миллиардов человек, 80 %  которых используют для этих целей смартфон, и внедрением этого алгоритма Google предлагает владельцам сайтов обратить особое внимание на таких пользователей, деликатно делая намек, что в будущем эта категория пользователей будет в приоритете.

Это означает лишь одно: после 21 апреля сайты, не оптимизированные под мобильные устройства, значительно опустятся в рейтинге. И если говорить об интернет-магазинах или компаниях, чья деятельность так или иначе представлена в интернете, игнорирование оптимизации под мобильные устройства может привести к значительной потери прибыли.  Но поскольку главная задача всех поисковых машин – предоставлять пользователям именно ту информацию, которая им необходима, внедрение алгоритма mobile friendliness (мобильное дружелюбие) можно считать правильным и оправданным. Особенно, если обратиться к статистике: по данным Google-аналитики, с каждым годом число тех, кто пользуется мобильным интернетом, растет. Если в 2010 году таких было едва ли 10 %, то сегодня их уже около 30. А если учитывать тот факт, что мобильный рынок стремительно развивается и уже занимает 1/5 рынка электронной коммерции, будущие изменения алгоритма мобильного поиска являются не прихотью Google, а необходимостью.

Поисковые машины настроены на то, чтобы пользователи не прилагали усилий для нахождения нужной информации – независимо от устройства, которыми они пользуются. И если сайт соответствует рекомендованным параметрам, это гарантирует его посещаемость.

Требования нового алгоритма между тем достаточно просты

  • Масштабирование шрифта на сайте под мобильные устройства.
  • Сенсорные элементы должны отличаться простотой использования и находиться на оптимальном расстоянии друг от друга.
  • Скорость загрузки должна быть мгновенной, а потери данных – отсутствовать.
  • Если вместо адаптивного дизайна используется специальная мобильная версия, должен быть корректно прописан редирект.

Благодаря мобильной оптимизации найти нужную информацию станет гораздо проще. Не придется переходить по множеству ссылок, чтобы найти телефон или адрес компании, магазина или ресторана. Поисковый робот «увидит» заботу о пользователе, и удобный сайт, который действительно достоин этого, поднимется в рейтинге. Так, как и должно быть.

© Студия копирайтинга «Ямбус»

Дополнительный индекс, или Сопли Гугла

Не без оснований Google давно считается самой успешной поисковой системой. Компания постоянно стремится повышать качество выдачи поиска, отбирая информацию, исходя из ее релевантности, актуальности и полноты ответа. Во многом параметр релевантности основывается на операциях ранжирования, а за актуальность и полноту данных отвечают алгоритмы сканирования (краулинга), а также ее индексирования (хранения).

 

Поскольку Google является одной из наиболее мощнейших поисковых систем во всем мире, она вполне в состоянии проиндексировать и хранить все существующие веб-страницы в своей базе, что выгодно отличает Гугл среди прочих систем.

Для проведения индексирования у компании есть два способа

  1. Основное индексирование. В нем оказываются страницы, выводимые впоследствии на запросы посетителей, по ним Google производит поиск.
  2. Дополнительное индексирование. Данный индекс еще именуют Supplemental Index или «индекс соплей». В него отправляются не оптимизированные страницы, не принимающие участие в выдаче. Но иногда Google использует их, когда подходящей информации в главном списке нет.

Дополнительный индекс, или Сопли ГуглаСопливый индекс запущен в 2003 году, когда для хранения основной информации не осталось места. Чтобы бороться с этой ситуацией, был введен supplemental results. Суть дополнительного индексирования состоит в отсеивании некачественных страниц, не отвечающих параметрам качества поисковиков. Путем отсеивания явно низкопробных страниц Гугл  повышает качество основных, которые принимают участие в выдаче.

Однако не следует принижать отношение Гугла к дополнительному индексу и входящим в него сайтам. Обращений к этим страницам мало не потому, что они входят в добавочный индекс. Наоборот, они в «соплях» потому, на них мало переходов. Однако Google считает все страницы равноценными: и из добавочного, и из главного индекса.

Отрицательное влияние сопливого индекса:

  • веб-страницы из supplemental results не ранжируются и не имеют переходов посетителей;
  • у сайтов из второстепенного индекса обычно много вложений. Лучше, чтобы на сопливых сайтах было наименьшее количество страниц, это позволит им оттуда выйти.

Причины отправки веб-сайтов в добавочный индекс:

  • отсутствие уникальной информации  (текст целиком взят из другого сайта);
  • пустая страница (нет видео, иллюстраций, текста);
  • на странице размещена копия информации с этого же сайта (неправильная пагинация, не оптимизированные страницы);
  • у сайта большое количество вложений (более четырех).

Как вытащить сайт из supplemental results?

  • произвести заполнение сайта интересным, полезным и уникальным контентом;
  • удалить бесполезные страницы;
  • перестроить страницы так, чтобы глубина вложений не превышала 4 клика.

После того, как данные манипуляции будут произведены, Гугл вытащит из supplemental results страницы и повысит число посещений страниц, увеличит трафик сайта.

© Студия копирайтинга «Ямбус»

Google внедряет алгоритм Hummingbird

К своему пятнадцатилетию, которое наступает 27 сентября, компания Google приурочила немало удивительных сюрпризов. Как утверждают в ее руководстве — приятных. Один из них — новый алгоритм, Hummingbird.

Google внедряет алгоритм HummingbirdСреди таких «подарков» для пользователей оказался усовершенствованный интерфейс и создание дополнительных функций для Android и iOS, а также новая система расчета показателей PR страниц и усовершенствование работы  семантической сети Knowledge Graph с другими услугами предоставляемыми компанией Google функциями.

Ещё одна новинка — внедрение уведомлений для владельцев платформ iOS, вслед за подобной услугой владельцам платформы Android.

Также будет улучшен фильтр информации, которую пользователь получает при запросах в поисковой строке Google. Пользователь станет получать более точную информацию. Стоит отметить, что с поисковым алгоритмом в компании работали довольно долгое время, что и дало свои результаты. Также была улучшена голосовая система поиска для Android.

Самая же ожидаемая новинка – это поисковый алгоритм Hummingbird. Новость о его внедрении сообщил Амит Сингхал, старший вице-президент Google. До этого система пользовались другим поисковым алгоритмом — Caffeine. он функционировал более трех лет. По словам вице-президента, потребителям было необходимо дать новую систему, т. к. старая уже не соответствовала потребностям пользователей.

Компания сделала алгоритм Hummingbird более простым, но с другой стороны — более совершенным.

Сейчас пользователи вводят в поисковик слова из разговорной речи, так что надо было подогнать систему под современные запросы, изменить её под эти параметры. На простые запросы будет выдаваться простой результат, если так можно сказать, а на сложный — более обширный, со всеми особенностями вводимой базовой информации.

Более 90 % всех нововведений уже работают, оставшиеся десять будут внедрены в течение короткого времени.

© Студия копирайтинга «Ямбус»

Опубликовал Главред в SEO от 07 октября 2013

Алгоритм Penguin от Google. Борьба со спамом

Специалисты компании Google стали уделять  очень много внимания борьбе со спамом. Так, совсем недавно появился славноизвестный алгоритм Panda, который повысил требования к уровню оптимизации сайтов. Не смотря на это, уже разработан новый алгоритм, который получил не менее забавное название – Penguin. Последняя разработка — это усовершенствованная версия предыдущей.

Основным предназначением алгоритма Penguin была борьба с переоптимизированными веб-сайтами. Сейчас же концепция немного изменилась, и его позиционируют как самый эффективный метод борьбы со спамом.

Предназначение нового алгоритма Penguin

Борьба со спамом с помощью алгоритма Penguin от GoogleВот уже несколько лет, как корпорация Google работает над проблемой спама. Именно поэтому утверждать, что алгоритм Penguin является абсолютным новшеством, не стоит. Он лишь включил в себя некий фильтр, который помогает избавиться от ряда негативных факторов. Например: выдача ссылок на веб-ресурс, который содержит каталог статей; вывод сайтов, которые специально созданы для спама; отображение сайтов, которые сделаны по технологии простой схемы вывода по ключевым словам; слишком большое количество вхождений ключевиков; рекламный спам на различных ресурсах; ссылки на аккаунты в соцсетях.

Также параллельно ведется поверка на наличие любых скрытых ссылок или текстов с ключевиками.

Начало работы Google Penguin

Компания Microsite Masters занимается изучением работы вышеописанного алгоритма и уже предоставила первые результаты исследований. Для начала работники компании изучили, насколько изменился список вывода сайтов в поисковике при вводе прямых анкоров или же словоформ. На основании результатов, было просчитано процентное соотношение таких сайтов до ввода алгоритма в работу и после.

Результаты исследования можно назвать положительными для разработчиков алгоритма. Полностью пропали сайты, которые используют половину подобных прямых вхождений. Те веб-ресусры, которые используют меньшое количество вхождений ключевиков, спустились ниже в рейтинге. Также было замечено, что алгоритм проверяет не только анкоры, а и все входящие ссылки.

Можно ли обмануть алгоритм Penguin?

Конечно же, после реализации алгоритма многие веб-ресурсы понесли убытки. Первым же делом, большинство разработчиков и оптимизаторов взялись за корректирования сайта под требования алгоритма Пингвин.

Сразу же нужно усвоить, что на данный момент нет схемы обхода нового алгоритма без внесения каких-либо изменений в сам ресурс. Конечно же, не удастся избавиться от всех проблем сразу же и нужно будет ждать обновлений. Но попытаться стоит.

Специалисты акцентируют внимание на том, что если не пытаться поднять рейтинг сайта за несколько дней, а систематично приводить его в порядок, то никакой Пингвин не страшен. Только качественные статьи могут повысить рейтинг сайта, а не спам и реклама.

© Студия копирайтинга «Ямбус»

Опубликовал Главред в SEO от 18 апреля 2013

Что такое апдейт?

Что такое апдейтАпдейт – понятие, над которым многие ломают голову. При этом все достаточно элементарно. Апдейт – это обыкновенное обновление данных, дополнение или изменение. Это понятие можно применять к любому сайту. Например, произошел апдейт на таком-то сайте. Это значит, что на сайте добавились какие-то статьи или другой материал, сайт обновился.

Что же касается магических словосочетаний «апдейт Яндекса» и «апдейт Гугла», здесь никакой разницы тоже нет. Это изменение в базе данных поисковиков, в результате которого рейтинг вашего сайта может поменяться – подняться в поисковой выдаче или, наоборот, опуститься, а соответственно изменятся и параметры тИЦ и PR.

Чаще всего этот термин можно услышать в кругу SEO-оптимизаторов

Особенности апдейта в Яндексе и Google

SEO-оптимизатор, занимающийся продвижением сайта, обязан знать алгоритмы работы поисковых систем Яндекс и Google. И особенно – знать, когда происходят апдейты их баз данных.

При этом особенность Яндекса кроется в статической выдаче. Иными словами, рейтинг сайтов в этой поисковой системе обновляется периодически, через определенный промежуток времени – раз или два в неделю.

Поисковая система Google работает иначе, апдейт здесь динамический, и позиции сайтов могут меняться несколько раз в день.

Виды апдейта

Стоит отметить, что алгоритм ранжирования сайтов поисковыми системами может меняться. Говоря проще, это формула, по которой определяются параметры ранжирования. Ее изменение – необычайно важно для SEO-оптимизаторов, так как влечет за собой существенные перемены в рейтинге сайтов по определенным запросам.

  • Текстовый апдейт – наиболее распространенный вид апдейта контента сайта, его текстового наполнения.
  • Ссылочный апдейт – этот вид апдейта работает со ссылками, ведущими на определенный сайт. Если на конкретный сайт ссылаются другие ресурсы, поисковый робот это учтет. Особенно в том случае, если ссылающиеся сайты крупные и имеют высокий рейтинг.
  • Апдейт ТИЦ и PR – предусматривает обновление показателя Page Rank  у Google и тематического индекса цитирования у Яндекса.
  • Favicon update – апдейт социальных иконок «Favicon», отображающихся в результатах поиска поисковой системы, а также в строке поиска браузера, в том числе и в его закладках.
  • Апдейт зеркальщика – это апдейт склейки доменов. Из базы поисковой системы периодически удаляются сайты-клоны, с идентичным наполнением. «Зеркала» не отображаются в выдаче, а если основной сайт не задан, то робот сам определяет его.

По большому счету, апдейты играют важную роль для SEO-оптимизатора. Они влияют на ранжирование сайтов и особенность их продвижения по определенным запросам. Говоря проще, апдейты мешают оптимизатору, борются с его начинаниями и всячески мешают искусственному выводу сайта в TOP-10.

Новый апдейт – это новые правила, которые раз за разом приходится учить SEO-оптимизатору, чтобы сайт оставался на плаву.

© Студия копирайтинга «Ямбус»