•  info@krasnoseo.ru
  •  +7 (861) 204-26-64
  •  decert2
Обратный звонок

Поиск Google по праву считается одним из лучших в мире. Безграничные ресурсы позволяют быстро индексировать изменения на сайтах и, соответственно, поддерживать выдачу в актуальном состоянии. Алгоритмы ранжирования Google учитывают огромное количество факторов, число которых постоянно растет, чтобы максимально улучшить качество пользовательского поиска.

Оглавление

В 1998 году родилась поисковая система Google. Именно тогда был придуман алгоритм Page Rank, результат поисковой выдачи которого основывается на ссылочной авторитетности сайтов. Алгоритм учитывал 2 параметра:

  1. Количество ссылок, которые ведут на страницу
  2. Page Rank ссылающихся страниц

В 2001 году запущен новый алгоритм «Hilltop», который стал учитывать динамический ранг и новизну документов, а также их географию. Результаты выдачи для коммерческих и некоммерческих запросов стали значительно отличаться.

В 2002 году был проведен первый официальный апгрейд поисковой системы.

В 2003 году в Бостоне прошла SEO-конференция, на которой был анонсирован целый ряд изменений в алгоритме поиска. Теперь обновления индексной базы станут ежемесячными.

Алгоритм «Dominic» меняет всю систему подсчета внешних ссылок (запуск ботов Deepcrawler и Freshbot). «Cassandra» затрагивает проблемы качества ссылок и убирает из поисковой выдачи сайты со скрытыми ссылками и текстами. «Esmeralda» было последним месячным обновлением, которое принесло с собой новую систему изменений поиска Everflux. Алгоритм «Fritz» позволил проводить модернизацию индекса в любой момент времени, а не только большими блоками.

Первым сложным алгоритмом стал «Florida. Он изменял выдачу, игнорируя популярные в то время методы продвижения сайтов (использование повторяющегося анкора и огромное количество ключевых слов на странице). Этот алгоритм попросту исключал из поисковой выдачи эти страницы.

В том же году выходит «Supplemental Index» (Дополнительный индекс или «сопли»), теперь Google индексирует гораздо большее количество документов, но часть из них попадает в раздел «Дополнительные результаты».

В 2004 году выходит «Austin» - дополнение к алгоритму «Florida», расширяющее его возможности. Этот алгоритм повышает требование к релевантности страниц. Поэтому страницы, излишне наполнение ключевыми словами и невидимым текстом, понижаются в поисковой выдаче.

Следом выходит «Brandy» и Google начинает разбирать явные и скрытые синонимы, поэтому анализ ключевых слов стал проводиться иначе.

В 2005 году появляется параметр «Nofollow», который разработан совместно с Microsoft и Yahoo. Этот атрибут создан для улучшения контроля качества внешних ссылок и борьбы со спамом.

Также в этом году появились «Bourbon» и «Allegra», но изменения, которые они внесли в ранжирование поиска, были не совсем понятны. Предположительно, они были направлены на борьбу с дублированным контентом (зеркалами) и некачественными ссылками.

В июне 2005 года Google начинает использовать персонализированный поиск, который основан на автоматической адаптации поисковых результатов согласно истории предыдущих запросов пользователя.

Целью алгоритма «Jagger», который вышел в октябре, стали ссылочные фермы и некачественные платные ссылки.

В Декабре алгоритм «Big Daddy» повлиял на развитие покупки, обмена и продажи ссылок. Кроме того, изменился общий подход ко многим техническим вопросам – редиректу, канонизации и т.д.

В 2006 году Google ввел алгоритм «Orion», который был направлен на повышение качества поиска и был основан на отборе и демонстрации страниц максимально соответствующих поисковому запросу. Одновременно стало учитываться и качество индексируемых ресурсов.

В 2007 году вышел алгоритм «Buffy», который назвали убийцей спама. По сути он являлся просто очередным апгрейдом, внедрившим необходимые накопившиеся изменения. Также было проведено обновление страницы выдачи, которая теперь стала дополняться новостями, изображениями и видео.

В 2008 году вышли алгоритм «Dewey», который не внес значительных изменений, и «Suggest», благодаря которому под строкой поиска стал появляться предполагаемый список вариантов запроса.

Алгоритмом «Vince», в 2009 году, были введены незначительные изменения, и Google стал более лояльным к крупным брендам. Google, совместно с Microsoft и Yahoo, объявил о начале учета тега Rel-Canonical, который служит для борьбы с дублями страниц, не оказывая негативного влияния на пользователей. Обновления индексной базы теперь идут в режиме реального времени.

В 2010 году запущено обновление Google Places, которое вносит изменения в локальное SEO и предоставляет новые возможности для размещения местной рекламы. Алгоритм «May Day», который вышел в этом же году, повысил качество выдачи по длинным низкочастотным запросам. Основная роль отводится релевантности, внутренней оптимизации и качеству страниц, а не авторитету и трасту домена.

Также в 2010 году вышел алгоритм «Caffeine», который использовал новую систему индексирования, генерирующую новые результаты с потрясающей скоростью (значения менялись несколько раз за день). Формула расчета релевантности страниц при введении этого алгоритма не сильно изменилась. Стало учитываться содержание контента и скорость обновления сайта, его внутренняя оптимизация. Появляются санкции за спам и технические проблемы сайта.

В этом же году Google вводит ряд обновлений, которые дают возможность получать сразу несколько результатов в строке поиска, формировать страницу выдачи «прямо на глазах», используя поисковые подсказки, посмотреть посадочную страницу не посещая сайт, используя мгновенный просмотр и т.д.

В 2011 году запущен алгоритм Google «Panda», который периодически обновляется (последнее на момент написания статьи, 27 обновление, было сделано 29 сентября 2014 года). Это обновление становится одним из самых масштабных.

«Panda» оценивает страницы по следующим пунктам:

  • Уникальность наполнения;
  • Шаблонность текстов, созданных под ключевые фразы;
  • Наличие орфографических, стилистических и грамматических ошибок в текстах;
  • Соответствие размещенной рекламы к общему наполнению сайта;
  • Соответствие тегов к общему содержимому сайта;
  • Чрезмерное количество ключевых слов в тексте;
  • Качество ссылок;
  • Поведенческие факторы посетителей сайта (время просмотра страниц, процент возврата на сайт и другие).

В 2012 году появляется алгоритм «Page Layout», который способен распознавать полезность контента на первом экране и структуру страницы. При чрезмерном заполнении страницы рекламой и логотипами она получает меньший приоритет в выдаче.

Алгоритм «Venice» стал учитывать географическую локализацию запросов и показывать страницы, максимально приближенные к пользователю.

24 апреля 2012 года появился Google «Penguin», открыл новую страницу в оптимизации. Под действие алгоритма попали сайты с некачественными ссылками, а также пингвин получил способность анализировать количество и скорость изменения ссылочной массы.

Основное назначение - борьба с поисковым спамом, а именно:

  • Скрытый текст и скрытые ссылки;
  • Скрытая переадресация;
  • Отправка автоматических запросов в Google;
  • Перегрузка страниц ключевыми словами;
  • Дубли контента.

Это основные пункты. Алгоритм работы Penguin заключается в понижении всех или части запросов по странице на 5-50 позиций. Алгоритм запускается ежедневно, повторные проверки проводятся каждые два дня.

2013 год был ознаменован алгоритмом Hummingbird, который произвел очеловечивание поиска. Результаты поиска стали более релевантными и стали опираться не только на ключевые слова, но и на синонимы поискового запроса.

В 2014 году вышел алгоритм «Pigeon», который показывает наиболее полезные для локального пользователя результаты поиска. В отличие от «Panda» и «Penguin» он не накладывает штрафных санкций.

Также в 2014 году вышел алгоритм «Pirate», который нацелен на борьбу с пиратским контентом.


Смотрите также: Алгоритмы поисковой системы Яндекс