Регистрация

Алгоритм поисковой системы

Алгоритм поисковой системы (ПС) — совокупность математических формул, согласно которым ПС проводит ранжирование web-сайтов (расставляет их в выдаче в порядке убывания релевантности — соответствия запросу пользователя).

Результат ранжирования зависит от следующих факторов:

  • Время существования интернет-ресурса;
  • Доменная зона и уровень;
  • Общая авторитетность сайта и авторитет его страниц у ПС;
  • Востребованность, объем и частота обновления данных на ресурсе. Соответствие информации запросам, количество ключевых слов в ней;
  • Формат и стиль ключевых запросов, заголовков и подзаголовков;
  • Использование метатегов и файла robots.txt;
  • Число уровней ресурса — его глубина;
  • Расстояние от начала текста до ключей, частота запросов пользователей по каждому из них;
  • Внешняя ссылочная масса. Полный список этих параметров и все принципы работы алгоритма ПС не разглашаются, чтобы избежать искусственной накрутки позиций сайтов.

Виды алгоритмов ПС

По принципу действия различают:

  • Алгоритмы прямого действия — ПС на основании запроса пользователя ищет информацию в своем индексе (базе данных сайтов), анализируя все находящиеся там документы. В таком случае выдача получается наиболее релевантной, но ПС выполняет слишком большой объем работы.
  • Алгоритм обратного действия — для ускорения работы ПС данные в индексы преобразовываются в текстовые файлы. В них находятся слова, используемые на сайтах, и координаты соответствующих ресурсов. Релевантность в итоге несколько ниже, чем при использовании алгоритма прямого действия.

ПС регулярно обновляют факторы ранжирования и параметры их учета, т. е. производят апдейты алгоритмов.

Алгоритмы Google

Первым обновлением алгоритма Google можно считать введение PageRank — индекса цитирования, характеризующего авторитет сайта по количеству качественных ссылок с других ресурсов, ведущих на него. Некоторые из других апдейтов Google:

  • 2000 год — введен алгоритм «Hilltop». Расчет PageRank стал точнее;
  • 2001 год — Google разделяет сайты на коммерческие и некоммерческие;
  • 2003 год — «Флорида». Из выдачи исключены страницы с большим количеством одинаковых анкоров и переспамленные по ключевым запросам;
  • 2006 год — «Орион». Проверяется качество индексируемых сайтов;
  • 2009 год — «Caffeine». Google индексирует больше страниц и быстрее производит поиск;
  • 2011 год — «Panda». Происходит оценка качества информации на сайтах;
  • 2012 год — «Penguin». Ведется борьба с неестественными обратными ссылками;
  • 2014 год — «Голубь». Выдача по геозависимым запросам становится более локальной и информативной. Периодически происходят обновления алгоритмов «Панда» и «Пингвин» — Google борется за качественные сайты без покупных ссылок.

Алгоритмы Yandex

Яндекс открывает больше параметров работы алгоритмов, чем Google. C 2007 об изменениях в их работе информируют вебмастеров, а также алгоритмам начинают давать имена:

  • 2008 год — «Магадан» и «Находка». Увеличение числа факторов вдвое и борьба с перенаправлением на другие сайты.
  • 2009 год — «Арзамас» и «Снежинск». Понимание неоднозначных слов, жаргона, словоформ и негативное отношение к резкому росту ссылочной массы.
  • 2010 год — «Обнинск» и «Краснодар». Геонезависимые запросы обрабатываются лучше и вводится «Спектр» — учет интересов, явно неуказанных в запросе.
  • 2011 год — «Рейкьявик». Принимаются во внимание языковые предпочтения.
  • 2012 год — «Калининград». Персонализация поиска: предоставление подсказок на основе статистики предыдущих запросов.
  • 2013 год — «Дублин». Учитывается сиюминутный интерес пользователя;
  • 2015 год — «Минусинск». Определяется качество ссылочной массы и количество покупных ссылок.

История обновления алгоритмов может подсказать оптимизаторам, какими будут дальнейшие изменения.

Лучшее видео в категории «Алгоритм поисковой системы»

Новые видео

Еще видео