Поисковый алгоритм — это крайне сложный алгоритм, который позволяет ранжировать сайты так, чтобы давать пользователю наиболее релевантную выдачу. Реализация этих алгоритмов насчитывают мегабайты кода (по последним данным алгоритм Яндекса весит 15 мегабайт кода). Большой объем и сложность алгоритма в первую очередь связана с тем, что поисковой машине очень сильно и много приходиться бороться с черным SEO.
В российском интернете есть две крупные поисковые машины: Яндекс и Google. Они используют разные алгоритмы, но в большинстве моментов факторы, по которым они оценивается сайт совпадают. Например, обе поисковых машины учитывают следующее
- качество, возраст и уникальность контента;
- наличие ключевых слов на странице;
- наличие и количество бэклинков (входящих ссылок), а также качество доноров этих ссылок;
- поведенческие факторы пользователей;
- структура сайта;
- внутренняя оптимизация сайта;
Я назвал только самые важные моменты. Вы можете прочитать про факторы ранжирования в Яндексе, которых я набрал более 100 штук, чтобы лучше понимать особенности поисковых алгоритмов.
Поскольку интернет непрерывно изменяется, то регулярно должна изменяться и поисковая выдача. Поэтому регулярно происходят апдейты — обновления всех показателей.
Поисковые алгоритмы кардинально меняются довольно редко: примерно раз в квартал. Это довольно часто, поскольку ещё в 2007-2012 годах они менялись лишь 1 раз в год.
Читайте также:
• Как составить семантическое ядро
• Что такое SEO оптимизация
• Какой бывает обмен ссылками
• Как сделать перелинковку на сайте
• Что такое индекс