Алгоритмы ПС (поисковых систем) — математические формулы, определяющие порядок расположения сайтов в выдаче по запросу.
Получив ключевое слова в запросе, поисковая система определяет, какие сайты более других подходят под цели ищущего. При этом анализируется контент на сайте, находит в нем соответствующую запросу фразу или слово и принимает решение о том, как высоко на странице будет располагаться сайт. Алгоритмы имеют общие принципы. Но в целом каждая поисковая машина руководствуется своими.
Алгоритмы Google
Появление первого алгоритма связано с моментом, когда у Google изобрел механизм поиска Индекс Цитирования. Именно с него началось определение позиции сайта исходя из того, как много других сайтов ссылается на страницу. Позднее такой момент стал стандартным для всех поисковиков. Однако Google, как самый первый, получил наибольшую популярность благодаря нововведению.
Главным для Google первоначально был PR конкретной страницы. Однако вскоре стали учитываться и другие моменты. Постепенно стало учитываться внутреннее наполнение страницы, соответствие регионов места, откуда поступил запрос и региона, к которому номинально относится сайт. И актуальность данных на странице.
В 2000 году появился алгоритм Hilltop, с введением которого стало удобнее определять PR. А в 2001 поисковик уже начал отделять коммерческие страницы от некоммерческих. Тогда же ссылки с трастовых сайтов стали значить больше, чем обычные.
2003 год стал трудным для оптимизаторов. На алгоритм «Флорида» уже не действовали два самых любимых их метода: большое число ключевиков на странице и повторяющиеся анкоры.
С 2006 года поисковые машины стали учитывать качество страниц, которые индексируются. Это произошло с внедрением алгоритма Орион.
«Austin», алгоритм 2007 года, существенно поменял поисковую выдачу.
Алгоритм 2009 года «Caffeine» заметно улучшил поиск системы, а также увеличил количество проиндексированных страниц.
Качественные тексты стали более важным плюсом страницы с точки зрения продвижения после 2011 года, когда заработал алгоритм «Panda».
Алгоритмы Яндекса
В 2007 году Яндексом впервые было сделано заявление об изменениях в механизмах ранжирования. А на следующий год компания впервые представила официально новый алгоритм. 8SP1 назывался он. До этого алгоритмы Яндекса никак не назывались, да и о том, какие изменения произошли, приходилось узнавать только опытным путем. , до этого алгоритмам не присваивали никаких имен, а внесенные в алгоритмы изменения оптимизаторы могли определить только методом проб и ошибок.
В том же 2008, 16 мая, алгоритм Магадан научил поисковые системы перерабатывать транслитерации и аббревиатуры.
Последний алгоритм 2008 назывался Находка, благодаря ему в результатах поиска стали находиться сайты информационного типа, наподобие «Википедии».
10 апреля 2009 года алгоритм Арзамас (или Анадырь) заставил поисковые машины определять региональное соответствие запроса и фильтровать сайты со всплывающими баннерами. А в ноябре был введен алгоритм Снежинск, с которым пришел метод обучения поисковых машин Матрикснет. Также он начал ранжировать страницы по новым параметрам, что заставило оптимизировать сайты полностью.
Наконец, в декабре 2009 публике был представлен алгоритм Конаково. Он разделил для поисковиков Россию на 19 регионов и 1250 городов.
Сентябрь 2010 ознаменовался внедрением алгоритма Обнинск. Он работал с текстами на сайте: оценивал его и устанавливал авторство. Высокая частота ключевиков воспринималась как спам. Что несказанно повысило спрос на труд копирайтеров. Также искусственные ссылки перестали оказывать влияние на позиции сайта.
В декабре был выпущен Краснодар со специальной технологией Спектр. Теперь все запросы делились на объекты (имя, модель) и систематизировались (техника, произведение искусства).
17 августа 2011 начал работу алгоритм Рейявик. Выбор иностранного города для наименования не случаен: этот алгоритм оптимизировал работу с запросами на английском языке.
Характеристика
Развитие алгоритмов поисковых машин напрямую связано с работой оптимизиатора. Если на заре поисковых систем достаточно было обработать заголовки сайта, наличие точного вхождения в его контенте, то сегодня все не так. Множество методик продвижения и большое число сайтов со спамом заставили искать новые параметры.