Суть алгоритма — на этапе индексации URL определять дополнительные свойства документа, выразив в численном виде соответствие текста страницы заранее известным и часто употребимым словосочетаниям. Заявлено, что нововведение коснется низкочастотных запросов, которые составляют около трети от результатов поиска.
Из-за отсутствия статистики по таким «редким» запросам, качество поиска по ним страдает. Фактически этот алгоритм будет вытаскивать из небытия документы, которые не содержат длинный запрос в прямом виде, но являются близкими по смыслу к запросу пользователя.
Для маркетологов и SEO-специалистов важно, что их оптимизированные сайты будут конкурировать не только друг с другом, но также и с сайтами, которых вообще не касалась рука оптимизатора.
Конечно, это касается только низкочастотных запросов и оценка доли запросов как 1/3 от потока — это оценка сверху. Но в ближайшее время некоторые сайты могут столкнуться с оттоком низкочастотного трафика. При этом любые численные прогнозы пока делать бессмысленно.
Н-граммы более информативны, чем отдельные слова, поддаются классификации и позволяют существенно расширить количество факторов для построения поиска по смыслу. Я рад, что «Яндекс» идет в правильном направлении и на высоком уровне внедряет актуальные методы, позволяющие повысить скорость и качество поиска.