Исследуем фильтры в WordPress Вступительная часть, CMS и движки для сайтов

Тема нашей статьи — Исследуем фильтры в WordPress Вступительная часть, CMS и движки для сайтов. Вы узнаете мнения и рекомендации специалистов, почитаете настоящие отзывы и увидите фотографии.

Чтобы хорошо продвигать сайт в поисковых системах, необходимо понимать, как они работают. Алгоритмы поисковиков тщательно скрываются их владельцами. Откуда же можно брать информацию о том, как функционирует поисковик?

Системы поиска возникли не внезапно, а на основе больших наработок в области поиска информации (дисциплина «Information Retrieval»). За счёт этого большинство базовых алгоритмов размещено в научных работах, и системы поиска используют их с небольшими вариантами в своих программах. Работающие поисковиков нередко рассказывают о деталях в интервью или на специализированных форумах. Специалисты по продвижению сайта, общаясь на форумах, дают много советов которые пойдут на пользу.

Но чтение форумов и научных статей — не один метод. Поисковики можно изучать и проводит эксперименты с ними. Самый стандартный способ — изучение кода страниц, которые попадают в верхние 10 результатов поиска.

Что у них общего? Как эта страница не по теме смогла пробиться наверх? Почему была выдана собственно эта страница сайта?

Найденные ответы прояснят картину и приоткроют детали используемого алгоритма. Новички иногда пытаются отыскать сказочный процент ключевых слов в тексте или «правильную» длину заголовка, усредняя данные страниц, стоящих на первых местах. Но полученные числа напоминают не философский камень, а орудие пролетариата, булыжник.

А а все потому, что все факторы ранжирования (а их десятки) используются во связи, и потому изучение одного из них без учёта других не даёт никакой полезной информации. Применение методов многомерного статистического анализа может облегчить задачу, впрочем это тема отдельного большого рассказа. Иногда прояснить картину может эксперимент. Создав десяток страниц с разной плотностью ключевых слов и установив их на новых только что созданных доменах (чтобы убрать влияние чужих факторов), в поисках можно заметить, какая из страниц окажется выше по избранному запросу. Кажется, волшебный ключ найден, но это не так. Кто сказал, что совершенная плотность ключевых слов одинакова для самых разных запросов, для страниц разной длины? А установить эксперименты с учётом всех факторов в разумные сроки невозможно. Приходится снова возвращаться к исследованиям.

Я дам пару советов по раскрытию алгоритмов. Во-первых, изучайте работу конкретного алгоритма, а не ищите всю «формулу релевантности» сразу. Второе, ищите подобные варианты запросов и соответствующих им страниц, где изучаемый алгоритм проявляется по максимуму чистом виде. Например, вас тревожит влияние веса сайта по алгоритму PageRank на поиск. Как убрать иные факторы? Поищите страницы с очень похожим текстом (полностью дублирующие нельзя, чтобы Google не исключил одну из них из поиска). Выберите из текста такое основное слово, какое было бы одинаково оформлено в двух вариантах, содержалось в одних и тех же элементах страниц (заголовок, текст, мета-теги). Слово (или фраза) должно быть довольно редким, чтобы не потребовалось искать страницы среди миллионов других, но при этом довольно популярным, чтобы в результатах не были выданы только эти две страницы. И т. д. Задайте запрос и сравните позиции в поисках. Чем ближе они окажутся, тем меньше влияние PageRank по этому запросу. Повторите подобный поиск с десятком других пар страниц, чтобы убрать случайные факторы. Сравнивая полученные результаты, во многих случаях можно сделать выводы о том, насколько важен тот или остальной фактор и в каких вариантах он применяется. Самое главное, не забывайте думать.

Поисковики применяют те или иные факторы не для красоты формулы, а чтобы результаты поиска были лучше. Результативность поиска принято оценивать по двум основным критериям: полноте и точности. Чем больше процент релевантных (соответствующих запросу) документов среди всех найденных, тем выше точность. Чем больше процент числа найденных документов среди всех документов, что хранятся в базе поисковика, тем лучше полнота. Конкретную реализацию алгоритма оценивают ещё по ресурсоёмкости поиска, как с точки зрения объёма хранимых данных, так и с точки зрения затрат машинного времени. Только если обнаруженный фактор ранжирования или его детали способны сделать лучше эти показатели, не вызвав резкого увеличения потребности в ресурсах, они правдоподобны.

Итак, методы изучения алгоритмов поисковиков сводятся к следующему: чтение научных статей об методах поиска и специализированных форумов; изучение страниц из верхушки результатов поиска; исследование конкретного алгоритма по максимуму чистом виде; применение статистического анализа; проверка обнаруженных зависимостей на улучшение полноты, точности или снижение ресурсоёмкости.