среда, 25 января 2012 г.

Как Google+ использует SEO, чтобы украсть поиск с Facebook и Twitter



Сайрус Шепард – независимый SEO-консультант, с 2010 работает в компании SEOmoz. Основные направления его деятельности – создание качественного контента и способов его оценки.

Превосходная SEO-стратегия Google Вы замечали кое-что необычное в своем профиле на Google+? У вас он тоже очень хорошо ранжируется в результатах поиска Google на ваше имя?

Мои коллеги обратили внимание, что их профили на G+ теперь стоят выше в поиске, чем другие электронные аккаунты, с которыми они работали годами. Мой собственный профиль на Google+, которому всего 5 месяцев, занимает второе место по моему имени. Он сейчас ранжируется выше, чем мои Twitter и Facebook вместе взятые, несмотря даже на то, что этими сервисами я пользуюсь гораздо чаще.

Ранжируются не только профили. Также в результатах поиска часто можно встретить и отдельные посты в Google+.



Ранжирование по именам людей – одна из заветных целей поиска, как для Амазона ранжирование каждой опубликованной книги. Учитывая, что в мире 7 миллиардов людей, ранжирование хотя бы небольшой части на первой странице – это прибыльно.

Новости поискового маркетинга 2

Мэтт Каттс о длинных цепочках редиректов На этот раз руководитель группы Google Webspam ответил на вопрос о негативном влиянии на индексацию и ранжирование сайта при использовании большого количества редиректов, ведущих на одну страницу. Мэтт Каттс поведал о том, что один-два редиректа не навредят сайту, поисковый робот не испугается и цепочки из четырех-пяти звеньев. Но большее количество редиректов пауку будет не по зубам. Мэтт рекомендует использовать по возможности не более одного редиректа. Еще один немаловажный момент – нельзя смешивать 301-й и 302-й редиректы в одной цепочке. Такой набор введет в заблуждение поискового робота, и есть большой шанс, что он не сможет правильно понять такой путь. Подробнее о цепочках редиректов смотрите в подкасте Мэтта Каттса SaveFrom.net.

«Яндекс» может подорожать до 9 млрд долларов По словам аналитиков банка Goldman Sachs, стоимость «Яндекса» может составить более 9 млрд долларов. Есть вероятность повторного размещения акций «Яндекса» на бирже, но это связано с определенным риском, так как темпы роста экономики России снизились. Также не все гладко на рынке рекламы – снизились общие объемы продаж и возросла конкуренция с Google. Установлена целевая цена акций на год – $28,8 при капитализации $9,3 млрд. В ответ на отчет Goldman Sachs акции показали рост почти два процента, но за последние три месяца они упали почти на восемь.

HTML5 vs. SEO

Появление новой версии языка разметки страниц HTML5 – это если не революция, то точно огромный скачок в его эволюции. Но что это означает для SEO и сайтовладельцев?



Язык HTML был создан еще в 1990 году, до недавнего времени использовалась его последняя версия – HTML4, которая вышла в свет в 1997 году. Прогресс не стоял на месте, что решалось с помощью различных дополнений от сторонних разработчиков – Java, Flash, Air. Эти надстройки позволили реализовать для пользователей множество технологий и не отставать от прогресса. Но это не являлось выходом из ситуации, и в 2004 году разработчики из группы создания Гипертекстовых Прикладных Технологий в Веб (WHATWG) приступили к работе над новой версией HTML. Стоит отметить, что разработка еще продолжается, но плоды нового стандарта HTML активно внедряются уже сейчас.

Основными целями создания нового стандарта HTML стали внедрение различных технологий средствами самого языка, упрощение кода и возможность создания более интерактивных и функциональных сайтов.

вторник, 24 января 2012 г.

Счетчики: анализ поведения посетителей


Система статистики эволюционировали из счетчиков посещаемости, и их часто до сих пор так называют. Однако учет количества посетителей — лишь одна из десятков их функций.

Зачем нужно пользоваться системами статистики?

Информация о поведении посетителей позволяет экономить рекламный бюджет и увеличивать прибыль, извлекаемую из каждого посещения сайта. Статистика позволяет выразить эффективность сайта и его страниц в цифрах. В руках у маркетолога оказывается объективный инструмент, и ему остается только придумывать способы улучшения показателей, ставить ТЗ исполнителям и измерять изменения. Если последовательно повторять этот цикл, у сайта не будет никакой возможности не стать высокоприбыльным инструментом бизнеса. (Разве что если маркетолог или сайтовладелец совсем не разбираются в том, что такое «качественный сайт»).

Какие бывают системы статистики?

Релевантность 2.0



  • SEO (Search Engines Optimization) – это оптимизация сайтов под поисковые системы.
  • Цель SEO – сделать конкретную страницу релевантнее конкретному запросу, чем все остальные страницы в интернете.
  • Основной метод SEO – экспериментальное определение наиболее важных для алгоритмов поисковых систем параметров и их наращивание (или изменение под требуемую норму).
Уходит время, когда сайт любого качества мог относительно просто, недорого и быстро попасть в ТОП. Фирмы, у которых недостаточно сил и средств создать сайт-лидер отрасли покидают естественную выдачу, становясь клиентами контекстной рекламы. В этом, кстати, ничего плохого нет – рекламные инструменты подбираются в соответствии с целями и возможностями: контекстная реклама — идеальный инструмент для привлечения посетителей на ресурс, который по каким-либо причинам пока не попал в первую десятку. Серьезные же компании заинтересованы в долговременном лидерстве, которое с точки зрения маркетинга выражается в постоянной «оккупации» лучших мест (ТОП3 в естественной поисковой выдаче , спецразмещения в Яндекс.Директ и т.д.) по профильным поисковым запросам.

Основы SEO-копирайтинга

Раньше можно было без особых проблем вывести страницу в ТОП10 любого поисковика по запросам, которых нет в ее тексте. Например, в 2006-ом сайт microsoft.com/ru стабильно держался в первой десятке «Яндекса» по запросу «геморрой». Это шутка оптимизаторов, а не магия: просто было закуплено много ссылок с соответствующими анкорами.

В 2011-ом такой прием может сработать только для низкочастотных или слабоконкурентных среднечастотных запросов, и он всегда вызывает значительное повышение ссылочного бюджета. Почему это так? Дело в том, что теперь поисковики рассматривают сайт в совокупности всех контент-факторов:

  • внешних – анкоры входящих ссылок с ключевыми словами;
  • внутренних – контент страниц.
Эффективное и экономичное продвижение подразумевает размещение на целевых страницах SEO-контента. Без него никуда – вопрос только в том, где взять нужный объем хороших текстов. Эта статья пригодится и тем, кто собирается писать тексты самостоятельно, и тем, кто будет их заказывать.

Советы по выбору домена и хостинга


Не все сайтовладельцы знают, что доменное имя привычного вида – например, www.seopult.ru – это псевдоним. Он для удобства назначается с помощью системы DNS (domain name system). Реальный же адрес (IP-адрес) представляет собой последовательность из четырех чисел (0-255), разделенных точкой, которую трудно, да и бессмысленно запоминать (к примеру, IP-адрес seopult.ru – 217.197.124.53). К счастью, современный уровень сервиса регистраторов доменных имен и хостинг-провайдеров снимает необходимость разбираться в технических тонкостях. Все необходимые для регистрации и продления домена, размещения его на площадке хостинг-провайдера, переноса сайта с сервера одного хостера на другой можно проделать без глубокого понимания «матчасти». В этом нет ничего зазорного: совсем не нужно уметь чинить телевизор, чтобы его смотреть – и даже вести телепередачи.

Итак, сегодня мы рассмотрим основные моменты, связанные с доменами и хостингом. Для опытных вебмастеров это, в основном, тривиальные вещи, но начинающим эти сведения очень пригодятся.

Как зарегистрировать домен?

Настройки веб-сервера


В выпуске №11 мы рассказывали о том, что можно (и нужно) делать c веб-сервером при оптимизации сайта. Но за скобками остался важный вопрос: «Как все это делать?». На семинарах в Обучающем Центре CyberMarketing мы выяснили, что многие знакомы с базовыми принципами продвижения сайта, но когда речь заходит о выполнении конкретных действий (например, «настройте в .htaccess редирект по определенному правилу»), почти все начинают «плавать» – знаний не хватает.

При этом нужно понимать, что создание качественной входящей ссылочной массы (то есть работа с внешними факторами ранжирования поисковых систем) автоматизируется Системой SeoPult, то внутренняя оптимизация – дело вебмастера и владельца сайта. Да, SeoPult выдает рекомендации по доработке ресурса, но при этом выполнить их должен администратор ресурса. К счастью, практически все пользователи Системы понимают необходимость выполнения самой важной рекомендации – оптимизации контента по принципу «оригинальность + достаточный объем + вхождения ключевых словосочетаний». Однако есть не столь явные, заметные и понятные моменты, которые оказывают, тем не менее, очень серьезное влияние на процесс вывода сайта в ТОП. Например, настройки веб-сервера, если рассматривать их с точки зрения оптимизации, определяют наличие или отсутствие дублей в индексах поисковых систем – а это одна из самых важных вещей во всей внутренней оптимизации.

Анализ слип-факторов

Что такое «слипы»?
Слип (от английского sleep, что значит «сон») – это состояние, в которое переходят купленные ссылки, когда на вашем аккаунте в Системе SeoPult заканчиваются средства. Все станет понятно, если представить себе покупку и съем ссылки пошагово:
  1. SeoPult с помощью своих алгоритмов выбирает из баз ссылочных бирж страницу-донора, которая принесет пользу для продвижения вашего проекта. На биржу посылается сигнал с информацией о том, какую ссылку нужно поставить на данной странице (целевая страница и анкор). Биржа с помощью своего кода, размещенного на странице-доноре, проставляет ссылку.
  2. Если все проходит успешно, начинается ежедневное списание стоимости размещения ссылки с вашего баланса в Системе SeoPult. Купленная ссылка может быть снята (и, в большинстве случаев, заменена новой), если:
    • страница-донор перестала существовать;
    • страница-донор не проиндексирована поисковыми системами за определенный период времени;
    • страница-донор перестала отвечать требованиям эффективности или требованиям ручного фильтра съема;
    • закончились деньги на вашем балансе в SeoPult (ссылка уходит в слип).

четверг, 19 января 2012 г.

Продвинутая оптимизация страницы



Рэнд Фишкин – президент и сооснователь SEOmoz, автор многих статей и обзоров, которые публикуются в различных авторитетных изданиях. Основные интересы Рэнда – SEO, интернет-маркетинг, стартапы и веб-приложения.

В этом выпуске Whiteboard Friday Рэнд подробно расскажет, как можно оптимизировать контент страницы. Здесь представлено пять продвинутых способов, позволяющих выйти за рамки традиционной оптимизации страницы и начать создавать релевантный и уникальный контент.

Как соотносятся фразы на странице? Посетителям нравится контент? Чтобы делать эффективный контент, который не только привлекает посетителей на страницу, но и повышает место сайта в результатах выдачи, необходимо нечто большее, чем просто немножко оптимизировать тэги и разбросать тут и там несколько ключевых слов.

Привет, фанаты SEOmoz. Представляем вам очередной выпуск Whiteboard Friday. На этой неделе мы поговорим о продвинутой оптимизации страницы. В частности, я расскажу вам о пяти способах выйти за рамки традиционного подхода «Я поставлю ключевое слово в тег заголовка и ключевое слово в URL».

Новости поискового маркетинга


Google: ссылки внутри тега iframe теперь имеют вес Как сообщает портал SearchEngines.ru, специалист в области SEO Майкл Мартинес смог доказать, что вес передается по ссылкам, которые размещены внутри тега iframe.

Майкл провел независимый эксперимент, в рамках которого была создана страница с фреймом на одном из старых и хорошо индексируемых сайтов. В анкоре этой ссылки содержался уникальный текст. Через некоторое время по запросу, содержащему часть текста анкора в кавычках и оператор «inanchor», Google стал находить страницу, на которую ведет экспериментальная ссылка.

30 изменений в поиске Google в декабре В официальном блоге Google был опубликован список из 30 изменений в поисковых алгоритмах Google.

Особенности кириллических доменов

До некоторых пор великий и могучий русский язык был под запретом в URL – «Яндекс.Бар» имел функцию запрета русской раскладки в адресной строке. Но справедливость восторжествовала – теперь плод трудов Кирилла и Мефодия можно увидеть в доменных именах. Но стоит ли использовать русскоязычные домены?..

Уже прошло немало времени с момента появления домена «.рф» – официально домен был делегирован в корневой зоне DNS 12 мая 2010 года. В первый день регистрации 260 тысяч доменов разошлись как горячие пирожки. Но до сих пор кириллица в адресной строке браузера для подавляющего большинства пользователей привычной так и не стала.




вторник, 10 января 2012 г.

Анализ слип-факторов

Что такое «слипы»?
Слип (от английского sleep, что значит «сон») – это состояние, в которое переходят купленные ссылки, когда на вашем аккаунте в Системе SeoPult заканчиваются средства. Все станет понятно, если представить себе покупку и съем ссылки пошагово:
  1. SeoPult с помощью своих алгоритмов выбирает из баз ссылочных бирж страницу-донора, которая принесет пользу для продвижения вашего проекта. На биржу посылается сигнал с информацией о том, какую ссылку нужно поставить на данной странице (целевая страница и анкор). Биржа с помощью своего кода, размещенного на странице-доноре, проставляет ссылку.

SEO-аудит своими руками (внутренние факторы)

Огромный интерес к рубрике «В ТОП без гирь», где публикуются SEO-аудиты, заставил нас задуматься о раскрытии основных методик проверки сайтов. Собственно, ничего секретного в них нет. Наоборот – чем больше сайтовладельцев смогут самостоятельно проверять свои ресурсы с точки зрения готовности к поисковому продвижению, тем выше будет результативность работы SeoPult.

Конечно, опытному специалисту гораздо легче найти «узкие места» и недостатки, но владелец сайта, пусть и новичок в SEO, обладает преимуществами – неограниченным запасом времени и высокой мотивацией.

Сегодня мы опишем технологию SEO-аудита, но рубрику «В ТОП без гирь» закрывать не будем. Наоборот, мы ждем более активного и осознанного участия читателей в обсуждениях. Аудит – та самая вещь, где «одна голова – хорошо, а две – лучше».

тИЦ и вИЦ – PageRank по-русски

Немного истории
В прошлом выпуске рассылки мы рассказывали о PageRank – базовом алгоритме определения авторитетности веб-страниц, который стал основой успеха Google. Хотя для большинства людей с высшим образованием это не новость, все-таки скажем в дополнение, что идея определения авторитетности по количеству цитирований далеко не нова. Пейдж и Брин просто адаптировали ее к конкретной задаче создания алгоритма для поисковой машины. Изначально же индекс цитирования как база данных с информацией по ссылкам между статьями появился еще в 19-м веке. Более точные количественные расчеты авторитетности ученых, статей и журналов (импакт-фактор) появились в 1960-х годах – и их можно называть общими терминами «индекс цитируемости», «фактор популярности» и так далее. Они отличаются по методикам расчета, но общий смысл примерно одинаков.

вИЦ – тот же PageRank, только в профиль

Итак, практически с самого начала истории «Яндекса» – точнее, с 1999 года, почти сразу после появления Google с его PageRank – в нем был показатель авторитетности страниц, рассчитываемый на основе перекрестных ссылок. В открытом виде он просуществовал три года – с 1999 по 2002, и в это время назывался вИЦ, «взвешенный индекс цитирования». Хотя, безусловно, с точки зрения точности терминологии его следовало бы называть «взвешенный индекс цитируемости». И по признаниям разработчиков «Яндекса», и по оценкам SEO-специалистов, вИЦ был полным аналогом PageRank. После 2002-го года показатель убрали из тулбаров, узнать его значение невозможно. Также информация о нем вытерта из базы помощи – фактически, «Яндекс» старается минимизировать внимание оптимизаторов к вИЦ. Тем не менее, даже после внедрения алгоритма машинного обучения «Матрикснет» базовый показатель авторитетности страниц вряд ли полностью потерял свое значение. Ссылочное ранжирование работает и будет работать еще очень долго, а вИЦ и PageRank – пусть и в закрытом от посторонних глаз и сильно видоизменившемся облике – продолжают оставаться столпами веб-поиска.

тИЦ – не только для «Яндекс.Каталога»

Итак, чтобы затруднить накачку показателей авторитетности, яндексоиды перевели вИЦ в подполье. Но вскоре он был дополнен новым открытым показателем – тематическим индексом цитирования (тИЦ), который существует в открытом виде до сих пор. Официальная позиция «Яндекса» такова: тИЦ нужен только для определения позиции сайта в «Яндекс.Каталоге». Тем не менее, существует очень существенная корреляция (это, нужно понимать, не прямая причинно-следственная связь) между присвоенным значением тИЦ и отношением «Яндекса» к нему при ранжировании естественной выдачи. Объяснение этому – принцип расчета тИЦ: почти то же самое, что и вИЦ, но учитываются преимущественно ссылки с тематически близких сайтов. тИЦ – это показатель сайта в целом, а не отдельных страниц (как PageRank и вИЦ). Следовательно, тИЦ – показатель тематической авторитетности, и влияющие на него факторы (ссылки с сайтов близкой тематики) являются одновременно факторами ранжирования естественной выдачи.

Итак, если вы продвигаете свой сайт в «Яндексе», за ростом тИЦ гнаться не стоит – от этой цифры вам не будет ни жарко, ни холодно. Тем не менее, его постепенное увеличение (апдейты идут регулярно, примерно раз в месяц) свидетельствует о накоплении качественной ссылочной массы.

На самом деле тИЦ нужен только в том случае, если вы хотите продавать ссылки со страниц своего сайта, потому что этот показатель является одним из основных в фильтрах закупки большинства SEO-специалистов.

Как увеличить тИЦ?

Культовый вопрос, в котором «тИЦ» приобрел коннотацию с более известным словом из трех букв. Его очень часто задают новички на форумах, при этом надеясь получить какую-то суперэффективную и супердешевую методику наращивания этого показателя для своих сайтов. К сожалению (или к счастью – тут уж как посмотреть), магического метода нет. Чтобы увеличить тИЦ, нужно наращивать качественную тематическую ссылочную массу.

Результат дают сайты-доноры с тИЦ > 10 (чем больше, тем лучше), присутствующие в «Яндекс.Каталоге» (это не обязательное, но желательное условие) и имеющие близкую к вашему ресурсу тематику (это важно не для продвижения в ТОП, так как с этой точки зрения роль тематичности ссылок не доказана, а именно для наращивания тИЦ!)

Обратите внимание, что ссылки с таких сайтов можно получить как платно (например, настроив нужным образом фильтры закупки в ручных режимах SeoPult), так и «бесплатно». Почему «бесплатно» в кавычках? Дело в том, что цена качественных платных ссылок обычно меньше цены уникального и интересного контента и PR-активности, которые требуются для появления «бесплатных ссылок».

Опасность устаревших методов

По запросу «как увеличить тиц» поисковики выдают много статей разного уровня адекватности, причем большая часть из них датированы 2008-м годом и ранее. Чаще всего в этих устаревших материалах рекомендуются «прогон» по базе каталогов и автоматический спам комментариями со ссылками в гостевых книгах и блогах. Использование этих методик в настоящее время может привести к санкциям со стороны «Яндекса». В лучшем случае можно потратить время и деньги, а получить дырку от бублика. В худшем – быстро и надолго упасть в результатах выдачи, потерять тИЦ и т.п. Будьте крайне осторожны со всеми методиками, не связанными с улучшением собственного сайта и наращиванием качественной ссылочной массы.


Выводы
Если вы не продаете ссылки со своих сайтов, не беспокойтесь о значении показателя тИЦ, а следите за позициями в выдаче, оптимизируйте сайт, наращивайте (с умом!) объем уникального контента и количество входящих ссылок с работающих площадок.
 

PageRank – вчера и сегодня


Совсем недавно, в двадцатых числах января, прошло, возможно, последнее публичное обновление показателя PR (PageRank). Google построил всю свою поисковую империю на этом – теперь уже классическом – алгоритме. В стэнфордских работах основателей компании, Брина и Пейджа, впервые появляется идея применить ссылочное ранжирование для решения задачи определения релевантности документа запросу.

Но в последние годы Google ушел далеко вперед от изначального содержания статьи «PageRank: ранжирование по признаку цитирования – упорядочивание интернета». То же произошло и с ИЦ (индексом цитирования) – примерно аналогичным PR алгоритмом «Яндекса». И хотя термины PR и тИЦ все еще применяются, а числовые значения показателей еще отдаются поисковыми системами, они потеряли определяющее значение. Теперь поисковые системы ранжируют документы по гораздо более сложным формулам, учитывающим тысячи факторов – см. нашу статью о применении в поиске систем машинного обучения («Матрикснет»).

SEO-словарь (часть вторая)


Мы продолжаем публикацию словаря SEO-сленга в рунете.


  • Внешние факторы ранжирования – учитываемые поисковой системой при ранжировании документов факторы, не относящиеся к структуре, контенту и прочим качествам самого сайта. К внешним факторам относится входящая ссылочная масса – количество и качество ссылок (и страниц-доноров этих ссылок) на продвигаемый сайт, а также список их анкоров. В отдельную группу факторов нужно вынести поведенческие. Соотношение во влиянии на успех продвижения – примерно 30% от внутренних, 30% от внешних и 30% от поведенческих (в разных тематиках соотношение может меняться).
  • Внутренние факторы ранжирования – качества сайта, влияющие на его оценку поисковыми системами. Это тематика и количество уникального контента, соответствующая правилам HTML-верстка, отсутствие каких-либо запрещенных технологий (типа клоакинга) и вирусов, правильно настроенные сервер и система управления контентом, логичная и соответствующая целям поискового продвижения внутренняя перелинковка и так далее. Все они работают по принципу, схожему со знаменитой «кадкой Тимирязева»: если открытая сверху бочка сделана из досок разной длины, то воды в нее можно налить ровно столько, сколько позволяет самая короткая. Очевидно, что преимущество от отличного контента на сайте (тексты с вхождениями ключевых слов – необходимое условие для успешного продвижения!) может быть уничтожено неправильными настройками редиректа или случайным закрытием всего раздела от индексации через файл robots.txt. Во внутренней оптимизации мелочей нет – нужно добиться идеального состояния сайта.

Внутренняя ссылочная структура, или перелинковка

В прошлых выпусках рассылки «Профессиональное продвижение сайтов. Пособие от SeoPult» мы уже обсудили такие аспекты внутренней оптимизации сайта, как HTML-верстка в соответствии с требованиями поисковых систем и технические настройки веб-сервера и системы управления контентом (CMS). В этом выпуске мы рассмотрим еще одну важную сторону оптимизации сайта – создание ссылочной структуры и принципы грамотной перелинковки.
  • Основная цель применения особых способов простановки ссылок между страницами внутри сайта – перенос «веса» с одних страниц на другие. Под «весом» здесь имеется в виду классический алгоритм PR (Google PageRank), а также прочие параметры, которые поисковые системы применяют для оценки «важности» («авторитетности») страницы и ее доли, передаваемой через конкретную ссылку. С помощью такого «переноса» веса можно повысить релевантность страниц определенным запросам, что никогда не бывает лишним в поисковом продвижении. Стоит отметить, что PR и вИЦ (который в настоящее время является скрытым параметром) рассчитываются для каждой из страниц сайта отдельно, а тИЦ – для сайта в целом (или для раздела сайта, если он выделен в отдельную категорию Яндекс.Каталога). тИЦ (тематический индекс цитирования) определяет позицию сайта в Яндекс.Каталоге и, вполне вероятно, учитывается в качестве коэффициента в формуле ранжирования – например, известно, что тИЦ может влиять на выдачу по некоторым запросам из-за асессорской выборки сайтов для нужд МатриксНет.

Фильтры «Яндекса»


Фильтр – это санкция поисковой системы, которая применяется к сайту или его конкретным страницам.

Результаты «попадания под фильтр» – исключение из индекса, понижение в результатах поиска, замедление роста позиций и добавление каких-либо других понижающих коэффициентов при ранжировании. Конкретная проблема будет определяться фильтром, под который сайту не посчастливится попасть.

Фильтров достаточно много, и они подстерегают тех, кто не соблюдает правила игры: то есть делает то, что не нравится поисковой системе. Изначально фильтры и баны задуманы, чтобы противостоять поисковому спаму – «черным» методам оптимизации (дорвеям, автоматически и полуавтоматически создаваемым сайтам, копипасту контента и так далее). Однако «Яндекс» несовершенен, и если фильтр наложен несправедливо, нужно обязательно связываться с техподдержкой для решения проблемы.

Фильтры учитываются в предварительном ранжировании (само слово «фильтр» подразумевает предварительный отсев), то есть при формировании ограниченного списка результатов, который уже ранжируется полной формулой «Матрикснета». Поэтому даже после внедрения идеологии машинного обучения жесткие фильтры остаются актуальными и важными для всех, кто занимается поисковым продвижением.