Актуальные фильтры Яндекса. Как проверить «Новый» текстовый фильтр Яндекса — появился удобный бесплатный онлайн-сервис

Здравствуйте, постоянные и случайные посетители блога!

Сегодняшняя тема статьи посвящена серьезному вопросу – рассмотрению фильтров поисковых систем, их симптомов, причин наложения и как избежать попадания под фильтры.

Сразу отмечу, что рассматриваться будут фильтры двух поисковиков – Яндекса и Гугла, т.к. трафик с остальных пренебрежимо мал. У каждой поисковой системы есть свои фильтры со своими алгоритмами, но в целом они очень схожи. Мы будем рассматривать фильтры Яндекса отдельно от фильтров Гугла.

Эта статья посвящена фильтрам Яндекса. Яндекс уступает Гуглу по количеству фильтров – это хорошо для вебмастеров. Второй плюс для владельцев сайтов заключается в том, что у них есть шанс написать в тех. поддержку поисковика и спросить, находится ли их сайт под фильтром, на что можно получить хоть какой-то ответ.

Фильтр АГС

Пожалуй, самый известный и распространенный фильтр, разработанный и со временем усовершенствованный Яндексом.

АГС расшифровывается как Анти Говно Сайт . Такое жаргонное и резкое название – заслуга интернет-сообщества вебмастеров, которые принялись делить сайты на СДЛ (сайты для людей) и ГС (Говно сайты). Эта аббревиатура «ГС» так глубоко вошла в интернет, что даже работники яндекса решили использовать этот термин для названия фильтра.

Как можно догадаться, ГС – сайты низкого качества, предназначенные не для людей, а лишь для заработка денег (как правило, на продаже ссылок). Очевидно, что подобные ресурсы никакой пользы не несут и лишь захламляют интернет, поэтому целесообразно их исключать из индекса, что Яндекс и делает.

Определить данный фильтр проще остальных: если вы заметили, что страницы вашего сайта резко выпали из индекса русскоязычного поисковика, осталась лишь главная (или 2-3 страницы), то это первый симптом фильтра АГС.

Проверить свою догадку можно так:

  1. Зайдите в панель Яндекс.Вебмастер или почитайте статью про , где нужно будет ввести адрес домена вашего сайта (сайт). После этого вы увидите количество страниц, находящихся в индексе. Если их очень мало (одна, две, три), то значит, ваш сайт пострадал за низкое качество.
  2. Попробуйте добавить любую страницу вашего сайта в аддурилку яндекса . Если вы этого сделать не сможете (сайт запрещен к индексации), то данный ресурс под фильтром АГС. Прошлая статья, как раз о .

Устранив причины попадания сайта под АГС, вы можете рассчитывать на выход из под фильтра.

Падение позиций сайта

Данный фильтр приводит к тому, что позиции вашего сайта вдруг резко падают. Но при этом сайт нормально индексируется, а страницы остаются в выдаче яндекса.

Причины падения трафика – контент низкого качества (например, копипаст), сильно устаревший и не соответствующий действительности контент, большое количество ошибок в тексте и т.д.

Существует способ, позволяющий приблезительно определить, находится ли ваш сайт под данным фильтром или нет. Для этого скопируйте уникальный кусочек текста (которого точно нет на других сайтах) со страницы, попавшей под фильтр, и вставьте его в поиск яндекса. Посмотрите, на какой позиции находится ваш сайт – чем ниже ресурс, тем выше вероятность, что сайт под фильтром.

Падение позиций из-за накрутки ПФ

Накрутка поведенческих факторов также может привести к попаданию сайта под фильтр. Результатом может стать падение позиций по многим запросам на несколько страниц дальше. Первый симптом фильтра – резкое падение трафика с русскоязычного поисковика.

К счастью, есть хитрый способ, позволяющий определить данный фильтр: выберите любое ключевой запрос, входящий в семантическое ядро вашего сайта, и введите его в поисковик, проверьте позиции сайта. После этого введите тот же запрос, но добавьте к нему через пробел «-dsfsdfsdf», где (dsfsdfsdf – любое бессмысленное сочетание букв). Этот «хак» позволяет увидеть позиции сайта без влияния поведенческих факторов. Если во втором случае позиции сайта были выше, значит, ваш сайт попал под этот фильтр – прекращайте искусственную накрутку ПФ.

Фильтр аффилиата

Аффилиатом называют филиал (отделение) какой-то компании. В нашем случае понимать аффилиат нужно так – «филиал» какого-то сайта, т.е. его другая, но очень похожая версия. Обычно к этому прибегают сайты компаний и организаций, предоставляющие услуги или продающие что-то. Делается это с целью захватить всю поисковую выдачу и вытеснить конкурентов. Разумеется, Яндекс, желающий разнообразить выдачу, против этого.

Также под фильтр аффилирования можно попасть, имея схожее семантическое ядро, похожий контент (картинки, статьи, ключевые слова и описания, заголовки, структуру) или дизайн сайта.

Проверка наличия данного фильтра довольно трудоемкая: введите поисковый запрос, который есть в семантическом ядре и первого, и второго сайта, и проверьте выдачу. Если оба сайта находятся в ней, то фильтр не наложен, если какого-то нету, то он оказался под фильтром.

Эти четыре фильтра – основные фильтры яндекса. Их, к счастью, можно определить по «симптомам», после чего возможно устранения причин попадания под яндекс. Но, конечно, лучше не доводить дело до санкций со стороны поисковика, а раскручивать сайт «законными» способами.

При написании этой статьи я ориентировался на исследования Дмитрия Севальнева и прочих экспертов компании «Пиксель Плюс», где работал одно время. У Дмитрия много статей по этому поводу, собственно фильтры — это его главная «тема» и в основном можно обходиться лишь его исследованиями. Я же ставил перед собой цель структурировать информацию по фильтрам Яндекса, чтобы было удобно смотреть.

Какие фильтры бывают

Фильтры Яндекса (а также других поисковых систем) делятся, прежде всего, на ручные и автоматические . Вообще классифицировать их можно по многим признакам, но в первую очередь нужно учесть это разделение.

Если уж и попадать, то предпочтительнее под автоматические санкции – они так же автоматом снимутся, как автоматом и были наложены. В случае же с ручными санкциями, скорее всего, предстоит долгая переписка с техподдержкой поисковика.

Ручные и автоматические санкции делятся, в свою очередь, на такие:

  • Бан , то есть исключение сайта из базы. Применяется в тяжёлых случаях – например по отношению к дорвеям или за накрутку ПФ;
  • Неучёт исходящих ссылок – хорошо бы, чтобы ваши доноры не попали под этот фильтр. Поисковик может занижать ценность ссылок с сайтов или вообще не учитывать их;
  • Неучёт входящих ссылок – если вы закупаетесь в каком-нибудь Сеопульте, может так статься, что вы просто будете сливать средства вникуда;
  • Частичное исключение сайта из базы поисковой системы . Ранее можно было с точностью сказать, что сюда относится АГС Яндекса. К нему еще бонусом шло обнуление показателя тИЦ. Сейчас же страницы могут оставаться в индексе, но тИЦ будет «не определён». За адалт и избыточную рекламу также можно поймать ограничение в поиске;
  • Занижение сайта в результатах поиска .

Классифицируя иначе, можно выделить 4 вида фильтров – текстовые, ссылочные, за накрутку поведенческих факторов и остальные (adult, АГС, аффилиаты, дорвеи, другие).

Кроме этого разделения и разделения на ручные и автоматические санкции есть ещё деление на предфильтры и постфильтры. Предфильтры накладываются еще до расчета релевантности сайта, на этапе попадания в базовый поиск, постфильтры же накладываются уже в процессе ранжирования. Ну и, наконец, санкции делятся на запросозависимые, подокументные и хостовые. Первые ведут к проседанию одного запроса, вторые - всех запросов со страницы, третьи - всех запросов со всего сайта.

Подробно о фильтрах:

Если же хотите вкратце (либо просто поглазеть на Лену Камскую), то вот другой видос:

Причинами санкций могут быть текстовое содержание, ссылки, реклама, искусственные накрутки и так далее. Кстати даже опытные продвиженцы могут рассуждать о фильтрах, когда на самом деле причина проседания более прозаична, так что давайте сразу разберемся.

Перед определением фильтров

Перед определением вида санкции и ее лечения следует, прежде всего, убедиться в наличии санкций. Возможно, продвигаемая страница не попала под санкции, а просто выпала из индекса. Если Яндекс не находит даже кусок текста со страницы, введенный в кавычках (или страницу по запросу вида url:site.ru/adres/stranicy.html ) – возможно, следует добавить страницу в инструменты вебмастера или, если не сработает, переписать текст.

Также возможно, что проседание позиций связано с изменением алгоритма ранжирования, в результате которого позиции большого числа сайтов были существенно изменены и наш сайт оказался среди их числа. Для определения этого требуется комплексно сравнить ТОП-10 выдачи по интересующему запросу «до» апдейта и «после» (с помощью инструмента «Анализ поискового запроса» в Megaindex ). Если существенно потерял позицию только наш документ, то это санкция. Если изменения по ТОП-10 более значительные (из ТОП-10 выпало 4 сайта, сменился сайт на 1 и 2 месте и так далее), то это с большой вероятностью алгоритм. Если мы определили, что продвигаемая страница по-прежнему находится в выдаче, а существенно изменил позицию в ТОПе только наш сайт, то мы с большой долей вероятности столкнулись с теми или иными санкциями.

Как один из вариантов причин проседания запроса – запрос мог поменять свой тип с точки зрения логики поисковой системы, и как следствие, выдача может сильно поменяться.

Виды текстовых фильтров

Текстовые фильтры делятся на запросозависимые и документозависимые. Первые ведут к проседанию в выдаче одного запроса или их группы, вторые – к проседанию всех запросов со страницы. В основном текстовые фильтры можно отнести к группе постфильтров, и в подавляющем большинстве случаев они накладываются автоматически. Но бывают и жестокие ручные текстовые санкции - в этом случае проседает, как правило, большая часть запросов с сайта или вообще все.

Большое видео с SEO-коучинга:

Если позиции плохие, и подозрения есть именно на текст (а не на наличие нетекстовых фильтров или хостовые факторы), тот тут такая схема работы:

  1. Определяем наличие фильтров по каждому запросу (далее будет показано, как это делается);
  2. Где нет фильтров – увеличиваем релевантность документа в соответствии с инструкцией из Пиксель Плюса . Если все требования выполнены, смотрим 15 пункт, открываем в Метрике карту скроллинга за месяц, и по ней уже определяем, интересует ли пользователя текст;
  3. Где есть фильтры – действуем соответственно с инструкциями в зависимости от того, с каким фильтром имеем дело.

Кстати, один из способов определить наличие фильтров - подать заявку на добавление сайта в Яндекс Каталог. Если есть санкции, то об этом поддержка Яндекса часто оповещает в качестве обоснования причин отказа принятия сайта в ЯК.

Наиболее часто встречаются фильтры «Переоптимизация» и «Фильтр Севальнева», еще есть фильтр за одинаковые сниппеты и «Ты последний», но с ними приходится сталкиваться не так часто.

Добавлю лишь, что Яндекс накладывает текстовые фильтры не только с учетом разных форм одного и того же слова, но и по корням слов. Многие считают, что фильтр может быть наложен, допустим, только за чрезмерное употребление слова «строительный» в разных формах, учитывая «строительных», «строительными» и так далее. Но санкции можно поймать и если с этим словом все будет в порядке, но будут присутствовать слова «стройка», «строить» и другие однокоренные, употребление которых и приведет к превышению порога спамности.

Текстовый фильтр «Переспам» (устаревший?)

«Переспам» - один из первых текстовых фильтров Яндекса, направленных против чрезмерной оптимизации текстового содержимого страницы. Внедрен с февраля 2010 года, официально не анонсировался. Сегодня встречается не очень часто, поскольку постепенно уступает место «фильтру Севальнева» и «Переоптимизации». Сейчас новые сайты практически не ловят «Переспам». Через несколько лет данный фильтр окончательно уйдёт в прошлое. Хотя, возможно, есть тематики, где он еще применяется.

Как определить

«Переспам» - запросозависимый фильтр; при нем проседает один запрос, обычно резко, на 20-40 позиций; по другим запросам документ нормально ранжируется.

Можно определить, введя в Яндекс модифицированную форму продвигаемого запроса (обычно морфологическую или перестановку слов). Скажем, вместо [грузоперевозки Рязань] – [грузоперевозка Рязань] или [Рязань грузоперевозки]. Если по переформулированному запросу наш сайт окажется в выдаче резко выше (например, был на 37 месте, а стал на 14) – скорее всего, наложен фильтр переспама, документ переспамлен по продвигаемому запросу. Точно говорить о наличии данной санкции можно, лишь если запрос растёт при нескольких модификациях (поскольку фильтр позапросный и накладывается на один запрос).

Причины

Избыточное количество чистых вхождений, акцент на заданной фразе в тексте, Title и анкорах входящих ссылок - всё это может быть причиной переспама.

Что делать

Если сайт под фильтром, то методы его снятия могут быть следующие:

  1. Можно сначала просто поменять окончания у ключевых слов (вместо «грузоперевозка в Рязань» - «грузоперевозку в Рязани»). Если не сработает - тогда прибегать к более радикальным мерам;
  2. Удалить/разбавить лишние вхождения ключевых слов с помощью seo-анализа text.ru. Максимальное количество вхождений не должно превышать 2%. Как высчитать это количество? Берем количество символов без пробелов в тексте, делим его на 6,5 (средняя длина слова в символах) и умножаем на 0,02 (то есть 2 процента). Хотя точнее будет закинуть в text.ru/seo, посмотреть число слов и умножить его на 0,02. Получим максимально допустимое количество вхождений – вот до него и нужно резать максимальное число вхождений слова в тексте. При этом, если мы можем максимально употребить слово 12 раз, это не значит, что мы теперь все продвигаемые слова можем по 12 раз употреблять. Их количество должно плавно снижаться. Для более детального анализа можно воспользоваться таким инструментом, как анализ Ципфа;
  3. Биграмм, триграмм (то есть одинаковых словосочетаний) и так далее также не должно быть слишком много, оптимально не больше одного раза они должны повторяться, максимально – не больше трех;
  4. За переспамленность атрибутов alt и title у изображений тоже могут быть наложены санкции, поэтому их тоже следует почистить от ключевых слов;
  5. Нужно проверить орфографию в Word;
  6. Уменьшить объем текста на странице (или скрыть нижнюю часть текста тегом noindex, но это только для Яндекса, поэтому лучше уменьшать объём) на 15-30%, например почистить от воды через glvrd.ru;
  7. Добавить картинки, списки, таблицы, видео;
  8. Убрать b, strong и прочее логическое выделение;
  9. Проверка входящих ссылок и увеличение числа безанкорных.

Обычно переспам снимается в первый же текстовый апдейт после переиндексации.

Сразу скажу, что ручная диагностика фильтров — дело трудоемкое. Профессиональные оптимизаторы пользуются для определения фильтров сервисом Саши Арсенкина .

Текстовый фильтр «Переоптимизация»

«Переоптимизация» - это наиболее часто встречающийся сегодня текстовый фильтр Яндекса. Внедрен с сентября 2011 года, официальный анонс был в блоге Яндекса на ya.ru. По этому текстовому фильтру возникает больше всего вопросов, и вообще в ходе практики я наблюдал самое разное поведение запросов на страницах, где была диагностирована «Переоптимизация». В ходе статьи буду делать небольшие замечания по этому поводу.

Как определить

Это документозависимый фильтр. Проседают все запросы, ведущие на страницу, например на 10-30 позиций; документ теряет большую часть поискового трафика с Яндекса; документ плохо ранжируется даже по длинным (4-5 слов) запросам. В этом по идее и есть главное отличие от «Переспама» - там проседает один запрос, тут - все запросы с одной страницы.

Вроде стройная теория, однако бывало, что на странице обнаруживался фильтр только по одному запросу, но «Переспам» и «Новый фильтр» не диагностировались. Вроде переоптимизация, но по одному запросу. И на таких страницах было наиболее тяжело снять фильтр. Мое личное мнение - если наблюдается такая фигня, то, скорее всего, контент просто хуже по качеству оформления, а не текстов, чем у конкурентов.

В отличие от того же «Переспама», здесь позиции запросов при переформулировке слов (перестановка или смена окончаний) не меняются или меняются незначительно. Но «Переоптимизацию» можно определить следующим образом:

  1. Введим запрос в ПС Яндекс;
  2. Смотрим место нашего сайта в выдаче - например, 47;
  3. Копируем названия доменов нескольких конкурентов, которые находятся выше нас - например, на 46, 45, 44 и 43 позициях;
  4. Повторно вводим запрос вида [грузоперевозки Рязань (site:nashsite.ru | site:drugoisait.ru)].

Если при запросе такого вида наш сайт в выдаче окажется выше нескольких конкурентов, которые в выдаче по запросу без дополнительных операторов были выше нас, то, скорее всего, наложен фильтр переоптимизации. При этом лучше проверить именно несколько конкурентов – есть вероятность, что на единственного конкурента, с которым вы сравнивали свой сайт, также наложен фильтр, или же это будет крупный портал, с которым сравнивать нет смысла.

Вот еще видео-пример:

Причины

Несогласованный текст, несоответствие страницы ключевым словам (под которые она оптимизирована), переоптимизация контента (текста, Title).

Что делать

Обычно требуется провести тот же комплекс мер, что и в случае с переспамом, но если он не поможет, принимаем более серьёзные меры:

  1. Снизить процент вхождения ключевых фраз в тегах h2-h6 (особенно касается h2);
  2. Переформатировать контент, пересмотреть структуру текста. Вхождения и слова должны быть равномерно распределены по абзацам;
  3. Отправить текст на корректорскую проверку, то есть устранить все несогласованные словосочетания, трудночитаемые предложения, орфографические и пунктуационные ошибки.

Если в целом текст, допустим, некачественный и не тематический по отношению к продвигаемым ключам, состоит из большого числа слов из общего нетематического корпуса слов (слишком много вводных слов, длинные предложения, малое разнообразие частей речи, много прилагательных), то текст, возможно, придется переписать - просто чистка ключей может не помочь.

Переоптимизация обычно снимается через один-два текстовых апдейта после переиндексации.

Фильтр Севальнева

В 2014 году начала наблюдаться ситуация, при которой запросы улетали за топ-200, и стандартные методы борьбы с текстовыми фильтрами не срабатывали. В итоге оптимизаторы пришли к выводу, что это новый текстовый фильтр Яндекса. Его в общем и назвали просто «новым фильтром», также в ходу наименования «текстовый антиспам» и «фильтр Севальнева», поскольку Дмитрий Севальнев из «Пиксель Плюс» был, возможно, первым, кто открыл и описал данную санкцию.

Сейчас уже далекий 2016, так что, я думаю, поздно называть этот фильтр «новым». Поэтому я его называю «севальневским» 🙂

Как определить

Полная потеря трафика по запросу (возможно резкое проседание), чаще проседают именно группы запросов, но в целом можно говорить, что санкция накладывается не на весь документ, а позапросно. При этом, в отличие от «Переспама», при переформулировке позиция не растет, то есть можно предположить, что фильтр накладывается на все формы запроса. Часто проверка путем сравнения двух сайтов показывает, что наш сайт с 250 места выше по релевантности, чем сайт на 70-80 месте.

Определяется этот новый фильтр примерно так же, как и переоптимизация. Отличить от «Переоптимизации» можно по абсолютному числу потерянных позиций - в случае с фильтром «Переоптимизация» это 5-30 пунктов, в случае с «Новым» потеря оказывается значительно выше:

  • Сайт резко теряет позиции по запросам, выпадения составляют от 50-60 и вплоть до 1000 позиций, когда продвигаемый документ пропадает из зоны видимости. Обычно запросы находятся на 200-х местах при новом фильтре;
  • Документ продолжает нормально ранжироваться по запросам, к которым фильтр не был применён;
  • Модификация запроса не приводит к серьёзному росту, как в случае с текстовым постфильтром «Переспам».

Из практики можно сделать вывод, что если сайт далеко за пределами топ-100 по запросу, но при посайтовом сравнении оказывается релевантнее запросу, чем сайты на 70-80-х местах, с большой долей вероятности мы имеем дело с «фильтром Севальнева».

В инструментах Сани Арсенкина фильтр проверяется там же, где и переоптимизация. У него инструмент «два в одном».

Что делать

Для снятия «севальневского» текстового фильтра Яндекса рекомендуется делать тот же комплекс работ, что и для «Переспама» и «Переоптимизации», но дополнительно:

  • Уменьшить длину Title до 70 символов и снизить его спамность. Ни одно слово в Title не должно встречаться дважды.
  • Уменьшить число чистых вхождений продвигаемого запроса в текст документа (изначально - двукратно).
  • Пересмотреть проценты вхождений слов из данных продвигаемых запросов в сторону уменьшения (изначально - двукратного).
  • Сократить текст на странице - можно, к примеру, почистить его от воды.

В случае если действия, описанные выше, после переиндексации документа и нескольких текстовых апдейтов поисковой выдачи Яндекса не принесли ожидаемого результата - рекомендуется полностью переписать текст.

Как я уже говорил, фильтры могут быть наложены за переспам однокоренными словами. То есть если максимально допустимое количество вхождений на страницу – 10, и у вас по 7 раз употреблены слова «печать» и «печатание», то за это может быть наложен текстовый фильтр, хотя слова по идее - разные.

Еще один момент – иногда, когда вроде как страница на первый взгляд не переспамлена, стоит посмотреть вхождения в исходном коде страницы. Их там на самом деле может оказаться дофига.

Текстовый фильтр «Ты последний»

«Ты последний» - это, по большому счету, фильтр за неуникальный или неактуальный контент.

Причем «контент» тут не всегда значит «текст», за использование заведомо неуникальных шаблонов сайт тоже может попасть под этот фильтр.

Под этот фильтр попадают в основном умники, которые думают, что накопипастив кучу текстов, они сделают отличный сайт и на него повалит народ. То есть это новички, школьники и прочие лица в состоянии опьянения. Их опьяняют «интернетовские деньги», они как Стивен Абутмен из Южного парка. Помните?

Канада не получает достаточно денег! У других стран много денег, нам нужна часть этих денег! Как насчет… Как насчет интернета? Интернет делает много денег, так дайте нам часть этих денег! - Да! Дайте нам интернетовские деньги!

Но вместо интернетовских денег юные Гейтсы и Цукерберги получают фильтр «Ты последний».

Как определить

Если вдруг сильно проседает трафик с Яндекса, но сайт продолжает нормально индексироваться - есть повод проверить сайт на предмет наличия данного фильтра. И, соответсвенно, если сайт индексируется, а трафика нет - тоже есть повод сделать то же самое.

Введите уникальный кусок текста из Title или со страницы в Яндекс (брать нужно страницу, которая есть в индексе). Если сайт не находится в числе первых - скорее всего, есть фильтр. Дополнительно проверьте уникальность текста через Advego Plagiatus или Etxt Antiplagiat. Но текст может быть неуникальным при условии, что Яндекс считает наш сайт первоисточником - если вводите кусок текста в кавычках и какой сайт на первом месте, тот и считается первоисточником.

Причины

Кроме неуникального контента причинами могут быть дублирующиеся тексты или куски текста на сайте.

Что делать

Повышать уникальность текстов до 100%, избавляться от дублей внутри сайта. Легче всего просто заказать новые тексты. Кроме того:

  • Даже на карточках товара в интернет-магазине можно получить/написать уникальные отзывы и комментарии, а также уникальный обзор модели;
  • Анонсы статей/новостей и начало текста на странице тоже можно сделать разными;
  • Очень желательно отсутствие в коде больших (более 150 символов) дублирующихся фрагментов текста – например, текста в футере на всех страницах;
  • Отсутствие дублирования текста на документах постраничной навигации, страницах сортировок, фильтров, тегах, страницах поиска – также необходимо.

Дублирование внутри сайта – это тоже дублирование контента. Важно также учитывать процент уникальных текстов на сайте (уникальных шинглов) относительно общего количества текстов. При ранжировании карточек товаров уникальность текста может не играть сильной роли (хотя в Google играет), но общая уникальность информации на сайте будет важна для нормального ранжирования. Также при ранжировании могут играть роль мономы (комбинации факторов), скажем (объём текста)/(время пользователя на странице). С дублями, описанными выше, можно бороться следующими методами:

  • Атрибут rel=”canonical” тега;
  • Мета-тег robots;
  • Ограничения к индексации через файл robots.txt

Что же касается полных дублей страниц, их можно найти либо при помощи сканеров вроде Screaming Frog, либо через панель Вебмастера Google (Инструменты для веб-мастеров – Оптимизация HTML) и иногда Вебмастера Яндекс (Мои сайты – проверить URL). В случае со Screaming Frog полученные после сканирования данные выгружаются в Excel, дальше подсвечиваются одинаковые теги Title в файле – так можно вычислить дубли и их URL.

Чтобы получились «правильные» карточки товаров, необходимы:

  1. Уникальный контент в широком смысле слова;
  2. User-generated Content (UGC): отзывы, мнения (всё это сказывается и на конверсии);
  3. Текст по теме. Больше деталей – технические характеристики, состав и так далее;
  4. Шаблонная оптимизация: Title, description, мини-описания;
  5. Контроль фильтра за одинаковые сниппеты;
  6. Кликабельный сниппет на выдаче;

Как вариант - можно еще просто убрать ключевые слова из всех текстов. При этом оставить их в Title, но сократить содержание последнего до трех слов или меньше. В этом случае спамность текстов будет нулевой. Ждем переиндексации, и после прошествии еще некоторого количества времени Яндекс должен снять фильтр. Желательно еще снять анкорные ссылки, если их много. После выхода сайта из-под фильтра можно потихоньку, понемногу возвращать ключи в тексты.

Фильтр за одинаковые сниппеты

Яндекс исключает документ из выдачи, если его сниппет дублирует уже имеющийся в выдаче сниппет другого документа. Это и называется фильтром за одинаковые сниппеты.

Сюда же, кстати, входят и санкции за одинаковые Title.

Фильтр на одинаковые сниппеты наиболее характерен для товарных запросов и сайтов интернет-магазинов. Его назначение заключается в том, что с целью повышения разнообразия результатов выдачи Яндекса скрывается ряд похожих результатов. Предпочтение отдается тем документам, у которых сниппет (Title и текст описания) существенно отличается от уже представленных результатов.

Признаки

Сайт полностью исчезает из выдачи по некоторым запросам, но если добавить в урл конструкцию &rd=0, появляется в результатах поиска.

Причины

Сниппет страницы полностью или почти полностью дублирует сниппет другой страницы, которая находится в топе.

Снятие фильтра

Для снятия фильтра требуется:

  1. Полное переписывание фрагментов текста, из которых берется текст для сниппета;
  2. Изменение шаблона Title для карточек товара и разделов;
  3. Шаблонный meta-description (иногда используется в качестве сниппета, его следует не спамить и не дублировать в нём текст из Title). Иногда снять фильтр помогает уникализация Description;
  4. Текст для сниппета желательно располагать выше по странице. Его должны составлять короткие и ёмкие предложения. Нежелательные фрагменты можно заключить в тег , но этим злоупотреблять нельзя;
  5. Дождаться переиндексации документа и процесса обновления сниппетов.

Можно подумать, что если, мол, текст из сниппета уникальный, то фильтра быть не может. Но это неверно. Если по тексту из сниппета Яндекс ничего не находит - это ничего не значит. Сниппет обычно берется:

  • Из нескольких разных предложений;
  • Может браться из description, по которому и не будет ничего находится;
  • Может браться из YML - аналогично;
  • И так далее.

Виды ссылочных фильтров

Теперь давайте по ссылочным фильтрам — постоянным спутникам плохих сеошников.

Минусинск

Мощный фильтр, запущенный в 2015 году и направленный против сайтов, которые покупают ссылки. Как Яндекс определяет, покупная ли ссылка? Намек на метод можно найти в Мадридском докладе. В самой сжатой форме - если сайт ссылается коммерческими анкорами («купить», «цена») на сайты разных тематик, то, вероятнее всего, он торгует ссылками. Но помимо всего прочего ничто не мешает Яндексу просто выгрузить базы ссылочных бирж. В целом про этот фильтр на момент июня 2015 года мало что известно.

Признаки: сайт проседает по всем запросам примерно на -14 позиций.
Причины: большое количество некачественных покупных ссылок (Сеопульт, Сапа и так далее).

Вот огромный экспертный видос по Минусинску:

Ссылочный взрыв (устаревший?)

Чтобы предотвратить ситуацию, когда сайт резко вырывается в топ чисто за счёт огромного количества покупных ссылок, введён данный фильтр. Штрафует акцепторов при наличии неестественно высокого темпа наращивания ссылочной массы. Доноры, участвующие во «взрыве», также помечаются как неблагонадежные.

Я не уверен, что с появлением Минусинска этот фильтр должен продолжать работу - ведь за покупные ссылки карает Минусинск, а за рост качественных ссылок не должны вообще накладываться санкции.

Однако Яндекс намекал, что во избежание покупок ссылок конкурентами с целью «завалить» врага под фильтр, покупными ссылками могут считаться лишь старые, так что с другой стороны, «Ссылочный взрыв» может еще оставаться в строю.

Признаки: сайт «залипает» на определенных позициях.
Причины: покупка большого количества ссылок в короткий период.

Ссылочный спам (устаревший?)

Ранее был одним из основных инструментов Яндекса для выявления покупных ссылок. Предусматривает различные типы санкций, применяемые к сайтам при манипулировании ссылочной массой (ссылочные кольца, прогоны и другие).

С выходом Минусинска пока непонятно, применяется ли сейчас.

Признаки: сайт резко понижается в выдаче по всем запросам.
Причины: абсолютное преобладание ГС в ссылочной массе.

Непот-фильтр

Фильтр, созданный для борьбы с ГС, продающими ссылки. Ведёт к неучёту анкора и веса ссылки. То есть когда на сайт накладывается этот фильтр, ссылки с него начинают давать куда меньший эффект. Проверить всех своих доноров на наличие непота представляется практически нереальным, поэтому при покупке ссылок нужно предъявлять жесткие требования к донорам, отслеживать эффект от покупки, составлять блек и вайт листы.

Внутренний непот-фильтр

Неучёт внутренних ссылочных связей при наличии избыточной (спамной) перелинковки внутри сайта. То есть польза от вашей внутренней перелинковки может пойти насмарку, если Яндекс посчитал ее спамной и наложил данную санкцию. Основная причина наложения фильтра - спамное содержание анкоров и их повышенная длина, однако причиной может быть и, допустим, отсутствие корректного оформления ссылок.

Фильтр за накрутку поведенческих факторов

Используется для борьбы с накруткой поведенческих через биржи. Штрафует сайт за искусственное улучшение кликовых поведенческих факторов с применением мотивированного трафика или эмуляций действий пользователей в поисковой системе Яндекс. Ресурс продолжает нормально ранжироваться только по витальным и запросам с явным указанием URL-адресов с сайта. Поведенческие факторы являются ключевыми в ранжировании сайтов по средне- и высокочастотным запросам. И хотя их число исчисляется десятками, под пристальным прицелом оптимизаторов оказались наиболее значимые, а именно, так называемые кликовые факторы на страницах результатов выдачи:

  • Число посетителей документа из выдачи по запросу;
  • CTR сайта в выдаче по запросу;
  • Региональные срезы данных показателей.

Именно на искусственное улучшение данной группы факторов направлено большинство сервисов по накрутке. На текущий момент можно утверждать, что фильтр за накрутку кликовых поведенческих факторов функционирует в Яндексе наравне с прочими санкциям и применение данной технологии оптимизации подвергает сайт существенному риску потери позиций в срок от 6 месяцев и более.

Признаки: в некоторых случаях – понижение позиций сайта по части запросов. Срок – 1 год. Сейчас лучший способ диагностировать факт наложения фильтра - обращение в службу поддержки поисковой системы Яндекс через панель вебмастера.

Платоны прямо сообщают о факте применения данных санкций к сайту, что можно воспринимать как достоверное подтверждение и способ диагностики.

Рекомендуется, особенно в случае непричастности к актам искусственного улучшения поведенческих факторов, вступить в честный и аргументированный диалог, в котором открыто изложить свою позицию. В ряде случаев данные действия могут ускорить процесс снятия фильтра.

Причины: накрутка кликовых поведенческих факторов с целью повысить позиции сайта.

Позиция представителя Яндекса по фильтру за ПФ:

Факты накрутки и неучёта действий пользователей могут фиксироваться с помощью большого числа алгоритмических и статистических методов. Севальнев на проекте «Пиксель Плюс самостоятельно» рассказывал об одном из алгоритмов, который применяется также в антиспаме для функционирования санкции «Ссылочный взрыв»:

  1. Есть пороговое значение роста посещаемости сайта из выдачи, после которого он считается участвующим в «накрутке». Это может быть, например, более чем 30-50% увеличение поискового трафика при неизменном числе показов сайта и сниппетах;
  2. Выделяется список всех пользователей (IP-адресов), которые посетили заданный ресурс из выдачи за отчетный период;
  3. Выбирается совокупность всех сайтов, которые считаются «накрученными» за отчетный период;
  4. Формируется множество пользователей, которые принимали участие в 2 и/или большем числе фактов накруток (порог может быть выбран путём перебора);
  5. Все действия данных пользователей игнорируются при расчётах кликовых поведенческих факторов.

То есть выявляются все сайты, у которых неестественно большой рост, и сравниваются IP кликавших на них юзеров.

Кейс по работе с сайтами под ПФ-фильтром от Артура Латыпова и SEO-коучинга:

Остальные фильтры

Тысячи их! Не возьмусь даже утверждать, что в этой статье я смогу описать их все.

Алгоритм Яндекса АГС-40

Алгоритм АГС (официальной расшифровки нет, но мы-то знаем, что это означает «антиговносайт») был разработан для борьбы с некачественными сайтами (в Google похожую функцию имеет алгоритм Panda). То есть он направлен на ограничение в ранжировании и индексации сайтов, созданных не для пользователей. Впервые его влияние было замечено 1 ноября 2013 года. Официально анонсирован 6 ноября 2013 в блоге Яндекса: http://webmaster.ya.ru/16272 . Было несколько «волн» наложения санкций. База регулярно обновляется, ряд сайтов из-под санкций выходят, а ряд сайтов попадает под них. Ссылочные биржи и эксперты дают различные оценки – кто-то говорит, что от всей базы доноров в биржах под АГС находится 1% сайтов, кто-то – что 20% (в общем, от 1 до 20 процентов).

Признаки

С апреля 2014 – обнуление тИЦ. Сейчас при попадании под АГС обнуляется тИЦ сайта (при проверке этого показателя через Яндекс Каталог сервис пишет, что тИЦ «не определен»), но сам сайт может оставаться в индексе Яндекса. Ранее же была распространена ситуация, когда большинство страниц вылетало из индекса, оставалось только от 1 до 101 страницы.. Через пару дней после попадания под действие алгоритма я написал в поддержку - мол, контент уникальный, веду блог для людей, что следует исправить? Платон думал 4 дня, а затем написал:

Здравствуйте, Марк!
Приносим извинения за задержку с ответом.
Я проверил, с сайтом все в порядке. тИЦ будет актуализирован при ближайшем пересчете.

То есть если есть уверенность, что сайт не должен был попасть под АГС, имеет смысл связаться с поддержкой.

Причины

Низкое качество сайта в целом, низкопробный контент.

Исследования показали, что наличие сайта в Яндекс.каталоге снижает вероятность попадания под АГС в 2,5 раза, в DMOZ – ещё выше, в 5,4 раза. YACA+DMOZ вместе же снижают вероятность попадания под АГС аж в 40 раз. Также хороший знак здесь – наличие Яндекс.директ. Что касается торговли временными/арендными ссылками, то одни говорят, что такая деятельность не влияет на попадание сайта под АГС, другие же считают, что это одна из основных причин попадания под действие алгоритма. Посещаемость же должна влиять куда однозначнее – при исследовании 6986 сайтов наблюдалось резкое падение доли сайтов под АГС среди сайтов с посещаемостью более 150 посетителей и особенно более 300 посетителей в сутки.

Презентация Дмитрия Севальнева по более полному исследованию АГС:

Снятие фильтра

  • Смена хостинга;

Вот кстати как писать в ТП:

На коммерческих сайтах опасность попадания под АГС присутствует, если:

  • Нет контактов и реквизитов компании;
  • Есть большое количество бессмысленных («переоптимизированных») или неуникальных статей;
  • Плохо оформлен контент (сканы, копипаст и так далее);
  • Сайт долгое время не обновляется;
  • Плохое окружение (IP-адрес хостинга).

Снятие фильтра

Для вывода коммерческого сайта из-под АГС нужны:

  • Указание контактов, времени работы, схемы проезда, реквизитов;
  • Удаление статей и написание 2-3 полезных материалов;
  • Полная техническая оптимизация;
  • Смена хостинга;
  • Привлечение непоискового трафика на сайт (около 150 человек в сутки);
  • «Красивое» оформление материалов, правильная орфография;
  • Письмо в техподдержку после индексации.

Вот кстати как писать в ТП:

Что требуется для вывода информационного сайта из-под АГС:

  • Проверка текстов страниц на уникальность и их переписывание в случае, если тексты неуникальны;
  • Больше качественных статей - не по 500 символов, а нормальных обзорных материалов;
  • Убрать рекламу и продажные ссылки;
  • Полная техническая оптимизация;
  • Хороший хостинг;
  • Нарастить качественную ссылочную массу на блог;
  • Привлечение непоискового трафика.

Еще советы по выходу из-под фильтра:

Я знаю одного вебмастера, который спец именно по выходу из-под АГС. Если все перепробовали, и не помогло — пишите мне, дам контакты.

Фильтр аффилиатов

Яндекс склеивает похожие сайты, если есть подозрение на то, что у них один и тот же владелец. В итоге из всей группы аффилированных сайтов в зоне видимости в выдаче по запросу остаётся только один. Я лично не слышал, чтобы фильтр накладывался на информационные сайты, кстати говоря. Также аффилированность сайтов не является отягощающим фактором при продвижении:

  • По непересекающимся спискам поисковых запросов;
  • По различным регионам России.

То есть если у вас сайт продвигается по запросам группы [вызов газовщика на дом], а еще один сайт - по запросам в стиле [вызов деда мороза на дом], и при этом вы аффилированы, то обоим сайтам будет на это наплевать - они просто не почувствуют склейки.

Признаки

Полное исчезновение сайта из выдачи по нескольким запросам, которые до этого были в топе или близко к нему. Также если сайт продвигается плохо даже после проведенных по нему работ – большинство запросов в выдаче за топ-100, но часть запросов при этом растёт, есть вероятность, что существует его аффилиат, который и виден по тем запросам, по которым наш сайт не продвигается. При этом по разным запросам и в разных регионах наиболее релевантными могут быть разные сайты.

Вот еще способ определения от Игоря Бакалова:

Причины

Продвижение сайтов одного владельца по одинаковым/пересекающимся запросам в одном регионе.

Аффилированность Яндекс вычисляет через контактные данные, дублированный каталог услуг и цен (даже сайты просто с одинаковыми ценами Яндекс может определять как аффилированные), данные регистрации доменов, html вёрстку и cms сайта. На 98-99% аффилированных сайтов санкции налагаются автоматически, но аффилированность может быть и ручная.

Как избежать аффилированности (склейки сайтов в группу)?

  1. Избегать пересекающихся контактных данных;
  2. Избегать дублирования каталога, услуг и цен на продукцию (массового);
  3. Структура каталога товаров (если интернет-магазин) должна быть уникальной;
  4. Разносить сайты по хостингам и аккаунтам (Директ, Вебмастер). Не всегда обязательно хоститься у разных провайдеров, чтобы не было афиллированности – достаточно купить выделенный IP;
  5. Сайты также должны располагаться на разных IP-адресах или подсетях класса C;
  6. Сайты из потенциальной группы должны быть в разных аккаунтах Яндекса;
  7. Избегать схожести доменных имён и названий компании;
  8. Один сайт не должен перенаправлять трафик на другой;
  9. Не должно быть перекрёстных ссылок;
  10. Данные регистрации доменов должны быть разными;
  11. HTML-вёрстка и CMS сайта не должны быть схожими;
  12. Внешняя входящая ссылочная масса должна различаться (не должно быть много общих доноров);
  13. Также Яндекс может наложить ручные санкции аффилированности по жалобам в Яндекс и «контрольным» звонкам.

Сайты не попадут под фильтр аффилиатов, если, допустим, у них только IP одинаковый. Но если пользоваться при этом сервисами – например, одним кошельком, то шанс попасть под аффилированность повышается. Как в таком случае быть, если оптимизатор продвигает похожие сайты? Тут может быть такой выход – оформить ИП, и тогда можно пользоваться одним аккаунтом в сервисах для работы с клиентскими сайтами.

Проверка аффилированности

Сначала требуется проверить наличие фильтра на одинаковые сниппеты, если такой фильтр обнаружен – аффилированности по запросу нет.
Быстро выявить афиллированность по запросу можно следующим образом:

  1. выгружаем топ-50 по запросу;
  2. обрезаем до доменов;
  3. добавляем конструкцию [запрос ~~ site:] перед каждым доменом;
  4. снимаем позиции;
  5. Если находится аффилиат, сверяем его позиции по нашему ядру. Если хотя бы по одному запросу оба сайта в ТОП-40 одновременно, то аффилированности нет.

Имеется также старая база аффилиатов по Яндексу: http://tools.promosite.ru/old/clones.php Можно вбить в Яндекс номер телефона, адрес или почту, добавить ~~ site:nashsite.ru.

Снятие фильтра

В случае автоматических санкций устраняем все причины:

  • Перепроверяем контакты;
  • Телефоны в панели Вебмастера;
  • Телефоны на сайте;
  • Перекрестные ссылки;
  • Хостинг;
  • Общие аккаунты в Директе;
  • Упоминания адреса компании с одного сайта на другом сайте;
  • Перенаправление трафика с одного сайта на другой;
  • Большое число общих внешних ссылок.

Затем ждём – фильтр снимается автоматически. В случае наложения ручных санкций нужно проделать всё то же самое, но уже не ждать, а писать в техподдержку, присылать сканы свидетельств о регистрации, договоров аренды и так далее.

Фильтр за избыточную рекламу

Накладывается из-за наличия на сайте агрессивной рекламы. Понижает в ранжировании сайты с избыточным рекламным содержимым (pop-up, кликандер и другие). Причинами также могут быть наличие агрессивной рекламы, вызывающих тизеров, всплывающих окон, кликандеров. Иногда понижаются сайты с обманным содержимым во всплывающих окнах, уведомлениях.

Для снятия фильтра за некорректное рекламное содержимое требуется произвести смену размещаемых рекламных материалов или подключенной партнерской программы и дождаться полноценной переиндексации ресурса. Для ускорения процесса рекомендуется после внесения существенных изменений на сайте сообщить об этом в службу поддержки поисковой системы через панель вебмастера.

«Партнёрки»

Ранжирует ниже сайты, монетизирующиеся партнерками и при этом не дающие дополнительной ценности пользователям. Это могут быть, к примеру, нераскрученные купонники, на которых нет ничего, кроме кодов партнерских программ.

«Бан»

Исключает из индексации спам-сайты, направленные исключительно на привлечение трафика обманными техниками, среди них могут быть:

  • Дорвеи;
  • «Списки поисковых запросов»;
  • Сайты, использующие клоакинг;
  • «Сайты-клоны»;
  • Прочие.

Adult-фильтр («взрослый» контент)

Фильтрация сайтов для взрослых из выдачи не по адалт-запросам. Сайт полностью исчезает из выдачи по всем запросам, кроме «взрослых», что сопровождается резким снижением трафика (если под него попал, допустим, коммерческий сайт). Сайт фигурирует в выдаче только по запросам с явным adult-контентом. Причины - наличие взрослого контента, ссылки на adult-ресурсы, реклама взрослых сайтов.

Я еще слышал информацию, что сайт может быть пессимизирован из-за плохих поведенческих, но подробнее рассказать, каким образом это происходит, пока не могу. Постараюсь обновлять данную статью и быть в курсе всех технологий Яндекса, направленных против неестественного влияния на выдачу. Да, и если связаться с поддержкой Яндекса не получается - пишите на

Фильтры Яндекса - продолжение...

Сегодня продолжим тему фильтров Яндекса. Самые "страшные" для вебмастера фильтры: бан и АГС мы уже рассмотрели, поэтому давайте познакомимся с остальными, а их немало и подстерегают они тех, кто не соблюдает правила поисковой системы Яндекс.

Итак, самые распространенные фильтры Яндекса:

1) "Ты - последний"

Наложением данного фильтра Яндекс наказывает за неуникальный контент. Для тех, кто еще не в теме, советую прочесть "Что такое уникальный контент и где его брать?". Если Яндекс видит на вашем сайте позаимствованные у кого-то тексты и картинки, то наказывает сайт путем понижения его позиций в поисковой выдаче. Даже по запросу с длинной фразой из контента страницы сайт либо выдается на последних местах (далеко за пределами ТОП10), либо открывается только по ссылке «показать опущенные результаты».

То есть фильтр "Ты последний" накладывается на страницу, идентифицированную поисковой системой как дубль уже существующей в индексе страницы. Данное название фильтру придумали сами оптимизаторы. Раньше его определяли по уникальной фразе с сайта и если вы оказывались на последнем месте, значит вы под фильтром.

Сейчас данный фильтр усовершенствовался и больше похож на гугловский Supplemental. Основная задача состоит в том, что бы убрать из поиска страницы, не представляющие интерес для пользователя.

Если вы вдруг увидели резкое падение посещаемости с Яндекса, то можно заподозрить наложение на ваш ресурс данного фильтра. Основная причина попадания под фильтр "Ты последний", как вы уже поняли, это неуникальный контент, к тому же редко обновляемый, а также стандартные шаблоны дизайна, которые можно массово наблюдать на доброй тысяче сайтов. То есть полное отсутствие оригинальности по сути является первым шагом навстречу этому фильтру.

Чтобы не попасть под этот фильтр, возьмите за правило размещать на своем сайте только уникальный контент, а также запрещайте копирование материалов сайта без активной ссылки. Иначе Яндексу трудно определить авторский источник и вывод об авторстве материала может быть сделан не в вашу пользу.

Дело в том, что если ваш сайт менее авторитетен, чем сайт, куда была скопирована статья, Яндекс может признать автором именно того, кто перекопипастил статью. Кстати, в таких случаях следует немедленно писать в техподдержку Яндекса.

Чтобы выйти из-под фильтра "Ты последний", следует полностью переписать весь неуникальный контент, убрать чужие картинки, сменить дизайн и т.д. После этого подождать переиндексации, обычно после этого страницы не все сразу, а постепенно начинают вновь появляться в выдаче.

2) "Непот - фильтр"


Этот фильтр накладывается на отдельные ссылки, отдельные страницы сайта, а также на весь сайт в целом за ссылочный спам, продажу ссылок с сайта. "Непот - фильтр" создан для контроля количества и качества внешних ссылок на странице сайта с целью определить их искусственное или естественное происхождение.

Поэтому для всех новых сайтов, представляющих собой СДЛ, поначалу не рекомендуется рисковать и стоит отказаться от продажи ссылок, пока сайт не достигнет определенных высот на Олимпе выдачи. Как только Яндекс посчитает ваш сайт достойным внимания пользователей Интернета и он станет набирать обороты, вот тогда можно аккуратно начинать "приторговывать" ссылками.

При наложении непот-фильтра перестают действовать исходящие ссылки с сайта. Выйти из-под этого фильтра можно лишь убрав все "продажные" ссылки со своего сайта или с определенной "наказанной" страницы. Причем убирать ссылки нужно постепенно, и также постепенно рекомендуется прикупить немного качественных ссылок с трастовых сайтов, чтобы реабилитироваться в глазах Яндекса. Этот процесс оптимизаторы называют заменой ссылочной массы.

3) "Ты спамный"

От данного фильтра частенько страдают "переоптимизированные" страницы, т.е. те, в содержании которых избыточная плотность ключевиков. Хоть на форумах часто проскакивает информация о том, что плотность ключевиков - понятие нынче неактуальное, позволю не согласится.

Да, я встречала в ТОП-10 сайты с переоптимизированными страницами, где плотность ключевиков просто зашкаливала, но им там не удавалось задержаться надолго. После очередной индексации такие сайты отбрасывало далеко вниз... Ведь текст с запредельным количеством ключевых слов и словосочетаний является ничем иным как спамом. А спам, как известно, запрещён во всех цивилизованных странах мира. Поэтому, лучше не пренебрегать количеством ключевиков на страницах сайта, разумнее все-таки остановиться на их оптимальном размещении.

Узнать, что сайт под фильтром, можно, если задать запрос в расширенном поиске с указанием области поиска только на проверяемом сайте. Если запрашиваемая страница одна из последних, то со стопроцентной вероятностью можно говорить о действии фильтра "Ты спамный".

Также часто при наложении этого фильтра главная страница сайта перестает отображается в поисковой выдаче. Выход из-под фильтра один - заменить переоптимизированный текст на читабельный и ждать следующей переиндексации.

4) "Аффилиат-фильтр"

Этот фильтр предназначен для борьбы с сайтами, принадлежащими одной компании и занимающими сразу несколько позиций в ТОПе выдачи. Нынче алгоритмы Яндекса вполне успешно выявляют совпадающую контактную информацию, одинаковые IP, whois-данные домена и тому подобное.

Если обнаруживается группа аффилированных сайтов, то лишь один из них останется в выдаче, а прочие будут заметно понижены в результатах поиска. Чтобы избежать санкций по этому фильтру, не стоит продвигать несколько сайтов одной компании по одним и тем же запросам.

Если сайты все-таки были уличены в прямой аффилированности (например, были указаны одинаковые адреса и телефоны), то выйти из-под фильтра простым изменением этих данных не получится. Ресурсы, на которые был наложен этот фильтр, придется начать продвигать по другим запросам и естественно понадобится время, чтобы они вновь вернулись в ТОП.

5) "Новый домен"

Данный фильтр, как ясно из его названия, очень любит проверять на прочность новые, только что созданные сайты. Очень часто оптимизаторы называют его "песочницей". Пока сайт в песочнице, а это может продлиться от месяца и до нескольких лет, у него нет возможности пробиться в выдачу по высокочастотным запросам. Радует то, что низкочастотные запросы он почти не затрагивает.

Всем привет! В 2014 году в SEO произошло множество изменений, направленных на повышение качества поисковой выдачи и борьбу с веб-спамом. Среди них отключение ссылок для части запросов в Яндексе, борьба с накруткой поведенческих факторов, изменения в работе алгоритма АГС, обновления фильтров Панда и .

Множество сайтов были пессимизированы за запрещенные методы продвижения. Алгоритмы поисковиков несовершенны и под раздачу периодически попадают вполне нормальные веб-ресурсы. Задача вебмастера вовремя определить, что сайт зафильтрован. Это не так трудно, учитывая некоторые признаки, которые будут описаны далее. Гораздо сложнее узнать под какой фильтр попал сайт, чтобы выяснить причины и суметь максимально быстро все исправить. Вот об этом и пойдет речь в этой статье.

Как узнать что сайт под фильтром Яндекса или Гугла?

Самое жестокое наказание - это бан сайта, то есть полное исключение всех страниц из индекса и запрет на добавление в аддурилку. Бан достаточно редкое явление и надо очень сильно постараться, чтобы его получить. Единственным решением проблемы может быть только смена домена.

Гораздо чаще на сайты накладывают фильтры, которые могут быть разных типов:

  • технические
  • ссылочные,
  • текстовые,
  • поведенческие.

Не буду все подробно тут описывать, так как их очень много и информации в интернете об этом хватает. Наша задача определить само наличие каких-либо санкций, которые могут накладываться, как на весь ресурс в целом, так и на отдельные страницы.

Признаки того, что сайт попал под фильтр:

  1. потеря трафика, связанная с проседанием позиций, выпадением значительного количества страниц из индекса или сменой релевантных страниц;
  2. обнуление тИЦ (верный признак АГС);
  3. уведомление в панели для вебмастеров Google о наложении ручных санкций.

Надо помнить, что не всегда потеря трафика - признак фильтра. Есть вполне объективные причины:

  • сезонность запросов;
  • запрет на индексацию (например, неправильная настройка файла robots.txt или мета-тега robots);
  • временная недоступность сайта или низкая скорость загрузки из-за проблем на хостинге;
  • смена структуры URL страниц (важно своевременно настроить 301 редиректы);
  • пометка в выдаче, что сайт угрожает безопасности компьютера (надо быстро найти и удалить вирус).

Некоторые причины наложения санкций поисковых систем:

  • Технические проблемы - дубли страниц, низкая скорость загрузки, битые ссылки и т.д.
  • Неуникальный, генерированный или бесполезный контент (Ты последний, Панда). Важно, чтобы уникальность была не только техническая, но и смысловая, иначе сайту грозит фильтр за отсутствие добавочной ценности. Что это такое можно почитать на блоге Елены Камской .
  • Некачественный контент с чрезмерным количеством ключевых слов и их выделений жирным, курсивом, подчеркиванием (Ты спамный, Панда).
  • Большое количество продажных внешних ссылок (Непот-фильтр).
  • Резкий прирост обратных ссылок, особенно с плохих ресурсов (Ссылочный взрыв, Пингвин).
  • Переспам в анкор-листе (Пингвин).
  • Обилие рекламы в первом экране и агрессивная реклама.
  • Наличие «взрослого» контента (Anti-Adult фильтр).
  • Накрутка поведенческих факторов в Яндексе.
  • Стремление продвинуть в выдаче по запросу несколько сайтов одного владельца (Аффилиат-фильтр).

Список можно продолжать еще долго, так как борьба поисковых систем с недобросовестными оптимизаторами продолжается постоянно.

Как определить под каким фильтром сайт?

Итак, сайт потерял трафик и позиции. Нам известны почти все основные фильтры Yandex и Google, но как понять, какой именно наложен на наш ресурс. Например, наличие АГС можно легко посмотреть через RDS-бар или сервис xtool.ru. Про ручные санкции Гугл нам сообщит сам. А как быть с остальными фильтрами, как их определить?

Очевидно, что стоит сопоставить график посещаемости сайта с выходом основных обновлений поисковых алгоритмов. Если провалы или взлеты посещаемости будут точно совпадать с датами апдейтов, то с большой долей вероятности их можно связать между собой.

Для определения Панды и Пингвина есть зарубежные онлайн-сервисы, которые требуют обязательный доступ к счетчику Google Analytics. Например, http://www.barracuda-digital.co.uk/panguin-tool/

Лично я чаще использую Метрику, к тому же Яндекс интересует меня в большей степени. Как быть в этом случае? А выход есть - это новый бесплатный инструмент от земляков из компании SeoLib под названием “Анализ трафика “.

Как пользоваться сервисом

Чтобы проверить сайт на фильтры Яндекса и Гугла достаточно залогиниться в аккаунте Я.Метрики или Гугл Аналитикс, откуда будут подгружаться данные о трафике. Затем регистрируемся на сайте seolib.ru и в правом верхнем углу нажимаем на значок гаечного ключа. В выпадающем списке инструментов выбираем “Анализ трафика “.

Я выбрал Метрику и в моем случае приложение запросит разрешение к данным на Яндексе. Жмем кнопку “Разрешить ” и на открывшейся странице выбираем проект для проверки.

Получаем график сравнения динамики посещаемости из поисковиков с датами изменений алгоритмов ранжирования.

При наведении на вертикальные полосы отображается дата и название обновления.

Как можно заметить, у меня началась просадка трафика в Yandex с 1 декабря 2014 года. В это время был Антифрод-апдейт - санкции за накрутку ПФ (клики в выдаче и переходы по ссылкам). Не знаю, может совпадение, так как я накрутку не использую. Посмотрим, как будет дальше.

Ниже показана расшифровка по цветам для Яндекса и Гугла. Ненужные фильтры можно скрыть, отметив их галочкой.

Еще одна интересная функция - сравнение трафика. Можно выбрать 2 периода, поисковую систему и сравнить ТОП-50 самых трафикогенерирующих страниц и запросов. Будет показано среднее число визитов в сутки для каждого периода, а также количество и процент их изменений.

На этом обзор инструмента по проверке сайта на фильтры поисковиков можно закончить, но знакомство с сервисом SeoLib только начинается. Рекомендую присмотреться к нему, здесь очень много полезных для оптимизатора инструментов. Некоторые из них платные, но стоимость вполне адекватная. К тому же до 31 декабря действуют новогодние бонусы при единоразовом пополнении на:

  • 10-49 у.е. автоматически зачисляется на счет + 10% от суммы пополнения
  • 50-99 у.е. – 20%
  • 100-249 у.е. – 30%
  • 250-499 у.е. – 40%
  • От 500 у.е. – 50%

P.S. Совсем скоро наступит Новый 2015 год и, пользуясь случаем, хочу поздравить вас, мои дорогие читатели, с этим замечательным праздником! Желаю крепкого здоровья вам и вашим родным, моральных и физических сил, чтобы выстоять в кризис! Желаю вам личного счастья и процветания вашему бизнесу! Не теряйте веру в себя, даже если на пути встречаются трудности! До встречи в Новом году!

Всем здравствуйте!

Сегодня в этой статье я расскажу вам про фильтры популярной Яндекс. Подобные фильтры поисковик использует для наказания веб-ресурсов, которые не соответствуют определенным требованиям.

В я расскажу о самых распространенных фильтрах Яндекса. Также покажу как определить наличие того или иного фильтра на своем веб-ресурсе по определенным признакам. Кроме того, мы поговорим о том что можно сделать, если пострадал от воздействия фильтров Яндекс.

В своей следующей статье я буду рассказывать о , а сегодня поговорим о том как проверить сайт на фильтры Яндекса.

Внезапное появление фильтров Яндекса

Совсем недавно, приблизительно лет 5 назад о фильтрах поисковиков Яндекс и Google вебмастера ничего не слышали.

В те времена самым распространенным и единственным в своем роде фильтром поисковика Яндекс был бан сайта. Его получали в награду веб-ресурсы, которые довольно часто применяли запрещенные приемы seo-оптимизации. На сегодняшний день Интернет глобально изменился. Наряду с этим также поменялись и требования поисковых систем, предъявляемые к веб-ресурсам.

Поисковые системы, которые постоянно стремятся завоевать доверие пользователей, хотят привлекать все больше и больше посетителей. Их цель ясна: больше посетителей — больше заработок у поисковиков. Поэтому они начали воплощать свою доблестную миссию — повышать комфорт пользователей за счет постепенного уничтожения ресурсов, не приносящих никакой пользы уважаемым посетителям.

Поэтому алгоритмы поисковиков изо дня в день совершенствуются, и они тем самым становятся достаточно умными, для того чтобы распознать бесполезные, никчемные ресурсы и спрятать их подальше от пользователей поисковых систем.

При этом зачастую осуществлять эту деятельность им помогают . Сегодня для отсеивания веб-ресурсов в сети поисковики создали достаточно большое количество разных фильтров, которые применяются к сайтам и блогам в целом или же к их определенным страницам.

Очень часто не могут распознать фильтры, которые наложил поисковик на их веб-ресурс. Они просто не осознают, в чем заключалась их ошибка. Сегодня любое нарушение стандартных правил оптимизации блога, может повлечь серьезные негативные последствия!

Они могут вызвать пессимизацию (существенное понижение позиций страниц блога), а также самое опасное: удаление всех страниц блога из результатов поисковой выдачи!

В настоящее время вебмастера очень боятся различных санкций со стороны поисковиков, так как они за считанные секунды могут передвинуть любой веб-ресурс с первой страницы результатов выдачи на сотую или трехсотую позицию.

Теперь настало время рассказать про самые часто встречающиеся фильтры Яндекса! Как нужно действовать, чтобы не стать их жертвой и что делать, если поисковая система Яндекс все-таки использовала санкции для пессимизации вашего сайта или блога.

Фильтры Яндекса. Проверка на фильтры Яндекса

  • Аффилирование

Этот фильтр Яндекс дарит сайтам, у которых единый автор или же одна и та же компания. Он применяется в том случае, если эти веб-ресурсы используют в продвижении один и тот же поисковый запрос или запросы. Задача аффилиат — фильтра состоит в том, чтобы создать наиболее разнообразную и , которая будет интересна пользователям.

Если Яндекс обнаружит, что определенное количество веб-ресурсов присутствует в результатах поисковой выдачи по одинаковым поисковым запросам и все эти ресурсы созданы одним и тем же автором, то в этом случае они получают аффилиат-фильтр.

При этом в результатах выдачи по каждому отдельному ключевому запросу Яндекс оставит по одному веб-ресурсу, который имеет больший , по мнению поисковика. Другие же сайты или блоги этого автора поисковик понизит в результатах выдачи и скорее всего они займут позицию, но не в Топ100 и возможно не в Топ 200.

При этом в результатах при вводе одного запроса будет присутствовать один ресурс, а при вводе другого — другой.

Действительно, если бы не было такого фильтра, то один автор или одна компания могли бы захватить все самые лучшие позиции в результатах выдачи. Для этого нужно было бы создать пару-тройку десятков веб-ресурсов с одинаковым контентом. Вот и всё!

Как Яндекс вычисляет ресурсы — аффилиаты:

На самом деле существует достаточно много признаков для выявления этого фильтра Яндекса. Вот самые часто встречающиеся признаки. В соответствии с этими признаками осуществляется проверка на фильтры Яндекса:

  • одна и та же CMS (система управления содержимым веб-ресурса);
  • схожие сервисы регистрации доменных имен, а также одинаковое время регистрации самих доменов;
  • веб-ресурсы располагаются на одном хостинге (схожие адреса IP или расположены в одной и той же подсети);
  • веб-ресурсы имеют одинаковую информацию в графе «контакты»(тот же адрес, телефоны, е-мейл);
  • у этих ресурсов похожий дизайн и элементы шаблона;
  • одинаковый контент на страницах ресурса (одна и та же информация);

Как выйти из под фильтра Яндекса аффилирование

Чтобы снять этот фильтр Яндекса, нужно отыскать и нейтрализовать все причины, которые могут вас выдать. В том случае если в действительности окажется, что некоторое количество ресурсов имеет один владелец, то освободиться от воздействия фильтра будет нелегко!

Для изменения сложившейся ситуации необходимо будет тщательно перепроверить и оптимизировать все признаки, о которых я писал выше (изменение имен доменов, со сменой их владельцев, замена дизайна и структуры ресурсов, а также анализ, перезапись контента в нужных местах и т.д.).

Говоря простым языком, необходимо поработать над веб-ресурсами так, чтобы они не были похожими. После того как вы осуществите эти действия, необходимо обратиться в службу поддержки поисковой системы Яндекс. Здесь важен вот какой момент. Писать Яндексу нужно от разных авторов, с прошением о пересмотре веб-ресурса с целью снятия данного фильтра.

Однако вам никто не будет гарантировать обязательного снятия фильтра с вашего ресурса. Из этого всего следует, что если вы не хотите попасть под этот фильтр, то не стоит продвигать свои сайты по одним и тем же поисковым запросам.

  • Переоптимизация ресурса

Целью этого фильтра Яндекса является удаление из результатов поиска страницы, которые оптимизированы под какой-либо ключевой запрос, но не дают на него подробный ответ пользователю поисковой системы.

Этот вид санкций можно определить по резкому падению позиций страниц ресурса по вашим ключевым запросам. Обычно позиции снижаются на несколько десятков пунктов(от 10 до 30). Однако были случаи, когда из-за таких переоптимизированных страниц, понижался полностью весь ресурс.

Из-за этого подобный фильтр поисковика Яндекс зачастую невозможно вычислить!

В том случае если вы подозреваете, что ваш ресурс попал под этот фильтр, лучше всего сразу же задать вопрос службе поддержки Яндекса.

Обычно Платон Щукин (имя, которое ставит в ответном письме в качестве подписи служба поддержки Яндекса) напишет вам о том, действует ли эта санкция против вашего веб-ресурса или нет. К тому же он часто указывает на причину действия этого фильтра.

Переоптимизация это действие, при котором страницы ресурса оптимизированы под определенные поисковые запросы, но полных и развернутых ответов на эти запросы, по сути, нет.

Очень часто вебмастера не правильно понимают само определение — переоптимизация. Они путают его со спамом ключевых запросов на странице ресурса.

Раньше был фильтр, который назывался «Портяночный».

На сегодняшний день он уже не используется, поэтому ваш веб-ресурс практически не сможет нарваться на фильтр за обилие ключевиков в статье.

Сегодня поисковая система Яндекс уделяет максимум своего внимания поведенческим факторам.

И если посетитель вашего блога действительно заинтересовался определенной статьей, то Яндекс не обратит внимания на то, что в теле статьи очень часто прописаны ключевые слова.

Причины фильтра переоптимизации, и каким образом от него освободиться.

Причины этого фильтра могут быть следующие:

  • спамная структура (ключевые слова не отвечают на запросы посетителя);
  • частое употребление атрибутов для привлечения внимания (жирное выделение, курсив или подчеркивание текста);
  • некачественный контент (плохо читаемый текст, отсутствие должного содержания и иллюстраций);
  • отсутствие форматирования текста (написан без абзацев, слитно);
  • отсутствует или создана с помощью плагина (автоматическая перелинковка), а она менее эффективна по сравнению с ручной.

Чтобы фильтр сняли, необходимо просмотреть все без исключения страницы, которые под него попали. Отредактируйте их до устранения всех вышеописанных причин для снятия фильтра Яндекса.

  • Наложение фильтра за качество входящих ссылок

Этот фильтр очень часто встречается в сети и применяется к большому числу ресурсов в интернет.

Данный фильтр Яндекса можно разделить на три вида:

  • Фильтр за платные ссылки (коммерческие)

Поисковая система старается свести к минимуму влияние платных или коммерческих ссылок на ранжирование веб-ресурсов.



В продолжение темы:
Android

Веб-сервисы в 1СВ данной статье будет рассмотрены вопросы интеграции 1С с уже существующими веб-сервисами и использование самой 1С как веб-сервиса. При этом под веб-сервисами...