Блог Максима Войтика
Публикации о способах
заработка в интернете и SEO

Фильтр Пингвин от Google — зачем был создан и как его избежать

15 июля 2014
Комментарии: 23

Фильтр Пингвин

Привет! Продолжаю линейку постов посвященную фильтрам Гугла и сегодня речь пойдет о фильтре Пингвин (Penguin), который борется с сайтами использующими черные методы продвижения (SEO), но в отличии от своих собратьев может быть применен к площадкам, как в ручном, так и в автоматическом режиме.

В предыдущем посте мы познакомились с фильтром Панда, узнали что это за такой зверь, кто его придумал и с какой целью он был выпущен на просторы всемирной сети.

Однако не успели вебмастера разобраться с Пандой (убрать спам на страницах, удалить дублирующий контент) одним словом сделать свои сайты безобидными в глазах посетителей и поисковиков, как на свет (апрель 2012 года) Google выпускает новый фильтр под кодовым словом Пингвин, который занижает в выдаче сайты с некачественным ссылочным профилем.

Зачем был создан Penguin


Давайте заглянем в прошлое и посмотрим, как раньше продвигались сайты. Например, нужно было выйти в ТОП по какому-нибудь высокочастотному запросу.

Что для этого делал вебмастер, писал оптимизированную статью, где неоднократно употреблял ключевое слово в содержании статьи, а затем, используя ссылочные биржи, покупались десятки ссылок, притом с доноров не самого лучшего качества, в которых анкор и был продвигаемый запрос.

В итоге такой псевдо СДЛ сайт занимал высокие места в ТОП Гугл и получал тонны трафика. Конечно же, это не могло продолжаться долго и Google был вынужден настроить свои алгоритмы таким образом, чтобы исключить из выдачи некачественные сайты, умышленно завышающие свои позиции.

Если с контентом начала бороться Панда, то следить за качеством входящих и исходящих ссылок пришлось новоиспеченному Пингвину, который после запуска изменил всемирную выдачу до неузнаваемости.

Penguin — это кодовое слово очередного фильтра от Гугла, который фильтрует сайты, опуская из на низкие позиции в выдаче, за неестественную ссылочную массу.

Ниже мы более детально рассмотрим те факторы, за которые применяются санкции к площадкам.

За что наказывает фильтр Пингвин


Если после очередного обновления данного фильтра вы заметили, что трафик резко пошел вниз, то скорее всего к сайту были применены санкции.

Посмотрите на один сайт, который пострадал от Пингвина в день его выхода на свет.

Падение трафика фильтр Пингвин

Причины, из-за которых страдают сайты:

Качество входящих ссылок. Теперь для Гугла неважно количество входящих ссылок, ему важно качество, а самое главное естественность. Все остальное может быть расценено, как умышленное манипулирование результатами выдачи, к которым следует отнести:

— Ссылки, у которых в анкоре присутствует прямое вхождение ключевых слов;

— Размещение ссылок на заспамленных, некачественных площадках;

— Обмен ссылками;

— Сквозные ссылки в футере и сайдбаре;

— Неравномерное распределение ссылок по страницам сайта.

Исходящие ссылки. Если вы решили поставить исходящую ссылку, то обязательно проверьте сайт, на который хотите ссылаться, потому что он должен быть качественным, а не спамным.

То же самое касается вебмастеров зарабатывающих на продаже ссылок. Если на сайте в основном присутствуют коммерческие или нетематические ссылки, то велика вероятность, что такая площадка может попасть под клюв Пингвина.

Скорость прироста ссылок. Ссылки должны появляться на сайт постепенно, по мере его развития. Если вы любите в качестве средств продвижения использовать прогоны по базам профилей и каталогов, то пора с этим завязывать.

Гуглу не понравится, если вчера на ваш сайт вело 100 линков, а спустя день уже ссылается 1000 — это явный признак линкспамерства.

Все вышеперечисленное можно заменить одним словом — ЕСТЕСТВЕННОСТЬ.

Как проверить под каким фильтром находится сайт


Если в один прекрасный день вы по неизвестным причинам лишились трафика из поисковой сети Google, то первым делом надо определить под каким именно фильтром находится ваша площадка, чтобы разработать стратегию по скорейшему снятию санкций.

Как я уже писал, фильтр Пингвин имеет две разновидности в плане применения к площадкам: ручной и автоматический.

При ручном методе наложения санкций, как правило, приходит уведомление в панели Гугл Вебмастер, в котором сообщается, из-за чего пострадал сайт.

Уведомление о наложении фильтра Пингвин

Содержание письма может в некоторых случаях отличаться, но суть его остается одна и та же — избавиться от некачественных и неестественных бэклинков. После чего надо отправить запрос на перепроверку площадки.

Чтобы найти это уведомление нужно инструментах для вебмастеров перейти в раздел «Поисковый трафик» далее «Меры, принятые вручную».

Инструменты для вебмастеров

Если сайт подвергся ручным санкциям, то в этом разделе будет находиться злосчастное письмо от службы по борьбе с поисковым спамом. Но большинство вебмастеров видит следующую картину.

Меры, принятые вручную

В этом случае ручной фильтр Пингвина к проверяемой площадке не был применен и следует копать в сторону автоматического.

Пингвин, как и другие фильтры, периодически обновляет свою базу некачественных площадок, а статистика показывает, что это происходит два раз в год.

Ниже я выписал последние даты, когда произошел апдейт Penguin:

24 апреля 2012 года

25 мая 2012 года

5 октября 2012 года

22 мая 2013 года

4 октября 2013 года

17 октября 2014 года

Теперь нужно сопоставить день, когда начался спад трафика с днем обновления фильтра и если эти числа совпадают, считайте истинная причина пессимизации площадки в выдаче установлена и можно приступать к ее лечению.

Но есть и другой способ узнать, под какой именно фильтр от Гугла попал сайт. Решением стал зарубежный сервис под названием Barracuda.

В его арсенале есть продукт Panguin Tool, который берет данный из статистики Google Analytics, а затем накладывает на график посещаемости даты обновления всех фильтров, что позволит лучше оценить, какой из них повлиял на ранжирование страниц сайта.

сервис barracuda

Для того чтобы его опробовать в действии на вашем сайте должна быть подключена статистика Гугл Аналитикс, правда для того чтобы воспользоваться услугами этого сервиса придется предоставить ему данные для входа в Аналитику, что не всегда может быть безопасным, однако я по этому поводу заморачиваться не стал.

1) Входим в свой аккаунт Гугл Аналитики, для чего нажимаем на кнопку «Log-in to Analytics».

Входим в аккаунт Analytics

2) Далее вам надо подтвердить право на предоставление доступа приложения «Barracuda Digital».

приложение Barracuda Digital

3) Теперь надо выбрать тот аккаунт сайта, с которого будет сниматься статистика посещаемости.

выбираем аккаунт Аналитики Гугла

4) Перед вами появится заветный график за последний год, на который будут нанесены все даты обновления Гугл фильтров.

фильтр Панда и Пингвин

Если посмотреть на статистику моего блога, вывод напрашивается неоднозначный. Четко видно, что падение трафика началось с обновления Панды, а когда трафик начал уменьшаться, произошел апдейт Пингвина, что тоже могло повлиять на ранжировании сайта в целом.

Теперь передо мной стал вопрос, под каким именно фильтром находится мой блог: Пандой или Пингвином? Буду рад, если в комментариях вы поможете мне в этом разобраться. :)

Как вернуть позиции сайта и победить Пингвина

Если с Пандой дела обстоят неоднозначно и чтобы ее победить, надо смотреть в сторону контента, то с Пингвином все куда радужней, так как достаточно убрать некачественные и неестественные ссылки на сайте и в случае с ручным фильтром отправить сайт на перепроверку, а с автоматическим ждать, когда случится апдейт.

Но как убрать такие ссылки, а также как узнать какие из них качественные, а какие нет? Если с исходящими ссылками все понятно, достаточно пробежаться по статьям и поставить на них запреты noindex и nofollow, то с входящими вечными линками все намного сложнее.

Для таких ситуаций Гугл пошел навстречу вебмастерам и придумал сервис Disavow links по отклонению ссылочной массы, которая не будет учитываться алгоритмами поисковика при ранжировании сайта.

Все что нам нужно это скачать список всех ссылающихся сайтов, о которых известно Гуглу, далее проверить их на качество, а затем все некачественные площадки отправить в Disavow links, сообщая тем самым, что на них не нужно обращать внимание при анализе ссылочной массы.

Скачиваем список входящих ссылок. Для этого идем в панель инструментов Гугл Вебмастер в раздел «Поисковый трафик» далее «Ссылки на ваш сайт» и в самом низу списка жмем «Дополнительно».

Ссылки на ваш сайт

Далее надо выгрузить все ссылки к себе на компьютер. Для этого нажимаем кнопку «Загрузить последние ссылки», еще обратите внимание, что ссылок у вас будет куда больше, чем входящих доменов.

Загрузить последние ссылки

Затем выбираете, в каком формате надо сохранить список ссылок, я придерживаюсь документа Excel.

выбор формата загрузки

Далее у вас два варианта, как проверить полученный список ссылок на качество:

— Самостоятельно просматривать все доноры из списка, проверять их показатели, опираясь на свои навыки.

список ссылок

— Доверить проверку специальным сервисам, о которых я рассказал в статье «Как проверить ссылки на предмет качества».

Я пошел по более простому для меня варианту, так как не считаю, что могу потратить столько времени, чтобы проверить около 1000 доменов.

Переходим в сервис CheckTrust и выбираем в меню создать проект «BackLinks Checker».

проект BackLinks Checker

Далее вводим любое название проекту и загружаем скаченный ранее файл со ссылками. Если какие-то ссылки из файла вы уже проверили сами, то можете вставить список оставшихся ссылок в специальное поле для проверки и нажимаем «Далее».

Создание проекта BackLinks

Далее вам надо выбрать тип очистки:

Легкая чистка — удалению подвергнутся только бэклинки с самых некачественных сайтов.

Умеренная чистка — в список попадут все подозрительные сайты по качеству оцениваемые как ниже среднего.

Отличная чистка — все, вызывающее хоть какое-то подозрение, будет удалено.

Жесткая чистка — среди «выживших» останутся ссылки с сайтов только высшего качества, по статистике это не более 5-10% всех бэклинков.

Нужны все варианты — получите все 4 файла со ссылками после разных степеней чистки.

Тип очистки ссылок

Сразу скажу, что берите лучше последний вариант, чтобы у вас были все списки, и вы наглядно видели какие из доменов все-таки стоит оставить.

После того как система проверит проект и его статус обработки станет «Выполнено» вам нужно будет по нему кликнуть, чтобы произошла его загрузка на компьютер.

Это будет текстовый файл со списком сайтов, которые система посчитала некачественными и которые стоит добавить в сервис Disavow links от Google. Если посмотреть скаченный файл, то вы увидите примерно такую картину.

формат ссылок для сервиса Disavow links

Именно в таком формате domain:сайт и надо отправлять все исключаемые площадки в Disavow links. Как видите, CheckTrust сделал неинтересную работу за вас. :)

Теперь надо перейти в инструмент Disavow links, почему-то прямой ссылки на него из панели Гугл Вебмастер я не обнаружил, а далее выбрать сайт, для которого будете отклонять ссылки.

Отклонение ссылок

Читаем внимательно предупреждение, видно создано для тех, кто случайно решил воспользоваться этим инструментом.

Предупреждение

Далее выбираем файл, который мы получили в сервисе проверки ссылок и нажимаем «Готово», а потом «Отправить».

выбираем файл

Если вы все сделали правильно, то в сообщениях о сайте должны получить уведомление, в котором будет стоять такая же цифра отклоненных доменов, сколько было в загружаемом файле.

Сообщения о сайте

После всех вышеописанных манипуляций останется ждать, когда произойдет обновление фильтра Пингвин и с сайта снимутся санкции, но при этом не стоит забывать, что ссылки должны постоянно прибавляться. Гугл любит динамику постоянного роста качественной ссылочной массы.

Так что обратные бэклинки нужно добывать всеми возможными способами постоянно, а вот как это сделать вы узнаете в следующих постах, главное не пропустите!

На сегодня у меня все, расскажите, как вы победили фильтр Пингвин и какими инструментами для этого пользуетесь. Пока!

(7 голос., в среднем: 4,14 из 5)
Загрузка...
С уважением, Максим Войтик
Буду рад, если нажмете на любую из кнопок:
Комментарии (23)
  1. Макс в 11:38

    Что то гугл очень животных любит. Наверное следующий его фильтр будет называться хорек.

    Ответить
    • Максим Войтик в 12:01

      Эти фильтры появились именно с приходом Ларри Пейджа...

      Ответить
  2. Жук Юрий в 12:26

    Что есть такие фильтры это правильно, потому что развиваться блоги должны более менее естественно, а не так, чтобы купил ссылки на статью с хороших площадок и вышел в ТОП. Один несколько лет старается, а другой решил по-быстрому заработать на блоге, не, не получится.

    Ответить
    • Максим Войтик в 13:33

      А раньше все было так легко и многие пользовались этими пробелами в алгоритмах.

      Ответить
  3. Максим в 15:13

    Максим, а давно Ваш блог стал dofollow?

    Ответить
    • Максим Войтик в 16:09

      С чего вы это взяли?

      Ответить
      • Максим в 16:50

        Всё очень просто :) Смотрите, я оставляю ссылку ya.ru — для проверки. Проверим, открыта ли она для индексации.

        Если нет, то укажу, открытые ссылки из комментариев. Это Вам для размышления, почему Ваш блог под фильтром Google.

        Ответить
  4. Максим в 16:51

    Ссылка оказалась открытой, а это значит, что все ссылки из комментариев открыты. Вот Вам и фильтр от Google (видимо решили, что ссылки Вы продаёте)

    Ответить
    • Максим Войтик в 23:05

      Теперь понял :) Все ссылки от индексации у меня раньше закрывал плагин WP-NoExternalLinks, но пару недель назад я от него избавился, после этого начал делать чистку всех ссылок, которые автоматически стали открытыми.

      Возможно в коком-то посте есть ссылка, но это все временно.

      Ответить
  5. Надежда в 08:01

    Вроде, блог не под фильтром, но почему-то трафика из гугла нет совсем (всего пару раз было). вроде, не под фильтром, но тогда почему. Правда, блог молодой (7 мес), да и запросы затачиваю под яндекс.

    Ответить
    • Максим Войтик в 12:09

      Скорее всего Надежда, ваш блог под фильтром «Песочница», все новички под него попадают.

      Ответить
  6. wpmen в 09:37

    Все только и говорят о том, что Пингвин понизил сайт в выдаче и так далее... Хотелось бы услышать на сколько выдача изменилась в лучшую сторону, на сколько выдача очистилась от ГС, кто не будь видел подобный материал? 🙂

    Ответить
  7. Жук Юрий в 14:20

    Приветствую всех. У меня вопрос, а как вы выделяете некоторые предложения в рамку. Например, как в статье:

    Penguin — это кодовое слово очередного фильтра от Гугла, который фильтрует сайты, опуская из на низкие позиции в выдаче, за неестественную ссылочную массу.

    Ответить
  8. Аня в 16:21

    А у меня пол года назад была такая ситуация с Яшой, трафик резко и внезапно упал, до сих пор ищу причину, а вот Гугл мне дает стабильно его.

    Ответить
  9. Олеся+Сазонова в 16:55

    Именно из-за таких фильтров как пингвин,я боюсь связываться с ссылками. как с их покупкой,так и с продажей

    Ответить
  10. Оксана в 18:44

    Кстати, ссылки могут быть и в шаблоне ворд пресс, у меня были зашифрованы в двоеточие ) Когда проверила — ужас, под тысячу... Даже и продавть их не обязательно, чтобы схватить фильтр от гугл... Отдельное спасибо за пост! Долго не могла найти инфу по фильтрам, думала их нельзя проверить, бан и бан... а здесь все по полочкам о наболевшем )))

    Ответить
    • Максим Войтик в 23:40

      У вас Оксана на блоге в футере на каждой странице стоит исходящая ссылка.

      Ответить
  11. Оксана в 13:56

    Спасибо, Максим! Буду ее убирать, я недавно поменяла шаблон и еще не успела!

    А у меня такой вопрос, у меня несколько сайтов, но почему то для анализа доступен один. Где кнопочки для добавления еще сайтов? Вообще конечно же очень нужный сервис, но заморочистый жутко... Если уж они стремятся к минимализму, то все должно быть интуитивно понятно и просто, у яндекса намного панель веб мастера удобней

    Ответить
    • Максим Войтик в 19:14

      Вы про какой сервис говорите Оксана?

      Ответить
  12. Артем в 20:35

    А у меня сайт под фильтр попал 16 ноября 14 года, интересно, обновления какого фильтра было в этот промежуток времени

    Ответить
  13. Константин Кислов в 15:39

    Я раньше не знал как закрывать исходящие ссылки от индексирования, потом научился через nofollow, затем многие начали говорить что nofollow уже не работает, а нужно закрывать через тег span. Вообщем всегда нужно следить за нововведениями поисковиков, и стараться вести блог или сайт качественно.

    Ответить
  14. Руслан в 17:30

    Жаль что эти фильтры обновляются всего раз в полгода. Вот так попадешь случайно под фильтр, а отдуваться придется полгода минимум.

    Ответить
  15. Денис в 04:59

    Спасибо Вам за полезную информацию [good] [good] [good]

    Ответить
Оставить свой комментарий
Обязательно ознакомьтесь с правилами комментирования!!! СПАМ будет удален!
:) :-D ;-) :-| [star] [good] [present] [flower] [:-))] [:))] [:--_)] [:-|]

© 2011-2016 seoslim.ru, блог Максима Войтика

Внимание! Копирование материала строго запрещено. Соблюдайте авторские права и уважайте труд других людей!