Фильтры гугла. Фильтры поисковой системы Google

С выходом Минусинска фильтры Яндекса стали еще больше дублировать фильтры западной ПС Google, при этом последние куда меньше изучены сеошниками Рунета, чем первые. В этой статье я постарался охватить те санкции Гугла, которые я сам знаю. Возможно, есть и другие. Сразу подмечу - по тем сведениям, что имеются, можно сделать вывод, что некоторые фильтры Google дублируют функции друг друга. То есть, допустим, за неуникальный контент может покарать как Панда, так и Google Duplicate Content. Поэтому я такие «дубли» в отдельные пункты не выделял (вот что значит борьба с дублями в Google, старик).

Вот тут Рэнд Фишкин рассказывает, как под эти фильтры не попасть:

Виды санкций Google

Первый тип классификации — это разделение на фильтры за косяки на самом сайте и на фильтры за косяки при внешнем продвижении. По этому типу мы и пройдемся в статье подробнее.

Но помимо этого есть еще деление на ручные и автоматические санкции. Различие между ними в том, что автоматические санкции накладываются на вас машиной, а ручные — модератором. Первые снять гораздо легче, так как они и снимаются в основном автоматом. О вторых вас оповестит Google вебмастер, создав сообщение во вкладке «Меры, принятые вручную». А вот об автоматических санкциях вас информировать никто не будет.

Фильтры за внутренние нарушения

Под внутренними нарушениями подразумевается недобросовестная работа над созданием контента, переоптимизация текста, отсутствие внутренней оптимизации ресурса в целом и так далее.

Панда

Фильтр призван находить страницы сайтов с неуникальным заспамленным контентом, который, вероятней всего, был создан для поискового робота. С помощью Google Analytics можно отследить уровень органического трафика с Гугла, который значительно снизится, если сайт попадет под фильтр. Естественно, последствия Панды выражаются в существенном проседании позиций в выдаче.

Вот отличное видео от Виктора Карпенко о Панде:

Союзниками Панды являются более узкоспециальные фильтры, такие как Duplicate Content (дублирование контента) и Omitted Results (схожий контент), направленные на борьбу с похожим, повторяющимся контентом. В целом, Панда является самым распространенным фильтром, охватывающим большое количество внутренних факторов ресурсов.

Как ни крути, а от плохого контента нужно избавляться путем изменения или удаления вредоносных страниц. Старайтесь размещать на сайте только уникальный качественный контент, которые понравятся алгоритмам поисковой системы.

Песочница

Песочница, или Sandbox, предназначена для ограничения молодых сайтов, то есть фильтр накладывается не за нарушение, а за отсутствие траста. Если сайту меньше года, то шансы занять места в топе по запросам крайне низки. Косвенным результатом работы Песочницы могут являться безуспешные попытки продвижения по ВЧ и СЧ запросам, когда не удается увидеть значимые сдвиги в поисковой выдаче Гугла.

Владельцам молодых сайтов не стоит отчаиваться, а следует развивать свой ресурс, наполняя его уникальным релевантным контентом. Как вариант, можно получить ссылки с тематически близких сайтов, которые уже обрели трастовость у поисковых систем и имеют высокое значение PR. Таким образом, можно ускорить «взросление» вашего сайта и выход из «детской» Песочницы.

Немного похож на песочницу фильтр Domain Name Age, проявляющийся в том, что сайты с доменом возрастом до 1 года могут плохо индексироваться.

Сопли

Фильтр «Supplemental Results», в простонародье «Сопли», предназначен для нахождения страниц сайта, которые содержат похожий контент. В случае обнаружения подобных документов, фильтр перемещает их в дополнительные (по умолчанию скрытые) результаты поисковой выдачи Гугла. Обычно, под действие фильтра попадают страницы-дубли сайта.

Про борьбу с соплями у WPnew есть неплохие материалы. Вкратце — следует удалять бесполезные страницы со служебной информацией и технических дубли, а также применять редирект с канонической ссылкой.

Broken Link

Если на сайте находится слишком много битых ссылок, Гугл может наложить на ресурс соответствующий фильтр. В случае превышения допустимого предела по битым ссылкам, ресурс может потерять траст, а за этим последует и снижение в поисковой выдаче.

Google -30

Фильтр «минус 30» накладывается на ресурс в случае подозрения в запрещенных махинациях, которые любят использовать «черные» сеошники, то есть создатели дорвеев и прочих ГС с целью заработка легких денег на быстротечных ресурсах. Под махинациями подразумеваются осуществление клоакинга и редиректов, которые видят пользователи, но не видят ПС. Со временем роботы обнаруживают нечестную игру и понижают ресурс на тридцать позиций в выдаче.

Если убрать запрещенные скрипты, через некоторое время фильтр снимется и можно будет вздохнуть с облегчением. Что касается дорвеев, то скорей всего такие сайты и вовсе вылетят из индекса, так как зачастую клоака является неотъемлемой частью схемы слива трафика.

Bombing

Когда на сайт ведет большое количество внешних ссылок с одинаковыми анкорами, в силу вступает фильтр Bombing, который существенно снижает вес ссылок.

Чтобы снять этот фильтр нужно разнообразить анкоры ссылок. Рекомендуется увеличить количество «естественных» анкоров. Можно снять часть ссылок и добавить новых со всевозможными текстами.

Co-Citation

Этот фильтр накладывается за присутствие ссылок на сайте-доноре, который распространяет материалы запрещенных тематик.

Не ленитесь проверять доноры на тематики перед закупкой ссылок во избежание наложения фильтра.

To Many Links at Once

Наложение фильтра грозит ресурсам, на которых появляется резкий прирост внешних ссылок. Фильтр обычно косит молодые сайты, оптимизаторы которых пытаются закупить большое количество ссылок за короткий отрезок времени.

Во избежания проблем с действием этого фильтра, необходимо наращивать ссылочную массу максимально медленно и небольшими темпами. Если вы занимаетесь продвижением молодого сайта, рекомендуется покупать не больше 3-10 хороших ссылок в сутки. При успешном продвижении количество можно увеличить.

Что еще не любит Гугл

Все нижеперечисленное может создать проблемы в продвижении и привести к проблемам в продвижении:

  • Ссылки с иноязычных сайтов;
  • Использование тега h1 на странице чаще, чем 1 раз;
  • Отсутствие карты сайта;
  • Скрытый контент;
  • Спам в комментариях;
  • Нерабочая страница 404;
  • Низкое качество мобильной версии;
  • Домен с плохой историей.

Есть достаточное количество причин, по которым сайт может попасть под . Это, к примеру, агрессивная реклама на сайте, переоптимизация контента или низкое качество ресурса в целом. Но это еще не весь список. Как определить, что Ваш сайт находится под фильтрами, рассмотрим далее.

Появление новых алгоритмов поисковых систем в большинстве случаев просто пугает веб-мастеров. Так, например, Ваш сайт может агрессивно восприниматься поисковыми системами, если:

  • имеется контент замаскированный под гостевой спам;
  • большое количество сео-анкоров;
  • неуникальный контент;
  • есть спамные рассылки в блоках и комментариях;
  • есть скрытые от пользователей ссылки и другое.

В случае попадания ресурса под санкции поисковика, могут быть полностью утеряны позиции сайта в системе, а это означает, что вся работа, которая проводилась до этого попросту будет утрачена. Согласитесь, что такой судьбы для своего онлайн-проекта не желает ни один веб-мастер.

Как распознать, что Ваш сайт находится под фильтром поисковых систем?

О некоторых наложенных фильтрах поисковая система сообщает официально в разделе Google Webmaster Tools. Эти сообщения означают, что к Вашему сайту были приняты меры, из-за возможных нарушений:

  • наличие исскуственных ссылок на Ваш онлайн-проект;
  • присутствуют исскуственные ссылки на Вашем сайте;
  • Ваш ресурс взломан;
  • спам и спам от пользователей;
  • скрытая переадресация;
  • избыточное количество ключевиков или скрытый текст на сайте;
  • бесплатный хостинг, который распростаняет спам.

Но какие сайты “любит” Гугл? Подробнее рассмотрено ь .

Рассмотрим каждый из фильтров и то, как выйти из под его действия.

Фильтр “Песочница”.

Этот фильтр накладывается на молодые сайты до 1 года. В данный период поисковая система следит за тем, как ведет себя сайт. Проверить наличие фильтра легко – сайт отсутствует в индексе. Попадание “песочницу” может произойти из-за быстрого наращивания ссылочной масы, это кажется Google очень подозрительным и он налаживает санкции на молодой ресурс, ведь подобное поведение расценивается как спам.

Для того, чтобы не попасть под данный фильтр, закупать ссылки нужно очень осторожно, ни в коем случае не допускать “ссылочного взрыва” и наполнять сайт уникальным полезным контентом. Акуратно выбирайте доноров сайта, чтобы не допустить попадания в “песочницу”.

Фильтр Domain name age (возраст домена).

Этот фильтр также налаживается на молодые сайты, которым меньше года. Но ограничения снимаются, когда домен сайта достигает определенного уровня траста. Чтобы избежать фильтра, можно купить старый домен с положительной историей или же закупать трастовые ссылки, но очень акуратно.

Фильтр “Too many links at once” (много ссылок сразу).

Когда налаживается данный фильтр, веб-мастер замечает резкое падения трафика с Гугл, а внешние ссылки на ресурс уже не имеют никакого веса. Это случается из-за резкого ссылочного взрыва, поисковая система считает это неестественным и применяет санкции к сайту.

Если Ваш сайт попал под данный фильтр, то Вам следует значительно снизить наращивание ссылок, а те, что уже есть, не нужно трогать. Через 1-3 месяца фильтр будет снят.

Фильтр “Бомбежка”.

Наказанию подвергается не весь сайт, а отдельные его страницы, которые поисковик воспринял как спамные. Причина: фильтр наказывает сайт, на который ведут много внешних ссылок с одинаковым анкором или текстом. Поисковая система считает это не натуральным. Для того, чтобы избавиться от этого, необходимо или удалить все ссылки или поменять анкоры, а далее просто ждать результата.

Этот фильтр накладывается на сайты, которые имеют много страниц с 404 ошибкой. Эти ссылки раздражают не только посетителей сайта, но и поисковую систему, которая не может проиндексировать данную страницу. Поэтому удаляйте битые ссылки, чтобы не попасть под фильтр.

Фильтр “Links”.

Ранее между веб-мастерами было популярно обмениваться ссылками, но сегодня Гугл наказывает за такие обмены. Поэтому ставьте не более 4 ссылок на сайты-партнеров, а если все-таки попали под фильтров, то подобные ссылки необходимо убрать с сайта немедленно.

Фильтр “Page load time” (время загрузки страницы).

Google не любит сайты, которые имеют низкую скорость загрузки сайта. Поэтому он может понизить ресурс в выдаче именно по этой причине. Рекомендовано, чтобы скорость загрузки сайта не превышала 7 секунд, чем быстрее – тем лучше. Это параметр можно проверить с помощью специального сервиса – PageSpeed.

Фильтр “Omitted results” (опущенные результаты).

Действие этого фильтра определяется, когда Ваш сайт отсутствует в результатах основного поиска. Его можно увидеть только когда в поиска открыть скрытые результаты. Данный фильтр налаживается на сайт за дубли и слабую перелинковку страниц.

Если ресурс уже под действием фильтра, необходимо переписать контент сделав его уникальным и улучшить внутреннюю перелинковку.

Фильтр “-30”.

Данный метод санкций был создан для борьбы с “черным сео”. Если фильтр наложен, позиции сайта понижаются на -30. За что наказывает фильтр: скрытый редирект, клоакинг, дорвеи. Если причины устранены, фильтр прекращает свое действие.

Фильтр “Переоптимизация”.

Сайт может понизится в выдаче или полностью исключиться с индекса. Все это действие данного фильтра. Он может быть наложен из-за чрезмерной оптимизации страниц, например, перебор с количеством ключевых слов, высокий уровень плотности ключевиков, переоптимизация мета-тегов, картинок. Чтобы фильтр прекратил действие на Ваш сайт, необходимо правильно оптимизировать страницы сайта.

Фильтр “Панда”.

Один из самых опасных фильтров. Он охватывает несколько сразу фильтров и для того, чтобы из-под него выйти необходимо много времени и сил. Это фильтр может быть наложен по многим причинам, среди которых: дублирующийся контент, чрезмерная оптимизация, продажа ссылок или агрессивная реклама на сайте, накрутка поведенческих факторов. Для того, чтобы выйти из-под его действия, необходимо проделать целый комплекс действий нацеленных на улучшения сайта. Это может занять достаточно много времени, в некоторых случаях до 1,5 года.

Фильтр “Пингвин”.

Также как и предыдущий фильтр является очень проблемным для владельца сайта. Алгоритм имеет непосредственное отношение к ссылочному продвижению. Санкции могут настигнуть Ваш онлайн-ресурс, если Вы закупаете слишком большое количество ссылок за раз; если эти ссылки имеют один и тот же анкор; если ссылки являются не тематическими или вы производите обмен ссылками. Выйти из-под “Пингвина” очень сложно, этот процесс также является долговременным.

Кстати, более подробно фильтры “Панда” и “Пингвин” описаны в моей статье “ ”.

3399 раз(а) 1 Сегодня просмотрено раз(а)

В этом разделе опубликованы все основные фильтры поисковых систем Яндекс и Google, которые "на слуху". Хотя эти фильтры принято частично относить к Яндексу, а частично - к Google, скорее всего, в том или ином виде, большинство из них присутствует в обоих поисковых системах.

Методы борьбы со всеми фильтрами практически идентичны. Как правило, они включают в себя:
1. Активное пополнение сайта уникальным контентом.
2. Высокая частота обновления сайта. Хорошо, если сайт обновляется хотя бы раз в сутки. Рекомендуемая частота обновления сайта для выхода из под фильтров - два раза в сутки.
3. Приобретение внешних ссылок с трастовых сайтов .
4. Письма в службу поддержки поисковых систем по поводу проблем с сайтом, отправленные через панель вебмастера , и устранение причин проблем.

Существование некоторых перечисленных фильтров находится под вопросом, но в любом случае, вся приведённая ниже информация - хорошая пища для размышления. Не стоит зацикливаться на принадлежности того или иного фильтра к определенной поисковой системе, так как при раскрутке сайта нежелательно потерять трафик ни с одной из них. Поэтому информацию по фильтрам основных поисковых систем оптимизатор белого сайта должен учитывать в комплексе.

Фильтры Google

Считается, что действие фильтров поисковой системы Google в русскоязычном сегменте интернета выражено слабее, чем в англоязычном. Некоторые фильтры возможно работают только в англоязычном сегменте.

Фильтр Гугла «Пингвин»

Фильтр Гугла «Панда»

"Песочница" (sandbox)

Как правило, применяется к недавно созданным сайтам, которые появились на свет в течение последнего полугода. Благодаря этому фильтру, Google не пускает страницы с "молодых" сайтов в результаты поиска по высокочастотным запросам, хотя по низкочастотным запросам - сайт вполне может присутствовать в поисковой выдаче.

Сайт может находиться в "песочнице" довольно долго: от 3-х месяцев до нескольких лет. Существует предположение, которое основано на наблюдении за "молодыми" сайтами, что они выходят из "песочницы" в массовом порядке. Тоесть, длительность пребывания в "песочнице" определяется не в индивидуальном порядке для каждого сайта, а сразу для групп сайтов. Группировка эта происходит на основании даты создания сайта. Через некоторое время, фильтр снимается для всей группы.

Существуют признаки, по которым можно предположить, что ваш сайт находится в "песочнице":

  • Сайт проиндексирован Google и регулярно посещается поисковым роботом
  • Ваш сайт нормально находится по редким и уникальным словосочетаниям, которые содержатся в тексте страниц
  • Поиск по домену выдает правильные результаты, с правильными описаниями, заголовками и т.д.
  • Ваш сайт не виден в первой тысяче результатов поисковой выдачи по любым другим запросам, в том числе по тем, под которые он изначально был оптимизирован.

Для того, чтобы выбраться из "песочницы", необходимо, чтобы появилось как можно больше естественных ссылок на Ваш сайт.

Фильтр "Дополнительные результаты"

Если страницы сайта попали под фильтр "Дополнительные результаты", это значит, что Google счёл их "недостойными" и поместил ниже "хороших" страниц - "под индекс". В этом случае эти страницы будут выводиться в результатах поиска лишь в том случае, если "хороших" страниц не хватает. Для того, чтобы выйти из такого фильтра, как правило, достаточно нескольких входящих ссылок.

Фильтр Bombing

Применяется к сайтам, которые имеют большое количество ссылок на себя с одним и тем же анкором (текстовым содержанием ссылки). Google справедливо считает, что это не естественно, так-как текст ссылки везде одинаковый. Для того, чтобы избежать попадания в данный фильтр, при покупке ссылок, необходимо следить за тем, чтобы анкоры на каждую покупаемую ссылку были уникальными.

Фильтр Bowling – это не совсем фильтр, а обобщённое название приёмов чёрного SEO, которые могут применить конкуренты для борьбы с Вашим сайтом с целью занесения его в бан. Данный фильтр актуален для молодых сайтов с низким TrustRank`ом, для сайтов с высоким TrustRank`ом он не может быть применён.
Google утверждает, что конкуренты никак не могут повредить позициям Вашего сайта, но если Вы заподозрили в бане своего сайта происки конкурентов – подавайте заявку на включение сайта в индекс поисковой системы.

Фильтр "Возраст домена"

Этот фильтр имеет много общего с фильтром "песочница". Многие оптимизаторы считают, что чем старше домен, тем большее доверие он вызывает у поисковиков, нежели недавно появившиеся сайты. Однако молодым сайтам можно пользоваться высоким доверием поисковика и не находиться в Sandbox и всё же попасть под этот фильтр. Единственный способ избежать попадания под этот фильтр вашего сайта – "обрасти" входящими ссылками с авторитетных сайтов.

Фильтр "Дублирующийся контент"

В сети существует большое количество сайтов, которые копируют контент, ранее уже публиковавшийся на других сайтах. Google старается наказывать такие сайты и понижает их позиции в результатах поиска. Старайтесь размещать уникальный контент на своем сайте, а также следите за тем, чтобы контент Вашего сайта не копировали другие пользователи интернета. При обнаружении факта копирования информации с Вашего сайта можно пожаловаться в Google.

Фильтр -30

Этот фильтр Google применяет к тем сайтам, которые используют некорректные, так называемые черные методы SEO, дорвеи (doorway) и редиректы (redirect) с помощью JavaScript. Если подобные механизмы обнаруживаются поисковыми системами на Вашем сайте, то выдача по запросам понижается на 30 позиций. Чтобы выйти из этого фильтра, обычно, достаточно убрать такие вставки из вашего кода.

Фильтр "Опущенные результаты"

Страницы Вашего сайта могут попасть под этот фильтр и практически выпасть из результатов поиска по следующим причинам: малое количество входящих ссылок, повторяющиеся заголовки и другие meta-тэги, дублирующий контент с других сайтов, а также слабая либо вовсе отсутствующая внутренняя перелинковка страниц сайта. Поэтому старайтесь избегать всех этих причин. Уделяйте внимание написанию meta-тэгов, это очень важно и для других поисковых систем.

Фильтр "Социтирование"

Ссылающиеся на ваш ресурс сайты, Google очень тщательно отслеживает. Например, если на Ваш сайт ссылается какой-нибудь порносайт либо сайт очень далекой тематикой от Вашего, то Google вполне может посчитать, что тематика Вашего сайта схожа с ссылающимся сайтом. Это может повредить "тематичности" Вашего сайта и, как следствие, понизить в результатах выдачи по тематическим запросам. Чтобы подобного не произошло, всегда проверяйте сайты, на которых покупаете ссылки.

Фильтр "Links"

Часто для обмена ссылками на сайте заводится одна страница (линкопомойка), на которой залинкованы "сайты-партнеры". Обмен ссылками - довольно старый способ повысить позиции сайта в результатах поисковой выдачи и не поощряется Google. В настоящее время этот способ малоэффективен, и лучше от него отказаться.

Фильтр "Много ссылок сразу"

Сайт попадает под такой фильтр, когда на него слишком быстро растет количество внешних ссылок. Это может привести к бану поисковыми системами Вашего ресурса. Чтобы этого не произошло, нужно очень аккуратно покупать ссылки, небольшими порциями и добавлять их по мере индексирования.

Фильтр "Чрезмерная оптимизация"

Под фильтр чрезмерной оптимизации обычно попадают сайты с большим количеством ключевых фраз, чрезмерной их плотностью, перенасыщенные meta-тэгами. Поэтому не стоит перебарщивать с оптимизацией страниц. Всего должно быть в меру.

Фильтр "Битые ссылки"

Когда ссылка ведет на отсутствующую страницу, то поисковой робот не может до нее добраться. И, как следствие, не может поместить ее в индекс и закэшировать (Google Cache). Это может плохо сказаться на результатах поиска, а также на общих показателях качества сайта. Необходимо избегать наличия подобных ссылок на Вашем сайте.

Фильтрация страниц по времени загрузки .

Если Ваша страница имеет слишком большое время загрузки (перегружена различными эффектами либо проблемы с хостингом), поисковая система просто откажется её загружать и индексировать, в результате чего она не появится в результатах поиска.

Общий фильтр "Степень доверия" (Google Trust Rank)

Этот фильтр включает в себя все показатели, о которых было сказано выше. Называется этот фильтр "степень доверия". Этот фильтр учитывает такие факторы как:

  • Возраст сайта
  • Количество авторитетных входящих ссылок
  • Количество исходящих ссылок
  • Качество внутренней навигации (перелинковки)
    а также многие другие факторы.

Чем выше Trust Rank (TR), тем выше Ваш сайт в результатах поиска.

Фильтры Яндекса

АГС (модификации: АГС-17 и АГС-30)

Фильтр, который выкидывает из индекса Яндекса сайты, созданные для поискового спама (сателлиты), оставляя поисковой выдаче лишь 1 - 15 страниц, не зависимо от общего количества страниц сайта. Главным основанием для наложения фильтра служит некачественный контент.

Фильтр за плохую структуру сайта

Фильтр «ты - спамный»

Непот-фильтр

Фильтр, который накладывается на отдельные ссылки, отдельные страницы сайта, а также на весь сайт в целом за ссылочный спам, продажу ссылок с сайта. Чтобы его избежать, желательно отказаться от продажи ссылок, либо продавать их осторожно, в небольших количествах, ставить естественные ссылки.

Редирект фильтр

Фильтр накладывается на сайты, которые используют javascript редиректы, как правило - дорвеи. Попадание под этот фильтр означает бан Вашего сайта в поисковой системе. Если Вы не хотите попадать под данный фильтр – не используйте javascript редиректы, а используйте flash и ajax.

Фильтр плотности ключевых слов

Фильтр, удаляющий из индекса страницы сайта за чрезмерную концентрацию ключевых фраз и слов. Во избежание попадания сайта под этот фильтр необходимо просто писать тексты для людей, избегая явно завышенной концентрации ключевых слов.

Фильтр «Ты последний»

Фильтр накладывается на страницу, идентифицированную поисковой системой, как дубль уже существующей в индексе страницы. Для того чтобы избежать наложение этого фильтра, необходимо создавать уникальный контент, а также запрещать копирование своего контента на другие сайты.

Статьи по теме .

Приветствую всех посетителей моего блога!

Сегодня исполняю то, что обещал. Недавно я написал статью и о том, как не попасть под действие того или иного фильтра. В той статье я обещал вам написать немного позже по той же теме, но про поисковик от Google.

Сегодня как раз подходящее время. Поэтому в этой разберем, какие санкции накладывает Google на веб-ресурсы и как не стать жертвой этих злобных фильтров.

Дело в том, что многие задаются одними и теми же вопросами. Почему так медленно развивается, и посещаемость остается на том же уровне? Я же пишу новые довольно таки часто, а результатов все нет и нет. Да, бывает и такое, ребята, причем довольно часто.

Самое опасное заключается в том, что вы сами можете не осознавать, что у вас с блогом небольшие проблемы! И со временем может случиться так, что эти проблемы перерастут из небольших в очень весомые и серьезные. И вот тогда уже точно беда! Поэтому, чтобы исключить некоторые из этих неприятностей я решил написать статью про фильтры и санкции поисковой системы Google.

Хочу отметить то, что поисковая система Яндекс более лояльна к различным недочетам и . А вот Google в большинстве своем не жалеет никакие веб-ресурсы и строго наказывает их за несоблюдение рекомендаций по созданию и продвижению сайтов.Вам не помешает узнать подробно про эти рекомендации.

Итак, сегодня в этой статье я буду говорить о фильтрах и санкциях поисковика Google.

В принципе, если вы читали мою предыдущую статью про Яндекс и его фильтры, то вам будет проще понять эту тему. Если сказать в общем, про наказания этих поисковых систем, то у них схожие требования ко всем веб-ресурсам в Интернете: создавайте полезные сайты и блоги для людей и наполняйте их уникальным контентом, который будет основным поисковым запросам пользователей. И в этом случае ваш ресурс не попадет под действие санкций и фильтров.

Однако не стоит забывать, что Google более придирчив и строг в вопросах, касающихся технической стороны по сравнению с другими поисковиками.

С момента создания своего блога и до настоящего времени при я выявил очень большое количество разных технических ошибок.

И, самое коварное заключается в том, что эти ошибки не заметны невооруженным глазом. Их можно определить только при более тщательном осмотре. А вот отлично видны все недочеты с момента создания вашего блога.

И хочу отметить, что данная ситуация отражена почти на всех блогах. 90% блогов выглядят подобным образом в глазах поисковых роботов. Вообще, если вы установили и начали заливать контент на блог, то этого более чем достаточно для того, чтобы поисковые системы обратили свое внимание на Ваш веб-ресурс.

Да и мы все тоже хотим заслуженного внимания в виде увеличения показателей своего веб-ресурса и постепенного увеличения количества посетителей. Однако поисковые системы придерживаются своего мнения насчет этого, а также используют свои методы воздействия для исправления вебмастером всех недочетов и ошибок на его сайте или блоге. И зачастую этот поисковик безжалостен к таким ресурсам и может их строго наказать.

Нужно ли вам такое внимание? Мне кажется, нет. И вот в чем кроется проблема. Зачастую эти ошибки появляются с первого дня жизни сайта или блога. Это в основном связано с системой (появлением дублей страниц или дублированных картинок), создание блога с помощью бесплатного , а также наличие всевозможных скрытых и битых ссылок, присутствие ошибок в коде, и другие недочеты, которых пруд пруди.

Ну, а внешне все смотрится отлично-просто превосходный блог. Единственное что огорчает — посещаемость который год остается на том же месте и не растет…

Но, не стоит огорчаться и грустить. Все эти недочеты и ошибки можно исправить!

Только делать это нужно очень осторожно, иначе можете наломать дров, и это приведет к непредвиденным последствиям – различным фильтрам и санкциям со стороны поисковых систем. В этом вы уже не сможете обвинить шаблон или , потому что виноваты вы сами!

Поэтому нужно всегда помнить, что поисковые системы могут наказать ваш блог как за бездействие, так и за неправильные действия.

Санкции и фильтры от Google

Ну, а теперь расскажу подробнее про каждый фильтр.

Фильтр от Google «Песочница» (Sand Box) .

Все веб-ресурсы, которые появились недавно на просторах Интернет, оказываются под действием этого фильтра.

Но не стоит страшиться этого факта, ребята. Это просто прописано в алгоритмах поисковика. Все новые сайты и блоги не способны создавать конкуренцию другим возрастным веб-ресурсам по в результатах выдачи.

Новоиспеченному молодому блогу выделяется время на становление в пределах от 3-х месяцев до одного года. В течение этого времени вы обязаны продемонстрировать поисковой системе то, что вы настроены решительно, должны досконально поработать над своим ресурсом, и навести на нем полный порядок исходя их обязательных рекомендаций.

И еще, чтобы вы знали, вместе с этим фильтром (песочницей) для ресурсах, созданных на новом домене, существует фильтр на «возраст домена». Эти веб-ресурсы достаточно медленно индексируются, а также им в меньшей степени доверяет поисковая система.

Им нужно будет хорошо постараться для того, чтобы это доверие появилось. Развивайте свой блог правильно, чтобы это произошло как можно быстрее!

Фильтр от Google «Пингвин» (Penguin) .

Это более серьезный фильтр от данного поисковика. В то время, когда он появился, достаточно большое количество веб-ресурсов просто напросто исчезли из результатов поисковой выдачи.

Этим фильтром наказываются сайты и блоги за спам. Первичная цель его создания очистка результатов выдачи от веб-ресурсов, которые оказались там незаслуженно.

Поэтому не нужно увлекаться спамом при оптимизации своих статей. Все должно быть в меру. И тогда вы не попадете под этот фильтр.

Фильтр от Google «Панда» (Panda) .

Очень жестокий фильтр, который вешается на ресурсы с некачественным контентом, а также сайты с различной в больших объемах, не соответствующей его общей . А также за переспам ключевыми запросами и дублированный контент.

Вот так Google разводит целый «зоопарк» для контроля над всеми веб-ресурсами.

Фильтр от Google «Дополнительные результаты» (Supplementary Results) .

Данный фильтр схлопочет ваш блог в том случае, если вы в срочном порядке не решите проблему дублей страниц и другого ненужного хлама на своем блоге.

Что примечательно, данный фильтр начинает действовать, если на вашем блоге имеется неуникальный контент. И если вы пишете статьи с уникальностью от 95 до 100 %, и у вас при этом имеются дубли этих страниц, то вы просто тратите свое время впустую. Уберите дубли и ваш блог начнет развиваться с новой силой.

Для того чтобы проверить есть ли у вас дубли страниц, достаточно ввести в строке поиска Google вот это:

Если вы увидели внизу строку «скрытые результаты поиска», то у вас проблемы с дублями страниц. Кликните по этой строчке. Какое количество страниц прописано вверху? 500? 1000? Вы написали столько статей на своем блоге? Если да, то это похвально, а вот если нет, то у вашего блога серьезные неприятности! Решайте эту проблему как можно скорее!

У меня тоже были проблемы с дублями страниц при выводе древовидных комментариев, и моя проблемная ситуация постепенно решается. А всё потому, что я устранил источник этой заразы. Вы тоже учтите, что на удаление из индекса Google этих дублированных страниц потребуется время, и причем немалое.

Ну, а я тоже скоро напишу статью про удаление дублированного контента на своем блоге и продемонстрирую вам свои результаты в этом направлении, чтобы не быть голословным.

Фильтр от Google «Минус тридцать» (-30) .

Данный фильтр награждает вебмастеров, которые используют «темное SEO». Он понижает на 30 пунктов в результатах выдачи и предупреждает о том, что будет хуже, если вебмастер будет продолжать в том же духе.

Проще говоря, не нужно обманывать поисковые системы, если не знаете, как это нужно делать правильно.

Фильтр от Google «Бомбёжка» (Bombing) .

Этот фильтр присваивается за то, что позиции блога по какому-либо поисковому запросу остановились.

В основном это получается из-за в большом количестве с применением одного и того же . В итоге получается большое число ссылающихся сайтов-доноров с одним анкором. Необходимо обязательно разбавлять свой анкор-лист, а не использовать один и тот же. Это грубейшая ошибка. Да вы и сами понимаете, что это выглядит вообще .

Фильтр от Google «Флорида» (Florida) .

Данный фильтр применяется к веб-ресурсам за неправильное продвижение своего ресурса, а точнее за пере оптимизацию (пере спам) ключевыми запросами в теле статей, в тегах -H6 и Title.

Еще раз это говорит о том, что во всем нужно знать меру. Оптимизируйте на здоровье, но не увлекайтесь. Не забывайте о том, что вы пишете статьи, прежде всего для людей, а уже потом для поисковых роботов.

Фильтр от Google «Неуникальный контент» (Duplicate Content) .

Этот фильтр применяется к сайтам и блогам, которые имеют неуникальный контент.

Поэтому не нужно с других ресурсов. За это вас по голове не погладят, только накажут, и стыдно потом будет. Если не умеете писать, то покупайте копирайт или рерайт. И тогда все у вас будет хорошо.

Этот фильтр, я думаю, вам понятен. Ясно, что он применятся к сайтам и блогам, на которых есть битые ссылки. Что такое битые ссылки, как их вычислить и избавиться от их присутствия, читайте в моей статье . Проверяйте время от времени свой блог на наличие этих ссылок, и будет вам счастье!

Этот фильтр придет к вам, если страниц вашего блога очень медленная. Поэтому повышайте скорость загрузки блога. Читайте мою статью и применяйте на практике. Там все подробно расписано.

Фильтр от Google «Искусственная ссылочная масса» (Reciprocal Links Filter и Link Farming Filter) .

Этот фильтр накладывается за искусственное наращивание , а также заспамленность блога мусорными ссылками и если вы бездумно и продаете ссылки.

Если вы участвуете в автоматизированных системах обмена ссылками, то вы тоже в зоне риска. Все это не есть гуд, ребята. Избавляйтесь от этого дерьма!

Фильтр от Google «Цитирование» (Co-citation Linking Filter) .

Смысл этого фильтра заключается в бездумном проставлении ссылок со своего веб-ресурса на сомнительные или подозрительные сайты и блоги. Друзья, проставляйте ссылки только на проверенные ресурсы! Не захламляйте свой блог. Если вы будите ссылаться на некачественные ресурсы, то Google и ваш блог примет за низкокачественный. Старайтесь фильтровать то, что рекомендуете своим посетителям.

Фильтр от Google «Быстрый прирост контента» (Filter Quick Simple Content) .

Он применяется к ресурсам, которые очень часто обновляются.

Этот факт очень подозрителен и намекает на автоматическую генерацию контента. Опять же повторюсь, найдите золотую середину. Ребята, будьте естественнее. Вы же не робот. Робот имеется в наличии только у поисковой системы.

Ну, вот я и описал, как обещал, все основные фильтры поисковой системы Google. Мне кажется, вы поняли, что если соблюдать эти рекомендации, то можно избежать серьезных проблем в процессе создания и продвижения своего блога. И не придется причитать потом, что Google и Яндекс вас и не любит и поэтому жизнь не имеет смысла.

Не нужно бегать с бубном возле ноутбука и вызывать дух всемогущего Google в надежде на снисхождение и увеличение посещаемости вашего детища. Нужно просто соблюдать эти истины и все.

Итак, еще раз об основных тонкостях:

— создавайте СДЛ (сайт для людей);

не тащите чужие тексты из чужих статей (друзья, это позорно и тупо. Вас поймают и навешают люлей!);

обращайте внимание на техническую сторону вопроса (скорость загрузки блога, правильный без мусора, битые ссылки и скрытые ссылки, и другой ненужный хлам);

продвигайте свой блог постепенно , шаг за шагом, не гонитесь за быстрыми результатами — они обманчивы;

мотивируйте посетителей осуществлять какие-либо действия на вашем блоге для улучшения поведенческих факторов.

Если вы еще не добавили свой блог в Google вебмастер , то прямо сейчас сделайте это. Это отличная подсказка, в которой отражены многие ошибки, имеющиеся на блоге. Он вам отлично поможет в продвижении.

Ну, а я в свою очередь хочу попрощаться с вами. Надеюсь, вам понравилась эта статья, и вы многое узнали для себя. Жду ваших комментариев. До встречи в моих новых материалах! Пока.

В прошлом мастер-классе я рассмотрел . Сегодня я расскажу, за что Google может пессимизировать ваш сайт в выдаче и какие фильтры используются этим поисковиком. Также я дам советы, как избежать этих фильтров и что делать, если вы все же под них попали.

В целом для сайтов, оптимизированных в первую очередь под ПС Яндекс, актуальны лишь несколько основных фильтров Google. Это объясняется тем, что большинство требований Яндекса к качеству сайта жестче, чем требования Google, и на практике чаще всего сайт пессимизируется именно в Яндексе. При этом в Google позиции могут стабильно расти по мере индексации доработок, текстов и внешних ссылок. Случаев, когда позиции сайтов в Google были бы хуже, чем в Яндексе, значительно меньше.

Поэтому при постоянном развитии ресурса и следовании требованиям Яндекса, большинство фильтров Google не будут страшны вашему сайту.

Прежде чем перейти к основным фильтрам, которые используются Google, я остановлю свое внимание на одном алгоритме, который был введен весной 2012 года и заставил понервничать многих владельцев сайтов и веб-мастеров — “ ”. Тогда именно из-за действий этого алгоритма сайты стали терять свои позиции и требовалось приложить большие усилия, чтобы вернуть их в ТОП.

Алгоритм “Пингвин”

Об алгоритме:

Новый алгоритм “Пингвин”, запущенный Google 25 апреля 2012 года, направлен на борьбу со спамом в различных его проявлениях и учитывает множество внешних и внутренних факторов ранжирования сайта. Вот анонс разработчиков Google за несколько дней до релиза “Пингвина”:

“В ближайшие дни мы запускаем важное изменение алгоритмов, направленных на Webspam. Изменения снизят рейтинги сайтов, которые, как мы считаем, нарушают требования Google к качеству сайтов”.

Как не попасть под санкции “Пингвина”:

Чтобы избежать действий данного фильтра Google, вам необходимо:

  • В первую очередь следует проверить (“битые” внутренние ссылки, неправильные редиректы, долгое время загрузки страниц) и страницы сайта на предмет “спамных” текстов.

Фильтры и стратегии в сервисе Rookee уже актуализированы для продвижения сайтов в ПС Google в условиях алгоритма “Пингвин”. Вам доступна функция подключения white-листа (в настройках стратегии продвижения). Подключив white-лист, вы сможете застраховать свой сайт от попадания под пессимизацию алгоритма “Пингвин”.

  • Проверить качество анкоров внешних ссылок. Если большинство из них — только точные вхождения, необходимо сменить такие анкоры на более естественные, разбавить их неточными вхождениями и . Такая возможность реализована в системе Rookee с помощью редактора текстов ссылок:

Помимо данного алгоритма, независимо друг от друга существуют и используются несколько фильтров Google, связанных с определенными характеристиками сайтов. Ниже я рассмотрю наиболее известные из них.

Фильтр Google “Песочница” (Sand Box)

Признаки наложения:

Молодой сайт, не достигший определенного возраста, не попадет в индекс от 3 месяцев до года. Подразумевается, что занимать высокие позиции по конкурентным запросам должны относительно старые качественные сайты.

Сайт только недавно создан.

О фильтре:

Так как новые сайты, скорее всего, не смогут ранжироваться лучше старых авторитетных сайтов по конкурентным запросам, они помещаются в так называемую “песочницу”. Цель ПС — понять, насколько сайт будет полезен пользователям в основной выдаче по конкурентным запросам: будет ли ресурс развиваться, наполняться контентом и т.п., и сможет ли в дальнейшем составить конкуренцию старым авторитетным сайтам.

Чтобы как можно скорее выйти из-под фильтра, рекомендуется постоянно развивать сайт — обновлять контент, добавлять новые материалы, создавать внутреннюю перелинковку. Ссылочную массу следует наращивать планомерно, без резких скачков. Необходимо также, чтобы качество площадок, с которых устанавливаются ссылки, удовлетворяло требованиям последних изменений алгоритмов Google.

Фильтр Google "Дополнительные результаты" (Supplementary Results)

Признаки наложения:

Страница не показывается в результатах поиска по запросу. Она будет показываться, только если будет недостаточно страниц, на которые не наложен фильтр. Обычно такое происходит только для низкочастотных запросов.

За что ваш сайт мог попасть под фильтр:

Ваш сайт мог попасть под этот фильтр, если на нем есть страницы, которые дублируют друг друга.

О фильтре:

Часто многие страницы сайтов, хоть и дают ответ на запрос, но или он неполный, или страница, на которой есть ответ, считается некачественной. Причинами, по которым страница считается некачественной, могут быть: некачественная или “спамная” внутренняя перелинковка, использование дублированного контента с других сайтов и т.д. Такие страницы не показываются в основных результатах поиска, а помещаются в “Дополнительные результаты”.

Как не попасть под фильтр:

Чтобы страницы сайта всегда показывались в основной выдаче, необходимо соблюдать все рекомендации поисковой системы, размещать уникальный и полезный для пользователей контент, ставить ссылки с авторитетных источников.

Как вывести сайт из-под фильтра:

Чтобы страница показывалась по всем запросам в основных результатах поиска, следует поставить на нее несколько ссылок с качественных площадок, уникализировать контент или добавить больше информации. Также следует обратить внимание на технические ошибки на сайте и все исправить.

Другие фильтры Google


Кроме вышеперечисленных, часто встречающихся, в кругах оптимизаторов можно услышать и о других фильтрах Google:

  • “Возраст домена” (Domain name Age). Этот фильтр Google накладывается на сайт, доменное имя которого зарегистрировано менее полугода назад. Так как такие сайты имеют меньший уровень доверия, чем старые, они медленнее индексируются. Чтобы сайт начал хорошо индексироваться, необходимо постоянно развивать его, тогда ПС увидит, что сайт создается для людей, и будет лучше его индексировать.
  • “Бомбежка” (Bombing). Этот фильтр Google накладывается за большое количество ссылок с одинаковыми анкорами. Действие таких ссылок не учитывается в ранжировании сайта, и, как следствие, не виден рост позиций. Чтобы ссылки начали приносить результат, необходимо разбавить ссылочную массу уникальными текстами.
  • “Битые ссылки” (Broken Links). Накладывается на сайт, имеющий большое количество внутренних ссылок, ведущих на несуществующие страницы (отдающие 404 ошибку). Такой сайт теряет позиции в выдаче. Чтобы выйти из-под фильтра, необходимо исправить все подобные ссылки на сайте таким образом, чтобы они вели на существующие страницы.
  • “Много ссылок сразу” (Too Many Links at once). Если за короткое время на сайт установлено слишком много ссылок, они перестают влиять на ранжирование сайта. Чтобы не попасть под этот фильтр Google, рекомендуется планомерная закупка ссылок в ограниченном количестве. Особенно это актуально для .
  • “Линкопомойка” (Links). Проверяются страницы сайта, имеющие большое количество исходящих нетематичных ссылок. Кроме этого, могут ухудшиться позиции самого сайта-донора и начать выпадать из индекса страницы. Рекомендуется удалить страницы, количество внешних ссылок на которых больше 5.
  • “Фильтр по времени загрузки” (Page Load Time). Страницы, которые загружаются очень долго, исключаются из результатов выдачи. Чтобы выйти из-под данного фильтра Google, необходимо проверить технические параметры страниц (это можно сделать с помощью сервиса ) и исправить возможные ошибки.
  • “Минус тридцать” (- 30). Этот фильтр понижает позиции сайта по большинству запросов примерно на 30 пунктов. Накладывается за использование “черных” методов продвижения — , редиректы через JavaScript, (предоставление пользователю и ПС разной информации) и т.п. Чтобы вернуть позиции, необходимо устранить причины наложения фильтра.
  • “Дублирующийся контент” (Dublicate Content). Позиции сайта с неуникальным контентом искусственно понижаются в результатах поиска. Чтобы избежать пессимизации, необходимо следить за уникальностью контента и переписывать его в случае ухудшения позиций.
  • “Чрезмерная оптимизация” (Over Optimization). Если текст на страницах сайта перенасыщен ключевыми словами, такие страницы значительно теряют позиции или полностью исключаются из выдачи. Чтобы не попасть под фильтр, рекомендуется придерживаться плотности каждого ключа в тексте (это отношение ключевого слова или ключевых фраз к общему количеству слов на странице) не более 5-7%.

Заключение

Чтобы избавиться от влияния большинства фильтров Google и обезопасить сайт от их наложения, достаточно следовать нескольким простым советам:

1. Постоянно наполнять сайт уникальным контентом.

2. Обновлять контент как можно чаще. Самый лучший вариант — добавлять информацию каждый день.

4. Следить за техническими аспектами работоспособности сайта.

5. Следовать по созданию и развитию сайтов.

Если после прочтения мастер-класса у вас возникли какие-либо вопросы, буду рад на них ответить!


Понравилась статья? Поделиться с друзьями: