Санкции Гугл
У поисковиков бывают свои определённые фильтры за некачественно сделанные сайты или контент (они применятся к сайтам). Каждому профессиональном веб-мастеру нужно знать о таковых санкциях.
Какие же самые опасные фильтры применяются к «провинившимся» сайтам? Они приведены далее:
- Бан – лишение (или ограничение) прав пользователя;
- Пессимизация – снижение, падение трафика, то есть понижение позиции сайта (низкие позиции ресурса);
- Исключение определённых страниц из поисковых запросов.
На примере двух поисковиков (Яндекс, Google) рассмотрим различные фильтры, как применяют эти «санкции», на каком основании и как не попасть в число нарушающих.
Для чего предназначены алгоритмы?
- Панда «Panda». Этот алгоритм был запущен в 2013 году. Его цель: понизить позиции в запросах на некачественные сайты, и наоборот повысить те сайты, которые могут называться высококачественными. То есть многие сайт попали в рамки санкций за плохую оптимизацию, а точнее:
- Повышенный процент отказов;
- Переизбыток спама на странице;
- Неуникальность информации;
- Недостаточный контент.
- «Пингвин» – алгоритм борется с сайтами, на которые часто неественно ссылаются другие сайты ( то есть обратные ссылки). Этот алгоритм появился в 2012 году. Что приводит к санкциям:
- Нетематические ссылки;
- Ссылочные схем;
- Покупные ссылки.
- 3.«Колибри» (Hummingbird) – алгротим создан, чтобы проводить не внешние проверки, а выдавать пользователю, что по мнению алгоритма его интересует. Как цель: повышения качества выдачи пользователю поисковика.
- 4. «Песочница» – алгоритм, который создан для понижения недавно появившихся сайтов в том случае, если они развиваются неестественно быстро. Интересно, что если сайт продолжает своё развитие и под «санкциями», то тогда алгоритм оставляет его. Находится в нарушающих вы можете даже вплоть до 2-х лет.
Вышеперечисленные алгоритмы являются самыми жестокими и накладывают действительно опасный санкции до сайта. Они мешают в особенности недавно появившимся, молодым сайтам. Отправляют бан, блокируют, понижают в поисковых запросах (пессимизируют, в том случае, если вы не уделяете должного внимания оптимизацит) – всячески мешают развитию сайта. Такие алгоритмы, как Bombing, Bowling – менее серьёзные.
Фильтры в поисковике «Яндекс»
АГС – фильтр направлен на снижение посторонего влияния на сайты, также против борьбы с получением прибыли с размещения ссылок на сайты. Также наказуемым будут сайты зазмещающие SEO-ссылки. В основном под меры наказания попадают сайты, которые заполнены лишним спамом. Фильтр практически всегда отправляет сайт в бан. Повысить ресурс возможно в том случае, если его качество не будет стоять на месте, а начнёт развиваться.
Интересно заметить, что его алгоритмы, по которым он оценивает сайт, похожи на алгоритмы фильтра «Панда» (например, уникальность, заспамленность, информативность).
«Ты последний» – фильтр борется с некачсевтенными, неуникальными страничками, после чего они вылетают из запросов.
«Ты спамный» – фильтр борется со страничками, на которых превышается частотой использования ключевых слов.
«Новый домен» – тот самый фильтр существование которого отрицает сам «Яндекс». Но исследование говорят об обратном. Это своего рода фильтр очень схожий на фильтр для Google «Песочница». Его функции: он пессимизирует быстро растущие сайты. Те молодые сайты, на которых слишком быстро происходит развитие. Он тормозит поднятие молодого ресурса, сайта. Как итог – сайт не выдаст поисковая система, пока не убить его точный адрес.
Остальные же фильтры на поисковой системе «Яндекс» (непот-фильтр, Links Tex и т.д.) менее значимы и не могут так влиять на ресурсы.
Как избежать попадание на поисковые фильтры?
Нужно не пренебрегать оптимизацией сайта. Не заниматься покупкой ссылок, не спамить, делать текста уникальными, вести качественным контент вообщем «вести себя хорошо» и усердно работать – тогда ваш ресурс будет успешно развиваться.