Четверг, 19.09.2024, 14:06

Приветствую Вас Гость | RSS

Главная » 2013 » Март » 20 » 5 самых злых фильтров Google
10:11
 

5 самых злых фильтров Google

Всем известно, что в целях повышения качества поисковой выдачи системой Google была разработана целая сеть особых алгоритмов, отсеивающих сайты сомнительного содержания. Такие алгоритмы принято именовать фильтрами.

В большинстве случаев низкокачественными считаются виртуальные проекты, пренебрегающие правилами системы или содержащие большое количество ссылочного спама в различных вариациях. Само собой, если Вы занимаетесь поддержкой сайта, то потеря позиций в поисковой выдаче для каждого сайта оборачивается катастрофическим падением уровня трафика. Ниже описаны наиболее известные фильтры и способы избавления от них.

Фильтр «Песочница».

Этот фильтр страшен недавно созданным ресурсам, а также сайтам, деятельность которых на несколько месяцев была приостановлена. Задачей фильтра «Песочница» является торможение выхода в лидеры поисковой выдачи по ВК запросам только что созданных веб-страниц. В среднем страницы пребывают под данным фильтром от трех месяцев. Избавиться от него поможет приобретение высококачественных и естественных ссылок на сайт.

Фильтр «Дополнительные результаты».

Этот фильтр поисковой системы Google борется со страницами, качество которых сомнительно. Их появление в результатах поисковой выдачи возможно только в случае отсутствия достаточного числа качественных страниц. Решением проблемы также могут стать внешние ссылки.

Фильтр «Бомба».

Поисковая машина применяет этот фильтр в отношении сетевых ресурсов, на которые ведет определенное число ссылок, содержащих одинаковые анкоры и окружающий текст. Уникальность ссылочных анкоров должна тщательно отслеживаться в процессе ручного размещения или приобретения обратных ссылок.

Фильтр «Дублирование контента».

Если в структуре виртуального проекта содержится информация, дублированная с других сайтов, или повторяющийся контент, сайт вскоре познакомится с фильтром. Выход из данной ситуации – ликвидация копипаста и публикация уникального контента. Стоит также отслеживать случаи воровства текстов с собственного проекта и информировать об этом службу поддержки Google.

Фильтр «-30».

Данный фильтр угрожает безопасности сайтов, активно практикующих методы черного СЕО – дорвеи с JS, клоакинг и так далее. Ресурс, к которому был применен данный алгоритм, лишается 30 позиций в выдаче или вовсе попадает прямиком в бан. Выход ясен – отказ от черной оптимизации.

Просмотров: 164 | Добавил: equirin | Рейтинг: 0.0/0
Всего комментариев: 0