SEO: Фильтры Яндекса и Google

SEO: Фильтры Яндекса и Google

Фильтры поисковика Yandex направляются на улучшение качеств поисковых выдач. Прежде чем начать раскрутку веб-сайта очень важно знать как можно больше о поисковых фильтрах, иначе все приложенные к продвижению усилия могут быть напрасными. Давайте рассмотрим фильтры, которые применяет поисковый робот Яндекса чаще всего.

Для чего вообще нужны фильтры Яндекс, фильтры Google? Они очищают поисковые просторы от “мусора” или немного подпорченного контента. К сожалению, очень часто добросовестные сайты попадают под фильтры Яндекс, фильтры Google, чтобы такого не случалось нужно изучить все фильтры и знать, как с ними бороться.

  1. АГС. Этот фильтр создан для автоматической фильтрации так называемых “некачественных” веб-сайтов, которые занимаются поисковым спамом, манипуляциями с алгоритмами поиска. Самая распространенная причина попадания под АГС фильтр – не уникальные данные на сайте. Чтобы не попасть по данный фильтр нужно создавать сайт для людей, наполнять его уникальным и читабельным контентом, который, прежде всего, должен быть интересным для пользователей.
  2. Непот фильтр. Во время попадания под данный фильтр веб-сайт перестает передавать вес с помощью внешних ссылок. Данный фильтр предназначается для борьбы с продажными ссылками SEO. Чтобы не попасть под воздействие данного фильтра, нужно размещать внешние ссылки очень аккуратно, желательно, чтобы они были тематическими.
  3. Редирект. Данный фильтр направлен на определение специальных скрпитов – редиректов. Если со страницы сайта java-скрипт ведет редирект – скорее всего данная страница потеряет индекс и больше никогда его не получит.
  4. Аффилирование. Когда вы занимаетесь продвижением нескольких абсолютно идентичных сайтов с помощью одинаковых ключей, то значительно возрастает риск попадания под этот фильтр. Чтобы не попасть под его влияние сайт нужно продвигать с помощью разных ключей, использовать разные контактные данные и базировать веб-сайт на разных хостингах.
  5. Превышение нормы. Размещая ключевые запросы в тексте, не забудьте обратить внимание на их плотность, она не должна быть более чем 10%. Рекомендованный уровень плотности составляет 4-6%, если вы сможете его соблюдать, то никогда не попадает под фильтр превышения нормы. Помните, что ваш сайт для людей, а не для роботов.
  6. “Ты последний”. Данный фильтр накладывается на страницу, которая имеет дубликаты в индексе. Чтобы не оказаться под влиянием фильтра размещайте на сайте исключительно уникальный контент.
  7. Новый домент. Фильтр чем-то похож на песочницу Google. Выйти из-под его действия очень просто. Для этого нужно просто подождать, или доказать, что ваш веб-сайт по-настоящему полезен для людей.

Если создавая сайт вы будете заботиться прежде всего о пользователях, то риск попадания под какой-либо фильтр будет минимальным. Как говорится, что хорошо для пользователя, то хорошо и для поисковика.

SEO: Фильтры Google

Итак, самое время второй части рассказа про фильтры Яндекс, фильтры Googlе, прямо сейчас вы узнаете о фильтрах Гугл.

  1. “Песочница” применяется, как правило, к абсолютно всем новым сайтам, он не пускает их странички в выдачи по высокочастотникам. Под этим фильтром сайт может находиться пару недель или пару лет, все зависит от вас самих.
  2. “Bombing”. Его санкции падают преимущественно на те сайты, которые закупают внешние ссылки и присваивают им одинаковые неуникальные анкоры. Выход один – максимально уникализировать якоря ссылок.
  3. Дополнительные результаты. Под его воздействие попадают только те странички, которые робот-поисковик считает бесполезными для пользователя. В поисковике они будут выводиться только после “полезных страниц”. Чтобы избавиться от фильтра, нужно разместить несколько входящих ссылок на страницу, находящуюся под его воздействием.
  4. Возраст домена. Он работает по такому принципу: чем старее домен – тем больше доверия он получит.
  5. “30”. Использование редиректов и дорвеев – вот верные признаки попадания под данный поисковый фильтр. В выдаче сайты, попавшие под «30», как правило, удаляются примерно на 30 строк назад.
  6. Дублирующий контент. В интернете есть множество сайтов, использующих контент, который был взят с других сайтов. Google пытается это максимально распознать, когда ему это удается, позиции таких сайтов пессимизируются в выдачах. Чтобы избежать столь неприятного воздействия – используется уникальный контент на своих сайтах и запретите остальным сайтам его копировать.
  7. “Links”. Он отфильтровывает с просторов поисковика страницы, которые состоят только из партнерских ссылок. Данный фильтр плохо повлияет и на индексацию остальных страниц на сайте. Чтобы этого не случилось нужно отказать от не эффективного способа продвижения, такого, как обмен ссылками.
  8. “Тонна ссылок сразу”. Сайт может легко попасть в бан поисковика, если будет очень активно закупать ссылки. Чтобы избежать этого, ссылки закупайте аккуратно и ненавязчиво.
  9. Чрезмерная оптимизация. Данный фильтр “забирает” сайты, перенасыщенные ключевиками. Чтобы выйти из него и больше не попадать – нельзя перебарщивать с оптимизацией текстовых данных. Все делайте в меру.
  10. Время загрузки страниц. Данный параметр не похож на фильтр, он просто влияет на место в выдаче. Google обращает свое внимание на то, как быстро загружаются страницы вашего веб-сайта, то есть, тяжелые странице лучше разбить на несколько, дабы не убавить в позиции.

Как определить, что сайт под фильтром?

Если вы вдруг замечаете резкое падение трафика с одним поисковиком, когда со вторым все хорошо – скорее всего, это фильтр или потеря страниц в индексе. В этом случае предлагаю обратиться к WebMaven.ru — сайт Веб-специалиста. Вам помогут сделать грамотную оптимизацию для вашего сайта, помогут и проконсультируют по любым другим вопросам продвижения.











Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *