Абсолютно любой трафик необходимо монетизировать.

Поиск по этому блогу

пятница, 24 августа 2012 г.

Что мешает выйти в ТОП?

1. Плохая оптимизация контента.

Бюджет на закупку ссылок может превратиться в пустую трату денег, если правильно не оптимизировать контент продвигаемых страниц. Сейчас алгоритмы популярных поисковых систем легко определяют страницы для пользователей и страницы для спама. Причин этому может быть масса, как сигналы от пользователей, так и при сканировании роботом самих страниц. Поэтому необходимо хорошо поработать с текстами продвигаемых страниц, чтобы занять достойные результаты ТОПа. Контент должен быть информативным, дружелюбным к пользователям, содержать достаточное количество вхождений ключевых слов и быть правильно структурированным. Большое внимание нужно уделять юзабилити, т.е. интерфейсу(навигации) сайта, чтобы пользователь мог легко ориентироваться по нему. Не нужно зацикливаться над тем, чтобы набить контент ключевыми словами, нужно делать "тексты для пользователей". Не спешите забивать ключевые слова куда только можно (title, description, в теги h1-h5). Сайт должен иметь понятную структуру. Сниппеты и названия страниц сайта должны включать в себя информацию о странице, а не перебор ключевых фраз. Хороший сервис для просмотра вида страницы в  Яндекс и Google представлен по ссылке http://devaka.ru/tools/serp-preview. Также не стоит злоупотреблять с рекламой на продвигаемых страницах, ведь она может отвлекать пользователя.

2. Проанализировать все ключевые запросы.

При формировании семантического ядра, новички часто забывают, что бывают коммерческие  и информационные запросы. Очень часто это касается ВЧ-запросов. Например когда пользователь вбивает запрос "наполеон" поисковая система еще не знает, какую выдачу ему предоставить (торт, биографию или быть может фирму под названием "Наполеон"). Или же при запросе "как сделать загранпаспорт" поисковые системы могут выдать статью, обзор или сайты с коммерческими предложениями. Поэтому необходимо точно определиться с семантическим ядром сайта.

3. «Разнотипные» ключевые слова ведут на одну целевую страницу.

Стремление максимально оптимизировать внутренние факторы правильно, но при этом главное не перестараться. Одной из ошибок является продвижение одной посадочной страницы по большому количеству разнотипных СЧ- и ВЧ-запросов.
При подборе ключевых слов для посадочной страницы надо придерживаться правила «одна страница – одна ветка запросов». То есть каждая посадочная страница должна продвигаться по одному ВЧ-запросу и по нескольким близким СЧ и НЧ.
Если вы продвигаете строительный портал по группам слов, связанным с паркетом и ламинатом, то Вам необходимо продвигать высококонкурентные слова «паркет» и «ламинат» на разных целевых страницах сайта. Будете продвигать на одной – вероятность успеха будет минимальной (причем по обоим запросам). Проверить себя просто – введите в поисковую систему два этих слова и посмотрите, есть ли страницы, которые находятся в ТОП по обоим словам (если есть, то в каком количестве?). Если такие страницы есть, то можно смело продвигать слова на одну страницу. Аналогично можно проверить и возможность продвижения в целом сайта по разнородным запросам (к примеру, по ламинату и бытовой технике). Если в ТОПах нет одинаковых сайтов (ну или только википедия и там, и там присутствует), то стоит задуматься о целесообразности продвижения таких разнородных запросов в пределах одного сайта. Также необходимо знать, какую страницу поисковая система считает наиболее релевантной вашему запросу. Для этого необходимо вбить специальную фразу:
- для Яндекса: "ЗАПРОС << ((url:site.tyb* | url:www.site.tyb*) & site:site.tyb)", где
      ЗАПРОС - ключевое слово(фраза);
      site.tyb - Ваш сайт.
И Яндекс сам выдаст страницу, какую он считает релевантной вашему запросу, согласно вашему сайту. Приведу пример с сайтом rozetka.com.ua, запрос - ноутбуки.


- для Google: "ЗАПРОС site:site.tyb", где
      ЗАПРОС - ключевое слово(фраза);
      site.tyb - Ваш сайт.
Приведу пример с сайтом rozetka.com.ua, запрос - ноутбуки.

4. «Мигание» ссылочной массы.

Необходимо тщательно следить за стабильностью ссылочной массы. Если вы используете системы для закупки ссылок на арендной основе, необходимо следить, чтобы баланс в этих системах не заканчивался, и ссылки постоянно были на своих местах. Я же рекомендую закупать "вечные ссылки", цена на них больше, но срок размещения выше. Также не стоит забывать о естественном приросте ссылок. Рассказывайте о своем сайте в соц. сетях, на тематических блогах и форумах, твиттере и т.п.. Если ваш сайт действительно хороший, то люди с радостью будут делиться информацией о нем. Но если же вы сторонник покупных ссылок, то всегда разбавляйте анкор лист, чтобы ссылки не склеились, а также придать им естественности. Закупать ссылки нужно только с тематических сайтов. Не стоит закупать ссылки на строительство с сайтов кулинарной тематики. Стоит также проверять какие ссылки исходят от сайта, где вы купили ссылку. Это легко сделать по сервису Solomono. Если с сайта строительной тематики идут ссылки на сайты других тематик(одежда, кулинария и т.п.), это выглядит подозрительно, я бы рекомендовал отказаться от закупки ссылок на таких сайтах.

5. Несовпадение регионов в поисковой системе.

Сайт должен совпадать региону к которому он относится. Если же вы предлагаете услуги в Москве, то и сайт должен быть отнесен к региону "Москва". Присвоить  регион сайту очень просто, все это делается в панели вебмастера поисковой системы. 



Также я рекомендую закупать ссылки со своего региона. Многие системы закупки ссылок позволяют устанавливать фильтр по региону.

6. Ошибки «4хх» на продвигаемых страницах сайта.

Очень нелепая, но, тем не менее, встречающаяся ошибка у людей, которые продвигают большое количество страниц на сайте. Бессмысленно покупать ссылки на страницу с ошибкой 404 (не найдена), так как посетители и поисковый робот все равно не смогут перейти на нее. Поэтому необходимо позаботиться о том, чтобы все продвигаемые страницы присутствовали на сайте и открывались корректно (отклик сервера – 200 ОК). Такие ошибки довольно часто возникают при смене системы управления сайта (смене URL адресов страниц), реже при обновлении товаров на сайте. Проверить какой код отдает страница, можно в сервисе http://redirect-checker.com

7. Запрет продвигаемой страницы в robots.txt.

Перед работой с внешними факторами, необходимо произвести настройки технических параметров, в частности, правильно составить файл robots.txt. Иногда бывает и такое: продвигаемая страница оказывается закрытой от индексации в поисковиках, то есть доступ для пауков-индексаторов на нее закрыт. Поисковые системы попросту не знают о ее существовании и тем более содержании. Такие «подарки» в настройках вполне могут достаться в наследство от другого оптимизатора, который ранее занимался сайтом, или возникнуть из-за невнимательности или неопытности.

8. Неправильная склейка зеркал.

Многие не очень опытные владельцы сайтов упускают из вида то, что поисковики видят URL с www и без как разные сайты. Исходя из этого, может случиться ситуация: Вы покупали ссылки для сайта www.yoursite.tld, а поисковые системы определил главным зеркалом сайт yoursite.tld. В этом случае все Ваши старания пойдут прахом: главное зеркало по мнению поисковика останется без ссылочного веса. Устранение этой проблемы решается с помощью файла robots.txt и написание в нем директивы "host"(Host: главное зеркало), но это работает только для Яндекса. Я бы рекомендовал установить 301 редирект на главное зеркало. Это поддерживают все поисковые машины. Но если вы чайник в этом, главное зеркало можно задать в разделе "Вебмастер" поисковых системах (Яндекс.Вебмастер или Google Webmasters).



9. Дублирование страниц на сайте.

Многие системы управления контентом (CMS) могут генерировать страницы с одинаковым содержимым, но разными URL адресами. Типичный случай: интернет-магазин с сортировкой товаров по «цене», «наименованию», «дате добавления товара» и пр. Если вы сортируете товары и при этом меняется URL страниц – хорошего мало. Владелец сайта может не увидеть в этом ошибки, но поисковые системы воспринимают такие страницы по-другому – для них это разные страницы с одинаковым контентом, по-другому – дубликаты страниц. Поисковая система постоянно пытается выбрать только одну страницу из дублей, дубликаты то попадают в индекс поисковых систем, то удаляются из него – продвигать такие страницы плохо. И часто все работы сходят на «нет» из-за удаления страницы из индекса. Чтобы скрыть такие страницы от робота, я рекомендую использовать файл robots.txt или же писать специальный скрипт, который бы скрывал такие страницы от робота. В Google же есть функционал, чтобы выключить такие страницы из поиска http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=1235687. К сожалению Яндекс до такого еще не додумался.
Часто дубли создаются, когда пользователь присваивает страницам ЧПУ, при этом на сайте остаются страницы как со старым URL, так и с новым. Для поиска таких страниц можно воспользоваться поиском по сайту в «Яндексе» или Google, либо специальными утилитами. После этого необходимо склеить все дубли страниц, поставив 301-й редирект со всех копий на соответствующие им страницы сайта.

На написание статьи меня вдохновила система по продвижению сайтов seopult.ru