Абсолютно любой трафик необходимо монетизировать.

Поиск по этому блогу

среда, 24 августа 2011 г.

Безанкорное продвижение - Эксперимент с текстом ссылки

Какое-то время назад на этом блоге были опубликованы результаты эксперимента с околоссылочным текстом, при проведении которого не были учтены некоторые нюансы, поэтому, было решено провести повторный эксперимент с другими гипотезами и целями.

Тому, кто ещё не знаком с безанкорным продвижением, расскажем немного об этом понятии.


Термин безанкорное продвижение придумали оптимизаторы, он обозначает такой тип внешнего продвижения сайта, когда в текстах ссылок не используются напрямую продвигаемые ключи, а используются альтернативные тексты, изображения или символы. Целей при использовании безанкорных внешних ссылок может быть несколько:



  • Разнообразие ссылочной массы;

  • Естественный вид ссылок;

  • Поиск способов избежания склейки анкоров;

  • Получение траста;

  • И другие…


Одной из особенностью использования безанкорных ссылок является то, что Яндекс в ряде случаев помещает в анкор-лист окружающий текст, что позволяет использовать ключевые слова не в самой ссылке, а в околоссылочном тексте. Однако, здесь у оптимизаторов возникает ряд вопросов, например:



  • Текст с какой стороны от ссылки попадёт в анкор-лист?

  • Какие слова можно использовать в самой ссылке, чтобы окружающий текст влиял на ранжирование сайта?

  • Какова может быть максимальная длина околоссылочного текста для правильной работы безанкорных ссылок?

  • Какие знаки препинания могут быть использованы в окружающем тексте?

  • И множество других вопросов.


В данном эксперименте, о котором пойдёт речь ниже, осуществлена попытка ответить на некоторые из перечисленных вопросов.


Цель эксперимента.

Определить, какие слова лучше использовать для безанкорного продвижения и какой околоссылочный текст (правый или левый) попадёт в анкор-лист? Найти новые гипотезы для следующих опытов.


Гипотеза.

Околоссылочный текст попадает в анкор-лист в случае использования текста ссылки вида “тут”, “читать дальше”, адреса страницы для Яндекса, а также “click here” или “more info” для Google.


Проведение эксперимента.

Для проведения эксперимента была создана специальная страница, на которой размещены ссылки с различным текстом, ведущие на внутренние страницы другого сайта. На данный момент страница проиндексирована в Яндексе и Google, ссылочный апдейт учёл размещенные на экспериментальной странице ссылки.


Для удобства проверки, в окружающий текст были включены метки (уникальные ключевые слова), по которым легко проверить попадание текста в анкор-лист.


Результаты.

1. В Яндексе для используемых на экспериментальной странице слов (тут, здесь, here, click here, more info, читать дальше, и адреса сайта) окружающий текст попал в анкор-лист лишь для слова тут, а также адреса сайта или страницы с http. В остальных случаях учёлся текст самой ссылки.


Читать дальше не является альтернативным текстом для безанкорного продвижения


2. Для тех вариантов, околоссылочный текст которых попал в нпс (найден по ссылке в Яндексе), он находился на доноре справа от ссылки.


Попадание правого околоссылочного текста в анкор-лист


3. Для Google ни по одному из окружающих текстов акцептор не находится, только донор.


Если на экспериментальной странице подсветить попавший (в Яндексе) в анкор-лист текст, то получится следующая картина:


Безанкорное продвижение: Желтым выделены слова, которые попали в анкор-лист.


Выводы.

По результатам эксперимента можно сделать следующие выводы:



  1. Из альтернативных слов в безанкорном продвижении лучше всего использовать только слово “тут”, так как остальные не приведут к попаданию околоссылочного текста в нпс.

  2. Также в тексте ссылки можно использовать адрес сайта или страницы, но обязательно с http, иначе сам адрес сайта попадет в анкор-лист вместо окружающего текста.

  3. Для Google безанкорное продвижение полезно лишь в целях разнообразия ссылок, так как окружающий текст не попадает в анкор-лист.

  4. В основном, учитывается правый от ссылки околоссылочный текст.


По поводу последнего вывода, почему “в основном”, а не “всегда” учитывается правый текст в ссылках? На самом деле, практика показывает, что есть случаи попадания в нпс и левого текста, как например здесь:


При безанкорном продвижении учитывается иногда текст слева, иногда справа.


На скриншоте первый результат это правый текст, а второй – левый. Причём, анализ результатов этого и предыдущих экспериментов показывает, что длина околоссылочного текста, попадающего в анкор-лист – 11 слов (плюс одно слово самой ссылки, если она находится в учитываемом пассаже, итого, в этом случае, 12 слов), которые начинаются считаться от ссылки.


Этот эксперимент дал некоторые ответы, но также побудил к ряду дополнительных вопросов. Следующие гипотезы, которые необходимо проверить:



  • Существуют другие слова (аналогичные “тут”), которые можно использовать в безанкорном продвижении сайта.

  • Учёт правой или левой части околоссылочного текста зависит от близости этого текста к контенту страницы-акцептора (а не от разбиения поисковиком контента на пассажи и попадания ссылки в один из них, как предполагалось ранее).

  • Околоссылочный текст учтётся при использовании ссылки без http, но с www-префиксом.

  • Окружающий тест не попадёт в анкор-лист, если в нём не будет встречаться слово со страницы-акцептора (как, например, на этой странице).

вторник, 16 августа 2011 г.

Google предложил простой способ указания авторства

Google настойчиво пропагандирует идею авторской метки на любом контенте в сети. Компания заявляла ранее, что они планируют использовать авторство как один из факторов ранжирования, также теперь авторство контента неразрывно связано с профилем пользователя в Google, который в свою очередь, лежит в основе социальной сети Google+.
Как известно, Google предложил для решения проблемы авторства контента помечать его на сайте с помощью атрибута rel=’author’. Однако теперь компания предлагает еще один быстрый способ пометить контент, даже если у вас нет необходимого уровня доступа к CMS сайта, для которого создается контент. Этим способом можно помечать гостевые посты.

Google называет это «способом для более простой аннотации своих страниц и демонстрации наличия автора».
Вот основные шаги:

1. Найдите свой Google Profile
2. Добавьте “?rel=author” в конец урла своего Google Profile
3. Вставьте его в тег – < a href=”полученный url здесь”
4. Google хочет, чтобы вы использовали что-то вроде “+Matt Cutts” в тексте анкора.
5. Вставьте то что получилось в статью и поставьте ссылку на этот сайт со своего Google






Напомним, накануне Яндекс предложил свой вариант решения проблемы авторства в интернете. До публикации контента на сайте его автор может загрузить уникальный текст в специальную форму в Я.Вебмастере, сообщив таким образом Яндексу, что контент изначально будет опубликован именно на этом сайте.

Яндекс.Поиск поможет оригиналам

Вебмастера часто жалуются на воровство информации с их сайтов. И действительно, хорошие тексты очень быстро расходится по Сети. За ними охотятся для того, чтобы привлечь трафик на свой сайт.

Мы предлагаем вам принять участие в альфа-тестировании нашего нового инструмента. Перед публикацией на своем сайте текста, который ранее не был размещен в интернете, предупредите Яндекс о скором выходе текста. Мы будем знать, что оригинальный текст впервые появился именно на вашем сайте, и попробуем использовать это в настройке поисковых алгоритмов.

Обратите внимание, что учет вашей заявки в работе поисковых алгоритмов не гарантируется.

Для того чтобы отправить заявку, воспользуйтесь сервисом Яндекс.Вебмастер. В разделе «Содержимое сайта» необходимо подключить раздел «Оригинальные тексты». Рекомендуемый минимальный объем – 2000 знаков, максимальный - 32000 знаков.

Пожалуйста, загружайте только оригинальные тексты, которые до сих пор не были опубликованы в интернете.
На время альфа-тестирования данная возможность доступна сайтам с ТИЦ не менее 10.

воскресенье, 14 августа 2011 г.

Кнопка Google +1 игнорирует файл robots.txt?

На западном форуме для вебмастеров Google Webmaster Help один из пользователей поднял вопрос о взаимодействии кнопки Google +1 и файла robots.txt.
Он поинтересовался, следует ли кнопка директивам для робота Google. Если роботу запрещено обходить какой-то контент, а при этом пользователь Google нажал на +1, одобряя контент данной страницы, индексируется ли этот контент поисковиком?
Вопрос не праздный, особенно в свете прошедшей недавно в рунете череды случаев утечки персональной информации пользователей в поисковые системы. Напомним, основной удар пришелся на Яндекс как самую популярную систему рунета. Яндекс также признал, что утечки могли происходить в ряде случаев с участием счетчика Я.Метрика, который действовал подобно кнопке +1, обсуждаемой сейчас в западном сообществе вебмастеров. Метрика узнавала о страницах, на которые обычным путем роботы попасть не могут, благодаря тому, что на них заходили пользователи (например, генерируемые со сложным урлом страницы в интернет-магазинах, на которые пользователь переходит только со своего email). Затем Метрика передавала информацию о страницах основному индексу, а поскольку эти страницы не были специально запрещены для индексации в файле robots.txt, дальше они оказывались уже в общедоступной выдаче.

По поводу кнопки Google+1 представитель компании Дженни Мерфи ответила, что кнопка +1 взаимодействует с robots.txt и другими директивами для роботов интересным образом.
Цитата:
«Поскольку кнопка +1 может применяться не только для открытых страниц, мы можем посетить страницу в момент клика по кнопке, чтобы определить, является ли она публичной. Эта проверка игнорирует директивы для роботов. Однако это не влияет на поведение поисковых роботов Google и на то, как они взаимодействуют с файлом robots.txt»,

- пояснила Мерфи.
На словах все это выглядит очень логично: все что запрещено в robots.txt, останется недоступно для общего индекса. Однако, как мы убедились на примере рунета, далеко не всегда конфиденциальные страницы оказываются скрыты от индексации (вебмастера тоже люди и тоже ошибаются), а растущее количество различных счетчиков и кнопок, которые получают информацию о посещенных пользователем страницах, на сайтах постоянно увеличивается.

Google Panda алгоритм помогает находить качественные сайты - теперь и на русском языке

Для веб-мастеров любого уровня
Вот уже несколько месяцев мы уделяем особое внимание тому, чтобы показывать пользователям высококачественные сайты в результатах поиска. Некоторое время назад мы обновили наш алгоритм. Обновление, которое мы назвали «Панда», изначально касалось поисковых запросов на английском языке по всему миру (пост на английском языке). Теперь действие этого улучшенного алгоритма распространяется и на другие языки, включая русский. Данные исследований (видео на английском языке) показали, что модифицированный алгоритм улучшает качество поиска по целому ряду показателей, и реакция пользователей на появление «Панды» была очень положительной.
На большинстве языков будет затронуто от шести до девяти процентов запросов. Это значительно меньше, чем при запуске «Панды» для английского языка, когда заметные пользователям изменения коснулись почти 12% запросов. Однако теперь «Панда» будет работать на всех языках, кроме китайского, японского и корейского, тестирование для которых ещё не завершилось.
Мы опубликовали пост, в котором описывается подход Google к поиску высококачественных сайтов. Надеемся, что он поможет веб-мастерам сайтов, которых коснётся модификация алгоритма. Для веб-мастеров существуют форумы на различных языках, где можно оставить свои отзывы и получить дополнительные рекомендации. Все, что мы делаем, направлено на то, чтобы наши пользователи получали самые полные и полезные ответы на свои запросы.

вторник, 9 августа 2011 г.

Яндекс. Новое в поиске (июль 2011)

Новости в поиске за предыдущий месяц:

 

Очень просто и понятно о том, что такое robots.txt, и для чего он нужен

четверг, 4 августа 2011 г.

Яндекс. Статистика популярных запросов в XML-поиске

Яндекс.XML  — это сервис, который позволяет автоматически задавать Яндексу поисковые запросы и получать его ответы в формате XML. С помощью Яндекс.XML можно организовать поиск по одному сайту, поиск по порталу или создать приложение, использующее возможности поиска.

Сегодня на сервисе Яндекс.XML появилась статистика популярных поисковых запросов.  Все, кто используют XML-поиск,  могут узнать, какие запросы задают пользователи на их сайтах, и проанализировать эти данные. Они находятся в разделе «Популярные запросы».

Для просмотра доступна общая статистика (без ограничения по региону), а также для каждого из шести региональных срезов (Россия, Украина, Беларусь, Казахстан, Москва, Санкт-Петербург).

среда, 3 августа 2011 г.

Google. Личные данные в результатах поиска

В последнее время широко обсуждаются случаи появления конфиденциальной информации в результатах поиска, поэтому мы решили напомнить веб-мастерам о том, как индексируется контент и как обеспечить индексацию только предназначенных для этого страниц. Одновременно мы хотели бы еще раз рассказать пользователям о мерах, которые следует принимать при обнаружении своих конфиденциальных данных в Интернете.
Прежде всего нужно понять, что если ваши документы содержат конфиденциальную информацию, следует хорошо подумать, прежде чем помещать их на веб-сервер.
Если конфиденциальные данные всё же должны быть размещены на сайте, их следует защитить, поместив в раздел, требующий регистрации и ввода пароля. Так как поисковые системы не располагают паролями и не имеют функциональной возможности для их ввода, доступ к данным остаётся возможным только для тех, у кого есть соответствующие права.
Если владелец сайта разместит информацию в Интернете и не ограничит доступ роботам поисковых систем для сканирования и индексирования, скорее всего, эта информация будет найдена, проиндексирована и появится в результатах поиска. В этом и заключается суть работы поисковых систем: находить, структурировать информацию и делать её доступной для пользователей. Поэтому, если у вас есть веб-сайт, где размещены данные, отображение которых в результатах поиска нежелательно, на вас лежит ответственность - установить соответствующие ограничения. Ниже более подробно описывается, как это сделать.
Предотвращение сканирования и индексирования конфиденциальных данных поисковыми системами
Существует ряд способов, позволяющих веб-мастерам воспрепятствовать сканированию и индексированию личных и конфиденциальных данных поисковыми системами.
  • запрет на сканирование в файле robots.txt
Файл robots.txt - первый, на который обращает внимание поисковый робот при заходе на сайт, ещё до того, как он обратит внимание на какие-либо страницы. В этом файле можно указать, сканирование каких частей сайта вы хотели бы запретить при помощи команды Disallow.
Например, если вы не хотите, чтобы сканировалась папка на сайте, содержащая изображения, то в файле robots.txt можно указать следующее:
User-agent: *
Disallow: /images/

Файл robots.txt можно легко создать в соответствующем разделе наших Инструментов для веб-мастеров или написать самостоятельно, проверив правильность составления особым инструментом, также доступным в Инструментах для веб-мастеров.
Важно помнить, что указание определённой страницы в файле robots.txt предотвратит её сканирование нашей системой, но при наличии на неё ссылок с других страниц (на вашем или других сайтах) мы всё равно можем проиндексировать её. В результате адрес страницы (URL), а также, возможно, и другая общедоступная информация, как например, анкорный текст ссылок ведущих на неё, могут появится в результатах поиска Google.
Дополнительные сведения об использовании файла robots.txt для блокирования содержимого сайтов можно найти в нашем справочном центре.
  • предотвращение индексирования при помощи мета-тега noindex
Этот тег можно разместить в исходном коде вашей страницы (в разделе ), тем самым запретив поисковым системам индексировать страницу, даже при обнаружении ссылок на неё с других страниц. Тег выглядит следующим образом:
<meta name="robots" content="noindex">
Обратите внимание, что тег следует разместить на каждой странице, индексирование которой необходимо запретить.
Дополнительные сведения об использовании тега noindex можно найти в нашем справочном центре.
  • предотвращение индексирования при помощи заголовка HTTP X-Robots-tag
Эффект тот же самый, как и при использовании мета-тега noindex, но этот приём особенно полезен для нетекстового содержимого, когда нет возможности разместить мета-тег в исходном коде. Ниже приведён пример применения тега X-Robots-tag в заголовке HTTP-ответа, позволяющего запретить индексацию страницы.
HTTP/1.1 200 OK
Date: Tue, 25 May 2010 21:42:43 GMT
(…)
X-Robots-Tag: noindex
(…)

Дополнительные сведения об использовании тега X-Robots-tag можно найти на сайте code.google.com (на английском).
Меры, которые следует предпринять при непреднамеренной индексации конфиденциальных данных
Для веб-мастеров:
  • Чтобы полностью удалить содержимое следует:

  • При желании сохранить содержимое, но запретить его индексацию следует:
Для пользователей, обративших внимание на наличие их личных сведений на каком-либо сайте:
Дополнительные сведения об оформлении запросов на удаление данных можно найти в нашем справочном центре.

YouTube научит использовать себя правильно

Создатели роликов, которые выкладывают свои шедевры на YouTube, смогут более успешно продвигать свое видео на сайте. Видеохостинг разместил первое практическое руководство Creator Playbook, в котором даются советы и рассматриваются стратегии по созданию видеоконтента и привлечению к нему аудитории.
В предисловии сказано, что Creator Playbook – не набор правил или беспроигрышных трюков для достижения большего количества просмотров. Руководство предлагает советы по оптимизации и тактики, которые помогут найти и привлечь свою аудиторию, используя возможности видеохостинга.
Среди советов, которые пользователи могут прочитать, можно встретить следующие: делать интересное начало видеороликов, чтобы пользователям хотелось досмотреть видео до конца; регулярно следить, какое видео наиболее популярно у аудитории; просить оставлять комментарии, ставить оценки; задавать вопросы, чтобы вызвать дополнительное обсуждение и т.п.
Руководство написано на английском языке и имеет три раздела, которые уместились в 70 страниц. С появлением новых возможностей на YouTube планируется пополнение Creator Playbook новыми разделами.