Абсолютно любой трафик необходимо монетизировать.

Поиск по этому блогу

воскресенье, 31 июля 2011 г.

Яндекс оповестит администраторов сайтов об утечке информации

Как и предсказывал Игорь Ашманов, поисковик Яндекс все-таки озадачился созданием системы, распознающей в сети персональные данные пользователей. Такая возможность рассматривается сегодня в компании, как сообщил Аркадий Волож, ее генеральный директор.


«Технически распознавать со 100-процентной точностью, персональные это данные или нет, невозможно», - поделился размышлениями Волож. Однако возможно обнаружить «нечто, похожее на персональную информацию». В таких случаях система будет рассылать вебмастерам уведомления, чтобы обратить их внимание на необходимость скрытия этих данных.


Также Аркадий сообщил, что компания планирует удалить ранее просочившуюся в поиск конфиденциальную информацию.

Яндекс подскажет все Украина, Беларусь и Казахстан

С сегодняшнего дня в поисковых подсказках Яндекс начал учитывать регионы Украины, Беларуси и Казахстана, объявила компания в официальном блоге. Жители этих стран уже могут увидеть в поиске популярные для их города поисковые запросы.
Например, поисковые подсказки для украинских городов Львов и Черкассы:

Напомним, что впервые поисковые подсказки появились в 2008 году. А региональные саджесты для России появились в марте текущего года. Их цель - ускорять ввод запроса, а также исправлять опечатки.

Google+ разрешит компаниям влиять на выдачу

Известный западный журналист Дэнни Салливан (Danny Sullivan) заметил интересную вещь. По запросу «cars» («машины») он увидел на десятом месте в результатах выдачи сайт компании Ford. После сниппета шла надпись о том, что компания поделилась этой ссылкой.



При наведении курсора появлялась следующая надпись, которая означала, что Дэнни Салливан был связан с компанией через Google+, что соответствовало действительности (напомним, что компания Ford состоит в тестовой группе брендов, допущенных в Google+).



Когда Дэнни разлогинился в Google, страница Ford ушла из выдачи за ТОП-50. Очевидно, что социальная информация положительно повлияла на позиции компании в выдаче. Дэнни также сделал предположение, что Google может учитывать отметки не только прямых друзей пользователя на Google+, но и друзей этих друзей.


С одной стороны, в этом нет ничего нового. Функция Social Search еще c 2009 года связывала социальный граф с SERP англоязычного Google. Но влияние на выдачу оказывали, как правило, только частные лица. Компаниям разрешалось иметь свои Google-профили только до марта этого года, но они и раньше неактивно пользовались этой возможностью. Теперь связи с брендом в Google+ будут значительно влиять на позиции компании в выдаче, заключил западный эксперт.

Google запускает сервис для ускорения загрузки сайтов на 25-60%

Google снова бьет в свой барабан «сделаем Веб быстрее»: сегодня был анонсирован новый сервис, который переписывает (оптимизирует) контент страниц, передает его через серверы Google, в итоге ускоряя скорость загрузки страницы у конечного пользователя на 25-60%. Сервис Page Speed в тестовом режиме будет доступен ограниченному числу сайтов бесплатно, но в дальнейшем сервис станет платным.

Линейка сервисов Google для ускорения загрузки страниц включает также расширение для браузеров Page Speed, онлайн-API, Apache-модуль mod_pagespeed. При запуске предыдущих сервисов Google объяснял, что более быстрый и удобный Веб означает более высокие доходы для компании, но с новым сервисом Page Speed Service Google возвращается на традиционный путь получения непосредственной выгоды от предложенного сервиса.
В публикации Google о новом сервисе сказано, что «цены будут конкурентоспособными и детали будут известны позже». Для тех, кто хочет попробовать бесплатно потестировать сервис, есть форма заявки.
Чтобы воспользоваться сервисом, нужно указать DNS сайта. Новый сервис Page Speed соберет контент с серверов, оптимизирует страницы сайта и передаст их через серверы Google по всему миру конечным пользователям.

Отметим, что компании, которые специализируются на ускорении доставки данных в интернете, уже существуют, например, Limelight Networks и Akamai. Google может составить им серьезную конкуренцию.
Логично предположить, что услуги ускорения загрузки сайтов будут уже скоро весьма востребованы, в части потому, что сам Google заявлял, что скорость загрузки является одним из факторов ранжирования сайтов. Как известно, законодателем мод на поисковом рынке является именно Google, поэтому следует ожидать, что и в рунете эта проблема станет в скором времени актуальна.

четверг, 28 июля 2011 г.

Яндекс.Метрика уточняет цвета в карте ссылок по выделенным блокам на странице

В Яндекс.Метрике появился новый функционал карты ссылок – это выделение на странице блока для получения более подробных данных. Теперь пользователь системы может выделить область, для которой необходимо увидеть более подробный отчет по переходам.

Новый функционал пригодится в тех случаях, когда на странице присутствует одна очень кликабельная ссылка, на которую Метрика обращает особое внимание, в то же время другие ссылки на ее фоне с примерно одинаковым количеством переходов невозможно отличить по оттенкам относительно друг друга.

Рассмотрим пример, который представлен в блоге Яндекса. Сначала карта ссылок выдается по всей странице. Ссылки в представленном блоке раскрашены близкими оттенками:




Затем, если выделить конкретный блок на странице, то можно более детально проанализировать кликабельность ссылок в определенном месте сайта. Ссылки в выбранном блоке получают более контрастные оттенки цветов. Уточняющая карта ссылок для выбранного фрагмента страницы построена, после этого можно сравнить популярность отдельных ссылок из этого фрагмента.


Яндекс. Делегирование прав на сайт в Яндекс.Вебмастере

В сервисе Яндекс.Вебмастер существует несколько способов подтвердить права на управление сайтом. И у нас для вас хорошая новость: появилась возможность передать права на сайт другому пользователю.

Если вы не можете воспользоваться ни одним из имеющихся способов, но имеете непосредственное отношение к сайту, вы можете связаться с вебмастером или администратором сайта, у которого сайт уже подтвержден, и попросить его делегировать вам права на управление сайтом. Если права были делегированы, то они подтвердятся автоматически, и получателю останется только добавить сайт (в том случае, если он не добавлен).

Делегировать другому пользователю права на сайт можно в разделе «Мои сайты» -> выбранный вами сайт -> «Права на управление».  Необходимо указать логин в Яндексе того пользователя, кому бы вы хотели передать права на управление сайтом.

Делегирование прав на управление сайтом может быть полезно, если вы хотите дать кому-либо доступ к cтатистике Яндекс.Вебмастера повыбранному сайту, но не желаете передавать логин и пароль от своего аккаунта в Яндексе, который может быть привязан и к другим сервисам, содержащим конфиденциальные данные. 

Также появился еще один  дополнительный способ подтвердить права —  через подтверждение адреса электронной почты, который указан в качестве контактного адреса в WHOIS-записи вашего сайта. Необходимо указать этот адрес в специальной форме (http://validator.yandex.ru), и после автоматической проверки соответствия адреса WHOIS-записи права на сайт будут подтверждены.

Яндекс Метрика. Управление приватностью

Предполагается, что вебмастер следит за всеми данными, размещенными на своем сайте – например, за тем, чтобы приватные данные были защищены паролем, или за тем, чтобы туда не попадала внутренняя информация о компании. Вся информация, которая размещена в интернете и никак не защищена, может попасть в поисковые системы. Для того, чтобы ограничить доступ к информации для поисковых систем, достаточно задать правила доступа в файле robots.txt протоколом REP.

Однако практика показала, что, несмотря на простоту способов защиты приватной информации, и то, что правила взаимодействия сайтов с поисковыми системами созданы еще в 1994 году, многие вебмастера совершают ошибки. Например, полагаясь на сложность адреса той или иной страницы, никак не защищают информацию на ней. В результате эта информация оказывается открытой и находится в различных поисковых системах, в том числе и в Яндексе.

Как показали события последних дней, это достаточно широко распространено. Поэтому мы посчитали необходимым тщательно рассмотреть ставшие известными за последнее время случаи доступности непубличной информации. Мы изучили ситуацию и выяснили, что адреса страниц с некоторых хостов стали известны Яндексу через установленную на сайтах Метрику. А поскольку в robots.txt этих сайтов запрета на индексацию страниц не содержалось, они стали находиться в Яндексе. Особо хотим отметить, что посещение пользователем страницы с помощью браузера с установленным Яндекс.Баром не приводило и не приводит к ее индексации.

Что такое Метрика? Это система, предназначенная для анализа трафика на сайте. В  соответствии с Пользовательским соглашением Метрики, «счетчик собирает анонимные данные о посещениях сайта и в автоматическом режиме передает их Яндексу для получения обобщённой статистической информации, доступной для дальнейшего использования с помощью Сервиса как Пользователю, так и Яндексу».

Мы не могли представить себе, что в функциональность инструмента для анализа сайта нужно добавлять средства управления доступом. Для этого существуют общепринятые инструменты. Однако миф о том, что для защиты приватной информации достаточно сложного адреса страницы, оказался таким распространенным среди вебмастеров, что мы решили добавить в Метрику возможность не передавать в поиск Яндекса адреса страниц, которые стали ей известны. Однако это не означает, что поисковая система никогда не узнает о той или иной странице. Существует огромное количество других путей, которыми страница может оказаться в поиске. Новая опция Метрики влияет только на непосредственную связь между Метрикой и поиском.

Эта опция появилась на сервисе, на страницах с выбором счетчика. Также вы можете добавить в код счетчика на вашем сайте параметр ut=noindex. В результате этого адреса страниц, полученные только через Метрику, не будут индексироваться поиском Яндекса.

Приватные страницы, не защищенные вебмастером, которые по тем или иным причинам оказались в поисковом индексе, можно удалить несколькими способами. Если вы – вебмастер или владелец сайта и видите в поисковой системе те страницы, которые, по вашему мнению, не должны там находиться, вам нужно либо закрыть их паролем, либо запретить индексацию страниц с помощью robots.txt или метатега noindex.
Процесс обновления данных в поиске Яндекса можно ускорить. Для этого воспользуйтесь инструментом для удаления адресов страниц в Яндекс.Вебмастере. Или вы можете обратиться в службу поддержки. После обработки заявки робот Яндекса переобойдет указанные адреса и удалит их или изменит содержимое, сниппет и сохраненную копию - в зависимости от действий вебмастера.

В настоящее время процесс синхронизации содержимого сайта и результатов поиска занимает несколько часов, но мы работаем над тем, чтобы значительно сократить это время.

среда, 27 июля 2011 г.

Яндекс идет на Запад

Западные издания начали активно присматриваться к деятельности российского поисковика. Это обусловлено тем, что в ходе успешно проведенного IPO Яндекса на NASDAQ компания привлекла $1,3 млрд. инвестиций, значительную часть которых предпочла вложить в развитие и расширение собственного бизнеса. Достижения российской корпорации не остались незамеченными на Западе.
Высказывание Аркадия Воложа о "мировой компании, рожденной в России" еще больше подхлестнуло интерес западных СМИ. Теперь каждый шаг Яндекса рассматривается с точки зрения "начала мировой экспансии".
Так, появление Yandex.Webmaster для англоязычных пользователей натолкнуло редакторов западного издания Searchengineland на размышления о том, что Яндекс постепенно готовит почву для работы на Западе. Сервис, предоставляет западным коллегам информацию о том, как индексируются сайты в российском поисковике. Кроме того, он позволяет англоязычным пользователям оповещать российскую систему о новых и удаленных страницах, настраивать индексирование сайта и улучшать его представление в результатах поиска.
По мнению западного издания, несмотря на то, что ключевые слова и анкоры, так или иначе, остаются русскоязычными, английская версия все же облегчает жизнь специалистов, не владеющих русским. Однако все же, отмечает издание, пользоваться сервисами Google в России проще, чем Yandex.Webmaster за рубежом.
В заключительной части статьи были намечены 2 основных стратегически направления для Яндекса:
  • предоставлять расширенные возможности и сервисы западным рекламодателям;


  • вытеснить Google из стран Западной Европы, население которых исторически использовало в своей письменности кириллицу.
  • Google Panda 2.3: очередное обновление убивает трафик

    18 июля 2011 года Google обновил фильтр Panda до версии 2.3. Это ознаменовалось резким снижением трафика сайтов и скачками их позиций в поисковике Google.
    Первые сообщения оптимизаторов о колебаниях позиций сайтов в поисковой выдаче появились в обсуждениях уже 22 июля и продолжаются по сей день. По мнению большинства, причиной тому стали именно апдейты Panda. Подтверждают эти подозрения и западные источники.
    Отметим, что обновление фильтра до версии 2.3 стало не столь масштабным по сравнению с предыдущими. Руководство Google комментирует ситуацию следующим образом: «Это небольшое обновление включает в себя некоторые приемы, позволяющие отделять высококачественный контент от низкопробного. В результате последнего обновления сайты с хорошим контентом смогли улучшить свои позиции в поиске». Однако это заявление Google расходится с видением проблемы отраслевыми специалистами, так, по мнению редакции издания Technize.NET, обновления Panda буквально «убивают сайты», понижая в выдаче не отдельную страницу с «некачественным» контентом, а весь ресурс.
    Напомним, что Panda безжалостна к бесполезному для пользователей и некачественному контенту, «копипасту», преобладанию рекламы над количеством контента на ресурсе, а также к рекламе, не соответствующей тематике сайта. При этом, аналитики Google понимают, что фильтр может «зацепить» и качественные проекты, поэтому «всегда открыты для общения с оптимизаторами».
    Что же можно сделать самостоятельно при понижении сайта в выдаче после очередного апдейта системы? Эксперты советуют следующее:

  • Удалить дубликаты, а также страницы с низким качеством содержимого.


  • Удалить исходящие ссылки, ведущие на рекламные и некачественные сайты.


  • Дождаться очередной индексации сайта в поисковой системе.
  • вторник, 26 июля 2011 г.

    Фильтр Google Панда переключился на «автомат»?

    Последний месяц в западном вебмастерском и оптимизаторском сообществе почти ежедневно обсуждаются апдейты Google Panda. Как пишет редактор Seroundtable Барри Шварц (Barry Schwartz), эти обсуждения можно проследить даже по веткам самого популярного форума Webmasterworld.
    Как известно, информация о Google Панда с момента запуска первого апдейта в феврале 2011 года, корректировалась даже лично Мэттом Катсом. В мае он рассказал вебмастерам, что это не столько алгоритм, как Панду называли изначально, сколько фильтр, который с периодичностью примерно раз в несколько недель включается вручную.
    Теперь же, по гипотезе Барри Шварца, Google либо начал проводить эти апдейты вручную практически каждый день, что маловероятно, просто потому что сложно. Либо команда качества поиска посчитала «Панду» уже достаточно совершенным фильтром, который можно запустить на автомате.
    Велика вероятность, что апдейты, о которых пишут вебмастера, не имеют отношения к фильтру Панда. Редакции Seroundtable не удалось получить официального комментария на эту тему от Google. Но в целом такое предположение не лишено смысла, ведь ручной режим Панды был связан с многочисленными нареканиями и сообщениями об ошибках фильтра (часто оригинальный контент оказывался ниже по позициям, чем копипаст). Возможно, Google счел свой фильтр достаточно усовершенствованным, чтобы его можно было переключить на автоматический режим.

    Янддекс - Почему находится всё

    Сейчас в рунете широко обсуждается появление в открытом доступе СМС и других данных, которые не должны были стать публичными. Вокруг этой темы возникла даже легкая паника. Чтобы в дальнейшем не происходило подобных вещей, хочу рассказать владельцам сайтов и вебмастерам, что нужно сделать и на что обратить внимание.
    Прежде всего личную информацию посетителей сайта необходимо защитить, например, закрыть паролем. Если же такая информация никак не защищена, она запросто может стать доступна всем пользователям сети. Для этого достаточно оставить где-нибудь в интернете ссылку на страницу пользователя — хоть на страницу заказа, хоть на страницу регистрации.
    Вторая важная вещь — необходимо запретить поисковым роботам индексировать страницы сайтов с информацией, которая не должна стать публичной. Для этого существует файл robots.txt. Это текстовый файл, который предназначен для роботов поисковых систем. В этом файле вебмастер может указать параметры индексирования своего сайта как для всех роботов сразу, так и для каждой поисковой системы по отдельности. То есть владелец сайта или вебмастер всегда может позаботиться о том, чтобы поисковые роботы обходили стороной страницы, содержимое которых не должно попасть в поисковые системы. Проверить, какие страницы сайта проиндексированы Яндексом, можно с помощью сервиса Яндекс.Вебмастер. В сервисе существует специальный инструмент для проверки корректности файла robots.txt — с помощью него можно проверить доступность страниц для индексации поисковым роботом Яндекса.
     
    Чтобы все понимали, как данные попадают в поисковики, давайте проследим, что происходит с веб-страницей от момента ее создания до попадания в результаты поиска.
    Итак, страница появилась на сайте. Не важно, статический ли это html или динамически созданная серверным приложением страница. Важно, что у нее есть текстовое содержимое, которое могут читать пользователи и индексировать поисковые системы.
    Разместив в интернете свою страницу, вебмастер ждет посетителей. Как он может рассказать людям о ней?  Конечно, он отправит запрос на индексирование страницы поисковым системам. Возможно, отправит ссылку друзьям и знакомым, сократит ее и выложит в Твиттер, другие блоги и соцсети. Он может поставить ссылку на эту страницу и в других местах, уже известных поисковым системам, чтобы роботы быстрее ее нашли. 
    Итак, на страничку не зашел еще ни один живой человек, но про нее уже могут знать тысячи программ по всему интернету:
    •    поисковые системы, куда вебмастер отправил ссылку вручную;
    •    блог-платформы и сокращатели ссылок;
    •    поисковые системы, которые переиндексировали страницы с ссылками на эту (а зачастую это происходит очень быстро);
    •    всевозможные анализаторы и подписчики RSS (если на сайте есть RSS), причем не только через RSS сайта, где расположена страничка, но и через RSS блогов, агрегаторов, блогов агрегаторов, агрегаторов блогов, агрегаторов агрегаторов и так далее;
    •    компании-владельцы интернет-мессенджеров и провайдеры почтовых сервисов.


    Если у странички стандартное имя, например, /admin или /login, ее быстро найдут всевозможные сканеры уязвимостей, которые постоянно обходят интернет. Про нее могут знать интернет-провайдеры всех тех систем, которые мы перечислили выше, провайдер самого сайта и все провайдеры по пути. Не в последнюю очередь про нее могут знать сотрудники спецслужб, использующие системы СОРМ. Иначе говоря, к этому моменту про новую страницу знает уже половина «роботной» части мирового интернета.
    И только теперь на страницу заходит первый пользователь. Например, сидя в интернет-кафе, человек кликнул по ссылке в Твиттере и перешел на страницу. Конечно, этот клик зафиксировал javascript системы статистики сайта — в данном случае Твиттера. Как правило, пользователь попадает на страницу через сервис сокращения ссылок, и переход осядет в логах этого сервиса. Дальше браузер открывает страницу и начинает загружать объекты — картинки, анимацию, скрипты, css, рекламу, коды счетчиков и систем статистики. Если в браузере установлен антифишинговый или антивирусный плагин (собственный есть почти во всех браузерах и почти везде включен, а некоторые антивирусные компании еще добавляют свой), он отправляет адрес посещенной страницы на проверку. В браузер могут быть встроены и другие плагины. Например, Яндекс.Бар или Google.Бар показывают ранг страницы, для чего передают ее адрес на сервер. Бывает так, что трафик пользователей в публичных местах пропускается через прокси-сервер — для защиты от атак, экономии IP-адресов или ускорения загрузки страниц. В этом случае все указанные взаимодействия пройдут через прокси-сервер, и он тоже узнает о странице.
    Если на страничке есть картинки или flash-объекты с других ресурсов, то о странице будут знать все эти ресурсы. При наличии на странице iframe о ней будет известно системе показа рекламы или сервисам других систем, загруженных через iframe. Если вебмастер использовал скрипты из внешней библиотеки, счетчики и системы сбора статистики, то о новой страничке будут знать все эти сервисы и их провайдеры. Данные получат прокси-серверы и серверы антивирусной и антифишинговой систем, встроенных в браузер. А также юноша, сидящий в кафе за соседним столиком и недавно прочитавший в молодежном журнале, как просматривать чужой трафик в публичных wifi-сетях.
    Итак, теперь можно сказать, что почти весь мировой интернет знает про существование этой ссылки. Дальше информация о таких ссылках анализируется и проверяется, сравнивается и обсчитывается, агрегируется и консолидируется многими-многими системами. Происходит это довольно быстро. Бывает — всего за несколько секунд. В конечном итоге многие такие ссылки так или иначе становятся известными поисковым системам.
    В этом месте хочу еще раз обратить внимание: поисковая система получает из разных источников только ссылки, а не содержимое страницы. Сколько может быть этих ссылок? Очень много. Например, еще в 2008 году Google сообщил, что их поисковой машине известно более одного триллиона (это тысяча миллиардов) уникальных ссылок. Разумеется, с той поры мировой интернет стал еще больше. И это при том, что индексируются только страницы, которые доступны всем пользователям.
    Все ссылки поисковая система пропускает через фильтры, чтобы определить, нужно индексировать конкретную ссылку или нет. Некоторые ссылки отфильтровываются. Из полученного списка формируется очередь для обхода поисковым роботом. Порядок обхода может быть разным, он зависит от многих факторов. Важно, что робот старается отобрать и проиндексировать в первую очередь самые востребованные ссылки.
    Дальше система управления поисковым роботом идет по списку ссылок и готовится индексировать содержимое страниц. Но прежде чем поисковый робот обращается к конкретной странице сайта, он обязательно проверяет файл robots.txt. И если владелец сайта не желает, чтобы новая страница индексировалась поисковой системой, он может попросить поискового робота этого не делать. И поисковый робот не будет этого делать. Конечно, злоумышленники, желающие украсть важный файл, не обратят внимание на содержимое robots.txt, но все крупные поисковые системы в обязательном порядке выполняют директивы этого файла.
    Только если поисковый робот убедился, что robots.txt не запрещает индексирование странички, он будет ее индексировать. Это — единственный путь, по которому содержимое страницы попадает в поисковую систему. Другого способа нет.
    Когда робот получил контент страницы, он снова применяет фильтры — отсекает мусор и спам. После того, как страницы отфильтрованы, можно приступать к ранжированию. Все страницы, доступные поисковой системе на этом этапе, могут появиться в результатах поиска. Таким образом, в поиске находится всё, что открыто всем и не запрещено вебмастером

    воскресенье, 24 июля 2011 г.

    Яндекса - Блог по разработке интерфейсов появился на я.ру

    Сегодня у разработчиков интерфейсов Яндекса появился свой официальный блог. Здесь будут публиковаться статьи по разработке и проектированию интерфейсов, рассматриваться темы вёрстки, клиентского программирования, оптимизации вёрстки (оптимизация скорости рендеринга, размера изображений, многого другого) и доступности контента.
    Первая запись в блоге рассказывает про подход в Яндексе к кроссбраузерности.
    Разработчики интерфейсов Яндекса считают, что сайты должны быть сверстаны кроссбраузерно.
    Под кроссбраузерностью понимается доступность информации в любом из распространенных браузеров.
    На сегодняшний день в категорию распространенных (>2% пользователей) попадают браузеры, которые очень по-разному поддерживают новые технологии. Пользователям прогрессивных браузеров обязательно нужно предоставлять возможность полностью использовать их потенциал.

    Google отсудил свой домен в зоне .ua у киберсквоттеров

    Доменное имя Google.ua с 2006 года использовался для сайта знакомств, который открыла компания «Гоу Огле». Пять лет назад находчивые киберсковттеры зарегистрировали торговые марки «Google» и «Go Ogle», оставив всемирно известному поисковику толко возможность размещать свой поиск на домене www.google.com.ua.
    Google судился с киберсквоттерами долгие 5 лет, доказывая свое право на владение данным доменным именем. Постановление суда в пользу поисковой компании было вынесено еще в 2010 году, однако после выполнения всех формальностей, Google только на днях получил доступ к google.ua.
    Согласно информации сервиса hostspider.net.ua, компания Google официально признана владельцем домена google.ua 21 июля 2011 года. Пока пользователь, зайдя на google.ua, оказывается переадресован на google.com.ua, но в ближайшее время украинская версия поисковика станет доступна по новому адресу.
    Google является лидером поискового рынка Украины. Доля западного гиганта, по сведениям StatCounter, превышает 80 процентов. Вторую позицию по популярности после Google занимает российская поисковая система "Яндекс".

    пятница, 22 июля 2011 г.

    Один товар – три сайта. Что скажет Google?

    В очередном выпуске видеоподкаста Мэтт Каттс по традиции ответил на следующий вопрос слушателя:
    «Я продаю одни и те же товары на трех разных сайтах. На каждом сайте разный подход к продаже, ценообразованию, они нацелены на разную аудиторию. Не посчитает ли Google это спамом или черным методом SEO?».


    Как сообщил сотрудник Google, если сайты абсолютно разные (отличаются по структуре, оформлению) и если их всего три, то в принципе, в этом нет ничего плохого. Однако продажа одной и той же продукции на трех разных сайтах выглядит для него странной. По его мнению, лучше выбрать для каждого сайта свою категорию товаров, либо сосредоточиться на каком-то одном. Для поддержки и развития сайта, создания его репутации необходимо время. А когда сайтов несколько возникает соблазн, например, автоматически сгенерировать контент или скопировать тексты с других ресурсов. И тогда сайт начинает выглядеть как еще один «отштампованный» ресурс, что вряд ли может понравиться пользователям.
    «Исходя из собственного опыта, могу сказать, что когда есть 50 или 100 сайтов, в них не вкладывается столько стараний и любви, как если бы был всего один ресурс. И со временем это скажется», - говорит г-н Каттс.

    среда, 20 июля 2011 г.

    Яндекс.Метрика: анализ доходов и количество заказов для интернет-магазинов

    Команда Яндекс.Метрики сообщила о появлении возможности анализа эффективности продаж на сайте с точки зрения доходности конкретных источников трафика и динамики посещаемости. Теперь, информация о содержимом и стоимости заказов на сайте, собранная в отчете Параметры интернет-магазинов, будет также отражаться в отчетах Посещаемость и Источники трафика.
    Анализ дохода и количества заказов поможет определить отдачу от источников трафика (контекстной рекламы, переходов с поисковых систем и т.д.), и увидеть, какой из них приносит «дорогой» трафик, а какой – «дешевый», чтобы принять решение по оптимизации своих расходов.
    В отчете Посещаемость можно посмотреть количество заказов и доход по дням, а также проследить динамику изменений этих данных на диаграмме.

    В отчете по Источникам трафика появилась возможность проследить доход от каждого из источников с детализацией по нескольким параметрам: сайтам-источникам переходов, рекламным системам и рекламным меткам, поисковым системам и поисковым фразам.

    Для того, чтобы увидеть новые данные в интерфейсе, необходимо настроить передачу информации о содержимом заказов и их стоимости в Яндекс.Метрику для отчета Параметры интернет-магазинов вместе с достижением посетителем цели «Покупка».
    Если информация о содержимом заказов и их стоимости уже передается в Яндекс.Метрику, то информация о заказах и доходе появится в интерфейсе отчетов Посещаемость и Источники трафика автоматически.
    Каждый раз при достижении цели, в Яндекс.Метрику будут направляться данные о совершенном заказе, а в отчетах Посещаемость и Источники трафика на вкладке этой цели автоматически начнут отображаться два дополнительных столбца: Заказы и Доход.
    Сам отчет по Параметрам интернет-магазинов стал более наглядным и удобным для использования. Теперь информация выводится в интерфейсе в виде дерева, которое можно развернуть и просмотреть товары каждого заказа. Кроме того, теперь отчет позволяет получить информацию о том, из какого источника трафика пришел посетитель, совершивший конкретный заказ. Зная это, можно оптимизировать свои расходы на трафик, выбирая лишь те источники, которые лучше всего привлекают клиентов.

    Единственная проблема заключается в том, что структура данного отчета была полностью изменена (он оказался несовместим со старым), поэтому информация по ранним продажам (до 18.07) стала недоступной.

    AdWords тестирует вывод URL под заголовками

    Эксперименты в Google AdWords продолжаются. Не успел сервис порадовать пользователей функцией поддержки знаков, не принадлежащих кодировке ASCII, включая нелатинские символы и латинские символы с надстрочными и диакритическими знаками в URL, как уже анонсировал очередное нововведение.
    Вчера корпорация запустила тестирование нового расположения URL в объявлениях - сразу под заголовком объявления на странице.


    По словам представителей корпорации, команда Google постоянно экспериментирует с разными способами отображения информации в AdWords. Однако в этот раз пользователи по всему миру смогут увидеть целый ряд изменений в сервисе.

    вторник, 19 июля 2011 г.

    Google: кого спасут поддомены?

    Обновление нашумевшего фильтра Google Panda  зимой привело к тому, что некоторые сайты потеряли свои позиции в результатах выдачи. Один из таких пострадавших сайтов поделился своим опытом, как ему удалось спустя 5 месяцев восстановить свои позиции.
    Сайт Hubpages специализируется на публикации статей разных авторов. Основной трафик ресурс получал из поиска Google, но с введением Panda рейтинг сайта был существенно занижен. Переместив страницы с некачественным контентом на поддомены, компании удалось улучшить качество контента на основном сайте и вернуть былые позиции в выдаче.
    Зарубежные эксперты отмечают, что такое действие вполне может иметь смысл, так как Google видит поддомены, как отдельный домен. В то же время, поисковик предупреждает веб-мастеров не торопиться идти по пути Hubpages. В Google отмечают, что поддомены будут полезны, если надо выделить контент, который отличается от остального содержания сайта, но не стоит ожидать, что простое добавление нового поддомена вызовет повышение в рейтинге. Позволить себе идти по такому пути могут только крупные и известные сайты с разнообразным содержанием, такие как, например, WordPress.com.

    суббота, 16 июля 2011 г.

    Остановка по требованию от Я.Директа

    Яндекс.Директ в очередной раз порадовал рекламодателей полезным нововведением. Отныне они могут выбирать не только дату начала рекламной кампании, но и дату ее окончания. Объявления будут показываться до 24-00 часов выбранного дня по московскому времени, а затем кампания автоматически остановится. Также рекламодатель может выбрать любое другое удобное ему время окончания кампании.

    Яндекс уверен, что нововведение будет полезно при проведении рекламных кампании мероприятий, спецпредложений, акций и любых других событий, с заранее известным временем действия.
    Функция, безусловно, полезная, но не для повсеместного использования. Может быть полезна при создании новых рекламных кампаний на период проведения какой-либо акции, - говорит Алена Сенченко, менеджер по ведению контекстной рекламы агентства интернет-рекламы i-Media. - Особенно полезна рекламным агентствам, ведущим единовременно большое количество клиентов".

    Google AdWords: параметр "Сверху или справа"

    Несколько недель назад главный экономист Google Хэл Вэриан подробно рассказывал о показателе "Средняя позиция". В своей статье он отмечал разницу между первой позицией объявления сбоку от результатов поиска и над ними. "Это крайне важное отличие, поскольку объявления над результатами поиска в среднем получают значительно больше кликов, чем реклама в правой части страницы", – писал Хэл.
    Чтобы вы могли самостоятельно оценить это "важное отличие", мы ввели новый вариант сегментации данных в отчетах AdWords, а именно "Сверху или справа". Этот вариант появится в ваших отчетах на этой неделе и позволит вам сравнивать эффективность рекламы сбоку от результатов поиска и над ними. Отслеживание связи между расположением рекламы и количеством кликов и конверсий по объявлениям поможет вам в оптимизации кампаний в поисковой сети. Если ваша основная задача – продвижение бренда, это особенно важно, ведь теперь у вас будут данные о том, в каких случаях запросы с названием бренда приводят к показу рекламы над результатами поиска.


    С помощью варианта сегментации "Сверху или справа" можно отсортировать статистику эффективности по месту показа объявлений на сайте Google и в поисковой сети. Для этого выполните следующие действия:
    1. Перейдите на одну из следующих вкладок в аккаунте AdWords: Кампании, Группы объявлений, Объявления или Ключевые слова.
    2. На панели инструментов над таблицей нажмите кнопку Сегментировать.
    3. В раскрывающемся меню выберите пункт Сверху или справа. Результаты отобразятся в строках под каждым объявлением.
    Подробнее об отчетах по объявлениям на верхних позициях и об увеличении числа показов на этих местах читайте в Справочном центре.

    Автор: Эндрю Трюонг, команда AdWords

    Когда Google-бот не переходит по ссылке?

    Новый вопрос к Мэтту Каттсу был, по заявлению самого представителя Google, «каверзным»: если страница B является неканонической по отношению к A и использует атрибут rel=”canonical”, будет ли поисковый робот следовать по всем ссылкам на странице B?
    Как выяснилось, Google действительно может пропускать ссылки, но по другим причинам. «Перейдем ли мы по ссылкам, будет зависеть от того, какой PageRank у страницы», - пояснил Мэтт Каттс. Как известно, от авторитета страницы, косвенным показателем которого является PR, зависит, насколько часто бот приходит на эту страницу. Как сообщил Мэтт Каттс, возникают ситуации, когда бот может пропустить исходящие ссылки со страницы в данном конкретном цикле индексирования. Таким образом, как признался Мэтт, в сети всегда будет оставаться небольшое количество страниц, которые были пропущены гуглботом.


    В случае со страницами А и В из примера rel=”canonical” не будет отменять переход бота по ссылкам с неканонических страниц.

    % Поисковых запросов

    Рост доли Google на поисковом рынке США застопорился, сообщает исследовательская компания comScore в очередном исследовании. В мае на поиск приходилось 65,5% всех запросов, и эта цифра в июне не изменилась. То же самое касается и Yahoo!: и в мае, и в июне поисковик обработал 15,9% поисковых запросов. А вот Bing потихоньку улучшает позиции: в июне пользователи искали в нем 14,4% запросов, на 0,3% больше, чем в мае.

    Google по своему усмотрению меняет текст в теге title

    В последние несколько месяцев в западном сообществе вебмастеров не раз возникали темы на различных форумах – о том, что Google игнорирует текст, который вебмастер поместил в тег title, и переписывает его на собственный.
    Ветки на эту тему на форуме WebmasterWorld заводят с июня.
    Вероятней всего, это изменение тестировалось на небольшой группе сайтов, но попавшие под эксперимент вебмастера в основном не очень довольны.
    Как известно, еще с 2008 года Google взял на себя право менять текст в meta description и использовать составленный самим поисковиком сниппет в результатах поиска.
    Что касается изменений в тексте тега title, Google может поменять текст в зависимости от поискового запроса пользователя.

    пятница, 15 июля 2011 г.

    Русский мат правит в Twitter

    По недавнему сообщению РИА Новости, Twitter начал поддерживать хэштеги на русском языке, что является очередным этапом локализации сервиса микроблогов. Сам Twitter пока никаких заявлений на этот счет не делал, но многие пользователи уже с радостью испытывают новую возможность. Однако они восприняли ее как развлекательный сервис. Например, часть пользователей проявила особую изобретательность и уже вывела в ТОП самых упоминаемых в мире хэштегов нецензурное русское слово из трех букв, чем очень гордится. Однако сервис такое терпеть не стал, и буквально несколько минут назад убрал этот хэштег  из ТОПа. Но некоторые пользователи  все же решили охарактеризовать родную страну и другими словами: сервис микроблогов уже наводнили самые разные хэштеги на русском языке: #Россия, #бабушка, #балалайка, #медведь, #блины, #водка и многие другие.
    Напомним, что хэштеги - это гиперссылки с решеткой «#», использующиеся в Twitter для выделения основной темы твита.

    четверг, 14 июля 2011 г.

    Яндекс наказывает за поисковый спам

    Как сообщает газета «Ведомости», сегодня Яндекс наказал за поисковый спам больше 1000 сайтов, продвигающихся, по мнению руководства компании, при помощи нечестных методов. Поисковик понизил в результатах выдачи клиентов SEO-сервисов РБС, Megaseo, Perfectseo, Userator, Megaindex (включая сайты самих компаний).
    Комментируя ситуацию, пресс-секретарь Яндекса Очир Манджиков сообщил представителям СМИ, что поисковый сервис обнаружил ботнет, имитировавший поведение пользователей. Роботы заходили на Яндекс, набирали в строке поиска запрос, а потом переходили в результатах поиска на сайт нужной им компании, таким образом, ботнету удавалось двигать вверх сайты клиентов. «Единственный легитимный способ оптимизации сайта - постоянная работа над улучшением его качества и удобства для пользователей», говорит Манджиков.
    Представители РБС, Perfectseo и Userator подтвердили, что «Яндекс» «пессимизировал» положение их клиентов в результатах поиска. Megaindex и Megaseo от комментариев отказались.

    Голосовой поиск теперь и на Rambler.ru

    Технологии Google не дают покоя игрокам рынка высоких технологий. Так, с недавнего времени в поиске Rambler.ru появилась возможность вводить голосовые запросы. Голосовой поиск доступен через браузер Google Chrome, начиная с 11 версии.
    После ввода запроса в поисковую строку напротив него появится иконка с микрофоном. После нажатия на микрофон откроется окошко, которое предложит пользователю произнести слово или фразу и после этого распознанный текст появится в поисковой строке.
    Следует отметить, что распознавание речи ведется только на языке браузера (т.е. на английском), однако если у тега html указать атрибут lang=«de_DE», то распознается и немецкая речь.
    Подробнее на habrahabr.ru.

    О пользе поддоменов в преодолении последствий Google Panda

    Перенос некачественного контента на поддомен помогает выйти из-под фильтра Google Панда. Такое наблюдение описано в статье Wall Street Journal, которая рассказывает, как известный сайт Hubpages, последовав совету Мэтта Катса, смог вытащить часть контента из-под фильтра Панда.
    В июне Мэтт Катс дал совет руководителю HubPages, пятилетнему ресурсу, публикующему контент сотен тысяч авторов, Полю Эдмондсону (Paul Edmondson) – попробовать использовать поддомены, чтобы вытащить часть контента на допандовские позиции.
    Тестирование поддомена для собственных статей Эдмондсона на HubPages началось в конце июня и уже показало положительный эффект. Статьи Эдмондсона после апдейтов Панда потеряли около 50% трафика, а перенос этого контента на отдельный поддомен за первые три недели с начала эксперимента помогла вернуть трафик.
    Известно, что фильтр Панда накладывается в целом на весь домен за наличие на нем даже части некачественного контента. Google советовал полностью удалять такой контент.
    Однако в случае со статьями руководителя издания назвать их некачественными сложно, поэтому Мэтт Катс предложил выделить для них отдельный домен, в этом случае Google, как оказалась, воспринимает поддомен и основной домен как отдельные сайты.
    Представитель Google дал официальный комментарий на этот счет изданию Searchengineland:
    «Поддомены могут помочь отделить тот контент, который полностью отличается от остального на сайте – например, на таких доменах как wordpress.com. Однако, владельцы сайтов не должны ожидать, что просто добавление нового поддомена на сайт вызовет резкий подъем позиций сайта в выдаче».

    Яндекс.Директ предупреждает о попытках мошенничества

    Яндекс.Директ предупреждает своих клиентов о том, что последнее время участились случаи обмана рекламодателей недобросовестными компаниями.
    В официальном блоге компании приводятся важные рекомендации, которые помогут определить попытку обмана или злоупотребления доверием пользователя.
    По мнению специалистов Яндекс.Директа, рекламодателю стоит насторожиться если:

    1. Пользователя просят сообщить логин и пароль для доступа к рекламным кампаниям;

    2. Рекламодателю звонит или пишет неизвестный человек, который представляется сотрудником Яндекса;

    3. Предлагают купить программу для управления ставками или оплатить доступ к ней;

    4. Рекламодателю кажется, что не все перечисляемые им средства зачисляются на баланс рекламной кампании;

    5. Пользователю предлагают сменить канал работы с Яндексом, обещая более выгодные условия.


    Также сотрудники Яндекс.Директа настоятельно просят пользователей, столкнувшихся с попыткой обмана незамедлительно обращаться в службу поддержки.

    Google больше не передает вес ссылкам из Twitter

    В минувшую пятницу, Twitter закрыл для Google доступ к «пожарному шлангу». В результате чего realtime-поиск Google был вынужден временно приостановить свою работу. То же произошло в действительности? И что ожидает пользователей теперь, когда ссылкам из Twitter больше не передается вес в Google-поиске?
    Вот некоторые соображения:
    Поиск в реальном времени Topsy может стать отличной альтернативой realtime-поиску Google. Сервис обеспечивает архивный поиск твитов.
    Bing от Microsoft также имеет доступ к «пожарному шлангу». Инструменты Bing напоминают технологию внутреннего поиска на Twitter и позволяют находить то, о чем сообщалось в Twitter в реальный момент времени. К тому же, возможности внутреннего архивного поиска на Twitter позволяют пользователю «открутить назад» ленту сообщений на ту или иную тему, и таким образом восстановить информацию, пропавшую из поиска Google.
    Что же, собственно, осталось в поиске Google? Google по-прежнему имеет доступ к твитам, которые находит в процессе сканирования сети. Если использовать постоянный поиск от Google, то можно найти твиты, содержащие путь, просто они не будут активными.

    вторник, 12 июля 2011 г.

    Bing борется за симпатии вебмастеров

    Команда Bing в последние месяцы делает много усилий по усовершенствованию инструментария для вебмастеров. Недавно были добавлены опции по типу файла карты сайта (sitemap), а также расширена навигация, добавлена функция уведомлений и поддержки дополнительных языков.

    Раньше инструмент загрузки карты сайта позволял использовать только XML-файлы. Новая версия разрешает использовать RSS, Atom, и TXT карты сайта. Поддерживаются как Atom 0.3, так и 1.0. Bing также обещал дальнейшее расширение списка разрешенных типов файлов.
    Расширенная навигация включает дополнительные функции, релевантные основному меню сайта. Например, при переходе вкладки “Index” вебмастер увидит связанные с главной страницей функции, которые раньше было не так просто найти в инструментах для вебмастеров.
    Функции уведомлении теперь стали доступны в меню предпочтений (Preferences menu). Уведомления могут приходить в случаях ошибок индексирования сайта, подозрений на наличие вирусов, обновления Bing Webmaster Tools и др. Правда, возможности выбрать одни типы уведомлений и отказаться от других, не предложено. Все или ничего.

    Последнее нововведение, пожалуй, наиболее значимое – BWT теперь поддерживает всю документацию и интерфейс на 34 языках мира, в числе которых русский, итальянский, японский, арабский, хинди и т.д.
    Таким образом, Bing серьезно настроен на борьбу за вебмастерские сердца со своим основным конкурентом Google.

    Сервис для отслеживания бэклинков Yahoo Site Explorer закрывается

    Работавший с 2005 года SEO-сервис Yahoo Site Explorer решено закрыть, заявило руководство компании Yahoo в официальном блоге. О том, что это произойдет рано или поздно, западные вебмастера говорили еще с 2010 года, после заключения партнерского соглашения между Yahoo и Microsoft, которое означало отказ Yahoo от собственной поисковой технологии и переходе на движок Bing.
    Логично, что теперь и вебмастерам предлагается перейти на инструменты, существующие в рамках Bing Webmaster Center. Однако среди них нет одного из самых полезных инструментов , позволяющего отслеживать бэклинки на сайты конкурентов.
    В западном SEO-сообществе для анализа входящих ссылок используют также такие инструменты как Linkscape, Majestic SEO и другие. В рунете до 2007 года оптимизаторы пользовались яндексовскими поисковыми операторами link и anchor, а после их закрытия – сервисами Solomono или Yazzle.

    Twitter запускает «Продвигаемые твиты»

    Сервис микроблогов Twitter становится серьезным инструментом по зарабатыванию денег. В начале следующего месяца ресурс начнет транслировать рекламные объявления в ленте. Твиты, содержащие рекламную информацию будут свободно прокручиваться вместе со всем остальным содержимым ленты обновлений.
    Сервис «Продвигаемых твитов» позволит рекламодателям размещать свои рекламные сообщения, адресованные приверженцам той или иной фирмы или продуктовой линейки. Сообщения будут высвечиваться на экране пока аккаунт пользователя на Twitter.com загружается.
    Отметим, что сервис «Продвигаемых твитов» существует уже больше года. По сути это небольшие рекламные сообщения, которые выводятся в форме обычных твитов. Однако зачастую за целый день пребывания на сайте пользователь может так ни разу и не увидеть подобного объявления, поскольку твиты появляются лишь, когда пользователь запрашивает в поиске информацию о каком-либо конкретном предмете. По замечаниям ведущих специалистов сервиса, поиск на Twitter существенно отличается от поиска, к примеру, в Google: на Twitter пользователи обычно ищут конкретные персоналии или события, а не товары.
    По замыслу команды ресурса, «Продвигаемые твиты» помогут решить проблему двумя способами. Во-первых сервис позволяет рекламодателям отправлять сообщения только тем пользователям, которые ранее уже интересовались твитами тех или иных компаний. Кроме того, сами рекламные твиты будут свободно прокручиваться вместе со всем остальным содержимым ленты обновлений.
    Пока Twitter продвигает новый сервис с осторожностью, боясь отпугнуть постоянных пользователей. Поначалу администрация ресурса будет ограничивать возможности рекламодателей: так будет установлен лимит на рассылку рекламных твитов, а маркетологи Twitter будут следить за реакцией пользователей на рекламу того или иного бренда.
    По мнению аналитиков, новая функция стала ответом на возрастающий интерес рекламодателей к популярным социальным сервисам.

    Об одном из некорректных способов поискового продвижения и его последствиях - 2

    Яндекс неоднократно высказывал своё отношение как к накруткам в целом, так и к эмуляции действий пользователей в частности.

    Нами были подведены некоторые итоги. За последнее время мы встретили, например, такие спам-методы:
    1) создание ботнета, эмулирующего действия тысяч пользователей в течение длительного времени;
    2) распространение программ, эмулирующих действия пользователей;
    3) привлечение заинтересованных пользователей для выполнения определенных действий в поисковой системе с помощью специально созданного либо уже существующего публичного сервиса.
    Подобные методы мы рассматриваем как спам и предпринимаем соответствующие меры в отношении сайтов, которые их используют.

    Мы видим, что многие сайты, использовавшие такие спам-технологии, отказались от них. Через некоторое время они займут адекватные позиции, соответствующие своей релевантности.

    По нашему мнению, любые методы накрутки бесперспективны и могут повлечь за собой потерю сайтами позиций и репутации. Так же бесперспективны и попытки повлиять таким способом на позиции сайтов-конкурентов – все имеющиеся у нас данные тщательным образом анализируются, вероятность ошибок сводится к минимуму.

    Следует отметить, что SEO-компании, использующие подобные методы продвижения, подвергают риску сайты своих клиентов и, как следствие, собственную репутацию.

    Мы надеемся, что благодаря нашим совместным усилиям, отечественная SEO-отрасль перестанет ассоциироваться с обманом поисковых систем и станет реальным бизнесом, помогающим своим клиентам организовать качественный сервис в интернете.

    воскресенье, 10 июля 2011 г.

    Базовые показатели Google Analytics. Часть 3

    Продолжаем наш цикл статей "Основные показатели Google Analytics". В двух предыдущих статьях мы остановились на базовых метриках: количестве страниц, просмотренных за посещение, времени, проведенном на сайте, показателе отказов и проценте новых посещений. В этом материале мы коснемся такой важной и глубокой темы, как цели Google Analytics.Для начала спросите себя, какие цели вы преследуете при работе с сайтом и что вы хотите от него получить? Конечно же, некоторые полезные действия со стороны его посетителей! Эти действия могут быть различными: кто-то старается удержать пользователей на сайте максимальное количество времени, кто-то стремится наиболее широко распространить рекламные материалы (прайс-листы и пр.), а кто-то хочет максимизировать количество заказов с сайта.

    Система Google Analytics дает возможность отслеживать практически любые действия пользователя и на основе этих данных позволяет получить отчет об эффективности работы сайта.

    Для отслеживания достигнутых целей для начала необходимо определиться с видами целевых действий, которые планируется получить от пользователей. На сегодняшний день сервис веб-аналитики Google Analytics поддерживает 4 вида целевых действий пользователя:
    1. Время пребывания на сайте
    2. Количество страниц, просмотренных за посещение
    3. Переход по указанному URL
    4. Событие
    При указании целевого действия Время пребывания на сайте система будет засчитывать любые посещения, удовлетворяющие указанному условию (например, время на сайте - не менее минуты) как достижение цели. Данная статистика очень важна, например, после изменения дизайна сайта: если раньше пользователи затрачивали меньше времени на осуществление заказа, а после изменения корзины стали оформлять заказ в 2 раза дольше, то такой редизайн необходимо пересмотреть как неэффективный.

    Указание в качестве целевого действия некоего количества страниц, просмотренных за посещение, позволяет отслеживать процент пользователей, которые имеют высокую степень вовлеченности на сайте, или же, наоборот, слишком низкую. Таким методом удобно измерять эффективность различных новостных и других информационно-контентных сайтов.

    Цель Переход по целевому URL считается достигнутой, если система зафиксировала переход пользователя на определенную страницу сайта. Данный тип целевого действия используется на многих сайтах. Обычно в качестве целевой указывается наиболее важная страница на сайте: контакты, прайс-лист, цены, доставка и любые другие разделы, посещение которых говорит о высокой вероятности совершения заказа или другого полезного действия.

    Также в качестве целевой часто применяется страница с сообщением о том, что заказ принят, которая отображается пользователю после оформления заказа на сайте. При этом мы получаем достаточно точную статистику о количестве совершенных заказов.

    Недавно к вышеупомянутому списку целей была добавлена новая - Событие. При данной цели конверсия происходит, когда запускается какое-то событие на сайте, например происходит загрузка видео или нажимается кнопка Play. Подробнее об отслеживании событий читайте в руководстве на сайте Google Code.

    Таким образом, используя возможности Google Analytics, вы сможете отслеживать эффективность работы своего сайта и при необходимости вносить в нее изменения. А благодаря гибкости данной системы веб-аналитики, вы получаете возможность отслеживать практически любые целевые действия пользователей на сайте.

    В следующей статье мы узнаем, как настроить отслеживание целей в Google Analytics, что такое конверсия и как определить ценность различных целей.

    Кнопка Google +1 встречается на сайтах в 5 раз реже, чем Like

    Возможность разместить на любом сайте кнопку Google +1 появилась всего месяц назад, но уже сейчас она стала более распространенной на сайтах, чем кнопка Твиттера. Кнопки социальных сетей способствуют тому чтобы пользователи, увидев/прочитав тот или иной контент на сайте, имели возможность легко поделиться ссылкой на страницу со своим окружением в соцсети. Вебмастера же, со своей стороны, считают наличие социальных кнопок на сайте важным, поскольку все ведущие поисковые системы заявляют, что учитывают социальные и поведенческие факторы.

    Компания BrightEdge, владеющая SEO-платформой, проанализировала 10 тысяч крупнейших в интернете сайтов и обнаружила, что за последние 2 недели резко возросло количество сайтов, установивших кнопку Google +1. Исследование (PDF) показало, что в июле кнопка +1 установлена на 4.4% сайтов, тогда как в июне она присутствовала на 3.4% сайтов из 10 тысяч участников исследования. Примечательно, что плагины Твиттера установлены лишь на 3.4% главных страниц этих сайтов.
    Однако кнопки и Google, и Twitter колоссально отстают по распространенности от плагинов Facebook, которые были найдены на 20% главных страниц сайтов из выборки.

    Чтобы оценить интенсивность распространения кнопки +1 в сети, достаточно сравнить ее с успехом фейсбуковской кнопки “Like”, которая появилась на 50 тысячах сайтов глобальной паутины уже спустя неделю после запуска в апреле прошлого года. Спустя месяц она присутствовала уже на более чем 100 тысячах сайтов.
    В исследовании также упоминается количество ссылок на Страницы Facebook и Twitter-фиды на главных страницах сайтов. Такие ссылки намного популярнее, чем кнопки – 51% сайтов имеют одну из этих двух ссылок на главной странице.

    Отчеты SocialShare Site Analysis будут появляться ежемесячно, отслеживая проникновение социальных инструментов на все тех же 10 тысячах сайтов. Исследования будут доступны на странице www.brightedge.com/socialshare, зарегистрировавшись на которой можно будет получать это исследование по почте или через любимую социальную сеть.

    пятница, 8 июля 2011 г.

    Вы еще не размещаете рекламу на YouTube?

    YouTube предлагает разнообразные рекламные форматы и возможности, но некоторые из них остаются загадкой для многих рекламодателей. Компания решила изменить эту ситуацию в лучшую сторону - 13 июля в 17:00 (мск) состоится онлайн-семинар, посвященный рекламным возможностям YouTube. Вебинар бесплатный, но требуется регистрация.
    А пока Google ответил на самые распространенные вопросы рекламодателей, связанные с YouTube. С Полным списком вопросов-ответов можно ознакомиться на блоге компании.

    Аудитория YouTube в России

    Аудитория YouTube практически не отличается от аудитории Рунета в целом. Мужчины и женщины составляют равные доли в аудитории YouTube. Большую часть аудитории (29%) составляют люди в возрасте от 25 до 34 лет.
    Месячный охват YouTube (по данным TNS за апрель 2011) составлял 42% российской интернет-аудитории. Это больше, чем 18 млн. уникальных пользователей. В среднем за один день YouTube посещают более 2,4 млн. уникальных пользователей.

    Реклама на YouTube

    Реклама будет размещаться только рядом с контентом, созданным авторизованными партнерами, которых у YouTube более 20 000 по всему миру. Количество просмотров видео от партнеров на данный момент составляет около 40% от всех просмотров видео на YouTube в России.
    Размещать рекламу на YouTube можно двумя способами. Можно делать это самостоятельно через интерфейс Google AdWords. Или размещать рекламу через систему DoubleClick, для этого нужно направить запрос через форму в разделе «Поддержка» на сайте Google Клуб для агентств.

    Таргетинга на YouTube

    Таргетинг на YouTube можно настраивать по ключевым словам, местам размещения, тематическим категориям видео и демографии. При использовании демографического таргетинга через DoubleClick размещение сужается до только зарегистрированных пользователей (не менее 30% аудитории). При размещении через AdWords демографический таргетинг можно настроить двумя способами. Первый способ - исключить те или иные аудитории. Второй способ – таргетировать на демографические группы на Youtube через «Инструмент подбора мест размещений».
    При размещении через AdWords также доступны таргетинг по интересам и геотаргентинг по регионам, при размещении через DoubleClick единственно возможный геотаргетинг – вся Россия.
    Отмечается, что в случае размещения через DoubleClick существует наценка на таргетинг, в случае размещения через AdWords – нет. Чтобы получить прайс-лист и дополнительные подробности о доступных рекламных форматах нужно направить запрос через форму в разделе «Поддержка» на сайте Google Клуб для агентств.

    Новое в поиске (июнь 2011 года) Яндекс

    В Яндекс.Вебмастере появились:
    возможность указывать до 500 запросов, за статистикой по которым вы хотели бы следить;
    – подробная информация о зараженных вирусами страницах, помогающая найти вредоносный код;
    английский и украинский варианты интерфейса;
    больше организаций, для которых могут быть настроены специальные сниппеты.

    Кроме того, в Поиске:
    – обновились формулы ранжирования для России и Украины;
    – существенно улучшился поиск точных цитат;
    – по запросам, в ответ на которые пользователи часто ожидают увидеть изображения, теперь показывается еще больше картинок.

    А еще мы хотели бы пригласить вас в наш новый блог, посвященный безопасности поиска: http://safesearch.ya.ru/ Мы много работаем в этом направлении и готовы делиться накопленными знаниями. В блоге мы будем публиковать новости и статьи о борьбе с распространением вредоносного кода через World Wide Web. Будем рады получать ваши отзывы и комментарии.

    четверг, 7 июля 2011 г.

    Яндекс.Вебмастер помогает найти вредоносный код на страницах сайта

    После того, как вебмастер обнаруживает, что его сайт заражен, обычно перед ним возникает задача как можно скорее найти и удалить вредоносный код. Это можно сделать при помощи вкладки "Безпасность" в Яндекс.Вебмастере. Теперь на ней отображается не только список заражённых страниц, но и тип заражения каждой из них. Для большинства типов заражения есть возможность перейти в раздел помощи с примерами вредоносного кода, которые помогают его обнаружить.

    Выглядит это следующим образом:

    К тому же, Яндекс.Вебмастер позволяет подписаться на уведомления о заражении зарегистрированного в нём сайта и запросить его перепроверку после устранения проблемы.

    Но лучше, конечно, не допускать заражения сайта. Обновляйте ПО, пользуйтесь антивирусами, ограничивайте доступ и берегите пароли.

    среда, 6 июля 2011 г.

    Google уведомляет вебмастеров о бане за платные ссылки

    В западной среде вебмастеров появилась информация, что Google начал присылать уведомления владельцам сайтов о том, что на сайт ведут некачественные ссылки.
    Образец подобного уведомления гласит:
    Дорогой владелец или вебмастер сайта http://www.domain.com/,
    Мы обнаружили, что некоторые страницы вашего сайта, возможно, используют технологии, которые выходят за рамки Руководства Google для вебмастеров.
    В частности, поищите искусственные, неестественные ссылки, ведущие на ваш сайт и, возможно, созданные для манипуляции PageRank. Примеры неестественных ссылок могут включать покупку ссылок для передачи PageRank или участие в ссылочных схемах.
    Мы призываем вас внести изменения на свой сайт с тем чтобы он соответствовал нашему руководству по качеству. После того как вы внесете эти изменения, просим вас добавить ваш сайт для пересмотра в поисковых результатах Google.
    Если вы найдете ведущие на ваш сайт неестественные ссылки, которые вы не можете контролировать или удалить, сообщите об этом подробно в вашем запросе на пересмотр.
    Если у вас есть какие-либо вопросы о том, как решить эту проблему, обратитесь на наш форум Webmaster Help Forum.

    Как видно, в этом уведомлении Google говорит вебмастерам о том, что их сайты могут быть наказаны именно за то, что на них ведут некачественные ссылки.
    Напомним, свою первую активную кампанию против платных ссылок Google начал в октябре 2007 года и до сих пор ведет эту борьбу.

    Google запустил Prizes.org


    Google открыл сайт Prizes.org, целиком посвящённый разнообразным конкурсам с денежными призами. Любой желающий может разместить свой конкурс и предложить приз. Например, выбрать название для стартапа ($20) или разработать подробный маршрут для путешествия по Западной Европе ($50).

    Победитель определяется организатором конкурса, а если он этого не сделал — то по числу голосов. Деньги выводятся на счёт PayPal (минимум $50). Автор ответа, набравшего максимальное число голосов на голосовании, получает поощрительный значок. На данный момент бюджет максимального конкурса — $50, а создать новый конкурс можно только по инвайту.
    Странно, что зарегистрироваться на сайте можно только через Facebook или Twitter. После авторизации туда импортируются ваши фоловеры и френды из Facebook и Twitter, так что вы можете следить за их конкурсами или комментариями.
    Странно ещё и то, что сама компания Google никак не анонсировала запуск сайта. Причина может быть в том, что сайт разработан командой Slide, которую купили относительно недавно, и таким способом те демонстрируют свою независимость от Google, даже отказались сделать поддержку Google Account. Информация о разработчиках проекта есть в ToS.
    Из FAQ не совсем понятно, на каком этапе автор конкурса должен перечислять деньги, видимо, в момент регистрации конкурса. Сказано только, что когда срок истечёт, можно бесплатно продлить конкурс ещё на семь дней. Также в FAQ поясняется, что ответы участников конкурса становятся интеллектуальной собственностью автора конкурса.
    Нужно добавить, что когда-то у Google был похожий проект Google Answers, но его пришлось закрыть из-за малой популярности.

    вторник, 5 июля 2011 г.

    Twitter закрыл для Google поставку твитов

    Google больше не имеет доступа к т.к. «пожарному шлангу» Твиттера (Fire hose) – потоку публичных твитов в режиме реального времени. Это значит, что realtime-поиск Google потерял самый оперативный и востребованный в экстренных ситуациях источник информации.
    Из комментариев Google и Твиттера для западных изданий стало известно, что срок действовавшего с октября 2009 года соглашения второго июля закончился. Разумеется, ни одна из компаний не называет причин, которые помешали продлить соглашение на следующий срок. К тому же, Твиттер сообщает, что аналогичные соглашения продолжат действовать с конкурентами Google - Microsoft, Yahoo!, NTT Docomo, Yahoo! Japan и десятками более мелких разработчиков поисковых сервисов.
    Очевидно, что Твиттер был настолько важным источником для Google, что теперь компании пришлось сделать паузу и временно отключить reatime-поиск. По заявлению представителей Google, это сделано, чтобы произвести интеграцию живого поиска с новой социальной сетью Google+, которая, видимо, и восполнит временное отсутствие данных из Твиттера. Логично даже предположить, что Google специально приостановил сотрудничество с Твиттером с тем чтобы дать шанс собственной социальной сети занять место в выдаче и, тем самым, привлечь внимание пользователей. Google подчеркивает, однако, что "после перезапуска Поиск в реальном времени будет использовать информацию не только из Google+, но и из ряда других источников".

    Обновленный дизайн Google: новые впечатления, новые возможности

    04.07.2011
    Крис Уиггинс (Chris Wiggins), Креативный директор, Digital

    Как вы, наверное, заметили, продукты Google стали выглядеть несколько иначе. Сейчас мы работаем над созданием нового, улучшенного интерфейса, и в течение следующих нескольких месяцев вы увидите значительные обновления дизайна на сайтах Google. Изменения коснулись даже классической домашней страницы Поиска.


    На обновленной домашней странице Google мы уменьшили логотип и разместили ссылки в верхней и нижней части браузера
    Поскольку пользователи проводят в Сети все больше времени, а круг задач, которые они там выполняют, постоянно расширяется, доступ к информации должен быть максимально легким и интуитивным. Именно этого мы и стараемся добиться, причём неважно, какой продукт Google или какое устройство для выхода в Интернет вы используете. Новый интерфейс Google основывается на трех главных принципах: фокус, гибкость и простота работы.
    • Фокус: Что бы вас ни интересовало в сети – поиск, электронная почта или карты – вы должны получать только релевантную информацию. Наша задача – сделать так, чтобы нужные вам инструменты были заметны, а неактивные в данный момент функции не мешали работать. Даже такие простые изменения, как использование более ярких цветов для навигационных кнопок или скрытие редко используемых функций, позволят лучше сконцентрироваться на текущей задаче.

    • Гибкость: Когда-то доступ к Google был возможен только с настольного компьютера. Теперь, спустя более чем 10 лет, стоит только оглянуться вокруг, и мы увидим в домах и офисах различные мобильные устройства, планшетные компьютеры, мониторы высокого разрешения и телевизионные экраны. Каждый из них можно использовать как точку выхода в Сеть. Сейчас мы работаем над тем, чтобы интерфейсы сервисов Google при переходе с одного устройства на другое были максимально похожи. Наша цель - предоставить возможность “гибкого” использования Google без ущерба для дизайна, удобства и функциональности.

    • Простота использования: Идея нашего дизайна – это сочетание производительности и простоты. Мы хотим, чтобы обновленный интерфейс не выглядел перегруженным. Но за внешней простотой стоят передовые технологии, например HTML5 и WebGL. А браузер Chrome открывает вам мир возможностей Интернета - быстро и без угрозы для вашего компьютера.

    Мы постоянно стремимся улучшить наши продукты. Например, в прошлом году мы представили новый интерфейс результатов поиска. Сравните самую первую версию домашней страницы Google с сегодняшней, и вам сразу станет ясно, что время от времени обновлять интерфейс — дело полезное:

    Первая домашняя страница Google, 1997 год

    Начиная с сегодняшнего дня и в течение следующих нескольких месяцев следите за изменениями дизайна наших продуктов, в том числе Поиска Google, Карт Google и почты Gmail.

    понедельник, 4 июля 2011 г.

    Google упразднил свой «SEO-инструмент»

    Google принял решение закрыть свой сервис Wonder Wheel, который был весьма полезен SEO-специалистам. По словам представителя компании, сервисом пожертвовали в ходе редизайна, о котором Google сообщал на прошлой неделе.

    Напомним, Wonder Wheel был запущен в мае 2009 году вместе с другими поисковыми нововведениями Google. Wonder Wheel показывал тесно связанные поисковые запросы, структурированные по темам. Инструмент использовал метод скрытого тематического индексирования (LSI: Latent Semantic Indexing) и предлагал глубокий взгляд на то, как Google группирует ключевые слова. За время своего существования данные сервис успел понравиться интернет-маркетологам, которые активно использовали его для подбора ключевых слов.
    Например, Рэнд Фишкин (SEOMoz) на прошлогодней конференции Search Marketing Expo Advanced рекомендовал использовать Google Wonder Wheel для получения текстов, наилучшим образом подходящих целевым запросам, т.к. данный сервис представляет данные поисковых систем о семантических связях.
    Помимо Wonder Wheel пользователи Google также лишись функции Realtime Search (поиск в реальном времени), запущенной в конце 2009 года. Но это, по словам представителей Google, временная утрата, связанная с запуском социальной сети Google+. Как только компания встроит свою соцсеть в функционал Realtime Search, последний заработает.

    Google помогает малому бизнесу перейти в мобильный интернет

    Google помогает малому бизнесу сделать свои сайты более приспособленными к мобильному интернету с помощью новой функции Google Sites "Mobilize". Инструмент позволяет вебмастерам легко создавать оптимизированные под мобильные устройства страницы сайтов.

    Чтобы предоставить владельцам сайтов максимально простой инструмент и избавить их от необходимости разбираться в тонкостях кода, Google Sites теперь предлагает мобильные шаблоны. Функция Mobilize позволяет быстро выбрать шаблон и цветовую схему сайта и добавить специальные «фичи» для мобильных устройств (такие как возможность набрать контактный номер для звонка одним прикосновением к экрану, просмотр видео и др.).
    По словам представителей Google, полноценную бизнес-страницу для мобильных устройств можно создать всего за 20 минут. Чтобы создать свою страницу, необходимо сделать 8 шагов:
    1. Посетить страницу Mobilize Your Business.
    2. Выбрать ближайшую к тематике сайта категорию, используя функции шаблона по умолчанию.
    3. Выбрать основной цвет шаблона. Мобильная страница автоматически выберет дополнительные цвета.
    4. Нажать «Просмотреть этот шаблон», чтобы увидеть вариант своего мобильного сайта с выбранным шаблоном.
    5. Нажать «Использовать этот шаблон» ( "Use this template") – кнопка в правом верхнем углу страницы.
    6. Заполнить необходимую информацию, такую как название сайта, категории и др., а затем нажать «Создать сайт».
    7. Редактировать страницу, вставить лого, текст и виджеты.
    8. Дополнительно можно добавить скрипт, позволяющий сделать редирект с главной версии сайта. Для этого доступны несколько функций, в числе которых goMobi и Auto Redirect to Mobile. Эти инструменты будут переправлять на мобильную версию сайта тех пользователей, которые посетили страницу именно с мобильных устройств.
    Нет сомнений в том, что мобильные версии сайтов уже сейчас все более востребованы в западных странах. Более половины американцев к концу этого года будут владельцами смартфонов и более половины пользователей смартфонов, согласно опросам, больше доверяют сайтам, которые предлагают адаптированную для мобильных версию.

    Bing перешел на стандарт индексации сайтов на AJAX, предложенный Google

    В 2009 году Google предложил свой стандарт для индексируемого AJAX. Спустя несколько месяцев этот стандарт стал использоваться владельцами контента, которые получили возможность сделать все, чтобы их сайты хорошо индексировались.
    Однако это стандарт не работал для Bing и Yahoo! Однако недавно в центре поддержки вебмастеров Bing Webmaster Center стали доступны настройки индексации сайта. Сначала, как видно из скриншота, там появился чекбокс, где можно было выставить «галочку» и поставить задачу “Configure Bing for Ajax site crawling”.

    Позднее заголовок изменился на следующий: “Site Supports AJAX Crawlable URLs” (сайт поддерживает индексируемые AJAX URLы), а галочку теперь можно выставить для фразы “Configure your site to have bingbot crawl escaped fragmented URLs containing #!” (т.е. произвести конфигурацию, которая заставит bingbot игнорировать фрагменты урла, содержание #!).

    Это значит, что Bing будет индексировать #! URLы согласно стандарту Google.

    пятница, 1 июля 2011 г.

    Отчет о ссылках в Google Webmaster Tools не выводит ВСЕХ ссылок

    В инструментах Google Webmaster Tools есть очень полезный отчет для оптимизаторов – отчет о ссылках на сайт.
    С момента запуска этого отчета, представители Google и авторитетные оптимизаторы всячески пропагандировали отказ от использования оператора link в пользу этого инструмента.
    По сути, на странице центра поддержки Google сказано, что «использование оператора link: позволяет обнаружить выборку ссылок на любой сайт». Далее гуглеры предлагают использовать инструмент внутри Webmaster Tool, чтобы получить «намного более широкую выборку ссылок».
    Редактор Seroundtable Барри Шварц поднял эту тему в сообществе вебмастеров и получил много отзывов. Один пользователь даже пожаловался, что инструмент от Google показывает всего 1% всех ссылок на сайт. В ответ на вопросы вебмастеров представитель Google Пьер Фар (Pierre Far) написал:
    Помните, что Webmaster Tools тоже показывает только выборку ссылок, но не гарантирует показ 100% ссылок.

    При этом Пьер, по словам редактора Seroundtable, не первый представитель Google, который об этом говорит. В марте 2010 года Сьюзан Москва (Susan Moskwa) говорила о том же.

    Статистика по поисковым запросам в Яндекс.Вебмастере: +500

    Сегодня у нас сразу две новости. Одна хорошая и другая - тоже хорошая.
    1. В сервисе Яндекс.Вебмастер существует возможность просматривать 25 популярных запросов, по которым сайт чаще всего показывается в результатах поиска и по которым посетители чаще всего переходят на ваш сайт. Кроме того, вы можете самостоятельно указать интересующие вас запросы, которых нет в этом списке.
    До недавнего времени сервис позволял добавить 10 дополнительных поисковых запросов. Сегодня появилась возможность указать до 500 собственных запросов. Это позволяет более тщательно анализировать статистику поисковых запросов и позиций сайта. Дополнительные поисковые запросы вы можете указать в разделе «Мои запросы».
    2. Теперь Яндекс.Вебмастер доступен на английском и украинском языках. Внизу каждой страницы сервиса появился соответствующий переключатель:


    Также напоминаем, что для удобной работы с сервисом вы можете добавить виджет Яндекс.Вебмастера на главную страницу Яндекса, а также установить набор дополнений к Яндекс.Бару для работы с сервисом из панели браузера. Эти инструменты позволяют переходить на нужные страницы в один клик и быстро получать данные о сайтах.
    Мария Липатова и команда Яндекс.Вебмастера

    Яндекс.Директ разрешит «клонов»?

    В Яндекс рассматривается возможность разрешения клонов, рекламных объявлений одной и той же компании, в сервисе "Яндекс.Директ". «Мы действительно потеряли способность эффективно обеспечивать контроль в этом месте. Либо мы найдем достаточно надежный способ склеивать клоны на автомате, либо откажемся от этого ограничения», - сообщает Евгений Ломизе, руководитель отдела рекламных технологий, на форуме "Яндекс.Директа".

    Традиционно уже проблема клонов составляет пробел в реализации правил размещения рекламы в Директе. Компании давно научились обходить требования, изложенные в пункте №5: создаются разные сайты под разные продукты, на них разные объявления и т.д. Наличие клонов используется конкурентами, доносящими о них в Директ.

    Редакторы Roem.Ru полагают, что отмена «клонобойки» повлечет за собой создание новых правил игры, которые смогут препятствовать забиванию выдачи Директа одной компанией.

    Google поддерживает атрибут rel=”author”

    Google объявил о начале поддержки атрибута rel=”author”, который позволит контентным сайтам идентифицировать своих авторов на самом ресурсе и вообще в сети.
    Атрибут помогает указать на то, что данный контент относится к конкретному автору, таким же образом могут быть помечены все его публикации в рамках одного или многочисленных сайтов.
    Код будет выглядеть так:
    Автор: <a rel=”author” href=”../authors/mattcutts”>Matt Cutts</a>.
    Согласно объяснению Google, для поисковика такой код означает, что человек, который обозначен в атрибуте, является автором страницы. Атрибут должен указывать на страницу автора, созданную на этом же сайте как обычная контентная страница.

    Например, страница http://example.com/content/webmaster_tips может иметь ссылку на страницу автора по адресу http://example.com/authors/mattcutts.
    Google использует различные алгоритмы для определения, являются ли два урла частью одного и того же сайта. Например, http://example.com/content, http://www.example.com/content, и http://news.example.com – все эти урлы будут признаны частями одного сайта, даже несмотря на то, что у них не идентичные доменные имена.
    Также можно указать авторство атрибутом rel=”me”, чтобы показать поисковой системе, что две страницы автора на разных сайтах соотносятся с профилем одного и то же человека.
    Пример такой. Допустим, Мэтт Катс часто пишет на сайте http://example.com. Вот ссылка с его авторской страницы на http://example.com на страницу о нем же на его собственном сайте http://mattcutts.com:

    <a rel=”me” href=”http://mattcutts.com”>Почитать подробнее о Катсе</a>
    В свою очередь, страница Катса на его сайте http://mattcutts.com указывает обратно на страницу "об авторе" с сайта, где он публикует статьи в качестве приглашенного автора – на http://example.com:

    Также Катс автор статей на <a rel=”me” href=”http://example.com/contributors/mattcutts”>много статей для ABCDE Times</a>.
    Взаимные ссылки с атрибутом rel=”me” сообщают Google, что профили Катса на двух сайтах представляют одно и то же лицо.
    Протестировать работу атрибута можно с помощью иснтрумента Rich Snippet testing tool.

    Google включил поддержку rel=”canonical” в заголовках HTTP

    Google объявил, что начинает поддерживать атрибут rel=”canonical” внутри заголовков HTTP.
    Это значит, что вебмастера смогут установить атрибутом canonical ссылки с или на PDF-файлы или другие файлы, не основанные на HTML-коде.

    Один из примеров, который приводят гуглеры – вебмастер может сообщить Google, что канонический URL для скачки PDF является документом HTML, указав атрибут rel=”canonical” в заголовке HTTP, когда PDF-файл запрашивается. Такое решение поможет решить проблему внутренних дублей на сайтах с большим количеством PDF-файлов (например, на сайтах для студентов).
    Пример кода:
    Цитата:
    GET /white-paper.pdf HTTP/1.1
    Host: www.example.com
    (...rest of HTTP request headers...)

    HTTP/1.1 200 OK
    Content-Type: application/pdf
    Link: <http://www.example.com/white-paper.html>; rel="canonical"
    Content-Length: 785710
    (... rest of HTTP response headers...)


    Это также помогает, если вы используете CDN (content delivery network) и контент находится по многим различным URL. В этом случае можно указать внутри заголовка HTTP с помощью атрибута rel=”canonical” нужные редиректы для этого типа контента.

    Яндекс поддержит единую структурную разметку вслед за Google, Bing и Yahoo

    Накануне в блоге Яндекс.Поиска появилось предложение от специалиста по оптимизации сайтов Михаила Сливинского о том чтобы Яндекс поддержал стандарты schema.org.
    Напомним, что schema.org – это совместный проект мировых поисковых лидеров - Google, Bing и Yahoo, созданный в начале июня этого года. Цель проекта – утверждение единой структурной разметки данных на веб-страницах, независимо от языка их создания. Речь идет о расширенных сниппетах, которые позволяют поисковикам собирать (не без помощи и участия владельцев сайта) более детальные данные об организации, которую представляет сайт и представлять эту информацию в выдаче.
    Тема в блоге Яндекс.Поиска еще не успела получить большое количество голосов в поддержку, а представитель Яндекса уже успел ответить. Александр Шубин, менеджер проектов, руководитель направления компании «Яндекс» поспешил уверить вебмастеров и оптимизаторов, что Яндекс не пропустил новость о создании единого формата структурной разметки и считает это большим шагом в развитии семантической разметки: