Библиотека Интернет Индустрии I2R.ru |
|||
|
Yandex ludensВряд ли кому из нас придет в голову оспаривать следующее утверждение: поисковые системы сегодня представляют одно из наиболее динамично развивающихся направлений Интернета. Если Вы пользователь, который обращается с запросом к поисковой машине, Вы заинтересованы найти то, что нужно, затратив на поиск минимум времени и сил. Если Вы являетесь владельцем сайта, Вы нуждаетесь в том, чтобы он присутствовал в начале списка результатов выдачи ведущих поисковых машин, поскольку именно это будет залогом его посещаемости (читай, его успешности). По простейшим законам логики поисковые системы становятся той точкой, где происходит пересечение интересов пользователей, владельцев сайтов и, не стоит об этом забывать, владельцев собственно поисковых порталов, поскольку эти порталы, как ни крути, сами являются серьезными коммерческими проектами. Так как все указанные интересы имеют весьма существенный денежный эквивалент, точка их пересечения перестает быть простой точкой отсчета и становится ареной нешуточных разборок, так хорошо скрываемых поисковиками от пользователей (хоть, как говорят, шила в мешке не утаишь) и так активно обсуждаемых «оптимизаторами» сайтов, в силу их кровной заинтересованности в результатах своей работы. Заклинатели ветраТермин поисковая оптимизация происходит от английского “search engines optimization”. Данное направление в последние годы получает все более широкое развитие в Рунете и представляет один из основных и наиболее действенных методов, отвечающих за успешность любого Интернет-проекта. Однако, несмотря на все возрастающую серьезность подхода к поисковой раскрутке, при все улучшающейся информационной базе и даже учитывая разработку и применение специального программного обеспечения для нужд SEO, есть факторы, за которые не может отвечать никто. Это корректная работа алгоритмов поисковиков. Алгоритмы работы поисковиков не принято публиковать, и об их изменениях никто никого заранее не предупреждает. В первую очередь это связано с тем, что в попытках попасть на первую страницу результатов поиска по профильным, т.е. относящихся к тематике сайта, запросам оптимизаторы часто идут до победного конца, используя все возможные методы. В связи с этим, историю любого поисковика можно подробнейшим образом описать в свете его постоянной борьбы с замусориванием поисковым спамом. Данная проблема отнимает много сил и средств у коллектива любого поискового проекта, поскольку за его работу разработчики отвечают перед пользователями. А какому пользователю доставит удовольствие наличие в выдаче нетематических ресурсов или, к примеру, бесконечных дорвеев? У истоков ранжирования сайтов поисковиками стояли текстовые критерии, поэтому позиционирование в поисковой системе сводилось к накачиванию контента сайта ключевыми словами. Вариантов оптимизаторы придумали немало: от использования примитивного, скрытого для обычного пользователя, текста до «облагораживания» исходного текста в соответствии со специально рассчитанными «весами» слов (качество/количество). Постепенно в дополнение к текстовым алгоритмам ранжирования пришли нетекстовые или ссылочные критерии. Примером последних можно считать повсеместно используемый сегодня так называемый взвешенный индекс цитирования Page Rank или его аналоги. Данный индекс учитывает как много ссылок имеется в Сети на Ваш сайт и насколько авторитетны ссылающиеся на Вас сайты, что несомненно прибавляет работы поисковым машинам, вынужденным распутывать бесконечные нити виртуальной паутины связей. Однако, положенный в основу, данный алгоритм ранжирования сайтов не только не решил всех проблем релевантности (соответствия) поиска запросу, но и не прекратил активной работы оптимизаторов сайтов по продвижению на такие заманчивые первые места. Поэтому, совершенствуя свою работу, поисковые системы старались не только максимально удовлетворить запросы пользователей, но и максимально оградить свои механизмы работы от вьющихся вокруг «доброжелателей». Явный дефицит информации на тему алгоритмов породил в свою очередь огромное количество домыслов и вымыслов. Как это ни парадоксально, на SEO-форумах постоянно активно обсуждается то, что «ни пощупать, ни увидеть, ни оценить» не представляется возможным. Тем не менее, по мере того, как Интернет на нашей территории медленно и верно перерастал времена дикого запада, в погоне за золотыми ключиками поисковых алгоритмов перед оптимизаторами встала дилемма «черных» и «белых» методов. Разделение это весьма условно и отражает по сути только тот факт, что «белая» оптимизация несомненно связана с улучшением пользовательских качеств продвигаемых сайтов, а значит, идет на пользу посетителям и не должна вызывать справедливой агрессии со стороны поисковых систем. Однако, традиции есть традиции. В лучшем случае, поисковые системы Рунета сегодня декларируют нейтральное отношение к оптимизации как к неизбежной стороне жизни сайтов в условиях постоянно повышающейся конкуренции. И все же, на практике никто из них не торопится развивать сотрудничество с оптимизаторами. Попытки же со стороны оптимизаторов все время «оставаться на коне» можно без шуток соотнести с работой предсказателей погоды, не поставленных в известность о данных метеоспутников. В пользу того, что до недавнего времени сохранялся именно такой порядок дел в Рунете наглядно свидетельствовал массовый переполох, отмеченный в оптимизаторских кругах во время прошлогоднего апдейта Яндекса. Черный вторник 2004-го. Оптимизаторы и пессимизаторы?Релевантность - не термин, а понятие. Сегодня «Яндекс» представляет крупнейший российский портал, обладающий самой полной базой документов среди Рунетовских искалок и, пожалуй, самой узнаваемой маркой. Основу доходов компании составляет поисковая реклама, на которую приходится до 80% годового оборота. Приверженность пользователей поисковой системе Yandex.ru подтверждается данными глобальной статистики Рунета. Более 50% поискового трафика генерируется именно этим поисковиком (для сравнения, на долю Rambler'a приходится около 20%, и еще меньше – на долю Google'a). Подобная популярность данной поисковой машины привела к тому, что подавляющее большинство оптимизаторов занимается оптимизацией «под Яндекс», ориентируясь в своей работе именно на него. Однако, отношение Яндекса к поисковой оптимизации можно охарактеризовать фразой из Гоблиновского перевода: «догони меня, чувак, если сможешь». Явная неприязнь разработчиков поисковой системы к оптимизаторскому бизнесу привела к тому, что в ходе усовершенствования собственных алгоритмов ранжирования, Яндекс с удовольствием портил оптимизаторам нервы. Процесс неровных отношений достиг своей кульминации в марте 2004 года, когда Яндекс поменял алгоритм ранжирования. Апдейт вызвал нечто, напоминающее панику на крупной бирже. В течение недели люди наблюдали резкие и, часто, неоправданные скачки в выдачах поисковика. В первые дни складывалось впечатление, что выдача велась по параметрам, мало имеющим отношение к содержимому страницы. При всем при этом Руководство поисковика заняло позицию "non comments" и только через неделю выступило с публичными пояснениями, которые на удивление ничего не поясняли. В это, без сомнений, тяжелое для оптимизаторов время, отношение последних к происходящему, как ни странно, существенно разделилось. Например, клиенты нашей компании NetPromoter не пострадали или пострадали крайне незначительно. Это объяснялось как комплексным подходом к оптимизации интернет-проектов, так и качеством работы, исключающим недозволенные приемы и методы. Об этом детально говорилось в статье «Слово в защиту Яндекса». С другой стороны, множество оптимизаторов-любителей или мелких фирм, зарабатывающих на повышении рейтинга сайта в поисковой выдаче и не гнушающихся спаммированием, понесли значительный урон. Сама же ситуация действительно выглядела бесконтрольной. Выдачей по некоторым запросам можно было просто зачитаться: ошибки Яндекса высмеивались и разбирались по косточкам в Сети. Пользователи были недовольны, трафик клиентов упал. Про новый алгоритм было известно только то, что он «учитывает социальную структуру Интернета…». Как выяснилось в последствии, за этим туманным заявлением стояла работа нововведенного отдела асессоров. Отсутствие информации давало огромные просторы для фантазий, иногда довольно небезобидных. Например, высказывались предположения о том, что Яндекс в своей священной борьбе против оптимизаторов занялся прямым «пессимизированием» наиболее «удачных» сайтов. Недовольные оптимизаторы грозились начать ответные действия, то есть всеми правдами и неправдами возвращать утраченные позиции, вместо того, чтобы улучшать свои сайты, совершенствовать контент и убирать «мусор» со страниц. Были попытки найти и скрытые мотивы в происходящих с Яндексом изменениях. Логика простая: если поисковик завязан на контекстную рекламу, то ему выгодно давать посетителю менее релевантные документы, чтобы он ушел дальше первой страницы…!? Кроме того, если сайт потерпел неудачу на ниве оптимизации, то по "закону" вкладывания денег его можно будет вскоре ожидать на полях контекстной рекламы… Так или иначe, существующее (или кажущееся) равновесие между оптимизаторами и поисковиком было серьезно нарушено. Удивительно то, что на фоне происходящих событий на задний план отодвинули тот факт, что изменением алгоритма ранжирования занимаются ВСЕ поисковики и довольно регулярно. Всегда подобные изменения требовали некоторого времени на изучение новых алгоритмов поисковой системы, прежде чем запускался новый этап оптимизации. Подобная гонка существовала с момента появления самой проблемы. Именно поэтому настоящие профессионалы оптимизационного бизнеса оптимизируют сайты под некую усредненную систему, учитывая все факторы, закладываемые в алгоритм ранжирования не зависимо от их веса в данный момент. Только такой подход позволяет заранее быть готовым к изменениям, которые априори должны улучшать качество поиска. Однако то, что, например, Google регулярно меняет алгоритм никто почему-то не рассматривает как противостояние оптимизаторскому бизнесу. Почему? Вся разница в том, что этот поисковик, в отличие от Яндекса, все время как минимум декларировал партнерское отношение к оптимизаторам. Что касается Яндекса, то здесь до недавнего времени мы имели дело не только с постоянно заявляемой позицией «ничего не раскрывать», но и предупреждение со стороны Руководства о сложности, таинственности и недоступности алгоритмов системы. Год спустя. Недетские игры.В конце 2004-го года Яндекс, в лице Ильи Сегаловича и Михаила Маслова, написал и выложил в свободный доступ (!) статью "Некоторые аспекты полнотекстового поиска и ранжирования в Яндекс". Содержание данной статьи без сомнения можно признать уникальным, по-крайней мере, уникальным шагом со стороны поисковых систем. По сути, в статье прописаны некоторые детали ранжирования Яндекса, включая архитектуру полнотекстового индекса, этапы фильтрации и, собственно, определения веса документа. Язык статьи представляет отнюдь не научно-популярный текст для детей среднего школьного возраста. Поэтому перед "пользователями" Яндекса наверняка встанет проблема преобразования "некоторых аспектов" в нормальное руководство для практического применения. Так что, на наш взгляд, учитывая еще достаточно в целом невысокий профессиональный уровень оптимизаторского движения Рунета, стоит ждать жарких споров и толкований на тему "что именно сие значит". Яндекс также активно объясняет свои позиции на семинарах и конференциях. 17-18 февраля Searchengines.ru проводит семинар "Поисковое продвижение в практическом применении", в работе которого обещались принять участие целых два сотрудника Яндекса - главный аналитик отдела маркетинга Алексей Амилющенко и менеджер поисковых проектов Александр Садовский. По-видимому, от них можно будет получить соответствующие комментарии по наиболее спорным вопросам и трактованиям. Можно ли рассматривать подобный шаг Яндекса как конец "железного занавеса"? По-большому счету, конечно, не стоит. Все-таки у поисковых машин свои цели, у оптимизаторов - свои. Так было и, несомненно, будет. Однако, настойчиво пренебрегать происходящими в Рунете изменениями, видимо, более не представляется возможным. Да, от поисковой оптимизации доходы идут оптимизаторам, а не в копилку контекстной рекламы, но весь цивилизованный мир учится строить бизнес не на противодействии, а на корпоративном сотрудничестве. Все-таки, как известно, закрытые системы развиваются оч-чень медленно, а чтобы выжить в мире динамичного Интернета, при разработке любого проекта требуется ориентироваться на гибкость и хороший запас устойчивости. Как ни суди, именно оптимизаторы продолжают оставаться движущей силой прогресса поисковых систем, а приоткрытые тайны работы поисковых алгоритмов несомненно повлекут за собой открытые дискуссии и конструктивную критику, которая, как известно, еще никому не шла во вред. Короче, и овцы сыты и волки целы :) Автор - Денис Кравченко |
|
2000-2008 г. Все авторские права соблюдены. |
|