Регистрация
Зарегистрируйся на сайте и получи доступ к полному контенту сайта и подпискам бесплатно!

Круглый стол «Яндекс и SEO»

0
0
57 104 0
Аудио Текст
25 марта 2012

Встреча руководителей веб-поиска «Яндекса» и представителей SEO-изданий состоялась в центральном офисе компании 20 марта 2012 года. Съемочная группа SeoPult.TV зафиксировала происходящее со всех мыслимых ракурсов и предлагает вам свой взгляд на это событие. Мы решили передать вам не только все важные моменты дискуссии, но и ее атмосферу и сделали акцент на любопытных, зачастую неприметных деталях. Часть из них на протяжении двухчасовой сессии не осознали в полной мере даже въедливые журналисты. У вас же такая возможность есть — смотрите видео SeoPult.TV.

Встреча руководителей веб-поиска «Яндекса» и представителей SEO-изданий состоялась в центральном офисе компании 20 марта 2012 года.

Съемочная группа SeoPult.TV зафиксировала происходящее со всех мыслимых ракурсов и предлагает вам свой взгляд на это событие. Мы решили передать вам не только все важные моменты дискуссии, но и ее атмосферу и сделали акцент на любопытных, зачастую неприметных деталях. Часть из них на протяжении двухчасовой сессии не осознали в полной мере даже въедливые журналисты.

У вас же такая возможность есть — смотрите видео SeoPult.TV.

Партнер канала, форум SearchEngines.RU, опубликовал хороший материал на тему «Яндекс: спрашивали - отвечаем».

Тема [круглого стола] специализированная, поэтому общие вопросы в те, которые мы выбрали, не включены. И традиционно мы не отвечаем на вопросы, которые так или иначе касаются ранжирования и отвечают прямо или косвенно, какие факторы влияют на него.


Итак, на ваши вопросы ответят Александр Садовский, руководитель отдела веб-поиска «Яндекса», Сергей Певцов, руководитель службы антиспама и антивирусов «Яндекса», Кирилл Николаев, руководитель группы веб-поиска «Яндекса», Сергей Волков, аналитик отдела веб-поиска «Яндекса», Федор Романенко, менеджер качества поиска, Михаил Сенин, руководитель сервиса «Яндекс.Вебмастер», и Мария Григорьева, руководитель службы поддержки веб-поиска. Ну и, соответственно, участие во встрече принимаем мы, сотрудники пресс-службы «Яндекса».

Вопросов было очень много, у некоторых ресурсов они повторялись, поэтому мы их сгруппировали по тематическим блокам. Наши спикеры сами зачитают вопросы и ответят на них, после чего можно будет задать уточняющие вопросы. На вопрос о том, зачем мы все это организовали, ответит Александр Садовский.

Александр Садовский: Вопрос звучал буквально так: «Зачем „Яндексу” круглый стол, неужели избушка повернулась наконец-то к веб-мастерам передом?» У вас будет примерно два часа, чтобы понять, что это — перед, бок или какая-то другая сторона, — и я надеюсь, что сторона будет ближе к фасадной части избушки. На мой взгляд, мы всегда более или менее понимали (может быть, не всегда было видно снаружи), что мы часть экосистемы. Кто-то производит информацию, кто-то ее оформляет, кто-то потребляет, а мы та часть, которая помогает пользователям найти нужный кусочек информации, созданный кем-то другим, и дать им ответ как можно быстрее. Если в экосистеме плохо работает одна часть, плохо работает вторая и третья, то результата не будет. И мы хотим наладить контакт. Встреча наша носит экспериментальный характер. Возможно, формат придется как-то менять, расширять. Будем рады услышать все ваши предложения, что вам понравилось, что нет, в том числе от вашей аудитории, ведь важна в первую очередь, как вы понимаете, аудитория. И в конечном счете, эти встречи могут стать регулярными, если это будет и вам и нам полезно.

Есть один важный аспект. Мы регулярно смотрим на статистику по веб-мастерам, пользователям, то есть проблемы мы понимаем — на статистике они видны. Но каждый частный случай, каждая личная проблема выглядит немного иначе, и на статистике не всегда эти проблемы можно увидеть. Именно поэтому мы ходим на конференции, общаемся лично, чтобы почувствовать, какие проблемы острее. Какая-то статистически может выглядеть большой, но к ней относятся спокойно, а когда придешь на конференцию, она оказывается вопросом жизни и смерти для конкретного веб-мастера, и тогда эту проблему мы можем решать быстрее. И я надеюсь, что эта встреча нам в этом поможет.

Сергей Певцов: Следующий вопрос был футуристический. «С каждым годом все больше сайтов с картинками и видео, скорость доступа в интернет растет, востребованность сайтов с картинками и видео тоже увеличивается. Научится ли „Яндекс” когда-нибудь считывать графический и видеоконтент, а не только текстовые описания к нему?» Конечно, «Яндекс» обращает внимание на такого рода контент, у нас есть специальные мультимедийные поиски, есть специальная группа компьютерного зрения. Пример — сервис «Яндекс.Картинки», где уже хорошо работает алгоритм определения дубликатов, то есть, по сути, мы понимаем, что же изображено на какой-то картинке, можем сравнивать эти изображения. Есть и задача, связанная с определением «взрослого» контента на картинке: все текстовые описания могут быть вполне нормальными, но картинка неприемлема по запросам, которые не подразумевают ничего «взрослого». Тогда нужно попытаться определить по изображению, что картинка не должна быть показана детям или той аудитории, которая не хочет ее видеть. Такие работы у нас тоже ведутся. Сейчас у нас разрабатывается собственная технология, которая позволит только по изображению определить, что там находится какой-то «взрослый» контент. Что касается видео или другого рода мультимедийного контента, мы тоже обращаем внимание на эту область, у нас планируются определенные разработки, и в будущем, конечно, было бы очень хорошо для качества поиска понимать не только по тексту, окружающему мультимидийный контент, но и по самому содержимому. Так что рано или поздно, думаю, мы сделаем ряд внедрений, которые здесь нашему поиску помогут.

Дальше мы будем зачитывать названия изданий, потому что тот, кто собирал вопросы, сможет как-то дополнить обсуждение. Первый вопрос был от SEONews, второй — от SEOPro. Перейдем к следующему вопросу от SEONews, и вы подключайтесь, если у вас есть какие-то уточнения, вопросы — не хочется, чтобы здесь был монолог. Поэтому поговорим по очереди. Если что, будем возвращаться.

Вопрос от SEONews: Движется ли поиск к персонализации или это ложный тренд? Нужен ли персонализированный поиск и не создаст ли он информационный вакуум для человека, показывая лишь строго определенно ориентированную информацию?

Сергей Певцов: Да, поиск движется в сторону персонализации, и по всем измерениям качества поиска это дает положительный эффект: людям, которым показывается персонализированная выдача, она нравится больше, чем обычная. К примеру, я ищу что-нибудь по запросу «манго», это слово многозначное, и хотя у нас есть алгоритм, который примешивает в выдачу разные интенты по этому запросу, если мы правильный интент, к примеру «магазин одежды», поднимаем повыше, это пользователю определенно нравится, и по запросу, который пользователь задавал в прошлом можно примерно понять, какие темы его интересуют больше. Определенно выдача будет персонализирована, но, если я не захочу, чтобы выдача на моем компьютере отличалась от выдачи на компьютере моего друга, я смогу выключить эту возможность, и тогда выдачи у нас будут совпадать. Как персонализировать? Можно смотреть на короткую историю — какие вопросы во время сессии я задавал перед запросом «манго». Можно смотреть на длинную историю, когда мы пытаемся понять, какие темы больше интересуют пользователей, для ранжирования. Уже сейчас у нас есть персональные подсказки, которые тоже связаны с историей поисков и с историей кликов по результатам поиска. В подсказках при определенной комбинации букв показываются именно те сайты, вероятность кликов по которым выше, чем по другим. И это тоже сокращает время поиска, и пользователь быстрее находит информацию, которую хочет. Поэтому персонализированный поиск будет внедряться, детальные планы я раскрывать не буду. Конечно же, не все 100% запросов будут персонализированы, но какой-то значимый процент, и это будет заметно.

Александр Садовский: Очень часто персонализацию воспринимают как именно подбор тех документов, которые относятся к темам, в первую очередь интересующим пользователя. И если мне интересен футбол и я спросил фамилию, которую носят и футболист, и не футболист, то мне покажут в первую очередь футболиста. Но надо понимать, что чем более изменчив интерес, чем более он динамичен, тем сложнее создать хороший алгоритм персонализации. Поэтому в первую очередь будут охвачены «медленные» тренды, «медленные» интересы. Допустим, человек не знает украинского языка. Он в жизни не будет кликать по украинским документам, и показывать их ему смысла нет, разве что как исключение из правил, когда запрос ровно такой. Если человек не имеет на своем компьютере Microsoft Word, то показывать ему документы *.doc (он на них никогда не кликает) тоже нет смысла. И соответственно, все это «медленные» тренды, которые меняются не за один день. А есть тренды «быстрые»: сегодня мне интересно какое-то событие из области политики, а завтра неинтересно. Пытаться персонализировать на эту тему, по-моему, довольно рискованно, и есть большая вероятность ошибиться.

Наиль Байков (SeoPult.TV): А каким путем вы определяете, что за программы у меня установлены?

Александр Садовский: Мы по поведению пользователя смотрим, чем он интересуется. Естественно, мы не анализируем, что есть у него на компьютере. Мы смотрим, на что он кликает, а на что нет. Мы знаем, что если покажем ему DOC- или PDF-документы, то он может не кликать, потому что у него не стоит редактор или они долго открываются и ему это не нравится.

Михаил Боде (SeoPult.TV): В каком случае возможно сотрудничество с правообладателем? Допустим, человек ищет «Photoshop скачать бесплатно», и вы отрезаете ему возможность смотреть картинки, которые открываются исключительно указанной программой.

Александр Садовский: Это другая тема. Потенциальная возможность понизить результаты, которые не интересны конкретному пользователю, — это совершенно не то же самое, что [сделать подобное] по заказу какого-то стороннего лица, организации. Если существуют два или три одинаковых ответа, но у лицензионного контента выше качество (больше стабильность, видеопоток качественнее), то, конечно же, мы будем выводиться более качественный контент вверху, у нас нет задачи вывести нелицензионный. Но если он резко уступает качеству лицензионному, то мы, как правило ничего не зная про лицензионность, показываем более качественный контент, чтобы лучше удовлетворить пользователя.

Давайте вернемся к вопросу персонализации. Тот, кто задал вопрос, затронул интересную тему: «Не создаст ли персонализация информационного вакуума для человека?» Почему он может возникнуть? Казалось бы, человек ищет что-то, но ему показываются только те ссылки, которые ему заведомо нравятся и соответствуют его стандартам и интересам. Это действительно стабилизирующий фактор в том смысле, что вероятность показа чего-то нового резко снижается. Особенно этот стабилизирующий фактор виден не в поиске как раз, а в социальных сетях. Человек отбирает только те источники, которые ему комфортно читать. Образуется кластер, ничего нового туда не приходит, и даже текущие попытки протаскивать те страницы, где много лайков, делаются только в том случае, если лайкали друзья. То есть если лайк поставило много пользователей, но они не мои друзья, то страница показана не будет, если я читаю ленту Facebook или кого-то еще. Поэтому здесь, в социальных сетях, риск такой высокий. В поиске риск маленький. Во-первых, мы всё говорим о запросе: если пользователь задал другой запрос, к которому у него раньше не было интереса, то, конечно, мы покажем ему новую информацию. Во-вторых, в поиске все ранжируется по факторам. Персонализация — это просто некое повышение вероятности, что вещь, которая мне нужна, выше, но если существует документ свежий, новый, важный, актуальный, то, конечно же, он взлетит наверх и окажется рядом с персонализованным результатом, и никакого вакуума не возникнет. Поэтому риски небольшие, и мы надеемся, что наши пользователи будут всегда получать разностороннюю информацию.

Вопрос от Searchengines.ru: Почему коллектив «Яндекса» считает, что владелец сайта должен быть профессиональным оптимизатором и делать сайты в соответствии с правилами «Яндекса»?

Лиза Трибунская (Searchengines.ru): Это же не мы так думаем. Если честно, когда я собирала вопросы, я могла на четверть из них ответить самостоятельно, не привлекая сотрудников «Яндекса». Но смысл этого мне вполне понятен: человек, который делает сайт лишь потому, что ему захотелось сделать сайт, мало что понимает в правилах оформления документов, а тем более где правильно расставлять ссылки, через которые его сайт до пользователя дойдет.

Александр Садовский: Мне кажется, в вопросе кроется возмущение: «Почему меня заставляют узнавать какую-то новую предметную область, чего-то там изучать, что-то делать, хотя я такой хороший веб-мастер и у меня хороший сайт?» Если сайт хороший и он на голову выше других, наша обязанность — найти его [и вывести] выше других по соответствующим ему запросам. У нас нет ни малейших сомнений в том, что хорошие сайты, которые с точки зрения качества резко отличаются от других в лучшую сторону, мы должны находить. Также если веб-мастер создает сайт в какой-то нише, где конкуренция небольшая, например в регионе, или по специфической теме, или в менее популярной нише, то во всех этих случаях его сайт будет находиться в первой десятке без всяких проблем, то есть реальная потребность быть оптимизатором, а не только создателем контента, возникает лишь тогда, когда мы говорим о сочетании факторов. Первый: сайт такой же, как все. Второй: он находится в высококонкурентной нише. Как поисковой системе отличить хороший сайт от плохого, если все они одинаковы и конкурируют между собой? Есть очень похожая задача в русских сказках: двенадцать голубиц, и нужно выбрать какую-то одну. И вот Иван-Царевич смотрит, как одна из них зернышки клюет, куда поворачивается — налево, направо. Так же и мы ждем в таком случае знаков, что позволяет сделать информацию более доступной для пользователя. Когда мы видим, что структура сайта более разнообразна, что сайт постоянно обновляется, все эти признаки, мы понимаем, что он с большей вероятностью должен быть на первом месте. Поэтому в конкурентных нишах, там, где все сайты одинаковы, действительно нужно быть немного оптимизатором. Но если ваш сайт хороший, мы должны его находить и так, даже без оптимизации.

Михаил Сенин: Я также хотел бы дополнить этот вопрос, так как в нем содержаться намек, что у «Яндекса» какие-то свои правила. Мне кажется, что эти правила продиктованы здравым смыслом, а не придуманы «Яндексом» только для «Яндекса».

Юрий Михайлович: Существует большой мощный сайт посещаемостью от миллиона до трех. Посетители туда идут из социальных сетей, то есть потребители поняли, что ресурс хороший, а «Яндекс» понимает, что какие-то тексты переоптимизированы. Вы его вытаскиваете все-таки или надо делать оптимизацию портала?

Александр Садовский: Вы говорите, что есть положительные факторы, которые свидетельствуют о том, что сайт нужный, полезный и хороший, но есть отрицательный фактор — кто-то на нем применял спамерские техники. Так как у нас все алгоритмы более или менее вероятностные, то зависит от того, насколько он хороший и насколько суровы эти оптимизаторские техники. Если там все тексты состоят из одного слова на 80 % и лишь два абзаца — хорошая статья, то, наверное, ему ничего хорошего не светит. И наоборот, если речь идет о том, что просто внизу где-то лишний раз упомянута ключевая фраза, которая характерна для страницы, то никаких проблем не будет. Поэтому зависит от расстояния от каждого из полюсов — «хорошести» и «проблемности». Без примера я сказать не могу.

Вопрос от SEOPro: На первом экране вмещается все меньше и меньше ссылок из некоммерческой выдачи и все больше места занимают ответы «Яндекса», реклама и так далее. Что делать?

Александр Садовский: Вопрос очень интересный, потому что он в себе неявно содержит другой: куда развивается «Яндекс» и вообще поисковые системы вместе с экосистемой и что будет дальше? Мы прекрасно понимаем, что если мы перестанем перенаправлять трафик к каким-то сайтам, то у них мгновенно возникнет проблема — они не смогут решать свою бизнес-задачу: продавать что-то, рекламировать и т. д. Поэтому даже в тех случаях, когда «Яндекс» выводит какой-либо «колдунщик» вверху, какой-либо ответ, мы все равно показываем ссылки, которые ведут на внешние сайты, чтобы они могли получить трафик. И в «Яндекс.Новостях» у нас СМИ, в «Яндекс.Работе» мы переходим на соответствующие работные сайты. Это ситуация, когда мы просто структурируем ответ для пользователя. Если пользователю не нужно конкретное объявление, которое ему ищут роботы, ему нужно выбрать из объявлений по параметру, по зарплате, по расстоянию от дома, то ему нужен параметрический поиск. И любой сайт, который содержит подобное объявление, может подключиться к «Яндекс.Работе». Условия известны, в них нет секрета, там просто какие-то минимальные требования к качеству сайта, к актуальности информации. И, подключившись, он будет точно так же, как остальные сайты, получать трафик. При этом пользователь время поиска сократит, он будет находить информацию быстрее. И нам кажется, что это в целом правильный путь, чтобы и сайты выполняли свои бизнес-задачи, и пользователь получал ответы быстрее. Противоречий нет. Есть интересный очень случай, редкий — «Яндекс.Погода». Есть пользователь, который нуждается в двух-трех цифрах: температура, будет дождь или нет и т. д. А мы ему даем десять ссылок, и он должен как-то выбирать между ними, причем эти десять ссылок противоречат друг другу, и он начинает еще больше запутываться. Это некий крайний полюс, где сложнее принять решение. В ситуациях, связанных с поиском работы, недвижимости, картинок, видео, все более или менее прозрачно: мы открыты, принимаем фиды в XML, и то же видео в виде разметки на сайте Open Graph, индексируем и точно также показываем ссылку на внешний сайт, но просто в структурированной форме. Поэтому то, что отодвигается десять ссылок стандартных, в принципе не является проблемой для сайтов, которые хорошо отвечают на вопрос. Они просто так же подключаются или размещают свой контент и дают ответ пользователю. Здесь, мне кажется, мы все идем в одном направлении, и, возможно, в будущем надо как-то еще видоизмениться, потому что сейчас все больше ответов возникает про офлайн, про те срезы информации, которые отсутствуют онлайн: человек идет по улице, и спрашивает, например, «аптека», и ожидает, что ему покажут адрес ближайшей аптеки, притом что у аптеки может не быть сайта. То есть вся эта информация офлайн-характера, мы берем из «Яндекс.Карт», зная тот адрес, подсказываем его, но вопрос, куда направить пользователя, не стоит — сайта у аптеки нет. В этот момент мы будем говорить о решении какой-то бизнес-задачи, то есть если у аптеки появится возможность что-нибудь продавать сразу в онлайне, то мы будем подключать (неразборчиво) сразу. Но это уже далекое будущее.

Сергей Певцов: Следующий вопрос был задан достаточно много раз от разных изданий, и мы объединили их в две части. Первая связана с реальной скоростью обновления базы, и вопрос такой: «Когда база будет обновляться ежедневно?» Наш поиск устроен таким образом, что существует два слоя. Первый — свежий слой, в котором мы стремимся найти все самые свежие документы и как можно быстрее выложить их на поиск, чтобы пользователи находили их прямо сразу. Он немножко более сложно устроен, чем обычная база, и он требует немножко больше ресурсов, но тем не менее сделан так, что большинство свежих документов выпадает на поиск в срок от нескольких минут до нескольких часов. Что касается второго слоя, то там сейчас вы можете наблюдать небольшие задержки, порядка семи дней. Это связано чаще всего с регламентными работами, которые проводятся в поиске. Поиск — это очень сложный механизм, сейчас в него внедрено очень много разных алгоритмов, и любое сложное внедрение, которое затрагивает большой процент запросов, должно быть осуществлено чрезвычайно аккуратно, чтобы нигде ничего не сломалось. Параметров, за которыми мы следим, очень много, и мы стремимся сделать так, чтобы ни один из них не ухудшился. Иногда это выливается в более долгие сроки, чем нам хотелось бы. Но, конечно же, мы работаем над этим, и я могу продемонстрировать график (ашмановский анализатор), который показывает, как быстро документы попадают в индекс — мы видим, здесь есть тренд. Мы работаем над тем, чтобы документы попадали в индекс как можно быстрее, чтобы база обновлялась как можно быстрее. В перспективе — ежедневно. Когда это будет, сказать довольно сложно, потому что разработка действительно гигантская, нужно практически переписать весь поиск. Мы этим занимаемся, и в перспективе база будет обновляться вся ежедневно. А свежий слой уже сейчас позволяет новым документам находиться по соответствующим запросам.

Второй вопрос, связанный с индексацией, такой: «Есть многостраничные сайты, и так получается, что сначала очень много документов заходит в индекс, а через некоторое время они оттуда вылетают. Почему так происходит, особенно с новыми сайтами?» Мы каждый день индексируем миллионы страниц, добавляем их в базу, но среди них есть документы разного качества. Не секрет, что в Сети много бесполезного мусора, который не создается умышленно, а просто каким-то образом там присутствует, и мы тоже его иногда индексируем. И каждый документ, который мы индексируем, мы анализируем с помощью специального алгоритма и определяем, есть ли у страницы шанс быть показанной хотя бы по какому-то запросу, более или менее задаваемому. И если у страницы нет шансов ответить хотя бы на какой-то запрос, она не включается в поисковую базу, но тем не менее продолжает обходиться, и как только что-то изменится, мы ее включим. Не все документы, которые были проиндексированы, можно увидеть в поисковой базе, но важно, что вот тот механизм на самом деле не влияет на трафик, который мы отдаем сайту. То есть даже если часть страниц не проиндексирована и не находится в базе, это никак не сказывается на трафике. Мы предсказываем количество переходов на сайт, и мы этим алгоритмом стремимся не ухудшить показатели: трафик не изменяется, даже если мы часть страниц не индексируем, и это нормально. Но как только страница начинает отвечать на какой-то запрос, то она попадает в индекс и трафик увеличивается. Впрочем, это вариант нормы. Есть такой специальный алгоритм, и он работает, а мы всегда следим за его качеством и не допускаем его ухудшения.

Александр Садовский: Можно на пальцах объяснить, как это работает. По каждой странице, которая ранжируется, имеется множество факторов статических, которые связаны с самим сайтом, и есть много факторов, динамически зависящих от того, какой запрос пользователем задан. По одному запросу может быть одна ситуация, а по другому — другая. Если у страницы такие статические факторы, что, какие бы ни были динамические, и при самом оптимистичном варианте она все равно не найдется даже на сотом или на тысячном месте, то смысла хранить ее в индексе нет. Значит, у нее настолько плохие статические факторы, что динамические уже в жизни не помогут. Поэтому мы ее просто не кладем, заранее понимая, что она не найдется. Это не отношение к странице, а техническое действие, которое показывает, что страница нерелевантна тем запросам, которые сегодня задают пользователи. Причем эти действия не будут влиять на трафик: она бы его и так не получила.

Вопрос: Планирует ли «Яндекс» проводить индексацию сайтов на AJAX?

Сергей Певцов: Да, это уже поддерживается по соответствующему стандарту.

Вопрос: Когда отменят тИЦ?

Сергей Певцов: Отмена тИЦ не планируется.

Лиза Трибунская (Searchengines.ru): Есть обратная проблема. Например, в какой-то момент «Яндекс» проиндексировал сбой на сервере. По всем запросом идет сбой, отдавался код 200, и на всех страницах — «Извините, информация недоступна». «Яндекс» это проиндексировал, грубо говоря, полгода назад, и до сих пор все так и есть. Как заставить его переиндексировать? Аналогичная проблема: полгода как стоит редирект 301, а в списке проиндексированных страниц все еще старые адреса.

Александр Садовский: Это означает, что ни одну из страниц, допустим 100 тыс. страниц, не переиндексировал или все 100% не переиндексировал?

Лиза Трибунская (Searchengines.ru): Они есть, но не все 100%, а процентов десять примерно. Они есть в списке не в «Яндекс.Вебмастере», а в именно в списке проиндексированных страниц на сайте — огромная куча вот этих старых страниц. То есть основная проблема не в том, что сайт ссылки продавать не может, но я же не ссылки продавать хочу, я хочу, чтобы «Яндекс» нормально проиндексировал то, что для людей было написано.

Михаил Сенин: В принципе, есть механизм файла sitemap, в котором можно указать приоритетность страниц, и эта приоритетность учитывается. Таким образом можно дать подсказку роботу, но это негарантированный метод. Также роботу можно указать, что страница не существует. Кроме того, есть страницы, которые подлежат удалению, но мы до последнего надеемся, что они вернуться. Есть определенные сроки, порядка двух месяцев, когда они могут у нас оставаться, показываться, но у нас есть планы по поводу того, чтобы сделать кнопочку «Забудьте уже про эту страничку». Однако на данный момент — robots.txt и файл sitemap.

Вопрос от SEOPro: Можно ли продвинуть сайт по конкурентному запросу без покупки ссылок?

Кирилл Николаев: Вопрос скорее к оптимизаторам, чем к нам, но такие примеры есть, и чем дальше, тем больше. Есть примеры, когда ссылки пропали и стало только лучше или ссылки больше не работают. И действительно ссылки во многом не работают. Чтобы лучше ответить на этот вопрос, я пытаюсь его чуть раскрыть. У ссылок много разных свойств, разных параметров, но мы будем рассматривать два: степень естественности ссылки, то есть насколько она была проставлена естественно, не для оптимизации, и то, насколько она полезна для поиска. В зависимости от этих параметров мы их учитываем, даже очень не естественные ссылки могут быть полезны. Например, есть одна ссылка — «сайт по продвижению сайтов», если сказать то же еще тысячу раз, то становится непонятно зачем. Но бывает, что очень много ссылок естественных и они тоже ни о чем. Мы стали пытаться уменьшить тот объем безумной ссылочной массы, которую стали вводить оптимизаторы, пытаясь как-то обогнать конкурента, стоящего перед ними. Действие это очень простое: если мы проставим ссылок больше, чем он, то получим шанс подняться. Естественно, многие ссылки перестали учитываться. Одни оптимизаторы стали делать все очень аккуратно, пытаться быть очень похожими на естественные ссылки, чтоб все было очень естественно и аккуратненько, или вообще отказались от этого и работают не через искусственное, а через какое-то социальное явление, которые порождает эти ссылки. А другие, поскольку народилось огромное количество сервисов по продаже ссылок — это мощная индустрия — просто стали гнать в таком промышленном масштабе, чтобы хоть что-то заработало. И сейчас мы это наблюдаем: огромные массы ссылок есть, но они бесполезны.

По конкурентным топам. Есть конкурентные топы, где ссылок практически нет, я имею в виду искусственных ссылок. Даже в тематике «пластиковые окна» такие сайты могут в топ-10 стоять. Или вот более явный пример, чтобы было понятно, — «автострахование». Есть сайт «Росно», он без этих ссылок. Не могу сказать, что там не вообще искусственных ссылок, но «промышленных» там нет. Запрос, например, «магнитики на холодильники» (Ozon.ru), «интернет-телефония» — сайт в топе без этих ссылок.

Даниэл Херени (SEOPro): А нужны ли ссылки для сайтов некоммерческих тематик?

Кирилл Николаев: Естественные ссылки, конечно, нужны. От ссылки есть сигнал. Понятное дело, что если идет огромный сигнал, его хочется учесть. Но как только этот сигнал начинает расплываться, на него накладываются шумы, то приходится жертвовать получением сигнала, подрезать и т. д. Таким образом, в некоторых некоммерческих тематиках, где нет такого мощного искусственного SEO-давления, ссылки замечательно работают. Там, где даже некоммерческая тематика, но очень надежное SEO-давление, тоже все не так эффективно с точки зрения ссылочной оптимизации.

Сергей Волков: Ссылки — это один из сигналов, которые поисковая система учитывает, просто в какой-то момент, когда ссылки начинают генерироваться в промышленном масштабе, это уже не сигнал, а шум. Когда один раз сказали, что вот этот сайт про это — хорошо, это сигнал, а когда сто раз сказали одними и теми же словами, это бесполезная информация. Отсюда возникает необходимость фильтрации этих ссылок в тот момент, когда сигнал превращается в шум. И возникает гонка, кто больше ссылок на себя купит. И ценность сигнала теряется.

Александр Садовский: Есть и другие способы измерить ценность сайтов, пусть даже не в процессе выдачи. По асессорской методике мы можем посмотреть, какие сайты для пользователя лучше, можем посмотреть по статистическим каким-то факторам поведения пользователя, и когда мы видим, что сайт очень хороший, но у него ссылок мало, а у плохого сайта ссылок много, мы можем понять, что конкретный ссылочный сигнал в этом месте перестал работать. Его вес, факторы, связанные с ссылкой, резко снижаются. Снижаются либо естественным способом при настройке формул, либо если мы видим единичный случай, то путем фильтрации с помощью антиспамовых алгоритмов. И если люди перестают ставить ссылки, то сигнал снова начинает коррелировать с качеством сайта. Важно понять, что таких сигналов сотни, их очень много, и если он коррелирует с качеством сайта, помогает отделить хорошее от плохого, то мы его будем использовать. Если он не помогает отделить хорошее от плохого, мы его не будем использовать. И чем больше покупают ссылки по конкретной теме, тем хуже для нас сигнал. Люди не способны удержаться и купить себе одну хорошую ссылку и завещать ее детям. Они покупают сразу на 12 поколений вперед, и потом им кажется, что этого мало, они покупают еще и родственникам, друзьям — и все ведут на один сайт. Вот в этот момент они становятся бесполезными.

Лиза Трибунская (Searchengines.ru): А если в какой-то тематике все покупают ссылки, и сайт, который ссылку покупать не будет, сразу получит минус, потому что все на уровне и добавили себе плюсов?

Александр Садовский: Почему вы решили, что эти ссылки учитываются? Может, они тратят деньги, но ссылки не учитываются, ведь они в топе по другим факторам.

Сергей Певцов: Кто в топе, кто не в топе, все же определяет алгоритм, а не оптимизатор.

Даниэл Херени (SEOPro): В моем понимании естественная ссылка — это указание в анкоре URL: «Смотри тут». Насколько влияет анкор?

Александр Садовский: Естественная ссылка не про то, как она выглядит, не про то, где она стоит и куда она ведет, а про то, зачем она ставилась. Я недаром сказал про чувства. Если она ставилась с чувством порекомендовать, с чувством, чтобы пользователь перешел на сайт, с чувством «этот сайт схожей темы, и я хочу, чтобы мои посетители знали про это», — это правильное чувство, эта ссылка естественная. А если она ставилась с чувством получить немножко деньжат или поднять сайт повыше, то это неправильная, неестественная ссылка.

Даниэл Херени (SEOPro): Каталоги по обмену ссылками — по любви или по расчету?

Кирилл Николаев: Критериев очень много, и степеней очень много. Скажем, зашел на сайт и закупил ссылок — не очень естественно. Сделал какой-то механизм промо, социальный, чтобы получить именно эти ссылки, — так гораздо более естественно, и в какой-то градации можно считать, что это хорошо. Но если это массово и везде, то я считаю, что это неестественно. Соответственно, с каталогами тоже бывает по-разному, смотря какой каталог. Если кто-то сумел организовать небольшое тематическое сообщество, чтобы вы между собой менялись, — это в большей степени естественно. Если это каталоги по 10 тыс. сайтов в каждом, никакой естественностью не пахнет. Зависит от ситуации на рынке.

Александр Садовский: Чем больше избирательность, чем меньше шансов, что любой в этом каталоге может получить любую ссылку с любого участника, тем выше естественность, то есть тем больше данный процесс нужен пользователю. Если он сделан для пользователя, из желания помочь ему каким-то образом, то да, эта ссылка будет естественной.

Лиза Трибунская (Searchengines.ru): Ходят слухи, что за гиперконтекстовые ссылки внутри сайта можно получить санкции. Это правда?

Александр Садовский: Это нужно очень постараться, мне такие случаи неизвестны.

Сергей Волков: Понимаете, здесь тоже все зависит от чувства меры товарищей, которые этим занимаются. То есть, извините, есть такой прием, когда на главной странице сайта, внизу в подвальчике, делают ссылки на саму же главную страницу сайта. Как вы думаете, это натуральные действия? Оно пользователю как-то помогает?

Вопрос от SEONews: Назовите запросы из тематики SEO-выдачи в топ-30, который формируются полностью вручную, без любых алгоритмов.

Кирилл Николаев: В принципе, мы к такому не прибегаем, но некоторые запросы есть. Например, «автострахование», «магнитики для холодильников». Это была шутка. На самом деле понятно, что таких запросов нет. Все автоматически. На сегодняшний день такого нет, но, возможно, по некоторым запросам в будущем что-то похожее будет, некоторые «искусственные» изменения.

Александр Садовский: Будет не ручное формирование выдачи. Просто когда у «Яндекса» сотни миллионов разнообразных формулировок запросов, в принципе невозможно с точки зрения организационной поддерживать актуальные списки по любому из хоть сколько-нибудь популярных запросов. Поэтому речь может идти скорее о формировании подхода к тому, какие группы сайтов должны быть на странице. Например, если запрос про телевизоры как технологию, «телевизоры купить», «телевизоры как телевидение». Группы, может быть, когда-нибудь будут задаваться полуавтоматически, не то чтобы вручную, но на основании каких-то заранее собранных характеристик. Но внутри каждой группы сайты будут ранжироваться полностью автоматически. Я не вижу причин для изменения этого, по крайней мере в ближайшее десятилетие.

Вопрос от SEONews: Во многих коммерческих тематиках много фирм, предоставляющих одинаковые услуги и ничем качественно не отличающихся друг от друга, с похожими сайтами. Как вы представляете ранжирование таких сайтов?

Кирилл Николаев: Во-первых, первый постулат о том, что они одинаковые, не совсем верный. В разных масштабах рассмотрения они могут быть как похожими, так и нет. Если взять автомобили, то они все между собой похожи, но если посмотреть на конкретные марки, производителей, качество, то очень разными могут быть. Так и с сайтами. Даже сайты в одной и той же тематике могут сильно различаться, и на последних конференциях мы именно об этом и рассказывали. Очень много сайтов по коммерческим тематикам, которые плохие, то есть плохо решают задачу пользователя. Эта страничка фирмы в интернете, в которую какой-то не очень дорогой оптимизатор наклепал слов, ссылок, и она не решает задачу пользователя. А какой-то сайт, на который были потрачены усилия маркетологов, изучавших его, занимавшихся проблемой, принципиально иначе выглядит с точки зрения пользователя. Именно там он решает свою задачу, а если запрос коммерческий, то решает коммерческий интент. Не обязательно на этом сайте, но он может им воспользоваться как неким механизмом для выбора чего-либо, понимания, пополнения своей базы знаний. Таким образом сайты и различаются. Даже наши асессоры, специально подготовленные для этого, очень неплохо разбивают сайты на три группы. Есть сайт, который скорее мешает пользователю, такой, которому тот не будет доверять и не закажет там услугу; средний сайт, которым, если что, можно воспользоваться; а также сайты с какими-то фокусами и секретами, которые нравятся пользователю и неожиданно раскрывают его потенциал возможностей. Как ранжировать идеально, я не буду отвечать, потому что очень много разных представлений, идей. А в общих словах — мы в конце 2011 года сделали первый шаг к этому, мы изменили ранжирование и сейчас весной сделаем второй шаг, еще сильнее изменим ранжирование этих сайтов, и станет еще более заметно, что сайты, лучше решающие пользовательскую задачу с целью произвести транзакцию, что-нибудь купить, что-то понять, сделать выбор

Развернуть текстовую версию
Комментарии