Разбираем Google Panda: Полное руководство для SEO. Часть 1

Как выйти из-под фильтра Panda и как создать качественный контент на сайте, который понравится Google
Google Panda - один из фильтров Google, который наказывает страницы низкого качества, чтобы поднять в результатах поиска страницы с качественным контентом. При этом Panda остается одним из самых непонятных алгоритмов. Как сказал представитель Google:
Алгоритм Panda применяется целиком к сайту и является одним из основных факторов ранжирования. Он измеряет качество, о котором вы можете прочитать в нашем руководстве. Panda позволяет нам принимать во внимание качество и на его основе корректировать позиции в поиске.
[Примечание: Panda стала частью основного алгоритма Google] Многие SEO-шники пытались проанализировать Panda редактируя сайты, которые падали или росли при очередном обновлении, но так и не обнаружили взаимосвязи. В копилку мифов о Panda добавляют случаи, когда вебмастера в попытках исправить ситуацию, делают своему сайту только хуже. Прекрасным тому примером служит распространенное мнение, что для выхода из-под фильтра, нужно удалить весь контент с сайта. А учитывая нынешние длительные сроки развертывания этого фильтра, порой вообще сложно сказать повлияла ли на сайт именно Panda или один из несколько сотен других факторов ранжирования, которые также обновляются каждый год. Что мы знаем наверняка, и сам Google это подтверждает, так это то, что вебмастерам, которые заподозрили приход Panda, не стоит рвать на себе волосы, все можно восстановить. Гэри Иллиес (Gary Illyes) из Google сказал, что не рекомендует удалять контент в попытках снять Panda. И смысл в его словах есть, хотя некоторые оптимизаторы не согласны с этим. Удаление контента, который, как вам кажется, стал причиной фильтра, может привести к бОльшим проблемам для вашего сайта. 23

Удаление неправильного контента

Самая большая проблема в том, что вебмастера могут удалить контент, который Google считает хорошим, высоко ранжируется и приносит трафик. При помощи Search Analytics в Google Search Concol можно найти страницы с нулевым трафиком из Google. Это хороший способ выявить потенциальных кандидатов, которым необходима доработка. Представитель Google посоветовал пойти дальше и предложил использовать этот инструмент для поиска страниц, на которые были переходы с несоответствующих ее содержанию запросов. “Если вы считаете, что ваш сайт затронул алгоритм Panda, то в Search Analytics можно выявить переходы по запросам на страницы, которые явно не удовлетворяют потребность пользователя по данному запросу.” Суммируя удаление не того, что нужно, может нанести значительный вред, так как вы теряете как качественный, с точки зрения Google контент, так и трафик. И в зависимости от числа удаленных страниц, может показаться, что трафик продолжает падать из-за Panda или других фильтров, в действительности же это результат ваших опрометчивых действий. Кроме того, удалив качественный контент, вы можете потерять трафик из других поисковиков. Зачастую, когда люди смотрят на переходы из поисковых систем, они смотрят только на Google из-за его доли на рынке, забывая что при фильтре Panda, доля трафика из Google отличается от доли из других поисковиков.

Удаление vs исправление

Когда Иллиес сказал, что контент следует исправлять а не удалять, многие стали изменять свою стратегию “тотального удаления”, которую ранее рекомендовали эксперты по Panda. Если посмотреть все предыдущие высказывания Иллиеса или Джона Мюллера (John Mueller) по этой теме, то там всегда были рекомендации добавить новый качественный контент и исправить старый. И среди них не было ни слова про удаление. Вместо этого, если у кого-то все же чешутся руки, было предложено закрывать этот контент от индексации в robots.txt или noindex’ом. В итоге, единственный план действий, который предложил Google для тех, кто не хочет улучшать некачественный контент - закрыть его от индексации, а не удалять полностью. Джон Мюллер во время Google Webmaster Office Hours в марте 2014 все-таки упомянул удаление, но он говорил про агрегированные данные из RSS-каналов или комментарии пользователей.
В целом качество сайта должно быть значительно улучшено, тогда мы сможем доверять его контенту. Иногда на сайте мы видим много некачественного контента, который  возможно был агрегирован из других источников, возможно это пользовательский контент, например не очень качественные статьи. Глядя на них, вы должны понимать нужны ли вам они, и если нужны, то предотвратите их появление поиске. Можете использовать noindex в таком случае. А можете полностью удалить их, если не хотите, чтобы контент низкого качества был на вашем сайте. В любом случае, вам следует объективно взглянуть на ваш сайт и принять решение, которое улучшит положение дел.
Закрытый от индексации контент пользователи, при необходимости, смогут найти самостоятельно, а вы в свою очередь сможете отследить сохраняется ли естественный трафик на эти страницы. Это будет одним из признаков того, что вы ошибочно посчитали контент плохим. Это же предлагала Майли Ойи (Maile Ohye) в далеком 2011-ом, когда Panda только запустилась. Она предлагала временно закрывать самый плохие страницы в noindex, пока на них не добавится уникальный контент. Представитель Goolge, говоря про некачественные страницы, так же это подтвердил: “Вашей целью должно стать не удаление плохих страниц, а создание хороших, с уникальным контентом для ваших пользователей, которые будут доверять вашему сайту в будущем, видя его в результатах поиска.”

Когда необходимо удаление

Однако бывают случаи, когда удаление единственное верное решение. Например, если форум наводнен спамом и нет никакого другого способа избавиться от постов про “Купить виагру” или “Купить угги”. Тоже самое можно сказать, когда на сайте транслируются rss-ленты и вебмастер не хочет переписывать все эти стать, добавляя новый свежий контент. На Popcon Гэри Иллиес дал лучшую рекомендацию для тех, кто предпочитает удалять контент, а не улучшать его. Он посоветовал закрыть его от индексации, а ссылки на страницы добавить в карту сайта, чтобы Google быстрее учел это.

Добавление нового качественного контента

Добавление нового контента на сайт является отличным решением при Panda. Ведь сайт всегда выиграет от нового качественного контента, даже если некоторая его часть попала под фильтр.

Сайты под Panda могут ранжироваться

Бытует мнение, что сайт, который попал под Panda, перестает ранжироваться. Это заблуждение. Безусловно, если сайт в целом низкого качества, то фильтр накладывается на весь сайт. Но если на сайте есть качественные страницы, то они продолжают нормально ранжироваться. И представитель Google это подтверждает:
Алгоритм Panda может продолжать показывать такой сайт в выдаче по конкретным и очень релевантным запросам, но его видимость будет уменьшена по запросам, где выгода владельца сайта непропорциональная к выгоде пользователя.
Это еще один аргумент в пользу слов Google: удаление - не лучшее решение. Удаление спама - это хорошо, но если дело просто в бедном контенте на странице, то добавление на нее дополнительного содержания, и на сайт в целом, поможет исправить ситуацию.

Все страницы должны быть качественными, чтобы сайт считался качественным?

Раз страницы хорошего качества могут хорошо ранжироваться, несмотря на некоторые страницы попавшие под Panda, то и сайт может считаться качественным несмотря на такие страницы. Однако это справедливо только в том случае, когда качественных страниц большинство. Как нам говорит представитель Google: 
В целом сайты высокого качества содержат полезный для пользователей контент на подавляющем большинстве своих страниц.
Таким образом, сайт с небольшим числом низкокачественных страниц все еще может считаться качественным. Поэтому, хотя рекомендация улучшать плохие страницы остается в силе, вебмастерам не стоит сильно волноваться, если несколько страниц хуже, чем все остальные. Но они должны быть уверены, что таких страниц действительно меньшество.

Ожидания посетителей

Вы отвечаете на поисковые запросы ваших посетителей? Как часто говорит Google:
Вы должны быть уверены, что обладаете контентом, удовлетворяющим ваших пользователей. Вы можете иметь потрясающий контент, но если, ранжируясь по специфическим запросам, вы не даете людям то, что они ищут, Google может посчитать такой контент плохим.
Представитель Google дал простое пояснение:
В конце концов, владельцы контента не должны спрашивать сколько посетителей к ним приходит за день, а скольким посетителям они помогли.
Это похоже на то, что сказал Иллиес выступая на PubCon в октябре 2015 года. 12345

Дублированный контент

Многие предполагали, что фильтр дублированного контента был частью Panda, но это не так. Джон Мюллер подтвердил, что Panda и фильтр дублированного контента - “две отдельные и независимые вещи”. В любом случае, независимо от того является ли фильтр частью Панды или нет, он отлично справляется с удалением дубликатов. А при массовом злоупотреблении дубликатами, может стать сигналом для ручных санкций. Мюллер, отвечая на вопросы о сайте пораженном Пандой, сказал что даже с точки зрения SEO, вы должны больше беспокоится о том, что ваш контент лучше всех, а дубликаты имеют куда меньший приоритет.
Если бы вы спросили меня, что стоит делать на сайте в первую очередь, то я бы поставил удаление дубликатов в конец списка. Несомненно, этим стоит заниматься, но точно не в первую очередь. Наши алгоритмы довольно лояльны к дубликатам в пределах одного сайта. Если вы решили продать автомобиль, то помыть его будет хорошей идеей, но если у автомобиля есть серьезные технические проблемы, то мытьем дело не исправишь.
Другими словами, внутренние дубликаты не являются причиной Panda, особенно в среде неопытных владельцев сайтов на WordPress, случайно дублирующих страницы. Это лишь малая часть в алгоритмической головоломке.

Схожее содержание

Вы должны внимательно подходить к своему контенту, особенно на сайтах тематики “how to”, где есть много очень схожих текстов. Если на сайте много статей на одну и ту же тему, то вероятно не все из них хорошего качества. Например, у eHow есть больше ста статей (может и больше, но я перестал считать после сотой) о том, как прочистить туалет. Если сайт не претендует на роль самого лучшего сайта всех времен и народов чистимтуалеты.ком, то есть смысл объединить некоторые из этих статей. Тем более очень маловероятно, что на все 100 страниц есть трафик из Google. Посмотрите на страницы на которые идет трафик с поиска, вероятно Google считает их достаточно хорошими и поэтому высоко ранжирует. А вот страницы с нулевым трафиком требуют внимательного изучения. Если у вас есть много страниц со схожим содержанием и проблемы с Panda, то имеет смысл объединить те из них, что плохо ранжируются, повысить качество, а затем настроить редирект со старых URL.

404 - страницы не найдены

404 ошибки на Panda не оказывают влияния вообще. 404 Это справедливо. Иначе конкурентам было бы очень просто поставить кучу ссылок на несуществующие URL, если бы Google учитывал 404 ошибки в Panda или в основном алгоритме.

Агрегированный контент

Google, кажется, довольно низко оценивает агрегаторы, но с некоторыми исключениями. Джон Мюллер объяснил низкую оценку агрегаторов тем, что пользователи хотят видеть непосредственно источник. И Google не видит смысла заставлять пользователя дважды переходить куда-то чтобы найти то, что они хотят.
Есть одна вещь, которую вы должны принять во внимание, наши алгоритмы сосредотачиваются на уникальном, убедительном и высококачественном контенте. Если на сайте представлен просто список ссылок на другие сайты, то какой смысл показывать его в поиске, лучше провести пользователя непосредственно к месту назначения. Поэтому, вместо того, чтобы заниматься техническими проблемами вроде индексации, я настоятельно рекомендую сделать шаг назад и пересмотреть модель вашего сайта.
Но есть и исключения – Techmeme.com - пример агрегатора, который отлично себя чувствует в Google.

Свежий взгляд на сайт

Одна из вещей, которую Джон Мюллер многократно рекомендовал за эти годы вебмастерам, которые хотят узнать насколько хорош их контент - это попросить посетить сайт человека несвязанного с сайтом, а затем поделиться фидбеком.
Кроме всего прочего, я также рекомендую пройтись по 23 вопросам Амита вместе с кем-то, кто не связан с вашим сайтом, после того как вы попросите выполнить некоторые задания на вашем сайте и других подобных сайтах. Вы упоминаете Panda, как алгоритм концентрирующий внимание на качестве контента, я в свою очередь предлагаю вам подобно Panda трезво оценить собственный контент.
Многие оптимизаторы считают, что их контент потрясающий, неважно писали ли они его сами или заказали, но по факту им сложно оценить его непредвзято. Вторая часть статьи здесь, а за третьей сюда. Источник: TheSEMPost Перевод: webit
Добавить комментарий

Ваш комментарий будет опубликован после модерации без публичного указания вашего e-mail адреса. Обязательные поля помечены *

Вас может заинтересовать
Все статьи автора
Читать далее
Способы улучшить сниппеты. Влияние эмодзи на CTR.
Есть поговорка - “встречают по одежке…”. Она хорошо подходит к сниппетам, так как именно с них пользователи из поиска начинают знакомство с вашим сайтом. Описание документа в поисковой выдаче во многом решает перейдут ли на него пользователи или нет. Поэтому важно делать сниппеты привлекательными. Один из способов — использовать символы эмодзи. Данные символы могут показываться…
Читать далее
Как снять фильтр Баден-Баден
Раньше в Топ-10 поисковой выдачи встречалось много материалов, переоптимизированных ключевыми словами. Ситуация изменилась в 2017 году, когда «Яндекс» запустил фильтр «Баден-Баден». Он проверяет статьи на заспамленность и понижает сайты или их страницы в выдаче. Далее рассказываем, как выйти из-под фильтра «Баден-Баден» быстро и с возвратом прежних позиций. Задачи: Вовремя обнаружить фильтр. Оперативно выйти из-под фильтра…
Читать далее
Проверка новых тегов для настройки сниппетов в Google
В конце сентября Google объявил о новых возможностях настраивать сниппеты в его выдаче. Теперь можно изменять длину текста сниппета, продолжительность видео, размер картинок и закрывать текст на странице в тег, запрещающий показывать этот текст в сниппете. Мы проверили работу этих тегов, чтобы понять, можно ли нам их использовать с выгодой. Предположение 1: Хорошо бы увеличить…
Читать далее
SEO-кейс: как мы увеличили региональный трафик на 1734%
Анализируем рынок Одно из приоритетных направлений «Московской Меховой Компании» — увеличение продаж в регионах. Сайт нашего клиента не имел региональных представительств, но поисковой трафик из регионов составлял 40%. Мы решили, что создание региональных поддоменов станет хорошим драйвером роста посещаемости. Таким образом мы планировали улучшить видимость в поиске в этих регионах. На первом этапе следовало определиться со списком приоритетных по трафику регионов. Для этого использовали статистику спроса по основным товарным…
Читать далее
Разбираем Google Panda: Полное руководство для SEO. Часть 3
Мы продолжаем разбирать алгоритм Panda, его влияние на сайт, способы снятия фильтра и основные источники качественного контента. В блоге опубликовано уже две части из цикла статей про этот фильтр, с первой можно познакомиться здесь, а за второй сюда. А для тех, кто уже почитал, мы написали завершающую статью. Вперед! Пользовательский контент Одной из недавних горячих тем была…
Читать далее
Разбираем Google Panda: Полное руководство для SEO. Часть 2
На прошлой неделе мы опубликовали первую часть статьи про алгоритм Panda, с ней вы можете ознакомиться здесь. А сейчас мы продолжаем его исследовать.  Количество слов & документные факторы Переосмысление количества слов Хотя существует правило, чем больше символов, тем лучше контент, это не значит, что маленькие тексты обязательно наказываются Panda. И в самом деле, есть много примеров,…