В апреле 2012 года поисковик Гугл изменил свой алгоритм поиска. Перед Google Penguin ставилась задача улучшить выдачу, отсеять спам и серые (не говоря уже о черных) методы оптимизации. Очень тщательно теперь выявляется переоптимизация как в ссылочной, так и в контентной области.
Первое, на что советует обратить внимание Google – это, как ни странно, структура сайта, его визуальное отображение и удобство для пользователя. Если для того, чтоб докопаться до основного содержимого страницы сайта, нужно перелопатить тонны объявлений и ненужной информации – вы будете жестко наказаны. Этот алгоритм, который является частью «Пингвина», называется Алгоритм оценки макета страницы («page layout algorithm»). Так что можно предложить, что основные пострадавшие от нового алгоритма - это сайты с большим количеством тизерной рекламы и неявно выраженным основным материалом на страницах сайта (обменники, хранилища файлов).
Так к чему же привела смена алгоритма Google?
Ресурсы с суточной посещаемостью в 500-1000 и более человек почти не испытали на себе негативного воздействия нового алгоритма Гугла. С одной стороны, получается замкнутый круг - как увеличить посещаемость, когда она упала вместе с позициями? С другой, по низко- и среднечастотным запросам вполне можно наращивать количество посетителей. Основной выход - публикация больших объемных материалов. Раздел статей или блог можно вести на ресурсе любого типа.
Часть внешних ссылок на сайты перестала учитываться. Это привело к падению посещаемости и позиций у некоторых ресурсов. В первую очередь потеряли свою эффективность некоторые покупные ссылки и ссылки с сайтов, на которые пользователи могут добавить ссылки без предварительной модерации (заспамленные и заброшенные блоги и форумы).
Сайты, у которых подтверждено авторство в Google+ (то есть в результатах поиска выводится фото автора), менее подвержены риску. Причина тут проста и логична - авторство владельцы сайтов будут подтверждать только для тех своих ресурсов, которыми активно занимаются. Для второстепенных и заброшенных сайтов никто этого делать не будет.
У сайтов с небольшим количеством страниц (менее 20-30) больше риск пострадать от алгоритма.
Сайты, которые давно не обновлялись, чаще подвержены риску. В этом есть логика. Если сайт регулярно обновляется, то можно считать, что его владелец заботится о нём и развивает его. Если обновлений на сайте нет долгие месяцы и годы - он мало кому интересен.
Сайты с хорошими поведенческими факторами пострадали в меньшей степени. Чем больше страниц просматривают на вашем сайте и чем дольше время, в течение которого посетители находятся на Вашем ресурсе, тем лучше поведенческие факторы .
Ресурсы, которые публикуют объемные тексты (от 4000-6000 символов), пострадали меньше, чем сайты с небольшими по размеру материалами. Логика тут простая: чем больше статья, тем больше вероятность, что владелец заботится о развитии и наполнении своего сайта. Естественно, имеется ввиду уникальный контент.
Чего делать нельзя? (советы Самого Google)
Первое, на что советует обратить внимание Google – это, как ни странно, структура сайта, его визуальное отображение и удобство для пользователя. Если для того, чтоб докопаться до основного содержимого страницы сайта, нужно перелопатить тонны объявлений и ненужной информации – вы будете жестко наказаны. Этот алгоритм, который является частью «Пингвина», называется Алгоритм оценки макета страницы («page layout algorithm»). Так что можно предложить, что основные пострадавшие от нового алгоритма - это сайты с большим количеством тизерной рекламы и неявно выраженным основным материалом на страницах сайта (обменники, хранилища файлов).
Так к чему же привела смена алгоритма Google?
Ресурсы с суточной посещаемостью в 500-1000 и более человек почти не испытали на себе негативного воздействия нового алгоритма Гугла. С одной стороны, получается замкнутый круг - как увеличить посещаемость, когда она упала вместе с позициями? С другой, по низко- и среднечастотным запросам вполне можно наращивать количество посетителей. Основной выход - публикация больших объемных материалов. Раздел статей или блог можно вести на ресурсе любого типа.
Часть внешних ссылок на сайты перестала учитываться. Это привело к падению посещаемости и позиций у некоторых ресурсов. В первую очередь потеряли свою эффективность некоторые покупные ссылки и ссылки с сайтов, на которые пользователи могут добавить ссылки без предварительной модерации (заспамленные и заброшенные блоги и форумы).
Сайты, у которых подтверждено авторство в Google+ (то есть в результатах поиска выводится фото автора), менее подвержены риску. Причина тут проста и логична - авторство владельцы сайтов будут подтверждать только для тех своих ресурсов, которыми активно занимаются. Для второстепенных и заброшенных сайтов никто этого делать не будет.
У сайтов с небольшим количеством страниц (менее 20-30) больше риск пострадать от алгоритма.
Сайты, которые давно не обновлялись, чаще подвержены риску. В этом есть логика. Если сайт регулярно обновляется, то можно считать, что его владелец заботится о нём и развивает его. Если обновлений на сайте нет долгие месяцы и годы - он мало кому интересен.
Сайты с хорошими поведенческими факторами пострадали в меньшей степени. Чем больше страниц просматривают на вашем сайте и чем дольше время, в течение которого посетители находятся на Вашем ресурсе, тем лучше поведенческие факторы .
Ресурсы, которые публикуют объемные тексты (от 4000-6000 символов), пострадали меньше, чем сайты с небольшими по размеру материалами. Логика тут простая: чем больше статья, тем больше вероятность, что владелец заботится о развитии и наполнении своего сайта. Естественно, имеется ввиду уникальный контент.
Чего делать нельзя? (советы Самого Google)
- Не используйте скрытый текст и скрытые ссылки.
- Не используйте «клоакинг» и скрытую переадресацию.
- Не перегружайте страницы ключевыми словами, которые не несут смысловой нагрузки, а использованы для накрутки веса страницы.
- Не создавайте страницы, поддомены и домены, в значительной степени повторяющие содержание.
- Не создавайте страницы с вредоносным поведением, таким как «фишинг» или распространение вирусов, троянов и другого вредоносного ПО.
- Не создавайте «дорвеев».
- Не участвуйте в схемах построения ссылок, разработанных для повышения рейтинга вашего сайта или PageRank.
- Не отправляйте автоматические запросы в Google.Плотность поисковых запросов в тексте и метатегах - судя по сегодняшним топам в разных тематиках, хорошие позиции могут занимать сайты с самой разной плотностью ключевых слов.
Комментариев нет:
Отправить комментарий