Поисковая оптимизация (от английского : Search Engine Optimization, SEO) является процессом улучшения видимости сайта в поисковых системах с помощью «естественных» или неоплачиваемых (также называемых «органических» или «алгоритмических») результатов, которые включают в себя оптимизацию HTML-кода, структуры и текста на сайте.

Проведение рекламных компаний для сайта и увеличение внутренних и/или внешних ссылок (backlinks) по-прежнему остаются одной из основных стратегий для SEO оптимизации. Фактически получается, что чем чаще и выше в результатах поиска окажется сайт по интересующим ключевым словам, тем больше человек его посетят. Оптимизация может включать в себя различные аспекты при настройке поиска, например, конкретную область или регион, а также поиск по изображениям, видео и новостям.

Являясь элементом маркетинговой стратегии в Интернете, поисковая оптимизация исследует, как в поисковых системах люди ищут интересующий их товар или услугу.

Кроме того, термин SEO может также относиться к людям, предлагающих услуги в данной области («поисковые оптимизаторы» или «SEO оптимизаторы» — то есть те люди, которые на практике осуществляют поисковую оптимизацию).

Poiskovaya-optimizatsiya-SEO-Kartinka

История становления поисковой оптимизации

Середина 90-х годов

Системные администраторы и создатели контента начали оптимизировать сайты для поисковых систем в середине 90-х годов ХХ века, когда первые поисковые системы начали создавать каталоги сайтов всего Интернета. Изначально все необходимое, что нужно было сделать веб-мастерам, так это разместить на разных сайтах гиперссылки на свой сайт и таким образом привлечь частое внимание к ним от поисковых роботов.

Такой процесс включал использование программ, называемых «пауки», которые поисковые системы используют для загрузки страницы из Интернета на свой отдельный поисковый сервер, в то время как вторая программа под названием индексатор, извлекает различную информацию из загруженной страницы, в том числе о ее содержании и ключевых словах. Кроме того, считывались гиперссылки, чтобы в дальнейшем их все можно было обойти и отсканировать содержание.

Владельцы сайтов начали понимать важность высоких показателей ранжированности для сайтов и их видимости в результатах поиска, и таким образом началось становление практики по SEO оптимизации. По мнению аналитика Денни Салливан, предполагается, что фраза «поисковая оптимизация» появилась в 1997 году, когда впервые термин «поисковая оптимизация» использовал Джон Аудит из компании Multimedia Group Marketing, что было зафиксировано на страницах их сайта в августе 1997 года.

Ранние алгоритмы поиска полагались на информацию, предоставляемую веб-мастерами, такие как мета-теги ключевых слов или файлы индекса, например Aliweb. Такие тэги с определенной информацией или мета-теги (meta tags) кратко описывали содержание каждой страницы, однако использование данных меток для индексации страниц оказалось не эффективным, потому что выбор ключевых слов мог отличаться от фактического содержания страницы. Неточная, неполная или противоречивая информация при индексации приводили к снижению доверия к поисковым системам.

Используя такие механизмы, большинство из которых находились в управлении веб-мастеров (как например, плотность ключевых слов), ранние поисковые системы пострадали от принудительного (манипулятивного) изменения рейтингов в результатах поиска. Поскольку успех и популярность поисковых систем определяется их способность предоставлять своим пользователям результаты, которые наиболее связаны с их запросом, поисковым системам пришлось адаптироваться к новым условиям. Таким образом, они стали создавать более сложные алгоритмы, учитывающие ряд дополнительных факторов, чтобы в дальнейшем избежать отображения противоречивых результатов.

Проект «Backrub» и создания Google

Создание PageRank

Студенты из университета Стэнфорда, Ларри Пейдж и Сергей Брин стали разработчиками проекта «Backrub», в котором поисковые системы должны полагаться на математические алгоритмы при оценке популярности страницы сайта. Принцип такого алгоритма основан на показателе ранжированности или PageRank , учитывающем количество и серьезность входящих ссылок. PageRank оценивает, насколько вероятно посещение пользователем данной страницы и сколько страниц на сайте им будет просмотрена за данное посещение. По сути это означает, что некоторые ссылки важнее, чем другие и, следовательно, имеют более высокий PageRank.

Хотя PageRank было труднее манипулировать, но веб-мастера разработали инструменты и схемы, способные влиять на поисковые системы, работающие с использованием такой технологии. Есть много сайтов, которые созданы для обмена, покупки и продажи ссылок. Кроме того, одним из методов стало создание тысяч сайтов для распространения спам ссылок.

Создание Google

Пейдж и Брин в 1998 году основали крупнейшую поисковую систему Google, которая и на данный момент привлекает все больше и больше верных поклонников и огромное число пользователей Интернета. Данные о PageRank и анализ гиперссылок позволили Google избежать различных манипуляций, влиявших на поисковые системы, например, такие как ключевые слова, промежуточные метки, название и сама структура сайта.

Начало XXI-го века

К 2004 году поисковики задействовали широкий спектр факторов для работы своих алгоритмом, чтобы уменьшить воздействие от манипулирования ссылками. В июне 2007 года в газете The New York Times писали, что Google использует более 200 различных алгоритмов. Ведущие поисковые системы, такие как Google, Bing и Yahoo! держат в секрете алгоритмы, которые они используют при ранжировании страниц сайтов в Интернете. Люди, изучающие различные подходы к SEO, стали делится своими личными наблюдениями, связанные с работой поисковых систем и таким образом начали открывать секреты их работы.

В 2005 году Google запустил настройки результатов поиска для зарегистрированных пользователей, в зависимости от истории их предыдущих поисков. В 2008 году Брюс Клей сказал, что оценка рейтинга сайтов была полностью заменена на персонализированный поиск. Он считает, что рейтинг определенного сайта потенциально будет различным для каждого пользователя. В 2007 году Google объявил о начале кампании против платных ссылок, которые влияют на PageRank. 15 июня 2009 года в Google заявили, что ими приняты меры по смягчению последствий взаимосвязи PageRank с гиперссылками, которые имеют атрибуты, препятствующие их отслеживанию (ссылки Nofollow).

В декабре 2009 года Google объявил, что он будет использовать историю поиска всех своих пользователей с целью обогащения результатов данных о поиске в реальном времени, введенный в конце 2010 года он имел цель сделать результаты поиска более актуальными.

Исторически сложилось, что администраторы сайта потратили месяцы или даже годы, пытаясь оптимизировать рейтинги своих сайтов. С ростом популярности блогов и социальных сетей ведущие поисковые системы изменили свои алгоритмы для того, чтобы оптимизировать свою работу в новых Интернет реалиях.

«Панда» и «Пингвин»

Google Panda

В феврале 2011 года Google объявил о пакете обновлений своих алгоритмов работы, названных «Панда» (Panda Google). Их целью стало снижение рейтингов сайтов низкого качества (тех, которые созданы не в интересах потребителей) и содержащих на своих страницах скопированный контент из других источников. В то же время это позволило получить большие показатели рейтинга для высококачественных сайтов с оригинальным контентом и информацией. По данным ведущей поисковой системы, такие обновления дают хорошую возможность для людей быстрее найти правильные ответы на свои вопросы. В заявление на блоге Google говорится, что изменения в алгоритмах обновления «Панда» повлияли на 11,8% всех поисков.

Google Penguin

24 апреля 2012 года Google запустил обновление «Пингвин» (Google Penguin), которое стало наказывать сайты, нарушающие правила Google для веб-мастеров и использующие незаконные методы, известные под условным название «Черное SEO ». По данным Google обновление «Пингвин» затронуло 3,1% всех запросов.

Методы поисковой оптимизации сайта

Индексация

Основные поисковые системы, такие как Google , Bing, Yahoo! и в том числе Yandex, используют программное обеспечение, известное как роботы (robots) для того, чтобы найти страницы сайтов и проиндексировать их под алгоритмические результаты поиска. Теперь не настолько важно иметь ссылки на внутренние страницы сайта, так как поисковые роботы сканируют все автоматически.

Некоторые поисковые системы предлагают платную услугу, которая гарантирует наличие объявления и ссылки на сайт в результате поиска, стоимость которой устанавливается на основе посещения сайта или платы за клик. Такие услуги обычно не гарантируют повышения ранжированности сайта в органических результатах поиска.

Роботы, которые используют поисковые системы, могут учитывать различные факторы при обходе сайта, чтобы не все страницы были выданы в результатах поиска. Они отслеживают различные параметры, такие как расстояние страницы в корневой директории сайта, что может повлиять на то, будет ли страница отсканирована или нет.

Запрет индексирования

Для предотвращения сканирования страницы сайта его администраторы могут сообщить роботу поисковой системы об ограничении доступа к определенным файлам и каталогам, расположенным в корневом каталоге домена. Кроме того, сама страница может быть особо отмечена (через теги), чтобы исключить ее из базы данных поисковых систем.

Когда поисковый робот посещает сайт с такими инструкциями на страницах, то они считываются и таким образом определяется, какие из страниц не следует сканировать. Обычно делают запрет на сканирование страницы с личной информацией или корзины в интернет-магазине, архивом блога и т.д.

В марте 2007 года Google предупреждает веб-мастеров, что те должны запретить индексирование внутренних результатов поиска, поскольку они считаются спамом.

Повышение узнаваемости

Есть много различных методов, которыми можно увеличить видимость сайта в результатах поиска. Например, внутренняя перелинковка (cross linking) к наиболее важным страницам может улучшить свою видимость. Таким образом, можно создавать контент, который включает в себя популярные ключевые фразы, потенциально увеличить трафик. Частое обновление информации на сайте может способствовать тому, что поисковые роботы будут чаще посещать сайт, тем самым увеличивая его значимость. Добавление соответствующих названий и ключевых слов в тегах страниц сайта повышает согласованность контента сайта с базами данных поисковых систем.

Основные направления работ при проведении оптимизации сайтов

При определении релевантности сайта (степени соответствия) определенному поисковому запросу берутся во внимание такие параметры, как:

  • Плотность ключевых слов (фраз): Сложные алгоритмы современных поисковых систем позволяют проводить семантический анализ текста для фильтрации потенциального спама — то есть такой ситуации, когда ключевые слова / фразы слишком часто повторяются на странице (выше определенного процента от всего текста).
  • По смыслу слов: Поиск от Google придает огромное значение общему содержанию текста и старается проиндексировать страницы семантически, т.е. по встречаемым словам определить его смысл. Большое влияние оказывают так называемые связанные слова в тексте. Например, на сайтах, рекламирующих сувениры из Лондона, лучше всего также разместить информацию об этом городе, его традициях, достопримечательностях и т.д.
  • Индекс цитирования сайта или количество и качество ресурсов, ссылающихся гиперссылкой на сайт. Многие поисковые системы не учитывают взаимные гиперссылки между сайтами, но в то же время обращают внимание на гиперссылки из тематически похожих сайтов.
  • Сведения о поведении пользователей: важный критерий при оценке качества сайта. Существуют параметры удовлетворенности клиентов от посещения сайта, которые используются в поисковых системах. Основные показатели — это время, проведенное на сайте, количество просмотренных страниц, повторное посещение сайта, грамматически и орфографически правильно составленные тексты на веб-страницах.

Оптимизация сайта включает в себя работу с различными внутренними факторами — подготовка текстов для сайта в соответствии с выбранными ключевыми словами (фразами), улучшение качества и количества текстов, оптимизация структуры сайта, его навигации, внутренних ссылок. А также влияние внешних факторов — обмен гиперссылками, регистрация в каталогах и директориях и других методов, направленных на увеличение количества и качества гиперссылок, направленных к определенному Интернет ресурсу.

Разные техники проведения SEO оптимизации сайтов

Основные подходы и техники при проведении SEO оптимизации сайта можно разделить на три основные категории. Методы, которые рекомендуют поисковые системы, называются «Белая оптимизация». Второй тип, который не рекомендуется, — это «Серая оптимизация». И те, которые находятся в прямом противоречии с правилами поисковых систем — «Черная оптимизация». Таким образом, поисковые системы пытаются уменьшить влияние веб-мастеров, которые злоупотребляют и манипулируют поисковыми рейтингами, используя запрещенные поисковыми системами методы.

  • «Белая» оптимизация: это оптимизация, направленная на высокие стабильные результаты в поисковой выдаче, которые могут оставаться таковыми длительное время, однако за исключением использования запрещенных методов рекламы и позиционирования ресурсов. Следуйте правилам крупных поисковых систем, как Google , Yandex, Yahoo и не допускайте отклонений от них. Стоит отметить, что такие правила не записывается в явном виде, а скорее являются направлениями в работе по оптимизации. В данном случае основным принципом становится создание контента для потребителей, а не методы, направленные на обман алгоритмов поисковых систем для достижения более высокой индексации.
  • «Серая» оптимизация: методы и приемы, которые не желательны для использования в поисковых системах, такие как использование линкоферм со ссылками, закупка ссылок из сайтов с высоким рейтингом.
  • «Черная» оптимизация: такой тип оптимизации используют в попытках улучшения рейтинга сайта мошенническим путем. Примерами техник черного SEO являются использование скрытого текста или текста одного с фоном цвета, а также размещение на экране скрытых элементов. Также это может быть подмена или маскировка одного текста для людей, а другого для поисковых машин или использование метода «Дорвей — Страница». Методы оптимизации сайта с помощью дорвеев являются нарушением правил поисковых систем.

Штрафом за использование методов черной оптимизации может быть снижения общего рейтинга сайта или его исключения из базы данных поисковой системы. Применение таких штрафов может происходить автоматически и быть прописано в системных алгоритмах или же вручную через просмотр сайта сотрудниками компании. Примером является удаление в феврале 2006 года из Google страницы компаний BMW Германия и Ricoh Германии в связи с использованием недобросовестных методов поисковой оптимизации. Обе компании, однако, быстро извинились и исправили свои сайты, восстановили таким образом свои позиции в Google.

Как оптимизировать сайт

Рекомендуем оптимизацию сайта осуществлять для продвижения в основных поисковых системах: Google , Яндекс , Bing и Yahoo! .

Этапы оптимизации условно разделены на внешние (за пределами сайта) и внутренние (на сайте) факторы:

Внутренняя оптимизация

Благодаря внутренней оптимизации происходит достижение более качественное ранжирование ваших ключевых слов или фраз в поисковых системах, таких как Google, Яндекс и др. Здесь важны соответствие программных кодов HTML и CSS всем установленным стандартам программирования, правильно организованная структура документов и настроенные заголовки и подзаголовки на страницах. Создание карты сайта (sitemap) способствует лучшему сканированию поисковыми роботами страниц сайта и в том числе попадать на все внутренние страницы. Особенно она полезна для «глубоких» сайтов, содержащих много страниц, категорий и подкатегорий. Большие поисковые системы предлагают инструменты для администраторов, такие как Google Webmaster Tools и Google Аналитика. Преобразование URL-ов (веб-адреса сайта) в читаемый или «дружественный» формат является еще одним шагом, направленным на улучшение внутренней оптимизации. Например, название ссылки на страницу вида www.example.com/#psj=1&q=page1 ничего не скажет пользователю, тогда как www.http://marketingxseo.com/poiskovaya-optimizatsiya/ уже может дать некую информацию о ее содержании. Использование таких адресов создает дополнительные ключевые слова для страницы, которые индексируются поисковыми системами.

Внутренние факторы:

  • Определение целевой аудитории и организация всего содержания сайта. Основа сайта определяется с учетом следующего: содержание и тематика сайта, анализ сайтов-конкурентов, статистика поисковых запросов (например, Adwords на Google).
  • Анализ конкурирующих страниц вашего сайта — их места в поисковых системах, структура и содержание.
  • Постраничный анализ.

Внешняя оптимизация

Внешняя оптимизация может быть определена как создание авторитета и репутации сайта в Интернете. Чаще всего это достигается за счет размещения ссылок на ваш сайт из других сайтов. Благодаря использованию рекламной компании можно добиться образования ссылок из сайтов с подобным содержанием. Однако здесь возникает необходимое условие для использования не запрещенных методов, а именно покупки ссылок от источников неизвестного происхождения.

Внешние факторы

  • «Правильная» регистрация в основных поисковых системах и каталогах. При регистрации в каталогах и поисковых системах «нижнего уровня» могут быть использованы автоматизированные способы размещения информации.
  • Увеличение «цитированности»: обмен ссылками между страницами с подобным содержанием, имеющими в Google высокий индекс PageRank.

Поведенческие факторы

Исследование поведенческих факторов, то есть анализа и статистики о действиях пользователя на сайте. Они включают в себя информацию о продолжительности пребывания на странице, учет ключевых слов, через которые пользователь попал на сайт и из какого источника он попал на сайт.

Мета-теги и ключевые слова

Целью мета-тегов и «ключевых слов» было описание страницы для поисковых системам. К сожалению, они были использованы «спамерами», которые ими злоупотребляли. Таким образом, на данное время информация из мета-тегов ключевых слов практически не используется. Сейчас наиболее важным является содержание страницы, а не мета-тегов. Больший «вес» слов текста определяется тегами заголовков и подзаголовков (<H1> .. <h6>, <li>, <p>, <a>). Несмотря на все это, мета-теги не полностью исключены из работы и остаются частью работ по оптимизации сайтов.

SEO и социальные сети

Постоянно растущая популярность социальных сетей, таких как Facebook , ВКонтакте, Twitter , Google+ и других дают предпосылки для их использования в качестве одного из подходов к SEO продвижению. Благодаря использованию социальных сетей появляется возможность достичь более широкой аудитории и, таким образом, потенциально увеличить вероятность посещений сайта.

Появляется такой термин, как социальный престиж, который добавляет дополнительные балы в общий рейтинг интернет ресурса.

Авторство в Google+

Система была запущена Google в 2011 году для подтверждения подлинности любой контента в Интернете. Оно основывается на связи статей и других материалов с существующей учетной записью в социальной сети Google+ . Таким образом, происходит обеспечение авторских прав на публикации любого рода. Пользователи теперь могут видеть, кто является автором материала, что должно поспособствовать более надежным и достоверным сведениям, предоставляемым в Интернете. С помощью авторской системы резко снижается возможность загрязнения сети частично или полностью скопированными материалами, полученными из третьих источников и обеспечивается создание качественного контента.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *