Главная / Распространенные ошибки оптимизации


Статьи
БЕСПЛАТНАЯ КОНСУЛЬТАЦИЯ СПЕЦИАЛИСТА
Loading…
  • Руководство по написанию эффективной статьи
  • Продвижение по НЧ-запросам
  • Мобильные версии сайтов и их продвижение
  • Линкбейтинг
  • Юзабилити интернет-магазина
  • Основы комментирования
  • Оптимизация содержимого тегов title, description, keywords
  • Способы уникализации контента на сайте
  • Борьба с дублями страниц
  • Дизайн и SEO
  • Оптимизация поведенческих факторов ранжирования
  • Покупка домена
  • Монетизация сайта
  • Написание пресс-релизов
  • Неправильная оптимизация и неправильный ТОП
  • Продвижение сайта
  • Защита сервера от DDoS-атак
  • Горячая линия бесплатной юридической консультации
  • Благотворительность
  •  

    Распространенные ошибки оптимизации

     
    Часто при поисковом продвижении средства расходуются впустую из-за ошибок во внутренней оптимизации сайта. В таких случаях даже многократное увеличение внешней ссылочной массы не помогает в борьбе с конкурентами. Ошибки могут достаться в качестве «наследства» от предыдущего оптимизатора или возникают по причине недостаточных знаний или внимания. В этом выпуске мы постараемся рассказать о наиболее распространенных ошибках и о том, как их найти и исправить. Практика SEO-аудитов показывает, что недоработки во внутренней оптимизации – явление далеко не редкое, и ими грешат многие сайты.

    Дубли страниц
    Пожалуй, в рейтинге ошибок внутренней оптимизации на первом месте находятся так называемые дубли. Это страницы с одинаковым содержанием, но разными URL. Обычный пользователь не обратит на это внимания, а вот поисковые системы к таким страницам-близнецам относятся с придирками – они воспринимают их как разные страницы, потому что у них разные адреса. Отсюда вытекает, что контент на них перестает быть уникальным. Еще один негативный эффект дублей – рассредоточение ссылочного веса. Также поисковые системы могут склеить страницы так, что за бортом останется целевая (основная продвигаемая), а в индекс попадет копия, которая будет далеко за пределами ТОПа.
    Алгоритм поиска и устранения дублированных страниц следующий:
    1. Сначала необходимо сравнить общее количество страниц на сайте в индексе двух поисковых систем – «Яндекса» и Google. Если цифры будут значительно отличаться, то это признак того, что сайт неправильно проиндексирован, и скорее всего есть проблемы с дублями (хотя это также может быть свидетельством наложения на сайт фильтра АГС).
    2. Чтобы увидеть дубли, нужно ввести длинный фрагмент текста со страницы в поисковую строку, а затем посмотреть на результаты. Если их будет несколько, то можно сделать логичный вывод – присутствуют страницы-копии.
    3. Далее надо убрать страницы-копии с сайта. Так как большинство дублей возникает по причине неправильной настройки CMS, и они представляют собой четкие копии, то целесообразнее всего использовать 301-й редирект.
    Служебные файлы
    Многие новички при оптимизации сайта забывают о работе со служебными файлами, что часто приводит к проблемам в продвижении. Прежде всего необходимо правильно настроить файл robots.txt, который находится в корневом каталоге сайта. К слову, его там может не быть вовсе, если о его составлении не позаботился создатель сайта.

    Итак, для чего нужен robots.txt? Этот файл предназначен для поисковых роботов, в нем содержатся инструкции по индексации. С его помощью можно указать те страницы, которые не должны попасть в индекс поисковых систем. Очевидно, что ни в коем случае нельзя закрывать доступ для целевых страниц. Однако необходимо закрыть доступ для роботов к страницам, которых не должно быть в индексе поисковиков – например, результатов поиска.

    Управление доступом в файле robots.txt осуществляется с помощью специальных директив.

    Еще один файл, который играет далеко не последнюю роль при индексации сайта, – sitemap.xml. Он представляет собой карту сайта, где перечислены все страницы. Его наличие не является обязательным, но все же желательным, особенно если сайт имеет сложную структуру и имеет много страниц. Именно sitemap.xml используют поисковые роботы, чтобы ничего не упустить при индексации. Редко, но бывают ситуации, когда даже при правильных настройках robots.txt за пределами базы данных поисковика оказывается часть страниц – в таких случаях и помогает создание карты сайта.

    Медленная загрузка
    Относительно недавно одним из факторов ранжирования стала скорость загрузки страниц. Это логично, так как не место в ТОПе тем сайтам, которые еле-еле открываются, и пользователям приходится сидеть перед монитором в ожидании.

    Чтобы найти причины медленной работы сайта, необходимо воспользоваться одним из специализированных инструментов. Наиболее популярным является сервис Google PageSpeed. Он позволяет отыскать «узкие» места на страницах и дает рекомендации по ускорению загрузки. Говорить о конкретных недоработках сложно, так как они в каждом случае индивидуальны, но чаще всего причиной медленной работы страниц является использование сложных скриптов и разного рода ошибки в коде. Поэтому еще на стадии создания новых страниц обязательно учитывайте эти факторы.

    Грамотная архитектура сайта подразумевает организацию внутренней контекстной перелинковки. Она позволяет не только сделать сайт удобнее для пользователей, облегчая навигацию по нему, но и сосредоточить ссылочный вес на целевых страницах.

    Нельзя сказать, что без перелинковки невозможно выйти в ТОП, но ее отсутствие может значительно затруднять поисковое продвижение.

    При организации внутренней перелинковки необходимо учитывать и концентрацию веса на нужных страницах, и пользовательские факторы. Желательно при оформлении ссылок на другие страницы использовать в анкорах ключевые слова и следить за их уникальностью. Схема перелинковки напрямую зависит от структуры сайта, но не стоит создавать «кольца» из ссылок и стараться сделать максимальное количество связей. Хорошо организованная перелинковка, когда не остается «изолированных» страниц, дает еще один плюс – многократно повышается вероятность того, что ни одна страница не останется без внимания поисковых роботов.

    Незначительный на первый взгляд недочет может очень дорого обойтись. Богатая практика оптимизаторов показывает, что часто из-за незамеченных ошибок растет ссылочный бюджет и деньги по сути тратят деньги впустую. Не допуская таких оплошностей, можно существенно сэкономить на входящей ссылочной массе и быстрее попасть в ТОП.
     
     
    Главная | О компании | Услуги и цены | Карта сайта
     2016 © "JULI'S BEEHIVE"