Поисковая оптимизация – комплексные действия, грамотное выполнение которых обеспечивает поднятие позиций сайта в результатах выдачи поисковиков по определенным запросам пользователей.
Способствует значительному увеличению целевого трафика и притока потенциальных клиентов. Решить подобные задачи можно также с помощью платной контекстной рекламы. Однако, в условиях постоянного роста цен на нее, SEO-оптимизация сайта сохраняет актуальность и остается наиболее выгодным методом продвижения.
Техническая оптимизация сайта
Рассмотрим основные моменты технической оптимизации сайта.
- Валидность кода.
Понятие происходит от слова “valid” (обоснованный, действительный, правильный).
Валидность кода – это соответствие кода интернет-стандартам и правилам языка разметки, указанным в стандарте W3C. Этот параметр влияет на место ресурса в поисковой выдаче, на его ранжирование, на лояльность юзеров и поисковиков.
- Скорость загрузки страниц сайта.
Скорость загрузки ресурса также влияет на показатель ранжирования в поисковиках. Медленные сайты реже посещаются роботами, а значит, реже индексируются и страдает место в выдаче. Гугл выпустил свой инструмент для контроля скорости – PageSpeed. С его помощью можно найти все замедляющие загрузку элементы.
- Юзабилити.
Чтобы обогнать конкурентов, не нужно делать ресурс слишком интеллектуальным и запутанным, он должен быть понятным и удобным для пользователей. В современных условиях особое значение приобретает адаптированность под мобильные устройства. Сайты, оптимизированные для мобильных устройств, занимают более выгодные позиции в поиске, пользователи в 5 раз реже покидают такие ресурсы.
- Метазаголовки и метатеги.
От метатегов title и description зависит отображение информации для пользователей и, соответственно, кликабельность веб-страниц в поиске, а также релевантность её отображения запросам. За счет этих описаний пользователь определяет, стоит ли перейти по ссылке. Поисковые системы также обращают внимание на смысл метатегов. Таким образом, содержание title и description – один из ключевых факторов, влияющих на выдачу под определенный запрос.
Кроме того, немаловажно правильно составить H1. Этот заголовок влияет на понимание содержания страниц поисковыми роботами не меньше, чем метатеги. H1 может включать те же ключи, но должен более емко, кратко и точно раскрывать содержание. В отличие от title и description, H1 можно увидеть в верхней области самой страницы, а не в выдаче поисковика.
- Вхождение ключей.
В контексте SEO важнейшим параметром текстов на сайте является наличие и количество ключевых слов, по которым их ищет пользователь. Выше ранжируется сайт, на котором искомая фраза встречается достаточное количество раз в прямом вхождении. Но нельзя употреблять ключи слишком часто, такой текст называется заспамленным.
Заспамленность текста – это отношение одинаковых ключей в тексте к его объему. Этот показатель учитывают поисковые боты при проверке контента на качество. Допустимая заспамленность текста не превышает 50-60%, иначе страница не займет место в ТОП-10 выдачи. Поисковики высоко ранжируют релевантные, уникальные, грамотные и не заспамленные тексты.
Инструменты веб-мастера яндекса и google
Seo-оптимизаторы и вебмастера отслеживают работу с помощью специализированных инструментов: Яндекс.Вебмастер и Search Console Google. Отчеты о частотности показов, данные о том, как видят сайт поисковые боты, сведения об индексации страниц, добавлении или удалении внешних упоминаний ресурса, динамика показов, CTR сниппеты – все эти сведения незаменимы в продвижении сайта.
Для получения информации о посещениях сайта, количестве кликов, статистике запросов, по которым сайт показывается в поиске, используются такие инструменты веб-мастера яндекса и google, как Google Analytics и Яндекс.Метрика. Данные сервисы также позволяют отслеживать различные целевые действия посетителя (просмотр нескольких страниц или одной конкретной страницы, нажатие кнопки, клик по ссылке, просмотр видео, заказ, оплата). Цели на странице задаются с помощью скриптов. Их потребуется отредактировать в соответствии с настройками счетчика и определенных целей.
Оформление robots.txt и sitemap.xml
Robots представляет собой txt-файл, в котором находятся параметры индексирования, предназначенные для ботов. Без его грамотной настройки снижение позиций сайта в выдаче неизбежно.
Особенности составления robots.txt для Яндекс и Гугл:
Yandex требует, чтобы robots.txt включал в себя директиву host. Её понимают только боты данного поисковика. По этой причине при создании файла нужно разделять директивы для разных поисковиков. Для Google в директиве Useragent файла robots.txt нужно указывать название ботов этого поисковика: Googlebot, Googlebot-Image, Googlebot-Mobile и т.п.
Google также установил ограничение по размеру файла robots.txt – не более 500 Кб.
Общие требования Гугл и Yandex к Sitemap:
- ответ от сервера – 200ОК;
- максимально возможное число URL – 50 тысяч;
- ссылки в sitemap и сам файл на одном и том же доменном имени;
- исключительно канонические адреса (без идентификаторов сессий и GET-запросов);
- кодировка типа UTF-8.
Требования Yandex:
- Максимально допустимый размер – 10МБ.
Требования Google:
- Максимально допустимый размер – 50МБ;
- Отсутствие ириллических URL, только цифры или латинские символы.
SEO-оптимизация сайта продолжает оставаться действительно эффективным методом продвижения. Даже сами поисковые системы помогают осуществлять ее правильно, предоставляя необходимые рекомендации и данные. Однако для того, чтобы осуществить комплексную оптимизацию и гарантированно поднять позиции своего ресурса в выдаче, рекомендуется обратиться к профессионалам.