Сегодня поговорим о SEO на этапе разработке сайта (иногда его называют – базовое SEO).
Сейчас уже никого не удивишь строчкой в смете на разработку сайта, включающую работы SEO-специалиста.
Возникает вопрос: можно ли ее исключить/дополнить/заменить или проверить что на самом деле будет делать специалист на проекте, ведь иногда стоимость таких работ составляет ощутимую часть от проекта.
Если очень кратко: SEO на этапе разработки сайта — обязательная часть. В ряде случаев, особенно в низкоконкурентных нишах, этого может быть достаточно для достижения позиций в ТОП-10 при условии качественного контента. Давайте разберемся с минимальным планом, который обеспечит успешный запуск проекта в индексации поисковиков.
2. Настройка зеркала и редиректов — устранение дублирования страниц с помощью 301-редиректов для правильной индексации.
3. Составление таблицы редиректов — создание редиректов для сохранения позиций старого сайта при переносе.
4. Создание файла Robots.txt — запрет индексации дублей страниц для предотвращения каннибализации позиций.
5. Устранение дубликатов страниц — настройка canonical и метатега noindex для предотвращения дублирования.
6. Исправление внутренних ссылок 404 — удаление или корректировка нерабочих ссылок.
7. Настройка обработки ошибки 404 — корректная реакция сервера на несуществующие страницы.
8. Генерация Sitemap.xml — создание карты сайта с необходимыми к индексации страницами.
9. Закрытие от индексации повторяющихся элементов — использование тега noindex для сквозных элементов (например, меню).
10. Проверка доступности сайта для индексации — контроль всех настроек (robots.txt, мета-теги) перед запуском на боевой домен.
11. Добавление сайта в Яндекс.Вебмастер и Google Search Console — передача доступа для мониторинга индексации.
12. Добавление счетчиков посещаемости — установка и перенос кода Яндекс.Метрики и Google Analytics.
Пройдемся подробнее по каждому пункту:
Неправильно: “Аллергия”.
Правильно: “Лекарства от аллергии — купить с доставкой”.
Для корректной настройки метаинформации создается техническое задание, которое будет реализовано программистом.
Без этой настройки могут появляться дубликаты страниц, что ведет к пессимизации (снижению позиций) сайта в результатах поиска.
Например, разные варианты одного и того же URL с параметрами сортировки считаются дублями:
Такие дубли могут ухудшать ранжирование страниц, поэтому в файле Robots.txt прописываются параметры, которые нужно исключить или запретить к индексации.
Проектируется на актуальный либо ссылка полностью удаляется.
Настройка корректной обработки 404 ошибок предотвращает индексацию несуществующих страниц поисковыми системами. Это важно для предотвращения потери позиций и появления в индексе ссылок на несуществующие страницы.
Простой вариант – использование тега (в рамках первичной оптимизации).
Сложный и более действенный вариант – отключение части таких элементов из кода (реализуется обычно в полноценном пакете SEO).
Базовое SEO — это важный этап, который обеспечивает техническую готовность вашего сайта к успешной индексации и продвижению. Даже если вы не планируете активно заниматься SEO-продвижением, его базовая настройка может сыграть ключевую роль в достижении высоких позиций, особенно в низкоконкурентных нишах.
Сейчас уже никого не удивишь строчкой в смете на разработку сайта, включающую работы SEO-специалиста.
Возникает вопрос: можно ли ее исключить/дополнить/заменить или проверить что на самом деле будет делать специалист на проекте, ведь иногда стоимость таких работ составляет ощутимую часть от проекта.
Если очень кратко: SEO на этапе разработки сайта — обязательная часть. В ряде случаев, особенно в низкоконкурентных нишах, этого может быть достаточно для достижения позиций в ТОП-10 при условии качественного контента. Давайте разберемся с минимальным планом, который обеспечит успешный запуск проекта в индексации поисковиков.
Какие работы в себя должно включать базовое SEO на этапе разработки сайта?
1. Формирование SEO-заголовков и метаинформации (Title, H1, description) — автоматизация создания корректных метатегов для каждой страницы.2. Настройка зеркала и редиректов — устранение дублирования страниц с помощью 301-редиректов для правильной индексации.
3. Составление таблицы редиректов — создание редиректов для сохранения позиций старого сайта при переносе.
4. Создание файла Robots.txt — запрет индексации дублей страниц для предотвращения каннибализации позиций.
5. Устранение дубликатов страниц — настройка canonical и метатега noindex для предотвращения дублирования.
6. Исправление внутренних ссылок 404 — удаление или корректировка нерабочих ссылок.
7. Настройка обработки ошибки 404 — корректная реакция сервера на несуществующие страницы.
8. Генерация Sitemap.xml — создание карты сайта с необходимыми к индексации страницами.
9. Закрытие от индексации повторяющихся элементов — использование тега noindex для сквозных элементов (например, меню).
10. Проверка доступности сайта для индексации — контроль всех настроек (robots.txt, мета-теги) перед запуском на боевой домен.
11. Добавление сайта в Яндекс.Вебмастер и Google Search Console — передача доступа для мониторинга индексации.
12. Добавление счетчиков посещаемости — установка и перенос кода Яндекс.Метрики и Google Analytics.
Пройдемся подробнее по каждому пункту:
Автоматическое формирование SEO-заголовков и метаинформации страниц (Title, H1, description)
Метаинформация каждой страницы — это важные маркеры, указывающие на то, каким интентам она соответствует. Например, если у вас на сайте есть страница с товарами против аллергии, заголовки и мета-теги не должны просто содержать слово “аллергия”.Неправильно: “Аллергия”.
Правильно: “Лекарства от аллергии — купить с доставкой”.
Для корректной настройки метаинформации создается техническое задание, которое будет реализовано программистом.
Настройка главного зеркала и склейки адресов со слэшем и без
Для поисковых систем (ПС) разные варианты URL с www и без, со слэшем на конце и без него — это разные страницы. Чтобы избежать дублирования, используется настройка 301-редиректов.Без этой настройки могут появляться дубликаты страниц, что ведет к пессимизации (снижению позиций) сайта в результатах поиска.
Составление таблицы 301-редиректов (перенаправлений)
Если у вас уже есть старый сайт с накопленным трафиком и позициями, нужно их сохранить. Для этого программисту передается таблица с соответствиями старых и новых URL-адресов (если они меняются). Это помогает избежать потерь трафика при переходе на новый сайт.Формирование файла Robots.txt
Этот файл определяет, какие страницы сайта не должны индексироваться поисковыми системами, чтобы избежать появления дублей.Например, разные варианты одного и того же URL с параметрами сортировки считаются дублями:
Для просмотра ссылки необходимо нажать
Вход или Регистрация
Для просмотра ссылки необходимо нажать
Вход или Регистрация
Такие дубли могут ухудшать ранжирование страниц, поэтому в файле Robots.txt прописываются параметры, которые нужно исключить или запретить к индексации.
Устранение дубликатов страниц
Дубликаты страниц снижают уникальность контента и могут ухудшать позиции сайта в поисковой выдаче. Для борьбы с дублями используются файлы Robots.txt, канонические теги (canonical), мета-теги noindex, а также удаление неактуальных страниц.Устранение нерабочих внутренних ссылок (404 ошибки)
404 ошибка означает, что страница, на которую ведет ссылка, больше не существует. При обнаружении таких ссылок они корректируются или удаляются, чтобы улучшить пользовательский опыт и избежать ошибок в навигации по сайту.Проектируется на актуальный либо ссылка полностью удаляется.
Настройка обработки 404 ошибки
На сайте настраивается 404 код ответа сервера для страниц которых фактически не существует. Пример:Настройка корректной обработки 404 ошибок предотвращает индексацию несуществующих страниц поисковыми системами. Это важно для предотвращения потери позиций и появления в индексе ссылок на несуществующие страницы.
Генерация файла карты сайта Sitemap.xml
Файл Sitemap.xml содержит список всех страниц сайта, которые должны быть проиндексированы поисковыми системами. При его создании важно исключить из него неактуальные страницы, такие как страницы регистрации, авторизации или тестовые страницы.Закрытие от индексации повторяющихся участков страниц
На сайте часто встречаются повторяющиеся элементы, такие как меню, которые могут искажать релевантность страниц. Для их корректной обработки используется теги или отключение части сквозных элементов из кода.Простой вариант – использование тега (в рамках первичной оптимизации).
Сложный и более действенный вариант – отключение части таких элементов из кода (реализуется обычно в полноценном пакете SEO).
Проверка доступности сайта для индексации поисковыми системами
SEO-специалист проверяет, доступен ли сайт для индексации поисковыми системами, и выявляет любые ограничения (в robots.txt, мета-тегах robots и canonical). После этого составляется ТЗ на устранение всех проблем.Добавление сайта в Яндекс.Вебмастер и Google Search Console
После завершения всех работ сайт добавляется в панели вебмастеров Яндекса и Google, что позволяет отслеживать его состояние и мониторить потенциальные проблемы с индексацией.Создание / Перенос счетчиков посещаемости (Яндекс.Метрика, Гугл.Аналитикс)
На сайт устанавливаются счетчики Яндекс.Метрики и Google.Analytics, либо переносятся их коды с предыдущего сайта. Эти инструменты позволяют отслеживать трафик и оценивать поведение пользователей на сайтеБазовое SEO — это важный этап, который обеспечивает техническую готовность вашего сайта к успешной индексации и продвижению. Даже если вы не планируете активно заниматься SEO-продвижением, его базовая настройка может сыграть ключевую роль в достижении высоких позиций, особенно в низкоконкурентных нишах.
Для просмотра ссылки необходимо нажать
Вход или Регистрация