Оптимизация сайта для продвижения. Для чего это необходимо?

30.12.2016

seoЭто один из важнейших этапов развития сайта. Под отптимизацией понимается  правильное формирование содержимого сайта, грамотная перелинковка статей, верное использование тегов, знакомство поисковых систем с сайтом, его семантическое ядро и, что не мало важно – юзабилити и информативность, то есть возбуждение у посетителя Вашего сайта желания вернуться еще раз.
Конечно первичным этапом является проведение внутреннего аудита. И начать конечно следует с удобством для пользователя ( usability).

Ниже приведены 12 пунктов, которые оттолкнут посетителя ресурса:

1.   Слишком мелкие элементы навигации либо ее отсутствие.
2.   Пункты меню не содержащие информацию, а также отсутствие страницы ошибки 404.
3.   Горизонтальная прокрутка контента.
4.   Долгая загрузка страниц.
5.   Слишком много текста, если только это не книга.
6.   Отсутствие графики.
7.   Мелкий шрифт в тексте.
8.   Не актуальные новости.
9.   Использование flash-элементов.
10. Навязчивая реклама.
11. Грамматические и лексические ошибки.
12. Огромные элементы страниц.

Минимизация, а еще лучше, отсутствие таких ошибок, положительно влияет на привлекательность ресурса.
Это первый этап. Если в этом плане у вас все отлажено, переходим к следующему:

Знакомим сайт с поисковыми системами.
Первое чему следует уделить внимание, – это файл robots.txt.
Он содержит директивы для поисковых роботов, которые разрешают или запрещают индексацию страциц. Именно им руководствуются поисковые боты обходя ваш сайт и выбирая страницы для анализа. Так же он должен содержать указание основного зеркала сайта, ссылку на карту ресурса и может быть классифицирован для различных поисковых систем. Ниже пример.

User-agent: *
Disallow: /wordpress/soft
Disallow: /admin
Disallow: /includes
Disallow: /content/plugins
Disallow: /content/cache
User-agent: Yandex
Disallow: /wordpress/soft
Disallow: /admin
Disallow: /includes
Disallow: /content/plugins
Disallow: /content/cache
Host: itearn.ru
Sitemap: https://itearn.ru/sitemap.xml

Не следует разрешать им обход всего содержимого сайта, это не увеличит авторитет ресурса и в некоторых случаях может “сыграть” в минус.
Боевым напарником robots.txt является карта сайта. Как правило – это XML-файл, в который записываются ссылки на добавляемые вами новости, статьи и другие публикации на сайте.  Робот Яндекса видит его примерно так:

https://itearn.ru/sitemap.xml
   https://itearn.ru/sitemap-posttype-post.xml
   https://itearn.ru/sitemap-posttype-page.xml
   https://itearn.ru/sitemap-taxonomy-category.xml
   https://itearn.ru/sitemap-home.xml
   https://itearn.ru/sitemap-taxonomy-post_tag.xm

RSS. Можно сказать, что это союзник robots.txt и  sitemap.xml. Подключение RSS-ленты и публикация ее в каталогах позволит тем же поисковым роботам, при переобходе страниц каталогов, считывать информацию о вашем сайте и так же помогает индексировать его в поисковых системах. В ленту записывается, естественно, не  все, а только краткий анонс со ссылкой на страницу публикации.
Немало важным для поисковых систем является использование meta-тегов, в которых содержится краткое описание сайта и используемые ключевые слова. Для моего блога он выглядит так:

<meta name="keywords" content="ajax,cs,dlp,vpn,php,active directory,kerio,jquery примеры,AD из delphi,1.6,counter strike,crack,serial,бесплатно"/>
<meta name="description" content="Записки it-шника. Визуализация и безопасность,доступ к AD, delphi,php,js,организация приватной сети,заработок,ajax,synapse"/>
<meta name="revisit" content="5 days"/>
>meta name="revisit-after" content="5 days"/>

И по этим ключевым словам сайт выдается в поиске Google, Yandex и других систем.  Старайтесь использовать эти ключевые слова в своих текстах, а так же дополнять страницы текстовыми метками. В общем обеспечте релевантность ваших страниц.
Обратите внимание на две последние строки. Существует мнение что поисковые роботы игнорируют эти теги, но насколько оно верно – неизвестно.
Теперь о ссылочной массе.
Роботы анализируют наличие ссылок на ваших страницах, и если они не закрыты от индексации – индексирует сайты на которые они ведут. Если это перелинковка ваших страниц – наращивается внутренняя ссылочная масса, не передавая вес, но если ссылки ведут на другие ресурсы, то ваш сайт “теряет в весе”, добавляя авторитета сайту-получателю трафика.
Google, Yandex и другие поисковые машины с различной частотой могут выдавать ваш сайт в поиске, поскольку воспринимают его по различным алгоритмам. Google безусловно быстрее других индексирует новые сайты, особенно если вы делаете проверку вашего сайта
на различных web-площадках анализа сайта, но появление не прямой ссылки не повышает авторитета вашего блога, к примеру.
Все поисковые машины ориентируются на цитируемость вашего ресурса на других сайтах и уникальность размещенного контента.
Яндекс любит проверять качество контента и если посчитает его некачественным – уберет из индекса, гугл не особо обращает на это внимание. Яндекс не любит сайты-дорвеи, сайты состоящие только из ключевых слов.
Поисковые системы следят за возрастом сайта и никогда не будут доверять недавно рожденным порталам. К более старым сайтам с проверенной репутацией поисковик будет относиться лояльнее.
Итак, сформируем правила поисковой оптимизации:

1.   Правильно формируйте robots.txt.
2.   Используйте sitemap.xml.
3.   Используйте meta-теги.
4.   Публикуйтесь в RSS.
5.   Используйте ключевые слова.
6.   Применяйте естественное наращивание ссылочной массы.
7.   Никаких дорвеев.
8.   Возраст сайта.
9.   Увеличение цитируемости вашего ресурса.
10. Проведение анализа сайта.

Удачного продвижения!

Категория: SEO
Теги: , , ,

Оставить комментарий