Оптимизация сайта для продвижения. Для чего это необходимо?

30.12.2016 автор: deface

seoЭто один из важнейших этапов развития сайта. Под отптимизацией понимается  правильное формирование содержимого сайта, грамотная перелинковка статей, верное использование тегов, знакомство поисковых систем с сайтом, его семантическое ядро и, что не мало важно — юзабилити и информативность, то есть возбуждение у посетителя Вашего сайта желания вернуться еще раз.
Конечно первичным этапом является проведение внутреннего аудита. И начать конечно следует с удобством для пользователя ( usability).

Ниже приведены 12 пунктов, которые оттолкнут посетителя ресурса:

1.   Слишком мелкие элементы навигации либо ее отсутствие.
2.   Пункты меню не содержащие информацию, а также отсутствие страницы ошибки 404.
3.   Горизонтальная прокрутка контента.
4.   Долгая загрузка страниц.
5.   Слишком много текста, если только это не книга.
6.   Отсутствие графики.
7.   Мелкий шрифт в тексте.
8.   Не актуальные новости.
9.   Использование flash-элементов.
10. Навязчивая реклама.
11. Грамматические и лексические ошибки.
12. Огромные элементы страниц.

Минимизация, а еще лучше, отсутствие таких ошибок, положительно влияет на привлекательность ресурса.
Это первый этап. Если в этом плане у вас все отлажено, переходим к следующему:

Знакомим сайт с поисковыми системами.
Первое чему следует уделить внимание, — это файл robots.txt.
Он содержит директивы для поисковых роботов, которые разрешают или запрещают индексацию страциц. Именно им руководствуются поисковые боты обходя ваш сайт и выбирая страницы для анализа. Так же он должен содержать указание основного зеркала сайта, ссылку на карту ресурса и может быть классифицирован для различных поисковых систем. Ниже пример.

User-agent: *
Disallow: /wordpress/soft
Disallow: /admin
Disallow: /includes
Disallow: /content/plugins
Disallow: /content/cache
User-agent: Yandex
Disallow: /wordpress/soft
Disallow: /admin
Disallow: /includes
Disallow: /content/plugins
Disallow: /content/cache
Host: itearn.ru
Sitemap: http://itearn.ru/sitemap.xml

Не следует разрешать им обход всего содержимого сайта, это не увеличит авторитет ресурса и в некоторых случаях может «сыграть» в минус.
Боевым напарником robots.txt является карта сайта. Как правило — это XML-файл, в который записываются ссылки на добавляемые вами новости, статьи и другие публикации на сайте.  Робот Яндекса видит его примерно так:

http://itearn.ru/sitemap.xml
   http://itearn.ru/sitemap-posttype-post.xml
   http://itearn.ru/sitemap-posttype-page.xml
   http://itearn.ru/sitemap-taxonomy-category.xml
   http://itearn.ru/sitemap-home.xml
   http://itearn.ru/sitemap-taxonomy-post_tag.xm

RSS. Можно сказать, что это союзник robots.txt и  sitemap.xml. Подключение RSS-ленты и публикация ее в каталогах позволит тем же поисковым роботам, при переобходе страниц каталогов, считывать информацию о вашем сайте и так же помогает индексировать его в поисковых системах. В ленту записывается, естественно, не  все, а только краткий анонс со ссылкой на страницу публикации.
Немало важным для поисковых систем является использование meta-тегов, в которых содержится краткое описание сайта и используемые ключевые слова. Для моего блога он выглядит так:

<meta name="keywords" content="ajax,cs,dlp,vpn,php,active directory,kerio,jquery примеры,AD из delphi,1.6,counter strike,crack,serial,бесплатно"/>
<meta name="description" content="Записки it-шника. Визуализация и безопасность,доступ к AD, delphi,php,js,организация приватной сети,заработок,ajax,synapse"/>
<meta name="revisit" content="5 days"/>
>meta name="revisit-after" content="5 days"/>

И по этим ключевым словам сайт выдается в поиске Google, Yandex и других систем.  Старайтесь использовать эти ключевые слова в своих текстах, а так же дополнять страницы текстовыми метками. В общем обеспечте релевантность ваших страниц.
Обратите внимание на две последние строки. Существует мнение что поисковые роботы игнорируют эти теги, но насколько оно верно — неизвестно.
Теперь о ссылочной массе.
Роботы анализируют наличие ссылок на ваших страницах, и если они не закрыты от индексации — индексирует сайты на которые они ведут. Если это перелинковка ваших страниц — наращивается внутренняя ссылочная масса, не передавая вес, но если ссылки ведут на другие ресурсы, то ваш сайт «теряет в весе», добавляя авторитета сайту-получателю трафика.
Google, Yandex и другие поисковые машины с различной частотой могут выдавать ваш сайт в поиске, поскольку воспринимают его по различным алгоритмам. Google безусловно быстрее других индексирует новые сайты, особенно если вы делаете проверку вашего сайта
на различных web-площадках анализа сайта, но появление не прямой ссылки не повышает авторитета вашего блога, к примеру.
Все поисковые машины ориентируются на цитируемость вашего ресурса на других сайтах и уникальность размещенного контента.
Яндекс любит проверять качество контента и если посчитает его некачественным — уберет из индекса, гугл не особо обращает на это внимание. Яндекс не любит сайты-дорвеи, сайты состоящие только из ключевых слов.
Поисковые системы следят за возрастом сайта и никогда не будут доверять недавно рожденным порталам. К более старым сайтам с проверенной репутацией поисковик будет относиться лояльнее.
Итак, сформируем правила поисковой оптимизации:

1.   Правильно формируйте robots.txt.
2.   Используйте sitemap.xml.
3.   Используйте meta-теги.
4.   Публикуйтесь в RSS.
5.   Используйте ключевые слова.
6.   Применяйте естественное наращивание ссылочной массы.
7.   Никаких дорвеев.
8.   Возраст сайта.
9.   Увеличение цитируемости вашего ресурса.
10. Проведение анализа сайта.

Удачного продвижения!

Оставить комментарий