Архитектура сайта SEO контент, ключевые слова и ссылки СЕО
Архитектура сайта SEO ошибок не терпит. Промахи в этом направлении стоят довольно дорого при оптимизации ресурса. Поэтому мы и поговорим о ключевых промахах, которые в состоянии «убить» все успехи в направлении СЕО. (см. SEO Что это такое?)
Бытует мнение, что винтики и болтики SEO можно разобрать на три первичные компонента: готовность к проверке, контент и обратные линки. Эти три вещи составляют основную линию успеха в процессе оптимизации любого сайта. Добавьте к этому еще обратные линки, мета-теги и ключевые слова и получите супер условия для роста в поисковом рейтинге. Но первые три – основа пирамиды СЕО, и именно они взращивают доверие к сайту и превращают его в полноценный, популярный и востребованный ресурс.
Поисковые роботы, к сожалению, не отличаются блестящим интеллектом. Если робот не может найти контент (из-за поломанного линка, например), то он не запрограммирован на то, чтобы остановить свои действия и отправиться на поиски той самой великолепной статьи, которую вы написали. Он просто отбросит «битую» ссылку, пойдет к следующему линку и будет продолжать проверять, проверять и проверять. Он именно этим и занимается. Без устали и перерывов.
По здравому смыслу – если робот не может получить доступ к контенту, сайт не будет проиндексирован, и его никогда не найдут в поисковых системах. Вот почему открытость для проверок роботами фундаментальный элемент любого СЕО и успеха в построении пирамиды СЕО.
Самыми распространенными проблемами с открытостью для проверок являются следующие пять:
1) Вы неправильно сделали документ robots.txt
На этом пункте хотелось бы все-таки остановиться. Большинство системных администраторов и разработчиков сайтов не любят тему этого файла, поскольку считают работу с ним высокоприоритетной и вообще не нуждающейся в напоминании. Случаев ошибки именно в robots.txt постоянны и приводит не к самым лучшим результатам.
Поэтому нужно все равно бить в барабаны: будьте внимательны и осторожны со своими файлами robots.txt. его нужно обязательно проверять в первую очередь, когда появляется подозрение, что с доступностью к проверкам что-то не так.
2) Слишком много вариантов/параметров в ваших URL.
Поисковые машины потихоньку набираются опыта в проверке длинных, некрасивыхлинков, но они все равно не любят их. Вот как эту ситуацию объясняет вебмастер Google: «Если вы решили использовать динамические страницы (к примеру, адрес страницы содержит символ «?»), ожидайте, что не каждый поисковый робот получает доступ и проверяет динамичные страницы, также как и статичные. Это позволяет удерживать параметры небольшими, а их число маленьким.
Существует еще и бонус – на короткий URL часто кликают.
3) ID сессии в вашем адресе
Поисковые роботы не любят видеть всевозможные ID сессий в вашем URL. Если вы используйте этот параметр в архитектуре сайта, то удостоверьтесь, что он хранится в кукизах (которые роботы не трогают) вместо включения их как части вашего URL. Сессионные ID могут привести к тому, что единичная страница контента будет видна на многочисленных URL и поэтому поисковые роботы не сильно жалуют такие технические моменты.
4) Ваш сайт страдает от чрезмерно большого кода
Раздутие кода – Проблема с большой буквы. Роботы в целом хороши в разделенииконтента и кода, но это не означает, что вы должны его усложнять, сделав настолько много кода, что наполнение ресурса будет сложно найти. Некоторые этим грешат.
5) Навигация и внутренние линки плохо прописаны.
Дизайнеры и разработчики могут быть очень изобретательными во время создания веб-сайта. Но иногда креатив идет в ущерб юзабилити. Более того, некоторые «выкрутасы» просто блокируют работу поискового робота. Поэтому изысков должно быть в мру и они не должны мешать работе поискового робота.
Ваш сайт страдает от чрезмерно большого кода
ОтветитьУдалить