БАЗА подписчиков за 1 месяц! (Секретная технология)minimazer

Базовая SEO оптимизация блога


базовая seo оптимизация

Всем привет, дорогие друзья, сегодня я хочу пообщаться с новичками, которые только что создали блог, возможно даже по моему курсу. Так вот, как только вы создали блог — у вас есть проблема в базовой seo оптимизации.

Какие они — базовые шаги к поисковой оптимизации? О них и поговорим.

Сразу хочется сказать, что CMS WordPress в этом плане достаточно дружелюбная и гибкая система, которую, конечно, нужно настроить руками. Без вашего участия ничего не получится.

Я сейчас не буду рассказывать о закупке ссылок, оптимизации текста и даже о перелинковке.

Сегодня только азы, только база!

Сегодня поговорим о глубоком базовом понимании первичной оптимизации блога!

Почему я решил написать о базе? Просто когда я начинал сам — я много чего не знал и не понимал. Потом, со временем, я начал что-то понимать и приходилось всё переделывать. А представьте, вы ведете блог около года, у вас уже сотни статей написаны, а тут бац — приходит понимание того что всё что вы делали до этого — не правильно!

Иногда это угнетает, скажу я вам откровенно. Чтобы с вами этого не произошло — я решил написать данный пост.

Итак, базовая оптимизация блога — это правильные настройки всех возможных вариантов, которые только можно придумать.

Оптимизация ссылок

По умолчанию (Настройки → Постоянные ссылки) в вордпресе можно дать постам адреса (урлы), например, в виде ?p=123.

Не слишком информативная запись, согласны?

базовая seo оптимизация

Я не люблю насиловать свои нежные глаза такими урлами. Ведь самый частый посетитель своего блога — это я сам!

И мне не приятно на такие урлы смотреть. Я, например, предпочитаю такой вид урлов:

предпочитаемый урл

или вот такой:

или такой вид урла

НУ или вот такой:

базовая оптимизация урла

На всякий случай я расскажу о списке этих тегов, вот такие %category% . Вот какие теги можно использовать при установке формата урлов:

%year% — будет показан год (4 цифры)
%monthnum% — номер месяца
%day% — день публикации(Я часто вижу на новостных порталах ссылки вида http://site.ru/2012/12/02/urlname.html )
%hour% — час публикации
%minute% — минуты
%second% — секунды
%post_id% — ID самого поста
%postname% — имя поста (я уже приводил пример с ним)
%category% — имя категории
%author% — имя автора

Возможно, на момент прочтения этой статьи, что-то изменилось в структуре вордпресса, поэтому сравните эту информацию с первоисточником.

Кирилические урлы

По-умолчанию, в вордпресе урлы написаны кирилицей. Некоторые это даже нравится, особенно тем, у кого сам домен — кирилический.

Читайте также:  А ты уже справился с дублями страниц replytocom?

В принципе когда у вас сайт блогпроденьги.рф или аналогичный — вам вполне подойдет этот вид написания урлов.

Но как-то не очень смотрится http://in4wp.ru/название-статьи.html — согласитесь? Часть на русском, часть на латинице — фу!

Да и поисковики понимают кирилицу еще не так хорошо, как нам этого бы хотелось.

Чтобы этого избежать я пользуюсь плагином rustolat, некоторые используют его аналог cyrtolat.

Оба этих плагина переводят вашу кирилицу в латинское написание таким образом, чтобы поисковики понимали вас правильно.

правильное понимание поисковиками

К сожалению, на сколько я знаю, госты транслитерации в Яндексе и Гугле — разные. Это значит что правильное кирилическое написание в одном поисковике не обязательно будет правильным в другом.

Основное зеркало сайта

Проблем хоть и старая, но почему-то с этим вопросом еще есть проблемы у некоторых. Идём в Настройки → Общие и выбираем, какой именно вариант нам нужен — с www или без. Я выбрал без www.

настройка зеркала блога

После сохранения изменений — обязательно проверьте работоспособность обоих вариантов. Введите в адресную строчку вариант как с www так и без него. Если всё верно — должно произойти перенаправление на нужный вариант написания.

Если нет — значит либо хостинг тупой и химичит что-то с настройками сервера, значит пора сменить хостинг (чтобы этого не происходило — используем adminvps), либо чудит какой-то плагин, от которого придется отказаться.

Канонические урлы

Аж с 2009 года мы используем канонические урлы, потому что они поддерживаются всеми поисковиками. Лично я с ними познакомился несколько позже. Примерно с 2012 года.

Если кто не знает что это такое, объясняю — канонические ссылки — это маячки, которые рассказывают поисковикам, какая из страницам с одинаковым контентом — главная.

Читайте также:  Что будет с профессиональным SEO ?

Вот вам пример из жизни.

http://site.ru/page/ (обычное написание)
http://www.site.ru/page/ (с www)
http://www.site.ru/?p=1234 (c www + в стандартном написании урла)

Как видите урлы — разные, а для поисковика — это три разные страницы с одинаковым контентом. Значит — это дубли, которые нужно склеить.

Так вот, чтобы показать поисковику, какая страница целевая — мы прописываем канонические ссылки.

rel canonical

Конечно не руками мы это всё прописываем, нам в этом деле помогает один из SEO плагином. Или это All in One SEO Pack или Platinum SEO Pack.

Дубли… Дубли…

Опять разговор про дубли заводим. Кажется уже, ну сколько ж можно-то.

На самом деле мне уже самому надоела эта тему. Уже так она избита.

Главная проблема дубля это даже не наказание со стороны поисковиков, а тот факт, что из всех дублей в поиск попадает лишь один. И далеко не факт что это ваша целевая страница, на которую вы или ссылку в webartex прикупили, или пару упоминаний в sociate заказали.

Еще один важный момент про дубли контента — это вывод анонса статей. Это уже известный факт!

Выводить контент нужно функцией the_excerpt(); вместо стандартного the_content();.

the_excerpt(); — это в простонародии «Цитата» и заполняется чуть ниже чем вы пишете текст статьи.

цитата вместо the content

Таким способом вы убиваете сразу двух зайцев:

1. Пользователь, который ищет вашу определенную статью по какой-то фразе — может попасть не на саму статью, а на страницу со списком анонсов статей.

2. Выводя уникальный контент в анонс — вы сможете значительно снизить содержание дублированного контента в принципе.

Robots.txt

Ну, эта тема достойна отдельной статьи, и она у меня на блоге обязательно будет со временем. Поэтому подпишись, чтобы не пропустить.

А сейчас просто по азам пройдусь.

Читайте также:  А зачем тебе кросспостинг в социальные сети?

Файд Robots.txt — это файл с рекомендациями для поисковых роботов. Эти рекомендации создаются для того чтобы роботы быстрее обходили целевые страницы вашего сайта и быстрее индексированили их.

Но это не значит что роботы не будут учитывать поисковики. Важно понимать, что Robots — это не законы, а просто «рекомендации».

По-умолчанию, когда вы только что создали сайт или блог — такого файла у вас нет. Его нужно создавать вручную.

А что в этот текстовый файл писать — читайте в следующих статьях, подписывайтесь, чтобы не пропустить эту важную новость.

Sitemap.xml

Ну это вообще классика жанра. Этот файл нужен для ускорения индексации. По-умолчанию, как и Robots — отсутствует.

Как его создать — есть несколько вариантов:

1. Использовать плагин, я использую Google XML Sitemaps — вы можете использовать любой другой, их куча.

2. Воспользоваться услугами онлайн сервисов. Да, и такие существуют. Если вам лень гуглить — вот вам замечательный сервис.

Сообщи пингаторам!

Итак, это последний вопрос, который я решил описать.

Это пингаторы.

В админке есть пункт “Параметры – Написание”.

пинг сервисы для индексации

Заходим на эту страницу и в саааамом низу мы видим поле “Сервисы обновления”. Эти сервисы оповещают поисковых роботов о том что у вас появилась новая статья. Сюда и вставляем весь наш список пингаторов.

Вот и всё.

В статье про индексацию сайта я описывал полный список этих сервисов, которые помогут вам побыстрее проиндексировать новые статьи блога.

Думаю, всех этих небольших моментов вполне достаточно чтобы называться базовой SEO оптимизацией блога. Если вы думаете что можно еще отнести какие-то моменты, которые я пропустил — смело пишите в комментариях, дополним!

Пользуясь случаем, хочу объявить о том, что у меня есть БЕСПЛАТНЫЙ курс по созданию блога с нуля — ПОЛУЧИТЬ КУРС. Помогаю новичкам в развитии.

Хочу также напомнить новичкам о том, что можно принять участие в интересном конкурсе с интересными призами.

На сим, откланяюсь, всем до завтра.

С уважением, Тумилович Денис.

Понравилась статья? Расскажи друзьям:


Мой подарок подписчикам

Подписывайтесь на новости блога и получите подарок - книгу "Как заработать 1000$ в первый месяц". В ней я рассказал свои наблюдения исходя из своего опыта. Я выделил всего ТРИ метода для заработка.

Добавить комментарий

Такой e-mail уже зарегистрирован. Воспользуйтесь формой входа или введите другой.

Вы ввели некорректные логин или пароль

Извините, для комментирования необходимо войти.

11 комментариев

по хронологии
по рейтингу сначала новые по хронологии

Спасибо, всё очень доступно и хорошо разложено по полочкам. Скоро хочу мигрировать на wordpress, так что ваша статья мне очень пригодилась. Покопаюсь у вас еще:)

Отличная подборка материалов по базовой СЕО-оптимизации. В свое время пришлось идти к этому всему самостоятельно. А вот про пингаторы до сих пор ничего не знал - было интересно).

С удовольствием прочитал рекомендации, у меня аналогичные были проблемы. Но это неизбежно, это "проблемы роста".
Вроде начинаешь новый проект с учетом прошлых ошибок, но узнаешь благодаря таким информативным статьям новые "фишки" и уже нужно изменять готовый продукт.

Денис, а вот еще вопрос про пингаторы. Действительно ли надо их такое большое количество? В разных обучающих курсах разъясняют по-разному. Я лично встретил два противоположных мнения - одно, что их должно быть как можно больше (быстрее индексируется статья) и второе - что достаточно пингов от яндекса и гугла, а все остальные, это баловство, т.к. статьи индексируеются все равно именно Яндексом и Гуглом. Твое мнение?

Автор

ну, про негативную реакцию за пингаторы никто не говорит до сих пор. А значит - лучше посавить, потому что все-таки есть мнение положительного влияния.

На счет того что хватает и стантардных роботов поисковиков не согласен. У меня одна статья не могла проиндексироваться почти год. По иронии это статья про индексацию статей :) :)

Понял, спасибо! А про статью порадовал :))) , оказывается и такое бывает...

Сергей

сразу скажу насчет плагина rus to lat- не очень актуален, есть rus to lat advanced что дает и картинки перевести. Очень понравилось про пингаторы, даже не думал что такое нужно делать

Денис, спасибо за полезную информацию. Но у меня все же остались вопросы:

1) Основное зеркало сайта, какой вариант лучше? Или без разницы? Надо ли указывать ОЗ в Яндекс.Вебмастере?
2) С анонсами статей не совсем понял. Получается, что в идеале нужно для каждой статьи писать уникальный анонс? И, возможно, позже здесь же появится еще один вопрос))
3) Статья о Robots.txt планируется?

Пока это все вопросы к этой статье)

Автор

1. Зеркало - как тебе нравится такое и указывай, я без www всегда ставлю.
2. Я не пишу, просто в листинге статей у меня анонсы в noindex стоят, чтобы робот их не учитывал. А если нужно чтобы учитывал - лучше уникальные конечно, могу привести пару блогов, которые пишут уникальные анонсы :)
3. Мне казалось, этот вопрос уже черезчур избит :) хотя, ок.

По 2 пункту, поэтому и сказал, что появится еще один вопрос. Но, скорее всего, это уже когда блог создам, так как не совсем понимаю, что значит в листинге статей закрывать анонсы в noindex. Точнее даже – как это сделать. Конечно, возможно позже сам разберусь, а если не получится, то спрошу))

О, спасибо, как свой блог стартану - обязательно пройдусь именно по этим рекомендациям, статью в закладки.