Раскрой Интернет

  Нравится

Раскрутка сайта

Если вы наберете в любом поисковике "Раскрутка сайта", вы увидите массу статей "ни о чем", суть которых сводится, как я уже писал, к следующему: "Доверьте это дело нам и мы все сделаем". При этом вначале вы прочитаете массу слов про SEO, всякие НЧ и ВЧ-запросы. "Для чего такие сложности? Проще заплатить профессионалам.", - можете сказать вы.

Давайте разберемся.

Для начала, SEO - Search Engine Optimization, то есть, поисковая оптимизация, она же раскрутка сайта, она же продвижение сайта. В соответствующих кругах означает механизм накрутки позиции сайта в поисковых системах за счет несовершенства их алгоритмов.

Другими словами, вам предлагается, используя ряд "дыр" в алгоритмах поисковых систем, каким-то образом вывести ваш сайт на первые страницы поисковой выдачи, то есть, чтобы ваш сайт был на первых страницах результатов поиска.

Как это сделать самостоятельно, возможно ли это? И да, и нет. Как правило, поисковые системы имеют свой внутренний критерий ранжирования сайтов. Если вы наберете в поиске любую фразу, сначала будут одни сайты, затем другие. Именно этот порядок и определяется теми самыми критериями. Именно поэтому сайты выводятся так, а не наоборот. Упрощенно, на первых позициях будут наиболее "авторитетные" сайты, к которым относятся, в первую очередь те, к которым происходит наибольшее число обращений, то есть, кликов по ссылкам в поисковой выдаче. Рецепт прост - нужно находить сайт в выдаче и переходить на него!

Но не стоит обольщаться. Вы не одни. Чем больше сайтов посвящается сходной тематике, тем среди большего числа страниц посетитель (в данном случае поискового сервера) должен найти ваш сайт. Это называется высоко- и низкочастотные запросы, насколько часто в поиске ищут ту или иную информацию. Понятно, чем более популярна информация, тем чаще ее ищут, и тем, соответственно, больше страниц выдает поисковик. Тупое ручное или даже автоматизированное "кликанье" по ссылкам может поднять сайт на некоторое время, а потом он снова утонет в массе аналогичных сайтов.

Что же делать? Не останавливаться. Писать уникальный контент, чтобы запросы были как можно менее частотными. Постепенно поисковик увидит, что на ваш сайт идет поток посетителей и будет поднимать его и в более высокочастотных запросах.

Все? Увы, да. Вам же не нужен сиюминутный трафик, за который вы же сами и платите?

Но все же что-то сделать можно и нужно.

Читаем дальше в любом поисковике рекомендации по продвижению сайтов.

Внутренняя перелинковка. Это что за зверь? Это связывание различных страниц вашего сайта перекрестными ссылками. Написав статью, вы делаете в ней ссылки на другие статьи, уже имеющиеся на сайте. Добавьте, не поленитесь, в старых статьях ссылки на новую. Но не переусердствуйте, ссылки должны быть естественными, а не ради количества.

Поисковая оптимизация, сделать статью более ревалентной высокочастотным запросам. По сути, замена некоторых выражений на синонимы, слова, которые чаще встречаются в поисковых фразах. Толк, конечно, есть, но не забывайте, что текст должен быть ориентирован на человека, а не робота. Имеет смысл использовать на каждой странице иерархию заголовков H1, H2, чтобы дать понять поисковым роботам, на что нужно обратить внимание.

Но все же главное - анализ и работа над ошибками.

Анализируйте, по каким запросам к вам приходят посетители, какие еще они страницы просматривают, сколько времени проводят на сайте. И развивайте сайт в этом направлении.

Исходную информацию дают многочисленные службы-счетчики.

  • Rambler.Top100 - некогда популярный каталог, сейчас превратившийся в свалку мертвых сайтов. В последнее время заметна чистка, неиспользуемые сайты через месяц удаляются
  • Рейтинг@Mail.ru и LiveInternet - неплохие сервисы, дающие наглядную статистику по посещаемости сайта
  • GoogleAnalytics и Яндекс.Метрика - два лидера как по удобству, так и по детализации, дающее наиболее полную статистику
  • Здесь стоит заметить, что Google перестал выдавать поисковый запрос в параметрах вызова страницы. Поэтому многие службы просто покажут, что с поиска Google пришло 100 человек и все. Родной же GoogleAnalytics все прекрасно знает.

    Что вы видете в аналитике.

    Первое - источники посещений. Они обозначаются как direct, organic, referer:

  • Direct - прямые заходы. Это и заходы напрямую через набор в адресной строке, и по закладкам
  • Organic - переход из бесплатных поисковых систем
  • Referer - переходы по ссылкам на сайтах
  • Какой трафик лучше? Весь! Если кто-то добавил сайт в закладки - прекрасно. Если кто-то нашел в поиске сайт - еще лучше. Если кто-то на своем сайте сделал ссылку на ваш - вообще хорошо!

    Если прямые заходы от вас не зависят, то последние реферальный и огранический трафик в некоторой степени в ваших руках. Но здесь главное не переусердствовать.

    По порядку.

    Наличие ссылок на сайт с других сайтов - безусловно, плюс в глазах поисковых систем. Именно на их основании рассчитываются такие показатели как PR (PageRank) и тИЦ (тематический Индекс Цитирования). По сути, эти показатели авторитетности ресурса. Гнаться за ними не стоит особо. Это, по большому счету, "пузомерки". Так Яндекс заявляет, что тИЦ учитывается лишь в ранжировании ресурсов в Яндекс.Каталоге. Лукавят, конечно... Но все же - это показатель значимости той или иной страницы, точнее говоря, информации на ней.

    Но и Яндекс, и Google (ограничусь этими бесспорными лидерами) прекрасно знают о всяких биржах по продаже ссылок. Они попросту будут их игнорировать. В худшем случае, наличие такой "мусорной" ссылки может и навредить. При обилии таких ссылок ваш сайт может попасть под фильтры или даже бан, когда поисковик попросту выбросит его из поиска.

    Поисковый трафик не даром назван органическим (organic). Это естественный, органический поток посетителей сайта. Поднять искусственно можно. Но опять же поисковики прекрасно видят, кто и по каким ссылкам заходит. И при обилии кликов с одного адреса по ссылкам на один и тот же сайт просто перестает их учитывать. Увы, неисповедимы мысли поискового робота - на сайт могут быть и наложены санкции: вместо повышения позиции в выдаче его могут напротив опустить (пессимизировать).

    Вывод один: не пытайтесь обмануть поисковик. Если кто считает, что он умнее, то поисковик так не считает, он просто знает, что его обманывают. Со всеми вытекающими последствиями.

    В завершение этого разговора отмечу, что продвижение сайта - процесс долгий, может занять не один месяц или даже год.

    Изменение структуры или доменного имени

    Теперь рассмотрю вопросы, связанные с другой оптимизацией сайта. Это, как правило, болезненный момент, когда вы меняете структуру сайта или переносите его на другой домен.

    Перенос на другой домен - процесс очень болезненный.

    Как правило, рекомендации Яндекс и Google сводятся к следующему: установите переадресацию со страниц старого домена на страницы нового и запретите старый домен для индексации. Все будет сделано в лучшем виде, будет создана группа зеркал, будут перестроены поисковые индексы и перенесены "веса" страниц (тИЦ и PR).

    Сделать переадресацию 301 (Moved Permanently) просто. Любой язык, будь то PHP или ASP.NET позволяют это сделать буквально парой строк кода. Запретить индексацию еще проще: в файл robots.txt в корневой папке сайта нужно добавить все 2 строки "User-agent: *" и "Disallow: /".

    Небольшое замечание, Response.Redirect в ASP.NET возвращает код 302 (Moved Temporarily), чтобы вернуть 301 нужно делать переадресацию явно:

    Response.StatusCode = 301
    Response.Status = "301 Moved Permanently"
    Response.RedirectLocation = "новый адрес"

    Однако в реальности могут произойти неприятности, к которым следует быть готовым.

    Были случаи, когда Google попросту удаляет страницы старого сайта, лишь потом индексирует новый, но это происходит достаточно быстро, поэтому сравнительно безболезненно.

    С Яндекс ситуация может оказаться фактически "смертельной". Это я почувствовал на своей шкуре. Так Яндекс сначала в течение месяца (быстрее и не обещал) добавлял в поиск страницы нового сайта. Потом сменил главное зеркало. Потом удалил из поиска страницы старого сайта. Вроде, все шло своим чередом, не предвещая беды. Но... буквально через неделю после описанных событий робот удалил и страницы нового сайта и отправил его в бан за 100% плагиат.

    Долгая переписка с "Платонами" (собирательное имя администраторов Яндекс.Поиск) ни к чему не привела. Новый сайт был полностью запрещен к индексированию и вышел из бана лишь через 3 месяца. Согласитесь, для сайта коммерческого проекта это смерти подобно.

    С изменением структуры сайта все проще. Представим, вы решили поменять структуру. Например, сделать так, чтобы информация о некотором столе была доступна как в разделе "столы", так и в разделе "кухонная мебель".

    http://site/catalog/tables/?art=123
    http://site/catalog/kitchen/?parts=tables&art=123

    Чтобы сохранить посещаемость, вы со старых страниц ставите переадресацию на новые. Ваша страница оказывается доступна по нескольким адресам. Поверьте на слово, поисковики такое оооооой как не любят.

    Можно настроить переадресацию с одних страниц на другие. Но некоторых дотошных посетителей смущает, что он нажимает на одну ссылку, а попадает совсем на другую страницу, он думает, его дурят. Также относятся к этому и поисковики.

    В качестве решения следует настроить указание канонических адресов на неканонических страницах. Проще говоря, нужно из всех страниц-дублей выбрать одну "правильную", а на всех остальных поставить указание поисковому роботу "я копия другой страницы, меня индексировать не надо".

    <head>
    <link rel="canonical" href="правильная страница">
    </head>

    Но упаси вас Бог поставить это указание и для канонической страницы. В большой вероятностью, из индекса выпадут все страницы-копии, включая "правильную", ведь поисковик видит указание, что это неканонический дубль, но не удосуживается проверить, что страница говорит: "я дубль самой себя, то есть, и не дубль вовсе".

    Заключение

    В заключение статьи повторю самую главную мысль, к которой я подводил все время: не пытайтесь обмануть поисковых роботов.

    Придание "солидности" сайту за счет миллиона страниц-дублей страниц в поиске - просто бред. Если вы сами знаете, что это дубли, сообщите поисковику об этом, ведь он сам все обнаружит, в лучшем случае, "размазав" авторитетность страницы на 10 дублей, вместо того, чтобы передать весь вес одной единственной.

    Накрутка входящей ссылочной массы за счет покупки ссылок - бред не меньший. По большому счету, какая разница, будет ли тИЦ 0, 10 или 100? В интернет масса сайтов с нулевым тИЦ и тысячами посещений в день. А есть сайты с тИЦ 100, и десятком посетителей, казалось бы, такой авторитетный сайт, его статьи так много цитируют, а посещений нет. Так и хочется спросить: "Вам шашечки или ехать?"

    Наконец, будьте готовы, что любое ваше телодвижение в отношении сайта, кроме его наполнения уникальным контентом, будет приводить к падению посещаемости. Поисковики - механизм очень инертный. Сначала робот увидит изменение, потом снова зайдет, посмотрит, только потом добавит изменения в поисковую базу. А в это время немного "попридержит" страницу в поисковой выдаче.

    Рассмотрим пример. Вы меняете дизайн сайта. "Конфетка" та же, обертка другая. Я не случайно упомянул "конфетку". Вы привыкли покупать некоторые конфеты, нравятся они вам. И вдруг производитель меняет фантик. "Стоп", - говорите вы, - "тут что-то не так". И некоторое время относитесь к новой упаковке настороженно, не подделка ли. Также и поисковик настороженно отнесется к измененным "знакомым" страницам, находящимся в поисковой базе. Любое изменение должно "отлежаться", поисковику к нему нужно привыкнуть.

    Поисковая база обновляется в среднем раз в неделю, вот на эту неделю посещаемость и упадет, как минимум.

    зарабатывать заработать заработок деньги денег интернет дома онлайн быстро много миллион без вложений вложения