Привет, друзья. После недавнего переезда в Краснодар я вышел на новую работу, где мне поручили большой проект – это сервис по аренде жилья. Сайт ко мне попал в плачевном состоянии: куча дублей страниц, еще больше дублей title, битые ссылки, наследство от смены структуры после старого сайта и еще много-много чего. Короче, целый вагон проблем и косяков. И поставили передо мной большую задачу – сделать так, чтобы сайт находился в топе по всем интересующим запросам и приносил как можно больше трафика.

Задача совершенно стандартная, но вот путь к ее решению всегда нетривиальный и похож на квест. Именно поэтому я был рад сменить свое старое комфортное и непыльное место работы на пусть и некомфортное, но зато новое и интересное.

В соцсетях и в комментариях к посту вы меня просили поделиться процессом совершенствования сайта и полученными результатами.Изначально я и сам планировал подробно рассказать об этом, но тем приятнее мне будет писать, зная, что вы этого ждете. Надеюсь, это будет интересно и полезно, а какие-то нестандартные решения вы даже примените на своей практике.

Описание проекта и особенности

SelimS.ru – это сервис, занимающийся сдачей жилой недвижимости в аренду от собственников. На самом деле, бизнес не завязан на сайте — сайт это представительство в сети, и просто еще один источник прибыли. Основной бизнес — офлайн — это офисы в городах, куда приходят клиенты и заказывают услуги. А на сайте можно купить доступ к базе, заплатив, разумеется, меньше, но тогда и делать придется все самому – обзванивать хозяев, договариваться о встрече, ехать и смотреть квартиры, заключать договор и т.д. В то время как все это могут сделать за вас менеджеры, если обратитесь в офис. Но речь не об этом, тут не рекламная пауза, я просто хочу, чтобы вы поняли специфику самого проекта.

Другими словами, сайт — это база данных с платным доступом к ключевой информации (номер телефона собственника). Моя цель – увеличить количество продаж с помощью привлечения наибольшего количества трафика с поисковых систем. При этом под продажами подразумевается в первую очередь не доступ к базе сайта, но заказ услуг по телефону – посетитель оставляет заявку с сайта, а далее ему звонит менеджер и «обрабатывает». Хотя на моем собеседовании перед принятием на работу речь шла о том, что цели увеличения продаж нет, а есть цель просто быть в топе, чтобы примелькаться пользователям, быть всегда на виду, стать узнаваемыми и т.д.

Дальше я подробно расскажу, каким ко мне в руки попал сайт, что я делал, и какой результат получил. Не знаю, будет ли этот пост единственным о моем проекте или это лишь первая часть в длинной истории успеха – время покажет. А сейчас на календаре март, и это значит, что прошло уже около 4 месяцев с момента начала работ над сайтом.

Основная работа велась внутри сайта, сделано там было даже чуть больше чем дофига – сайт в ноябре и сайт сейчас – это почти два разных сайта. Я начну с того, что подниму кипу файлов с моими аудитами и тех. заданиями для программистов, а самые распространенные ошибки и интересные случаи рассмотрю подробно ниже.

Контент сайта, его кластеризация и индексация. Создание лэндингов

Одной из основных сложностей большого сайта является массовая генерация качественных точек входа (лендингов) и последующая их полная индексация. Это, пожалуй, ключевая задача оптимизатора.

Специфика нашего портала такова, что сайт обновляется в реальном времени – адреса страниц остаются постоянными, но контент на них меняется. Основные страницы списка объектов по городам примерно раз в 60 минут полностью меняют свой контент, пример такой страницы. Связано это с тем, что наиболее актуальные объекты, которые только что были проверены менеджером, поднимаются на самый верх, какие-то другие объекты помечаются как сданные, еще и параллельно в базу добавляются новые объекты.

Страница списка объектов по городу

Пока поисковик зайдет на сайт, получит свежие данные и выложит в индекс, эти данные уже устареют 🙁 Это свойственно вообще всем листингам на сайте. Кстати, о листингах. Сайт о недвижимости это пример каталога, в котором наиболее ценны именно станицы фильтров-листингов, а не карточки объектов. Как я уже показывал выше на примере Сочи, основные точки входа – это выборка всех объектов по конкретному городу.

Статистика (точки входа, данные за период 1 февраля – 28 февраля):
Страницы главных листингов по городам суммарно привели ~45 000 человек (~28% от общего кол-ва трафика с ПС).
Пример страницы: http://selims.ru/arenda/Sochi/

Но все остальные фильтры по типу объектов, району, цене и другим характеристикам выбираются пользователем в форме поиска и динамически меняют содержимое. Поисковые роботы не умеют пользоваться формами, а, следовательно, и индексировать результаты.Листинги по типу недвижимости – снять однокомнатную квартиру, комнату, частный дом, общежитие и т.д. – частотность таких запросов по городам относительно невелика, но в сумме получается огромный кластер! Для индексации таких выборок специально создан блок ссылок внизу «Я хочу снять»:

Блок ссылок на листинги по типам

Эти ссылки позволили за несколько апдейтов проиндексировать выборки по типам объектов для всех городов. Может быть, эти ссылки даже окажутся полезны и реальным посетителям сайта (жалко, что мне не позволили добавить этот блок ссылок наверх, тогда ими бы точно пользовались).

Статистика (точки входа, данные за период 1 февраля – 28 февраля):
Страницы листингов по типам недвижимости суммарно привели ~30 000 посетителей (~18% от общего кол-ва трафика с ПС).
Пример страницы: http://selims.ru/arenda/Sochi/t17_komnaty

Если перейти по одной из ссылок в блоке, например, на однокомнатную квартиру, то можно найти аналогичный блок ссылок внизу, только он уже будет отвечать за еще более узкую выборку:

Блок ссылок на листинги по цене в рамках одного типа

К дроблению по ценам в рамках определенных типов недвижимости я пришел в процессе изучения запросов пользователей. Редко, но все же люди интересуются — «снять однокомнатную квартиру 20000». Такое поведение свойственно далеко не для всех типов недвижимости, поэтому ссылки выводятся не везде, а так же для каждого типа рамки по ценам индивидуальные и задаются вручную.

Для некоторых городов (Москва, Питер) в форме появляются дополнительные критерии поиска. Например, выбор района в городе и за городом, а так же выбор станции метро:

Страница поиска объектов по станции метро

Помимо изучения имеющегося спроса на поиск недвижимости около определенных станций метро при помощи wordstat’а, пришлось пообщаться с питерскими друзьями и выяснить, а как же они ищут недвижимость и чем руководствуются. Выяснилось, что сначала определяется желаемый район проживания, а потом уже идет ориентир на станцию метро. Отлично – ценная информация.

Поэтому, когда мы вбираем какой-то район в городе с метро, внизу появляется блок ссылок, где отображаются станции метро, территориально расположенные в выбранном районе.

Блок ссылок на станции метро в выбранном районе

Полезно и для индексации дополнительных страниц и для пользователей. Этих страниц раньше не было, и мы их сделали.

Статистика (точки входа, данные за период 1 февраля – 28 февраля):
Страницы листингов по метро для Санкт-Петербурга привели ~300 человек (~0,2% от общего кол-ва трафика с ПС).
Пример страницы: http://selims.ru/arenda/Peterburg/m245

Метро есть далеко не во всех городах, зато везде есть территориальное дробление по районам – думаю, многие люди ищут жилье с привязкой к району. В случае с районами, было решено не использовать аналогичные блоки ссылок под списком объектов. Да и районов в городах обычно очень много, тогда и блок ссылок с ними больше выглядел бы как спам. Как мы реализовали индексацию страниц по районам, я расскажу чуть ниже, а пока просто сводная статистика.

Статистика (точки входа, данные за период 1 февраля – 28 февраля):
Страницы листингов по районам во всех городах привлекли ~2 000 посетителей (~1% от общего кол-ва трафика с ПС).
Пример страницы: http://selims.ru/arenda/Krasnodar/d202


Неизменными на сайте остаются только страницы самих объектов (я их называю карточки объектов). Однако они имеют статус сдано/не сдано, и тут был сделан интересный и очень важный ход. Раньше, когда объект переходил в статус «сдан», все описание со страницы удалялось и заменялось надписью «извините, объект сдан». Объектов в базе (для каждого есть свой уникальный url) более 360 000 – и, представьте себе, по статистике всегда более 97% всех объектов сданы. Сотни тысяч полупустых страниц дублей – это не очень круто! Когда я впервые проанализировал сайт, в индексе Google было около 10к страниц, в Яндексе столько же, большую часть из которых составлял как раз дубли.

Первое, что было сделано в этом направлении – мы перестали убирать контент со страницы, когда объект получал статус «сдан». Стали накладывать на описание эффект размытия (blur, но почему-то работает только в Хроме), а надпись «Извините, объект сдан» стали выводить «по-хитрому» – картинкой – чтобы не создавать лишнего дублирующего контента.

Некоторые описания объектов не очень многословны, например, «сдам комнату без мебели» и адрес в заголовке. И все. В первую очередь для удобства пользователей, но, не забывая и про поисковики, мы добавили блок с самыми важными характеристиками объекта.

Страница карточки объекта

И пользователю удобно сразу видеть структурированную информацию, и поисковик получит немного контента. А помните, я говорил про районы выше, что нет отдельных блоков, где выводятся ссылки на листинги по районам? Так вот ссылки на районы выводятся в карточках объектов, благодаря чему они тоже неплохо индексируются.

Важной частью каждой карточки объекта является блок ссылок внизу. Изначально я хотел реализовать там кольцевую перелинковку, чтобы по цепочке поисковик смог быстро проиндексировать все объекты на сайте. Но с точки зрения полезности блока и этой информации для пользователя получался полный бред, поэтому было решено выводить список похожих объектов по определенному алгоритму.

Давайте обратимся, наконец, к статистике по карточкам объектов.

Статистика (точки входа, данные за период 1 февраля – 28 февраля):
Страницы карточек объектов суммарно привлекли ~14 000 посетителей (~8,5% от общего кол-ва трафика с ПС).
При этом: точек входа ~9400, уникальных ключевых запросов ~13000.

Совсем неплохой трафик. Количество точек входа и запросов я упомянул здесь не просто так! Можно сказать, что на карточки объектов переходят по уникальным запросам, которые нельзя заранее предсказать и узнать, эти запросы вряд ли когда-нибудь кто-нибудь еще раз введет. Не надо быть крутым аналитиком, чтобы заметить зависимость количества переходов от количества страниц объектов в индексе.


Итак, напомню, что когда я пришел в SelimS, в индексе было менее 3% от всех страниц, и были это в основном страницы листингов по городам, их дубли и их страницы пагинации, а карточек объектов практически не было. Для индексации листингов создавались специальные блоки ссылок. А вот карточки объектов после добавления контента надо было еще заставить проиндексировать. Для этого была создана xml-карта сайта, и не одна, а сразу несколько десятков, чтобы указать там все три с половиной сотни тысяч адресов.

Все карты сайта сразу же были отправлены в панели вебмастера – на следующий же день Google проиндексировал пачку из 118 000 страниц, а через месяц проиндексировал вторым подходом еще пачку, итого в сумме теперь почти 400 тысяч страниц в индексе.

Статус индексирования сайта в Google

С Яндексом все сложнее и медленнее – в панели вебмастера написано, что загружено 304к страниц, проиндексировано 25к страниц, хотя запрос host:selims.ru дает ответ, что в индексе 56 тысячи страниц. И это прошло уже 4 месяца! Но тут нечему удивляться, Яндекс очень слаб на быструю индексацию, потому и я чудес не жду.

А еще совсем недавно мы создали html-карту сайта — где все объекты из базы выводятся в виде дерева. Я делал это в надежде повлиять на более быструю индексацию сайта Яндексом, вот и посмотрим, что это даст.

Внутренняя оптимизация сайта, технические моменты

Описанная выше работа является самой важной непосредственной задачей seo-специалиста, но давайте уже поговорим про техническую сторону дела, так же относящуюся к компетенциям сеошника.

Очень распространенная проблема среди больших каталогов и интернет магазинов – категории и/или конечные страницы доступны по адресам со слешем на конце и без него. Так сложилось, что у нас на сайте url’ы страниц не имеют окончаний. Например, в меню сверху выбор города вел на url без слеша, а на главной странице и в форме поиска формировался url со слешем. И в итоге возникало у нас по две одинаковые страницы.

Было решено бороться с дублями не с помощью 301 редиректа, как я всегда раньше делал, а используя метатег rel=canonical. Рискованный шаг, учитывая, что полной уверенности в успехе у меня не было, но был ряд причин пойти этим путем. О том, что это за мета-тег такой, как его использовать, как он работает и работает ли, я уже писал в посте —rel=“canonical” как эффективный способ борьбы с дублями. Ранее метод был экспериментально проверен, но ничто не заменит реальный опыт в боевых условиях. И вот теперь я с уверенностью могу сказать – да, действительно, rel=canonical работает и прекрасно справляется с дублями. Конечно, все внутренние ссылки на неканонические страницы поправили, чтобы вели на правильные адреса.

Не отходя далеко от проблемы дублирования контента страниц, стоит сказать про различные параметры – это классика жанра. Когда параметры динамически формируются, то их последовательность в url может меняться, если параметров более одного, следовательно, одна и та же страница будет доступна по всем вариациям подстановок параметров в url. Вот и у нас было на сайте каждой страницы листинга по 2—3 дубля стабильно. Проблему решали так же с помощью rel=canonical.

У меня часто спрашивают, а что делать со страницами пагинации (постраничная навигация по спискам и каталогам) – оставить в покое или закрыть от индексации? Универсального решения для всех сайтов нет и быть не может. Но на рассматриваемом сайте мы поставили на всех страницах тег rel=canonical с указанием на первую страницу. А чтобы поисковики не шастали по неканоническим страницам, ссылки на сами страницы сделали через AJAX, т.е. как таковых ссылок на странице теперь нет, а переключение происходит с помощью JavaScript. Сделано это потому, что страницы навигации одновременно разные и одновременно одинаковые (я уже говорил, что контент на них меняется примерно раз в час), так что достаточно и одной.

Я вообще настоял на том, чтобы все ссылки на ненужные для поисковиков страницы скрыть от роботов, например, это ссылки сортировки результатов в таблице поиска. Робот будет ходить только по нужным страницам, а значит и индексировать сайт быстрее. Я уже однажды рассказывал вам про 5 способов скрыть любую ссылку от индексации, методы до сих пор работают, можете пользоваться.

URL карточек объектов в системе формируются динамически, берутся первые XX символов описания объекта, переводятся в транслит, а в конце просто подставляется ID. Так вот когда описание объекта менялось, например, менеджером, то возникал новый url для прежнего объекта. Таким образом, дублей теоретически может быть любое количество. Это было предотвращено путем отслеживания ID и 301 редиректа на правильный url в случае несоответствия запрашиваемого адреса.

Помимо дублей самих карточек объектов, было много дублей title, что тоже не есть хорошо. Хоть и разные объекты, но они бывают расположены по одному адресу, в результате чего случался дубль. Я применил совершенно стандартное, как мне кажется, решение – добавлять в конец title номер (ID) объекта. Это решение я часто рекомендую клиентам с большими каталогами и интернет магазинами.

Отдельная история была с мобильной версией, расположенной на поддомене m.selims.ru. На мобильной версии тоже был каталог объектов и дублировался с основным сайтом. Так как мобильную версию нельзя удалить или редиректить, я решил не изобретать велосипед и поставить везде rel=”canonical” на соответствующие страницы основного сайта. Но я совсем забыл о том, что кроссдоменно (т.е. с одного домена на другой) каноникал не работает и не склеит страницы. Вспомнил я об этом, когда мобильная версия даже после переиндексации продолжала находиться в индексе. Пришлось закрыть весь поддомен от индексации мета тегом robots.
На блоге я уже писал о том, почему стоит использовать именно мета тег, а не robots.txt.

Вообще на сайте было проделано невероятно много технической работы, исправлено несчетное количество ошибок и багов. Так же не забываем, что это совершенно нормальная ситуация, когда программист, исправляя одно, попутно ломает другое 🙂

Обо всех ошибках я рассказать просто не смогу, да и вам это не надо.Главное знать, где эти самые ошибки искать! При работе с любым сайтом обязательно пользуйтесь панелями вебмастера Яндекса и Google, всю самую важную информацию и критические ошибки можно узнать оттуда. Очень рекомендую просматривать вручную индекс сайта в поисковиках, банально вводите запрос site:http://site.ru и просматриваете пару десятков страниц, и если не найдете никаких ошибок, то точно придумаете как можно улучшить сниппет! Сканируйте хотя бы раз в месяц сайт такими программами, как Page Weight, Xenu’s Link Sleuth, Screaming Frog SEO Spider и др.

Аналитика и SEO <–> SEO и аналитика

Когда я пришел в проект, никаких данных по сайту у меня не было.Банально не было даже Яндекс Метрики и Google Analytics, был только LiveInternet, но его аналитические способности, можно сказать, нулевые. Счетчики я, конечно, установил сразу же, но чтобы что-то анализировать, надо иметь хоть какие-то данные, а их не было.

Когда я занимался созданием лендингов, оптимизацией контента и составлением заголовков, мне приходилось опираться на данные wordstat’а и смотреть конкурентов по выдаче.

Максимум внимания было нацелено на заголовки Title, как на самый «сильный» элемент каждой страницы. В первый раз все строилось на уровне гипотез. Спустя полмесяца я изучил данные статистики и поменял заголовки, появились какие-то новые запросы, я узнал, какие запросы работают лучше или хуже.

Спустя еще месяц я повторил разбор статистики и снова все поменял, дополнив и улучшив. И так за эти 4 месяца случилось раз пять. С каждой итерацией я постепенно улучшал характеристики целевых страниц на сайте: менял title и заголовки H1, работал с внутренними ссылками и т.д. В результате таких изменений позиции сайта в поисковых системах улучшались, и рос трафик. Наглядно я это покажу в разделе результатов чуть ниже.

Очень важно и нужно пользоваться системами аналитики. Я люблю Google Analytics благодаря его практически безграничным возможностям, правда и разобраться в нем новичку так же безгранично сложно 🙂 Более подробно о том, как я работаю с аналитикой, я писал в посте протрафиковое продвижение сайта при помощи Google Analytics. Правда чтобы анализировать не штучные страницы, а целые массивы, придется подружиться с регулярными выражениями. Об этом я тоже когда-нибудь напишу пост.

Вместе с ростом позиций и появлением сайта в результатах органической выдачи появилась потребность сделать сниппет более привлекательным для людей. В первую очередь на ум приходит мысль о description – так и есть. Зная наиболее популярные запросы, по которым целевые страницы находят пользователи, я органично вписал эти запросы в одно предложение и даже сделал его немного рекламным. Вот так, например, http://yandex.ru/yandsearch?...

Теперь по самым популярным запросам пользователи увидят нужный мне сниппет, и не только в Google (где, как известно, вероятность появления в сниппете текста из description достаточно велика), но и в Яндексе. При составлении я руководствовался тем, что важно не разбивать пассажи и желательно использовать возможные вариации ключевых запросов в одном предложении. Из знаков препинания я использовал только запятую, она не разбивает пассажи.

В довесок, чтобы «добить», сделали микроразметку хлебных крошекпод Гугл. Дополнительный привлекающий внимание элемент в выдаче еще никому не помешал! Вот так, например, https://www.google.ru/search?...

Для Яндекса такая схема не работает, но после переработки и улучшения структуры, а так же внутренних ссылок удалось добиться того, что и в Яндексе появились хлебные крошки на выдаче.

Да, и возвращаясь к Яндексу и метатегу description хотелось бы вспомнить, что пришлось закрыть все неосновные блоки сайта в тег <noindex>, уж очень Яндексу нравилось в сниппет тянуть всякие списки и элементы навигации, особенно названия городов. Так что, каким бы неоднозначным данный тег не был, иногда он бывает полезным! После noindex’а вероятность появления в качестве сниппета именно текста из description выросла существенно.

Можно также вспомнить и заголовки H1, но работа над ними еще пока идет, я аккумулирую данные по пулу низкочастотных запросов, чтобы проработать некоторые листинги на сайте. Знаю, что многих интересует вопрос, а хорошо это или плохо, когда title и h1 дублируются или совпадают? Однозначного ответа нет, но у меня они разные по той причине, что самые ценные запросы я использую в title, а чуть менее значимые стараюсь упомянуть в h1, но это чтобы захватить все нужные мне запросы. А на данном блоге, например, title и h1 дублируются – и ничего страшного!

Отдельной истории заслуживает принцип генерации хлебных крошек, там заложены определенные алгоритмы, и в зависимости от характеристик просматриваемой карточки объекта формируется ссылка на листинг, которая, во-первых, информативна и полезна для пользователя, если он решит искать похожие объекты, а во-вторых, полезна для индексации определенных листингов и передачи на них статического веса. Так же и title для карточек объектов формируется с динамическими приставками перед и после названия самого объекта. Принципы основаны на популярности определенных ключевых слов и запросов.

И, конечно, моя работа заключает в том, чтобы вовремя отслеживать все появившиеся баги и устранить их 🙂

Результаты работы и графики

Вы молодцы, если прочитали все, что я написал выше. А теперь настало время для самого главного – ответа на вопрос «и чё?». А вот чё!

Статистика переходов с поисковых систем по данным Яндекс Метрики:

График изменения трафика по данным Яндекс Метрики

К сожалению, счетчик был установлен только с момента моего прихода в компанию, поэтому данные собираются только с 14 ноября, а на графике отчет с 15.11.2013. Но наблюдать прогресс это нисколько не помешает.

А вот счетчик LiveInternet на сайте стоял и до меня, так что часть интересной статистики получить удалось. Статистика переходов с поисковых систем (Яндекс, Google и суммарная), среднесуточный трафик в срезе по неделям:

Статистика переходов с ПС усредненное по неделям по LiveInternet

На графике я постарался указать основные моменты. Пик в самом начале обусловлен проведением федеральной рекламной кампании по телевидению, в результате чего был шквал брендовых запросов и переходов по ним на сайт. Но видно, что после завершения рекламы трафик моментально упал. И я пришел как раз в тот момент, когда спад после рекламы плавно перетек в сезонный спад по тематике в целом.

Меня уже кто-то успел упрекнуть в том, что мои результаты связаны с сезонностью, а рост обусловлен банально повышением спроса. Но я подготовился и покажу, что это не так. Смотрите историю показов в Яндексе http://wordstat.yandex.ru/#!/history?.., а так же скриншот:

История показов по ключевым словам в Яндексе

Как видите, не было не только роста, но был серьезный спад. В начале и середине декабря спад в полтора раза от ноябрьских значений, а резкий рост в январе в пике даже немного не достиг значений ноября, когда я начал заниматься сайтом. Сейчас в феврале-марте спад продолжается, а в мае будет самый минимум. Так что с сезонностью вы теперь ознакомлены, для примера я взял самый частотный общий запрос моей тематики – «снять квартиру».

Так что если бы мне сопутствовала еще и сезонность, то графики были бы значительно круче 🙂

Больше всего мне нравится график не посещаемости, а отчет по количеству разных ключевых запросов по которым люди находили и переходили на сайт из поисковых систем.

Отчет по количеству ключевых слов переходов

Этот прекрасный график показывает суммарное количество уникальных запросов за неделю. Я бы назвал это видимостью сайта в выдаче. Это в первую очередь отражает качество внутренней оптимизации сайта. Можно наблюдать практически пятикратный рост переходов по уникальным фразам на сайт.


Ну вот, вроде основными данными похвастался наконец. Выше в разделе оптимизации я вам рассказывал про разные группы листингов на сайте: выборки по городам, типам недвижимости, районам, метро и т.д. Хочу показать графики роста по этим самым выборкам.

График переходов с поиска на главную страницу, над которой я пока не работаю:

Статистика переходов с ПС для главной страницы

Как видим, вообще без изменений. На эту страницу кроме брендовых запросов других переходов из поиска нет.

Кстати, о брендовых запросах. Вот график переходов по брендовым запросам на любую страницу сайта в срезе суммарно по неделям:

Статистика переходов с ПС по брендовым запросам

А вот наоборот переходы из поиска по не брендовым запросам в срезе по неделям:

Статистика переходов с ПС по всем запросам, кроме брендовых

Более чем четырехкратный рост количества переходов на сайт по целевым запросам!

Отдельно график роста по главным страницам городов:

Статистика переходов с ПС для листингов по городам

График переходов с поиска по кластеру типов недвижимости:

Статистика переходов с ПС для листингов по типам недвижимости

Переходы на конечные страницы карточек объектов:

Статистика переходов с ПС для страниц карточек объектов

Состояние страниц кластера по районам всех городов:

Статистика переходов с ПС для листингов по районам

Выборка точек входа по метро:

Статистика переходов с ПС для листингов по станциям метро

Ну вот, наконец-то я поделился с вами всеми графиками. Для меня самого это своего рода фиксация результатов и публичное обещание добиться еще более выдающихся результатов к следующему отчету.


Предвижу чей-нибудь вопрос о внешнем продвижении, то тут особо не о чем говорить. Моя стандартная схема – отбираем качественные ссылки с помощью FastTrust или, если программы нет, то с помощью сервисаCheckTrust.ru. Я сейчас пользуюсь именно вторым вариантом, ибо очень удобно: закинул все ссылки из GGL в проект, раз в 2 недели обновил данные, собрал белый список и закупился. За все 4 месяца работы я купил около 200 трастовых ссылок. Большая часть из этих ссылок ведет на страницы городов, а 30% всех ссылок безанкорные. Очень просто 🙂

Немного скомкано получилось. Все, что хотел рассказать, просто не вошло бы в один пост, но в целом я рассказал, что и планировал!Надеюсь, что для вас этот пост был полезным, вы почерпнули для себя новые интересные идеи для своих проектов.

Я думаю, что вы все равно будете хоть минимально, но изучать мой проект, потому хочу вас попросить поделиться со мной всеми найденными косяками на сайте, любыми моментами, которые вас смущают. Пускай получится обоюдный обмен опытом – я вам рассказал, что я сделал, а вы мне расскажете, что еще можно сделать с вашей точки зрения. Мне важно знать взгляд со стороны, не замыленный, так сказать!

Ну все, спасибо за внимание! До связи, друзья.

(c) http://alaev.info/blog/post/4986