Привіт, друзі. Після недавнього переїзду в Краснодар я вийшов на нову роботу, де мені доручили великий проект – це сервіс по оренді житла. Сайт мені потрапив в жалюгідному стані: купа дублів сторінок, ще більше дублів title, биті посилання, спадщину від зміни структури після старого сайту і ще багато-багато чого. Коротше, цілий вагон проблем і косяків. І поставили переді мною велику задачу – зробити так, щоб сайт знаходився в топі по всіх питаннях запитам і приносив якомога більше трафіку.

Завдання абсолютно стандартна, але ось шлях до її вирішення завжди нетривіальний і схожий на квест. Саме тому я був радий змінити своє старе комфортне та незапорошене місце роботи на нехай і некомфортне, але зате нове і цікаве.

В соцмережах і В коментарях до посту ви мене просили поділитися процесом вдосконалення сайту і отриманими результатами. Спочатку я і сам планував докладно розповісти про це, але тим приємніше мені буде писати, знаючи, що ви цього чекаєте. Сподіваюся, це буде цікаво і корисно, а якісь нестандартні рішення ви навіть застосуйте на практиці.

Опис проекту і особливості

SelimS.ru – це сервіс, який займається здачею житлової нерухомості в оренду від власників. Насправді, бізнес зав’язаний на сайті — сайт це представництво в мережі, і просто ще одне джерело прибутку. Основний бізнес — офлайн — це офіси в містах, куди приходять клієнти і замовляють послуги. А на сайті можна придбати доступ до бази, заплативши, зрозуміло, менше, але тоді доведеться робити все самому – обдзвонювати господарів, домовлятися про зустрічі, їхати і дивитися квартири, укладати договір і т. д. В той час як все це можуть зробити за вас менеджери, якщо зверніться в офіс. Але мова не про це, тут не рекламна пауза, я просто хочу, щоб ви зрозуміли специфіку самого проекту.

Іншими словами, сайт — це база даних з платним доступом до ключової інформації (номер телефону власника). Моя мета – збільшити кількість продажів з допомогою залучення найбільшої кількості трафіку з пошукових систем. При цьому під продажем розуміється в першу чергу не доступ до бази сайту, але замовлення послуг по телефону – відвідувач залишає заявку з сайту, а далі йому дзвонить менеджер і «обробляє». Хоча на моєму співбесіді перед прийняттям на роботу йшлося про те, що цілі збільшення продажів немає, а є мета просто бути в топі, щоб набриднути користувачам, бути завжди на виду, стати впізнаваними і т. д.

Далі я докладно розповім, яким до мене в руки потрапив сайт, що я робив, і який результат отримав. Не знаю, чи буде цей пост про єдиним моєму проекті чи це лише перша частина в довгій історії успіху – час покаже. А зараз на календарі березень, і це означає, що пройшло вже близько 4 місяців з моменту початку робіт над сайтом.

Основна робота велася всередині сайту, зроблено там було навіть трохи більше ніж дофіга – сайт в листопаді і сайт зараз – це майже два різних сайту. Я почну з того, що підніму стос файлів з моїми аудитами і технічних завдань для програмістів, а найпоширеніші помилки та цікаві випадки докладно розгляну нижче.

Контент сайту, його кластеризація та індексація. Створення лэндингов

Однією з основних труднощів великого сайту є масова генерація якісних точок входу (лендингов) і подальша їх повна індексація. Це, мабуть, ключове завдання оптимізатора.

Специфіка нашого порталу така, що сайт оновлюється в реальному часі – адреси сторінок залишаються постійними, але контент на них змінюється. Основні сторінки списку об’єктів по містах приблизно раз в 60 хвилин повністю змінюють свій контент, приклад такої сторінки. Пов’язано це з тим, що найбільш актуальні об’єкти, які тільки що були перевірені менеджером, піднімаються на самий верх, якісь інші об’єкти позначаються як здані, ще й паралельно в базу додаються нові об’єкти.

Поки пошуковик зайде на сайт, отримає свіжі дані і викладе в індекс, ці дані вже застаріють 🙁 Це властиво взагалі всім записам на сайті. До речі, про лістингах. Сайт про нерухомості це приклад каталогу, в якому найбільш цінні саме станиці фільтрів-лістингів, а не картки об’єктів. Як я вже показував вище на прикладі Сочі, основні точки входу – це вибірка всіх об’єктів по конкретному місту.

Статистика (точки входу, дані за період з 1 лютого – 28 лютого):
Сторінки головних лістингів по містах сумарно призвели ~45 000 чоловік (~28% від загального кол-ва трафіку з ПС).
Приклад сторінки: http://selims.ru/arenda/Sochi/

Але всі інші фільтри типу об’єктів, району, ціною та іншими характеристиками вибираються користувачем в формі пошуку і динамічно змінюють вміст. Пошукові роботи не вміють користуватися формами, а, отже, і індексувати результати. Оголошень за типом нерухомості – зняти однокімнатну квартиру, кімнату, приватний будинок, гуртожиток і т. д. – частотність таких запитів по містах відносно невелика, але в сумі виходить величезний кластер! Для індексації таких вибірок спеціально створений блок посилань внизу «Я хочу зняти»:

Ці посилання дозволили за кілька апдейтів проіндексувати вибірки за типами об’єктів для всіх міст. Може бути, ці посилання навіть виявляться корисними і реальним відвідувачам сайту (шкода, що мені не дозволили додати цей блок посилань наверх, тоді ними б точно користувалися).

Статистика (точки входу, дані за період з 1 лютого – 28 лютого):
Сторінки лістингів за типами нерухомості сумарно призвели ~30 000 відвідувачів (~18% від загального кол-ва трафіку з ПС).
Приклад сторінки: http://selims.ru/arenda/Sochi/t17_komnaty

Якщо перейти по одній з посилань у блоці, наприклад, на однокімнатну квартиру, то можна знайти аналогічний блок посилань внизу, тільки він вже буде відповідати за ще більш вузьку вибірку:

До дробленню за цінами в рамках певних типів нерухомості я прийшов у процесі вивчення запитів користувачів. Рідко, але все ж люди цікавляться — «зняти однокімнатну квартиру 20000». Така поведінка властива далеко не для всіх типів нерухомості, тому посилання виводяться не скрізь, а так само для кожного типу рамки за цінами індивідуальні і задаються вручну.

Для деяких міст (Москва, Пітер) у формі з’являються додаткові критерії пошуку. Наприклад, вибір району в місті та за містом, а так само вибір станції метро:

Крім вивчення наявного попиту на пошук нерухомості близько певних станцій метро за допомогою wordstat’а, довелося поспілкуватися з пітерськими друзями і з’ясувати, як же вони шукають нерухомість і чим керуються. З’ясувалося, що спочатку визначається бажаний район проживання, а потім вже йде орієнтир на станцію метро. Відмінно – цінна інформація.

Тому, коли ми вбираємо якийсь район в місті з метро, внизу з’являється блок посилань, де відображаються станції метро, територіально розташовані в обраному районі.

Корисно і для індексації додаткових сторінок для користувачів. Цих сторінок раніше не було, і ми їх зробили.

Статистика (точки входу, дані за період з 1 лютого – 28 лютого):
Сторінки лістингів на метро для Санкт-Петербурга призвели ~300 чоловік (~0,2% від загального кол-ва трафіку з ПС).
Приклад сторінки: http://selims.ru/arenda/Peterburg/m245

Метро є далеко не у всіх містах, зате скрізь є територіальне дроблення по районах – думаю, багато людей шукають житло з прив’язкою до району. У випадку з районами, було вирішено не використовувати аналогічні блоки посилань під списком об’єктів. Так і районів у містах зазвичай дуже багато, тоді і блок посилань з ними більше виглядав би як спам. Як ми реалізували індексацію сторінок по районах, я розповім трохи нижче, а поки просто зведена статистика.

Статистика (точки входу, дані за період з 1 лютого – 28 лютого):
Сторінки лістингів по районах у всіх містах залучили ~2 000 відвідувачів (~1% від загального кол-ва трафіку з ПС).
Приклад сторінки: http://selims.ru/arenda/Krasnodar/d202

Незмінними на сайті залишаються тільки сторінки самих об’єктів (я їх називаю картки об’єктів). Однак вони мають статус здано/не здано, і тут був зроблений цікавий і дуже важливий хід. Раніше, коли об’єкт переходив у статус «зданий», все опис зі сторінки видалялася і замінювалося написом «вибачте, об’єкт зданий». Об’єктів у базі (для кожного є свій унікальний url) понад 360 000 – і, уявіть собі, за статистикою завжди більше 97% всіх об’єктів здані. Сотні тисяч напівпорожніх сторінок дублів – це не дуже круто! Коли я вперше проаналізував сайт, в індексі Google було близько 10к сторінок в Яндексі стільки ж, більшу частину з яких становив якраз дублі.

Перше, що було зроблено в цьому напрямку – ми перестали прибирати контент зі сторінки, коли об’єкт отримував статус «зданий». Стали накладати на опис ефект розмиття (blur, але чомусь працює лише в Хромі), а напис «Вибачте, об’єкт зданий» стали виводити «по-хитрому» – картинкою – щоб не створювати зайвого дублюючого контенту.

Деякі описи об’єктів не дуже багатослівні, наприклад, «здам кімнату без меблів» і адресу в заголовку. І все. В першу чергу для зручності користувачів, але, не забуваючи і про пошуковики, ми додали блок з найважливішими характеристиками об’єкта.

І користувачеві зручно відразу бачити структуровану інформацію, і пошуковик отримає трохи контенту. А пам’ятаєте, я говорив про райони вище, що немає окремих блоків, де виводяться посилання на лістинги по районах? Так ось посилання на райони виводяться в картках об’єктів, завдяки чому вони теж непогано індексуються.

Важливою частиною кожної картки об’єкта є блок посилань внизу. Спочатку я хотів реалізувати там кільцеву перелінковку, щоб по ланцюжку пошуковик зміг швидко проіндексувати всі об’єкти на сайті. Але з точки зору корисності блоку і цієї інформації для користувача виходив повна маячня, тому було вирішено виводити список схожих об’єктів за певним алгоритмом.

Давайте звернемося, нарешті, до статистики по картках об’єктів.

Статистика (точки входу, дані за період з 1 лютого – 28 лютого):
Сторінки карток об’єктів сумарно залучили ~14 000 відвідувачів (~8,5% від загального кол-ва трафіку з ПС).
При цьому: точок входу ~9400, унікальних ключових запитів ~13000.

Зовсім непоганий трафік. Кількість точок входу і запитів я згадав тут не просто так! Можна сказати, що на картки об’єктів переходять з унікальним запитам, які не можна заздалегідь передбачити і дізнатися, ці запити навряд чи коли-небудь хто-небудь ще раз введе. Не треба бути крутим аналітиком, щоб помітити залежність кількості переходів від кількості сторінок об’єктів в індексі.

Отже, нагадаю, що коли я прийшов у SelimS, в індексі було менше 3% від всіх сторінок, і були це в основному сторінки лістингів по містах, їх дублі і їх сторінки пагинации, а карток об’єктів практично не було. Для індексації лістингів створювалися спеціальні блоки посилань. А ось картки об’єктів після додавання контенту треба було ще змусити проіндексувати. Для цього була створена xml карта сайту, і не одна, а відразу кілька десятків, щоб вказати там усі три з половиною сотні тисяч адрес.

Всі карти сайту відразу ж були відправлені в панелі вебмастера – на наступний же день Google проіндексував пачку з 118 000 сторінок, а через місяць проіндексував другим підходом ще пачку, разом у сумі тепер майже 400 тисяч сторінок в індексі.

З Яндексом все складніше і повільніше – в панелі вебмастера написано, що завантажено 304к сторінок проіндексовано 25к сторінок, хоча запит host:selims.ru дає відповідь, що в індексі 56 тисячі сторінок. І це пройшло вже 4 місяці! Але тут нема чому дивуватися, Яндекс дуже слабкий на швидку індексацію, тому і я чудес не чекаю.

А ще зовсім недавно ми створили html-карту сайту — де всі об’єкти бази виводяться у вигляді дерева. Я робив це в надії вплинути на більш швидку індексацію сайту Яндексом, ось і подивимося, що це дасть.

Внутрішня оптимізація сайту, технічні моменти

Описана вище робота є найважливішою безпосереднім завданням seo-фахівця, але давайте вже поговоримо про технічну сторону справи, так само відноситься до компетенцій сеошника.

Дуже поширена проблема серед великих каталогів і інтернет магазинів – категорії і/або кінцеві сторінки доступні за адресами зі слешем на кінці і без нього. Так склалося, що у нас на сайті до и сторінок не мають закінчень. Наприклад, в меню зверху вибір міста вів url без слеша, а на головній сторінці та в формі пошуку формувався url зі слешем. І в результаті виникало у нас по дві однакові сторінки.

Було вирішено боротися з дублями не з допомогою 301 редіректу, як я завжди раніше робив, а використовуючи мета-тег rel=canonical. Ризикований крок, враховуючи, що повної впевненості в успіху у мене не було, але був ряд причин піти цим шляхом. Про те, що це за мета-тег такий, як його використовувати, як він працює і працює, я вже писав в пості — rel=”canonical” як ефективний спосіб боротьби з дублями. Раніше метод був експериментально перевірено, але ніщо не замінить реальний досвід в бойових умовах. І ось тепер я з упевненістю можу сказати – так, дійсно, rel=canonical працює і прекрасно справляється з дублями. Звичайно, всі внутрішні посилання на неканонічні сторінки поправили, щоб вели на правильні адреси.

Не відходячи далеко від проблеми дублювання вмісту сторінок, варто сказати про різні параметри – це класика жанру. Коли параметри динамічно формуються, то їх послідовність в url може змінюватися, якщо параметрів більше одного, отже, одна і та ж сторінка буде доступна з усіх варіацій підстановки параметрів в url. Ось і у нас було на сайті кожної сторінки лістингу по 2-3 дубля стабільно. Проблему вирішували за допомогою rel=canonical.

У мене часто запитують, а що робити зі сторінками пагинации (посторінкова навігація за списками і каталогів) – залишити в спокої або закрити від індексації? Універсального рішення для всіх сайтів немає і бути не може. Але на даному сайті ми поставили на всіх сторінках тег rel=canonical із зазначенням на першу сторінку. А щоб пошуковики не шастали по неканонічним сторінок, посилання на самі сторінки зробили через AJAX, тобто як таких посилань на сторінці тепер немає, а перемикання відбувається за допомогою JavaScript. Зроблено це тому, що сторінки навігації одночасно різні і водночас однакові (я вже говорив, що контент на них змінюється приблизно раз у годину), так що досить і однієї.

Я взагалі наполіг на тому, щоб всі посилання на непотрібні для пошукачів сторінки приховати від роботів, наприклад, це посилання сортування результатів у таблиці пошуку. Робот буде ходити тільки по потрібних сторінок, а значить і індексувати сайт швидше. Я вже якось розповідав вам про 5 способів приховати будь-яке посилання від індексації, методи досі працюють, можете користуватися.

URL карток об’єктів в системі формуються динамічно, беруться перші XX символів опису об’єкта, переводяться в трансліт, а в кінці просто підставляється ID. Так от коли опис об’єкта змінювалося, наприклад, менеджером, то виникав новий url для колишнього об’єкта. Таким чином, дублів теоретично може бути будь-яка кількість. Це було припинено шляхом відстеження ID 301 редіректу на правильний url-у випадку невідповідності запитуваної адреси.

Крім дублів самих карток об’єктів, було багато дублів title, що теж не є добре. Хоч і різні об’єкти, але вони бувають розташовані за однією адресою, в результаті чого траплявся дубль. Я застосував абсолютно стандартне, як мені здається, рішення – добавляти в кінець title номер (ID) об’єкта. Це рішення я часто рекомендую клієнтам з великими каталогами та інтернет магазинами.

Окрема історія була з мобільною версією, розташованої на піддомені m.selims.ru. На мобільній версії теж був каталог об’єктів і дублювався з основним сайтом. Так як мобільну версію не можна видалити або редірект, я вирішив не винаходити велосипед і поставити скрізь rel=”canonical” на відповідні сторінки основного сайту. Але я зовсім забув про те, що кроссдоменно (тобто з одного домену на інший) каноникал не працює і не склеїть сторінки. Згадав я про це, коли мобільна версія навіть після переіндексації продовжувала перебувати в індексі. Довелося закрити весь піддомен від індексації мета тег robots.
На блозі я вже писав про те, чому варто використовувати саме мета тег, а не robots.txt.

Взагалі на сайті було зроблено неймовірно багато технічної роботи, виправлено незліченну кількість помилок і помилок. Так само не забуваємо, що це абсолютно нормальна ситуація, коли програміст, виправляючи одне, водночас ламає інше 🙂

Про всі помилки я розповісти просто не зможу, та й вам це не треба. Головне знати, де ці самі помилки шукати! При роботі з будь-яким сайтом обов’язково користуйтеся панелями вебмастера Яндекса і Google, всю найважливішу інформацію і критичні помилки можна дізнатися звідти. Дуже рекомендую переглядати вручну індекс сайту в пошукових системах, банально вводите запит site:http://site.ru і переглядаєте пару десятків сторінок, і якщо не знайдете ніяких помилок, то точно придумаєте як можна поліпшити сніппет! Скануйте хоча б раз на місяць сайт такими програмами, як Page Weight, Xenu’s Link Sleuth, Screaming Frog SEO Spider і ін.

Аналітика і SEO SEO та аналітика

Коли я прийшов в проект, жодних даних по сайту у мене не було. Банально не було навіть Яндекс Метрики і Google Analytics, був тільки LiveInternet, але його аналітичні здібності, можна сказати, нульові. Лічильники я, звичайно, встановив відразу ж, але щоб щось аналізувати, треба мати хоч якісь дані, а їх не було.

Коли я займався створенням лендингов, оптимізацією контенту і складанням заголовків, мені доводилося спиратися на дані wordstat’а й дивитися конкурентів по видачі.

Максимум уваги було націлене на заголовки Title, як на самий «сильний» елемент кожної сторінки. У перший раз все будувалося на рівні гіпотез. Через півмісяця я вивчив дані статистики і поміняв заголовки, з’явилися якісь нові запити, я дізнався, які запити працюють краще або гірше.

Ще через місяць я повторив розбір статистики і знову все поміняв, доповнивши і поліпшивши. І так за ці 4 місяці сталося разів п’ять. З кожною ітерацією я поступово поліпшував характеристики цільових сторінок на сайті: міняв title і заголовки H1, працював з внутрішніми посиланнями і т. д. В результаті таких змін позиції сайту в пошукових системах поліпшувалися, і ріс трафік. Наочно я це покажу в розділі результатів трохи нижче.

Дуже важливо і потрібно користуватися системами аналітики. Я люблю Google Analytics завдяки його практично безмежним можливостям, правда і розібратися в ньому новачкові так само безмежно складно 🙂 Більш докладно про те, як я працюю з аналітикою, я писав в пості про просування по трафіку сайту за допомогою Google Analytics. Правда щоб аналізувати не штучні сторінки, а цілі масиви, доведеться подружитися з регулярними виразами. Про це я теж коли-небудь напишу пост.

Разом із зростанням позицій і появою сайту у результатах органічної видачі з’явилася потреба зробити фрагментом більш привабливим для людей. В першу чергу на розум приходить думка про description – так і є. Знаючи найпопулярніші запити, за якими цільові сторінки знаходять користувачі, я органічно вписав ці запити в одне речення і навіть зробив його трохи рекламним. Ось так, наприклад, http://yandex.ru/yandsearch?…

Тепер найпопулярніших запитів користувачі побачать потрібний мені фрагментом, і не тільки Google (де, як відомо, ймовірність появи в сніппеті тексту з description досить велика), але і в Яндексі. При складанні я керувався тим, що важливо не розбивати пасажі і бажано використовувати можливі варіації ключових запитів в одному реченні. Із знаків пунктуації я використовував тільки кому, вона не розбиває пасажі.

У доважок, щоб «добити», зробили мікророзмітку хлібних крихт під Гугл. Додатковий привертає увагу елемент у видачі ще нікому не завадив! Ось так, наприклад, https://www.google.ru/search?…

Для Яндекса така схема не працює, але після переробки і поліпшення структури, а так само внутрішніх посилань вдалося домогтися того, що і в Яндексі з’явилися хлібні крихти на видачу.

Так, повертаючись до Яндексу і метатегу description хотілося б згадати, що довелося закрити всі неосновні блоки сайту в тег , вже дуже Яндексу подобалося в сніппет тягнути всякі списки і елементи навігації, особливо назви міст. Так що, яким би неоднозначним даний тег не був, іноді він буває корисним! Після noindex’а ймовірність появи в якості фрагменту саме тексту з description зросла суттєво.

Можна також згадати і заголовки H1, але робота над ними ще поки йде, я акумулюю дані по пулу низькочастотних запитів, щоб проробити деякі лістинги на сайті. Знаю, що багатьох цікавить питання, а чи добре це чи погано, коли title і h1 дублюються або збігаються? Однозначної відповіді немає, але у мене вони різні за тієї причини, що самі цінні запити я використовую в title, а трохи менш значущі намагаюся згадати в h1, але це щоб захопити всі потрібні мені запити. А на цьому блозі, наприклад, title, h1 і дублюються – та нічого страшного!

Окремої історії заслуговує принцип генерації хлібних крихт, там закладені певні алгоритми, і в залежності від характеристик показувалася картки об’єкта формується посилання на лістинг, яка, по-перше, інформативною і корисною для користувача, якщо він вирішить шукати схожі об’єкти, а по-друге, корисна для індексації певних лістингів і передачі на них статичної ваги. Так само і title для карток об’єктів формується з динамічними приставками перед і після назви самого об’єкта. Принципи засновані на популярності певних ключових слів і запитів.

І, звичайно, моя робота полягає у тому, щоб вчасно відслідковувати всі виниклі помилки і усунути їх 🙂

Результати роботи та графіки

Ви молодці, якщо прочитали все, що я написав вище. А тепер настав час для самого головного – відповіді на питання «і шо?». А ось че!

Статистика переходів з пошукових систем за даними Яндекс Метрики:

На жаль, лічильник був встановлений тільки з моменту мого приходу в компанію, тому дані збираються тільки з 14 листопада, а на графіку звіт з 15.11.2013. Але спостерігати прогрес це анітрохи не завадить.

А ось лічильник LiveInternet на сайті стояв і до мене, так що частина цікавої статистики отримати вдалося. Статистика переходів з пошукових систем (Яндекс, Google і сумарна), середньодобовий трафік в зрізі по тижнях:

На графіку я постарався вказати основні моменти. Пік в самому початку обумовлений проведенням федеральної рекламної кампанії по телебаченню, в результаті чого був шквал брендових запитів і переходів по них на сайт. Але видно, що після завершення реклами трафік моментально впав. І я прийшов якраз в той момент, коли спад після реклами плавно перетік в сезонний спад по тематиці в цілому.

Мене вже хтось встиг дорікнути в тому, що мої результати пов’язані з сезонністю, а ріст обумовлений банально підвищенням попиту. Але я підготувався і покажу, що це не так. Дивіться історію показів в Яндексі http://wordstat.yandex.ru/#!/history?.., а так само скріншот:

Як бачите, не було не тільки зростання, але був серйозний спад. На початку і середині грудня спад в півтора рази від листопадових значень, а різке зростання в січні в піку навіть трохи не досяг значень листопада, коли я почав займатися сайтом. Зараз в лютому-березні спад продовжується, а в травні буде самий мінімум. Так що з сезонністю ви тепер ознайомлені, для прикладу я взяв самий частотний загальний запит моєї тематики – «зняти квартиру».

Так що якщо б мені супроводжувала ще й сезонність, то графіки були б значно крутіше 🙂

Найбільше мені подобається графік не відвідуваності, а звіт по кількості різних ключових запитів по яких люди знаходили і переходили на сайт з пошукових систем.

Цей прекрасний графік показує сумарну кількість унікальних запитів за тиждень. Я б назвав це видимістю сайту у видачі. Це в першу чергу відображає якість внутрішньої оптимізації сайту. Можна спостерігати практично п’ятикратне зростання переходів з унікальним фразам на сайт.

Ну от, начебто основними даними похвалився нарешті. Вище в розділі оптимізації я вам розповідав про різні групи лістингів на сайті: вибірки по містах, типами нерухомості, районам, метро і т. д. Хочу показати графіки зростання за цим самим вибірках.

Графік переходів з пошуку на головну сторінку, над якою я поки що не працюю:

Як бачимо, взагалі без змін. На цю сторінку крім брендових запитів інших переходів з пошуку немає.

До речі, про брендових запитах. Ось графік переходів з брендовим запитами на будь-яку сторінку сайту в зрізі сумарно по тижнях:

А от навпаки переходи з пошуку не брендовим запитами в зрізі по тижнях:

Більш ніж чотирикратне зростання кількості переходів на сайт за цільовим запитам!

Окремо графік зростання по головних сторінках міст:

Графік переходів з пошуку по кластеру типів нерухомості:

Переходи на кінцеві сторінки карток об’єктів:

Стан сторінок кластера по всіх районах міст:

Вибірка точок входу у метро:

Ну ось, нарешті-то я поділився з вами всіма графіками. Для мене самого це свого роду фіксація результатів та публічну обіцянку домогтися ще більш високих результатів до наступного звіту.

Передбачаю чий-небудь питання про зовнішньому просуванні, то тут особливо немає про що говорити. Моя стандартна схема – відбираємо якісні посилання з допомогою FastTrust або, якщо програми немає, то за допомогою сервісу CheckTrust.ru. Я зараз користуюся саме другим варіантом, бо дуже зручно: закинув всі посилання з GGL в проект, раз в 2 тижні оновив дані, зібрав білий список і скупився. За всі 4 місяці роботи я купив близько 200 трастових посилань. Велика частина з цих посилань веде на сторінках міст, а 30% всіх посилань безанкорниє. Дуже просто 🙂

Трохи зім’ято вийшло. Все, що хотів розповісти, просто не увійшло б в один пост, але в цілому я розповів, що планував! Сподіваюся, що для вас цей пост був корисним, ви почерпнули для себе нові цікаві ідеї для своїх проектів.

Я думаю, що ви все одно будете хоч мінімально, але вивчати мій проект, тому хочу вас попросити поділитися зі мною усіма знайденими косяками на сайті, будь моментами, які вас бентежать. Нехай вийде обопільний обмін досвідом – я вам розповів, що я зробив, а ви мені розповісте, що ще можна зробити з вашої точки зору. Мені важливо знати погляд з боку, не замилений, так сказати!

Ну все, спасибі за увагу! До зв’язку, друзі.

З повагою, Олександр Алаєв