Привіт, друзі. Сьогодні хочу поговорити з вами про програму під назвою Page-Weight. За описом з офіційного сайту програма призначена для налаштування перелінковки сайту і має наступні основні функції:

— Парсинг сторінок і всіх посилань сайту (є настройки що і як парсити);
— Розрахунок статичної ваги, переданого за посиланнями;
— Додаткові можливості (показує всі внутрішні, зовнішні і биті посилання).

Сподіваюся, що деякі з вас вже знайомі з програмою. А тих, хто ще тільки думає чи не може визначитися, я постараюся схилити до купівлі (не подумайте, що я «на відкатах сиджу», просто програма дійсно дуже корисна).

Насправді, я б хотів поговорити про даною програмою в світлі внутрішньої оптимізації сайту. Звичайно, перелінковка і розподіл статичного ваги сторінок це круто, але крім цього, програма буде корисна при більш глибокому аналізі сайту. От якраз про таких речах (на них розробники не акцентують уваги) і буде сьогоднішній пост.

Але спочатку про основні функції.

Перша вкладка – сканер сторінок і розрахунок умовного ваги

В першу чергу, програма створювалася для розрахунку статичної ваги сторінок за класичною формулою PageRank. Для цього програма сканує сайт, переходячи по всіх знайдених внутрішніми посиланнями, вважає кількість вихідних посилань з кожної сторінки (далі з цього вираховується і кількість вхідних посилань), а потім видаляє дублікати знайдених url.

В результаті ми отримуємо таблицю з повним списком просканованих сторінок, їх заголовком title, відносних url, кількістю вхідних/вихідних посилань і умовним вагою:

Так само як і PageRank у Google, програма вважає вага ітераційно (кількість ітерацій можна задати перед початком розрахунків), в більшості випадків буде достатньо двох ітерацій.

Цілком покладатися на отримані значення ваги (навіть розуміючи, що вони відносні) не варто, так як пошукові системи по-різному ставляться до посилань розташованим в різних місцях (наприклад, наскрізне меню в шапці, сайдбар або інші елементи, які можуть повторюватися на великій кількості сторінок). Програма ж вважає всі посилання рівнозначними, але, тим не менш, на отримані дані можна орієнтуватися, для розуміння того, куди і в яких пропорціях розподіляється вага.

З таблиці легко зрозуміти, що якщо якась сторінка має велику вагу, але цього не заслуговує (наприклад, розділ, який мало цікавить користувачів і на нього не переходять), то, напевно, варто прибрати посилання на неї з усіх або частини сторінок.

І якщо ви вирішили прибрати якісь посилання, зовсім не обов’язково бігти редагувати свої шаблони і заново запускати сканування — всі зміни можна легко змоделювати. Досить два рази клікнути на потрібну комірку і у віконці «Посилання ведуть на сторінку» виділити всі посилання і вибрати пункт «Видалити посилання», після цього повторно натиснути на «Розрахунок ваги» а після закінчення процесу з’явиться нова колонка у звіті, де буде показаний вага всіх сторінок з урахуванням внесених змін.

Друга вкладка Page Weight – зовнішні посилання

В процесі сканування сайту програма збирає не тільки всі внутрішні посилання, але так само і зовнішні, однак за ним не переходить. Що логічно, зовнішні посилання так само беруть участь при розрахунку ваги сторінок. Є цікава налаштування перед початком сканування сайту – “Вважати “закриті” посилання зовнішніми” — тобто, всі посилання містять атрибут rel=”nofollow” будуть вважатися зовнішніми. З точки зору Гугла так воно і є, адже за посиланням вага зі сторінки витікає, однак він витікає «в нікуди», простіше кажучи, втрачається. Про rel=”nofollow” я небагато говорив в одному з попередніх постів про особливості індексації сайтів — дуже раджу прочитати цей пост повністю.

Повертаємося до програми. Після завершення сканування, стане доступна вкладка «Зовнішні посилання», вона схожа на список сторінок і містить три важливих поля: зовнішнє посилання, текст посилання (анкор) і кількість посилань.

Щоб переглянути сторінки сайту, на яких розташована зовнішня посилання, необхідно два рази клацнути на полі з цікавить посиланням.

Це дуже корисний звіт, завдяки йому можна виявити спам на своєму сайті, можна виявити злом (якщо зловмисники проставили приховані посилання, посилання з анкором у вигляді пробілу або, що ще гірше, таємно продають в Сапі посилання з вашого сайту). Я, наприклад, на одному з своїх сайтів зіткнувся з такою ситуацією – хтось зламав сайт і проставив посилання на свої варезні сайти з моїх старих публікацій. Шанс виявити такі посилання практично нульовий, адже мало хто передивляється сторінки п’ятирічної давності на своєму сайті, особливо якщо сторінок десятки тисяч.

Мені здається, у цьому звіті не вистачає перевірки зовнішніх посилань на «бітость», було б досить просто отримувати відповідь віддаленого сервера, а то переглядати кожну посилання вручну, м’яко кажучи, не зовсім зручно.

Третя і остання вкладка в PageWeight – биті посилання

Дуже корисний звіт з точки зору внутрішньої оптимізації особливо для великих динамічних порталів і сайти, де має місце бути контент, генерований користувачами. Цей же звіт просто незамінний в процесі зміни структури сайту або зміни движка. Розповідати про «биті» посилання особливо нічого, ви і без мене прекрасно розумієте суть питання.

Знову не обійшлося без претензій до розробників — програма чомусь сприймає всі посилання з протоколом https:// битими. Дрібниця, а неприємно 🙁

І ось ми повільно підійшли до неявним полезностям програми

  • Вивчаючи список завантажених сторінок, можна знайти всі повторювані (однакові) title на сайті, упорядкувавши результати сканування по заголовку.
  • Виходячи з попереднього пункту, можна знайти дублікати сторінок на сайті, якщо на них ведуть посилання. Це досить часта помилка, коли, наприклад, ставляться внутрішні посилання і на site.ru і на www.site.ru і при цьому відсутня 301-редирект на основне дзеркало. Або ж дублювання головної сторінки за адресами site.ru і site.ru/index.php. Подібних прикладів безліч.
  • Якщо перед початком сканування сайту не ставити галку навпроти пункту «Використовувати robots.txt», то Page Weight просканує всі сторінки незалежно від заборони для роботів.
    Для чого це корисно? Як я вже говорив вище, краще позбавлятися від посилань на сторінки, які заборонені для індексації, щоб уникнути потоку ваги в нікуди». Упорядкувавши список сторінок з url можна побачити всі однотипні сторінки, наприклад, site.ru/user/*, зазвичай такі сторінки завжди заборонені в robots.txt, але вага на себе забирають. Бажано позбутися від цих посилань або звести їх кількість до мінімуму. А ще ці посилання можна сховати за допомогою javascript 🙂
  • Вивчаючи «биті» посилання можна дуже просто створити список правил для редиректів, як за шаблоном (для однотипних url’ов), так і для поодиноких випадків.
  • При скануванні можуть бути виявлені посилання з параметрами. Наприклад, є сторінка категорії товарів site.ru/shop/books/hand-made і, як годиться магазинах, присутні різні сортування типу site.ru/shop/books/hand-made?sortBy=price або site.ru/shop/books/hand-made?show=all. По суті це все одна і та ж сторінка. Звичайно, це стосується інтернет-магазинів і різних каталогів, але може зустрітися де завгодно. Так ось пошуковики при виявленні таких посилань проіндексують кожну і будуть думати, що це різні сторінки. Кращим рішенням цієї проблеми буде використання мета-тег rel=”canonical”, в якому буде вказана основна сторінка. Цей мета-тег розуміють і Яндекс і Google.
    Якщо не виходить варіант з rel=”canonical”, то завжди можна закрити такі сторінки через robots.txt за шаблоном: Disallow: /*?sortBy= і Disallow: /*?show=.

Мій оповідь підходить до кінця, але хотілося б ще сказати кілька слів про подальший розвиток програми.

У даний момент автори активно працюють над випуском другої версії програми Page-Weight, тому дану програму вирішили перейменувати в PageWeight Light, а версія 2.0 буде називатися PageWeight Base, зараз вона в стадії Бета-2 і доступна для скачування в особистому кабінеті (поки безкоштовно, але обіцяють, що ціна буде вищою, ніж у light-версії, але всім покупцям Light буде знижка на Base у розмірі 600р). В base-версії обіцяється набагато більш багатий функціонал і можливості, так що особисто я дуже чекаю релізу.

А так само автори розробляють серверний аналог під назвою PageWeight Online, який, знову ж таки, можна протестувати в особистому кабінеті, але на даний момент можна перевірити тільки один сайт, при цьому один раз вказавши адресу сайту його змінити або видалити не вийде, так що вводите відразу правильний варіант.

Будемо чекати новин від розробників. А на даний момент рекомендую скачати PageWeight Light, ціна питання – 600р. Погодьтеся, це смішна ціна в порівнянні з користю, яку можна отримати при використанні програми.

PS Це не рекламний пост. Програму я купував, а не отримав в дар за огляд, але, напевно, це можливо, так що якщо у вас є блог, спробуйте домовитися про бартер з розробниками.

Нагадую офіційний сайт http://www.page-weight.ru/ — тут же ви можете придбати та завантажити Page Weight.

Спасибі за увагу і до зв’язку, друзі.

Готовий відповісти на всі ваші запитання і дати рекомендації по використанню програми.

З повагою, Олександр Алаєв