За допомогою Screaming Frog SEO Spide можна виявити помилки у посиланнях, знайти дублі сторінок та інші недоліки, які не дозволяють сайту нормально просуватися. Програма застосовують SEO-фахівці різного рівня, веб-аналітики та власники сайтів.
Screaming Frog SEO Spider (“Павук”, “SEO-Павук”) – програма-сканер, призначена для проведення технічного SEO-аудиту сайту з метою перевірки його відповідності вимогам пошукових сервісів.
Особливості Screaming Frog SEO Spider
Принцип роботи
Програма була розроблена компанією з Великобританії у 2010 році. Вона сумісна з ОС Windows, macOS та Linux. Підтримки російської мови немає, є англійська та чотири інші мови. Принцип роботи сканера такий:
- «Павук» збирає дані про сайт та посилання на ньому;
- аналізує їх;
- готує звіт у зручному для скачування форматі.
У програмі передбачено понад 25 інструментів для перевірки сайту.
Вартість та встановлення
Screaming Frog SEO Spider доступний безкоштовно, але є платна версія. У безкоштовному модулі можна перевіряти до півтисячі адрес та використовувати 7 основних інструментів парсингу: визначення дублів, неробочих посилань, перевірку ключових запитів тощо. У платній версії є всі функції. Можлива синхронізація з Google Analytics, пошук орфографічних та граматичних помилок. Сканувати можна будь-яку кількість адрес. В обох варіантах для використання програму спочатку потрібно завантажити. Для цього потрібно завантажити дистрибутив, відкрити його та дотримуватися інструкцій «Майстра установки». Вказувати особисту інформацію не потрібно. Після встановлення потрібно клацнути по ярлику програми на робочому столі. Далі можна відразу починати парсити: ввести адресу сайту та натиснути Start. Але рекомендується спочатку налаштувати павука.
Налаштування Screaming Frog SEO Spider
Після відкриття програми потрібно натиснути Configuration, а потім Spider. У новому вікні буде кілька вкладок:
- Basic. Для підвищення швидкості парсингу можна забрати CSS-стилі, JavaScript, SWF. Тоді при роботі програма не враховуватиме їх і менше навантажуватиметься. Якщо сайт закрито у robots.txt, у вікні Basic потрібно активувати функцію ігнорування цього файлу;
- Limits. У налаштуванні Limit Search Depth необхідно вказати, до якого рівня вкладеності сторінок потрібно перевіряти сайт. Це актуально при перевірці каталогу або іншого ресурсу, в якому є багато внутрішніх папок, які розташовані одна в іншій. Тоді сильно глибокі сторінки не перевірятимуться;
- Advanced. Потрібно проставити галочки таким чином, щоб відображалося лише те, що бачать пошукові системи. Це спрощує роботу, прибираючи все зайве та підвищуючи наочність;
- Preferences. Тут вказуються розміри метатегів, URL-адрес, заголовків, атрибутів для картинок і самих зображень. Якщо потрібно врахувати всі сторінки, можна ввести великі значення.
Якщо потрібно виконати аналіз окремих розділів або лише один, потрібно перейти до Configuration > Include та ввести розділи, які потрібно включити до парсингу. Якщо потрібно, навпаки, виключити якісь розділи. Це можна зробити за допомогою Configuration > Exclude.
Для нових сайтів без адмінки аналіз можна виконувати за логіном та паролем, а замість адміністраторського доступу можна налаштувати гостьовий.
Як парсити у Screaming Frog SEO Spider
Потрібно ввести адресу сайту та натиснути Start. Тривалість аналізу залежить від кількості сторінок на сайті, перевірка в середньому виконується 5–20 хвилин. Під час роботи програми можна настроїти швидкість павука. Внизу робочого вікна можна побачити середню та поточну швидкість парсингу. При дуже великій швидкості можуть виникати збої. Тоді в налаштуваннях потрібно вказати меншу швидкість.
Можливості Screaming Frog SEO Spider
Для простоти роботи в Скрімінг Фрог передбачена можливість вивантаження сторінок в Excel. Розглянемо основні можливості програми та речі, які вона дозволяє редагувати та налаштовувати.
Кодування сторінок
На сторінці Internal необхідно визначити фільтр HTLM, а точніше стовпчик Content. Важливо, щоб скрізь було кодування UTF-8. При іншому кодуванні слід звернути увагу до сусідній стовпчик: яким кодом відповідає сервер. Допустимо, якщо код «301 редирект», то все нормально.
Метатеги
Це один із ключових інструментів SEO-парсингу. Важливо, щоб скрізь були прописані H1, description та title. Оцінюється як їх наявність, а й довжина. Якщо сторінок багато, можна використовувати фільтр, який відображатиме схожі метатеги. Це спростить роботу. Дуже важливо, щоб кожен метатег на сайті був унікальним (відмінним від інших). Пошукові системи це дуже люблять і завжди мають такі сайти високо в пошукових видачах. Далі необхідно проаналізувати розміри сторінок, також тривалість їх завантаження. Необхідно, щоб код сторінки був не більше 200 Кб, а сторінка завантажувалась не довше 5-6 секунд. Якщо вона провантажується довго, потрібно відкривати код, перевіряти та виправляти.
Робота з картинками
Щоб усунути важкі зображення, які уповільнюють завантаження сторінки, потрібно відкрити вкладку Images, увімкнути фільтр Over 100 kb і видалити всі важкі картинки. Також важливим є підпис зображення (атрибут alt). Необхідно, щоб її оптимізували під відповідні ключові слова.
Перелінківка
Основні сторінки необхідно розташовувати якомога ближче до головної сторінки сайту, вони не повинні мати глибоку вкладеність. Чим вище розташовані ключові сторінки, тим краще. Також на цих сторінках має бути менше вихідних анкорів та більше вхідних, тобто мають бути посилання на інших сторінках. Чим їх більше, тим більша внутріпосилальна вага ключової сторінки.
Пошук незаповнених сторінок
За допомогою фільтра HTML та стовпця Word Count потрібно перевірити, на яких сторінках тексту немає зовсім чи мало. При цьому рядки з кодами 404 та 301 слід ігнорувати. Решту сторінок, якщо вони потрібні, необхідно доповнити текстовим контентом, а якщо не потрібні – видалити.
Несправні адреси
Адреси перевіряються на вкладці URL-адреси. Існує багато нюансів, які потрібно враховувати при створенні урлів як технічні, так і візуальні. Бажано, щоби написання було максимально простим, якщо є така можливість.
Аналіз зовнішніх посилань
Щоб переглянути всі зовнішні посилання, потрібно відкрити вкладку External. Необхідно провести повний аналіз, а потім періодично все перевіряти ще раз, дивитися на якісні та кількісні значення. Неробочі посилання видаляти чи редагувати, щоб вони працювали.
Розуміючи, як користуватись Screaming Frog SEO Spider, можна провести технічний аудит сайту та виконати основні коригування. Однак не варто використовувати лише одну програму. Набагато ефективніше застосовувати Павука разом з іншими аналітичними засобами.