O sprawdzaniu martwych linków napisano już wiele artykułów, omówiono dziesiątki aplikacji jak Xenu Link Sleuth, Link Checker, DRKSpider, dodatek do przeglądarki Firefox – Link Evaluator czy Screaming Frog SEO Spider. W tym wpisie chciałbym uzupełnić wypowiedzi poprzedników, poprzez prezentację nowego narzędzia jakim jest LinkCrawler.
Aby uruchomić aplikację należy zainstalować biblioteki uruchomieniowe środowiska Java (JRE).
LinkCrawler oferuje następujące funkcje:
- Zbiera informacje na temat linków (z podziałem wewnętrzne, wychodzące).
- Sprawdza i zwraca status HTTP linków.
- Sprawdza linki IMG (wyłapywanie uszkodzonych zdjęć).
- Sprawdza mapę strony XML sitemap.
- Wspiera uwierzytelnianie HTTP.
- Wspiera diagnostykę offline (localhost).
- Tworzy raporty w formacie HTML lub Microsoft Excel.
Oprócz tego znajdziemy funkcje w postaci kontroli głębokości przeszukiwania czy też listę wykluczeń, do której można dopisać adresy, które zostaną pominięte podczas procesu sprawdzania. Funkcjonalność aplikacji nie powala na kolana, można wręcz powiedzieć, że zdecydowanie ustępuje liderowi w tej klasie – Screaming Frog SEO Spider.
Autor zapewnia, iż LinkCrawler oferuje dobrą wydajność podczas sprawdzania dużych witryn (1000 linków na stronę/podstronę). Rzeczywiście szybkość jest przyzwoita, natomiast co do jakości mam pewne zastrzeżenia. Przy wolnym łączu, w szczególności radiówce, może okazać się, że linki będą błędnie klasyfikowane – oznaczone zostaną jako martwe.