Każdy audyt SEO rozpoczynamy od zebrania danych używając do tego celu różnego typu oprogramowania, od darmowego (Netpeak Spider, Visual SEO Studio, IIS SEO Toolkit, WildShark SEO Spider), aż po komercyjne desktopowe aplikacje. Na rynku funkcjonują również narzędzia on-line, które udostępniane są w modelu abonamentowym. W tym wpisie jednak nie będę pisał o drogich narzędziach on-line, a o kolejnym małym zgrabnym desktopowym i w dodatku darmowym programie, który może pomóc zebrać informacje o witrynie, do późniejszego wykorzystania w audycie SEO.
Aplikacja nosi nazwę BeamUsUp SEO Crawler, napisana jest w języku programowania Java, dlatego też sofcik uruchomimy na wszystkich popularnych platformach Windows (XP, 7, 8, 10), Linux i Mac. Wystarczy zainstalować środowisko JRE.
Program jest szybki, w konfiguracji programu możemy ustawić liczbę wątków, ograniczyć liczbę przetwarzanych URLi, a także włączyć inteligentne wykrywanie duplikowania (Smart duplicate check), choć owa nazwa (funkcja) na wyrost, albowiem program wprawdzie prawidłowo informuje o duplikowaniu meta opisów (w testowym przykładzie podstrony paginacji), ale już nie uwzględnia kwestii noindex, który na podstronach paginacji występuje (podstrony z noindex, jako że są wykluczone z wyników nie klasyfikuje się jako duplikaty). Dlatego jak zwykle, po zebraniu danych, musimy jeszcze wszystko dokładnie przeanalizować, uwzględniając sprawy, których autor narzędzia nie wziął pod uwagę.
W opcjach konfiguracyjnych brakuje podstawowych rzeczy, jak choćby możliwości ustawienia własnego User Agent oraz ustawienia czasu opóźnienia dla każdego wykonywanego żądania HTTP.
Autor BeamUsUp bardzo fajnie rozwiązał kwestię prezentacji i filtrowania wyników, wszystko jest dostępne z poziomu okna głównego, maksymalnie jednym kliknięciem możemy łatwo przechodzić między poszczególnymi filtrami i sekcjami. Za to duży plus. Brakuje opcji ukrywających kolumny, już sama funkcja pozwalająca na reorganizację kolejności kolumn byłaby niezwykle pomocna, podczas analizy danych wprost z poziomu okna BeamUsUp, a tak to trzeba dane wyeksportować do arkusza kalkulacyjnego. Oprócz XLS do dyspozycji mamy także eksport danych do CSV. Poniżej przykładowy raport w XLS…
W pliku XLS znajdziemy wszystkie przecrawlowane strony (All), jak również dane odnoszące się do konkretnych typów błędów. Raporty w sekcjach meta.description.duplicate czy title.duplicate obowiązkowo powinny zawierać kolumnę wskazującą, czy na danej podstronie zastosowano noindex, w przeciwnym wypadku analiza duplikowania, w oparciu o dane z zakładki nie ma sensu.
BeamUsUp SEO Crawler to z pewnością ciekawe i perspektywiczne narzędzie, któremu warto dać szansę.
„Fajny program, ale linka do niego znajdźcie sobie w necie”
Na prawdę jakieś ważne przesłanki były ku temu, żeby art nie miał linka? Przez to nie jest user friendly :p
Zapomniałem umieścić 😉
Dzięki za info!
Do kolegi oklopek jakbys nie mogl uzyc wyszukiwarki google. Dzisiaj mlodzi chca miec wszystko podstawione pod nos juz lekki wysilek sprawia ogromny problem. Wysil sie troche.
Co zrobić, takie mamy czasy 🙂 ale nie mam nic do niego bo faktycznie zapomniałem dać url we wpisie. Sam bym to wyłapał ale nie tak szybko.
Komentarz może nie konkretnie do tego ale ogólnie do autora strony. Duże wyrazy uznania odwiedzam stronę regularnie i zawsze jest ciekawy konkretny artykuł, drobiazg, narzędzie itd. które mnie zainteresuje. Trochę jest jak w tym komentarzu powyżej – „wszystko podane na tacy” – tak trzymać pozdrawiam
@waldi26, dzięki za miłe słowa.
Fajnie że znalazłam Twój wpis. Szukałam czegoś podobnego bo dotychczas korzystałam tylko z generatorów audytów online. Na pewno to narzędzie jest w stanie zaoferować dużo więcej.