TechFormator
  • Mobile
  • Systemy
  • Sprzęt
  • e-Marketing
  • Bezpieczeństwo
  • Inne
    • Aktualności
    • Oprogramowanie
  • Social Trends
  • Kontakt
  • Reklama
TechFormator
  • Mobile
  • Systemy
  • Sprzęt
  • e-Marketing
  • Bezpieczeństwo
  • Inne
    • Aktualności
    • Oprogramowanie
  • Social Trends
  • Kontakt
  • Reklama
Mariusz Kołacz
51 komentarzy
28 maja 2012
człowiek z lupą coś dokładnie sprawdza

Sprawdzanie indeksacji – Google Index Checker

Podczas procesu pozycjonowania stron niezwykle istotnym etapem jest analiza, czy wpisy w katalogach, preclach, blogach zostały zauważone przez Google – inaczej mówiąc, czy znajdują się w indeksie wyszukiwarki. W celu automatyzacji tego procesu postanowiłem stworzyć własne narzędzie, które w sposób efektywny sprawdzałoby stopień indeksacji. Program dostępny za darmo dla wszystkich fanów TechFormator. Kliknij Lubię to! i zdobądź aplikację.

Google Index Checker – prezentacja programu

UWAGA! Program wymaga podania hasła dostępu. Każdy z Was, kto polubił witrynę techformator.pl może pobrać darmowy kod z fanpejdż (sekcja Free Seo Tools).

Okno główne Google Index Checker podzielone jest na cztery sekcje.

Google Index Checker

Na samej górze znajdziemy kluczowe funkcje programu takie jak:

  • Wczytaj XML – wczytuje zestaw adresów z pliku XML, może to być mapa witryny (sitemap.xml) lub inny plik w formacie XML. Zostaną wczytane tylko te dokumenty, które zostały przygotowane zgodnie ze standardami.
  • Wczytaj TXT – wczytuje linki z pliku tekstowego.
  • Zapisz – pozwala zapisać dane do dwóch niezależnych plików tekstowych (strony zaindeksowane, niezaindeksowane). Ścieżka definiowana przez użytkownika.
  • Stop/Start – zatrzymuje/uruchamia proces sprawdzania.
  • Auto zapis do TXT – automatycznie zapisuje wyniki do plików tekstowych (zaindeksowane.txt, niezaindeksowane.txt), pliki powstaną w głównym katalogu programu.
  • Symuluj człowieka – wprowadza czas opóźnienia między kolejnymi zapytaniami kierowanymi do wyszukiwarki. Opcja zmniejsza częstotliwość wykonywania zapytań, co minimalizuje ryzyko nałożenia restrykcji na adres IP komputera. Przydatna gdy mamy do sprawdzenia dużą pulę adresów.

Google Index Checker uzyskuje skuteczność klasyfikacji na poziomie 99% (Google.pl). Dotychczas najlepsze darmowe narzędzia SEO uzyskiwały wyniki na poziomie 76-87%.

Wymagania:

  • System operacyjny XP, Vista, Windows 7 32/64-bit lub Linux ze środowiskiem Wine i wgranymi bibliotekami środowiska Microsoft .NET (zobacz instrukcję dla Linux),
  • Biblioteki .NET Framework w wersji 4.0,
  • Pamięć RAM: 64MB,
  • Aktywne połączenie z Internetem.

Google Index Checker w wersji 1.0 udostępniam na licencji Freeware.

Polecane dla Ciebie

analytics

Google Analytics, statystyki w czasie rzeczywistym

wirtuoz

Zostań wirtuozem audytowania stron

robimy coś na laptopie

Dodawarka do WebMini – pierwszy test Super Mini

51 komentarzy

Kliknij tutaj aby skomentować
  • Seopek pisze:
    28 maja 2012 o 21:14

    Fajny programik, rzeczywiście skuteczność 100% w szybko przeprowadzonym teście. Szkoda tylko, że przy każdym uruchomieniu trzeba wpisywać hasło – mało to wygodne. No i fajnie by było gdyby można było maksymalizować okno programu, ale to nie jest aż tak istotne. Super programik, dzięki!

    • Mariusz Kołacz pisze:
      28 maja 2012 o 21:42

      W kolejnych programach/wersjach będę kombinował z mechanizmem cachowania danych autoryzacyjnych, co z tego wyjdzie zobaczymy. Maksymalizację okna raczej sobie darujemy bo wtedy program wygląda śmiesznie na monitorze 22 calowym, lepiej wygląda już taki mały żuczek 😉

  • Paweł Rabinek pisze:
    29 maja 2012 o 08:15

    Taką funkcjonalność posiada także Scrapebox, ale jeżeli ktoś nie posiada to Twój program może być bardzo pomocny. Przydatna byłaby możliwość dodania proxy, aby szybko nie zablokować sobie Google. Fajnie, że udostępniasz taki soft.

    • Mariusz Kołacz pisze:
      29 maja 2012 o 08:32

      W celu minimalizowania ryzyka zostało wprowadzone losowe opóźnienie. Proxy już jest testowane w nowszej wersji, tyle że przy udziale proxy skuteczność programu spada.

  • justcheck pisze:
    29 maja 2012 o 08:23

    szybkie pytanie do Autora:
    program niestety bardzo szybko mi się zwiesza. Czy jest jakaś maksymalna ilość linków, którą program jest w stanie sprawdzić jednorazowo? Czy nie jest to czasem związane z ilością zapytań z jednego IP? Jeśli tak, to czy jest jakaś możliwość podpięcia pod program proxy?

    • Mariusz Kołacz pisze:
      29 maja 2012 o 08:37

      Program testowałem na kilku paczkach po 200 linków, zarówno z włączoną opcją „Symuluj człowieka” jak i bez niej wszystko było ok. Obecna wersja wprawdzie nie obsługuje proxy, lecz zawsze można cały ruch przekierować używając do tego celu zewnętrzne narzędzia typu ProxyCap.

    • justcheck pisze:
      29 maja 2012 o 08:44

      rozumiem. niestety nie miałem na myśli paczki o wielkości 200 linków 😉 ze sprawdzeniem indeksacji takiej ilości zwykle nie mam problemu. problemy zaczynają się w ilościach kilku, kilkunastu, a nawet kilkudziesięciu tysięcy linków. Niestety chyba dobrze rozumiem, że TO narzędzie nie jest przeznaczone dla takich ilości…?

    • Mariusz Kołacz pisze:
      29 maja 2012 o 08:50

      Przy 200 adresach mogłem sprawdzić skuteczność programu ręcznie… no może nie do końca ręcznie bo przy użyciu iMacros ale przy manualnym wglądzie czy jest ok. A przy większej ilości kilku tysięcy nie testowałem, ponieważ zabrałoby to za dużo czasu. W przypadku tak dużych ilości obawiam się, że losowy czas opóźnienia to za mało 😉

  • Artur pisze:
    29 maja 2012 o 08:30

    Zalajkowałem stronę na Facebooku, ale w sekcji Free SEO Tools widzę tylko ciąg kodu i nic więcej. Może jakiś błąd wyskoczył i to powoduje, że ani nie widać kodu, ani nie ma skąd pobrać programu.

    • Mariusz Kołacz pisze:
      29 maja 2012 o 08:46

      Dzięki za info. Sprawdziłem teraz i wszystko działa jak należy – na Google Chrome. Sugeruję wyczyścić ciasteczka i spróbować ponownie. Jeśli nie będziesz mógł dostać się do podstrony, proszę napisać na mail, mile widziany zrzut ekranu z FB 😉 Pozdrawiam!

  • Paweł pisze:
    29 maja 2012 o 08:56

    Artur… link był podany w treści artykułu 😛 https://techformator.pl/files/programy-seo/googleindexchecker.rar

  • Lexy pisze:
    29 maja 2012 o 09:16

    Paweł, Arturowi chodziło o brak hasła na fanpage’u. U mnie też wyświetlał się sam kod i po wyczyszczeniu ciastek jest to samo pod FF. Pod Chrome jest OK… zaraz potestuję 🙂

  • Maciej pisze:
    1 czerwca 2012 o 20:02

    Pobrałem. Program faktycznie wskazuje dobre pozycje i inne parametry, jednak za każdym razem się zawiesza i muszę go zrestartować.

    • Mariusz Kołacz pisze:
      1 czerwca 2012 o 20:10

      Program ma „wyciszone” wszelkie błędy. Komunikaty użytkownikom nie będą pokazywane, ta kwestia będzie uzupełniona w kolejnych wersjach. Natomiast zawsze można zobaczyć co siedzi w dziennikach zdarzeń. Prześlij mi na mail dzienniki EVT lub EVTX w zależności jaki system Masz. Instrukcję znajdziesz na hotfix >> http://www.hotfix.pl/podglad-zdarzen-zapisywanie-dziennikow-xp-vista-windows-7-a47.htm

  • Adrian pisze:
    2 czerwca 2012 o 00:10

    Super aplikacja i ułatwia rzeczywiście te czynności:) Masz głowę na karku 🙂 Dzięki i pozdrawiam serdecznie

  • Artur pisze:
    4 czerwca 2012 o 22:53

    Już ruszyło pod przeglądarką Firefox, niestety nie używam Chrome, bo to zło wcielone, więc nie miałem jak sprawdzić jaki jest kod dostępowy do programu.

  • buzz marketing pisze:
    6 czerwca 2012 o 11:28

    witam, czy jest możliwość napisania przez autorów jakiegoś API do serwera (oczywiście nawet w wersji płatnej) aby aplikacje web’owe mogły odpytywać się o zaindeksowane adresy?? czy planujecie jakieś API ?

    • Mariusz Kołacz pisze:
      6 czerwca 2012 o 11:58

      Żeby zrobić API musiałbym przepisać aplikację na język PHP i umieścić ją na serwerze. Google Index Checker jest programem okienkowym dla Windows, na Linux też go uruchomimy albo via Wine lub poprzez środowisko Mono.

    • buzz marketing pisze:
      6 czerwca 2012 o 12:07

      czekamy więc z utęsknieniem na taką możliwość (web api), przydałby się bardzo rożnym narzędziom, nie tylko tym popularnym dla wszystkich (komercyjnym także), ale wewnętrznym, z których korzystają różne firmy seo, uważam że można by także zapłacić za taką subskrypcję api (w zdroworozsądkowych cenach) 🙂

    • Mariusz Kołacz pisze:
      6 czerwca 2012 o 12:17

      Dzięki za propozycje, na pewno takie rozwiązanie jest do rozważenia 😉

  • Zbigniew Grabowski pisze:
    6 czerwca 2012 o 18:15

    Dzięki za kolejne fajne narzędzie 🙂

    Podoba mi się, że działa na Win7. U mnie na x64 śmiga aż miło, pozostaje zabrać się do roboty i zestawić wszystkie linki z katalogów, precli…

  • Daniel D pisze:
    8 czerwca 2012 o 13:53

    Bardzo fajny programik , u mnie smiga aż milo. Byle wiecej takich pomyslów. Pozdrawiam i czekam na kolejne:D

  • ap_seo pisze:
    18 czerwca 2012 o 14:33

    bardzo fajne narzedzie, dzieki
    ale niestety, nie działa do tzw. głębokich linków, tj np sprawdzanie wpisow w niektorych katalogach itp ktore sa w formie z parametrami 🙁
    A aktualnie testuje pewne rozwiazanie i mam do sprawdzenia 600url’i wiec bardzo bym potrzebowal czegos automatycznego co sprawdza albo dokladny adres strony z parametrami lub ew. czy wpis siedzi w cache

    • Mariusz Kołacz pisze:
      18 czerwca 2012 o 16:00

      Adresy z parametrami także są obsługiwane, lecz na wyjściu możemy dostać więcej danych podlegających analizie stąd wydłużenie czasu rozpoznawania. Jak dotąd nie zauważyłem, aby program nieprawidłowo klasyfikował tego typu linki, co nie oznacza, iż taki scenariusz nie może się przydarzyć – jest to możliwe właśnie z uwagi na brak ograniczenia ilości danych biorących udział w analizie. Aby potwierdzić błąd musiałbym mieć przynajmniej kilka adresów URL, które zostały błędnie sklasyfikowane przez program.

      Wiele programów klasyfikuje adresy poprzez dopasowanie ścisłe w wyszukiwaniu, lecz takie założenie na starcie jest błędne i nieoptymalne… więc tak jak mówisz, aby precyzyjnie rozpoznawać tego typu adresy należy wykorzystać Google Cache. Najnowsza nieoficjalna wersja programu (1.01) dostępna dla betatesterów tej funkcji nie posiada, do uzupełnienia 😉

      Dzięki za informacje!

    • ap_seo pisze:
      18 czerwca 2012 o 16:39

      @ „Wiele programów klasyfikuje adresy poprzez dopasowanie ścisłe w wyszukiwaniu, lecz takie założenie na starcie jest błędne i nieoptymalne…”

      właściwie to dlaczego?

      poza tym jesli program nie stosuje scislych dopasowan to w jaki sposob dziala (tak pokrótce, jesli to nie tajemnica) i jak rozróżnia adresy, jeśli np są na jakimś forum gdzie są one w formie:

      hxztp://www.forum/viewtopic.php?f=3&t=111
      i w takim przypadku zauwazylem ze komenda site zwraca liste wynikow

      hxztp://www.forum/viewtopic.php?f=3&t

      np.

      hxztp://www.forum/viewtopic.php?f=3&t=112

      hxztp://www.forum/viewtopic.php?f=3&t=311

      itd….
      a wpisu
      „http://www.forum/viewtopic.php?f=3&t=111:”
      nie ma w indexie…

    • Mariusz Kołacz pisze:
      18 czerwca 2012 o 17:33

      Załóżmy że dodaliśmy stronę do katalogu, następnie podlinkowaliśmy ją jedną z dostępnych metod, powiedzmy wykorzystaliśmy do tego fora (tematy/profile). Stosując dopasowanie ścisłe szukamy czy dany wpis jest zaindeksowany czy nie, na wyjściu niejednokrotnie zobaczymy dużą ilość danych, które nijak mają się do wyniku indeksacji. W wynikach wyszukiwania mogą być zaindeksowane tematy z forum zawierające linki do naszego kochanego wpisu w katalogu – frazy którą szukamy. Do czego zmierzam, wpisy na forach mogą zostać szybciej zaindeksowane, przez co po wykonaniu zapytania w dopasowaniu ścisłym na wyjściu dostaniemy błędne wyniki i dany adres zostanie źle sklasyfikowany. Oczywiście ktoś może powiedzieć, iż można to wszystko odpowiednio przefiltrować i sklasyfikować, owszem można tylko po co? To jest tylko utrudnianie sobie życia, a taka aplikacja jest totalnie nieoptymalna.

      Powszechnie wiadomo, iż operator site służy właśnie do określania zaindeksowanych stron. Jeśli zastosujemy go w odniesieniu do konkretnego adresu zawsze zwróci wartość 0 lub 1. Jeśli wpis został przetworzony i umieszczony w indeksie ZAWSZE zostanie wylistowany. Nie ma to najmniejszego znaczenia, że operator jest niedokładny, niedokładność objawia się wyłącznie w sytuacjach gdy sprawdzamy całe domeny np. site:www.domena.pl

      Kiedyś na PiO jaśnie oświecony Kojotek wielce się rzucał jakoby metoda była zła – bzdura, jeszcze bredził o supplemental index twierdząc że jak wpis jest w SI to nie działa. Wpisy aby znalazły się w SI MUSZĄ zostać przetworzone przez wyszukiwarkę, na logikę muszą być również umieszczone w bazie (indeksie) wyszukiwarki – inaczej indeks uzupełniający nie miałby racji bytu. Stosując operator site ograniczamy ilość wyników do domeny, a w odniesieniu do konkretnego adresu URL wynik zostaje ZAWSZE ograniczany do ów adresu, i na wyjściu albo coś mamy albo nie.

      Dlatego śmiem twierdzić a nawet wiem to na 100%, że Kojotek, który pozjadał wszystkie rozumy na PiO popełnił jedną z największych swoich wpadek w historii i najwyraźniej nie ma zielonego pojęcia o czym pisze.

      Dlaczego nieoptymalne? Nieoptymalne z uwagi na dużą ilość danych które podlegają filtrowaniu. Tam gdzie jest to możliwe (a przy sprawdzaniu indeksacji jest) należy minimalizować ilość danych, które poddajemy obróbce.

      Co do przykładów…

      Żebym mógł się odnieść do tego potrzebuję konkretów, podałeś wxw.forum, takie coś zawsze na wyjściu będzie zwracało błąd 😉 Zaindeksowany adres z parametrem da wynik pozytywny, lecz na wyjściu będziemy mieli często więcej niż jeden wynik, przez co wydłuży się jedynie czas klasyfikacji. Choć tak jak mówię, jeśli masz adresy które są błędnie klasyfikowane proszę podeślij mi je na mail, sprawdzę sytuację.

      PS. Sytuacja którą opisuję dotyczy linków o przyjaznej strukturze, nie dot. form z parametrami. Tutaj są inne reguły.

  • Wojtek pisze:
    19 czerwca 2012 o 21:21

    Witaj!
    Dzięki za przydatne narzędzie.
    Mam pytanie – czy planowane jest poszerzenie programu o inne wyszukiwarki? Przede wszystkim Bing i Yahoo. Ja wiem, że Google to potęga, ale na potrzeby rynku angielskiego trzeba wziąć pod uwagę także tamte 2 wyszukiwarki.

    • Mariusz Kołacz pisze:
      20 czerwca 2012 o 06:40

      Wojtek, dzięki za propozycję. Nie myślałem o tym. Na ten moment program jest bardzo młody, wszystko przed nim 😉

  • Tomek pisze:
    10 lipca 2012 o 17:36

    Jak dotąd zero problemów. Chyba zrobiłeś jeden z najlepszych darmowych programów tego typu na polskim rynku.

    PS. Zgodzę się z przedmówcą, warto zrobić wyszukiwanie nie tylko dla google pl ale także dla innych wyszukiwarek np. Bing.
    Pozdrawiam Tomek

  • Maciek pisze:
    20 lipca 2012 o 13:49

    Świetny programik – i do tego za darmo! I pomyśleć, że przez ostatnie miesiące sprawdzałem site ręcznie. Teraz mam dużo więcej czasu na inne rzeczy. Wielkie dzięki za udostępnienie 🙂

  • zbyszek82 pisze:
    26 lipca 2012 o 08:24

    Ja do tej pory korzystałem ze scrapebox’a, ale ostatnio w ogóle przestała ta funkcja działać. Wszystko co wrzucam pokazuje jako niezaindeksowane.
    Twój soft spadł mi z nieba 🙂 wielkie dzięki teraz będę korzystał z niego na co dzień.

  • Seba pisze:
    26 lipca 2012 o 08:34

    Nie żebym jakoś specjalnie reklamował, ale dla mnie najtańszym rozwiązaniem jeśli chodzi o proxy jest proxy market. Za 9zł mam 10 adresów ip na 30 dni. Adresy są publiczne, ale co jakiś czas odświeżane więc cały czas działające. W scrapebox sprawdzam sobie czy działają i można na nich leciec.

    • Mariusz Kołacz pisze:
      26 lipca 2012 o 09:04

      Coś pachnie reklamą… 😉
      A na poważnie, proxy market ma jedną podstawową wadę – korzysta z publicznych proxy. Wolałbym dołożyć parę groszy i mieć dostęp do prywatnego proxy, gdzie miałbym pewność, że stabilność połączenia zawsze będzie reprezentowała przyzwoity poziom.

  • Sławo pisze:
    26 lipca 2012 o 08:36

    Mariusz nigdy wcześniej nie korzystałem z Twojego softu chętnie bym to zrobił, ale mimo lajkowania nie mogę znaleźć linku do jego pobrania. Gdzie go znajdę?

    • Mariusz Kołacz pisze:
      26 lipca 2012 o 09:05

      Link jest zawarty w głównym poście o GIC tj. https://techformator.pl/sprawdzanie-indeksacji-google-index-checker/

  • darekm pisze:
    22 sierpnia 2012 o 14:14

    nie dziala mi haslo podane na fanpage te co konczy sie ) pomzecie chcialbym przetestowac programik

    • Mariusz Kołacz pisze:
      22 sierpnia 2012 o 14:19

      Napisz w tej sprawie do mnie na priv. Być może dostałeś 403 forbidden i nie przechodzisz autoryzacji.

  • Mateusz pisze:
    31 sierpnia 2012 o 12:56

    Witaj,
    nod32 antyvirus 5 zwraca monit o potencjalnie niepożądanej aplikacji – MSIL.Packed.CodeFort.A w Twoim archiwum.
    Mógłbyś to proszę zweryfikować ?

    • Mariusz Kołacz pisze:
      31 sierpnia 2012 o 13:31

      Witaj!

      Plik nie zawiera żadnego złośliwego kodu. Kilka tygodni temu był skrupulatnie badany pod tym kątem, tylko ESET wykrywa, lecz nie jest to wirus tylko MSIL/CodeFort – dołączona instrukcja do blindingu kodu.

      W związku z powyższym należy wnioskować, iż ESET wypuszcza błędny komunikat false positive.

      Dziękuję za zgłoszenie.

  • Wojtek pisze:
    22 września 2012 o 11:11

    Ten program to coś wspaniałego. Jak wiadomo odwiecznym problemem dla ludzi zarówno zajmujących się profesjonalnie, jak i amatorsko SEO była indeksacja wpisów na stronach zapleczowych, w katalogach, preclach itd. Próbowałem rozwiązać ten problem przy użyciu serwisów pingujących, ale kiedy miałem już do pingowania ponad 300 stron z linkami to był naprawdę duży problem dla mnie, potrzebowałem właśnie takiego programu jak Pingomat, który zrobiłby to wszystko dla mnie.

  • jaclaw pisze:
    1 listopada 2012 o 17:08

    Jak program sprawdza indeksację? Zauważyłem że z „nieprzyjaznymi” linkami ma problemy. Site dla adresu typu adres.pl/?id=1234 często jest spore a adres ten może być niezaindeksowany. Z kolei znalazłem adres podobny (nie przyjazny) i komenda info: zwraca mi 1 wynik, a program wrzuca do niezaindeksowanych.. Czy ja gdzieś źle rozumuję czy program nie jest dopracowany dla urli starej generacji?

    W razie czego proszę o info o odp. na maila, bo mogę zapomnieć że zadałem takie pytanie tu 😉

    • Mariusz Kołacz pisze:
      2 listopada 2012 o 09:01

      Witaj.
      Wersja z parametrami jest sprawdzana poprzez Google Cache, jeśli strona zwraca 404 to jest klasyfikowana jako niezaindeksowana więc może tutaj zdarzyć się tak, iż strona będzie zaindeksowana, a nie będzie jej w Cache. Zrzuty witryn w cache pojawiają się czasem ze sporym opóźnieniem. Metoda sprawdzania adresów z parametrami wymaga ulepszenia bez dwóch zdań 🙂

      Pracuje nad rozszerzeniem wyszukiwania, dla Gcache będą nowe metody sprawdzania, dla adresów przyjaznych także. Nowych funkcji będzie można się spodziewać w wersji 1.3 lub 1.4.

    • jaclaw pisze:
      2 listopada 2012 o 17:35

      Dziękuję za szybką odpowiedź i mam nadzieję, że poprawione i bogatsze wersje będą również za darmo udostępnione do pobrania na Twoim blogu… Pozdrawiam.

  • kogio pisze:
    14 listopada 2012 o 19:32

    Program bardzo fajny ale się zawiesza przy większych plikach. Kiedy możemy się spodziewać nowej wersji?

    • Mariusz Kołacz pisze:
      15 listopada 2012 o 08:03

      Nie prędko, albowiem na tym etapie zdecydowałem się na całkowitą przebudowę aplikacji. Najbliższe wydanie to 2.0, wersja 1.2 będzie prawdopodobnie uzyskiwała tylko krytyczne aktualizacje o ile będą konieczne.

  • kogio pisze:
    15 listopada 2012 o 22:14

    Ok. Źle wyświetla się w 1600×900. Chexbox „Symuluj człowieka kryje się pod „Auto zapis TXT”. Tak samo logo Techformator.
    Czy autor planuje usuniecie wpisywania za każdym razem hasła? 🙂 Przydałoby się..Wystarczy 8 razy a każdy zapamięta;)

    • Mariusz Kołacz pisze:
      16 listopada 2012 o 19:01

      Dzięki.
      Ciężko będzie to teraz sprawdzić i wprowadzić modyfikację ale będę pamiętał o tym. Jak tylko będzie sposobność do testów wykonam je i zobaczę co w trawie piszczy.
      Mechanizm cachowania autoryzacji musi być wdrożony. Na ten moment nic więcej nie mogę powiedzieć.

  • Rachman pisze:
    28 listopada 2012 o 18:07

    Świetny programik 🙂 dzięki. Nie testowałem co prawda na większych ilościach linków ale na małych ilościach program zachowuje się dobrze.

  • Janek pisze:
    19 marca 2013 o 09:04

    Dzięki bardzo, program bardzo się przydał. Ręczne sprawdzanie linków z katalogowania i presell to była katorga 🙁

  • Bartek pisze:
    4 maja 2015 o 22:55

    Witaj Mariusz,
    czy planujesz w najbliższym czasie wydać nowa wersję Google Index Checker?
    Pytam, ponieważ fajny jest ten Twój program ale brakuje mi w nim obsługi Proxy bo przy większej ilości linków Google blokuje dostęp do wyszukiwarki.

    • Mariusz Kołacz pisze:
      6 maja 2015 o 09:24

      W najbliższych 2 miesiącach nie ma na to raczej szans.

Kategorie

  • Aktualności68
  • Internet i bezpieczeństwo44
  • Marketing internetowy168
  • Oprogramowanie43
  • Sprzęt38
  • Systemy operacyjne39
  • Urządzenia mobilne23

Najczęściej czytane

notatnik wordpress

Pozycjonowanie WordPress – przydatne wtyczki

praca dla ecoomerce

Księgowość dla e-commerce – kryteria wyboru biura rachunkowego

inbound marketing

Inbound marketing. Czym jest I jakie daje korzyści?

kostka z numerem 10

Wprowadź swoją stronę do TOP10 z SEOPilot

Wyszukaj

Poradniki IT

porównanie obrazków

Porównywanie zdjęć – poznaj darmowy program DiffImg

zdjęcie na tle monitora

Kompresja plików PDF JPG JPEG MP3 MP4 TIFF GIF MKV 3GP SWF i 200 innych

kobieta ultrabook

Waterfox Portable – przenośna wersja przeglądarki

stan baterii w laptopie

BatteryBar, odczyt poziomu zużycia baterii

Poradniki SEO

Black Friday 2019

10 wskazówek jak nie dać się oszukać podczas Black Friday 2022 i Cyber Monday 2022

seo content

Prowadzenie bloga sklepu internetowego – 20 przydatnych narzędzi

notatnik wordpress

Pozycjonowanie WordPress – przydatne wtyczki

seo wzrost na wykresie

Jak sprawdzić czy strona jest pozycjonowana?

Oferta

Świadczę kompleksowe usługi z zakresu marketingu internetowego, w szczególności optymalizacja, pozycjonowanie stron i sklepów internetowych, audyty SEO, audyty pozycjonowania, audyty linków, audyty słów kluczowych, audyty kar od Google, audyty techniczne. Prowadzę również kampanie reklamowe Google ADS i Facebook ADS oraz tworzę treści na sklepy internetowe i blogi. Przeczytaj więcej na SocialTrends.pl

O blogu TechFormator

Na blogu poruszane są tematy związane z marketingiem internetowym i nowymi technologiami. Znajdziesz tutaj poradniki o pozycjonowaniu i optymalizacji stron, recenzje narzędzi SEO, oprogramowania użytkowego dla Windows, Linux i urządzeń mobilnych, recenzje sprzętu IT oraz poradniki komputerowe.

Copyright 2023 - Blog technologiczny TechFormator.pl
  • Pozycjonowanie
  • Reklama
  • Archiwum
Wykorzystujemy pliki cookies. Przeglądając stronę wyrażasz zgodę na ich wykorzystanie zgodnie z ustawieniami przeglądarki [Polityka prywatności]