za free
Aktualności

Zdejmij filtr ze strony – usługa warta 1000zł teraz dostępna za free!

W dobie Pingwina i Pandy nie trudno złapać filtr. Zapewne w ostatnich 3 miesiącach Google wysłało więcej powiadomień o nienaturalnych linkach niż przez cały ubiegły rok. Filtr jak wiadomo może być niezwykle bolesny, w sklepach internetowych może spowodować prawdziwe spustoszenie, które może doprowadzić nawet do upadku firmy. Wielu właścicieli witryn dotkniętych filtrem zapewne doceni moją inicjatywę. Chcesz wiedzieć jaką?

Mowa o usłudze zdejmowania kar tj. filtrów ręcznych. Propozycja skierowana jest do wszystkich osób, które otrzymały powiadomienie o nienaturalnych linkach (pojawienie się w panelu „Działania ręczne” komunikatu o wykryciu nienaturalnych linków).

Pewnie powiecie co ten gość wyprawia, oferuje usługę za free, która w normalnych warunkach kosztuje nawet 1000 złotych od strony! Zastanawiasz się zapewne co ja z tego będę miał? Już odpowiadam…

  1. Wyeksportowany plik z odsyłaczami będzie służył jako dane testowe dla mojego nowego narzędzia, które w założeniu ma pomóc mi w klasyfikacji stron internetowych (a także w zdejmowaniu filtrów). By narzędzie było skuteczne potrzebuje większej ilości próbek, bez nich nic nie zdziałam.
  2. Google od pewnego czasu podaje propozycje linków, które uznaje za nienaturalne. Po zgłoszeniu prośby o ponowne sprawdzenie witryny, w odpowiedzi otrzymujemy informację o utrzymaniu w mocy bądź zdjęciu kary, w przypadku gdy kara nie zostanie zdjęta Google może wyświetlić przykładowe linki. Na nich mi również zależy.
  3. Zbieranie cennego doświadczenia – analiza konkretnych przypadków, wyławianie prawidłowości czyli inaczej mówiąc pozyskanie wiedzy niezbędnej do ulepszenia mojego warsztatu SEO.

W związku z powyższym zdecydowałem się zaoferować nieodpłatnie usługę przygotowania pliku z linkami (bez gwarancji zdjęcia filtra), które są szkodliwe i przez które najprawdopodobniej otrzymałeś filtr od Google – mowa o pliku disavow. Oczywiście oszacowanie każdego linku odbywa się na podstawie mojego algorytmu. Analizując linki uwzględnię kilkanaście czynników, które determinują jakość strony i samego odsyłacza. Dane będę analizował dwuetapowo, automatycznie i ręcznie.

Chcesz abym przygotował dla Ciebie plik disavow?

Poprzez formularz kontaktowy lub e-mail zgłoś chęć uzyskania darmowej pomocy. W treści zgłoszenia podaj adres WWW strony oraz wyeksportuj z Narzędzi dla webmasterów dane dotyczące najnowszych linków prowadzących do Twojej strony. Otwórz plik CSV w dowolnym arkuszu kalkulacyjnym np. LibreOffice Calc i podaj mi liczbę wszystkich linków. Zgłoszenia bez całkowitej liczby linków nie będą rozpatrywane!

W pierwszej fazie (zbieranie zgłoszeń) nie wymagam żadnych plików CSV. W całym procesie analizy nie będę również wymagał dostępów do Google Webmaster Tools. To do Ciebie będzie należało napisanie i wysłanie prośby o ponowne sprawdzenie witryny! Ja przygotowuje plik disavow, który możesz wykorzystać do zdjęcia filtru ze strony. Oczywiście istnieje możliwość rozszerzenia działań na Twoją wyraźną prośbę.

Raz na miesiąc (być może częściej) wybiorę spośród nadesłanych zgłoszeń jedną stronę, której zaoferuję przygotowanie pliku disavow. Czas analizy uzależniony będzie od liczby odsyłaczy, przygotowanie pliku disavow może zając do 30 dni roboczych. W tygodniu jestem w stanie wygospodarować dodatkowy czas na tego typu przedsięwzięcie więc myślę że w każdym miesiącu uda się zrealizować przynajmniej jedno zadanie.

Jeśli Twoje odwołanie do Google zakończy się fiaskiem, oczekuje że dostanę od Ciebie informację z przykładowymi linkami, które według Google wciąż łamią wytyczne. Wtedy jeszcze raz zerknę na linki prowadzące do strony i jeśli będzie to konieczne uzupełnię plik disavow o nowe odsyłacze i jeszcze raz prześlę Ci go do wgrania.

UWAGA! Zastrzegam sobie prawo do odwołania niniejszej oferty pomocy w każdej chwili. Oczywiście informacja ta zostanie podana do publicznej wiadomości na blogu bądź za pośrednictwem mediów społecznościowych.

O autorze

Mariusz Kołacz

Z zawodu mgr inż. informatyk, zwolennik nowoczesnych technologii i fan Nikoli Tesla. Prowadzi kilka blogów o tematyce technologicznej. Po godzinach lubi przeczytać dobrą książkę, pozwiedzać ciekawe miejsca w Polsce lub spędzić wolny czas na łonie natury.

34 komentarze

  • Bardzo ciekawa inicjatywa sądzę, że chętnych nie zabraknie ja na szczęście nie mam tego problemu i mam nadzieję, że tak już pozostanie.

  • Hmm, ciekawe ale z drugiej strony kto poda listę linków i adres www klienta (seo klienta) ? To trochę jak zaproszenie: oto lista kiepskich linków, weź je skasuj a klienta przejmij sobie dalej bo po pozbyciu się linków będzie miał czysty profil linkowy.

    • @Instilele, oferta skierowana jest nie do agencji SEO – tych nie zamierzam wspierać, nabruździły to niech same sprzątają, lecz do przedsiębiorców, właścicieli stron internetowych, którzy kupili super usługi seo na allegro czy blasty i teraz mają problem z filtrem. Nie widzę nic złego w podaniu www, jak ktoś pisze w sprawie wyceny pozycjonowania także musi podać stronę www, czy to u Ciebie w agencji czy w każdym innym miejscu, bez tego ani rusz z rzetelną oceną.

  • Ciekawe 🙂 powodzenia … jest/mam kilka stron, które mają tak po ca 1-2 miliony linków do wyrzucenia – poradzi sobie narządko ?

    1000 zł – trochę wyolbrzymiłeś cenę bo tyle to nie kosztuje, no chyba że są osoby/firmy co mają klientów za taką cenę to tylko pozazdrościć 😉

    • @Zgred, dzięki. Narzędzie jest na tę chwilę w powijakach i nie spodziewam się że wyraźnie pomoże mi w ocenie strony, docelowo tak będzie (mam nadzieję), ale na tę chwilę muszę sobie poradzić w inny sposób.

      Nietrudno w sieci znaleźć agencje seo, które oferują zdjęcie filtra za kwotę 1000zł i wyższą, także wartość nie jest wzięta z sufitu. Oczywiście w rzeczywistości cena uzależniona jest głównie od ilości BL do sprawdzenia.

      Milion linków? Przecież z GWT możesz wyeksportować max 100000.

  • Niezły pomysł – na pewno niejedna osoba skorzysta, bo zrobienie analizy swoich linków nie zawsze jest proste, a jak zajmie się tym osoba, która wie co robi to jest szansa na powodzenie. Google zaskakuje od pewnego czasu każdego, niestety…

  • Kurcze przejrzałem wszystko co mam dostępne w GWT i nie znalazłem nic co by się filtrem mieniło, no cóż nie pomogę ale jak dostanę to podeślę 😉

  • z drugiej strony oprócz listy gdzie są śmieciowe linki -> dostaniesz miejsca gdzie są dobre linki (z oprogramowanie życzę Ci powodzenia)

  • ciekawa inicjatywa, choć jestem ciekaw narzędzia, które powstanie na bazie tej wiedzy. mam nadzieję, że potem uchylisz rąbka tajemnicy o wynikach swoich analiz.

  • Świetna idea na to żeby promować swój serwis i usług oraz zdobyć sporo doświadczenia i danych testowych! Gratuluje i powodzenia! 🙂

  • @Mariusz: są witryny (trafiło do Mnie kilka), które maja kilkuletnia historię – analiza samych GWT jest po prostu niewystarczająca 🙂

  • Rewelacyjny pomysł, ja cały czas czekam na start sitecondition, aczkolwiek wszystkie moje pytania o datę premiery, chyba nie dochodzą 🙂

    • @Czarny, oglądałem prezentację na hangoucie, sitecondition zapowiada się ciekawie.

      @Przemek, filtr ręczny może trwać w nieskończoność, w końcu kara została manualnie nałożona przez pracownika SQT. W takich sytuacjach zawsze trzeba napisać prośbę o ponowne rozpatrzenie.

  • A ja mam takie pytanie,czy wiadomo na jak długi okres są nałożeone te filtry przez google? czy pozostają one tak długo jak nie zgłosimy domeny do ponownego rozpatrzenia, czy też może po pół roku czy też roku google werfikuje stronę ponownie???

  • Inicjatywa jest interesująca naprawdę 🙂 Zawsze zyskasz jakieś doświadczenie na tym przedsięwzięciu.

  • Życzę powodzenia z tym oprogramowaniem 🙂 Mam nadzieję, że w przyszłości pojawi się jakiś wpis o wynikach.

  • według mnie wiadomości o nienaturalnych linkach od google to szczyt hiperyzmu i absurdu. Ja jako przykład nienaturalnego linka dostałem link, który ktoś umieścił tzn zwykły użytkownik, tworzył jakiś projekt i wymienił produkty które kupił w różnych sklepach używając anchora, no strona tego użytkownika może nie była najmocniejsza ale nie zmienia to faktu że link był naturalny czyli dodany przez osobę nie związaną ze stroną no i spontanicznie, ale google uważa inaczej.

  • Świetna inicjatywa. Niestety często to co dla Google jest nienaturalne, okazuje się być zupełnie naturalnym linkiem.. Zdarza się też i tak że każą tak naprawdę bezpodstawnie..

  • Interesujące jest to, że możesz się podjąć wykonania usługi. W razie ewentualnych kłopotów, będę wiedzieć, do kogo się zwrócić. 😉

  • Mariusz tworzysz własne narzędzie klasyfikujące jakoś linków coś w stylu linkdetox?
    Jeśli tak to trzymam kciuki!

    • Na razie mam moduł wykrywający SWL, skuteczność na razie taka sobie ale jest. Mam super pomysł na kompleksowe desktopowe narzędzie ale na stworzenie potrzeba czasu, którego aktualnie mi brakuje, ale jedno jest pewne, będę pracował w tym zakresie, albowiem takie narzędzie w przyszłosci znacząco ułatwi mi pracę przy odfiltrowywaniu stron.

  • A jak ktoś ma stronę, która dostała filtr algorytmiczny, a nie ręczny to też może się zgłosić?

    • Wtedy to będzie szukanie igły w stogu siana, do zrobienia ale potrzeba o wiele większego wysiłku. Filtr algorytmiczny wcale nie musi być nałożony za linki przychodzące – tak na marginesie. Trzeba by przeanalizować historię linkowania, zmian wprowadzonych na witrynie, jeśli nie będzie tego typu informacji działać trzeba praktycznie po omacku, chwytając się wpierw najbardziej oczywistych oczywistości.

  • Dzięki za artykuł. Ale ta cena to chyba jest podana o kilka stówek za dużo – no chyba ze te to jakaś firma robi z mocną pozycją na rynku

    • Zerknij na oferty agencyjne, stawki są nawet większe, od 700zł do nawet 2000zł, nie wydaje mi się żebym przesadził, jeśli już to chyba w drugą stronę – napisałem za niską kwotę, ale chciałem żeby była to okrągła sumka dlatego zaokrągliłem do 1000. Nie ma się co czarować, analiza linków to strasznie żmudna praca i nikt za free (poza mną) tego nie robi.

      Ps. W polu autora proszę sobie darować zoptymalizowane anchory, takie coś nie przejdzie na tym blogu.

  • Większym wyzwaniem byłaby pomoc w wyjściu z filtra algorytmicznego.
    Bo z ręcznego to w zasadzie nie jest trudna sprawa.

  • Życzę powodzenia i determinacji w usuwaniu starych linków z systemów. Miałem stronę, gdzie było sporo sierot po Statlinku – strona wywalona z systemu, kod pozostał, linki świecą. Napisałem do kilku włascicieli. Od jednych dostałem ochrzan, że mi się spieszy, od innych, poradę, abym lepiej skonfigurował wyświetlanie swoich linków w systemie. Na korespondencję z tymi dwoma zeszło parę godzin. Ręce opadają. 🙂

  • Obecnie analiza linków tylko z GWT całkowicie nie wystarcza, trzeba pobierać linki z kilku źródeł/ systemów. GWT pokazuje np. 10tys a okazuje się że jest ich 35tys. Jeśli wykonujesz taką pracę bezpłatnie to nie pozostaje mi nic innego jak Ci pogratulować 😉

    • @Mateusz Kozak, to zależy od konkretnego przypadku, stopnia zaspamowania domeny. Wiele razy miałem, że analiza linków z GWT wystarczyła, aby zdjąć filtr ze strony. Były też przypadki, gdzie analiza linków z narzędzi Google dla webmasterów była niewystarczająca, takie przypadki jednak są w mniejszości.

  • Czyli ja mam głównie te przypadki gorsze 😉 W sumie pewnie tak bo trafiają do mnie ludzie którym już ktoś próbował pomóc, lub sami próbowali zgłaszać i nie wyszło.

    • Ja też mam takie osoby i w 3/4 przypadków analiza linków z GWT wystarczyła. Mam też teraz taki jeden trudny przypadek, gdzie Google podaje przykłady nienaturalnych linków, których nie ma wylistowanych ani w GWT, ani też w żadnym systemie monitorowania backlinków. Musiałem robić zaawansowane metody wykrywania BL, żeby wykryć dodatkowe toksyczne linki.

  • Szkoda, że o tym wcześniej nie wiedziałam, więc nie miałam okazji skorzystać z takiej fajnej opcji … No trudno 😉

  • Gościu! znów widzę, że robisz dobrą robotę, widziałem już trochę Twoich wpisów w necie. Widzę, że znasz się na niejednej informatycznej dziedzinie. Coraz mniej takich, którzy dają wiedzę i programy za free dla pomocy innym.
    Na niektórych stronach robi się to dość szybko a co do tych, które mają miliony linków to już znacznie gorzej. Ale to raczej mało spotykane sytuacje. Jak strona posiadająca milion linków mogła dostać filtr na takim etapie..?
    Gdy są miliony linków to muszą być bardzo zaawansowane i popularne serwisy a im trudno zaszkodzić. Niech ktoś podlinkuje swl-em np New York Times i co dostanie on filtra?.. 😉 i w dodatku na frazę „new york times” i przez nikt na świecie nie będzie mógł tego znaleźć..
    To absurd, inaczej dzieciaki w domach mogły by robić spustoszenie na najważniejszych stronach świata.

Kliknij tutaj aby skomentować