zawirowany

Zdejmij filtr ze strony - usługa warta 1000zł teraz dostępna za free!

W dobie Pingwina i Pandy nie trudno złapać filtr. Zapewne w ostatnich 3 miesiącach Google wysłało więcej powiadomień o nienaturalnych linkach niż przez cały ubiegły rok. Filtr jak wiadomo może być niezwykle bolesny, w sklepach internetowych może spowodować prawdziwe spustoszenie, które może doprowadzić nawet do upadku firmy. Wielu właścicieli witryn dotkniętych filtrem zapewne doceni moją inicjatywę. Chcesz wiedzieć jaką?

Mowa o usłudze zdejmowania kar tj. filtrów ręcznych. Propozycja skierowana jest do wszystkich osób, które otrzymały powiadomienie o nienaturalnych linkach (pojawienie się w panelu "Działania ręczne" komunikatu o wykryciu nienaturalnych linków).

Pewnie powiecie co ten gość wyprawia, oferuje usługę za free, która w normalnych warunkach kosztuje nawet 1000 złotych od strony! Zastanawiasz się zapewne co ja z tego będę miał? Już odpowiadam...

  1. Wyeksportowany plik z odsyłaczami będzie służył jako dane testowe dla mojego nowego narzędzia, które w założeniu ma pomóc mi w klasyfikacji stron internetowych (a także w zdejmowaniu filtrów). By narzędzie było skuteczne potrzebuje większej ilości próbek, bez nich nic nie zdziałam.
  2. Google od pewnego czasu podaje propozycje linków, które uznaje za nienaturalne. Po zgłoszeniu prośby o ponowne sprawdzenie witryny, w odpowiedzi otrzymujemy informację o utrzymaniu w mocy bądź zdjęciu kary, w przypadku gdy kara nie zostanie zdjęta Google może wyświetlić przykładowe linki. Na nich mi również zależy.
  3. Zbieranie cennego doświadczenia - analiza konkretnych przypadków, wyławianie prawidłowości czyli inaczej mówiąc pozyskanie wiedzy niezbędnej do ulepszenia mojego warsztatu SEO.

W związku z powyższym zdecydowałem się zaoferować nieodpłatnie usługę przygotowania pliku z linkami (bez gwarancji zdjęcia filtra), które są szkodliwe i przez które najprawdopodobniej otrzymałeś filtr od Google - mowa o pliku disavow. Oczywiście oszacowanie każdego linku odbywa się na podstawie mojego algorytmu. Analizując linki uwzględnię kilkanaście czynników, które determinują jakość strony i samego odsyłacza. Dane będę analizował dwuetapowo, automatycznie i ręcznie.

Chcesz abym przygotował dla Ciebie plik disavow?

Poprzez formularz kontaktowy lub e-mail zgłoś chęć uzyskania darmowej pomocy. W treści zgłoszenia podaj adres WWW strony oraz wyeksportuj z Narzędzi dla webmasterów dane dotyczące najnowszych linków prowadzących do Twojej strony. Otwórz plik CSV w dowolnym arkuszu kalkulacyjnym np. LibreOffice Calc i podaj mi liczbę wszystkich linków. Zgłoszenia bez całkowitej liczby linków nie będą rozpatrywane!

W pierwszej fazie (zbieranie zgłoszeń) nie wymagam żadnych plików CSV. W całym procesie analizy nie będę również wymagał dostępów do Google Webmaster Tools. To do Ciebie będzie należało napisanie i wysłanie prośby o ponowne sprawdzenie witryny! Ja przygotowuje plik disavow, który możesz wykorzystać do zdjęcia filtru ze strony. Oczywiście istnieje możliwość rozszerzenia działań na Twoją wyraźną prośbę.

Jak wyjść z filtra - diagnostyka

Poradnik - jak rozpoznać filtr ręczny, algorytmiczny...

Czytaj dalej »

Raz na miesiąc (być może częściej) wybiorę spośród nadesłanych zgłoszeń jedną stronę, której zaoferuję przygotowanie pliku disavow. Czas analizy uzależniony będzie od liczby odsyłaczy, przygotowanie pliku disavow może zając do 30 dni roboczych. W tygodniu jestem w stanie wygospodarować dodatkowy czas na tego typu przedsięwzięcie więc myślę że w każdym miesiącu uda się zrealizować przynajmniej jedno zadanie.

Jeśli Twoje odwołanie do Google zakończy się fiaskiem, oczekuje że dostanę od Ciebie informację z przykładowymi linkami, które według Google wciąż łamią wytyczne. Wtedy jeszcze raz zerknę na linki prowadzące do strony i jeśli będzie to konieczne uzupełnię plik disavow o nowe odsyłacze i jeszcze raz prześlę Ci go do wgrania.

UWAGA! Zastrzegam sobie prawo do odwołania niniejszej oferty pomocy w każdej chwili. Oczywiście informacja ta zostanie podana do publicznej wiadomości na blogu bądź za pośrednictwem mediów społecznościowych.

Mariusz Kołacz analiza linków z GWT, disavow tool, zdejmowanie filtrów

Skomentuj wpis - Komentarzy (34)

  1. drops pisze:

    Bardzo ciekawa inicjatywa sądzę, że chętnych nie zabraknie ja na szczęście nie mam tego problemu i mam nadzieję, że tak już pozostanie.

  2. Instilele pisze:

    Hmm, ciekawe ale z drugiej strony kto poda listę linków i adres www klienta (seo klienta) ? To trochę jak zaproszenie: oto lista kiepskich linków, weź je skasuj a klienta przejmij sobie dalej bo po pozbyciu się linków będzie miał czysty profil linkowy.

  3. Mariusz Kołacz pisze:

    @Instilele, oferta skierowana jest nie do agencji SEO - tych nie zamierzam wspierać, nabruździły to niech same sprzątają, lecz do przedsiębiorców, właścicieli stron internetowych, którzy kupili super usługi seo na allegro czy blasty i teraz mają problem z filtrem. Nie widzę nic złego w podaniu www, jak ktoś pisze w sprawie wyceny pozycjonowania także musi podać stronę www, czy to u Ciebie w agencji czy w każdym innym miejscu, bez tego ani rusz z rzetelną oceną.

  4. zgred pisze:

    Ciekawe :) powodzenia ... jest/mam kilka stron, które mają tak po ca 1-2 miliony linków do wyrzucenia - poradzi sobie narządko ?

    1000 zł - trochę wyolbrzymiłeś cenę bo tyle to nie kosztuje, no chyba że są osoby/firmy co mają klientów za taką cenę to tylko pozazdrościć ;)

  5. Mariusz Kołacz pisze:

    @Zgred, dzięki. Narzędzie jest na tę chwilę w powijakach i nie spodziewam się że wyraźnie pomoże mi w ocenie strony, docelowo tak będzie (mam nadzieję), ale na tę chwilę muszę sobie poradzić w inny sposób.

    Nietrudno w sieci znaleźć agencje seo, które oferują zdjęcie filtra za kwotę 1000zł i wyższą, także wartość nie jest wzięta z sufitu. Oczywiście w rzeczywistości cena uzależniona jest głównie od ilości BL do sprawdzenia.

    Milion linków? Przecież z GWT możesz wyeksportować max 100000.

  6. Łukasz pisze:

    Niezły pomysł - na pewno niejedna osoba skorzysta, bo zrobienie analizy swoich linków nie zawsze jest proste, a jak zajmie się tym osoba, która wie co robi to jest szansa na powodzenie. Google zaskakuje od pewnego czasu każdego, niestety...

  7. Mateusz pisze:

    Kurcze przejrzałem wszystko co mam dostępne w GWT i nie znalazłem nic co by się filtrem mieniło, no cóż nie pomogę ale jak dostanę to podeślę ;)

  8. STaN pisze:

    z drugiej strony oprócz listy gdzie są śmieciowe linki -> dostaniesz miejsca gdzie są dobre linki (z oprogramowanie życzę Ci powodzenia)

  9. adam pisze:

    ciekawa inicjatywa, choć jestem ciekaw narzędzia, które powstanie na bazie tej wiedzy. mam nadzieję, że potem uchylisz rąbka tajemnicy o wynikach swoich analiz.

  10. Sebastian Jakubiec pisze:

    Świetna idea na to żeby promować swój serwis i usług oraz zdobyć sporo doświadczenia i danych testowych! Gratuluje i powodzenia! :)

  11. Zgred pisze:

    @Mariusz: są witryny (trafiło do Mnie kilka), które maja kilkuletnia historię - analiza samych GWT jest po prostu niewystarczająca :)

  12. Czarny pisze:

    Rewelacyjny pomysł, ja cały czas czekam na start sitecondition, aczkolwiek wszystkie moje pytania o datę premiery, chyba nie dochodzą :)

  13. Przemek pisze:

    A ja mam takie pytanie,czy wiadomo na jak długi okres są nałożeone te filtry przez google? czy pozostają one tak długo jak nie zgłosimy domeny do ponownego rozpatrzenia, czy też może po pół roku czy też roku google werfikuje stronę ponownie???

  14. waterboom pisze:

    Inicjatywa jest interesująca naprawdę :) Zawsze zyskasz jakieś doświadczenie na tym przedsięwzięciu.

  15. Leszekk pisze:

    Życzę powodzenia z tym oprogramowaniem :) Mam nadzieję, że w przyszłości pojawi się jakiś wpis o wynikach.

  16. Mariusz Kołacz pisze:

    @Czarny, oglądałem prezentację na hangoucie, sitecondition zapowiada się ciekawie.

    @Przemek, filtr ręczny może trwać w nieskończoność, w końcu kara została manualnie nałożona przez pracownika SQT. W takich sytuacjach zawsze trzeba napisać prośbę o ponowne rozpatrzenie.

  17. suple pisze:

    według mnie wiadomości o nienaturalnych linkach od google to szczyt hiperyzmu i absurdu. Ja jako przykład nienaturalnego linka dostałem link, który ktoś umieścił tzn zwykły użytkownik, tworzył jakiś projekt i wymienił produkty które kupił w różnych sklepach używając anchora, no strona tego użytkownika może nie była najmocniejsza ale nie zmienia to faktu że link był naturalny czyli dodany przez osobę nie związaną ze stroną no i spontanicznie, ale google uważa inaczej.

  18. Aga pisze:

    Świetna inicjatywa. Niestety często to co dla Google jest nienaturalne, okazuje się być zupełnie naturalnym linkiem.. Zdarza się też i tak że każą tak naprawdę bezpodstawnie..

  19. Mariusz pisze:

    Interesujące jest to, że możesz się podjąć wykonania usługi. W razie ewentualnych kłopotów, będę wiedzieć, do kogo się zwrócić. ;)

  20. Adam pisze:

    Mariusz tworzysz własne narzędzie klasyfikujące jakoś linków coś w stylu linkdetox?
    Jeśli tak to trzymam kciuki!

  21. Deni pisze:

    A jak ktoś ma stronę, która dostała filtr algorytmiczny, a nie ręczny to też może się zgłosić?

  22. Mariusz Kołacz pisze:

    Na razie mam moduł wykrywający SWL, skuteczność na razie taka sobie ale jest. Mam super pomysł na kompleksowe desktopowe narzędzie ale na stworzenie potrzeba czasu, którego aktualnie mi brakuje, ale jedno jest pewne, będę pracował w tym zakresie, albowiem takie narzędzie w przyszłosci znacząco ułatwi mi pracę przy odfiltrowywaniu stron.

  23. Mariusz Kołacz pisze:

    Wtedy to będzie szukanie igły w stogu siana, do zrobienia ale potrzeba o wiele większego wysiłku. Filtr algorytmiczny wcale nie musi być nałożony za linki przychodzące - tak na marginesie. Trzeba by przeanalizować historię linkowania, zmian wprowadzonych na witrynie, jeśli nie będzie tego typu informacji działać trzeba praktycznie po omacku, chwytając się wpierw najbardziej oczywistych oczywistości.

  24. Gość pisze:

    Dzięki za artykuł. Ale ta cena to chyba jest podana o kilka stówek za dużo - no chyba ze te to jakaś firma robi z mocną pozycją na rynku

  25. Mariusz Kołacz pisze:

    Zerknij na oferty agencyjne, stawki są nawet większe, od 700zł do nawet 2000zł, nie wydaje mi się żebym przesadził, jeśli już to chyba w drugą stronę - napisałem za niską kwotę, ale chciałem żeby była to okrągła sumka dlatego zaokrągliłem do 1000. Nie ma się co czarować, analiza linków to strasznie żmudna praca i nikt za free (poza mną) tego nie robi.

    Ps. W polu autora proszę sobie darować zoptymalizowane anchory, takie coś nie przejdzie na tym blogu.

  26. Igor pisze:

    Większym wyzwaniem byłaby pomoc w wyjściu z filtra algorytmicznego.
    Bo z ręcznego to w zasadzie nie jest trudna sprawa.

  27. Mariusz Kołacz pisze:

    Igor, zdejmowanie algorytmicznego filtra wyłącznie odpłatnie, jeśli jesteś zainteresowany to zapraszam na priv >> https://techformator.pl/kontakt/

  28. Ryszard pisze:

    Życzę powodzenia i determinacji w usuwaniu starych linków z systemów. Miałem stronę, gdzie było sporo sierot po Statlinku - strona wywalona z systemu, kod pozostał, linki świecą. Napisałem do kilku włascicieli. Od jednych dostałem ochrzan, że mi się spieszy, od innych, poradę, abym lepiej skonfigurował wyświetlanie swoich linków w systemie. Na korespondencję z tymi dwoma zeszło parę godzin. Ręce opadają. :)

  29. Mateusz Kozak pisze:

    Obecnie analiza linków tylko z GWT całkowicie nie wystarcza, trzeba pobierać linki z kilku źródeł/ systemów. GWT pokazuje np. 10tys a okazuje się że jest ich 35tys. Jeśli wykonujesz taką pracę bezpłatnie to nie pozostaje mi nic innego jak Ci pogratulować ;-)

  30. Mariusz Kołacz pisze:

    @Mateusz Kozak, to zależy od konkretnego przypadku, stopnia zaspamowania domeny. Wiele razy miałem, że analiza linków z GWT wystarczyła, aby zdjąć filtr ze strony. Były też przypadki, gdzie analiza linków z narzędzi Google dla webmasterów była niewystarczająca, takie przypadki jednak są w mniejszości.

  31. Mateusz Kozak pisze:

    Czyli ja mam głównie te przypadki gorsze ;-) W sumie pewnie tak bo trafiają do mnie ludzie którym już ktoś próbował pomóc, lub sami próbowali zgłaszać i nie wyszło.

  32. Mariusz Kołacz pisze:

    Ja też mam takie osoby i w 3/4 przypadków analiza linków z GWT wystarczyła. Mam też teraz taki jeden trudny przypadek, gdzie Google podaje przykłady nienaturalnych linków, których nie ma wylistowanych ani w GWT, ani też w żadnym systemie monitorowania backlinków. Musiałem robić zaawansowane metody wykrywania BL, żeby wykryć dodatkowe toksyczne linki.

  33. Karlita pisze:

    Szkoda, że o tym wcześniej nie wiedziałam, więc nie miałam okazji skorzystać z takiej fajnej opcji ... No trudno ;)

  34. Gustav pisze:

    Gościu! znów widzę, że robisz dobrą robotę, widziałem już trochę Twoich wpisów w necie. Widzę, że znasz się na niejednej informatycznej dziedzinie. Coraz mniej takich, którzy dają wiedzę i programy za free dla pomocy innym.
    Na niektórych stronach robi się to dość szybko a co do tych, które mają miliony linków to już znacznie gorzej. Ale to raczej mało spotykane sytuacje. Jak strona posiadająca milion linków mogła dostać filtr na takim etapie..?
    Gdy są miliony linków to muszą być bardzo zaawansowane i popularne serwisy a im trudno zaszkodzić. Niech ktoś podlinkuje swl-em np New York Times i co dostanie on filtra?.. ;) i w dodatku na frazę "new york times" i przez nikt na świecie nie będzie mógł tego znaleźć..
    To absurd, inaczej dzieciaki w domach mogły by robić spustoszenie na najważniejszych stronach świata.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Poinformuj mnie o nowych komentarzach do tego wpisu.