TechFormator
  • Mobile
  • Systemy
  • Sprzęt
  • e-Marketing
  • Bezpieczeństwo
  • Inne
    • Aktualności
    • Oprogramowanie
  • Social Trends
  • Kontakt
  • Reklama
TechFormator
  • Mobile
  • Systemy
  • Sprzęt
  • e-Marketing
  • Bezpieczeństwo
  • Inne
    • Aktualności
    • Oprogramowanie
  • Social Trends
  • Kontakt
  • Reklama
Mariusz Kołacz
26 komentarzy
4 września 2014
seo img

Kara ręczna od Google za nienaturalne linki – Case study

Coraz częściej pojawiają się publikacje, gdzie ich autorzy wypowiadają się, jakoby strony po zdjęciu filtra ręcznego miały minimalne szanse na wysokie pozycje co jest oczywistą bzdurą. To że oni nie dali rady wyciągnąć strony, nie oznacza, że ktoś inny nie poradziłby sobie z tym zadaniem lepiej. W tym wpisie przedstawię konkretny case study, który zaprzecza wszystkim bajeczkom, a najciekawszą rzecz zostawiam na koniec!

Na początek kilka faktów

  • Typ portalu: Serwis ogłoszeniowy
  • Kategoria: Edukacja i szkolnictwo
  • Wiek domeny: niespełna rok (w chwili nałożenia filtru)
  • Ilość posiadanych danych: bardzo duża – dane własne + dostarczone raporty z linkowania (pozycjonowania) + dodatkowe informacje

Typ filtru: ręczny w dopasowaniu do całej witryny za nienaturalne linki.

Kara Google - dopasowanie do całej witryny

Data nałożenia kary ręcznej: 23-24 maja 2014 a komunikat według Narzędzi dla webmasterów przywędrował 25 maja, jednakże, w rzeczywistości komunikat powinien być opatrzony datą 24, ze względu na przesunięcie czasowe przy komunikatach o filtrach w GWT.

Poniższy raport z pozycji był nieco „koślawy”, niestety w tym systemie monitorowania raporty PDF takie są, a innych danych od właściciela nie posiadam, także info ucięte do kilku dni przed i kilku dni po nałożeniu kary na stronę. W sumie właściciel portalu monitorował 7 fraz, jedna z nich miała targeting na google.com więc w dalszej analizie nie brała udziału (pozycje tej frazy przekreślono na czerwono).

Pozycje przed i po karze Google

Dla każdej z tych fraz w dalszej części przyjmiemy oznaczenia… Fraza 1, Fraza 2, Fraza 3…

Skutkiem nałożenia filtru – wyszukiwania/kliknięcia wycięte praktycznie do zera – typowe przy karach w dopasowaniu do całej witryny. Witryna nie będąca MFA lub pod PP, musi sporo przeskrobać by otrzymać ten typ kary. Kary najczęściej są wynikiem zastosowania agresywnych metod linkowania rodem z BHS.

Wyszukiwane hasła - wykres po filtrze

Konkurencyjność fraz pokazana jest na poniższym zrzucie. Analiza została wykonana automatycznie w dobrze znanej aplikacji Traffic Travis. Analiza obejmowała pierwsze TOP20. Aplikacja nie jest idealna, potrafi pomylić się zarówno w jedną jak i w drugą stronę – niedoszacować konkurencyjności frazy jak i ją nieco zawyżyć, lecz pozwala rozeznać się w trudności fraz.

Trudność fraz

Jak widać frazy nie są łatwe, a jedna z nich jest bardzo trudna, w Google o pierwsze miejsce bije się ponad 130 witryn.

Dla mniej obeznanych osób, warto w tym miejscu wyjaśnić jeszcze jakie poziomy trudności fraz posiada Traffic Travis, mianowicie:

  • Extremely Difficult – etykieta przeznaczona dla najbardziej konkurencyjnych fraz w danej branży.
  • Very Difficult – bardzo trudna fraza.
  • Difficult – trudna.
  • Medium Difficulty – średnio trudna.
  • Relatively Easy – stosunkowo łatwa.
  • Easy – łatwa.

Dla przykładu, fraza „pozycjonowanie” w Traffic Travis oznaczana jest stopniem trudności – Extremely Difficult.

Podjęte działania

Wpierw garść faktów…

Liczba unikalnych linków: 95791 (wszystkich linków łącznie było 107557, ale część nie była analizowana, między innymi z uwagi na duplikację przez SID w adresie URL).

Liczba wszystkich domen linkujących: 9517

Przekrój profilu linków z podziałem na typy skryptów. Zrzut pochodzi z raportu XLS z odkurzacza.

Skrypty strony

Po przeprowadzeniu wywiadu z właścicielem ukaranej domeny, zapoznaniu się z przesłanymi danymi, pozyskaniu jak największej liczby informacji, wykonaniu drobiazgowej analizy linków podjęto szereg działań zmierzających do ręcznego usunięcia odsyłaczy.

Ręcznie usunięto 25% wszystkich linków, pozostałych w żaden możliwy sposób nie dało się usunąć ręcznie, w związku z czym trafiły do narzędzia Google Disavow.

Zawartość pliku disavow.txt to 6552 domen co stanowi niecałe 69% wszystkich domen. W profilu linków pozostawiono niespełna 6% domen. Wszystkie wartości zostały zaokrąglone w górę do pełnego procenta. PS. To co jest najciekawsze w tym wszystkim napiszę na samym końcu 🙂

Następnie został sporządzony raport z podjętych działań i stworzono wniosek. Poniżej zrzut przedstawiający cykl zdejmowania kary z domeny.

Wiadomości dla witryny

  • 25.05 – komunikat o nienaturalnych linkach przychodzących,
  • 10.06 – wgrany disavow, jak widzimy 2-krotnie ponieważ w pierwszym ciachłem się z domeną (błędy w pliku disavow) i musiałem poprawiać. W tym samym dniu poszedł pierwszy wniosek o ponowne rozpatrzenie.
  • 20.06 – po 10 dniach przychodzi rozgrzeszenie.

Cała procedura odfiltrowywania strony trwała dokładnie 14 dni, a łącznie wliczając czas oczekiwania na odpowiedź Google – 24.

Sytuacja po zdjęciu kary ręcznej

Po „krótkim” wstępniaku przechodzimy do sedna sprawy czyli ruchu i pozycjach. Poniższy zrzut ekranu obrazuje sytuację z Narzędzi dla webmasterów, z podglądem na Wyszukiwane hasła po zdjeciu kary ręcznej ze strony…

Wyszukiwania po filtrze

Jak widać delikatne wzrosty w wyszukiwaniach nastąpiły jeszcze przed otrzymaniem rozgrzeszenia. Może to być zbieg okoliczności lub potwierdzać to co od dawna mówi się w branży – kary ręczne przyznawane są na określony czas, jeśli właściciel podejmie kroki, usunie ręcznie linki, kara samoistnie może wyparować z panelu GWT. W tej akurat sytuacji tak się nie stało, ale mam inne przypadki, które to potwierdzają.

Na wstępie podałem zrzut z pozycjami 7 fraz – ostatnia nie będzie brana pod uwagę (targeting na Google.com który nie był monitorowany). Oznaczymy sobie odpowiednio frazy…

  • Fraza 1 – pozycja przed nałożeniem kary – 1
  • Fraza 2 – pozycja – 2
  • Fraza 3 – pozycja – 2
  • Fraza 4 – pozycja – 1
  • Fraza 5 – pozycja – 8
  • Fraza 6 – pozycja – 6

Wyniki bierzemy z dnia tuż przed karą czyli 23 maja 2014. Poniżej wykresy z systemu monitorowania do końca lipca, bo wtedy właśnie skończył mi się abonament w SeoStation :[

Fraza 1 – Very Difficult

Pierwsza fraza

Fraza 2 – Difficult

Druga fraza

Fraza 3 – Difficult

Trzecia fraza

Fraza 4 – Medium Difficulty

Czwarta fraza

Fraza 5 – Difficult

Piąta fraza

Fraza 6 – Medium Difficulty

Szósta fraza

Pozycje – Przed filtrem / Miesiąc po filtrze / Aktualnie 3 września 2014

  • Fraza 1 – 1 / 1 / 1 (Very Difficult)
  • Fraza 2 – 2 / 2 / 3 (Difficult)
  • Fraza 3 – 2 / 5 / 4 (Difficult)
  • Fraza 4 – 1 / 1 / 1 (Medium Difficulty)
  • Fraza 5 – 8 / 7 / 7 (Difficult)
  • Fraza 6 – 6 / 10 / 5 (Medium Difficulty)

Średnia: 3.33 / 4.33 / 3.5 (czym niższa wartość tym lepiej)

Różnica między sytuacją przed karą a po wynosi zaledwie 1 punkt. Aktualnie 2.5 miesiąca po odfiltrowaniu domeny różnica jest jeszcze mniejsza i wynosi zaledwie 0.17. Gdyby po odfiltrowaniu domena została delikatnie podlinkowana z dobrych źródeł na frazę numer 3 (ona zaniża wynik), jestem pewny że nastąpiłby wzrost, w efekcie klient miałby pełny zwrot 1:1 a nawet pozycje fraz byłyby wyższe aniżeli przed filtrem. Co zresztą miało już miejsce w przypadku frazy numer 5, a dla aktualnych wyników frazy numer 5 i 6.

Pewnie znajdą się tacy co napiszą zaraz w komentarzach, że domena po zdjęciu kary była pozycjonowana – nic z tych rzeczy. Po zdjęciu kary aż po dzień dzisiejszy domena nie jest pozycjonowana. Lekkie pikowanie na wykresie z Ahrefs to czkawka po starych blastach.

Ahrefs Reffering Pages

I teraz najciekawsza rzecz, którą zostawiłem na koniec. Zgadnijcie ile odsyłaczy Exact Match zostało w profilu linków tej domeny? Dokładnie 0.042% to domeny z linkami EMA, pozostałe linki z domen na brand i URL. Co to w praktyce oznacza?

Żeby być na czołowych miejscach w Google nie trzeba napierniczać linkami ile wlezie, nie trzeba też dodawać wielu linków EMA i nie trzeba mieć mega starej domeny…

Google wszystkim BlackHatowcom wyraźnie mówi… NIE SPAMUJ! Ale BlackHaty o tym nie wiedzą, no przecież skąd mają wiedzieć, jak nawet strony które zaspamowali nie potrafią odfiltrować. Narobiłeś kolego… to posprzątaj po sobie! Wtedy przynajmniej nauczysz się czegoś nowego i może pójdziesz w bielszą stronę mocy.

Wiadomo, że każdy z nas uczy się, rozwija swoje umiejętności i patrząc wstecz na wykonaną pracę z perspektywy roku, bywa że dochodzi się do wniosku, że można było coś lepiej zrobić – to jest naturalne zjawisko zwane DOŚWIADCZENIEM. Mówienie że się nie da czegoś zrobić jest ograniczaniem samego siebie, a najtrudniejsze realizacje uczą najwięcej!

Na zakończenie przedstawiam potwierdzenie aktualnych pozycji omawianej domeny z dnia dzisiejszego tj. 3 września 2014…

Zrzut z SeoStation…

Pozycje Seostation

Zrzut z Stat4Seo…

Pozycje Stat4Seo

Polecane dla Ciebie

dobry niedobry

Jak sprawdzić poziom zaufania i autorytet domeny?

mistrzostwa polski puchary

Prawdziwa twarz mistrzostw Polski w pozycjonowaniu stron 2013

seo black

33 darmowe narzędzia SEO w pakiecie WhiteHatBox

26 komentarzy

Kliknij tutaj aby skomentować
  • ciekawyt pisze:
    4 września 2014 o 03:17

    A ile czasu od dnia cofnięcia filtra zajęły powroty na pozycje sprzed filtra?

  • Pablo pisze:
    4 września 2014 o 06:38

    Wyciągnąłem z filtra kilkadziesiąt domen trochę na nich też potestowalem i spotkalem sie z sytuacją gdy po bardzo sumiennym oczyszczeniu profilu linków i zdjęciu kary wyniki zostały na pozycjach po spadkach, miewałem też przypadki gdy jedyne działanie – wrzucenie 100% domen do disavow + napisanie prośby skutkowały powrotem na pozycje niemal identyczne co sprzed filtra. Niestety do tego wniosku doszedłem po odfiltrowaniu wszystkich domen jak się orobiłem jak głupi 🙂 Podejrzewam, że domeny które były dokładnie czyszczone zachowałyby się tak samo gdybym zastosował wariant drugi.

  • Michał pisze:
    4 września 2014 o 08:25

    wszystko ładnie rozpisane, zatem tutaj gratki za dobry post… ale gdyby strona w międzyczasie załapała się na pingwina – prawdopodobnie już nie byłoby tak różowo. zakładam że miałeś taki przypadek – jak wtedy wyglądała sytuacja w przypadku gdy był ręczny i okazało się że na stronie jest filtr algo?

  • gms247 pisze:
    4 września 2014 o 08:31

    25% manualnie ściągnięte linki, nieźle:) i zapewne dużo roboty. Ja tam bym do disa wrzucił wszystko:)

    • Mariusz Kołacz pisze:
      4 września 2014 o 08:58

      @ciekawyt, wszystko masz jak na dłoni na wykresach. Zero lania wody same fakty.

      @Pablo, dokładnie, ale niektórzy wolą napisać, że się „nie da”. W ubiegłym roku w październiku o ile dobrze pamiętam robiłem disavow dla jeden ze śląskich firm – filtr algorytmiczny, po zgłoszeniu strona dostała kopa i nie tylko odzyskała stare pozycje, ale wbiła się na jeszcze wyższe, mam trochę zrzutów z tej realizacji ale nie była ona monitorowana tak dobrze jak ten przypadek. Pod koniec stycznia również filtr algorytmiczny – 100% zwrotu z pozycji. To nie są bajki, jak znajdę więcej czasu napiszę małe FAQ po karach Google.

      @Michał, jak miała się załapać jak WSZYSTKIE „szkodliwe” linki zostały albo ręcznie usunięte, albo dodane do disavow? W przedstawionej realizacji miałem WSZYSTKIE raporty z działań, od początku do końca, z samych raportów było ponad 70000 linków, sam pozyskałem też dodatkowe.

      @gms247, faktycznie dużo i trzeba było mocno podziałać, by choć część ręcznie usunąć.

  • Maćko pisze:
    4 września 2014 o 08:57

    A ile było % EMA przed odfiltrowaniem?Zważywszy na efekt link echoes możliwe, że pozostałe EMA miały wpływ na pozycję nawet po usunięciu. To by oznaczało, że w przypadku niektórych stron można byłoby zamówić pakiety BH, katalogi, precle, multikody, swl a potem gdy pozycje wskoczą szybko zgłosić przez disavov „odkurzone” linki. To tak jak z sportowcem na dopingu :). Jest na dopingu do momentu aż osiągnie cel a potem robi „detoksykację”. Być może google nie wypracowało w algo jeszcze sposobu na takich „graczy”. Robią akcje jak z wpakowaniem przestępcy do więzienia. Gdy odsiedzi swoją karę bardzo szybko wraca na top. Nie ponosi dalej konsekwencji BH. Ja oczywiście wyznaję WH bo szkoda się potem denerwować, ale być może pojawią się gracze BH+WH, które wykorzystają fakt, że po zdjęciu kary frazy wracają na pozycje.

    • Mariusz Kołacz pisze:
      4 września 2014 o 09:03

      @Maćko sprawdzę to i dam znać.
      Odnośnie sytuacji o której mówisz, mam do czynienia z wieloma takimi przypadkami, jeśli strona jechała na samym BHS bez asekuracji – szansa na powroty praktycznie zerowa. Domena musi mieć choć minimalną rezerwę, żeby móc ją wyciągnąć. A teraz coraz częściej widzę domeny, które są wysoko a mają bardzo mało linków prowadzących. Brak danych w Ahrefs? Przypadek? Nie sądzę, sprawdzałem innymi sposobami linki przychodzące i okrągłe zero.

  • Marko pisze:
    4 września 2014 o 09:01

    Wow, gratulacje. Kluczem było chyba wywalenie tych najgorszych linków prawda?

    • Mariusz Kołacz pisze:
      4 września 2014 o 09:04

      @Marko, tak ze śmietników wszystkie poleciały do odstrzału.

  • Łukasz Trześniewski pisze:
    4 września 2014 o 09:25

    Ciekawy case. Brakuje mi wykresu widoczności z search metrics`a i informacji o tym co zostało w profilu linków.
    Odnośnie komentarza o topach bez backlinków, dziwne rzeczy się dzieją i też mam takie przypadki.
    Nie są to nawet poukrywane zaplecza, bo na sprawdzenie tego mam kilka sposobów choć czasem są tam nawet perełki, które całkowicie przeczą całemu seo. (brak opt, same zdjęcia, kilka słów i podstron o niczym)
    Czyżby Google odchodziło od rankowania dzięki linkom? czy algo wymknął się z pod kontroli aż tak?
    Pewnie się wyjaśni po Penguinie..

  • NataszaM pisze:
    4 września 2014 o 11:37

    Zaskoczyło mnie trochę, że tak szybko poszło. Od zawsze szefom wmawiam, że trzeba iść na jakość nie ilość. Ale cóż… jak się facet uprze to jest gorszy od baby chcącej szpilki od Louboutin.

  • Sławek pisze:
    4 września 2014 o 11:58

    Witam.
    Uczę się pozycjonowania i mam problemy ze zrozumieniem tekstów które zawiera artykół i komentarze – szczególnie ze skrótami typu: BH, EMA – prośba – czy można rozwinąć

    • Mariusz Kołacz pisze:
      5 września 2014 o 09:53

      Case nie był przeznaczony dla osób początkujących, sorry. Następnym razem postaram się zrobić słowniczek pojęć na końcu artykułu.

      Odpowiadając na Twoje pytania…

      BH – Black Hat – są to techniki jak i osoby działające poza wytycznymi Google dla Webmasterów. Wykorzystują wszystkie niedozwolone techniki do osiągnięcia swoich celów. W konsekwencji ich działań na strony nakładane są kary ręczne, algorytmiczne.

      EMA – Exact Match Anchor – kotwica linku w dopasowaniu ścisłym, w odniesieniu do EMA możesz się często spotkać także z określeniem „frazy sprzedażowej”.

      Dla przykładu koncentrujesz się na frazie „promocja stron” – chcesz być na tę frazę w Google możliwie jak najwyżej, umieszczasz linki do strony, które zawierają anchor pokrywający się z „promocja stron” – wtedy mówimy o EMA.

      Jeśli linkujesz na inne kombinacje lecz zawierające w sobie słowa „promocja” i „stron” to będzie już partial match np. promocja stron internetowych, promocja stron www czy najlepsza promocja stron.

  • Sławek pisze:
    5 września 2014 o 12:16

    Dziękuję – teraz wszystko jasne.
    Dobry pomysł ze słowniczkiem – Treść dotrze do wszystkich.

  • lukas pisze:
    6 września 2014 o 13:48

    Gratulacje Mariusz. Nie często widzi sie pełne wyjście z karz dla trudnych fraz. Sam realizowałem kilka filtrów dla najbardziej konkurencyjnych fraz w branży szkoleniowej i za nic nie można było wyciągnąć stron profile backlinków całkiem zniszczone przez poprzednich pozycjonerów. Po zdjęciu filtrów powrotów na pozycje nie było. Jak fraza jest konkurencyjna i zrzekniemy sie linków bardzo trudno o powroty :[

    • Mariusz Kołacz pisze:
      6 września 2014 o 14:10

      @lukas wszystko zależy od profilu linków i od ilości danych którymi dysponujemy. Czym więcej danych, tym większe szanse i czym bardziej zróżnicowany profil, tym szanse rosną. Zgadzam się całkowicie, frazy najbardziej konkurencyjne bardzo trudno przywrócić do stanu przed nałożeniem filtra Google, ale mam takie realizacje które potwierdzają, żeby być wysoko wcale nie trzeba mieć dużo linków.

      Z każdą kolejną podobną realizacją otrzymuję informacje, które wykorzystuję do badania wspólnych mianowników. Danych mam już sporo także z bezpłatnych realizacji które przeprowadzałem. Zarysowują się już części wspólne, jednak aby wyciągnąć w pełni trafne wnioski potrzeba jeszcze więcej przypadków i analiz. Jak to mówią Warszawy od razu nie zbudowano, na pewne rzeczy potrzeba czasu, jestem optymistycznie nastawiony do każdego realizowanego projektu i to co dzisiaj stoi pod znakiem zapytania, jutro zostanie odkryte 🙂

  • Marcin pisze:
    6 września 2014 o 20:47

    Fajny case i całkowicie się z nim zgadzam. Strony z których ściągałem filtry odzyskiwały pozycje. Co prawda nie wszystkie wracały na dokładnie to samo miejsce, jednak mówimy tu o ścisłej czołówce, a nie o 15-20 pozycji.

  • Marcin Marc pisze:
    7 września 2014 o 09:48

    Bardzo fajne artykuł Mariusz zgadzam się z większością wymienionych tutaj faktów jednak nie zgodzę się z tym, że ściągniecie ręczniaka zaowocuje poprawą pozycji np. do tych sprzed nałożenia kary. Udało mi się usunąć ok. 50 różnych kar ręcznych (głównie za linki przychodzące) i nie zawsze pozycje wracały – scenariuszy było wiele: chwilowa poprawa pozycji, a następnie spadek; totalny brak różnicy w pozycjach na linkowane frazy czy long tail, etc. Poza tym pozycjonowanie strony po ręcznej karze też jest o wiele trudniejsze – wydaje mi się, że strony są niejako otagowane przez Google i nawet wysokiej jakości linki np. z press realease; optymalizacja; dodatkowy content nie poprawiają pozycji w serpach – nie zawsze ale częściej niż rzadziej.
    Jeszcze raz artykuł bardzo konkretny, opisujący fajny (szczęśliwy) case – obyśmy mieli tylko takie!

    • Mariusz Kołacz pisze:
      7 września 2014 o 10:23

      @Marcin Marc, tutaj szczęście było w tym, że właściciel serwisu monitorował swoje działania i dostarczył szczegółowe dane z linkowania, czym więcej danych mam do dyspozycji, tym efektywniej mogę odfiltrować stronę.

      Jeśli właściciel dostarcza niewiele danych ja muszę bazować na tym co sam zdobędę. Mimo że mam do dyspozycji wiele narzędzi, to nic nie zastąpi danych z linkowania od właściciela, dlatego tak ważne jest by klienci posiadali raporty z linkowania.

      Były przypadki, że właściciel nie kontrolował jakie działania SEO miały miejsce, dopiero zainteresował się tym jak było źle ze stroną. Przy karach Google jest jeden niezmienny schemat – czym większą liczbą danych dysponujesz, tym skuteczniej odfiltrowujesz witrynę. Właścicieli stron trzeba edukować w tym kierunku, zapisywanie działań i ich późniejsze odtworzenie w przypadku nałożenia kary od Google jest kluczem w wielu odfiltrowywaniach, szczególnie algorytmicznych. Wpływa to zarówno na szybkość odfiltrowania jak również na efekty po odfiltrowaniu.

      Nie wiem czy pamiętasz, kiedyś już przytaczałem na łamach SeoStation sytuację, gdzie domena miała wszystkich linków 80 tysięcy, z tych 80 tysięcy ledwie 1600 linków pokazywały Narzędzia dla webmasterów, a systemy Ahrefs i Majestic odpowiednio po 8000 i 11 tysięcy. Tamtą realizację również mógłbym podać jako wzorowy przykład tego, jak można całkowicie wyciągnąć domenę z filtra, mając WSZYSTKIE dane z linkowania do dyspozycji.

  • Marcin Marc pisze:
    7 września 2014 o 10:51

    @Mariusz: pamiętam jak przez mgłę – możesz podać link?

    • Mariusz Kołacz pisze:
      7 września 2014 o 11:08

      @Marcin, chodzi mi o tę wypowiedź z wywiadu => http://www.lexy.com.pl/blog/filtry-google-wywiad.html

      W ogóle w maju i czerwcu miałem dokładnie 3 realizacje, które całkowicie wyszły na prostą, teraz właściciele tych stron wiedzą że żyją 🙂 ale też zwróciłem im uwagę, by zabezpieczyli się na przyszłość i dywersyfikowali źródła pozyskiwania ruchu. Google przecież nie jest jedynym dostawcą ruchu a uzależnianie się od jednego „dostawcy” jest jak z Rosją i gazem. Jak ktoś myśli poważnie o swoim biznesie działania e-marketingowe rozszerzy, owszem należy się spodziewać, że Google będzie miało dominującą rolę, ale ideałem w ruchu do którego należy dążyć jest rozkład 50% Google, 50% inne źródła ruchu.

      @Alex, dzięki, to był mój pierwszy case opublikowany na blogu.

  • Alex pisze:
    7 września 2014 o 10:55

    Full wypas wpis 🙂
    Mało ludzi w Polsce publikuje tak dokładne przedstawienie case’u wyjścia z filtra tylko można pogratulować i życzyć kolejnych udanych realizacji.

  • Adam pisze:
    7 września 2014 o 12:09

    Jak z filtrami algorytmicznymi masz jakieś ciekawe case’y ?

    • Mariusz Kołacz pisze:
      7 września 2014 o 12:28

      Tak mam 🙂

  • Marzena pisze:
    8 września 2014 o 08:08

    Jestem początkująca.
    Mam jedno pytanie.
    Napisałeś że kary są czasowe.
    Posiadam domenę z nałożonym filtrem algorytmicznym.
    Czy jeśli usunę wszystkie linki prowadzące do strony kara sama minie.
    Będę wdzięczna za odpowiedź.

    • Mariusz Kołacz pisze:
      8 września 2014 o 08:48

      Tak kary są nakładane na określony czas. Jeśli domena w tym czasie rozwiąże problemy kara przestanie obowiązywać, jeżeli nie usuniesz problemów z witryną kara jest przedłużana na kolejny okres.

      Pytasz czy usunięcie wszystkich linków zdejmie karę. Wpierw zadaj sobie pytanie czy posiadasz dane o WSZYSTKICH linkach prowadzących do strony? Jeśli Twoja odpowiedź jest twierdząca masz 100% szanse na usunięcie filtra algorytmicznego. Czym mniejszą ilością danych dysponujesz, tym prawdopodobieństwo pełnego odfiltrowania spada. Dla przykładu załóżmy, że do Twojej domeny łącznie prowadzi 50 tysięcy linków, a Ty w toku analizy pozyskałaś połowę z tego – 25 tysięcy, to masz teoretycznie o 50% mniejsze szanse na wyjście z filtra, ale nie ma tak różowo, prawdopodobieństwa odfiltrowania strony nie można tutaj tak łatwo obliczyć, bo przecież wśród tych 25 tysięcy możesz mieć linki, które nie łamią wytycznych i wtedy szanse na odfiltrowanie spadną do zera. Oczywiście ten przykład nigdy nie występuje „w przyrodzie”, zawsze można pozyskać i dobre i złe backlinki, więc szansa na odfiltrowanie zawsze istnieje, wszystko zależy od profilu linków oraz od ilości danych którymi dysponujesz. Chcę Cię uświadomić, że ocena prawdopodobieństwa odfiltrowania nie jest taka prosta i podawanie oszacowań bez wcześniejszej dokładnej analizy jest totalnie nieprofesjonalne.

      Zauważ też że nie wszystkie linki są złe – wszystkich linków nie usuwaj. Usuń lub zmodyfikuj tylko te, które łamią wytyczne dla webmasterów. Pamiętaj również że nie musisz usuwać linków, Google jako alternatywę przedstawia dodanie atrybutu nofollow do linków wychodzących, jeśli nie chcesz tracić ruchu z jakiegoś portalu nie decyduj się na usunięcie odsyłaczy, tylko nadaj im atrybut nofollow.

      Odpowiadając finalnie na Twoje pytanie – jeśli przez WSZYSTKIE rozumiesz backlinki zlokalizowane tylko w Narzędziach dla webmasterów to niestety muszę Cię zmartwić, bardzo mało jest sytuacji, gdzie po analizie i wykluczeniu szkodliwych linków wylistowanych w Google Webmaster Tools filtr algorytmiczny schodzi. Musisz mieć pełne spektrum backlinków, wtedy odpowiedź na Twoje pytanie będzie twierdząca.

      Pozdrawiam i powodzenia!

Kategorie

  • Aktualności68
  • Internet i bezpieczeństwo44
  • Marketing internetowy168
  • Oprogramowanie43
  • Sprzęt38
  • Systemy operacyjne39
  • Urządzenia mobilne23

Najczęściej czytane

Black Friday 2019

10 wskazówek jak nie dać się oszukać podczas Black Friday 2022 i Cyber Monday 2022

kostka z numerem 10

Wprowadź swoją stronę do TOP10 z SEOPilot

analytic managers

Jak zmniejszyć współczynnik odrzuceń, czyli zwiększamy zaangażowanie użytkowników

napis Core Web Vitals

Google: Sygnały dotyczące jakości strony WWW

Wyszukaj

Poradniki IT

mężczyzna wyciska sok

Sokowirówka czy wyciskarka do soku? Co się lepiej sprawdzi i kiedy?

karta kredytowa w ręku kobiety

Czy płacenie kartą w sklepie internetowym jest bezpieczne?

no gps signal

Jak poprawić sygnał GPS w telefonie – zwiększenie dokładności lokalizacji

pendrive bootowalny wkładany do portu usb laptopa

Bootowalny pendrive Windows 7/Vista/XP/2003/Linux/BartPE

Poradniki SEO

Black Friday 2019

10 wskazówek jak nie dać się oszukać podczas Black Friday 2022 i Cyber Monday 2022

seo content

Prowadzenie bloga sklepu internetowego – 20 przydatnych narzędzi

notatnik wordpress

Pozycjonowanie WordPress – przydatne wtyczki

seo wzrost na wykresie

Jak sprawdzić czy strona jest pozycjonowana?

Oferta

Świadczę kompleksowe usługi z zakresu marketingu internetowego, w szczególności optymalizacja, pozycjonowanie stron i sklepów internetowych, audyty SEO, audyty pozycjonowania, audyty linków, audyty słów kluczowych, audyty kar od Google, audyty techniczne. Prowadzę również kampanie reklamowe Google ADS i Facebook ADS oraz tworzę treści na sklepy internetowe i blogi. Przeczytaj więcej na SocialTrends.pl

O blogu TechFormator

Na blogu poruszane są tematy związane z marketingiem internetowym i nowymi technologiami. Znajdziesz tutaj poradniki o pozycjonowaniu i optymalizacji stron, recenzje narzędzi SEO, oprogramowania użytkowego dla Windows, Linux i urządzeń mobilnych, recenzje sprzętu IT oraz poradniki komputerowe.

Copyright 2023 - Blog technologiczny TechFormator.pl
  • Pozycjonowanie
  • Reklama
  • Archiwum
Wykorzystujemy pliki cookies. Przeglądając stronę wyrażasz zgodę na ich wykorzystanie zgodnie z ustawieniami przeglądarki [Polityka prywatności]