bluelink

Usuwanie szkodliwych linków przepisem na skuteczne pozycjonowanie

Zapewne każdy z nas spotkał się z sytuacją, w której domena była starannie prowadzona, linkowana z dobrych zdywersyfikowanych źródeł, a mimo to w pewnym momencie dochodziło do stagnacji i co byśmy nie robili ze stroną, na część fraz nie można było dopchać się do topów. Niektórzy obarczali winą Google, które podobno miało ingerować w wyniki wyszukiwania (zamrożenie wyników). Ja bym tego taki pewny nie był.

Od 5 września wystartowałem na szeroką skalę z testami, które mają odpowiedzieć co jest faktyczną przyczyną "zamrożenia" pozycji. Długo nie musiałem czekać na pierwszą odpowiedź...

Poniżej znajduje się zrzut ekranu z monitorowania pozycji dla jednej z testowanych domen. Test obejmuje 19% wszystkich monitorowanych fraz dla tej domeny.

Stat4seo

Dla pierwszej grupy fraz disavow ze szkodliwymi linkami został wgrany 5 września 2014. Dla pozostałych w dniu 8 września. Część linków została usunięta ręcznie (tam gdzie to było możliwe). Na każdą frazę przypadło od 1 do 3 wykluczonych "szkodliwych" linków. W okresie od 1 do 12 września nie były prowadzone żadne inne działania oprócz pozbycia się linków.

W dniu 12 września efekt jest taki, że domena na część fraz wychodzi ze stagnacji i pnie się do góry. Jako punkt odniesienia bierzemy pozycję w dniu wgrania pliku disavow.

Jak rozpoznać filtr algorytmiczny?

Kilka słów na temat kar algorytmicznych od Google...

Czytaj dalej »

Statystyki na dzień 12.09.2014:

  • Wzrostów: 9
  • Spadków: 4
  • Bez zmian: 10
  • Średnia wzrostów: +7
  • Średnia spadków: -3
  • Suma (czym niższa wartość tym lepiej):
    • Suma pozycji przed rozpoczęciem testów: 403
    • Suma pozycji w dniu 12.09.2014: 352
    • Po 7 dniach od rozpoczęcia testów zysk: 51 oczek

W przypadku tej domeny poczekam do 30 dni zanim wytypuję kolejne linki z największym stopniem prawdopodobieństwa toksyczności.

Testy potrwają do końca roku. Jedna jaskółka wiosny nie czyni, w związku z czym na daleko idące wnioski przyjdzie czas. Jeżeli potwierdzi się to co tutaj widzimy dla części fraz, SERPy wcale nie są zamrożone, a kluczem do ich "odmrożenia" jest pozbycie się "grzechów z przeszłości" tj. wyselekcjonowanie i pozbycie się nienaturalnych linków.

Mariusz Kołacz disavow tool, pozycjonowanie stron, skuteczne pozycjonowanie, szkodliwe linki, usuwanie toksycznych linków

Skomentuj wpis - Komentarzy (12)

  1. zeki pisze:

    To już jest chore :/ Linki nie powinny szkodzić. Teraz to łatwiej zdepozycjonować konkurencję niż cokolwiek ze swoją stroną zrobić.

  2. Marcin pisze:

    Też mam podobne wnioski. Zauważyłem tą tendencje kilka tygodni temu. Po usunięciu linków było ich ponad dwieście, strona poszła w górę i do dzisiaj jest w topach.

  3. adi pisze:

    wszystkie linki z katalogów stron potraktować jako szkodliwe czy może tylko z tych płatnych?

  4. Mariusz Kołacz pisze:

    Kwestia identyfikowania szkodliwych linków to temat na inny artykuł.

  5. adi pisze:

    zeki prawo nie zawsze jest takie jakie byśmy sami sobie życzyli. google może robić co chce, niestety. ja wlaśnie biore się za czyszczenie swoich linków przychodzących. mam nadzieję że doświadczę tego samego co Marcin

  6. Ola pisze:

    jakiego programu używasz aby sprawdzić czy link jest toksyczny lub jakich parametrów ?

  7. Mariusz Kołacz pisze:

    Odkurzacz + własny soft ale aplikacje zbierają tylko dane, to do człowieka należy ocena tychże danych i wyciągnięcie wniosków. Typowymi parametrami już się nie kieruje bo to może zaprowadzić w kozi róg.

  8. Artur pisze:

    Mariusz , czy ta testowa strona miała jakieś info w GWT o nienaturalnych linkach, czy działał tylko algorytm ?
    I podaj proszę jeszcze ile było linkujących domen i ile usunąłeś lub zgłosiłeś do GWT .
    Kolejny fajny test.

  9. Mariusz Kołacz pisze:

    Nie, to jest normalna w świecie strona, bez filtrów ręcznych, filtry algo tylko na kilku frazach, dla pozostałych będących na granicy TOP10 między 11 a 20 miejscem test ma za zadanie dobić te keywordsy samym usuwaniem linków - bez jakichkolwiek działań link buildingowych. Oczywiście wpływu na naturalne pozyskiwanie linków nie mam, jednakże tę kwestię również obserwuje i uwzględnię w końcowych wnioskach.
    Już teraz część z nich przebiło się do TOP10 i utrzymuje. Niestety trochę wkurzony jestem bo od przyszłego miesiąca muszę drugą próbkę stron wrzucić bo mieliśmy teraz większy updejt algorytmu i wyniki mogą nie w pełni odzwierciedlać przeprowadzone działania, a potrzebuje konkretnych wniosków a nie domysłów, ale cóż tak to jest, Google ciągle aktualizuje czynniki rankingowe i nic na to nie poradzimy. Zakończenie testów pewnie przesunie się o miesiąc.

    Co do konkretnych liczb, co dla jakiej frazy zostało usunięte na chwilę obecną nie ma sensu pisać. Pierwsze efekty są interesujące, co jednak nie oznacza że końcowe wnioski będą pozytywne, pożyjemy zobaczymy.

  10. Dizaman pisze:

    Dzięki za podpowiedź. Też miewam problemy ze stagnacją na mojej stronie.

  11. Paweł pisze:

    Dzięki metoda u mnie również sprawdziła sie choć nie na wszystkich stronach.

  12. Mariusz Kołacz pisze:

    @Paweł, metoda nie ma prawa działać na wszystkich, każda strona jest inna z innym profilem linków.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Poinformuj mnie o nowych komentarzach do tego wpisu.