Doszliśmy już chyba do granic absurdu. Nasze wnioski RR traktowane są jak powietrze, nawet powiem więcej wygląda jakby były odrzucane na chybił trafił, chyba w części przypadków nawet nie sprawdzają co piszemy i jakie domeny/linki znajdują się w disavow. Przy odfiltrowywaniu jednej z domen dzisiaj Google odpowiedziało na wniosek, mówiąc że domena wciąż posiada nienaturalne linki. OK, tekst standardowy, nic nowego, za to nowe propozycje nienaturalnych linków przeszły ludzkie pojęcie.
Już poprzednim razem Google podało linki, których nie było w Google Webmaster Tools, ani także w żadnym zewnętrznym narzędziu (Majestic SEO, Ahrefs, LDX QBL). OK, to jeszcze pół biedy, bo są metody by część „ukrytych” danych wyodrębnić.
Zapytacie pewnie co jest takiego szczególnego w kolejnej odpowiedzi, że uznaję to za absurd absurdów. Anoż, Google po raz kolejny podało linki, które nie były nigdzie wylistowane, ale to nie wszystko. Podało propozycje odsyłaczy, gdzie…
- Cała domena już w poprzednim disavow została dodana do wykluczenia (to już 2 tego typu przypadek),
- Drugi z linków w ogóle nie był zaindeksowany w Google. OK, można pomyśleć – ban na całą domenę, ale nie! Po użyciu operatora site i info w odniesieniu do domeny, prawie wszystkie podstrony (oprócz tej jednej) pięknie siedzą w indeksie.
Zatem pytam wielkie Google, jak ktoś ma skutecznie zrobić analizę profilu linków jeśli…
- Nie ma ich w Narzędziach dla webmasterów,
- Nie ma ich w żadnym systemie monitorującym backlinki,
- Zostały już wcześniej zgłoszone do disavow, a mimo to informujecie, że autor ich nie dodał (przypomnę cała domena została wykluczona poprzez domain:nazwadomeny.pl),
- Nie ma ich nawet w indeksie Google. Cała domena siedzi w indeksie, oprócz tego jednego skurczybyka – odsyłacza, który właśnie został podany przez Was jako przykład nienaturalnych linków.
Kurcze, ktoś powiedziałby, że co się gościu rzucasz, w końcu podali Ci na tacy ten odsyłacz. OK, doceniam to że chciało Wam się podać odsyłacz, którego nie ma w żadnych wykazach, nawet w Waszym indeksie. Mając jednak do dyspozycji pełny zestaw danych mógłbym szybciej określić i wykluczyć złe linki. Parę miesięcy temu zapowiadaliście zmiany w GWT, które z tego co pamiętam weszły w życie, ale nic kompletnie nie zmieniło się. GWT wciąż nie pokazuje wielu linków.
Teraz pytam Was wszystkich – jak ktoś ma znaleźć link którego nigdzie nie ma? Iść do wróżki? Wkrótce ta grupa zawodowa powinna reklamować się jako „SEO Wróżka” – wróżę ze szklanej kuli, żaden link przede mną się nie schowa!
Naprawdę wkurzyłem się nieco, bo człowiek stara się jak najlepiej wykonać swoją pracę i chce jak najszybciej odfiltrować stronę, a tutaj takie kłody pod nogi rzucają. Brak mi słów…
Nie ma czym się tak denerwować. Przecież wiadomo, że:
1. GWT zawsze było okrojonym narzędziem i nie pokazywało wszystkich linków
2. Disavow Tool nie wyklucza linków, a tylko sugeruje, które linki można wykluczyć. Algo wcale nie musi tego brać pod uwagę.
Proponuję skopiować cały powyższy artykuł i wysłać w kolejnym RR. Niestety, tutaj rozwiązania nie znajdziesz 😉
Wyślij po prostu raz jeszcze RR z informacja ze te adresy są już w DT – pewnie i tak tego nie przeczytają, ale na paru przypadkach mi taka sytuacja zadziałała.
@Karol Sawka, wkurza mnie to, że człowiek dokłada wszelkich starań by odfiltrować stronę a tutaj serwują mu link, którego seowiec nie ma prawa znaleźć. Ja rozumie spowiedź „aż do kości”, ale to co zrobili dzisiaj to przesada. Jak można podać link, którego nigdzie nie ma, którego nie ma nawet wylistowanego w indeksie wyszukiwarki.
„Algo wcale nie musi tego brać pod uwagę.”
To po co w filmach Matt wciąż mówi, by używać Disavow Tool? Chcesz się zrzec linków – użyj disavow, wciąż to jest powtarzane w filmach, prezentacjach, HO, wypowiedziach pracowników Google.
@Aedium, nowy disavow i wniosek już przygotowany, jeszcze dzisiaj go wyślę.
Po 7 odmowach tak się wkurzyłem, że zacząłem kombinować (przy 8 prośbie cofnęli karę) i wierzę, że osoby „rozpatrujące” te wnioski są jak call center w Indiach.
Dość powiedzieć, że przechodzą pozytywnie wnioski z praktycznie pustymi DT. Oni tam albo nie wykonują należycie swojej roboty, albo nie mają dostępu do większości danych i jakiś automat im podaje szczątkowe informacje.
Co do przytaczania w odpowiedzi linków, które już są zgłoszone w DT mam swoją teorię, ale nikt jej raczej nie potwierdzi: link taki nie został jeszcze odwiedzony przez google i widnieje ciągle jako dofollow… i tylko to widzi pracownik G.
Za którymś razem dostaniesz odpuszczenie…
W tym akurat przypadku to 5 RR, teraz będzie 6 i prawie już 2 miesiące zdejmowanie filtra trwa, ale poprzednicy zostawili taki bajzel, że głowa boli, strona jechana samym spamem. Myślałem, że przy 5 RR to już będzie koniec, ale gdzie tam, Gogiels wyszukał link, którego nawet w indeksie nie ma :/ Cóż walczymy dalej…
Z disavow jest jak z noindex w robots.txt. Człowiek blokuje, a strony i tak w indeksie lądują 😉 Robią, co chcą…
Przynajmniej skończy się powtarzanie mitu, że w GWT są wszystkie linki jakie są potrzebne do RR – trzeba zebrać skąd się da 🙂
Też ostatnio Googiel zrobił mi niespodziankę.
Najpierw dostałem informację o wycofaniu działań, ale po przeszło tygodniu nie było widać żadnego efektu, więc tknęło mnie coś żeby sprawdzić w GWT czy aby wszystko jest ok… a nie było bo nadal był filtr. Dostałem nowe przykłady, których wcześniej nie było.
Więc niezłe jaja, albo zaindeksowali jakieś śmieci po zrzeczeniu.
Miałem dokładnie to samo, cała domena wykluczona a w kolejnej odmowie link z niej i to nawet nie bezpośredni ale do strony z paginacją gdzie znajdował się wpis.
To, że domena nie jest zindeksowana, to nie znaczy, że google jej nie odwiedził i nie zliczył linka.
On uznał, że nie warto mieć tej podstrony(póki co) w indeksie.
Mają monopol to sobie mogą wypuszczać narzędzia takie jak GWT, Disavow Tool. Gdyby była konkurencja na rynku to szybko ośmieszyłaby te „Narzędzie” tworząc w końcu coś co można by tak nazywać. Google potrzebuje realnej konkurencji, co pokazałaby im, jak daleką są od doskonałości. Niestety nie widać żadnego większego gracza na horyzoncie.
To jeszcze nic, miałem przypadek, kiedy zarejestrowałem domenę po kimś i widzę jest w GWT wiadomość o linkach wychodzących – myślę „banał”. Rzuciłem wordpressa, jakąś skórkę, jeden tekst i piszę do nich, a oni to samo. Więc wywalam wszystkie linki wychodzące ze strony ( nawet do wp i do twórcy skórki), a tu zaskoczenie i wiadomość, że ciągle mam nienaturalne linki wychodzące… Później już pisałem, że coś im się pomyliło to i tak dostawałem standardy, że są linki wychodzące, choć nawet 1 nie było…
@Damian, w wielu przypadkach miałem tak, że linki z GWT wystarczyły do zdjęcia filtrów.
@zoozool, wiem o tym, natomiast ja mam im za złe, że podali link, którego wcześniej w żaden sposób nie można było w stanie namierzyć. Gdybym miał wiedzę o nim, to bym go z pewnością wykluczył już na poprzednich etapach. Tym bardziej, że po 4 odpowiedzi robiłem zaawansowany research linków z Google i wydobyłem wszystko co było do wydobycia (czytaj co było widoczne w wyszukiwarce), ale jak widać to było za mało. Do standardowego zasobnika narzędzi chyba potrzebna jest jeszcze szklana kula i usługi wróżbiarskie.
O podobnych przypadkach można przeczytać w wielu miejscach a zatem faktycznie coś jest na rzeczy.
Miałem niedawno podobną (lub nie) sytuację. Piszę tutaj o tym bo może ktoś z was podpowie co robić w przyszłości z podobną sytuacją. A zatem… kupiłem sobie pewną domenę i wrzuciłem tam jakąś treść – tak nie była zbyt górnolotna, jednak unikalna i pisana w ludzkim języku. Po 1-2 tygodniach sprawdziłem indeksowanie a że oczywiście strony nie znalazłem zainteresowałem się nią. Na początku dodałem ją do mojego konta w GWT i napisałem prośbę ponowne rozpatrzenie motywując to iż jestem nowym właścicielem domeny. Później znalazłem tam informację iż strona ta to spam. Pomimo iż nie zgadzałem się z tym zmieniłem treść na kilka artykułów powiązanych ze sobą tematycznie, napisanych specjalnie dla tej strony z obrazkami itp a do tego całość ubrałem w WP. Zrobiłem zgłoszenie i… odpowiedź iż strona to spam. I tu pierwsze pytanie – dlaczego?
Fakt strona miała trochę linków z katalogów ale nie w jakiejś ilości przerażającej.
Zatem kolejna przebudowa strony. Teraz już tak zdecydowanie 🙂 Nowy szablon a następnie grzebanie w nim i zmienianie wszystkiego co przyszło mi do głowy, kolejna wymiana treści i zdjęć. Po tym wszystkim następne zgłoszenie. Po upływie 24h (tak, tak szybko) – ręczne działania zostały zdjęte. I tu kolejne pytanie – czy trzeba było 3 razy zmieniać treść? Może wystarczyło czekać i dręczyć ich kolejnymi zgłoszeniami?
Obecnie jestem bombardowany tysiącami błędów z podstron na jakie robot nie może wejść – no bo ich przecież nie ma! A zatem przy rozpatrywaniu pierwszych zgłoszeń oceniali serwis za to jakim był wcześniej (za poprzedniego właściciela)?
Ale od dawna wiadomo, że Google podaje jako przykłady domeny, które w wielu przypadkach nie mają NIC wspólnego z ukaraną stroną. To trochę tak, jakbyś dostał info o przykładowym sklepie z zepsutym mięsem -dostajesz wiadomość „Nie kupuj u Haliny”. U Haliny w życiu nie kupowałeś, ale okazuje się, że istnieje bardzo podobny sklepik U Jędrusia, w którym bywasz codziennie – i to właśnie o ten sklep chodzi.
Nie ma wyjścia, trzeba ręcznie przedłubać się przez wszystkie strony linkujące do ukaranej domeny, znaleźć PODOBNE do tych podanych w przykładzie od Google i to ich się zrzec. Na tym polega mechanizm podawania przykładów złych linków.
Ja już jadę 13ty zgłoszenie RR. Wykluczyłem masę linków, trochę w disavow a oni mi ciągle dorzucają kolejne (których nigdzie nie mogę znaleźć – GWT ani Majestic) albo już były w disavow (domeny spamowe bez kontaktu i ukryte whois). Cięzko jest. Kiedyś góra 4-5 RR i domena odfiltrowana. Teraz trwa to dużo dłużej. NIedługo serio zacznę wysyłać RR o treści „.”
Panie i Panowie a ile taka domena po odfiltrowaniu jest w stanie się utrzymać? Bo jak miesiąc i znów klops (a słyszałem, że i szybciej zalicza spadki) to szkoda sobie zawracać głowę.
Zupełnym bezsensem jest zmuszanie webmasterów do moderowania całego internetu. Bo czymże innym jest ocenianie, które linki są nieekologiczne a które nie. Przy okazji donosimy na samych siebie co w efekcie daje niemal na 100% oflagowanie witryny na jakiś czas (jakbym był właścicielem G to pewnie bym na długo tak strony ukarane oznaczał). Ani to później pozycjonować, strach, ze ktoś coś podlinkuje i będzie znów kilka miesięcy wożenia się bez gwarancji sukcesu. Daliśmy się zapędzić w kozi róg. Odwalacie robotę za algorytm a później żale. Od jak dawna wiemy, że korpogoogle ma za nic swoje wytyczne? Od lat. To samo z updatami. Już powinniśmy przywyknąć.
Jeśli mnie dotknie coś takiego (jedna ze stron na szczęście nie rozwijana dostała przy ostatnim updacie algo) to myślę, że łatwiej mi będzie posadzić od nowa coś niż bujać się w niepewne odfiltrowanie domeny. Stali klienci i tak trafią a nowych szybciej się złapie na nowy adres. Do tego IMHO koniecznie trzeba budować max szerokie zaplecze żeby z niego łapać ruch i klientów. Sam mam czasem klientów z bloga jakiegoś internauty, który łaskaw był dać link do mnie więc to naprawdę działa. Do tego unikniemy zafiltrowania wszystkiego bo całego netu przecie nie uwalą. Trza robić i blogi i fora i zwykłe strony a czasem i katalog jaki i z tego ciągnąć ludzi. I z sociali. To są wyzwania i koszty, ale w tej chwili inaczej już się nie da. Przynajmniej do momentu szerszego zauważenia przez userów innych szukajek co powoli się dzieje.
No i pozycjonowanie to już niestety nie automat (na główną bo zaplecze można) a mądra budowa profilu linków (w tym z socialmedia co się wiąże jednocześnie z pozyskiwaniem klientów) będzie dla nas ratunkiem na wypadek nieszczęścia. To jest jak z gazem od ruskich. Albo postawimy na dywersyfikację albo będziemy mieli ceny najwyższe w Europie i bat nade łbem bo jak się Putin wnerwi to nam kurek przykręci.
A no i jeszcze te nieszczęsne GWT. Już samo dodanie do nich jest podejrzane. Skoro ktoś wie po co to jest to można przypuszczać, że ma coś za uszami. To samo z analyticsem. Cały czas się zastanawiam czy nie powycinać choć na części ze stron tego szpiegostwa.
Autorowi zaś szczerze współczuję walki. Zostaw to bracie a domena po roku dwóch się sama odfiltruje.
@zeki, bardzo trafne podsumowanie. Kiedyś o tym też wspominałem, opieranie e-marketingu wyłącznie na Google jest bardzo ryzykowne w dzisiejszych czasach.
Co do zostawienia domeny, nie odpuszczę, walczę do samego końca. Po 1 czy 2 latach filtr może i odpuści, ale wtedy już nie będzie domeny i firmy bo zbankrutuje. Można postawić na AdWords, ale nie dotyczy to małych firm, które mogą sobie pozwolić na takie wydatki przez 3,4,5 miesięcy, później z reguły jak nie ma efektów (klientów) firma bankrutuje. Płaci za frazy i za kliknięcia, które jej nic nie dają. Większość przedsiębiorców ma kampanie ustawione defaultowo, które generują masę niepotrzebnych kosztów.
Google samo sobie kopie grób, oni jeszcze tego nie widzą, a kiedy zauważą będzie już za późno.
Powalił mnie na łopatki przykład nienaturalnego linku, gdzie anchorem była nazwa firma + sp. z o.o.. Pech chciał, że firma w nazwie ma 2 słówka angielskie (nie pozycjonowane).
Werel to tylko kolejny raz dowodzi tego, że:
a) bardziej prawdopodobne – linki wskazywane są przez automat
b) lub- pracują tam ludzie nie mający o seo i linkowaniu dosyć ubogie pojęcie
Problemu z toksycznymi linkami by nie było, gdyby nie były masowao wstawiane w okresie gdy wydawało się zawodowym pozycjonerom że są w stanie przechytrzyć Google. Ten potentat wyszukiwarkowy kieruje się swoją własną polityką rozwojową przynoszącą mu jak największe dochody i w nosie ma wasze biadolenia panowie. Może już czas zrozumieć że nie wygracie ze sztabem wyspecjalizowanych i dobrze opłacanych mózgów i pokornie powrócić do pracochłonnego ale niepodważalnego pozycjonowania organicznego. I o tym jest właśnie Projekt IQ-arius.
@Iqarius Bielecki, jeśli nie pozycjonowanie organiczne to co? Według Ciebie – AdWords najlepszy?
Oczywiście! Wszystko co nabija kasę Googlom będzie zawsze najlepsze. Reszta to tylko owijanie nici w bawełnę.
coraz dziwniejsza sprawa z wielkim bratem gogle, ale jakoś trzeba przecież pozyskiwać linki, więc trzeba będzie kombinować tylko czy uda się wygrać z tzw sztabem wyspecjalizowanych mózgów
Nie pierwszy raz dostaję przykłady, które już były poprzednio w disavow. 14.11 coś się działo z Google, może im bazy poszły?:) Faktem jest że jak nagle mają dużo roboty z DT to i jakość spadła, albo zaczęli ludzi do pracy tymczasowej zatrudniać.
@Krzysztof, kto to wie, wszystko jest możliwe.
@Artur, odfiltrowanie jest jednym z etapów powrotu na szczyt 🙂
Czyli znowu nie wiadomo co robić aby pozycja naszej strony internetowej poszybowała do góry albo w ogóle się utrzymała.
@Artur nie upychaj słów kluczowych np i lepiej zajmij się swoją stroną i poprawkami. Masz spore pole do popisu widzę a jak się przyłożysz to będziesz tylko na plus w Google.
…i koszty rosną.
Z drugiej strony mniej już jest bezsensownych wyników w Google za sprawą kolibra przynajmniej dla długich zapytań.