Coraz częściej pojawiają się publikacje, gdzie ich autorzy wypowiadają się, jakoby strony po zdjęciu filtra ręcznego miały minimalne szanse na wysokie pozycje co jest oczywistą bzdurą. To że oni nie dali rady wyciągnąć strony, nie oznacza, że ktoś inny nie poradziłby sobie z tym zadaniem lepiej. W tym wpisie przedstawię konkretny case study, który zaprzecza wszystkim bajeczkom, a najciekawszą rzecz zostawiam na koniec!
Na początek kilka faktów
- Typ portalu: Serwis ogłoszeniowy
- Kategoria: Edukacja i szkolnictwo
- Wiek domeny: niespełna rok (w chwili nałożenia filtru)
- Ilość posiadanych danych: bardzo duża – dane własne + dostarczone raporty z linkowania (pozycjonowania) + dodatkowe informacje
Typ filtru: ręczny w dopasowaniu do całej witryny za nienaturalne linki.
Data nałożenia kary ręcznej: 23-24 maja 2014 a komunikat według Narzędzi dla webmasterów przywędrował 25 maja, jednakże, w rzeczywistości komunikat powinien być opatrzony datą 24, ze względu na przesunięcie czasowe przy komunikatach o filtrach w GWT.
Poniższy raport z pozycji był nieco „koślawy”, niestety w tym systemie monitorowania raporty PDF takie są, a innych danych od właściciela nie posiadam, także info ucięte do kilku dni przed i kilku dni po nałożeniu kary na stronę. W sumie właściciel portalu monitorował 7 fraz, jedna z nich miała targeting na google.com więc w dalszej analizie nie brała udziału (pozycje tej frazy przekreślono na czerwono).
Dla każdej z tych fraz w dalszej części przyjmiemy oznaczenia… Fraza 1, Fraza 2, Fraza 3…
Skutkiem nałożenia filtru – wyszukiwania/kliknięcia wycięte praktycznie do zera – typowe przy karach w dopasowaniu do całej witryny. Witryna nie będąca MFA lub pod PP, musi sporo przeskrobać by otrzymać ten typ kary. Kary najczęściej są wynikiem zastosowania agresywnych metod linkowania rodem z BHS.
Konkurencyjność fraz pokazana jest na poniższym zrzucie. Analiza została wykonana automatycznie w dobrze znanej aplikacji Traffic Travis. Analiza obejmowała pierwsze TOP20. Aplikacja nie jest idealna, potrafi pomylić się zarówno w jedną jak i w drugą stronę – niedoszacować konkurencyjności frazy jak i ją nieco zawyżyć, lecz pozwala rozeznać się w trudności fraz.
Jak widać frazy nie są łatwe, a jedna z nich jest bardzo trudna, w Google o pierwsze miejsce bije się ponad 130 witryn.
Dla mniej obeznanych osób, warto w tym miejscu wyjaśnić jeszcze jakie poziomy trudności fraz posiada Traffic Travis, mianowicie:
- Extremely Difficult – etykieta przeznaczona dla najbardziej konkurencyjnych fraz w danej branży.
- Very Difficult – bardzo trudna fraza.
- Difficult – trudna.
- Medium Difficulty – średnio trudna.
- Relatively Easy – stosunkowo łatwa.
- Easy – łatwa.
Dla przykładu, fraza „pozycjonowanie” w Traffic Travis oznaczana jest stopniem trudności – Extremely Difficult.
Podjęte działania
Wpierw garść faktów…
Liczba unikalnych linków: 95791 (wszystkich linków łącznie było 107557, ale część nie była analizowana, między innymi z uwagi na duplikację przez SID w adresie URL).
Liczba wszystkich domen linkujących: 9517
Przekrój profilu linków z podziałem na typy skryptów. Zrzut pochodzi z raportu XLS z odkurzacza.
Po przeprowadzeniu wywiadu z właścicielem ukaranej domeny, zapoznaniu się z przesłanymi danymi, pozyskaniu jak największej liczby informacji, wykonaniu drobiazgowej analizy linków podjęto szereg działań zmierzających do ręcznego usunięcia odsyłaczy.
Ręcznie usunięto 25% wszystkich linków, pozostałych w żaden możliwy sposób nie dało się usunąć ręcznie, w związku z czym trafiły do narzędzia Google Disavow.
Zawartość pliku disavow.txt to 6552 domen co stanowi niecałe 69% wszystkich domen. W profilu linków pozostawiono niespełna 6% domen. Wszystkie wartości zostały zaokrąglone w górę do pełnego procenta. PS. To co jest najciekawsze w tym wszystkim napiszę na samym końcu 🙂
Następnie został sporządzony raport z podjętych działań i stworzono wniosek. Poniżej zrzut przedstawiający cykl zdejmowania kary z domeny.
- 25.05 – komunikat o nienaturalnych linkach przychodzących,
- 10.06 – wgrany disavow, jak widzimy 2-krotnie ponieważ w pierwszym ciachłem się z domeną (błędy w pliku disavow) i musiałem poprawiać. W tym samym dniu poszedł pierwszy wniosek o ponowne rozpatrzenie.
- 20.06 – po 10 dniach przychodzi rozgrzeszenie.
Cała procedura odfiltrowywania strony trwała dokładnie 14 dni, a łącznie wliczając czas oczekiwania na odpowiedź Google – 24.
Sytuacja po zdjęciu kary ręcznej
Po „krótkim” wstępniaku przechodzimy do sedna sprawy czyli ruchu i pozycjach. Poniższy zrzut ekranu obrazuje sytuację z Narzędzi dla webmasterów, z podglądem na Wyszukiwane hasła po zdjeciu kary ręcznej ze strony…
Jak widać delikatne wzrosty w wyszukiwaniach nastąpiły jeszcze przed otrzymaniem rozgrzeszenia. Może to być zbieg okoliczności lub potwierdzać to co od dawna mówi się w branży – kary ręczne przyznawane są na określony czas, jeśli właściciel podejmie kroki, usunie ręcznie linki, kara samoistnie może wyparować z panelu GWT. W tej akurat sytuacji tak się nie stało, ale mam inne przypadki, które to potwierdzają.
Na wstępie podałem zrzut z pozycjami 7 fraz – ostatnia nie będzie brana pod uwagę (targeting na Google.com który nie był monitorowany). Oznaczymy sobie odpowiednio frazy…
- Fraza 1 – pozycja przed nałożeniem kary – 1
- Fraza 2 – pozycja – 2
- Fraza 3 – pozycja – 2
- Fraza 4 – pozycja – 1
- Fraza 5 – pozycja – 8
- Fraza 6 – pozycja – 6
Wyniki bierzemy z dnia tuż przed karą czyli 23 maja 2014. Poniżej wykresy z systemu monitorowania do końca lipca, bo wtedy właśnie skończył mi się abonament w SeoStation :[
Fraza 1 – Very Difficult
Fraza 2 – Difficult
Fraza 3 – Difficult
Fraza 4 – Medium Difficulty
Fraza 5 – Difficult
Fraza 6 – Medium Difficulty
Pozycje – Przed filtrem / Miesiąc po filtrze / Aktualnie 3 września 2014
- Fraza 1 – 1 / 1 / 1 (Very Difficult)
- Fraza 2 – 2 / 2 / 3 (Difficult)
- Fraza 3 – 2 / 5 / 4 (Difficult)
- Fraza 4 – 1 / 1 / 1 (Medium Difficulty)
- Fraza 5 – 8 / 7 / 7 (Difficult)
- Fraza 6 – 6 / 10 / 5 (Medium Difficulty)
Średnia: 3.33 / 4.33 / 3.5 (czym niższa wartość tym lepiej)
Różnica między sytuacją przed karą a po wynosi zaledwie 1 punkt. Aktualnie 2.5 miesiąca po odfiltrowaniu domeny różnica jest jeszcze mniejsza i wynosi zaledwie 0.17. Gdyby po odfiltrowaniu domena została delikatnie podlinkowana z dobrych źródeł na frazę numer 3 (ona zaniża wynik), jestem pewny że nastąpiłby wzrost, w efekcie klient miałby pełny zwrot 1:1 a nawet pozycje fraz byłyby wyższe aniżeli przed filtrem. Co zresztą miało już miejsce w przypadku frazy numer 5, a dla aktualnych wyników frazy numer 5 i 6.
Pewnie znajdą się tacy co napiszą zaraz w komentarzach, że domena po zdjęciu kary była pozycjonowana – nic z tych rzeczy. Po zdjęciu kary aż po dzień dzisiejszy domena nie jest pozycjonowana. Lekkie pikowanie na wykresie z Ahrefs to czkawka po starych blastach.
I teraz najciekawsza rzecz, którą zostawiłem na koniec. Zgadnijcie ile odsyłaczy Exact Match zostało w profilu linków tej domeny? Dokładnie 0.042% to domeny z linkami EMA, pozostałe linki z domen na brand i URL. Co to w praktyce oznacza?
Żeby być na czołowych miejscach w Google nie trzeba napierniczać linkami ile wlezie, nie trzeba też dodawać wielu linków EMA i nie trzeba mieć mega starej domeny…
Google wszystkim BlackHatowcom wyraźnie mówi… NIE SPAMUJ! Ale BlackHaty o tym nie wiedzą, no przecież skąd mają wiedzieć, jak nawet strony które zaspamowali nie potrafią odfiltrować. Narobiłeś kolego… to posprzątaj po sobie! Wtedy przynajmniej nauczysz się czegoś nowego i może pójdziesz w bielszą stronę mocy.
Wiadomo, że każdy z nas uczy się, rozwija swoje umiejętności i patrząc wstecz na wykonaną pracę z perspektywy roku, bywa że dochodzi się do wniosku, że można było coś lepiej zrobić – to jest naturalne zjawisko zwane DOŚWIADCZENIEM. Mówienie że się nie da czegoś zrobić jest ograniczaniem samego siebie, a najtrudniejsze realizacje uczą najwięcej!
Na zakończenie przedstawiam potwierdzenie aktualnych pozycji omawianej domeny z dnia dzisiejszego tj. 3 września 2014…
Zrzut z SeoStation…
Zrzut z Stat4Seo…
A ile czasu od dnia cofnięcia filtra zajęły powroty na pozycje sprzed filtra?
Wyciągnąłem z filtra kilkadziesiąt domen trochę na nich też potestowalem i spotkalem sie z sytuacją gdy po bardzo sumiennym oczyszczeniu profilu linków i zdjęciu kary wyniki zostały na pozycjach po spadkach, miewałem też przypadki gdy jedyne działanie – wrzucenie 100% domen do disavow + napisanie prośby skutkowały powrotem na pozycje niemal identyczne co sprzed filtra. Niestety do tego wniosku doszedłem po odfiltrowaniu wszystkich domen jak się orobiłem jak głupi 🙂 Podejrzewam, że domeny które były dokładnie czyszczone zachowałyby się tak samo gdybym zastosował wariant drugi.
wszystko ładnie rozpisane, zatem tutaj gratki za dobry post… ale gdyby strona w międzyczasie załapała się na pingwina – prawdopodobnie już nie byłoby tak różowo. zakładam że miałeś taki przypadek – jak wtedy wyglądała sytuacja w przypadku gdy był ręczny i okazało się że na stronie jest filtr algo?
25% manualnie ściągnięte linki, nieźle:) i zapewne dużo roboty. Ja tam bym do disa wrzucił wszystko:)
@ciekawyt, wszystko masz jak na dłoni na wykresach. Zero lania wody same fakty.
@Pablo, dokładnie, ale niektórzy wolą napisać, że się „nie da”. W ubiegłym roku w październiku o ile dobrze pamiętam robiłem disavow dla jeden ze śląskich firm – filtr algorytmiczny, po zgłoszeniu strona dostała kopa i nie tylko odzyskała stare pozycje, ale wbiła się na jeszcze wyższe, mam trochę zrzutów z tej realizacji ale nie była ona monitorowana tak dobrze jak ten przypadek. Pod koniec stycznia również filtr algorytmiczny – 100% zwrotu z pozycji. To nie są bajki, jak znajdę więcej czasu napiszę małe FAQ po karach Google.
@Michał, jak miała się załapać jak WSZYSTKIE „szkodliwe” linki zostały albo ręcznie usunięte, albo dodane do disavow? W przedstawionej realizacji miałem WSZYSTKIE raporty z działań, od początku do końca, z samych raportów było ponad 70000 linków, sam pozyskałem też dodatkowe.
@gms247, faktycznie dużo i trzeba było mocno podziałać, by choć część ręcznie usunąć.
A ile było % EMA przed odfiltrowaniem?Zważywszy na efekt link echoes możliwe, że pozostałe EMA miały wpływ na pozycję nawet po usunięciu. To by oznaczało, że w przypadku niektórych stron można byłoby zamówić pakiety BH, katalogi, precle, multikody, swl a potem gdy pozycje wskoczą szybko zgłosić przez disavov „odkurzone” linki. To tak jak z sportowcem na dopingu :). Jest na dopingu do momentu aż osiągnie cel a potem robi „detoksykację”. Być może google nie wypracowało w algo jeszcze sposobu na takich „graczy”. Robią akcje jak z wpakowaniem przestępcy do więzienia. Gdy odsiedzi swoją karę bardzo szybko wraca na top. Nie ponosi dalej konsekwencji BH. Ja oczywiście wyznaję WH bo szkoda się potem denerwować, ale być może pojawią się gracze BH+WH, które wykorzystają fakt, że po zdjęciu kary frazy wracają na pozycje.
@Maćko sprawdzę to i dam znać.
Odnośnie sytuacji o której mówisz, mam do czynienia z wieloma takimi przypadkami, jeśli strona jechała na samym BHS bez asekuracji – szansa na powroty praktycznie zerowa. Domena musi mieć choć minimalną rezerwę, żeby móc ją wyciągnąć. A teraz coraz częściej widzę domeny, które są wysoko a mają bardzo mało linków prowadzących. Brak danych w Ahrefs? Przypadek? Nie sądzę, sprawdzałem innymi sposobami linki przychodzące i okrągłe zero.
Wow, gratulacje. Kluczem było chyba wywalenie tych najgorszych linków prawda?
@Marko, tak ze śmietników wszystkie poleciały do odstrzału.
Ciekawy case. Brakuje mi wykresu widoczności z search metrics`a i informacji o tym co zostało w profilu linków.
Odnośnie komentarza o topach bez backlinków, dziwne rzeczy się dzieją i też mam takie przypadki.
Nie są to nawet poukrywane zaplecza, bo na sprawdzenie tego mam kilka sposobów choć czasem są tam nawet perełki, które całkowicie przeczą całemu seo. (brak opt, same zdjęcia, kilka słów i podstron o niczym)
Czyżby Google odchodziło od rankowania dzięki linkom? czy algo wymknął się z pod kontroli aż tak?
Pewnie się wyjaśni po Penguinie..
Zaskoczyło mnie trochę, że tak szybko poszło. Od zawsze szefom wmawiam, że trzeba iść na jakość nie ilość. Ale cóż… jak się facet uprze to jest gorszy od baby chcącej szpilki od Louboutin.
Witam.
Uczę się pozycjonowania i mam problemy ze zrozumieniem tekstów które zawiera artykół i komentarze – szczególnie ze skrótami typu: BH, EMA – prośba – czy można rozwinąć
Case nie był przeznaczony dla osób początkujących, sorry. Następnym razem postaram się zrobić słowniczek pojęć na końcu artykułu.
Odpowiadając na Twoje pytania…
BH – Black Hat – są to techniki jak i osoby działające poza wytycznymi Google dla Webmasterów. Wykorzystują wszystkie niedozwolone techniki do osiągnięcia swoich celów. W konsekwencji ich działań na strony nakładane są kary ręczne, algorytmiczne.
EMA – Exact Match Anchor – kotwica linku w dopasowaniu ścisłym, w odniesieniu do EMA możesz się często spotkać także z określeniem „frazy sprzedażowej”.
Dla przykładu koncentrujesz się na frazie „promocja stron” – chcesz być na tę frazę w Google możliwie jak najwyżej, umieszczasz linki do strony, które zawierają anchor pokrywający się z „promocja stron” – wtedy mówimy o EMA.
Jeśli linkujesz na inne kombinacje lecz zawierające w sobie słowa „promocja” i „stron” to będzie już partial match np. promocja stron internetowych, promocja stron www czy najlepsza promocja stron.
Dziękuję – teraz wszystko jasne.
Dobry pomysł ze słowniczkiem – Treść dotrze do wszystkich.
Gratulacje Mariusz. Nie często widzi sie pełne wyjście z karz dla trudnych fraz. Sam realizowałem kilka filtrów dla najbardziej konkurencyjnych fraz w branży szkoleniowej i za nic nie można było wyciągnąć stron profile backlinków całkiem zniszczone przez poprzednich pozycjonerów. Po zdjęciu filtrów powrotów na pozycje nie było. Jak fraza jest konkurencyjna i zrzekniemy sie linków bardzo trudno o powroty :[
@lukas wszystko zależy od profilu linków i od ilości danych którymi dysponujemy. Czym więcej danych, tym większe szanse i czym bardziej zróżnicowany profil, tym szanse rosną. Zgadzam się całkowicie, frazy najbardziej konkurencyjne bardzo trudno przywrócić do stanu przed nałożeniem filtra Google, ale mam takie realizacje które potwierdzają, żeby być wysoko wcale nie trzeba mieć dużo linków.
Z każdą kolejną podobną realizacją otrzymuję informacje, które wykorzystuję do badania wspólnych mianowników. Danych mam już sporo także z bezpłatnych realizacji które przeprowadzałem. Zarysowują się już części wspólne, jednak aby wyciągnąć w pełni trafne wnioski potrzeba jeszcze więcej przypadków i analiz. Jak to mówią Warszawy od razu nie zbudowano, na pewne rzeczy potrzeba czasu, jestem optymistycznie nastawiony do każdego realizowanego projektu i to co dzisiaj stoi pod znakiem zapytania, jutro zostanie odkryte 🙂
Fajny case i całkowicie się z nim zgadzam. Strony z których ściągałem filtry odzyskiwały pozycje. Co prawda nie wszystkie wracały na dokładnie to samo miejsce, jednak mówimy tu o ścisłej czołówce, a nie o 15-20 pozycji.
Bardzo fajne artykuł Mariusz zgadzam się z większością wymienionych tutaj faktów jednak nie zgodzę się z tym, że ściągniecie ręczniaka zaowocuje poprawą pozycji np. do tych sprzed nałożenia kary. Udało mi się usunąć ok. 50 różnych kar ręcznych (głównie za linki przychodzące) i nie zawsze pozycje wracały – scenariuszy było wiele: chwilowa poprawa pozycji, a następnie spadek; totalny brak różnicy w pozycjach na linkowane frazy czy long tail, etc. Poza tym pozycjonowanie strony po ręcznej karze też jest o wiele trudniejsze – wydaje mi się, że strony są niejako otagowane przez Google i nawet wysokiej jakości linki np. z press realease; optymalizacja; dodatkowy content nie poprawiają pozycji w serpach – nie zawsze ale częściej niż rzadziej.
Jeszcze raz artykuł bardzo konkretny, opisujący fajny (szczęśliwy) case – obyśmy mieli tylko takie!
@Marcin Marc, tutaj szczęście było w tym, że właściciel serwisu monitorował swoje działania i dostarczył szczegółowe dane z linkowania, czym więcej danych mam do dyspozycji, tym efektywniej mogę odfiltrować stronę.
Jeśli właściciel dostarcza niewiele danych ja muszę bazować na tym co sam zdobędę. Mimo że mam do dyspozycji wiele narzędzi, to nic nie zastąpi danych z linkowania od właściciela, dlatego tak ważne jest by klienci posiadali raporty z linkowania.
Były przypadki, że właściciel nie kontrolował jakie działania SEO miały miejsce, dopiero zainteresował się tym jak było źle ze stroną. Przy karach Google jest jeden niezmienny schemat – czym większą liczbą danych dysponujesz, tym skuteczniej odfiltrowujesz witrynę. Właścicieli stron trzeba edukować w tym kierunku, zapisywanie działań i ich późniejsze odtworzenie w przypadku nałożenia kary od Google jest kluczem w wielu odfiltrowywaniach, szczególnie algorytmicznych. Wpływa to zarówno na szybkość odfiltrowania jak również na efekty po odfiltrowaniu.
Nie wiem czy pamiętasz, kiedyś już przytaczałem na łamach SeoStation sytuację, gdzie domena miała wszystkich linków 80 tysięcy, z tych 80 tysięcy ledwie 1600 linków pokazywały Narzędzia dla webmasterów, a systemy Ahrefs i Majestic odpowiednio po 8000 i 11 tysięcy. Tamtą realizację również mógłbym podać jako wzorowy przykład tego, jak można całkowicie wyciągnąć domenę z filtra, mając WSZYSTKIE dane z linkowania do dyspozycji.
@Mariusz: pamiętam jak przez mgłę – możesz podać link?
@Marcin, chodzi mi o tę wypowiedź z wywiadu => http://www.lexy.com.pl/blog/filtry-google-wywiad.html
W ogóle w maju i czerwcu miałem dokładnie 3 realizacje, które całkowicie wyszły na prostą, teraz właściciele tych stron wiedzą że żyją 🙂 ale też zwróciłem im uwagę, by zabezpieczyli się na przyszłość i dywersyfikowali źródła pozyskiwania ruchu. Google przecież nie jest jedynym dostawcą ruchu a uzależnianie się od jednego „dostawcy” jest jak z Rosją i gazem. Jak ktoś myśli poważnie o swoim biznesie działania e-marketingowe rozszerzy, owszem należy się spodziewać, że Google będzie miało dominującą rolę, ale ideałem w ruchu do którego należy dążyć jest rozkład 50% Google, 50% inne źródła ruchu.
@Alex, dzięki, to był mój pierwszy case opublikowany na blogu.
Full wypas wpis 🙂
Mało ludzi w Polsce publikuje tak dokładne przedstawienie case’u wyjścia z filtra tylko można pogratulować i życzyć kolejnych udanych realizacji.
Jak z filtrami algorytmicznymi masz jakieś ciekawe case’y ?
Tak mam 🙂
Jestem początkująca.
Mam jedno pytanie.
Napisałeś że kary są czasowe.
Posiadam domenę z nałożonym filtrem algorytmicznym.
Czy jeśli usunę wszystkie linki prowadzące do strony kara sama minie.
Będę wdzięczna za odpowiedź.
Tak kary są nakładane na określony czas. Jeśli domena w tym czasie rozwiąże problemy kara przestanie obowiązywać, jeżeli nie usuniesz problemów z witryną kara jest przedłużana na kolejny okres.
Pytasz czy usunięcie wszystkich linków zdejmie karę. Wpierw zadaj sobie pytanie czy posiadasz dane o WSZYSTKICH linkach prowadzących do strony? Jeśli Twoja odpowiedź jest twierdząca masz 100% szanse na usunięcie filtra algorytmicznego. Czym mniejszą ilością danych dysponujesz, tym prawdopodobieństwo pełnego odfiltrowania spada. Dla przykładu załóżmy, że do Twojej domeny łącznie prowadzi 50 tysięcy linków, a Ty w toku analizy pozyskałaś połowę z tego – 25 tysięcy, to masz teoretycznie o 50% mniejsze szanse na wyjście z filtra, ale nie ma tak różowo, prawdopodobieństwa odfiltrowania strony nie można tutaj tak łatwo obliczyć, bo przecież wśród tych 25 tysięcy możesz mieć linki, które nie łamią wytycznych i wtedy szanse na odfiltrowanie spadną do zera. Oczywiście ten przykład nigdy nie występuje „w przyrodzie”, zawsze można pozyskać i dobre i złe backlinki, więc szansa na odfiltrowanie zawsze istnieje, wszystko zależy od profilu linków oraz od ilości danych którymi dysponujesz. Chcę Cię uświadomić, że ocena prawdopodobieństwa odfiltrowania nie jest taka prosta i podawanie oszacowań bez wcześniejszej dokładnej analizy jest totalnie nieprofesjonalne.
Zauważ też że nie wszystkie linki są złe – wszystkich linków nie usuwaj. Usuń lub zmodyfikuj tylko te, które łamią wytyczne dla webmasterów. Pamiętaj również że nie musisz usuwać linków, Google jako alternatywę przedstawia dodanie atrybutu nofollow do linków wychodzących, jeśli nie chcesz tracić ruchu z jakiegoś portalu nie decyduj się na usunięcie odsyłaczy, tylko nadaj im atrybut nofollow.
Odpowiadając finalnie na Twoje pytanie – jeśli przez WSZYSTKIE rozumiesz backlinki zlokalizowane tylko w Narzędziach dla webmasterów to niestety muszę Cię zmartwić, bardzo mało jest sytuacji, gdzie po analizie i wykluczeniu szkodliwych linków wylistowanych w Google Webmaster Tools filtr algorytmiczny schodzi. Musisz mieć pełne spektrum backlinków, wtedy odpowiedź na Twoje pytanie będzie twierdząca.
Pozdrawiam i powodzenia!