Nie chciałem o tym pisać z wielu powodów (np. możliwe zastosowanie metody w depozycjonowaniu), jednakże po raz kolejny widzę ten sam błąd w sklepie internetowym i chyba już dość naoglądałem się, najwyższa pora nieco uświadomić klientów z jak poważnym problemem mamy do czynienia. W tym artykule opowiem o duplikowaniu treści, konsekwencjach z tego płynących oraz o metodach poradzenia sobie z tym problemem. Wpis dla wszystkich właścicieli sklepów internetowych i nie tylko.
Podczas analiz filtrów algorytmicznych wielokrotnie spotykałem się z problemem duplikacji. Właściciel domeny z reguły nawet nie zdawał sobie sprawy z jak poważnym zagadnieniem ma do czynienia. Dowiadywał się o problemie dopiero ode mnie na konsultacjach.
Niestety wśród właścicieli sklepów panuje dziwna tendencja – jak jest dobrze to nie interesują się co dzieje się ze stroną, dopiero do gry wkraczają jak jest już źle – spadek ruchu, spadek obrotów. Wtedy szukają pomocy. Akurat we wczorajszym przypadku nie można zarzucić właścicielowi, że nie interesował się stroną. Dziwi mnie jedynie fakt, że specjalista seo na etapie audytowania serwisu nie wychwycił problemów z duplikacją. Mniejsza z tym…
Kary za duplikacje treści nie są rzadkością, powiem wręcz że są coraz częściej przyznawane. Sklepy internetowe które nie przestrzegają wytycznych Google dla webmasterów są karane z całą surowością, a niestety z kary za duplikacje (Panda) nie zawsze tak łatwo wyjść, jak z filtru za nienaturalne linki przychodzące (Pingwin).
Funkcja wildcard
Wildcard to z założenia funkcja, która pozwala tworzyć w sposób szybki i prosty nowe subdomeny. Jak to mniej więcej wygląda? Mając włączoną funkcję na adresie domena.pl wszystkie subdomeny będą wskazywały na domenę główną. Gdy wpiszesz w polu adresu przeglądarki np. info.domena.pl wyświetli się strona zlokalizowana pod adresem domena.pl – inaczej mówiąc wyświetlisz duplikat strony głównej z poziomu subdomeny.
W niektórych scenariuszach tego typu duplikaty mogą zostać zaindeksowane w Google. Pół biedy jeśli w wynikach wyszukiwania znajdziemy tylko jedną sztukę, w niektórych realizacjach widziałem nawet po kilkadziesiąt duplikatów w różnych kombinacjach np.
w.ww.domena.pl
www.www.domena.pl
sub.domena.pl
cos.tam.domena.pl
Jak widzisz taka funkcjonalność może być piekielnie niebezpieczna i prowadzić do nałożenia kary Google. Wielu dostawców usług hostingowych ma to domyślnie włączone. Niestety dawanie takiej funkcji niedoświadczonym administratorom stron jest jak dawanie dziecku granatu.
Objawy nałożenia kary
W najlepszym (dla Ciebie) możliwym scenariuszu – dochodzi do podmiany landingów w SERP i co za tym idzie obniżenia pozycji w Google. Poniżej widok podmienionego landingu w SERP na duplikat na subdomenie.
W najczarniejszym scenariuszu kara doprowadzi do wycięcia w pień całego ruchu. Oczywiście na całkowite wycięcie ruchu domena musi sobie zapracować jeszcze innymi rzeczami – w części przypadków duplikacją nie tylko na subdomenach ale również w obrębie głównej domeny np. nieunikalne opisy wzięte od producentów czy też kradzież treści z innych portali. Gdy jest spełnionych kilka warunków, wtedy leci wszystko na łeb na szyję. Dotkliwość kary zawsze odzwierciedla skalę przewinienia. Czym więcej przeskrobałeś, tym mocniejszego kopa w tyłek dostaniesz.
Sprawcą podmiany landingów w SERP może być także filtr algorytmiczny za linki przychodzące, gdzie kara dotyczy całego URL a nie konkretnej frazy. W tego typu karze landing który był tak namiętnie przez nas linkowany wyparuje z wyników, a w jego miejsce pojawi się inny. Tego typu sytuacje nie są częste, ale też nie należą do rzadkości.
Zapewne padnie pytanie – w takim razie jak odróżnić Pingwina od Pandy? Bardzo prosto – analizując profil linków. Jeśli monitorowałeś działania link buildingu, na tym etapie możesz niemalże w 100% wykluczyć wpływ Pingwina na podmianę landingów.
Tutaj ponownie zarysowuje się schemat, omawiany w poprzednim artykule o filtrze ręcznym – czym więcej danych zbierzesz, tym masz większe szanse na ustalenie przyczyny spadków. Nigdy nie należy opierać analizy na szczątkowych danych, dlatego „znawcom tematu” w kółko powtarzam, aby pochopnie nie wyciągali wniosków, mając do dyspozycji ledwie jeden zrzut ekranu i informacje, a w zasadzie komentarz do sytuacji właściciela serwisu. Jak wiemy osoba ta wcale nie musi znać się na SEO, przez co jego „wskazówki” należy traktować z przymrużeniem oka.
Filtr Google za duplikacje – jak zminimalizować ryzyko
Pierwsze co powinieneś zrobić to sprawdzić, czy na koncie hostingowym jest domyślnie włączona funkcja wildcard. Jeśli tak – wyłącz ją ewentualnie przejdź do kolejnego punktu.
Jeśli już używasz wildcard zadbaj o to, by na domenie sklepu wdrożono tag kanoniczy, który uchroni Cie przed duplikacją.
Jeżeli jednak mleko już się rozlało i w indeksie widzisz pełno zaindeksowanych subdomen możesz podjąć dodatkowe kroki.
Wdrożenie tagu kanonicznego z reguły naprawia problem, ale musisz liczyć się z tym, że dane z wyszukiwarki będą wyparowywały w wolniejszym tempie. Teoretycznie jest to najlepsze możliwe rozwiązanie, albowiem wdrażając rel=”canonical” mówisz wyszukiwarce, która z wersji witryny jest tą podstawową. Przy wdrożonym tagu duplikacja na subdomenach z reguły powoduje wyświetlenie URI nadrzędnego dokumentu. Pomijam sytuacje, w których tag canonical został błędnie zaimplementowany w sklepach (przeważnie błąd polegający na braniu aktualnego URI bieżącej lokalizacji, przez co canonical wskazuje na subdomenę).
Możesz też wszystko przyśpieszyć i własnoręcznie windeksować subdomeny z Google. Najprościej zrobisz to poprzez Narzędzia dla webmasterów. Po dodaniu subdomeny, zweryfikowaniu, przejdź do Indeks Google => Usuń adresy URL, wybierz Nowa prośba o usunięcie.
W polu jako ścieżkę podaj slasz /
Następnie prześlij żądanie. UWAGA! W części przypadków możesz zostać poproszony o wybranie typu usunięcia.
Po przesłaniu żądania przeważnie po 6 godzinach subdomena znika z indeksu.
Kolejną rzeczą którą powinieneś wykonać jest analiza witryny – inaczej mówiąc przeprowadzenie audytu SEO, który wskaże potencjalne problemy z duplikowaniem. W audycie skup się na czynnikach on-site. Gdy wyeliminujesz wszystkie błędy w obrębie domeny, zyskasz większe szanse na wysokie pozycje i spowodujesz, że konkurencja chcąca Ci zaszkodzić będzie mogła co najwyżej pocałować Cię w… udo.
Nie ułatwiaj innym depozycjonowania swojego serwisu. Wykonaj solidnie analizę, wdroż wytyczne optymalizacyjne i monitoruj wszelkie działania, a będziesz spać spokojnie.
Przedstawiłem jeden z wariantów duplikacji, możliwości duplikowania treści w sklepach internetowych jest znacznie więcej. Wynika to nie tylko ze złej konstrukcji skryptu sklepu, lecz także błędów popełnionych na etapie optymalizacji SEO, więc zadbaj o to, by Twój pozycjoner wykonując audyt SEO sprawdził duplikację przez wildcard!
UWAGA! Wszystkie przedstawione tutaj wskazówki wykonujesz na własną odpowiedzialność. Niniejszy poradnik ma jedynie uświadomić właścicieli sklepów o potencjalnym zagrożeniu.
Zdjęcie z początku artykułu pochodzi z serwisu Flickr.com
Wszystko fajnie, ale tępo =/= tempo.. Więc warto w szybkim tempie naprawić błąd 😉
Hehe dobre, na prawie 8k znaków jeden bug może być. Dzięki wielkie już poprawiłem 🙂
Sokoli wzrok masz.
Przekierowanie 301 wildcardów też załatwia sprawę.
Samo 301 jest ok, ale gdy nie panujesz nad iloscia „dzikich” subdomen to nie zalatwi to sprawy. Canonocal jest tu zlotym srodkiem.
Właśnie od wczoraj pracuję nad takim problemem. Pierwsze, co zrobiłem to wyłączyłem wildcard… po chwili jednak zdałem sobie sprawę, że to nie załatwia sprawy już poindeksowanych zdublowanych stron (istnieją w indeksie, ale kierują do lasu)… więc włączyłem ponownie i ustawiłem przekierowanie 301 z „subdomen” na domenę główną.
Teraz z kolei zastanawiam się – czy jest sens bawić się dodatkowo w ustawianie rel cannonical ?
I drugie – czy przyspieszę usuwanie i zminimalizuję skutki jeżeli zgłoszę zdublowane linki do usunięcia? Tylko tutaj pojawiają się dwa problemy:
1) żeby usunąć linki np. z w.domena.pl, to najpierw musiałbym taką właśnie subdomenę zgłosić, czyli zweryfikować w GWT ? Czyli ponownie musiałbym zdjąć 301 żeby móc dokonać weryfikacji ?
2) Czy w ten sposób mogę masowo usunąć wszystkie url-e (podtrony) żądając usunięcia z indeksu np. m.domena.pl ? Czy nie ma ryzyka, że usunie się też coś z głównej subdomeny ?
@KML, najlepszym rozwiązaniem jest canonical, nie trzeba robić przekierowań 301 samo wszystko zniknie z SERP, tylko trzeba dłużej czekać. Ja jak widzę tego typu duplikację zawsze proponuję usunięcie przez GWT subdomen z wyników plus do tego canonical. 301-ek nie proponuje, chyba że nie ma innego wyjścia.
Odpowiadając na inne pytania ad1 – tak, ad2 – usuwasz wszystko co siedzi na konkretnej subdomenie. Ps. Nie wiem co masz na myśli mówiąc „główna subdomena”, sprecyzuj.
@Dawid Duda, nawet jeśli 'nie panuje się nad ilością „dzikich” domen’ to 301 i tak jest najszybszym sposobem na eliminację wildcardów. Wdrożenie canonicala wg mnie zajmie więcej czasu.
To tylko dwie linijki w .htaccess – grunt to dobre wyrażenie regularne działające na WSZYSTKIE subdomeny. Polecam skopiować sobie na przyszłość.
RewriteCond %{HTTP_HOST} !^www.domena.pl [NC]
RewriteRule ^(.*)$ http://www.domena.pl/$1 [L,R=301]
Czy ja wiem? To zależy. Dobrze skonstruowany .htaccess przekierowuje wszystkie subdomeny za wyjątkiem tych które mają być dostępne. 🙂
Zapomnialem dodac w poprzednim komentarzu, ze duzo Klientow ma poczte na subdomenach i 301 moze tylko namieszac.
Miałem podobny problem canonical rozwiązał go definitywnie.
Potwierdzam canonical zdaje egzamin w takiej sytuacji i jest ok.
@Mariusz, dzięki za podpowiedzi i już precyzuję – załóżmy, że poindeksowały się strony:
w.domena.pl
w.domena.pl/cośtam
w.domena.pl/cośinnnego
…i tak kilkadziesiąt podstron
Do tego bardzo podobnie z inną subdomeną np. b.domena..pl + podstrony
Czyli – żeby zgłosić URL – w GWT do usunięcia musiałbym w tej chwili
1) usunąć przekierowanie 301, bo bez tego nie zweryfikuję subdomen w GWT i nie będę mógł zgłosić.
2) po zweryfikowaniu zgłaszam i tutaj: czy wystarczy samo m.domena.pl i b.domena.pl (czyli masowo) czy każdy url podstrony oddzielnie ? Dla jasności dodam, że celem jest usunięcie 100% subdomenowych URLi bez wyjątków.
2) Czy nie ma ryzyka, że takie usuwanie w jakikolwiek sposób „zachaczy” o domenę główną? Czy na 100% Google potraktuje zupełnie oddzielnie m.domena.pl i nie ruszy linków domena.pl ?
Wracając do rel=cannonical – oczywiście do wdrożenia na przyszłość, ale w tej chwili wydaje mi się, że 301 (tak jak ktoś podał wyżej) jest szybsze i wygodniejsze do wdrożenia (w sumie mam do zrobienia ok. 300 podstron). Poza tym przy zastosowaniu 301 dodatkowo cannonical chyba już nie ma sensu, bo i tak otwiera się strona prawidłowa. Czyli tylko na przyszłość się przyda.
Przy okazji pytanie. Dlaczego hostingi (niektóre) zostawiają tę funkcję domyślnie aktywną? Wydaje mi się, że ryzyko takich komplikacji, czyli wada jest dużo większa niż ew. korzyści – ja nie widzę zastosowania dla takiej opcji.
ad1 Musi nastąpić weryfikacja subdomeny, w związku z tym jeśli założyłeś 301 musisz zdjąć by zweryfikować ją, w przeciwnym wypadku będziesz miał błąd w panelu. Wyjątek stanowi weryfikacja przez rekord DNS. Nie wiem co Ci będzie prościej zrobić, czy zrobić weryfikację w oparciu o popularne metody, czy też stworzyć i dodać rekordy TXT/CNAME subdomen u Twojego dostawcy. Ps. U niektórych dostawców możesz mieć problemy w weryfikacji tą metodą, w związku z czym pozostaną tylko „klasyki”.
ad2 Masowo dla m.domena.pl , b.domena.pl itd. tylko jako ścieżkę do usunięcia podajesz slasz „/” i usunie Ci wszystkie wystąpienia danej subdomeny w wynikach wyszukiwania.
Masz domenę b.domena.pl zweryfikowaną, używasz funkcji usuwania URL, zgłaszasz główną ścieżkę slasz „/” – dodając go masz maskę usuwania b.domena.pl/.*
Tak samo postępujesz dla innych subdomen.
PS. Jak pomylisz się 😛 to i tak masz opcję przywrócenia domeny do indeksu więc spokojna głowa. Wyjątek stanowi użycie tego drugiego narzędzia Google do usuwania, wtedy nie będzie zmiłuj się i opcji przywrócenia w GWT nie zobaczysz.
ad3 Po to właśnie weryfikujesz subdomeny, żeby usuwanie dotyczyło tylko tych konkretnych wystąpień a nie wszystkiego. Jeśli operujesz na zweryfikowanej subdomenie b.domena.pl to wszystkie czynności jakie dokonujesz w GWT na profilu tej strony dotyczą WYŁĄCZNIE jej.
Odnośnie pozostałych kwestii…
301 jest prostsze do wdrożenia i dlatego przez wielu bardziej preferowane, ale czy jest lepsze? Nie jest. Canonical robi swoje, nie ingerując w strukturę i jak słusznie Dawid Duda zauważył 301 może powodować problemy.
Odnośnie ostatniego pytania – to pytanie trzeba zadać firmom hostingowym. W dzisiejszych czasach od strony SEO nie widzę żadnego uzasadnienia, by tę opcję w praktyce w SEO zastosować.
Dziękuję za wyczerpujące podpowiedzi. Sam temat idealnie wpasował się w to, z czym aktualnie działam, a jeszcze dodatkowe informacje z komentarzy – z pewnością będą pomocne. Dziękuje i pozdrawiam.
Jeszcze w uzupełnieniu dodam – jeżeli ktoś będzie, to przerabiał to samo: Zanim zdjąłem 301 spróbowałem jednak zweryfikować w GWT, wybrałem metodę przez Goofle Analytisc i zweryfikowano pomyślnie. Druga sprawa (dla większości pewnie oczywista), trzeba pamiętać jeszcze o ogólnym ustawieniu konkretnej domeny www lub bez www i w odpowiednim wariancie dodać (do GWT) i usunąć (z indeksu) subdomeny.
Dzięki za dodatkowe informacje.
@Adrian, w audytach seo sklepów internetowych zawsze sprawdza się możliwości duplikowania, a to co przedstawiłem jest jedną z wielu opcji powielania treści. Takie rzeczy trzeba eliminować bo później ni stąd, ni zowąd okazuje się że serwis dostaje po tyłku od Google Pandy i wszystko jest pozamiatane a jak już pisałem z tego typu filtru nie jest łatwo wyjść, o wiele łatwiej wyjść z filtra algo za linki przychodzące.
Ps. Chyba aż tak źle nie jest, polskie SEO ma dobrych specjalistów, choć pewnie znajdą się też i tacy co nie znają podstaw a zabierają się za robienie audytów.
Posiadam sklep internetowy po przeczytaniu twojego wpisu chce sprawdzic czy nie ma kopii w Google jak wpisze site:domena.pl -site:domena.pl -site:blog.domena.pl nie dostaje żadnych wyników pisze podana fraza nie została odnaleziona.
@Olcia, mój błąd powinienem to dokładniej wytłumaczyć.
Żeby sprawdzić duplikaty wpierw wpisujesz:
site:.domena.pl
Ustalasz wersję kanoniczną, jeśli jest z www na początku w kolejnym zapytaniu dajesz:
site:.domena.pl -site:www.domena.pl
Operator „-” spowoduje usunięcie z wyników wszystkich wystąpień prawidłowego adresu, dzięki temu ograniczysz liczbę wyników i łatwo zauważysz, że dochodzi do duplikacji.
Trzecie wyrażenie -site:blog.domena.pl jest opcjonalne, zasada jest taka, by ograniczyć liczbę wyników wykluczasz wyniki z „dobrych” subdomen tj. takich które na pewno nie duplikują. W tym konkretnym przypadku blog posiadał canonical więc brak duplikacji, ale żeby policzyć wystąpienia duplikatów trzeba i tak ograniczyć liczbę wszystkich wyników i dlatego to wyrażenie zostało zastosowane. Jeśli nie masz np. bloga na subdomenie lub jest on chroniony przez canonical to wystarczy, że wpiszesz site:.domena.pl -site:www.domena.pl choć dla świętego spokoju warto sprawdzić wszystkie warianty.
Jeśli posiadasz więcej subdomen każdą z nich w podobny sposób sprawdzisz czy nie ma w Google powieleń.
Jeśli wciąż będziesz miała problem z wykryciem powielania treści w sklepie skontaktuj się ze mną przez mail.
U mnie weryfikacja przez analytics nie działa 🙁
Jakieś pomysły?
Użyj innych metod weryfikacji. W ostateczności pozostaje dodanie rekordu cname/txt.
Możesz coś więcej zdradzić?
Jeśli pytasz o to jak przeanalizować profil linków i na co zwrócić uwagę, to temat na inny wpis.
A co jeśli w domenie mam „-„?
Czy jeśli w .htaccess dam:
RewriteCond %{HTTP_HOST} !^www.nazwa_domeny.pl$
RewriteRule ^(.*)$ htt p://www.nazwa_domeny.pl/$1 [R=301,L]
to załatwi problem??
daję z www bo tak od zawsze pozycjonowałem stronę…
Nie do końca z tym duplikowaniem treści jest tak źle. Można zauważyć jak na wielu stronach są przerzucone artykuły z wikipedii. Cytaty z innych stron. Wierszyki i piosenki powtarzane na tysiącu stron – i nic złego się nie dzieje. A jak by się działo niesprawiedliwie jak by ktoś obrywał za coś takiego. Na pewno panda lubi oryginalne treści ale nie każdego kara za duplikaty.
Ale jak ktoś ma niemal całą stronę skopiowaną od innych to już niedobrze…
A jeżeli strona została zrobiona na duplikowaniu treści, to powinna mieć od samego początku problemy. Jak to możliwe że google to zauważa z „opóźnionym zapłonem”..?
Jedna strona dostanie kare inna nie.
Nikt z nas nie zna od środka algorytmu, wnioski możemy wyciągać wyłącznie na podstawie przypadków, z którymi się spotkaliśmy.
Kara Panda dotyczy także świeżych domen ze skopiowanymi tekstami, przykład choćby sklepów, które kopiują opisy produktów od producentów i myślą że to wystarczy. Jednak kara nie jest nakładana od ręki, gdyby tak było wiele nowych sklepów nie miałoby prawa zaistnieć w wyszukiwarce. Ta forma kary jest dość dziwna, widać elementy wspólne, ale nie ma w każdym przypadku regularności, co skłania do opinii, że margines Pandy jest dość duży.
Zadziwiły mnie screeny i przypadki z życia wzięte. Jak dla mnie najlepszy wpis tych które czytałem w tym roku. Rób tak dalej – podawaj ciekawe rzeczy z przykładami z życia wzietymi a nie jak Zgred wytnie cos, zamaże i po łebkach opowie a reszty sie naucz sam albo zapłac dla Maxroya za szkolenie. SEO a z tym razem SEO lektury przechodza na inny level. Oby tak dalej!
@ariel dzięki, wpis z życia wzięty to fakt 🙂 W tej branży jest jednak tak, że nie można wszystkich informacji podawać do publicznej wiadomości dla dobra byłych klientów, zawsze znajdzie się jakaś seo świnia, która podpierniczy stronę, dlatego w case’ach często bywają strony zamazane, frazy również – z tego względu, że są metody by sprawdzić kto był w danym dniu na jakiej pozycji i w ten sposób poznać adres www i jak trafisz na seo świnię to podpierdoli z zazdrości albo Bóg wie jeszcze z jakiego powodu, szumowin w branży SEO nie brakuje, dlatego lepiej czasem nie podawać zbyt wiele dla dobra innych ludzi. W tym jednak wypadku jeszcze większym problemem dla właściciela strony byłaby niepełna informacja podana we wpisie, tak to czarno na białym wszystko jest, przestroga dla wszystkich właścicieli stron, że warto dbać o jakość podstron w serwisie. Kary Panda to niestety nie fikcja choć niektórzy do dzisiaj twierdzą, że nie ma się czego obawiać – praktyka jednak pokazuje co innego i należy o tym głośno powiedzieć, ku przestrodze dla innych.
Z tymi seo świniami to w ogóle masakra. Trzeba brać ryzyko oparte o nich tak samo bardzo pod uwagę jak całe działanie google. Na ryzyku jest każdy posiadacz strony, którą pozycjonują firmy w oparciu o swoje zaplecza. Konkurencja zgłosi te zaplecza i obrywają jednocześnie setki ludzi co korzystały z tych usług..
Na ryzyku jest kupowanie jakichkolwiek linków typu: prywatne blogi/precle, to co kiedyś przynosiło dobre efekty.
A firmy seo żyją w ciągłej walce i strachu o to co konkurencja im może zmajstrować…
@Jenot, niestety takie czasy dzikie mamy 😐
Odkopię jeśli można temat.
Sprawdziłem, dla obu wersji tj. domena.pl i www .domena.pl , że preferowaną domeną jest domena.pl
Jakie było moje zdziwienie, gdy site:www.cos.domena.pl zwraca 4 wyniki powielające 4 linki z 700 otrzymywanych po poleceniu site:cos.domena.pl
Ponieważ Google Search można ustawić tylko preferowaną domenę a nie subdomenę, nie bardzo wiem co z tym zrobić.
Pomóżcie laikowi.
Chyba mam podobny problem u siebie na stronie. Google zaindeksowało mnóstwo subdomen. Czy da się zrobić przekierowania z subdomen?
@Dawid, problem z wildcard jest powszechny. Przekierowanie 301 z subdomen na domenę główną ustawisz na przykład za pośrednictwem poniższej regułki umieszczonej w htaccess…
RewriteEngine On
RewriteCond %{HTTP_HOST} !^domena\.pl$ [NC]
RewriteRule ^(.*)$ http://domena.pl/$1 [L,R=301]
Oczywiście, jeżeli jest aktywna funkcja mod_rewrite, zazwyczaj jest 🙂
@berater, subdomeny w Google Search Console możesz też zweryfikować 🙂 ale jeżeli chcesz usunąć z wyników powstałe duplikaty, zacznij od przekierowania 301, jeżeli Twój serwer obsługuje htaccess, wykonanie przekierowania z subdomen na domenę główną nie będzie stanowiło problemu. Powyżej podałem przykładową regułkę. Możesz również zastosować wyindeksowanie subdomen przez Google Search Console (po ich weryfikacji w GSC), pamiętaj jednak, że aby usunięcie było trwałe, subdomena musi mieć przynajmniej noindex ustawione. Więcej na ten temat napisano w pomocy Google – https://support.google.com/webmasters/answer/1663419?hl=pl#make-permanent
No właśnie borykam się z powielaniem treści w sklepie. Mam ustawione canonical na produktach, które występując w różnych kategoriach (mają różne adresy). Canonical wskazuje ten właściwy adres, ale w google webmaster i tak pokazuj mi duplikowane title. Od razu dodam, że canonical wdrożyłem 3 miesiące temu, a błędy występują przy każdej indeksacji. Chyba jdnak lepszym rozwiązaniem jest przekierowanie 301.
Na aktualizację danych w Google Search Console trzeba poczekać, od ręki tego nie zaktualizują.