Każdy webmaster tworząc stronę internetową, tworzy ją dla konkretnych osób. Aby ułatwić dotarcie do grupy docelowej użytkowników, nasza strona powinna znaleźć się w wyszukiwarce. Teraz omówię dla Ciebie to, na co powinno się zwrócić uwagę tworząc witrynę internetową. Artykuł gościnny autorstwa Mateusza Antczaka.
Podczas tworzenia strony musimy pamiętać o jej optymalizacji pod względem SEO. Na co więc należy zwrócić szczególną uwagę?
Walidacja
Tworząc musimy pamiętać o tym, aby strona nie zawierała błędów składni (tzw. Błędów walidacji). Możemy to sprawdzić za pomocą narzędzia validator.w3.org. Wszystkie błędy mogą spowodować złe wyświetlanie się strony.
Wyszukiwarka
W wyszukiwarce wyświetlany jest tytuł oraz opis strony, należy więc go odpowiednio zoptymalizować. Najważniejszym „znacznikiem wyszukiwarkowym” jest znacznik title, ponieważ to na nim bazuje wyszukiwanie. Długość tytułu nie powinna przekraczać 70 znaków wraz ze spacjami. Kolejnym znacznikiem jest description, w którym umieszczamy opis strony. Musimy pamiętać, aby opis zawarty w tym znaczniku nie przekraczał 150-160 znaków oraz warto zwrócić uwagę na to, aby opis był przyciągający dla użytkownika.
Znaczniki
Jak wskazać botowi, to na jakie treści ma zwrócić uwagę?
Znacznikami stosowanymi do wyróżnienia treści są m.in. nagłówki h1-h5, którymi jak w gazecie możemy oddzielać pewne części danego tekstu. Najmocniejszymi są oczywiście znaczniki najwyższego poziomu czyli h1 i h2. Kolejnymi znacznikami do wyróżnienia treści są znaczniki strong oraz em. Stosujemy je do wyróżnienia 1- 2 słów. Warto pamiętać o tym, aby w tych znacznika umieszczać słowa kluczowe.
Małe pliczki
Ważne jest, aby do strony dołączyć dwa małe pliczki. Tymi pliczkami są oczywiście mapa strony (najlepiej xhtml) oraz pliki robots.txt. Mapę strony tworzymy po to, aby wskazać wyszukiwarce wszystkie podstrony naszej witryny. Sitemaps możemy przekazać do wyszukiwarki za pomocą narzędzia Google Webmaster Tools w zakładce Optymalizacja > Mapa witryny > Dodaj/ Testuj mapę witryny. Zgłaszając mapę wskażemy wyszukiwarce gdzie ma zajrzeć, aby znaleźć najważniejsze treści w naszej witrynie. Plik Robots.txt jest to plik, w którym możemy wskazać wyszukiwarce jakie treści powinna indeksować.
Atrybuty
Wstawiając niektóre elementy na stronę musimy pamiętać o tym, aby nie pominąć pewnych ich atrybutów. Na myśli mam oczywiście znaczniki img. Ważne jest, aby przy tym znaczniku nie zapomnieć atrybutu alt. W tym atrybucie możemy umieścić, krótki tekst alternatywny (powinny się w nim znajdować słowa kluczowe). Również możemy stosować atrybuty title, gdzie umieszczamy opis elementu. Umieszczanie tak słów kluczowych oczywiście nie jest równorzędne, jak umieszczenie słów w znacznikach nagłówkowych (h1-h5), ale zawsze jest to dobre rozwiązanie.
Wtyczki społecznościowe
Ostatnim na mojej liście elementów, na które warto zwrócić uwagę są wtyczki społecznościowe. Warto umieszczać na swojej stronie wtyczki takie jak: Lubię to, Udostępnij czy Google +. Jak wiemy społeczność to potęga?
Oczywiście nie mogę gwarantować, że gdy wykonasz powyższe czynności Twoja strona wskoczy na top3 czy nawet top10 Google, ale na pewno te wszystkie czynności sprawią, że będziesz bliżej sukcesu.
© Mateusz Antczak
mateuszantczak.eu
W obecnych czasach stronę internetową może mieć dosłownie każdy, kto ma dostęp do internetu. A to dzięki systemom zarządzania treścią (ang. CMS). Nie mniej jednak podstawy budowy stron www przydadzą się każdemu posiadaczowi swojej witryny. Chociażby w celu edycji szablonów, czy formatowania artykułów.
Większość szablonów np. do WordPressa już jest zoptymalizowana pod względem wyszukiwarek. Pozostaje wygenerować mapę strony (wtyczka: Google XML-sitemap), dodać wtyczki społecznościowe i mamy stronę www na naprawdę wysokim poziomie.
Mimo wszystko i tak najważniejsza jest treść! Unikalna, ciekawa i warta polecania. Wtedy i wysokie pozycjo w Google będą banalnie proste do osiągnięcia 😉
homoklikus to prawda. Nawet obsługa – edycja takiego CMS jakim jest wordpress wymaga jakiej kolwiek wiedzy. Wystarczy edycja szablonu, przetłumaczenie niektórych elementów. Patrząc, na niektóre strony wykonane przez profesjonalistów, wydaje mi się, że zapominają oni o optymalizacji.
Jaki byś dał poziom zapotrzebowania na posiadanie pliku robots.txt w skali 1-10 i dlaczego? Google i tak indeksuje jak leci (nie mówię o witrynach, które posiadają jakieś działy które ewidentnie nie powinny być indeksowane, no ale większość ludzi jednak raczej chce by wszystko było indeksowane).
Dobry wpis z uporządkowaną wiedzą dla webmasterów. Co do znaczników to warto dodać tutaj „strong” czy „b”, które również mają wpływ na pozycje.
Absolutne podstawy które powinien znać każdy kto rozpoczyna przygodę ze stronami www i pozycjonowaniem:)
Szkoda, że tytuł wpisu nie brzmi … podstawy cz. I. Bo nawet jeśli chodzi o zupełnie podstawy to nie wyczerpuje on tego tematu. Z jednej strony porusza takie tematy jak pliki dla robotów, z drugiej pomija znaczenie pogrubień b jak i tych strong, alt’ów dla zdjęć, i zapewne jeszcze wielu innych podstaw. Zachęcam zatem do kontynuowania tematu! Sam chętnie poczytam 🙂
Przy okazji takich podstaw, warto tu nawiązać do narzędzia Seoptimer.com które sprawdzi większość z tych rzeczy plus kilka dodatkowych. Narzędzie zostało opisane na tym blogu w artykule https://techformator.pl/darmowy-audyt-seo-strony-internetowej/
Google oficjalnie potwierdziło iż wyszukiwarka pomija Descriptions i Keywords stosowanie ich przez webmasterów jest raczej nawykowe i na „wszelki wypadek” dla pozycji strony w wyszukiwarce te znaczniki nie maja znaczenia. Nasycenie tekstu słowami kluczowymi zawartymi w Title oraz w znacznikach H, pogrubienie i pochylenie przynosi dla pozycjonowania strony zdecydowanie lepsze wyniki.
@Dariusz Dahm, description bezpośrednio na wysokość w rankingu nie wpływa ale nawet nie zdajesz sobie sprawy jak bardzo można podnieść CTR dzięki dobremu skontrowaniu opisu.
Nie bardzo rozumie o co Ci chodzi. Jeśli chodzi o klikalność w płatnych reklamach to i tu większe znaczenie ma właściwy dobór słów kluczowych. Opisy w wynikach wyszukiwania z znacznika description nie pojawiają się więc jak to może wpłynąć na klikalność. Gdybyś mógł to rozwinąć jestem ciekaw tej teorii.
@Dariusz, to nie jest teoria tylko praktyka 😉 Być może kiedyś tworzyłeś kampanie AdWords – dla kilku/kilkunastu grup reklam różne opisy. Tam mamy mniejsze pole manewru, lecz już na tym polu można wyciągnąć wnioski.
Proponuję zrobić samemu testy z różnymi opisami dla wyników organicznych, w trakcie testów można się kierować danymi z Google Analytics czy też wskaźnikiem CTR w Centrum dla webmasterów. W necie znajdziesz również testy zw. z wpływem obecności niestandardowych znaków w opisie na klikalność. Jak będziesz robił testy warto również zbadać kwestie wpływu metadanych schema.org na widoczność wpisu w wynikach wyszukiwania oraz CTR. Gwarantuje że te z pozoru drobne rzeczy mogą zwielokrotnić liczbę wejść na stronę, nawet jeśli wpis znajduje się na dalszych miejscach. Pozdrawiam!
Może „Descriptions” nie ma dużego znaczenia w pozycjonowaniu, ale napewno wpływa na ruch na stronie. Descriptions wświetla się w wynikach wyszukiwania i ma wpływ na to czy ludzie wejdą czy nie na stronę.
Chyba masz inne Google niż ja. W moim Google description się nie wyświetla w wynikach wyszukiwania i też wielu webmasterów od tego odchodzi.
Description może się w ogóle nie wyświetlać dla fraz typowo lokalnych ale na ogół mamy do czynienia z wyświetlaniem opisu pod każdym wynikiem wyszukiwania – wyjątek stanowią wspomniane frazy lokalne ale tylko dla czołowych wyników wyszukiwania.
@Dariusz Dahm
Radziłbym się do edukować. Descriptions używa każdy zdrowo myślący pozycjoner/webmaster. Dlatego że ten tag wyświetla się w snipetach, czyli w wynikach wyszukiwania. Jeśli u Ciebie jest inaczej to znaczy że masz dziwne google 😉
Artykuł stworzyłem dla początkujących w SEO. Taka wiedza przyda się nie tylko początkującym, ale również zaawansowanym w SEO – ponieważ jest to zebranie wszystkich podstawowych informacji, których nie warto zapomnieć. Również na moim blogu można znaleźć dużo informacji dla początkujących, ale i zaawansowani też coś tam dla siebie znajdą. A więc zapraszam blog.stronywwwdlafirm.com.pl
Zaawansowanym może nie bardzo, ale dla początkujących jak najbardziej. Często zagłębiają się w jakieś tajemne SEO czary mary, a o podstawach nie mają pojęcia.
Podstawy, ale przydatne podstawy, o których początkujący zapominają. Optymalizują treści, pozycjonują, a się dziwią brakowi pozycji, gdy kod strony jest zasyfiony.
Niby podstawy podstawami, ale czasami zapominamy (z roztargnienia, z rozpędu) o rzeczach absolutnie oczywistych, które okazują się niezwykle istotne. Także wielkie dzięki dla autora publikacji:)
Świetny artykuł dla mnie poczatkującego a zwłaszcza jak chodzi o tą walidację mam chyba ponad 200 błędów i będę się musiał zmierzyć z tym tematem w3c choć mam marne pojęcie o htmlu to jakoś spróbuje to ponaprawiać ręcznie bo domyślam się że jakiegoś automatycznego narzędzia do naprawy takich błędów jeszcze nie ma.
Wydaje mi się, że od tego artykułu wiele osób powinno zacząć swoją przygodę z tworzeniem stron. To, ze jakaś strona ładnie wygada, nie oznacza jeszcze, że będzie w pełni funkcjonalna czy widoczna dla robotów.
Tak właśnie jest, podczas tworzenia stron internetowych musimy pamiętać o tym, aby zachować pewne zasady. Wielu z nas zapomina o „wnętrzu” stron, a jedynie stawia na graficzne jej przedstawienie. W internecie jest wiele stron, które wyglądają idealnie, a mimo to nie są dobrze zoptymalizowane.
Każdy początkujący może znaleźć dużo informacji na temat stron na moim blogu blog.stronywwwdlafirm.com.pl. Dopiero rozwijam swojego bloga i mam nadzieję, że komuś te wpisy/ artykuły się przydadzą.
Powiedziałbym nawet, że warstwa programistyczna jest ważniejsza od samej grafiki.
Dobra, merytoryczna witryna poradzi sobie nawet gdy graficznie nie ma fajerwerków.
Jeżeli na stronie prezentowane są dobre treści i są on odpowiednio optymalizowane Google to doceni. Lepsza pozycja w Google = zwiększenie liczby odwiedzin i ich lepsza jakość. Dobra treść poradzi sobie nawet bez dobrej grafiki, ale jednak zwróciłbym uwagę na „ubranko” dla strony.
Na forum PiO wielokrotnie był wałkowany temat walidacji. Stanęło na tym, że drobne błędy w walidacji nie stoją na przeszkodzie do osiągania wysokich pozycji. Wiadomo, walidator nie może wywalać 777 błędów 😉 ale na niewielką ich ilość można przymknąć oko. Nie ma co toczyć krucjat o jedyną słuszną bezbłędną walidację.
Poza tym wymienione w notce wtyczki społecznościowe (np. Like z Facebooka) czy formularze zapisu na listy mailingowe (np Freebot czy Benefiter) nie przechodzą walidacji. Wiem to z praktyki bo mam tak na stronie firmowej, co nie przeszkadza jej być w top 3 Google na kilkanaście różnych fraz.
Wtyczki społecznościowe mają to do siebie, że wywołują błędy w walidacji. Więc jeżeli zadbamy, aby z naszej strony błędów takich nie było to ta mała ilość spowodowanych przez wtyczki społecznościowe nie sprawi nam większego kłopotu.
A jeszcze brakuje mi tu wzmianki o semantyce. Często spotykam się ze stosowaniem nie odpowiednich tagów, tylko dla tego, że na pierwszy rzut oka wygląda ok. Mieszanie span z div, używanie zamiast margin auto w stylach, czy dziwne listy, robione z czego popadnie, zamiast użyć . O tabelkach już nie wspominam, ale po tylu latach walki już mało kiedy spotyka się strony oparte na tabelkach.
Co do walidacji – nie zgadzam się, chociaż już to było podkreślone w komentarzach 😉 Mam wiele stron z wysokim PR i radzą sobie z pozycjami, a niektóre mają po kilkadziesiąt błędów. Czasem mam wrażenie, że nie da się temu walidatorowi dogodzić, bo zawsze coś znajdzie. Nawet Allegro ma błędy (na dzień dzisiejszy wykryło 35).
Zgadzam się z przedmówcą. Wpływ walidacji na pozycjonowanie wydaje się być mocno dyskusyjny. Niektóre z moich stron mimo, że walidator wykazuje błędy, mają wysokie pozycje w wyszukiwarce. Chociaż może też zależeć dużo od tego jak poważne to są błędy.
Celne i w miarę prosto przedstawione czynności, które pozwalają zaistnieć w sieci. Dla osób zaczynających przygodę z byciem webmasterem można śmiało polecać ten artykuł jako podstawy podstaw, myślę że konieczne do przyswojenia.
Może to niektórych zdziwi, ale strony oparte na CMS pozycjonują się gorzej napisane samodzielnie. Wiem, że to już nie te czasy, gdy strony pisało się w KEd, jednak sam się o tym przekonałem, że warto. Otóż miałem stronę opartą na WordPress’ie pozycjonowałem ją bardzo mało więc bardzo daleko w wynikach. Nagle – sam nie wiem czemu – postanowiłem sam napisać sobie tą stronę. Stworzyłem ją w KEd’zie, validowała się i po około miesiącu okazało się, że jedna z podstron jest na pierwszej stronie wyszukiwań w Google. Mistrzostwo!
A Wy mieliście takie doświadczenia?
Osobiście takich spostrzeżeń nie mam, w Twoim przypadku mogła to być np. lepsza optymalizacja pod Google. Strony pisane w CMS mają to do siebie, że często zostają bez optymalizacji ponieważ autor często błędnie myśli, że CMS jest już odpowiednio zoptymalizowany. Dzięki wielkie za spostrzeżenia i pozdrowienia od autora tego wpisu 🙂
Właściwie to spostrzeżeń brak. Chociaż irytujące ,co zostało pominięte jest ilość dodatków na stronie ,przez co strona jest muląca. Czasem dla tego aspektu warto zrezygnować z nowości technicznych.