TechFormator
  • Mobile
  • Systemy
  • Sprzęt
  • e-Marketing
  • Bezpieczeństwo
  • Inne
    • Aktualności
    • Oprogramowanie
  • Social Trends
  • Kontakt
  • Reklama
TechFormator
  • Mobile
  • Systemy
  • Sprzęt
  • e-Marketing
  • Bezpieczeństwo
  • Inne
    • Aktualności
    • Oprogramowanie
  • Social Trends
  • Kontakt
  • Reklama
Mariusz Kołacz
34 komentarze
15 lipca 2012
webmaster

Poradnik webmastera – podstawy

Każdy webmaster tworząc stronę internetową, tworzy ją dla konkretnych osób. Aby ułatwić dotarcie do grupy docelowej użytkowników, nasza strona powinna znaleźć się w wyszukiwarce. Teraz omówię dla Ciebie to, na co powinno się zwrócić uwagę tworząc witrynę internetową. Artykuł gościnny autorstwa Mateusza Antczaka.

Podczas tworzenia strony musimy pamiętać o jej optymalizacji pod względem SEO. Na co więc należy zwrócić szczególną uwagę?

Walidacja

Tworząc musimy pamiętać o tym, aby strona nie zawierała błędów składni (tzw. Błędów walidacji). Możemy to sprawdzić za pomocą narzędzia validator.w3.org. Wszystkie błędy mogą spowodować złe wyświetlanie się strony.

Wyszukiwarka

W wyszukiwarce wyświetlany jest tytuł oraz opis strony, należy więc go odpowiednio zoptymalizować. Najważniejszym „znacznikiem wyszukiwarkowym” jest znacznik title, ponieważ to na nim bazuje wyszukiwanie. Długość tytułu nie powinna przekraczać 70 znaków wraz ze spacjami. Kolejnym znacznikiem jest description, w którym umieszczamy opis strony. Musimy pamiętać, aby opis zawarty w tym znaczniku nie przekraczał 150-160 znaków oraz warto zwrócić uwagę na to, aby opis był przyciągający dla użytkownika.

Znaczniki

Jak wskazać botowi, to na jakie treści ma zwrócić uwagę?

Znacznikami stosowanymi do wyróżnienia treści są m.in. nagłówki h1-h5, którymi jak w gazecie możemy oddzielać pewne części danego tekstu. Najmocniejszymi są oczywiście znaczniki najwyższego poziomu czyli h1 i h2. Kolejnymi znacznikami do wyróżnienia treści są znaczniki strong oraz em. Stosujemy je do wyróżnienia 1- 2 słów. Warto pamiętać o tym, aby w tych znacznika umieszczać słowa kluczowe.

Małe pliczki

Ważne jest, aby do strony dołączyć dwa małe pliczki. Tymi pliczkami są oczywiście mapa strony (najlepiej xhtml) oraz pliki robots.txt. Mapę strony tworzymy po to, aby wskazać wyszukiwarce wszystkie podstrony naszej witryny. Sitemaps możemy przekazać do wyszukiwarki za pomocą narzędzia Google Webmaster Tools w zakładce Optymalizacja > Mapa witryny > Dodaj/ Testuj mapę witryny. Zgłaszając mapę wskażemy wyszukiwarce gdzie ma zajrzeć, aby znaleźć najważniejsze treści w naszej witrynie. Plik Robots.txt jest to plik, w którym możemy wskazać wyszukiwarce jakie treści powinna indeksować.

Atrybuty

Wstawiając niektóre elementy na stronę musimy pamiętać o tym, aby nie pominąć pewnych ich atrybutów. Na myśli mam oczywiście znaczniki img. Ważne jest, aby przy tym znaczniku nie zapomnieć atrybutu alt. W tym atrybucie możemy umieścić, krótki tekst alternatywny (powinny się w nim znajdować słowa kluczowe). Również możemy stosować atrybuty title, gdzie umieszczamy opis elementu. Umieszczanie tak słów kluczowych oczywiście nie jest równorzędne, jak umieszczenie słów w znacznikach nagłówkowych (h1-h5), ale zawsze jest to dobre rozwiązanie.

Wtyczki społecznościowe

Ostatnim na mojej liście elementów, na które warto zwrócić uwagę są wtyczki społecznościowe. Warto umieszczać na swojej stronie wtyczki takie jak: Lubię to, Udostępnij czy Google +. Jak wiemy społeczność to potęga?

Oczywiście nie mogę gwarantować, że gdy wykonasz powyższe czynności Twoja strona wskoczy na top3 czy nawet top10 Google, ale na pewno te wszystkie czynności sprawią, że będziesz bliżej sukcesu.

© Mateusz Antczak
mateuszantczak.eu

Polecane dla Ciebie

laptop otwarte google

Audyt linków – jak przyznać dostęp do Google Webmaster Tools

wiedza

Google Disavow Links Tool w pigułce

sklep online

Uwaga na mechanizmy keszujące w sklepach internetowych!

34 komentarze

Kliknij tutaj aby skomentować
  • homoklikus pisze:
    15 lipca 2012 o 12:26

    W obecnych czasach stronę internetową może mieć dosłownie każdy, kto ma dostęp do internetu. A to dzięki systemom zarządzania treścią (ang. CMS). Nie mniej jednak podstawy budowy stron www przydadzą się każdemu posiadaczowi swojej witryny. Chociażby w celu edycji szablonów, czy formatowania artykułów.

    • Denis pisze:
      16 lipca 2012 o 14:34

      Większość szablonów np. do WordPressa już jest zoptymalizowana pod względem wyszukiwarek. Pozostaje wygenerować mapę strony (wtyczka: Google XML-sitemap), dodać wtyczki społecznościowe i mamy stronę www na naprawdę wysokim poziomie.

      Mimo wszystko i tak najważniejsza jest treść! Unikalna, ciekawa i warta polecania. Wtedy i wysokie pozycjo w Google będą banalnie proste do osiągnięcia 😉

  • piotr pisze:
    15 lipca 2012 o 22:10

    homoklikus to prawda. Nawet obsługa – edycja takiego CMS jakim jest wordpress wymaga jakiej kolwiek wiedzy. Wystarczy edycja szablonu, przetłumaczenie niektórych elementów. Patrząc, na niektóre strony wykonane przez profesjonalistów, wydaje mi się, że zapominają oni o optymalizacji.

  • Tom pisze:
    16 lipca 2012 o 09:31

    Jaki byś dał poziom zapotrzebowania na posiadanie pliku robots.txt w skali 1-10 i dlaczego? Google i tak indeksuje jak leci (nie mówię o witrynach, które posiadają jakieś działy które ewidentnie nie powinny być indeksowane, no ale większość ludzi jednak raczej chce by wszystko było indeksowane).

  • Bartek pisze:
    16 lipca 2012 o 10:44

    Dobry wpis z uporządkowaną wiedzą dla webmasterów. Co do znaczników to warto dodać tutaj „strong” czy „b”, które również mają wpływ na pozycje.

  • HSM pisze:
    16 lipca 2012 o 12:27

    Absolutne podstawy które powinien znać każdy kto rozpoczyna przygodę ze stronami www i pozycjonowaniem:)

  • Sebastian Cezary pisze:
    16 lipca 2012 o 20:35

    Szkoda, że tytuł wpisu nie brzmi … podstawy cz. I. Bo nawet jeśli chodzi o zupełnie podstawy to nie wyczerpuje on tego tematu. Z jednej strony porusza takie tematy jak pliki dla robotów, z drugiej pomija znaczenie pogrubień b jak i tych strong, alt’ów dla zdjęć, i zapewne jeszcze wielu innych podstaw. Zachęcam zatem do kontynuowania tematu! Sam chętnie poczytam 🙂

  • Paweł Rabinek pisze:
    16 lipca 2012 o 20:48

    Przy okazji takich podstaw, warto tu nawiązać do narzędzia Seoptimer.com które sprawdzi większość z tych rzeczy plus kilka dodatkowych. Narzędzie zostało opisane na tym blogu w artykule https://techformator.pl/darmowy-audyt-seo-strony-internetowej/

  • Dariusz Dahm pisze:
    16 lipca 2012 o 20:59

    Google oficjalnie potwierdziło iż wyszukiwarka pomija Descriptions i Keywords stosowanie ich przez webmasterów jest raczej nawykowe i na „wszelki wypadek” dla pozycji strony w wyszukiwarce te znaczniki nie maja znaczenia. Nasycenie tekstu słowami kluczowymi zawartymi w Title oraz w znacznikach H, pogrubienie i pochylenie przynosi dla pozycjonowania strony zdecydowanie lepsze wyniki.

    • Mariusz Kołacz pisze:
      17 lipca 2012 o 08:21

      @Dariusz Dahm, description bezpośrednio na wysokość w rankingu nie wpływa ale nawet nie zdajesz sobie sprawy jak bardzo można podnieść CTR dzięki dobremu skontrowaniu opisu.

    • Dariusz Dahm pisze:
      21 lipca 2012 o 12:42

      Nie bardzo rozumie o co Ci chodzi. Jeśli chodzi o klikalność w płatnych reklamach to i tu większe znaczenie ma właściwy dobór słów kluczowych. Opisy w wynikach wyszukiwania z znacznika description nie pojawiają się więc jak to może wpłynąć na klikalność. Gdybyś mógł to rozwinąć jestem ciekaw tej teorii.

    • Mariusz Kołacz pisze:
      21 lipca 2012 o 18:01

      @Dariusz, to nie jest teoria tylko praktyka 😉 Być może kiedyś tworzyłeś kampanie AdWords – dla kilku/kilkunastu grup reklam różne opisy. Tam mamy mniejsze pole manewru, lecz już na tym polu można wyciągnąć wnioski.
      Proponuję zrobić samemu testy z różnymi opisami dla wyników organicznych, w trakcie testów można się kierować danymi z Google Analytics czy też wskaźnikiem CTR w Centrum dla webmasterów. W necie znajdziesz również testy zw. z wpływem obecności niestandardowych znaków w opisie na klikalność. Jak będziesz robił testy warto również zbadać kwestie wpływu metadanych schema.org na widoczność wpisu w wynikach wyszukiwania oraz CTR. Gwarantuje że te z pozoru drobne rzeczy mogą zwielokrotnić liczbę wejść na stronę, nawet jeśli wpis znajduje się na dalszych miejscach. Pozdrawiam!

    • Antoni pisze:
      6 sierpnia 2012 o 13:56

      Może „Descriptions” nie ma dużego znaczenia w pozycjonowaniu, ale napewno wpływa na ruch na stronie. Descriptions wświetla się w wynikach wyszukiwania i ma wpływ na to czy ludzie wejdą czy nie na stronę.

    • Dariusz Dahm pisze:
      6 sierpnia 2012 o 15:50

      Chyba masz inne Google niż ja. W moim Google description się nie wyświetla w wynikach wyszukiwania i też wielu webmasterów od tego odchodzi.

    • Mariusz Kołacz pisze:
      6 sierpnia 2012 o 17:01

      Description może się w ogóle nie wyświetlać dla fraz typowo lokalnych ale na ogół mamy do czynienia z wyświetlaniem opisu pod każdym wynikiem wyszukiwania – wyjątek stanowią wspomniane frazy lokalne ale tylko dla czołowych wyników wyszukiwania.

    • homoklikus pisze:
      6 sierpnia 2012 o 16:25

      @Dariusz Dahm
      Radziłbym się do edukować. Descriptions używa każdy zdrowo myślący pozycjoner/webmaster. Dlatego że ten tag wyświetla się w snipetach, czyli w wynikach wyszukiwania. Jeśli u Ciebie jest inaczej to znaczy że masz dziwne google 😉

  • Mateusz Antczak pisze:
    16 lipca 2012 o 23:09

    Artykuł stworzyłem dla początkujących w SEO. Taka wiedza przyda się nie tylko początkującym, ale również zaawansowanym w SEO – ponieważ jest to zebranie wszystkich podstawowych informacji, których nie warto zapomnieć. Również na moim blogu można znaleźć dużo informacji dla początkujących, ale i zaawansowani też coś tam dla siebie znajdą. A więc zapraszam blog.stronywwwdlafirm.com.pl

  • HardyTwardy pisze:
    17 lipca 2012 o 10:13

    Zaawansowanym może nie bardzo, ale dla początkujących jak najbardziej. Często zagłębiają się w jakieś tajemne SEO czary mary, a o podstawach nie mają pojęcia.

  • Monia pisze:
    18 lipca 2012 o 10:01

    Podstawy, ale przydatne podstawy, o których początkujący zapominają. Optymalizują treści, pozycjonują, a się dziwią brakowi pozycji, gdy kod strony jest zasyfiony.

  • Piotr pisze:
    19 lipca 2012 o 18:52

    Niby podstawy podstawami, ale czasami zapominamy (z roztargnienia, z rozpędu) o rzeczach absolutnie oczywistych, które okazują się niezwykle istotne. Także wielkie dzięki dla autora publikacji:)

  • forex trader pisze:
    22 lipca 2012 o 12:22

    Świetny artykuł dla mnie poczatkującego a zwłaszcza jak chodzi o tą walidację mam chyba ponad 200 błędów i będę się musiał zmierzyć z tym tematem w3c choć mam marne pojęcie o htmlu to jakoś spróbuje to ponaprawiać ręcznie bo domyślam się że jakiegoś automatycznego narzędzia do naprawy takich błędów jeszcze nie ma.

  • Perełka pisze:
    24 lipca 2012 o 15:20

    Wydaje mi się, że od tego artykułu wiele osób powinno zacząć swoją przygodę z tworzeniem stron. To, ze jakaś strona ładnie wygada, nie oznacza jeszcze, że będzie w pełni funkcjonalna czy widoczna dla robotów.

    • Mateusz Antczak pisze:
      25 lipca 2012 o 22:50

      Tak właśnie jest, podczas tworzenia stron internetowych musimy pamiętać o tym, aby zachować pewne zasady. Wielu z nas zapomina o „wnętrzu” stron, a jedynie stawia na graficzne jej przedstawienie. W internecie jest wiele stron, które wyglądają idealnie, a mimo to nie są dobrze zoptymalizowane.

      Każdy początkujący może znaleźć dużo informacji na temat stron na moim blogu blog.stronywwwdlafirm.com.pl. Dopiero rozwijam swojego bloga i mam nadzieję, że komuś te wpisy/ artykuły się przydadzą.

  • Michał pisze:
    27 lipca 2012 o 16:25

    Powiedziałbym nawet, że warstwa programistyczna jest ważniejsza od samej grafiki.
    Dobra, merytoryczna witryna poradzi sobie nawet gdy graficznie nie ma fajerwerków.

    • Mateusz Antczak pisze:
      28 lipca 2012 o 11:01

      Jeżeli na stronie prezentowane są dobre treści i są on odpowiednio optymalizowane Google to doceni. Lepsza pozycja w Google = zwiększenie liczby odwiedzin i ich lepsza jakość. Dobra treść poradzi sobie nawet bez dobrej grafiki, ale jednak zwróciłbym uwagę na „ubranko” dla strony.

  • Zbigniew Grabowski pisze:
    3 sierpnia 2012 o 21:51

    Na forum PiO wielokrotnie był wałkowany temat walidacji. Stanęło na tym, że drobne błędy w walidacji nie stoją na przeszkodzie do osiągania wysokich pozycji. Wiadomo, walidator nie może wywalać 777 błędów 😉 ale na niewielką ich ilość można przymknąć oko. Nie ma co toczyć krucjat o jedyną słuszną bezbłędną walidację.

    Poza tym wymienione w notce wtyczki społecznościowe (np. Like z Facebooka) czy formularze zapisu na listy mailingowe (np Freebot czy Benefiter) nie przechodzą walidacji. Wiem to z praktyki bo mam tak na stronie firmowej, co nie przeszkadza jej być w top 3 Google na kilkanaście różnych fraz.

    • Mateusz Antczak pisze:
      4 sierpnia 2012 o 23:17

      Wtyczki społecznościowe mają to do siebie, że wywołują błędy w walidacji. Więc jeżeli zadbamy, aby z naszej strony błędów takich nie było to ta mała ilość spowodowanych przez wtyczki społecznościowe nie sprawi nam większego kłopotu.

  • HardyTwardy pisze:
    7 sierpnia 2012 o 10:23

    A jeszcze brakuje mi tu wzmianki o semantyce. Często spotykam się ze stosowaniem nie odpowiednich tagów, tylko dla tego, że na pierwszy rzut oka wygląda ok. Mieszanie span z div, używanie zamiast margin auto w stylach, czy dziwne listy, robione z czego popadnie, zamiast użyć . O tabelkach już nie wspominam, ale po tylu latach walki już mało kiedy spotyka się strony oparte na tabelkach.

  • Darek Jasiński pisze:
    22 sierpnia 2012 o 17:34

    Co do walidacji – nie zgadzam się, chociaż już to było podkreślone w komentarzach 😉 Mam wiele stron z wysokim PR i radzą sobie z pozycjami, a niektóre mają po kilkadziesiąt błędów. Czasem mam wrażenie, że nie da się temu walidatorowi dogodzić, bo zawsze coś znajdzie. Nawet Allegro ma błędy (na dzień dzisiejszy wykryło 35).

  • Mat pisze:
    23 sierpnia 2012 o 23:15

    Zgadzam się z przedmówcą. Wpływ walidacji na pozycjonowanie wydaje się być mocno dyskusyjny. Niektóre z moich stron mimo, że walidator wykazuje błędy, mają wysokie pozycje w wyszukiwarce. Chociaż może też zależeć dużo od tego jak poważne to są błędy.

  • Paweł pisze:
    18 września 2012 o 15:35

    Celne i w miarę prosto przedstawione czynności, które pozwalają zaistnieć w sieci. Dla osób zaczynających przygodę z byciem webmasterem można śmiało polecać ten artykuł jako podstawy podstaw, myślę że konieczne do przyswojenia.

  • Adrian Strójwąs pisze:
    18 września 2012 o 20:49

    Może to niektórych zdziwi, ale strony oparte na CMS pozycjonują się gorzej napisane samodzielnie. Wiem, że to już nie te czasy, gdy strony pisało się w KEd, jednak sam się o tym przekonałem, że warto. Otóż miałem stronę opartą na WordPress’ie pozycjonowałem ją bardzo mało więc bardzo daleko w wynikach. Nagle – sam nie wiem czemu – postanowiłem sam napisać sobie tą stronę. Stworzyłem ją w KEd’zie, validowała się i po około miesiącu okazało się, że jedna z podstron jest na pierwszej stronie wyszukiwań w Google. Mistrzostwo!
    A Wy mieliście takie doświadczenia?

    • Mateusz Antczak pisze:
      25 września 2012 o 23:02

      Osobiście takich spostrzeżeń nie mam, w Twoim przypadku mogła to być np. lepsza optymalizacja pod Google. Strony pisane w CMS mają to do siebie, że często zostają bez optymalizacji ponieważ autor często błędnie myśli, że CMS jest już odpowiednio zoptymalizowany. Dzięki wielkie za spostrzeżenia i pozdrowienia od autora tego wpisu 🙂

  • szymi pisze:
    9 grudnia 2012 o 22:12

    Właściwie to spostrzeżeń brak. Chociaż irytujące ,co zostało pominięte jest ilość dodatków na stronie ,przez co strona jest muląca. Czasem dla tego aspektu warto zrezygnować z nowości technicznych.

Kategorie

  • Aktualności69
  • Internet i bezpieczeństwo45
  • Marketing internetowy168
  • Oprogramowanie43
  • Sprzęt38
  • Systemy operacyjne39
  • Urządzenia mobilne23

Najczęściej czytane

Niemcy

Dlaczego warto prowadzić działania SEO w Niemczech?

Black Friday 2019

10 wskazówek jak nie dać się oszukać podczas Black Friday 2022 i Cyber Monday 2022

analytic managers

Jak zmniejszyć współczynnik odrzuceń, czyli zwiększamy zaangażowanie użytkowników

kostka z numerem 10

Wprowadź swoją stronę do TOP10 z SEOPilot

Wyszukaj

Poradniki IT

Adobe Photoshop na ekranie laptopa

Naprawa plików Adobe Photoshop PSD/PDD

serwer ftp

Kopiowanie plików między 2 serwerami FTP

4 puzzle

NET Framework na Linux, instalacja w Wine poprzez WineTricks

zdjęcie na tle monitora

Kompresja plików PDF JPG JPEG MP3 MP4 TIFF GIF MKV 3GP SWF i 200 innych

Poradniki SEO

Black Friday 2019

10 wskazówek jak nie dać się oszukać podczas Black Friday 2022 i Cyber Monday 2022

seo content

Prowadzenie bloga sklepu internetowego – 20 przydatnych narzędzi

notatnik wordpress

Pozycjonowanie WordPress – przydatne wtyczki

seo wzrost na wykresie

Jak sprawdzić czy strona jest pozycjonowana?

Oferta

Świadczę kompleksowe usługi z zakresu marketingu internetowego, w szczególności optymalizacja, pozycjonowanie stron i sklepów internetowych, audyty SEO, audyty pozycjonowania, audyty linków, audyty słów kluczowych, audyty kar od Google, audyty techniczne. Prowadzę również kampanie reklamowe Google ADS i Facebook ADS oraz tworzę treści na sklepy internetowe i blogi. Przeczytaj więcej na SocialTrends.pl

O blogu TechFormator

Na blogu poruszane są tematy związane z marketingiem internetowym i nowymi technologiami. Znajdziesz tutaj poradniki o pozycjonowaniu i optymalizacji stron, recenzje narzędzi SEO, oprogramowania użytkowego dla Windows, Linux i urządzeń mobilnych, recenzje sprzętu IT oraz poradniki komputerowe.

Copyright 2023 - Blog technologiczny TechFormator.pl
  • Pozycjonowanie
  • Reklama
  • Archiwum
Wykorzystujemy pliki cookies. Przeglądając stronę wyrażasz zgodę na ich wykorzystanie zgodnie z ustawieniami przeglądarki [Polityka prywatności]