Pozycjonowanie strony - na czym polega

Wyniki wyszukiwania - where the magic begins

Mityczna pierwsza pozycja jest jak złoty gral, złote miasto czy też atlantyda (przecież istniała!) każdy do niej dąży, ale nie wszystkim będzie dane ją zobaczyć. Dlaczego wysokie pozycje są ważne? Bo zapewniają ruch, a ten z kolei dostarcza użytkowników, którzy stają się klientami. Pierwsza strona wyników w roku 1998 wyglądała tak:

Pierwsza strona google w 1998 roku

A tak strona startowa Google zmieniała się przez ostatnie 20 lat.

Co się znajduje na stronie z wynikami

Teraz ilość prezentowanych informacji jest kilkukrotnie większa.

wyniki wyszukiwania Google

  1. Google Adwords - reklama produktowa
  2. Google Adwords - reklama tekstowa
  3. Wyniki organiczne (w tym jeden wypracowany przez Cyrek Digital)
  4. Obrazki
  5. Google Adwords - reklama tekstowa
  6. Podobne wyszukiwania - cenne źródło informacji

To co nas interesuje w kontekście pozycjonowania w wyszukiwarce Google to obecność w wynikach organicznych (linki tekstowe, mapy, obrazki). Oczywiście wygląd pierwszej strony wyników z roku na rok się coraz bardziej zmienia i przez te 20 lat mocno ewoluował wzbogacając się o takie funkcjonalności jak:

  • reklamy (2000)
  • obrazki (2001)
  • weryfikacja poprawności wpisanej frazy (2002)
  • produkty (2002)
  • wiadomości (2002)
  • podpowiedzi (2005)
  • linki do podstron dla strony na pierwszej pozycji (2005)
  • video (2005)
  • pogoda, wyniki meczów, seansy video, sylwetki osób wraz z powiązaniami rodzinnymi (od 2005)
  • wyszukiwanie głosem (2008), wyszukiwanie obrazem (2011)
  • Knowledge Graph (2012)

Im bardziej jesteśmy w stanie wykorzystać funkcjonalności, które daje nam Google tym więcej ruchu możemy dostarczyć do naszej strony.

Od czego zależy kolejność wyników wyszukiwania

Nie ma jedynej prawidłowej odpowiedzi na to pytanie. Wyróżniamy setki czynników wpływających na ranking (ocenę przez Google) strony co przekłada się na pojawianie się strony w wynikach wyszukiwania. Do najważniejszych zaliczyłbym:

  • budowa i struktura strony, jakość i optymalizacja kodu
  • jakość treści i jej optymalizacja pod kątem wyszukiwarki
  • domeny linkujące do strony, ich tematyczne powiązanie ze stroną oraz ilość odnośników
  • dostosowanie do urządzeń mobilnych
  • szybkość ładowania strony

W bardzo dużym skrócie można powiedzieć, że jeśli chcemy aby nasza strona była dobrze oceniana przez wyszukiwarkę Google musi mieć dobry kod, treść oraz być popularna (inne strony internetowe muszą linkować do niej).

Ilość wejść na stronę a pozycja w wynikach wyszukiwania

Wprowadzimy pojęcie współczynnika kliknięć CTR (Click Through Rate), który pozwala określić jak często użytkownicy klikają w link. Im nasza strona na wyszukiwaną frazę jest niżej w wynikach wyszukiwania tym mniej osób kliknie w link do naszej strony co w efekcie przekłada się na mniejszy ruch.

Jaki jest CTR w wynikach organicznych?

Przeanalizujmy wykres zależności współczynnika kliknieć CTR od pozycji domeny w wynikach wyszukiwania:

pozycja strony a CTR Dane zebrane przez advancedwebranking.com na podstawie 1 599 260 fraz z 30 720 domen.

Analizując te dane z łatwością można dojść do wniosku, że:

Najlepszym miejsce na ukrycie zwłok jest druga strona wyników.

Co ma wpływ na CTR?

Z pewnością najważniejszym jest pozycja na jakiej wyświetli się strona. Jednak w roku 2018 kiedy to kolejność wyników zależy w dużej mierze od fizycznej lokalizacji użytkownika, jego wcześniejszej historii wyszukiwań jak i sygnały z mediów społecznościowych pozycja danej strony może być znacząco różna w zależności od powyższych czynników. Jeśli już określona domena wyświetli się na pierwszej stronie wyników wpływ na CTR mają:

  • dopasowanie tytułu i opisu meta do wyszukiwanej frazy (dopasowanie ścisłe nie jest już tak istotne jak kilka lat temu)
  • rich snippets, czyli wszelkiego rodzaju dodatkowe opisy generowane na podstawie znaczników w kodzie strony (np. ceny produktów, oceny i opinii)
  • emoji i inne niestandardowe metody pozyskania uwagi użytkownika

Pozycjonowanie od czego zacząć

Pozycjonowanie to proces długotrwały. Często powtarzam, że jeśli raz się już rozpocznie działania SEO trzeba to robić stale. Ruch organiczny to nadal najtańszy (w przeliczeniu na konwersje) i najbardziej efektywny rodzaj ruchu.

Strategia i analiza konkurencji

Od tego powinny zaczynać się wszystkie działania marketingowe. W każdej branży są firmy dominujące. Jeśli dobrze się im przyjrzysz z pewnością uda zdobyć część ich ruchu. Jeślo poświęcisz na ten etap dość czasu i pieniędzy z pewnością później dużo zaoszczędzisz unikając błędów, które mógłbyś popełnić nie weryfikując działań konkurencji. Jednak nigdy nie rezygnuj z własnych doświadczeń i tego co podpowiada Ci intuicja.

Wykorzystaj zewnętrzne narzędzia do analizy słów kluczowych

Wykorzystaj bezpłatnego planera słów kluczowych od google - natychmiast poznasz setki fraz wraz ze statystykami ruchu, które mogą przynieść ruch na Twojej stronie. Dodatkowo sprawdź zewnętrzne narzędzia takie jak ahrefs, majesticseo, czy polskie senuto.

Sprawdź co daje ruch z wyszukiwarek Twoim konkurentom

Analizując opisy meta title podstron serwisów Twoich konkurentów dowiesz się na jakie frazy chcą być widoczni, czyli co może dawać im konwersje w postaci zakupów czy zapytań. Istnieją również serwisy takie jak similarweb.com, gdzie oprócz źródeł ruch poznamy estymacje (przewidywaną wielkość) ruchu. Dane nie są dokładne, ale dają ogólny obraz danej domeny. Dzięki informacjom zawartym w serwisie będzie można lepiej przygotować strategię pozyskiwania ruchu w serwisie.

Dobierz frazy wykorzystując własne doświadczenie

Nikt inny nie będzie wiedział dokładniej jakie usługi oferujesz i jakie produkty sprzedajesz. Wykorzystaj swoją wiedzę i doświadczenie do określenia bazy słów kluczowych - myśl jak Twój klient. Zastanów się o co pytają osoby dzwoniące do Twojej firmy lub piszące zapytania. Jeśli nadal nie jesteś pewien jak dobierać słowa kluczowe do pozycjonowania to zajrzyj do naszej bazy wiedzy SEO.


Architektura informacji czyli dobra struktura strony

Często ta część jest zupełnie pomijana przez projektantów stron, a później programistów. Struktura serwisu powinna odzwierciedlać dobrą gazetę w której mamy podział na działy, kategorie, artykuły, sekcje. Tak w przypadku serwisu internetowego powinniśmy poruszać się od informacji najbardziej ogólnych do informacji najbardziej szczegółowych jednocześnie zapewniając szybką możliwość przejścia do szczegółowych sekcji z części ogólnej strony.

Przy projektowaniu struktury informacji jednym z naszych celów powinno być takie budowanie nawigacji strony, aby do każdego miejsca w serwisie móc dotrzeć zgodnie z regułą trzech kliknięć czyli bardzo szybko.

Zaprojektuj strukturę myśląc jak użytkownik, ale patrz jak wyszukiwarka

Z pewnością dla Ciebie najważniejszymi stronami w serwisie będą te przez które użytkownik będzie mógł się skontaktować z Tobą, przeczytać o Twojej firmie, czy zobaczyć galerię zdjęć. Z punktu widzenia SEO te strony są bezwartościowe. Jeśli przy analizie serwisu wykażemy, że przez złe zaprojektowanie serwisu (jego struktury) najważniejszymi stronami są jedne z powyższych (lub jak najczęściej się zdarza - polityka prywatności) wtedy będziemy wiedzieć, że część mocy serwisu jest marnowana.

Wyobraź sobie, że masz do rozdania 100 punktów, które określają moc Twojego serwisu i jednocześnie wpływają na ranking strony i jej pozycje w Google. Jeśli część z tych punktów jest marnowana np. poprzez źle zaprojektowaną strukturę to zamiast wykorzystać cały potencjał strony wykorzystujesz tylko 80%. W czasie przeprowadzania audytu SEO znajdujemy takie błędy i naprawiamy je.

Rozrysuj strukturę strony opierając się na wcześniej opracowanej liście słów kluczowych grupując je w zależności od stopnia ogólności i wolumenu wyszukiwania. Na przykład projektując stronę firmy budowlanej, która buduje zarówno na zamówienie klienta jak i prowadzimy własne projekty jednocześnie świadcząc usługi remontowe struktura mogłaby wyglądać tak:

- usługi budowlane
   - budowa domów jednorodzinnych
   - budowa hal magazynowych
      - projektowanie hal magazynowych
      - ocieplanie hal magazynowych
   - budowa budynków wielorodzinnych
- usługi remontowe
   - malowanie ścian
   - remont dachu
   - remont elewacji
- nadzór budowlany
- nieruchomości na sprzedaż i wynajem
   - domy na sprzedaż
   - mieszkania na sprzedaż
   - budynki gospodarcze wynajem
   - biura do wynajęcia
- blog
- baza wiedzy

Taka struktura odzwierciedla w obrębie serwisu naszą strategię SEO czyli to jak myśli wyszukiwarka. Do tej struktury należałoby jeszcze dodać strony, które będą istotne dla użytkownika, ale będą bezwartościowe z punktu widzenia wyszukiwarki takie jak kontakt, regulamin, informacje dla klientów i umożliwić w prosty sposób dotarcie do tych podstron.

UX a pozycjonowanie

UX czyli User Experience (odczucie użytkownik) to w bardzo dużym skrócie idea budowania tak produktu (UX dotyczy nie tylko stron internetowych) aby osoba korzystająca z niego robiła to w sposób intuicyjny zgodny z zamiarem i oczekiwaniem projektanta i jednocześnie aby produkt spełniał oczekiwania użytkownika. W przypadku stron internetowych między innymi na dobre standardy UX składają się:

  • przejrzysta i prosta nawigacja
  • treści dopasowane do intencji użytkownika
  • dobrze dobrane elementy funkcjonalne (zapis do newsletter’a, formularz szybkiego kontaktu, pasek postępu czytania)

Projektowanie z dbałością o UX w sposób wpływa na SEO w sposób bezpośredni jak i pośredni. Dobry przepływ użytkownika w serwisie to zmniejszony współczynnik odrzuceń a zatem większe prawdopodobieństwo konwersji.

Linkowanie wewnętrzne

Część podstron w serwisie zostanie automatycznie podlinkowana dzięki zaprojektowanej właściwie nawigacji. Nie mniej jednak warto pomóc robotom docierać do poszczególnych podstron np. z postów na blogu. Jeśli mamy tematyczny post: “5 rzeczy jakich musisz unikać przy kupnie domu” z takiego postu możemy utworzyć link do wcześniej wspomnianej podstrony: domy na sprzedaż linkując przy użyciu frazy “sprzedaż tanich domów”. Dzięki temu urozmaicamy bazę słów i fraz kluczowych w linkach wewnętrznych serwisu.

Trzeba pamiętać o zasadzie First Link Counts - czyli jeśli na jednej strunie użyjemy kilku linków do innej podstrony Google weźmie pod uwagę tylko pierwszą frazę, a pozostałe linki zostaną zignorowane.

Istnieją sposoby na obejście tej zasady ale o tym napiszę szerzej w innym artykule.

Dostęp do informacji dla robotów

Plik robots.txt to takie przejście graniczne dla wyszukiwarek i innych botów. Zanim bot odwiedzi daną podstronę musi sprawdzić w tym pliku czy ma możliwość odwiedzenia tej strony (czy nie jest zablokowana). W pliku robots.txt można również blokować dostęp dla wybranych botów jak i wybranych podkatalogów, czy url pasujących do określonego wzorca.


Zoptymalizuj kod strony internetowej

Mamy strategię, mamy strukturę, ale jeszcze musimy zadbać o to, aby kod serwisu był dopieszczony dzięki czemu strona będzie między innymi szybko się ładować. Jak każdy Ewangelista SEO mam swoje teorie na temat pozycjonowania. Jedną, którą najczęściej powtarzam tłumacząc innym dlaczego optymalizacja onsite jest przełożenie rankingu domeny do kosztów energii. Im mniej zasobów energii serwery Google zużywają do zaindeksowania strony tym lepiej ta strona jest oceniania. Innymi słowy im mniej gigant z Cupertino zapłaci za prąd związany z poruszaniem się robotów po Twojej stronie tym lepiej dla Ciebie. W dużym skrócie osiągniemy to:

  • pozostawiając w indeksie Google strony tylko, które mają wartość dla użytkownika wyszukiwarki
  • ograniczając poruszanie się botów Google tylko do indeksowalnych stron
  • upewniając się, że strony ładują się szybko i nie zawierają dużo zbędnego kodu
  • kompresując kod strony i obrazki co przyśpieszy czas załadowania strony i jednocześnie zmniejszy ilość miejsca jaką nasze dane zajmują na serwerach Google

Zadbaj o szybkość ładowania strony

Czy wiesz, że według danych od Google ponad 53% użytkowników mobilnych opuszcza stronę jeśli ta nie załaduje się w przeciągu 3 sekund? Zdecydowanie warto zadbać zatem o prędkość wyświetlenia i później załadowania całej strony. Google nam w tym pomaga dotarczając narzędzie Google Insight Speed dzięki któremu przeanalizujemy krytyczne elementy strony i będziemy mogli je poprawić. Dodatkowo w Cyrek Digital korzystamy z GTmetrix, Yslow oraz konsoli developerskiej przeglądarki Google Chrome w celu zidentyfikowania elementów wpływających negatywnie na szybkość ładowania.

Dość długo myślałem, że Google dostarcza tak dużo bezpłatnych narzędzi w celach ściśle społecznych. Tak, aby świat był lepszy. Nic bardziej mylnego. Jeśli użytkownik opuści stronę przed jej załadowaniem to w przypadku jeśli na stronie zainstalowane są reklamy AdSense, Google na tym nie zarobi.

Przekierowania a pozycjonowanie

W jednych sytuacjach przekierowania są niezbędne,a w innych niewskazane. Śpieszę z rozwinięciem tego stwierdzenia. Jednym z najgorszych scenariuszy jest przypadek kiedy już uda nam się pozyskać przejście na stronę z wyszukiwarki (co za niespodzianka - SEO działa), ale użytkownik trafi na stronę błędu 404 (brak strony docelowej) i opuści nasz serwis. Najczęściej taka sytuacja ma miejsce po migracjach stron na nowy silnik, wprowadzeniu ładnych URLi, zmiany struktury adresów podstron lub po prostu usunięciu treści z serwisu. W takim przypadku musimy zadbać o to, aby użytkownik znalazł się na nowej podstronie, która odpowiada intencjom jego wyszukiwania. Osiągniemy to używając przekierowania 301 (przekierowanie permanentne). O czym powinniśmy pamiętać:

  • przekierowujmy na najbardziej zbliżoną tematycznie podstronę. Jeśli usuwamy produkt ze sklepu przekierujemy użytkownika na inny, podobny produkt. Jeśli nie mamy podobnego produktu przekierujmy na stronę kategorii.
  • unikamy przekierowania na stronę główną - jeśli stara podstron generowała ruch z wyników organicznych to po przekierowaniu tej podstrny na stronę główną możemy być bardziej niż pewni, że po kilku do kilkunastu dni utracimy ten ruch (chyba, że całą treść i optymalizacje podstrony przeniesiemy również na główną stronę serwisu - praktycznie takie sytuacje nie mają miejsca)
  • upewniamy się, że przekierowanie jest permanente (301), a nie tymczasowe (302)
  • przekierowanie nie generuje łanńcucha przekierowań (redirect chain) czyli, że adres na jaki kierowany jest po odwiedzeniu nie istniejącej strony użytkownik jest adresem ostatatecznym

Są jednak przypadki, kiedy przekierowania nie są wskazane. Jeśli w obrębie serwisu występują linki wewnętrzne do stron, które są przekierowane na inne adresy to zadbajmy o to, aby te linki zaktualizować na adresy docelowe.

Stara szkoła SEO na lekcji o przekierowaniach mówiła:

  • przekierowania 301 powodują utratę ok. 15% mocy podstrony co 5 lat temu potwierdził w tym video Matt Cutss ówczesny szef działu jakości (walki ze spamem) Google
  • przekierowania 302 powodują utratę 100% mocy przekierowania (z definicji są tymczasowe)
  • migracja na https szkodzi rankingowi strony bo powoduje, że każdy adres url jest przekierowany

Nowa szkoła mówi:

  • przekierowanie serwisu na wersje https według zapewnień Johna Muellera nie powodują utraty mocy
  • długotrwałe przekierowania 302 są z czasem przez Google uznawane za przekierowania 301
  • przekierowania nie powodują utraty mocy jak zapewnia Gary Illyes:

Z naszych doświadczeń wynika, że nadal w roku 2018 zmiana przekierowań 302 na 301 powoduje duży skok widoczności strony. Tak samo jest w przypadku eliminacji przekierowań wewnętrznych.

efekt optymalizacji przekierowań wewnętrznych

Zduplikowane treści wewnętrzne

Jeśli już wiesz czego mogą szukać Twoi potencjalni klienci zadbaj o to, aby odpowiedź na swoje (za)pytania znaleźli na Twojej stronie. Proces od powstania potrzeby do zakupu jest długi. Im więcej razu na ścieżce użytkownik napotka Twój serwis tym większe prawdopodobieństwo, że stanie się klientem. Dlatego tak ważne są na stronie treści w działach takich jak artykuły, blogi, aktualności, czy bazy wiedzy. Tam możemy odpowiedź użytkownikowi na pytania typu “Jak?” i “Dlaczego” kierując go następnie do części sprzedażowej serwisu np. produktu, opisu usługi, czy strony kontaktowej. Mając treści w serwisie musimy zadbać o to aby były jak najbardziej unikalne wewnętrznie (w obrębie serwisu) jak i zewnętrznie (nie kopiowane z innych domen). Największy z tym problem mają sklepy internetowe, gdzie opisy produktów masowo są kopiowane z baz dostawców i producentów. Mamy oczywiście sprawdzone sposoby jak mimo wszystko zapewnić większą unikalność treści w obrębie strony produktowej niż robi to w danej branży konkurencja.


Linkbuilding, czyli pozyskiwanie odnośników do strony

Dla mnie osobiście jest najbardziej żmudna część procesu pozycjonowania, ale jednocześnie przynosząca wymierne rezultaty. Czym jest dobry link? Posłużę się pewnym przykładem. Przyjmijmy za najlepsze strony takie, które zostały ręcznie wyselekcjonowane jako źródło najlepszych informacji. Należą do nich strony rządowe, strony uczelni wyższych, strony wydawnictw naukowych. Pozyskanie linku do komercyjnego projektu z tego typu stron jest niezwykle ciężkie (niemal niemożliwe) - zatem przyjelibyśmy, że link z takiego miejsca musi być najbardziej wartościowy. Jeśli nie ze strony głównej uniwersytetu to może ze strony wydziału? Bardziej prawdopodobne, ale również do łatwych nie należy (mamy na tym polu małe sukcesy). Dalej weźmy już podstronę pracownika naukowego na wybranym wydziale. To co opisze na niej i w jaki sposób zależy już tylko od niego i często nie podlega weryfikacji zewnętrznej. Pozyskanie odnośnika już z takiej podstrony może być prostsze ale jednocześnie będzie miało mniejszą wartość.

Taką samą hierarchie moglibyśmy opisać w przypadku opiniotwórczego medium - ogólnopolskiego portalu informacyjnego. Link pozyskany w artykule pojawiającym się na pierwszej stronie będzie miał większą wartość niż artykuł w subdomenie z blogami influencerów. Serwis może rownież udostępniać możliwość blogowania każdemu gdzie uzyskujemy własny adres domeny. Link z takiego bloga będzie miał najmniejszą wartość.

Upraszczając można by pomyśleć, że te serwisy które mają największą ilość linków przychodzących powinny być najbardziej wartościowe (popularne). Pewnie by tak było gdyby nie spam w linkach, systemy wymiany linków, zautomatyzowane narzędzia do pozyskiwania odnośników do stron. Algorytmy Google skutecznie filtrują spam i nie uwzględniają takich linków w liczeniu rankingu domeny.

Dodatkowo Google zatrudnia ponad 10 000 osób zajmujących się ręczną oceną jakości stron. Niedawno, bo w zeszłym miesiącu Google zaaktulizowało wskazówki oceny stron - dokument liczący ponad 200 stron opisujący szczegółowo dobre i złe czynniki wpływające na ranking strony.

Zatem jakość moi drodzy. Jakość i jeszcze raz jakość, ale jednocześnie niezbędna jest dywersyfikacja, czyli zróżnicowanie. Na co dzień pozyskujemy linki z różnych źródeł do których przede wszystkim możemy w kolejności od najmniej do najbardziej efektywnych zaliczyć:

  • linki z for internetowych (marketing szeptany)
  • linki z mikroblogów
  • linki z blogów własnych
  • linki z blogów zewnętrznych (wpisy gościnne)
  • linki z artykułów - portale własne budowane pod daną tematykę
  • linki z artykułów - portale zewnętrznych
  • linki z bliżej nieznanych źródeł kierujące do wartościowych treści w obrębie serwisu (content marketing)

Dobry artykuł dotyczący konkretnej branży i dotykający tematów określonej grupy docelowej sam z siebie poprzez dystrybucję w mediach społecznościowych wygeneruje duży ruch na stronie. Jeśli temat jest nośny i zawiera np. badania, infografiki, statystyki to inne media stojące wyżej w hierarchii chętnie odnoszą się do prezentowanych w artykule informacji cytując i jednocześnie publikując link do artykułu przy podawaniu źródła.

Wyszukiwarki internetowe stanowią źródło niemal połowy globalnego ruchu w Internecie, więc jeśli nadal myślisz, że SEO jest Ci niepotrzebne przemyśl to jeszcze raz.

Pozycjonowanie strony - na czym polega