Spis treści

29 listopada 202211 min.
Max Cyrek
Max Cyrek
Aktualizacja wpisu: 30 kwietnia 2024

Techniczne SEO – zmiany na stronie prowadzące do dominacji w SERP

Techniczne SEO – zmiany na stronie prowadzące do dominacji w SERP

Skuteczne pozycjonowanie stron Internetowych to skomplikowany i wieloetapowy proces, który wymaga kompetencji z wielu różnych dziedzin. Powszechnie uznaje się, że na pozycję strony Internetowej w największym stopniu wpływają 3 czynniki: optymalizacja techniczna, marketing treści, oraz linki, które do niej prowadzą. O ile dwa ostatnie czynniki dość łatwo zrozumieć nawet laikowi, to tzw. techniczne SEO wymyka się prostym definicjom, a każdy specjalista może rozumieć je nieco inaczej. Co możemy uznać za elementy SEO technicznego, jaki jest ich wpływ na pozycjonowanie, jak je poprawnie wdrożyć i dlaczego odpowiednia optymalizacja witryny jest kluczowa dla sukcesu w wyszukiwarce? 

Czym jest techniczne SEO i dlaczego optymalizacja strony jest taka ważna?

Techniczne SEO to szeroka grupa działań związanych z architekturą, funkcjonowaniem i optymalizacją kodu strony Internetowej. Procesy, które zaliczamy do tej kategorii mają jeden ścisły cel: lepsze dopasowanie strony do wytycznych technicznych Google i ułatwienie jej crawlowania i indeksowania Googlebotom. To z kolei prowadzi do wyższych pozycji w organicznych wynikach wyszukiwania, a co za tym idzie – większego ruchu do strony z tego kanału.

Sama optymalizacja nie zapewnia oczywiście jeszcze wysokich pozycji w wyszukiwarce – nie da się wypozycjonować (na konkurencyjne frazy kluczowe) zupełnie pustej, niepodlinkowanej strony, choćby była w 100% zgodna z wszystkimi wytycznymi Google. Techniczne SEO swój pełny potencjał pokazuje więc dopiero w połączeniu z dopracowanymi treściami na stronie i przemyślanym link buildingiem. Jednak nawet niewielkie strony, które nie prowadzą takich działań, mogą na nim mocno skorzystać.

Można to tłumaczyć czystą ekonomią – im mniej wysiłku będzie kosztować Googlebota zeskanowanie strony, tym mniej zasobów serwerowych pochłonie jego działanie. W odpowiedniej skali (czyli całego Internetu), premiowanie zoptymalizowanych stron ma prowadzić przede wszystkim do oszczędności mocy obliczeniowych Google.

Zadbanie o odpowiedni poziom optymalizacji technicznej witryny umożliwia również zmniejszenie czasu, którego Google potrzebuje na indeksację nowych podstron – dzięki temu Twoje treści szybko znajdą się w wyszukiwarce.

Dodatkowymi korzyściami, które płyną z technicznego SEO jest pewność, że strona będzie działać poprawnie na dowolnym urządzeniu i jest całkowicie bezpieczna oraz pozbawiona błędów, a także lepsze doświadczenia użytkownika z obcowania z nią, czyli UX.

Strona zoptymalizowana pod kątem technicznym, czyli jaka?

Niektóre elementy strony, procesy i konkretne działania, które zaliczamy do technicznego SEO okazują się być absolutną podstawą dla jakiejkolwiek obecności w wyszukiwarce. Inne z całą pewnością pomagają w pozycjonowaniu, ale nie są już aż tak krytyczne.

Dość łatwo się w tym wszystkim pogubić, tym bardziej, że techniczne SEO wymaga nie tylko wiedzy o mechanizmach wyszukiwarki, ale również znajomości HTML czy umiejętności analizy dużych zbiorów danych.

O co więc przede wszystkim musisz zadbać, by móc powiedzieć, że Twoja strona jest poprawnie zoptymalizowana pod kątem technicznym?

Szybkość wczytywania

Szybkość, z jaką użytkownik może zacząć korzystać ze strony Internetowej, okazuje się mieć kluczowe znaczenie dla jego doświadczenia korzystania z wyszukiwarki. Już 3 sekundy wczytywania wystarczą, by około połowa użytkowników zrezygnowała w ogóle z wejścia na daną stronę.

Szczególnie dotyczy to posiadaczy urządzeń mobilnych, którzy w ostatnich latach generują większość ruchu w sieci i tym samym stanowią większość użytkowników Google.

Google zawsze stawia doświadczenie swojego użytkownika na pierwszym miejscu, dlatego otwarcie promuje te strony, które mogą pochwalić się niskim czasem wczytywania – np. poprzez wprowadzenie mechanizmu mobile first indexing.

Nawet jeśli kwestią sporną jest, jak istotnym czynnikiem rankingowym w algorytmie Google jest obecnie czas wczytywania, nie ma raczej dyskusji co do tego, że warto pracować nad jego zminimalizowaniem – przede wszystkim po to, by zmniejszyć współczynnik odrzuceń, czyli liczbę użytkowników, którzy “nie dotarli” do celu.

Dotyczy to oczywiście zarówno strony głównej, jak i wszystkich pozostałych podstron serwisu.

Core Web Vitals

To zestaw czynników, które od 2021 roku oficjalnie trafiły do algorytmu Google. Są bezpośrednio związane z wydajnością strony Internetowej i częściowo z czasem, którego potrzebuje użytkownik, żeby skorzystać z jej funkcji. Do Core Web Vitals do nich

  • LCP – Largest Contentful Paint – czas potrzebny do załadowania głównego, najważniejszego elementu strony;
  • CLS – Cumulative Layout Shift – ilość niespodziewanych przesunięć layoutu;
  • TTFB – Time To First Byte – czas potrzebny do odebrania pierwszego bajtu odpowiedzi z serwera;
  • FCP – First Contentful Paint – czas do wczytania pierwszego contentu (tekstu, obrazu lub wideo);
  • FID – First Input Delay – czas, który musi minąć, zanim użytkownik będzie w stanie wejść w interakcję ze stroną, np. kliknąć link;
  • TTI – Time To Interactive – czas do momentu, aż strona nie pozwoli na wprowadzanie danych (np. w formularzu);
  • TBT – Total Blocking Time – to interwał między momentem załadowania pierwszej treści (FCP) a możliwością wprowadzania danych (TTI).

Wartości współczynników wchodzących w zakres CWV mają istotny wpływ na to, jak strona Internetowa odbierana jest przez Google, i na jakich pozycjach jest wyświetlana.

Warto zadbać, by były jak najniższe!

Infrastruktura serwerowa – hosting

Jakość hostingu, na którym “stoi” Twoja strona Internetowa ma znaczenie dla czasu jej wczytywania. To element, na którym nie warto oszczędzać, zwłaszcza, że różnice między poszczególnymi providerami potrafią być naprawdę spore.

Z drugiej strony – pamiętaj, żeby Twoje inwestycje w serwery odzwierciedlały przeznaczenie i obciążenie strony – powyżej pewnego progu będą miały coraz mniejsze znaczenie.

Cache

Oddelegowanie części zasobów strony do Cache może pozytywnie wpłynąć na czas wczytywania poprzez zmniejszenie obciążenia serwera. Szczególnie skuteczne w optymalizacji tego elementu może okazać się zastosowanie rozwiązań z zakresu Content Delivery Network.

Zoptymalizowany kod HTML, CSS, JS

Ilość i jakość kodu źródłowego strony mogą w znaczący sposób wpływać na czas jej wczytywania. Warto upewnić się, że znajduje się w nim tylko to, czego strona faktycznie używa. Oznacza to zarówno pozbycie się “artefaktów” – fragmentów, które niczemu nie służą, ale np. również zminimalizowanie liczby zastosowanych wtyczek.

Kompresja i optymalizacja grafiki

Zbyt duża “waga” zastosowanych na stronie obrazów to bardzo częsty problem w kontekście szybkości wczytywania.

Na szczęście łatwo sobie z nim poradzić!

W pierwszej kolejności warto upewnić się, że wszystkie grafiki zastosowane w layoucie strony są dokładnie takich rozmiarów, w jakich finalnie będą wyświetlane.

Kolejnym krokiem, który można podjąć by przyspieszyć wczytywanie grafik jest ich bezstratna kompresja, np. przy pomocy technologii TinyPNG lub WebP.

Szybkość wczytywania strony – jak sprawdzić?

Najpopularniejszym sposobem na zweryfikowanie czasu wczytywania (i tym samym: efektu prac optymalizacyjnych) jest bezpłatne narzędzie od Google: PageSpeed Insights.

Pomocne mogą okazać się również narzędzia w rodzaju GTmetrix, Yslow lub TestMySite. Nie tylko zmierzą dokładnie czas wczytania całej strony, ale również ten potrzebny do zaczytania konkretnych jej elementów.

Dostępność z różnych urządzeń

Niezwykle istotnym aspektem optymalizacji technicznej strony jest zadbanie o to, żeby oferowała te same funkcjonalności zarówno użytkownikom mobilnym i desktopowym. Google bardzo stanowczo podkreśliło jak bardzo jest to ważne w 2019 roku, przechodząc całkowicie na model indeksowania Mobile-First.

Oznacza to, że domyślną i przechowywaną w indeksie wersją każdej strony Internetowej jest jej wersja mobilna. Wszystkie niedociągnięcia i błędy, które może napotkać użytkownik mobilny będą miały wpływ również na rankingi wyświetlane użytkownikom desktopowym – nawet jeśli te wersje są od nich wolne.

Najwygodniejszym i najbezpieczniejszym rozwiązaniem będzie zastosowanie designu responsywnego i / lub standardu AMP (Amplified Mobile Pages) od Google, który pozwala korzystać ze strony nawet przy minimalnym zużyciu transferu danych.

Crawlowanie i crawl budget

Metody, które optymalizują proces crawlowania i indeksacji strony przez roboty wyszukiwarki to absolutna podstawa technicznego SEO. Bez odpowiednich wdrożeń w tym kierunku, indeksacja nowych treści może trwać długimi miesiącami. Może się również zdarzyć, że Googlebot będzie odwiedzał i indeksował nie te strony, na których nam zależy.

Stosunkowo łatwo zapobiec skrajnie złym sytuacjom, ale jednocześnie, dokładna optymalizacja crawl budgetu i ścieżek Googlebota może okazać się prawdziwym wyzwaniem – zwłaszcza w przypadku rozbudowanych struktur (np. dużych sklepów Internetowych).

Analiza logów serwerowych

Analiza logów serwerowych to najważniejszy element optymalizacji budżetu crawlowania witryny, ponieważ dzięki niej można poznać dokładne “ścieżki” poruszania się Googlebota w witrynie. Znając je i wiedząc, jakie zasoby są przez niego najczęściej odwiedzane możemy je zoptymalizować, np. poprzez wykluczenie części z indeksacji lub dodanie tagu nofollow. Analogicznie, analiza logów serwerowych pomoże znaleźć nam odpowiedź na pytanie: “Dlaczego GoogleBot nie chce zaindeksować mojej strony?”.

Mapa strony

Sitemapa to stosunkowo łatwy do wdrożenia, ale bardzo istotny element optymalizacji technicznej.

To plik, zawierający listę wszystkich aktualnych adresów URL witryny. Powinien znaleźć się na serwerze. W dużym stopniu ułatwi robotom Google crawlowanie i indeksację strony. Sitemapy mają szczególnie duże znaczenie dla rozbudowanych serwisów z tysiącami i dziesiątkami tysięcy podstron, np. sklepów Internetowych.

Robots.txt

Plik robots.txt umieszczony na serwerze pozwala ustalić zasady, którymi będą kierować się roboty indeksujące podczas crawlowania Twojej strony. Możesz przy jego pomocy wskazać, które podstrony nie powinny być indeksowane przez Googleboty – warto zawrzeć w tej kategorii wszystko to, co nie ma znaczenia z punktu widzenia wyników wyszukiwania. Właściwa konfiguracja pliku robots.txt pozwala na oszczędność crawl budgetu i lepsze (szybsze) indeksowanie stron, na których najbardziej nam zależy.

Minimalizacja błędów 404

Błąd 404 oznacza, że strona o danym adresie URL nie została odnaleziona na serwerze. To niekorzystna sytuacja z punktu widzenia użytkownika, który na nią trafił, a jeśli miało to miejsce za pomocą wyszukiwarki, to oznacza to, że jest to również niekorzystne z punktu widzenia Google.

Pojedyncze błędy 404 nie stanowią problemu, jednak jeśli pozwolisz problemowi się rozrosnąć, może zaowocować spadkiem pozycji.

Najlepiej kontrolować liczbę błędów 404 przy pomocy Google Search Console i na bieżąco przekierowywać takie adresy.

Optymalizacja przekierowań 30x

Przekierowania 30x  są naturalnym elementem każdej strony www, ale w tym przypadku: co za dużo to niezdrowo. W związku z tym, warto regularnie sprawdzać stronę pod kątem wewnętrznych przekierowań 30x. Ich kontrola ułatwi botowi nawigację w witrynie, ponieważ nie będzie tracił on zasobów na weryfikację przekierowań i od razu dostanie właściwy link.

Brak duplikatów treści i thin contentu

Duplicate Content, czyli sytuacja, w której te same treści dostępne są na wielu stronach serwisu, nie jest korzystna z punktu widzenia crawlowania i SEO. Robot wyszukiwarki nie będzie wiedział, którą stronę ze zduplikowanym contentem powinien wyświetlić, co może zaowocować finalnie obniżeniem pozycji wszystkich.

Znacznie gorsza jednak jest sytuacja, w której algorytm Google wykryje duplikat zewnętrzny, czyli plagiat treści z innej strony. Prawdopodobnie spowoduje to wypadnięcie danej strony z rankingu, ale może spowodować spadki na całej witrynie.

Warto unikać również stron określanych jako “thin content”, czyli zawierających bardzo mało treści, nieistotnych z punktu widzenia pozycjonowania, które spowodują zmarnowanie crawl budgetu. Jeśli Twoja strona zawiera sporo takich podstron, rozważ wyłączenie ich z indeksacji przy pomocy pliku robots.txt

Dane strukturalne

Dane strukturalne to dodatkowe znaczniki w kodzie strony (mikrodane), które pozwalają ją lepiej zrozumieć robotom Google. Informacje w nich zawarte mogą nawet poprawiać wygląd wyniku na stronie wyszukiwania, przez dodanie rich snippets.

Nie ma to bezpośredniego wpływu na pozycję strony, ale znacząco zwiększa CTR i ułatwia indeksację, więc optymalizacja tego elementu zaliczana jest do technicznego SEO.

Canonicale

Poprawne zastosowanie kanonicznych URLi (rel=canonical) jest kolejnym sposobem, na lepsze zagospodarowanie crawl budgetu i kierowanie robotów Google tam, gdzie najbardziej ich potrzebujesz. Szczególnego znaczenia nabiera, kiedy w witrynie mamy do czynienia z takimi samymi stronami o różnych adresach. W tej sytuacji, bez wdrożenia canonicali, narażasz się na kanibalizację słów kluczowych i niskie pozycje w wyszukiwarce.

Poprawne znaczniki metadanych

Metadane lub metatagi, to znaczniki HTML obecne na każdej stronie Internetowej. Ich optymalizacja pozwala algorytmom Google lepiej i szybciej zaindeksować i przypisać daną stronę do konkretnej grupy zapytań.

Wpływają również na wygląd wyniku wyszukiwania i mogą mieć decydujący wpływ na CTR.

Title

Tytuł strony to pierwsza rzecz, którą zobaczy użytkownik – na poziomie wyszukiwania, jeszcze zanim ją odwiedzi. Chwytliwy tytuł ma znaczenie dla CTR, ale to zastosowanie w nim słów kluczowych jest istotne z punktu widzenia SEO, ponieważ stanowi czynnik rankingowy Google.

Optymalizacja tytułów powinna być absolutnym priorytetem, jeśli oczekujesz jakichkolwiek wyników pozycjonowania.

Nagłówki

Poprawna struktura nagłówków na stronie (H1, H2, H3 itd.), oraz zastosowanie w nich odpowiednich słów kluczowych (ale bez przesady!) to absolutna podstawa optymalizacji technicznej. Podobnie jak w przypadku tytułu, nagłówki są mocnym sygnałem rankingowym i wpływają na odbiór treści strony przez użytkowników.

Opis meta

Metaopis wyświetla się w wynikach wyszukiwania Google pod tytułem i adresem strony. Nie jest czynnikiem rankingowym, ale może wpływać na decyzję użytkownika, czyli CTR. Chociaż Google często automatycznie wybiera co wyświetli w polu opisu, to właśnie z tego powodu wciąż warto zwrócić uwagę na ten element.

Uwaga! Jego dopuszczalna w Google długość co jakiś czas się zmienia!

Tagi obrazu

Metatagi towarzyszące zastosowanym na stronie obrazom, takie jak Tytuł obrazu i opis alternatywny, mają znaczenie przede wszystkim dla pozycjonowania w wyszukiwarce Google Grafika, ale w pewnym stopniu wpływają również na pozycje w zwykłym searchu. Wynika to z faktu, że Google chce zapewniać lepsze doświadczenia korzystania z sieci osobom niepełnosprawnym – z tagów obrazu korzystają m.in. czytniki dla niewidomych.

Bezpieczeństwo

Istotnym krokiem na drodze do zoptymalizowanej technicznie witryny jest zapewnienie jej odpowiedniego poziomu bezpieczeństwa. Ataki hakerskie, np. w celu wykradzenia danych klientów sklepu Internetowego, zdarzają się częściej niż mogłoby się wydawać.

Certyfikaty

Certyfikat SSL

jest standardem już od wielu lat – jego obecność na stronie jest czynnikiem rankingowym Google, a większość przeglądarek ostrzega użytkowników przed wizytami na stronach, które go nie obsługują.

Dołożenie do strony protokołu https nie musi wiązać się z dodatkowymi kosztami, a zapewnia wysoki poziom bezpieczeństwa w porównaniu do przestarzałego certyfikatu http.

Aktualność wtyczek

Jeśli Twoja strona korzysta z gotowych rozwiązań w postaci wtyczek czy modułów, to warto upewnić się, że zawsze są zaktualizowane do bieżącej wersji.

Jasna i logiczna struktura strony

Sama struktura strony Internetowej oraz sposób w jaki jej poszczególne podstrony są ze sobą połączone (podlinkowane) również wpływają na jej pozycje w wynikach organicznych Google. Przejrzysta architektura nie tylko ułatwia zadanie robotom indeksującym, ale przede wszystkim wpływa na pozytywne doświadczenie użytkownika, który łatwo może zrealizować swój cel.

Struktura adresów URL

Odpowiednio czytelna i logiczna struktura adresów URL serwisu oznacza większą wygodę dla Google – roboty wiedzą czego i gdzie mogą się spodziewać. Zasada jest prosta: użytkownik powinien móc zorientować się, w jakim miejscu strony się znajduje po samym jej adresie.

Używanie w adresach słów kluczowych to także czynnik rankingowy – warto o tym pamiętać!

Linkowanie wewnętrzne

Linkowanie wewnętrzne, oprócz tego, że jest kolejnym elementem wpływającym na UX strony, to pozwala skuteczniej przemierzać ją robotom indeksującym. Nie chodzi tutaj jednak jedynie o linki nawigacyjne, z menu, ale również o linki kontekstowe, które pozwalają w odpowiednich momentach skrócić ścieżkę do jakiegoś zasobu.

Tzw. nawigacja okruszkowa, z całą pewnością jest bardzo przydatna dla użytkowników (mogą w łatwy sposób wrócić do wcześniej przeglądanych stron), ale jej prawidłowe wdrożenie może również wspomagać pozycjonowanie. To kolejny element, który może mieć wpływ na sprawne indeksowanie i pozycję strony w rankingu.

Wersje językowe

Kiedy strona posiada więcej niż jedną wersję językową, lub posiada wersje w tym samym języku, ale kierowane do różnych regionów (np. USA i Wielka Brytania) problematyczne może czasami okazać się wskazanie robotom, która wersja powinna być wyświetlana w którym kraju. Z pomocą przychodzi atrybut hreflang, którego prawidłowa implementacja jednoznacznie wskazuje algorytmowi, do kogo kierujemy daną wersję.

SEO + UX = SXO

Łatwo zauważyć, że wiele elementów technicznego SEO to jednocześnie rzeczy, które wpływają na pozytywne doświadczenie użytkownika strony. Nic w tym dziwnego, skoro Google na każdym kroku podkreśla, że to właśnie użytkownik i jego zadowolenie są priorytetem dla usług wyszukiwania.

Google zakłada, że doświadczenie wyszukiwania dowolnej informacji nie kończy się w momencie opuszczenia strony wyników wyszukiwania. Dlatego strony, które szanują czas swoich użytkowników i łatwo prowadzą ich do celu, mogą liczyć na lepsze pozycje w Google.

To jedna strona medalu, ale jest też druga: jeśli zależy Ci na ruchu z wyszukiwarki, prawdopodobnie chcesz, żeby w jak największym stopniu konwertował. Zadbanie o odpowiedni UX witryny pozwoli Ci upiec dwie pieczenie na jednym ogniu – poprawi stan techniczny domeny i zwiększy jej skuteczność biznesową.

Zabiegi tego typu nazywamy SXO, czyli Search Experience Optimisation. Mają na celu sprawienie, że użytkownik bez najmniejszego problemu znajdzie to czego szuka – najpierw w wyszukiwarce, a potem na Twojej stronie Internetowej.

Audyt techniczny strony – wstęp do optymalizacji

Jeśli zależy Ci na zoptymalizowanej technicznie witrynie i wysokich pozycjach w Google, to pierwszym krokiem, który powinieneś podjąć, jest audyt technicznego SEO.

W dużym skrócie: to zestaw badań i analiz, które pozwalają określić aktualny stan witryny i krytyczne problemy z którymi się zmaga, oraz pozwalają zaplanować niezbędne wdrożenia, które poprawią sytuację.

Poprawnie przeprowadzony audyt umożliwia spojrzenie na stronę Internetową tak, jak widzą ją roboty Google. Specjalne crawlery przeczesują każdą podstronę serwisu, gromadząc dane o poprawności elementów wpływających na pozycjonowanie, a eksperci SEO oceniają jakość zastosowanych rozwiązań technologicznych.

Bez przeprowadzenia audytu i zdobycia rzetelnej wiedzy o problemach, które trawią daną stronę Internetową, praktycznie niemożliwe jest prowadzenie skutecznych działań pozycjonujących – to po prostu działanie na ślepo.

Techniczne SEO – dla kogo?

Techniczna optymalizacja domeny to dziś w zasadzie rzecz niezbędna dla każdego, kto chce zdobywać ruch organiczny z Google. Szczególnie istotna okazuje się jednak dla firm z branży E-commerce, w której konkurencja jest bardzo zacięta, a drobne parametry techniczne strony mogą stanowić o tym, kto jest liderem danego segmentu, a kto musi zadowolić się drugą pozycją i dalszymi.

Formularz kontaktowy

Rozwijaj swoją markę

dzięki współpracy z Cyrek Digital
Wyślij zapytanie
Pola wymagane
Max Cyrek
Max Cyrek
CEO
"Do not accept ‘just’ high quality. Anyone can do that. If the sky is the limit, find a higher sky.”

Razem z całym zespołem Cyrek Digital pomagam firmom w cyfrowej transformacji. Specjalizuje się w technicznym SEO. Na działania marketingowe patrzę zawsze przez pryzmat biznesowy.

zobacz artykuły
Skontaktuj się ze mną
Masz pytania? Napisz do mnie.
Oceń tekst
Średnia ocena: artykuł nieoceniony. 0

Być może zainteresują Cię:

Mapa strony
© 2010 - 2024 Cyrek Digital. All rights reserved.