Spis treści

29 listopada 202216 min.
Max Cyrek
Max Cyrek
Aktualizacja wpisu: 07 października 2024

Techniczne SEO – co to jest? Dobre praktyki

Techniczne SEO – co to jest? Dobre praktyki

Powszechnie uznaje się, że na pozycję strony internetowej w największym stopniu wpływają trzy czynniki – optymalizacja techniczna, marketing treści oraz linki przychodzące. O ile dwa ostatnie czynniki dość łatwo zrozumieć nawet laikowi, to tzw. techniczne SEO wymyka się prostym definicjom, a każdy specjalista może rozumieć je nieco inaczej. Czym jest techniczne SEO i jakie są dobre praktyki w tym obszarze?

Z tego artykułu dowiesz się m.in.:

Techniczne SEO – definicja i historia

Techniczne SEO to szeroka grupa działań związanych z architekturą, funkcjonowaniem i optymalizacją kodu strony internetowej. Procesy, które zaliczamy do tej kategorii, mają jeden ścisły cel – lepsze dopasowanie strony do wytycznych technicznych Google oraz ułatwienie jej crawlowania i indeksowania Googlebotom. To z kolei prowadzi do wyższych pozycji w organicznych wynikach wyszukiwania, a co za tym idzie – większego ruchu do strony z tego kanału[1] [2] [3].

Techniczne SEO to optymalizacja witryny internetowej pod kątem jej struktury, szybkości ładowania, indeksowania i innych aspektów technicznych, aby poprawić jej widoczność w wyszukiwarkach.

Definicja technicznego SEO.

Mówiąc inaczej, techniczne SEO odnosi się do optymalizacji strony internetowej pod kątem wymagań wyszukiwarek internetowych, skupiając się na aspektach technicznych, które wpływają na indeksowanie i pozycjonowanie strony. Jest to też fundamentalny element strategii SEO[4] [5] [6].

Historia technicznego SEO zaczyna się wraz z rozwojem wyszukiwarek internetowych w latach 90.. W początkowym okresie dominacji wyszukiwarek Yahoo! i AltaVista SEO miało głównie charakter treściowy i skupiało się na słowach kluczowych i metadanych. Pojawienie się Google w 1998 roku zrewolucjonizowało podejście do optymalizacji stron internetowych. Algorytm PageRank, oparty na analizie linków, wymusił na webmasterach podejście uwzględniające aspekty techniczne[7].

Wraz z rosnącą popularnością Google techniczne SEO ewoluowało, a kolejne aktualizacje algorytmu Google, takie jak Panda (2011), Penguin (2012) czy Hummingbird (2013), skłoniły webmasterów do jeszcze większej dbałości o techniczne aspekty stron. W kolejnych latach pojawiły się nowe wyzwania – jednym z nich była (i wciąż jest) optymalizacja mobilna, która stała się kluczowa po wprowadzeniu aktualizacji Mobilegeddon w 2015 roku[8] [9].

Techniczne SEO obejmuje również rozwój standardów w rodzaju HTTPS, który stał się czynnikiem rankingowym w 2014 roku, oraz wdrażanie nowoczesnych technologii jak AMP (Accelerated Mobile Pages) w celu przyspieszenia ładowania stron na urządzeniach mobilnych[10].

Elementy technicznego SEO

Niektóre elementy strony, procesy i konkretne działania, które zaliczamy do technicznego SEO okazują się być absolutną podstawą dla jakiejkolwiek obecności w wyszukiwarce. Inne z całą pewnością pomagają w pozycjonowaniu, ale nie są już aż tak ważne. Dość łatwo się w tym wszystkim pogubić, tym bardziej że techniczne SEO wymaga nie tylko wiedzy o mechanizmach wyszukiwarki, ale również znajomości HTML czy umiejętności analizy dużych zbiorów danych. O co więc przede wszystkim musisz zadbać, by móc powiedzieć, że Twoja strona jest poprawnie zoptymalizowana pod kątem technicznym?

Do najważniejszych elementów technicznego SEO zalicza się m.in.[11] [12] [13]:

Szybkość wczytywania

Szybkość ładowania strony okazuje się mieć istotne znaczenie dla jego doświadczenia korzystania z wyszukiwarki. Już 3 sekundy wczytywania wystarczą, by około połowa użytkowników zrezygnowała w ogóle z wejścia na daną stronę. Szczególnie dotyczy to posiadaczy urządzeń mobilnych, którzy w ostatnich latach generują większość ruchu w sieci i tym samym stanowią większość użytkowników Google.

Google od zawsze stawia doświadczenie swojego użytkownika na pierwszym miejscu, dlatego otwarcie promuje te strony, które mogą pochwalić się niskim czasem wczytywania – przykładem mogło być wprowadzenie mechanizmu mobile first indexing.

Nawet jeśli kwestią sporną jest, jak istotnym czynnikiem rankingowym w algorytmie Google jest obecnie czas wczytywania, nie ma raczej dyskusji co do tego, że warto pracować nad jego zminimalizowaniem – przede wszystkim, żeby zmniejszyć współczynnik odrzuceń, czyli liczbę użytkowników, którzy „nie dotarli” do celu, co dotyczy zarówno strony głównej, jak i wszystkich pozostałych podstron serwisu.

Najpopularniejszym sposobem weryfikacji czasu wczytywania (i tym samym efektu prac optymalizacyjnych) jest bezpłatne narzędzie od Google – PageSpeed Insights. Pomocne mogą okazać się również narzędzia w rodzaju GTmetrix, Yslow lub TestMySite. Nie tylko zmierzą dokładnie czas wczytania całej strony, ale również ten potrzebny do zaczytania konkretnych jej elementów.

Core Web Vitals

Core Web Vitals to zestaw czynników, które od 2021 roku oficjalnie trafiły do algorytmu Google. Są bezpośrednio związane z wydajnością strony Internetowej i częściowo z czasem, którego potrzebuje użytkownik, żeby skorzystać z jej funkcji. Zalicza się do nich:

  • Largest Contentful Paint to czas potrzebny do załadowania głównego, najważniejszego elementu strony;
  • Cumulative Layout Shift to ilość niespodziewanych przesunięć layoutu;
  • Time To First Byte to czas potrzebny do odebrania pierwszego bajtu odpowiedzi z serwera;
  • First Contentful Paint to czas do wczytania pierwszej treści (tekstu, obrazu lub wideo);
  • First Input Delay to czas, który musi minąć, zanim użytkownik będzie w stanie wejść w interakcję ze stroną, np. kliknąć link;
  • Time To Interactive to czas do momentu, aż strona nie pozwoli na wprowadzanie danych (np. w formularzu);
  • Total Blocking Time to interwał między momentem załadowania pierwszej treści (FCP) a możliwością wprowadzania danych (TTI).

Wartości współczynników wchodzących w skład Core Web Vital mają istotny wpływ na to, jak strona internetowa odbierana jest przez Google, i na jakich pozycjach jest wyświetlana. Warto zadbać, by były jak najniższe!

Infrastruktura serwerowa – hosting

Jakość hostingu, na którym „stoi” Twoja strona internetowa ma znaczenie dla czasu jej wczytywania. To element, na którym nie warto oszczędzać, zwłaszcza że różnice między poszczególnymi dostawcami potrafią być naprawdę spore, a szybki i niezawodny hosting może poprawić doświadczenie użytkowników.

Wysokiej jakości hosting oferuje stabilne i szybkie serwery, które mogą obsługiwać dużą liczbę jednoczesnych połączeń bez znaczących opóźnień. Warto sprawdzać, czy dostawcy korzystają z najnowszych technologii, takich jak szybkie dyski SSD, zaawansowane systemy buforowania oraz wykorzystują przetwarzanie brzegowe (ang. edge computing), czyli korzystają (lub posiadają) centra danych zlokalizowane w różnych częściach świata, jak najbliżej użytkownika, żeby szybciej dostarczanie treści do użytkowników.

Różnice między poszczególnymi providerami hostingowymi mogą być znaczne – tańsze opcje często oznaczają gorszą wydajność, większe ryzyko awarii oraz mniejszą elastyczność w dostosowywaniu zasobów do rosnących potrzeb strony.

Warto pamiętać, że inwestycje w serwery powinny być dostosowane do rzeczywistych potrzeb Twojej strony. Jeśli Twoja witryna nie generuje ogromnego ruchu ani nie wymaga nadzwyczajnych zasobów, nadmierne wydatki na najdroższe opcje hostingowe mogą być niepotrzebne. Dobrym rozwiązaniem jest regularna ocena wydajności strony oraz analiza potrzeb w zakresie hostingu. Jeśli zauważysz, że czas ładowania strony się wydłuża, wzrasta liczba odwiedzających lub planujesz wprowadzić nowe funkcje wymagające większych zasobów, może to być sygnał do rozważenia aktualizacji hostingu. Jednak bez uzasadnionej potrzeby nadmierne inwestycje mogą nie przynieść proporcjonalnych korzyści.

Cache

Oddelegowanie części zasobów strony do pamięci cache w przeglądarce może znacząco poprawić czas wczytywania strony, zmniejszając jednocześnie obciążenie serwera. Pamięć podręczna przechowuje często używane dane, takie jak obrazy, skrypty i strony HTML – gdy przeglądarka użytkownika odwiedza stronę, zamiast pobierać wszystkie zasoby z serwera, może korzystać z zapisanych w niej danych, więc serwer nie musi za każdym razem przetwarzać i przesyłać tych samych informacji.

Szczególnie skuteczne w optymalizacji tego elementu może okazać się zastosowanie rozwiązań z zakresu Content Delivery Network – jest to sieć serwerów rozmieszczonych w różnych lokalizacjach geograficznych, które przechowują kopie statycznych zasobów Twojej strony, takich jak obrazy, CSS i JavaScript. Kiedy użytkownik odwiedza Twoją stronę, zasoby są dostarczane z serwera CDN znajdującego się najbliżej jego lokalizacji, co skraca czas potrzebny na przesłanie danych, zmniejsza opóźnienia i przyspiesza ładowanie strony.

Zoptymalizowany kod HTML, CSS, JS

Zoptymalizowany kod HTML, CSS i JavaScript ma znaczenie dla szybkości ładowania strony internetowej. Jakość i ilość kodu źródłowego mogą bezpośrednio wpływać na czas potrzebny do załadowania i renderowania strony w przeglądarce użytkownika.

Pierwszym krokiem w optymalizacji kodu HTML jest usunięcie „artefaktów”, czyli niepotrzebnych fragmentów kodu, które mogą pozostać po wcześniejszych wersjach strony lub po testach. Mogą to być komentarze, nieużywane tagi, nadmiarowe białe spacje oraz przestarzałe lub zduplikowane elementy – zmniejszenie ich liczby sprawia, że strona staje się lżejsza i szybciej się ładuje.

W przypadku CSS ważne jest, aby kod był możliwie jak najbardziej zwięzły. Często spotykanym problemem jest nadmiarowy kod CSS, który zawiera style niezwiązane z aktualną zawartością strony. Można to naprawić poprzez regularne audyty i usuwanie nieużywanych reguł. Z kolei techniki takie jak minifikacja mogą usunąć niepotrzebne spacje, komentarze i inne znaki niepotrzebne do funkcjonowania kodu.

W kontekście JavaScript należy unikać ładowania dużych bibliotek i wtyczek, jeśli wykorzystuje się je tylko w ograniczonym zakresie. Minifikacja i kompresja plików JavaScript mogą znacząco zmniejszyć ich rozmiar, co przyspiesza ładowanie. Dodatkowo asynchroniczne ładowanie skryptów (async) i opóźnione ładowanie (defer) mogą poprawić wydajność, umożliwiając przeglądarce ładowanie treści strony, zanim wszystkie skrypty zostaną w pełni pobrane i wykonane.

Warto też pamiętać, że wtyczki mogą dodawać dodatkowy kod JavaScript i CSS, który obciąża stronę. Każda wtyczka może wprowadzać dodatkowe żądania HTTP, co zwiększa czas ładowania. Przed zainstalowaniem nowej wtyczki warto zastanowić się, czy jest ona naprawdę niezbędna i czy jej funkcjonalność nie może zostać osiągnięta w bardziej efektywny sposób.

Kompresja i optymalizacja grafiki

Zbyt duża „waga” zastosowanych na stronie obrazów to bardzo częsty problem w kontekście szybkości wczytywania. Na szczęście łatwo sobie z nim poradzić! W pierwszej kolejności warto upewnić się, że wszystkie grafiki zastosowane w layoucie strony są dokładnie takich rozmiarów, w jakich finalnie będą wyświetlane. Kolejnym krokiem, który można podjąć, by przyspieszyć wczytywanie grafik, jest ich bezstratna kompresja, np. przy pomocy technologii TinyPNG lub WebP.

Dostępność z różnych urządzeń

Niezwykle istotnym aspektem optymalizacji technicznej strony jest zadbanie o to, żeby oferowała te same funkcjonalności zarówno użytkownikom mobilnym, jak i desktopowym. Google bardzo stanowczo podkreśliło, jak bardzo jest to ważne w 2019 roku, przechodząc całkowicie na model indeksowania Mobile First – oznacza to, że domyślną i przechowywaną w indeksie wersją każdej strony internetowej jest jej wersja mobilna, więc wszystkie niedociągnięcia i błędy, które może napotkać użytkownik mobilny, będą miały wpływ również na rankingi wyświetlane użytkownikom desktopowym, nawet jeśli te wersje są od nich wolne.

Najwygodniejszym i najbezpieczniejszym rozwiązaniem dla optymalizacji strony internetowej pod kątem różnych urządzeń i szybkości ładowania jest zastosowanie designu responsywnego oraz standardu AMP (Accelerated Mobile Pages) od Google. Design responsywny (ang. responsive web design) polega na tworzeniu stron internetowych, które automatycznie dostosowują się do różnych rozmiarów ekranu i rozdzielczości urządzeń – strona zaprojektowana w ten sposób jest czytelna i łatwa w nawigacji zarówno na dużym monitorze komputera, jak i na małym ekranie smartfona. Responsywność buduje się poprzez użycie elastycznych siatek układów, proporcjonalnych obrazów oraz zapytań CSS (media queries), które pozwalają na dynamiczne dostosowywanie układu strony w zależności od parametrów urządzenia użytkownika.

Standard AMP (Accelerated Mobile Pages) to inicjatywa Google, która ma na celu przyspieszenie ładowania stron internetowych na urządzeniach mobilnych. Bazuje ona na uproszczonej wersji HTML (AMP HTML) oraz specjalnych bibliotekach JavaScript, które umożliwiają szybkie renderowanie treści. AMP eliminuje niepotrzebne elementy i ogranicza stosowanie zasobożernych skryptów, co prowadzi do znacznego skrócenia czasu ładowania strony.

Crawlowanie i crawl budget

Metody, które optymalizują proces poruszania się crawlerów i indeksacji strony przez roboty wyszukiwarki to absolutna podstawa technicznego SEO. Bez odpowiednich wdrożeń w tym kierunku, indeksacja nowych treści może trwać długimi miesiącami. Może się również zdarzyć, że Googlebot będzie odwiedzał i indeksował nie te strony, na których nam zależy. Stosunkowo łatwo zapobiec skrajnie złym sytuacjom, ale jednocześnie, dokładna optymalizacja crawl budgetu i ścieżek Googlebota może okazać się prawdziwym wyzwaniem – zwłaszcza w przypadku rozbudowanych struktur (np. dużych sklepów internetowych). Do tego celu najczęściej stosuje się metody, takie jak:

Analiza logów serwerowych

Analiza logów serwerowych to najważniejszy element optymalizacji budżetu crawlowania witryny, ponieważ dzięki niej można poznać dokładne „ścieżki” poruszania się Googlebota w witrynie. Znając je i wiedząc, jakie zasoby odwiedza najczęściej, możemy je zoptymalizować, np. poprzez wykluczenie części z indeksacji lub dodanie tagu nofollow. Analogicznie, analiza logów serwerowych pomoże znaleźć nam odpowiedź na pytanie: „dlaczego GoogleBot nie chce zindeksować mojej strony?”.

Mapa strony

Mapa strony to stosunkowo łatwy do wdrożenia, ale bardzo istotny element optymalizacji technicznej – jest to plik z listą wszystkich aktualnych adresów URL witryny, który powinien znajdować się na serwerze, ponieważ ułatwia robotom Google crawlowanie i indeksację strony. Sitemapy mają szczególnie duże znaczenie dla rozbudowanych serwisów z tysiącami i dziesiątkami tysięcy podstron, np. sklepów internetowych.

Robots.txt

Plik robots.txt umieszczony na serwerze pozwala ustalić zasady, którymi będą kierować się roboty indeksujące podczas crawlowania Twojej strony. Możesz przy jego pomocy wskazać, które podstrony nie powinny być indeksowane przez Googleboty – warto zawrzeć w tej kategorii wszystko to, co nie ma znaczenia z punktu widzenia wyników wyszukiwania. Właściwa konfiguracja pliku robots.txt pozwala na oszczędność crawl budgetu i lepsze (szybsze) indeksowanie stron, na których najbardziej nam zależy.

Minimalizacja błędów 404

Błąd 404 oznacza, że strona o danym adresie URL nie została odnaleziona na serwerze – jest to niekorzystna sytuacja z punktu widzenia użytkownika, który na nią trafił, a jeśli miało to miejsce za pomocą wyszukiwarki, to oznacza to, że jest to również niekorzystne z punktu widzenia Google. Pojedyncze błędy 404 nie stanowią problemu, jednak jeśli pozwolisz problemowi się rozrosnąć, może zaowocować spadkiem pozycji. Najlepiej kontrolować liczbę błędów 404 przy pomocy Google Search Console i na bieżąco przekierowywać takie adresy.

Optymalizacja przekierowań 30x

Przekierowania 30x (np. 302, 303 i 307) są naturalnym elementem każdej strony www, ale w tym przypadku, co za dużo to niezdrowo. W związku z tym warto regularnie sprawdzać stronę pod kątem wewnętrznych przekierowań 30x. Ich kontrola ułatwi botowi nawigację w witrynie, ponieważ nie będzie tracił on zasobów na weryfikację przekierowań i od razu dostanie właściwy link.

Brak duplikatów treści i thin contentu

Duplicate content, czyli zduplikowana treść, to nic innego, jak sytuacja, w której te same treści dostępne są na wielu stronach serwisu – nie jest to korzystne z punktu widzenia crawlowania i SEO. Robot wyszukiwarki nie będzie wiedział, którą stronę ze zduplikowanym contentem powinien wyświetlić, co może zaowocować finalnie obniżeniem pozycji wszystkich. Znacznie gorsza jednak jest sytuacja, w której algorytm Google wykryje duplikat zewnętrzny, czyli plagiat treści z innej strony. Prawdopodobnie spowoduje to wypadnięcie danej strony z rankingu, ale może spowodować spadki na całej witrynie.

Warto unikać również stron określanych jako „thin content” (dosłownie „cienka treść”), czyli zawierających bardzo mało treści i informacji, a także nieistotnych z punktu widzenia pozycjonowania – mogą one spowodować zmarnowanie crawl budgetu. Jeśli Twoja strona zawiera sporo takich podstron, rozważ wyłączenie ich z indeksacji przy pomocy pliku robots.txt

Dane strukturalne

Dane strukturalne to dodatkowe znaczniki w kodzie strony (mikrodane), które pozwalają ją lepiej zrozumieć robotom Google. Informacje w nich zawarte mogą nawet poprawiać wygląd wyniku na stronie wyszukiwania przez dodanie rich snippets. Nie ma to bezpośredniego wpływu na pozycję strony, ale znacząco zwiększa CTR i ułatwia indeksację, więc optymalizacja tego elementu zaliczana jest do technicznego SEO. Wykorzystanie znaczników schema.org, aby dostarczyć wyszukiwarkom dodatkowych informacji o treści strony, co może poprawić wyświetlanie wyników w wyszukiwarkach.

Kanoniczne URLe

Poprawne zastosowanie kanonicznych URLi (rel = canonical) jest kolejnym sposobem, na lepsze zagospodarowanie crawl budgetu i kierowanie robotów Google tam, gdzie najbardziej ich potrzebujesz. Szczególnego znaczenia nabiera, kiedy w witrynie mamy do czynienia z takimi samymi stronami o różnych adresach. Bez wdrożenia canonicali narażasz się na kanibalizację słów kluczowych i niskie pozycje w wyszukiwarce.

Poprawne znaczniki metadanych

Metadane lub metatagi, to znaczniki HTML obecne na każdej stronie Internetowej. Ich optymalizacja pozwala algorytmom Google lepiej i szybciej zindeksować i przypisać daną stronę do konkretnej grupy zapytań. Wpływają również na wygląd wyniku wyszukiwania i mogą mieć decydujący wpływ na CTR.

Title – tytuł strony

Tytuł strony to pierwsza rzecz, którą zobaczy użytkownik na poziomie wyszukiwania, jeszcze zanim ją odwiedzi. Chwytliwy tytuł ma znaczenie dla CTR, ale to zastosowanie w nim słów kluczowych jest istotne z punktu widzenia SEO, ponieważ stanowi czynnik rankingowy Google. Optymalizacja tytułów powinna być absolutnym priorytetem, jeśli oczekujesz jakichkolwiek wyników pozycjonowania.

Nagłówki

Poprawna struktura nagłówków na stronie (H1, H2, H3 itd.), oraz zastosowanie w nich odpowiednich słów kluczowych (ale bez przesady!) to absolutna podstawa optymalizacji technicznej. Podobnie jak w przypadku tytułu, nagłówki są mocnym sygnałem rankingowym i wpływają na odbiór treści strony przez użytkowników.

Opis meta

Metaopis wyświetla się w wynikach wyszukiwania Google pod tytułem i adresem strony. Nie jest czynnikiem rankingowym, ale może wpływać na decyzję użytkownika, czyli CTR. Chociaż Google często automatycznie wybiera, co wyświetli w polu opisu, to właśnie z tego powodu wciąż warto zwrócić uwagę na ten element. Uwaga! Jego dopuszczalna w Google długość co jakiś czas się zmienia!

Tagi obrazu

Metatagi towarzyszące zastosowanym na stronie obrazom, takie jak tytuł obrazu i opis alternatywny, mają znaczenie przede wszystkim dla pozycjonowania w wyszukiwarce Google Grafika, ale w pewnym stopniu wpływają również na pozycje w zwykłym wyszukiwaniu, co wynika z faktu, że Google chce zapewniać lepsze doświadczenia korzystania z sieci osobom niepełnosprawnym – z tagów obrazu korzystają m.in. czytniki dla niewidomych.

Bezpieczeństwo

Istotnym krokiem na drodze do zoptymalizowanej technicznie witryny jest zapewnienie jej odpowiedniego poziomu bezpieczeństwa. Ataki hakerskie, np. w celu wykradzenia danych klientów sklepu internetowego, zdarzają się częściej, niż mogłoby się wydawać.

Jak budować bezpieczeństwo witryny? Warto wdrożyć certyfikat SSL – jest standardem już od wielu lat, a jego obecność na stronie jest czynnikiem rankingowym Google; większość przeglądarek ostrzega użytkowników przed wizytami na stronach, które go nie obsługują. Dodanie do strony protokołu HTTPS nie musi wiązać się z dodatkowymi kosztami, a zapewnia wysoki poziom bezpieczeństwa w porównaniu do przestarzałego certyfikatu HTTP. Jeśli zaś Twoja strona korzysta z gotowych rozwiązań w postaci wtyczek czy modułów, warto upewnić się, że zawsze są zaktualizowane do bieżącej wersji.

Jasna i logiczna struktura strony

Sama struktura strony internetowej oraz sposób, w jaki jej poszczególne podstrony są ze sobą połączone (podlinkowane), również wpływają na jej pozycje w wynikach organicznych Google. Przejrzysta architektura nie tylko ułatwia zadanie robotom indeksującym, ale przede wszystkim wpływa na pozytywne doświadczenie użytkownika, który łatwo może zrealizować swój cel. Buduje się ją następującymi metodami:

Struktura adresów URL

Odpowiednio czytelna i logiczna struktura adresów URL serwisu oznacza większą wygodę dla Google – roboty wiedzą czego i gdzie mogą się spodziewać. Zasada jest prosta – użytkownik powinien móc zorientować się, w jakim miejscu strony się znajduje po samym jej adresie. Używanie w adresach słów kluczowych to także czynnik rankingowy – warto o tym pamiętać.

Linkowanie wewnętrzne

Linkowanie wewnętrzne, oprócz tego, że jest kolejnym elementem wpływającym na UX strony, pozwala skuteczniej przemierzać ją robotom indeksującym. Nie chodzi tutaj jednak jedynie o linki nawigacyjne, z menu, ale również o linki kontekstowe, które pozwalają w odpowiednich momentach skrócić ścieżkę do jakiegoś zasobu.

Breadcrumbs, czyli nawigacja okruszkowa, z całą pewnością jest bardzo przydatna dla użytkowników (mogą w łatwy sposób wrócić do wcześniej przeglądanych stron), ale jej prawidłowe wdrożenie może również wspomagać pozycjonowanie. Jest to kolejny element, który może mieć wpływ na sprawne indeksowanie i pozycję strony w rankingu.

Wersje językowe

Kiedy strona posiada więcej niż jedną wersję językową, lub posiada wersje w tym samym języku, ale kierowane do różnych regionów (np. USA i Wielka Brytania) problematyczne może czasami okazać się wskazanie robotom, która wersja powinna być wyświetlana w którym kraju. Z pomocą przychodzi atrybut hreflang, którego prawidłowa implementacja jednoznacznie wskazuje algorytmowi, do kogo kierujemy daną wersję.

Techniczne SEO – dobre praktyki

Poza działaniami wymienionymi w opisie elementów technicznego SEO istnieje wiele innych dobrych praktyk, które poprawią pozycję Twojej strony. Do najczęściej stosowanych zalicza się m.in.:

SXO

Łatwo zauważyć, że wiele elementów technicznego SEO to jednocześnie rzeczy, które wpływają na pozytywne doświadczenie użytkownika strony. Nic w tym dziwnego, skoro Google na każdym kroku podkreśla, że to właśnie użytkownik i jego zadowolenie są priorytetem dla usług wyszukiwania. Google zakłada, że doświadczenie wyszukiwania dowolnej informacji nie kończy się w momencie opuszczenia strony wyników wyszukiwania. Dlatego strony, które szanują czas swoich użytkowników i łatwo prowadzą ich do celu, mogą liczyć na lepsze pozycje w Google.

To jedna strona medalu, ale jest też druga – jeśli zależy Ci na ruchu z wyszukiwarki, prawdopodobnie chcesz, żeby w jak największym stopniu konwertował. Zadbanie o odpowiedni UX witryny pozwoli Ci upiec dwie pieczenie na jednym ogniu – poprawi stan techniczny domeny i zwiększy jej skuteczność biznesową. Zabiegi tego typu nazywamy SXO, czyli Search Experience Optimisation. Mają na celu sprawienie, że użytkownik bez najmniejszego problemu znajdzie to czego szuka – najpierw w wyszukiwarce, a potem na Twojej stronie Internetowej.

Audyt SEO

Jeśli zależy Ci na zoptymalizowanej technicznie witrynie i wysokich pozycjach w Google, to pierwszym krokiem, który powinieneś podjąć, jest audyt SEO. Czym on jest? W dużym skrócie jest to zestaw badań i analiz, które pozwalają określić aktualny stan witryny i krytyczne problemy, z którymi się zmaga, oraz pozwalają zaplanować niezbędne wdrożenia, które poprawią sytuację.

Poprawnie przeprowadzony audyt umożliwia spojrzenie na stronę internetową tak, jak widzą ją roboty Google. Specjalne crawlery przeczesują każdą podstronę serwisu, gromadząc dane o poprawności elementów wpływających na pozycjonowanie, a specjaliści SEO oceniają jakość zastosowanych rozwiązań technologicznych. Bez przeprowadzenia audytu i zdobycia rzetelnej wiedzy o problemach, które trawią daną stronę internetową, praktycznie niemożliwe jest prowadzenie skutecznych działań pozycjonujących – to po prostu działanie na ślepo.

Integracja z narzędziami analitycznymi

Integracja z narzędziami analitycznymi jest elementem skutecznego technicznego SEO, ponieważ pozwala monitorować wydajność strony, analizować ruch oraz identyfikować i naprawiać błędy. Do tego celu najczęściej stosuje się następujące rozwiązania:

  • Google Analytics służy do analizy ruchu na stronie internetowej oraz pozwala śledzić różne aspekty interakcji użytkowników ze stroną, np. liczbę odwiedzin, źródła ruchu, ścieżki nawigacji, wskaźnik odrzuceń, konwersje czy popularność stron.
  • Google Search Console koncentruje się na monitorowaniu i utrzymaniu obecności strony w wynikach wyszukiwania Google. Stosuje się je m.in. do monitorowania stanu indeksacji i błędów indeksowania, liczby kliknięć i wyświetleń, analizy średniej pozycji i współczynniki CTR, zarządzania mapami witryny i linkami, a także bieżącego dbania o stan i bezpieczeństwo witryny.

Testowanie A/B i eksperymenty

Testowanie A/B i eksperymenty pozwalają zrozumieć, jakie zmiany na stronie internetowej mogą prowadzić do lepszego doświadczenia użytkownika i wyższych konwersji. Testy A/B polegają na porównywaniu dwóch wersji strony – wersji A (oryginalnej) i wersji B (zmodyfikowanej) – w celu określenia, która z nich przynosi lepsze rezultaty pod względem określonych wskaźników, takich jak współczynnik konwersji, czas spędzony na stronie czy wskaźnik odrzuceń. W testowaniu A/B ważne jest, aby zmieniać tylko jeden element naraz (np. nagłówek, przycisk call-to-action czy układ strony), aby móc dokładnie zmierzyć wpływ tej zmiany.

Korzystanie z narzędzi w rodzaju Google Optimize pozwala łatwo przeprowadzać testy A/B, a jego integracja z Google Analytics pozwala precyzyjnie śledzić wyniki. Google Optimize oferuje też różne rodzaje testów poza testami A/B – testy wielowymiarowe (multivariate tests) oraz testy przekierowań (redirect tests).

Korzyści z technicznego SEO

Techniczna optymalizacja domeny to dziś w zasadzie rzecz niezbędna dla każdego, kto chce zdobywać ruch organiczny z Google. Szczególnie istotna okazuje się jednak dla firm z branży e-commerce, w której konkurencja jest bardzo zacięta, a drobne parametry techniczne strony mogą stanowić o tym, kto jest liderem danego segmentu, a kto musi zadowolić się drugą pozycją i dalszymi.

Sama optymalizacja nie zapewnia oczywiście jeszcze wysokich pozycji w wyszukiwarce – nie da się pozycjonować (na konkurencyjne frazy kluczowe) zupełnie pustej, niepodlinkowanej strony, choćby była w 100% zgodna z wszystkimi wytycznymi Google. Techniczne SEO swój pełny potencjał pokazuje więc dopiero w połączeniu z content marketingiem i tworzeniem treści odpowiadających na intencje użytkowników oraz przemyślanym link buildingiem. Jednak nawet niewielkie strony, które nie prowadzą takich działań, mogą na nim mocno skorzystać.

Można to tłumaczyć czystą ekonomią – im mniej wysiłku będzie kosztować Googlebota zeskanowanie strony, tym mniej zasobów serwerowych pochłonie jego działanie. W odpowiedniej skali (czyli całego Internetu) premiowanie zoptymalizowanych stron ma prowadzić przede wszystkim do oszczędności mocy obliczeniowych Google.

Zadbanie o odpowiedni poziom optymalizacji technicznej witryny umożliwia również zmniejszenie czasu, którego Google potrzebuje na indeksację nowych podstron – dzięki temu Twoje treści szybko znajdą się w wyszukiwarce. Dodatkowymi korzyściami, które płyną z technicznego SEO, jest pewność, że strona będzie działać poprawnie na dowolnym urządzeniu i jest całkowicie bezpieczna oraz pozbawiona błędów, a także lepsze doświadczenia użytkownika z obcowania z nią, czyli UX.

FAQ

Przypisy

  1. https://searchengineland.com/what-is-technical-seo-434963
  2. https://yoast.com/what-is-technical-seo/
  3. https://ahrefs.com/blog/technical-seo/
  4. https://blog.hubspot.com/marketing/technical-seo-guide
  5. https://backlinko.com/technical-seo-guide
  6. https://www.bigcommerce.com/articles/ecommerce/technical-seo/
  7. https://huckabuy.com/technical-seo/history-of-technical-seo/
  8. https://www.linkedin.com/pulse/brief-history-technical-seo-janet-brandon/
  9. https://www.searchenginejournal.com/seo/seo-history/
  10. https://backlinko.com/technical-seo-guide
  11. https://www.semrush.com/blog/technical-seo/
  12. https://www.bigcommerce.com/articles/ecommerce/technical-seo/

Formularz kontaktowy

Rozwijaj swoją markę

dzięki współpracy z Cyrek Digital
Wyślij zapytanie
Pola wymagane
Max Cyrek
Max Cyrek
CEO
"Do not accept ‘just’ high quality. Anyone can do that. If the sky is the limit, find a higher sky.”

Razem z całym zespołem Cyrek Digital pomagam firmom w cyfrowej transformacji. Specjalizuje się w technicznym SEO. Na działania marketingowe patrzę zawsze przez pryzmat biznesowy.

zobacz artykuły
Skontaktuj się ze mną
Masz pytania? Napisz do mnie.
Oceń tekst
Średnia ocena: artykuł nieoceniony. 0

Być może zainteresują Cię:

Mapa strony