Chcąc określić zakres działania SEO, często wymienia się jego dwa rodzaje: offsite oraz onsite. Jest to jedno z podstawowych rozgałęzień, jednak warto podkreślić, że istnieją dokładniejsze rodzaje działań wchodzących w całościowy zakres kampanii.
Jedną z takich kategorii jest techniczne SEO, które jest niezwykle istotne w przypadku sklepów internetowych. Czym ono jest? Na czym polega i dlaczego jest tak ważne? Odpowiedzi na te pytania znajdziesz w niniejszym artykule.
Czym jest techniczne SEO?
Technicznym SEO, jak sama nazwa wskazuje, określamy działania skupiające się na poprawie aspektów technicznych strony i jej prawidłowego funkcjonowania pod kątem nie tylko robotów Google’a, ale również użytkownika, poniważ od tych aspektów zależy fakt, czy dana marka osiągnie zamierzony sukces.
Jeśli optymalizacja techniczna zostanie wykonana właściwie, jest w stanie zapewnić poprawne działanie witryny, indeksację stron oraz zadowolenie klientów korzystających ze strony, bez obaw, że błąd strony przeszkodzi im w zakupie.
Możemy wyróżnić kilkanaście najbardziej istotnych kroków dotyczących technicznej optymalizacji witryny.
Struktura strony
To, w jaki sposób strona jest skonstruowana, wpływa postrzeganie jej nie tylko przez użytkowników, ale również roboty indeksujące. Sklep internetowy powinien mieć jasny i logiczny podział na kategorie i podkategorie, między którymi łatwo można nawigować.
Uzupełnienie witryny o odpowiednie linkowanie wewnętrzne do najważniejszych stron oraz dodanie tzw. breadcrumbs (okruszków) również wpłynie pozytywnie na techniczną optymalizację, gdyż usprawnia poruszanie się robotom i klientom po stronie.
Przyjazne adresy URL
Chcąc znaleźć się wysoko w rankingu Google, jednymi z najważniejszych kwestii, na które należy zwrócić uwagę, są poprawnie skonstruowane adresy URL, ponieważ ich przyjazność dla użytkownika jest jednym z głównych czynników rankingowych.
Powinny one odzwierciedlać ścieżkę klienta, jaką przebył ze strony głównej do danej kategorii, mieć maksymalnie 160 znaków oraz zawierać frazy dotyczące danej kategorii, bądź produktu. Powinniśmy również zadbać, aby w adresie nie znajdowały się znaki specjalne, a cału URL był zrozumiały i czytelny.
W przeciwnym wypadku w bardzo łatwy sposób możemy narazić się na spadek pozycji.
Plik Robots.txt
Kolejną z podstawowych kwestii, na którą należy zwrócić uwagę jest implementacja pliku robots.txt. Służy on robotom jako instrukcja poruszania się po stronie i dzięki niemu jesteśmy w stanie poinformować roboty crawlujące stronę, które podstrony powinny zostać zaindeksowane, a które miejsca nie są warte uwagi.
Pozwala to na uniknięcie zaindeksowania stron, które spowodowałyby duplikację treści, czy też posiadających mało wartościową zawartość. Dzięki temu możemy zaoszczędzić crawl budget, który może zostać przeznaczony na strony, na których nam bardziej zależy.
Możemy w nim umieścić również plik do mapy witryny. Tematykę pliku robots omawialiśmy w większym stopniu w jednym z naszych poprzednich wpisów.
Sitemapa
Mówiąc o technicznej optymalizacji nie można również zapomnieć o pliku Sitemap. Sitemap.xml to nic innego jak mapa ze wszystkimi adresami, jakie znajdują się na stronie sklepu. Pozwala ona na szybszą indeksację oraz w znacznym stopniu ułatwia robotom poruszanie się po stronie.
Mapa jest niezwykle istotna w przypadku sklepów internetowych, ponieważ posiadają ogromną ilość adresów, których indeksacja bez mapy byłaby bardzo długim procesem. Dzięki mapie jesteśmy w stanie również zniwelować problem, jakim są strony sieroty, czyli podstrony, do których nie prowadzi żaden odnośnik w witrynie.
Jeśli zależy Ci, aby strona została zaindeksowana, ale nie chcesz, bądź nie masz możliwości dodania odpowiedniego linku do niej, mapa stanowi jedyny ratunek.
Certyfikat SSL
Poruszając temat sklepów internetowych, należy także wspomnieć o kwestii bezpieczeństwa kupujących, jaką zapewnia Certyfikat SSL. Wraz z rozpowszechnieniem się certyfikatu bezpieczeństwa, Google wprowadziło komunikaty przed wejściem na niezabezpieczoną stronę, informujące, iż strona, którą planują otworzyć, może być niebezpieczna. Z pewnością wpływa to negatywnie na zaufanie użytkownika, który w większości przypadków opuści stronę i poszuka podobnej oferty u konkurencji.
Szybkość ładowania witryny i dostosowanie do urządzeń mobilnych
Obecnie znaczna część użytkowników żyje w pośpiechu i nie ma czasu czekać, aż długo wczytująca się strona załaduje się w pełni. Dodatkowo, w związku ze stałym rozwojem urządzeń mobilnych, większość użytkowników korzysta z urządzeń przenośnych i to za pomocą nich dokonuje zakupów czy też przegląda internet.
Nie dziwne zatem, iż Google przykłada ogromną wagę do prędkości ładowania się strony i tego, jak wyświetla się ona na smartfonach i tabletach. Często na podstawie sposobu wyświetlania się na urządzeniach mobilnych, oceniana jest przez algorytmy, co skutkuje przydzieleniem jej określonej pozycji w wynikach wyszukiwania.
Jak sprawdzić, czy strona odpowiednio szybko się ładuje i jest przyjazna dla urządzeń mobilnych?
Istnieje wiele różnych narzędzi badających te czynniki, a sam Google również posiada swoje odpowiedniki, do których dostęp jest całkowicie darmowy.
Duplikacje
Kolejnym istotnym aspektem technicznej optymalizacji jest weryfikacja duplikatów wewnętrznych oraz zewnętrznych.
W przypadku duplikatów zewnętrznych ważne jest, aby wszelkie treści zawarte na stronie były oryginalne i nie pokrywały się z informacjami z innych stron. Unikalność treści pozwala wyróżnić się na tle konkurencji, co przez Google jest bardzo często nagradzane, zwłaszcza w przypadku m.in. opisów produktów.
Temat duplikatów wewnętrznych jest bardziej skomplikowany i można go podzielić na kilka części.
Po pierwsze, należy się upewnić czy strona jest widoczna pod jednym, czy też paroma adresami. Jeśli witryna nie posiada odpowiedniego przekierowania np. z adresu www, roboty Google nie wiedzą, która wersja strony jest wersją domyślną, co może skutkować spadkiem w rankingu, bądź problemami w indeksacji.
Po drugie, jeśli strona posiada produkty lub strony o zbliżonej treści, ponieważ są to np. różne wersje rozmiarowe lub kolorystyczne danego produktu, należy zastosować tag kanoniczny, który wskaże robotom, który produkt, bądź strona jest nadrzędna nad pozostałymi.
Błędy na stronie
Kolejnym z punktów technicznego SEO jest naprawa błędów, które pojawiają się na stronie. Są to głównie błędy 4xx i 5xx.
Błędy 4xx dotyczą sytuacji, w której adres prowadzi do strony, która nie istnieje. Z kolei błędy 5xx pojawiają się w sytuacji, gdy strona nie jest w stanie otrzymać odpowiedzi zwrotnej od serwera. W obu przypadkach, jeśli zostaną one zbagatelizowane, mogą przynieść wiele szkód, gdyż roboty nie są w stanie takich stron zaindeksować, a sam użytkownik zostaje z niczym, co często kończy się szybkim opuszczeniem witryny.
Błędy 4xx jesteśmy w stanie w bardzo szybki sposób naprawić poprzez odpowiednie przekierowanie na właściwy adres, bądź stronę główną. W przypadku komunikatu 5xx sprawa może być bardziej poważna i wymagać weryfikacji plików strony.
Core Web Vitals
Jednym z nowych czynników rankingowych w ubiegłym roku stał się Core Web Vitals (w skrócie CWV). Są to wskaźniki determinujące szybkość, wydajność oraz stabilność strony internetowej. Wśród nich możemy wyróżnić trzy główne wskaźniki, jakimi są:
Jakie wyróżniamy wskaźniki Core Web Vitals i jak je poprawić?
–LCP( Largest Contentful Painting) – Mierzy on czas, w jakim wczytuje się największy element na stronie. Wszelkie wartości do 2,5 sekundy są dobrym wynikiem. Czas od 2,5 do 4 sekund wymaga poprawy, a wartości powyżej 4 sekund są traktowane jako zagrażające opuszczeniu strony przez użytkownika;
–FID( First Input Delay) – Wskaźnik ten determinuje czas, jaki zajmuje witrynie, aby była w pełni interaktywna. W tym przypadku prawidłowy czas powinien sięgać do maksymalnie 100 milisekund;
–CLS( Cumulative Layout Shift) – Wskazuje na liczbę nieoczekiwanych przesunięć elementów na stronie, które nie są dokonywane przez użytkownika. W przypadku tej metryki, wartości od 0,0 do 0,1 są uznawane za właściwe. Wartość między 0,1 a 0,25 świadczą o średniej stabilności witryny, a wszelkie wyniki powyżej 0,25 wskazują na obowiązkową poprawę.
Dane strukturalne
Dane strukturalne to nic innego jak dodatkowe znaczniki w kodzie strony, które ułatwiają robotom indeksującym zrozumienie, co znajduje się na stronie. Poprzez dane strukturalne jesteśmy w stanie również dodać tzw. rich snippets, czyli dodatkowe informacje pokazujące się w wynikach wyszukiwania, np. cena, bądź średnia ocen produktu.
Nie trudno zatem stwierdzić, że poprzez ich dodanie możemy wyróżnić się na tle konkurencji, co docenią nie tylko roboty, ale także użytkownicy, którzy zobaczą nasze usługi lub produkty w wynikach wyszukiwania.
Indeksacja
Pozostał jeszcze ostatni, ale nie mniej istotny etap, jakim jest zezwolenie robotom na indeksację. Nawet najlepsza optymalizacja strony nic nie wskóra, jeśli strona będzie posiadać atrybut noindex. Może on występować w kodzie strony w nagłówku head. Należy również upewnić się, czy w pliku robots.txt nie występuje zbędna dyrektywa.
Podsumowanie
Wyżej wymienione elementy, mimo iż nie są całkowitym remedium i nie pokrywają tematu technicznego SEO w całości, są w stanie zagwarantować odpowiednią funkcjonalność strony, którą z pewnością docenią zarówno użytkownicy, jak i roboty Google.