Skip to main content

Zdolność do czołgania się

TL;DR

Crawlability zapewnia płynny proces przeszukiwania witryny przez pająki wyszukiwarek w celu uzyskania informacji na jej temat i zaindeksowania jej.

Co to jest crawlability?

Crawlability to łatwość, z jaką pająki wyszukiwarek mogą przeszukiwać witrynę bez pomijania istotnych treści lub blokowania ich ruchu. Crawlery lub pająki to boty wyszukiwarek, które przeszukują witrynę w celu zebrania informacji o jej zawartości i nadania jej odpowiedniej rangi.

Dlaczego zdolność indeksowania jest ważna dla witryny?

Jeśli bot wyszukiwarki prawidłowo przeszukuje witrynę i pobiera wszystkie informacje, witryna i jej strony zostaną pomyślnie zindeksowane.

Jeśli jednak w witrynie znajdują się niedziałające linki lub źle skonfigurowana sitemapa, może to prowadzić do kilku problemów z indeksowaniem, a pająk wyszukiwarki nie będzie w stanie uzyskać dostępu, indeksować i pobierać określonej zawartości witryny.

Aby zapewnić prawidłowe i bezproblemowe indeksowanie witryny, należy zapoznać się z poniższą listą czynności, których należy unikać, ponieważ mogą one uniemożliwić pająkom indeksowanie:

  • Upewnij się, że masz poprawny plik robots.txt i że znacznik meta robots na danej stronie nie blokuje indeksowania.
  • Sprawdź kody HTTP, np. kod statusu 200 oznacza, że akcja zakończyła się sukcesem i wszystko jest w porządku.
  • Zweryfikuj pola nagłówka odpowiedzi HTTP, które mogą mieć wpływ na strategię SEO: takie jak znacznik x-robots (np. X-Robots-Tag: noindex); serwer (np. Server: nginx); lokalizacja (upewnij się, że adresy URL, które mają zostać przekierowane, działają) oraz link, który pokazuje, że żądany zasób jest powiązany z innymi zasobami.