Skip to main content

Gennemgangbarhed

TL;DR

Crawlability sikrer en smidig proces for søgemaskinernes edderkopper til at crawle hjemmesiden for at få information om den og indeksere den.

Hvad er Crawlability?

Crawlability repræsenterer søgemaskiners lethed ved at crawle et websted uden at gå glip af væsentligt indhold eller have deres crawler blokeret. Crawlere eller edderkopper repræsenterer søgemaskinernes bots, der crawler et websted for at indsamle oplysninger om dets indhold og rangere det korrekt.

Hvorfor er Crawlability vigtigt for et websted?

Hvis en søgemaskines bot crawler hjemmesiden korrekt og henter al information, vil hjemmesiden og dens sider blive indekseret med succes.

Men hvis der er ødelagte links eller forkert opsætning af sitemap, kan det føre til nogle få problemer med gennemgang, og søgemaskinens spider vil ikke være i stand til at få adgang til, crawle og indeksere specifikt indhold på et websted.

For at sikre en korrekt og jævn gennemgang af et websted, tjek denne liste over handlinger, du skal undgå, fordi de kunne forhindre edderkopperne i at kravle:

  • Sørg for at have en korrekt robots.txt-fil, og at robots-metatagget på en bestemt side ikke blokerer crawleren.
  • Tjek HTTP-koderne. f.eks. vil statuskode 200 antyde, at handlingen er lykkedes, og alt er ok.
  • Bekræft de HTTP-svar-header-felter, der kan have en indflydelse på din SEO-strategi: såsom x-robots-tag (f.eks. X-Robots-Tag: noindex); server (f.eks. Server: nginx); placering (sørg for, at URL'erne, der skal omdirigeres, fungerer), og link til viser, at den anmodede ressource har en relation til andre ressourcer.