Skip to main content

Gjennomgangbarhet

TL;DR

Gjennomsøkbarhet sikrer en jevn prosess for søkemotorenes edderkopper for å gjennomsøke nettstedet for å få informasjon om det og for å indeksere det.

Hva er gjennomsøkbarhet?

Gjennomsøkbarhet representerer den enkle søkemotoren til å gjennomsøke et nettsted uten å gå glipp av viktig innhold eller å ha blokkert robotsøkeprogrammet. Crawlere eller edderkopper representerer søkemotorenes roboter som gjennomsøker et nettsted for å samle informasjon om innholdet og rangere det riktig.

Hvorfor er gjennomsøkbarhet viktig for et nettsted?

Hvis en søkemotors robot gjennomsøker nettstedet på riktig måte og henter all informasjon, vil nettstedet og dets sider indekseres.

Imidlertid, hvis det er ødelagte koblinger eller feil oppsett av nettstedskart, kan det føre til noen få gjennomsøkingsproblemer, og søkemotorens edderkopp vil ikke kunne få tilgang til, gjennomsøke og indeksere spesifikt innhold på et nettsted.

For å sikre en riktig og jevn gjennomgang av et nettsted, sjekk denne listen over handlinger du bør unngå fordi de kan hindre edderkoppene fra å krype:

  • Sørg for å ha en riktig robots.txt-fil, og at robots-metakoden på en bestemt side ikke blokkerer søkeroboten.
  • Sjekk HTTP-kodene. for eksempel vil statuskode 200 antyde at handlingen har lyktes og at alt er ok.
  • Bekreft HTTP-svarheader-feltene som kan ha innvirkning på SEO-strategien din: for eksempel x-robots-tag (f.eks. X-Robots-Tag: noindex); server (f.eks. Server: nginx); plassering (sørg for at nettadressene som skal omdirigeres fungerer), og lenke til viser at den forespurte ressursen har et forhold til andre ressurser.