Skip to main content

Crawlability

TL;DR

La crawlabilità assicura un processo fluido per gli spider dei motori di ricerca per strisciare il sito web al fine di ottenere informazioni su di esso e indicizzarlo.

Cos'è la crawlabilità?

La crawlabilità rappresenta la facilità con cui i motori di ricerca scansionano un sito web senza perdere contenuti essenziali o senza che il loro crawler sia bloccato. I crawler o spider rappresentano i bot dei motori di ricerca che scansionano un sito web per raccogliere informazioni sul suo contenuto e classificarlo adeguatamente.

Perché la crawlabilità è importante per un sito web?

Se un bot dei motori di ricerca scansiona il sito web correttamente e recupera tutte le informazioni, il sito web e le sue pagine saranno indicizzati con successo.

Tuttavia, se ci sono link non funzionanti o un'impostazione errata della sitemap, può portare ad alcuni problemi di crawlabilità, e lo spider del motore di ricerca non sarà in grado di accedere, strisciare e indicizzare il contenuto specifico di un sito.

Per garantire un crawling corretto e senza intoppi di un sito, controlla questo elenco di azioni da evitare perché potrebbero impedire agli spider di eseguire il crawling:

  • Assicuratevi di avere un file robots.txt corretto e che il robots meta tag su una pagina specifica non blocchi il crawler.
  • Controllate i codici HTTP. Ad esempio, il codice di stato 200 implica che l'azione è riuscita e tutto è a posto.
  • Verificate i campi dell'intestazione della risposta HTTP che possono avere un impatto sulla vostra strategia SEO: come il tag x-robots (ad esempio, X-Robots-Tag: noindex); il server (ad esempio, Server: nginx); la posizione (assicuratevi che gli URL da reindirizzare siano funzionanti), e il link che mostra che la risorsa richiesta ha una relazione con altre risorse.