
TL;DR
La crawlabilità assicura un processo fluido per gli spider dei motori di ricerca per strisciare il sito web al fine di ottenere informazioni su di esso e indicizzarlo.
Cos'è la crawlabilità?
La crawlabilità rappresenta la facilità con cui i motori di ricerca scansionano un sito web senza perdere contenuti essenziali o senza che il loro crawler sia bloccato. I crawler o spider rappresentano i bot dei motori di ricerca che scansionano un sito web per raccogliere informazioni sul suo contenuto e classificarlo adeguatamente.
Perché la crawlabilità è importante per un sito web?
Se un bot dei motori di ricerca scansiona il sito web correttamente e recupera tutte le informazioni, il sito web e le sue pagine saranno indicizzati con successo.
Tuttavia, se ci sono link non funzionanti o un'impostazione errata della sitemap, può portare ad alcuni problemi di crawlabilità, e lo spider del motore di ricerca non sarà in grado di accedere, strisciare e indicizzare il contenuto specifico di un sito.
Per garantire un crawling corretto e senza intoppi di un sito, controlla questo elenco di azioni da evitare perché potrebbero impedire agli spider di eseguire il crawling:
- Assicuratevi di avere un file robots.txt corretto e che il robots meta tag su una pagina specifica non blocchi il crawler.
- Controllate i codici HTTP. Ad esempio, il codice di stato 200 implica che l'azione è riuscita e tutto è a posto.
- Verificate i campi dell'intestazione della risposta HTTP che possono avere un impatto sulla vostra strategia SEO: come il tag x-robots (ad esempio, X-Robots-Tag: noindex); il server (ad esempio, Server: nginx); la posizione (assicuratevi che gli URL da reindirizzare siano funzionanti), e il link che mostra che la risorsa richiesta ha una relazione con altre risorse.