Visitor Analytics
Skip to main content

Kruipbaarheid

TL;DR

Crawlability zorgt voor een soepel proces voor de spiders van de zoekmachines om de website te crawlen om er informatie over te krijgen en om hem te indexeren.

Wat is Crawlability?

Crawlability staat voor het gemak waarmee zoekmachines een website kunnen crawlen zonder essentiële inhoud te missen of dat hun crawler geblokkeerd wordt. Crawlers of spiders zijn de bots van zoekmachines die een website crawlen om informatie over de inhoud te verzamelen en deze op de juiste manier te rangschikken.

Waarom is Crawlability belangrijk voor een website?

Als een bot van een zoekmachine de website correct crawlt en alle informatie ophaalt, zal de website en zijn pagina's succesvol worden geïndexeerd.

Echter, als er gebroken links of verkeerde sitemap setup, kan dit leiden tot een aantal crawlability problemen, en de zoekmachine's spider zal niet in staat zijn om toegang te krijgen, crawlen en indexeren van specifieke inhoud op een site.

Om te zorgen voor een goede en vlotte crawling van een site, check deze lijst van te vermijden acties omdat ze kunnen voorkomen dat de spiders crawlen:

  • Zorg ervoor dat u een correct robots.txt bestand hebt en dat de robots meta tag op een specifieke pagina de crawler niet blokkeert.
  • Controleer de HTTP-codes. Bijvoorbeeld, statuscode 200 betekent dat de actie is geslaagd en dat alles in orde is.
  • Controleer de HTTP response header velden die een impact kunnen hebben op uw SEO strategie: zoals x-robots tag (b.v., X-Robots-Tag: noindex); server (b.v., Server: nginx); location (zorg ervoor dat de URL's die omgeleid moeten worden werken), en link om te laten zien dat de gevraagde bron een relatie heeft met andere bronnen.