Skip to main content

Sitemap

TL;DR

Sitemaps zijn tekstbestanden met idealiter een lijst van alle pagina's (absolute URL's) onder een bepaald domein om het crawlen te vereenvoudigen door alle beschikbare URL's te krijgen en om het goed te indexeren.

Wat is een sitemap?

Een sitemap is (meestal een XML) bestand met informatie over de pagina's, video's en andere bestanden op de site. Zoekmachines gebruiken de sitemaps om de site correct te crawlen, omdat het de volgende informatie aan de crawler communiceert: identificeer de essentiële bestanden op de site crawl de laatste pagina en content updates Zie de alternatieve taalversies van een pagina Geef de video draaitijd, categorie, en de leeftijd geschiktheid rating Bekijk het onderwerp van de afbeeldingen, type, en de licentie.

Waarom heb je een sitemap nodig?

Een sitemap helpt de crawlers de website en zijn pagina's te ontdekken en de indexering van de site te verbeteren. Het is aanbevolen om een bijgewerkte sitemap in te dienen als: De website is echt groot, en de sitemap zal helpen crawlers vinden van de nieuw toegevoegde of bijgewerkte pagina's. De website heeft veel inhoud en pagina's, maar ze zijn niet met elkaar verbonden. De website is nieuw gepubliceerd en heeft weinig externe links naar de website. Als er geen links zijn die verwijzen naar de nieuw gepubliceerde pagina's of site, zullen Googlebot en andere web crawlers deze misschien niet ontdekken.

Hoe een sitemap te bouwen

Zodra de pagina's zijn geselecteerd die moeten worden gecrawled door de crawlers van zoekmachines, bepaal dan de canonieke versie van elke pagina en het sitemap-formaat dat moet worden gebruikt (XML, RSS, mRSS, en Atom 1.0, Tekst). De sitemap kan handmatig worden gemaakt of automatisch worden gegenereerd door verschillende tools van derden. Nadat de sitemap is gegenereerd, maak het beschikbaar voor de zoekmachines crawlers door het toe te voegen aan de robots.txt bestand van de site of door het in te dienen bij Search Console.