Kriechfähigkeit

TL;DR

Crawlability gewährleistet einen reibungslosen Prozess für die Spider der Suchmaschinen, um die Website zu crawlen, um Informationen über sie zu erhalten und sie zu indizieren.

Was ist Crawlability?

Crawlability bezeichnet die Leichtigkeit, mit der Suchmaschinen eine Website durchsuchen können, ohne dass wesentliche Inhalte fehlen oder ihr Crawler blockiert wird. Crawler oder Spider sind die Bots der Suchmaschinen, die eine Website durchforsten, um Informationen über ihren Inhalt zu sammeln und sie entsprechend zu bewerten.

Warum ist Crawlability für eine Website wichtig?

Wenn der Bot einer Suchmaschine die Website korrekt durchsucht und alle Informationen abruft, werden die Website und ihre Seiten erfolgreich indiziert.

Wenn es jedoch defekte Links oder eine falsch erstellte Sitemap gibt, kann dies zu einigen Crawlability-Problemen führen, und der Spider der Suchmaschine wird nicht in der Lage sein, auf bestimmte Inhalte einer Website zuzugreifen, sie zu crawlen und zu indizieren.

Um ein ordnungsgemäßes und reibungsloses Crawling einer Website zu gewährleisten, sollten Sie diese Liste der zu vermeidenden Aktionen prüfen, da sie das Crawling durch die Spider verhindern könnten:

  • Vergewissern Sie sich, dass die robots.txt-Datei korrekt ist und dass das robots-Meta-Tag auf einer bestimmten Seite den Crawler nicht blockiert.
  • Überprüfen Sie die HTTP-Codes, z. B. den Statuscode 200, der besagt, dass die Aktion erfolgreich war und alles in Ordnung ist.
  • Überprüfen Sie die HTTP-Antwort-Header-Felder, die sich auf Ihre SEO-Strategie auswirken können: z. B. x-robots-Tag (z. B. X-Robots-Tag: noindex); Server (z. B. Server: nginx); Standort (stellen Sie sicher, dass die umzuleitenden URLs funktionieren) und Link, um zu zeigen, dass die angeforderte Ressource eine Beziehung zu anderen Ressourcen hat.
up-arrow.svg