Die zwei Faktoren: Kapazität und Bedarf
Das Crawl-Budget ergibt sich aus dem Zusammenspiel zweier Größen, die Google intern berechnet und gegeneinander abwägt. Der erste Faktor ist die sogenannte Crawl-Kapazität, also die Obergrenze an Anfragen, die der Googlebot pro Sekunde an Ihren Server richten darf, ohne ihn zu überlasten. Google passt diese Grenze laufend an: Reagiert der Server schnell und stabil, darf der Bot häufiger anfragen. Schlägt der Server langsam zurück oder liefert er Fehler, reduziert Google die Rate automatisch. Wer also auf einem überlasteten Shared-Hosting-Server betreibt, bekommt schlicht weniger Crawling-Kapazität zugeteilt als jemand mit einem performanten Dedicated Server.
Der zweite Faktor ist der Crawl-Bedarf, und dieser bestimmt, wie stark Google Ihre Website überhaupt crawlen möchte. Seiten mit vielen externen Verlinkungen, hoher Autorität und häufig aktualisierten Inhalten werden häufiger besucht als unbekannte, selten verlinkte URLs. Ein Blog, der täglich neue Artikel veröffentlicht und dabei regelmäßig von anderen Websites verlinkt wird, signalisiert Google, dass ein Besuch sich lohnt. Eine statische Unternehmensseite, die seit Jahren unverändert online steht, erhält entsprechend seltener einen Besuch.















