Google erwähnte Crawl Budget erstmals offiziell 2017. Vorher war es Gerücht und Spekulation. Der Mythos entstand sofort: dass jede Website ein knappes Crawl Budget hat.
Zwischen 2017 und 2019 klärte Google auf: Sites unter 10.000 URLs müssen sich keine Sorgen machen. Trotzdem optimieren Leute mit 500-Seiten-Blogs verzweifelt ihr Crawl Budget.
Die Realität? Crawl Budget wird durch Site-Geschwindigkeit, Server-Errors und Weiterleitungsketten beeinflusst. Zwischen 2020 und 2024 wurde das Rendering-Budget wichtiger – wie viel Rechenleistung Google für JavaScript-heavy Sites aufwendet.
Für Introvertierten sind Server-Logs Gold wert. Sie zeigen präzise, was Googlebot wirklich crawlt. Ich habe Sites gesehen, wo 60 Prozent des Budgets auf nutzlose Facettenfilter verschwendet wurden.
Was wirklich zählt: robots.txt strategisch einsetzen, keine Redirect-Chains über drei Hops und Server-Response-Zeiten unter 200ms halten. Sitemap-Optimierung bringt mehr als komplizierte Crawl-Delay-Regeln, die ohnehin oft ignoriert werden.