SEO-Basics • Post 10/10
Crawl-Budget für KMU-Sites — meistens irrelevant, manchmal kritisch
Crawl-Budget ist das Limit, wie viele Seiten Google auf Deiner Domain pro Tag crawlt. Für die meisten KMU-Sites ist es irrelevant. Diese Anleitung zeigt, wann es kritisch wird und wie Du es verwaltest.
TL;DR
- Crawl-Budget für KMU-Sites — meistens irrelevant, manchmal kritisch — eine praktische Anleitung für den DACH-Raum.
- Behandelt "crawl budget optimieren" mit konkreten Beispielen.
- Behandelt "google crawl limit" mit konkreten Beispielen.
- Mindestens 2 Snippet-Bait-Patterns für bessere SERP-Sichtbarkeit.
Crawl-Budget ist die Anzahl der URLs, die Googles Crawler auf einer Domain pro Tag besuchen — bestimmt durch ein serverseitiges Limit und das Interesse des Crawlers an neuen oder aktualisierten Inhalten.
Was ist Crawl-Budget?
Die Anzahl der URLs, die Google pro Tag auf deiner Domain crawlt. Es setzt sich aus Crawl-Limit (Google-seitig) und Crawl-Demand (Site-seitig) zusammen.
Wann Crawl-Budget irrelevant ist
Für 95 % der KMU-Websites im DACH-Raum ist Crawl-Budget kein Thema. Eine Zahnarzt-Website mit 12 Seiten, ein Handwerksbetrieb mit 20 Seiten, ein Coach mit 8 Seiten — Google crawlt diese Sites schneller, als sie neue Inhalte produzieren.
Die Daumenregel: Wenn Deine Website weniger als 1.000 indexierbare URLs hat und weniger als 50 neue URLs pro Monat hinzukommen, ignoriere Crawl-Budget. Deine Energie ist in Content-Qualität besser investiert.
Wann Crawl-Budget kritisch wird
| Site-Typ | URL-Zahl | Crawl-Budget-Status | Maßnahme |
|---|---|---|---|
| KMU-Website | < 1.000 | Kein Problem | Keine |
| Mittelgroßer Blog | 1.000–10.000 | Leichtes Problem | robots.txt-Optimierung, Sitemap-Splitting |
| eCommerce | 10.000–100.000 | Mittleres Problem | Filter-URLs disallowen, Pagination optimieren |
| Große Plattform | 100.000+ | Kritisches Problem | Dediziertes Crawl-Budget-Management |
Drei konkrete Maßnahmen für mehr Crawl-Effizienz
- robots.txt optimieren: Disallow für Admin-Pfade, API-Endpunkte und URL-Parameter-Seiten
- Sitemap-Splitting: Separate Sitemaps für Pages, Blog und Tools — Crawler priorisieren häufiger aktualisierte Sitemaps
- 404-Fehler eliminieren: Jeder gecrawlte 404er kostet Budget und bringt nichts
mekyn.com setzt alle drei um und hat bei aktuell ~100 URLs keinerlei Crawl-Budget-Sorgen.
Weiterführend auf mekyn.com
→ Zur Pillar-Page: Seo → Verwandt: Robots Txt Richtig → Verwandt: Canonical Tags → Tool: Kontrast Rechner
Externe Quellen:
Mehr zu diesem Thema:
Zum SEO-HubKeine Kreditkarte · 14 Tage testen · Anti-Lock-In