Wenn die KI plötzlich schweigt: Anthropic kappt Claude-Limits zur Stoßzeit
Wer Claude intensiv nutzt, kennt das: Man chattet fleißig, die KI antwortet schnell, dann plötzlich Stille. Limit erreicht. Bitte in ein paar Stunden warten.
Seit dem 26. März 2026 ist das schneller passiert als bisher. Anthropic hat angekündigt, die 5-Stunden-Session-Limits während Stoßzeiten herabzusetzen. Betroffen sind Free-, Pro- und Max-Abonnenten. Die wöchentlichen Limits bleiben offiziell gleich, aber wie sie über die Woche verteilt werden, hat sich verändert.
Was genau passiert ist
Thariq Shihipar, Mitglied des Anthropic-Teams, schrieb auf X: „To manage growing demand for Claude we’re adjusting our 5 hour session limits for free/Pro/Max subs during peak hours. Your weekly limits remain unchanged."
Konkret: Werktags zwischen 5 und 11 Uhr Pacific Time, also 14 bis 20 Uhr mitteleuropäischer Zeit, verbraucht man sein Session-Kontingent schneller als bisher. Zu anderen Zeiten hält es länger vor. Insgesamt 7 Prozent der Nutzer sollen stärker betroffen sein, vor allem Pro-Abonnenten.
Anthropic betont, dass man Effizienzgewinne umgesetzt habe und die Auswirkungen abgefedert würden. Was genau diese Effizienzgewinne sind, bleibt unklar.
Erst Bug, dann Feature
Die Geschichte beginnt nicht mit Anthropics Ankündigung. Sie beginnt mit wütenden Nutzern. Ab dem 23. März häuften sich auf GitHub, Reddit und X Beschwerden: Sessions, die normalerweise Stunden hielten, waren nach 60 bis 90 Minuten aufgebraucht. Max-5x-Abonnenten (100 Dollar im Monat) berichteten, dass ihr Kontingent nach anderthalb Stunden normaler Arbeit erschöpft war. Ein Max-20x-Nutzer (200 Dollar im Monat) sah seinen Verbrauch bei einem einzigen Prompt von 21 auf 100 Prozent springen.
Drei Tage lang schwieg Anthropic. Die Community diskutierte Rückerstattungen und Kündigungen. Auf Reddit r/ClaudeAI lief ein Thread unter dem Titel „the rate limit bug was actually Anthropic quietly making your limits drain faster". MacRumors dokumentierte die Beschwerden unter „Claude Code drains limits rapidly".
Erst am 26. März bestätigte Anthropic, was passiert war. Das war kein Bug. Das war eine bewusste Entscheidung, die erst nach dem Aufschrei kommuniziert wurde.
Anthropic hatte das Problem kommen sehen. Bereits am 13. März startete eine befristete Aktion: Verdoppelung der Limits außerhalb der Stoßzeiten, gültig bis zum 28. März. Für Free-, Pro-, Max- und Team-Abonnenten. Wer seinen Nutzern gleichzeitig etwas gibt und etwas nimmt, weiß, dass die Änderung Widerstand auslösen wird.
Parallel geht Anthropic gegen Drittanbieter-Tools vor, die Claude-Zugänge über inoffizielle Wege nutzen. VentureBeat berichtet, dass Anthropic aktiv gegen Harnesses vorgeht, die sich als offizieller Client ausgeben, um Flatrate-Limits zu umgehen. Der Zugang wird kontrollierter, nicht offener.
Das Problem mit den Limits
Das eigentliche Problem ist nicht die Limitanpassung. Das Problem ist die Intransparenz. Anthropic legt nicht offen, wie viele Tokens innerhalb einer 5-Stunden-Session verfügbar sind. Die Limits sind „unpublished" (nicht veröffentlicht).
Das bedeutet: Nutzer können nicht planen. Wer morgens um 9 Uhr loslegt und tokensintensive Arbeit erledigt, weiß nicht, ob er um 14 Uhr noch Kapazität hat. Er merkt es erst, wenn das Limit greift.
Und dann greift es nicht gleichmäßig. Die „5-Stunden-Session" ist keine feste Zeitspanne mit festem Kontingent. Sie ist ein variables Gebilde, dessen Kapazität von Tageszeit, Gesamtnutzung und Modell-Auslastung abhängt. Ein „5-Stunden-Tag" kann je nach Stoßzeit zwei Stunden oder acht Stunden sein.
Warum das uns betrifft
Wir betreiben mehrere KI-Assistenten, die auf Anthropic-Modellen laufen. Wenn Anthropic während der europäischen Hauptarbeitszeit (14 bis 20 Uhr) die Limits kürzt, dann betreffen die Auswirkungen genau die Zeit, in der wir am meisten arbeiten. Pacific Time Stoßzeit = unsere Geschäftszeit.
Die praktische Folge: KI-Assistenten, die auf Claude laufen, können plötzlich nicht mehr antworten. Nicht weil sie kaputt sind, sondern weil der Anbieter Kapazitäten rationiert.
Was das für KI-Abhängigkeit bedeutet
Das ist kein Anthropic-spezifisches Problem. Die ganze Branche rationiert. Google hat für Gemini inzwischen harte Tageslimits veröffentlicht: 5 Prompts am Tag für Free-Nutzer, 100 für AI Pro (20 Dollar), 500 für AI Ultra (250 Dollar). Die Zeit vager Formulierungen wie „limited access" ist vorbei. Stattdessen stehen überall konkrete Zahlen.
OpenAI hat ähnliche Kapazitätsengpässe bei GPT-4 erlebt. Der Unterschied: Anthropic hat die Limits nicht nur gesenkt, sondern zeitabhängig variabel gemacht. Das ist Kapazitätsmanagement nach dem Strompreis-Prinzip: Wer zur Stoßzeit verbraucht, zahlt mehr.
Ökonomisch sinnvoll. Für Nutzer frustrierend. Und für jeden, der seine KI-Strategie auf einen einzigen Anbieter setzt: ein Warnsignal.
Multi-Modell als Antwort
Die Lösung liegt in Verteilung. Wer mehrere KI-Modelle nutzt, verschiedene Anbieter kombiniert und bei Bedarf wechseln kann, ist weniger anfällig.
In der Praxis bedeutet das: Nicht nur Claude, nicht nur GPT-4, nicht nur ein Modell. Sondern mehrere Anbieter, die bei Bedarf austauschbar sind. Modelle über OpenRouter, direkte API-Zugänge, lokale Modelle als Fallback.
Das kostet mehr Komplexität in der Orchestrierung. Aber es reduziert die Abhängigkeit von einem einzigen Anbieter, dessen Limits man nicht kontrolliert.
Meine Einschätzung
7 Prozent der Nutzer treffen die Limits jetzt schneller. Klingt nach wenig. Aber diese 7 Prozent sind die Power-User, die 100 oder 200 Dollar im Monat zahlen und deren Session bei einem einzigen Prompt von 21 auf 100 Prozent springt.
Besonders bitter: Die Community hat drei Tage lang einen Bug vermutet, Workarounds gesucht und sich gegenseitig geholfen, bevor Anthropic zugab, dass es eine bewusste Entscheidung war. Das ist kein technisches Versagen. Das ist ein Kommunikationsversagen.
Anthropic baut gerade das beste Sprachmodell auf dem Markt. Die Nachfrage übersteigt die Kapazität. Das ist ein Kompliment. Aber es ist auch ein Warnsignal.
Die Abhängigkeit von KI-Anbietern wird eines der Themen der nächsten Jahre. Wer heute nicht auf Multi-Modell setzt, lernt es spätestens dann, wenn die Limits greifen.
Quellen:
- Stadt Bremerhaven: Anthropic reduziert Limits für Claude
- The Register: Anthropic tweaks usage limits
- Forbes: Anthropic Huge Pricing Issues With Glitching Claude Code Limits
- InfoWorld: Anthropic throttles Claude subscriptions
- PYMNTS: Claude Users Hit a New Reality of AI Rationing
- MacRumors: Claude Code Users Report Rapid Rate Limit Drain
- VentureBeat: Anthropic Cracks Down on Unauthorized Claude Usage