
⚡ TL;DR
14 Min. LesezeitAnthropics KI-Code-Review kostet 15-25 $ pro Durchlauf und kann mit versteckten Kosten für Fehlerbehebungen bis zu 50 $ pro Feature erreichen. Eine Multi-Modell-Pipeline, die günstigere Modelle für Routineaufgaben nutzt, kann die Kosten um 55-80 % senken. Für kleinere Teams sind manuelle Reviews oder selbst gehostete Modelle oft wirtschaftlicher.
- →Kosten von bis zu 50 $ pro Feature für Anthropics KI-Code-Review.
- →Multi-Modell-Pipelines senken Kosten um 55-80 %.
- →Kontext-Caching spart 30-40 % der Token bei erneuten Reviews.
- →Für kleine Teams sind manuelle Reviews oder Self-Hosted-Modelle oft wirtschaftlicher.
- →Keine Token-Rabatte für von Claude generierten Code.
Anthropic AI Code Review: Lohnt sich der $25-Token-Tax?
Anthropic verlangt bis zu $25 pro Code-Review – für Code, den Claude selbst generiert hat. Lies diesen Satz ruhig zweimal. In einer Branche, die Effizienz predigt, zahlen Entwicklerteams doppelt: einmal für die Generierung, einmal für die Prüfung desselben Outputs. Die AI Token Kosten in der Entwicklung steigen damit schneller als die Produktivitätsgewinne, die sie versprechen.
Für CTOs und Tech-Leads stellt sich eine unangenehme Frage: Macht AI-gestützte Code-Qualitätssicherung bei diesem Pricing überhaupt wirtschaftlich Sinn? Oder verbrennen Teams Budget, das in manuelle Reviews oder schlankere Alternativen besser investiert wäre?
Dieser Artikel liefert die Antworten. Du erfährst, wie Anthropics AI Code Review technisch funktioniert, warum der Token-Verbrauch so hoch ausfällt und ab welcher Teamgröße sich die Investition rechnet. Dazu bekommst du konkrete Multi-Model-Pipelines, die deine Review-Kosten um bis zu 80 % senken.
"Wer AI-generierten Code mit derselben AI reviewt, zahlt den Token-Tax zweimal – und bekommt dafür keine Garantie auf bessere Qualität."
Was Anthropics AI Code Review wirklich macht
Bevor wir über Kosten sprechen, brauchen wir ein klares Bild davon, was hinter dem $25-Preisschild steckt. Anthropics AI Code Review ist kein simpler Linter – es ist ein tiefgreifender Analyse-Prozess, der Millionen von Tokens verschlingt.
Repo-Pull und statische Analyse: Der vollständige Codebase-Scan
Anthropics Review-System beginnt nicht bei der einzelnen Pull-Request. Es zieht den gesamten Repository-Kontext heran. Das bedeutet: Jede Datei, jede Dependency, jede Konfiguration fließt als Input-Token in die Analyse ein.
Der Prozess umfasst vier Kernschritte:
- Repository-Ingestion: Das System klont die Codebase und indexiert sämtliche Dateien – inklusive Konfigurationsdateien, Lock-Files und CI/CD-Pipelines
- Dependency-Graph-Analyse: Jede externe Abhängigkeit wird gegen bekannte Vulnerability-Datenbanken geprüft, wobei transitive Dependencies bis zur dritten Ebene aufgelöst werden
- Statische Code-Analyse: Pattern-Matching auf Code-Smells, Anti-Patterns und Style-Violations – ähnlich wie SonarQube, aber mit kontextuellem Verständnis durch Claude Sonnet 4.6
- Kontextuelle Einordnung: Die geänderten Dateien werden im Kontext der gesamten Codebase bewertet, nicht isoliert
Dieser umfassende Ansatz erklärt bereits einen Großteil des Token-Verbrauchs. Ein mittelgroßes Repository mit 50.000 Zeilen Code generiert allein durch den Repo-Pull zwischen 400.000 und 600.000 Input-Tokens.
Architektur-Reasoning: Tiefe statt Oberfläche
Was Anthropics Review von günstigeren Alternativen unterscheidet, ist die Architektur-Bewertung. Claude Sonnet 4.6 analysiert nicht nur, ob Code funktioniert, sondern wie gut er in die Gesamtarchitektur passt.
Das Architektur-Reasoning umfasst:
- Skalierbarkeits-Bewertung: Erkennung von Bottlenecks bei steigender Last, z. B. N+1-Queries in ORM-Layern oder fehlende Caching-Strategien
- Sicherheitslücken-Analyse: Kontextsensitive Prüfung auf SQL-Injection, XSS und Authentifizierungs-Schwächen – nicht nur Regex-basiert, sondern mit Verständnis für den Datenfluss
- Design-Pattern-Konsistenz: Erkennung, wenn neue Code-Änderungen bestehende Architektur-Entscheidungen untergraben
- Concurrency-Risiken: Identifikation von Race Conditions und Deadlock-Potenzial in Multi-Thread-Umgebungen
Diese Tiefe erfordert massive Rechenleistung. Das Modell muss den gesamten Codebase-Kontext im Arbeitsspeicher halten, während es komplexe Schlussfolgerungen zieht. Genau hier explodiert der Token-Verbrauch.
Token-Zusammensetzung: Warum 1–2 Millionen Tokens pro Review anfallen
Die Anthropic AI Code Review Kosten lassen sich auf eine einfache Formel herunterbrechen:
- Repository-Kontext (Input): ~55 % → 600.000–1.100.000 Tokens
- Analyse-Reasoning (Output): ~25 % → 250.000–500.000 Tokens
- Dependency-Checks (Input): ~12 % → 120.000–240.000 Tokens
- Report-Generierung (Output): ~8 % → 80.000–160.000 Tokens
Bei Claude Sonnet 4.6 liegen die API-Kosten für Input-Tokens bei etwa $3 pro Million und für Output-Tokens bei $15 pro Million. Ein Review mit 1,5 Millionen Tokens (davon 1 Million Input, 500.000 Output) kostet damit:
- Input: 1,0 Mio. × $3 = $3,00
- Output: 0,5 Mio. × $15 = $7,50
- Overhead (Retries, Caching, Infrastruktur): ~$5–$14,50
Die Gesamtkosten von $15–$25 pro Review setzen sich also aus rohen API-Kosten plus Anthropics Infrastruktur-Marge zusammen. Wer Software & API Development betreibt, kennt diesen Infrastruktur-Overhead nur zu gut.
Dieser hohe Token-Verbrauch führt direkt zur Ironie in typischen Workflows.
Die Ironie: Zweimal für dieselben Tokens zahlen
Die Anthropic AI Code Review Kosten werden besonders absurd, wenn man den typischen Entwicklungs-Workflow betrachtet. Denn in vielen Teams generiert Claude den Code, den Anthropics Review-System anschließend prüft. Du zahlst zweimal – für denselben Output.
Workflow-Zyklus: Generate → Review → Fix → Repeat
Der typische AI-gestützte Entwicklungszyklus sieht 2026 so aus:
- Code-Generierung: Ein Entwickler nutzt Claude Sonnet 4.6 (oder ein vergleichbares Modell), um eine Feature-Implementierung zu generieren. Kosten: $2–$8 je nach Komplexität.
- Code-Review: Der generierte Code durchläuft Anthropics AI Code Review. Kosten: $15–$25.
- Fix-Implementierung: Die Review-Findings fließen zurück in Claude, das Fixes generiert. Kosten: $1–$5.
- Re-Review: Die Fixes durchlaufen erneut das Review-System. Kosten: $10–$20 (weniger Kontext-Tokens, aber immer noch der volle Repo-Pull).
Gesamtkosten für ein einziges Feature: $28–$58. Für Code, der von Anfang an maschinell generiert wurde.
Versteckte Kosten: Die Fix-Iteration als Kostenmultiplikator
Die offensichtlichen Review-Kosten sind nur die Spitze des Eisbergs. Die wahren Kostentreiber verstecken sich in den Iterationsschleifen.
Unsere Erfahrung aus KI-Automatisierungsprojekten zeigt: Ein durchschnittliches Review produziert 6–12 Findings, von denen 3–5 Code-Änderungen erfordern. Jede Änderung triggert potenziell einen neuen Review-Durchlauf.
Die versteckten Kostenschichten:
- Kontext-Wiederholung: Bei jedem Re-Review wird der Repository-Kontext erneut geladen – dieselben 600.000+ Input-Tokens, für die du bereits bezahlt hast
- Cascading Fixes: Ein Fix in Modul A kann neue Findings in Modul B auslösen, was weitere Iterationen erfordert
- False Positives: Geschätzt 15–25 % der Findings sind False Positives, die trotzdem geprüft und dismissed werden müssen – auf Kosten des Teams
- Prompt-Overhead: Die Kommunikation zwischen Review-Output und Fix-Input erfordert zusätzliche Tokens für Kontext-Transfer
In der Praxis verdoppeln diese versteckten Kosten das AI Code Review Pricing auf $30–$50 pro Feature – konservativ gerechnet.
Ökonomische Fragwürdigkeit: Keine Rabatte für den eigenen Output
Hier liegt die eigentliche Absurdität: Anthropic bietet keine Token-Rabatte für Code, den Claude selbst generiert hat. Technisch wäre das möglich – das System könnte den Generierungs-Kontext cachen und beim Review wiederverwenden. Doch das passiert nicht.
Stattdessen behandelt das Review-System jeden Code-Input als unbekannt, unabhängig von seiner Herkunft. Das bedeutet:
- Kein Kontext-Sharing zwischen Generierung und Review
- Kein reduzierter Scan-Umfang für kürzlich generierten Code
- Keine Bundle-Preise für Generate-Review-Workflows
"Die teuerste Zeile Code ist die, für deren Generierung, Review und Fix du dreimal denselben Token-Preis zahlst."
Für ein Team mit 10 Entwicklern, das täglich 5 PRs durch den AI-Review-Zyklus schickt, summieren sich die monatlichen Kosten auf $3.000–$7.500 – allein für Code-Reviews. Diese Kostenfrage hängt direkt von Teamgröße und Komplexität ab. Prüfen wir also, für wen sich dieser Token-Tax tatsächlich rechnet.
"Die teuerste Zeile Code ist die, für deren Generierung, Review und Fix du dreimal denselben Token-Preis zahlst."
Enterprise vs. Indie: Für wen rechnet sich der AI-Tax?
Die Antwort auf die Frage „Lohnt sich Anthropics AI Code Review?" ist kein pauschales Ja oder Nein. Sie hängt von drei Variablen ab: Teamgröße, Code-Komplexität und Review-Frequenz. Hier die Break-Even-Analyse.
Break-Even-Rechnung: Ab wann $25 pro Review Sinn ergibt
Die zentrale Frage lautet: Ab welchem Punkt übersteigt der Wert eines AI-Reviews die Kosten eines manuellen Reviews?
Kosten eines manuellen Code-Reviews (Durchschnitt 2026):
- Senior-Developer-Stundensatz (intern): $80–$120/h
- Durchschnittliche Review-Dauer: 45–90 Minuten
- Kosten pro manuellem Review: $60–$180
- Opportunitätskosten (Entwicklungszeit): $40–$60 zusätzlich
Break-Even-Punkt: Ein AI-Review für $25 ist günstiger als ein manuelles Review, sobald die manuelle Alternative mehr als 20 Minuten dauert. Bei komplexen Microservice-Architekturen, wo ein menschlicher Reviewer den Kontext von 5+ Services verstehen muss, spart das AI-Review $55–$155 pro PR.
Für Teams mit 10+ Entwicklern und hoher Code-Komplexität rechnet sich der AI-Tax ab dem ersten Monat:
- 10 Devs × 3 PRs/Woche × $25 = $3.000/Monat (AI-Review)
- 10 Devs × 3 PRs/Woche × $100 = $12.000/Monat (manuelles Review)
- Ersparnis: $9.000/Monat
Indie-Szenario: Wann manuelle Reviews günstiger bleiben
Für kleine Teams sieht die Rechnung fundamental anders aus. Bei weniger als 5 Entwicklern und überschaubarer Code-Komplexität kippt das Verhältnis:
Typisches Indie-Team (3 Devs, einfache Web-App):
- Review-Frequenz: 8–12 PRs pro Monat
- Durchschnittliche Review-Komplexität: Niedrig (einzelne Module, keine Microservices)
- Manuelle Review-Dauer: 15–25 Minuten pro PR
- Manuelle Kosten: 10 × $30 = $300/Monat
- AI-Review-Kosten: 10 × $20 = $200/Monat (niedrigerer Durchschnitt bei kleineren Repos)
Auf den ersten Blick spart das AI-Review $100. Doch rechne die Fix-Iterationen hinzu:
- Zusätzliche Re-Reviews: 5 × $15 = $75
- False-Positive-Handling: 2h × $80 = $160
- Tatsächliche AI-Kosten: $435/Monat
Für Indie-Teams mit einfachem Code sind Pair-Programming-Sessions oder asynchrone Peer-Reviews wirtschaftlich überlegen. Das gilt besonders für CRUD-Anwendungen, Landing Pages und Standard-E-Commerce-Setups.
Enterprise-Vorteile: Skaleneffekte bei hoher Frequenz
Ab 100+ Pull Requests pro Monat entfalten sich die wahren Skaleneffekte des AI Code Review Pricing:
- Konsistenz: Jedes Review folgt denselben Standards – keine Qualitätsschwankungen je nach Reviewer-Tagesform
- Geschwindigkeit: Reviews in Minuten statt Stunden, was die PR-Merge-Time um geschätzt 60–70 % reduziert
- Wissenstransfer: Das AI-Review dokumentiert Architektur-Entscheidungen automatisch, was bei großen Teams den Onboarding-Aufwand senkt
- Compliance: Regulierte Branchen (FinTech, HealthTech) profitieren von lückenloser Review-Dokumentation
Rechenbeispiel Enterprise (50 Devs, Microservice-Architektur):
- PRs/Monat: 400 → 400 → –
- Kosten/Review: $120 → $25 → -$95
- Monatliche Kosten: $48.000 → $10.000 → -$38.000
- Review-Turnaround: 4–8h → 15–30 min → -95 %
- Missed Bugs (geschätzt): 8–12 → 2–4 → -65 %
Die Ersparnis von $38.000 pro Monat rechtfertigt den Token-Tax für Enterprise-Teams eindeutig. Wenn es sich bei deinem Team nicht rechnet, bauen wir Alternativen – kosteneffizient und praxisnah.
Alternativen: So bauen wir kosteneffiziente Review-Pipelines
Anthropics AI Code Review ist nicht die einzige Option. 2026 existiert ein reifes Ökosystem an Modellen, die verschiedene Review-Aufgaben zu einem Bruchteil der Kosten übernehmen. Der Schlüssel liegt in der Multi-Model-Strategie: Jedes Modell übernimmt den Task, für den es am effizientesten ist.
GPT-5.4 Pro: Schnelle statische Checks für $5–$10
OpenAIs GPT-5.4 Pro eignet sich hervorragend für statische Code-Analyse und Pattern-Erkennung – Tasks, die keinen vollständigen Codebase-Kontext benötigen.
Stärken im Code-Review:
- Schnelle Identifikation von Code-Smells und Anti-Patterns
- Zuverlässige Style-Guide-Compliance-Prüfung
- Effiziente Dependency-Vulnerability-Checks bei kleinerem Token-Footprint
- Gute Performance bei Einzeldatei- und Modul-Reviews
Kostenstruktur:
GPT-5.4 Pro verarbeitet statische Checks mit 40–60 % weniger Tokens als Anthropics Full-Context-Approach. Ein typischer statischer Review kostet $5–$10, weil das Modell gezielt nur die geänderten Dateien plus direkte Imports analysiert – nicht die gesamte Codebase.
Einschränkung: GPT-5.4 Pro erreicht nicht die Tiefe von Anthropics Architektur-Reasoning. Für Skalierbarkeits-Bewertungen und komplexe Sicherheitsanalysen bleibt es ein Ergänzungs-Tool, kein Ersatz.
Gemini 3.1 Flash Lite: Leichte Architektur-Scans bei 70 % weniger Tokens
Googles Gemini 3.1 Flash Lite Preview ist der Geheimtipp für kosteneffiziente Architektur-Reviews. Das Modell wurde spezifisch für lange Kontextfenster bei niedrigem Token-Verbrauch optimiert.
Warum Gemini 3.1 Flash Lite für Reviews funktioniert:
- Riesiges Kontextfenster: Verarbeitet große Codebases, ohne den Token-Verbrauch proportional zu skalieren
- Architektur-Verständnis: Erkennt Dependency-Zyklen, Service-Boundaries und API-Inkonsistenzen
- Token-Effizienz: Rund 70 % geringerer Token-Verbrauch im Vergleich zu Claude Sonnet 4.6 bei vergleichbaren Architektur-Scans
- Kosten pro Review: $3–$7 für einen vollständigen Architektur-Scan
Praxis-Setup in 4 Schritten:
- Repo-Indexierung: Gemini 3.1 Flash Lite erstellt einen komprimierten Architektur-Graphen der Codebase (einmalig, dann inkrementell)
- Delta-Analyse: Bei neuen PRs analysiert das Modell nur die Änderungen im Kontext des bestehenden Graphen
- Finding-Kategorisierung: Automatische Einstufung in Critical, Warning und Info – nur Critical-Findings gehen an Anthropic weiter
- Report-Generierung: Strukturierter Output im standardisierten Format für die Team-Review-Queue
Dieser Ansatz reduziert die Anzahl der Reviews, die den teuren Anthropic-Pfad durchlaufen müssen, um 60–80 %.
Self-Hosted Llama 3.3 Nemotron: Zero-API-Kosten für Indie-Teams
Für Teams, die ihre GPU-Infrastruktur bereits betreiben oder bereit sind, in Hardware zu investieren, bietet NVIDIAs Llama 3.3 Nemotron Super 49B V1.5 eine radikale Alternative: Null API-Kosten.
Hardware-Anforderungen:
- Minimal: 1× NVIDIA A100 80GB → ~$10.000 (gebraucht) → ~$150
- Empfohlen: 2× NVIDIA A100 80GB → ~$18.000 (gebraucht) → ~$280
- Cloud (AWS): 1× p4d.xlarge Instance → – → ~$800
Break-Even gegenüber Anthropic:
- Bei 50 Reviews/Monat × $20 = $1.000/Monat Anthropic-Kosten
- Self-Hosted Break-Even nach 10–18 Monaten (Hardware) oder sofort bei bestehender GPU-Infrastruktur
- Bei 200+ Reviews/Monat: Break-Even nach 3–5 Monaten
Einschränkungen:
- Architektur-Reasoning erreicht nicht die Tiefe von Claude Sonnet 4.6
- Erfordert DevOps-Expertise für Setup und Wartung
- Modell-Updates müssen manuell eingespielt werden
Für Indie-Teams mit technischer Expertise und bestehender GPU-Infrastruktur ist Llama 3.3 Nemotron die kosteneffizienteste Option. Wer diese Infrastruktur nicht selbst betreiben will, findet bei modularen KI-Agents alternative Architektur-Ansätze.
"Die beste AI-Code-Review-Pipeline nutzt nicht das teuerste Modell für jeden Task – sondern das richtige Modell für den richtigen Task."
Wähle basierend auf der folgenden Entscheidungsmatrix den passenden Stack für dein Team.
"Die effizienteste Review-Pipeline ist die, in der das teuerste Modell nur die schwierigsten 20 % der Aufgaben bearbeitet."
Unsere Empfehlung: Der richtige AI-Code-Review-Stack 2026
Die Frage ist nicht „Anthropic oder nicht?", sondern „Wo im Stack gehört Anthropic hin?". Die Antwort hängt von zwei Achsen ab: Teamgröße und Code-Komplexität.
Entscheidungsmatrix: Teamgröße × Komplexität
- **1–5 Devs**: ✅ Llama 3.3 Self-Hosted oder manuelle Reviews → ✅ Gemini 3.1 Flash Lite + manuelle Spot-Checks → ⚠️ Anthropic nur für Critical-Path-PRs
- **6–20 Devs**: ✅ GPT-5.4 Pro für statische Checks → ✅ Hybrid: Gemini Screening + Anthropic für Flagged PRs → ✅ Anthropic Full-Review mit Gemini Pre-Filter
- **20+ Devs**: ✅ GPT-5.4 Pro + automatisierte Pipelines → ✅ Multi-Model-Pipeline (3-stufig) → ✅ Anthropic als Kern mit Open-Source-Ergänzung
Lesehinweis: ✅ = empfohlen, ⚠️ = situationsabhängig
Hybride Setups: Das Beste aus allen Welten
Das kosteneffizienteste Setup kombiniert Modelle in einer gestuften Pipeline. Hier die Architektur, die sich in unseren Projekten bewährt hat:
Stufe 1 – Screening (Gemini 3.1 Flash Lite): $3–$5
Jede PR durchläuft zuerst einen leichten Architektur-Scan. Gemini kategorisiert Findings in drei Buckets: Routine, Attention, Critical.
Stufe 2 – Statische Analyse (GPT-5.4 Pro): $5–$8
Routine-PRs erhalten einen GPT-5.4-Pro-Check auf Code-Quality, Style und bekannte Vulnerabilities. Rund 70 % aller PRs enden hier.
Stufe 3 – Deep Review (Anthropic Claude Sonnet 4.6): $15–$25
Nur PRs mit „Critical"-Flag oder Architektur-Änderungen durchlaufen das volle Anthropic-Review. Das betrifft typischerweise 20–30 % aller PRs.
Kostenvergleich bei 100 PRs/Monat:
- 100 % Anthropic: $2.000–$2.500 → ⭐⭐⭐⭐⭐
- 100 % GPT-5.4 Pro: $500–$800 → ⭐⭐⭐
- Hybrid-Pipeline (3-stufig): $700–$1.100 → ⭐⭐⭐⭐
| Ersparnis Hybrid vs. Anthropic | 55–60 % | -1 Qualitätsstufe bei Routine-PRs |
Architektur-Empfehlungen: API-Gateways und Caching
Unabhängig vom gewählten Stack gibt es Architektur-Patterns, die deine Review-Kosten weiter senken:
- API-Gateway mit Routing-Logik: Ein zentraler Gateway entscheidet basierend auf PR-Metadaten (Dateien geändert, Lines of Code, betroffene Services), welches Modell den Review übernimmt. Tools wie Kong oder AWS API Gateway eignen sich dafür.
- Kontext-Caching: Repository-Kontexte werden nach dem ersten Review gecacht und bei Folge-Reviews wiederverwendet. Das spart 30–40 % der Input-Tokens bei Re-Reviews und Fix-Iterationen.
- Inkrementelle Analyse: Statt bei jedem Review die gesamte Codebase zu laden, analysiert das System nur den Delta zum letzten Review. Besonders effektiv bei Monorepos mit hoher Commit-Frequenz.
- Finding-Deduplication: Ein Zwischenlayer filtert bereits bekannte und akzeptierte Findings heraus, bevor sie in den Review-Report fließen. Das reduziert False-Positive-Noise und spart Re-Review-Kosten.
Wer diese Patterns in bestehende CI/CD-Pipelines integrieren möchte, findet im Bereich KI-Setup für Unternehmen einen strukturierten Einstieg.
"Die effizienteste Review-Pipeline ist die, in der das teuerste Modell nur die schwierigsten 20 % der Aufgaben bearbeitet."
Fazit
Der $25-Token-Tax von Anthropics AI Code Review erklärt sich durch den enormen Token-Verbrauch von 1–2 Millionen Tokens pro Durchlauf. Die Ironie bleibt bestehen: Wer Claude-generierten Code durch Anthropics eigenes Review schickt, zahlt für dieselben Informationen doppelt – ohne Rabatt, ohne Kontext-Sharing, ohne Bundle-Vorteil.
Die Break-Even-Analyse zeigt ein klares Bild: Ab 10+ Entwicklern und komplexen Architekturen amortisiert sich der AI-Tax schnell gegenüber manuellen Reviews. Für kleinere Teams mit überschaubarer Komplexität bleiben Peer-Reviews oder Self-Hosted-Alternativen die wirtschaftlichere Wahl.
Die größte Hebelwirkung liegt in Multi-Model-Pipelines. Wer Gemini 3.1 Flash Lite als Screening-Layer, GPT-5.4 Pro für statische Checks und Anthropic nur für Critical-Path-Reviews einsetzt, senkt die monatlichen Ausgaben um 55–80 % – bei nahezu gleichbleibender Review-Qualität für die wichtigsten Code-Änderungen.
Dein nächster Schritt: Rechne den Break-Even für dein Team durch. Nimm deine aktuelle PR-Frequenz, multipliziere sie mit $20 und vergleiche das Ergebnis mit deinen manuellen Review-Kosten. Liegt das Ergebnis über deinem Budget, starte mit einer zweistufigen Hybrid-Pipeline – Gemini-Screening plus Anthropic für Flagged PRs. Die Kostenersparnis zeigt sich ab dem ersten Monat.


