Wer ein SaaS baut, kommt um Wettbewerbsanalyse nicht herum. Welche Features haben die anderen? Was kostet ihr Tier 2? Wo ist meine echte Differenzierung?
Früher habe ich das so gemacht: Konkurrenz-Liste in einer Notion-Tabelle, einmal im Quartal alle Webseiten manuell durchklicken, Pricing notieren, ein paar Hilfeseiten lesen. Das dauerte einen halben Tag pro Wettbewerber, war beim dritten schon mühsam und beim sechsten unzuverlässig.
Seit ein paar Monaten nutze ich Claude (Sonnet 4.6 mit Web-Browse) für die Erstanalyse. Was nicht funktioniert ist „mach mir eine Wettbewerbsanalyse von X". Das produziert generischen Brei. Was funktioniert, ist ein strukturierter Prompt mit klaren Output-Anforderungen. Hier ist, wie ich vorgehe.
Der Prompt-Block#
Den verwende ich als Template für jeden Konkurrenten:
Du bist ein Tech-Analyst, der eine kompakte Wettbewerbsanalyse erstellt.
ZIEL: Wettbewerber {{COMPANY}} ({{URL}}) für unser Produkt
"{{OWN_PRODUCT_SHORT_DESC}}" einordnen.
QUELLEN, die du systematisch durchgehst:
1. Homepage: USPs, Headline, Hero-CTA
2. Pricing-Seite: Tier-Struktur, Preise, was inkludiert ist
3. Help-Center oder Docs: zwei aktuelle Artikel deiner Wahl
4. Changelog oder Release-Notes der letzten 6 Monate
5. LinkedIn-Profile des Founders (wenn auffindbar)
6. App-URL, falls separates Subdomain (z.B. app.example.com)
OUTPUT (Markdown, exakt diese Sektionen):
## 1. Unternehmensprofil
| Aspekt | Details |
|---|---|
| Produkt | ... |
| URL | ... |
| Zielgruppe | ... |
| Team-Größe (LinkedIn) | ... |
| Tech-Stack (sichtbare Hinweise) | ... |
| Positionierung | ... |
| USP | ... |
## 2. Anwendungsfälle
- Liste der konkreten Use-Cases von der Homepage
## 3. Pricing-Vergleich
| Tier | Preis | Was ist inkludiert |
|---|---|---|
## 4. Feature-Matrix vs unser Produkt
| Feature | Sie | Wir | Notiz |
|---|---|---|---|
## 5. Strategische Einordnung
- Wo sind sie stark
- Wo sind sie schwach
- Wo wir besser positioniert sind
- Was wir von ihnen lernen sollten
## 6. Risiko-Score
- Bedrohung für unser Geschäft (1 bis 5)
- Begründung in 2 Sätzen
REGELN:
- Keine Spekulation. Wenn du etwas nicht verifizieren kannst, schreib "nicht öffentlich verfügbar".
- Keine generischen Hype-Phrasen.
- Konkrete Zahlen wo immer möglich.
- Wenn die Pricing-Seite nicht alle Tiers zeigt (manchmal "Contact Us"), markiere das explizit.
Das produziert in 12-18 Minuten ein 5-Seiten-Dokument, das ich in 80% der Fälle direkt verwenden kann. Die restlichen 20% brauche ich Korrekturen, weil Claude einen kleinen Faktor übersehen oder zu enthusiastisch eingeordnet hat.
Warum Claude mit Web-Browse, nicht GPT#
Ich habe beide getestet. Die Output-Qualität ist vergleichbar. Was bei Claude besser ist: die Kalibrierung der Sicherheit. Wenn Claude etwas nicht verifizieren kann, sagt er das deutlich („auf der Homepage nicht sichtbar", „LinkedIn-Profil zeigt 11 Mitarbeiter, könnte aber nicht das vollständige Team sein"). GPT hat eine stärkere Tendenz zu konfidenter Inferenz, was bei Wettbewerbsanalyse riskant ist, weil ich basierend darauf Strategie-Entscheidungen treffe.
Konkret: in der Wettbewerbsanalyse von Fonio.ai (deutscher Voice-Agent-Anbieter) hat Claude erwähnt, dass das Team auf der Pricing-Seite mit Vornamen sichtbar ist (Benedikt, Steve, Max, Cri), aber die Funktionen nicht aufgelistet werden. GPT hätte vermutlich versucht, daraus „CEO/CTO/Sales/Marketing"-Rollen abzuleiten. Claude lässt es offen.
Der Cost-Faktor#
Pro Analyse zahle ich etwa 0,40 bis 0,70 €. Das skaliert nicht, wenn ich täglich Konkurrenten checke. Aber für einen Quartals-Review von 8 bis 12 Wettbewerbern ist das 5 € Total. Damit habe ich einen halben Tag Recherche-Arbeit ausgelagert.
Ein Detail, das den Cost halbiert: Caching der Sources. Wenn ich denselben Wettbewerber quartalsweise erneut analysiere, gebe ich Claude die letzte Analyse als Kontext mit:
Hier ist die letzte Analyse von 2026-Q1:
{{LAST_ANALYSIS_MARKDOWN}}
Crawle die Webseite jetzt erneut und produziere ein DIFF-Dokument:
- Was hat sich geändert (Pricing, neue Features im Changelog,
Personal-Wechsel)
- Wo haben sie aufgeholt
- Wo sind sie zurückgefallen
Gleicher Output-Schema wie oben.
Das macht den nächsten Quartals-Lauf deutlich schneller, weil Claude nicht jedes Mal von Null anfängt.
Was ich nicht damit mache#
Sentiment-Analyse von Reviews. G2 oder Capterra haben anti-bot-Protections, und Claude scheitert oft am Crawl. Plus die Review-Texte sind oft so kurz, dass die Aussage statistisch nicht belastbar ist.
Pricing-Inferenz aus Job-Listings. Manche tun das („sie suchen einen Senior-Engineer mit 80k Gehalt, also haben sie X Mitarbeiter und Y Umsatz"). Das ist ein interessantes Spiel, aber die Inferenz-Kette ist zu lang. Claude akzeptiert das richtigerweise als „Spekulation, nicht im Output enthalten".
Wirklich tiefe Tech-Stack-Analyse. Wer die echte Architektur hinter einer SaaS-App rauskriegen will, braucht mehr als Web-Crawling. Network-Inspector, BuiltWith, Source-Map-Analyse. Das ist eine andere Größenordnung von Aufwand und nicht das, wofür Claude geeignet ist.
Wie ich das in den Operator-Workflow einbaue#
Bei mir liegt der Prompt als Markdown-Datei in einem Repo. Wenn ich einen Wettbewerber neu hinzufüge, kopiere ich den Prompt, füge URL und Eigen-Produkt-Beschreibung ein, lass Claude laufen, speichere den Output unter competitive/2026-MM-DD-<company>.md.
Nach 6 Monaten habe ich einen Korpus von 15 bis 20 Analysen, der eine eigene Aussagekraft entwickelt. Trends werden sichtbar: drei Wettbewerber haben in den letzten zwei Quartalen Voice-Agent-Features gelauncht, also ist das ein Markttrend, kein Einzelfall. Solche Muster kommen erst über Zeit zum Vorschein.
Was du heute tun kannst#
Wenn du noch keine systematische Wettbewerbsanalyse hast, ist der Prompt oben ein 30-Minuten-Setup. Du brauchst Claude Sonnet mit Web-Browse (über die Anthropic-API mit web_search Tool, oder über OpenRouter mit online-Suffix wie claude-sonnet-4-6:online falls vorhanden).
Drei Wettbewerber durchanalysieren, das Output anschauen, und du weißt, ob das Pattern für dich funktioniert. Bei mir hat es einen ganzen Quartals-Review-Tag ersetzt.