Diagnose — Generative Engine Optimization

Wie oft zitiert ChatGPT Ihre Marke — wirklich?

Als International SEO & AI Strategist biete ich Ihnen das GEO-Audit als festen Scope an: Ich messe die Sichtbarkeit Ihrer Marke in AI Overviews, ChatGPT, Perplexity, Copilot und Gemini — über 2.000+ Prompts pro Quartal. Sie erhalten von mir Citation-Rate-Baseline, Entity-Diagnose, Retrieval-Score und einen priorisierten 90-Tage-Interventionsplan. Lieferzeit: 3–4 Wochen.

Abgedeckte Systeme
Google AIO ChatGPT Perplexity Copilot Gemini Claude
Murat Ulusoy — GEO-Audit
Diagnose-Service
„Ohne Messung ist GEO Religion. Mit Messung ist es Strategie."
Murat Ulusoy
CEO · Head of SEO · SUMAX
Modelle6+
2.000+
Prompts / Audit
6
AI-Suchsysteme
8
Mess-Dimensionen
3–4 Wo
Lieferzeit
01 — Das Problem

Sie ranken auf Position 1 — und werden trotzdem nicht zitiert.

AI Overviews, ChatGPT-Search, Perplexity und Copilot ziehen Antworten aus anderen Kriterien als klassische SERPs. Ein Dokument kann perfekt ranken und trotzdem nie als Citation erscheinen. Umgekehrt zitieren LLMs oft Quellen, die in klassischen Rankings gar nicht sichtbar sind. Wer nicht misst, optimiert blind.

◎ Was klassische Tools nicht sehen

GSC zeigt Impressions — nicht Citations.

Google Search Console zählt SERP-Impressions. AI Overviews-Zitationen werden teilweise als Impression gezählt, teilweise als Traffic-Verlust — ohne sauberes Delta. ChatGPT, Perplexity, Claude liefern gar keine Analytics. Die Sichtbarkeit in diesen Systemen ist ein Blindspot, den klassische Toolchains strukturell nicht auflösen.

Ein GEO-Audit schließt diese Lücke durch kontrolliertes Prompt-Sampling, Cross-Model-Extraktion und systematische Attribution auf Ursachen-Ebene: Entity-Substrat, Passage-Qualität, Passage-Ranking-Position und Knowledge-Graph-Reife.

◆ Was im Audit gemessen wird

Acht Mess-Dimensionen. Reproduzierbar.

  • ◦ Citation-Rate pro Modell & Prompt-Cluster
  • ◦ AI Answer Rate (AAR) & Position in Antwort
  • ◦ Entity-Salience via Wikidata & Schema-Graph
  • ◦ Passage-Citability-Score (0–100)
  • ◦ Retrieval-Distance zu Ziel-Embeddings
  • ◦ Source-Origin-Breakdown (Own vs. Third-Party)
  • ◦ Wettbewerber-Citation-Share
  • ◦ Halluzinations- und Fakten-Drift-Rate
02 — Methodik

Vier Phasen. Reproduzierbare Daten.

Jeder Schritt ist dokumentiert, jeder Score bis auf die Quelldaten zurückverfolgbar. Keine „gefühlten" Insights, keine Stichproben ohne Konfidenzintervall.

● GEO-Intelligence Engine — Live

Rohdaten
aus sechs Modellen.

Prompt-Sampling über kontrollierte Zeitfenster, Model-Temperature-Normalisierung, Geo-IP-Kontrolle (DACH vs. international), Personalisierungs-Isolation. Jede Antwort wird extrahiert, tokenisiert, attribuiert. Source-Links, Zitations-Position und Entity-Mentions werden strukturiert gespeichert — nicht geschätzt.

Prompt-CoverageBrand · Category · Longtail
92%
Cross-Model-ParitätGPT · Claude · Gemini · Perplexity
88%
Entity-Graph-TiefeWikidata + sameAs
76%
Retrieval-Signal-KlarheitEmbedding-Kohärenz
81%
01

Prompt-Architektur

Entwicklung einer branchen- und entitäts-spezifischen Prompt-Matrix: 2.000+ Queries aus Brand-, Category-, Use-Case-, Longtail- und Wettbewerber-Achsen. Jeder Prompt ist einer Hypothese zugeordnet und reproduzierbar versioniert.

Prompt-MatrixVersioningHypothesis-Mapping
02

Multi-Model-Extraktion

Parallele Abfrage über GPT, Claude, Gemini, Perplexity, Copilot und AIO in kontrollierten Zeitfenstern. Antworten werden strukturiert abgelegt — Source-Links, Zitations-Position, Entity-Mentions, Halluzinations-Flags.

Multi-ModelTime-ControlStructured Capture
03

Entity- & Passage-Diagnose

Abgleich der Marken-Entity mit Wikidata-Status, Schema-Graph-Konsistenz, sameAs-Reife. Passage-Level-Scan bestehender Top-URLs auf Chunking, Claim-Evidence-Struktur und Out-of-Context-Lesbarkeit.

Entity-GraphSchema-AuditPassage-Scan
04

Priorisierung & Roadmap

Interventionen werden mit Eintrittswahrscheinlichkeit, Effort-Klasse und erwartetem Citation-Delta gewichtet. Sie erhalten keine Liste mit 200 Punkten, sondern eine priorisierte 90-Tage-Roadmap mit attribuierbaren Outcomes.

P(Impact)Effort-Klasse90-Day-Plan
03 — Deliverables

Was Sie am Ende in der Hand haben.

Sechs überprüfbare Artefakte. Keine „Empfehlungs-Charts" ohne Datenbasis.

01 / Artefakt

Citation-Baseline

Ihre aktuelle Citation-Rate pro Modell, pro Prompt-Cluster, pro Wettbewerber. Mit Konfidenzintervall und Drift-Tracking-Hook.

02 / Artefakt

Entity-Diagnose

Wikidata-Status Ihrer Marke, sameAs-Cluster-Analyse, Disambiguation-Risiken, Schema-Graph-Lücken. Mit konkretem Interventionsplan.

03 / Artefakt

Passage-Score-Register

Top-50-URLs mit Passage-Citability-Score, Retrieval-Distance-Benchmark und spezifischen Rewrite-Empfehlungen auf Chunk-Ebene.

04 / Artefakt

Wettbewerber-Benchmark

Citation-Share-of-Voice gegen drei bis fünf direkte Wettbewerber, mit Entity-Reife-Vergleich und Gewinnwahrscheinlichkeits-Matrix.

05 / Artefakt

90-Tage-Roadmap

Priorisierte Interventionsliste mit Effort-Klasse, Eintrittswahrscheinlichkeit und erwartetem Citation-Delta pro Maßnahme.

06 / Artefakt

Board-Executive-Brief

12-seitiges Executive-Summary für CEO/CMO: Risiko, Opportunität, Investment, erwarteter Business-Impact — ohne SEO-Jargon.

04 — Zielgruppe

Wann ein GEO-Audit den Unterschied macht.

Nicht jede Marke braucht diesen Audit heute. Diese vier Profile holen den höchsten Return — messbar in Traffic-Substitution und Brand-Protection.

Enterprise mit eroniertem SEO-Traffic

Wer in den letzten 12 Monaten spürbare Click-Einbußen auf informationalen Seiten sieht, braucht AIO-Substitutions-Messung — nicht noch eine Content-Refresh-Welle.

Marken mit Knowledge-Panel-Lücken

Ohne stabiles Knowledge Panel und saubere Entity-Reife bleibt jede LLM-Zitation Glücksache. Das Audit diagnostiziert die Ursache.

B2B-Scale-Ups mit technischem Produkt

Wenn Ihre Zielgruppe ChatGPT, Claude und Perplexity statt Google nutzt, entscheiden Citations über Pipeline — nicht SERP-Rankings.

CMOs mit KPI-Druck auf AI Search

Wer dem Board bis Q3 belastbare AI-Visibility-Zahlen liefern muss, bekommt hier das strukturierte Baseline-Asset — inklusive Attribution.

05 — Tiefer einsteigen

Fundament für das Audit.

Ergänzende Leistungen und Insights, die das GEO-Audit operationalisieren.

06 — FAQ

Häufige Fragen zum GEO-Audit.

Was ist ein GEO-Audit?+

Ein GEO-Audit misst, wie häufig und unter welchen Prompts Ihre Marke in generativen Suchsystemen (Google AI Overviews, ChatGPT, Perplexity, Copilot, Gemini) zitiert wird. Er liefert Citation-Rate, Entity-Salience-Score, Passage-Citability-Score und einen priorisierten Maßnahmenplan.

Wie unterscheidet sich das vom klassischen SEO-Audit?+

Ein SEO-Audit prüft Crawlability, Indexierung und Rankings. Ein GEO-Audit prüft Zitierfähigkeit in LLM-Antworten — über Passage-Chunking, Entity-Graph, Wikidata und Retrieval-Scoring. Beide Audits sind komplementär, nicht substitutiv.

Wie lange dauert das Audit?+

Standard-Lieferzeit: 3 bis 4 Wochen. Prompt-Sampling und Multi-Model-Extraktion laufen 10 bis 14 Tage, die Auswertung und Priorisierung weitere 10 Tage.

Wie viele Prompts werden getestet?+

Standard: 2.000+ Prompts pro Quartal. Die Prompt-Menge ist statistisch ausreichend, um Citation-Rate mit Konfidenzintervall auszuweisen.

Welche Modelle werden abgedeckt?+

Standard: Google AI Overviews, ChatGPT (Web-Search), Perplexity, Microsoft Copilot, Google Gemini. Optional: Claude (Web-Access), You.com, Brave Leo.

Wird Wettbewerb mitgemessen?+

Ja. Jeder Prompt wird mit Wettbewerber-Zitationen gegenübergestellt. Sie erhalten Citation-Share-of-Voice und Entity-Reife-Vergleich gegen drei bis fünf direkte Wettbewerber.

Let's talk

Wie gut sind Sie wirklich sichtbar?

30 Minuten. Wir prüfen eine Stichprobe Ihrer Brand-Prompts live über vier Modelle — kostenlos, ohne Vertragsverhandlung. Sie sehen das Baseline-Niveau, wir sprechen über Lücken und Scope.