Die Zahlen sind bekannt, werden aber in ihrer strategischen Tiefe oft nicht verstanden: Nach Analysen von SparkToro (Rand Fishkin) und Similarweb gehen inzwischen 58–65 % aller Google-Suchen in den USA und der EU ohne Klick auf ein organisches oder bezahltes Ergebnis zu Ende. Der Nutzer bekommt die Antwort in der SERP, in einem Featured Snippet, in einem Knowledge Panel, in AI Overviews — und schließt den Tab.

Das klassische SEO-Reporting behandelt diesen Zustand als Verlust. Klicks sinken, CTR sinkt, organic Sessions in GA4 sinken. Die Marketing-Dashboards leuchten rot. Die CFOs stellen unangenehme Fragen. Und viele SEO-Teams versuchen, das Spiel mit Taktiken zurückzugewinnen, die in diesem Messsystem gar nicht mehr messbar sind.

Die strukturelle Fehl-Messung

Der zentrale Denkfehler: CTR wurde entwickelt als Proxy für Reach in einer Welt, in der der Klick der einzige Beweis für erfolgreiche Vermittlung war. In der heutigen SERP ist Reach eine andere Größe. Ein Nutzer, der die Antwort im Featured Snippet liest und mit dem Brand-Logo das Produkt assoziiert, hat mehr Engagement mit der Marke als ein Klick auf ein langweiliges Bounce-Page-Erlebnis.

Was klassisches Analytics nicht misst:

„Traffic ist nicht der Zweck der Suche, sondern eine Messgröße aus einer Ära, in der es keinen besseren Proxy für Markt-Relevanz gab. In der KI-Suche brauchen wir präzisere Maße — und wir haben sie."

Das neue KPI-Set: Sieben Metriken, die wirklich zählen

Auf Basis der Arbeit mit Enterprise-Kunden und akademischer Forschung zu AI-Search-Impact hat sich ein Set von sieben Metriken etabliert, das die tatsächliche Markt-Wirkung von Suche umfassend abbildet.

1. Share-of-Model

Prozentsatz relevanter Prompts, bei denen die eigene Marke in LLM-Antworten genannt wird — im Vergleich zum Wettbewerber-Set. Gemessen über Prompt-Audits gegen ChatGPT, Claude, Perplexity und Gemini. Benchmark: Tier-1-Brands in etablierten Kategorien erreichen 25–45 % Share-of-Model.

2. Prompt Visibility Index (PVI)

Gewichteter Durchschnitt aus Nennungshäufigkeit, Positionierung in der Antwort (am Anfang? Hauptempfehlung? Sekundäre Erwähnung?) und Sentiment-Kontext. Der PVI verdichtet Prompt-Audit-Daten zu einem einzelnen Tracking-Wert.

3. Brand Search Lift (BSL)

Monatliches Wachstum der Brand-Queries im Verhältnis zum nicht-branded organischen Traffic. Wenn SEO-Maßnahmen wirken, aber keine direkten Klicks bringen, zeigt sich das in steigenden Brand-Searches. Datenquellen: Google Search Console (brand query filter), Google Trends, Ahrefs Brand Index.

4. Citation Rate

Anteil der Top-Queries einer Kategorie, bei denen die eigene Marke als Zitation in AI Overviews oder LLM-Antworten erscheint. Anders als Share-of-Model: Hier geht es um Quell-Attribution mit Link, nicht um bloße Nennung.

5. SERP-Footprint-Coverage

Prozentsatz der SERP-Fläche (in Pixel gemessen), die von der eigenen Marke in den Top-10-Ergebnissen eingenommen wird — inklusive organischer Snippets, Featured Snippets, Knowledge Panels, Sitelinks, News-Boxen. Ein visueller Reach-Index, der CTR-Blindness vermeidet.

6. Attribution Adjusted ROAS

ROAS-Berechnung, die Indirect Traffic (Direct-Type-In, later brand searches, cross-device conversions) den SEO-Aktivitäten zuweist — basierend auf kontrollierten Incrementality-Tests über 4–12-Wochen-Zeitfenster.

7. LLM-Referred Traffic

Session-Traffic mit Referrer von chat.openai.com, perplexity.ai, claude.ai, gemini.google.com. Noch kleine Volumina, aber mit sehr hohen Conversion-Raten (typisch 3–8× höher als organic-average, da Intent qualifizierter ist). Wächst je nach Branche 15–35 % pro Quartal.

65%

Zero-Click-Rate in US-Suchen (SparkToro 2025)

3–8×

höhere Conversion-Rate von LLM-referred Traffic vs. Organic

+23%

Brand-Search-Lift durch SERP-Feature-Dominanz (12-Monats-Kohorte)

Implementierungs-Framework: Messung in der Praxis

Phase 1: Baseline etablieren (Monat 1)

Phase 2: Tracking-Infrastruktur (Monat 2)

Phase 3: Attribution-Testing (Monat 3–6)

Operator Insight

Die Stakeholder-Kommunikation, die den Unterschied macht

Viele SEO-Teams scheitern nicht an den neuen Messgrößen, sondern an der Kommunikation mit CFO und CMO. CEOs wollen keine 7 neuen KPIs sehen — sie wollen Business-Impact. Die Lösung: Ein North-Star-KPI („Kategorie-Share-of-Mind-in-AI") mit drei unterstützenden Metriken (Share-of-Model, Brand-Search-Lift, LLM-Referred-Revenue). Komplexität im Operator-Dashboard, Einfachheit im Executive-Reporting.

Warum die meisten Agenturen dieses Framework nicht liefern

Die ehrliche Diagnose: Die klassische SEO-Agentur-Ökonomie ist auf Deliverables ausgerichtet, die sich leicht abrechnen lassen — Keywords, Rankings, Klicks. Die neuen KPIs erfordern kontinuierliches Prompt-Monitoring, Attribution-Modellierung und Business-Intelligence-Integration. Das ist arbeitsintensiver, erfordert andere Skills und lässt sich nicht in Standard-Reporting-Templates gießen.

Enterprise-Organisationen, die mit ihren SEO-Partnern weiter in CTR und Ranking denken, subventionieren eine Messphilosophie, die nicht mehr die Realität der Suche abbildet. Die Konsequenz ist selten ein abrupter Einbruch — sondern ein langsames Auseinanderdriften zwischen gemessener und tatsächlicher Markt-Relevanz.

Das Attribution-Mathematik-Kapitel: die vollständige Rechnung

Ein Beispiel, das die Tragweite zeigt. Eine B2B-SaaS-Domain misst im klassischen Dashboard einen Monat mit 12.400 organischen Sessions, 183 MQLs, CPL von 112 EUR. Pipeline-Value laut Sales-Attribution: 184.000 EUR. SEO-Budget 18.000 EUR/Monat. ROI laut Finance: 10,2×. Zufriedenes Reporting.

Real-World-Rechnung mit kompletter Attribution:

Direkt organisch gemessene Sessions:                         12.400
  davon Brand-Queries:                                          4.880
  davon Non-Brand:                                             7.520

Dunkelfeld (methodisch geschätzt):
+ Zero-Click-Impressions mit Marken-Exposition (AIO):         38.200
+ LLM-generierte Nennungen (ChatGPT/Claude/Perplexity):      ~14.600
+ Perplexity-Citation-Traffic (direct, ohne Referrer):          ~920
+ „Direct"-Sessions, die LLM-induziert sind:                  ~2.200

Marken-Exposure-Events gesamt:                               68.320

Korrigierter effektiver CPM (gegen Display-Benchmark 12 EUR):
18.000 EUR / 68.320 Exposures × 1000 = 263 EUR CPM roh
— aber: Branded-Exposure-Quality ≈ 4,5× Display-Baseline
→ effektiver CPM: ~58 EUR (gegen Display-CPM 12–22 EUR)

+ Attribution-korrigierte MQLs (inkl. indirekter Beiträge):    +41
→ Effektive MQLs: 224 (nicht 183)
→ Effektiver CPL: 80 EUR (nicht 112 EUR)
→ Effektiver ROI: 14,8× (nicht 10,2×)

Das ist der Unterschied zwischen „SEO ist teuer geworden" (klassische Messung) und „SEO ist in Wahrheit 45 % unterberichtet" (vollständige Attribution). Wer das Executive-Board mit ROI-Zahlen aus 2019er-Methodik versorgt, unterinvestiert systematisch in den Kanal mit dem besten Hebel.

Die Share-of-Model-Berechnung im Detail

Share-of-Model (SoM) ist der zentrale Leitindikator für Brand-Präsenz in generativen Engines. Die Formel:

SoM = (Brand-Mentions / Gesamt-Brand-Mentions im Prompt-Set) × 100

Prompt-Set:    100–300 kategorie-relevante Prompts
Pro Prompt:    3–5 Wiederholungen, um Stochastik zu glätten
Pro Modell:    getrennte Berechnung (GPT, Claude, Gemini, Perplexity)
Gesamt-SoM:    gewichteter Mittelwert nach realer Nutzerverteilung

Gewichtung (Stand 2026, EU):
GPT (OpenAI):      52 %
Gemini:            22 %
Claude:            11 %
Perplexity:        10 %
Andere:             5 %

Benchmark aus unserem Portfolio: Category Leader haben SoM > 35 %, gesunde Challenger 15–25 %, unsichtbare Marken < 5 %. Die Kurve ist nichtlinear: Ein Sprung von 8 % auf 15 % ist deutlich einfacher als von 25 % auf 35 %. Die letzten 10 Prozentpunkte kosten erfahrungsgemäß 3× so viel Content- und Entity-Arbeit wie die ersten 10.

PVI-Scoring: die Prompt-Visibility-Berechnung

Der Prompt Visibility Index (PVI) aggregiert drei Signale pro Prompt:

PVI_prompt = (0,5 × Mention) + (0,3 × Position) + (0,2 × Sentiment)

mit:
Mention  = 1 wenn Marke genannt, sonst 0
Position = 1,0 (erste Nennung) / 0,6 (mittig) / 0,3 (spät)
Sentiment = 1,0 positiv / 0,5 neutral / 0,0 negativ / -0,5 hedge

PVI_portfolio = Σ(PVI_prompt × prompt_weight) / Σ(prompt_weight)
prompt_weight = Business-Value × Such-Frequenz

Ein PVI_portfolio > 0,55 ist ein Indikator für belastbare Marken-Präsenz. Werte unter 0,25 sollten ein Reputation- oder Content-Alarm auslösen.

Tutorial: Executive-Dashboard in 4 Wochen

Woche 1 — Data-Sources verbinden

GA4 mit BigQuery-Export, GSC mit BigQuery-Export, Prompt-Monitoring-Tool (Profound/Otterly) per API, Brand-Search-Volume via DataForSEO API, CRM-Export via Warehouse-Pipeline. Orchestrierung mit einem simplen Python-Script oder via dbt.

Woche 2 — Metric-Layer

In einer BI-Schicht (Looker/Metabase/Tableau) die 7 KPIs als First-Class-Metrics definieren: SoM, PVI, BSL, CiteRate, SERP-Footprint, ROAS-adj, LLM-Ref. Jede Metric bekommt eine eindeutige Definition, Datenquelle, Aktualisierungsfrequenz.

Woche 3 — Dashboards

Zwei Ebenen: Ein Executive-Dashboard (3 Haupt-Tiles, klare Trendpfeile, Vergleich Vorjahr) und ein Operator-Dashboard (alle 7 KPIs, segmentiert nach Produktlinie/Markt/Query-Typ). Target: max. 30 Sekunden Verstehenszeit für Executive, max. 3 Minuten für Operator.

Woche 4 — Review-Rhythmus

Monatliche Reviews mit festem Agenda-Template: KPI-Bewegungen, Ursachen-Analyse, nächste Hebel. Einbindung in bestehende Marketing-Controlling-Meetings. Kein separates „SEO-Meeting" mehr — die Metriken gehören ins Gesamt-Marketing-Reporting.

Häufige Fehler beim Aufbau des neuen KPI-Systems

Operator Insight

Die 90-Tage-Regel für Attribution

Alle neuen KPIs zeigen ihre Wirkung frühestens nach 90 Tagen stabil. In den ersten 6–8 Wochen sieht man viel Rauschen: Prompt-Stochastik, LLM-Update-Zyklen, Trainings-Refresh. Wer in diesem Fenster panisch nachjustiert, zerstört das Signal. Disziplin: Rolling-90-Tage-Fenster für alle Trendaussagen, keine Entscheidungen auf Wochendaten.

Fazit

Zero-Click ist kein Problem, das gelöst werden muss. Es ist eine neue Realität, die ein angepasstes Messsystem erfordert. Marken, die das Messsystem heute umstellen, werden in zwei Jahren klar sehen, wo sie stehen — während ihre Wettbewerber weiter „sinkende Klicks" beklagen und den tatsächlichen Markt-Impact ihrer Suchstrategie nicht mehr erkennen.

Die Frage ist nicht: „Wie hole ich die Klicks zurück?" Sondern: „Wie messe ich das, was jetzt den Markt bewegt?"