Die Diskussion um AI Overviews wird in der deutschen SEO-Community oft emotional geführt — zwischen Panik und Ignoranz. Die Datenlage erlaubt inzwischen einen nüchternen Blick. Basierend auf aggregierten Auswertungen aus Google Search Console (GSC) über mehr als 500 Enterprise-Domains in DACH, EU und den USA im Zeitraum Juni 2024 bis Februar 2026 lässt sich eine klare Struktur erkennen: Informational Queries verlieren zwischen 28 und 41 % ihres organischen Klickvolumens — bei konstanten oder sogar steigenden Impression-Werten und unveränderten Position-1-Rankings.

Dieser Beitrag ordnet die Daten ein, zeigt welche Query-Cluster besonders betroffen sind, und skizziert ein neues Mess-Framework, mit dem Enterprise-Brands den tatsächlichen Impact steuern können.

Die strukturelle Verschiebung — nicht ein Algorithmus-Update

Der entscheidende Unterschied zu allen SEO-Ereignissen der letzten 20 Jahre: AI Overviews sind kein Ranking-Faktor. Sie sind eine SERP-Strukturveränderung. Google generiert eine Antwort auf Basis mehrerer ausgewählter Quellen und platziert diese oberhalb der klassischen blauen Links. Der Nutzer bekommt die Antwort — und klickt häufig nicht mehr.

Eine 2024er Studie von Authoritas (18.000 Queries, 160 Keywords) und die 2025er Analyse von Seer Interactive (10.000 Keywords) zeigen übereinstimmend: Wenn AI Overviews erscheinen, sinkt die Click-Through-Rate auf Position 1 im Median um 34,5 %. In einzelnen Query-Typen (How-To, Definitionen, Vergleiche) sind Rückgänge bis 64 % dokumentiert.

47%

der informationalen Queries zeigen AI Overviews (Feb 2026)

−34,5%

durchschnittlicher CTR-Verlust auf Position 1 bei AIO

+18%

Impression-Wachstum trotz Klick-Rückgang

Welche Query-Typen besonders betroffen sind

Die Absorptionsrate ist nicht gleichmäßig verteilt. Die stärksten Rückgänge zeigen sich in folgenden Clustern:

Deutlich geringer oder gar nicht betroffen sind: transaktionale Queries, Marken-Queries, lokale Queries mit Map-Intent und hochspezifische B2B-Longtails. Hier zeigt Google AIO seltener — weil die Unsicherheit über die richtige generative Antwort zu groß ist.

Der versteckte Upside: Brand Citation statt blauer Link

Was in der Click-Panik übersehen wird: AI Overviews zitieren Quellen — sichtbar, mit Logo und Markennamen. Eine Analyse von Profound.ai (Januar 2026, 1,2 Mio Prompts) zeigt, dass zitierte Brands im AIO eine signifikante Brand-Recall-Steigerung um 23 bis 41 % erzielen — messbar über Post-Exposure-Brand-Lift-Tests. Der Klick geht verloren, die Markenwahrnehmung gewinnt.

Das ist eine fundamentale Verschiebung der Funktion von Suchergebnissen: von direkter Traffic-Quelle zu Markenbildungskanal. Wer in AIO zitiert wird, kauft sich Awareness, die klassische Display-Kampagnen nicht in dieser Präzision liefern. Wer nicht zitiert wird, verschwindet aus der Wahrnehmung — auch wenn das Ranking auf Position 1 bleibt.

„Das klassische SEO-KPI-Set misst zunehmend die falsche Ebene. Wer weiter Klicks optimiert, während der Wettbewerb in AI-Citations investiert, verliert Markenwahrnehmung — langsam, aber strukturell."

Das neue KPI-Framework: vier Metriken, die Enterprise-Brands jetzt brauchen

Auf Basis der Kundenarbeit der letzten 18 Monate hat sich bei SUMAX ein Set von vier zentralen KPIs etabliert, die den Impact von AI-Search präzise messen:

1. Citation Rate

Prozentsatz der relevanten Ziel-Queries, bei denen die Marke als Quelle in AI Overviews erscheint. Messbar über Tools wie Profound, Otterly.ai oder manuell über Query-Sampling. Zielmetrik: Mindestens 35 % für Tier-1-Brands, 55 %+ für Category Leaders.

2. Brand Mention Density (BMD)

Anteil der generativen Antworten, in denen die Marke namentlich genannt wird — auch ohne direkte Zitation. LLMs paraphrasieren oft Inhalte, ohne die Quelle zu verlinken. Diese „orphan mentions" sind für klassisches SEO unsichtbar, erzeugen aber Recognition. Tracking via Share-of-Voice-Tools über ChatGPT, Claude, Perplexity, Gemini.

3. Passage Coverage Score

Welcher Anteil der eigenen Top-Content-Passagen wird von generativen Systemen als zitierfähig erkannt? Gemessen über Passage-Extraction-Tests: simulierte RAG-Queries gegen eigenen Content mit Bewertung der semantischen Dichte, Entity-Coverage und Quotability-Score.

4. Attribution Lift

Der messbare Branded-Search-Uplift nach AIO-Visibility-Maßnahmen. Da direkte Klicks verloren gehen, muss der Impact über indirekte Signale gemessen werden: Brand-Search-Volume (Ahrefs, Semrush), Direct-Type-In-Traffic (GA4), und kontrollierte Incrementality-Tests über Zeitfenster.

Operator Insight

Die unsichtbare Gewinner-Gruppe

In unseren Enterprise-Cohorts gibt es eine auffällige Minderheit (ca. 8 % der Domains), bei denen der Klick-Rückgang durch einen überproportionalen Branded-Search-Zuwachs mehr als kompensiert wird. Gemeinsamer Nenner: konsequente Entity-Arbeit, strukturierte Daten im Umfang von Schema.org/DefinedTerm + FAQPage, und hohe Authority-Signale in LLM-Trainingsquellen (Wikipedia, Wikidata, qualifizierte Fachmedien). Diese Marken verlieren Klicks — und gewinnen Markenrelevanz.

Was Enterprise-Brands jetzt konkret tun sollten

Die strategische Antwort auf AI Overviews ist nicht Defensive. Es ist eine Neuausrichtung der Content- und Messsysteme.

Schritt 1: Query-Cohort-Analyse durchführen

Alle Top-1000-Keywords nach Query-Typ segmentieren (informational, transactional, navigational, commercial). Für jede Cohort die 12-Monats-CTR-Entwicklung analysieren. Die Cluster, in denen CTR trotz konstanter Position gesunken ist, sind die AI-Overview-Verluste.

Schritt 2: Citation-Readiness-Audit

Jede betroffene Top-Seite gegen die Zitations-Kriterien von LLMs prüfen: Passage-Struktur, Entity-Dichte, Schema-Implementierung (insbesondere DefinedTerm, HowTo, FAQPage, Article mit author und publisher), Autoren-Expertise-Signale, Referenzierung von Primärdaten.

Schritt 3: Messystem umstellen

Neue KPIs parallel zur klassischen Reporting-Kette einführen. Monatliches Monitoring der Citation Rate und Brand Mention Density für die 200 wichtigsten Ziel-Queries. Integration in Executive-Dashboards.

Schritt 4: Content-Priorisierung verschieben

Content für verlorene Informational-Queries nicht aufgeben — aber anders aufstellen. Fokus auf: zitierfähige Passagen, originale Daten und Studien, konkrete Zahlen und Beispiele, klare Definitionen in kurzen Absätzen. LLMs bevorzugen strukturierte, faktische, unhandgewedelte Informationen.

Die Mathematik hinter dem Klick-Verlust — exakte Berechnung

Wer den Impact von AI Overviews seriös bewertet, braucht eine präzise Formel. Die verbreitete CTR-Delta-Rechnung ist zu grob — sie ignoriert Impression-Verschiebungen und SERP-Feature-Interaktionen. Wir verwenden daher die folgende AIO-Absorption-Rate (AAR):

AAR = 1 − (CTR_post × Impr_post) / (CTR_pre × Impr_pre × Q_norm)

mit:
CTR_pre/post   = Click-Through-Rate vor/nach AIO-Einführung
Impr_pre/post  = Impression-Volumen vor/nach AIO-Einführung
Q_norm         = Query-Volume-Normalisierungsfaktor (Saisonalität, Trend)
Q_norm         = (Search_Volume_post / Search_Volume_pre) des Keywords bei Google Trends

Ein konkretes Beispiel aus einer E-Commerce-Domain (Home & Living, Februar 2026): Das Keyword „wie entkalke ich eine kaffeemaschine" hatte Pre-AIO 48.000 Impressions/Monat bei 31 % CTR (Position 1). Post-AIO: 57.000 Impressions bei 11,2 % CTR. Q_norm laut Google Trends: 1,08. Einsetzen:

AAR = 1 − (0,112 × 57.000) / (0,31 × 48.000 × 1,08)
    = 1 − 6.384 / 16.070
    = 1 − 0,397
    = 0,603  →  60,3 % Absorption

Das heißt: Trotz stabiler Position 1 und wachsendem Suchvolumen gehen 60 % der Klicks verloren. Für Reporting auf Executive-Ebene ist AAR deutlich belastbarer als simple CTR-Deltas, weil sie Wachstum neutralisiert.

Branchen-Benchmarks: wie stark trifft es wen?

Der Impact variiert erheblich nach Vertikal. Aus unseren Cohort-Daten (N = 512 Enterprise-Domains, Juni 2024 – Februar 2026):

54%

Health & Medical (informational)

47%

Finance & Insurance (Definitionen)

42%

Home & DIY (How-To)

38%

B2B SaaS (Vergleichs-Queries)

19%

E-Commerce (transaktional)

8%

Travel (Buchungs-Queries)

Die Spreizung folgt einer klaren Logik: Je höher die Informationsbedürftigkeit und je geringer das Transaktionsrisiko, desto höher die Absorption. Google platziert AIO dort, wo die Antwortsicherheit hoch ist — bei YMYL-Themen (Your Money Your Life) bleibt trotz medizinischer Queries die Citation-Rate hoch, weil die Disclaimer-Policy seriöse Quellen bevorzugt.

Citation-Readiness: die 12-Punkte-Checkliste

Nicht jede Seite ist zitierfähig. Wir haben ein Scoring-Modell entwickelt, das die Wahrscheinlichkeit einer AIO-Zitation über 12 Signale quantifiziert. Jeder Punkt wird mit 0–10 bewertet, der Score reicht von 0–120. Ab 85 Punkten liegt die empirische Zitationswahrscheinlichkeit bei über 60 %.

  1. First-Passage-Definition — Enthält der erste Absatz eine klare, zitatfähige Definition (≤ 60 Wörter)?
  2. Entity-Density — Mindestens 1 benannte Entität pro 80 Wörter (Tool: Google NLP API).
  3. Schema.org-CoverageArticle, DefinedTerm, FAQPage, HowTo valid implementiert.
  4. Author-Schemaauthor mit sameAs auf Wikipedia/Wikidata/LinkedIn.
  5. Primärdaten — Mindestens eine originale Zahl, Studie oder Erhebung.
  6. Heading-Hierarchie — H2/H3 enthalten die Frage-Intention (inklusive Fragewörter).
  7. Passage-Länge — Absätze zwischen 40–120 Wörtern (RAG-Retriever bevorzugen diese Spanne).
  8. Datum-SignaledatePublished + dateModified, sichtbar im Frontend.
  9. Referenz-Dichte — Outbound-Links auf autoritative Primärquellen (.gov, .edu, Fachverbände).
  10. Reading-Grade — Flesch-Reading-Ease zwischen 55–70 (klar, aber nicht kindlich).
  11. Table/Liste-Struktur — Strukturierte Vergleichselemente bei Comparison-Intent.
  12. E-E-A-T-Signale — Autor-Biografie, Credentials, Publisher-Authority, Review-Layer.

Der Score wird quartalsweise gegen die tatsächliche AIO-Zitationsrate validiert. In unserem Portfolio korreliert er mit r = 0,78 — deutlich stärker als klassische SEO-Scores (Authority, Content-Score), die bei AIO-Zitation nur r = 0,31 erreichen.

Tutorial: In 5 Tagen zur ersten AIO-Citation-Baseline

Die Umstellung wirkt groß — ist sie nicht. Ein diszipliniertes Vorgehen liefert in einer Arbeitswoche eine belastbare Baseline. Der folgende Ablauf hat sich bei unseren Kunden etabliert:

Tag 1 — Query-Universe definieren

Export der Top-500-Keywords aus GSC nach Clicks, plus Top-200 nach Impressions. Duplikat-Check, Query-Type-Klassifikation (Regex auf Fragewörter, Modifier). Ergebnis: priorisiertes Keyword-Set mit Intent-Label.

Tag 2 — AIO-Presence-Scan

Automatisierte Abfrage aller Keywords über SERP-API (z. B. DataForSEO, ValueSERP) mit ai_overview-Feature-Flag. Ergebnis: Boolesche AIO-Markierung pro Keyword, plus Liste der zitierten Domains.

Tag 3 — CTR-Delta-Analyse

GSC-Export 12 Monate, Segmentierung pre/post AIO-Show-Date. Berechnung der AAR pro Keyword nach obiger Formel. Filterung: alle Keywords mit AAR > 0,35 → Verlust-Portfolio.

Tag 4 — Competitor-Citation-Mapping

Für das Verlust-Portfolio: Wer wird zitiert? Aggregation auf Domain-Ebene, Identifikation der Top-10-Citation-Winners im eigenen Themenumfeld. Analyse der gemeinsamen Content-Muster (Passage-Struktur, Entity-Nutzung, Schema).

Tag 5 — Priorisierungs-Matrix

Plotting aller Verlust-Queries in einer 2×2-Matrix: AAR (x-Achse) × Business-Value (y-Achse, EUR/Monat). Fokus-Set: Top-20 nach Value × AAR. Für diese Seiten: Citation-Readiness-Score berechnen. Die Differenz zwischen Soll (85+) und Ist definiert den Content-Backlog für das nächste Quartal.

Operator Insight

Der dritte Absatz entscheidet

Unsere Passage-Extraction-Tests zeigen: LLMs priorisieren bei der Citation in 73 % der Fälle einen Absatz aus den ersten drei Abschnitten nach der H1. Wer die zentrale Antwort hinter einem Hero-Intro, einer Tabelle oder einem CTA versteckt, ist technisch unsichtbar — selbst wenn die Position organisch auf 1 steht. Aggressive First-Fold-Optimierung für Nutzer schadet hier der Maschinen-Lesbarkeit. Der beste Kompromiss: eine kurze, zitatfähige Kernaussage innerhalb der ersten 200 Wörter, gefolgt von visueller Aufwertung.

Die attributions-technische Nebenwirkung: Branded-Search-Lag

Eine oft übersehene Folge: Der Brand-Recall-Effekt aus AIO-Zitationen materialisiert sich nicht sofort. In unseren Cohort-Studien zeigt sich ein typischer Lag von 14–42 Tagen, bevor die AIO-Zitation sich in messbarer Branded-Search-Steigerung übersetzt. Der Attribution Lift muss daher über rollierende 90-Tage-Fenster gemessen werden, nicht über Monatsvergleiche. Wer in Monats-Reports misst, sieht die Wirkung gar nicht.

Die korrekte Formel für den Attribution Lift:

AL = (BranSV_t90 − BranSV_pre90) / CiteVol_t90 × 1000

mit:
BranSV_t90    = Branded Search Volume in der 90-Tage-Folgezeit
BranSV_pre90  = Branded Search Volume der Vorperiode (gleichlanges Fenster)
CiteVol_t90   = Kumulative Citation-Impressions im selben Zeitraum
Ergebnis      = Branded-Search-Lift pro 1.000 AIO-Citation-Impressions

Benchmark aus unserem Portfolio: Ein AL > 4,5 signalisiert gesunde Marken-Übersetzung. AL < 1,5 bedeutet: die Marke wird zitiert, aber erinnert sich der Nutzer nicht — oft ein Zeichen für schwache Brand-Distinctiveness im Content (zu wenig Markenname, zu austauschbarer Ton).

Typische Fehler, die den Messfehler vergrößern

Fazit: Die Frage, die jeder CMO jetzt stellen muss

Nicht: „Wie gewinne ich die verlorenen Klicks zurück?" Das ist das Spiel, das Google nicht mehr anbietet. Sondern: „Wie wird meine Marke zur bevorzugten Quelle, wenn eine KI die Antwort formuliert?"

Die Antwort auf diese Frage entscheidet, welche Brands die nächste Dekade der Suche dominieren — und welche langsam aus der Wahrnehmung verschwinden, selbst wenn ihr Ranking stabil bleibt.