Die Retrieval-Pfade von Google AI Overviews, ChatGPT, Perplexity und Copilot folgen anderen Regeln als klassische SERPs. Wer zitiert werden will, muss passage-level citable, entity-kohärent und retrieval-scored sein — dokumentiert, nicht behauptet.

„Wer in generativen Systemen nicht zitiert wird, existiert dort nicht — ganz gleich, wie gut Position 1 rankt."
Seit Googles AIO-Rollout und der Etablierung von ChatGPT-Search, Perplexity und Copilot verschiebt sich ein messbarer Anteil informationaler Nachfrage aus den SERPs heraus. Ihre Marke wird in Antworten zitiert — oder eben nicht. Ohne Impression, ohne Klick, ohne zweite Chance.
Eine Seite auf Position 1 wird nicht zwingend zitiert — eine gut strukturierte Passage auf Position 8 schon. Das ändert die Optimierungsebene: vom Dokument zur zitierfähigen Passage. Wer Content als Text-Einheit denkt, verliert; wer ihn als Chunk-Topologie denkt, gewinnt.
Jede Intervention ist auf eine Hypothese attribuiert und wird mit Baseline, Intervention und Delta dokumentiert. Kein Output ohne Attribution.
Rohdaten aus vier Ebenen: Retrieval-Pfade (Embedding-Distanz, Chunk-Ranking), Entity-Graph (Wikidata, Custom NER), Cross-Model-Citation-Tracking (GPT, Claude, Gemini, Perplexity) und Passage-Citability-Scoring. Jeder Score ist bis auf die Quelldaten zurückverfolgbar.
Chunk-Analyse nach 200–400-Token-Segmenten, semantische Selbst-Kohärenz, Claim-Evidence-Paarung, Numerik. Rewrites auf Passage-Niveau — kein Copy-Polish. Messlogik: Citation-Rate, nicht Ranking.
Wikidata-Alignment, Knowledge-Graph-Auffüllung, konsistente sameAs-Deklarationen, Author-Entities mit verifizierbarer Provenienz. Disambiguation gegen Namensvetter, Marken-Klärung in E-E-A-T-Signalen.
Embedding-Nähe zu Ziel-Prompts, Cross-Encoder-Reranking-Simulation, Chunk-Konkurrenzanalyse. Welche Passage wird gezogen, wenn ein Nutzer fragt? Wir modellieren den Retrieval-Pfad — bevor wir schreiben.
Vollständige JSON-LD-Graphen (nicht Fragmente): Organization, Person, Article, FAQPage, HowTo, Product — verknüpft per @id. llms.txt, Author-Provenienz, Dataset-Deklarationen. Maschinenlesbar, menschlich korrekt.
Generative Sichtbarkeit braucht Reputation, Entity-Signale und Content-Architektur als Substrat.
SEO optimiert auf Rankings in klassischen SERPs. GEO (Generative Engine Optimization) optimiert darauf, in den Antworten generativer Systeme (Google AI Overviews, ChatGPT, Perplexity, Copilot) zitiert zu werden. Die Hebel: Passage-Level-Citability, Entity-Salience, Retrieval-Scoring — nicht Keyword-Density.
Über 2.000+ Prompts pro Quartal tracken wir Citation-Rate, AI Answer Rate (AAR) und Passage-Citability-Score — pro Modell (GPT, Claude, Gemini, Perplexity), pro Branche, pro Wettbewerber. Nicht Ranking-Position, sondern Zitations-Anteil in der Antwort.
Nein. Klassisches SEO bleibt die Grundlage — Crawlability, Indexierung, Core Web Vitals. Aber es ist nicht mehr hinreichend. Wer in AI Overviews und LLMs nicht zitiert wird, verliert einen messbaren Teil informationaler Nachfrage, auch bei stabilen Rankings.
Beides, mit unterschiedlicher Funktion. robots.txt steuert Crawl-Zugriff (inkl. GPTBot, ClaudeBot, Google-Extended). llms.txt ist eine inhaltliche Abstract-Datei für LLMs — nicht normiert, aber zunehmend ausgelesen. Wir implementieren beides mit expliziter Strategie.
Erste messbare Effekte in Citation-Rate nach 6–10 Wochen (Schema-Graph + Passage-Rewrites auf Top-20-URLs). Belastbare Kurve nach 4–5 Monaten. Strategische Engagements laufen typischerweise 9–12 Monate, danach gehen Operations ins Retainer-Modell über.
30 Minuten. Wir analysieren Ihre aktuelle AI-Sichtbarkeit, identifizieren die drei größten Hebel und sprechen über Attribution auf P&L-Ebene.