Flagship — Generative Engine Optimization

SEO & GEO für generative Suchsysteme.

Die Retrieval-Pfade von Google AI Overviews, ChatGPT, Perplexity und Copilot folgen anderen Regeln als klassische SERPs. Wer zitiert werden will, muss passage-level citable, entity-kohärent und retrieval-scored sein — dokumentiert, nicht behauptet.

GEO-Stack
ChatGPT Perplexity Google AIO Copilot Claude Gemini
Murat Ulusoy — SEO & GEO für generative Suchsysteme
Flagship Service
„Wer in generativen Systemen nicht zitiert wird, existiert dort nicht — ganz gleich, wie gut Position 1 rankt."
Murat Ulusoy
CEO · Head of SEO · SUMAX
Citation Rate+184%
2.000+
Prompts / Quartal
4
LLM-Modelle
500+
Enterprise-Audits
20+
Jahre SEO-Praxis
01 — Das Problem

Klassisches SEO ist notwendig — aber nicht mehr hinreichend.

Seit Googles AIO-Rollout und der Etablierung von ChatGPT-Search, Perplexity und Copilot verschiebt sich ein messbarer Anteil informationaler Nachfrage aus den SERPs heraus. Ihre Marke wird in Antworten zitiert — oder eben nicht. Ohne Impression, ohne Klick, ohne zweite Chance.

◎ Inferenz statt Index

LLMs bauen Antworten aus Token-Wahrscheinlichkeiten plus Retrieval-Chunks.

Eine Seite auf Position 1 wird nicht zwingend zitiert — eine gut strukturierte Passage auf Position 8 schon. Das ändert die Optimierungsebene: vom Dokument zur zitierfähigen Passage. Wer Content als Text-Einheit denkt, verliert; wer ihn als Chunk-Topologie denkt, gewinnt.

◆ Entities > Keywords

Generative Systeme disambiguieren über Entitäten.

Wikidata-QIDs, Schema-Types, konsistente Attribute. Wer als Entity nicht kohärent im Web existiert, bleibt austauschbar. Keyword-Density ist bedeutungslos; Entity-Salience ist der Hebel, an dem LLMs Bedeutung rekonstruieren.

02 — Methodik

Vier Ebenen. Ein gemessenes System.

Jede Intervention ist auf eine Hypothese attribuiert und wird mit Baseline, Intervention und Delta dokumentiert. Kein Output ohne Attribution.

● GEO-Intelligence Engine — Live

Signale,
die messbar sind.

Rohdaten aus vier Ebenen: Retrieval-Pfade (Embedding-Distanz, Chunk-Ranking), Entity-Graph (Wikidata, Custom NER), Cross-Model-Citation-Tracking (GPT, Claude, Gemini, Perplexity) und Passage-Citability-Scoring. Jeder Score ist bis auf die Quelldaten zurückverfolgbar.

Passage Citabilityout-of-context lesbar
91%
Entity SalienceWikidata + Schema-Graph
84%
Retrieval ScoreEmbedding vs. Prompts
78%
Cross-Model CitationsGPT · Claude · Gemini
96%
01

Passage-Level-Citability

Chunk-Analyse nach 200–400-Token-Segmenten, semantische Selbst-Kohärenz, Claim-Evidence-Paarung, Numerik. Rewrites auf Passage-Niveau — kein Copy-Polish. Messlogik: Citation-Rate, nicht Ranking.

ChunkingClaim-EvidenceSelf-contained
02

Entity-Konsolidierung

Wikidata-Alignment, Knowledge-Graph-Auffüllung, konsistente sameAs-Deklarationen, Author-Entities mit verifizierbarer Provenienz. Disambiguation gegen Namensvetter, Marken-Klärung in E-E-A-T-Signalen.

WikidatasameAsAuthor Entity
03

Retrieval-Scoring

Embedding-Nähe zu Ziel-Prompts, Cross-Encoder-Reranking-Simulation, Chunk-Konkurrenzanalyse. Welche Passage wird gezogen, wenn ein Nutzer fragt? Wir modellieren den Retrieval-Pfad — bevor wir schreiben.

EmbeddingsRerankingCompetitive Chunks
04

Schema-Architektur

Vollständige JSON-LD-Graphen (nicht Fragmente): Organization, Person, Article, FAQPage, HowTo, Product — verknüpft per @id. llms.txt, Author-Provenienz, Dataset-Deklarationen. Maschinenlesbar, menschlich korrekt.

JSON-LD@id-Graphllms.txt
03 — Was Sie erhalten

Artefakte, nicht Slide-Decks.

Jedes Projekt liefert überprüfbare Dokumente und Systeme — keine „Empfehlungs-PDFs", die in SharePoints sterben.

01 / Artefakt

GEO-Audit

Status-Quo in ChatGPT, Perplexity, Google AIO & Copilot. 2.000+ Prompts, Branchen-Benchmarks, Citation-Rate, AAR (AI Answer Rate) pro Quartal.

02 / Artefakt

Entity-Map

Wikidata-Status, sameAs-Graph, Attribut-Konsistenz, Disambiguation-Risiken, priorisierte Knowledge-Graph-Interventionen mit Eintrittswahrscheinlichkeit.

03 / Artefakt

Passage-Rewrites

Konkrete Textinterventionen auf Chunk-Ebene — mit Vorher/Nachher, Retrieval-Score-Prognose und Review-Kriterien für Content-Teams.

04 / Artefakt

Schema-Graph

Produktions-ready JSON-LD mit @id-Verknüpfungen, validiert, mit Implementierungs-Briefing für Dev-Teams und Monitoring-Hooks.

05 / Artefakt

Citation-Dashboard

Live-Tracking der Marken-Zitationen über GPT, Claude, Gemini, Perplexity — auf Modell-, Prompt- und Wettbewerbsebene.

06 / Artefakt

Board-Reporting

Monatlicher Executive-Report: Hypothese, Intervention, Delta, P&L-Attribution. Für CEOs und CMOs, nicht für SEO-Manager.

04 — Verwandte Leistungen

GEO wirkt nicht isoliert.

Generative Sichtbarkeit braucht Reputation, Entity-Signale und Content-Architektur als Substrat.

05 — FAQ

Häufig gestellte Fragen.

Was ist der Unterschied zwischen SEO und GEO?+

SEO optimiert auf Rankings in klassischen SERPs. GEO (Generative Engine Optimization) optimiert darauf, in den Antworten generativer Systeme (Google AI Overviews, ChatGPT, Perplexity, Copilot) zitiert zu werden. Die Hebel: Passage-Level-Citability, Entity-Salience, Retrieval-Scoring — nicht Keyword-Density.

Wie messt ihr GEO-Erfolg?+

Über 2.000+ Prompts pro Quartal tracken wir Citation-Rate, AI Answer Rate (AAR) und Passage-Citability-Score — pro Modell (GPT, Claude, Gemini, Perplexity), pro Branche, pro Wettbewerber. Nicht Ranking-Position, sondern Zitations-Anteil in der Antwort.

Verliert klassisches SEO an Bedeutung?+

Nein. Klassisches SEO bleibt die Grundlage — Crawlability, Indexierung, Core Web Vitals. Aber es ist nicht mehr hinreichend. Wer in AI Overviews und LLMs nicht zitiert wird, verliert einen messbaren Teil informationaler Nachfrage, auch bei stabilen Rankings.

Brauchen wir llms.txt, robots.txt-Anpassungen oder beides?+

Beides, mit unterschiedlicher Funktion. robots.txt steuert Crawl-Zugriff (inkl. GPTBot, ClaudeBot, Google-Extended). llms.txt ist eine inhaltliche Abstract-Datei für LLMs — nicht normiert, aber zunehmend ausgelesen. Wir implementieren beides mit expliziter Strategie.

Wie lange dauert ein GEO-Projekt?+

Erste messbare Effekte in Citation-Rate nach 6–10 Wochen (Schema-Graph + Passage-Rewrites auf Top-20-URLs). Belastbare Kurve nach 4–5 Monaten. Strategische Engagements laufen typischerweise 9–12 Monate, danach gehen Operations ins Retainer-Modell über.

Let's talk

GEO ist kein Experiment mehr.

30 Minuten. Wir analysieren Ihre aktuelle AI-Sichtbarkeit, identifizieren die drei größten Hebel und sprechen über Attribution auf P&L-Ebene.