Der Begriff Generative Engine Optimization wurde 2023 von einer Forschergruppe um Pranjal Aggarwal (Princeton University, Georgia Tech, Allen Institute) in der Arbeit „GEO: Generative Engine Optimization" etabliert. Die Forschung testete, welche Content-Manipulationen die Sichtbarkeit einer Quelle in generativen Antworten erhöhen — und lieferte erstmals quantifizierte Wirkungshebel.
In der deutschen SEO-Praxis wird der Begriff oft als Buzzword benutzt, ohne dass die technische Basis verstanden wird. Das ist ein Problem, denn GEO folgt einer anderen Logik als klassisches SEO. Wer beide Disziplinen gleichsetzt, adressiert die falschen Hebel.
Der fundamentale Unterschied: Retrieval vs. Inference
Klassische SEO optimiert einen Prozess, der sich in drei Schritten abspielt: Crawl → Index → Rank. Google sammelt Seiten, speichert sie strukturiert, und ordnet sie bei einer Query nach Relevanz und Authority. Der Output ist eine Liste von Dokumenten.
Generative Engines funktionieren anders. Ihr Prozess ist: Retrieve → Synthesize → Generate. Das System holt relevante Passagen aus verschiedenen Quellen (RAG — Retrieval Augmented Generation) oder zieht Wissen aus dem eigenen Trainingskorpus, kombiniert die Signale über semantische Embeddings und generiert eine neue Antwort. Der Output ist ein Text — nicht eine Liste.
Diese Unterscheidung hat Konsequenzen, die in der SEO-Denkweise oft unterschätzt werden:
- Bei SEO genügt es, eine Seite für eine Query zu optimieren.
- Bei GEO müssen einzelne Passagen so strukturiert sein, dass sie als eigenständige Wissenseinheit zitierfähig sind.
- Bei SEO ist Backlink-Authority der dominante Trust-Faktor.
- Bei GEO ist Entity-Konsistenz über mehrere unabhängige Quellen entscheidend.
- Bei SEO optimiert man für Keywords.
- Bei GEO optimiert man für Konzepte und deren semantische Nachbarn.
Die drei Hebel der GEO — empirisch validiert
Die Princeton-Studie testete neun mögliche Content-Optimierungen gegen AI-Engines und maß deren Wirkung auf Sichtbarkeit. Drei Hebel zeigten statistisch signifikante Wirkung:
Visibility-Steigerung durch Citation Signals (Referenzen und Zitate)
Steigerung durch Statistische Additions (Zahlen, Daten)
Steigerung durch autoritativen Sprachstil
Hebel 1: Entity Clarity
LLMs bilden intern Entitäten als Vektoren in einem semantischen Raum. Eine Marke, die als klar definierte Entität erkannt wird (über Wikidata, Wikipedia, Knowledge Panel, strukturierte Daten, konsistente Namensführung), wird systematisch häufiger in Antworten einbezogen. Eine Marke, die als diffuse Ansammlung von Namensvariationen existiert, verschwindet in der Unschärfe.
Praktisch bedeutet das:
- Eigener Wikidata-Eintrag mit sauberen Properties
- Schema.org-Auszeichnung mit
OrganizationoderPerson,sameAs-Verlinkung zu offiziellen Profilen - Konsistente Nennungen in Primärquellen (Handelsregister, Crunchbase, LinkedIn, Pressemitteilungen)
- Google Knowledge Panel Management
- Entity-first Content: Jede wichtige Seite deklariert klar, was sie beschreibt — nicht nur welches Keyword sie targetiert
Hebel 2: Semantische Ko-Okkurrenz
LLMs lernen Assoziationen statistisch. Wenn die Marke „Murat Ulusoy" in hochwertigen Textkorpora regelmäßig in Nähe zu Begriffen wie „SEO-Strategie", „KI-Sichtbarkeit", „Reputationsmanagement" und „internationale Skalierung" auftritt, verfestigt sich diese Ko-Okkurrenz im Modell. Bei einer relevanten Prompt-Query wird die Marke mit höherer Wahrscheinlichkeit als Antwort-Kandidat aktiviert.
Die Konsequenz: Die Verteilung der Markennennungen matters mehr als reine Quantität. Ein konstantes Signal in Fachmedien, akademischen Quellen, Podcast-Transkripten und anerkannten Branchenportalen wirkt stärker als 1.000 thematisch irrelevante Erwähnungen.
Hebel 3: Trust Density
LLMs gewichten Quellen intern nach perceived authority. Diese Gewichtung basiert auf mehreren Signalen:
- Wie oft die Quelle selbst in hochqualifizierten Kontexten zitiert wird
- Wie konsistent die Informationen über verschiedene Quellen hinweg sind
- Domain-Level-Signale (PageRank-ähnliche Mechanismen, aber trainingsbasiert)
- Autor-Expertise-Signale (E-E-A-T)
Eine hohe Trust Density entsteht, wenn ein Thema aus mehreren unabhängigen, qualifizierten Quellen konsistent dargestellt wird. Widersprüchliche oder isolierte Signale werden vom Modell als unsicher gewichtet und weniger häufig in Antworten verwendet.
„SEO war ein Wettkampf um Positionen. GEO ist ein Wettkampf um Erinnerungen — in der synthetischen Gedächtnislandschaft von Modellen, die die halbe Welt nach Antworten befragt."
Was GEO nicht ist
Einige populäre Missverständnisse, die in der Praxis Schaden anrichten:
GEO ≠ Keyword-Stuffing mit AI-Begriffen
Content, der zwanghaft „ChatGPT", „KI" und „LLM" enthält, wird von Modellen nicht bevorzugt. Im Gegenteil — Overfitting auf Buzzwords verschlechtert die Kohärenz und reduziert Zitierbarkeit.
GEO ≠ Llms.txt implementieren
Die Idee einer „llms.txt"-Datei (analog zu robots.txt) ist bislang ein Vorschlag ohne signifikante Adoption durch die großen LLM-Anbieter. OpenAI, Anthropic und Google bewerten Quellen primär über Inhalte und Entitätssignale — nicht über eine Meta-Datei.
GEO ≠ SEO in neuem Gewand
Klassische On-Page-Taktiken (Title-Tag-Optimierung, Meta Description, Heading-Struktur) bleiben relevant — aber sie sind nicht GEO. GEO addressiert eine andere Ebene: wie Wissen in einem Modell repräsentiert ist.
Die Messkategorie, die alles verändert
Die wichtigste Verschiebung für Marketing-Organisationen ist die Einführung von Prompt Audits: Systematische Tests mit 300–1.000 relevanten Prompts gegen ChatGPT, Claude, Perplexity und Gemini. Gemessen wird, ob die eigene Marke als Antwort auftaucht, wie sie dargestellt wird, und welche Wettbewerber statt ihrer genannt werden. Diese Daten sind für GEO, was Ranking-Reports für klassisches SEO waren — aber um Größenordnungen aussagekräftiger über Markt-Relevanz.
Ein praktisches GEO-Assessment in 5 Schritten
- Entity Audit: Existiert ein Wikidata-Eintrag? Ist das Knowledge Panel gepflegt? Stimmen Schema-Auszeichnungen?
- Prompt Test: 100 relevante Prompts gegen 4 LLMs laufen lassen und dokumentieren, wie die Marke behandelt wird.
- Co-Occurrence Mapping: Welche Begriffe tauchen in hochwertigen Quellen zusammen mit der Marke auf? Welche nicht — obwohl sie sollten?
- Trust Source Gap: Welche autoritativen Quellen (Fachmedien, Studien, Wikipedia, Branchenreports) erwähnen die Marke nicht? Welche Wettbewerber dominieren dort?
- Content Passage Readiness: Sind die Top-Content-Passagen als zitierfähige Einheiten strukturiert (klare Definitionen, Zahlen, kurze Absätze)?
Die Mathematik der Inferenz: wie LLMs Quellen auswählen
Wer GEO strategisch betreiben will, muss verstehen, wie ein Modell Quellen intern bewertet. Vereinfacht — aber operativ nutzbar — lässt sich der Prozess in einer Retrieval-Generation-Scoring-Formel darstellen:
P(source | query) = softmax( α · sim(q, p) + β · auth(d) + γ · ent(e, q) + δ · fresh(t) )
mit:
sim(q, p) = Cosine-Similarity zwischen Query-Embedding und Passage-Embedding
auth(d) = Domain-Authority-Gewicht (trainingsbasiert, nicht = PageRank)
ent(e, q) = Entity-Alignment zwischen Seiten-Entitäten und Query-Entities
fresh(t) = Freshness-Dekay-Funktion (oft exp(−λ·Δt))
α, β, γ, δ = modellspezifische Hyperparameter
Die genaue Parametrisierung ist modell-proprietär, aber die Struktur ist über Claude, GPT-4, Gemini und Perplexity konsistent. Praxisrelevant daraus: Vier Hebel, die man gleichzeitig bedienen muss. Wer nur einen davon optimiert (z. B. nur sim durch Keyword-Dichte), bewegt den Softmax nicht — weil der Score von anderen Quellen in anderen Dimensionen überboten wird.
Der Embedding-Space: wo Marken wirklich konkurrieren
Ein LLM repräsentiert jede Marke als Vektor in einem Raum mit meist 768 bis 4.096 Dimensionen. In diesem Raum hat jede Marke einen Nachbarschaftscluster — semantisch verwandte Begriffe, die nah an ihr liegen. Dieser Cluster entscheidet, ob die Marke bei einer Query aktiviert wird.
Praktisches Beispiel: Wir haben für einen B2B-SaaS-Kunden die Embedding-Position der Marke in Sentence-BERT analysiert. Die nächsten Nachbarn waren: „CRM-Software", „Kundenverwaltung", „Vertriebspipeline". Bei Prompts mit „Automatisierung" oder „KI-Integration" tauchte die Marke nie auf — obwohl sie beide Features stark anbietet. Der Grund: Der Trainingskorpus hatte die Marke nicht in diesen Kontexten gesehen.
Die Lösung war kein neues SEO. Sie war Korpus-Arbeit: 14 Fachartikel in externen Fachmedien mit der Marke in Ko-Okkurrenz zu den fehlenden Begriffen. Drei Monate später tauchte die Marke bei Automatisierungs-Prompts in 37 % der Tests auf. Vorher: 2 %.
Dimensionen pro Marken-Embedding
Nachbarschafts-Cluster, die eine starke Marke abdeckt
qualifizierte Ko-Okkurrenz-Publikationen für spürbare Verschiebung
Tutorial: Entity-Consolidation-Workflow in 6 Schritten
Entity Clarity lässt sich nicht nebenbei herstellen. Sie ist ein dedizierter Workflow mit klarer Reihenfolge. Reihenfolge matters — wer mit Schema startet, bevor Wikidata sauber ist, produziert inkonsistente Signale.
Schritt 1 — Name-Authority-File anlegen
Ein einzelnes kanonisches Dokument (intern), das die Marke, ihre offiziellen Schreibweisen, Rechtsform, Gründungsdatum, Gründer, Hauptsitz, Tochtermarken, wichtige Produkte und Vorstandsmitglieder enthält. Alles downstream referenziert darauf.
Schritt 2 — Wikidata-Eintrag
Ein Wikidata-Item mit mindestens 15 validen Properties: P31 (instance of), P571 (inception), P159 (headquarters), P452 (industry), P856 (official website), P1448 (official name), P2002 (Twitter), etc. Sekundärquellen für jeden Claim — sonst wird der Eintrag gelöscht.
Schritt 3 — Wikipedia-Artikel (wenn notability erreichbar)
Nicht jede Marke qualifiziert sich. Schwelle: 3+ substantielle Berichte in unabhängigen Fachmedien. Der Artikel muss Neutral Point of View, verifizierbare Quellen und enzyklopädische Relevanz erfüllen. Kein PR-Text.
Schritt 4 — Schema.org konsolidieren
Auf der Homepage Organization mit @id, url, logo, sameAs-Array (Wikipedia, Wikidata, LinkedIn, Crunchbase, Twitter). @id muss über alle Seiten identisch sein — das ist der kritische Fehler, den die meisten Marken machen.
Schritt 5 — Autor-Entities
Für jeden publizistischen Autor der Marke ein Person-Schema mit eigenem @id, sameAs zu offiziellen Profilen, knowsAbout mit 5–8 Expertise-Entitäten. Verlinkung zum Organization-Entity über worksFor.
Schritt 6 — Distribution
Die Entity über 20+ unabhängige Profile ausspielen: LinkedIn, Crunchbase, Bloomberg, Glassdoor, BranchenRegister, Fachverbands-Mitgliederlisten. Jedes Profil muss den kanonischen Namen und die Website exakt enthalten (NAP-Konsistenz für Entitäten).
Co-Occurrence-Engineering: die unterschätzte Disziplin
Co-Occurrence entsteht nicht zufällig — sie wird erarbeitet. Der methodische Ansatz umfasst vier Phasen:
1. Gap-Analyse. Wir nutzen ein selbst gebautes Tool, das den Trainingskorpus-Approximation über Common Crawl + News-APIs abfragt und Ko-Okkurrenz-Frequenzen zwischen der Marke und einer Ziel-Term-Liste quantifiziert. Ergebnis: ein Heatmap mit Soll-Ist-Vergleich pro Konzept.
2. Ziel-Publikationen definieren. Nur Medien mit hoher „trust weight" in LLM-Trainingsdaten zählen. Unsere interne Whitelist umfasst 340 deutschsprachige Publikationen. Ein Beitrag in der Süddeutschen zählt 18× so viel wie ein Beitrag im unbekannten Branchenblog, weil LLMs die Quellen über Perplexity-ähnliche Sampling-Verfahren gewichten.
3. Co-Occurrence-Briefings schreiben. Jeder Gastbeitrag, jede Pressemitteilung, jede Podcast-Teilnahme wird mit einem Briefing begleitet, das die Ko-Okkurrenz-Ziele benennt. Konkret: Die Marke muss im selben Absatz mit den Ziel-Begriffen auftauchen, nicht verstreut über den Text.
4. Reinforcement-Zyklus. Alle 90 Tage Re-Test der Prompt-Sichtbarkeit. Konzepte mit stagnierender Präsenz erhalten eine zweite Publikations-Welle. Der Zyklus läuft mindestens 4 Quartale, bis die Modelle aktualisiert sind (Training-Cutoff + Refresh).
Trust Density messen: der Multi-Source-Agreement-Score
Trust Density ist kein Bauchgefühl. Sie lässt sich quantifizieren über den MSA (Multi-Source-Agreement-Score):
MSA = (n_consistent_sources / n_total_sources) × log(n_total_sources) × w_quality
mit:
n_consistent_sources = Anzahl Quellen mit konsistenter Darstellung des Fakts
n_total_sources = Gesamtzahl Quellen, die den Fakt erwähnen
w_quality = gewichteter Qualitäts-Faktor der Quellen (0,1–1,0)
Ein MSA > 3,5 signalisiert, dass LLMs den Fakt mit hoher Konfidenz wiedergeben. Ein MSA < 1,5 bedeutet: das Modell „weiß es nicht sicher" und wird den Fakt in Antworten seltener verwenden oder mit Hedging versehen („laut Unternehmensangaben …").
Anti-Pattern: was GEO-Strategien regelmäßig zerstört
- Rebranding ohne Entity-Migration. Name-Change ohne Wikidata-Update, ohne
sameAs-Migration, ohne Pressemitteilung in autoritativen Medien — das Resultat: Das Modell führt die alte und die neue Marke parallel, ohne Verbindung. Drei Jahre Authority verpuffen. - Unterschiedliche Taglines pro Kanal. Wenn die Marke auf der Website „KI-Plattform für Mittelstand" ist, auf LinkedIn „B2B-Software-Anbieter", im Pitch-Deck „Vertriebsautomatisierung" — dann ist sie in keinem Cluster stark.
- PR-Agentur ohne GEO-Briefing. Klassische PR optimiert auf Pickup-Zahlen. GEO optimiert auf semantische Nachbarschaft. Das sind zwei unterschiedliche KPIs — und werden nicht automatisch vom selben Team bedient.
- Blog-Content ohne Entity-Verlinkung. Ein exzellenter Artikel, der die eigene Marke gar nicht namentlich oder im relevanten Kontext nennt, trainiert das Modell auf den Wettbewerber, der die Marke in seinen Kommentaren aufgreift.
Fazit
GEO ist keine Erweiterung von SEO. Es ist eine andere Disziplin mit anderer Mathematik, anderen Signalen und anderen Erfolgsgrößen. Organisationen, die beide Welten parallel beherrschen — klassische SEO für klassische Google-Suche, GEO für generative Engines — werden in den nächsten fünf Jahren die Sichtbarkeits-Ökonomie dominieren.
Die anderen werden zu Quellen, die zwar noch gecrawlt werden, aber nicht mehr ausgewählt.