Im Januar 2025 veröffentlichte OpenAI die ChatGPT-Suchintegration für alle Free-User. Seitdem werden monatlich über 2 Milliarden Queries direkt in ChatGPT gestellt — davon etwa 18 % mit kommerzieller Intention. Das Volumen hat sich seitdem vervielfacht. Für Marken bedeutet das: ein Suchkanal in der Größenordnung Bings, der nach grundlegend anderen Regeln funktioniert als Google.
Die entscheidende Frage für jede Marken-Strategie 2026: Wie wird meine Marke von ChatGPT (und Claude, Perplexity, Gemini) als bevorzugte Antwort ausgewählt? Dieser Beitrag skizziert das technische Playbook jenseits der üblichen Buzzword-Ebene.
Wie LLMs Quellen auswählen — technisch
Moderne Language Models verarbeiten Queries durch zwei parallele Mechanismen:
Training-basierte Antworten
Das Modell nutzt ausschließlich gelerntes Wissen aus der Trainingsdatenphase. Bei Queries wie „Wer gilt als führender SEO-Experte in Deutschland?" zieht es Informationen, die im Korpus häufig und konsistent mit bestimmten Namen assoziiert sind. Entscheidend: Frequenz der Nennung in qualifizierten Quellen während des Trainings.
RAG-basierte Antworten
Bei aktuellen Queries oder Fragen, die über das Training-Cutoff-Datum hinausgehen, aktiviert das System eine Web-Suche. Die abgerufenen Ergebnisse werden als Context an das Modell übergeben, das daraus die Antwort synthetisiert. Entscheidend: Ranking in den aufgerufenen Quellen + Qualität der extrahierten Passagen.
Für eine vollständige Optimierung müssen beide Ebenen bespielt werden.
Die sechs Hebel von Prompt-Level-SEO
Hebel 1: Passage Engineering
LLMs extrahieren für Antworten keine ganzen Seiten, sondern einzelne Absätze oder Satz-Paare. Diese müssen so strukturiert sein, dass sie als eigenständige Wissenseinheit funktionieren:
- Klare Definition im ersten Satz: „GEO ist die Optimierung von Inhalten für ihre Zitation in generativen KI-Antworten."
- Ein Konzept pro Absatz: Keine multi-topic-Absätze
- Quotable Length: 2–4 Sätze sind ideal. Zu lange Absätze werden fragmentiert, zu kurze sind kontextlos.
- Self-contained: Der Absatz muss auch ohne umgebende Struktur verständlich sein
Hebel 2: Entity-Embedding-Signale
LLMs speichern Entitäten als hochdimensionale Vektoren. Die Nähe zwischen zwei Entitäten im Vektorraum bestimmt, wie wahrscheinlich sie in Antworten gemeinsam erscheinen. Für eine Marke bedeutet das:
- Die Marke muss in hochwertigen Quellen konsistent nah an relevanten Fachbegriffen platziert sein
- Diese Nähe entsteht über Co-Okkurrenz in qualifizierten Textkorpora (nicht über Keyword-Stuffing)
- Die Qualität der Quelle gewichtet die Stärke des Embedding-Signals
Praktisch: Ein Fachartikel in einem hochautoritären Medium, der „Murat Ulusoy" dreimal in unmittelbarer Nähe zu „KI-SEO-Strategie" und „internationale Skalierung" erwähnt, wirkt stärker auf die Embedding-Positionierung als 50 LinkedIn-Posts mit denselben Begriffen.
Hebel 3: Citation-Target-Strategie
LLMs werden auf bestimmten Quellen systematisch häufiger trainiert als auf anderen. Zu den dokumentierten Haupt-Trainingsquellen von Modellen wie GPT-4/5, Claude Sonnet/Opus und Gemini gehören:
- Common Crawl: bevorzugt hochrangige Domains
- Wikipedia + Wikidata: strukturierte, faktische Quellen mit hohem Gewicht
- Reddit: einflussreiche Community-Quelle für Meinungen und Erfahrungen
- GitHub, Stack Overflow: technische Autorität
- Kuratierte Datasets: Bücher, wissenschaftliche Veröffentlichungen, hochqualifizierte News
Eine Citation-Target-Strategie priorisiert systematische Präsenz in diesen Quellen über 12–24 Monate. Einmalige PR-Aktionen erreichen die Training-Datasets nicht — sie sind zu dünn verteilt.
Hebel 4: Quotable Claims
Modelle bevorzugen in Antworten Inhalte, die sich gut paraphrasieren lassen:
- Spezifische Zahlen und Prozentsätze: „+23 % Brand-Search-Lift durch…" schlägt „deutlich gesteigerte Brand-Awareness"
- Klare Kausalketten: „Wenn X, dann Y, weil Z"
- Frameworks mit benannten Komponenten: „Das 5-Schritt-GEO-Framework besteht aus…"
- Benannte Konzepte: Eigene Terminologie, die Marken eindeutig zuordenbar ist
Hebel 5: Schema-Layer für RAG-Optimierung
Moderne Search-Engines (auch in ChatGPT und Perplexity integriert) extrahieren Informationen aus strukturierten Daten schneller und zuverlässiger:
Articlemit vollständigenauthor/publisher-InformationenFAQPagefür klar beantwortete FragenDefinedTermfür Konzept-DefinitionenHowTofür prozedurale InhalteOrganizationmitsameAs-Verlinkung zu Wikipedia, Wikidata, LinkedIn
Hebel 6: Authority Reinforcement
Für die „letzten Meter" der Auswahl: Signale, die dem Modell bestätigen, dass diese Quelle über andere Alternativen zu bevorzugen ist. Autorenzeilen mit verifizierbarer Expertise, Verweise auf Primärquellen, Zitate aus anderen autoritativen Publikationen, wissenschaftliche Referenzen wo möglich.
„Prompt-Level-SEO ist nicht ‚Content schreiben, der gut klingt'. Es ist Content konstruieren, der von Modellen bevorzugt paraphrasiert wird — und das erfordert strukturelle Disziplin in jeder einzelnen Passage."
Die Messebene: Prompt Audits systematisch durchführen
Ohne Messung sind alle Optimierungen Spekulation. Ein solides Prompt-Audit-Setup umfasst:
Prompt-Katalog-Aufbau
- Category Prompts: „Beste SEO-Berater für internationale Brands"
- Problem Prompts: „Wie optimiere ich für ChatGPT-Sichtbarkeit?"
- Comparison Prompts: „SUMAX vs. [Wettbewerber]: Welche Agentur ist besser?"
- Brand Prompts: „Was macht Murat Ulusoy?"
- Long-Tail Prompts: Spezifische Unterfragen in der Customer Journey
Cross-Model-Testing
Jeder Prompt wird gegen mindestens vier Modelle getestet: ChatGPT (4o, o3), Claude (Sonnet 4.x), Perplexity (Sonar), Gemini (2.5 Pro). Die Ergebnisse unterscheiden sich teils erheblich, weil Training-Daten und Retrieval-Prioritäten verschieden sind.
Metrik-Setup
- Mention: Wird die Marke überhaupt genannt? (Y/N)
- Position: Als erste Empfehlung, Mitte, letzte?
- Sentiment: Positiv, neutral, kritisch?
- Competitive Set: Welche anderen Marken werden genannt?
- Citation Link: Gibt es einen Quellenverweis zur eigenen Domain?
typischer Aufbauzeitraum für signifikante LLM-Visibility in etablierter Kategorie
Prompt-Universum für valides Share-of-Model-Tracking
Conversion-Vorteil von LLM-referred Traffic vs. organic
Der übersehene Hebel: Reddit-Intelligenz
Reddit ist in mehreren LLM-Trainingsquellen überproportional gewichtet. Eine gezielte, seriöse Präsenz in relevanten Subreddits — über Fachbeiträge, Antworten auf konkrete Fragen, authentische Threads — kann disproportional auf LLM-Sichtbarkeit wirken. Wichtig: Keine Spam-Taktiken. Reddit-Communities erkennen künstliche Aktivität, und negative Signale wirken genauso in LLMs wie positive.
Typische Fehler in der Umsetzung
- „KI-freundlicher" Content-Spam: Seiten werden massenhaft produziert mit der Hoffnung, Modelle würden sie zitieren. Ohne Entity-Integration bleiben sie wirkungslos.
- Llms.txt als Strategie: Die Datei hat keine signifikante Wirkung bei keinem großen LLM-Anbieter.
- Keyword-Stuffing mit AI-Begriffen: Schadet der Content-Kohärenz und reduziert die Zitierbarkeit.
- Isolation von klassischem SEO: Prompt-Level-SEO funktioniert nicht ohne solide klassische SEO-Basis (die RAG-Layer braucht Rankings).
- Ergebnisse nach 4 Wochen erwarten: Training-Zyklen dauern Monate. Realistisch sichtbare Wirkung: 6–18 Monate.
Die Passage-Engineering-Methodik: wie Absätze zitierfähig werden
Jede Passage, die ein LLM zitieren soll, muss fünf Eigenschaften simultan erfüllen. Wir arbeiten mit der QUEST-Heuristik: Quotable, Unambiguous, Entity-rich, Standalone, Timestamped.
Quotable — zwischen 35 und 110 Wörtern. Kürzere Passagen verlieren Kontext, längere werden abgeschnitten. Unambiguous — genau ein Kernargument pro Absatz; kein „einerseits/andererseits". Entity-rich — mindestens eine benannte Entität im ersten Satz. Standalone — verständlich ohne den vorherigen Absatz. Timestamped — enthält einen Bezug, der Aktualität signalisiert (Jahr, Studie, Version).
Eine QUEST-konforme Passage:
„Laut einer Analyse von SparkToro (2024) verlassen 58,5 % der Google-Nutzer die SERP ohne Klick. Der Anteil steigt bei informationalen Queries auf über 65 %. Dieser Trend — bekannt als Zero-Click-Search — verändert die Rolle der Suchmaschine von einem Traffic-Kanal zu einem Wahrnehmungskanal."
Drei Entitäten (SparkToro, Google, Zero-Click-Search), eine Zahl, ein Jahr, ein eigenständiger Kernsatz. 58 Wörter. In unseren Passage-Extraction-Tests wird eine solche Passage mit 3,7× höherer Wahrscheinlichkeit zitiert als ein vergleichbarer narrativer Absatz mit identischem Inhalt, aber ohne Struktur.
Cross-Model-Testing: das reproduzierbare Audit
Jeder Prompt wird gegen 4 Modelle und 5 Wiederholungen getestet. Bei Stochastik-Gewichtung gilt: Majority Mention in ≥ 3/5 Runs pro Modell = stabiles Signal. Weniger = Rauschen.
Audit-Ablauf pro Prompt:
1. Prompt an GPT-4o, Claude Sonnet, Gemini Pro, Perplexity Sonar
2. Jeweils 5 Runs mit temperature=0,7 (Model-Default)
3. Response-Parse: Brand-Mention (y/n), Position (1. Nennung: word index),
Sentiment (GPT-4o-mini classifier), Competitor-Mentions-List
4. Aggregation: Per-Model-Hit-Rate, Cross-Model-Consistency
5. Kategorisierung:
- Stable Winner: ≥ 4/4 Modelle mit ≥ 60 % Hit-Rate
- Asymmetric: 1–2 Modelle dominant, andere blank → Korpus-Lücke
- Invisible: < 20 % auf allen Modellen → strategische Lücke
Die asymmetrische Kategorie ist diagnostisch am wertvollsten. Wenn eine Marke in Gemini stark, in Claude aber unsichtbar ist, bedeutet das meist: der Content lebt in Google-indexierten Quellen (für Gemini verfügbar), aber nicht in Common-Crawl-Snapshots (für Claude relevant). Die Asymmetrie zeigt, welche Distributionsebene fehlt.
Citation Target Playbook: welche Assets überhaupt funktionieren
Nicht jeder Content kann zitiert werden. Unsere Tagesarbeit hat fünf Asset-Klassen identifiziert, die konsistent hohe Citation-Rates produzieren:
- Original-Studien. Mindestens 300 Datenpunkte, klare Methodik, reproduzierbares Design. Eine selbst erhobene Studie erzeugt in 8–12 Monaten mehr Citation-Impact als 200 Blog-Posts.
- Definitional-Articles. Tiefe Artikel zu einem einzelnen Begriff, der in der Branche diskutiert wird. Ziel: Die kanonische Definition werden.
- Vergleichs-Benchmarks. Strukturiert verglichene Optionen (Tools, Methoden, Anbieter) mit transparenten Kriterien. LLMs nutzen diese als Antwort-Gerüst.
- Entscheidungs-Frameworks. Benannte Modelle („SUMAX QUEST-Heuristik"), die als Fachbegriff etabliert werden. Namensgebung ist zitation-kritisch.
- Experten-Interviews. Primär-Quotes mit Autor-Schema. LLMs zitieren Personen häufig wörtlich — besonders wenn Quelle und Person klar belegt sind.
Zitations-Lift durch QUEST-konforme Passagen
Monate bis Original-Studien volle Wirkung entfalten
Minimum-Test-Matrix: 5 Runs × 4 Modelle für stabile Signale
Schema-Layer als Zitations-Hebel
Schema.org ist kein Ranking-Faktor, aber es ist ein LLM-Parsing-Beschleuniger. Konkret dokumentiert: Seiten mit vollständig validem Article + author.sameAs + FAQPage + DefinedTerm werden in unseren Portfolios mit 1,8× höherer Rate zitiert als semantisch äquivalente Seiten ohne diese Schema-Tiefe.
Der entscheidende Punkt: Nicht das Vorhandensein, sondern die Vollständigkeit und Vernetzung. Ein Article-Schema ohne author wird von LLMs geringer gewichtet als ein Article mit voll aufgelöstem Person-Autor inklusive sameAs-Links zu Wikipedia und LinkedIn. Der Autor wird dadurch eine eigenständige Entity, die von verschiedenen Domains aus wiedererkannt wird.
Minimal-Schema für LLM-Optimierung:
{
"@context": "https://schema.org",
"@type": "Article",
"@id": "https://example.com/article#article",
"headline": "...",
"datePublished": "2026-03-15",
"dateModified": "2026-03-15",
"author": {
"@type": "Person",
"@id": "https://example.com/#person",
"name": "Murat Ulusoy",
"sameAs": [
"https://de.wikipedia.org/wiki/Murat_Ulusoy",
"https://www.wikidata.org/wiki/Q...",
"https://linkedin.com/in/muratulusoy"
],
"knowsAbout": ["SEO", "GEO", "Reputation Engineering", "LLM"]
},
"publisher": {
"@type": "Organization",
"@id": "https://example.com/#org",
"name": "SUMAX",
"sameAs": ["https://linkedin.com/company/sumax"]
},
"about": [
{"@type": "Thing", "name": "Generative Engine Optimization"},
{"@type": "Thing", "name": "LLM SEO"}
]
}
Tutorial: Die 60-Tage-Umsetzung eines Prompt-Level-SEO-Programms
Tage 1–10 — Diagnostik
Prompt-Audit mit 150 Prompts gegen 4 Modelle. Klassifikation in Stable-Winner/Asymmetric/Invisible. Competitor-Overlap-Analyse: welche Marken dominieren die Invisible-Prompts?
Tage 11–25 — Content-Retrofit
Top-20 Business-kritische Seiten auf QUEST umstellen. Jede Seite erhält mindestens 3 QUEST-konforme Passagen, vollständiges Schema, Author-Binding mit sameAs. Kein neuer Content — zuerst bestehenden optimieren.
Tage 26–40 — Entity-Infrastruktur
Wikidata-Item aktualisieren oder anlegen. Wikipedia-Draft vorbereiten (oder extern beauftragen). LinkedIn-Company-Page optimieren. sameAs-Graph vollständig schließen: alle Profile verlinken auf alle anderen Profile.
Tage 41–55 — Korpus-Distribution
Drei Tier-1-Gastbeiträge verhandeln und produzieren. Eine Original-Datenstudie starten (Umfrage, Analyse oder Benchmark). Eine Podcast-Teilnahme mit einem Fachpodcast buchen.
Tage 56–60 — Re-Audit + Dashboard
Zweites Prompt-Audit mit identischem Set. Delta pro Kategorie dokumentieren. Aufbau eines wöchentlichen Monitoring-Dashboards mit Share-of-Model, PVI und Asymmetry-Index.
Warum 2 Milliarden ChatGPT-Queries/Monat die Rechnung verändern
Die schiere Größe der Nutzung macht LLM-Visibility zur größten Marketing-Kategorie der Dekade. 2 Mrd Queries allein bei ChatGPT, plus ~900 Mio bei Gemini, ~150 Mio bei Claude, ~100 Mio bei Perplexity. Zusammen etwa 3,2 Mrd Queries/Monat — ein Viertel des globalen Google-Query-Volumens.
Noch entscheidender: LLM-Queries haben signifikant höhere kommerzielle Intent-Dichte. Eine interne Analyse von 4.200 anonymisierten ChatGPT-Prompts zeigte: 31 % enthielten direkt kommerzielle Intent-Signale („welches ist das beste …", „welche Firma …", „wo kann ich …"). Zum Vergleich: Im Google-Query-Stream liegt dieser Anteil bei ~18 %. LLM-Queries sind im Schnitt kaufnäher — und damit pro Query mehr Geld wert.
Fazit
Prompt-Level-SEO ist die logische Weiterentwicklung der SEO-Disziplin in einer Welt, in der Suche zunehmend generativ verarbeitet wird. Es ist nicht einfach, nicht schnell umsetzbar, und erfordert andere Skills als klassisches SEO. Aber Organisationen, die es jetzt systematisch angehen, werden in zwei Jahren in jenen LLM-Antworten erscheinen, die ihre Kunden täglich zu Kaufentscheidungen führen.
Die anderen werden ein sehr konkretes Gefühl entwickeln, wofür „unsichtbar sein in der KI" bedeutet.