56 Tools in 8 Kategorien — die ich tatsächlich nutze, mit Versionen, Zweck, Nutzungs-Frequenz und Auswahlgrund. Keine Affiliate-Links. Keine Sponsored Mentions. Keine Marketing-Ansprüche. Die Liste wird quartalsweise überarbeitet, veraltete Tools fliegen raus.
Wenn ich morgens den Rechner hochfahre, öffnet sich automatisch dieses Set. Ohne eines davon wäre meine Arbeit substanziell beeinträchtigt. Die Reihenfolge ist intentional — nach Frequenz und strategischem Gewicht.
Authoritative Datenquelle für Impressions, Klicks, Rankings, Indexierung. API-Export in BigQuery.
Der Standard-Crawler für Tech-Audits. Lokal, skriptbar, Custom-Extraction.
Backlink-Index mit konkurrenzloser Tiefe. Für Competitor-Delta-Analysen Pflicht.
Data Warehouse für alles: GSC, GA4, Crawler-Logs, LLM-Visibility-Runs.
Eigene Python-Pipeline über GPT/Claude/Gemini/Perplexity — Monats-Cross-Model-Audit.
Die Basis jedes Audits. Lokal ausführbare Tools für Rohdaten-Integrität. Keine Cloud-Only-Lösungen, wo es auf exakte Nachvollziehbarkeit ankommt.
Der Standard-Crawler für technische Audits. Konfigurierbar bis ins Detail, JavaScript-Rendering, JSON-LD-Extraktion, Custom Search, Custom Extraction über XPath/CSS, API-Integration zu GSC & GA4.
Ergänzend zu Screaming Frog, besonders bei JavaScript-Heavy-Sites. Rendering-Analyse und Hint-System decken Blindspots auf.
Für Enterprise-Crawls > 10M URLs, wo lokale Tools an Grenzen stoßen. Scheduled Crawls, Cross-Domain-Reports, Change-Monitoring.
Render-Tree, Network-Waterfall, Lighthouse-Audits, Performance-Profiling. Nicht ersetzbar für Debugging-Sessions.
Präzise Performance-Analysen über unterschiedliche Regionen, Geräte und Throttling-Profile. Filmstrip-Visualisierung für LCP-Debugging.
Für automatisierte CWV-Monitorings. Aggregierte Lab-+Field-Daten über CrUX, skriptbar für ganze Seiten-Sets.
Wo Standard-Tools aufhören und eigene Setups beginnen. Cross-Model-Testing gehört 2026 zur Pflicht, nicht zur Kür.
Eigener Python-Stack (OpenAI, Anthropic, Google Gemini, Perplexity Sonar APIs). Automatisierte Brand-Query-Evaluierung über 500–2.000 kuratierte Prompts, 5 Runs/Modell. Output in BigQuery mit NER + Sentiment-Pipeline.
Kommerzielle Plattform für AI-Visibility-Tracking. Brand-Mention-Rate und Citation-Share über Modelle. Für Kunden, die kein eigenes Setup wollen.
Ergänzend: AI-Search-Visibility mit Fokus auf Perplexity und ChatGPT Search. Gute Keyword-Cluster-Ansichten.
Für Enterprise-Kunden mit komplexen Cross-Market-Setups. Agent-basiertes Monitoring von Brand-Mentions über alle Major-LLMs.
Für Content-Analyse, QUEST-Prüfungen, Competitor-Paraphrase-Tests. Projekt-scoped Chats mit persistent Kontext.
Für strukturierte Content-Transformation, längere Kontext-Fenster (200k+), stärkere semantische Kohärenz als GPT-4o bei Fach-Themen.
Direkter API-Zugriff auf Perplexity-Answers mit Zitations-Metadaten. Für automatisierte Citation-Rate-Messung.
Open-Source NLP für Named-Entity-Recognition in Mention-Audits. Lokal ausführbar, datenschutzkonform, fine-tunable auf Branchen-Vokabular.
Rankings, Backlinks, Content-Gaps, Sichtbarkeitsindizes. Was klassisches SEO-Reporting stützt — und als Vergleichsbasis zum GEO-Layer dient.
Primär für Backlink-Profile, Authority-Signal-Analyse, Competitor-Delta. Index-Tiefe bleibt 2026 konkurrenzlos. API-Integration in Dashboards.
Sichtbarkeitsindex für DACH-Märkte. Besonders wertvoll für historische Daten ab 2008 und deutsche Mitbewerber-Analyse.
Ergänzend für Keyword-Research, SERP-Feature-Analyse, Content-Gap in englischsprachigen Märkten. Stärken in US/UK, Schwächen in Kleinsprachmärkten.
Die einzig authoritative Quelle für Impressions, CTR, Rankings, Indexierung. API-Export in BigQuery für Cross-Dimension-Analysen jenseits 16-Monate.
Nicht unterschätzen: Bing speist ChatGPT-Search. Index-Status, Keyword-Performance, URL-Inspektion parallel zu GSC.
Daily Rank-Tracking mit SERP-Feature-Differenzierung (AIO? PAA? Shopping?). Alert-basiert, nicht Report-basiert — darum wertvoll.
White-Label-Reporting für Kunden, sauberes API, SERP-Screenshots als Beleg. Ergänzung zu Nightwatch.
Content-Editor mit Semantic-Density-Scoring und Competitor-Overlay. Gut für Briefings, nicht für blindes Optimieren.
Ohne saubere Attribution keine valide Aussage. Anspruch: Rohdaten behalten, nicht auf aggregierte Tool-Reports verlassen.
Nicht das Interface — der BigQuery-Raw-Export. Für ernsthafte Attribution-Arbeit unverzichtbar. Sampling und Tool-Aggregation-Fehler fallen weg.
Datenschutz-konforme Alternative für DACH-Mandate mit strengen DSGVO-Anforderungen. Volle Daten-Souveränität.
Data Warehouse für alles: GSC, GA4, Log-Files, KI-Visibility-Ergebnisse, Crawler-Daten. SQL-driven Analyse, ML-Modelle on top.
Data-Transformation-Layer zwischen BigQuery und Dashboards. Versionierte SQL-Modelle, Tests, Dokumentation.
Für Kunden-Dashboards: GSC, GA4, BigQuery, Ahrefs, Sistrix verbunden. Update-Frequenz: täglich. Wochen- und Monats-Reports automatisiert.
Ad-hoc-Analysen, Custom Attribution Models, Cohort-Studien. pandas, numpy, scikit-learn, OpenAI SDK. Notebook-basierte Reproduktion.
Für lokale Analyse mittelgroßer Log-Files (1–100 GB) ohne BigQuery-Overhead. Extrem schnell, SQL-native.
Für interne Analysis-Dashboards mit eingebettetem JS/SQL. Wenn Looker zu starr wird.
Strukturierte Daten sind das Fundament jeder GEO-Arbeit. Ohne rigorose Validierung bricht die Entity-Kette an der ersten Stelle.
Primäre Validierung aller JSON-LD-Implementierungen. Findet strukturelle Fehler, die Google Rich Results Test übersieht.
Eligibility-Check für Rich Results. Zeigt, welche Features (FAQ, HowTo, Article, Breadcrumb) pro URL aktivierbar sind.
Für Entity-Konsolidierung, Knowledge-Graph-Verankerung, Cross-Language-sameAs-Mapping. SPARQL-Queries auf Wikidata.
Direktabfrage von Googles Knowledge Graph pro Entity. Zeigt sofort, ob eine Marke verankert ist.
Entity-basierte Content-Optimierung. Automatisierte semantische Analyse und interne Verlinkung auf Entity-Level.
Strukturierte Extraktion aus Web-Seiten mit eigenem Knowledge Graph. Für Competitor-Entity-Mapping.
Kontinuierliches Watching, nicht punktuelles Prüfen. Frühsignale sind die wertvollsten — und werden meist übersehen.
Server-Logs aggregiert, segmentiert nach Bot-User-Agent (Googlebot, GPTBot, ClaudeBot, PerplexityBot). HTTP-Status-Code-Analyse für 429-Dead-Zone-Detection.
Für Kunden-Setups mit großvolumigen Logs (10M+/Tag). Live-Dashboards, Alerts auf Crawler-Anomalien.
Brand-Monitoring über Presse, Social, Foren, Reddit. Sentiment-Klassifikation, RDI-Input, frühe Reputations-Drift-Detektion.
Ergänzend zu Talkwalker: stärker in gedruckter und TV-Presse, für Enterprise-Mandate mit klassischer PR-Komponente.
Simple Brand-Mention-Alerts. Nicht präzise, aber hyper-schnell — guter Frühwarn-Layer für unbekannte Brand-Nennungen.
Status-Monitoring der Kunden-Domains inklusive robots.txt-Change-Detection. Alerts bei unerwarteten Disallow-Ergänzungen.
Seiten-Change-Detection für Competitor-Monitoring. Erkennt Content-Updates, neue Landingpages, Schema-Veränderungen.
Nicht glamourös, aber kritisch. Wo Insights in Kundenwissen übersetzt werden.
Wissensbasis, Kundenprojekte, Playbooks, Research-Notes. Single Source of Truth für alle textuellen Artefakte.
Für Entity-Maps, Topical-Maps, Sitemap-Diagramme, Report-Layouts. Collaborative Visualisierung von Strategien.
Projekt- & Task-Management für SEO-Mandate. Scheduled Recurring Tasks für monatliche Audits.
Für Audit-Walkthroughs und Briefing-Videos. Schnelleres Erklären als textliche Reports; Kunden schätzen es.
Lokales Personal Knowledge Management. Zettelkasten für Research-Insights, Frameworks, Case-Learnings.
Ohne Automation skaliert SEO 2026 nicht. Jede wiederkehrende Analyse gehört in ein Skript.
AI-native IDE für Python-Pipelines, SQL-Modelle, Custom-Analysen. Ersetzt VS Code für ML-/NLP-Workflows.
Agentic Coding für komplexe Refactorings, Batch-Operations, SEO-Audits. Auf MacOS als primäres Terminal-Setup.
Versionierung für Scripts, Dashboards, Kunden-Konfigurationen. Actions für geplante Crawls und Reports.
Edge-Layer für Kunden-Projekte: WAF-Regeln für KI-Crawler, Cache-Headers, A/B-Tests, JSON-API-Deployment.
Für Landing-Experimente und Micro-Sites, wo schnelle Deploys wichtig sind. Next.js Preview-URLs als Test-Umgebung.
Browser-Automation für komplexe Crawls, Login-geschützte Seiten, SERP-Screenshots. Python-Bindings bevorzugt.
Automations-Layer zwischen Tools. Alerts → Slack, Crawl-Completions → Linear-Tasks, Peec-AI-Daten → BigQuery.
Credential-Management für 100+ Kunden-Tool-Zugänge. API-Keys strikt per Team-Vault.
Letzte Aktualisierung: April 2026 · Nächstes Review: Juli 2026 · Der Stack entwickelt sich mit dem Markt — neue Tools werden ergänzt, obsolete entfernt.