Die meisten SEO-Ratschläge für AI-Suche sind noch vage Slogans. „Schreib für E-E-A-T." „Sei die Antwort." Nützliche Rahmen, aber man kann keinen Slogan operationalisieren.
Dies ist das Arbeitsplaybook, das wir verwenden, um Seiten von ChatGPT-Websuche, Perplexity, Google AI Overviews und Bing Copilot zitieren zu lassen. Es ist keine Theorie. Das gleiche Playbook läuft gerade auf dieser Website.
AEO und GEO, sauber definiert
Zwei Akronyme, oft lose verwendet. Die sauberen Definitionen:
- AEO — Answer Engine Optimization. Das Zitieren Ihrer Inhalte als direkte Antwort in antwort-zentrierten Oberflächen (Google AI Overviews, Featured Snippets, Sprachassistenten, ChatGPT-Suchergebnisse, Perplexity-Zitate).
- GEO — Generative Engine Optimization. Die breitere Kategorie, die abdeckt, wie generative KI-Systeme Ihre Inhalte abrufen, zusammenfassen und zuordnen. AEO ist eine Teilmenge.
Beide haben eine gemeinsame Anforderung: Die KI-Engine muss Ihre Inhalte finden, sicher analysieren, sie einer glaubwürdigen Quelle zuordnen und sie dem Benutzer zurück referenzieren. Jeder dieser Schritte ist ein Hebel, den Sie betätigen können.
Warum das alte SEO-Playbook nicht ausreicht
Klassische SEO optimiert für eine Sache: einen anklickbaren Link in einem SERP. KI-Suche optimiert für zwei Dinge: den Inhalt in das Kontextfenster des Modells zu bringen und zitiert zu werden, wenn das Modell die Antwort generiert. Das sind unterschiedliche Probleme.
Beispiele, wo sich die Playbooks unterscheiden:
- Keyword-Dichte hilft einem LLM nicht. Klare sachliche Aussagen schon.
- Lange Präambeln vor der Antwort schaden der KI-Zitierung. Das TL;DR-Muster gewinnt.
- Seiten, die Inhalte hinter Registern oder Akkordeons verbergen, erhalten teilweise Extraktion. Flaches HTML mit semantischen Überschriften erhält vollständige Extraktion.
- Generische Inhalte, die von Konkurrenten umgeschrieben wurden, verlieren. First-Party-Erfahrung und spezifische Daten gewinnen.
Die fünfstufige Pipeline
Die Pipeline, die wir für jeden veröffentlichten Artikel auf dieser Website durchführen:
Phase 1: Recherche mit Tavily
Tavily ist eine Such-API, die für LLMs entwickelt wurde. Die gleiche Art von API, die jeder AI-Agent verwendet, um aktuelle Informationen abzurufen. Vor dem Schreiben rufen wir 5 bis 10 aktuelle Quellen zum Thema über den Tavily-Such-Endpunkt ab, mit `search_depth: "advanced"` für hochwertige Artikel.
Warum das für AEO wichtig ist: AI Overviews bevorzugen Inhalte, die mit dem aktuellen Konsens übereinstimmen. Das Schreiben nur aus Trainingsdaten erzeugt veraltete Inhalte. Das Schreiben aus aktuellen Quellen erzeugt Inhalte, die mit dem übereinstimmen, was die KI bereits als wahr "kennt" — und wird deshalb zitiert.
Wir kopieren nicht aus Quellen. Wir verwenden sie, um Daten, Zahlen, benannte Entitäten und den aktuellen Stand von schnelllebigen Themen vor dem Schreiben zu überprüfen.
Phase 2: Entwurf mit First-Party-Voice
KI-Engines sind darauf trainiert, First-Party-Erfahrung zu identifizieren und zu vertrauen. Drei Muster, die zu Zitaten führen:
- Ich-Form: "Ich habe das eine Woche lang getestet" schlägt "Das wurde getestet".
- Spezifische Daten: "LCP sank von 2,8s auf 0,7s" schlägt "Die Leistung verbesserte sich deutlich".
- Ehrliche Eingrenzung: "Das funktioniert für X, nicht für Y" schlägt "Umfassende Lösung für jeden".
Wir vermeiden das KI-generische Register. Wörter wie comprehensive, leverage, cutting-edge, robust, seamless, streamline und unlock potential signalisieren KI-Autorschaft für Menschen und für die Engines, die Inhalte bewerten. Die vollständige Banlist, die wir verwenden, befindet sich in unserem Content-Styleguide.
Stufe 3: Verifizierung mit Winston AI Detector
Winston ist ein KI-Content-Detektor mit einem öffentlichen API-Endpoint bei /v1/ai-content-detection. Wir führen jeden Entwurf durch ihn durch, bevor wir ihn veröffentlichen. Die Bewertung gibt einen Prozentsatz der Menschlichkeit zurück.
Unser Gate: Alles unter 80 Prozent Menschlichkeit geht zurück für einen weiteren Durchgang. Die Arbeit, die 95+ erreicht, ist Inhalt, bei dem Struktur, Stimme und Rhythmus alle von Standard-LLM-Mustern abgewichen sind. Diese Bewertung korreliert damit, wie KI-Engines den Inhalt selbst klassifizieren — Inhalt, der sich menschlich anfühlt, wird häufiger zitiert als Inhalt, der sich wie KI anfühlt.
Auf dieser Website haben die sechs neuesten Beiträge alle 100/100 Menschlichkeit in Winston erzielt. Das ist eine bewusste Wahl, kein glücklicher Zufall.
Stufe 4: Struktur mit Schema
Hier endet der meiste AEO-Rat an der Oberfläche. Die Schema-Muster, die tatsächlich einen Unterschied machen:
- Article / BlogPosting mit mainEntityOfPage, author Person mit sameAs, publisher Organization mit logo, datePublished, dateModified, keywords, articleSection, wordCount, isAccessibleForFree, image als ImageObject mit width und height.
- FAQPage, wenn der Body Q&A-Struktur hat. Dies ist das höchste AEO-Schema. Direkte AI-Overview-Zitierquelle.
- Speakable mit cssSelector, das auf dein TL;DR oder Introabsätze verweist. Voice- und AI-Overview-Engines zeigen speakable-Inhalte an.
- HowTo wenn der Post wirklich eine Schritt-für-Schritt-Anleitung ist. Erfasst die "wie man X macht"-Absicht in der KI-Suche.
- Service-Schema mit provider, areaServed, audience, Offer mit priceSpecification auf kommerziellen Seiten.
- Verknüpfte Entitäten über @id-Graph. Die Rückverbindung deines Article zu einer Person und der Person zu einer Organization mit sameAs erstellt einen überprüfbaren Identity-Graph, den die Suchmaschinen tatsächlich nutzen.
Wir geben all dies dynamisch pro Route auf dieser Website aus. Der statische Head enthält nur das Entity-Level-Schema (Person, Organization, WebSite). Pro-Seite-Schema wird durch JS basierend auf der aktiven Route eingespritzt.
Stufe 5: Barrierefreiheit für KI-Crawler
Letzte Stufe, oft übersprungen: sicherstellen, dass die KI-Crawler deinen Content tatsächlich abrufen können.
- llms.txt im Root-Verzeichnis: eine prägnante Markdown-Datei, die deine Top-URLs mit Beschreibungen auflistet. KI-Crawler suchen danach. Viele Websites haben noch keine.
- robots Meta-Tag mit `max-snippet:-1, max-image-preview:large, max-video-preview:-1`. Entfernt Standard-Snippet-Längenbeschränkungen. AI-Overview-Snippets werden länger, wenn dies vorhanden ist.
- JS-gerenderter Content: Die meisten KI-Crawler rendern JavaScript nicht. Wenn dein Hero, H1 oder Canonical nur nach der JS-Ausführung existieren, sehen die Suchmaschinen nichts. Server-render oder pre-render die kritischen SEO-Elemente.
- Erlaube ChatGPT-User, PerplexityBot, Google-Extended, ClaudeBot, anthropic-ai User-Agents in robots.txt. Einige Websites blockieren sie standardmäßig mit zu aggressiven Bot-Regeln.
Was dich zitiert werden lässt (in Reihenfolge der Auswirkungen)
Aus der Beobachtung von Dutzenden zitierten Seiten und Dutzenden, die es sein sollten, aber nicht: die Prioritätsreihenfolge:
- 1. Spezifische faktische Aussagen mit Zahlen, Daten und benannten Entitäten
- 2. FAQ-ähnliche Struktur mit direkten Frage-Antwort-Paaren
- 3. Erstanbieter-Erfahrung ("Ich habe getestet", "wir haben gemessen", "unser Kunde")
- 4. Aktualität — dateModified in den letzten 90 Tagen übertrifft ältere Inhalte
- 5. Verknüpftes Entitätsgraph (Person, Organization, sameAs)
- 6. TL;DR oder Zusammenfassung am Anfang des Artikels
- 7. Sauberes semantisches HTML mit einem H1 und korrekter H2/H3-Hierarchie
- 8. Speakable Schema, das die zitierbare Passagen kennzeichnet
Was tötet Zitierungschancen
- Inhalte, die wie Standard-LLM-Ausgabe klingen (weitschweifig, vorsichtig, generisch)
- Lange Einleitungen vor der eigentlichen Antwort
- Inhalte hinter Tabs, Akkordeons oder Karussells, die Crawler nicht erweitern können
- Mit Affiliate-Links vollgepackte Seiten, bei denen 40 Prozent des Inhalts aus Produktkarten besteht
- Seiten ohne klaren Autor, Herausgeber oder Anmeldedaten
- Schema, das falsch ist (fehlerhaftes JSON-LD disqualifiziert die Seite stillschweigend)
- Websites, die AI-Crawler in robots.txt blockieren und sich dann beschweren, nicht zitiert zu werden
Messen, ob das Playbook funktioniert
Drei Signale zum Verfolgung:
- Direkt: Google Search Console Leistungsdaten, segmentiert nach Abfragetyp. AI Overview-Impressionen erscheinen unter bestimmten Positionsbereichen.
- Indirekt: Verfolgen Sie ChatGPT- und Perplexity-Referrer-Traffic in Ihrer Analyse. Das Volumen ist klein, wächst aber schnell.
- Audit-basiert: Fragen Sie ChatGPT, Perplexity und Google monatlich mit Ihren Zielabfragen ab. Notieren Sie, welche Quellen für jede zitiert werden. Verfolgen Sie Woche für Woche.
Tools wie der DataForSEO AI mentions endpoint und der ChatGPT scraper bieten programmatischen Zugriff auf dieselben Daten im großen Maßstab.
Ehrliche Einschränkungen
Zwei Dinge, bei denen wir klar sein sollten:
AI-Suche ist noch keine primäre Verkehrsquelle für die meisten Websites. Das Volumen ist real und wächst, entspricht aber noch nicht der organischen Google-Suche. Optimieren Sie dafür, weil die Entwicklung klar ist, nicht weil es heute die Rechnungen bezahlt.
Die Engines ändern sich wöchentlich. Was im Februar 2026 Zitate verdient hat, kann im November nicht der Fall sein. Die obige Pipeline ist langlebiger als jede spezifische Taktik, da sie sich auf Signale konzentriert (Aktualität, Struktur, Stimme, Identität), die alle Engines gewichten, nicht auf Besonderheiten einer Engine.
Was wir auf dieser Website ausführen
Konkret, für die Neugierigen:
- Tavily Search API für Vorrecherchen zu sich schnell entwickelnden Themen
- Winston AI detector v1/ai-content-detection bei jedem Entwurf, Gating bei 80+ Menschenähnlichkeit
- FAL flux-dev für Hero-Images, gespeichert als Sanity-Assets
- Sanity Headless CMS speist eine Single-Page-App, die auf Netlify gerendert wird
- Pro-Route dynamisches Schema (Article, FAQPage, Speakable, HowTo, Service, BreadcrumbList) injiziert durch JS
- llms.txt im Root-Verzeichnis, robots meta mit max-snippet:-1 und max-image-preview:large
- Linked-Entity-Graph: Person mit sameAs zu LinkedIn/X/YouTube, Organization für Seahawk Media als Publisher
Wenn Sie das Schema in Aktion sehen möchten, schauen Sie sich den Quelltext auf einem beliebigen Beitrag auf dieser Website an. Oder lesen Sie WordPress vs Next.js in 2026 für das Vergleichsstück, das dieses Playbook zuerst produziert hat.WordPress vs Next.js in 2026for the comparison piece this playbook produced first.
Das Fazit
AEO und GEO sind keine Zauberei. Sie sind eine Content-Production-Disziplin plus ein kleiner Satz von technischen Barrierefreiheitsmaßnahmen. Die Teams, die gut in AI Search abschneiden, sind die gleichen Teams, die auch in klassischem SEO gut abschneiden — sie fügen nur drei Dinge hinzu: aktuelle Recherche, eine Stimme, die nicht wie AI klingt, und Schema, das es Engines ermöglicht, den Content sauber zu parsen.
Wenn Sie Hilfe bei der Operationalisierung für Ihre Website benötigen, buchen Sie einen 30-minütigen Anruf und wir werden Ihren Stack, Ihren Content-Workflow und die Bereiche mit den höchsten Auswirkungen durchgehen.book a 30-minute calland we will walk through your stack, your content workflow, and where the highest-impact changes are.
Weiterführende Lektüre
→ Prompt Engineering 2026: Was es ist und was es bezahltPrompt engineering in 2026: what it is and what it pays
→ Ich habe diese KI-Website in 24 Stunden erstelltI Built This AI Website in 24 Hours
→ WordPress vs Next.js 2026: mein ehrlicher VergleichWordPress vs Next.js in 2026: my honest comparison
→ Headless WordPress 2026: das vollständige praktische HandbuchHeadless WordPress in 2026: the complete practical guide
