Warum eine Checkliste 2026 unverzichtbar ist
Die meisten Websites sind für KI-Suchmaschinen unsichtbar — und ihre Betreiber ahnen es nicht. Sie beobachten Google-Rankings, ignorieren alles andere und stellen eines Tages fest, dass ChatGPT, Perplexity und Google AI Overviews sie nie erwähnen.
Das ist kein vages Risiko. Über 60 % der Websites blockieren versehentlich mindestens einen KI-Crawler, und die überwiegende Mehrheit verfügt nicht über die strukturierten Daten, Zitierbarkeitssignale und Entitätsklarheit, die KI-Modelle benötigen, um ein Unternehmen selbstsicher zu empfehlen.
Diese Checkliste enthält die 16 wichtigsten KI-Sichtbarkeits-Prüfungen für 2026. Sie können sie mit den nachstehenden Anweisungen manuell durchführen oder unseren kostenlosen AI Exposure Audit nutzen, der alle 16 Prüfungen in 60 Sekunden erledigt.
Kategorie 1: Technisches SEO (4 Prüfungen)
Das Fundament. Wenn KI-Crawler Ihre Website nicht erreichen oder sauber parsen können, spielt alles andere keine Rolle.
☐ 1. robots.txt erlaubt KI-Crawler und verweist auf die Sitemap
Ihre robots.txt sollte GPTBot, ClaudeBot, PerplexityBot, Google-Extended oder andere KI-Crawler nicht blockieren. Sie sollte außerdem auf Ihre Sitemap verweisen.
User-agent: *
Allow: /
Sitemap: https://yoursite.com/sitemap.xml
Unseren vollständigen Leitfaden zu KI-Crawlern finden Sie mit Details zu allen 11 wichtigen Bots.
☐ 2. sitemap.xml vorhanden und listet alle wichtigen Seiten auf
Eine gültige /sitemap.xml mit <lastmod>-Datum bei jeder URL. Reichen Sie sie bei der Google Search Console und den Bing Webmaster Tools ein, damit Crawler Aktualisierungen schnell entdecken.
☐ 3. Canonical URL auf jeder Seite gesetzt
Jede Seite sollte ihre kanonische URL deklarieren:
<link rel="canonical" href="https://yoursite.com/page-path" />
Verhindert Verwirrung durch doppelte Inhalte, wenn KI-Modelle verschiedene Versionen Ihrer Seite vergleichen.
☐ 4. Open Graph Tags vorhanden
Hilft sozialen Plattformen und einigen KI-Engines, Ihre Seitenidentität zu verstehen:
<meta property="og:title" content="..." />
<meta property="og:description" content="..." />
<meta property="og:image" content="..." />
Kategorie 2: Inhaltsqualität (4 Prüfungen)
KI-Modelle bevorzugen Inhalte, die klar, sachlich und zitierbar sind. Marketing-Floskeln werden ignoriert.
☐ 5. Genau ein H1, der die Seite beschreibt
Jede Seite sollte ein einzelnes <h1> haben, das klar beschreibt, worum es auf der Seite geht. Mehrere H1s erschweren das KI-Parsing.
☐ 6. Mindestens 1.000 Wörter informativer Inhalt auf Schlüsselseiten
Seiten mit weniger als 300 Wörtern werden von KI-Engines routinemäßig nachrangig behandelt, weil zu wenig Kontext zum Zitieren vorhanden ist. Streben Sie 1.000+ Wörter auf Ihrer Homepage und wichtigen Landingpages an.
☐ 7. FAQ-Bereich mit 5 oder mehr Fragen
Ein klarer FAQ-Bereich, idealerweise mit FAQPage-Schema, gibt KI-Engines fertige Frage-Antwort-Paare, die sie in ihren Antworten einsetzen können. Das ist eines der Signale mit dem höchsten ROI.
☐ 8. Marketing-zu-Information-Verhältnis unter 2 %
Seiten, die von Marketing-Phrasen wie „weltklasse”, „branchenführend” oder „innovative Lösungen” dominiert werden, werden abgewertet. KI-Modelle belohnen faktenreiche Inhalte mit konkreten Zahlen, Daten und nachprüfbaren Aussagen.
Kategorie 3: Strukturierte Daten (3 Prüfungen)
Schema.org-Markup gibt KI-Engines eine maschinenlesbare Karte Ihres Unternehmens. Vollständige Code-Beispiele finden Sie in unserem Leitfaden zu strukturierten Daten.
☐ 9. Organization-Schema mit sameAs-Links
JSON-LD Organization-Schema auf Ihrer Homepage mit sameAs-Links zu LinkedIn, Twitter, Crunchbase, Wikipedia und anderen autoritativen Profilen. Das ist die wirkungsvollste einzelne Ergänzung für die KI-Entitätserkennung.
☐ 10. WebSite-Schema mit SearchAction
Ein WebSite-Schema mit einer SearchAction ermöglicht es KI-Engines zu verstehen, wie sie Nutzer zu einer Suche auf Ihrer Website weiterleiten können. Besonders wertvoll für inhaltsreiche Websites.
☐ 11. FAQPage-Schema auf FAQ-Inhalten
Wenn Sie einen FAQ-Bereich haben (Prüfung 7), umschließen Sie ihn mit FAQPage-JSON-LD, damit KI-Engines einzelne Frage-Antwort-Paare direkt in ihre Antworten übernehmen können.
Kategorie 4: GEO-Bereitschaft (3 Prüfungen)
Generative Engine Optimization umfasst Signale, die speziell für die KI-Suche gelten — sie unterscheiden eine Website, die zitiert wird, von einer, die ignoriert wird.
☐ 12. llms.txt-Datei unter /llms.txt
Eine maschinenlesbare Zusammenfassung Ihrer Website unter ihreseite.de/llms.txt. Fungiert als „Elevator Pitch”, auf den KI-Modelle zurückgreifen können. Vorlagen finden Sie in unserem llms.txt-Leitfaden.
☐ 13. Klare Entitätsbeschreibung im ersten Abschnitt der Homepage
KI-Engines müssen in einem Satz verstehen, wer Sie sind. Ihre Homepage sollte klar formulieren: „X ist ein [Typ], der [Zielgruppe] hilft, [Nutzen] zu erreichen.” Keine Marketing-Floskeln — nur eine saubere, sachliche Definition.
☐ 14. Mindestens 5 zitierbare Blöcke (Fakten, Statistiken, Definitionen)
Seiten sollten in sich geschlossene, faktenreiche Absätze (130–170 Wörter) mit konkreten Zahlen, Daten oder Definitionen enthalten. Das sind die Passagen, die KI-Modelle zitieren, wenn sie Nutzerfragen beantworten.
Kategorie 5: KI-Crawler-Zugang (2 Prüfungen)
Selbst bei perfekten Inhalten bedeuten blockierte Crawler null Sichtbarkeit.
☐ 15. Alle Tier 1-KI-Bots ausdrücklich erlaubt
Die wichtigsten Bots, die einzeln geprüft werden sollten:
| Bot | Unternehmen | Funktion |
|---|---|---|
| GPTBot | OpenAI | ChatGPT-Training und Browsing |
| OAI-SearchBot | OpenAI | ChatGPT-Suchergebnisse |
| ChatGPT-User | OpenAI | Live-ChatGPT-Browsing |
| ClaudeBot | Anthropic | Claude-Inhaltszugriff |
| PerplexityBot | Perplexity | Perplexity-Zitationen |
Keiner dieser Bots sollte unter Disallow in Ihrer robots.txt erscheinen.
☐ 16. Google-Extended und wichtige Tier 2-Bots erlaubt
Google-Extended steuert, ob Ihre Inhalte in Google AI Overviews und Gemini erscheinen. Eine Blockierung hat null Auswirkung auf Ihre Google-Suchrankings, zerstört aber Ihre Sichtbarkeit in AI Overviews. Prüfen Sie außerdem Applebot-Extended (Siri), Bytespider (TikTok AI) und CCBot (Common Crawl, wird von vielen Modellen genutzt).
So führen Sie diese Checkliste in 60 Sekunden durch
Sie können diese 16 Prüfungen manuell durchgehen — robots.txt öffnen, Ihr HTML inspizieren, Schemas validieren, zitierbare Absätze zählen — das dauert pro Website jedoch einige Stunden.
Oder Sie nutzen den kostenlosen AI Exposure Audit und erhalten alle 16 Ergebnisse in unter einer Minute, dazu einen priorisierten Aktionsplan mit schrittweisen Korrekturen und Code-Beispielen für alles, was nicht besteht.
Was die besten Websites richtig machen
Die Websites, die KI-Engines konsequent zitieren, haben fünf Gemeinsamkeiten:
- Sie haben GEO von Anfang an bewusst eingeplant, anstatt es nachträglich hinzuzufügen
- Sie veröffentlichen strukturierte Daten auf jeder wichtigen Seite
- Sie haben eine llms.txt-Datei, die ihr Unternehmen klar beschreibt
- Sie blockieren keine KI-Crawler — siehe unseren vollständigen Crawler-Leitfaden
- Sie schreiben faktenreiche Inhalte mit konkreten Zahlen und Quellenangaben
Man muss kein Fortune-500-Unternehmen sein, um von KI zitiert zu werden. Man muss auffindbar, zitierbar und klar auf sein Thema ausgerichtet sein.
Möchten Sie genau wissen, welche dieser 16 Prüfungen Ihre Website besteht oder nicht besteht? Führen Sie einen kostenlosen AI Exposure Audit durch — erhalten Sie Ihren Score über alle 16 Prüfungen in 60 Sekunden, mit einem priorisierten Aktionsplan inklusive schrittweiser Korrekturen.