KI-Sichtbarkeits-Checkliste: Die 16 Prüfungen, die jede Website 2026 braucht

Die komplette KI-Sichtbarkeits-Checkliste für 2026. 16 konkrete Prüfungen in den Bereichen Technisches SEO, Inhalt, Strukturierte Daten, GEO-Bereitschaft und KI-Crawler-Zugang, damit ChatGPT, Perplexity und Google AI Ihre Website finden und zitieren.

Warum eine Checkliste 2026 unverzichtbar ist

Die meisten Websites sind für KI-Suchmaschinen unsichtbar — und ihre Betreiber ahnen es nicht. Sie beobachten Google-Rankings, ignorieren alles andere und stellen eines Tages fest, dass ChatGPT, Perplexity und Google AI Overviews sie nie erwähnen.

Das ist kein vages Risiko. Über 60 % der Websites blockieren versehentlich mindestens einen KI-Crawler, und die überwiegende Mehrheit verfügt nicht über die strukturierten Daten, Zitierbarkeitssignale und Entitätsklarheit, die KI-Modelle benötigen, um ein Unternehmen selbstsicher zu empfehlen.

Diese Checkliste enthält die 16 wichtigsten KI-Sichtbarkeits-Prüfungen für 2026. Sie können sie mit den nachstehenden Anweisungen manuell durchführen oder unseren kostenlosen AI Exposure Audit nutzen, der alle 16 Prüfungen in 60 Sekunden erledigt.

Kategorie 1: Technisches SEO (4 Prüfungen)

Das Fundament. Wenn KI-Crawler Ihre Website nicht erreichen oder sauber parsen können, spielt alles andere keine Rolle.

☐ 1. robots.txt erlaubt KI-Crawler und verweist auf die Sitemap

Ihre robots.txt sollte GPTBot, ClaudeBot, PerplexityBot, Google-Extended oder andere KI-Crawler nicht blockieren. Sie sollte außerdem auf Ihre Sitemap verweisen.

User-agent: *
Allow: /

Sitemap: https://yoursite.com/sitemap.xml

Unseren vollständigen Leitfaden zu KI-Crawlern finden Sie mit Details zu allen 11 wichtigen Bots.

☐ 2. sitemap.xml vorhanden und listet alle wichtigen Seiten auf

Eine gültige /sitemap.xml mit <lastmod>-Datum bei jeder URL. Reichen Sie sie bei der Google Search Console und den Bing Webmaster Tools ein, damit Crawler Aktualisierungen schnell entdecken.

☐ 3. Canonical URL auf jeder Seite gesetzt

Jede Seite sollte ihre kanonische URL deklarieren:

<link rel="canonical" href="https://yoursite.com/page-path" />

Verhindert Verwirrung durch doppelte Inhalte, wenn KI-Modelle verschiedene Versionen Ihrer Seite vergleichen.

☐ 4. Open Graph Tags vorhanden

Hilft sozialen Plattformen und einigen KI-Engines, Ihre Seitenidentität zu verstehen:

<meta property="og:title" content="..." />
<meta property="og:description" content="..." />
<meta property="og:image" content="..." />

Kategorie 2: Inhaltsqualität (4 Prüfungen)

KI-Modelle bevorzugen Inhalte, die klar, sachlich und zitierbar sind. Marketing-Floskeln werden ignoriert.

☐ 5. Genau ein H1, der die Seite beschreibt

Jede Seite sollte ein einzelnes <h1> haben, das klar beschreibt, worum es auf der Seite geht. Mehrere H1s erschweren das KI-Parsing.

☐ 6. Mindestens 1.000 Wörter informativer Inhalt auf Schlüsselseiten

Seiten mit weniger als 300 Wörtern werden von KI-Engines routinemäßig nachrangig behandelt, weil zu wenig Kontext zum Zitieren vorhanden ist. Streben Sie 1.000+ Wörter auf Ihrer Homepage und wichtigen Landingpages an.

☐ 7. FAQ-Bereich mit 5 oder mehr Fragen

Ein klarer FAQ-Bereich, idealerweise mit FAQPage-Schema, gibt KI-Engines fertige Frage-Antwort-Paare, die sie in ihren Antworten einsetzen können. Das ist eines der Signale mit dem höchsten ROI.

☐ 8. Marketing-zu-Information-Verhältnis unter 2 %

Seiten, die von Marketing-Phrasen wie „weltklasse”, „branchenführend” oder „innovative Lösungen” dominiert werden, werden abgewertet. KI-Modelle belohnen faktenreiche Inhalte mit konkreten Zahlen, Daten und nachprüfbaren Aussagen.

Kategorie 3: Strukturierte Daten (3 Prüfungen)

Schema.org-Markup gibt KI-Engines eine maschinenlesbare Karte Ihres Unternehmens. Vollständige Code-Beispiele finden Sie in unserem Leitfaden zu strukturierten Daten.

JSON-LD Organization-Schema auf Ihrer Homepage mit sameAs-Links zu LinkedIn, Twitter, Crunchbase, Wikipedia und anderen autoritativen Profilen. Das ist die wirkungsvollste einzelne Ergänzung für die KI-Entitätserkennung.

☐ 10. WebSite-Schema mit SearchAction

Ein WebSite-Schema mit einer SearchAction ermöglicht es KI-Engines zu verstehen, wie sie Nutzer zu einer Suche auf Ihrer Website weiterleiten können. Besonders wertvoll für inhaltsreiche Websites.

☐ 11. FAQPage-Schema auf FAQ-Inhalten

Wenn Sie einen FAQ-Bereich haben (Prüfung 7), umschließen Sie ihn mit FAQPage-JSON-LD, damit KI-Engines einzelne Frage-Antwort-Paare direkt in ihre Antworten übernehmen können.

Kategorie 4: GEO-Bereitschaft (3 Prüfungen)

Generative Engine Optimization umfasst Signale, die speziell für die KI-Suche gelten — sie unterscheiden eine Website, die zitiert wird, von einer, die ignoriert wird.

☐ 12. llms.txt-Datei unter /llms.txt

Eine maschinenlesbare Zusammenfassung Ihrer Website unter ihreseite.de/llms.txt. Fungiert als „Elevator Pitch”, auf den KI-Modelle zurückgreifen können. Vorlagen finden Sie in unserem llms.txt-Leitfaden.

☐ 13. Klare Entitätsbeschreibung im ersten Abschnitt der Homepage

KI-Engines müssen in einem Satz verstehen, wer Sie sind. Ihre Homepage sollte klar formulieren: „X ist ein [Typ], der [Zielgruppe] hilft, [Nutzen] zu erreichen.” Keine Marketing-Floskeln — nur eine saubere, sachliche Definition.

☐ 14. Mindestens 5 zitierbare Blöcke (Fakten, Statistiken, Definitionen)

Seiten sollten in sich geschlossene, faktenreiche Absätze (130–170 Wörter) mit konkreten Zahlen, Daten oder Definitionen enthalten. Das sind die Passagen, die KI-Modelle zitieren, wenn sie Nutzerfragen beantworten.

Kategorie 5: KI-Crawler-Zugang (2 Prüfungen)

Selbst bei perfekten Inhalten bedeuten blockierte Crawler null Sichtbarkeit.

☐ 15. Alle Tier 1-KI-Bots ausdrücklich erlaubt

Die wichtigsten Bots, die einzeln geprüft werden sollten:

BotUnternehmenFunktion
GPTBotOpenAIChatGPT-Training und Browsing
OAI-SearchBotOpenAIChatGPT-Suchergebnisse
ChatGPT-UserOpenAILive-ChatGPT-Browsing
ClaudeBotAnthropicClaude-Inhaltszugriff
PerplexityBotPerplexityPerplexity-Zitationen

Keiner dieser Bots sollte unter Disallow in Ihrer robots.txt erscheinen.

☐ 16. Google-Extended und wichtige Tier 2-Bots erlaubt

Google-Extended steuert, ob Ihre Inhalte in Google AI Overviews und Gemini erscheinen. Eine Blockierung hat null Auswirkung auf Ihre Google-Suchrankings, zerstört aber Ihre Sichtbarkeit in AI Overviews. Prüfen Sie außerdem Applebot-Extended (Siri), Bytespider (TikTok AI) und CCBot (Common Crawl, wird von vielen Modellen genutzt).

So führen Sie diese Checkliste in 60 Sekunden durch

Sie können diese 16 Prüfungen manuell durchgehen — robots.txt öffnen, Ihr HTML inspizieren, Schemas validieren, zitierbare Absätze zählen — das dauert pro Website jedoch einige Stunden.

Oder Sie nutzen den kostenlosen AI Exposure Audit und erhalten alle 16 Ergebnisse in unter einer Minute, dazu einen priorisierten Aktionsplan mit schrittweisen Korrekturen und Code-Beispielen für alles, was nicht besteht.

Was die besten Websites richtig machen

Die Websites, die KI-Engines konsequent zitieren, haben fünf Gemeinsamkeiten:

  1. Sie haben GEO von Anfang an bewusst eingeplant, anstatt es nachträglich hinzuzufügen
  2. Sie veröffentlichen strukturierte Daten auf jeder wichtigen Seite
  3. Sie haben eine llms.txt-Datei, die ihr Unternehmen klar beschreibt
  4. Sie blockieren keine KI-Crawler — siehe unseren vollständigen Crawler-Leitfaden
  5. Sie schreiben faktenreiche Inhalte mit konkreten Zahlen und Quellenangaben

Man muss kein Fortune-500-Unternehmen sein, um von KI zitiert zu werden. Man muss auffindbar, zitierbar und klar auf sein Thema ausgerichtet sein.


Möchten Sie genau wissen, welche dieser 16 Prüfungen Ihre Website besteht oder nicht besteht? Führen Sie einen kostenlosen AI Exposure Audit durch — erhalten Sie Ihren Score über alle 16 Prüfungen in 60 Sekunden, mit einem priorisierten Aktionsplan inklusive schrittweiser Korrekturen.

Check Your AI Visibility Score

Free audit in 60 seconds. No signup required.

Kostenloses Audit Erhalten
← Back to Blog