Warum HTML der Schlüssel zur KI-Sichtbarkeit ist
Rechtsklick. „Seitenquelltext anzeigen“. Was sich im neuen Tab öffnet, sieht meistens aus wie der Bauplan eines Raumschiffs aus den Achtzigern – Zeile um Zeile spitzklammrig kodierter Text, dazwischen kryptische Befehle, die niemand außer Suchmaschinen je zu Gesicht bekommt. Und genau hier entscheidet sich, ob deine Website in den Antworten von ChatGPT, Perplexity oder Google AI Overviews auftaucht – oder eben nicht.
Denn KI-Systeme zitieren heute jene, die für sie lesbar sind. Wer als Quelle genannt wird, gewinnt Sichtbarkeit, Vertrauen und Anfragen. Wer im Quelltext nichts zu bieten hat, fällt durch – auch dann, wenn er bei Google auf Seite eins thront. Die gute Nachricht: Du musst deine Website dafür nicht neu bauen. Du musst sie lesbar machen. Und das beginnt mit einer Entscheidung, die viele WebsitebetreiberInnen unterschätzen – HTML oder JavaScript?
Vom geduldigen Googlebot zum ungeduldigen GPTBot
Kurz das Vokabular: **HTML** ist die Grundsprache des Internets – jener Text, der beschreibt, was auf einer Website steht und wie sie aufgebaut ist. **JavaScript** ist eine zusätzliche Programmiersprache, die Websites lebendig macht: Animationen, aufklappbare Menüs, nachgeladene Inhalte. Und **KI-Crawler** sind automatische Programme, die Websites lesen und deren Inhalt für KI-Systeme aufbereiten – ähnlich wie der Googlebot für die klassische Suche.
Nur: Der Googlebot ist im Vergleich ein Geduldsbolzen. Er kommt, wartet, bis alle Inhalte vollständig geladen sind – auch jene, die erst durch JavaScript erscheinen – und liest dann die fertige Seite. KI-Crawler wie GPTBot (OpenAI), ClaudeBot (Anthropic) oder PerplexityBot ticken anders. Sie nehmen die Seite so, wie der Server sie im ersten Moment ausliefert: das rohe HTML. Was erst danach durch JavaScript nachgeladen wird, sehen sie schlicht nicht.
Der Unterschied lässt sich auf eine Formel bringen: Googlebot schaut, was am Ende im Browser sichtbar ist. KI-Bots lesen den Rohzustand. Wer beide erreichen will, muss seine Kerninhalte direkt im HTML haben – nicht versteckt hinter technischen Zusatzschritten.
Hübsche Hülle, hohler Kern
Viele aktuelle Websites – besonders solche, die mit modernen Entwicklungs-Werkzeugen wie React oder Vue gebaut wurden – liefern beim ersten Aufruf zunächst eine fast leere Seite aus. Der eigentliche Inhalt wird erst danach im Browser zusammengebaut. Für menschliche Augen passiert das so schnell, dass niemand etwas merkt. Für KI-Crawler ist es ein ernstes Problem – die warten nicht, sie nehmen, was sofort da ist, und ziehen weiter.
Dazu kommen die kleinen, alltäglichen Fallen: Kernaussagen, die in **Accordion-Elementen** versteckt sind – jenen aufklappbaren Info-Boxen, bei denen erst ein Klick auf „+“ den Text freigibt. Texte, die per **Lazy-Loading** erst dann erscheinen, wenn man weit genug nach unten scrollt – eine Technik, die Seiten schneller wirken lässt, dabei aber wichtige Inhalte vor KI-Crawlern verbirgt. Oder schlicht: Aussagen, die in Grafiken stecken statt als echter Text. All das ist für KI-Crawler unsichtbar – und damit für KI-Antworten unbrauchbar.
Vom Bausatz zum fertigen Möbelstück
Die Lösung für das JavaScript-Problem heißt **Server-Side Rendering** (kurz SSR) oder **Pre-Rendering**. Klingt nach Maschinenraum, ist aber leicht erklärt: Normalerweise bekommt der Browser einer Besucher:in nur einen „Bauplan“ geschickt und stellt die Seite erst lokal zusammen – wie ein Möbelstück aus dem Karton. Beim serverseitigen Rendering passiert dieser Zusammenbau bereits am Server. Die BesucherInnen (und der KI-Crawler) bekommen sofort die fertige, vollständige Seite – ohne warten zu müssen, ohne Werkzeug, ohne Anleitung.
Für **WordPress-Websites** – jenes weltweit verbreitetste Content-Management-System – ist das in der Regel kein Problem: WordPress liefert von Haus aus vollständiges HTML aus. Wer eine klassische WordPress-Seite mit einem Theme wie Avada oder Elementor betreibt, ist hier bereits gut aufgestellt.
Wer trotzdem unsicher ist, kann den eingangs erwähnten Test machen: Rechtsklick → „Seitenquelltext anzeigen“. Was im neuen Fenster erscheint, ist exakt das, was KI-Crawler sehen. Steht dort kaum lesbarer Text, dafür aber jede Menge „script“-Befehle, hat man ein Problem.
Die besten Maßnahmen, um für KIs sichtbar zu werden
Lesbarkeit für KI-Systeme ist kein Hexenwerk. Es sind meist überschaubare Maßnahmen, die nebenbei auch das klassische Google-Ranking stärken. Ein paar davon im Detail.
Eine Hierarchie für Mensch und Maschine
Überschriften sind im Hintergrund mit Codes versehen – H1 für die Hauptüberschrift, H2 für Zwischenüberschriften, H3 für Unterebenen. KI-Systeme lesen diese Hierarchie wie ein Inhaltsverzeichnis. Pro Seite gehört genau ein H1-Tag, der die Kernbotschaft auf den Punkt bringt. H2-Überschriften, die als Frage formuliert sind – „Was kostet eine GEO-Beratung?“ statt nur „Preise“ – erhöhen die Chance auf Zitierungen deutlich. Der Grund: KI-Systeme gleichen Überschriften direkt mit den Fragen echter NutzerInnen ab.
Pointe nach vorn
Aktuelle Auswertungen zeigen, dass KI-Systeme die Relevanz einer Seite vor allem an den ersten 200 Wörtern festmachen. Die Hauptfrage, die eine Seite beantwortet, gehört also nach oben – nicht hinter eine ausgreifende Einleitung. 44,2 Prozent aller Zitierungen durch KI-Systeme stammen laut Forschungsdaten aus dem ersten Drittel eines Textes. Das ist keine Stilfrage, das ist Statistik.
Strukturierte Daten als unsichtbare Visitenkarte
Strukturierte Daten sind Zusatzinformationen, die unsichtbar im Hintergrund einer Website hinterlegt sind – eine Art maschinenlesbare Visitenkarte. Sie verraten KI-Systemen: „Das hier ist ein Artikel“, „Diese Person ist die Autor:in“, „Das ist ein FAQ-Bereich“, „Dieses Unternehmen ist eine Marketingagentur in Kufstein“. Technisch heißt das Format **JSON-LD** und basiert auf einem internationalen Standard namens **Schema.org**. Selbst programmieren muss das niemand – aber wissen, dass es existiert, und dafür sorgen, dass es eingerichtet ist. Aktuell haben gerade einmal 12,4 Prozent der Websites strukturierte Daten implementiert. Eine größere Chance für alle, die jetzt handeln, ist kaum vorstellbar.
Zahlen schlagen Floskeln
KI-Systeme bevorzugen klare, messbare Aussagen gegenüber allgemeinen Formulierungen. „GEO-optimierte Inhalte erzielen 30 bis 40 Prozent höhere KI-Sichtbarkeit“ wird eher zitiert als „GEO kann die Sichtbarkeit verbessern“. Nuancen dürfen bleiben – aber die Kernaussage gehört auf den Punkt.
robots.txt und Sitemap als Türsteher und Wegweiser
Jede Website hat im Hintergrund zwei kleine Textdateien, die für Crawler entscheidend sind. Die **robots.txt** ist der Türsteher – sie sagt allen automatischen Programmen, welche Bereiche sie betreten dürfen und welche nicht. Die **Sitemap** ist die Wegbeschreibung – sie listet alle wichtigen Seiten auf, damit nichts übersehen wird. Fehler hier führen dazu, dass wichtige Inhalte gar nicht erst gefunden werden. Beide Dateien gehören regelmäßig kontrolliert, die Sitemap zusätzlich in der Google Search Console hinterlegt.
llms.txt: schöne Idee, taubes Publikum
Seit 2025 macht eine neue Datei die Runde: **llms.txt** – ähnlich wie die robots.txt, aber speziell als Wegweiser für KI-Systeme gedacht. Die Idee dahinter ist charmant: Eine übersichtliche Liste der wichtigsten Seiten, die KI-Crawlern den Weg weist, ohne dass sie sich durch verschachteltes HTML kämpfen müssen.
Die Realität ist nüchterner. Aktuell greift kein einziges relevantes KI-System auf llms.txt zu – das hat unter anderem Googles eigener Experte John Mueller bestätigt. Wer seine Energie also in dieses Türsteher-Verzeichnis steckt, statt in saubere Grundlagen, optimiert für ein Publikum, das gar nicht da ist. Vielleicht ändert sich das. Heute aber gilt: Sauberes HTML, strukturierte Daten und schnelle Ladezeiten schlagen jede neue Hoffnungsdatei.
GEO beginnt nicht beim Prompt, sondern im Quellcode
Jede Strategie rund um Generative Engine Optimization – die Optimierung für KI-Suchsysteme – baut auf einer einzigen Voraussetzung auf: dass KI-Crawler die Website überhaupt lesen können. Erst wenn die technische Basis stimmt, lohnt sich das Nachdenken über Content-Strategie, Zitierbarkeit und Sichtbarkeits-Monitoring. Vorher ist alles andere Kosmetik auf einer Website, die im KI-Zeitalter unsichtbar bleibt.
47 Prozent der Unternehmen haben bisher keine GEO-Strategie. Das klingt nach Rückstand – ist aber vor allem eine Einladung. Die Spielregeln der Sichtbarkeit haben sich verändert, das stimmt. Aber die Grundlagen, auf denen sie aufbauen, sind älter und bewährter, als es klingt: ordentliches Handwerk, klare Struktur, lesbare Inhalte. Wer das hat, muss vor ChatGPT keine Angst haben – sondern darf darauf hoffen, in dessen nächster Antwort zitiert zu werden …