KI-Optimierung für Websites: Eine einfache Sache, eine Einführung
Neben klassischen Suchmaschinen wie Google gewinnen KI-basierte Systeme an Bedeutung. Nutzer stellen ihre Fragen nicht mehr nur in eine Suchmaschine, sondern direkt an Systeme wie ChatGPT , Perplexity oder andere KI-gestützte Suchdienste.
Diese Systeme funktionieren jedoch anders als klassische Suchmaschinen. Sie versuchen nicht nur, Inhalte zu indexieren und zu ranken, sondern Antworten zu generieren. Dafür müssen sie verstehen:
- worum es auf einer Website grundsätzlich geht
- welche Themen dort behandelt werden
- wie aktuell Inhalte sind
- ob eine Quelle fachlich relevant ist.
Genau hier setzt eine neue Form der Optimierung an: AI-Discovery und LLM-Optimierung. Auf wortfilter.de wurde dafür eine Reihe technischer Maßnahmen umgesetzt, um Inhalte besser für KI-Crawler und Large-Language-Models zugänglich zu machen. Dieser Beitrag zeigt, welche Strukturen eingerichtet wurden und wie sich ähnliche Ansätze auch auf Onlineshops übertragen lassen.
Inhaltsverzeichnis
- KI-Optimierung für Websites: Eine einfache Sache, eine Einführung
- Warum klassische SEO allein künftig nicht mehr ausreicht
- AI-Discovery: Welche Dateien auf wortfilter.de bereitgestellt werden
- llms.txt – Kontext für KI-Modelle
- ai.txt – Einstiegspunkt für KI-Crawler
- ai-sitemap.xml – strukturierte Inhaltsübersicht
- ai-news.xml – Newsfeed für KI-Crawler
- ai-topics.xml – thematische Struktur
- ai-authority.xml – Expertenprofil
- ai-trending.xml – besonders relevante Inhalte
- Anpassung der robots.txt
- Unterschied zwischen Blogs und Onlineshops
- KI-Optimierung im JTL-Shop
- KI-Optimierung bei Shopify
- robots.txt über Theme bearbeiten
- AI-Dateien extern hosten
- Strukturierte Daten nutzen
- AI-Optimierung wird zum neuen SEO-Standard
- 3 Praxis Tipps noch zum Schluss
Fasse den Artikel im Bullet-Stil zusammen.
Warum klassische SEO allein künftig nicht mehr ausreicht
Suchmaschinenoptimierung war lange relativ klar strukturiert:
- Inhalte werden erstellt
- Crawler indexieren die Seiten
- Ranking-Algorithmen bestimmen die Reihenfolge der Suchergebnisse.
KI-Systeme arbeiten anders. Sie erstellen direkt eine Antwort und greifen dabei auf verschiedene Quellen zurück.
Dabei spielen besonders drei Faktoren eine Rolle:
- Strukturierte Daten
- Kontext über die Website
- Aktualität der Inhalte
Websites, die diese Informationen klar bereitstellen, haben eine höhere Chance, von KI-Systemen als Quelle verwendet zu werden.
AI-Discovery: Welche Dateien auf wortfilter.de bereitgestellt werden
Um KI-Crawlern die Struktur der Website verständlicher zu machen, wurden mehrere sogenannte AI-Discovery-Dateien eingerichtet.
Diese Dateien liegen direkt im Root-Verzeichnis der Website, zum Beispiel:
/llms.txt
/ai.txt
/ai-context.txt
/ai-sitemap.xml
/ai-news.xml
/ai-topics.xml
/ai-authority.xml
/ai-trending.xml
Sie werden dynamisch erzeugt und liefern KI-Systemen strukturierte Informationen über Inhalte und Themen der Website.
llms.txt – Kontext für KI-Modelle
Eine wichtige Datei ist llms.txt.
Sie dient als eine Art Visitenkarte für KI-Crawler.
Darin werden unter anderem Informationen über die Website bereitgestellt:
- Publisher
- Autor
- Themengebiete
- Zielgruppe
- wichtige Kategorien
- aktuelle Artikel.
Beispielhafte Inhalte:
Publisher: Wortfilter
Author: Mark Steier
Topics: Amazon, eBay, Onlinehandel, Marktplätze
Audience: Onlinehändler und Marketplace Seller
KI-Systeme können daraus ableiten, dass es sich um eine spezialisierte Quelle für E-Commerce-Themen handelt.
ai.txt – Einstiegspunkt für KI-Crawler
Die Datei ai.txt fungiert als zentrale Discovery-Datei.
Sie enthält Hinweise auf weitere AI-Strukturen der Website.
Typischer Inhalt:
AI Index: /llms.txt
AI Sitemap: /ai-sitemap.xml
AI News: /ai-news.xml
Damit erkennen KI-Crawler schnell, wo relevante Inhalte strukturiert bereitgestellt werden.
ai-sitemap.xml – strukturierte Inhaltsübersicht
Ähnlich wie eine klassische XML-Sitemap listet die AI-Sitemap Inhalte der Website auf.
Der Unterschied:
Sie ist stärker auf aktuelle Inhalte ausgerichtet.
Neue Artikel erhalten beispielsweise eine höhere Crawling-Priorität.
Beispiel:
changefreq: hourly
priority: 1.0
Gerade für Nachrichten- oder Analysebeiträge ist das wichtig, da KI-Systeme aktuelle Informationen bevorzugen.
ai-news.xml – Newsfeed für KI-Crawler
Die Datei ai-news.xml enthält ausschließlich sehr aktuelle Inhalte.
Typischerweise:
Artikel der letzten 48 Stunden
Dadurch erkennen KI-Crawler sofort, welche Inhalte neu sind.
Das erhöht die Chance, dass aktuelle Beiträge in KI-Antworten erscheinen.
ai-topics.xml – thematische Struktur
Diese Datei listet automatisch die wichtigsten Themen der Website auf.
Zum Beispiel:
Amazon
Onlinehandel
Marktplätze
E-Commerce Recht
KI-Systeme können daraus ableiten, welche Themen besonders häufig behandelt werden.
ai-authority.xml – Expertenprofil
Eine weitere Datei beschreibt die fachliche Ausrichtung der Website.
Darin werden Informationen über:
- Autor
- Fachgebiet
- Themenkompetenz
bereitgestellt.
So erkennen KI-Systeme leichter, dass es sich um eine spezialisierte Quelle handelt.
ai-trending.xml – besonders relevante Inhalte
Diese Datei enthält Inhalte mit besonders hoher Interaktion.
Zum Beispiel Artikel mit vielen Kommentaren.
Damit können KI-Crawler erkennen, welche Beiträge aktuell besonders relevant sind.
Anpassung der robots.txt
Zusätzlich wurde die robots.txt erweitert, um die neuen AI-Strukturen sichtbar zu machen.
Beispiel:
Sitemap: https://wortfilter.de/sitemap_index.xml
Sitemap: https://wortfilter.de/ai-sitemap.xml
Sitemap: https://wortfilter.de/ai-news.xml
AI-Index: https://wortfilter.de/ai.txt
Crawler entdecken dadurch schneller alle relevanten Dateien.
Unterschied zwischen Blogs und Onlineshops
Die Umsetzung solcher AI-Strukturen ist bei einem Blog relativ unkompliziert.
Der Grund:
- Zugriff auf Serverdateien ist vorhanden
- eigene Dateien können erzeugt werden
- Inhalte werden regelmäßig veröffentlicht.
Bei Onlineshops ist die Situation oft anders.
Viele Shopsysteme erlauben keinen direkten Zugriff auf:
- Serverdateien
- Root-Verzeichnis
- Routing.
Deshalb müssen dort andere Wege gefunden werden.
KI-Optimierung im JTL-Shop
Beim Shopsystem JTL-Shop gibt es mehrere Möglichkeiten.
Die robots.txt kann direkt im Backend bearbeitet werden.
Pfad:
Administration
→ System
→ SEO
→ robots.txt
Dort lassen sich zusätzliche Sitemaps oder AI-Discovery-Links ergänzen.
Darüber hinaus kann ein Plugin genutzt werden, um zusätzliche XML-Feeds zu erzeugen.
Zum Beispiel:
- Produktsitemaps
- Kategoriefeeds
- strukturierte Themenübersichten.
KI-Optimierung bei Shopify
Beim Cloud-System Shopify ist der Zugriff auf Serverdateien eingeschränkt.
Trotzdem gibt es einige Möglichkeiten.
robots.txt über Theme bearbeiten
Shopify erlaubt Anpassungen über eine Template-Datei:
robots.txt.liquid
Hier können zusätzliche Sitemaps ergänzt werden.
AI-Dateien extern hosten
Da Shopify keinen Zugriff auf das Root-Verzeichnis erlaubt, können AI-Feeds auch extern bereitgestellt werden.
Zum Beispiel:
https://domain.de/ai-sitemap.xml
Diese lassen sich anschließend in der robots.txt referenzieren.
Strukturierte Daten nutzen
Besonders wichtig bei Shops:
- Produkt-Schema
- FAQ-Schema
- Breadcrumb-Struktur
- klare Kategorien.
Diese helfen KI-Systemen, Inhalte besser zu interpretieren.
AI-Optimierung wird zum neuen SEO-Standard
Die klassische Suchmaschinenoptimierung bleibt wichtig. Doch sie wird zunehmend durch eine neue Ebene ergänzt.
Websites müssen künftig nicht nur für Suchmaschinen, sondern auch für KI-Crawler und LLM-Systeme optimiert werden.
Die wichtigsten Maßnahmen sind dabei:
- strukturierte AI-Discovery-Dateien
- klare Themenstruktur
- aktuelle Inhaltsfeeds
- transparente Kontextinformationen.
Gerade spezialisierte Websites können davon profitieren. Wenn KI-Systeme eine Seite als thematische Autorität erkennen, steigt die Wahrscheinlichkeit deutlich, als Quelle in Antworten genannt zu werden.
3 Praxis Tipps noch zum Schluss
Alle diese Optimierungen habe ich mir mit Hilfe von ChatGPT & Co. erarbeitet. Mein Tipp ist daher ganz einfach: Fragt eure KI und lasst euch von ihr Schritt für Schritt durch solche Themen führen. Ich habe bei wichtigen technischen Punkten häufig noch eine zweite KI zur Überprüfung befragt. So lässt sich schnell erkennen, ob eine Lösung sinnvoll ist oder ob man noch einmal nachschärfen sollte. Letztlich zeigt sich dabei: Es ist keine Raketenwissenschaft, diese Dinge selbst in die Hand zu nehmen.
Mein zweiter Tipp: Schaut euch bitte einmal die KI-Zusammenfassungsbox in diesem Beitrag an. Benutzt sie ruhig und lest euch auch den Prompt dahinter genau durch. Natürlich lässt sich dieses Prinzip nicht überall einsetzen. Es lohnt sich also, dieses Prinzip im Hinterkopf zu behalten.
Und noch ein Gedanke für die reinen Marktplatzhändler: Habt ihr schon einmal darüber nachgedacht, euch zum Beispiel mit WordPress oder Tools wie Lovable einen kleinen, KI-optimierten Auftritt für eure Marke oder eure Listings aufzubauen? Das dauert nicht länger als einen halben Tag und verursacht Kosten von unter 100 Euro, wenn ihr es selbst umsetzt. Eigentlich ist das eine ziemlich spannende Idee – vielleicht sollte ich dazu einmal einen eigenen Beitrag machen und zeigen, wie man so etwas konkret aufsetzt.





