KI-Optimierung für Websites: Eine einfache Sache, eine Einführung

Neben klassischen Suchmaschinen wie Google gewinnen KI-basierte Systeme an Bedeutung. Nutzer stellen ihre Fragen nicht mehr nur in eine Suchmaschine, sondern direkt an Systeme wie ChatGPT , Perplexity oder andere KI-gestützte Suchdienste.

Diese Systeme funktionieren jedoch anders als klassische Suchmaschinen. Sie versuchen nicht nur, Inhalte zu indexieren und zu ranken, sondern Antworten zu generieren. Dafür müssen sie verstehen:

  • worum es auf einer Website grundsätzlich geht
  • welche Themen dort behandelt werden
  • wie aktuell Inhalte sind
  • ob eine Quelle fachlich relevant ist.

Genau hier setzt eine neue Form der Optimierung an: AI-Discovery und LLM-Optimierung. Auf wortfilter.de wurde dafür eine Reihe technischer Maßnahmen umgesetzt, um Inhalte besser für KI-Crawler und Large-Language-Models zugänglich zu machen. Dieser Beitrag zeigt, welche Strukturen eingerichtet wurden und wie sich ähnliche Ansätze auch auf Onlineshops übertragen lassen.

Fasse den Artikel im Bullet-Stil zusammen.


Warum klassische SEO allein künftig nicht mehr ausreicht

Suchmaschinenoptimierung war lange relativ klar strukturiert:

  1. Inhalte werden erstellt
  2. Crawler indexieren die Seiten
  3. Ranking-Algorithmen bestimmen die Reihenfolge der Suchergebnisse.

KI-Systeme arbeiten anders. Sie erstellen direkt eine Antwort und greifen dabei auf verschiedene Quellen zurück.

Dabei spielen besonders drei Faktoren eine Rolle:

  • Strukturierte Daten
  • Kontext über die Website
  • Aktualität der Inhalte

Websites, die diese Informationen klar bereitstellen, haben eine höhere Chance, von KI-Systemen als Quelle verwendet zu werden.


AI-Discovery: Welche Dateien auf wortfilter.de bereitgestellt werden

Um KI-Crawlern die Struktur der Website verständlicher zu machen, wurden mehrere sogenannte AI-Discovery-Dateien eingerichtet.

Diese Dateien liegen direkt im Root-Verzeichnis der Website, zum Beispiel:

/llms.txt
/ai.txt
/ai-context.txt
/ai-sitemap.xml
/ai-news.xml
/ai-topics.xml
/ai-authority.xml
/ai-trending.xml

Sie werden dynamisch erzeugt und liefern KI-Systemen strukturierte Informationen über Inhalte und Themen der Website.


llms.txt – Kontext für KI-Modelle

Eine wichtige Datei ist llms.txt.

Sie dient als eine Art Visitenkarte für KI-Crawler.

Darin werden unter anderem Informationen über die Website bereitgestellt:

  • Publisher
  • Autor
  • Themengebiete
  • Zielgruppe
  • wichtige Kategorien
  • aktuelle Artikel.

Beispielhafte Inhalte:

Publisher: Wortfilter
Author: Mark Steier
Topics: Amazon, eBay, Onlinehandel, Marktplätze
Audience: Onlinehändler und Marketplace Seller

KI-Systeme können daraus ableiten, dass es sich um eine spezialisierte Quelle für E-Commerce-Themen handelt.


ai.txt – Einstiegspunkt für KI-Crawler

Die Datei ai.txt fungiert als zentrale Discovery-Datei.

Sie enthält Hinweise auf weitere AI-Strukturen der Website.

Typischer Inhalt:

AI Index: /llms.txt
AI Sitemap: /ai-sitemap.xml
AI News: /ai-news.xml

Damit erkennen KI-Crawler schnell, wo relevante Inhalte strukturiert bereitgestellt werden.


ai-sitemap.xml – strukturierte Inhaltsübersicht

Ähnlich wie eine klassische XML-Sitemap listet die AI-Sitemap Inhalte der Website auf.

Der Unterschied:
Sie ist stärker auf aktuelle Inhalte ausgerichtet.

Neue Artikel erhalten beispielsweise eine höhere Crawling-Priorität.

Beispiel:

changefreq: hourly
priority: 1.0

Gerade für Nachrichten- oder Analysebeiträge ist das wichtig, da KI-Systeme aktuelle Informationen bevorzugen.


ai-news.xml – Newsfeed für KI-Crawler

Die Datei ai-news.xml enthält ausschließlich sehr aktuelle Inhalte.

Typischerweise:

Artikel der letzten 48 Stunden

Dadurch erkennen KI-Crawler sofort, welche Inhalte neu sind.

Das erhöht die Chance, dass aktuelle Beiträge in KI-Antworten erscheinen.


ai-topics.xml – thematische Struktur

Diese Datei listet automatisch die wichtigsten Themen der Website auf.

Zum Beispiel:

Amazon
Onlinehandel
Marktplätze
E-Commerce Recht

KI-Systeme können daraus ableiten, welche Themen besonders häufig behandelt werden.


ai-authority.xml – Expertenprofil

Eine weitere Datei beschreibt die fachliche Ausrichtung der Website.

Darin werden Informationen über:

  • Autor
  • Fachgebiet
  • Themenkompetenz

bereitgestellt.

So erkennen KI-Systeme leichter, dass es sich um eine spezialisierte Quelle handelt.


Diese Datei enthält Inhalte mit besonders hoher Interaktion.

Zum Beispiel Artikel mit vielen Kommentaren.

Damit können KI-Crawler erkennen, welche Beiträge aktuell besonders relevant sind.


Anpassung der robots.txt

Zusätzlich wurde die robots.txt erweitert, um die neuen AI-Strukturen sichtbar zu machen.

Beispiel:

Sitemap: https://wortfilter.de/sitemap_index.xml
Sitemap: https://wortfilter.de/ai-sitemap.xml
Sitemap: https://wortfilter.de/ai-news.xml

AI-Index: https://wortfilter.de/ai.txt

Crawler entdecken dadurch schneller alle relevanten Dateien.


Unterschied zwischen Blogs und Onlineshops

Die Umsetzung solcher AI-Strukturen ist bei einem Blog relativ unkompliziert.

Der Grund:

  • Zugriff auf Serverdateien ist vorhanden
  • eigene Dateien können erzeugt werden
  • Inhalte werden regelmäßig veröffentlicht.

Bei Onlineshops ist die Situation oft anders.

Viele Shopsysteme erlauben keinen direkten Zugriff auf:

  • Serverdateien
  • Root-Verzeichnis
  • Routing.

Deshalb müssen dort andere Wege gefunden werden.


KI-Optimierung im JTL-Shop

Beim Shopsystem JTL-Shop gibt es mehrere Möglichkeiten.

Die robots.txt kann direkt im Backend bearbeitet werden.

Pfad:

Administration
→ System
→ SEO
→ robots.txt

Dort lassen sich zusätzliche Sitemaps oder AI-Discovery-Links ergänzen.

Darüber hinaus kann ein Plugin genutzt werden, um zusätzliche XML-Feeds zu erzeugen.

Zum Beispiel:

  • Produktsitemaps
  • Kategoriefeeds
  • strukturierte Themenübersichten.

KI-Optimierung bei Shopify

Beim Cloud-System Shopify ist der Zugriff auf Serverdateien eingeschränkt.

Trotzdem gibt es einige Möglichkeiten.


robots.txt über Theme bearbeiten

Shopify erlaubt Anpassungen über eine Template-Datei:

robots.txt.liquid

Hier können zusätzliche Sitemaps ergänzt werden.


AI-Dateien extern hosten

Da Shopify keinen Zugriff auf das Root-Verzeichnis erlaubt, können AI-Feeds auch extern bereitgestellt werden.

Zum Beispiel:

https://domain.de/ai-sitemap.xml

Diese lassen sich anschließend in der robots.txt referenzieren.


Strukturierte Daten nutzen

Besonders wichtig bei Shops:

  • Produkt-Schema
  • FAQ-Schema
  • Breadcrumb-Struktur
  • klare Kategorien.

Diese helfen KI-Systemen, Inhalte besser zu interpretieren.


AI-Optimierung wird zum neuen SEO-Standard

Die klassische Suchmaschinenoptimierung bleibt wichtig. Doch sie wird zunehmend durch eine neue Ebene ergänzt.

Websites müssen künftig nicht nur für Suchmaschinen, sondern auch für KI-Crawler und LLM-Systeme optimiert werden.

Die wichtigsten Maßnahmen sind dabei:

  • strukturierte AI-Discovery-Dateien
  • klare Themenstruktur
  • aktuelle Inhaltsfeeds
  • transparente Kontextinformationen.

Gerade spezialisierte Websites können davon profitieren. Wenn KI-Systeme eine Seite als thematische Autorität erkennen, steigt die Wahrscheinlichkeit deutlich, als Quelle in Antworten genannt zu werden.

3 Praxis Tipps noch zum Schluss

Alle diese Optimierungen habe ich mir mit Hilfe von ChatGPT & Co. erarbeitet. Mein Tipp ist daher ganz einfach: Fragt eure KI und lasst euch von ihr Schritt für Schritt durch solche Themen führen. Ich habe bei wichtigen technischen Punkten häufig noch eine zweite KI zur Überprüfung befragt. So lässt sich schnell erkennen, ob eine Lösung sinnvoll ist oder ob man noch einmal nachschärfen sollte. Letztlich zeigt sich dabei: Es ist keine Raketenwissenschaft, diese Dinge selbst in die Hand zu nehmen.

Mein zweiter Tipp: Schaut euch bitte einmal die KI-Zusammenfassungsbox in diesem Beitrag an. Benutzt sie ruhig und lest euch auch den Prompt dahinter genau durch. Natürlich lässt sich dieses Prinzip nicht überall einsetzen. Es lohnt sich also, dieses Prinzip im Hinterkopf zu behalten.

Und noch ein Gedanke für die reinen Marktplatzhändler: Habt ihr schon einmal darüber nachgedacht, euch zum Beispiel mit WordPress oder Tools wie Lovable einen kleinen, KI-optimierten Auftritt für eure Marke oder eure Listings aufzubauen? Das dauert nicht länger als einen halben Tag und verursacht Kosten von unter 100 Euro, wenn ihr es selbst umsetzt. Eigentlich ist das eine ziemlich spannende Idee – vielleicht sollte ich dazu einmal einen eigenen Beitrag machen und zeigen, wie man so etwas konkret aufsetzt.


QR Code für die Wortfilter Händler Facebook-Gruppe
Komm in die Wortfilter Community auf Facebook und diskutiere mit

➡️Melde dich zum wöchentlichen Newsletter an!⬅️