Bild generiert mithilfe künstlicher Intelligenz
Immer mehr Kunden nutzen KI-Assistenten wie ChatGPT, Perplexity oder Google Gemini für Produktrecherchen. Damit dein Shop in diesen Antworten auftaucht, muss er für KI-Systeme lesbar sein. Hier erfährst du, welche technischen Grundlagen dafür wichtig sind.
Warum KI-Sichtbarkeit zählt
Klassische SEO optimiert für Google-Rankings. KI-Assistenten funktionieren anders: Sie durchsuchen das Web, fassen Inhalte zusammen und geben direkte Empfehlungen. Wer hier nicht auftaucht, verliert potenzielle Kunden – noch bevor sie eine Suchmaschine öffnen.
Strukturierte Daten mit Schema.org
Strukturierte Daten helfen Maschinen, deine Produkte zu verstehen. Mit Schema.org-Markup beschreibst du:
- Produktname, Preis, Verfügbarkeit
- Bewertungen und Rezensionen
- Marke, SKU, GTIN
- Lieferzeiten und Versandkosten
Die meisten Shopsysteme bieten Plugins oder integrierte Funktionen dafür. Teste dein Markup mit dem Google Rich Results Test.
Produktfeeds pflegen
Produktfeeds sind strukturierte Datenexporte deines Sortiments. Sie werden genutzt von:
- Google Merchant Center (Shopping-Anzeigen, aber auch KI-Training)
- Meta/Facebook Catalog
- Preisvergleichsportale
- KI-gestützte Shopping-Assistenten
Ein aktueller, vollständiger Feed mit guten Produktbeschreibungen erhöht deine Chancen, in KI-Empfehlungen aufzutauchen.
Robots.txt und KI-Crawler
Neue KI-Crawler wie GPTBot (OpenAI) oder ClaudeBot (Anthropic) durchsuchen das Web für Trainingsdaten. In der robots.txt kannst du steuern, welche Bereiche zugänglich sind:
User-agent: GPTBot
Allow: /
User-agent: ClaudeBot
Allow: /
Manche Shop-Betreiber sperren diese Crawler – und werden dann nicht in KI-Antworten berücksichtigt. Überlege dir gut, was für dich sinnvoll ist.
llms.txt – Kontext für KI-Assistenten
Während die robots.txt regelt, ob ein Crawler deine Seite besuchen darf, geht die llms.txt einen Schritt weiter: Sie erklärt KI-Systemen, worum es auf deiner Seite geht.
Die Idee: Eine einfache Textdatei im Wurzelverzeichnis deiner Website, die Large Language Models (LLMs) Kontext liefert. Wer bist du? Was bietest du an? Welche Seiten sind besonders relevant?
Für einen Online-Shop könnte eine llms.txt so aussehen:
# MeinShop.de
> Online-Shop für nachhaltige Outdoor-Ausrüstung aus dem Schwarzwald.
## Über uns
Wir sind ein familiengeführter Shop mit Fokus auf langlebige, reparierbare Produkte.
## Wichtige Seiten
- /produkte: Unser Sortiment
- /marken: Unsere Partner-Marken
- /ratgeber: Kaufberatung und Pflegetipps
- /kontakt: Persönliche Beratung
## Besonderheiten
- Kostenloser Versand ab 50€
- 30 Tage Rückgaberecht
- Reparaturservice für alle Produkte
Der Vorteil: Wenn ein KI-Assistent gefragt wird "Wo kann ich nachhaltige Outdoor-Ausrüstung kaufen?", hat er sofort den Kontext – und kann deinen Shop passend empfehlen.
Die llms.txt ist noch kein offizieller Standard, aber ein wachsender Trend. Je früher du sie einrichtest, desto besser bist du vorbereitet.
Content-Qualität entscheidet
KI-Systeme bevorzugen:
- Klare, informative Produktbeschreibungen (keine Keyword-Stuffing)
- FAQ-Bereiche mit echten Kundenfragen
- Ratgeber und Kaufberatungen
- Transparente Informationen zu Versand, Rückgabe, Kontakt
Je besser dein Content menschliche Fragen beantwortet, desto wahrscheinlicher zitiert dich eine KI.
Technische Basics nicht vergessen
- XML-Sitemap aktuell halten
- Schnelle Ladezeiten (auch für Crawler wichtig)
- Mobile-Optimierung
Fazit
KI-Sichtbarkeit ist kein Hexenwerk, sondern baut auf soliden E-Commerce-Grundlagen auf: saubere Datenstrukturen, guter Content, technisch einwandfreier Shop. Wer diese Hausaufgaben macht, ist für die KI-Ära gerüstet.