GEO-Audit – wie zitierfähig ist deine Seite für KI-Suchen?
Die KI-Suche kommt mit eigenen Regeln: eigene Crawler, eigene robots.txt-Konventionen, eigene Extraktions-Heuristiken. Unser neuer GEO-Audit zeigt, wo du blind bist.

Warum wir das Tool gebaut haben
Wir betreuen Kunden, die in den letzten Monaten dieselbe Frage in den Termin reingebracht haben: „Werden wir eigentlich in ChatGPT genannt?" Die Antwort war jedes Mal ehrlich gesagt nicht trivial herauszufinden – ChatGPT zitiert mal so, mal so, Perplexity hat eigene Quellen-Listen, Google AI Overviews tauchen in fast der Hälfte aller Suchen auf und ziehen ihre Snippets aus Seiten, die teils nicht mal Top 3 ranken.
Was wir aber recht schnell gesehen haben: viele Seiten sind technisch gar nicht in der Lage, von KI-Suchen vernünftig erfasst zu werden. Mal blockt ein vergessener Disallow: / in der robots.txt den GPTBot, mal fehlt jegliches Schema-Markup, mal liest sich der Content so referentiell („wie oben erwähnt …", „aus dem nächsten Abschnitt …"), dass ein LLM nichts davon sauber extrahieren kann.
Aus dieser Beobachtung heraus haben wir einen vierten Audit zu unserer Tool-Suite hinzugefügt: den GEO-Audit unter pixzl.de/geo-audit. Kostenlos, ohne Registrierung, in unter 60 Sekunden. Was er prüft, was er bewusst nicht prüft und was wir bei den ersten Test-Runs gesehen haben – darum geht's hier.
„GEO" ist kein neues SEO
Bevor wir zum Tool kommen: kurze Begriffsklärung. GEO – Generative Engine Optimization – ist das, was passiert, wenn dein Content in der Antwort einer KI auftaucht. Das ist nicht dasselbe wie ein Top-Ranking bei Google. Eine Seite kann auf Position 5 stehen und trotzdem von ChatGPT zitiert werden, weil ihre Antwortblöcke besser extrahierbar sind. Umgekehrt kann eine Top-1-Seite komplett aus den AI Overviews verschwinden, weil ihr Content für die Snippet-Logik unbrauchbar ist.
Aus unserer Sicht ist GEO deshalb kein Ersatz für SEO und auch kein Aufsatz darauf, sondern ein zweiter, paralleler Sichtbarkeitskanal. Mit eigenen Crawlern (GPTBot, PerplexityBot, ClaudeBot, Google-Extended), eigenen Extraktions-Regeln (Antwortblöcke, FAQ-Schema, Statistik-Density) und eigenen Authority-Signalen (zitierte Quellen, Person-Author, dateModified). Wer das ignoriert, verschenkt zunehmend Reichweite – nicht morgen, aber in zwei Jahren auf jeden Fall.
Was der Audit konkret prüft
Wir haben uns auf sechs Kategorien festgelegt – die, die sich serverseitig verlässlich messen lassen, ohne Headless-Browser, ohne JavaScript-Rendering, ohne Drittdaten:
1. AI-Bot-Zugriff. Der Audit holt deine robots.txt und prüft sieben relevante User-Agents: GPTBot und ChatGPT-User (OpenAI), OAI-SearchBot, PerplexityBot, ClaudeBot und anthropic-ai (Anthropic) sowie Google-Extended (Gemini + AI Overviews). Steht irgendwo ein Disallow: / für einen davon, ist das ein Blocker – diese Plattform kann dich nicht zitieren, egal wie gut der Content ist.
2. llms.txt. Ein vorgeschlagener Standard analog zu robots.txt, aber speziell für LLMs. Eine kleine Markdown-Datei unter /llms.txt, in der du die wichtigsten URLs deiner Site strukturiert für KI-Crawler aufbereitest. Noch nicht Pflicht, aber zunehmend erwartet – frühe Anwender bekommen messbar bessere Citation-Raten bei Anthropic und Perplexity.
3. Schema-Markup für AI. Der Audit zerlegt alle JSON-LD-Blöcke und prüft auf die Typen, die KI-Suchen besonders gerne extrahieren: Article/BlogPosting, FAQPage und HowTo. Außerdem schaut er, ob dateModified gepflegt ist (Aktualitäts-Signal) und ob ein Person-Author mit Name und URL hinterlegt ist (E-E-A-T-Signal).
4. Content-Struktur. Heuristik-basiert: wie viele H2/H3 sind im Frage-Format formuliert (matcht direkt User-Queries)? Wie viele extraktionsfähige Antwortblöcke gibt es (erste Paragraphen unter Überschriften mit 30–150 Wörtern)? Wie lang sind deine Paragraphen im Schnitt? Pages ohne Frage-Headings werden in unserer Beobachtung deutlich seltener von Perplexity oder ChatGPT zitiert.
5. Citations & Statistiken. Der vielleicht wichtigste Hebel überhaupt: Princeton-GEO-Research aus 2024 zeigt, dass Inhalte mit Statistiken und Quellenangaben +37 Prozent häufiger zitiert werden, mit Expertenzitaten +30 Prozent. Der Audit zählt grob, wie viele konkrete Zahlen, Studienverweise und „laut …"-Formulierungen im Body stehen und wie viele ausgehende Verlinkungen auf externe Quellen vorhanden sind.
6. OpenGraph & Twitter-Card. AI-Overview-Vorschauen ziehen Title, Description und Bild aus den OG-Tags. Fehlen die, fällt deine Snippet-Darstellung visuell hinten runter.
Aus all dem rechnet der Audit einen Score von 100 minus 10 pro kritischem Befund minus 4 pro Warnung – am Ende kommt ein Buchstabe von A bis F raus, wie bei den drei anderen Audits auch. Den vollständigen Report mit Befunden, Erklärungen und konkreten Handlungsempfehlungen schicken wir dir auf Wunsch per Mail.
Was uns beim Dogfooding aufgefallen ist
Wir haben den Audit als Erstes auf pixzl.de selbst losgelassen – Eat-your-own-dogfood-Prinzip. Score: B mit 84/100. Stark gefreut hat uns, dass unsere llms.txt mit sechs Sektionen sauber durchläuft, das Schema-Markup-Set vollständig ist und keiner der sieben AI-Bots blockiert wird. Die Findings, die noch offen sind, sind die ehrlich-strukturellen: unsere Homepage hat kaum Frage-Headings (sie ist editorial-pitch, nicht Q&A) und wenig Antwortblöcke im klassischen Sinne. Genau dafür gibt's den Newsroom – der wird über die nächsten Monate zur eigentlichen GEO-Sichtbarkeits-Engine.
Spannender war der Lauf gegen Kunden-Sites: bei zwei von drei haben wir auf Anhieb mindestens einen blockierten KI-Crawler gefunden. Mal hatte ein Yoast-SEO-Default vor Jahren Google-Extended mit ausgesperrt (weil das vor der KI-Welle als „experimentell" eingestuft wurde), mal war ein PerplexityBot-Disallow versehentlich aus einem Plugin-Update reingerutscht. Solche Blocker sind in zwei Minuten gefixt – aber niemand merkt sie, solange niemand explizit drauf schaut.
Was wir Kunden im Anschluss raten, ist meistens dieselbe Reihenfolge: erst die robots.txt aufräumen (sind alle relevanten Bots erlaubt?), dann das Schema-Markup ergänzen (FAQPage und Article mit Person-Author sind die größten Hebel), dann die Content-Struktur (Frage-Headings + 40–60-Wort-Antwortblöcke). Erst danach lohnt es sich, über externe Authority-Signale wie Wikipedia-Mentions und Reddit-Präsenz nachzudenken.
Was der Audit bewusst nicht prüft
Ehrlich bleiben: ob du tatsächlich in ChatGPT-Antworten zitiert wirst, hängt zu großen Teilen von Faktoren ab, die kein Code-Audit messen kann. Brand-Authority, Wikipedia-Eintrag, Erwähnungen in Branchenmedien, Content-Tiefe und -Aktualität, redaktionelle Konsistenz über Monate hinweg – das sind langsame, organische Hebel, die du nicht über Nacht hochziehst.
Der GEO-Audit prüft die technischen Voraussetzungen. Er stellt sicher, dass deine Seite überhaupt crawlbar ist und dass deine Inhalte extraktionsfähig aufbereitet sind. Das ist die Voraussetzung – nicht das Ziel. In Projekten begleiten wir den zweiten Schritt (Authority-Aufbau) genauso, aber das ist eine 3- bis 6-Monats-Arbeit, kein 60-Sekunden-Tool.
Was als nächstes kommt
Auf der Roadmap stehen zwei Erweiterungen, die wir wahrscheinlich in den nächsten Wochen rausziehen. Erstens ein tieferer Schema-Validator, der nicht nur die Existenz von Article/FAQPage prüft, sondern auch ob die Pflichtfelder (headline, datePublished, author) vollständig gepflegt sind. Zweitens ein Multi-Page-Crawl-Modus, der nicht nur die übergebene URL prüft, sondern eine Stichprobe der wichtigsten Unterseiten – damit man als Agentur in einem Run einen Site-weiten Eindruck bekommt.
Was wir explizit nicht bauen wollen, ist ein Citation-Tracker (Tools wie Otterly, Peec oder LLMrefs sind dafür da). Unser Audit zielt auf die technische Voraussetzung, nicht auf das Monitoring der laufenden Citations.
Probier's selbst
pixzl.de/geo-audit – URL eingeben, Audit läuft, Score erscheint. Wenn du den vollständigen Report mit allen Befunden willst, kannst du dir den per Mail zuschicken lassen. Adresse landet nur in unserem System, wenn du das Marketing-Häkchen aktiv setzt – sonst ist sie eine reine Transaktions-Mail-Adresse für genau diesen einen Report.
Wenn du die Findings danach nicht selbst umsetzen willst, sprechen wir gerne darüber. Im Idealfall in einem 15-Minuten-Call, in dem wir die zwei oder drei Hebel priorisieren, die für deine Seite wirklich was bringen. Termin direkt unter pixzl.de/kontakt.

Über den Autor
Dominik RiekenFounder, Pixzl
Ich bin Gründer von Pixzl, einer Digitalagentur mit Software-Fokus aus dem Münsterland. Wir entwickeln Web-, App-, SaaS- und KI-Lösungen für Kunden und betreiben mehrere eigene Apps im App Store (Deploir, Pixzl) sowie eine Reihe interner Tools und Plattformen für unsere täglichen Workflows. Hier schreibe ich über die Praxis-Lehren — Architektur-Entscheidungen, Self-Hosting-Erfahrungen, App-Store-Ökonomie und alles dazwischen.