Google Analytics zeigt keinen KI-Traffic. Keyword-Rankings messen keine Empfehlungen. Wer wissen will, wie sichtbar er in KI-Systemen ist, braucht einen anderen Ansatz.
Die meisten Unternehmen wissen nicht, ob sie in KI-Antworten auftauchen. Nicht weil es sie nicht interessiert – sondern weil die üblichen Tools dafür nicht gebaut wurden. Wer das nicht aktiv misst, optimiert blind.
SEO-Tools messen Sichtbarkeit in Suchergebnis-Listen. KI-Systeme sind keine Suchmaschinen im klassischen Sinne – der Unterschied zwischen Ranking und Empfehlung ist fundamental. KI generiert Antworten, die keinen direkten Traffic erzeugen, keine klickbaren Links liefern und keine Impressions hinterlassen, die Tools erfassen könnten. Wie diese Empfehlungslogik im Detail funktioniert – welche Quellen KI-Systeme bevorzugen und warum manche Unternehmen konsistent genannt werden – ist eine eigene Mechanik.
Wenn ChatGPT Ihren Wettbewerber zwanzigmal pro Tag empfiehlt, sehen Sie das in keinem Dashboard. Der Traffic entsteht im Kopf des Nutzers – nicht in Ihrer Analytics. Wer das nicht aktiv misst, arbeitet blind.
Das bedeutet: Gutes Google-Ranking sagt nichts über KI-Sichtbarkeit aus. Ein Unternehmen kann auf Seite 1 ranken und in keiner KI-Antwort vorkommen. Und umgekehrt. Beide Sichtbarkeitsebenen folgen grundlegend unterschiedlichen Regeln – und brauchen unterschiedliche Messansätze.
KI-Sichtbarkeit lässt sich nur durch direktes Testen messen – durch systematische Prompts an ChatGPT, Gemini und Perplexity. Das klingt einfacher als es ist: Ein sauberer Test erfordert die richtigen Fragen, mehrere Varianten pro Frage, Wiederholungen für Stabilität und eine strukturierte Auswertung über drei verschiedene Systeme.
Intent-Cluster sind Gruppen von Fragen, die Zielkunden stellen, bevor sie eine Kaufentscheidung treffen. Nicht „Wer ist Unternehmen X?", sondern „Wer kann mir bei Problem Y helfen?" – zum Beispiel: „Welche Unternehmensberatung ist spezialisiert auf Prozessoptimierung im Mittelstand?" Das Definieren dieser Cluster ist der aufwendigste Schritt – und der entscheidende. Wer hier falsch ansetzt, misst das Falsche mit großer Sorgfalt.
Für jeden Intent-Cluster mehrere Varianten testen – unterschiedliche Formulierungen, unterschiedliche Spezifizierungsgrade. KI-Antworten variieren je nach Formulierung erheblich. Was bei einer Formulierung zu einer Nennung führt, kann bei einer anderen komplett fehlen. Mindestens drei Varianten pro Cluster sind Pflicht.
ChatGPT, Gemini und Perplexity haben unterschiedliche Trainingsdaten, Quellen und Empfehlungslogiken. Sichtbarkeit in einem System bedeutet nicht Sichtbarkeit in allen – und die Unterschiede sind oft größer als erwartet. Perplexity zeigt dabei direkt, welche Quellen zitiert werden – besonders aufschlussreich für die Analyse.
Wird das eigene Unternehmen genannt? An welcher Position? In welchem Kontext – als konkrete Empfehlung, als Option oder nur als Erwähnung? Welche Wettbewerber werden stattdessen oder zusätzlich genannt? Die Auswertung zeigt, wo der Signal-Mix stark ist – und wo Lücken bestehen.
KI-Antworten sind nicht deterministisch – dieselbe Frage kann je nach Session unterschiedliche Antworten liefern. Relevante Sichtbarkeit zeigt sich über mehrere Tests hinweg konsistent. Wer einmal genannt wird, ist noch nicht stabil sichtbar. Stabile Sichtbarkeit bedeutet: konsistente Nennung über Prompts, Formulierungen und Systeme hinweg.
Ein einmaliger Treffer ist kein Signal. Erst wiederholbare Sichtbarkeit über Systeme, Formulierungen und Sessions hinweg ist belastbar – und der einzig valide Ausgangspunkt für Optimierungsentscheidungen.
Ein valides GEO-Mess-Setup liefert mehr als ein einfaches Ja/Nein. Die relevanten Dimensionen:
In wie vielen von N definierten Prompts wird das Unternehmen genannt? Gemessen über alle Systeme und Prompt-Varianten. Gibt den Basiswert für Sichtbarkeit.
Wird das Unternehmen als konkrete Empfehlung genannt oder nur als Randerwähnung? Als erster oder letzter Treffer? Der Kontext der Nennung ist oft wichtiger als die Nennung selbst.
Wer wird statt oder neben dem eigenen Unternehmen genannt? Was unterscheidet diese Wettbewerber in ihrer externen Sichtbarkeit? Der Vergleich zeigt, wo konkrete Lücken im Signal-Mix bestehen.
Ist die Sichtbarkeit über ChatGPT, Gemini und Perplexity hinweg konsistent – oder stark von einem System abhängig? Systementspezifische Sichtbarkeit ist fragiler als systemübergreifende.
Ein B2B-Softwareanbieter für Lagerverwaltung testet seinen Intent-Cluster „Lösungssuche Logistik". Einer der Prompts lautet: „Welche Software empfehlt sich für die Lagerverwaltung in mittelständischen Produktionsbetrieben?"
Perplexity nennt drei Anbieter – der eigene ist nicht dabei. Beim zweiten Prompt, leicht anders formuliert: „Beste Lagerverwaltungssoftware für produzierende KMU?" erscheint das Unternehmen auf Position zwei. Beim dritten Prompt fehlt es wieder.
Was das zeigt: Die Sichtbarkeit ist instabil. Das Unternehmen taucht auf, aber nicht konsistent – ein Zeichen, dass der Signal-Mix vorhanden, aber noch nicht stark genug verankert ist. Erwähnungsrate: 33 %. Empfehlungsqualität: mittel. Systemkonsistenz: niedrig. Genau diese Einordnung ist der Ausgangspunkt für gezielte Maßnahmen – nicht die Einzelbeobachtung.
„Wer ist Unternehmen X?" ist kein GEO-Test. Relevant sind generische Anfragen ohne Markenbezug – so wie sie Kunden stellen, die das Unternehmen noch nicht kennen.
KI-Antworten variieren je nach Session, Formulierung und System. Einzelne Tests sind nicht repräsentativ. Aussagekräftig wird das Bild erst über mehrere Prompts und Wiederholungen.
Ob als erste konkrete Empfehlung, als Option unter vielen oder nur als Randerwähnung genannt – das macht einen erheblichen Unterschied für die tatsächliche Wirkung auf den Nutzer.
ChatGPT, Gemini und Perplexity funktionieren grundlegend anders. Sichtbarkeit bei einem System ist keine Garantie für Sichtbarkeit bei den anderen.
KI-Sichtbarkeit ist messbar – aber nicht mit den Tools, die die meisten Unternehmen kennen. Google Search Console, SEMrush und Co. erfassen diese Sichtbarkeitsebene nicht. Das bedeutet: Wer nicht aktiv misst, optimiert ins Leere.
Der erste Schritt ist immer derselbe: verstehen, wo man in der Empfehlungslogik der relevanten Systeme tatsächlich steht. Erst dann macht es Sinn, die typischen Fehler zu vermeiden und gezielte Maßnahmen einzuleiten. Für einen strukturierten ersten Statuscheck eignet sich der kostenlose KI-Check – für eine vollständige Analyse mit Scoring über alle vier Dimensionen der GEO Snapshot. Wer tiefer verstehen will, warum Wettbewerber bevorzugt werden, welche Quellen fehlen und welche Signalebenen konkret gestärkt werden müssen, findet die Antwort im GEO Audit.
Wer nicht weiß, wo er steht, kann nicht gezielt optimieren. Messen ist kein optionaler Schritt – es ist der erste.
Ein GEO Snapshot zeigt Ihren Status. Ein GEO Audit zeigt, warum Wettbewerber bevorzugt werden und welche Inhalte Ihnen konkret fehlen.