ChatGPT und Perplexity zitieren nicht zufällig. Aber transparent ist der Prozess auch nicht. Was wir wissen und was wir vermuten.
Wenn jemand ChatGPT oder Perplexity eine Frage stellt passiert im Hintergrund mehr als die meisten ahnen. Diese Systeme arbeiten nicht mit einem statischen Gedächtnis das einmal trainiert wurde und dann still steht. Moderne KI-Suchsysteme nutzen einen Mechanismus namens Retrieval-Augmented Generation, kurz RAG. Das bedeutet: Das Modell holt sich zum Zeitpunkt der Anfrage aktuelle Inhalte aus dem Web, verarbeitet sie und generiert dann eine Antwort die auf diesen Quellen basiert.
Dieser Prozess läuft in mehreren Schritten ab. Zuerst wird eine breite Menge potenziell relevanter Dokumente abgerufen. Dann bewertet ein Ranking-Modell diese Dokumente nach verschiedenen Qualitätssignalen. Und erst aus dem Destillat dieser Bewertung generiert das Sprachmodell die eigentliche Antwort. Welche Quellen dabei als zitierwürdig gelten hängt von Faktoren ab die nicht öffentlich dokumentiert sind.
Das ist der Kern des Problems: Diese Systeme sind Black Boxes. Es gibt keine offizielle Dokumentation von OpenAI, Google oder Perplexity die erklären würde welche Signale exakt in die Quellenauswahl einfließen. Was wir haben sind empirische Beobachtungen, Studien wie die aus Princeton und viel kollektives Ausprobieren in der SEO-Community. Oliver Misch testet das für GEOinside laufend mit eigenen Prompts und dokumentiert die Ergebnisse in den Beobachtungen.
Auf Basis der Princeton-Studie und weiterer Beobachtungen aus der SEO-Community lassen sich einige Faktoren identifizieren die mit hoher Wahrscheinlichkeit relevant sind. Wichtig dabei: Wahrscheinlichkeit ist nicht Gewissheit. Nichts davon ist offiziell bestätigt.
Passagenqualität schlägt Seitenauthorität. LLMs extrahieren keine ganzen Seiten sondern Passagen. Ein gut strukturierter Absatz der eine Frage klar und präzise beantwortet hat bessere Chancen aufgegriffen zu werden als eine ganze Seite mit hoher Domain Authority aber vagen Formulierungen. Die Einheit ist nicht die Seite, sondern der Textblock.
Faktizität und belegbare Aussagen. Sprachmodelle wurden darauf trainiert halluzinationen zu vermeiden. Inhalte die konkrete Zahlen, Studienreferenzen und belegbare Fakten enthalten wirken für das Modell glaubwürdiger als qualitative Aussagen ohne Beleg. "63% der befragten Websites berichten Traffic aus KI-Suche" schlägt "viele Websites sehen KI-Traffic".
Entitätserkennung und Markenverankerung. Wenn ein Sprachmodell eine Marke, Person oder Organisation kennt, also ihr Vorhandensein aus den Trainingsdaten und aktuellen Webdaten ableiten kann, ist die Wahrscheinlichkeit höher dass entsprechende Inhalte korrekt zugeordnet werden. Wer als Experte für ein Thema an mehreren Stellen im Web auftaucht hat bessere Chancen als ein Unbekannter.
Kurze, direkte Antwortblöcke. Das Modell liest nicht die ganze Seite sondern sucht extrahierbare Einheiten die als Antwort taugen.
Zahlen, Studienangaben, Quellenverweise. Belegbare Aussagen erhöhen die Wahrscheinlichkeit eines Zitats laut Princeton-Studie um 41%.
Bekannte Marken, Personen und Institutionen werden häufiger korrekt zitiert. Anonyme Quellen haben es strukturell schwerer.
Reddit, LinkedIn und YouTube zählen laut Auswertung vom Oktober 2025 zu den meistzitierten Quellen großer LLMs. Substanzieller Content dort hilft.
Autorenprofil, Expertise, externe Erwähnungen in seriösen Kontexten. Was für Google-Ranking gilt beeinflusst auch KI-Retrievalsysteme.
Frische Inhalte mit klaren Datumsangaben werden bei zeitkritischen Fragen bevorzugt. Nie aktualisierte alte Texte verlieren an Zitierwahrscheinlichkeit.
Eine der wichtigsten offenen Fragen bei GEO ist wie stark sich die verschiedenen Plattformen in ihrer Quellenauswahl unterscheiden. Die kurze Antwort: wahrscheinlich erheblich, aber niemand kann das mit Sicherheit sagen.
Perplexity.ai ist das System das am transparentesten mit Quellenangaben arbeitet. Jede Antwort kommt mit nummerierten Quellenverweisen die direkt klickbar sind. Das macht es vergleichsweise einfach zu testen ob und wie oft eine Seite auftaucht. Perplexity nutzt ein eigenes Crawlsystem und scheint nach aktuellen Beobachtungen stark auf frische und strukturierte Quellen zu setzen.
ChatGPT Search verhält sich anders. Die Integration in den normalen ChatGPT-Fluss bedeutet dass Quellenangaben weniger prominent sind und die Auswahl schwerer nachzuvollziehen ist. Wikipedia taucht laut einer Analyse von frase.io in 47,9% der ChatGPT-Antworten auf faktischen Fragen auf. Das gibt einen Hinweis auf die Gewichtung: Bekannte, oft verlinkte, neutral formulierte Quellen bevorzugt.
Google AI Overviews läuft auf einem anderen Prinzip. Hier ist die Überlappung mit klassischen organischen Suchergebnissen am höchsten, laut Search Engine Land mittlerweile bei 99%. Das bedeutet: Wer bei Google gut rankt hat die besten Chancen auch in AI Overviews zu erscheinen. Hier ist die Brücke zwischen klassischem SEO und GEO am direktesten.
Reddit, LinkedIn und YouTube waren laut einer Auswertung der meistzitierten Quellen führender LLMs unter den Top-Quellen im Oktober 2025. Wer dort mit substantiellen Inhalten präsent ist gibt Sprachmodellen mehr Material aus dem sie schöpfen können. Kein Spam, sondern echte Antworten auf echte Fragen in relevanten Communitys.
„GEO ist Reputationsarchitektur für Antwortmaschinen. Unternehmen die dabei gewinnen bauen kein konsistentes Ökosystem aus glaubwürdigen Inhalten, Expertenstimmen und echtem Einfluss auf. KI-Systeme erkennen das als vertrauenswürdig."