Was wir bei eigenen Tests beobachten. Kein fertiges Wissen sondern dokumentierte Eindrücke aus laufenden Experimenten. Manches bestätigt sich, manches nicht.
Seit dem Start von GEOinside testen wir wöchentlich mit manuellen Prompts in ChatGPT Search, Perplexity und Google AI Overviews. Das ist aufwendig, nicht skalierbar und manchmal frustrierend inkonsistent. Aber es ist ehrlicher als jede Theorie die ohne praktische Tests formuliert wird.
Die erste und vielleicht wichtigste Beobachtung: Konsistenz fehlt. Dieselbe Frage an dieselbe Plattform an zwei verschiedenen Tagen kann komplett unterschiedliche Quellen zitieren. Das macht systematisches Testing schwierig und sollte jeden skeptisch machen der behauptet GEO sei eine reproduzierbare Disziplin.
Zweite Beobachtung: Perplexity ist transparenter als ChatGPT. Die Quellenangaben sind direkter sichtbar und klickbar. Das macht Perplexity zum besseren Testlabor für eigene GEO-Experimente auch wenn die Nutzerbasis kleiner ist als die von ChatGPT.
Dritte Beobachtung: Framing und Formulierung der Prompts haben großen Einfluss. "Was ist GEO?" zieht andere Quellen als "Erkläre mir Generative Engine Optimization für Einsteiger". Das deutet darauf hin dass die Optimierung auf einzelne Antworten zielt und nicht auf ein breites Themenfeld.
Wikipedia dominiert bei Faktenfragen. Wer auf Perplexity oder ChatGPT faktische Definitionen abfragt sieht fast immer Wikipedia in den Top-Quellen. Das ist kein Zufall: Wikipedia hat die höchste Linkdichte im Web, neutral formulierten Content und wird von beiden Plattformen als besonders vertrauenswürdig eingestuft. Für normale Websites eine hohe Latte.
Aktualität schlägt Seitenautorität bei zeitkritischen Themen. Bei Anfragen zu aktuellen Entwicklungen in der KI-Suche tauchen regelmäßig Artikel auf die erst wenige Wochen alt sind, auch von Domains ohne große Backlinkprofile. Das deutet darauf hin dass Retrieval-Systeme für dynamische Themen stark auf Freshness setzen.
Deutliche Unterschiede zwischen Plattformen. Dieselbe Suchanfrage "Wie funktioniert GEO?" liefert in Perplexity, ChatGPT Search und Google AI Overviews teils völlig unterschiedliche Quellensets. Eine Plattform-agnostische GEO-Strategie die überall funktioniert gibt es wahrscheinlich nicht. Man muss priorisieren.
Eigene Domain noch nicht in Ergebnissen. Ehrliche Einschätzung: GEOinside ist neu und taucht in keiner der getesteten Anfragen bisher als zitierte Quelle auf. Das ist kein Misserfolg sondern erwartet. Sichtbarkeit in KI-Systemen braucht Zeit, Verlinkungen und vor allem konsistente Qualität über mehrere Monate.
„Nichts von dem was ich hier schreibe ist endgültig bestätigt. Das ist ein offenes Experiment und diese Seite ist Teil davon."
Wöchentliche manuelle Tests mit je 8-12 Prompts pro Plattform (ChatGPT Search, Perplexity, Google AI Overviews). Dokumentation in einem internen Log. Keine automatisierten Tools bisher weil die Ergebnisqualität nicht ausreicht. Alle hier beschriebenen Beobachtungen basieren auf diesem manuellen Prozess.