Daten und Tools für Generative AI Optimization

16. März 2026 · von Joerg Hoewner · 9 Minuten Lesedauer · Keine Kommentare

https://www.moderne-unternehmenskommunikation.de/content-publishing/daten-und-tools-zur-generative-ai-optimization

Warum GEO/GAIO plötzlich ein Messproblem ist – und wie man trotzdem zu belastbaren Annahmen kommt.

Wer heute Sichtbarkeit plant, plant nicht mehr nur für Suchmaschinen. Marken und Botschaften müssen künftig auch dort auftauchen, wo Antworten entstehen: in ChatGPT, Gemini, Perplexity, Claude – und in allem, was daraus gerade wächst. Das Feld wird unter verschiedenen Labels diskutiert: GEO, GAIO, LLMO, „Machine Positioning“. Egal, wie wir es nennen: Die Grundfrage ist dieselbe.

Wie sichern wir Sichtbarkeit, wenn sich das Nutzerverhalten von Keywords zu Prompts verschiebt – und niemand diese Prompts offenlegt?

Hinweis: Einige der folgenden Überlegungen knüpfen an den Beitrag von Hanns Kronenberg, „Vom Keyword zum Prompt: warum SEO-Experten die Blackbox der KI verstehen müssen“, an.

Vom Keyword zur Blackbox: Warum GEO anders funktioniert als SEO

SEO war lange ein vergleichsweise „komfortables“ Spielfeld: Suchvolumen, Rankings, Klicks, Search Console. Transparenz als Betriebssystem.

In der Prompt-Welt gilt ein anderes Prinzip: „Long Tail of One“ – jeder Prompt ist individuell, kaum wiederholbar, stark kontextabhängig. Und damit fällt ein zentrales Steuerungsinstrument weg: Kenntnis des Nutzerinputs. 

Der entscheidende Punkt für die Praxis: Es wird wohl keine „Search Console für Prompts“ geben. Nicht als Datengeschenk, nicht als Standard-Interface, wahrscheinlich nicht einmal als „Leak“, das sich operationalisieren ließe. Die Gründe sind banal und hart zugleich: Prompts sind zu individuell, oft personenbezogen, teils vertraulich – öffentliche Aggregation ist aus Datenschutz- und Produktlogik heraus kaum machbar.

Aber wofür werden Chatbots überhaupt genutzt?

Bevor man optimiert, sollte man wissen, welche Nutzungssituationen überhaupt relevant sind.

Die bisher belastbarsten Datenpunkte kommen aus großen Analysen realer Nutzung. Für ChatGPT etwa zeigt die Studie „How People Use ChatGPT“, dass große Teile der Nutzung in Cluster fallen wie Practical GuidanceWriting und Seeking Information. Und genau diese Mischung ist für Markenkommunikation spannend: Nicht nur „Informationssuche“ zählt – sondern auch vergleichen, bewerten, formulieren, entscheiden.

Kurz: Ein relevanter Anteil der Nutzung hat informationalen Charakter – aber eben eingebettet in Dialog, Aufgaben und Entscheidungssituationen. Das ist wichtig, weil GEO nicht „SEO mit anderem Namen“ ist, sondern eine Erweiterung auf neue Kontexte.

Das Kernproblem bleibt: Wir sehen die Prompts nicht. Punkt.

Es gibt keine direkte Schnittstelle zu ChatGPT, Gemini oder ähnlichen Systemen, die ein Prompt-Reporting erlauben würde. Im Gegenteil: Für Prompts fehlen „offene Schnittstellen, Datenexporte und standardisierte Reports“. Das heißt aber nicht, dass man blind bleiben muss. Man muss nur akzeptieren, dass GEO-Messung indirekt funktioniert – über Proxies.

Woher GEO-/LLMO-Tools ihre Daten bekommen (und warum das wichtig ist)

Tools versuchen, sich über hauptsächlich drei Datenquellen dem Prompt-Verhalten anzunähern.

1) Klickstream-Daten (Panels, Browser-Plugins)

Ein Ansatz nutzt Clickstream-Daten aus Nutzerpanels, Hosting-Kooperationen oder Browser-Erweiterungen. Damit lassen sich tatsächlich Interaktionsmuster und teils auch Eingaben in LLM-Interfaces beobachten – allerdings fragmentiert, nicht immer repräsentativ und häufig stark desktop-lastig. 

Pragmatische Einordnung: Clickstream kann ein wertvoller Realitätscheck sein, aber selten ein „Single Source of Truth“.

2) SEO-Daten als Proxy (Keywords, Intents, Prompt-Cluster)

Der zweite Weg: Bestehende Keyword-Datenbanken, W-Fragen, usw. als Proxy für Informationsbedürfnisse, insbesondere von User Intents. Die Schwäche ist offensichtlich: Keyword-Listen bilden nicht automatisch semantische Cluster ab und sie verfehlen jene Nutzung, die nicht wie Suche „klingt“ (kreativ, dialogisch, aufgabenorientiert). 

Pragmatische Einordnung: Weiterhin ein stabiles Fundament – aber nicht mehr das ganze Gebäude

3) Modellbasierte Simulationen (Personas, synthetisches User-Verhalten)

Der dritte Weg ist der spannendste jüngste: modellbasiert wie Prompt Decoding, Persona-Simulation oder synthetische Journeys. Dabei werden typische Nutzungsmuster über synthetische Personas simuliert, wobei die Ergebnisse eine überraschend hohe Übereinstimmung mit tatsächlichem Nutzungsverhalten zeigen. Gleichzeitig gilt: Die Empirie ist noch dünn – methodisch vielversprechend, aber noch nicht so belastbar wie klassische Suchdaten. 

Pragmatische Einordnung: Das ist ein Zukunftspfad.

Was heißt das für die Praxis? „Plausible Annahmen“ statt perfekter Messung

Wenn es keine Prompt-Search-Consolen gibt ist ein realistischer Anspruch: Die verfügbaren Proxies bestmöglich kombinieren, um zu plausiblen Annahmen zu kommen. Genau dieses Kombinationsprinzip wird in der Blackbox-KI-Logik als Brücke zwischen „alten“ und „neuen“ Messwelten beschrieben.

Tool-Markt: viel Tracking, schnell teuer, oft zu wenig Prompts

Der Markt reagiert: Klassische SEO-Suiten bauen AI-Tracking aus, neue Spezialanbieter fokussieren sich ganz auf „AI Visibility“. Wir haben eine Reihe von Tools getestet – darunter Sistrix (AI), Ubersuggest/Answer the Public, SEMrush, SE Ranking sowie Spezialanbieter wie Rankscale, Searchable, Otterly, Peec.AI und Profound.

Drei Beobachtungen aus dem Tool-Test

1) Datenbasis: Klingt ähnlich, bleibt aber Annäherung.
Viele Anbieter sprechen von sehr großen Prompt-Datensätzen oder „Prompt-Universen“. In der Praxis werden diese typischerweise aus verschiedenen Quellen zusammengesetzt: etwa aus häufigen Fragestellungen aus der Websuche, aus Vorschlagslogiken („Users also ask“, Autocomplete) oder aus beobachtetem Nutzungsverhalten über Panels. Das liefert wertvolle Hinweise auf relevante Intents, ist aber keine echte, vollständige Prompt-Transparenz.

2) Prompt-Tracking ist aufwendig und genau deshalb teuer.
Sobald Tools nicht nur „einmal scannen“, sondern Prompts regelmäßig monitoren, wachsen Kosten schnell. Denn technisch müssen diese Prompts immer wieder über mehrere Modelle abgefragt werden und zusätzlich braucht es eine Auswertung von Mentions, Zitaten, Quellen, Tonalität und möglichen Ranking-Änderungen. Das macht solche Systeme schwer skalierbar und erklärt, warum Monitoring-Pakete in der Regel schnell ins Geld gehen.

3) Die Standardpakete sind oft zu klein für echte Breite.
Viele Angebote sind in den Basispaketen prompt-limitiert. Typisch sind Kontingente wie 100 Prompts, manchmal 50 oder sogar 25. Für einen Pilot, ein einzelnes Produkt oder eine kleine Themenwelt reicht das. Für Unternehmenskommunikation, die über mehrere Marken, Narrative, Produktkategorien oder Stakeholder-Themen hinweg steuern will, ist es jedoch oft zu wenig, weil man Breite braucht, bevor man in Tiefe optimiert.

Ein pragmatischer Start: einmaliges GEO-Audit statt Dauer-Monitoring

Genau hier liegt aus meiner Sicht ein häufiger Denkfehler: Viele Teams springen zu früh in „Always-on“, obwohl sie noch gar nicht sauber wissen, welche Themen, Frames und Prompt-Cluster wirklich relevant sind und wo sie heute in den Antworten der Modelle stehen.

Für diese Phase ergibt ein einmaliges Audit oft mehr Sinn als ein dauerhaftes Abo mit 50–100 Prompts. Ein Audit bringt Orientierung: Welche Fragen tauchen auf? In welchen Modellen? Welche Quellen werden zitiert? Welche Wettbewerber oder alternativen Deutungen erscheinen? Und wo entstehen inhaltliche Risiken – etwa durch Halluzinationen, verzerrte Gewichtungen oder falsche Zuordnungen?

Darum haben wir für unsere Arbeit ein eigenes Setup entwickelt: ein einmaliger Einsatz (450 EUR), bei dem wir definierte Prompt-Sets in drei Modellen (ChatGPT, Perplexity, Gemini) testen und die Responses strukturiert auswerten. Das ist kein „Ersatz“ für langfristiges Monitoring – aber ein fundierter Startpunkt, um überhaupt sinnvoll priorisieren zu können.

Fazit: GEO ist machbar – wenn wir ehrlich über Daten sprechen

GEO/GAIO ist kein Mysterium. Aber es ist ein Feld, in dem man sehr schnell so tut, als gäbe es mehr Messbarkeit, als tatsächlich existiert.

Die Realität ist:

  • Prompts sind unsichtbar und das wird sehr wahrscheinlich so bleiben.
  • Tools arbeiten deshalb mit Annäherungen: Clickstream-Analysen, SEO-/Keyword-Proxies und modellbasierte Simulationen.
  • Tracking ist wertvoll, aber oft prompt-limitiert und damit für viele Organisationen nur eingeschränkt skalierbar, wenn man Breite und Tiefe gleichzeitig will.

Wer das akzeptiert, kann trotzdem sehr professionell arbeiten: nicht mit dem Anspruch „wir wissen alles“, sondern mit dem Anspruch „wir treffen die bestmöglichen Entscheidungen auf Basis plausibler Evidenz“. Und genau das ist am Ende der entscheidende Shift in der Unternehmenskommunikation: weniger Kontrollillusion, mehr robuste Hypothesen, getestete Annahmen und iteratives Optimieren.

Autor: Joerg Hoewner

Jörg Hoewner ist Geschäftsführender Partner bei K12 Agentur für Kommunikation und Innovation. Seit fast 30 Jahren berät er Kunden im Bereich Digitale Kommunikation und der Einführung von digitalen Werkzeugen in Kommunikation und Marketing. Darüber hinaus ist er als Referent aktiv und Autor zahlreicher Fachbeiträge – online, in Zeitschriften und Büchern. Schwerpunktmäßig beschäftigt er sich mit dem Thema integrierte, datengetriebenen Kommunikation und der Auswirkung von Kommunikationstechnologien auf die interne und externe Unternehmenskommunikation. Kontakt: Jörg Hoewner (joerg.hoewner@k-zwoelf.com).

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.


2 × 3 =