Warum Traffic als Kennzahl ausgedient hat und wo die größten Hebel für B2B-Sichtbarkeit in AI-Antworten liegen.
Wer heute B2B-Marketing macht, merkt schnell: Traffic allein taugt nicht mehr als Steuerungsgröße. Suchmaschinenoptimierung und Generative Engine Optimization (GEO) verändern gemeinsam, wie Geschäftskunden Anbieter finden und Kaufentscheidungen vorbereiten.
Forrester formuliert den Shift explizit: von Traffic zu Visibility. Gartner sieht 67 Prozent der B2B-Käufer, die am liebsten komplett ohne Vertriebskontakt kaufen würden. 94 Prozent nutzen laut Forrester KI im Kaufprozess.
Google liefert in über 200 Ländern AI-generierte Antworten in den Suchergebnissen. ChatGPT, Perplexity und Gemini beantworten Fachfragen, die vor zwei Jahren noch einen Klick erzeugt hätten. McKinsey nennt das die “neue Eingangstür zum Internet” und rechnet damit, dass bis 2028 mehr als 75 Prozent der Google-Suchen eine AI-Zusammenfassung enthalten.
Bevor der Vertrieb überhaupt ins Gespräch kommt, hat ein potenzieller Kunde seine Meinung schon gebildet. Aus AI-Antworten, Vergleichsseiten, YouTube und Fachforen. Wer in diesem Ökosystem nicht auftaucht, existiert für einen relevanten Teil der Zielgruppe schlicht nicht.
Auf einen Blick: Traffic ist 2026 keine belastbare Kennzahl mehr. GEO im B2B baut auf SEO auf, statt es zu ersetzen. Der größte Hebel liegt in sauber publiziertem Produktwissen.
Wer im B2B gewinnt und warum
Aggregatoren vs. Integratoren
Kevin Indig, ehemals Head of SEO bei Shopify, hat eine Unterscheidung geprägt, die ich gerne in Kundengesprächen nutze:
| Aggregatoren | Integratoren | |
|---|---|---|
| Beispiele | Plattformen wie Booking.com, Stepstone, G2 | B2B-SaaS wie Personio, DATEV, Staffbase. Industrie wie Festo, ZF, Voith |
| Modell | Bündelung fremder Angebote und Listings | Verbindung von Suchnachfrage mit eigenem Produkt |
| SEO-Hebel | Technical SEO + Inventar | Content + Expertise + Trust |
| AI-Risiko | Hoch, weil Listen sich maschinell zusammenfassen lassen | Geringer, weil AI Primärquellen braucht |
| Ziel 2026 | Discovery und Markttransparenz | Kaufvalidierung und Conversion |
Aggregatoren vs. Integratoren: Unterschiede in SEO-Strategie und AI-Risiko
Die allermeisten B2B-Unternehmen im DACH-Raum sind Integratoren. Für sie liegt der Hebel im Produktwissen, nicht im Volumen. Im Wettbewerb mit Aggregatoren haben sie einen strukturellen Vorteil: Ihre Inhalte basieren auf echter Expertise und lassen sich nicht einfach replizieren.
Product Truth: Was Entscheider wirklich suchen
Was Entscheider und Fachleute auf Kundenseite suchen, sind Antworten auf sehr konkrete Fragen: Passt das Produkt zu meinem Anwendungsfall? Welche Normen erfüllt es? Wie läuft die Einführung? Was kostet der Betrieb wirklich? Wie schneidet es gegen Alternative X ab? Indig nennt das Product Truth: belastbare Produktwahrheit statt Marketing-Versprechen. Diese Kundenfragen sind in der Praxis die Grundlage jeder B2B-GEO-Strategie, die wirklich funktioniert.
Wenn ich mir Produktseiten von B2B-Unternehmen anschaue, sehe ich fast immer das Gleiche: Marketing-Claims und Hochglanz, aber keine Integrationsliste, keine ehrliche Eignungsbewertung, keine Specs für den technischen Einkäufer. Und erstaunlich viel produktrelevanter Content steckt in PDFs, die weder Suchmaschinen noch AI-Suchsysteme vernünftig verarbeiten können.
Von PDF zu HTML: Produktwissen sichtbar machen
Das Wissen ist in den meisten B2B-Unternehmen vorhanden, es liegt bei Produktmanagern, Engineers und im technischen Vertrieb. Aber es schafft es nicht auf die Website. Nicht weil es an Willen fehlt, sondern weil Priorisierung, Prozesse und die Brücke zwischen Fachexpertise und Publikation fehlen. Dazu kommt ein klassisches Schnittstellenproblem: Der Vertrieb hat das Kundenwissen und oft auch die Fachtiefe. Marketing weiß, wie es positioniert werden muss. Aber wenn die beiden nicht strukturiert zusammenarbeiten, bleibt das Produktwissen in Köpfen und Slide-Decks statt auf der Website.
Um das konkreter zu machen:
| Element | Was ich meistens sehe | Was Entscheider und AI brauchen |
|---|---|---|
| Specs | PDF-Download | Strukturierte HTML-Tabelle auf der Seite |
| Eignung / Nichteignung | Nicht vorhanden | Klare Angabe, wofür das Produkt passt und wofür nicht |
| Integrationen | Textliste im Datenblatt | Filterbare Übersicht mit Versionen und Kompatibilität |
| Normen / Compliance | Verweis auf Zertifikate als PDF | Maschinenlesbare Auflistung mit Gültigkeitsbereichen |
| Preislogik | ”Auf Anfrage” | Transparente Modelle, Konfigurationsoptionen, TCO-Hinweise |
Produktinformationen: Status quo vs. Best Practice für B2B-SEO und GEO
Agentic Commerce: Warum maschinenlesbare Produktdaten jetzt zählen
Dazu kommt ein Thema, das heute noch am Rand steht, aber bald relevant wird: Agentic Commerce. Im B2B zeichnet sich ab, dass AI-Agenten autonom Anbieter vergleichen, Produktdaten auswerten und Shortlists erstellen werden. Das ist noch kein Massenphänomen. Aber die Infrastruktur wird gebaut. Und Produktwahrheit, die hinter Login-Walls oder in statischen PDFs steckt, existiert für diese Suchsysteme nicht. Wer seine Produktdaten und Datenqualität nicht im Griff hat, wird in dieser neuen Recherche-Landschaft unsichtbar.
Warum “mehr Content” nicht mehr aufgeht
Viele B2B-Unternehmen haben in den letzten Jahren massiv in Content-Volumen investiert. Hunderte Blogbeiträge, Landingpages für jede Keyword-Kombination, Ratgeber zu Themen, die nur am Rande mit dem eigenen Angebot zu tun haben. Ich will das nicht verurteilen, das war lange ein funktionierender Ansatz. Aber die Spielregeln haben sich verschoben. Die Bedeutung von Qualität gegenüber Quantität war noch nie so hoch, und die Streuverluste durch generischen Content noch nie so groß.
Die Zahlen: Weniger Klicks bei AI-Antworten
Ahrefs misst bei Suchergebnissen mit AI-Antwort 58 Prozent weniger Klicks auf Position 1. SISTRIX sieht für Deutschland einen Rückgang von 27 auf 11 Prozent Klickrate. Google bestreitet diese Zahlen und sagt, AI Overviews erzeugen insgesamt mehr Klicks. Unabhängige Studien von Seer Interactive und Authoritas bestätigen den Abwärtstrend. Die genaue Größenordnung ist methodikabhängig, der Trend nicht. Mittelmäßiger Content rechnet sich bei diesen Ergebnissen einfach nicht mehr.
Seitenvolumen und AI-Sichtbarkeit: Kein Zusammenhang
Eine Ahrefs-Studie über 75.000 Marken fand fast keinen Zusammenhang zwischen der Anzahl indexierter Seiten und Sichtbarkeit in AI-Antworten. Stärker korreliert, wie oft eine Marke im Web und auf YouTube erwähnt wird. Wer gehofft hat, dass Seitenvolumen auch in der AI-Welt ein Vorteil ist: Die Daten sagen nein. Die Relevanz einer Marke entsteht durch Substanz und Vertrauen, nicht durch Masse.
Das Ende von Scaled Content
Und Google selbst verschärft die Durchsetzung gegen Scaled Content Abuse, also Seiten, die primär für Suchmaschinen existieren. Das steht seit 2024 in den Spam Policies, die jüngsten Core Updates machen ernst. Websites mit tausenden nahezu identischen Seiten haben laut Branchenanalysen massive Ranking-Verluste erlitten. Dabei wirkt ein Weakest-Link-Effekt: Schwache Seiten ziehen nicht nur sich selbst runter, sondern die Qualitätsbewertung der gesamten Domain.
Programmatic SEO nach dem Muster “[Dienstleistung] in [Stadt]” funktioniert nur noch dort, wo echte Datenbank-Utility dahintersteht. Zapier mit seinen Integrationsseiten, Wise mit dem Currency Converter, Template-Libraries wie Canva. Für B2B heißt das: “Service x Standort”-Seiten ohne echte Differenzierung pro Seite (eigene Teams, Referenzen, Branchenschwerpunkte) riskieren, von Google als Doorway Pages eingestuft zu werden, also als Seiten, die nur existieren, um für bestimmte Suchanfragen zu ranken, ohne eigenständigen Inhalt zu liefern.
Lily Ray von iPullRank sagt dazu: SEO-Taktiken, die sich leicht kopieren und skalieren lassen, erzeugen Goldrauschphasen und danach Crackdowns. Das Gegenmittel ist Originalität, die sich nicht replizieren lässt.
GEO: Was es ist und was es nicht ist
Neben klassischer Suchmaschinenoptimierung gibt es jetzt GEO, Generative Engine Optimization. Für GEO im B2B ist die Kernfrage: Werden Inhalte von LLMs und AI-Suchsystemen gefunden, als glaubwürdig eingestuft und zitiert?
GEO baut auf SEO auf
Ich halte den Begriff GEO für etwas überladen, weil er suggeriert, es gäbe ein komplett neues Spielfeld. In Wirklichkeit baut GEO auf SEO auf. Google sagt das explizit: Für AI Overviews ist keine Spezial-Optimierung nötig. Ohne saubere technische Grundlagen (Crawlability, Indexierung, maschinenlesbare Datenauszeichnung) können AI-Systeme Content gar nicht verarbeiten. Oder wie KI-Berater Hamidreza Hosseini es im Handelsblatt formuliert: Wer bei Google kaum auffindbar ist, taucht auch in AI-Antworten eher nicht auf. Für B2B heißt das: zuerst die SEO-Basis, dann die GEO-spezifischen Maßnahmen, alles andere ist Buzzword-Bingo.
Retrieved, Cited, Trusted: Die drei Stufen der GEO-Optimierung
Trotzdem gibt es neue Mechanismen, die SEO allein nicht abdeckt. Kevin Indig beschreibt die Pipeline in drei Stufen: Retrieved, Cited, Trusted. Heißt konkret: Erst muss ein AI-Suchsystem den Content überhaupt finden und in seinen Kandidatenpool aufnehmen. Dann muss es ihn tatsächlich in einer Antwort zitieren. Und schließlich muss die Zitation beim Nutzer als glaubwürdig ankommen. Jede Stufe kann scheitern, und an jeder Stufe greifen andere Hebel. Aleyda Solis macht die Abgrenzung griffig: SEO optimiert Seiten für Rankings und Klicks. GEO optimiert Content-Abschnitte für Aufnahme und Zitation in AI-Antworten.
Vier Mechanismen, die ich für besonders relevant halte:
- Chunkability: LLMs wie ChatGPT und Gemini ziehen Passagen, nicht ganze Seiten. Jeder Abschnitt muss eigenständig verständlich sein, mit klarer Überschrift und Kernaussage in den ersten zwei Sätzen. Eine Princeton-Studie aus 2023 zeigte 30 bis 40 Prozent höhere AI-Sichtbarkeit für so optimierte Inhalte. Die AI-Landschaft hat sich seitdem verändert, aber das Grundprinzip hält.
- Query Fan-out: Google stellt bei AI Overviews (ehemals SGE) mehrere parallele Unterabfragen an den Index. Unternehmen, die einen Themen-Graphen aus Use Cases, Integrationen, Branchen und Vergleichen abdecken, werden häufiger berücksichtigt als solche, die auf einzelne Keywords optimieren.
- Entity Authority: Was Dritte über eine Marke sagen, wiegt schwer. Erwähnungen in Fachmedien, auf YouTube, LinkedIn, in Branchenverzeichnissen und Review-Plattformen fließen in die AI-Bewertung ein. Foundation Inc. berichtet, dass in kompetitiven B2B-Verticals rund 95 Prozent der AI-Zitationen von Quellen kommen, die man nicht kontrolliert. Die exakte Zahl ist ein Erfahrungswert, keine systematische Studie. Aber sie deckt sich mit den Ahrefs-Daten: Off-Site-Signale zählen mehr als die eigene Seitenanzahl.
- Citation Decay: Content, den ChatGPT diesen Monat zitiert, kann nächsten Monat durch frischere Quellen ersetzt werden. Google-Rankings halten sich oft über Jahre, AI-Zitationen shiften in Wochen. Wer nicht regelmäßig aktualisiert, wird ersetzt.
Was Unternehmen daraus machen
Ergo und Proliance: Zwei Wege zur GEO-Optimierung
Die Ergo-Versicherung hat das laut Handelsblatt bereits systematisch angegangen: zehntausende Google-Suchergebnisse mit AI-Chatbot-Antworten verglichen, dann drei Maßnahmenbereiche definiert. Technische Zugänglichkeit und Schema Markups. Semantisch klarere Inhalte mit stärkerer Themenverknüpfung. Strukturierte Formate wie FAQs, Tabellen und Rechner, die Sprachmodelle leichter verarbeiten können.
Proliance-Gründer Alexander Ingelheim ging einen pragmatischeren Weg. Das Berliner Compliance-Start-up verlor laut Handelsblatt im vierten Quartal 2025 rund 40 Prozent seines Google-Traffics, bei gleichzeitiger Domain-Migration und Relaunch. Wie viel davon auf AI-Veränderungen und wie viel auf den Umbau selbst zurückgeht, lässt sich von außen nicht sauber trennen. Ingelheims Reaktion: Inhalte für Chatbots lesbarer machen, mehr Präsenz auf LinkedIn und YouTube, mehr echte Referenzen auf Bewertungsportalen, und die Löschung eines eigenen Blogs, der für Verwirrung sorgte.
Sechs Hebel für B2B GEO und Sichtbarkeit
In meiner eigenen Arbeit mit B2B-Unternehmen sehe ich ein wiederkehrendes Muster: Es wird eine Branchenseite oder ein Ratgeberartikel gebaut, aber niemand prüft vorher, ob diese Seite realistisch ranken kann und ob sie auf ein relevantes Suchvolumen einzahlt. Content-Produktion ohne diesen Check ist eine Wette ohne Datengrundlage. Ohne klare Analyse der Suchanfragen und des Wettbewerbs bleiben viele Marketingmaßnahmen wirkungslos.
Was ich aus diesen Beispielen und der Datenlage ableite, lässt sich zu sechs Punkten verdichten. Nicht als starre Checkliste, sondern als Orientierung, wo die größten Hebel liegen:
- Seiteninventar bereinigen: Alte, dünne und doppelte Seiten ziehen die gesamte Domain runter, ebenso wie PDFs, die als Content-Träger dienen, aber weder suchbar noch AI-verwertbar sind. Konsolidierung kann kurzfristig Rankings kosten, mit sauberen Redirects ist das beherrschbar, aber es braucht einen Plan.
- Produktseiten zur besten Antwort machen: Specs, Eignung, Integrationen, Compliance, Preislogik, Implementierung. Als strukturierter Content auf der Seite, nicht als PDF-Download. Lösungen für konkrete Anforderungen der Zielgruppe müssen sofort erkennbar sein.
- Content-Prozess an Wirkung koppeln: Keine Seite ohne vorherige Analyse: Keyword-Potenzial, Wettbewerbslage, realistische Ranking-Chance, Erfolgsmessung.
- Zitierfähige Quellen schaffen: Eigene Studien, Rechner, Vergleichsmodelle, Benchmarks, Normen-Guides. Ergo setzt auf FAQs, Tabellen und Rechner. Für Industrieunternehmen und Hersteller können das Normen-Datenbanken oder Konfigurationstools sein.
- Off-Site-Sichtbarkeit aufbauen: Fachmedien-Beiträge, Kundenreferenzen auf Review-Plattformen, YouTube, LinkedIn, Branchenverzeichnisse. Wenn der Großteil der AI-Zitationen von Drittquellen kommt, ist das kein Nebenprojekt.
- KPIs und Erwartungshaltung anpassen: Wenn ein Großteil der Customer Journey in AI-Suchsystemen stattfindet, darf die Erwartung nicht maximaler Traffic sein. Der Traffic, der noch ankommt, ist qualifizierter, weil Interessenten vorher schon gefiltert haben. Rankings allein reichen als Steuerungsgröße nicht mehr. AI-Zitationen, Mention-Share, Brand-Search-Entwicklung und AI-Referral-Traffic gehören ins Reporting. Für AI-Mention-Tracking gibt es spezialisierte Tools von Sistrix, Ahrefs, Semrush und einigen neueren Anbietern wie Profound, Peec.ai oder Otterly.ai. Mehr dazu, wie messbar AI-Sichtbarkeit heute wirklich ist.
Was das für Teams bedeutet
AI-Sichtbarkeit erfordert Präsenz jenseits der eigenen Domain: YouTube, Fachmedien, Review-Plattformen, Communities. Diese Bereiche haben in vielen Unternehmen keine klaren Owner. Das klassische Setup “ein SEO-Manager und drei Texter” reicht dafür nicht. Es braucht Subject Matter Experts, die echtes Produktwissen und Expertise liefern, jemanden, der Off-Site-Signale aktiv aufbaut, und einen Prozess, der aus Fachwissen zitierfähigen Content macht. Die SEO-Rolle verschiebt sich zum Orchestrator. Wie KI diese Zusammenarbeit verändert, habe ich in einem separaten Artikel beschrieben.
Wo anfangen, was es kostet
Nicht alles gleichzeitig. Seiteninventar und Produktseiten bilden die Grundlage. Content-Prozess und zitierfähige Quellen kommen danach. Off-Site und KPI-Umbau laufen parallel, sobald die Grundlagen stehen.
Was es kostet: vor allem interne Koordination. Die teuerste Ressource ist nicht das Budget für Tools oder Agenturen, sondern die Zeit von Produktmanagern, Engineers und Fachexperten, die ihr Wissen in publizierbaren Content übersetzen. Externe Unterstützung hilft bei Strategie, Priorisierung und Umsetzung. Aber das Produktwissen kann nur aus dem Unternehmen selbst kommen.
Am Ende ist das die eigentliche Stärke von B2B-Integratoren: Sie kennen die Wahrheit über ihr Produkt. Diese Wahrheit ist für Entscheider und Maschinen gleichermaßen wertvoll. Wer sie sauber publiziert, aktuell hält und durch Drittquellen stützt, hat eine bessere Ausgangsposition als jemand mit dem dreifachen Content-Volumen.
Auf einen Blick:
- Traffic allein keine belastbare Steuerungsgröße mehr, Shift zu Visibility
- Seitenvolumen korreliert kaum mit AI-Sichtbarkeit, Markenerwähnungen und Substanz schon
- Google bestraft Content-Masse ohne eigenständigen Nutzwert seit 2024 härter, schwache Seiten ziehen die gesamte Domain runter
- GEO baut auf SEO auf, ist kein Ersatz: Retrieved, Cited, Trusted
- Größter Hebel für B2B: eigenes Produktwissen auf der Website, nicht im PDF
- Agentic Commerce macht Produktdaten auch für autonome AI-Agenten relevant
- AI-Zitationen sind flüchtig, regelmäßige Updates operativ notwendig
- Weniger Traffic kann mehr wert sein, wenn die Journey vorher in AI-Suchsystemen stattfindet