KI-Sichtbarkeit und Sicherheit: So gelingt beides

Redaktion  |
KI-Sichtbarkeit und Sicherheit: So gelingt beides

KI-Sichtbarkeit und Sicherheit: So gelingt beides.

Mare Hojc ist ehemaliger Profihandballspieler und gründete nach umfangreichen Erfahrungen im E-Commerce 2018 die Digitalagentur AN Digital, die sich auf KI-Sichtbarkeit von Unternehmen spezialisiert hat – also etwa auf ChatGPT, Perplexity & Google – SEO 3.0 für mittlere & große Unternehmen. Als Experte für KI-Suche ist er sich natürlich auch der Risiken bewusst, die ein unkontrollierter Einsatz mit sich bringen kann.  Im Interview erklärt er, wie Unternehmen die KI-Sichtbarkeit stärken und gleichzeitig sicher agieren können.

Zusammenfassung (TL; DR):

  • Mehr KI-Sichtbarkeit durch KI-gerechte Struktur, eine KI-Publisher-Strategie und eine ganzheitliche SERP- und KI-Analyse
  • Beste Abwehr gegen Prompt Injection: KI-Modelle „abschirmen“ – mit robusten Guardrails und Input-Validierung, Unternehmenswissen kontrolliert bereitstellen – statt offene Datenquellen zuzulassen sowie kontinuierliches KI-Monitoring – Fehlverhalten aktiv erkennen.
Google AI Overviews boomen und das in Rekordzeit. Von Januar bis März 2025 stieg ihr Anteil an Suchanfragen von 6,49 Prozent auf 13,14 Prozent – ein Wachstum von +102 Prozent in nur 60 Tagen. Zwischen März und April 2025 legten AI Overviews noch einmal um +115 Prozent zu. Können Sie drei Schritte nennen, wie Unternehmen für KI sichtbar bleiben können?

Inhalte KI-gerecht strukturieren – nicht nur SEO-optimieren: KI-Modelle wie die Google SGE (AI Overviews), ChatGPT, Perplexity und Claude ziehen ihre Antworten zunehmend aus klar strukturierten, semantisch eindeutigen Inhalten. Unternehmen müssen Inhalte so produzieren, dass sie von LLMs sofort verstanden und verarbeitet werden können. Dazu gehören:

  • semantische Abschnitte (What, Why, How, Zahlen)
  • präzise, faktenbasierte Aussagen
  • tabellarische Antworten und FAQs pro Seite
  • Explainer-Module, die KI leicht extrahieren kann
  • Evidenztexte mit Quellen und Zahlen, da KI zunehmend citations bewertet
  • kurze, klare Sätze, die LLMs sicher interpretieren können

Unsere Daten zeigen: Webseiten, die nach KI-Standards strukturiert sind, erzielen bis zu 78 Prozent höhere Einbindungsraten in AI Overviews und anderen KI-Antworten.

KI-Publisher-Strategie aufbauen: Sichtbarkeit auf ChatGPT, Perplexity & Co. Während Google-SEO weiterhin wichtig bleibt, entstehen neue „Suchmaschinen“ – nur diesmal auf Basis generativer KI. 2025 stammen im Durchschnitt 22–28 Prozent der produktiven Informationssuchen von Nutzern bereits aus ChatGPT, Perplexity oder AI-Assistenten. Unternehmen brauchen deshalb eine Plattform-übergreifende KI-Sichtbarkeitsstrategie, die umfasst:

  • Optimierung für ChatGPT und OpenAI Search
  • Perplexity Publisher Profile & Citations
  • Strukturierte Answer Objects für LLMs
  • LLM-Readable Content (LCR-Framework von AN Digital)
  • Brand-Signale, die KI-Modelle eindeutig einer Marke zuordnen können
  • Expertenautorität über Thought Leadership, die häufig zitiert wird

Unternehmen, die 2024 früh in KI-Sichtbarkeit investiert haben, sehen laut unseren Benchmarks +60 Prozent mehr Sichtbarkeit in KI-Antworten.

Ganzheitliche SERP- und KI-Analyse: Daten statt Bauchgefühl. Unternehmen müssen verstehen, wann und warum sie in AI Overviews erscheinen – oder eben nicht. Die erfolgreichsten Marken arbeiten mit:

  • AI-Overview-Monitoring nach Keyword-Gruppen
  • LLM-Citation-Tracing
  • Content-Gap-Analysen zwischen Webseite und KI-Antworten
  • SERP-Diversitätsmessungen, um zu erkennen, welche Formate dominieren (Videos, Foren, Product Snippets, AI-Boxen)
  • Traffic Impact Modellen: Wie stark sinkt der SEO-Traffic durch KI-Antworten?
  • Visibility-Retention-Strategien, mit denen wir Sichtbarkeitsverluste von bis zu 35 Prozent wieder auffangen können.

Unternehmen, die KI-Overviews nicht analysieren, verlieren oft 10–30  Prozent organischen Traffic, ohne es zu merken. Unternehmen mit systematischem Monitoring sichern dagegen bis zu 85 Prozent ihrer Sichtbarkeit, selbst bei stark steigender KI-Durchdringung.

Die steigende Nutzung von KI-Systemen bringt nicht nur Chancen, sondern auch neue Risiken. Einer der kritischsten Angriffsvektoren 2025 ist die sogenannte Prompt Injection – also der Versuch, ein KI-Modell über manipulierte Eingaben zu falschen oder schädlichen Handlungen zu verleiten. Für Unternehmen bedeutet das: Wenn eine KI falsche oder manipulative Informationen über die eigene Marke verarbeitet, entsteht ein massives Reputations- und Compliance-Risiko. Was empfehlen Sie hier?

Damit das nicht passiert, empfehle ich drei zentrale Maßnahmen:

KI-Modelle „abschirmen“ – mit robusten Guardrails und Input-Validierung: Die Mehrheit der Prompt-Injection-Angriffe funktioniert, weil Modelle Eingaben ungefiltert übernehmen. Unternehmen müssen daher technische Schutzschichten einbauen. Dazu gehören:

  • Input-Filter, die riskante Muster erkennen (z. B. „ignore previous instructions“, „leak system prompt“)
  • Content-Safeguards, die manipulative Aussagen über das Unternehmen blocken
  • Kontextgrenzen, sodass KI nicht über den autorisierten Wissensbereich hinaus agiert
  • Whitelists & Blacklists für kritische Begriffe
  • Layered Security, bei der mehrere Modelle Eingaben prüfen (z. B. ein Sicherheitsmodell vor dem Hauptmodell)

Unternehmen, die solche Schutzmechanismen implementieren, reduzieren Prompt-Injection-Risiken um bis zu 90 Prozent, wie aktuelle Sicherheitsstudien zeigen.

Unternehmenswissen kontrolliert bereitstellen – statt offene Datenquellen zuzulassen. Einer der größten Risikofaktoren ist unkontrolliertes Wissen:

  • offene CRM-Quellen
  • interne Dokumente ohne Zugriffskontrolle
  • öffentlich crawlbarkeit ohne Monitoring
  • ungesicherte Knowledge Bases

Prompt Injection wird besonders gefährlich, wenn ein Angreifer manipulierte Informationen in öffentlich zugängliche Quellen einschleust – und die KI diese später als „faktisch“ übernimmt.

Der sicherste Weg:

  • Verifizierte Unternehmensdaten in definierten Formaten bereitstellen
  • Strukturierte Wissenscontainer (Knowledge Objects, KI-Read-Only-APIs)
  • Read-only, versionierte Wissensquellen, statt unstrukturierte Daten
  • Regelmäßige Integrity-Checks, um Manipulationen zu erkennen
  • LLM-Tuning nur auf geprüften, internen Daten

Unternehmen, die ihre Wissensquellen absichern, senken das Risiko fehlerhafter KI-Antworten über die Marke um über 70  Prozent.

Kontinuierliches KI-Monitoring – Fehlverhalten aktiv erkennen. Prompt Injection ist kein einmaliges Problem, sondern ein dynamisches Szenario. Deshalb brauchen Unternehmen fortlaufende Überwachungssysteme, darunter:

  • Monitoring aller KI-generierten Antworten über das eigene Unternehmen
  • Anomalie-Erkennung: Erkennen, wenn eine KI plötzlich ungewöhnliche Aussagen trifft
  • Automatische Alerting-Systeme bei möglichen Manipulationen
  • Penetrationstests speziell für LLMs
  • regelmäßige Red-Team-Tests mit realen Prompt-Injection-Szenarien
  • “Visibility Logs”, die zeigen, wie KI-Modelle zu bestimmten Aussagen kommen

Unternehmen, die KI-Monitoring aktiv betreiben, entdecken laut unseren Benchmarks drei Mal schneller kritische Fehlverhalten als Unternehmen ohne Monitoring.

Cyberkriminelle nutzen KI bereits für effizientere Malware, Phishing-Angriffe und Social Engineering. Wenn Unternehmensdaten für KI-Systeme zugänglich sind, steigt das Risiko, Opfer solcher Angriffe zu werden. Lässt sich das verhindern?

Ja – Unternehmen können das Risiko deutlich reduzieren. Aber nur, wenn sie KI nicht als „Blackbox“ einsetzen, sondern als kontrolliertes, sicheres System. Wir sehen bei unseren K

Mare Hojc ist Gründer und CEO von AN Digital. AN Digital gehört zu den führenden LLMO-Agenturen für mittelständische und große Unternehmen im deutschsprachigen Raum. Die Agentur unterstützt ihre Kunden dabei, Sichtbarkeit in KI-Suchen, generativen Suchmaschinen (GEO, Generative Engine Optimization), Chatbots und AI-Assistenten strategisch aufzubauen – an der Schnittstelle von Marketing, Content, Daten und Governance. Der gesuchte Autor und Speaker ist ein ausgewiesener Experte in LLM-Optimierung (LLMO (Large Language Model Optimization), GEO (Generative Engine Optimization), AIO (AI Optimization), AEO (Answer Engine Optimization), GAIO (Generative Artificial Intelligence Optimization) sowie ChatGPT-Optimierung: Immer zukunftsfähig, messbar und transparent.
Bild: @Julius Osner 2025

unden im DACH-Raum: Unternehmen ohne KI-Sicherheitskonzept haben ein bis zu 4× höheres Risiko, Opfer von Phishing,Malware oder Social-Engineering-Angriffen zu werden.

Der Grund: Cyberkriminelle nutzen KI mittlerweile skalierbar, personalisierbar und automatisiert. Dadurch werden Angriffe präziser, glaubwürdiger und schwerer zu erkennen. Damit Unternehmen geschützt bleiben, sind drei konkrete Maßnahmen entscheidend:

Unternehmensdaten hart absichern – KI bekommt nur das, was sie kennen darf. Das größte Risiko entsteht, wenn KI auf nicht geprüfte, offene oder sensible Daten zugreifen kann. Dann können Angreifer über Social Engineering oder Data Poisoning falsche Inhalte einspeisen, die KI später weiterverarbeitet. Unternehmen sollten deshalb:

  • Zugriffe strikt rollenbasiert steuern (RBAC)
  • sensible Daten kapseln (Zero-Trust-Prinzip)
  • gesicherte Unternehmenswissen-Container nutzen
  • Read-only Datenschnittstellen statt offener Dokumente
  • regelmäßige Daten-Integrity-Checks einbauen
  • kein direktes Training auf Rohdaten, sondern kuratierte Wissensobjekte
  • Backups und Versionierung aktivieren

Unternehmen, die Datenzugriffe sauber segmentieren, senken das Risiko KI-basierter Angriffe um 60–75 Prozent.

Menschliche Angriffsflächen reduzieren – Mitarbeiter werden zum Sicherheitsfaktor.  Mehr als 70 Prozent aller erfolgreichen KI-gestützten Angriffe 2025 basieren auf Social Engineering oder überzeugenden Phishing-Bots. KI ermöglicht es Cyberkriminellen:

  • perfekte Unternehmenssprache zu imitieren
  • realistische E-Mail-Signaturen zu kopieren
  • personalisierte Nachrichten in Sekunden zu generieren
  • Deepfake-Stimmen für Telefonanrufe zu erstellen
  • Schadlinks geschickt zu verschleiern

Die einzige wirksame Gegenmaßnahme:

  • KI-Phishing-Simulationen im Unternehmen
  • Awareness-Trainings mindestens alle 90 Tage
  • Standardprozesse für Verifikation (Call-back, 4-Augen-Prinzip)
  • „KI-Risiko-Lexikon“, das echte Angriffsbeispiele zeigt
  • richtlinienbasierte Kommunikationsstandards

Unternehmen, die KI-basierte Trainings einsetzen, reduzieren erfolgreiche Social-Engineering-Angriffe um bis zu 80 Prozent.

Eigene KI-Systeme absichern – bevor Angreifer sie ausnutzen. Der größte Irrtum: „Unsere KI generiert nur Text, das ist harmlos.“ Tatsächlich können ungesicherte KI-Systeme selbst zum Angriffsvektor werden. Schutzmaßnahmen dafür:

  • Prompt-Firewalls zur Erkennung manipulativer Eingaben
  • AI-Malware-Scanner, die schädliche Payloads in Text, Code oder Dateien erkennen
  • Guardrails & Policy Layer, die Zugriff auf interne Systeme verhindern
  • LLM-Monitoring, um ungewöhnliche oder gefährliche Ausgaben zu entdecken
  • regelmäßige Red-Team-Tests für KI (Prompt Injection, Jailbreaks, Poisoning)
  • Ausgabevalidierung, bevor KI-generierte Inhalte an externe Nutzer gehen

Unternehmen mit KI-Guardrails verhindern laut aktuellen Benchmarks über 90 Prozent der Angriffe, bevor sie Schaden anrichten.

Welche Tipps würden Sie Unternehmen für den sicheren Umgang mit Google AI Overviews,ChatGTP & Co geben?

Google AI Overviews, ChatGPT, Perplexity und andere KI-Systeme verändern 2025 die digitale Sichtbarkeit radikaler als jede Technologie der letzten 20 Jahre. Gleichzeitig steigt das Risiko für Fehlinformationen, Manipulationen und Angriffe über KI. Unternehmen müssen KI deshalb strategisch, sicher und kontrolliert nutzen. Ich empfehle drei konkrete Leitlinien:

Kontrolle über die eigenen Daten – nur geprüfte Inhalte an KI-Systeme geben. Der größte Fehler vieler Unternehmen besteht darin, KI-Systemen unkontrolliert Datenbereitzustellen. Das erhöht das Risiko für:

  • unbeabsichtigte Datenlecks
  • Trainingsfehler durch veraltete Informationen
  • falsche Aussagen über das eigene Unternehmen
  • Angriffsflächen für Social Engineering

Unternehmen sollten deshalb:

  • klar definieren, welche Daten KI-Systeme verwenden dürfen
  • verifizierte Wissenscontainer erstellen (z. B. KI-sichere Wissensdatenbanken)
  • Zero-Trust-Prinzip für interne KI-Nutzung implementieren
  • veraltete Inhalte entfernen, denn LLMs übernehmen auch alte Fehler
  • regelmäßige Audit-Checks durchführen

Unternehmen, die nur kuratierte Daten bereitstellen, reduzieren das Risiko KI-induzierter Fehler um über 70 Prozent.

KI-Ausgaben überwachen – Sichtbarkeit in AI Overviews und LLMs aktiv managen. Für viele Unternehmen ist es ein blinder Fleck:Sie wissen nicht, was KI-Systeme über ihre Marke sagen. Dabei entscheiden Google AI Overviews und ChatGPT bereits über:

  • Kaufentscheidungen
  • Reputationsbildung
  • Vertrauen im B2B-Kontext
  • SEO- und KI-Sichtbarkeit (GEO)

Unternehmen sollten deshalb:

  • AI-Overview-Monitoring einführen
  • regelmäßig überprüfen, wie ChatGPT, Perplexity & Co. die Marke darstellen
  • LLM-Citations analysieren
  • Falschaussagen identifizieren und korrigieren
  • Ranking-Veränderungen durch KI messen
  • Content-Gaps schließen, wenn KI-Antworten auf fremde Quellen verweisen

Unsere Daten zeigen: Unternehmen, die KI-Sichtbarkeit aktiv steuern, erzielen bis zu +65 Prozent mehr Markenerwähnungen in KI-Antworten.

Sicherheit vor Geschwindigkeit – klare KI-Governance und Schutzmechanismen. Viele Unternehmen wollen KI möglichst schnell implementieren – und übersehen dabei den Sicherheitsaspekt. Notwendig sind:

  • klare KI-Richtlinien für alle Mitarbeitenden
  • Prompt-Sicherheitsregeln (z. B. keine sensiblen Daten in externe Chats)
  • technische Guardrails
  • AI-Firewalls gegen Prompt Injection und Jailbreaks
  • Monitoring für verdächtige KI-Ausgaben
  • regelmäßige Red-Team-Tests speziell für LLM-Sicherheit
  • MFA, Zugriffskontrollen und Rollenmodelle für interne KI-Systeme

Unternehmen mit strukturierter Governance gehören zu den Top 10 Prozent, die KI sicher und wirtschaftlich erfolgreich einsetzen.

Weitere Inhalte zum Thema

Logo Newsletter IT-Sicherheit

Nichts mehr verpassen!

Mit Klick auf „Newsletter anmelden“ erhalten Sie unseren Newsletter. Die Anmeldung wird erst aktiv, nachdem Sie den Bestätigungslink in der E-Mail angeklickt haben. Datenschutzerklärung

Das könnte Sie auch interessieren