Die unabhängige IT-Sicherheits-Plattform - Der Marktplatz IT-Sicherheit

Sie haben einen IT-Notfall?

42 Prozent des Webtraffic ist von Bots verursacht

Hacker-Angriff  Webtraffic
Bild: Bru-nO @Pixabay

42 Prozent des Webtraffic ist von Bots verursacht

Akamai Technologies veröffentlicht einen neuen „State of the Internet“-Bericht (SOTI). „Web-Scraper im E-Commerce: Die Gefahr für Ihr Geschäft“ beschreibt Sicherheitsrisiken und Geschäftsbedrohungen, denen Unternehmen durch die Verbreitung von Web-Scraping-Bots ausgesetzt sind. Die Studie zeigt, dass Bots 42 Prozent des gesamten Webtraffic ausmachen, und dass 65 Prozent dieser Bots schädlich sind.

Der E-Commerce-Sektor ist am stärksten von riskantem Bot-Traffic betroffen. Das liegt an der Abhängigkeit dieses Sektors von umsatzgenerierenden Webanwendungen. Während einige Bots für Unternehmen von Vorteil sind, werden Web-Scraper-Bots für Informationsgewinnung über Mitbewerber und Spionage, Bestandsmanipulation, die Erstellung von gefälschten Websites und andere Kampagnen eingesetzt. Diese wirken sich negativ auf das Geschäft und das Kundenerlebnis aus. Es gibt keine Gesetze, die die Verwendung von Scraper-Bots verbieten. Aufgrund der Zunahme von KI-Botnets sind sie nur schwer zu erkennen. Trotzdem gibt es einige Möglichkeiten damit umzugehen.

„Bots im Webtraffic bringen weiterhin große Herausforderungen mit sich, die Anwendungs- und API-Eigentümern zahlreiche Probleme bereiten können“, so Patrick Sullivan, CTO, Security Strategy bei Akamai. „Dazu gehört auch das Scraping. Damit können Angreifer Web-Daten stehlen und Websites erstellen, die eine Marke imitieren. Die Scraper-Landschaft ändert sich auch aufgrund von Entwicklungen wie Browser ohne Header. Dadurch müssen Unternehmen auf Botaktivitäten reagieren, die ausgefeilter sind als solche auf JavaScript-Basis.“

Wichtige Erkenntnisse aus dem Webtraffic -Bericht

  • KI-Botnets können unstrukturierte Daten und Inhalte im Webtraffic in einem weniger konsistenten Format oder an einem weniger konsistenten Ort erkennen und verarbeiten. Darüber hinaus können sie mithilfe von Geschäftsinformationen den Entscheidungsfindungsprozess durch Erfassen, Extrahieren und die anschließende Verarbeitung von Daten verbessern.
  • Mit Scraper-Bots können Angreifer zudem komplexere Phishing-Kampagnen generieren. Dazu erfassen sie Produktbilder, Beschreibungen und Preisinformationen und erstellen gefälschte Schaufenster oder Phishing-Websites. Diese zielen darauf ab, Anmeldedaten oder Kreditkarteninformationen zu stehlen.
  • Bots können eingesetzt werden, um die missbräuchliche Erstellung von Konten zu erleichtern. Dies macht nach aktuellen Untersuchungen bis zu 50 Prozent der Verluste durch Betrug aus.
  • Es gibt vielfältige technische Auswirkungen, denen Unternehmen durch Scraping ausgesetzt sind – unabhängig davon, ob das Scraping mit schädlichen oder guten Absichten durchgeführt wurde. Dazu gehören eine Verschlechterung der Website-Performance, eine Verwässerung der Website-Metriken, Angriffe mit kompromittierten Anmeldedaten von Phishing-Websites, erhöhte Rechenkosten und vieles mehr.

Der aktuelle SOTI von Akamai zeigt Abwehrstrategien gegen Scraper-Bots im Webtraffic auf und enthält eine Fallstudie, die erklärt, weshalb Websites schneller und effizienter funktionieren, sobald Abwehrmechanismen gegen diese Bots implementiert wurden. Darüber hinaus behandelt die Studie Compliance-Themen, die angesichts dieser zunehmenden Angriffe zu berücksichtigen sind.

Weitere Inhalte zum Thema

Nichts mehr verpassen?

Newsletter IT-Sicherheit
Marktplatz IT-Sicherheit