Das wünscht sich das Center of Automotive Management von Politik und Industrie.

Das Vertrauen von Endkunden in Automarken wird künftig daran gemessen, wie sie mit Cyber Security umgehen und Angriffe von außen verhindern. Es existiert heute eine starke Diskrepanz zwischen einer steigenden Zahl an Cyber-Angriffen auf vernetzte Autos und der geringen Kommunikation und Transparenz der Automobilhersteller zum Thema Cyber Security. Die Fallhöhe der deutschen Marken ist jetzt natürlich am höchsten: Sollten die Erwartungen in Cybersicherheit an sie nicht erfüllt werden, entfällt ein wichtiges Kaufkriterium und Kunden könnten auch andere Marken stärker in Betracht ziehen.

Wie Sicherheitslücken bei Drittanbieter die Sicherheit der IT gefährden.

In den vergangenen Jahren haben IT-Schäden, die Unternehmen durch Drittanbieter entstehen – seien es nun Anbieter, Dienstleister, Zulieferer oder Partner – stark zugenommen. In der letztjährigen BlueVoyant-Studie The State of Supply Chain Defense: Annual Global Insights Report 2024 gaben ganze 81 Prozent der befragten IT-Entscheider zu Protokoll, dass die IT ihres Unternehmens schon mindestens einmal durch eine Supply Chain-bezogene Sicherheitsverletzung in Mitleidenschaft gezogen worden sei.

Längst haben Schäden, die sich aus Fehlkonfigurationen, fehlenden Updates und Patches kooperierender Drittanbieter ergeben, ein besorgniserregendes Ausmaß erreicht. Nicht ohne Grund haben Vorgaben zum richtigen Umgang mit Risiken durch Drittanbieter Eingang in die NIS2- und Cyber Resilience Act (CRA)-Vorgaben der EU gefunden. Doch wie genau gehen Angreifer, die Sicherheitslücken von Drittanbietern, Partnern und Zulieferern ausnutzen, eigentlich vor?

Angriff via Drittanbieter – so läuft es ab

  • Eine beliebte Methode der Angreifer besteht darin, sich Dienstleister zu suchen, die für ihre Kunden Daten auf ihren Servern abgespeichert haben. Um ihre Kosten zu reduzieren, flexibler und skalierbarer zu sein, nicht zuletzt auch in der Hoffnung auf höhere Sicherheitsstandards, lagern immer mehr Unternehmen Daten und Prozesse – zum Beispiel ihre Lohn- und Gehaltsabrechnung oder auch ihre Personalverwaltung – an externe Dienstleister aus. Gelingt es Angreifern in die IT-Systeme dieser Dienstleister einzudringen, können sie personenbezogene und personenbeziehbare Daten der Kunden erbeuten und dann für Phishing-, Spear Phishing- oder auch Social Engineering-Angriffe auf deren Mitarbeiter zum Einsatz bringen.
  • Eine weitere Methode: die Angreifer nutzen die IT-Infrastruktur eines Dienstleisters als Sprungbrett, um in die Netzwerke ihrer eigentlichen Opfer vorzudringen. Da immer mehr Unternehmen Dienstleister, Anbieter und Partner in ihre digitalen Arbeitsprozesse zu integrieren suchen, entstehen immer häufiger komplexe Überschneidungen von Netzwerken, die die Grenzen zwischen den unterschiedlichen IT-Landschaften mehr und mehr verschwimmen lassen. Angreifer wissen darum und nutzen die enge Verzahnung der Systeme für ihre Zwecke aus. Vom Netzwerk eines Dritten dringen sie – unbemerkt von der IT-Sicherheit ihres eigentlichen Opfers – tief in dessen Systeme vor.
  • Und schließlich: Software Supply Chain-Angriffe. Hier konzentrieren sich die Angreifer auf die Anbieter von Firm- und Software. Deren Systeme werden infiltriert, der Code ihrer Produkte kompromittiert. Leiten die Anbieter dann die Soft- und Firmware – oder auch Soft- und Firmware-Updates und -Patches – an ihre Kunden weiter, laden diese sich, ohne es zu ahnen, manipulierten Code herunter. Häufig integrieren die Angreifer Backdoors in die Software. Ist sie dann installiert, können sie sich problemlos Zugang zu den Systemen ihrer Opfer verschaffen. Ein bekanntes Beispiel ist der SolarWinds-Hack von 2020, bei dem Angreifer über ein manipuliertes Software-Update ohne größere Probleme in tausende Kundennetzwerke eindringen konnten. Eine andere Möglichkeit: ein Angreifer dringt in die Systeme eines Software-as-a-Service-Anbieters ein oder nutzt einen Distributed Denial of Service-Angriff (DDoS-Angriff), um dessen Online-Präsenz und Cloud-basierte Software lahm zu legen. Gelingt der Angriff, können die Opferunternehmen dann nur noch eingeschränkt oder überhaupt nicht mehr auf die vom Anbieter bezogene Software zugreifen – mit weitreichenden Folgen für deren Arbeits- und Verwaltungsprozesse.

Angreifern bieten sich unzählige Möglichkeiten, Unternehmen über Sicherheitslücken, die bei Drittanbieter bestehen, Schäden zuzuführen. Um die entsprechenden Sicherheitsrisiken zu minimieren, sollten deren Sicherheitsverantwortliche:

  • beim Aufbau ihrer Netzwerke auf das Prinzip Zero Trust setzen,
  • die Segmentierung ihrer Netzwerke vorantreiben und
  • die IT-Umgebungen ihrer Drittanbieter genauso aktiv überwachen, wie ihre eigenen.

Nur die kontinuierliche Überwachung der Perimeter sämtlicher Drittanbieter, Partner und Zulieferer ermöglicht es, Risiken und riskante Verhaltensweisen, Fehlkonfigurationen und nicht gepatchte Schwachstellen, rasch zu erkennen und rechtzeitig entsprechende Gegenmaßnahmen einzuleiten. Unter Zuhilfenahme einer modernen Lösung zum Risikomanagement von Drittanbietern (TPRM) kann die Wahrscheinlichkeit von Sicherheitsvorfällen, die auf Sicherheitslücken in den Systemen von Dritten basieren, spürbar reduziert werden.

Bösartige Open-Source-Pakete für Windows Chrome-Benutzerdaten enttarnt.

JFrog gibt die Entdeckung von acht bösartigen Paketen bekannt, die auf npm, einem der weltweit größten Repositorys für Open-Source-JavaScript-Komponenten, veröffentlicht wurden.

Die Pakete, darunter react-sxt (Version 2.4.1), react-typex (Version 0.1.0) und react-native-control (Version 2.4.1), wurden von böswilligen npm-Benutzern hochgeladen. Sie enthielten eine hochentwickelte multi-layer Verschleierung mit über 70 Layers versteckten Codes, die es Angreifern ermöglichte, bösartige Payloads auf Entwicklerrechnern ohne Benutzerinteraktion auszuführen.

Die endgültige Payload richtete sich gegen Windows-Chrome-Benutzer und war in der Lage folgende Aktionen auszuführen:

  • Datendiebstahl: Extrahieren sensibler Chrome-Browser-Daten aus allen Benutzerprofilen, einschließlich Passwörtern, Kreditkarteninformationen, Cookies und Kryptowährungs-Wallets.
  • Umgehungstechniken: Verwendung von Schattenkopie-Umgehung, LSASS-Identitätswechsel, mehreren Datenbankzugriffsmethoden und Umgehung der Dateisperre, um eine Erkennung zu vermeiden.
  • Datenexfiltration: Hochladen gestohlener Daten auf von Angreifern kontrollierte Server, einschließlich der von Railway gehosteten Infrastruktur.

„Open-Source-Software-Repositorys sind zu einem der wichtigsten Einstiegspunkte für Angreifer im Rahmen von Supply-Chain-Angriffen geworden, wobei zunehmend Typosquatting und Masquerading eingesetzt werden, um sich als legitim auszugeben“, sagt Guy Korolevski, Sicherheitsforscher bei JFrog. Das Bedrohungspotenzial solcher ausgeklügelter Kampagnen, die darauf abzielen, herkömmliche Sicherheitsmaßnahmen zu umgehen und sensible Daten zu stehlen, unterstreicht, wie wichtig es ist, über die gesamte Software-Lieferkette hinweg Transparenz zu schaffen, mit automatisierten Scans und einer einzigen zuverlässigen Quelle für alle Softwarekomponenten.“

JFrog hat seine Erkenntnisse an npm gemeldet, und die bösartigen Pakete wurden inzwischen entfernt. JFrog Xray wurde ebenfalls aktualisiert. Entwickler, die diese Pakete heruntergeladen oder verwendet haben, sollten jedoch potenziell kompromittierte Anmeldedaten ändern, ihre Systeme auf verdächtige Aktivitäten überprüfen und sicherstellen, dass sie automatisierte Sicherheitsmaßnahmen für die Software-Lieferkette einsetzen.

Die vollständige technische Analyse des Angriffs finden Sie online.

Minimum Viable Company-Strategie: Notfallausstattung definieren.

Die Flut an Cyberbedrohungen und die Komplexität digitaler Ökosysteme machen es für Unternehmen immer wichtiger, ihre essenziellen Geschäftsprozesse grundlegend und im Vorfeld zu definieren und zu sichern. Nur so bleiben Kern-Business-Services resilient und funktionsfähig, wenn es zu einem Ausfall oder Cyberangriff kommt. Der „Minimum Viable Company“-Ansatz kann Unternehmen dabei unterstützen, ihre kritischsten Geschäftsabläufe für die Recovery zu priorisieren, um den Geschäftsbetrieb im Ernstfall aufrechtzuerhalten.

Der Begriff „Minimum Viable Company“ (MVC) stellt einfach ausgedrückt den grundlegenden Betriebszustand eines Unternehmens dar, in dem es funktionieren und potenziell wachsen kann – wenn auch mit reduzierter Kapazität. Im Kontext der Cyberresilienz identifiziert, sichert und schützt eine solche Minimum-Viability-Strategie die wichtigsten Ressourcen, Daten, Applikationen und Prozesse, die Unternehmen benötigen, um wichtige Betriebsabläufe während eines Cyberangriffs und danach wiederherzustellen.

Die essenziellen Bestandteile und Prozesse einer MVC variieren je nach Art und Branche. In der Produktion handelt es sich hierbei unter anderem um Produktionslinien, im Gesundheitswesen um Patientensysteme, im Finanzwesen um das Sichern von Transaktionen oder im E-Commerce um die Funktionsfähigkeit des Online-Shops.

Ein implementierter MVC-Ansatz kann dazu beitragen, mögliche finanzielle Schäden durch Ausfälle aufgrund von Cyberangriffen erheblich zu reduzieren, indem nur die Wiederherstellung der wichtigsten Geschäftsfunktionen im Vordergrund steht. Durch die Konzentration der Unternehmensressourcen auf das, was für den Fortlauf des Geschäftsbetriebs wirklich wichtig ist, können Unternehmen sowohl die Recovery-Zeit als auch die damit verbundenen Kosten reduzieren und zugleich die Wiederherstellung der umsatzgenerierenden Aktivitäten priorisieren.

Dabei ist es jedoch kein ausschließlich technologisches Unterfangen, Minimum Viable Company-Strategie zu definieren und zu implementieren. Eine effektive Wiederherstellung der essenziellen Geschäftsabläufe erfordert eine umfassende Strategie, die Menschen, Prozesse und Technologie miteinbezieht.

Business und IT auf Minimum Viable Company-Strategie ausrichten

Traditionell waren Verfahren zur Klassifizierung von IT-Assets wie Server Tiering und Application Mapping „Bottom-Up“-Maßnahmen, die sich auf technische Abhängigkeiten und Infrastruktur konzentrierten. Die steigende Bedrohung durch Cyberangriffe und die Notwendigkeit einer schnellen Recovery haben die Situation jedoch grundlegend verändert. Unternehmen benötigen nun einen „Top-Down”-Ansatz, der auf den Geschäftsbetrieb ausgerichtet ist, um die Minimum Viability des Unternehmens zu definieren und zu erreichen.

Während IT-Assets gegebenenfalls auf der Grundlage ihrer technischen Kritikalität kategorisiert werden, erfordert die Definition der Minimum Viability eine klare Abstimmung zwischen Führungskräften, was für den Betrieb des Unternehmens wirklich kritisch ist. Ein Risiko-/Governance-Verantwortlicher kann eine bestimmte Applikation als kritisch ansehen, während der CEO andere Punkte für wichtiger hält. Dies unterstreicht die Notwendigkeit eines einheitlichen Verständnisses der Geschäftsprioritäten.

Server Tiering und Application Mapping für Minimum Viable Company

Das Verständnis gegenseitiger Abhängigkeiten innerhalb der IT-Infrastruktur und Geschäftsprozesse ist für Unternehmen unerlässlich, um den Maßnahmenkatalog für die sofortige Wiederherstellung festzulegen. Hier kommen Server-Infrastruktur-Tiering, Application Mapping und Observability ins Spiel.

  • Geschäftsprozessanalyse: Identifiziert kritische Geschäftsprozesse, welche die für den Geschäftsbetrieb essenziellen Abläufe unterstützen.
  • Server-Infrastruktur-Tiering: Umfasst die Kategorisierung von Servern (einschließlich physischer, virtueller und Cloud-Workloads) auf der Grundlage ihrer Relevanz für den Geschäftsbetrieb. Tier-0-Server unterstützen in der Regel geschäftskritische Prozesse und Anwendungen und erfordern die schnellsten Wiederherstellungszeiten, während Tier-3-Server weniger kritische Funktionen unterstützen.
  • Application Mapping: Identifiziert das Verhältnis zwischen Anwendungen und den Cloud-Diensten oder der Infrastruktur, auf die sie angewiesen sind. Dies konzentriert Investitionen auf die Ausfallsicherheit, indem es die End-to-End-Geschäftsdienste mit der Technologie und mit Drittanbietern verbindet, die für einen grundlegend funktionsfähigen Geschäftsbetrieb mindestens erforderlich sind.
  • Observability: Implementiert Prozesse und Funktionen für eine verbesserte Recovery Intelligence und Überwachung wichtiger Daten für kritische Funktionen, Integrationen, Plattformzustand und Recovery-Risiken.

Wenn Geschäftsprozessanalysen, Server-Tiering, Application Mapping und Observability in die Minimum Viability-Planung miteinbezogen sind, ermöglicht dies folgende Elemente der Recovery und der Resilienz:

  • Operative Ausfallsicherheit: Kritische Dienste laufen auch bei Störungen weiter und bieten die von Kunden und Aufsichtsbehörden erwartete und notwendige Zuverlässigkeit.
  • Notfallfunktionen: Systeme reduzieren im Fall eines Ausfallereignisses langsam und schonend ihre Funktionen, anstatt vollständig auszufallen. Dabei hat die Kontinuität wichtiger kundenorientierter Dienste Vorrang.
  • Optimales Zuweisen von Ressourcen: Effektiv verteilt eine MVC-Strategie die Ressourcen auf der Grundlage der Kritikalität von Servern und Anwendungen, um die Betriebskontinuität unter schwierigen Bedingungen zu maximieren.

Kontinuierliche Tests statt statische Recovery-Pläne

Regelmäßige Tests sind ein wichtiger Bestandteil jeder robusten Minimum Viability-Strategie. Durch gründliche Checks können Unternehmen ihre Wiederherstellungspläne validieren und die Funktionalität ihrer essenziellen Systeme bewerten. Mithilfe von Simulationen verschiedener Szenarien können Verantwortliche:

  • Lücken und Schwachstellen in ihren Wiederherstellungsplänen identifizieren, wie etwa fehlende Abhängigkeiten oder unzureichende Ressourcen;
  • Wiederherstellungsprozesse verbessern, um die Effizienz und Effektivität zu steigern;
  • sowie das Vertrauen in ihre Fähigkeit aufbauen, sich von einem Cyberangriff zu erholen und den Geschäftsbetrieb aufrechtzuerhalten.

Wichtig ist, dass Tests versteckte Interdependenzen aufdecken, die beim Planen möglicherweise nicht erkennbar sind. Dieser proaktive Ansatz ermöglicht es Unternehmen, potenzielle Probleme anzugehen und ihre Minimum Viability-Strategie zu verfeinern, sodass sie besser auf Störungen vorbereitet sind.

Da statische Wiederherstellungspläne schnell veralten, erfordert echte Cyberresilienz eine kontinuierliche Validation. Unternehmen müssen von regelmäßigen Übungen zu kontinuierlichen Testing Frameworks übergehen, die die Wiederherstellungsfähigkeiten im Zuge der Weiterentwicklung der Systeme überprüfen. Regelmäßige Simulationen, Tabletop-Übungen und Cyber-Recovery-Übungen geben den Teams das Selbstvertrauen, Pläne auch unter Druck umzusetzen. Dieser proaktive Ansatz sorgt dafür, dass Minimum Viability-Strategien praktikabel bleiben und auf den aktuellen Betrieb abgestimmt sind.

Fazit: Resilient selbst bei schweren Störungen durch Cyberangriffe

Angesichts der Flut an Cyberbedrohungen ist eine klar definierte Minimum-Viability-Strategie grundlegend und erfordert einen ganzheitlichen Ansatz, der Notfallpläne, Prozesse und strenge Tests umfasst. Durch die Priorisierung kritischer Ressourcen, Daten und Anwendungen können Unternehmen ihre Resilienz stärken und wichtige Betriebsabläufe auch bei schweren Störungen durch Cyberangriffe aufrechterhalten.

Warum Flughäfen ihre Cybersicherheit auf den Prüfstand stellen müssen.

Jüngste Vorfälle an internationalen Flughäfen und auch in Deutschland verdeutlichen einmal mehr den dringenden Handlungsbedarf in Sachen Cybersicherheit im Luftverkehr. An einem Flughafen legte eine auf den ersten Blick harmlose Störung eine kritische Schwachstelle offen: Eine Passagierbrücke fiel aus – Verspätungen an mehreren Gates waren die Folge.

Die Ursache? Ein kompromittierter Wi-Fi-Router in einem nahegelegenen Café. Was wie ein kurioser Einzelfall wirken mag, ist in Wahrheit ein Symptom eines tieferliegenden strukturellen Problems in der Sicherheitsarchitektur moderner Flughäfen.

Und dies ist kein Einzelfall. Im September 2024 bestätigte die Deutsche Flugsicherung (DFS), dass sie Ziel eines Cyberangriffs geworden war. Die Angreifer drangen erfolgreich in die administrative IT-Infrastruktur ein, also in die Bürokommunikation der DFS. Auch wenn der Flugbetrieb aufrechterhalten werden konnte, waren interne Systeme beeinträchtigt. Der Angriff wurde der staatlich unterstützten Gruppe APT28 zugeschrieben – ein Vorfall, der die Resilienz der gesamten Luftfahrtsicherheit in den Fokus rückt. Ein zukünftiger Cyberangriff könnte operative Systeme empfindlich stören  – mit potenziell schwerwiegenden Folgen für den Flugbetrieb, die Passagiersicherheit und die Stabilität kritischer Infrastrukturen in Deutschland.

Diese Vorfälle machen eine zentrale Tatsache deutlich: Moderne Flughäfen sind hochvernetzte digitale Ökosysteme – doch ihre Cybersicherheit basiert häufig auf veralteten und fragmentierten Schutzmechanismen

Digitale Flughäfen, analoge Verteidigung

Flughäfen basieren auf einem Geflecht miteinander verbundener Systeme: Gepäckförderanlagen, Klimatisierung, Beleuchtung, Passagierbrücken, Zugangskontrollen, Kassensysteme – all das sorgt für Effizienz im Betrieb. Doch diese zunehmende Vernetzung vergrößert gleichzeitig die Angriffsfläche erheblich. Wenn ein handelsüblicher Router ausreicht, um kritische Abläufe wie das Boarding zu stören, ist das ein klares Zeichen für fehlende Segmentierung, mangelnde Transparenz und grundlegende Defizite in der Sicherheitsarchitektur.

OT-Systeme im selben Netzwerk wie Gäste-WLAN

Passagierbrücken wirken auf den ersten Blick wie rein mechanische Einrichtungen, doch sie werden von eingebetteten OT-Systemen gesteuert, die über Netzwerke kommunizieren. Oft laufen auf ihnen proprietäre Softwarelösungen, die nie unter Sicherheitsaspekten entwickelt wurden. Hinzu kommt, dass diese Systeme sich nicht selten Netzwerke mit Einzelhandelssystemen, digitalen Anzeigetafeln oder Gäste-WLAN teilen. Flache, unsegmentierte Netzwerke sind dabei keine Ausnahme – sie ermöglichen es Angreifern, sich seitlich und unbemerkt auszubreiten. Und ganz gleich, wie leistungsfähig der Security-Stack eines Flughafens ist: Man kann nicht schützen, was man nicht kennt.

Blinde Flecken in der Flughafeninfrastruktur

Veraltete HLK-Anlagen, Gebäudemanagementsysteme oder Aufzugsteuerungen entziehen sich häufig der Sichtbarkeit klassischer IT-Sicherheitslösungen. Sie kommunizieren weder über HTTP noch über moderne Protokolle, sondern nutzen industrielle Standards wie Modbus oder BACnet – Formate, die viele gängige Sicherheitstools nicht verarbeiten können. Damit bleiben sicherheitskritische Systeme unentdeckt und ungeschützt – und das in einer Umgebung, die auf reibungslose Abläufe angewiesen ist.

Was jetzt zählt: Sichtbarkeit, Segmentierung und KI-Unterstützung

Wirkliche Cyberresilienz im Flughafenbetrieb beginnt mit einem vollständigen, aktuellen Lagebild aller vernetzten Geräte. Ohne Transparenz keine Schutzmaßnahmen – und ohne intelligente Auswertung kein gezieltes Handeln.

Zentrale Handlungsfelder

  • Umfassende Asset-Transparenz: Jedes angeschlossene Gerät und alle Assets erkennen – auch veraltete, nicht gemanagte oder bislang unbekannte.
  • Proaktives Schwachstellenmanagement: Sicherheitslücken identifizieren und nach realer Ausnutzbarkeit priorisieren.
  • KI-gestützte Threat Intelligence: Angriffsmuster, laterale Bewegungen und neue Bedrohungen frühzeitig erkennen.
  • Robuste Netzwerksegmentierung: Kritische Systeme konsequent von öffentlich zugänglichen oder unsicheren Bereichen trennen.
  • Regulatorische Einbettung: Sicherheitsarchitekturen an NIS2, ICAO-Richtlinien und den Cyber Resilience Act ausrichten – nicht nur zur Erfüllung von Audits, sondern zur echten Risikominimierung.

Fazit

Flughäfen können es sich nicht mehr leisten, Cybersicherheit nur reaktiv zu denken. Jede Minute ungeplanter Ausfallzeit verursacht Verspätungen, bringt operative Abläufe ins Wanken und untergräbt das Vertrauen der Passagiere. Wie der Angriff auf die DFS zeigt, sind längst nicht mehr nur operative Systeme gefährdet – selbst administrative IT ist zur potenziellen Schwachstelle geworden.

Cybersicherheit in der Luftfahrt muss sich von isolierten Tools zu einer ganzheitlichen, intelligenten Strategie entwickeln. Dazu gehören vollständige Transparenz, ein tiefes operatives Verständnis und entschlossenes Handeln – bevor ein kompromittierter Router, eine Fahrstuhlsteuerung oder ein digitales Display zur Quelle weitreichender Störungen werden.

Schnellere Backup-Performance beim Universitätsklinikum Würzburg dank Veeam.

Am Universitätsklinikum Würzburg (UKW) zählt jede Minute. Als ein Krankenhaus der Maximalversorgung bietet das UKW ein breites Spektrum an medizinischen Behandlungen und übernimmt einige der komplexesten Fälle des Einzugsgebiets. Die kontinuierliche Arbeit in den weltweit erstklassigen Forschungs- und Ausbildungseinrichtungen des Klinikums sorgen für einen Spitzenplatz unter den 15 besten Krankenhäusern Deutschlands.

Die herausragende Behandlungsqualität und Forschung am UKW wird durch ein komplexes Netzwerk von IT-Systemen unterstützt, die rund um die Uhr verfügbar sein müssen, damit Ärztinnen und Ärzte effizient auf jede Situation reagieren können. Weil das UKW von der deutschen Regierung als Betreiber kritischer Infrastrukturen (KRITIS) eingestuft wurde, muss es strenge Sicherheitsanforderungen erfüllen, dazu gehört auch ein angemessener Schutz vor Cyberangriffen.

UKW setzt seit vielen Jahren auf Backup von Veeam

Seit vielen Jahren nutzt das UKW die Veeam Data Platform, um einige der wichtigsten IT-Prozesse zu schützen, wie beispielsweise ERP-Anwendungen und elektronische Patientenunterlagen. Über die Jahre konnte die Backup- und Wiederherstellungsarchitektur des Klinikums jedoch nicht mehr mit den wachsenden Mengen an medizinischen Bilddaten und der steigenden Anzahl geschäftskritischer Anwendungen Schritt halten. Angesichts der Zunahme von Ransomware-Angriffen im gesamten Gesundheitswesen wollte das UKW außerdem unveränderliche Backups in die Datensicherungstrategie integrieren.

Andreas Störlein, Systemadministrator am Universitätsklinikum Würzburg, berichtet: „Mit zunehmendem Datenvolumen wurden die Backupfenster für einige unserer Systeme immer größer. Um langfristig einen reibungslosen Betrieb zu gewährleisten, wollten wir unsere Backuparchitektur optimieren, unsere Datensicherungsprozesse beschleunigen und unseren Schutz gegen Cyberbedrohungen wie Ransomware stärken.“

Darüber hinaus hatte das UKW die strategische Entscheidung getroffen, einige der virtuellen Server von VMware vSphere auf Proxmox Virtual Environment (PVE) zu migrieren, um eine bessere Kosteneffizienz zu erzielen.

Lösung

Aufbauend auf der Partnerschaft mit Veeam beschloss das Klinikum, die Datensicherungsumgebung zu modernisieren und zu optimieren. „Veeam hat stets die neuesten Entwicklungen und Trends im Bereich Datenresilienz im Auge. Deshalb ist Veeam auch weiterhin die perfekte Wahl für das UKW“, erklärt Störlein.

Geleitet von den Best Practices von Veeam implementierte das Klinikum die neuesten Features und Möglichkeiten auf einer leistungsstarken Server- und Speicherinfrastruktur. Heute schützt das UKW etwa 1,3 PB an Daten auf 1.200 virtuellen und 140 physischen Servern sowie rund 50 geschäftskritische Desktop-Rechner. Zu den geschützten Systemen gehören Datenbanken, spezielle Krankenhaussoftware und die zentrale NAS-Speicherlösung (Network Attached Storage).

Störlein ergänzt: „Die Nutzung der neuesten Möglichkeiten von Veeam hat uns erhebliche Performanceverbesserungen gebracht. Insbesondere sichern wir unsere Netzwerkfreigaben jetzt etwa siebenmal schneller. Dadurch beseitigen wir auch das Risiko, dass zu lange laufende Backupjobs Kliniksysteme beeinträchtigen. Und dank der großen Auswahl an optimierten Integrationen von Veeam können wir praktisch jede Anwendung einfach und effektiv schützen.“

Mithilfe von abgesicherten Repositories in Veeam erstellt das Klinikum unveränderliche Backups, um das Risiko von Ransomware und anderen Cyberangriffen zu minimieren. Auf Empfehlung von Veeam-Spezialisten speichert das UKW eine Kopie der Backups in einer hocheffizienten Objektspeicherlösung, die die S3 API unterstützt.

Die Integrationsplattform für Gesundheitsdaten am UKW stellt Informationen für eine Vielzahl kritischer Systeme bereit, darunter medizinische Geräte, die rund um die Uhr verfügbar sein müssen. Durch den Einsatz von Veeam-Technologie zur kontinuierlichen Datensicherung kann das Unternehmen eine hohe Verfügbarkeit gewährleisten, ohne komplexe und teure Cluster-Lösungen einsetzen zu müssen.

Das Klinikum profitiert auch von Veeams granularen Funktionen zur sofortigen Wiederherstellung. „Mit Veeam können wir einzelne E-Mails oder Dateien aus dem Backup holen und unsere virtuellen Maschinen extrem schnell neu starten“, berichtet Störlein. „Das klinische Personal in allen Abteilungen ist bei der Arbeit mit Patientinnen und Patienten auf IT-Systeme angewiesen. Durch die schnelle Wiederherstellung mithilfe von Veeam können wir das Risiko von Verzögerungen bei der Patientenversorgung minimieren.“

Um die strengen gesetzlichen Datensicherungsanforderungen zu erfüllen, nutzt das UKW Veeam SureBackup zur automatischen Überprüfung der Integrität der Backups. Mit Veeam One überwacht das Klinikum intelligent die Performance der virtuellen Umgebungen und Backupjobs. Die Lösung erkennt Anomalien automatisch und ohne zusätzlichen manuellen Aufwand seitens des schlanken IT-Teams.

Störlein erklärt: „Mittels Veeam One stellen wir sicher, dass unsere Systeme und Backups reibungslos funktionieren. Außerdem identifizieren wir damit schnell Engpässe und andere technische Probleme. So reduzieren wir proaktiv das Risiko von langsamer Performance und Ausfallzeiten für unsere geschäftskritischen Anwendungen.“

Um die betriebliche Kosteneffizienz zu verbessern, migriert das UKW derzeit einen Teil der virtuellen Server von VMware vSphere auf Proxmox Virtual Environment (PVE). Da Veeam eine vollständige Datenportabilität zwischen beiden Hypervisoren bietet, will das Klinikum Veeam auch einsetzen, um die Migration zu vereinfachen und gleichzeitig den durchgehenden Schutz der sensiblen Patientendaten sicherzustellen. „Es ist sehr nützlich für uns, mit Veeam nur ein einziges Backup-Tool für beide Virtualisierungsumgebungen zu haben. So können wir schneller migrieren und unsere Abläufe optimieren“, erläutert Andreas Störlein.

Containerisierung geplant

Mit Blick auf die Zukunft plant das Klinikum die Einführung von Containerisierung mit Kubernetes. Die Standardisierung der Verfahren für die Anwendungsbereitstellung und -verwaltung soll künftig zusätzliche Zeit für die Entwicklung innovativer digitaler Lösungen freimachen, um Ärzte und Forscher bei der Rettung von Menschenleben zu unterstützen.

„Wir haben eine sehr enge und vertrauensvolle Beziehung zu Veeam, sie haben uns immer weitergeholfen“, sagt Störlein. „Da wir unsere Abläufe zunehmend mit Containern und Kubernetes standardisieren werden, planen wir zukünftig auch Veeam Kasten einzusetzen, um unsere neuen containerisierten Umgebungen effizient und zuverlässig zu schützen.“

Herausforderung

Das Universitätsklinikum Würzburg nutzt digitale Systeme zur Unterstützung aller Abläufe von der Patientenaufnahme bis hin zu chirurgischen Eingriffen. Für einen zukunftssicheren Betrieb waren schnellere Backup- und Wiederherstellungsprozesse, ein stärkerer Schutz gegen Cyberbedrohungen und eine nahtlose Datenportabilität für einen Umstieg auf kosteneffizienterer Virtualisierungsplattformen erforderlich.

Ergebnisse

  • Ermöglicht die nahtlose und zuverlässige Migration von VMware auf die Proxmox Virtualisierungsplattform
  • Ermöglicht schnelle, selektive Wiederherstellung von 1.340 Servern und 1,3 PB an Daten
  • Verkürzt Backupfenster für 300 TB wichtige Krankenhausdaten um Faktor 7

Der Global Cybersecurity Outlook 2024 des World Economic Forum (WEF) untersucht aktuelle Bedrohungslagen, Trends und Strategien im Bereich Cybersicherheit aus globaler Perspektive. Er basiert auf einer Mischung aus Umfragen unter Führungskräften, Experteninterviews und Fallstudien. Ziel ist es, Unternehmen und Regierungen eine fundierte Grundlage für ihre Sicherheitsstrategien zu geben.
1. Zunehmende Bedrohungslage
Die Studie zeigt, dass die Bedrohungslage im Cyberspace weiter zunimmt. Ransomware-Angriffe, Phishing-Kampagnen und Advanced Persistent Threats (APT) gehören zu den größten Risiken. Besonders besorgniserregend ist der verstärkte Einsatz von KI-gestützten Angriffen, die sowohl die Geschwindigkeit als auch die Präzision von Attacken erhöhen. Cyberkriminelle setzen zunehmend generative KI ein, um Phishing-E-Mails realistischer zu gestalten, Schadcode automatisch zu erzeugen oder Schwachstellen gezielter auszunutzen.
2. Geopolitische Spannungen
Geopolitische Konflikte wirken sich direkt auf die Cyber-Bedrohungslage aus. Staatlich unterstützte Angriffe auf kritische Infrastrukturen nehmen zu. Die Studie verweist auf den Ukraine-Krieg, der zu einer neuen Welle koordinierter Cyberangriffe geführt hat. Cyberoperationen werden zunehmend als Machtinstrument eingesetzt – sowohl zur Sabotage als auch zur Informationsbeschaffung.
3. Wirtschaftliche Folgen
Unternehmen berichten, dass Cybervorfälle zu erheblichen finanziellen Schäden führen. Neben direkten Kosten durch Betriebsunterbrechungen, Wiederherstellung und Lösegeldzahlungen entstehen indirekte Verluste wie Reputationsschäden, Kundenabwanderung und höhere Versicherungsprämien. Ein zentrales Problem: Unterschätzte Risiken im Lieferkettenumfeld. Viele Angriffe erfolgen über Drittanbieter, deren Sicherheitsniveau oft nicht den Standards des eigenen Unternehmens entspricht.
4. Resilienz und Krisenmanagement
Ein Kernthema ist die Cyber-Resilienz. Unternehmen, die in regelmäßige Notfallübungen, Incident-Response-Pläne und Netzwerksegmentierung investieren, erholen sich schneller von Angriffen. Laut Bericht verfügen jedoch nur rund die Hälfte der befragten Organisationen über einen vollständig getesteten Notfallplan. Häufig mangelt es an klaren Kommunikationswegen und Rollenverteilungen im Krisenfall.
5. Fachkräftemangel in der Cybersicherheit
Der Bericht identifiziert einen anhaltenden Mangel an qualifizierten Fachkräften als erheblichen Risikofaktor. Besonders gefragt sind Experten für Cloud-Sicherheit, OT-Sicherheit (Operational Technology) und Bedrohungsanalyse. Der Fachkräftemangel führt dazu, dass Sicherheitsprojekte verzögert oder nicht vollständig umgesetzt werden. Unternehmen müssen daher stärker auf Automatisierung und KI-gestützte Sicherheitstools setzen.
6. Cloud-Sicherheit und neue Technologien
Mit der zunehmenden Cloud-Migration steigen die Anforderungen an Sicherheit und Compliance. Ein Schwerpunkt liegt auf Zero-Trust-Architekturen, die den Zugriff kontinuierlich überprüfen und nicht pauschal vertrauen. Gleichzeitig gewinnen Confidential Computing und Privacy Enhancing Technologies (PETs) an Bedeutung, um sensible Daten auch während der Verarbeitung zu schützen.
7. Regulatorische Entwicklungen
Regierungen weltweit verschärfen ihre Sicherheitsvorgaben. In der EU sind die NIS2-Richtlinie und der Cyber Resilience Act zentrale Treiber. Unternehmen müssen ihre Sicherheitsmaßnahmen dokumentieren, Vorfälle innerhalb kurzer Fristen melden und branchenspezifische Standards einhalten. Der Bericht betont, dass Compliance allein nicht ausreicht – es brauche proaktive Sicherheitsstrategien.
8. Zusammenarbeit und Informationsaustausch
Die Autoren sehen Kooperation zwischen Unternehmen, Regierungen und Sicherheitsanbietern als entscheidend. Threat Intelligence Sharing – also der Austausch von Bedrohungsinformationen – kann Angriffe frühzeitig erkennen helfen. Erfolgreiche Beispiele stammen oft aus Branchenverbänden oder öffentlich-privaten Partnerschaften.
9. Zukunftsausblick
Für die nächsten Jahre erwartet das WEF eine Zunahme hybrider Angriffe, bei denen Cyber- und physische Sabotage kombiniert werden. Außerdem werden Deepfakes und Desinformationskampagnen stärker eingesetzt, um politische Prozesse zu beeinflussen. Unternehmen müssen daher nicht nur technische Schutzmaßnahmen, sondern auch Awareness-Programme für Mitarbeiter intensivieren.

Fazit:
Der WEF-Bericht verdeutlicht, dass Cybersicherheit 2024 kein rein technisches Thema mehr ist, sondern strategisch auf höchster Ebene behandelt werden muss. Erfolgreiche Organisationen setzen auf Ganzheitlichkeit: Sie kombinieren technologische Innovationen (Zero Trust, KI, PETs) mit organisatorischen Maßnahmen (Schulungen, Notfallpläne, Partnerschaften) und einer klaren Governance-Struktur. Die größte Herausforderung bleibt, angesichts dynamischer Bedrohungen schnell adaptieren zu können und dabei regulatorische Vorgaben einzuhalten. Wer Cybersicherheit als kontinuierlichen Prozess versteht, wird in einer zunehmend unsicheren digitalen Welt resilienter agieren können.



Der WEF Global Cybersecurity Outlook 2022 bietet einen umfassenden Überblick über den weltweiten Stand der Cybersicherheit und beleuchtet die größten Herausforderungen, Chancen und Entwicklungen in diesem Bereich. Der Bericht basiert auf einer Umfrage unter Führungskräften aus Wirtschaft, Politik und Sicherheitsbranche sowie auf Interviews mit Experten. Ziel ist es, strategische Trends zu identifizieren und Organisationen dabei zu unterstützen, ihre Sicherheitsstrategien zu optimieren.

Ein zentrales Ergebnis ist die wachsende Diskrepanz zwischen Geschäftsführung und Sicherheitsteams in der Risikoeinschätzung. Während Sicherheitsexperten Cyberbedrohungen als eine der größten globalen Gefahren einstufen, sehen viele Führungskräfte Cybersicherheit noch immer eher als technische Frage denn als strategische Priorität. Dies führt zu unzureichenden Budgets, fehlender Integration von Sicherheit in Geschäftsprozesse und langsamer Reaktionsfähigkeit auf neue Bedrohungen.
Der Bericht betont, dass Ransomware und Supply-Chain-Angriffe 2022 zu den größten Risiken gehören. Ransomware hat sich zu einem hochprofitablen Geschäftsmodell entwickelt, bei dem Angreifer zunehmend auf doppeltes oder dreifaches Erpressen setzen – neben der Datenverschlüsselung werden auch sensible Daten gestohlen und mit Veröffentlichung gedroht, um den Druck auf Opfer zu erhöhen. Supply-Chain-Angriffe wiederum nutzen Schwachstellen in der Lieferkette, um über weniger gesicherte Partner in hochsichere Netzwerke einzudringen.
Ein weiteres wichtiges Thema ist die Zunahme geopolitisch motivierter Cyberangriffe. Staatliche Akteure und deren Proxy-Gruppen setzen Cyberoperationen gezielt ein, um politische, wirtschaftliche und militärische Ziele zu erreichen. Der Bericht verweist auf die wachsende Komplexität dieser Angriffe, die oft über Jahre vorbereitet werden und schwer zuzuordnen sind.
Die Studie hebt die Notwendigkeit einer engen Zusammenarbeit zwischen öffentlichem und privatem Sektor hervor. Da Cyberbedrohungen grenzüberschreitend wirken, sind Informationsaustausch, gemeinsame Frühwarnsysteme und koordinierte Reaktionen entscheidend. Erfolgreiche Beispiele zeigen, dass durch Public-Private-Partnerships die Erkennung und Abwehr von Angriffen deutlich verbessert werden kann.
Ein weiteres Kernproblem ist der Fachkräftemangel. Weltweit fehlen Millionen qualifizierte Fachkräfte im Bereich Cybersicherheit, was Unternehmen anfälliger für Angriffe macht. Der Bericht empfiehlt verstärkte Investitionen in Ausbildung, Weiterbildung und Diversity-Programme, um neue Talente zu gewinnen und zu halten.

Technologisch betrachtet, verschiebt sich der Fokus auf Zero-Trust-Architekturen, Cloud-Sicherheit und KI-gestützte Angriffserkennung. Zero Trust geht davon aus, dass kein Benutzer oder Gerät innerhalb oder außerhalb des Netzwerks automatisch vertrauenswürdig ist. Cloud-Sicherheit gewinnt an Bedeutung, da immer mehr Unternehmen auf hybride oder vollständig cloudbasierte Infrastrukturen setzen. KI-gestützte Systeme helfen, große Datenmengen schneller zu analysieren und Anomalien in Echtzeit zu erkennen.
Ein wiederkehrendes Thema im Bericht ist die Resilienz. Unternehmen sollten nicht nur präventive Sicherheitsmaßnahmen umsetzen, sondern auch Pläne für schnelle Wiederherstellung nach einem Angriff entwickeln. Dazu gehören Incident-Response-Pläne, regelmäßige Krisenübungen, redundante Systeme und Backup-Strategien.

Im Hinblick auf Investitionen stellt der Bericht fest, dass Organisationen, die Cybersicherheit als strategische Priorität betrachten, deutlich besser gegen Angriffe gewappnet sind. Dennoch geben viele Unternehmen an, dass ihre Sicherheitsbudgets nicht mit dem wachsenden Risiko Schritt halten.
Der Bericht schließt mit klaren Empfehlungen:
Cybersicherheit als strategische Priorität auf Vorstandsebene verankern.
Informationsaustausch zwischen Unternehmen und Regierungen fördern.
Zero-Trust-Modelle implementieren und Cloud-Sicherheitsstrategien verbessern.
Mitarbeiterschulungen ausbauen, um menschliche Fehler zu minimieren.
Investitionen in Technologien, Prozesse und Personal erhöhen.
Insgesamt zeichnet der WEF Global Cybersecurity Outlook 2022 ein Bild einer Bedrohungslage, die sich dynamisch entwickelt und in der Cyberresilienz, internationale Kooperation und strategische Planung entscheidend sind, um den Herausforderungen der kommenden Jahre zu begegnen.



Die Befragung zur Cybersicherheit 2025 des Bundesamts für Sicherheit in der Informationstechnik (BSI) liefert einen umfassenden Überblick über den aktuellen Stand, die Herausforderungen und die Entwicklungen im Bereich der IT-Sicherheit in Deutschland. Sie basiert auf einer repräsentativen Erhebung unter Unternehmen, Behörden und privaten Haushalten und zielt darauf ab, den Status quo zu erfassen, Bewusstsein zu schaffen und Handlungsempfehlungen abzuleiten.
1. Allgemeiner Überblick
Die Studie verdeutlicht, dass die Bedrohungslage im Cyberraum weiterhin hoch ist. Cyberangriffe sind für Organisationen aller Größenordnungen ein relevantes Risiko. Insbesondere Ransomware, Phishing, Datendiebstahl und DDoS-Angriffe gehören zu den meistgenannten Bedrohungen. Die Angreifer agieren zunehmend professionell, nutzen automatisierte Angriffswerkzeuge und setzen auf gezielte Social-Engineering-Techniken.
Das BSI betont, dass Cybersicherheit nicht nur eine technische, sondern auch eine organisatorische und menschliche Dimension hat. Menschliche Fehlhandlungen, wie das Klicken auf schädliche Links, bleiben ein wesentlicher Risikofaktor.
2. Bedrohungsarten und Vorfälle
Ransomware-Angriffe haben in den letzten Jahren weiter zugenommen und verursachen hohe wirtschaftliche Schäden. Die Angreifer verschlüsseln nicht nur Daten, sondern drohen zunehmend auch mit deren Veröffentlichung („Double Extortion“).
Phishing-Kampagnen werden gezielter, oft personalisiert, und richten sich auch gegen Führungskräfte („CEO-Fraud“).
DDoS-Angriffe werden als Erpressungsinstrument eingesetzt, während Spionagekampagnen auf den Diebstahl vertraulicher Informationen abzielen.
Die Befragung zeigt, dass vor allem mittelständische Unternehmen häufig betroffen sind, da sie im Vergleich zu Großunternehmen oft weniger Ressourcen für IT-Sicherheit bereitstellen können.
3. Sicherheitsmaßnahmen
Die meisten befragten Organisationen setzen grundlegende technische Schutzmaßnahmen wie Firewalls, Virenscanner und regelmäßige Softwareupdates ein.
Dennoch gibt es deutliche Defizite bei fortgeschritteneren Maßnahmen wie Zero-Trust-Architekturen, Security Information and Event Management (SIEM) oder Penetrationstests.
Schulungen zur Sensibilisierung der Mitarbeiter finden zwar statt, werden aber oft nicht regelmäßig wiederholt oder evaluiert.
Das BSI empfiehlt:
• Mehrstufige Authentifizierung (MFA) konsequent einzuführen
• Regelmäßige Notfallübungen durchzuführen
• Kritische Systeme von weniger kritischen zu trennen (Netzwerksegmentierung)
• Sicherheitsaudits und Penetrationstests zu etablieren
4. Cloud- und KI-Nutzung
Ein zentrales Thema ist die zunehmende Nutzung von Cloud-Diensten. Während viele Unternehmen Sicherheitsvorteile wie verlässliche Updates und skalierbare Sicherheitslösungen sehen, bestehen auch Bedenken hinsichtlich Datenhoheit und Abhängigkeit von Anbietern.
Künstliche Intelligenz (KI) wird zunehmend für die Erkennung und Abwehr von Angriffen eingesetzt, z. B. durch Anomalieerkennung in Netzwerken. Gleichzeitig nutzen Angreifer KI, um Phishing-Mails glaubwürdiger zu gestalten oder Schwachstellen schneller zu finden.
5. Rechtliche und regulatorische Aspekte
Die Befragung thematisiert auch die wachsenden Anforderungen durch gesetzliche Regelungen wie:
• NIS-2-Richtlinie
• DORA-Verordnung für den Finanzsektor
• Anforderungen der Datenschutz-Grundverordnung (DSGVO)
Diese Vorschriften zwingen Unternehmen, ihre Sicherheitsmaßnahmen zu dokumentieren, Vorfälle zu melden und bestimmte Mindeststandards einzuhalten.
6. Herausforderungen
Zu den größten Herausforderungen zählen:
• Fachkräftemangel im Bereich IT-Sicherheit
• Hohe Kosten für Sicherheitslösungen
• Fehlendes Wissen im Management über konkrete Risiken
• Zunehmende Komplexität durch hybride IT-Infrastrukturen
Gerade kleinere Unternehmen kämpfen damit, ausreichende Budgets und qualifiziertes Personal bereitzustellen.
7. Ausblick
Das BSI geht davon aus, dass die Bedrohungslage weiter angespannt bleibt und Angriffe komplexer werden. Proaktive Sicherheitsstrategien, kontinuierliche Risikoanalysen und die Einbindung der gesamten Organisation in Sicherheitsprozesse werden entscheidend sein.
Der Einsatz von Automatisierung und KI wird weiter zunehmen – sowohl auf Seiten der Verteidiger als auch der Angreifer.

Fazit:
Die BSI-Befragung 2025 zeigt, dass Cybersicherheit längst ein strategisches Thema für alle Organisationen ist. Während grundlegende Schutzmaßnahmen weit verbreitet sind, gibt es bei fortgeschrittenen Sicherheitskonzepten noch deutlichen Nachholbedarf. Die zunehmende Nutzung von Cloud-Diensten und KI bietet Chancen, erfordert aber auch neue Sicherheitsansätze. Gesetzliche Vorgaben wie NIS-2 und DORA setzen wichtige Rahmenbedingungen, doch der Erfolg hängt entscheidend von der Umsetzung in der Praxis ab.



Microsoft SharePoint – Notfallmaßnahmen für Zero-Day-Sicherheitslücke.

Microsoft hat am Wochenende Notfallmaßnahmen zur Behebung einer Zero-Day-Sicherheitslücke mit der Bezeichnung CVE-2025-53770 veröffentlicht, die aktiv ausgenutzt wird und sich verändert.

Die Google Threat Intelligence Group (GTIG) hat nun beobachtet, dass Angreifer diese Sicherheitslücke ausnutzen, um Webshells zu installieren und kryptografische Geheimnisse von den Servern der Opfer zu stehlen. Dies ermöglicht einen dauerhaften, nicht authentifizierten Zugriff und stellt ein erhebliches Risiko für betroffene Unternehmen dar. Charles Carmakal, CTO von Mandiant Consulting, Google Cloud, hat auf LinkedIn die wichtigsten Details und Handlungsempfehlungen für Unternehmen veröffentlicht.

Wenn Ihr Unternehmen über eine lokale SharePoint-Instanz verfügt, die mit dem Internet verbunden ist, müssen Sie sofort Maßnahmen ergreifen.

Es reicht nicht aus, einfach nur den Patch zu installieren. Unternehmen müssen weiter sofort Maßnahmen zur Risikominderung ergreifen (und den Patch installieren, sobald er verfügbar ist). Es ist daher ratsam, von einer Kompromittierung auszugehen und zu untersuchen, ob das System vor der Installation des Patches beziehungsweise den Maßnahmen zur Risikominderung kompromittiert wurde, und entsprechende Abhilfemaßnahmen zu ergreifen. Microsoft wird aufgrund der derzeit weit verbreiteten Ausnutzung dieser Schwachstelle wahrscheinlich einen außerplanmäßigen Notfall-Patch veröffentlichen.

Microsoft hat angegeben, dass diese Schwachstelle nur lokale Versionen von SharePoint betrifft. SharePoint Online in Microsoft 365 ist nicht betroffen.