US AI Executive Order: Kommentare aus der Branche
Am 30. Oktober hat US-Präsident Joe Biden die US AI Executive Order erlassen. Hier sind die wichtigsten Erkenntnisse der Verordnung auf einen Blick.
- Es werden Leitlinien und Grundsätze für eine sichere, verantwortungsvolle und gerechte Entwicklung der KI festgelegt, die die Führungsrolle Amerikas stärken sollen.
- Sie fordert ein Risikomanagement in Bereichen wie Cybersicherheit, Biosicherheit, Datenschutz, Bürgerrechte, Diskriminierung sowie Auswirkungen auf die Arbeitswelt.
- Sie weist zahlreiche Behörden an, KI-Beauftragte zu benennen und eine KI-Strategien zu entwickeln
- Sie zielt darauf ab, die Zahl der KI-Talente in der Regierung durch Einstellungs-, Schulungs- und Bindungsmaßnahmen zu erhöhen.
- Sie fördert öffentlich-private Partnerschaften für KI-Innovation und leitet Maßnahmen zur Unterstützung der KI-Forschung ein.
- Sie versucht, die Entwicklung von KI-Standards und die Zusammenarbeit mit verbündeten Ländern zu koordinieren, um eine verantwortungsvolle globale KI-Entwicklung voranzutreiben.
- Sie richtet einen KI-Rat des Weißen Hauses ein, um die Umsetzung über die verschiedenen Behörden hinweg zu koordinieren.
Das sagen Softwareanbieter zum US “AI Executive Order”
Hitesh Sheth, Präsident und CEO von Vectra AI: „Präsident Bidens neue Executive Order zur künstlichen Intelligenz ist ein positiver Schritt hin zu einer konkreteren Regulierung, um die Risiken der KI einzudämmen und ihre Vorteile zu nutzen. Es wird jedoch für alle globalen Regierungen wichtig sein, das richtige Gleichgewicht zwischen Regulierung und Innovation zu finden. Positiv zu vermerken ist, dass sich das Weiße Haus an die bestehenden Standards des National Institute of Standards and Technology (NIST) für das Red-Teaming von KI anlehnt, d. h. für Stresstests der Abwehr und potenzieller Probleme in Systemen. Angesichts einer sich ständig weiterentwickelnden Bedrohungslandschaft ist es für Unternehmen unerlässlich, ein ganzheitlicheres, proaktives Sicherheitsparadigma zu verfolgen – und die NIST-Standards für Red-Teaming unterstützen diesen Ansatz.
Da die US-Regierung mit internationalen Partnern zusammenarbeitet, um KI-Standards auf der ganzen Welt zu implementieren, wird es wichtig sein, dass diese Vorschriften ein Gleichgewicht zwischen dem Eintreten für Transparenz und der Förderung kontinuierlicher Innovation herstellen – anstatt einfach nur künstliche Leitplanken zu schaffen. Es besteht kein Zweifel daran, dass die Fortschritte und der Einsatz von KI ein Stadium erreicht haben, in dem eine Regulierung erforderlich ist. Allerdings müssen die Regierungen darauf achten, dass sie die bahnbrechenden Innovationen nicht aufhalten, die aktuell bereits stattfinden und unser Leben zum Besseren verändern können.“
Michael Heuer, VP DACH bei Keepit: „So überraschend dieses sehr umfangreiche Regelwerk aus den USA kommt, so wichtig und weitreichend ist dessen Bedeutsamkeit – auch für uns in der EU. Man darf nicht vergessen, dass fast alle großen KI-Entwickler in den USA ansässig und somit von Bidens Executive Order betroffen sind. Von den darin formulierten Auflagen zur nachweislich sicheren Entwicklung leistungsstarker KI-Modelle profitieren EU-Unternehmen in zweierlei Hinsicht: Zum einen, weil der Missbrauch von generativer KI deutlich erschwert wird und zum anderen, weil dem Datenschutz eine vorrangige Rolle eingeräumt wird.
Die Maßnahmen fördern die Transparenz und Verantwortlichkeit in der KI-Entwicklung und schützen Unternehmen vor ungewolltem Zugriff auf ihre proprietären Daten während des Trainings von KI-Modellen. Dies ist ein wichtiger Schritt hin zur Absicherung von kritischen Unternehmensdaten, der eine Strahlkraft weit über die USA hinaus entfalten wird.”
Alexander Koch, VP Sales EMEA bei Yubico: „Die Order adressiert viele wichtige Punkte, um KI sicher und vertrauenswürdig zu machen. Besonders wichtig sind aus meiner Sicht die Vorgaben zu Cybersicherheit, Datenschutz sowie die Betonung der Verantwortlichkeit der KI-Entwickler, Missbrauchsmöglichkeiten ihrer Modelle auf ein Minimum zu reduzieren.
Als MFA-Anbieter ist es unser Ziel, Unternehmen dabei zu unterstützen, ihre eigene Sorgfaltspflicht in Sachen Datenschutz effektiv erfüllen zu können. MFA ergänzt die in der Order beschriebenen Sicherheitsmaßnahmen sinnvoll um eine zusätzliche Schutzschicht. Gerade für die Abwehr der durch KI-Einsatz stark zunehmenden Menge an immer raffinierteren Phishing-Mails eignet sich MFA besonders gut.
Dieser Impuls aus den USA hat eine nicht zu unterschätzende Signalwirkung auf den Rest der Welt. Er gibt einen gesetzlichen Rahmen vor, um KI so zu entwickeln und einzusetzen, dass alle davon profitieren. Das ist ein großer Fortschritt und ein weiterer Baustein, um das regulatorische Vakuum beim Thema KI-Regulierung aufzufüllen.”
Kristian von Mejer, Director Central Europe bei Forescout: „Um eine verantwortungsvolle Entwicklung und den Einsatz von KI zu gewährleisten, muss der Gesetzgeber Sicherheitsmaßnahmen und Vorschriften einführen, welche die gesamte Gesellschaft vor unbeabsichtigten Folgen schützen. Diese Executive Order ist zwar kein Gesetz, aber ein guter Schritt in die richtige Richtung. Weitere Vorschriften werden notwendig sein, um einer unkontrollierten KI-Entwicklung Einhalt zu gebieten. Und warum? Weil immer mehr KI-Systeme ihre Interaktionen untereinander intensivieren und dabei ihre eigene Agenda oder Motivation entwickeln werden, die von außen nicht erkannt oder verstanden werden kann. Diese autonomen Interaktionen innerhalb des KI-Ökosystems bergen das Potenzial für unvorhersehbare und möglicherweise verheerende Folgen. Es wird unerlässlich sein, die sich entwickelnde Landschaft miteinander interagierender KI-Instanzen zu beobachten und zu verstehen, da sie weitreichende Auswirkungen auf die Cybersicherheit haben wird.“
Andre Durand, CEO und Gründer von Ping Identity: „Die Executive Order ist die erste KI-Regulierung des Weißen Hauses – und ein erster, wichtiger Schritt auf dem Weg zur Errichtung eines umfassenden Richtlinienkomplexes zur verantwortungsvollen Entwicklung und Nutzung von KI-gestützten Technologien. Dass die gesellschaftlichen Auswirkungen von KI-Technologien immens sein werden, zeichnet sich schon lange ab. Gewissenhaftigkeit und Sicherheit sollten bei ihrer Entwicklung deshalb stets an erster Stelle stehen. Eine ausgewogene Regulierung wird benötigt, um ihren Missbrauch zu verhindern – und sicherzustellen, dass wir auch in Zukunft ruhigen Gewissens auf KI-Technologien setzen können. Die EO ist da ein erster, ein entscheidender Schritt.
Ganz richtig stellt die Executive Order fest, dass KI-gestützte Technologien in hohem Maße von einem beständigen Zufluss von Daten – auch von Nutzer- und Gerätedaten – abhängen. Diese können leicht in falsche Hände – zum Beispiel von Cyberkriminellen – geraten. Strengere Anforderungen an die Identitätsüberprüfung werden erforderlich werden – beispielsweise in Bezug auf Identitätsnachweis, Authentifizierung und Föderation. Auch werden Unternehmen stärker auf KI-gestützte Lösungen setzen müssen, um Kriminelle, die ebenfalls auf KI setzen, erfolgreich auszubremsen. Feuer wird sich nur mit Feuer bekämpfen lassen. Nur mittels KI-gestützter Lösungen werden Anomalien und feindliche Bots, werden Betrugsfälle rechtzeitig erkannt und behoben werden können.
Hierzu wird es jedoch erforderlich sein, den privaten Sektor stärker als bislang in die staatlichen Bemühungen einzubinden. Ansonsten wird sich das gewünschte Mehr an Gewissenhaftigkeit und Sicherheit bei der KI-Entwicklung nicht realisieren lassen.“
Dr. Martin J. Krämer, Security Awareness Advocate bei KnowBe4: „Die Biden-Harris-Verordnung über sichere und vertrauenswürdige künstliche Intelligenz ist ein bemerkenswerter Versuch, die Zukunft der KI im Sinne eines Mehrwerts für die Gesellschaft zu regulieren. Sie folgt den Entwicklungsanstrengungen auf der ganzen Welt. Die neue US-Position folgt der früheren konzeptionellen Ausrichtung auf risikobasierte Ansätze zur Regulierung von KI und den Grundprinzipien einer vertrauenswürdigen KI. In Details unterscheiden sich die Ansätze zwischen den USA und der EU natürlich etwas. Während die Schlüsselelemente der Executive Order den europäischen Grundsätzen wie dem Schutz der Arbeitnehmer, dem Schutz der Privatsphäre und der Gewährleistung von Sicherheit und Vertrauen folgen, darf nicht vergessen werden, dass die Umsetzung dieser Werte in den verschiedenen Kulturen unterschiedlich ist. Sowohl in der EU als auch in den USA steht der Mensch im Mittelpunkt. Die Erwartungen der Menschen an eine vertrauenswürdige KI werden in diesen Gesellschaften und ihren jeweiligen Gesetzgebungen aber unterschiedlich sein. Daher ist die Entwicklung einer verantwortungsvollen KI mit einem solchen umfassenden Ansatz ein wichtiger erster Schritt – und wir müssen unser Bestes tun, um eine Politik in die Praxis umzusetzen, die für alle Beteiligten funktioniert. Wir dürfen aber auch nicht vergessen, dass KI und Algorithmen, Daten und Modelle geographische Grenzen im digitalen Raum überschreiten, wenn sie von globalen Akteuren genutzt werden. In der EU müssen wir sicherstellen, dass die in den USA vertretenen Werte und Normen den Erwartungen unserer Gesellschaft in Bezug auf Datenschutz, Sicherheit, Vertrauen und Schutz entsprechen. Diese transatlantischen Anpassungs- und Zusammenarbeitsbestrebungen müssen fortgesetzt werden.“
Markus Auer, Security Advisor und Sales Director DACH bei BlueVoyant: „Die Bemühungen der USA im Bereich der verantwortungsvollen Nutzung künstlicher Intelligenz erkennen die differenzierten Herausforderungen der Integration von KI in die Cybersicherheitslandschaft an und betonen die Notwendigkeit von Transparenz und robusten Schutzmaßnahmen in Bezug auf Datenschutz, Diskriminierung und Sicherheitsbedrohungen. Da der Einsatz von KI in der Cybersicherheit immer ausgefeilter wird, ist ein einheitlicher Ansatz für die KI-Governance auf globaler Ebene, der Strategien und Vorschriften aufeinander abstimmt, immer dringender.
Als Reaktion darauf müssen Unternehmen bei ihren KI-Integrationsstrategien sorgfältig vorgehen und sicherstellen, dass der Datenschutz robust ist, regelmäßige Sicherheitsaudits durchgeführt werden, um Schwachstellen zu identifizieren, und Red-Team-Übungen eingesetzt werden, um die Abwehrkräfte von KI-Systemen zu testen. Darüber hinaus ist die Einrichtung dauerhafter Überwachungssysteme von entscheidender Bedeutung für die Erkennung und Eindämmung potenzieller Manipulationen von KI-Systemen. Angesichts der Tatsache, dass KI zu einem wesentlichen Bestandteil von Geschäftsabläufen wird, ist es für Unternehmen von entscheidender Bedeutung, proaktiv zu handeln und sich an die aufkommenden internationalen Standards anzupassen, um das Versprechen von KI auf eine sichere und verantwortungsvolle Weise zu sichern.”
Frank Heisel, Co-CEO von Risk Ident: „Wir begrüßen Bidens Executive Order, da sie entscheidende Schritte unternimmt, um Unternehmen und Kunden vor den Gefahren des Missbrauchs generativer KI zu schützen. Durch die Etablierung sicherer und vertrauenswürdiger KI-Systeme – beispielsweise durch Wasserzeichen für KI-generierten Content – wird die Verbreitung von Deepfakes, Phishing-Mails und anderen Betrugsformen erschwert.
Diese Maßnahmen sind von großer Bedeutung, da Online-Betrug nicht nur finanzielle Schäden verursacht, sondern auch das Vertrauen der Kunden in die Glaubwürdigkeit von Inhalten im Internet erschüttert. Wir bei Risk Ident nutzen selbst KI zur Mustererkennung in der Betrugsabwehr. Bidens Executive Order tangiert jedoch den rechtmäßigen Einsatz spezialisierter KI-Modelle in keiner Form. Diese Nuanciertheit ist auch sehr wichtig, da eine solche Regulierungsmaßnahme sonst gedroht hätte zum Stolperstein für KI-Anwendungen abseits der Frontier-Modelle zu werden.
Die Executive Order belegt das Engagement der USA und unterstreicht ihren Anspruch auf eine Vorreiterrolle bei Thema KI-Regulierung. Dies ist ein bedeutender Schritt hin zu einer sichereren und vertrauenswürdigeren digitalen Zukunft.”
Crystal Morin, CybersecurityStrategist bei Sysdig: „Sichere, geschützte und vertrauenswürdige KI – das ist der Schlüssel und das, was diese Verordnung anstrebt. Allerdings wird das Thema Vertrauen immer ein Problem sein, da auch Cyberkriminelle und andere Bedrohungsakteure auf die Kapazitäten von KI zurückgreifen können, um Desinformation zu streuen und Misstrauen zu säen.
Einer der vielversprechendsten Ansätze im Bereich der Sicherheit im Zuge der Verordnung ist für mich derweil die Direktive, KI-Tools zum Auffinden und Beheben von Schwachstellen zu entwickeln. Davon können besonders Behörden und kritische Infrastrukturen profitieren. Allerdings ist auch hier das Risiko-Potenzial groß, sollte es in die falschen Hände geraten.“
Kevin Bocek, VP Ökosystem und Community bei Venafi: „Die Executive Order zur KI fördert in erster Linie die Innovation – sowohl die Entwicklung von KI als auch die Nutzung von KI im öffentlichen und privaten Sektor. Und im Einklang mit der Förderung der KI-Innovation fördert die Anordnung die Innovation bei der sicheren und verantwortungsvollen Nutzung von KI. Die Förderung von Forschung und Entwicklung anstelle von Vorschriften, die KI zum jetzigen Zeitpunkt einschränken oder zu regulieren versuchen, hätte nur den gegenteiligen beabsichtigten Effekt. Die Krypto-Wars der 1990er Jahre haben gezeigt, dass offene Forschung und kommerzielle Innovation zu mehr Datenschutz führen. Wichtig ist, dass wir uns nicht in einen Wettlauf um neue Vorschriften stürzen, die die Innovation bremsen und eine offizielle Zertifizierung erfordern – und KI heute wie Waffen oder Arzneimittel behandeln. Wir müssen Forschung und Innovation fördern, um Ergebnisse in Bezug auf Standards, Sicherheit und Schutz zu erzielen, anstatt in einem Wettlauf Regeln und Vorschriften aus dem letzten Jahrhundert anzuwenden. Heutige Technologien, vom modernen Identitätsmanagement bis zur Codesignierung, können genutzt werden, um KI sicher zu betreiben und Innovationen zu fördern. Als größter Einzelkunde des Silicon Valley wird die Durchführungsverordnung einen großen Einfluss auf künftige Entwicklungen bei der Nutzung von KI in den USA und weltweit haben.”
Martin Tran, Sales Engineer DACH & CEE bei Cymulate: „Die jüngste Executive Order des US-Präsidenten zur Förderung sicherer, vertrauenswürdiger und ethisch verantwortungsbewusster künstlicher Intelligenz (KI) markiert einen bedeutenden Schritt in Richtung einer umfassenden und verantwortungsbewussten KI-Entwicklung. Als Innovationstreiber und Befürworter von Cybersecurity begrüße ich diese Initiative, die auf Standards für KI-Sicherheit, Datenschutz und Zusammenarbeit abzielt. Die Betonung der Privatsphäre und die Förderung datenschutzerhaltender Techniken sind besonders relevant in einer Ära, in der KI zunehmend in unseren Alltag integriert wird. Die Maßnahmen zur internationalen Zusammenarbeit unterstreichen die Notwendigkeit, globale Standards zu etablieren und sicherzustellen, dass KI weltweit sicher, vertrauenswürdig und ethisch genutzt wird. Die Förderung von Innovation und Wettbewerb durch den Zugang kleiner Entwickler und Unternehmer zu technischer Unterstützung und Ressourcen ist ein weiterer wichtiger Aspekt. Dies könnte neue Möglichkeiten für die Weiterentwicklung von KI schaffen und den Markt für innovative Lösungen erweitern. Insgesamt signalisiert diese Executive Order eine verstärkte Konzentration auf ethische und sichere KI-Entwicklung, was von zentraler Bedeutung ist, um das volle Potenzial von KI zu entfalten. Es wird spannend sein zu beobachten, wie diese Maßnahmen die Zukunft der KI-Gemeinschaft und ihre Auswirkungen auf verschiedene Branchen beeinflussen werden.“
Marco Eggerling, CISO EMEA bei Check Point Software: „Die Executive Order aus den USA ist ein erster Schritt in Richtung eines sicheren Umgangs mit KI. Es ist außerdem ein willkommenes Signal an Tech-Unternehmen zur verantwortungsbewussten Entwicklung von KI und an Gesetzgeber in aller Welt, diese neue Technologie zu beachten. Bezüglich der Gefahr für die IT-Sicherheit darf man sagen: Bislang konnten keine rein KI-generierten Angriffe festgestellt werden. Angriffe der fünften Generation durch generative KI sind jedoch theoretisch möglich und immer leichter zu programmieren. Zudem gibt es viele akademische Modelle, die Code-as-a-Service ermöglichen, was für Hacker interessantist. Hier kannkeine Anti-Viren-Engine mithalten. Malware-as-a-Service und ebenso Ransomware zumMietendürftezudemwegen des steigenden Grades an Automatisierungerschwinglicherwerden. In diesemZugedürfte der bösartige Einsatzgenerativer KI für Hacker bald einstiegsfreundlich sein. Eines istsicher: Das Wettrüsten auf beiden Seiten hat bereitsbegonnen und es ist nun an den Gesetzgebern, früh die Grenzenzuziehen, damit KI keinWerkzeugwird, das uns in naher Zukunft auf die Füßefällt und mehr Schaden anrichtetalsNutzenbringt.“