Kommentare zum AI Act
Die EU bekommt Regeln für den Einsatz von Künstlicher Intelligenz. Nach zähen Verhandlungen haben sich Unterhändler von Europaparlament und EU-Staaten auf Grundzüge des “AI Act” geeinigt. Raum für Innovation soll aber bleiben. Der Marktplatz IT-Sicherheit hat hierzu Statements von Wissenschaft und Interessensvertretern eingeholt.
Kommentar des Bundesverband IT-Mittelstand e.V. (BITMi) zum AI Act
Der Bundesverband IT-Mittelstand e.V. (BITMi) begrüßt, dass die Entscheider in Brüssel sich nach zähen Verhandlungen über die Ausgestaltung der Europäischen KI-Verordnung (AI Act) in der Nacht zu Samstag auf einen Kompromiss einigen konnten. Dazu BITMi-Präsident und Vorstandsvorsitzender Dr. Oliver Grün: „Für den IT-Mittelstand stand bei der Ausgestaltung des AI Acts im Vordergrund, dass neben einem angemessenen Schutz von Demokratie, Rechtsstaatlichkeit und Gesundheit vor der missbräuchlichen Nutzung von Künstlicher Intelligenz (KI) deren große Chancen für Europas digitale Souveränität genutzt werden. Im Zentrum stand und steht für uns das Ziel, Europas Wettbewerbsfähigkeit in dieser bedeutenden Technologie zu sichern. Großes Potenzial für die Mitgestaltung dieser Zukunftstechnologie haben die innovativen kleinen und mittelständischen Unternehmen (KMU), die die europäische KI-Branche prägen. Eine KI-Verordnung, die komplexe Auflagen und hohe Compliance-Kosten mit sich bringt, könnte diese KMU aber aus dem Wettbewerb drängen – besonders durch eine zu weite Auslegung der Einstufung von KI als ‚hochriskant‘. Diese Punkte gilt es genauer zu analysieren, sobald der finale Text vorliegt.
Positiv hervorzuheben ist die Einigung zur Regulierung von KI-Basismodellen, die eine unfaire Verteilung von Verantwortung entlang der Wertschöpfungskette verhindern soll. Dazu sollen sehr große KI-Basismodelle, die mit einer Rechenleistung von über 10 hoch 25 trainiert wurden, strenger reguliert werden als Modelle mit geringerer Leistungsfähigkeit. Die derzeit schwächeren Modelle Europas fallen nicht darunter. Dies wird KMU Rechtssicherheit ermöglichen, wenn sie ihre Produkte auf diesen sehr großen Basismodellen aufbauen. Neben dieser klaren Abgrenzung der sehr großen Modelle sollte es aus Sicht des BITMi im finalen Text eine Deregulierung von kleineren Basismodellen geben, um deren Innovationskraft nicht einzudämmen.
Wichtig ist nun, dass im weiteren Verlauf technische Details sehr sorgfältig geklärt werden. Dabei sollte ein besonderes Augenmerk auf der Praxistauglichkeit der konkreten Anforderungen für Marktteilnehmer liegen, damit die Umsetzung der KI-Verordnung innovationsfördernd wirkt und keinen Wettbewerbsnachteil für die heimische KI-Branche bedeutet.“
Kommentar der Universität Freiburg
Drei Professoren der Universität Freiburg, Rolf Backofen (Informatik), Oliver Müller (Philosophie) und Silja Vöneky (Rechtswissenschaften) haben ihr Urteil über die adaptive Regulierung neuer Technologien gebildet: „Die verhältnismäßige Regulierung von künstlicher Intelligenz ist eine der großen Herausforderungen unserer Zeit im Bereich der neuen Technologien“, sagt die Rechtswissenschaftlerin Prof. Dr. Silja Vöneky. Sie begrüßt, dass die EU hier voranschreite, merkt aber gleichzeitig an, dass eine solche Regulierung „verhältnismäßig und auch hinreichend adaptiv“ sein müsse – das sei im EU AI Act noch nicht genug berücksichtigt. Adaptivität, also die schnelle Anpassungsfähigkeit an Chancen und Risiken bei neuen Technologien, steht im Mittelpunkt des gemeinsamen interdisziplinären Forschungsinteresses von Vöneky, dem Philosophen Prof. Dr. Oliver Müller und dem Bioinformatiker Prof. Dr. Rolf Backofen.
Bei der Regulierung, sagt Müller, seien eine Vielzahl rechtlicher und ethischer Rahmenbedingungen relevant, von Aspekten des Persönlichkeitsschutzes bis hin zur Frage, „inwiefern Chatbots gesellschaftliche Vorurteile reproduzieren“. Im Angesicht dieser Komplexität und sich rasant entwickelnder Technologien hinke die Regulierung derzeit weiter hinterher.
KI als wichtiges Werkzeug für adaptive Regulierung
In Hinblick auf Adaptivität könnte KI selbst ein wichtiges Werkzeug sein, sagt Backofen: „Bei einem sehr schnell agierenden System wie den Chatbots braucht es regulierende KI, die direkt auf Veränderungen reagieren kann.“ Die Geschwindigkeit bei der Bewertung neuer Technologien könne außerdem, so Müller, durch „interne Kohärenz“ erhöht werden, also dadurch, „dass wir nicht für jede neue Technologie von vorne anfangen müssen“. Denn KI ist zwar seit dem Markteintritt des Chatbots ChatGPT im öffentlichen Diskurs sehr präsent, aber nur eine der Emerging Technologies neben weiteren wie grüner Gentechnik und Gentherapie.
Risiken einhegen ohne Innovationen zu behindern
Bei der Regulierung geht es dabei nicht um die Verhinderung von Innovation. Vielmehr, so Backofen, „brauchen wir adaptive Regulierungen, damit wir die Vorteile der Technologien gut nutzen können.“ Hilfreich sei Regulierung laut Vöneky nämlich dann, wenn sie „einerseits schnell Risiken einhegt und andererseits das Innovationspotenzial nicht behindert“. Für eine solche verhältnismäßige Regulierung sei ein interdisziplinärer Ansatz entscheidend: „Wir können nicht sinnvoll über Normen und Gesetze diskutieren, wenn wir die Technologien nicht verstehen.“
Verantwortung universitärer Forschung für gesellschaftliche Debatten
In dieser interdisziplinären Zusammenarbeit liege eine Stärke der Universität Freiburg, so Vöneky. Außerdem könne ein „neutralerer Blick nur durch Forscher*innen gelingen, die kein unmittelbares Interesse daran haben, ein Produkt zu verkaufen. Es ist unsere Aufgabe, ein Bewusstsein für Chancen und Risiken zu schaffen, damit die gesellschaftlichen Debatten auf Grundlage fundierter Informationen geführt werden können.“ Gleichzeitig gebe es ein „Spannungsfeld zwischen den Erwartungen aus juristisch-ethischer Perspektive an Normen und Werte auf der einen Seite und der öffentlichen Wahrnehmung auf der anderen, und diese können durchaus unterschiedlich ausfallen“, ergänzt Müller. Auf welche gesellschaftliche Resonanz das EU KI Gesetz treffen wird, bleibt abzuwarten – er wird aber zu einem Zeitpunkt in Kraft treten, zu dem sich in Silja Vönekys Wahrnehmung die Bevölkerung „stärker dessen bewusst wird, dass KI nicht nur eine nette App auf dem Smartphone ist, sondern auch größere disruptive Gefahren mit sich bringt“.
Kommentar des Bitkom zum AI Act
Bitkom-Hauptgeschäftsführer Dr. Bernhard Rohleder: „Die Einigung zum AI Act ist ein politischer Schaufenster-Erfolg zu Lasten von Wirtschaft und Gesellschaft. Der gestern Nacht erzielte Kompromiss schießt insbesondere bei der Regulierung generativer KI über das Ziel hinaus und greift tief in die Technologie ein. Die EU bindet damit den Unternehmen einen regulatorischen Klotz ans Bein. Das Risiko ist groß, dass europäische Unternehmen durch nicht praxistaugliche Vorhaben der rasanten technologischen Entwicklung künftig nicht folgen können. So wurde unnötigerweise vom bislang angestrebten anwendungsbezogenen und risikobasierten Ansatz abgewichen. Die sogenannten General Purpose AI Models werden als Technologie an sich reguliert, unabhängig von der konkreten Anwendung. Zwar soll dabei das bewährte und grundsätzlich begrüßenswerte Instrument der verpflichtenden Selbstregulierung durch sogenannte Codes of Practice genutzt werden. Allerdings sind diese nur für einen geringen Teil der gesamten Anforderungen vorgesehen, der größte Teil wird starr im Gesetz selbst fixiert. So besteht die Gefahr, dass dieses besonders wichtige KI-Feld durch Vorgaben eingeschränkt wird, die sich nicht an neue technologische Entwicklungen anpassen lassen. Wie schwierig solche notwendigen Änderungen werden dürften, haben bereits die Verhandlungen zum AI Act selbst gezeigt.
Bei diesem zentralen und hoch umstrittenen Thema wurde nun zwar auf dem Papier ein grundsätzlicher Kompromiss gefunden. Die große Herausforderung wird sein, die nächtliche Einigung als nächstes in praxistaugliche Regeln zu überführen, die eine Grundlage für den verantwortungsvollen Umgang mit KI schafft. Die Gefahr, dass wir Anwendung und Entwicklung von KI aus Europa verhindern, statt zu ermöglichen, besteht nach wie vor.
Die Erfahrungen mit der Datenschutz-Grundverordnung zeigen zudem, dass es nicht ausreicht, richtige Ziele auf Papier festzuhalten. Die Herausforderung ist, in der Praxis eine echte Balance zwischen Risikomanagement und Förderung von Innovation herzustellen. Europa hat die Chance, eine Vorreiterrolle bei der ethischen und verantwortungsvollen Entwicklung von KI einzunehmen. Aber dies erfordert auch eine unbürokratische und gut strukturierte Umsetzung des Rechtsakts. Dazu muss schon jetzt ein zielgerichteter Dialog zwischen allen Beteiligten begonnen werden. Unternehmen brauchen zügig Rechtssicherheit und praxisnahe Unterstützung bei der Umsetzung des AI Act.“