“AI Act” mit klarem Signal – KI muss sicher sein
Der TÜV-Verband begrüßt die Einigung bei Trilog-Verhandlungen: Europa soll als führendes Ökosystem für sichere und vertrauenswürdige KI bleiben. Denn der risikobasierter Ansatz im “AI Act” erhöht die Sicherheit und schützt Innovationen.
Der TÜV-Verband hat die Einigung der EU-Mitgliedsstaaten auf eine europäische KI-Verordnung begrüßt. “Europa sendet mit dem AI Act ein klares Signal in die Welt: Künstliche Intelligenz muss sicher sein. Die Technologie darf Menschen nicht gefährden oder benachteiligen”, sagte Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands.
“Die in der KI-Verordnung verankerte risikobasierte Regulierung ist ein pragmatischer Ansatz für eine komplexe Technologie.” Künftig müssen KI-Anwendungen je nach Risiko, das von ihnen ausgeht, unterschiedlich hohe Anforderungen erfüllen. Ausdrücklich positiv bewertet der TÜV-Verband, dass auch besonders leistungsstarke KI-Basismodelle nicht von der Regulierung ausgenommen sind. Dazu gehört auch sogenannte “Allzweck KI” (General Purpose AI) wie ChatGPT (GPT-4). “Leistungsstarke Allzweck-KI-Systeme müssen in Zukunft grundlegende Sicherheits- und Transparenzanforderungen erfüllen”, sagte Bühler. Das schaffe Vertrauen für die Nutzenden und erhöhe die Rechtssicherheit für professionelle Anwender, die auf Basis solcher General Purpose AI eigene innovative KI-Anwendungen entwickeln. Bühler: “Die Europäische Union ist mit der Einigung auf den AI Act der erste Wirtschaftsraum der Welt, der ein Ökosystem für sichere und vertrauenswürdige KI schafft.”
“AI Act”: Bekenntnis zum risikobasierten Ansatz
Der jetzt verabschiedete AI Act sieht vor, KI-Anwendungen in vier Risikoklassen einzuteilen. Je nach Gefährdung müssen die Anbieter unterschiedliche Vorgaben erfüllen. “Die große Mehrheit der KI-Anwendungen wird als ‘low risk’ eingestuft, für die keinerlei Anforderungen gelten”, betonte Bühler. KI-Systeme mit einem nicht akzeptablen Risiko (“Unacceptable Risk”) wie Social Scoring Systeme werden dagegen komplett verboten. KI-Systeme mit einem “begrenzten Risiko” (“Limited Risk”) wie einfache Chatbots müssen bestimmte Transparenz- und Kennzeichnungspflichten erfüllen. Für KI-Anwendungen mit einem “hohem Risiko” (“High Risk”), zum Beispiel in kritischen Infrastrukturen, Bewertungssysteme im Personalwesen oder für die Beurteilung der Kreditwürdigkeit, gelten strengere Sicherheitsanforderungen. Dazu zählen die Anforderungen in Bezug auf Nachvollziehbarkeit, Risikomanagement oder Cybersecurity.
Aus Sicht des TÜV-Verbands muss die Umsetzung des AI Acts auf nationaler und europäischer Ebene ab jetzt intensiv vorbereitet werden. “Für die Risikoeinstufung von KI-Anwendungen und die entsprechenden Sicherheitsprüfungen müssen Prüf- und Testverfahren entwickelt werden”, sagte Bühler. Grundlage dafür sind Normen, Standards und allgemeingültige Qualitätskriterien. Die TÜV-Unternehmen arbeiten zu diesem Zweck mit ihrem “TÜV AI.Lab” bereits mit Forschungseinrichtungen, Verbänden und Normungsinstituten zusammen. Notwendig sei auch eine Beratungsoffensive für die Wirtschaft. Bühler: “Vor allem Startups und der Mittelstand benötigen Unterstützung bei der Umsetzung der Vorgaben.” Zudem brauche es eine gezielte Förderung von KI-Weiterbildungen, um die Entwicklung sicherer und vertrauenswürdiger KI-Systeme und deren Einsatz in der betrieblichen Praxis zu ermöglichen.