Ganz wichtig vorab: Dieser Beitrag wurde nicht mit KI erstellt. Ehrlich. Dass die Versuchung groß war, einfach mal schnell zu ChatGPT, Gemini, Neuroflash oder einem der anderen aus den Boden schießenden KI-Angebote zu wechseln, um sich ein bisschen Unterstützung zu holen, wird an dieser Stelle aber nicht bestritten. KI hat Einzug gehalten in unser aller Leben. Das müssen wir akzeptieren, darauf müssen wir uns einstellen und dafür muss es Regelungen geben. An letztere hat sich die EU gewagt – vermutlich ohne dabei selbst KI zu verwenden. Vermutlich.
Der AI Act ist da – teilweise
Am 1. August 2024 ist in der EU und somit auch in Deutschland der so genannte AI Act in Kraft getreten. Einfach war der Weg dieser KI-Verordnung nicht. Bereits im April 2021 wurde der erste Vorschlag vorgelegt, mehr als ein Jahr vor der Veröffentlichung von ChatGPT und dem dadurch ausgelösten Boom. Eine der Nationen, die sich gegen zu strenge Regelungen gewehrt hat, war Deutschland, aus Sorge um Wettbewerbsnachteile. Nun ist er zwar da, der AI Act, aber die Einführung erfolgt schrittweise. Die meisten Regeln sind erst nach zwei Jahren anwendbar, Verbote schon ab dem 2. Februar 2025.
Was beinhaltet der AI Act?
Die Zielsetzung des AI Acts besteht darin, dass KI-Anwendungen nicht missbraucht werden und der Schutz der Grundrechte gewahrt bleibt. Gleichzeitig sollen Wissenschaft und Wirtschaft Freiraum für Innovationen erhalten. Dazu verfolgt der AI Act einen risikobasierten Ansatz: Je höher das Risiko bei der Anwendung eingeschätzt wird, desto strenger fallen die Vorgaben aus.
Es gibt insgesamt vier Risikoklassen:
- Inakzeptables Risiko: All jene KI-Anwendungen, die als Bedrohung für die Sicherheit, Lebensgrundlage oder Rechte der Menschen betrachtet werden, wie zum Beispiel Social-Scoring, sind verboten.
- Hohes Risiko: KI-Systeme, die wesentliche Entscheidungen beeinflussen, wie in den Bereichen Gesundheitsversorgung, Strafverfolgung oder kritische Infrastrukturen, unterliegen strengen Auflagen. Sie müssen umfangreiche Prüfungen, Transparenzanforderungen und Überwachungsmaßnahmen durchlaufen.
- Begrenztes Risiko: KI-Anwendungen, die ein gewisses Risiko bergen, aber keine weitreichenden Konsequenzen haben, erfordern spezifische Transparenzpflichten. Dies betrifft etwa die Kennzeichnung von KI-generierten Medien.
- Minimales Risiko: KI-Systeme mit geringem oder keinem Risiko bleiben weitgehend unreguliert.
Wie geht es weiter mit dem AI Act?
KI entwickelt sich rasant. Quasi täglich kursieren neue Meldungen darüber, was KI schon kann oder bald können soll. Manches klingt faszinierend, einiges kurios, vieles durchaus beunruhigend. Der AI Act in seiner jetzigen Form kann, auch wenn der Weg bereits weit war, nur ein Zwischenschritt sein, zumal es mehr als genug Themen gibt, die fast vollständig ausgeklammert wurden, wie etwa das Urheberrecht. Daher ändert sich für die meisten Nutzerinnen und Nutzer von „Alltags-KI“ wie ChatGPT oder Gemini durch den AI Act erst einmal wenig bis gar nichts. Wer in der IT-Welt zu Hause ist, kann aber nicht umhin, mit noch schärferem Auge auf die weiteren Entwicklungen zu blicken.