So arbeiten wir - mit effizienten QA Prozessen zur digitalen Exzellenz Hier gehts zum Beitrag
Read time: ca. 6 min
Titelbild_KI_Gesetz

Der AI Act: So wird die EU die Zukunft von Künstlicher Intelligenz sicher und transparent gestalten

geschrieben von Janina

 

Seit dem 01. August 2024 ist der neue AI Act in Kraft getreten.
Mit dem neuen Gesetz hat die EU einen bedeutenden Meilenstein im Bereich der Regulierung von Künstlicher Intelligenz (KI) erreicht. Ziel ist es, ein Gleichgewicht zwischen der Förderung von Innovationen und dem Schutz der Bürgerrechte zu finden. Der AI Act ist eine Antwort auf die schnelle Entwicklung und die potenziellen Risiken und ethischen Herausforderungen, die mit dem Einsatz von KI-Technologien verbunden sind. In diesem Blogartikel beleuchten wir die wichtigsten Aspekte des AI Act sowie die Auswirkungen desGesetzes auf Unternehmen, Software Entwickler*innen und User von KI.

Was ist der AI Act?

Der AI Act ist ein umfassendes Gesetzespaket, das darauf abzielt, einen Rahmen für die Entwicklung, Vermarktung und Nutzung von KI in der EU zu schaffen. Das Gesetz reguliert alle KI-Modelle und -Systeme. Es soll regulieren, dass KI-Systeme sicher und transparent sind und die Grundrechte der Bürger*innen beachten. Der AI Act kategorisiert KI-Anwendungen nach ihrem Risiko und legt für jede Kategorie spezifische Anforderungen und Vorschriften fest.

 

Die Kategorisierung von KI-Systemen

Der AI Act teilt KI-Systeme in vier Hauptkategorien auf:

  1. Verbotene KI-Anwendungen:
    KI-Anwendungen, die als inakzeptabel riskant eingestuft werden, sind verboten. Ein halbes Jahr nach Inkrafttreten des Gesetzes, werden die ersten Anwendungen mit unannehmbaren Risko verboten. Dazu gehören Systeme, die Menschen manipulieren oder deren Verhalten unethisch beeinflussen, wie z.B. Social Scoring durch Regierungen.

  

  1. Hohes Risiko:
    Diese Kategorie umfasst KI-Systeme, die in sensiblen Bereichen wie Gesundheit, Bildung, Arbeitsmarkt oder Strafverfolgung eingesetzt werden. Hierunter fallen Anwendungen, die sich negativ auf die Sicherheit der Menschen und die Grundrechte auswirken. Solche Systeme müssen strengen Anforderungen an Transparenz, Sicherheit und Fairness genügen. Beispielsweise müssen Entwickler*innen sicherstellen, dass ihre Systeme auf robusten und validierten Daten basieren. Die Regulierung greift hier erst ab August 2026.

 

  1. GPAI:
    Die großen Sprachmodelle gehören zu General Purpose AI oder KI-Modelle mit allgemeinem Verwendungszweck. Solche Anwendungen können sogenannte systemische Risiken bergen. Die EU-Kommission erwähnt, dass solche leistungsstarken Anwendungen auch für weitreichende Cyberangriffe missbraucht werden können.

  

  1. Minimales Risiko:
    Diese Kategorie umfasst Anwendungen mit minimalem Risiko, die keine spezifischen Anforderungen erfüllen müssen, wie z.B. KI-gestützte Videospiele oder Spam-Filter.


Hauptanforderungen des AI Act

Der AI Act stellt verschiedene Anforderungen an die Entwicklung und den Einsatz von KI-Systemen, insbesondere in der Kategorie der Hochrisiko-Anwendungen.

Transparenz: User müssen darüber informiert werden, dass sie mit einem KI-System interagieren und über dessen Fähigkeiten und Einschränkungen aufgeklärt werden.

Sicherheits- und Genauigkeitsprüfung: Hochrisiko-KI-Systeme müssen umfassenden Tests und Zertifizierungen unterzogen werden, um ihre Sicherheit und Genauigkeit zu gewährleisten.

Daten-Governance: Software Developer müssen sicherstellen, dass die Daten, die zur Entwicklung von KI-Systemen verwendet werden, von hoher Qualität und repräsentativ sind. Diskriminierung und Verzerrungen müssen minimiert werden.

Überwachung und Kontrolle: Betreiber*innen von KI-Systemen müssen Mechanismen zur Überwachung und Kontrolle einführen, um Missbrauch und Fehlfunktionen zu verhindern.

 

Wie werden die Vorschriften umgesetzt?

In jedem EU-Mitgliedstaat muss eine nationale Behörde gestellt werden. Jeder Staat ernennt eine*n Vertreter*in dieser Behörde für den Europäischen Ausschuss für KI . In Deutschland könnten das die Landesschutzbehörde oder auch die Bundesnetzagentur sein. Es wird ein Beratungsforum geben und ein europäisches KI-Büro, die für die Überwachung der GPAI-Modelle zuständig sind. Ein wissenschaftliches Gremium wird das Büro unterstützen und auch das KI-Amt soll Fachwissen beisteuern.

Auswirkungen auf Unternehmen und Software Entwicklung

Der AI Act bringt auch einige Veränderungen für Unternehmen und Entwickler*innen mit sich, die KI-Technologien in der EU anbieten möchten. Insbesondere für Anbieter*innen von Hochrisiko-KI-Systemen bedeutet das neue Gesetz eine erhöhte Verantwortung und zusätzliche Compliance-Kosten. Unternehmen müssen möglicherweise ihre Entwicklungsprozesse überdenken und investieren, um den neuen Anforderungen gerecht zu werden. Dies könnte jedoch auch zu einem Wettbewerbsvorteil führen, da zertifizierte Sicherheit und Transparenz das Vertrauen der Nutzer *innen stärken können.

 

Vorteile für Verbraucher*innen

Für Verbraucher*innen bringt der AI Act zahlreiche Vorteile mit sich. Durch die strengen Anforderungen an Transparenz und Sicherheit sollen die Risiken von KI-Anwendungen minimiert und das Vertrauen der Bürger*innen in diese Technologien gestärkt werden. Die Maßnahmen zur Daten-Governance und Anti-Diskriminierung sollen dazu beitragen, faire und gerechte KI-Systeme zu fördern, die die Rechte aller Bürger*innen respektieren.

 

Fazit

Der AI Act markiert einen wichtigen Schritt in der Regulierung von Künstlicher Intelligenz und zeigt, dass die EU entschlossen ist, ein sicheres und transparentes KI-Zeitalter zu gestalten. Während Unternehmen und Entwickler*innen sich neuen Herausforderungen stellen müssen, bietet das Gesetz auch die Chance, durch höhere Standards und mehr Vertrauen in KI-Systeme einen positiven Einfluss auf die Gesellschaft auszuüben. Wie sich der AI Act in der Praxis bewährt und welche Anpassungen in Zukunft möglicherweise erforderlich sein werden, um den schnellen technologischen Fortschritten gerecht zu werden, wird die Zukunft zeigen.