#E-Commerce
#Software
#Marketing

EU AI Act: Ein umfassender Leitfaden

Der Europäische AI Act ist das weltweit erste umfassende Gesetz zur Regulierung von Künstlicher Intelligenz (KI).

Datum
10.02.2025
Lesedauer

Der AI Act zielt darauf ab, die Entwicklung und Nutzung von KI in der EU zu fördern und gleichzeitig sicherzustellen, dass KI-Systeme sicher, transparent und ethisch vertretbar sind. Dieser Artikel bietet einen detaillierten Überblick über den AI Act, seine wichtigsten Bestimmungen und seine Auswirkungen auf Unternehmen und Entwickler von KI-Systemen.

Wie bewertet der EU AI Act das Risiko von KI-Systemen und deren Anwendung? 

Der EU AI Act verwendet einen risikobasierten Ansatz zur Regulierung von KI-Systemen. Das bedeutet, dass die Anforderungen an KI-Systeme von ihrem potenziellen Risiko für die Grundrechte, die Sicherheit und das Wohlbefinden der Menschen abhängen.

Der AI Act unterscheidet vier Risikokategorien:

  • Inakzeptables Risiko: KI-Systeme, die ein inakzeptables Risiko darstellen, sind verboten. Dazu gehören beispielsweise Systeme, die Menschen manipulieren oder diskriminieren sollen, sowie Systeme zur sozialen Bewertung durch Regierungen.
  • Hohes Risiko: KI-Systeme, die ein hohes Risiko darstellen, unterliegen strengen Anforderungen. Beispiele hierfür sind KI-Systeme, die in kritischen Infrastrukturen (z.B. Energieversorgung, Verkehr), im Gesundheitswesen, im Bildungswesen, bei der Strafverfolgung oder im Asylwesen eingesetzt werden. Solche Systeme müssen eine Konformitätsbewertung durchlaufen, ein Risikomanagementsystem haben und die Datenqualität, die technische Dokumentation, die Transparenz, die menschliche Aufsicht, die Genauigkeit, die Robustheit und die Cybersicherheit gewährleisten.
  • Geringes Risiko: KI-Systeme mit geringem Risiko unterliegen Transparenzpflichten. Nutzer müssen darüber informiert werden, dass sie mit einem KI-System interagieren. Ein Beispiel hierfür sind Chatbots.
  • Minimales Risiko: KI-Systeme mit minimalem Risiko unterliegen keinen besonderen Anforderungen. Dazu gehören beispielsweise KI-gestützte Spamfilter.

Welche Anforderungen gelten für KI-Systeme mit hohem Risiko?

KI-Systeme, die als hochriskant eingestuft werden, unterliegen laut dem EU AI Act strengen Anforderungen. Diese Anforderungen sind umfangreich und zielen darauf ab, sicherzustellen, dass diese Systeme sicher, transparent und ethisch vertretbar sind. Hier sind die wichtigsten Anforderungen, die in den Quellen detailliert beschrieben werden:

  • Konformitätsbewertung: Bevor KI-Systeme mit hohem Risiko in Verkehr gebracht oder in Betrieb genommen werden dürfen, müssen sie eine Konformitätsbewertung durchlaufen, die von einer benannten Stelle durchgeführt wird. Diese Bewertung überprüft die Einhaltung der Anforderungen des AI Act. Die Informationen über diese Bewertung müssen leicht zugänglich sein, bevor das System auf den Markt gebracht wird.
  • Risikomanagement: Anbieter von KI-Systemen mit hohem Risiko müssen ein Risikomanagementsystem einrichten, das den gesamten Lebenszyklus des Systems umfasst. Dieses System muss sicherstellen, dass potenzielle Risiken frühzeitig erkannt und angemessene Maßnahmen ergriffen werden, um diese Risiken zu minimieren.
  • Datenqualität: Die für das Training, die Validierung und das Testen von KI-Systemen verwendeten Datensätze müssen den Qualitätskriterien des AI Act entsprechen. Sie müssen insbesondere korrekt, vollständig und repräsentativ sein. Artikel 10 des AI Act legt spezifische Kriterien für die Qualität der Trainings-, Validierungs- und Testdatensätze fest.
  • Technische Dokumentation: Anbieter müssen eine technische Dokumentation erstellen, die alle relevanten Informationen über das System enthält. Diese Dokumentation muss unter anderem die Funktionsweise des Systems, die verwendeten Daten und die Ergebnisse der Risikomanagementbewertung beschreiben.
  • Transparenzpflichten: KI-Systeme mit hohem Risiko müssen transparent sein. Nutzer müssen darüber informiert werden, wie das System funktioniert und welche Daten es verwendet. Darüber hinaus müssen Einzelpersonen darüber informiert werden, wenn sie mit KI-Systemen oder KI-generierten Inhalten interagieren.
  • Menschliche Aufsicht: KI-Systeme mit hohem Risiko müssen einer angemessenen menschlichen Aufsicht unterliegen. Dies bedeutet, dass Menschen in der Lage sein müssen, die Entscheidungen des Systems zu verstehen und zu kontrollieren. Dies kann durch die Implementierung von Mechanismen zur Überwachung, Validierung und gegebenenfalls Korrektur der Entscheidungen des KI-Systems erreicht werden.
  • Genauigkeit, Robustheit und Cybersicherheit: KI-Systeme mit hohem Risiko müssen genau, robust und cybersicher sein. Sie müssen zuverlässig funktionieren und vor Angriffen geschützt sein. Dies erfordert die Implementierung von Sicherheitsmaßnahmen, um die Integrität und Verfügbarkeit des Systems zu gewährleisten.
  • Registrierung: Anbieter von KI-Systemen mit hohem Risiko müssen ihre Systeme in einer EU-weiten Datenbank registrieren. Diese Datenbank soll es den Behörden ermöglichen, die Einhaltung des AI Act zu überwachen.
  • Ethische Implikationen: Der AI Act hat auch wichtige ethische Implikationen. Er soll sicherstellen, dass KI-Systeme die Grundrechte der Menschen achten und nicht zu Diskriminierung oder anderen Formen von Ungleichheit führen.

Es ist wichtig zu beachten, dass die Einhaltung dieser Anforderungen erhebliche Investitionen in die Entwicklung und Implementierung von Konformitätsmaßnahmen erfordern kann. Unternehmen, die KI-Systeme mit hohem Risiko entwickeln oder einsetzen, müssen sicherstellen, dass ihre Systeme den Anforderungen des AI Act entsprechen. Die Marktüberwachungsbehörden der Mitgliedstaaten sind für die Überwachung der Einhaltung des AI Act zuständig und können Maßnahmen ergreifen, wenn sie feststellen, dass ein KI-System nicht den Anforderungen entspricht.

Wer trägt die Hauptverantwortung für die Einhaltung des AI Act?

Die Hauptverantwortung für die Einhaltung des EU AI Act liegt bei den Anbietern von KI-Systemen. Laut dem AI Act gelten als Anbieter diejenigen, die ein KI-System entwickeln oder entwickeln lassen, um es unter eigenem Namen oder Warenzeichen in Verkehr zu bringen oder in Betrieb zu nehmen, unabhängig davon, ob dies entgeltlich oder unentgeltlich geschieht.

Die Verantwortlichkeiten der Anbieter sind umfassend und beinhalten unter anderem:

  • Sicherstellung, dass ihre KI-Systeme den Anforderungen des AI Act entsprechen, insbesondere wenn es sich um hochriskante Systeme handelt.
  • Einrichtung eines Risikomanagementsystems, das den gesamten Lebenszyklus des Systems umfasst.
  • Sicherstellung der Qualität der verwendeten Daten.
  • Erstellung einer technischen Dokumentation, die alle relevanten Informationen über das System enthält.
  • Einhaltung der Transparenzpflichten.
  • Sicherstellung einer angemessenen menschlichen Aufsicht.
  • Sicherstellung der Genauigkeit, Robustheit und Cybersicherheit des Systems.
  • Registrierung ihrer hochriskanten Systeme in einer EU-weiten Datenbank.


Es ist wichtig zu beachten, dass auch Importeure und Distributoren von KI-Systemen bestimmte Verantwortlichkeiten haben. Sie müssen sicherstellen, dass das Produkt oder die Software die erforderliche CE-Kennzeichnung trägt, die die Konformität mit dem AI Act und anderen geltenden EU-Rechtsvorschriften bestätigt. Wenn ein Importeur, Anwender oder Distributor sein eigenes Warenzeichen auf einem KI-System anbringt, es wesentlich verändert oder es für einen hochriskanten Zweck verwendet, der vom Anbieter nicht vorgesehen war, wird er selbst als Anbieter eingestuft und trägt die volle Verantwortung.

Die Anwender von KI-Systemen haben im Vergleich zu den Anbietern weniger Verpflichtungen, hauptsächlich in Bezug auf die ordnungsgemäße Verwendung und Überwachung der Systeme. Die Einhaltung der Vorgaben des AI Act wird von den Marktüberwachungsbehörden der Mitgliedstaaten überwacht, die bei Nichteinhaltung Maßnahmen ergreifen können.

Empfehlungen für Unternehmen und Entwickler:

  • Risikobewertung: Führen Sie eine Risikobewertung Ihrer KI-Systeme durch, um die jeweilige Risikokategorie zu bestimmen.
  • Konformitätsmaßnahmen: Implementieren Sie die notwendigen Konformitätsmaßnahmen, um die Anforderungen des AI Act für Ihre Risikokategorie zu erfüllen.
  • Schulungen: Schulen Sie Ihre Mitarbeiter in den Bestimmungen des AI Act und den ethischen Implikationen von KI.
  • Überwachung: Überwachen Sie die Entwicklungen im Bereich des AI Act und passen Sie Ihre Konformitätsmaßnahmen gegebenenfalls an.

Der AI Act ist ein wichtiger Schritt in Richtung einer verantwortungsvollen und ethischen KI, die den Menschen dient und nicht schadet. Er hat das Potenzial, die EU zu einem Vorreiter bei der Regulierung von KI zu machen und gleichzeitig Innovation und Wettbewerb zu fördern. Es bleibt abzuwarten, wie sich der AI Act in der Praxis auswirken wird und ob er seine Ziele erreicht. Kritiker bemängeln beispielsweise, dass der AI Act zu komplex und bürokratisch sei und die Innovation hemmen könnte. Andere befürchten, dass der AI Act nicht weit genug geht und einige wichtige ethische Fragen nicht ausreichend berücksichtigt. Die kommenden Jahre werden zeigen, wie sich der AI Act auf die Entwicklung und Nutzung von KI in der EU und weltweit auswirken wird.