Kurzbeschreibung
Dieser Leitfaden zum AI Act erl盲utert die EU-Verordnung zur Regulierung von k眉nstlicher Intelligenz. Der AI Act soll die Sicherheit und den Schutz der Grundrechte bei der Nutzung von KI-Systemen gew盲hrleisten und klassifiziert diese nach ihrem Risiko. Er betrifft Anbieter, Nutzer sowie Importeure und H盲ndler von KI-Systemen. Der Leitfaden bietet eine Checkliste zur Einhaltung der Verordnung.
Einhaltung des AI Act: Ein Leitfaden f眉r Unternehmen
Was ist der AI Act?
Der Artificial Intelligence Act (AI Act) ist eine EU-Verordnung, die darauf abzielt, harmonisierte Vorschriften f眉r den Einsatz von K眉nstlicher Intelligenz (KI) in der Europ盲ischen Union zu schaffen. Der AI Act wurde am 12.7.2024 im Amtsblatt der EU ver枚ffentlicht und tritt am 1.8.2024 in Kraft. Die meisten Regeln sind nach 2 Jahren anwendbar, einige schon fr眉her.
Was ist das Ziel des AI Act?
Das Hauptziel des AI Act ist es, ein hohes Ma脽 an Sicherheit und Schutz der Grundrechte bei der Nutzung von KI-Systemen zu gew盲hrleisten. Dies soll erreicht werden durch:
- Risikobasierter Ansatz: KI-Systeme werden nach ihrem Risiko f眉r die Grundrechte, Sicherheit und Gesundheit nat眉rlicher Personen kategorisiert.
- Transparenz und 脺berwachung: Sicherstellung der Transparenz und Nachvollziehbarkeit von KI-Systemen.
- Innovationsf枚rderung: F枚rderung der Entwicklung und Nutzung von KI durch klare und einheitliche Regeln.
Welche Unternehmen betrifft der AI Act?
Der AI Act betrifft eine Vielzahl von Akteuren, darunter:
- Anbieter: Juristische Personen, Beh枚rden, Einrichtungen oder sonstige Stellen, die KI-Systeme entwickeln oder entwickeln lassen, um sie in der EU in Verkehr zu bringen oder in Betrieb zu nehmen.
- Nutzer:innen: Nat眉rliche oder juristische Personen, die KI-Systeme innerhalb der EU verwenden.
- Importierende (Unternehmen) und H盲ndler: Subjekte, die KI-Systeme in die EU einf眉hren oder auf dem EU-Markt bereitstellen.
Die Verordnung gilt auch f眉r Unternehmen au脽erhalb der EU, wenn ihre KI-Systeme auf den EU-Markt ausgerichtet sind.
Risikoklassen von KI-Anwendungen
Der AI Act klassifiziert KI-Systeme basierend auf ihrem Risiko f眉r die Sicherheit, Gesundheit und Grundrechte von Personen. Die Risikoklassen sind:
Unannehmbare Risiken
- Beschreibung: KI-Systeme, die ein unannehmbares Risiko darstellen, sind verboten.
- Beispiele: Systeme, die soziale Bewertung durch Beh枚rden erm枚glichen, oder Systeme, die Menschen manipulieren oder ausnutzen.
Hochrisiko-KI-Systeme
- Beschreibung: Diese Systeme haben ein hohes Risiko und unterliegen strengen Anforderungen.
- Beispiele: KI-Systeme in kritischen Infrastrukturen, Bildung, Besch盲ftigung, Strafverfolgung, Migration, Asyl und Grenzkontrolle, Verwaltung von Justiz und demokratischen Prozessen.
Anforderungen:
- Risikomanagementsysteme
- Hohe Qualit盲t der Datens盲tze
- Transparenz und Dokumentation
- Menschliche Aufsicht
- Robustheit, Genauigkeit und Cybersicherheit
Begrenzte Risiken
- Beschreibung: Systeme mit begrenztem Risiko m眉ssen Transparenzanforderungen erf眉llen.
- Beispiele: Chatbots, die als solche identifiziert werden m眉ssen.
Anforderungen:
- Transparenzpflichten (z.B. Benutzer:innen m眉ssen informiert werden, dass sie mit einem KI-System interagieren)
Minimale oder keine Risiken
- Beschreibung: Systeme mit minimalem Risiko unterliegen keinen spezifischen Anforderungen:
- Beispiele: KI-gest眉tzte Videospiele oder Spamfilter.
Checkliste zur Einhaltung des AI Act
Kategorisierung und Risikobewertung
Technische und organisatorische Ma脽nahmen
Compliance und rechtliche Anforderungen
Regelm盲脽ige Audits
- Frage: F眉hren Sie regelm盲脽ige Audits zur 脺ber...