Der AI Act

AI-Tasks.de - deine Info-Quelle für KI/AI-News

Einführung in die neue Ära der KI-Gesetzgebung

Die kürzlich erfolgte Verabschiedung des AI Act markiert einen Wendepunkt in der Regulierung künstlicher Intelligenz (KI). Dieses Gesetz bildet eine umfassende Grundlage für den Umgang mit KI-Technologien, besonders im Hinblick auf ethische und gesellschaftliche Implikationen. Wir tauchen ein in die Details dieses Gesetzes und erörtern, was es für die Zukunft der KI bedeutet.

Risikobasierte KI-Klassifizierung: Ein Überblick

Der AI Act führt ein gestaffeltes System ein, das KI-Systeme nach ihrem potenziellen Risiko klassifiziert. Diese Klassifizierung zielt darauf ab, die Nutzung von KI in kritischen Bereichen verantwortungsvoll zu gestalten und Risiken zu minimieren.

Inakzeptables Risiko (Verbotene KI)

KI-Systeme, die als eindeutige Bedrohung für die Sicherheit und Rechte von Menschen angesehen werden, werden verboten. Dies schließt Systeme ein, die zur sozialen Bewertung durch Regierungen oder zur Förderung gefährlichen Verhaltens durch Spielzeug verwendet werden.

Hochrisiko-KI-Systeme

Hochrisiko-KI-Systeme werden weiter in zwei Hauptkategorien unterteilt:

  1. KI-Systeme als Produkte oder Sicherheitskomponenten: Diese Kategorie bezieht sich auf KI-Systeme, die entweder selbst Produkte sind oder als wichtige Sicherheitskomponenten in Produkten integriert sind. Beispiele hierfür sind KI-gesteuerte Spielzeuge, Fahrzeuge, medizinische Geräte und Aufzugssysteme.
  2. KI-Systeme in spezifizierten risikoreichen Bereichen: Diese umfassen KI-Anwendungen in Bereichen, die ein signifikantes Risiko für Gesundheit, Sicherheit oder Grundrechte darstellen, wie beispielsweise in der Verkehrs- oder Energiebranche, bei biometrischer Identifizierung und in der Strafverfolgung.

Begrenztes Risiko

KI-Systeme mit begrenztem Risiko, wie Chatbots, erfordern spezifische Transparenzverpflichtungen, um Nutzern bewusst zu machen, dass sie mit einer Maschine interagieren.

Minimales oder kein Risiko

Der Vorschlag ermöglicht die kostenlose Nutzung von KI mit minimalem Risiko, wie bei KI-fähigen Videospiele oder Spamfiltern. Die Mehrheit der derzeit in der EU eingesetzten KI-Systeme fällt in diese Kategorie.

Verbotene KI-Anwendungen

Der AI Act listet spezifische KI-Anwendungen auf, die nun verboten sind, einschließlich:

  • Biometrische Kategorisierungssysteme, die zur Diskriminierung eingesetzt werden könnten.
  • KI-Systeme, die Gesichtsbilder aus sozialen Medien oder Überwachungskameras für umfangreiche Überwachungsdatenbanken sammeln.
  • Emotionserkennungstechnologien zur Überwachung der Mitarbeiterstimmung.
  • Sozialbewertungssysteme, die das soziale Verhalten von Bürgern bewerten.
  • KI-Systeme zur Beeinflussung von Kaufentscheidungen oder Wahlverhalten.

Anforderungen an Hochrisiko-KI-Systeme

Hochrisiko-KI-Systeme müssen vor Markteinführung strengen Verpflichtungen nachkommen, darunter:

  • Angemessene Risikobewertungs- und Minderungssysteme.
  • Hohe Qualität der Datensätze, um Risiken und diskriminierende Ergebnisse zu minimieren.
  • Protokollierung der Aktivitäten zur Rückverfolgbarkeit.
  • Ausführliche Unterlagen über das System und seinen Zweck.
  • Klare und angemessene Informationen für den Nutzer.
  • Angemessene menschliche Aufsichtsmaßnahmen.
  • Hohe Robustheit, Sicherheit und Genauigkeit.

Alle biometrischen Fernidentifizierungssysteme gelten als hohes Risiko und unterliegen strengen Anforderungen. Ihre Verwendung in öffentlich zugänglichen Räumen für Strafverfolgungszwecke ist grundsätzlich verboten, mit eng definierten Ausnahmen.

Regulierung von Grundlagenmodellen

Eine Schlüsselkomponente des Gesetzes ist die Regulierung von sogenannten Grundlagenmodellen. Die im AI Act genannte Schwelle von 10^25 FLOPs stellt eine sehr hohe Hürde dar, die nur die allergrößten und rechenintensivsten Modelle umfasst. Zum Vergleich: GPT-3 benötigte etwa 3,14^23 FLOPs für sein Training, was deutlich unter dieser Schwelle liegt. Dies bedeutet, dass diese Regelung darauf abzielt, nur solche Modelle zu regulieren, die aufgrund ihrer Größe und Komplexität potenziell signifikante Auswirkungen auf die Gesellschaft haben könnten.

Transparenzanforderungen und Vorurteilsmanagement

Bei Hochrisiko-KI-Systemen müssen Entwickler ihre Ansätze zur Vorurteilsbewältigung und Nicht-Diskriminierung transparent machen. Dies beinhaltet das Training der Modelle mit diversen und repräsentativen Datensätzen, um systematische Verzerrungen zu vermeiden, sowie die Implementierung von Algorithmen, die aktiv Diskriminierung erkennen und verhindern.

Dokumentationspflicht und menschliche Aufsicht

Anbieter von Hochrisiko-KI-Systemen müssen umfangreiche Dokumentationen führen. Diese Vorschrift zielt darauf ab, Risiken wie unvorhergesehene Entscheidungen durch die KI, Fehlinterpretationen von Daten oder unbeabsichtigte Diskriminierungen zu minimieren. Menschliche Aufsicht soll sicherstellen, dass KI-Entscheidungen nachvollziehbar und im Einklang mit ethischen Standards sind.

Sanktionen und finanzielle Risiken

Bei Nichteinhaltung drohen erhebliche Geldstrafen, die bis zu 7% des weltweiten Umsatzes eines Unternehmens ausmachen können. Diese Sanktionen unterstreichen die Bedeutung der Einhaltung der neuen Vorschriften.

Kennzeichnungspflicht von KI-Inhalten

In dem EU Gesetz finden sich spezifische Regeln zur Kennzeichnung und Transparenz bei der Verwendung bestimmter KI-Systeme. Diese Regelungen sind im Titel IV der Gesetzgebung (Transparenzpflichten für bestimmte KI-Systeme) verankert und beziehen sich auf spezifische Manipulationsrisiken bestimmter KI-Systeme.

Die wichtigsten Punkte sind:

  1. Situationen, in denen Nutzer informiert werden müssen:
    • Wenn Nutzer mit KI-Systemen interagieren.
    • Bei der Verwendung von KI-Systemen zur Erkennung von Emotionen oder zur Zuordnung von gesellschaftlichen Kategorien anhand biometrischer Daten.
    • Wenn KI-Systeme verwendet werden, um Bild-, Audio- oder Videoinhalte zu erzeugen oder zu manipulieren, insbesondere im Falle von „Deepfakes“ – also Inhalten, die so manipuliert wurden, dass sie von authentischen Inhalten kaum zu unterscheiden sind.
  2. Art der Informationspflicht:
    • Personen müssen darüber informiert werden, dass sie mit KI-Systemen interagieren oder dass ihre Emotionen oder Merkmale durch automatisierte Mittel erkannt werden.

Diese Vorschriften sollen Transparenz erhöhen und Nutzer darüber aufklären, dass sie mit KI-Systemen interagieren oder von solchen analysiert werden. Ziel ist es, ein Bewusstsein für den Einsatz und die potenziellen Risiken von KI-Technologien zu schaffen und sicherzustellen, dass Nutzer angemessen informiert werden, wenn sie mit solchen Technologien interagieren oder von diesen analysiert werden.

Der hierfür wirksame Artikel lautet wie folgt:

Artikel 52

Transparenzpflichten für bestimmte KI-Systeme

(1) Die Anbieter stellen sicher, dass KI-Systeme, die für die Interaktion mit natürlichen Personen bestimmt sind, so konzipiert und entwickelt werden, dass natürlichen Personen mitgeteilt wird, dass sie es mit einem KI-System zu tun haben, es sei denn, dies ist aufgrund der Umstände und des Kontexts der Nutzung offensichtlich. Diese Vorgabe gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassene KI-Systeme, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.


(2) Die Verwender eines Emotionserkennungssystems oder eines Systems zur biometrischen Kategorisierung informieren die davon betroffenen natürlichen Personen über den Betrieb des Systems. Diese Vorgabe gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassene KI-Systeme, die zur biometrischen Kategorisierung verwendet werden.


(3) Nutzer eines KI-Systems, das Bild-, Ton- oder Videoinhalte erzeugt oder manipuliert, die wirklichen Personen, Gegenständen, Orten oder anderen Einrichtungen oder Ereignissen merklich ähneln und einer Person fälschlicherweise als echt oder wahrhaftig erscheinen würden („Deepfake“), müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.

Unterabsatz 1 gilt jedoch nicht, wenn die Verwendung zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten gesetzlich zugelassen oder für die Ausübung der durch die Charta der Grundrechte der Europäischen Union garantierten Rechte auf freie Meinungsäußerung und auf Freiheit der Kunst und Wissenschaft erforderlich ist und geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen.

(4) Die Absätze 1, 2 und 3 lassen die in Titel III dieser Verordnung festgelegten Anforderungen und Pflichten unberührt.

VERORDNUNG DES EUROPÄISCHEN PARLAMENTS UND DES RATES
ZUR FESTLEGUNG HARMONISIERTER VORSCHRIFTEN FÜR KÜNSTLICHE
INTELLIGENZ (GESETZ ÜBER KÜNSTLICHE INTELLIGENZ) UND ZUR
ÄNDERUNG BESTIMMTER RECHTSAKTE DER UNION, Finale Fassung, Deutsche Version, S. 78

Auswirkungen auf Unternehmen und die KI-Industrie

Unternehmen, die in nunmehr verbotene Technologien investiert haben, stehen vor der Herausforderung, ihre Strategien anzupassen. Zudem könnten erhöhte Transparenzanforderungen den Schutz geistigen Eigentums beeinflussen. Investitionen in qualitativ hochwertigere Daten und fortgeschrittene Bias-Management-Werkzeuge könnten zwar die Betriebskosten erhöhen, aber auch zu faireren und qualitativ hochwertigeren KI-Systemen führen.

Fazit: Ein Schritt in Richtung verantwortungsbewusster KI

Der AI Act ist ein bedeutender Schritt hin zu einer verantwortungsbewussteren Nutzung von KI. Er bietet einen rechtlichen Rahmen, der sowohl Schutz vor Risiken als auch Förderung innovativer Technologien ermöglicht. Für die KI-Industrie bedeutet dies eine Anpassungsphase, aber auch eine Chance, KI-Technologien ethisch und gesellschaftlich verantwortungsvoll weiterzuentwickeln.

Weiterführende Informationen:

Vorschlag für einen Rechtsrahmen für künstliche Intelligenz – https://digital-strategy.ec.europa.eu/de/policies/regulatory-framework-ai

Schulungen und Weiterbildungen im Bereich AI-Act & AI Safety – https://www.iks.fraunhofer.de/de/leistungen/ki-gesetz-hochrisiko-systeme.html

Das 2021 eingebrachte, und jetzt final beschlossene, Gesetz kann hier eingesehen werden – https://artificialintelligenceact.eu/de/das-gesetz/ (Backup PDF EU AI ACT / )

Das Politikerbriefing kann hier gefunden werden – https://www.europarl.europa.eu/RegData/etudes/BRIE/2021/698792/EPRS_BRI(2021)698792_EN.pdf

Die deutsche Version des EU AI Acts kann hier gefunden werden – https://eur-lex.europa.eu/resource.html?uri=cellar:e0649735-a372-11eb-9585-01aa75ed71a1.0019.02/DOC_1&format=PDF

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert