Die EU‑KI‑Verordnung (AI Act) in der anwaltlichen Praxis
AoLs
Authors
1. Normativer Rahmen: Was der AI Act regelt – und wen er trifft
Die Verordnung verfolgt einen einheitlichen, unionsweiten Rechtsrahmen für den sicheren und grundrechtskonformen Einsatz von KI. Sachlicher Ausgangspunkt ist das „KI‑System“ – ein maschinengestütztes, bis zu einem gewissen Grad autonom arbeitendes System, das aus Eingaben Ausgaben (Prognosen, Inhalte, Empfehlungen, Entscheidungen) ableitet und so reale oder virtuelle Umwelten beeinflussen kann. Der Begriff orientiert sich an der OECD‑Terminologie und ist bewusst technologieoffen formuliert; ein nichttriviales Risiko ist, dass auch nichtlernende, aber automatisiert entscheidende Software erfasst wird. Hier beginnt bereits dogmatischer Diskussionsbedarf: Wie eng ist „Autonomie“ zu lesen, und wie grenzt man klassische Automatisierung von „KI“ ab? Die Antwort wird die Praxis durch Auslegung und harmonisierte Normen schärfen müssen.
Räumlich und personell gilt der AI Act extraterritorial: Er erfasst Anbieter und Betreiber (Deployers) innerhalb der EU, aber auch Akteure aus Drittländern, soweit der System‑Output die Union erreicht. Damit droht – ähnlich wie bei der DSGVO – ein „Brüssel‑Effekt“: Globale Anbieter werden ihre Produkte EU‑weit kompatibel auslegen, um Marktzugang zu sichern. Rollenbezüge sind entscheidend: Neben Anbietern und Betreibern enthält die Verordnung Pflichten für Einführer, Händler, Bevollmächtigte sowie Akteure in der Lieferkette. Für „betroffene Personen“ sieht die Verordnung eigenständige Rechte vor, darunter – subsidiär – ein Erklärungsrecht bei hochriskant gestützten Einzelentscheidungen (Art. 86).
2. Der risikobasierte Kern: Verbote, Hochrisiko, geringe Risiken – und GPAI
Der AI Act folgt einem Kaskadenmodell: (1) verbotene KI‑Praktiken (inakzeptables Risiko), (2) Hochrisiko‑Systememit strengen Ex‑ante‑Pflichten, (3) geringes Risiko mit spezifischen Transparenzgeboten und (4) Modelle mit allgemeinem Verwendungszweck (GPAI) als zusätzliche Regimeebene. Verboten sind u. a. manipulative Systeme, die Personen zu schädlichen Handlungen verleiten, bestimmte Formen des „Social Scoring“, KI‑basierte Straftatrisikobewertungen ohne Tatsachengrundlage sowie die massenhafte Erstellung von Gesichtserkennungsdatenbanken; biometrische Echtzeit‑Fernidentifizierung bleibt – innerhalb enger, justizieller Schranken – für Strafverfolgung zulässig. Diese Aufzählung markiert das verfassungsrechtliche „rote Band“ des Grundrechtsschutzes und wird Gerichten reichlich Prüfstoff liefern (Verhältnismäßigkeitsmaßstab, Bestimmtheit).
Hochrisiko‑Systeme entstehen entweder qua Produktrechts‑Anknüpfung (Annex‑I‑Rechtsakte, etwa Medizinprodukte) oder über die Tätigkeitsliste in Annex III (z. B. Zugang zu Bildung und Beschäftigung, Bonität, Strafverfolgung). Für Systeme, die zwar in diese Einsatzfelder fallen, aber kein signifikantes Risiko entfalten, sieht Art. 6 Abs. 3 eine eng gefasste „Ausnahmetür“ vor. Geringe Risiken unterliegen u. a. Transparenzpflichten bei Mensch‑Maschine‑Interaktionen sowie bei synthetischen Inhalten (Deepfakes): Wer mit einem Chatbot interagiert oder KI‑erzeugte Inhalte rezipiert, soll dies erkennen können.
Mit GPAI verankert die Verordnung erstmals Pflichten auf Modellebene – unabhängig davon, wofür das Modell später feinjustiert wird. Für Modelle mit „systemischem Risiko“ knüpft der Gesetzgeber an einen technischen Schwellenwert an: 10²⁵ FLOPs (Gleitkomma‑Operationen) begründen eine Vermutungswirkung für „high impact capabilities“; die Kommission kann das im Einzelfall feststellen. Damit will man die wenigen, besonders leistungsfähigen Basismodelle in ein engeres Aufsichtsregime führen, ohne Start‑ups und KMU denselben Aufwand aufzubürden – ein dogmatisch ungewöhnlicher, aber praktisch nachvollziehbarer Technik‑Trigger.
3. Pflichten im Überblick: von der Laborkante bis zum Einsatz
Für Hochrisiko‑Systeme verlangt der AI Act ein vollständiges Ex‑ante‑Compliance‑Programm: Risikomanagementüber den gesamten Lebenszyklus, Daten‑ und Datensatz‑Governance (Relevanz, Repräsentativität, Fehlerfreiheit „nach Möglichkeit“ – ein unbestimmter, aber justiziabler Maßstab), technische Dokumentation (Entscheidungslogik, Leistungskennzahlen, Trade‑offs), Ereignisprotokollierung, Transparenz für Betreiber (brauchbare Gebrauchsanweisung statt Papiertiger), menschliche Aufsicht (inkl. „Stopp‑Möglichkeit“), sowie Anforderungen an Genauigkeit, Robustheit und Cybersicherheit. Hinzu treten Konformitätsbewertung, CE‑Kennzeichnung, Post‑Market‑Monitoring und Meldepflichten bei schweren Vorfällen. Erklärungs‑ und Transparenzpflichten gegenüber Betroffenen (Art. 86) ergänzen die Pflichtenlandschaft auf Einsatzebene.
Für GPAI‑Anbieter gelten horizontale Pflichten: technische Dokumentation, Informationen an nachgelagerte Anbieter (damit diese Fähigkeiten, Grenzen und Integrationsrisiken verstehen), Urheberrechts‑Compliance‑Strategiesowie die Pflicht, eine hinreichend detaillierte Zusammenfassung der Trainingsdaten zu veröffentlichen. Für GPAI‑Modelle mit systemischem Risiko kommen Modellbewertungen, Risikominderung, Meldung schwerer Vorfälleund Cybersicherheitsvorgaben hinzu. Generative Modelle müssen sicherstellen, dass synthetische Ausgaben als solche maschinenlesbar gekennzeichnet werden können – ein Kernelement, um Desinformation und Content‑Attribution adressierbar zu halten.
4. Governance, Aufsicht, Sanktionen
Die Aufsicht ist mehrstufig organisiert. Herzstück auf EU‑Ebene ist das AI Office bei der Kommission (Art. 64), das insbesondere GPAI‑Anbieter überwacht, Leitlinien und Spezifikationen koordiniert und dienationalen Marktüberwachungsbehörden unterstützt. Daneben ist ein Europäischer KI‑Ausschuss vorgesehen; national werden jeweils zuständige Behörden zu benennen und auszustatten sein – hier entscheidet sich die praktische Durchschlagskraft in der Fläche. Sanktionen setzen spürbare Anreize: Bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes für Verstöße gegen Verbote; bis zu 15 Mio. € oder 3 % für andere Pflichtverstöße; niedrigere Quoten gelten für Informationspflichten. Für KMU und Start‑ups enthalten die Normen flankierende Erleichterungen, ohne die Schutzrichtung aufzugeben.
5. Zeitlicher Anwendungsfahrplan (2024–2027)
Die Verordnung tritt stufenweise in Anwendung: Verbote und zentrale Grundregeln gelten früh; GPAI‑Pflichten folgen zwölf Monate nach Inkrafttreten (maßgeblich ist der 2. August 2025); der Breiteneinsatz der Pflichten für Hochrisiko‑Systeme ist später dran; etliche Vorschriften gelten ab 2. August 2026, einzelne Hochrisiko‑Verknüpfungen (Art. 6 Abs. 1 und korrespondierende Pflichten) erst ab 2. August 2027. Für die Praxis bedeutet das: 2025 ist das Jahr der Modell‑Transparenz und der Aufsichtsstrukturen; 2026/27 ist das Jahr der umfassenden Ex‑ante‑Compliance im Hochrisiko‑Segment.
6. Dogmatik und Streitfragen: Wo die Linien verlaufen – und wo sie unscharf sind
Breite KI‑Definition und Autonomiegrad. Die gesetzliche Definition legt den Fokus auf „Autonomie“ und „Anpassungsfähigkeit“, bleibt aber ausreichend weit, um auch klassische algorithmische Systeme zu erfassen. Das ist regulativ klug (Risikoorientierung statt Technikfetisch), erzeugt aber Abgrenzungslasten: Anbieter müssen ehrlich kartieren, was „KI‑System“ ist, und nicht auf Formalismus hoffen. Die Praxis wird den Spielraum durch Standards (CEN/CENELEC) und Konformitätsverfahren füllen.
„Systemisches Risiko“ bei GPAI. Der FLOPs‑Trigger (10²⁵) ist technisch einfach, rechtspolitisch pragmatisch – dogmatisch aber ungewohnt, weil er ein Kapazitätsmaß an Pflichten koppelt. Unklar bleibt, wie sich rein kapazitätsbedingte Einstufungen zu tatsächlichen, anwendungsbezogenen Risiken verhalten. Die Pflicht zur Risikobewertung und ‑minderung auf Modellebene verlangt antizipierende Betrachtungen quer über denkbare Downstream‑Use‑Cases. Hier werden Codes of Practice und Leitlinien des AI Office maßgeblich sein.
Fairness und Datensätze. Die Forderungen nach „repräsentativen, relevanten, möglichst fehlerfreien“ Datensätzen und Bias‑Kontrolle adressieren den Kern algorithmischer Diskriminierung – bleiben aber notwendig unbestimmt. Die Rechtsdogmatik wird klären müssen, wie diese Kriterien in Nachweis‑ und Prüfprozesse (z. B. beim Notified Body) überführt werden und wie sie sich zum Antidiskriminierungsrecht verhalten. Transparenz gegenüber Betreibern und das Erklärungsrecht der Betroffenen (Art. 86) sind nur so gut wie die Qualität der technischen Dokumentation; pauschale Textbausteine werden nicht genügen.
FRIA – Mehrwert oder Doppelung? Die Grundrechte‑Folgenabschätzung (Art. 27) trifft vor allem öffentliche Stellen und bestimmte private Betreiber mit Public‑Service‑Bezug. Inhaltlich überschneidet sie sich mit dem Risikomanagement; trotzdem hat sie eigenständigen Wert: Sie zwingt zur ex ante‑Grundrechtsreflexion im Einsatzkontext, nicht nur beim Design. Für die Beratungspraxis bietet sich ein gemeinsamer Prüfbogen an, der FRIA, Datenschutz‑Folgenabschätzung (DSFA) und AI‑Risikomanagement verzahnt.
Transparenz bei synthetischen Inhalten. Die Pflicht, Deepfakes und maschinengenerierte Inhalte erkennbar zu machen, adressiert Desinformationsrisiken. Offene Punkte sind Technikneutralität (Wasserzeichen vs. Metadaten), Durchsetzung in Plattformökosystemen und die Abstimmung mit dem DSA (systemische Risiken, Content‑Moderation). Hier ist koordiniertes Regulierungs‑ und Branchenhandeln gefragt.
7. Praktische Konsequenzen und Empfehlungen für die Beratung
Rollen‑ und Systeminventur. Ausgangspunkt jeder Umsetzung ist ein Register, das für alle KI‑Systeme (und GPAI‑Nutzungen) Rolle, Zweck, Risiko‑Klasse, Trainings‑/Inputdaten, Downstream‑Kontexte und Lieferkette erfasst. Auf dieser Basis lassen sich Pflichtenprofile je System und Rolle zuschneiden.
Ex‑ante‑Pflichten industrialisieren. Für Hochrisiko‑Systeme sollten Kanzleien und Rechtsabteilungen skalierbare Bausteine entwickeln: Muster für Risikoanalyse, Daten‑Governance‑Kontrollen, Dokumentations‑Templates (inkl. Leistungskennzahlen und Trade‑offs), Protokollierungs‑Anforderungen, Human‑Oversight‑Konzepte sowie Post‑Market‑Pläne mit Vorfallsmeldung.
GPAI‑Compliance planen. Anbieter und heavy user generativer Modelle benötigen Modell‑Dokumentation, Copyright‑Strategien (Text‑&‑Data‑Mining‑Ausnahmen, Lizenzketten) sowie Datenherkunfts‑Transparenz(öffentliche Zusammenfassungen). Für „systemische“ Modelle sind Modell‑Assessments und Incident‑Workflowszwingend.
Verträge und Lieferkette. Die Rollenverteilung entlang der Wertschöpfung ist vertraglich zu klären: Pflichten zu Datenqualität, Dokumentation, Audit‑Rechten, Incident‑Meldungen, Urheberrechtszusicherungen, Downstream‑Informationen und Konformitätskooperation gehören in AGB, Einkaufsbedingungen und Model Cards/System‑Steckbriefe.
Schnittstellenrecht denken. AI‑Compliance ist kein Solitär: DSGVO/DSFA, Produktsicherheits‑ und Medizinprodukterecht, DSA, Urheber‑ und Wettbewerbsrecht, Arbeits‑ und Antidiskriminierungsrecht wirken ein. Empfehlenswert ist ein integriertes Kontroll‑Set, das Redundanzen vermeidet.
Aufsicht proaktiv adressieren. Nationale Zuständigkeiten werden gefestigt; das AI Office und der KI‑Ausschuss legen Leitlinien vor. Wer früh in Codes of Practice und Standardisierung mitarbeitet, reduziert Prüfungsrisiken und schafft Marktvorteile.
8. Schluss: Vom Rechtsrahmen zur belastbaren Praxis
Der AI Act ist kein bloßer „Grundsatzkatalog“, sondern ein operationalisierter Pflichtenrahmen mit hoher Eingriffsintensität – und mit echten Durchsetzungsmechanismen. Seine Systematik ist stimmig, wo sie Risiko statt Technologie ins Zentrum stellt; sie bleibt auslegungsbedürftig, wo Kapazitätsmaße (FLOPs) an Pflichten koppeln oder unbestimmte Rechtsbegriffe („repräsentativ“, „angemessene Transparenz“) in harte Nachweislasten übersetzt werden müssen. Für die anwaltliche Praxis liegt die Chance darin, Mandanten frühzeitig von der Normlektüre zur funktionierenden Governance zu führen – mit klaren Rollen, belastbarer Dokumentation und sinnvollen technischen Kontrollen. Wer 2025 die Hausaufgaben bei GPAI und Aufsicht macht, kann 2026/27 die Hochrisiko‑Pflichten ohne Kraftakt erfüllen – und KI rechtssicher als Wettbewerbsfaktor nutzen.
moreResultsText




