Als der EU AI Act im August 2024 zum weltweit ersten umfassenden KI-Gesetz wurde, gab er einen straffen Zeitplan vor. Anbieter von Allzweck-KI-Modellen — also die Anthropics, OpenAIs, Googles und Mistrals dieser Welt — hatten genau zwölf Monate Zeit, um ihre Hausaufgaben zu machen. Diese Frist lief im August 2025 ab. Acht Monate in den Vollzug hinein zeigt das EU AI Office nun erste Zähne, und das Compliance-Bild ist alles andere als geordnet — auch und gerade für deutsche Anbieter und Anwender.
Der Papierberg, den niemand kommen sah
Auf dem Papier klingen die GPAI-Vorschriften überschaubar: Anbieter von Allzweck-KI-Modellen müssen eine technische Dokumentation veröffentlichen, eine Urheberrechts-Compliance für Trainingsdaten implementieren und — sofern ihr Modell die Schwelle von 10²⁵ FLOP Trainings-Compute für die Einstufung als „systemisches Risiko” überschreitet — sich verbindlichen Sicherheitsbewertungen, adversarialem Testing und Meldepflichten unterwerfen.
In der Praxis hat allein die Pflicht zur technischen Dokumentation Rechts-, Engineering- und Policy-Teams in jedem großen KI-Labor in Beschlag genommen. Die Verordnung verlangt Modellkarten mit Angaben zur Herkunft der Trainingsdaten, zu Evaluations-Benchmarks, bekannten Schwachstellen und Energieverbrauchszahlen über den gesamten Trainingslauf. Bei Frontier-Modellen, die über Monate auf Clustern mit Hunderttausenden Chips trainiert wurden, ist die nachträgliche Aufbereitung dieser Dokumentation eine ernsthafte Herausforderung.
„Die Verordnung wurde von Juristen und Policy-Experten geschrieben, nicht von ML-Ingenieuren”, sagte ein Compliance-Verantwortlicher eines großen US-KI-Labors gegenüber Branchenanalysten im März. „Manches, was sie verlangt, existiert schlicht nicht als strukturiertes Artefakt, das man übergeben könnte.”
Das EU AI Office führt aktuell mehr als 80 Unternehmen in einer Voruntersuchung wegen möglicher GPAI-Verstöße. Förmliche Verfahren — die zu Bußgeldern bis zu 30 Millionen Euro oder 6 % des weltweiten Jahresumsatzes führen können — wurden bislang den eklatantesten Fällen vorbehalten.
Urheberrecht: Die Bruchstelle, die niemand gelöst hat
Wenn die technische Dokumentation Kopfschmerzen verursacht, ist das Urheberrecht für Trainingsdaten die Migräne. Der AI Act verlangt von GPAI-Anbietern eine Policy auf dem „Stand der Technik” zur Wahrung urheberrechtlicher Opt-outs nach EU-Recht, einschließlich der Konformität mit der Text-and-Data-Mining-Schranke (TDM) der EU-Urheberrechtsrichtlinie. Verlage, Nachrichtenorganisationen und Rechteinhaber, die ein Opt-out registriert haben, müssen respektiert werden.
Das Problem: Es gibt keinen anerkannten Standard dafür, was „Stand der Technik” in diesem Kontext bedeutet. Das EU AI Office hat im November 2025 einen Leitlinien-Entwurf vorgelegt, der jedoch umstritten bleibt. Große KI-Anbieter haben unterdessen unterschiedliche Wege eingeschlagen — manche veröffentlichen umfassende Listen gecrawlter Domains samt Opt-out-Status, andere stützen sich auf pauschale vertragliche Zusicherungen — was zu einer ungleichmäßigen Compliance-Landschaft geführt hat, die Aufsichtsbehörden noch zu kartieren versuchen.
Für Deutschland ist das Thema besonders heikel. Der Bundesverband Digitalpublisher und Zeitungsverleger (BDZV) sowie der Börsenverein des Deutschen Buchhandels gehören zu den lautstärksten Stimmen in Brüssel. Verbandsschätzungen aus dem deutschen Verlagswesen gehen davon aus, dass weniger als 40 % der heute kommerziell genutzten GPAI-Modelle den Geist der TDM-Opt-out-Regeln erfüllen. Das AI Office hat diese Zahl nicht bestätigt, der Ton seiner öffentlichen Kommunikation ist seit Januar jedoch merklich schärfer geworden.
Systemisches Risiko: Die Stufe, die alles ändert
Für Modelle, die als systemisches Risiko eingestuft werden — derzeit eine kleine Gruppe rund um die leistungsfähigsten Frontier-Modelle von OpenAI, Google DeepMind, Anthropic und Meta — eskalieren die Pflichten deutlich. Diese Anbieter müssen adversariales Testing („Red-Teaming”) sowohl mit internen Teams als auch mit externen Evaluatoren durchführen, schwerwiegende Vorfälle innerhalb von 72 Stunden an das EU AI Office melden und das Modellverhalten im Einsatz fortlaufend überwachen.
Die 72-Stunden-Meldefrist hat bereits Reibung erzeugt. Mehrere Labore argumentieren, dass die Definition eines „schwerwiegenden Vorfalls” im KI-Kontext deutlich uneindeutiger ist als etwa in der Luftfahrt oder Pharmazie. Ist ein Modell, das in großem Stil irreführende politische Inhalte erzeugt, ein schwerwiegender Vorfall? Was ist mit einem Jailbreak, der Synthese-Anleitungen für gefährliche Chemikalien ermöglicht? Die interpretativen Leitlinien des AI Office hinken den Fragen der Praxis hinterher.
Trotz dieser Reibungen hat der Rahmen für systemisches Risiko erhebliche Investitionen in Sicherheits-Infrastruktur ausgelöst. Mehrere Frontier-Labore haben dedizierte EU-Compliance-Teams in zweistelliger Personenstärke aufgebaut, und externe KI-Evaluierungsfirmen — eine Kategorie, die 2023 kaum existierte — konkurrieren heute um Aufträge im zweistelligen Millionen-Euro-Bereich.
Die 4,5-Milliarden-Euro-Frage
Branchenanalysten von Oliver Wyman schätzten Ende 2025, dass die aggregierten Compliance-Kosten europäischer Unternehmen unter dem AI Act — einschließlich der GPAI-Vorschriften und der näherrückenden Frist für Hochrisiko-KI im August 2026 — in den ersten drei Vollzugsjahren rund 4,5 Milliarden Euro erreichen werden. Die Summe deckt Rechtsberatung, technische Dokumentation, Sicherheitstests und organisatorische Umstrukturierungen ab.
Für kleinere europäische KI-Unternehmen und Start-ups stellen diese Kosten eine existenzielle Herausforderung dar. Das deutsche KI-Start-up-Ökosystem — von Aleph Alpha in Heidelberg bis zu kleineren Spezialanbietern in München, Berlin und Karlsruhe — sieht sich mit einer Compliance-Last konfrontiert, die für große, gut kapitalisierte Akteure entworfen wurde. Mehrere prominente Gründer haben argumentiert, dass die Anforderungen des Acts faktisch einen Burggraben für Etablierte schaffen. Die Antwort des EU AI Office — ein vereinfachter Compliance-Pfad für risikoarme Modelle und ein Netzwerk nationaler KI-Regulierungs-Sandkästen, in Deutschland federführend bei der Bundesnetzagentur als designierter Marktaufsicht — wurde grundsätzlich begrüßt, aber als unterfinanziert kritisiert.
Was als Nächstes kommt
Der nächste große Meilenstein steht im August 2026 an: die Frist für Hochrisiko-KI-Systeme nach Anhang III des Acts. Das umfasst KI in Personalentscheidungen, Kreditvergabe, Bildungsbewertung, biometrischer Kategorisierung und im Management kritischer Infrastruktur — ein deutlich größeres Produktuniversum als die GPAI-Vorschriften allein. Für deutsche Unternehmen ist insbesondere der Einsatz im Personalbereich relevant, etwa beim KI-gestützten Bewerber-Screening, das vom Allgemeinen Gleichbehandlungsgesetz (AGG) ohnehin streng reguliert ist. Das EU AI Office signalisiert bereits, keine Fristverlängerungen zu gewähren.
Vorerst bestätigt die GPAI-Vollzugsphase, was viele vorausgesagt, aber wenige laut ausgesprochen haben: Die ambitionierteste KI-Regulierung der Welt kollidiert mit der praktischen Realität, wie KI-Systeme tatsächlich gebaut und betrieben werden. Das Gesetz stellt nicht die falschen Fragen. Die Herausforderung besteht darin, auf beiden Seiten der Beziehung zwischen Regulierer und Industrie die institutionelle Kapazität aufzubauen, sie zu beantworten.
Quellen: Öffentliche Mitteilungen des EU AI Office; Oliver-Wyman-Branchenanalyse (2025); Unternehmensoffenlegungen; Gespräche mit KI-Policy-Praktikern.
Discussion
Sign in to join the discussion.
No comments yet. Be the first to share your thoughts.