Alle BeiträgeAll articles
RechtKIRegulierungEU AI ActRechtBildung

Der EU AI Act — was bedeutet das wirklich?The EU AI Act — what does it actually mean?

Der EU AI Act klingt technisch und weit weg. Tatsächlich betrifft er Organisationen dort, wo KI über Menschen mitentscheidet oder als KI erkennbar sein muss. Eine verständliche Einordnung.The EU's new AI law sounds technical and distant. But it affects every school, every company and everyone who uses AI. An explanation in plain language — no legal jargon.

Der Name klingt trocken: EU AI Act. Tatsächlich regelt die Verordnung, welche KI-Einsätze in der EU verboten sind, wann Transparenzpflichten greifen und wo besonders strenge Anforderungen gelten.

Wichtig für den Stand heute, März 2026: Der AI Act ist am 1. August 2024 in Kraft getreten. Verbote bestimmter Praktiken und Pflichten zur KI-Kompetenz gelten seit 2. Februar 2025. Weitere Regeln, etwa für General-Purpose-AI-Modelle, gelten seit 2. August 2025. Der Großteil der Verordnung wird am 2. August 2026 anwendbar.

Was ist der AI Act überhaupt?

Der EU AI Act ist der europäische Rechtsrahmen für KI. Er unterscheidet Anwendungen nach ihrem Risiko — nicht nach Schlagworten oder nach der Frage, ob etwas modern wirkt.

Die vier Stufen:

  • Verboten — bestimmte Praktiken, etwa manipulative Systeme oder einige Formen biometrischer Fernidentifikation
  • Hohes Risiko — bestimmte KI-Einsätze in sensiblen Bereichen wie Bildung, Beschäftigung, Gesundheit oder kritischer Infrastruktur
  • Transparenzpflichtig — zum Beispiel Systeme, bei denen Menschen wissen müssen, dass sie mit KI interagieren oder KI-Inhalte sehen
  • Übrige Anwendungen — viele KI-Werkzeuge fallen nicht automatisch in die strengsten Kategorien, sind aber trotzdem nicht rechtsfrei

Was bedeutet das für Schulen und Bildungseinrichtungen?

Wichtig ist die Unterscheidung: Nicht jede KI in der Bildung ist automatisch Hochrisiko.

Hochriskant kann es dort werden, wo KI über Zugang, Bewertung oder Einstufung von Lernenden mitentscheidet. Dazu gehören zum Beispiel Systeme, die Lernleistungen bewerten, Bildungswege empfehlen oder über Aufnahme und Zuteilung mitentscheiden.

Ein Chatbot für Unterrichtsideen oder ein Textwerkzeug für Lehrkräfte ist damit nicht automatisch Hochrisiko. Ein KI-System, das benotet oder selektiert, ist rechtlich etwas ganz anderes.

Praktische Fragen, die sich Schulen jetzt stellen müssen:

  • Nutzen wir KI-Systeme, die Leistungen bewerten oder Zugänge steuern?
  • Wer trägt Verantwortung, wenn das System falsch liegt?
  • Ist dokumentiert, wie menschliche Aufsicht und Korrektur aussehen?

Was bedeutet das für Unternehmen?

Auch hier gilt: Nicht jeder KI-Einsatz ist gleich kritisch.

Besonders relevant wird der AI Act dort, wo KI in Personalentscheidungen, bei Bonitätsfragen oder in anderen sensiblen Bereichen eingesetzt wird. Ein System für Bewerbungsranking ist rechtlich etwas anderes als ein Schreibassistent für interne Mails.

Was Unternehmen jetzt tun sollten:

  1. Bestandsaufnahme: Welche KI-Systeme setze ich ein?
  2. Prüfen: In welchen Fällen betrifft die KI Menschen, Rechte oder Zugänge direkt?
  3. Verantwortlichkeiten, Dokumentation und Beschaffungsvorgaben jetzt aufbauen statt erst kurz vor dem Stichtag.

Die wichtigste Erkenntnis

Der AI Act ist kein reines Technikgesetz. Er ist ein Organisationsgesetz.

Er zwingt Einrichtungen und Unternehmen dazu, sauber zu unterscheiden: Wo ist KI nur ein Hilfsmittel, und wo greift sie in Entscheidungen über Menschen ein? Genau an dieser Stelle wird aus einem Tool plötzlich ein Governance-Thema.

Wer das früh sauber trennt, spart sich später hektische Nacharbeit.


Fragen zum EU AI Act in Ihrem Kontext? Ich erkläre das gerne in einem Workshop oder Seminar — praxisnah und ohne Juristendeutsch.

Weiterlesen: Über die Themen lässt sich das Feld vertiefen, im Glossar werden Fachbegriffe erklärt und in den Ressourcen finden Sie weiterführende Quellen.

Weitere Beiträge lesenMore articlesAnfrage stellenGet in touch
Mail