Der AI Act verfolgt einen risikobasierten Ansatz: Je größer das Gefährdungspotenzial eines KI-Systems, desto strenger sind die Auf‌lagen. Systeme mit inakzeptablem Risiko – etwa zur manipulativen Verhaltenssteuerung oder für sogenanntes Social Scoring – sind vollständig verboten. Für Hochrisiko-KI-Systeme, etwa in kritischen Infrastrukturen, im Gesundheits- oder im Finanzwesen, gelten umfangreiche Anforderungen an Sicherheit und Transparenz. Erstmals blickt eine Verordnung aber auch in den „Maschinenraum“ der KI: Die großen KI-Modelle, die als technologische Grundlage für viele Anwendungen wie ChatGPT dienen, unterliegen ebenfalls eigenen Regeln. Anbieter dieser Modelle müssen zum Beispiel ihre technischen Unterlagen offenlegen und transparent machen, welche Inhalte sie für das Training ihrer KI verwendet haben. Für besonders leistungsstarke Modelle mit potenziell weitreichenden Risiken gelten noch strengere Pflichten.

Chatbots oder Systeme, die Deepfakes erzeugen, müssen zusätzlich stets offenlegen, dass ihre Inhalte künstlich generiert wurden. Diesen europäischen Rahmen flankiert die Bundesregierung mit ihrer nationalen KI-Strategie, um Deutschland als innovativen KI-Standort zu etablieren. Dabei liegt der Fokus auf der Förderung von Forschung und Entwicklung sowie auf der Unterstützung kleiner und mittlerer Unternehmen – unter anderem durch KI-Servicezentren.

Mit dem AI Act hat Europa einen klaren Rahmen für den verantwortungsvollen Einsatz von KI geschaffen. Die EU-Verordnung ist ein Meilenstein für technologischen Fortschritt mit Augenmaß – und ein Signal für Werte, Transparenz und Vertrauen im digitalen Zeitalter.

Mehr aus dem DATEV magazin 09/2025

Wendepunkt und Werkzeug

Künstliche Intelligenz verändert die tägliche Arbeit in Steuerberatungskanzleien. DATEV setzt sie dort ein, wo sie ihren Mitgliedern echten Nutzen bringt. Ein Interview mit Prof. Dr. Bär und Dr. Robert Helbig von DATEV.