Direkt zum Inhalt wechseln
logo Das Magazin für digitalen Lifestyle und Entertainment
Einheitliche Regeln

KI-Gesetz der EU beschlossen – doch ein großes Problem bleibt

EU-Flagge auf einem Smartphone, im Hintergrund steht "AI" für "Künstliche Intelligenz".
Die EU hat ein KI-Gesetz beschlossen. Foto: Getty Images/SOPA Images
TECHBOOK Logo
TECHBOOK Redaktion

22. Mai 2024, 18:58 Uhr | Lesezeit: 5 Minuten

Künstliche Intelligenz (KI) hält immer weiter Einzug in zahlreiche Bereiche unseres Lebens. Wie genau auf KI basierende Produkte oder Dienstleistungen angeboten werden dürfen, soll innerhalb der EU fortan der bereits vor Monaten angekündigte „AI Act“ regeln. TECHBOOK stellt das nun endlich verabschiedete Gesetzespaket vor – und verrät auch, wo es gewisse Schwachstellen aufweist.

Artikel teilen

Dass ein EU-Gesetz zur künstlichen Intelligenz – der sogenannte AI Act – kommen soll, war schon länger bekannt. TECHBOOK hat bereits darüber berichtet. Am Dienstag (21. Mai) nun hat der Rat der Europäischen Union die Verordnung (AI Act) verabschiedet. Es handelt sich beim AI Act um das weltweit erste umfassende Gesetzespaket zur Regulierung von KI. Ab kommendem Monat soll es dann für Produkte und Dienstleistungen in der EU gelten. Das bedeutet, dass auch Firmen aus Drittländern sich an das Gesetz halten müssen, sollten sie innerhalb des Staatenverbunds aktiv sein. TECHBOOK stellt es vor.

Für welche Bereiche gilt der AI Act?

Der AI Act soll die Datenschutz-Grundverordnung (DSGVO) ergänzen. Das weitreichende Gesetz deckt sämtliche Anwendungen ab, welche Inhalte, Vorhersagen und Empfehlungen liefern oder die Entscheidungsfindung von Nutzern beeinflussen. Es gilt für alle, die ein Produkt oder eine Dienstleistung auf KI-Basis anbieten. Inbegriffen sind nicht nur kommerzielle Angebote, sondern auch die Nutzung von KI im öffentlichen Sektor.

Jeder EU-Staat soll eine oder mehrere zuständige nationale Behörden ernennen, die das Land im Europäischen Ausschuss für künstliche Intelligenz vertritt. Außerdem wird die EU-Kommission ein europäisches KI-Büro einrichten, das KI-Modelle mit allgemeinem Verwendungszweck überwacht.

Diese Auflagen für KI-Anwendungen gibt es

Grundsätzlich ordnet man KI-Anwendungen unterschiedlichen Risiko-Kategorien zu, von „minimal“ über „hoch“ bis „inakzeptabel“. Je nach Einstufung müssen Anbieter bestimmten Sicherheits- und Transparenz-Anforderungen nachkommen, um eine Zulassung zu erhalten. Das sind bei KI-Programmen mit hoher Risiko-Kategorie, welche somit potenziell Gesundheit, Sicherheit, Bürgerrechte, Umwelt, Demokratie, Wahlen und Rechtsstaatlichkeit gefährden, entsprechend viele. Hierzu gehört unter anderem eine Analyse, welche Folgen die Anwendung für die Grundrechte haben könnte.

Für als weniger riskant bewertete KI gelten vor allem Transparenzregeln. Das bedeutet, dass von diesen Programmen erstellte Inhalte als solche gekennzeichnet werden müssen. Nutzer sollen selbst entscheiden können, ob beziehungsweise wie sie diese nutzen wollen.

KI-Nutzung im Bereich der Strafverfolgung

Um den Einsatz von KI in der Strafverfolgung wurde bis zuletzt heftig gestritten. So hatte auch der Entwurf des Europaparlaments derartige Anwendungsgebiete verboten. Die EU-Staaten beharrten aber auf Ausnahmen zum Schutz der nationalen Sicherheit.

So erlaubt es der AI Act Behörden, biometrische Echtzeit-Erkennung im öffentlichen Raum zu nutzen, um Opfer von Entführungen, Menschenhandel und sexueller Gewalt identifizieren sowie eine konkrete und unmittelbare Terrorismus-Gefahr abwehren zu können. Ferner darf KI bei der Fahndung nach Personen eingesetzt werden, wenn diese terroristischer Straftaten, anderer Kapitalverbrechen, der Mitgliedschaft in einer kriminellen Vereinigung oder der Umweltkriminalität verdächtigt werden.

Welche KI-Anwendungen per Gesetz verboten sind

Eine Reihe von KI-Anwendungen, welche als inakzeptabel eingestuft werden, verbietet der AI Act gänzlich. Hierzu zählt ein ungezieltes Durchforsten des Internets oder von Aufnahmen von Überwachungsanlagen zur Erstellung von Gesichtsdatenbanken. Auch ist die Nutzung biometrischer Kategorisierungssysteme nicht erlaubt, wenn diese sensible Merkmale wie politische oder religiöse Überzeugungen, sexuelle Orientierung oder ethnische Zugehörigkeit verwenden.

Weiterhin darf man KI nicht zur Erkennung von Emotionen am Arbeitsplatz oder in Bildungseinrichtungen einsetzen. Ebenso sind Programme zur Manipulation menschlichen Verhaltens verboten. Das gilt auch für Anwendungen, die Schwächen von Menschen aufgrund ihres Alter, einer Behinderung oder ihrer sozialen und wirtschaftlichen Situation ausnutzen. Zuletzt darf man mithilfe von KI auch keine Art Benotungssystem für soziales oder persönliches Verhalten (sogenanntes „Social Scoring“) erstellen.

Generative KI-Lösungen und „GPAIS“

Programme wie ChatGPT zählen zu den generativen KI. Sie können unter anderem anhand weniger Stichworte komplette Texte oder Bilder erstellen und in unterschiedlichen Anwendungsbereichen eingesetzt werden. Uns ist diese Technologie längst bekannt. Zu Beginn der Arbeiten am „AI Act“ – dies war im Jahr 2021 – gab es sie jedoch noch nicht. Die Gesetzeskategorie für sie bzw. sogenannte GPAIS (General Purpose AI Systems) wurde auf den letzten Drücker geschaffen.

Anbieter generativer KI und Co. sowie deren Grundlagenmodellen („Foundation Models“) müssen Transparenzpflichten erfüllen. Hierzu gehört eine detaillierte technische Dokumentation und Informationen über die Daten, die für das Training der KI genutzt wurden. Ebenso sollen sie sicherstellen, dass EU-Urheberrechtsgesetze eingehalten werden. Bei systemisch riskant eingestuften Foundation Models müssen die Anbieter ihre Modelle zusätzlich umfangreich testen, evaluieren und Risiken minimieren. Außerdem besteht eine Meldepflicht für schwerwiegende Vorfälle.

Ein großes Problem bleibt

Das obige Beispiel macht Schwachstellen des kürzlich verabschiedeten AI Act deutlich. Es hat einige Jahre gedauert, das viel diskutierte KI-Gesetz auf den Weg zu bringen. Gut möglich also, dass ihm zugrunde liegende EU-Vorgaben schon bald wieder veraltet sein werden. Entsprechend müsste das Gesetzespaket zeitnah überarbeitet werden. Zudem kritisieren laut „Tagesschau“-Informationen Experten vom Digitalverband Bitkom an vielen Stellen des Gesetzespakets Ungenauigkeiten. Ob die KI-Entwicklung in Deutschland weiter gefördert oder gebremst werde, sei aber abhängig von der konkreten Anwendung.

Mehr zum Thema

Mögliche Strafen für Nichteinhaltung

Trotzdem: Ab Juni ist der AI Act bis auf Weiteres bindend. Mögliche Strafen bei Nichteinhaltung können je nach Schwere des Gesetzesverstoßes sowie abhängig von der Größe des betroffenen Unternehmens variieren. Sie fangen bei 7,5 Millionen Euro oder 1,5 Prozent des weltweiten Jahresumsatzes eines Unternehmens an und können bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Gewinns erreichen – je nachdem, welcher Betrag höher ist.

Themen #AmazonTech Künstliche Intelligenz News
Technik-Angebote entdecken bei kaufDA
Logo KaufDA
Anzeige
Deine Datensicherheit bei der Nutzung der Teilen-Funktion
Um diesen Artikel oder andere Inhalte über Soziale- Netzwerke zu teilen, brauchen wir deine Zustimmung für diesen .
Sie haben erfolgreich Ihre Einwilligung in die Nutzung dieser Webseite mit Tracking und Cookies widerrufen. Sie können sich jetzt erneut zwischen dem Pur-Abo und der Nutzung mit personalisierter Werbung, Cookies und Tracking entscheiden.