22. Mai 2024, 18:58 Uhr | Lesezeit: 5 Minuten
Künstliche Intelligenz (KI) hält immer weiter Einzug in zahlreiche Bereiche unseres Lebens. Wie genau auf KI basierende Produkte oder Dienstleistungen angeboten werden dürfen, soll innerhalb der EU fortan der bereits vor Monaten angekündigte „AI Act“ regeln. TECHBOOK stellt das nun endlich verabschiedete Gesetzespaket vor – und verrät auch, wo es gewisse Schwachstellen aufweist.
Dass ein EU-Gesetz zur künstlichen Intelligenz – der sogenannte AI Act – kommen soll, war schon länger bekannt. TECHBOOK hat bereits darüber berichtet. Am Dienstag (21. Mai) nun hat der Rat der Europäischen Union die Verordnung (AI Act) verabschiedet. Es handelt sich beim AI Act um das weltweit erste umfassende Gesetzespaket zur Regulierung von KI. Ab kommendem Monat soll es dann für Produkte und Dienstleistungen in der EU gelten. Das bedeutet, dass auch Firmen aus Drittländern sich an das Gesetz halten müssen, sollten sie innerhalb des Staatenverbunds aktiv sein. TECHBOOK stellt es vor.
Übersicht
Für welche Bereiche gilt der AI Act?
Der AI Act soll die Datenschutz-Grundverordnung (DSGVO) ergänzen. Das weitreichende Gesetz deckt sämtliche Anwendungen ab, welche Inhalte, Vorhersagen und Empfehlungen liefern oder die Entscheidungsfindung von Nutzern beeinflussen. Es gilt für alle, die ein Produkt oder eine Dienstleistung auf KI-Basis anbieten. Inbegriffen sind nicht nur kommerzielle Angebote, sondern auch die Nutzung von KI im öffentlichen Sektor.
Jeder EU-Staat soll eine oder mehrere zuständige nationale Behörden ernennen, die das Land im Europäischen Ausschuss für künstliche Intelligenz vertritt. Außerdem wird die EU-Kommission ein europäisches KI-Büro einrichten, das KI-Modelle mit allgemeinem Verwendungszweck überwacht.
Diese Auflagen für KI-Anwendungen gibt es
Grundsätzlich ordnet man KI-Anwendungen unterschiedlichen Risiko-Kategorien zu, von „minimal“ über „hoch“ bis „inakzeptabel“. Je nach Einstufung müssen Anbieter bestimmten Sicherheits- und Transparenz-Anforderungen nachkommen, um eine Zulassung zu erhalten. Das sind bei KI-Programmen mit hoher Risiko-Kategorie, welche somit potenziell Gesundheit, Sicherheit, Bürgerrechte, Umwelt, Demokratie, Wahlen und Rechtsstaatlichkeit gefährden, entsprechend viele. Hierzu gehört unter anderem eine Analyse, welche Folgen die Anwendung für die Grundrechte haben könnte.
Für als weniger riskant bewertete KI gelten vor allem Transparenzregeln. Das bedeutet, dass von diesen Programmen erstellte Inhalte als solche gekennzeichnet werden müssen. Nutzer sollen selbst entscheiden können, ob beziehungsweise wie sie diese nutzen wollen.
KI-Nutzung im Bereich der Strafverfolgung
Um den Einsatz von KI in der Strafverfolgung wurde bis zuletzt heftig gestritten. So hatte auch der Entwurf des Europaparlaments derartige Anwendungsgebiete verboten. Die EU-Staaten beharrten aber auf Ausnahmen zum Schutz der nationalen Sicherheit.
So erlaubt es der AI Act Behörden, biometrische Echtzeit-Erkennung im öffentlichen Raum zu nutzen, um Opfer von Entführungen, Menschenhandel und sexueller Gewalt identifizieren sowie eine konkrete und unmittelbare Terrorismus-Gefahr abwehren zu können. Ferner darf KI bei der Fahndung nach Personen eingesetzt werden, wenn diese terroristischer Straftaten, anderer Kapitalverbrechen, der Mitgliedschaft in einer kriminellen Vereinigung oder der Umweltkriminalität verdächtigt werden.
Welche KI-Anwendungen per Gesetz verboten sind
Eine Reihe von KI-Anwendungen, welche als inakzeptabel eingestuft werden, verbietet der AI Act gänzlich. Hierzu zählt ein ungezieltes Durchforsten des Internets oder von Aufnahmen von Überwachungsanlagen zur Erstellung von Gesichtsdatenbanken. Auch ist die Nutzung biometrischer Kategorisierungssysteme nicht erlaubt, wenn diese sensible Merkmale wie politische oder religiöse Überzeugungen, sexuelle Orientierung oder ethnische Zugehörigkeit verwenden.
Weiterhin darf man KI nicht zur Erkennung von Emotionen am Arbeitsplatz oder in Bildungseinrichtungen einsetzen. Ebenso sind Programme zur Manipulation menschlichen Verhaltens verboten. Das gilt auch für Anwendungen, die Schwächen von Menschen aufgrund ihres Alter, einer Behinderung oder ihrer sozialen und wirtschaftlichen Situation ausnutzen. Zuletzt darf man mithilfe von KI auch keine Art Benotungssystem für soziales oder persönliches Verhalten (sogenanntes „Social Scoring“) erstellen.
Generative KI-Lösungen und „GPAIS“
Programme wie ChatGPT zählen zu den generativen KI. Sie können unter anderem anhand weniger Stichworte komplette Texte oder Bilder erstellen und in unterschiedlichen Anwendungsbereichen eingesetzt werden. Uns ist diese Technologie längst bekannt. Zu Beginn der Arbeiten am „AI Act“ – dies war im Jahr 2021 – gab es sie jedoch noch nicht. Die Gesetzeskategorie für sie bzw. sogenannte GPAIS (General Purpose AI Systems) wurde auf den letzten Drücker geschaffen.
Anbieter generativer KI und Co. sowie deren Grundlagenmodellen („Foundation Models“) müssen Transparenzpflichten erfüllen. Hierzu gehört eine detaillierte technische Dokumentation und Informationen über die Daten, die für das Training der KI genutzt wurden. Ebenso sollen sie sicherstellen, dass EU-Urheberrechtsgesetze eingehalten werden. Bei systemisch riskant eingestuften Foundation Models müssen die Anbieter ihre Modelle zusätzlich umfangreich testen, evaluieren und Risiken minimieren. Außerdem besteht eine Meldepflicht für schwerwiegende Vorfälle.
Ein großes Problem bleibt
Das obige Beispiel macht Schwachstellen des kürzlich verabschiedeten AI Act deutlich. Es hat einige Jahre gedauert, das viel diskutierte KI-Gesetz auf den Weg zu bringen. Gut möglich also, dass ihm zugrunde liegende EU-Vorgaben schon bald wieder veraltet sein werden. Entsprechend müsste das Gesetzespaket zeitnah überarbeitet werden. Zudem kritisieren laut „Tagesschau“-Informationen Experten vom Digitalverband Bitkom an vielen Stellen des Gesetzespakets Ungenauigkeiten. Ob die KI-Entwicklung in Deutschland weiter gefördert oder gebremst werde, sei aber abhängig von der konkreten Anwendung.
„AI Act“ Was die EU mit dem weltweit ersten KI-Gesetz regulieren will
Wegen EU-Vorgaben Größte Apple-Neuheit kommt nicht nach Deutschland
In der App Spotify kündigt umfassende Änderung für iPhone-Nutzer in Europa an
Mögliche Strafen für Nichteinhaltung
Trotzdem: Ab Juni ist der AI Act bis auf Weiteres bindend. Mögliche Strafen bei Nichteinhaltung können je nach Schwere des Gesetzesverstoßes sowie abhängig von der Größe des betroffenen Unternehmens variieren. Sie fangen bei 7,5 Millionen Euro oder 1,5 Prozent des weltweiten Jahresumsatzes eines Unternehmens an und können bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Gewinns erreichen – je nachdem, welcher Betrag höher ist.