Neue Regeln braucht das Land

Künstliche Intelligenz: Einheitliches Regelwerk für die EU

Montag, 11. März 2024 | 09:33 Uhr

Von: APA/ag.

Ob in der Videoüberwachung, Spracherkennung oder bei der Auswertung von Finanzdaten: Für den Einsatz von Künstlicher Intelligenz (KI) bekommt die Europäische Union ein einheitliches Regelwerk, das abhängig von Risikokriterien Vorschriften für die Nutzung aufstellt und bestimmte Anwendungen verbietet. Das Europaparlament soll das Gesetz am Mittwoch absegnen. In Brüssel gilt das Regelwerk als “historisch”, Wirtschaftsverbände befürchten jedoch Einschränkungen für KI-Startups.

Verboten sind künftig KI-Systeme, die Menschen nach Kriterien wie ihren politischen und religiösen Ansichten, ihrer sexuellen Orientierung oder der Hautfarbe in Gruppen einteilen. Außerdem werden in China bereits übliche sogenannte Sozialkredit-Systeme verboten, die auf das Verhalten oder persönliche Eigenschaften abzielen.

Unternehmen dürfen KI nicht einsetzen, um die Gefühle ihrer Beschäftigten zu erfassen. Die Technologie darf zudem nicht genutzt werden, um Menschen gegen ihren Willen zu beeinflussen. Betroffene dürfen durch die Nutzung zudem nicht etwa wegen ihres Alters, einer Behinderung oder ihrer finanziellen Situation benachteiligt werden.

Industrieverbände befürchten, dass die neuen Regeln für zu hohe Hürden bei der Entwicklung neuer KI-Anwendungen sorgen. Europäische Unternehmen könnten dadurch Nachteile im Wettbewerb mit der Konkurrenz aus den USA und aus China haben, warnte etwa der Bundesverband der Deutschen Industrie.

Mehrere europäische Regierungen fürchteten etwa um den Fortschritt von Startups wie Aleph Alpha aus Deutschland und Mistral AI in Frankreich. Die Verhandlungen über das Gesetz dauerten deshalb fast drei Jahre.

Bei Verstößen gegen das KI-Gesetz drohen Strafen in Millionenhöhe. Für den Einsatz einer verbotenen Technologie kann die EU-Kommission Zahlungen von bis zu 35 Mio. Euro oder 7 Prozent des weltweiten Jahresumsatz eines Unternehmens verlangen. Wer gegen andere Bestimmungen des Gesetzes verstößt, muss mit Strafen in Höhe von bis zu 15 Mio. Euro oder 3 Prozent des Jahresumsatzes rechnen.

Die Polizei und andere Sicherheitsbehörden dürfen die KI-gesteuerte Gesichtserkennung an öffentlichen Orten nutzen, wenn eine richterliche Anordnung vorliegt. Solche Systeme wurde in Deutschland bereits etwa am Berliner Bahnhof Südkreuz getestet.

Bei aufgezeichnetem Videomaterial darf die Technologie für die Fahndung nach Verurteilten oder Verdächtigten schwerer Straftaten verwendet werden. Verfolgen die Beamten das Videomaterial in Echtzeit, sind KI-Systeme auch für die Suche nach Opfern von Menschenhandel und sexueller Gewalt erlaubt. Außerdem dürfen sie die Gesichtserkennung zur “Verhinderung einer konkreten und akuten Terrorgefahr” nutzen.

Für die Nutzung von Künstlicher Intelligenz in Sicherheitsbehörden stellt das Gesetz grundsätzlich ein “hohes Risiko” für Menschenrechtsverletzungen fest. Das gleiche gilt für Anwendungen bei kritischer Infrastruktur und in der Personalverwaltung. Zu den sogenannten Hochrisiko-Anwendungen gehören zudem Systeme, die Wahlen beeinflussen können.

In diesen Fällen soll deshalb in letzter Instanz ein Mensch die Kontrolle über die Entscheidungen der KI haben. Zudem schreibt das Gesetz eine technische Dokumentation und ein System zum Risikomanagement vor. Betroffene sollen bei den Behörden Beschwerde gegen die Nutzung der KI einreichen können.

Entwicklerinnen und Entwickler müssen künftig klar kennzeichnen, wenn Texte, Bilder oder Videos auf Künstlicher Intelligenz beruhen. Das gilt auch für Beiträge in Online-Plattformen wie Facebook, Instagram oder X. In der Praxis ist das Fachleuten zufolge jedoch schwierig zu überprüfen.

Neue Systeme sollen mit ausgewogenen Datensätzen entwickelt und trainiert werden. Die Behörden sollen KI-Startups deshalb Zugang zu realen Testbedingungen ermöglichen, bevor eine Anwendung auf den Markt kommt. Das Gesetz soll zudem dafür sorgen, dass dabei keine Urheberrechte verletzt werden.

Die neuen Regeln gelten allerdings erst ab dem Frühjahr 2026. Bis dahin setzt die Kommission auf freiwillige Absprachen mit den Unternehmen. Kritiker befürchten allerdings, dass die EU-Vorgaben in zwei Jahren bereits wieder veraltet sein könnten.