Seit August 2024 ist das weltweit erste KI-Gesetz in Kraft getreten. Das Regelwerk soll Nachahmer rund um den Globus finden, so die Hoffnung der EU-Mitgliedsstaaten, die nun ihrerseits vor der schwierigen Aufgabe stehen, die Vorgaben des AI Act in nationales Recht umzusetzen.
Gar nicht so einfach: KI-Systeme klassifizieren
Das Gesetz ordnet die KI-Anwendungen in unterschiedliche Risikoklassen ein: inakzeptables Risiko, hohes Risiko, begrenztes Risiko und niedriges Risiko. Entscheidend für die Einordnung in die jeweilige Risikoklasse sind die potenziellen Auswirkungen eines KI-Systems. Je nach Risikoklasse gibt der Gesetzgeber für die Zukunft weitreichende Anforderungen vor. Der AI Act verfolgt dabei einen sogenannten risikobasierten Ansatz: Je höher das Risiko einer Anwendung eingeschätzt wird, desto strenger sind die Vorgaben.
Als begrenztes Risiko gelten beispielsweise Chatbots, wie sie für Marketingzwecke eingesetzt werden. Man kennt das aus dem Kundenservice vieler Unternehmen: Die Chatbots beantworten Fragen zu einem Produkt oder einer Dienstleistung, sie stellen Basis-Informationen bereit und geben Produktempfehlungen, allerdings ohne Entscheidungen für die Nutzer zu treffen. Für den Einsatz von Chatbots gelten laut Gesetz zukünftig bestimmte Transparenzregeln.
Beispiele für ein hohes Risiko sind die biometrische Identifizierung und Kategorisierung von natürlichen Personen. Auch KI-Systeme, die Rückschlüsse auf persönliche Merkmale von Personen ermöglichen, einschließlich Emotionserkennungssystemen, fallen in die Hochrisiko-Gruppe. Auch in der Gesundheitsversorgung soll ein hohes Maß an Risikobewusstsein gelten, zum Beispiel beim Einsatz von KI-gestützten Diagnosewerkzeugen. Entscheidungen über den Zugang zu Bildungseinrichtungen und für die Bewertung von Schülern fallen in die Hochrisiko-Kategorie, ebenso wie KI-Systeme für die Auswahl von Bewerbern und für Entscheidungen über Beförderungen, Kündigungen, Aufgabenzuweisungen und die Leistungsüberwachung in Arbeitsverhältnissen.
Wer solche KI-Systeme entwickelt, vertreibt oder einsetzt, muss besonders strenge Anforderungen erfüllen.
Als inakzeptabel gelten laut dem AI Act Systeme, die eingesetzt werden können, um das Verhalten von Personen gezielt zu beeinflussen. Für solche manipulativen KI-Einsätze gilt ein Verbot, ebenso für KI-basiertes „Social Scoring“, also die Vergabe von Punkten für erwünschtes Verhalten. Auch die Gesichtserkennung im öffentlichen Raum, zum Beispiel durch Videoüberwachung, ist grundsätzlich nicht erlaubt. Ausnahme: Polizei und andere Sicherheitsbehörden dürfen eine Gesichtserkennung mithilfe von KI im öffentlichen Raum nutzen, um bestimmte Straftaten wie Menschenhandel oder Terrorismus verfolgen zu können.
Klassifiziert als niedriges Risiko sind alle anderen KI-Systeme, beispielsweise vorausschauende Wartung oder Spamfilter. Der Übergang zwischen den einzelnen Risikoklassen ist fließend.
Warum überhaupt regulieren?
Experten warnen davor, die Risiken von Künstlicher Intelligenz zu unterschätzen und raten dringend zu einer Regulierung des Umgangs mit KI. Positive wie auch negative Auswirkungen könnten demnach immens sein. Häufig zitiert wird in diesem Zusammenhang ein Satz, den ein Experten-Rat Ende Mai 2023 so formulierte: „Das Risiko einer Vernichtung durch KI zu verringern, sollte eine globale Priorität neben anderen Risiken gesellschaftlichen Ausmaßes sein, wie etwa Pandemien und Atomkrieg.“
Unterzeichnet hat die kurze Stellungnahme auch Sam Altman, CEO von OpenAI. Sein Unternehmen hat den generativen KI-Chatbot ChatGPT vor gut zwei Jahren in die Welt gebracht und damit den KI-Hype erst richtig ausgelöst.
Den vollständigen Artikel lesen Sie in working@office.