Vorschlag der EU-Kommission muss nachgeschärft werden
Künstliche Intelligenz
Die Europäische Kommission hat heute (Mittwoch, 21. April) ihren Vorschlag für eine Verordnung zur Regulierung künstlicher Intelligenz vorgestellt. Die Grünen/EFA-Fraktion begrüßt klare Regeln im ersten Gesetzesvorschlag der EU-Kommission zu künstlicher Intelligenz und kritisiert, dass die automatische Gesichtserkennung im öffentlichen Raum weiter zugelassen ist. |
Alexandra Geese, Mitglied der Grünen/EFA-Fraktion im Sonderausschuss zu künstlicher Intelligenz im digitalen Zeitalter, kommentiert: „Die EU-Kommission hat den guten Willen bewiesen, globale Standards zu setzen, aber an entscheidenden Stellen fehlt dem Entwurf noch der Biss. Es ist ein Schlag ins Gesicht der Zivilgesellschaft, dass ein klares Verbot von Gesichtserkennung im öffentlichen Raum fehlt. Auch die automatische Erkennung von Geschlecht oder sexueller Orientierung hat in einer demokratischen EU nichts zu suchen. Künstliche Intelligenz soll uns in eine freie, nachhaltige Zukunft begleiten und nicht ins vorletzte Jahrhundert zurückführen. Deshalb ist es richtig, dass die EU-Kommission potenziell diskriminierende Anwendungen als Hoch-Risiko-Anwendungen einstuft. Aber die Liste ist nicht komplett. Geregelt werden müssen auch Anwendungen, die nicht nur Individuen, sondern der gesamten Gesellschaft einen Schaden zufügen, weil sie die Demokratie gefährden oder die Umwelt unverhältnismäßig belasten. Zur Durchsetzung brauchen wir personell gut ausgestattete Behörden mit starken Befugnissen, damit die Verordnung nicht zu einem zahnlosen Tiger wird.”
Sergey Lagodinsky, Mitglied der Grünen/EFA-Fraktion im Sonderausschuss zu künstlicher Intelligenz im digitalen Zeitalter und stellvertretender Vorsitzender des Rechtsausschusses, kommentiert: „Wir stehen vor der Chance, in der Europäischen Union klare Regeln für Künstliche Intelligenz zu definieren. Mit Rechtssicherheit stärken wir das Vertrauen in die Technologie und bieten Entwicklern einen internationalen Standortvorteil. Zwar zeigt die Europäische Kommission Risiken für Demokratie, Umwelt und Klima auf, hält sich dann aber bei den Lösungen zurück. Ich erwarte mehr Entschlossenheit, um schutzbedürftige Menschen nicht Systemen von künstlicher Intelligenz auszuliefern, wie in der Strafverfolgung, an den europäischen Außengrenzen, bei der Gewährung von Asyl und der Vergabe von Visa. Wir werden uns in den anstehenden Verhandlungen für Klarheit bei Haftungsfragen einsetzen, sei es bei Schäden durch automatisierte Paketdrohnen oder bei diskriminierenden Einstellungsentscheidungen. Zentral ist auch eine belastbare Definition von künstlicher Intelligenz. Die ausufernde Nutzung als Modebegriff darf nicht dazu führen, dass das Vertrauen in neue Anwendungen weiter sinkt oder sich Entwickler ihrer Haftung entziehen können.”
Hintergrund Die EU-Kommission hat die Chance, mit ihrem Vorschlag globale Standards für KI-Anwendungen zu setzen. Sie unterscheidet sie zwischen verbotenen Anwendungen und Hoch-Risiko-Systemen. Zu den verbotenen Anwendungen gehört beispielsweise das Social Scoring durch Behörden sowie die Nutzung von Systemen künstlicher Intelligenz, die das Verhalten von Menschen zu deren physischen oder psychischen Schaden beeinflusst. Im Extremfall China wird mit Hilfe künstlicher Intelligenz das Verhalten der Menschen mit flächendeckenden Überwachungssystemen und Algorithmen bewertet und sanktioniert. Solche Systeme sollen in der EU zukünftig verboten sein. Künstliche Intelligenz wird in der Europäischen Union angewendet, um Menschen beispielsweise hinsichtlich ihrer Kreditwürdigkeit, Krankenversicherung und Eignung für einen Arbeitsplatz einzustufen, indem Eigenschaften und Verhalten verglichen werden, allerdings hat die Forschung ein hohes Diskriminierungspotenzial dieser Systeme erwiesen. Für solche Anwendungen schreibt die EU-Kommission Mindeststandards vor. Verstöße gegen die Verordnung sollen mit Strafen von bis zu 30 Millionen Euro belangt werden. |