Der djb weist darauf hin, dass Algorithmen nicht nur bestehende gesellschaftliche Ungleichheiten widerspiegeln, sondern sie durch Automatisierung auch exponentiell perpetuieren und vertiefen. Dies betrifft wesentliche Bereiche wie das Arbeitsleben, etwa beim Einsatz von Algorithmen zur Auswahl von Bewerber*innen, den Gesundheitssektor, zum Beispiel beim Erkennen von Krankheitsbildern, aber auch Design und Funktionalität von Produkten. "Wo immer Entscheidungsprozesse automatisiert und optimiert werden, die zugrunde liegenden Daten aber nicht repräsentativ sind beziehungsweise nur den Durchschnittsmann als Norm beinhalten, kommt es zu einer Fortschreibung struktureller Benachteiligung von Frauen. Dem muss bewusst entgegengesteuert werden.", betont die Präsidentin. Wegen der vorhandenen tatsächlichen Ungerechtigkeiten ist es wichtig, eine gendergerechte Überprüfung und Bereinigung der Daten vorzunehmen. Daneben sind weitere Maßnahmen erforderlich wie etwa die Etablierung eines Rechts auf Erklärung der individuellen Entscheidung oder gendersensible Konzepte bei der Ausbildung von Programmierer*innen.
Der djb ist wie die EU-Kommission der Auffassung, dass gesonderte rechtliche Vorgaben für KI-Anwendungen zu etablieren sind, um den spezifischen Gefahren Rechnung zu tragen. Die im Weißbuch beschriebenen Ideen für rechtlich verbindliche Anforderungen für KI-Anwendungen gehen dabei in die richtige Richtung. Allerdings ist der Ansatz, nur "hochriskante" Anwendungen zu regulieren, aus Sicht des djb nicht geeignet, Grundrechtsverletzungen und Diskriminierungen wirksam zu verhindern. Der djb schließt sich hier der Position der Datenethikkommission an, nach der nur KI-Anwendungen mit ganz geringem Risiko von einer Regulierung ausgenommen werden sollten.
Deutscher Juristinnenbund e.V.
Anklamer Str. 38
10115 Berlin
Telefon: +49 (30) 443270-0
Telefax: +49 (30) 443270-22
http://www.djb.de