Pressemitteilung: Künstliche Intelligenz verstärkt bestehende Ungleichheiten in der Gesellschaft

22.04.2022

Automatisierte algorithmisch-gesteuerte Datenverarbeitung, insbesondere so genannte künstliche Intelligenz, sorgt oft für eine zusätzliche Benachteiligung ohnehin schon benachteiligter Menschen. Das ist eines der zentralen Ergebnisse eines internationalen Workshops, den das Forum Privatheit zum Thema "Feminist Data Protection", diskriminierende Datenverarbeitung und mögliche Lösungsansätze organisierte.

Als problematisch erkannt wurde insbesondere, dass es stets eine einzelne Person ist, die sich gegen eine systematische Diskriminierung zur Wehr setzen muss. Das Datenschutzrecht kennt bisher keine kollektiven Rechte, mittels derer sich etwa die Gruppe insgesamt oder ihre Vertreter:innen gegen eine Datenverarbeitung zur Wehr setzen können. Dafür sollten bestehende Ansätze zusammen mit den Betroffenen umgesetzt werden.

Unausgereifte und diskriminierende KI darf nicht in den Praxis-Einsatz
Daneben sollte auch im Datenschutz der systemische Aspekt sozialer Ungleichheiten berücksichtigt werden. Konkret: Der Fokus sollte vom Individuum, das sich gegenüber der exzessiven Datenverarbeitung großer Digitalkonzerne behaupten muss, auf eine strukturelle Ebene verschoben werden. "Künstliche Intelligenz reproduziert und verstärkt leider oft die verschiedenen Formen der Diskriminierung, Marginalisierung und Unterdrückung, die bereits in der Gesellschaft vorhanden sind", so Dr. Felix Bieker, juristischer Mitarbeiter im Unabhängigen Landeszentrum für Datenschutz Schleswig-Holstein (ULD) und Mitglied des "Forum Privatheit". So würden Systeme zur Gesichtserkennung zum Beispiel oft überwiegend mit weißen Personen "trainiert", sodass die zugrundeliegende KI insbesondere Schwarze Frauen weniger zuverlässig erkenne als weiße. Diesem Phänomen muss strukturell und nicht nur individuell entgegengetreten werden. „Es geht nicht darum, ob Technikunternehmen diskriminieren wollen, sondern darum, ob dies in der Praxis geschieht. Wo das der Fall ist, muss ein Unternehmen von sich aus ansetzen und Abhilfe schaffen“, so Bieker. Systemdatenschutz kann dabei helfen, solche Probleme noch vor dem Praxis-Einsatz zu erkennen.

Richtiger Systemdatenschutz beugt Diskriminierungen vor
Der Systemdatenschutz setzt bei dem Ungleichgewicht zwischen Nutzenden und Datenverarbeitenden an und formuliert Anforderungen an datenverarbeitende Stellen. Dazu gehören etwa die Regelungen zum Datenschutz by Design, wonach der Datenschutz bei jeder Verarbeitung von Anfang an mit eingebaut werden muss, und dem Verantwortungsprinzip, nach dem Verarbeitende die Verantwortung für die gesamte Verarbeitung tragen. Das Forum Privatheit arbeitet daran, den Systemdatenschutz weiterzuentwickeln. Die wissenschaftlichen Ansätze, mit denen die Unterdrückung benachteiligter Gruppen untersucht wird, können auch im Datenschutz eingesetzt werden, um Diskriminierungen sichtbar zu machen und Lösungen zu entwickeln. "Wenn eine datenverarbeitende Stelle in einer Behörde oder einem Unternehmen ihre Datenverarbeitung tatsächlich unter Kontrolle hat, können auch einige Formen von Diskriminierung von vornherein unterbunden oder jedenfalls früher erkannt werden, ohne dass sich eine einzelne Person erst beschweren muss", erläutert Bieker. "Das wäre ein Fortschritt für die Angehörigen marginalisierter Gruppen, wie Frauen, People of Color, Geflüchtete, queere oder arme Menschen."

Beispiele für diskriminierende Datenverarbeitung und mögliche Lösungsansätze finden Sie in Policy Review.
Einen Podcast zum Thema Feminist Data Protection mit Dr. Felix Bieker finden Sie hier.

In der Plattform Privatheit setzen sich Expert*innen aus wissenschaftlichen Institutionen interdisziplinär, kritisch und unabhängig mit Fragestellungen zum Schutz der Privatheit auseinander. Das Forum Privatheit als eines der Kernprojekte der Plattform wird vom Fraunhofer-Institut für System- und Innovationsforschung koordiniert. Weiterer Partner ist das Wissenschaftliche Zentrum für Informationstechnik-Gestaltung an der Universität Kassel. Das Bundesministerium für Bildung und Forschung (BMBF) fördert die Plattform Privatheit, um den öffentlichen Diskurs zu den Themen Privatheit und Datenschutz anzuregen.

Sprecher „Forum Privatheit“:
Prof. Dr. Alexander Roßnagel
Fachgebiet Öffentliches Recht
Universität Kassel
a.roßnagel@uni-kassel.de
Pressefoto Alexander Roßnagel

Projektkoordination „Forum Privatheit“:
Dr. Michael Friedewald
Fraunhofer-Institut für System- und Innovationsforschung ISI
Competence Center Neue Technologien
michael.friedewald@isi-fraunhofer.de

Presse und Kommunikation „Forum Privatheit“:
Barbara Ferrarese, M.A.
Fraunhofer-Institut für System- und Innovationsforschung ISI
Competence Center Neue Technologien
+49 (0) 721 / 6809-678
barbara.ferrarese@isi.fraunhofer.de

„Forum Privatheit und selbstbestimmtes Leben in der digitalen Welt“
https://www.forum-privatheit.de/
Twitter: @ForumPrivatheit


icon TextPressemitteilung als PDF zum Download