Plattform Privatheit: Wegweiser für verantwortungsvolle Digitalisierung

07.10.2025

„Datenschutz und Digitalpolitik in krisenhaften Zeiten“ – das war das Thema der 10. interdisziplinären Jahrestagung der Plattform Privatheit. Zwei Tage lang präsentierten und diskutierten Expert:innen aus Wissenschaft, Politik, Wirtschaft und Gesellschaft aktuelle Forschungsergebnisse zu Künstlicher Intelligenz, Datenschutz und Privatheit sowie neue Wege zur Erreichung technologischer Souveränität.

Die Konferenz wurde mit einem Grußwort von Dr. Alexandra-Gwyn Paetz, Abteilungsleiterin für Technologische Souveränität im Bundesministerium für Forschung, Technologie und Raumfahrt, eröffnet. Anschließend folgte die Keynote „Eliza‘s Lesson“ von Guido Scorza, Jurist und Mitglied des Leitungsgremiums der italienischen Datenschutzaufsicht.

Was passiert, wenn eine Handvoll Unternehmen, die Chatbots produziert, das Vertrauen von Millionen Menschen gewinnt?

Darin verglich er Künstliche Intelligenz mit einem Eisberg, von dem wir nur die glitzernde Spitze sehen könnten und lud in seinem Vortrag dazu ein, gemeinsam einen Blick unter der Wasseroberfläche zu werfen. Er verdeutlichte den Unterschied zwischen dem, was Künstliche Intelligenz in Aussicht stelle – und dem, wie sie im Moment wirklich sei. So verspreche sie beispielsweise eine deutliche Verbesserung der Arbeitswelt. In der Realität würden Menschen jedoch einen Job gar nicht erst erhalten, weil über 90% der weltweit größten Unternehmen KI-basiertes Pre-Screening für den Auswahlprozess nutzten, was eine hohe Fehler-Quote aufweise und Bewerber:innen systematisch diskriminiere. Natürlich seien die Systeme formal nur dafür da, Entscheider:innen Vorschläge zu liefern. Aber in der Praxis vertrauten diese den KI-Systemen zumeist blind. Scorza konstatierte ferner, dass wir in einer hybriden Gesellschaft leben, in der Chatbot-Companions schon heute unsere Freunde, Liebhaber und Psychotherapeuten seien. „Doch was passiert, wenn eine Handvoll Chatbot-Unternehmen das Vertrauen von Millionen von Menschen genießt und damit in der Lage ist, diese Menschen zu manipulieren?“ Wer KI kontrolliere, habe gewaltige Macht über ganze Gesellschaften und Staaten. Joseph Weizenbaum, der Erfinder des weltweit ersten Chatbots „Eliza“, habe dieses Missbrauchs-Potenzial schon 1966 erkannt und daher dessen Weiterentwicklung gestoppt. Heute jedoch seien Chatbot-Companions allgegenwärtig.

Wir müssen die Art und Weise, wie wir Gesetze schreiben, ändern

Dennoch bleibt Scorza optimistisch. Er benennt zwei Werkzeuge, um die negativen Auswirkungen von KI zu beschränken: Regulierung und Bildung. Regulierung müsse Künstliche Intelligenz einhegen, bevor die Algorithmen die Macht übernähmen und aufgrund ihrer Verbreitung in der Gesellschaft de facto regulierend wirkten. Auch auf die immer schneller und rasanter werdende Technologie-Entwicklung müsse der Gesetzgeber reagieren: Es gelte dringend, wegzukommen von der Regulierung kleinster technischer Details, pragmatischer zu werden und mehr Befugnisse an unabhängige Aufsichtsbehörden zu delegieren. Demokratische Vorgaben müssten seitens der Unternehmen in Code umgewandelt werden. Scorza machte deutlich, dass Regulierung nicht der Feind von Innovation sei, sondern diese in die Richtung des Erhalts und des Schutzes gesellschaftlicher Werte lenke. Seine Forderung: „Wir sollten Menschen beibringen, den Wert ihrer Grundrechte und Grundfreiheiten zu kennen“, forderte Scorza. Dann würden sie auch grundrechtsschützende Produkte bevorzugen.

Technologische Abhängigkeit führt auch zu demokratischer Abhängigkeit

Katja Muñoz, Politikwissenschaftlerin und Research Fellow bei der Deutschen Gesellschaft für Auswärtige Politik, warf in ihrer Keynote „Demokratie im KI-Zeitalter: Zwischen Inklusion und Manipulation“ die Frage auf, ob unsere demokratischen Systeme bereit für das KI-Zeitalter seien. „Technologische Abhängigkeit führt auch zu demokratischer Abhängigkeit. Das ist eine Debatte, die meines Erachtens gerade zu wenig geführt wird“, so Muñoz. Sie konstatierte, dass es durch KI billiger und schneller geworden sei, Propaganda zu verteilen. 

Doch KI bietet laut Muñoz auch Chancen für die Demokratie: Inhalte könnten ressourcenoptimiert produziert werden, was gerade für kleine Parteien wichtig sei. Außerdem lasse sich mit KI politische Kommunikation personalisieren und politische Partizipation stärken. Munoz schlug KI-gestützte Bürgerplattformen vor, die einen konstruktiven Dialog ermöglichen und den direkten Kontakt zur Politik erhöhen.

Wir brauchen digitale Infrastrukturen, die Demokratie fördern

Sie kritisierte, „dass wir zu viel über die Risiken von KI reden und nicht über die Chancen, um Demokratie zu fördern.“ Zu überlegen sei, wie KI besser für Wissenstransfer genutzt werden könne oder auch, um mit der Gesellschaft zu kommunizieren. Ihr Fazit: „Nein, unsere demokratischen Systeme sind nicht bereit für das KI-Zeitalter.“ Es gehe aber nicht darum, die Verantwortung auf den User zu übertragen, sondern digitale Infrastrukturen zu schaffen, die Demokratie fördern. Bei einer notwendigen Regulierung sei überdies darauf zu achten, die Ausgestaltung der Systeme durch demokratisch legimitierte Akteure selbst vorzunehmen, um eine starke Akzeptanz und Legitimität dieser Regulierung zu unterstützen.

Probleme werden von der Gesetzgebung in die Praxis verschoben

Meike Kamp, die Berliner Beauftragte für Datenschutz und Informationsfreiheit, zeigte in ihrer Keynote „Effektiver Datenschutz - Perspektive einer Aufsichtsbehörde“ schließlich, dass der Datenschutz derzeit mit einer „europäischen Digitalrechtswelle“ aus Digital Services Act, DMA, Data Act, Data Governance Act und KI-Verordnung konfrontiert sei. Schwierig sei für Datenschützer, dass der europäische Gesetzgeber sich vor Fragen „ein wenig weggeduckt“ habe, die auf gesetzgeberischer Ebene hätten gelöst werden müssen: „Wenn man den Data Act anschaut, der das Ziel verfolgt, dass Daten ausgewertet, genutzt und geteilt werden, ist klar, dass ein Konflikt mit dem Datenminimierungsgrundsatz entstehen kann, den wir im Datenschutzrecht haben.“ Doch inzwischen sei sie „zuversichtlich, dass wir diese Probleme in der Praxis lösen können“, so Kamp. 

Sie plädierte dafür, bei föderalen Aufsichtsstrukturen zu bleiben. In Deutschland sei ein Großteil der Unternehmen kleine und mittlere Unternehmen, die es als Vorteil sähen, dass die Datenschutzaufsicht vor Ort ist. „Lokale Datenschutzbehörden gewährleisten Nähe und Ansprechbarkeit für die Wirtschaft“, betonte Kamp. Ihre Vorschläge zur Optimierung einer koordinierten Datenschutzaufsicht umfassen einen nationalen One-Stop-Shop für Unternehmensverbünde oder länderübergreifende Forschungsvorhaben sowie ein Einer-für-alle-Prinzip bei identischen Datenverarbeitungsverfahren der Aufsichtsbehörden. Des Weiteren schlug sie eine Institutionalisierung der Datenschutzkonferenz mit verbindlichen Mehrheitsbeschlüssen und einer Geschäftsstelle sowie eine zentrale Zuständigkeit der BfDI bei Marktortfällen vor.

Datenschutz und Datensicherheit sind Bedingungen für technologische Souveränität in Europa

Die Abschlussdiskussion mit Rudolf Fischer, Schwarz Digits, Philip Ehmann, eco-Verband der Internetwirtschaft e.V., Michael Dose, Bundesverband der Deutschen Industrie e.V. und Meike Kamp drehte sich um die Frage, wie technologische Souveränität am besten erreichen werden könne. Einig war man sich darin, dass Datenschutz und Datensicherheit nicht im Kontrast zur Erzielung von wirtschaftlichem Erfolg stehe. Im Gegenteil seien Datenschutz und Datensicherheit „Bedingung, um technologische Souveränität in Europa zu erringen, dabei Geld zu verdienen, während Datenschutz und -sicherheit gewährleistet bleiben, so Fischer. Es sei jedoch „ein Wettbewerbsnachteil, wenn ausländische Cloud-Anbieter für ihr Nicht-Einhalten der Datenschutz-Grundverordnung nicht ausreichend stark bestraft werden.“


Wissenschaftskommunikation „Plattform Privatheit“

Barbara Ferrarese, M.A.

Fraunhofer-Institut für System- und Innovationsforschung ISI

Abteilung Neue Technologien

+49 151 724 25939

barbara.ferrarese@isi.fraunhofer.de


Koordinator „Plattform Privatheit“

Dr. Michael Friedewald

Fraunhofer-Institut für System- und Innovationsforschung ISI

Abteilung Neue Technologien

michael.friedewald@isi.fraunhofer.de


„Plattform Privatheit und selbstbestimmtes Leben in der digitalen Welt“

https://www.plattform-privatheit.de/

Bluesky: plattformprivat.bsky.social

Mastodon: @ForumPrivatheit@bawü.social

LinkedIn: linkedin.com/company/plattform-privatheit


In der vom Bundesministerium für Forschung, Technologie und Raumfahrt geförderten Plattform Privatheit untersuchen Expertinnen und Experten interdisziplinär, kritisch und unabhängig Fragestellungen zu Privatheit und Datenschutz in der digitalen Welt. Die Plattform Privatheit wird vom Fraunhofer-Institut für System- und Innovationsforschung und dem Wissenschaftlichen Zentrum für Informationstechnik-Gestaltung an der Universität Kassel koordiniert