09.03.2023
ChatGPT ist zurzeit in aller Munde. Diese Künstliche Intelligenz schreibt professionell wirkende Reden, Bewerbungen, sogar Gedichte. Doch ist sie so gut, wie es den Anschein hat? Und was heißt das für uns als Gesellschaft?
Ein Interview mit Nicole Krämer, Professorin für Sozialpsychologie, Medien und Kommunikation an der Universität Duisburg-Essen.
Zunächst war ich erstaunt, wie gut bei ChatGPT - nach jahrelangem Stillstand im Bereich von Chatbots und Dialogsystemen - die Interaktion ist, vor allem die Fähigkeit, auf Nachfragen zu reagieren. Es stellte sich allerdings recht schnell heraus, dass es noch gravierende Schwächen gibt. So werden "Fakten" bis hin zu wissenschaftlichen Quellen frei erfunden.
Wir haben mal getestet, inwieweit ChatGPT die Fragen unserer Onlineklausuren beantworten kann. Dies gelang manchmal recht gut, manchmal aber auch desaströs schlecht. Ich persönlich habe daher wenig Angst, dass sich Studierende massenhaft auf diese Technologie verlassen werden, da bereits berichtet wird, dass die Qualität der Antworten nicht gleichmäßig hoch ist.
Es gibt zwar auch KI, die darauf spezialisiert ist, zu erkennen, ob ein Text durch eine KI verfasst wurde, aber sie funktioniert nicht zuverlässig.
Wir müssen uns bewusstmachen, dass Informationen, die durch KI erzeugt werden, unzuverlässig sein können. Dies gilt allerdings nicht erst seit oder ausschließlich für ChatGPT, sondern auch in Bezug auf DeepFakes, also täuschend echt wirkende Bild-, Audio oder Video-Aufnahmen, die durch KI erzeugt oder auch manipuliert wurden.
Medienkompetenz für die gesamte Bevölkerung gezielt zu erhöhen, ist schwierig. Hilfreich ist sicher eine möglichst flächendeckende mediale Information über die Schwächen des Systems, damit die Technologie nicht unreflektiert angewandt wird. Unsere Studien auch aus anderen technologischen Bereichen zeigen, dass Menschen ihr Wissen über Technologie und auch Erwartungen an diese, sehr stark aus dem ableiten, was sie in den Medien sehen.
Die Technologie hat definitiv einen großen Sprung nach vorne gemacht. Die Möglichkeiten zur Interaktion, zur Nachfrage, aber auch die Möglichkeit, die Information weiter spezifizieren zu lassen, sind ein großer Fortschritt. Dennoch gehe ich davon aus, dass auf die erste Begeisterung die Ernüchterung folgt und deutlich wird, an wieviel Stellen die Technologie noch unzulänglich ist. Daher denke ich, dass ChatGPT und ähnliche auf maschinellem Lernen basierende Dialogsysteme auf absehbare Zeit nicht in einer Art und Weise eingesetzt werden, dass sie Arbeitsplätze vernichten.
Auf Basis des zugrundeliegenden Machine Learning Ansatzes ist ChatGPT sehr gut in der Lage, perfekt zu formulieren, da es aus einer reichen Datenbasis, zum Beispiel alle im Internet auffindbaren Texte, diejenigen Worte aneinanderreiht, die mit höchster Wahrscheinlichkeit aufeinander folgen. Es ist aber nicht intelligent im Sinne der Frage, dass ChatGPT "weiß", was es sagt und/oder den Wahrheitsgehalt seiner Aussagen überprüfen kann.
ChatGPT ist insofern gefährlicher, als die Ergebnisse augenscheinlich besser sind als die früherer Chatbots, bei denen man in der Interaktion stärker Schwächen merkte, zum Beispiel auch dahingehend, dass Anfragen gar nicht richtig verstanden wurden und die produzierten Texte nicht so perfekt klangen. Daher ist zu befürchten, dass Personen dem System mehr vertrauen als Vorgängersystemen - und vor allem in nicht gerechtfertigtem Ausmaß vertrauen.
ChatGPT trägt jedenfalls in seiner jetzigen Form nicht zur Verbreitung von Hass und Hetze bei: Man merkt deutlich, dass das System umfangreich kuratiert wird. Wenn man ChatGPT zu sensiblen Themen befragt, antwortet es sehr "vorsichtig" und schränkt seine Antworten ein, zum Beispiel, wenn man fragt, ob Männer besser einparken als Frauen. Für das Internet und die dort eingesetzten Bots gilt: Studien zeigen, dass für die Verbreitung von Hass und Hetze vor allem Menschen und ihr Weiterleitungsverhalten verantwortlich sind.
Unsere Studien sowie die von Kolleg:innen zeigen, dass bereits kleine soziale Hinweisreize, zum Beispiel die Fähigkeit zur Interaktion, dazu führen können, dass Menschen auf technische Systeme sozial reagieren. Das kann mit einem erhöhten Vertrauen einhergehen, weil dem System unbewusst Menschlichkeit zugeschrieben wird. ChatGPT ist in dieser Hinsicht besonders perfide, da das System den Anschein erweckt, als tippe es - und somit Menschenähnlichkeit vorgibt.
Das Interview führte Barbara Ferrarese.