Künstliche Intelligenzen erreichen ein immer neues Niveau. Zuletzt sorgte ChatGPT für Aufsehen. Die Technologie ist in der Lage, menschenähnliche Antworten auf Fragen zu generieren und Informationen in sekundenschnelle zur Verfügung zu stellen. Doch neben all der Euphorie entstehen dadurch auch (ethische) Probleme.
Mit ChatGPT lassen sich ganze Textpassagen formulieren und sogar nachjustieren. Auch Arbeitsanweisungen sind möglich. Der Algorithmus ist zwar nur ein Bruchteil der aktuellen AI-Forschung, dennoch für den Alltag der Menschen ein Durchbruch, da der Zugriff einer breiten Masse möglich ist. Daher wird der neue Bot als disruptiv bezeichnet. Und wo immer eine neue Technologie als disruptiv bezeichnet wird, entstehen Ängste und Probleme. Doch die Frage, ob menschliche Fähigkeiten austauschbar werden, kann man aktuell sicherlich noch mit nein beantworten. Ein Algorithmus reproduziert vorhandenes Wissen und kann weder ethisch reflektieren noch kritisch Denken. Das „sagt“ auch der Chatbot selbst: Er habe keine Moral oder Ethik. Er sei darauf programmiert, menschliche Sprache zu verstehen und darauf zu antworten, basierend auf der Analyse großer Datenmengen.
Der renommierte Philosoph Nida-Rümelin bezeichnet ChatGPT daher als eine hocheffektive Plagiatsmaschine (Nida-Rümelin/Winter, 2023). Die Welt staune über die vermeintlich kreativen Texte, die von dem Bot erstellt werden, wobei dieser nur auf verbreitete Formulierungen zurückgreife, die in bestimmten Kontexten auftreten. Künstliche Intelligenz ist noch auf unser Wissen über Inhalte und Abläufe angewiesen. Doch gerade hier entstehen einige Probleme, die in diesem Fall besonders aus ethischer Perspektive beleuchtet werden müssen.
ChatGPT framt
ChatGPT gibt auf Suchanfragen eine Antwort heraus, ohne Alternativen oder Einordnungen. Nida-Rümelin sieht dies als großes Problem. Dadurch werde der Eindruck erweckt, dass es das einzige relevante Ergebnis sei (Nida-Rümelin/Winter, 2023). Dieses Phänomen wird in der Psychologie und Verhaltensökonomik als Framing bezeichnet. Framing bezieht sich auf einen kognitiven Vorgang, der dazu führt, dass in Abhängigkeit von der Formulierung einer Aussage verschiedene Schlussfolgerungen bei unterschiedlichen Empfängern aus der gleichen Information gezogen werden können. Mit nur einem Wort kann ein kompletter Kontext verändert und damit die Botschaft positiv oder negativ aufgefasst werden.
Andere Experten sind sogar der Ansicht, die moralische Urteilsfähigkeit der Nutzer könnte korrumpiert werden (Krügel/Ostermaier/Uhl, 2023). Hierzu wurde ein Online-Experiment (n=1.851) durchgeführt, das der Frage nachging, inwiefern ChatGPT Einfluss auf das moralische Urteilsvermögen der Nutzer nimmt. Gegenstand des Experiments war das in der Ethik bekannte Trolley-Dilemma. Bevor die Probanden ihr Urteil abgaben, wurde ihnen die Einschätzung des Chatbots gezeigt. Das Ergebnis legte dar, dass die Handlungsempfehlung von ChatGPT das moralische Urteil der Probanden beeinflusste – und zwar auch, wenn sie vorher in Kenntnis darüber gesetzt wurden, dass sie von einem Chatbot beraten werden. Die Probanden übernahmen teilweise die (zufällige) moralische Haltung von ChatGPT als ihre eigene. Auf die Frage, ob sie die gleiche Entscheidung auch ohne die Beratung getroffen hätten, antworteten 80 Prozent, dass dies der Fall wäre. Es zeigten sich allerdings klare Abweichungen zwischen den Versuchsgruppen. Dieses Ergebnis deutet darauf hin, dass die Nutzer den Einfluss von Ratschlägen des Chatbots auf ihr moralisches Urteil unterschätzen.
ChatGPT unterliegt Biases
Ein Bias ist ebenfalls ein kognitiver Vorgang, eine Verzerrung der Wahrheit aufgrund von persönlichen Vorurteilen, ungenauen Methoden oder anderen Faktoren. Gerade bei maschinellem Lernen führen fehlerhafte Trainingsprozesse immer wieder zu diskriminierenden oder auch falschen Antworten. Diese Diskriminierung entsteht beispielsweise, wenn Denkweisen und Interpretationsmuster von Menschen übernommen werden, die die KI trainieren, etwa durch die Verschlagwortung der Inhalte. Auch Peter Dabrock, ehemaliger Vorsitzende des Deutschen Ethikrats, kommentiert, dass sich Vorurteile nie vollständig eliminieren lassen, weil sie Ausdruck von individuellen Lebenseinstellungen seien (Dabrock, 2023). So haben Tests gezeigt, dass ChatGPT eher progressiv bzw. linksliberal antwortet und in dieser Hinsicht ein politischer Bias besteht (Nida-Rümelin/Winter, 2023). Dies zu erkennen ist für den Nutzer schwierig oder gar unmöglich und führt direkt zum nächsten Problempunkt:
ChatGPT ist weitestgehend intransparent
Texte von ChatGPT enthalten keine Quellenangaben. Es bleibt unklar, woher die Informationen stammen, ob verschiedene Blickwinkel einbezogen wurden und ob Argumente gegeneinander abgewogen wurden. Dadurch besteht die Gefahr, dass Nutzer die Informationen ohne zu hinterfragen als richtig einschätzen. Im worst case können auf diesem Weg Falschinformationen entstehen.
Das Forschungslabor „Leap in Time Lab“ hat zusammen mit der TU Darmstadt im Rahmen eines Projektes tausende Anfragen an das System analysiert (FAZ, 2023). So konnten schwerwiegende Schwachstellen aufgedeckt werden, wie etwa auftauchende antisemitische und rassistische Äußerungen. Darüber hinaus sind Quellenangaben teilweise falsch oder laufen ins Leere, die dahinterstehenden wissenschaftlichen Arbeiten existieren nicht. Bei einer Frage zum Klimawandel beispielsweise führt der angegebene Link zu einer Internetseite über Diabeteserkrankungen. Dies zeigt, wie wichtig es ist, die Ergebnisse zu hinterfragen, zu reflektieren und einzuordnen.
ChatGPT ist nicht aktuell
Die Wissensdatenbank, auf die ChatGPT zurückgreift, wurde zuletzt im September 2021 aktualisiert. Dem Nutzer werden also lediglich Informationen zur Verfügung gestellt, die bis zu diesem Zeitpunkt veröffentlicht wurden. Aktuellste Ereignisse sind noch nicht abrufbar, wie zum Beispiel die Proteste in Iran 2022. Zur Fußball WM 2022 in Qatar schreibt ChatGPT, sie sei noch nicht ausgetragen worden. Natürlich soll ChatGPT laufend aktualisiert werden. Dennoch ist dies eine wichtige Information für den Nutzer, da unter Umständen zu verschiedenen Zusammenhängen und Geschehnissen nicht alle Informationen berücksichtigt werden.
Was wir als Gesellschaft lernen müssen
ChatGPT ist ein weiterer Schritt in der Welt der digitalen Technologien, die auch der normalen Bevölkerung zugänglich ist. Bei näherer Betrachtung lassen sich aber bestehende, große Probleme aufdecken. Der ehemalige Vorsitzende des Deutschen Ethikrats Peter Dabrock sagt, dass diese Sprachmodelle einer Gesellschaft den Spiegel vorhalten und – wie auch schon bei Social Media – verzerrend, aber eben doch entlarvend gesellschaftliche Brüche aufdecken und verstärken können. (Dabrock, 2023). Er stellt beispielsweise die Frage, ob eine Technologie wie ChatGPT die soziale Gerechtigkeit stärkt oder ob dadurch Ungleichheit zunimmt. Bessergestellte erhalten die Möglichkeit, sich durch menschengeschriebene Texte zu bilden und zu inspirieren, während bildungsfernere und finanzschwächere Personen sich mit KI-generierten Auszügen der Realität zufriedengeben müssten (Dabrock, 2023).
Es bleibt eine Herausforderung, Künstliche Intelligenzen wie ChatGPT „gesellschaftsfähig“ zu gestalten. Besonders die Umsetzung ethischer Standards bleibt fraglich. Wichtig ist, die Entwicklungen zu verfolgen und mitzugestalten. Nicht umsonst wurden bereits in der Vergangenheit verschiedene Initiativen der Bundesregierungen ins Leben gerufen (siehe Blogbeitrag zur Digitalen Ethik).
Insgesamt liegt die Verantwortung für die Vermeidung ethischer Probleme, die durch den Einsatz von ChatGPT entstehen können, in den Händen der Entwickler und derjenigen, die es einsetzen. Es ist wichtig, ethische Standards und Richtlinien zu entwickeln und diese zu befolgen, um sicherzustellen, dass der Einsatz von ChatGPT verantwortungsvoll und ethisch korrekt erfolgt.
- ChatGPT
Quellen
Dabrock, Peter, 2023, So lässt sich ChatGPT verantworten, https://www.spiegel.de/netzwelt/chatgpt-so-laesst-sich-kuenstliche-intelligenz-verantworten-gastbeitrag-a-d89746ff-a263-4a70-a6d2-7029bb45b7ac [8.3.2023]
FAZ, 2023, Darmstädter Forscher kritisieren Schwächen von ChatGPT, https://www.faz.net/aktuell/rhein-main/region-und-hessen/darmstaedter-forscher-kritisieren-schwaechen-von-chatgpt-18640182.html?profillogin [9.3.2023]
Krügel, Sebastian / Ostermaier, Andreas / Uhl, Matthias, 2023, The moral authority of ChatGPT, https://www.semanticscholar.org/paper/The-moral-authority-of-ChatGPT-Kr%C3%BCgel-Ostermaier/dfc125ec03e84c2ae26147964fc301b1455f3181 [8.3.2023]
Nida-Rümelin, Julian / Winter, Dorothea, 2023, KI kann schreiben wie Shakespeare, aber sie kopiert nur, https://www.welt.de/debatte/kommentare/plus243331151/ChatGPT-Textmaschinen-sind-nicht-kreativ-sie-kopieren-nur.html [8.3.2023]