«KI-Flüsterer» als Hilfe gegen die Voreingenommenheit von ChatGPT

04.10.2023
5 Min.
In letzter Zeit sind ChatGPT & Co. in aller Munde. Diese Generativen Sprachemodelle (Generative Language Models oder Large Language Models LLM) werden verändern, wie wir arbeiten. Eine neue Ära der Technologie ist damit angebrochen. Aber was ist überhaupt ein LLM? Und wieso kann deren Anwendung problematisch sein? Heute gehen wir diesen Fragen nach und erläutern, wie wir eventuellen negativen Auswirkungen im Arbeitsalltag begegnen können.
 
 
ChatGPT und andere sogenannte «Generative Sprachmodelle» (auch LLM genannt, Large Language Models) haben ein enormes Potenzial und werden die Art und Weise stark beeinflussen, wie wir miteinander kommunizieren. 
 

Was ist ein «Large Language Model» (LLM)?

ChatGPT ist ein Produkt von OpenAI. «GPT» steht für «Generative Pre-trained Transformer».
  • «Generative» bedeutet, dass ein System ein Resultat generiert, sei es Text, Bilder oder etwas anderes.
  • «Pre-trained» bedeutet, dass das Modell mit Daten trainiert wurde, die ihm im Voraus zur Verfügung gestellt wurden. Im Falle von GPT-3.5 handelt es sich bei den Trainingsdaten hauptsächlich um Texte aus dem Internet, die von Menschen in der Vergangenheit verfasst wurden.
  • «Transformer» bedeutet, dass die Lösung Text aus anderem Text generiert. Dies geschieht durch Vorhersage und somit Generierung des nächsten Textsymbols auf der Grundlage des vorherigen Textsymbols.
 
Dieser Ansatz bedeutet, dass alles, was ein LLM erzeugt, fiktiv, aber plausibel ist. Da die Plausibilität auf realen Trainingsdaten beruht, ist das Resultat manchmal korrekt, manchmal einigermassen richtig und manchmal komplett falsch. 
 

Voreingenommenheit in LLM 

KI-Lösungen bestehen aus einer Kombination von Algorithmen. Daher ist es entscheidend, wie und in welcher Reihenfolge diese angewandt werden und welche Trainingsdaten sie erhalten haben. Da dies jedoch von den KI-Unternehmen nicht transparent gemacht wird, wird die Öffentlichkeit im Dunkeln gelassen, wie diese Texte entstehen und welches die Quellen der Texte sind. Zudem ist es unklar, welche ethischen Regeln den Modellen zugrunde liegen. 
 
So wissen wir zwar, dass OpenAI eine Kontroll-KI einsetzt, damit ChatGPT rassistische und sexistische Ausdrücke nicht verbreitet. Dafür wurden kenianische Freelancer zu einem Lohn von weniger als USD 2/Stunde angestellt, die das Internet nach schlimmen Inhalten absuchen und diese einordnen mussten. Aber es ist nicht transparent dargestellt, was OpenAI als rassistisch und sexistisch definiert. 
 
Das System selbst hat keine ethischen Grundregeln; es kann nicht selbst bestimmen, was Vorurteile sind oder Voreingenommenheit ist. Es hat kein Verständnis von richtig oder falsch. Die für das Training verwendeten Daten bestimmen, was das LLM tatsächlich weiss und damit auch reproduziert. 
ChatGPT zum Beispiel stützt sich auf Daten aus Texten im Internet vor 2022. Was bedeutet das?
  • Dass später entwickelte Sprache nicht von ChatGPT erzeugt werden kann. Sprache, die von sozialen Bewegungen wie MeToo, Black Lives Matter, LGBTQ+, Generation Z oder anderen stetig entwickelt wird, wird von der LLM bis zum neuen Release nicht reproduziert. 
  • Generative Sprachmodelle werden stark von den Daten beeinflusst, die ihnen am häufigsten zur Verfügung stehen. Das bedeutet, dass sie aufgrund von statistischer Auswertung den «Mehrheitsstandard» reproduzieren. 

Wenn also ein neues Vokabular entwickelt wird – zum Beispiel, um eine unterrepräsentierte Gruppe stärker einzubeziehen –, aber nur eine Minderheit dieses Vokabular beim Schreiben verwendet, wird ChatGPT solche neuen Sprachtrends nicht erkennen und sie nicht in seiner eigenen Textproduktion vorschlagen. Zudem werden die meisten Inhalte von eher gut gebildeten Menschen geschrieben, die Zugriff aufs Internet haben. Damit repräsentiert dieser nicht die Sprach-Diversität der Welt. 
 
Kurz: LLM bergen ein grosses Risiko, Stereotypen und Vorurteile zu reproduzieren, die tief in unserer Gesellschaft verwurzelt sind, da sie auf alten, von Menschen erstellten Inhalten basieren. Es besteht also die Gefahr, dass solche Sprachmodelle Stereotypen verbreiten, die wir eigentlich loswerden wollen, um als Gesellschaft voranzukommen. Sie verstärken das Problem sogar, weil in kurzer Zeit sehr viel Inhalt produziert wird. Und zu guter Letzt bremsen sie neue Sprachentwicklungen aus, die die Gesellschaft weiterbringen.
 

Nicht verteufeln, sondern überprüfen

Wir sollten die jüngsten Entwicklungen im Bereich der LLM keineswegs auf die leichte Schulter nehmen. Im Gegenteil, wir sollten uns der Voreingenommenheit bewusst sein, die sie widerspiegeln. 
 
Aber es ist auch eine Tatsache, dass Leute im Marketing, in der Kommunikation und auch der Personalabteilung Instrumente wie ChatGPT nutzen werden, um schneller und kreativer zu schreiben, damit erfolgreicher zu sein und auch, um Langeweile zu vermeiden. Denn für eine Texterin ist die Aufgabe, zum millionsten Mal in ihrer Karriere eine Osterwerbekampagne zu schreiben, nicht gerade ein Vergnügen.
 
Aber wir dürfen LLM nicht verteufeln, denn sie bieten auch enorme Chancen. Zum Beispiel wurde festgestellt, dass ein LLM einer Patientin empathischer erklären konnte, welche Krankheit sie hat.
 
Wir sollten aber vermeiden, die von LLM ausgegebenen Resultate einfach zu akzeptieren – und sie dann ohne Überprüfung zu verwenden. Im Gegenteil: Wir müssen diese Texte zwingend kontrollieren, bevor wir sie nutzen, und sicherstellen, dass sie nicht voreingenommen sind. Zudem müssen wir – vor allem wenn es um nicht-kreatives Schreiben geht, also dort, wo Fakten belegt werden müssen – die Quellen nachforschen. Sonst werden sich Fake News schnell verbreiten.*
 

Voreingenommenheit umgehen mit «AI whisperer»

Obwohl wir wissen, dass ChatGPT an diesen Problemen arbeitet, ist es klar, dass das Sprachmodell nur begrenzt auf Voreingenommenheit und Vorurteile achtet. Das Entfernen dieser Elemente aus Sprachmodellen ist eine anspruchsvolle Aufgabe und wurde bei vielen gängigen Plattformen noch nicht vollständig berücksichtigt.
 
So ist es notwendig, dass wir den Nutzenden von LLM-Lösungen zur Seite stellen, die ihnen helfen, von LLM produzierte Texte zu überprüfen. Eine mögliche Lösung könnte sein, zusätzliche Modelle über das Sprachmodell zu legen. Diese Instrumente nennen sich «KI Flüsterer» (AI whisperer). 
 
Ein AI whisperer überprüft das Ergebnis des Sprachmodells und macht dann Vorschläge, wie das Resultat «optimiert» werden könnte. Zum Beispiel können Augmented Intelligence-Lösungen wie Witty verwendet werden, um die Ergebnisse von ChatGPT zu überwachen und Voreingenommenheiten oder Stereotypen zu erkennen. 
 

Risiken durch Sprach-KI am Arbeitsplatz

Texte, die mit LLM erschaffen wurden und unüberprüft weitergeben werden, können für Unternehmen Nachteile haben und sogar Risiken bergen. So schrecken Texte, die Stereotypen erhalten, neue Talente oder Kundinnen ab. Kommen diskriminierende Begriffe in einer internen Rundmail vor, so kann das dem verantwortlichen Geschäftsleitungsmitglied den Job kosten. Je nachdem können daraus sogar Rechtsfälle entstehen. 
 
LLM-produzierende Unternehmen stellen ihr KI gerne als ausgeklügelt und intelligent dar. Tatsache ist jedoch, dass diese Algorithmen aufgrund von statistischen Auswertungen ihre Entscheidungen treffen und kein Verständnis dafür haben, was sie als Texte vorschlagen. Darum ist es weiterhin notwendig, dass die Mitarbeitenden eines Unternehmens, die LLM wie ChatGPT nutzen, wachsam sind und die Resultate mithilfe von KI Flüsterern abändern. Dadurch stellen sie sicher, dass der produzierte Text keine Vorurteile enthält und somit zum eigenen Geschäftserfolg sowie zu einer Welt beiträgt, die gerade versucht, sich Diskriminierung am Arbeitsplatz abzugewöhnen.
 
 
* Eigentlich sollte diese Verantwortung bei den LLM-produzierenden Unternehmen liegen. Und wenn ich etwas kritisiere an Unternehmen wie OpenAI, dann ist es mangelnde Übernahme der Verantwortung in der Produktion solcher Modelle. 
 
 

Die Autorin

 
Nadia Fischer ist CEO und Co-Gründerin von Witty Works AG. «Witty» ist eine KI-basierte Software, die Unternehmen und ihren Mitarbeitenden hilft, inklusiv zu schreiben und sich inklusives Verhalten nachhaltig anzutrainieren. Mit Analytics werden «Bias Fallen» entdeckt. Witty kann gratis genutzt werden. Ursprünglich studierte Nadia Internationale Beziehungen in Genf, wechselte dann in die Tech-Branche, weil sie auf der Suche nach Innovation und dynamischen Entwicklungen war. 
 
 

Der Beitrag erschien im topsoft Fachmagazin 23-2

 

Das Schweizer Fachmagazin für Digitales Business kostenlos abonnieren

Abonnieren Sie das topsoft Fachmagazin kostenlos. 4 x im Jahr in Ihrem Briefkasten.