Nairobi  Ausgebeutet und unterbezahlt: Wie künstliche Intelligenz über Rassismus und Gewalt lernt

Anneke Rieterken
|
Von Anneke Rieterken
| 23.01.2023 18:45 Uhr | 0 Kommentare | Lesedauer: ca. 2 Minuten
Mit der Künstlichen Intelligenz ChatGPT lassen sich Gespräche führen, Fragen beantworten und kreative Texte generieren. Foto: IMAGO IMAGES/NurPhoto
Mit der Künstlichen Intelligenz ChatGPT lassen sich Gespräche führen, Fragen beantworten und kreative Texte generieren. Foto: IMAGO IMAGES/NurPhoto
Artikel teilen:

Geburtstagsgrüße im Stil von Shakespeare oder den nächsten Deutsch-Essay: Die Künstliche Intelligenz ChatGTP kann nahezu alles texten. Doch um ethisch korrekt zu sein, musste sie lernen, was Rassismus, Gewalt oder sexueller Missbrauch sind – auf Kosten kenianischer Arbeiter.

Seit seiner Veröffentlichung im November vergangenen Jahres ist der Chatbot „ChatGPT“ des US-amerikanischen Unternehmens OpenAI ein viel diskutiertes Programm. Und die Zahlen sprechen für sich: Innerhalb von fünf Tagen registrierten sich eine Millionen Nutzer, um sich computergenerierte Texte ausspucken zu lassen. Ob Gedichte, Songtexte, Hausaufgaben, Definitionen oder eine Webseiten-Programmierung: Die Künstliche Intelligenz generiert nahezu jeden erdenklichen Text. Doch wie ChatGPTs Vorgänger, GPT-3, gezeigt hat, bietet dieses System auch viele Optionen zur missbräuchlichen Verwendung.

Da die Künstliche Intelligenz Textbeispiele aus dem Internet als Trainingsdaten verwendet, übernimmt sie unweigerlich auch dort kursierende Vorurteile, Falschmeldungen, Gewaltbeschreibungen und weitere negativ behaftete Inhalte. So kamen Forschende zu der Erkenntnis, dass GPT-3 ein Problem mit diskriminierenden, vorurteilbeladenen und rassistischen Inhalten hat.

Lesen Sie auch: Digitalminister Wissing warnt vor überzogener KI-Regulierung

Um dem maschinell lernenden System beizubringen, was Hass und Gewalt sind, hat OpenAI daraufhin angefangen, die Künstliche Intelligenz mit Texten zu Themen wie Missbrauch oder Gewalt zu füttern. Einer Recherche des „Time Magazine“ zufolge hat OpenAI das amerikanische Unternehmen Sama damit beauftragt, tausende Textausschnitte mit brutalen Gewalt- und Missbrauchsschilderungen zu lesen und zu bewerten. Mit der Aufgabe betraut wurden die Mitarbeitenden im Firmensitz in Nairobi.

So sollten Trainingsdaten für das Programm generiert werden, anhand derer es besser erkennt, welche Inhalte aus ethischer Sicht problematisch sind. Mittlerweile ist das System so sehr geschult, dass es kaum noch rassistische oder sexistische Texte generieren kann.

Was mit Blick auf den zukünftigen Einsatz von Künstlicher Intelligenz nach einem Fortschritt für die Technologie klingt, hat für die kenianischen Arbeiter jedoch schwerwiegende Folgen. Gegenüber dem „Time Magazine“ erklärten drei der Arbeiter, dass sie während einer regulären neun-Stunden-Schicht 150 bis 200 Texte über Themen wie Missbrauch, Gewalt oder Mord lesen mussten – für einen Stundenlohn zwischen 1,32 und zwei Dollar.

Sie beschrieben, dass sie die bildliche Vorstellung der Schilderungen, die sie lesen und bewerten mussten, auch nach Feierabend nicht mehr losgeworden sind. Eine weitere Arbeiterin schilderte gegenüber dem Magazin, dass zudem nicht immer eindeutig klar war, ob ein Sachverhalt als sexualisierte Gewalt eingestuft werden müsse oder nicht.

Die Recherche zeigt, dass viele Arbeiter ihre psychische Gesundheit riskiert haben, um der OpenAI-Mission, „sicherzustellen, dass künstliche Intelligenz der gesamten Menschheit zugutekommt“, zum Erfolg zu verhelfen.

Ähnliche Artikel