Tech

KI ist weder künstlich noch intelligent

GettyImages-172033574

Krystal Kauffman ist seit sieben Jahren Turkerin. So nennen sich die Menschen, die bei Mechanical Turk arbeiten, der Crowdsourcing-Plattform von Amazon. Dort können Unternehmen Aufgaben erstellen, die dann Menschen gegen Geld erledigen. Sie transkribieren Audiodateien, schreiben Texte oder markieren Objekte in Bildern. Kauffman sagt, dass es bei vielen Jobs um das Training von KIs gehe, also Software mit sogenannter künstlicher Intelligenz.

“Zu solchen Aufgaben gehört zum Beispiel, denselben Satz sechsmal aufzusagen, damit die KI lernt, verschiedene Stimmen zu erkennen”, sagt Kauffmann. “Ich mache ein bisschen von allem, aber es gibt aktuell einen Haufen Anfragen für Machine Learning und Daten-Labeling.”

Videos by VICE

Kauffman gehört zu einem großen Heer von Arbeiterinnen und Arbeitern, sogenannten Clickworkern, die KI-Technologie erst zu dem machen, was sie ist. Sie gehen große Datensätze durch, labeln Bilder, filtern NSFW-Inhalte heraus und benennen Objekte in Fotos und Videos. Diese Aufgaben, die klassische Entwicklerinnen und Entwickler eher öde und lästig finden, werden häufig an Gelegenheitsjobber in Südasien und Afrika ausgelagert, die für Data-Training-Firmen wie iMerit, Sama und Alegion arbeiten. 

Auch Facebook profitiert davon. Die Plattform verfügt über einen der fortgeschrittensten Algorithmen zur Content Moderation. Die vermeintlich künstliche Intelligenz dahinter speist ihr Wissen allerdings “aus Tausenden menschlichen Entscheidungen”. Und einige der menschlichen Content-Moderatorinnen und Moderatoren, die bei ihrer Arbeit oft schlimme Darstellung von Gewalt sehen müssen, hat diese nachhaltig traumatisiert.

Die Illusion vom allmächtigen Algorithmus

Für große Tech-Unternehmen wie Meta oder Amazon hat die Entwicklung von KI höchste Priorität. Sie träumen von einer nahen Zukunft, in der KI viele menschliche Aufgaben übernimmt und ungeahnte Effizienz und Produktivität entfesselt. Aber diese Vision ignoriert, dass Vieles von dem, was wir für KI halten, in Wahrheit nur durch stumpfe und schlecht bezahlte menschliche Arbeit möglich ist.

Lora Forlano ist Dozentin für Design am Institute of Design des Illinois Institute of Technology und hat sich eingehend mit KI befasst. “Eines der großen Märchen in Bezug auf Computer-KIs ist meiner Meinung nach, dass sie so funktionieren, wie sie sollen. Dabei gleicht menschliche Arbeit viele Funktionslücken dieser Systeme aus”, sagt sie. “Die Industrie kann auf diese Weise weiter behaupten, dass diese Sachen magisch hinterm Bildschirm passieren – oder dass vieles davon der Algorithmus erledigt.”


Auch von VICE: Ein Facebook-Moderator über die menschlichen Abgründe, die er sah


Turkerinnen wie Kauffman, die dabei helfen, das Trainingsmaterial für diese KI-Systeme zu schaffen, wissen selten, wofür ihre Arbeit genau verwendet wird.

“Wir sind es gewohnt, an Dingen zu arbeiten, deren Zweck wir nicht genau kennen. Uns ist bewusst, dass wir an einigen dieser großen Tech-Geräte arbeiten. Ich muss nicht offiziell als Mitarbeiterin bezeichnet werden, aber man hört sehr selten, dass eins der großen Tech-Unternehmen das unsichtbare Heer von Arbeitern anerkennt, das einen Großteil dieser Technologie überhaupt erst möglich macht”, sagt Kauffman. “Sie gaukeln den Leuten vor, dass KI schlauer und fortgeschrittener ist, als sie es in Wahrheit ist.”

Im Hintergrund helfen Zehntausende Gelegenheitsjobber den Tech-Konzernen dabei, die Illusion von raffinierten und selbstgenügsamen Machine-Learning-Algorithmen aufrechtzuerhalten. Auf diese Weise können die Unternehmen so tun, als könnte ihr neues KI-Tool direkt eine Reihe von Aufgaben erledigen. Dabei hat die Entwicklung von KI in Wahrheit viel mehr mit der klassischen Produktion von materiellen Gütern gemein, als wir denken. 

Mit diesen Parallelen beschäftigt sich Kelle Howson vom Fairwork Projekt des Oxford Internet Institutes. “Ich glaube, der Öffentlichkeit ist nicht bewusst, dass das eine Lieferkette ist – eine globale Lieferkette mitsamt geografischer Ungleichheit”, sagt sie. “Und dass sie in großen Maß auf menschlicher Arbeit basiert.”

Ob Tech-Konzerne absichtlich den menschlichen Anteil an ihren KIs verschleiern, kann Howson nicht mit Sicherheit sagen. Es sei aber auf jeden Fall in ihrem Interesse. “Ich denke, dass es in gewisser Weise ihr Geschäftsmodell unterstützt”, sagt Howson. “Als Kunde greifst du aufs Interface einer Plattform zu, postest dein Projekt und es liefert sofort. Es ist fast wie Zauberei. Es fühlt sich an, als hätte nie eine Menschenseele etwas damit zu tun gehabt. Es erweckt den Anschein ungeheurer Effizienz. Das passt wunderbar ins Lieblingsnarrativ vom Silicon Valley: Disruption, Move fast and break Things.”

Digitale Sweatshops 

Wie andere globale Lieferketten ist auch die KI-Entwicklung von großer Ungleichheit geprägt. Ärmere Länder im globalen Süden tragen maßgeblich zur Entwicklung von KI-Systemen bei. 

Während die meisten Clickworker im globalen Süden leben, komme die Nachfrage für ihre Dienste überwiegend aus dem Norden, sagt Howson. “Wir wissen von anderen Lieferketten wie in den Bereichen Nahrungsmittel oder Textilien, dass dieses Auslagern an Niedriglohnländer häufig mit schlechterem Schutz, schlechteren Arbeitsbedingungen und Ausbeutung einhergeht.” 

Eine 2021 erschiene Studie zur Rolle globaler Arbeitskräfte in der KI-Entwicklung stellte fest, dass die Beteiligung von Menschen aus dem globalen Süden an der KI-Entwicklung eine Fortführung ausbeuterischer Praktiken ist – dem Kolonialismus nicht unähnlich.

Eine der Autorinnen der Studie ist Chinasa T. Okolo, Doktorandin am Department of Computer Science der Cornell University. “Die Menschen im globalen Süden bekommen häufig das bezahlt, was in ihrer Region als fairer Lohn gilt. Aber die Arbeit ist sehr stumpf, fummelig und auch etwas ermüdend”, sagt sie. “Natürlich ist das kein Vergleich zur körperlichen Arbeit in der Kolonialzeit, aber sie wird an dieselben Regionen vergeben und von ähnlichen Unternehmen.” Besonders belastend sei die Content Moderation. “Es hat schon mehrere Klagen von Mitarbeitern gegen Arbeitgeber oder Firmen wie Meta gegeben, um die Verhältnisse zu verbessern, in denen sie gezwungen sind zu arbeiten.”

Futuristische Illustration eines menschenleeren Bürogangs unter freiem Himmel
Bild: Getty Images

Im Mai 2022 reichte der ehemalige Content Moderator Daniel Motaung in Kenias Hauptstadt Nairobi eine Klage gegen Facebooks Mutterkonzern Meta und dessen größten Outsourcing-Partner Sama ein. Er beschuldigt die Unternehmen, Mitarbeitende im Vorhinein nicht über den wahren Inhalt ihrer Arbeit aufzuklären und ihn gefeuert zu haben, weil er eine Gewerkschaft gründen wollte.

Das Unternehmen Sama mit Sitz in San Francisco schmückt sich mit dem sogenannten Impact Sourcing. Das heißt, es schafft in armen Ländern Stellen für “ethisch korrekte” und “würdevolle digitale Arbeit”. Eine Recherche des TIME Magazines enttarnte dieses Modell schnell als Augenwischerei.

Motaung und andere Angestellte von Sama sagten gegenüber TIME, dass sie 1,50 US-Dollar die Stunde verdienen würden. Das ist zwar mehr als das übliche Durchschnittsgehalt in Kenia, reicht aber trotzdem kaum zum Leben. Mindestens zwei Menschen, die als Content Moderatoren bei Sama arbeiteten, kündigten ihren Job, nachdem bei ihnen posttraumatische Belastungsstörungen und Depressionen diagnostiziert wurden. Im Zuge ihrer Arbeit sahen sie ständig Bilder und Videos von Vergewaltigungen, Morden und Verstümmelungen. 

Die Forscherin Chinasa T. Okolo und ihre Kolleginnen weisen in ihrer 2021 erschienen Studie darauf hin, dass Unternehmen wie Sama, Scale AI und Mighty AI, die Dienstleistungen wie Content Moderation und Data-Labeling anbieten, ihren Hauptsitz in den USA haben, ihre Arbeitskräfte aber überwiegend in Niedriglohnländern in Subsahara-Afrika und Südostasien leben.

Wie Sama rechtfertigen auch andere Unternehmen das mit dem sogenannten Impact Sourcing, also der Entwicklungshilfe durch Arbeitsplätze. Experten warnen hingegen, dass hinter dieser Praxis unsichere und ethisch fragwürdige Arbeitsverhältnisse lauern, die kaum reguliert sind und vor allem keine Auswirkung auf die bestehenden Machtverhältnisse haben.

Den großen Tech-Unternehmen bringt diese Methode immense Vorteile. Sie sparen nicht nur Geld, sondern entziehen sich auch einer allzu strengen rechtlichen Überprüfung. Außerdem schafft es Distanz zwischen den ausgelagerten Arbeitern und dem Unternehmen, was ihnen dabei hilft, ihre KI-Tools weiterhin als technisch fortschrittlich zu vermarkten.

“Wenn der Arbeiter in einem Land sitzt, sein Arbeitgeber in einem anderen und der Auftraggeber in einem dritten, kann es schwierig werden, Arbeitsrecht durchzusetzen”, sagt Howson. “Diese Leute werden als freie Mitarbeiter beschäftigt und haben entsprechend wenig Rechte. Sie können sich auch nicht organisieren.”

Systematisch schlechte Bezahlung

Wenn man sogenannte Mikrotasks bearbeitet – also die Kleinstaufgaben, die überwiegend auf den Crowdsourcing-Plattformen angeboten werden –, sei es häufig die Zeit nicht wert, individuelle Probleme zu melden, sagt Howson. “Du erledigst eine Aufgabe in wenigen Minuten. Solltest du dafür nicht bezahlt werden, dauert es häufig viel länger, sich durch den Beschwerdeweg der Plattform zu arbeiten, als einfach die nächste Aufgabe zu machen.” 

Das wird von Firmen immer wieder systematisch ausgenutzt. Deswegen hat die Mechanical-Turk-Mitarbeiterin Kauffmann die Non-Profit-Organisation Turkopticon gegründet. Momentan versucht Turkopticon, das Unternehmen AI Insights zur Rechenschaft zu ziehen. Die Firma hatte im Sommer 2022 über 70.000 Tasks auf Amazons Plattform angeboten, nur um dann alle erledigten Bearbeitungen abzulehnen. Die Clickworker bekamen für ihre Arbeit kein Geld, aber AI Insights konnte die bearbeiteten Tasks behalten und weiterhin auf sie zugreifen. Laut Kauffman hat das Unternehmen zwar sofort nach der Rundumablehnung seinen Account auf der Plattform deaktiviert, bei Bedarf lässt er sich aber schnell wieder reaktivieren.

Normalerweise können die Turker die Auftraggeber kontaktieren, wenn diese ihre Bearbeitungen ablehnen, und die Aufgabe gegebenenfalls erneut einsenden. Aber viele Turker, die sich in dem Fall an AI Insights und Amazon wanden, seien ignoriert worden, sagt Kauffman. Wenn Amazon doch geantwortet habe, dann “dass man sich nicht zwischen Klienten und Arbeiter stellt”. Durch die Ablehnung seien die Ratings der betroffenen Turker eingebrochen. Ohne positive Bewertung findet man nur schwer gut bezahlte Arbeit auf der Plattform.

“Wir wissen, dass Amazon Möglichkeiten hätte, diese Angelegenheit zu klären. Es ist umso frustrierender, dass das Unternehmen es nicht macht”, sagt Kauffman.

Um sich als Turkerin bei Amazons Plattform anzumelden, habe sie ihre Sozialversicherungsnummer, ihren Führerschein und ihre Bankverbindung angeben müssen, sagt Kauffman. Die Auftraggeber könnten hingegen falsche Namen und E-Mailadressen angeben. Gegen diese Ungleichbehandlung will Turkopticon vorgehen.

Auf Anfrage hieß es von Amazon Web Services: “Die Ablehnungsrate ist insgesamt sehr niedrig (weniger als ein Prozent) und die Arbeiter haben Zugriff auf eine Reihe von Statistiken, die ihnen bei der Entscheidung helfen können, ob sie ein Task erledigen wollen. Dazu gehört auch die Akzeptanzrate des Auftraggebers.” Außerdem beobachte man solche Massenrückweisungen- Seit dem Vorfall mit AI Insights habe man die Abläufe verbessert.

Neben der schlechten Bezahlung und allgemeinen Unsicherheit beinhalten Plattformen wie Mechanical Turk laut Howson für Menschen, die damit Geld verdienen wollen, auch noch eine Menge unbezahlter Arbeit. Auf der Suche nach lohnenden Tasks aktualisiert man immer wieder die Startseite, bewirbt sich und muss dann, sollte man ausgewählt werden, als erstes den Job akzeptieren.

Die Zahl der Cloud-Arbeiterinnen und Arbeiter überwiegt bei Weitem die Menge der verfügbaren Tasks. Aggressives Konkurrenzdenken ist die Folge. Das wiederum nutzt den Auftraggebern.

Laut einer wissenschaftlichen Untersuchung von Howson sind Menschen im globalen Süden überproportional davon betroffen. Sie haben größere Probleme, Tasks und Aufträge abzurufen, und müssen deswegen mehr Zeit auf diesen Plattformen verbringen, ohne dafür bezahlt zu werden.

Das auf Geschwindigkeit und Masse getrimmte Modell kommt auf den ersten Blick den Bedürfnissen der Industrie entgegen, dabei ist fraglich, wie effektiv es tatsächlich ist. Niedriglohnarbeit hat nicht nur negative Auswirkungen auf die Menschen, die sie machen, sondern auch auf die Qualität des Outputs.

“Viel des Labelings geschieht überhastet”, sagt die Forscherin Chinasa T. Okolo. “Bei meinen Erfahrungen mit Amazons Mechanical-Turk-Plattform habe ich Bots erlebt und Menschen, die Fragen falsch beantwortet haben. Das wirkt sich definitiv auf die Datensätze aus.” KIs sind auf Verlässlichkeit und Qualität angewiesen. Wenn man nicht bereit ist, dafür Geld auszugeben, kriegt man das in der Regel auch nicht.

Gibt es einen Ausweg?

Aber nicht nur Clickworker trainieren KIs, sondern wir alle – kostenlos. Wir trainieren KIs, wenn wir in einer Captcha alle Zebrastreifen markieren, Google Maps zum Navigieren nutzen. Aber auch bekannte KI-Bildgeneratoren wie DALL-E2, Midjourney und Stable Diffusion sowie KI-Textgeneratoren wie GPT-3 nutzen im großen Stil kostenlose menschliche Arbeit. Sie durchforsten im sogenannten Deep-Learning-Prozess riesige Datensätze mit Bildern oder Texten, die von Menschen geschaffen wurden.

Indem sie den menschlichen Anteil an KI in den Vordergrund stellen, hoffen Expertinnen und Forscherinnen einen Wandel in der Tech-Industrie herbeizuführen. Die aktuell herrschende Mentalität bestimmt technologische Prozesse und beutet die daran arbeitenden Menschen aus.

Menschen werden sehr wahrscheinlich immer ein Teil von KI sein – sei es bei der Entwicklung von Modellen oder der Fehlerkorrektur. Deswegen fordern KI-Expertinnen auch, dass man sich jetzt darauf konzentriert, Menschen auf ethisch vertretbare Weise und nachhaltig in den Prozess einzubinden.

Sie empfehlen eine größere Transparenz von Tech-Firmen und neue Regeln, die die Arbeitsbedingungen und Gehälter von Clickworkern verbessern. Außerdem schlagen sie vor, Fortbildungsangebote bereitzustellen, die es den Clickworkern erlauben, mehr zu KI-Modellen beizutragen, als nur Objekte zu labeln. 

Expertinnen und Experten schlagen vor, dass jedes KI-Training als Arbeit anerkannt werden sollte. Das würde Internetnutzerinnen und -usern die Möglichkeit geben, sich bewusst dafür zu entscheiden, ob sie kostenlos ein Machine-Learning-System trainieren wollen. Die Arbeit sollte entsprechend vergütet werden – wenn nicht mit Geld, dann zumindest durch andere Anreize.

Folge VICE auf Facebook, TikTok, Instagram, YouTube und Snapchat.