GettyImages-172033574
Afbeelding: Getty Images 
Tech

AI is niet kunstmatig, en ook niet intelligent

Innovaties in kunstmatige intelligentie worden gedreven door onderbetaalde arbeiders in armere landen.

Krystal Kauffman is inmiddels al zeven jaar een Turker. Ze werkt voor Mechanical Turk (MTurk), een crowdsourcing website van Amazon waarmee bedrijven werkers kunnen inhuren die tegen betaling verscheidene kleine taken verrichten. Veel van die taken, zegt Kauffman, bestaan uit het trainen van AI-projecten. 

“In het verleden hebben we aan een aantal grote AI-projecten gewerkt. Er zijn taken waarbij mensen simpelweg dezelfde zin zes keer moeten herhalen, zodat de AI wordt getraind om verschillende stemmen en dingen te herkennen,” vertelt Kauffman aan Motherboard. “Eigenlijk doe ik van alles wat, maar het draait tegenwoordig vooral om machine learning en AI data labeling. We hebben een toename gezien in het aantal opdrachtgevers die het werk in hun vacatures vermelden.” 

Advertentie

Kauffman is onderdeel van de grote groep mensen die AI aandrijft; ze verrichten werkzaamheden zoals het doorspitten van grote datasets om afbeeldingen te labelen, NSFW-content wegfilteren en objecten in afbeeldingen en video’s annoteren. Dit soort taken, die door veel in-house developers als saai repetitiewerk wordt gezien, worden vaak uitbesteed aan flexwerkers en werkers die vooral in Zuid-Azië en Afrika wonen en voor data training-bedrijven zoals iMerit, Sama en Alegion werken. Facebook heeft bijvoorbeeld een van de meest geavanceerde algoritmische content moderation-systemen op het internet. De zogenoemde kunstmatige intelligentie van dat systeem leert echter “van duizenden menselijke keuzes” gemaakt door menselijke moderators

Grote bedrijven zoals Meta en Amazon pronken met robuuste AI-ontwerpteams en beweren dat AI het voortouw neemt bij hun werk. Meta schrijft “onze toekomst hangt af van ons vermogen om de nieuwste AI technologie op schaal te benutten,” en Amazon moedigt opdrachtgevers aan om “sneller te innoveren met de meest uitgebreide reeks AI- en [Machine Learning]-diensten.”

“We zijn gewend om aan dingen te werken waarvan we eigenlijk niet precies weten waar ze voor zijn […] we weten dat we aan een paar van die grote tech-instrumenten werken. En hoewel ik geen werknemer of zoiets genoemd hoef te worden, komt het maar heel weinig voor dat je een groot techbedrijf de onzichtbare arbeidskrachten achter een hoop van die technologie ziet erkennen.”

Advertentie

De grootste techbedrijven van dit moment zien een wereld voor zich waarin AI een hoop menselijke arbeid zal overnemen, waardoor er meer efficiëntie en productiviteit zal ontstaan. Maar deze visie houdt geen rekening met het feit dat hetgeen wat we als “AI” beschouwen eigenlijk wordt aangedreven door uitputtende, laagbetaalde menselijke arbeid.

“Ik denk dat een van de mythes rondom AI-computerwerk is dat het daadwerkelijk zoals bedoeld werkt. Volgens mij moet alle menselijke arbeid momenteel gewoon een hoop gaatjes in de werking van de systemen opvullen,” vertelt Laura Forlano, hoofddocent Design bij het Designinstituut van het Illinois Instituut van Technologie, aan Motherboard. “Aan de ene kant kan de industrie claimen dat deze dingen op, zeg maar, magische wijze achter de schermen worden gedaan, of dat het voor een groot deel computerwerk is. Maar we weten echter dat er zoveel voorbeelden zijn, zij het online content, of de besturing van een autonoom voertuig, of medische apparatuur, waarbij menselijke arbeid de gaatjes moet opvullen waar het systeem zelf gewoon niet bij kan.”

Mensen zoals Kauffman, die helpen bij het maken van de ruwe materialen die nodig zijn om deze systemen te trainen, hebben zelden inzicht over waar hun harde werk uiteindelijk voor zal worden gebruikt. 

“We zijn gewend om aan dingen te werken waarvan we eigenlijk niet precies weten waar ze voor zijn [...] we weten dat we aan een paar van die grote tech-instrumenten werken. En hoewel ik geen werknemer of zoiets genoemd hoef te worden, komt het maar heel weinig voor dat je een groot techbedrijf de onzichtbare arbeidskrachten achter een hoop van die technologie ziet erkennen,” zegt Kauffman. “Ze laten mensen denken dat AI slimmer en geavanceerder is dan het daadwerkelijk is; dat is ook waarom we het elke dag trainen.”

Advertentie

Techbedrijven huren tienduizenden flexwerkers in om de illusie in stand te houden dat hun machine-learning algoritmes volledig op zichzelf functioneren en dat elke nieuwe AI-tool een hoop problemen out of the box kan oplossen. Maar in werkelijkheid heeft AI-design veel meer gemeen met de productiecyclussen van materiële producten dan we denken.

“Ik denk dat de bevolking niet goed doorheeft dat dit eigenlijk een supplychain is. Het is een wereldwijde supplychain, met oneven geografische stromen en relaties. En het is gebouwd op een enorme hoeveelheid menselijke arbeid,” vertelt Kelle Howson, een postdoctorale onderzoeker bij het Fairwork-project aan het Oxford Internet Institute, aan Motherboard. 

Howson kan niet met zekerheid zeggen of techbedrijven opzettelijk de menselijke werkers achter AI verdoezelen, maar wel dat het in hun belang is om dat te doen. “Ik denk dat het in zekere zin hun zakenmodellen ondersteunt omdat je het idee hebt dat het werk al gedaan is,” zegt Howson. “Als opdrachtgever werk je met de interface van het platform, post je je project en het werk wordt meteen geleverd. Het is bijna magie. Er was misschien wel geen enkele persoon bij betrokken, of zo voelt het tenminste, dus dan krijg je zo’n gevoel van efficiëntie. En dat sluit goed aan bij het beeld dat Silicon Valley graag schept. De verstoring, het ‘tech-solutionisme’, de roekeloze ideeën.” 

Advertentie

Net als bij andere wereldwijde supplychains is er een grote onbalans bij de AI-pipeline. Ontwikkelingslanden in het Mondiale Zuiden (een groepering van landen met een laag inkomen) zijn de drijfveren voor de ontwikkeling van AI-systemen door werkzaamheden met lage lonen zoals beta testing, het annoteren en labelen van data, en content moderation, terwijl landen in het Mondiale Noorden (een groepering van meer welvarende, grotendeels westerse landen) de machtscentra zijn die van dit werk profiteren.

“Er zijn veel meer werkers op ‘microwork-platforms’ (platforms waarop dergelijke kleine taken kunnen worden uitgevoerd) in het Mondiale Zuiden dan in het Mondiale Noorden. Dus het grootste deel van het arbeidsaanbod op deze platforms is in het Mondiale Zuiden geconcentreerd terwijl het grootste deel van de vraag in het Mondiale Noorden is gevestigd,” zegt Howson. “We weten uit ervaring met andere supplychains, bijvoorbeeld landbouwvoedsel of textiel, dat wanneer er standaard werk wordt uitbesteed naar laagbetaalde arbeid en lageinkomenslanden, dat vaak samengaat met uitbuitende relaties en slechtere arbeidsbescherming en arbeidsomstandigheden.”

In een artikel uit 2021 over de rol van mondiale arbeid in AI-ontwikkeling stelden onderzoekers van AI-ethiek dat de huidige inclusie van werkers uit het Mondiale Zuiden in de AI-pipeline een voortzetting is van uitbuitingspraktijken – iets dat lijkt op de geschiedenis van koloniale exploitatie, waarbij westerse staten profiteerden van mensen uit het Mondiale Zuiden en hun grondstoffen om toegang te krijgen tot goedkope, fysiek uitputtende arbeid die hun instituties en bedrijven ten goede kwamen. 

Advertentie

“Het komt erop neer dat mensen in het Mondiale Zuiden vaak een zogenaamd eerlijke loon betaald krijgen, gebaseerd op het bbp per hoofd of het plaatselijke inkomen in hun respectievelijke context. Maar het werk is erg eentonig, handmatig en ook enigszins vermoeiend, hoewel je het natuurlijk niet kunt vergelijken met het fysieke werk dat werd gedaan of het werk op de plantages in het koloniale tijdperk,” vertelt Chinasa T. Okolo, een van de schrijvers van het artikel en een promovendus in het Departement van Computerwetenschap aan Cornell University, aan Motherboard. “Maar dit werk wordt ook aan dezelfde regio’s en vergelijkbare bedrijven gecontracteerd. Content moderation wordt absoluut lastiger voor de werkers zelf, aangezien ze de hele dag door verschillende soorten materialen moeten bekijken, wat zeker mentaal uitputtend is als je er constant aan wordt blootgesteld. Het is al voorgekomen dat werkers in deze landen rechtszaken tegen werkgevers of bedrijven zoals bijvoorbeeld Meta aanspannen, om de werkomstandigheden waarin ze zich bevinden aan te vechten.” 

In mei begon een voormalige content moderator genaamd Daniel Motaung in Nairobi, Kenia een rechtszaak tegen Facebooks moederbedrijf Meta en diens grootste uitbestedingspartner Sama, met de aanklacht van dwangarbeid, mensenhandel en het onderdrukken van vakbonden. Uit een onderzoek door TIME Magazine bleek al snel dat Sama’s missie om arme landen met “ethisch” en “waardig digitaal werk” te verschaffen eigenlijk een schijnvertoning van “participation-washing” was. Deze term wordt door onderzoekers zoals Forlano gebruikt voor bedrijven die werkers bij een “postkoloniale structuur van wereldwijde macht” betrekken als een vorm van ‘virtue signaling’ (schijnheilig gedrag waarbij een bedrijf of organisatie goede ontwikkelingen beweert te maken die bij nader inzien erg tegenvallen of niet echt blijken te zijn), in plaats van dat ze de werkers als betekenisvolle democratische partners beschouwen. Motaung en andere werknemers bij Sama vertelden TIME dat ze slechts 1,50 dollar betaald kregen en minstens twee andere content moderators werden gediagnosticeerd met mentale stoornissen zoals PTSS nadat ze voor hun werk grafische afbeeldingen en video’s moesten bekijken waarop verkrachting, moord en verminking te zien zijn. 

Advertentie



De onderzoekers merken op dat hoewel bedrijven die aan content moderation en labeling doen, zoals Samasource, Scale AI en Mighty AI in de VS gevestigd zijn, hun arbeidskracht erg afhankelijk is van slechtbetaalde werkers uit sub-Saharisch Afrika en Zuidoost-Azië. “Hierdoor is er een grote ongelijkheid tussen de miljoenen aan winst die de data labeling-bedrijven binnenhalen en wat de werkers verdienen. Werkers bij Samasource verdienen bijvoorbeeld zo’n 8 euro per dag, terwijl het bedrijf in 2019 ruim 18 miljoen euro verdiende,” aldus Okolo en andere schrijvers in een artikel uit 2021. “Hoewel Lee opmerkt dat 8 euro per dag op sommige plekken best een fatsoenlijk loon is, is de enorme ongelijkheid in winst nog steeds een feit, ondanks het belang van deze mensen voor de hoofdzaken van deze bedrijven.”

Bedrijven zoals Meta praten het uitbesteden van arbeid naar minder ontwikkelde landen goed door te beweren dat ze aan zogenoemde “impact sourcing” doen, oftewel het opzettelijk inhuren van werkers uit benadeelde of kwetsbare bevolkingsgroepen om ze mogelijkheden te gunnen die ze anders niet zouden krijgen. Maar experts waarschuwen dat er onveilige en onethische werkomstandigheden achter dit gebruik schuilgaan, die niet worden gereguleerd en op geen enkele manier de macht herverdelen. 

Sara Enright, projectleider bij de Global Impact Sourcing Coalition (GISC), vertelde MIT Technology Review: “Als het alleen maar flexwerk is waarbij een individu op een dag af en toe een uurtje werk voor parttime loon doet, dan is dat geen impactvol werk, omdat het niet daadwerkelijk tot carrièreontwikkeling en uiteindelijk een vermindering van armoede leidt.”

Advertentie

Experts zeggen dat het uitbesteden van werkers voordelig is voor grote techbedrijven, niet alleen om geld te besparen, maar ook om het makkelijker te maken om strenge rechterlijke controle te vermijden. Er ontstaat ook een onzichtbare kloof tussen de werkers en het bedrijf zelf, waardoor ze de magische en verfijnde marketing van hun AI-tools kunnen aanhouden. 

“Als er arbeidsbescherming en rechtsbevoegdheid van de werkers zijn, is het ontzettend moeilijk om die te handhaven als de opdrachtgever in een ander land zit en het platform in weer een ander land,” zegt Howson. “Ze worden geclassificeerd als zelfstandige aannemers, dus ze kunnen amper beroep doen op arbeidsbescherming of een wetgevingskader waarmee ze een vakbond kunnen oprichten of collectieve onderhandelingen met de platforms kunnen aangaan.”

Door deze structurele onbalans van macht kunnen werkers zich vaak niet uitspreken over hun opdrachtgevers, zij het over ethische zorgen bij de dataset waar ze aan werken of over schendingen van de arbeidswetten, zoals de weigering om een adequaat loon te betalen. 

“Naast dat ik geen fatsoenlijke loon krijg wordt het labelen vaak ook afgeraffeld. Tijdens het gebruik van Amazon Mechanical Turk ben ik bots en mensen tegengekomen die onjuiste antwoorden op vragen geven. Zo’n dynamiek heeft ook zeker invloed op de kwaliteit van deze datasets.”

Toen Motherboard aan Clickworker, een marktplaats voor crowd work die AI Solutions als één van hun voornaamste soorten werk op diens platform promoot, vroeg hoe ze ervoor zorgen dat werkers zich over mishandeling van opdrachtgevers kunnen uitspreken, antwoordde een vertegenwoordiger: “Zoiets kan bij ons niet gebeuren, omdat de Clickworkers geen contact hebben met de opdrachtgever; alle omgang met opdrachtgevers wordt door ons gedaan.”

Advertentie

“Het is ook een product van de geografische discriminatie die mogelijk wordt gemaakt door de mondiale arbeidsmarkt, waarbij opdrachtgevers en werkers eigenlijk een directe, real-time connectie met elkaar hebben en kortetermijncontracten afsluiten, alvorens weer met iets anders door te gaan,” zegt Howson. “Als ‘micro-worker’ is het niet alleen heel erg moeilijk maar waarschijnlijk ook zonde van je tijd om deze individuele gevallen aan te vechten wanneer ze gebeuren, omdat je maar een paar minuten bezig bent met één taak. Als je er niet voor wordt betaald duurt het zo veel langer om door een eerlijk proces van bemiddeling te gaan dan om gewoon door te gaan naar de volgende taak.” 

Kauffman is één van de werkers die Turkopticon aanvoert, een non-profitorganisatie die voor de rechten van Turkers staat en en brengt problemen onder de aandacht bij Amazon. Momenteel doet ze mee met de strijd van de organisatie om gerechtigheid te vinden tegen AI Insights, een AI-bedrijf dat meer dan 70.000 taken op Mechanical Turk zette, om vervolgens al het verrichte werk dat het ontving af te wijzen. Dit betekende dat het bedrijf het verrichte werk kon houden en inkijken, maar dat het de werkers niet hoefde te betalen. Kauffman zei dat het bedrijf plotseling het platform verliet nadat het werk was geweigerd, maar dat diens rekening nog steeds bestaat, waardoor de account weer zou kunnen worden geactiveerd als het bedrijf dat zou willen. 

Advertentie

Als het werk van een Turker wordt geweigerd kan de werker de opdrachtgever contacteren om na te vragen waarom en in sommige gevallen het werk corrigeren en opnieuw inleveren. Maar veel Turkers die bij AI Insights en Amazon aanklopten werden ofwel genegeerd ofwel verteld dat er niks aan viel te doen. Volgens Kauffman had dit als gevolg dat een hoop werkers hun werk verloren en hun waarderingsscore omlaag ging, wat het moeilijker maakte om goed verdienend werk op het platform te vinden. 

“Er zijn meerdere mails naar Amazon gestuurd over deze situatie en als die al werden beantwoord kregen de werkers te horen dat Amazon niet tussen de opdrachtgevers en de werkers komt. Dus ze konden en zouden er niks aan doen,” zegt Kauffman. “We proberen duidelijk te maken wat er aan de hand is en we weten dat Amazon het vermogen heeft om er iets aan te doen, maar dat doen ze niet, en het is echt vreselijk frustrerend.”

Kauffman legt uit dat toen ze zich als werker wilde inschrijven ze haar BSN, rijbewijs en bankgegevens moest sturen om vast te stellen dat ze legitiem was. Maar ter vergelijking kunnen opdrachtgevers neppe namen en emails gebruiken, en hoeven ze zich niet aan dezelfde verificatiestandaarden te houden. Turkopticon probeert deze onbalans van macht te bestrijden. Turkers eisen dat het platform een limiet legt op het aantal afwijzingen dat de waarderingsscore van een werker kunnen beïnvloeden als een opdrachtgever al het werk weigert en dat er wordt samengewerkt met hun coalitie van arbeidersfora om oplossingen te bedenken waar zowel opdrachtgevers als werkers bij MTurk baat bij hebben.

Advertentie

“De mate waarmee de taken van werkers door opdrachtgevers worden afgewezen is erg laag (minder dan 1 procent) en werkers hebben toegang tot een aantal parameters die behulpzaam kunnen zijn bij het bepalen of ze aan een taak willen werken, waaronder een register waarin te zien is hoe vaak de opdrachtgever taken heeft geaccepteerd,” vertelt een vertegenwoordiger van Amazon Web Services aan Motherboard. “MTurk blijft een hoop werkers helpen met het verdienen van geld en het bijdragen aan de groei van hun gemeenschappen.” Amazon laat ook weten dat het toezicht heeft op massale afwijzingen en dat het verbeteringen aan diens proces heeft gemaakt sinds het incident met AI Insights. 

Howson vertelt Motherboard dat er een hoop onbetaald werk in de ‘cloud working’-economie van flexwerkplatforms zoals Mechanical Turk en Clickworker zit gebouwd. Naast de schamele en niet gegarandeerde vergoedingen zijn werkers op deze platforms een hoop tijd kwijt aan het verversen van hun startschermen, het aanmelden voor en zoeken naar werk, en hopelijk als eerste de klus accepteren als ze worden uitgekozen. Het aantal cloudwerkers is ook aanzienlijk groter dan de hoeveelheid beschikbaar werk, waardoor er veel competitie op de platforms ontstaat. Klanten kunnen dus makkelijk profiteren van de overvloed en toegankelijkheid van goedkoop werk. Ook hiermee worden werkers uit het Mondiale Zuiden disproportioneel aangetast, omdat het voor hen vaak moeilijker is om taken en vacatures te vinden en de verhouding van onbetaalde tot betaalde werkuren voor hen groter is, aldus het onderzoek van Howson.  

Advertentie

Hoewel deze snelle doorlooptijd van werk zich houdt aan de industriële norm van ‘sneller meer maken’ roepen dergelijke praktijken ook wel vragen op over hoe effectief het werk eigenlijk voor de opdrachtgevers zelf is. Laagbetaalde werkomstandigheden raken niet alleen de werkers maar maken het ook waarschijnlijker dat opdrachtgevers minder goede waar voor hun geld krijgen. 

“Als de werkers bij Amazon Mechanical Turks taken aannemen zijn ze ook ondergeschikt aan degene die een taak voor hen maakt en hen moet betalen,” zegt Okolo. “Naast dat ze geen fatsoenlijk loon krijgen wordt het labelen vaak ook afgeraffeld. Tijdens het gebruik van Amazon Mechanical Turk ben ik bots en mensen tegengekomen die onjuiste antwoorden op vragen geven. Zo’n dynamiek heeft ook zeker invloed op de kwaliteit van deze datasets.” 

“Er zijn manieren om zeker te zijn van uitbetaling, zodat betere kwaliteit ook verzekerd wordt. En dat is waarschijnlijk een van de eerste manieren om dit te bekijken: AI is afhankelijk van consistentie en kwaliteit en als je daar niet voor betaalt dan krijg je het ook niet,” vertelt Jennifer King, onderzoeker van Privacy en Data Policy aan het Stanford Instituut voor Mensgerichte Kunstmatige Intelligentie, aan Motherboard. “Ik denk dat dit een hoop van de drijfveren rond de ontwikkeling van een product zijn; de techniek en AI modeling-onderdelen zijn het meest gewild en het best betaald, terwijl data labeling gewoon naar de achtergrond verdwijnt.”

Advertentie

Kauffman wil de aanname tegengaan dat werk zoals data labeling ongeschoold werk is omdat het weinig betaalt en er repetitieve werkzaamheden bij komen kijken. Ze legt uit dat de werkers bepaalde kwalificaties moeten hebben en dat ze tests moeten afnemen om toegang te krijgen tot bepaalde taken. 

“Mensen hebben nu vaardigheden en kennis die ze niet hadden voordat ze de test hadden gedaan en de materialen hadden doorgenomen. Dus het idee dat mensen ongeschoold zijn als we zoveel verschillende dingen hebben geleerd over zoveel verschillende onderwerpen is echt absurd,” zegt Kauffman. “Er worden constant nieuwe dingen geleerd, je kunt echt niet zomaar gaan zitten en met een taak beginnen zonder eerst nieuwe vaardigheden op te doen.”

Veel mensen die technologie gebruiken zijn zich er niet van bewust dat ze ook bij de AI-pipeline betrokken zijn. De meesten van ons hebben wel eens onbetaald werk verricht om AI-systemen te trainen, bijvoorbeeld als we een CAPTCHA oplossen om te bewijzen dat we geen robots zijn of als we autonome auto’s wegleiden van wegopbrekingen die de voertuigen zelf niet kunnen identificeren. Zoals een mede door Forlano geschreven onderzoek uit 2020 constateert: “Gebruikers verbeteren ook de prestatie van machine learning-modellen wanneer ze er mee bezig zijn; één enkele onvoorziene klik kan de parameters en toekomstige nauwkeurigheid van een model al updaten. Dit werk zit soms zo diep verwerkt in de manieren waarop gebruikers zich op het internet bewegen dat het onbewust wordt uitgevoerd, bijvoorbeeld wanneer iemand Google Maps gebruikt en data-bewegingspatronen produceert die verkeersvoorspellingen mogelijk maken. Maar op andere momenten is het wel bewuster, zoals wanneer er tijdens een reCAPTCHA foto’s worden geclassificeerd of Uber-chauffeurs worden beoordeeld.”

Advertentie

Recentelijk hebben AI text-to-image generators zoals DALL-E 2, Midjourney en Stable Diffusion, en taalvoorspellende AI-modellen zoals GPT-3 allemaal laten zien dat ze een verbijsterend vermogen voor voorspelling hebben. Maar ook die tools profiteren van dezelfde relatie tussen menselijke arbeid en AI-training. 

Deze grote taalmodellen, die een afbeelding of tekst genereren op basis van wat een gebruiker invoert, worden met deep learning-methodes getraind. Dit betekent dat deze modellen de manier waarop onze hersenen werken kunnen nabootsen door talloze lagen van door mensen gecreëerde data door te spitten om een passend beeld of stuk tekst te produceren. Deze datasets zijn stuk voor stuk door menselijke arbeid mogelijk gemaakt. 

Stable Diffusion werd bijvoorbeeld met de LAION-5B open source dataset getraind, een verzameling van 5,8 miljard afbeeldingen en bijschriften die van alle hoeken van het internet zijn geschraapt. Al die afbeeldingen en bijschriften zijn producten van onbetaalde menselijke arbeid, van websites die door mensen worden gecodeerd en ontworpen tot afbeeldingen die door mensen op die sites worden geüpload en gepost. Hoewel de voorspellende frameworks van AI-modellen zoals Generative Adversarial Networks (GANs) zich met rasse schreden ontwikkelen zijn de modellen zo gigantisch en gecompliceerd geworden dat de dingen die ze produceren vrijwel niet te verklaren zijn. Daarom komen bevooroordeeldheid en racistische stereotypen ook zo vaak voor in de outputs van AI-systemen. Wanneer je een systeem met miljarden parameters en trainingsvoorbeelden gebruikt, geeft het simpelweg een weerspiegeling van de bevooroordeeldheid van de verzamelde data – en er ontstaat een scheiding tussen waar het systeem op is gebouwd en wat AI-experts hopen dat het kan doen.  

Advertentie

“Er is een kloof tussen wat computerwetenschappers over het systeem weten en wat sociologen over het systeem zouden kunnen weten, omdat ze het vanuit behoorlijk andere richtingen benaderen,” zegt Forlano. “En zelfs binnen gemeenschappen die aan AI werken verschenen er verhalen in een hoop kranten over dat zelfs computerwetenschappers die aan deze systemen werken niet altijd precies weten hoe de systemen tot hun conclusies komen.”

Maar Forlano benadrukt dat het probleem fundamenteler ligt en dat het niet zomaar kan worden opgelost door meer data toe te voegen om zo het systeem te verbeteren. “Een logische conclusie die een computerwetenschapper zou kunnen trekken is dat als je maar gewoon meer correcte data aan de systemen voert, ze uiteindelijk beter worden. Maar dat is niet zo. Pomp er zoveel nieuwe data bij als je wil, het gaat de systemen niet fixen.”

Door te benadrukken hoe menselijke arbeid ten grondslag ligt aan een groot deel van de AI-pipeline hopen AI-experts en onderzoekers de stormachtige mentaliteit te ontmantelen die bij technologische processen heerst en  de onderliggende arbeiders uitbuit. De meesten van ons kunnen het erover eens zijn dat mensen altijd een deel van AI zullen uitmaken, van het ontwerpen van modellen tot het nagaan van vertekeningen en fouten. AI-experts stellen dus dat de focus moet liggen op het dekoloniseren van het ontwerpproces van AI, en de ethische en duurzame inclusie van mensen.

“We moeten serieus nadenken over het menselijk aandeel in het circuit dat AI aandrijft. Deze arbeidskracht verdient training, ondersteuning en vergoeding voor het klaarstaan om belangrijk werk te verrichten dat velen te moeizaam of veeleisend vinden,” schreven Mary L. Gray en Siddharth Suri, auteurs van het boek Ghost Work: How to Stop Silicon Valley from Building a New Global Underclass, in een artikel uit 2017 voor de Harvard Business Review

Een paar concrete stappen die we volgens de auteurs kunnen nemen zijn het afdwingen van meer transparantie door techbedrijven, het opstellen van regels die werkomstandigheden en lonen voor datatrainers verbeteren en het aanbieden van leermogelijkheden aan werkers zodat ze op meer manieren dan alleen labelen kunnen bijdragen aan AI-modellen. 

Marie-Therese Png, een doctoraatsstudent aan het Oxford Internet Institute en onderzoeksstagiaire bij DeepMind Ethics and Society, stelde in haar onderzoek voor dat het proces rond AI-beheer geherstructureerd moet worden zodat het Mondiale Zuiden als ‘mede-gezaghebber’ wordt meegerekend. Dit betekent dat de oneven machtsverhoudingen van het kolonialisme die in de AI-pipeline worden nagebootst moeten worden erkend en dat spelers in het Mondiale Zuiden invloed moeten krijgen op “het vullen van agenda’s, het maken van keuzes en het beheer van voorzieningen.” 

Dit komt overeen met wat Forlano en haar collega’s in hun artikel stelden. Ze beschrijven een ‘ontwerp met’-mentaliteit in plaats van een ‘ontwerp voor’-mentaliteit, waarbij bedrijven overleg en vertegenwoordiging missen van groepen die door het AI-systeem worden beïnvloed. “Experts hebben vaak geen goed begrip van hoe effectieve participatieprocessen moeten worden ontworpen, of hoe hoe de juiste belanghebbenden moeten worden ingezet om de gewenste resultaten te behalen,” schreven de auteurs. “Participatieworkshops kunnen performatief worden, waardoor experts niet daadwerkelijk rekening houden met de behoeftes of aanbevelingen van verschillende groepen belanghebbenden.”

De auteurs van het onderzoek stellen voor dat alle deelnemers in de training van AI als werkers moeten worden beschouwd, waardoor alledaagse gebruikers ervoor kunnen kiezen om wel of niet mee te doen met onbetaalde werkzaamheden die een machine learning-systeem zouden trainen. En als ze daar wel voor kiezen moeten ze adequaat worden vergoed of betere vormen van stimulans krijgen. “Mensen zouden moeten worden vergoed voor het werk dat ze verrichten om systemen te verbeteren,” zegt Forlano. “En als dat niet op een rechtvaardige manier wordt gedaan is het gewoon weer een nieuwe vorm van uitbuiting.”

omicard.jpeg

Dit artikel verscheen oorspronkelijk op Motherboard. 

Volg VICE België en VICE Nederland ook op Instagram.