Tech

Waarom verschijnt deze griezelige vrouw steeds in AI-gegenereerde beelden?

‘Loab’ is creepypasta voor de AI-generatie niemand begrijpt waar ze vandaan komt.
Janus Rose
New York, US
Images generated by AI featuring a woman with brown hair and rosey cheeks.
Beelden gegenereerd door Supercomposite

AI-beeldprogramma’s als DALL-E en Midjourney zijn de laatste tijd erg populair geworden, en het is niet moeilijk te begrijpen waarom. De online platforms maken gebruik van modellen voor machinaal leren die zijn opgebouwd uit miljarden beelden. Hiermee kunnen beelden worden gecreëerd die bizar zijn en tegelijkertijd op een vreemde manier vertrouwd aanvoelen.

Het een broedplaats geworden voor allerlei AI-spookverhalen, aangezien niemand echt kan verklaren hoe de complexe neurale netwerken uiteindelijk beslissen over de beelden die ze creëren. Het laatste voorbeeld komt van een AI-kunstenaar genaamd Supercomposite, die schrikbarend groteske gegenereerde beelden postte van een vrouw die verschijnt in reactie op bepaalde zoekopdrachten.

Advertentie

De vrouw, die door de kunstenaar ‘Loab’ wordt genoemd, werd voor het eerst ontdekt middels een techniek die ‘negative prompt weights’ heet, waarbij een gebruiker probeert het AI-systeem het tegenovergestelde te laten genereren van wat hij in de prompt typt. Simpel gezegd kunnen verschillende termen in de dataset worden ‘gewogen’ om te bepalen hoe groot de kans is dat ze in de zoekresultaten voorkomen. Maar door de prompt een negatief gewicht toe te kennen, vertel je het AI-systeem in feite: “Genereer dat wat het tegenovergestelde is van deze prompt.”


In dit geval leverde het gebruik van een negatieve prompt met het woord “Brando” het beeld op van een logo met een skyline van een stad en de woorden “DIGITA PNTICS”. Toen Supercomposite de techniek van negative-prompts gebruikte met de woorden in dat logo, verscheen Loab.

“Omdat Loab is ontdekt met behulp van negatieve prompts, is haar hele structuur gebaseerd op een verzameling eigenschappen die allemaal even ver van iets af staan," schreef Supercomposite in een draadje op Twitter. “Maar haar gecombineerde eigenschappen zijn nog steeds een samenhangend concept voor de AI, en bijna alle beelden die hieruit zijn voortgekomen bevatten een herkenbare Loab.”

De beelden gingen snel viral op social media, wat leidde tot allerlei speculaties over de oorzaak van dit vreemde fenomeen. Het meest verontrustende is dat Supercomposite beweert dat gegenereerde beelden, afgeleid van de originele afbeelding van Loab, bijna altijd horror-achtig en gewelddadig zijn. En hoeveel variaties er ook zijn gemaakt, de beelden lijken allemaal dezelfde angstaanjagende vrouw te tonen.

Advertentie

“Vanwege een soort statistische pech is deze vrouw terechtgekomen in de sectie extreem bloederige en macabere AI-beelden,” schreef Supercomposite.


Het is onduidelijk welke AI-tools werden gebruikt om de beelden te genereren, en Supercomposite weigerde hier dieper op in te gaan toen we met hen contact opnamen  via Twitter.

“Ik kan helaas om verschillende redenen niet bevestigen of ontkennen welk model het is! Maar ik kan bevestigen dat Loab bestaat in meerdere beeldgenererende AI-modellen,” vertelde Supercomposite aan Motherboard.

Vertegenwoordigt Loab een soort aanwezigheid in het systeem, fluisteringen uit de AI-datasets in menselijke vorm? Of is ze gewoon een AI-rookgordijn, voortgekomen uit ons menselijk verlangen om patronen te zien in de ruis?

Helaas is het praktisch onmogelijk om precies te weten wat hier aan de hand is. Beeldgenererende AI-systemen gebruiken modellen die zijn opgebouwd uit miljarden beelden, en het is veel te complex om uit te zoeken waarom ze bepaalde resultaten leveren. Ironisch genoeg is dit precies waarom AI-ethici hebben gewaarschuwd tegen het gebruik van grote taalmodellen zoals die van DALL-E: ze zijn gewoon te groot en hun resultaten te onvoorspelbaar om op betrouwbare wijze schadelijke resultaten te voorkomen.

Hoewel OpenAI voor DALL-E enkele handmatige controles heeft doorgevoerd om bepaalde termen te blokkeren en te filteren — om te voorkomen dat er bijvoorbeeld nepbeelden van beroemdheden worden gegenereerd — kunnen andere AI-modellen zoals Stable Diffusion gewoon onafhankelijk worden gehost. Dit heeft sommige enthousiastelingen ertoe gebracht hun eigen exemplaar van de software te maken en het te gebruiken om allerlei freaky porno en andere inhoud te produceren waartegen de makers bezwaar hebben.

Advertentie

Het is misschien niet mogelijk om uit te zoeken hoe of waarom AI-modellen angstwekkende uitschieters zoals Loab genereren, maar dat voedt de intrige. Onlangs beweerde een andere groep AI-kunstenaars een ‘verborgen taal’ te hebben ontdekt in DALL-E, maar pogingen om de bevindingen te bevestigen bleken vooralsnog onsuccesvol.

Voorlopig zijn deze verschijnselen een soort AI-creepypasta — ze fascineren en beangstigen ons net voorbij de grenzen van ons begrip.

Dit stuk verscheen oorspronkelijk op Motherboard.

 Volg VICE België en VICE Nederland ook op Instagram.