Ein Foto von einer Frau mit Brille und roten Haaren. Daneben Ein KI-generiertes Bild von einer Frau mit großem Ausschnitt
Foto links: privat, so wie alle anderen auch | Bild rechts: Generiert von Lensa AI
Tech

Eine Bild-KI hat mich zur Wichsvorlage gemacht

Und sie hat mir die Realität hinter der "KI-Revolution" gezeigt: stumpfe Stereotype, für immer festgeschrieben.

Eigentlich wollte Barbara Wimmer nur ein paar coole Profilbilder. Deshalb hatte die Journalistin ein paar Fotos in die KI-App Lensa AI hochgeladen und 9,99 Euro bezahlt, damit die ihr genau das generiert

Anzeige
Eine Frau im roten Kleid vor einer Berglandschaft

Eines der Fotos, die Barbara Wimmer der AI als Vorlage gegeben hat

Aber sie hatte nicht damit gerechnet, was die App dann aus ihren Fotos machen würde: hypersexualisierte Busenbilder. Nachdem sie ihren ersten Schock überwunden hatte, wurde Wimmer wütend. Wer hatte der Maschine erlaubt, sie zu einer Wichsvorlage zu machen?

Wir haben mit ihr darüber gesprochen, wie sie gegen die sexistische Kackscheiße vorgegangen ist, wo die Bilder herkommen und was man daraus für ein Leben mit Künstlicher Intelligenz lernen kann.

VICE: Warum wolltest du magische Avatare von dir haben?
Barbara Wimmer:
Im Dezember 2022 wurden mir auf Instagram etliche Bilder von Influencerinnen in den Feed gespült, die mega interessant aussahen. Portraitaufnahmen, die irgendwie besonders wirkten. Schnell habe ich verstanden, dass das KI-generierte Bilder waren und ich wollte einfach wissen, wie die Künstliche Intelligenz mich sah – und die Bilder dann natürlich auch selbst auf Social Media herzeigen.

Ein KI-generiertes Bild von einer Frau mit großem Ausschnitt

Du wusstest also, was dich erwartet?
Die Bilder der Influencerinnen waren ganz neutral, einfach nur schöne Portraits von Gesichtern, gar nicht sexistisch. 

Klingt nach einer netten Idee. Was hast du also getan?
Ich habe 20 Bilder von mir hochgeladen, inklusive Ganzkörperaufnahmen, davon allerdings keine besonders freizügig.

Was kam dabei raus?
Die App, Lensa AI, ist wirklich komplett eskaliert. Von 100 "magischen Avataren", haben mich 90 ganz übel sexualisiert, die waren wirklich sexistisch. Riesige Brüste, mit Trägerkleid oder als Mangasexfigur. Auf mehreren Bildern war außerdem mein Kopf abgeschnitten, ich hatte sechs Finger oder drei Beine. 

Anzeige
Ein KI-generiertes Bild von einer Frau mit großem Ausschnitt vor Bergpanorama

Was hattest du denn erwartet unter dem Label "magisch"?
Schon so Out-of-the-box-Bilder. Also nicht ich in meinem Alltag, sondern eher ich, in einer verträumten Welt. Nicht unbedingt als Blumenfee, sondern eher in einer magischen Blumenwiese. Jedenfalls keine Bilder, die mich als Kind zeigen, das sich auf die Brüste greift, oder Brüste, die aus dem Kleid raushängen. Ich erwartete das, was ich bei den Influencerinnen auch gesehen hatte - hübsche Gesichter in unterschiedlichsten Kontexten. Dabei hatte ich als weiße Frau es noch ganz gut.

Wie meinst du das?
Asiatinnen haben berichtet, dass bei ihnen oft noch sexistischere, geradezu pornografische Bilder generiert wurden. 

Wie kann das sein?
Offensichtlich greift Lensa AI auf Bilddatenbanken aus dem Internet zu, in denen Asiatinnen noch viel mehr als weiße Frauen hypersexualisiert werden. Von denen gibt es dann eben nur Pornobilder und so denkt die AI, so müsse sie asiatisch gelesene Frauen eben darstellen.

Ein KI-generiertes Bild von einer Frau mit großem Ausschnitt in einem Science-Fiction Outfit

Puh. Das ist ja schon gruselig, wie hast du auf deine Bilder reagiert?
Ich war total schockiert und musste erst einmal eine Nacht darüber schlafen. Als ich am nächsten Tag noch immer richtig wütend war, habe ich mich beschwert und wollte mein Geld zurück.

Und Lensa AI?
Prisma Labs, das Unternehmen dahinter, hat mir eine Standardantwort geschickt. Darin stand unter anderem in etwa: Danke, dass Sie uns kontaktieren. Es tut uns leid, dass Sie die Ergebnisse nicht mögen. Wir können die Arbeit der KI nicht voll kontrollieren und wir haben Sie auch davor gewarnt. 

Anzeige

Wie hast du dich dabei gefühlt?
Das hat mich amüsiert und geärgert zugleich. Es ist ja schon fast witzig, dass ein Unternehmen eine App macht, deren Ergebnisse teilweise so derart aus dem Ruder laufen. Typisch US-Tech-Firma, die sich einfach gar keine Gedanken darüber macht, was sie eigentlich tut. Geärgert hat mich vor allem der Umfang. Ein sexualisiertes Foto wäre ja noch verkraftbar, aber 90? Und dass ich darauf auch gar keinen Einfluss hatte. Das geschah alles gegen meinen Willen. Und das Schlimmste war, dass in den AGB steht, dass die Fotos zwar mir gehören, Lensa AI damit aber für sich werben darf. Da wird mir ganz anders.

Weil dann alle Menschen dich als Wichsvorlage sehen werden?
Zum Glück sind die meisten Bilder so fern von der Realität, dass man mich kaum erkennen dürfte. Aber eben nicht alle. Ich möchte außerdem darauf aufmerksam machen, damit so etwas nicht noch einmal passiert, in dem ich diese Story teile. 

OK. Gab es auch ein Bild, das dir gut gefallen hat?
Ein positives Beispiel fällt mir nicht ein. Wobei, das Bild von mir als Medizinerin gefällt mir gut. Je länger ich mich mit den Bildern beschäftigte, die ich erhalten hatte, desto mehr Details fielen mir auf. So hatte die KI auf einem Bild Berge in den Hintergrund gezaubert. Das sah ich allerdings erst beim 500. Mal durchsehen, weil die Riesen-Brüste im Vordergrund waren. Ich hatte auch ein Bild mit Bergen hochgeladen. 

Anzeige
Ein KI-generiertes Bild von einer Astronautin

Auf diesem Bild ließ Barbara sich als Mann darstellen.

Du warst also enttäuscht von dem, was die KI gemacht hat.
Na ja, ich hatte ja nette, schöne, liebe Selfies erwartet. Gleichzeitig will ich natürlich auch nicht hässlich dargestellt werden, aber ich wünsche mir schon, dass eine KI auch Falten und eine Brille zeigen kann. Da liegt also ein gewisser Widerspruch, auch wenn Falten nicht gleich hässlich sind und Schönheit sowieso im Auge des Betrachters liegt.

Warum meinst du, waren die Bilder der Influencerinnen nicht so sexualisiert, wurde da manipuliert?
Nein. Ich denke tatsächlich, dass es an den Ganzkörperbildern lag, die ich hochgeladen hatte. Das dürfte die KI getriggert haben. Aber auch dann hätte es niemals zu solchen Ergebnissen kommen dürfen.

Na gut. Hast du dann also aufgegeben?
Nein, ich habe mir die App weiter angeguckt. Und noch mehr Sexismus gefunden, der über Schönheitsideale hinausging.

Zum Beispiel?
Man konnte bei der Generierung angeben, ob man ein Mann oder eine Frau ist. Als Frau erschienen Sexbildchen, wenn ich mich aber als Mann darstellen ließ, hatte ich nicht nur plötzlich Falten, sondern wurde auch im beruflichen Kontext dargestellt. Da war ich dann plötzlich ein Rockstar, eine Astronautin oder eine Ärztin. Nur auf wenigen Bildern wurde ich als jemand dargestellt, der klar als Mann gelesen werden muss, mit Bart zum Beispiel. Später hat Prisma Labs dazu ein offizielles Statement abgegeben. Und das hat mich wirklich geärgert.

Anzeige

Was haben sie gesagt?
Dass es tatsächlich ein "kleines Problem" gebe, dass die AI aber eigentlich nur die Vorurteile der Gesellschaft widerspiegele. Dass sie nämlich auf Datenbanken zugreife, die schon existieren und nichts dafür könne, dass diese sexistisch sind.

Ein KI-generiertes Bild von einer Frau mit großem Ausschnitt in einem Blumenmeer

Warum hat dich das so geärgert?
Na ja, sie haben mit der Antwort schon Recht, aber man kann doch nicht einfach so ein Produkt bauen und es auf die Menschheit loslassen, ohne vorher daran zu arbeiten.

Wie geht das?
Mittlerweile hat Lensa AI so eine Art Safety Filter eingebaut. Sämtliche Nacktaufnahmen werden dadurch unterbunden. Es wurden auch Kategorien eingeführt, mit denen man zumindest eine Vorauswahl von Stilen treffen kann, mit denen man schon eingrenzen kann, wie man dargestellt werden will. Aber es gäbe noch mehr Möglichkeiten.

Zum Beispiel?
Man kann KI-Generatoren mit synthetischen Daten, also mit anderen KI-Bildern, trainieren, um eben solchen Bias aus den Datensätzen rauszunehmen. Und ich meine nicht nur die Sexualisierung, sondern auch die unterschiedliche Darstellung von Frauen und Männern im beruflichen Kontext. Und dann hätte man das Produkt erst an einer kleinen Menschenmenge testen müssen, nicht gleich an allen. 

Ein KI-generiertes Bild von einer Frau mit großem Ausschnitt

Was kann man als Verbraucher tun?
Wir müssen verstehen, dass wir etwas tun können, wenn wir etwas nicht wollen – auch bei künstlicher Intelligenz: Ein Produkt nicht kaufen oder uns beschweren. Lensa AI wurde mittlerweile verbessert, aber auch nur, weil es so großen Protest gab. Das kann man einfordern. Wir müssen die Firmen, die derartige Produkte verkaufen, dazu bringen, dass sie KI verantwortungsbewusst gestalten zum Wohle aller Menschen ohne Vorurteile.

Ein KI-generiertes Bild von einer Ärztin

Auch auf diesem Bild hatte Barbara sich als Mann sehen wollen.

Ein KI-generiertes Bild von einem weiblichen Rockstar

Und hier auch.

Folge Robert auf Twitter und Instagram und VICE auf TikTok, Facebook, Instagram, YouTube und Snapchat.