Stability AI und der 18+ Content

Die Überschrift verrät es schon. Der heutige Blogartikel dreht sich um Pornographie seitens Stability AI. Ursprünglich wollte ich nur über das gecancelte Crowdfunding von Unstable Diffusion schreiben, der großen Schwester von Stable Diffusion. Aber bei meinen Recherchen bin ich auf einen Sumpf aufmerksam geworden, der mich trotz bisheriger Berichterstattung ein wenig überrascht hat. Mir war klar, dass man mit den KI gestützten Bildgeneratoren und pornographische Bilder erzeugen kann, aber was für Kreise das zieht, wurde mir erst jetzt so richtig klar.

Der Background

An der Stelle möchte ich kurz ein paar klärende Informationen loswerden, weil einige Begriffe in meiner Einleitung evtl. Fragen aufwerfen.

Stable Diffusion ist ein Deep-Learning-Text-zu-Bild Generator. Es wird hauptsächlich zur Generierung detaillierter Bilder auf der Grundlage von Textbeschreibungen verwendet, kann aber auch für andere Aufgaben wie Inpainting, Outpainting und die Generierung von Bild-zu-Bild-Übersetzungen auf der Grundlage einer Textaufforderung eingesetzt werden.

https://de.wikipedia.org/wiki/Stable_Diffusion

Unstable Diffusion ist das 18+ Pendant zu Stable Diffusion. Durch diesen Text-zu-Bild-Generator werden Inhalte produziert, die in den Bereich der Sex- und Porno-Szene fallen.

Stability AI ist hingegen die Firma, eine LTD, die diese Text-zu-Bild-Generatoren gemäß ihrer Nutzungsbedingungen für jedermann bereitstellt. Zur Zeit steht diese Firma – zusammen mit anderen Firmen in den USA – einer Sammelklage seitens namhafter Künstlern gegenüber.

Unstable Diffusion und sein Crowdfunding

Unstable Diffusion ist ein KI-Projekt, das wie andere auch auf eine externe Finanzierung angewiesen ist. So verwundert es nicht, dass es sich entsprechender Portale im Internet bedient. Kickstarter und Patreon sind nur zwei dieser Möglichkeiten und auf beiden wurde das Crowdfunding geblockt. Bei Kickstarter findet man immerhin noch die Inhalte des Spendenaufrufes. Bei Patreon ist nichts mehr zu sehen. Die Website-Suche spuckt nichts mehr aus. Also habe ich die Inhalte bei Kickstarter etwas genauer unter die Lupe genommen.

Ein Blick in die Kommentare offenbart: völlige Verständnislosigkeit seitens der Spender. Die meisten bangen jetzt wohl um ihre Boni, die sie sich mit der Spende versprochen haben. Ob daraus noch etwas wird, kann ich nicht sagen. Aber mich würde auch eher interessieren, aus welchem Grund sie den 18+ Content fördern, der, wie die weiteren Ausführungen dieses Blogartikels zeigen werden, Frauen deutlich benachteiligt und ihnen Schaden zufügen dürfte.

Mein nächster Blick galt dem Projekt selber.

Risiken und Herausforderungen

Hier kam der Stein zu meiner Recherche erst richtig ins Rollen. Stutzig machte mich hier ein Abschnitt, wo ich mich frage: Geht’s noch?

Unstable Diffusion nutzt genauso wie Stable Diffusion und andere KI-Systeme im Bildbereich den LAION Datensatz. Dieser Datensatz ist übrigens der Grund für die Rechtsstreitigkeiten in den USA. Doch das ist nicht der Punkt meiner Empörung, sondern vielmehr wie sich im Crowdfunding in aller Öffentlichkeit bedankt wurde.

„und die Community hat uns großzügig ihre persönlichen und privaten Datensätze zur Verfügung gestellt.“

https://www.kickstarter.com/projects/unstablediffusion/unstable-diffusion-unrestricted-ai-art-powered-by-the-crowd

Welche Community war denn so freundlich? Ach ja, auf jeden Fall die Künstlerszene, die das gar nicht so witzig findet und gerade Stability AI verklagt, unter anderem. In Verbindung mit dem 18+ Content geht es auch um Rufschädigung. Stichwort: KI-Pornographie.

Künstler, die nie für diesen Bereich zeichnen wollten, finden plötzlich ihren Stil in genau dieser Kategorie wieder und Unstable Diffusion interessiert das genauso wenig wie die kleine Schwester Stable Diffusion. Im Standard heißt es dazu:

„Stable Diffusion verfolgt einen liberalen Ansatz und gestattet alles, was sich im rechtlichen Rahmen bewegt“.

https://www.derstandard.de/story/2000141085198/unstable-diffusion-eine-ki-generiert-pornos-auf-knopfdruck

An der Einstellung selbst halten die Verantwortlichen eisern fest und wollen nur an der zu erwartenden Qualität arbeiten.

Aber: Bild-KIs sind notorisch schlecht darin, realistisch aussehende nackte Menschen zu generieren, weil sie darauf nicht trainiert sind.

Während die Datenbanken millionenfach mit Bildern von bekleideten Personen in Alltagssituationen gefüttert sind, gibt es kaum Lehrmaterial mit nackten Menschen. Nur 2,9 Prozent der für das Training der KI verwendeten Bilder enthalten pornografische Inhalte. Das führt dazu, dass Stable Diffusion zusätzliche Gliedmaßen auf nackte Körper pflanzte oder Genitalien extrem verzerrt darstellte.

Das mussten auch die Admins von Unstable Diffusion erfahren, als ihr Discord-Bot noch in den Kinderschuhen steckte und auf die Basisversion von Stable Diffusion zurückgriff. Mittlerweile sei man aber auf einem guten Weg, erklärt Arman Chaudhry, einer der Administratoren, gegenüber Techcrunch. So könne man mittlerweile Gesichter und verzerrt dargestellte Arme reparieren.

https://www.derstandard.de/story/2000141085198/unstable-diffusion-eine-ki-generiert-pornos-auf-knopfdruck

Der Artikel im Standard ist zeitlich vor dem Spendenaufruf bei Kickstarter entstanden. Denn es heißt weiterhin:

Als nächsten Schritt will Unstable Diffusion eine Kickstarter-Kampagne starten und Investoren anlocken, sagt Chaudhry. Ob die hehren Ideale der Realität standhalten, wird sich erst zeigen. Laut Techcrunch werden Erinnerungen an den Fall Mindgeek, das Mutterunternehmen von Pornhub, wach. Zahlreiche Zahlungsanbieter zogen sich von der Plattform zurück, als bekannt wurde, dass auf der Seite Kinderpornografie und Sex-Trafficking-Videos kursierten. (pez, 22.11.2022)

https://www.derstandard.de/story/2000141085198/unstable-diffusion-eine-ki-generiert-pornos-auf-knopfdruck

Tja, wie das ausgegangen ist, wissen wir ja inzwischen. Kickstarter hat das Crowdfunding im Dezember 2022 aufgrund geänderter Nutzungsbedingungen eingestellt. Außerdem dürften die laufende Klage wegen Urheberrechtsverletzungen einen Anteil haben und vielleicht auch der Vorwurf, dass Unstable Diffusion seinen Text-zu-Bild-Generator mit haufenweise pornographischem Material trainieren wollte.

Woher kommt all das pornographische Material?

Die Antwort ist so banal wie schwierig.

KI-Tools wie ChatGPT und Stable Diffusion sind derzeit in aller Munde und haben die öffentliche Debatte rund um den Einsatz von künstlicher Intelligenz ordentlich angeheizt. Damit gehen natürlich auch rechtliche Fragestellungen einher, insbesondere im Hinblick auf Urheberrechte. Denn Softwarelösungen dieser Art werden nicht selten mit einer Vielzahl von Inhalten trainiert, deren Rechteinhaber dem nicht zugestimmt haben.

https://tarnkappe.info/artikel/rechtssachen/ki-pornos-ade-kickstarter-stoppt-kampagne-von-unstable-diffusion-261378.html

Im Prinzip kann das pornographische Bildmaterial alles sein. Es kann von Künstlern stammen, aber auch aus der bestehenden Pornoindustrie bis hin zu Bildmaterial aus privater Hand, sei es legal oder illegal aufgenommen. Alles ist drin. Was einmal im Netz ist, bleibt auch dort. Und das ist der Ort, wo Bilder oder Videos aller Art abgegriffen werden. Große Bildportale wie DevianArt oder Art Station werden bevorzugt, aber sie sind nicht die einzige Quelle.

Für derartige Maßnahmen nutzen die Entwickler von KI-Lösungen nur allzu gerne öffentlich zugängliche Daten. Und obwohl sich viele Künstler gegen die ungefragte Verarbeitung ihrer Werke wehren, stufte ein US-Gericht die als “Web Scraping” bezeichnete Praxis im April dieses Jahres als legal ein.

Dennoch handelt es sich dabei um ein ernst zu nehmendes Problem. Nicht jede Person, die damit einverstanden ist, in einem Erwachsenenvideo aufzutreten, stimmt damit automatisch dessen Verwendung für das Training einer KI zu, die daraus wiederum neuartige Pornos generiert.

Zugleich ist anzunehmen, dass Herausforderungen dieser Art vorzugsweise Frauen betreffen. Schließlich hängen die Ergebnisse, die der Algorithmus ausspuckt, sehr stark davon ab, auf welche Datenbestände er zurückgreifen kann. Da die meisten pornografischen Inhalte jedoch das männliche Publikum anvisieren, dürften auch KI Pornos häufiger diese Zielgruppe ansprechen.

https://tarnkappe.info/artikel/rechtssachen/ki-pornos-ade-kickstarter-stoppt-kampagne-von-unstable-diffusion-261378.html

Bei TechCrunch steht zur Herkunft des pornographischen Trainings-Materials übrigens Folgendes:

Stable Diffusion verwendet einen Datensatz von 2,3 Milliarden Bildern, um seinen Text-zu-Bild-Generator zu trainieren. Aber nur schätzungsweise 2,9 % des Datensatzes enthalten NSFW-Material, was dem Modell in Bezug auf explizite Inhalte wenig Anhaltspunkte gibt. Hier kommt Unstable Diffusion ins Spiel. Das Projekt, das Teil von Equilibrium AI ist, rekrutierte Freiwillige von seinem Discord-Server, um robustere Porno-Datensätze zu entwickeln, um ihren Algorithmus zu verfeinern, genauso wie Sie mehr Bilder von Sofas und Stühlen auf a hochladen würden Datensatz, wenn Sie eine KI zur Möbelgeneration erstellen wollten.

https://techcrunch.com/2022/12/21/kickstarter-shut-down-the-campaign-for-ai-porn-group-unstable-diffusion-amid-changing-guidelines/

Außerdem gibt es keine Möglichkeit zu überprüfen, ob ein Großteil der im Internet frei verfügbaren Pornos einvernehmlich erstellt wurde (allerdings müssen erwachsene Ersteller, die kostenpflichtige Plattformen wie OnlyFans und ManyVids verwenden, ihr Alter und ihre Identität überprüfen, bevor sie diese Dienste nutzen). Selbst wenn ein Model zustimmt, in Pornos aufzutreten, bedeutet das nicht, dass es damit einverstanden ist, dass seine Bilder verwendet werden, um eine KI zu trainieren. Während diese Technologie erstaunlich realistische Bilder erzeugen kann, bedeutet das auch, dass sie bewaffnet werden kann, um nicht einvernehmliche Deepfake-Pornografie zu erstellen.

Derzeit beziehen sich nur wenige Gesetze auf der ganzen Welt auf nicht einvernehmliche Deepfake-  Pornos. In den USA haben nur Virginia und Kalifornien Vorschriften, die bestimmte Verwendungen von gefälschten und tiefgefälschten pornografischen Medien einschränken.

„Ein Aspekt, über den ich mir besonders Sorgen mache, sind die unterschiedlichen Auswirkungen von KI-generierten Pornos auf Frauen“, sagte Ravit Dotan, Vizepräsident der verantwortlichen KI bei Mission Control, letzten Monat gegenüber TechCrunch . „Zum Beispiel funktioniert eine frühere KI-basierte App, die Menschen ‚ausziehen‘ kann, nur bei Frauen.“

https://techcrunch.com/2022/12/21/kickstarter-shut-down-the-campaign-for-ai-porn-group-unstable-diffusion-amid-changing-guidelines/

Fazit

Mit Unstable Diffusion wird ein großer Pornographie-Markt eröffnet, der aufgrund des zur Verfügung stehenden Bildmaterials ziemlich einseitig ausfallen dürfte und besonders Frauen wieder nachteilig behandelt. Es ist ja nicht erst seit gestern bekannt, dass Pornographie Frauen mehr schadet als nützt und sie ausbeutet. Davon abgeleitet wird auch Unstable Diffusion in diese Kerbe schlagen, auch wenn sie vorhaben alle Spektren zu bedienen, auch die queere Szene. Die Frauen werden am meisten leiden.

Bereits jetzt gibt es viel Bildmaterial aus dieser Schmiede im Internet. Stichwort: DeepFake Pornos. So offenherzig, wie die Verantwortlichen Bildmaterial zum Aufbau ihrer Datasets an Land ziehen, ist Missbrauch vorprogrammiert. Jedes Gesicht kann sich theoretisch sowie praktisch dort wiederfinden. Wir erinnern uns an den Spruch: Einmal im Netz, immer im Netz? Das gilt auch hier. „Einmal im Dataset, immer im Dataset.“

Eure Rike Moor

Eine Antwort zu „Stability AI und der 18+ Content

  1. Data Mining und das Urheberrecht – Lektorat Moor

    […] zum Trainingsmaterial werden. Ähnlich gehen auch andere Plattformen vor. In meinem Blogartikel Stability AI und der 18+ Content ist übrigens auch nachzulesen, wo das Bildmaterial für die Sex-und Pornoszene herkommen kann. […]

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert