AI-Bilder auf der Buchmesse

Künstliche Intelligenz ist derzeit in aller Munde, egal ob zum Guten oder zum Schlechten. Da wundert es nicht, wenn plötzlich AI-Bilder auf der Leibziger Buchmesse auftauchen. Also stelle ich jetzt die Preisfrage schlechthin: Wer hat darauf geachtet und ist vielleicht sogar fündig geworden?

Es ist kein Geheimnis mehr, dass Coverdesigner sich der künstlichen Intelligenz immer häufiger für ihre Arbeit bedienen. Das geht immerhin schnell und spart Zeit und Geld. Es kommt aber auch immer häufiger vor, dass Autoren den Coverdesigner gleich ganz streichen und mittels AI-Kunst ersetzen. Egal in welcher Konstellation diese AI-Bilder präsentiert werden, eines haben sie oft gemein: Sie werden fast immer nicht als solche ausgezeichnet.

Ebenfalls gemein ist ihnen, dass sie sich dramatischer Farben und Kontraste bedienen. Sie nutzen Stereotype, die sich bewehrt haben: wehendes Haar, mystischer Hintergrund, fauchende Drachen – alles, was richtig reinknallt und einem beim ersten Blick den Atem nehmen kann, egal ob pompös oder so niedlich, dass man davon Karies auf den Zähnen bekommt. Darin sind AI-Bilder ganz weit vorne mit dabei. Diese immer wieder zielsicher ausgespielten Stärken der AI-Bilder sind der Grund, dass die meisten Betrachter die Natur der Bilder nicht aus Anhieb erkennen oder drüber hinwegsehen. Sie sind geradezu geflasht. Daher gehe ich auch jede Wette ein, dass kaum ein Besucher der Leibziger Buchmesse das gleich vorgestellte Bild als AI entlarvt hat.

Für den aufmerksamen Betrachter, der sich hingegen nicht beirren lässt, ist AI aber durchaus zu erkennen. Wer kein Auge dafür hat, dem steht ein treffsicheres Tool zur Seite, das ich in diesem Artikel noch vorstellen werden. Außerdem präsentiere ich zum besseren Verständnis eine Lineart einer befreundeten schweizerischen Kunstlehrerin, die mit gestalterischer Kunst ihren Lebensunterhalt verdient. Auf meine Bitte hin hat sie sich des von mir herausgepickten Beispiels von der Leipziger Buchmesse angenommen.

AI im Fiabesco-Verlag

Zu finden war der Fiabesco-Verlag bei den Ständen der Phantastik-Literatur. Ausgestellt waren lediglich Bücher der Autorin Gina Chiabudini. Eine kurze Internetrecherche ergab, dass der Verlag bislang ausschließlich Bücher dieser einen Autorin verlegt. Zumindest ist im verlagseigenen Shop kein anderer Autor gelistet. Das Impressum unterstreicht den Eindruck einer One-Man-Show. Aber das ist reine Vermutung. Fakt ist jedoch, dass der Verlag sich auf jeden Fall für die neueste Veröffentlichung von Gina Chiabudini – ein Fantasyroman mit dem Titel „Erynion – Die Legende von Elysion“ – eines Bild-Generators bedient hat. Das Erzeugnis wurde als Cover vermutlich ohne größere Nachberarbeitung verwendet und diente auf der Messe als großes Aushängeschild, weshalb es jedem Standbesucher sofort ins Auge gesprungen sein muss. Es bedient übrigens die eingangs erwähnten Stereotypen mit dem sog. BÄM-Effekt.

Im Internet kursieren einige Bilder dieses Plakates mitsamt Stand, und auf Facebook konnte ich zumindest unter Freunden der Phantastik nur lobende Worte finden. Kein einziger Fan hat die offensichtlichen Mängel im Bild gesehen oder wollte sie sehen. Woran das liegen kann, habe ich ja schon erläutert. Dem aufmerksamen Betrachter, der auch gewillt ist, genau hinzusehen, fallen jedoch sofort mehrere Glitches auf, sog. Bildfehler. Um diese besser zu erkennen, habe ich mir die 3D-Buchdarstellung von der Website des Verlages gezogen und die Glitches rot markiert.

Hier stimmen am bilddominierenden Element des Drachen weder die Körperproportionen an sich noch sind die fehlerhaften Darstellungen an den Klauen und den Flügeln zu übersehen. Eine Klaue sieht sogar sehr verkümmert aus und die Flügel wirken gleich so gebrechlich, dass sie unmöglich ein so gewaltiges Monstrum tragen können würden. Ein versierter Zeichner hätte diese Darstellung eines Drachen erstens nie angefertigt und zweitens nie für eine Veröffentlichung freigegeben. Da drängt sich dann schon die Frage nach der verlagsinternen Qualitätssicherung auf. Gab es überhaupt eine? Wohl kaum.

Lineart von Barbara Brosowski Utzinger

Wenn Glitches so offenkundig vorliegen, ist eine aufwendige Nachbearbeitung durch einen versierten Coverdesigner oder Zeichner nahezu ausgeschlossen. Vermutlich kamen hier höchstens ein paar Filter zum Einsatz, ehe im letzten Schritt die Schrift auf das Cover gesetzt wurde. Laut Anwalt Mathias Schwenke und seines Podcasts unterliegt ein AI-Bild mit solch geringer bildlicher Aufbereitung (wie von mir vermutet) auch keinem Urheberrecht in Deutschland. Es ist also gemeinfrei und kann von allen frei genutzt werden.

Um meine oben aufgeführten Beobachtungen zu verifizieren, habe ich die professionell agierende Kunstlehrerin Barbara Brosowski Utzinger gebeten mir ein Lineart dieses Bildes anzufertigen. Sie verfügt noch einmal über einen ganz anderen Blick, weil sie nicht nur mit gestalterischer Kunst täglich zu tun hat, sondern Drachen hier hauseigenes Ressort sind. Sie entwirft nicht nur am Rechner 3D Skulpturen, sondern fertigt sie auch in Lebensgröße selbst an. Ihre fachliche Meinung war mir in dieser Sache Gold wert.

Bevor wir nun zur Lineart kommen, möchte ich noch kurz den Background zur Lineart erörtern. Früher war es in Kunstforen üblich sog. Redlines von Kunstwerken anzufertigen, um Fehler in der Bilddarstellung sichtbar zu machen. Auf dieser Basis konnten sich die Künstler verbessern und lernen. Das Lineart heute dient der Demonstration, was der verwendete Bildgenerator alles (noch) nicht schafft.

Das Lineart für den Drachen in unserem Beispiel sieht übrigens so aus:

Das fehlerbehaftete Original ist in grün dargestellt, während die violette Zeichnung die richtigen Proportionen wiedergibt. Man sieht also sehr schön, wie schwer sich der verwendete Bildgenerator bei der Erzeugung dieses Bildes getan hat. Es ist alles andere als professionell und gut umgesetzt.

Tool zur Erkennung von KI-Erzeugnissen

Nicht nur das aufmerksame menschliche Auge lässt sich nicht unbedingt betrügen. Auch der AI-Detektor aus dem Hause HIVE Moderation entlarvt das Cover als zu 99,8% AI-generiert. Die Bedienung ist denkbar einfach. Man kopiert den zu prüfenden Text in das Textfeld oder lädt die zu überprüfende Bilddatei hoch und startet den Prüfprozess bei HIVE Moderation.

Um die Zuverlässigkeit des AI-Detektors zu überprüfen, habe ich drei Versionen des Coverbildes testen lassen. Zum einen das Bild mit dem Plakat und dem Stand auf der Messe, dann nur den Ausschnitt mit dem Plakat und dann das 3D Cover von der Verlagsseite. Herauskamen diese drei wundervollen Ergebnisse, anhand derer man sehr gut sehen kann, dass das von einem Menschen gemachte Foto nicht als AI-Bild eingestuft wird, obwohl es unter anderem ein AI-Erzeugnis beherbergt. Die anderen Bilder wurden als überaus treffsicher als AI-Erzeugnis identifiziert. Bei der Handhabe des AI-Detektors ist also auf das Ausgangsmaterial zu achten, wenn man eine fundierte Aussage über die Herkunft haben möchte.

Fazit

Es mag rein rechtlich erlaubt sein, AI-Bilder zu erstellen und privat zu benutzen. Aus kommerzieller Sicht ist das allerdings eine ziemliche Gratwanderung. Da gäbe es die damit zu veräußernde Qualität, die in dem hier vorliegenden Fall ja alles andere als überzeugend ist. Denn offensichtlich verstand die verantwortliche Person nichts von Grafikdesign, ansonsten lässt sich dieses Ergebnis nicht erklären. Nebenbei existieren allerlei rechtliche Fallstricke. Die Ausführungen würden zu weit führen, daher verweise ich an dieser Stelle zu den beiden hervorragenden Podcasts von Anwalt Thomas Schwenke. Sie behandeln die Themenschwerpunkte Urheberrecht und Deepfakes und Datenschutz.

Letztlich ist es aber auch eine moralisch verwerfliche Komponente. Denn das Outsourcing ist schon seit Jahren gang und gäbe bei Unternehmen aller Art. Es bedeutet nichts anderes, als Arbeitskräfte nicht fest, sondern zeitweise mit Arbeitsverträgen an sich zu binden. Man könnte es auch als Mitarbeiter-Leasing bezeichnen. Nun können solche Stellen nach und nach durch den Einsatz der KI gleich ganz gestrichen werden, denn wie man an der fehlerhaften Darstellung im Cover und Plakat sieht, gab es keine grafische Nachbearbeitung durch einen Zeichner oder Coverdesigner. Der Arbeitsplatz wurde zugunsten der KI gestrichen.

Bei so einem Vorgehen und der offenen und noch nicht einmal deklarierten Nutzung einer KI stellt sich bei manchem vielleicht auch unweigerlich die Frage: Wenn das Cover schon AI ist, stammt der Inhalt dann auch von einer KI? Und wie viele Verlage werden noch auf den AI-Zug aufspringen und es verheimlichen?

Bereits jetzt gibt es die ersten KI-erzeugten Bücher (in Bild und Schrift) auf dem Buchmarkt. Eine Kennzeichnungspflicht wäre daher das Mindeste an Verantwortung den Lesern gegenüber. Denn wer KI-erzeugte Literatur und Kunst erwirbt, unterstützt damit gleichzeitig auch den Abbau von Arbeitsplätzen und trägt so seinen Teil zur Vernichtung von Existenzen bei. Nebenbei werden die Preise bei anderen Coverdesignern, Zeichnern und Co., die nicht auf Text- und Bildgeneratoren umsatteln, teurer, weil die Auftragslage schwieriger wird, bis sie am Ende ganz zusammenbricht. Ein Teufelskreis entsteht.

Daher wäre mein Aufruf: Kennzeichnet von euch auf freiwilliger Basis, wenn ihr schon KIs nutzt. Denn dann kann jeder frei entscheiden, was oder wen er unterstützen mag. Das wäre Fair Play in einem ansonsten unfairen Spiel. Und hütet euch davor, KI-Erzeugnisse als alleinig von Menschenhand gestaltet anzupreisen oder herumzudrucksen bzw. mit schönen Worten zu umschreiben, um die Realität nicht benennen zu müssen. Das fiele dann nämlich unter den Punkt des unlauteren Wettbewerbs und der ist in Deutschland strafbar.

Eure Rike.

Data Mining und das Urheberrecht

Wie inzwischen sehr viele Menschen wissen dürften, prescht die Entwicklung von KI-Systemen mit den sieben Meilen Stiefeln in den verschiedensten Branchen voran. Ob das für uns zum Guten oder Schlechten ausgehen wird, darf die Zukunft zeigen. Ich für meinen Teil wende mich heute noch einmal explizit dem Bereich des Urheberrechtes in der Kunstbranche zu. Dieses Mal geht es speziell um das Data Mining.

Das Training einer KI

Damit eine KI ihre Arbeit macht, muss sie trainiert werden. Dazu benötigt man massenhaft Daten. Im Falle von Text- und Bildgeneratoren sind es Texte und Bilder. Und hier sind wir am Ursprung aller Probleme angekommen. Daten unterliegen einem besonderen Schutz und speziell Texte aller Art sowie Bilder unterliegen dem Urheberrecht.

Es tun sich also zwei zwingende Fragen auf: Wo kommen die Daten für das Training einer KI her und gibt es irgendwelche Gesetze beim sog. Data Mining zu beachten?

Gesetzlichen Regelungen

Dreh- und Angelpunkt ist das Urheberrecht, wenn es darum geht Texte und Bilder in irgendeiner Weise zu verwerten. Niemand anderes als der Urheber (§§ 11 ff UrhG) kann über die Verwendung bestimmen, außer ein Werk ist gemeinfrei. Den Umstand, dass es Länder gibt – Deutschland gehört übrigens nicht dazu – in denen man auf sein Urheberrecht verzichten kann, erwähne ich zwar an dieser Stelle, aber es ist für die Betrachtung selbst nicht von Belang. Es stellt sich nur die Frage, ob es ein Urheberrecht gibt und wo dieses im Zweifel liegt.

Nun gibt es aber auch Werke, die sozusagen verwaist sind. Bei denen ist trotz gründlicher Recherche kein Urheber oder Nutzungsrechteinhaber mehr auffindbar. Auch hier regelt das Urheberrecht, dass mit diesen Werken wie mit gemeinfreien Werken verfahren werden darf. Solches Material findet man unter anderem in Sammlungen von öffentlichen Bibliotheken oder Archiven.

Grundsätzlich muss also für das Training nicht gemeinfreier oder verwaister Werke die Erlaubnis des Urhebers (eine Lizenz) in schriftlicher Form vorliegen. Ansonsten kann es zivilrechtliche Klagen geben. Auch haben die Urheber im Prinzip ein Recht auf finanzielle Beteiligung oder Entschädigung, solange nichts anderes gesetzlich geregelt ist. Leider existiert so eine Regelung. Verantwortlich dafür ist § 44b UrhG, ein ergänzender Paragraph des Urheberrechtes, der am 31.05.2021 erlassen und am 07.06.2021 in Kraft getreten ist. Damit ist das kommerzielle Text und Data Mining (also das, worum es beim Training einer KI geht) vergütungsfrei. Bis dahin galt das nur für wissenschaftliche Zwecke (§ 60d UrhG).

Für das kommerzielle Mining sieht § 44b UrhG keine Vergütungspflicht zugunsten der Urheber vor.

https://www.cmshs-bloggt.de/gewerblicher-rechtsschutz/urheberrecht/text-und-data-mining-nach-dem-neuen-urheberrecht/

Halten wir kurz fest: Für eine Verwertung irgendeiner Art ist die Frage nach dem Urheberrecht zu klären und eine Lizenz zu erwirken. Eine Vergütung ist dabei nicht unbedingt vorgesehen.

Die vom Gesetz her vorgeschriebene fehlende Vergütung im Bereich des Data Mining ist für Urheber ein echtes Ärgernis, aber leider nicht das einzige. Es gibt noch weitere Umstände, die den Verantwortlichen beim Training einer KI entgegenkommen und den Urheber benachteiligen. Welche das sind, ist von Land zu Land verschieden. Ich beziehe mich im Weiteren ausschließlich auf deutsches Recht.

Herkunft der Trainingsdaten

Ausgerechnet das Lizenzrecht hilft dabei, das Urheberrecht aufzuweichen. Und damit schlagen wir auch gleichzeitig einen Bogen zur Herkunft des Trainingsmaterials. Beides hängt miteinander zusammen. Wie im Vorfeld schon erwähnt benötigt man z. B. für die Verwertung von Texten und Bildern entsprechende Lizenzen.

Normalerweise müsste also jeder Urheber einzeln um eine Lizenz gebeten werden. Für das KI-Training wäre der zu erwartende Aufwand, um an genügend Lizenzen zu kommen, enorm. Das wird so nicht gemacht, zumal hier besonders in der Kunst-Szene eine riesige Abneigung entgegenschlagen würde. Stattdessen wird anders vorgegangen.

Lizenzvergabe durch AGB, Nutzungsbedingungen und Co.

Am einfachsten und lukrativsten ist es nur einen Ansprechpartner zu haben, der einem die gesammelten Daten zur Verfügung stellt und dabei auch noch das Urheberrecht bzw. Lizenzecht beachtet. Solche Ansprechpartner sind in großen Unternehmen oder Plattformen zu finden, die das benötigte Text- bzw. Bildmaterial liefern. Der Trick hierbei besteht darin, dass User solchen Nutzungsbedingungen zustimmen, in denen geregelt ist, dass deren Text- und Bildmaterial frei weiterverwendet werden darf.

Ganz vorne mit dabei, sind Unternehmen, die auch die Forschung von KI-Systemen unterstützen. Facebook, Instagram und Google sind nur drei der großen Player.

Bei Google ist z. B. zu lesen (Stand: 14.02.2023):

Quelle: https://policies.google.com/terms?hl=de&fg=1

Interessant sind hier die Angaben zum Zweck der Lizenz. Er ist so allgemein gehalten, wie es nur möglich ist, um so viel Material ansammeln zu können wie irgendwie machbar. Die drei Listenpunkte sind nur Beispiele und lange nicht im Zweck vollständig. Man könnte hier auch aufführen, dass Texte und Bilder für das Training einer KI verwendet werden. Das steht in diesen Worten jetzt nicht hier, fällt aber auch darunter.

Wer also als Google-Nutzer sein Text- und Bildmaterial bei Google hinterlässt, überlässt es also auch im Zweifel für das KI-Training. Dafür, dass man Googledienste kostenlos nutzt, ist das der Preis. Man bezahlt also mit ganz speziellen Daten. Daten sind nicht nur die Angaben über die eigene Person, die unterliegen ja dem Datenschutz und werden gesondert behandelt. Daten sind also alles, was man sich an Informationen vorstellen kann und werden auch gerne als Inhalte bezeichnet.

Bei Facebook und Instagram läuft es genauso. So können hier das letzte Urlaubs- oder jüngste Babyfoto des eigenen Nachwuchses zum Traningsmaterial für eine KI werden. Gleiches gilt für Texte. Jeder Beitrag bei Facebook und Instagram kann zum Trainingsmaterial werden. Auf Facebook findet man den entsprechenden Passus übrigens unter Punkt 3.3 der Nutzungsvereinbarungen „Deine Verpflichtungen gegenüber Facebook und unserer Gemeinschaft“.

Ähnlich gehen auch andere Plattformen vor. In meinem Blogartikel Stability AI und der 18+ Content ist übrigens auch nachzulesen, wo das Bildmaterial für die Sex-und Pornoszene herkommen kann. Darunter fallen Plattformen, wo private Videos hochgeladen werden. Auch das ist eine Quelle für KI Trainingsdaten, an die normalhin niemand denkt.

Andere Quellen

Aber nicht nur große Plattformen werden nach Trainingsmaterial abgegrast. Auch normale öffentliche Websites werden mitgenommen und das sogar ohne den Anspruch auf Vergütung. Doch wie kann das sein? Die Antwort lautet § 44b UrhG. Dieser Paragraph erlaubt:

die automatisierte Analyse von einzelnen oder mehreren digitalen oder digitalisierten Werken, um daraus Informationen insbesondere über Muster, Trends und Korrelationen zu gewinnen.

http://www.gesetze-im-internet.de/urhg/__44b.html

Allerdings müssen, die auf diese Weise erhobenen Daten nach Gebrauch bzw. Erfüllung des Zwecks wieder gelöscht werden.

Die Vervielfältigungen sind zu löschen, wenn sie für das Text und Data Mining nicht mehr erforderlich sind.

http://www.gesetze-im-internet.de/urhg/__44b.html

Bislang sind mir jedenfalls keine Möglichkeiten bekannt, die die Trainingsdaten wieder aus einem Dataset wie LAION entfernen. Selbst Stability AI arbeitet derzeit noch mit einer LAION Version, wo diese Funktion nicht berücksichtigt wurde. Daten, die also in der Vergangenheit gemäß § 44b UrhG fürs KI-Training verwendet wurden, sind genau dann rechtswidrig verwendet worden, solange sie nicht wieder gelöscht worden sind, egal aus welchen Gründen, nachdem der Trainingszweck erreicht wurde. So viel dazu.

Schlusswort

Auf jeder Plattform, wo Bilder (bewegt oder statisch) und Texte aller Art erstellt oder hochgeladen werden, sollten die Nutzungsbedingungen, AGB und Co. sehr genau gelesen werden. Hier verstecken sich oft genug die Lizenzvereinbarungen, die es braucht, damit so eine Plattform genau diese Daten rechtskonform weiterleiten kann und damit als alleiniger Ansprechpartner für die Verantwortlichen des KI-Trainings fungiert. Es gibt nur eine Möglichkeit sich dagegen zu wehren, nämlich solche Plattformen nicht zu nutzen. Das kommt für die meisten aus vielen Gründen nicht oder nur eingeschränkt infrage.

So ist z. B. Art Station in der Vergangenheit eine beliebte Möglichkeit bei Künstlern gewesen, ihr Portfolio mit der ganzen Welt zu teilen. Leider hat Art Station letztes Jahr auch sämtliche hochgeladenen Bilder zum Training einer KI gespendet. Höchstwahrscheinlich hat es zum damaligen Zeitpunkt bei Art Station schon eine ähnliche Lizenzvereinbarung wie bei Google in den Nutzungsbedingungen gegeben. Insofern haben die Künstler nun die Wahl, dort ihre Zelte abzubrechen und ihre kostenlose Werbemöglichkeit plattzumachen oder diese Kröte zu schlucken. Wie die Künstlerszene zu diesen Machenschaften steht, war letztes Jahr eindrucksvoll zu sehen. Sie fluteten die Plattform mit NoAI-Kunstwerken. Viele haben daraufhin auch Art Station verlassen.

DevianArt ist eine weitere Kunstplattform, die das Gleiche gemacht hat. Allerdings wird DevianArt dafür auch in den USA verklagt. Der Vorwurf lautet unter anderem: Urheberrechtsverletzung durch die unerlaubte Weitergabe von Bildmaterial.

Für Websitebetreiber hingegen gibt es durchaus eine Möglichkeit des Widerspruchs. Sie wird allerdings wenig bis gar nicht genutzt, obwohl das möglich wäre. Auch das regelt § 44b UrhG. Dazu muss ein Vorbehalt gegen das Data Mining in maschineller Form erstellt werden. Das heißt nichts anderes, als dass man dazu einen Passus in seiner Datenschutzverordnung formulieren soll. Die sog. Crawler, die das Internet nach geeigneten Inhalten durchsuchen, sollen solche rechtlichen Hinweise erkennen und darauf entsprechend reagieren und die mit einem Vorbehalt versehenen Websites ignorieren. Allerdings habe ich auch schon gelesen, dass das eher weniger gut funktioniert bzw. der Vorbehalt ignoriert wird. Die Datenerhebung findet also auch nach ausdrücklichem Widerspruch statt, was ein klarer Rechtsverstoß ist.

So ein Vorbehalt funktioniert aber auf Plattformen wie Facebook und Instagram absolut nicht. In der Vergangenheit kursierten oft Beiträge, in denen der Verfasser den Nutzungsbedingungen widersprochen hat. Das sind nichtige Schreiben, komplett irrelevant. Sie haben keine Auswirkung. Solange man die Dienste von Facebook und Co. nutzt, stimmt man den geltenden Nutzungsbestimmungen zu. So einfach ist das.

Meiner Recherche zu diesem Thema liegen nicht bloß die hier bereits genannten Quellen unter den Zitaten zugrunde, sondern unter anderem auch eine Ausarbeitung des Deutschen Bundestages von 2018 zum Thema Künstliche Intelligenz und Machine Learning – Eine urheberrechtliche Betrachtung und ein Blogartikel der Kanzlei CMS Hasche Sigle Partnerschaft von Rechtsanwälten und Steuerberatern mbB.

Wer sich also dahingehend weiter schlau lesen will, sollte sich diese Quellen in ganzer Länge antun. Dieser Blogartikel ist eine Zusammenfassung aller Informationen, die ich bislang aufgetrieben und für euch hoffentlich einigermaßen verständlich aufbereitet habe.

Eure Rike

PS: Dieser Artikel stellt keine Rechtsberatung dar. Die erhaltet ihr ausschließlich bei einem Fachanwalt eurer Wahl.

Stability AI und der 18+ Content

Die Überschrift verrät es schon. Der heutige Blogartikel dreht sich um Pornographie seitens Stability AI. Ursprünglich wollte ich nur über das gecancelte Crowdfunding von Unstable Diffusion schreiben, der großen Schwester von Stable Diffusion. Aber bei meinen Recherchen bin ich auf einen Sumpf aufmerksam geworden, der mich trotz bisheriger Berichterstattung ein wenig überrascht hat. Mir war klar, dass man mit den KI gestützten Bildgeneratoren und pornographische Bilder erzeugen kann, aber was für Kreise das zieht, wurde mir erst jetzt so richtig klar.

Der Background

An der Stelle möchte ich kurz ein paar klärende Informationen loswerden, weil einige Begriffe in meiner Einleitung evtl. Fragen aufwerfen.

Stable Diffusion ist ein Deep-Learning-Text-zu-Bild Generator. Es wird hauptsächlich zur Generierung detaillierter Bilder auf der Grundlage von Textbeschreibungen verwendet, kann aber auch für andere Aufgaben wie Inpainting, Outpainting und die Generierung von Bild-zu-Bild-Übersetzungen auf der Grundlage einer Textaufforderung eingesetzt werden.

https://de.wikipedia.org/wiki/Stable_Diffusion

Unstable Diffusion ist das 18+ Pendant zu Stable Diffusion. Durch diesen Text-zu-Bild-Generator werden Inhalte produziert, die in den Bereich der Sex- und Porno-Szene fallen.

Stability AI ist hingegen die Firma, eine LTD, die diese Text-zu-Bild-Generatoren gemäß ihrer Nutzungsbedingungen für jedermann bereitstellt. Zur Zeit steht diese Firma – zusammen mit anderen Firmen in den USA – einer Sammelklage seitens namhafter Künstlern gegenüber.

Unstable Diffusion und sein Crowdfunding

Unstable Diffusion ist ein KI-Projekt, das wie andere auch auf eine externe Finanzierung angewiesen ist. So verwundert es nicht, dass es sich entsprechender Portale im Internet bedient. Kickstarter und Patreon sind nur zwei dieser Möglichkeiten und auf beiden wurde das Crowdfunding geblockt. Bei Kickstarter findet man immerhin noch die Inhalte des Spendenaufrufes. Bei Patreon ist nichts mehr zu sehen. Die Website-Suche spuckt nichts mehr aus. Also habe ich die Inhalte bei Kickstarter etwas genauer unter die Lupe genommen.

Ein Blick in die Kommentare offenbart: völlige Verständnislosigkeit seitens der Spender. Die meisten bangen jetzt wohl um ihre Boni, die sie sich mit der Spende versprochen haben. Ob daraus noch etwas wird, kann ich nicht sagen. Aber mich würde auch eher interessieren, aus welchem Grund sie den 18+ Content fördern, der, wie die weiteren Ausführungen dieses Blogartikels zeigen werden, Frauen deutlich benachteiligt und ihnen Schaden zufügen dürfte.

Mein nächster Blick galt dem Projekt selber.

Risiken und Herausforderungen

Hier kam der Stein zu meiner Recherche erst richtig ins Rollen. Stutzig machte mich hier ein Abschnitt, wo ich mich frage: Geht’s noch?

Unstable Diffusion nutzt genauso wie Stable Diffusion und andere KI-Systeme im Bildbereich den LAION Datensatz. Dieser Datensatz ist übrigens der Grund für die Rechtsstreitigkeiten in den USA. Doch das ist nicht der Punkt meiner Empörung, sondern vielmehr wie sich im Crowdfunding in aller Öffentlichkeit bedankt wurde.

„und die Community hat uns großzügig ihre persönlichen und privaten Datensätze zur Verfügung gestellt.“

https://www.kickstarter.com/projects/unstablediffusion/unstable-diffusion-unrestricted-ai-art-powered-by-the-crowd

Welche Community war denn so freundlich? Ach ja, auf jeden Fall die Künstlerszene, die das gar nicht so witzig findet und gerade Stability AI verklagt, unter anderem. In Verbindung mit dem 18+ Content geht es auch um Rufschädigung. Stichwort: KI-Pornographie.

Künstler, die nie für diesen Bereich zeichnen wollten, finden plötzlich ihren Stil in genau dieser Kategorie wieder und Unstable Diffusion interessiert das genauso wenig wie die kleine Schwester Stable Diffusion. Im Standard heißt es dazu:

„Stable Diffusion verfolgt einen liberalen Ansatz und gestattet alles, was sich im rechtlichen Rahmen bewegt“.

https://www.derstandard.de/story/2000141085198/unstable-diffusion-eine-ki-generiert-pornos-auf-knopfdruck

An der Einstellung selbst halten die Verantwortlichen eisern fest und wollen nur an der zu erwartenden Qualität arbeiten.

Aber: Bild-KIs sind notorisch schlecht darin, realistisch aussehende nackte Menschen zu generieren, weil sie darauf nicht trainiert sind.

Während die Datenbanken millionenfach mit Bildern von bekleideten Personen in Alltagssituationen gefüttert sind, gibt es kaum Lehrmaterial mit nackten Menschen. Nur 2,9 Prozent der für das Training der KI verwendeten Bilder enthalten pornografische Inhalte. Das führt dazu, dass Stable Diffusion zusätzliche Gliedmaßen auf nackte Körper pflanzte oder Genitalien extrem verzerrt darstellte.

Das mussten auch die Admins von Unstable Diffusion erfahren, als ihr Discord-Bot noch in den Kinderschuhen steckte und auf die Basisversion von Stable Diffusion zurückgriff. Mittlerweile sei man aber auf einem guten Weg, erklärt Arman Chaudhry, einer der Administratoren, gegenüber Techcrunch. So könne man mittlerweile Gesichter und verzerrt dargestellte Arme reparieren.

https://www.derstandard.de/story/2000141085198/unstable-diffusion-eine-ki-generiert-pornos-auf-knopfdruck

Der Artikel im Standard ist zeitlich vor dem Spendenaufruf bei Kickstarter entstanden. Denn es heißt weiterhin:

Als nächsten Schritt will Unstable Diffusion eine Kickstarter-Kampagne starten und Investoren anlocken, sagt Chaudhry. Ob die hehren Ideale der Realität standhalten, wird sich erst zeigen. Laut Techcrunch werden Erinnerungen an den Fall Mindgeek, das Mutterunternehmen von Pornhub, wach. Zahlreiche Zahlungsanbieter zogen sich von der Plattform zurück, als bekannt wurde, dass auf der Seite Kinderpornografie und Sex-Trafficking-Videos kursierten. (pez, 22.11.2022)

https://www.derstandard.de/story/2000141085198/unstable-diffusion-eine-ki-generiert-pornos-auf-knopfdruck

Tja, wie das ausgegangen ist, wissen wir ja inzwischen. Kickstarter hat das Crowdfunding im Dezember 2022 aufgrund geänderter Nutzungsbedingungen eingestellt. Außerdem dürften die laufende Klage wegen Urheberrechtsverletzungen einen Anteil haben und vielleicht auch der Vorwurf, dass Unstable Diffusion seinen Text-zu-Bild-Generator mit haufenweise pornographischem Material trainieren wollte.

Woher kommt all das pornographische Material?

Die Antwort ist so banal wie schwierig.

KI-Tools wie ChatGPT und Stable Diffusion sind derzeit in aller Munde und haben die öffentliche Debatte rund um den Einsatz von künstlicher Intelligenz ordentlich angeheizt. Damit gehen natürlich auch rechtliche Fragestellungen einher, insbesondere im Hinblick auf Urheberrechte. Denn Softwarelösungen dieser Art werden nicht selten mit einer Vielzahl von Inhalten trainiert, deren Rechteinhaber dem nicht zugestimmt haben.

https://tarnkappe.info/artikel/rechtssachen/ki-pornos-ade-kickstarter-stoppt-kampagne-von-unstable-diffusion-261378.html

Im Prinzip kann das pornographische Bildmaterial alles sein. Es kann von Künstlern stammen, aber auch aus der bestehenden Pornoindustrie bis hin zu Bildmaterial aus privater Hand, sei es legal oder illegal aufgenommen. Alles ist drin. Was einmal im Netz ist, bleibt auch dort. Und das ist der Ort, wo Bilder oder Videos aller Art abgegriffen werden. Große Bildportale wie DevianArt oder Art Station werden bevorzugt, aber sie sind nicht die einzige Quelle.

Für derartige Maßnahmen nutzen die Entwickler von KI-Lösungen nur allzu gerne öffentlich zugängliche Daten. Und obwohl sich viele Künstler gegen die ungefragte Verarbeitung ihrer Werke wehren, stufte ein US-Gericht die als “Web Scraping” bezeichnete Praxis im April dieses Jahres als legal ein.

Dennoch handelt es sich dabei um ein ernst zu nehmendes Problem. Nicht jede Person, die damit einverstanden ist, in einem Erwachsenenvideo aufzutreten, stimmt damit automatisch dessen Verwendung für das Training einer KI zu, die daraus wiederum neuartige Pornos generiert.

Zugleich ist anzunehmen, dass Herausforderungen dieser Art vorzugsweise Frauen betreffen. Schließlich hängen die Ergebnisse, die der Algorithmus ausspuckt, sehr stark davon ab, auf welche Datenbestände er zurückgreifen kann. Da die meisten pornografischen Inhalte jedoch das männliche Publikum anvisieren, dürften auch KI Pornos häufiger diese Zielgruppe ansprechen.

https://tarnkappe.info/artikel/rechtssachen/ki-pornos-ade-kickstarter-stoppt-kampagne-von-unstable-diffusion-261378.html

Bei TechCrunch steht zur Herkunft des pornographischen Trainings-Materials übrigens Folgendes:

Stable Diffusion verwendet einen Datensatz von 2,3 Milliarden Bildern, um seinen Text-zu-Bild-Generator zu trainieren. Aber nur schätzungsweise 2,9 % des Datensatzes enthalten NSFW-Material, was dem Modell in Bezug auf explizite Inhalte wenig Anhaltspunkte gibt. Hier kommt Unstable Diffusion ins Spiel. Das Projekt, das Teil von Equilibrium AI ist, rekrutierte Freiwillige von seinem Discord-Server, um robustere Porno-Datensätze zu entwickeln, um ihren Algorithmus zu verfeinern, genauso wie Sie mehr Bilder von Sofas und Stühlen auf a hochladen würden Datensatz, wenn Sie eine KI zur Möbelgeneration erstellen wollten.

https://techcrunch.com/2022/12/21/kickstarter-shut-down-the-campaign-for-ai-porn-group-unstable-diffusion-amid-changing-guidelines/

Außerdem gibt es keine Möglichkeit zu überprüfen, ob ein Großteil der im Internet frei verfügbaren Pornos einvernehmlich erstellt wurde (allerdings müssen erwachsene Ersteller, die kostenpflichtige Plattformen wie OnlyFans und ManyVids verwenden, ihr Alter und ihre Identität überprüfen, bevor sie diese Dienste nutzen). Selbst wenn ein Model zustimmt, in Pornos aufzutreten, bedeutet das nicht, dass es damit einverstanden ist, dass seine Bilder verwendet werden, um eine KI zu trainieren. Während diese Technologie erstaunlich realistische Bilder erzeugen kann, bedeutet das auch, dass sie bewaffnet werden kann, um nicht einvernehmliche Deepfake-Pornografie zu erstellen.

Derzeit beziehen sich nur wenige Gesetze auf der ganzen Welt auf nicht einvernehmliche Deepfake-  Pornos. In den USA haben nur Virginia und Kalifornien Vorschriften, die bestimmte Verwendungen von gefälschten und tiefgefälschten pornografischen Medien einschränken.

„Ein Aspekt, über den ich mir besonders Sorgen mache, sind die unterschiedlichen Auswirkungen von KI-generierten Pornos auf Frauen“, sagte Ravit Dotan, Vizepräsident der verantwortlichen KI bei Mission Control, letzten Monat gegenüber TechCrunch . „Zum Beispiel funktioniert eine frühere KI-basierte App, die Menschen ‚ausziehen‘ kann, nur bei Frauen.“

https://techcrunch.com/2022/12/21/kickstarter-shut-down-the-campaign-for-ai-porn-group-unstable-diffusion-amid-changing-guidelines/

Fazit

Mit Unstable Diffusion wird ein großer Pornographie-Markt eröffnet, der aufgrund des zur Verfügung stehenden Bildmaterials ziemlich einseitig ausfallen dürfte und besonders Frauen wieder nachteilig behandelt. Es ist ja nicht erst seit gestern bekannt, dass Pornographie Frauen mehr schadet als nützt und sie ausbeutet. Davon abgeleitet wird auch Unstable Diffusion in diese Kerbe schlagen, auch wenn sie vorhaben alle Spektren zu bedienen, auch die queere Szene. Die Frauen werden am meisten leiden.

Bereits jetzt gibt es viel Bildmaterial aus dieser Schmiede im Internet. Stichwort: DeepFake Pornos. So offenherzig, wie die Verantwortlichen Bildmaterial zum Aufbau ihrer Datasets an Land ziehen, ist Missbrauch vorprogrammiert. Jedes Gesicht kann sich theoretisch sowie praktisch dort wiederfinden. Wir erinnern uns an den Spruch: Einmal im Netz, immer im Netz? Das gilt auch hier. „Einmal im Dataset, immer im Dataset.“

Eure Rike Moor

AI-Bilder: Was du wissen solltest.

AI-Bilder sind legal. Ich mache nichts Verbotenes. Ich bin der Urheber und gebe Lizenzrechte weiter. Wieso sollte ich meine AI-Werke als AI kennzeichnen? Das geht nur meine Kunden etwas an.

Solche Äußerungen und Aussagen ähnlicher Art finden sich der Tage zu Hauf, wenn man gewisse Coverdesigner, Illustratoren u. a. – in der Fachsprache werden sie auch AI-Artists genannt – anspricht, auf deren Seiten man Werke findet, die einem schon von weitem ins Gesicht schreien, dass sie nicht von Menschenhand stammen – mittels Pinsel, Stift, Grafikprogramm oder Grafiktablet – aber nicht als solche gekennzeichnet wurden.

Aber ist wirklich alles so legal, wie es auf den ersten Blick scheint?

Der Frage gehen wir heute auf den Grund und führen einen kleinen Exkurs in rechtliche Gefilde einerseits und künstlerische Gefilde andererseits.

In meinem Blogbeitrag Kunst und die KI habe ich bereits ein paar Hintergründe und auch Geschädigte der AI-Szene offengelegt. Dennoch möchte ich kurz eine kleine Zusammenfassung loswerden. KI-Programme basieren auf einem Datensatz – inzwischen existiert die vierte oder sogar fünfte Generation vom sog. LAION Datensatz – der mit Werken gespeist ist, deren Urheber nicht einmal die Chance bekamen zu entscheiden, ob ihre Werke für das Training von KIs genutzt werden dürfen oder nicht. Die Verantwortlichen für diesen Prozess haben also alles in der Internetlandschaft regelrecht abgegrast, darunter auch so große Plattformen wie DevianArt.

Diese Fremdbestimmung und quasi rechtliche Enteignung hat die betroffenen Künstler zurecht sauer gemacht. Resultat dieser zutiefst unverfrorenen und unmoralischen Herangehensweise sind mindestens drei Klagen in den USA gegen Microsoft – genauer gesagt gegen GitHub und OpenAI (https://t3n.de/news/ki-klage-github-copilot-microsoft-openai-1511768) – und Stability AI, Midjourney und DeviantArt. Im Internet ist sogar die Klageschrift gegen letztgenannte Institutionen einsehbar.

Ups, gegen DevianArt richtet sich eine Klage? Wie kann das denn sein, wenn das doch eine Künstlerplattform ist, deren Künstler betroffen sind?

Created with GIMP

Tja, liebe Leute. DevianArt hängt in dieser Sache tief mit drinnen. Es hat die Bilder sozusagen freiwillig an die KI-Techniker weitergegeben. Das Vorgehen wurde seitens der dort ansässigen Künstler auch entsprechend öffentlich sichtbar gebrandmarkt. Sie luden aus Protest letzten Jahres massenweise Bilder hoch, die mit dem Schriftzug No-AI und einem roten Keis versehen waren, ähnlich der deutschen Verkehrsschilder. Diese Bilder sind auch heute noch als Hinweis des Protestes im Umlauf.

Unter anderem gab und gibt es noch ein Crowdfunding, mit weiterführenden Informationen zum Stand der Dinge, um sich gerichtlich zur Wehr zu setzen, was ja nun auch eingetreten ist. Ziel dieser Gegenwehr ist es mitunter zu erstreiten, in Zukunft gefragt zu werden, ob die eigenen Werke in Datensätze wie LAION verarbeitet werden und diese Rechtsprechung auf alle Urheber auszuweiten. Denn nicht nur Bilder werden in KIs eingespeist, sondern auch Texte jeglicher Art. Dazu zählt die Belletristik genauso wie Computercodes. Aus letztgenanntem Grund muss sich Microsoft verklagen lassen, nur mal so nebenbei erwähnt.

Dabei wäre alles nur halb so wild, wenn nur gemeinfreie Werke fürs Training der KIs herangezogen oder die Urheber vorher gefragt worden wären und man sich dann auch an die Entscheidung gehalten hätte. Hat man nicht und nun folgt der Backlash.

Urheberrecht und die Regelung zum unlauteren Wettbewerb in Deutschland

Anhand der Klagen sieht man sehr schön, dass die Nutzung von AI-Bildern sehr wohl mit rechtlichen Fallstricken versehen ist. Das haben auch verschiedene andere Kunstplattformen erkannt und reagiert. Einige Plattformen wie Getty Images verbieten AI-Bilder konsequent und andere wie Adobe erlauben sie, aber mit expliziter Auszeichnung, die auch in deren Nutzungsbedingungen geregelt ist.

Hier ein Auszug in dt. Übersetzung aus den Bedingungen für AI-Bilder seitens Adobe:

Do: Betiteln und taggen Sie Ihre Inhalte mit den Schlüsselwörtern „Generative AI“ sowie „Generative“ und „AI“, um die Moderation zu beschleunigen und Kunden zu helfen, die richtigen Inhalte zu finden.

Don’t: Kennzeichnen Sie generierte Bilder mit ungenauen oder vagen Beschreibungen wie „3D-Darstellung“, „Hintergrundbild“ oder „Neuronales Netzwerk“, es sei denn, sie entsprechen dem Inhaltsthema oder -stil.

Dazu gibt es noch weitere Anforderungen, z. B. müssen die Bilder frei von Fehlern sein, also sog. Glitches, wie sie von Bildgeneratoren immer wieder produziert werden. Kurz gesagt müssen AI-Bilder den gleichen qualitativen Standards genügen wie von einem erfahrenen Künstler oder Fotografen hergestellt.

Hier ein Auszug in dt. Übersetzung aus den Bedingungen für AI-Bilder seitens Adobe:

Do: Lesen Sie die Geschäftsbedingungen für generative KI-Tools, die Sie verwenden, um sicherzustellen, dass Sie das Recht haben, alle generativen KI-Inhalte zu lizenzieren, die Sie unter den Bedingungen für Anbieter an Adobe Stock senden . Beispielsweise können Sie keine Inhalte einreichen, wenn Sie diese nicht für kommerzielle Zwecke lizenzieren dürfen.

Don’t: Verwenden Sie generative KI-Tools, von denen bekannt oder anerkannt ist, dass sie schwerwiegende Mängel in ihrem Design oder ihren Ergebnissen aufweisen (z. B. Tools, die identifizierbare Personen oder Eigentum aus generischen Eingabeaufforderungen generieren).

Don’t: Reichen Sie Arbeiten ein, die reale Orte, identifizierbares Eigentum (z. B. berühmte Persönlichkeiten oder Logos) oder bemerkenswerte Personen (ob fotorealistisch oder – sogar Karikaturen) darstellen.

Am Vorgehen dieser beiden Plattformen, insbesondere dem von Adobe, sieht man sehr schön, dass die Rechtslage hinsichtlich der AI-Bilder nicht so klar ist, wie allgemeinhin behauptet wird. Sonst gäbe es keinen Grund, sich mit einem strikten Verbot oder expliziter Kennzeichnung abzusichern. Da fragt man sich automatisch: Wenn die Großen sich schon rechtlich absichern müssen, warum drücken sich die Kleinen, z. B. Coverdesigner und Illustratoren, regelrecht um eine explizite Kennzeichnung, wenn Teile ihrer Produkte oder das ganze Produkt aus achso legaler AI-Art besteht? Immerhin tragen deren Kunden das Risiko und im Zweifel können Coverdesigner und Illustratoren deswegen eine Schadensersatzklage kassieren. Es verhält sich hier ähnlich wie mit Stockfotos.

Werden Stockfotos widerrechtlich verkauft oder zum Erzeugen weiterer Kunstwerke benutzt, ist das strafbar. Betroffen sind im Falle einer Weiterveräußerung nicht nur der Coverdesigner/Illustrator, sondern auch derjenige, der das Erzeugnis gekauft hat und für seine Zwecke einsetzt. Autoren wissen das oder sollten es zumindest wissen und wert darauf legen. Diese Rückkopplung ist auch bei AI-Bildern zu erwarten, je nach Einsatzzweck und weiterführenden Nutzungsbedingungen und Co.

Ist also für einen potenziellen Kunden von vorneherein nicht ersichtlich, um was es sich bei dem Kauf handelt, dann kann das weitreichende rechtliche Konsequenzen nach sich ziehen. Außerdem driftet das – in Deutschland zumindest – bereits in den Bereich von irreführender Werbung ab, sobald mit AI-Covern geworben wird, ohne sie als solches zu kennzeichnen.

Auszug aus dem Gesetz gegen unlauteren Wettbewerb:

(3) Eine geschäftliche Handlung ist auch irreführend, wenn

1. sie im Zusammenhang mit der Vermarktung von Waren oder Dienstleistungen einschließlich vergleichender Werbung eine Verwechslungsgefahr mit einer anderen Ware oder Dienstleistung oder mit der Marke oder einem anderen Kennzeichen eines Mitbewerbers hervorruft

https://dejure.org/gesetze/UWG/5.html

Es gibt noch immer viel zu viele Autoren und andere Menschen, die den Unterschied nicht erkennen oder nicht daran denken oder glauben, der Künstler hat selbst gezeichnet. (Im Übrigen geben das auch gerne Coverdesigner bzw. Illustratoren vor, die entsprechende Bilder einkaufen. Ob das stimmt, sei mal dahingestellt.) Das ist eine Verwechslungsgefahr hinsichtlich der Entstehung des Covers. Es gibt genug Autoren und kunstliebende Menschen, die diese sog. Kunst nicht unterstützen oder nicht das Haftungsrisiko tragen wollen, von dem ich bereits gesprochen habe. Wie sollen sie die Entscheidung fällen, wenn sie darüber in der entsprechenden Werbung (Artikel, Website, Spot usw.) im Unklaren gelassen werden?

Amazon ist z. B. so ein Distributor, der unverhofft auf einen Autor zugeht und Nachweise zu Lizenzrechten für das jeweilige Cover erfragt. Das ist rechtens und spätestens hier landen wir bestenfalls in einer rechtlichen Grauzone. Denn der Coverdesigner, der mit AI-Art spielt, ist faktisch gesehen kein Urheber der AI-Bilder. Er tippt sog. Prompts – Eingaben in Textform – in die KI-Programme ein. Produziert hat die KI, nicht der Coverdesigner. Laut Urheberrecht (https://www.urheberrecht.de/) sind auch Coverdesigner Urheber, sofern sie „von produktiver und kreativer Arbeit ein Werk geschaffen haben“. Ein paar Phrasen in eine Eingabeaufforderung einzutippen, kann jedoch kaum als schöpferischer Akt bezeichnet werden. Da aber eine KI produziert, scheidet auch sie als Urheber aus, denn:

Beim Urheber muss es sich um eine natürliche Person handeln. Weil Pflanzen, Tieren, Maschinen, Computern sowie Computerprogrammen die Grundlage zur persönlich geistigen Schöpfung fehlt, fallen deren Erzeugnisse nicht unter das Urheberrecht.

https://www.urheberrecht.de/

Zudem gibt es vier Voraussetzungen, die erfüllt sein müssen, damit ein Werk unter das Urheberrecht fällt:

  • Das Werk muss das Ergebnis menschlichen Schaffens sein.
  • Das Werk muss durch die menschlichen Sinne wahrnehmbar sein. Dabei ist es nicht notwendig, eine dauerhafte Form zu wählen.
  • Das Werk muss eine kreative Leistung darstellen.
  • Das Werk muss durch den Urheber und seine Persönlichkeit geprägt sein.
https://www.urheberrecht.de/

Unterstützt wird diese Aussage von der Anwaltskanzlei Sieling. Sie sagt dazu folgendes:

In Deutschland gibt es keine spezifischen gesetzlichen Regelungen zur Verwendung von KI-Bildgeneratoren. Allerdings gelten die gleichen gesetzlichen und urheberrechtlichen Bestimmungen auch für diese Technologie. Die Diskussion ist allerdings auch nicht ganz neu. Bereits zu Zeiten des Mathematikers Benoît Mandelbrot, der bereits in den 70ern Mathematik und Kunst vereinte, wurde diskutiert, ob Fraktale (als Ergebnis eines Algorithmus) urheberrechtlich geschützte Werke seien, was jedoch überwiegend verneint wurde.

Das Urheberrecht an Bildern steht grundsätzlich demjenigen zu, der sie erstellt hat – im Rahmen der KI, kommen hier mehrere Berechtigte in Frage, die KI selbst, der Betreiber (Entwickler) des KI-Bildgenerators oder der Nutzer, der den Input und die Vorgaben macht, so dass die KI nur Werkzeug des Nutzers oder auch Betreibers ist. Fest steht – die KI kann selbst und isoliert betrachtet keine urheberrechtlich geschützten Werken hervorbringen.  Das Urheberrecht sieht als Voraussetzung für den Schutz vor, dass das Werk eine „persönliche geistige Schöpfung“ ist, also von einer natürlichen Person geschaffen wurde.

Es kommt also – wie so häufig in der Juristerei – auf den konkreten Einzelfall an. Wenn Sie ein Bild, das von einem KI-Bildgenerator erstellt wurde, verwenden möchten, sollten Sie deshalb immer vorher die Rechte an den Ergebnissen klären. Beachten Sie jedoch, dass viele Anbieter ihre Produkte bislang nur für den privaten Gebrauch freigeben – eine kommerzielle Nutzung ist oft nicht gestattet. 

https://www.kanzlei-sieling.de/2022/09/06/rechtliche-aspekte-bei-der-verwendung-von-ki-bildgeneratoren/

Ebenso das hier:

In Deutschland gilt das Urheberrecht nach dem Gesetz für Werke der Literatur, Wissenschaft und Kunst (UrhG) als schutzwürdig. Danach ist jede „geistige Schöpfung“ urheberrechtlich geschützt, sobald sie fixiert und damit „gewissermaßen niedergelegt“ wurde. Dazu können auch Bilder gehören, die mit Hilfe eines KI-Bildgenerators erstellt wurden. Allerdings ist zu diskutieren, ob ein solches Bild überhaupt als „geistige Schöpfung“ im Sinne des UrhG anzusehen ist. Das besagt, dass die geistige Schöpfung durch einen Menschen hervorgebracht werden muss.

Es bleibt also abzuwarten, wie sich die Rechtslage in Zukunft entwickeln wird. Bis dahin sollten Unternehmen, die KI-Bildgeneratoren einsetzen, eher vorsichtig sein.

https://www.kanzlei-sieling.de/2022/09/06/rechtliche-aspekte-bei-der-verwendung-von-ki-bildgeneratoren/

Ein AI-Bild ist ein Erzeugnis eines KI-Programms und das ist nicht menschlich. Eine KI ist auch kein bloßes Werkzeug. Ein Werkzeug wird aktiv von einem Menschen benutzt und geführt. Eine KI nimmt einem aber alle Arbeiten ab. Das ist selbstständiges Handeln der KI nach Arbeitsanweisung. Das findet sich aber auch von Chef zu Angestellten in jedem x-beliebigen Unternehmen. Und der Angestellte ist nicht das Werkzeug seines Chefs. Alleine dieser Punkt widerspricht daher der Rechtfertigung, der Urheber könnte z. B. der Coverdesigner sein, der die KI bedient, um ein Cover oder Teile davon zu entwerfen. Auch der deutsche Bundestag hat sich hinsichtlich des Urheberrechtes geäußert.

Mag auch die KI oder der Algorithmus selbst auf einem geistigen Schaffensprozess beruhen, so ist das hierdurch entstandene Ergebnis nur mittelbar auf einen menschlichen Schaffensprozess zurückzuführen. Es reicht also für den Urheberrechtsschutz
nicht aus, dass der Mensch zwar die Maschine beherrscht, den unmittelbaren Umsetzungsprozess innerhalb und durch die Maschine aber nicht mehr beeinflussen kann.

https://www.bundestag.de/resource/blob/592106/74cd41f0bd7bc5684f6defaade176515/WD-10-067-18-pdf-data.pdf?fbclid=IwAR1Dz1tXFIKCTxzpXmqX0VvvGnbDSkpLX6Pf8QY1WgrhrJVI5uNttTYACfc

Hierzu hat auch die USCO (United States Copyright Office) bereits ein jünstes Urteil verhängt und das Urheberrecht an KI erstellten Bildern eines bereits publizierten Comic-Buches nebst Illustrationen aufgehoben. Das war Ende Dezember 2022 der Fall. Es gab eine Berufungsfrist von 30 Tagen. Die Zeit ist rum und das Comic-Buch dürfte jetzt gemein sein. Gehört habe ich bis dato (03.02.2023) nichts gegenteiliges.

Aufgrund all dieser Ausführungen könnte der Coverdesigner höchstens von dem jeweiligen KI-Unternehmen ein Nutzungsrecht erlangen und das vielleicht an Kunden weitergeben, wobei anzumerken ist, dass nur ein Urheber solche Rechte vergeben kann. Details regelt hoffentlich der jeweilige Vertrag zwischen KI-Unternehmen und dessen Kunden also dem Coverdesigner in unserem Beispiel. Allerdings raten Anwälte wie die Kanzlei Sieling von der kommerziellen Nutzung ab, bis die Rechtslage eindeutig geklärt ist. Hinzu kommt, dass die meisten KI-Unternehmen die kommerzielle Nutzung dieser Bilder nicht erlauben. Ausnahmen bestätigen die Regel, aber es sind Ausnahmen und auf jeden Fall Gegenstand einer Urheberrechtsprüfung.

Darüber hinaus gibt es noch ein Phänomen, das ein sog. KI-Plagiat ermöglicht. Gehen zwei User hin und tippen jeweils die gleichen Phasen in die Eingabeaufforderung ein, wird die KI jeweils ein identisches Bild ausspucken. Das haben Eigenexperimente verschiedener Nutzer bereits ergeben. So etwas lässt sich leicht testen. Auch dieser Punkt wurde von der Kanzlei Sieling herangeführt, zu lesen in einem der obigen Zitate.

Die Frage nach dem Urheber stellt sich hier also eigentlich nicht. Die Frage ist eher: Wer hat hier also das Nutzungsrecht? User 1 oder User 2? Und wie verhält es sich dann z. B. mit einem Autor/Illustrator/Coverdesigner, der von User 1 gekauft hat und das Bild für seine Zwecke verwendet, aber User 2 damit nicht einverstanden ist?

Ihr seht, da hängt ein ganzer Rattenschwanz an möglichen Konsequenzen hinten an. Aus genau all diesen Gründen und ungeklärten Rechtsfragen ist es für die entsprechenden Berufler, Plattformen und Unternehmen umso wichtiger zu kennzeichnen, wann man AI-Bilder benutzt hat oder zulässt.

AI-Bilder von Bildern aus Menschenhand unterscheiden lernen

Ja, das geht. Dazu braucht man ein geübtes Auge und das Wissen darum, wo man diese Information noch so findet. Hierzu verlinke ich zu einem Video auf Youtube. Es trägt den schönen Titel Real oder AI und ist auf Englisch, aber auch mit nicht ausgefeilten Englischkenntnissen, kann man verstehen, worum es geht.

Ich gebe zu, manche AI-Bilder sind schwer von den Bildern aus Menschenhand zu unterscheiden, und so mancher Coverdesigner und Illustrator kann die Herkunft, wenn sie nicht öffentlich sichtbar deklariert ist, durchaus übersehen. Aber es gibt einen Weg diese Bilder zu entlarven. Dazu müsste man nur in die Metadaten des eingekauften Bildes schauen. Im Video ist aufgezeigt, worauf man achten soll. Also kann sich wirklich niemand damit herausreden, nicht zu wissen, was man da verarbeitet in seinen Covern oder Illustrationen.

Für jene, die nicht auf Metadaten zurückgreifen können, gibt es anderen Hinweise. Angefangen über sog. Glitches, Fehler in der Darstellung bis hin zum immer gleich erscheinenden Stil ohne Abweichungen. Zu den Glitches zählen Deformationen im Gesicht oder anderen Körperteilen – es wirkt auf den Betrachter meist nur sehr seltsam im Sinne von: Irgendwas stimmt doch hier nicht – oder auch überzähligen Körperteilen, unsteten Proportionen usw. Ein öffentliches Beispiel ist ein Kinderbuchautor, der seine Illustrationen selbst mit einer KI erstellt hat. Er gibt auf Twitter sogar öffentlich diese Glitches zu.

Fazit!

Liebe Autoren und jene, die mit Künstlern jeglicher Art zusammenarbeiten, seit wirklich vorsichtig. Nicht jeder Künstler bedient sich der AI, aber diejenigen, die es machen, können euch mehr schaden als nützen, wenn die Fallstricke in diesem Bereich nicht beachtet werden. Es ist ein Akt der Ehrlichkeit und Transparenz dem Kunden gegenüber und allen anderen, die diese Werke zu Gesicht bekommen, wenn eindeutig und auf den ersten Blick ersichtlich ist, um was es sich da handelt.

Ich persönlich verteufle diese Technik nicht, wohl aber die Art und Weise wie sie entstanden ist und auf welche Weise mit ihr in manchen Bereichen umgegangen wird. Das ist ein sehr großer Unterschied.

Ich danke fürs Lesen dieses doch umfangreichen und höchstwahrscheinlich polarisierenden Artikels.

Eure Rike

PS: Dieser Artikel stellt keine Rechtsberatung dar. Die erhaltet ihr ausschließlich bei einem Fachanwalt eurer Wahl.

PPS: Es gab ein kleines Update hinsichtlich einiger weiterführender Informationen. Das betrifft die Erwähnung des deutschen Bundestages, die Kanzlei Sieling und den Fall aus den USA mit der USCO. (Stand 03.02.2023)

KI und die Kunst

Sicherlich hat der eine oder andere von euch schon davon gehört. Es gibt eine künstliche Intelligenz (KI), die Texte, ja ganze Geschichten schreiben können soll. Nun, das gibt es jetzt auch für die bilddarstellende Kunst, wie ich kürzlich erfahren habe. Natürlich wird diese neue Technik in den höchsten Tönen gelobt und rege benutzt, aber es gibt auch arge Schattenseiten. Dazu zählen Urheberrechtsverletzungen und Kundentäuschung seitens sog. AI-Artists – Künstler, die mit der KI ihre Kunstwerke erschaffen.

Aber beginnen wir einmal ganz vorne …

Dall-E 2 und GPT-3

So heißen die aktuell genutzten Bild- und Textgeneratoren. Sie sind frei im Internet zugänglich. Also kann auch jeder auf Knopfdruck sich sein Kunstwerk in Bild und Schrift binnen Sekunden erstellen lassen. Eine Verlinkung wird es von meiner Seite hier nicht geben, da ich diese Art von „Kunst“ nicht unterstütze. Weshalb das so ist, folgt an anderer Stelle.

Wie die Neue Züricher Zeitung jüngst zu diesem Thema schrieb, gibt es in San Francisco eine Ausstellung mit digital erzeugten Werken. Alles KI-basierend. Mit dieser Ausstellung soll öffentlich gemacht werden, dass die KI die Kunstszene revolutioniert hat. In der Tat werden die Programme seit Monaten rege benutzt. Auch auf Instagram sind derlei Werke aus privater Hand schon aufgetaucht und AI-Artists sind fleißig dabei, ihre Kundschaft mit künstlich entstanden „Werken“ zu beglücken.

Hierbei müssen nur eigene Fotos eingelesen und ein Stil vom User festgelegt werden. Die KI spuckt dann dazu passende Ergebnisse aus. Fertig, um für den jeweiligen Zweck eingesetzt zu werden. Kunst auf Knopfdruck. Das klingt zu schön, um wahr zu sein, oder? Stimmt. Kommen wir so langsam zu den Schattenseiten und beginnen bei der Frage …

Was war nötig, damit Kunstwerke mittels KI entstehen können?

Zuerst einmal brauchte es ein bzw. gleich mehrere Programmierer. Denn hier handelt es sich um Programme. Ist logisch, oder? Als die KI programmiert worden war, benötigte sie aber Input also Lernmaterial. Das lieferten die Programmierer bzw. Techniker in Form von Kunstwerken aus Menschenhand. Und ab hier betreten wir das Feld der Urheberrechtsverletzungen. Es gibt nämlich eingelesene Werke – höchstwahrscheinlich eine sehr große Dunkelziffer – die ohne Zustimmung der Künstler zur Fütterung der KI genutzt worden sind. An dieser Stelle möchte ich zwei dieser Künstler namentlich hervorheben.

Kelly McKernan

Kelly ist eine unabhängige Künstlerin und lebt in Nashville, Tennessee (USA). Seit 2012 finanziert sie sich ihren Lebensunterhalt mit ihren Kunstwerken. Man findet ihre Aquarell- und Pastell-Gemälde in verschiedenen Galerien.

Nähere Informationen über sie könnt ihr hier auf ihrer Website nachlesen (https://www.kellymckernan.com/about). Aufmerksam auf Kelly bin ich allerdings auf Facebook (https://www.facebook.com/kellymckernanart) geworden. Dort schreibt sie in einem ihrer FB-Artikel:

„… if you haven’t been following my IG stories, my art has been trained on by AI without my consent or compensation. For some reason, I was one of the first 400 artists stable diffusion’s tech bros chose to train their database with.“

https://www.facebook.com/kellymckernanart/posts/pfbid0uQbvDHwmXQAP37oFjMZmrMrCa5kTBjAycgbnKfR4zaLoyvUwUCCXU8GFRRgwQhdLl

Dt. Übersetzung: „Wenn ihr meine IG Stories nicht verfolgt habt, meine Kunst wurde ohne meine Zustimmung oder Entschädigung von KI trainiert. Aus irgendeinem Grund war ich einer der ersten 400 Künstler, mit denen die Techniker von Stable Diffusion ihre Datenbanken trainieren wollten.“

Stable Diffusion ist übrigens ein weiterer Text- und Bildgenerator.

Iris Compiet

Iris ist ebenfalls eine Künstlerin, kommt allerdings aus den Niederlanden. Auch sie hat ihre Malerei zum Beruf gemacht. Anders als Kelly hat sie sich auf den Druck in Papierform spezialisiert. Von ihr gibt es Illustrationen in Büchern und vieles mehr. Nachzulesen hier: https://iriscompiet.art/

Auch auf sie bin via Facebook aufmerksam geworden. In ihrem dort verfassten FB-Artikel schreibt sie:

„FUCK AI! fuck it all! I have found so many of my faeries being used to train these machines to make “your art”, so fuck you, fuck you if you think it’s a tool, harmless or whatever. even using pages from my book, a creation so very important to me.“

https://www.facebook.com/iris.compiet/posts/pfbid02SGmu9RZTMmBjanXJ4VQC7EtbaEaMK8uLSxQruJJNDZppj6uguYhE3k7eh38Xsqtzl

Dt. Übersetzung: „FICK AI! Scheiß auf alles! Ich habe gefunden, dass so viele meiner Feen benutzt wurden, um diese Maschinen zu trainieren, um „deine Kunst“ zu machen, also fick dich, fick dich, wenn du denkst, es ist ein Werkzeug, harmlos selbst mit Seiten aus meinem Buch, eine Kreation, die mir so sehr wichtig ist.“

Die Wortwahl mag nicht schön sein, aber ich verstehe sie. In jedem Werk von Iris steckt viel Arbeit und vor allem Zeit. Ein Künstler wie sie oder Kelly benötigt etliche Stunden für seine Skizzen, Gemälde und Bilder. Ihre Wut ist gerechtfertigt. Irgendwer nimmt ihre Werke, füttert die KI damit, nur damit „Kunden“ auf Knopfdruck für kleines Geld irgendetwas in ihrem Zeichenstil ausgespuckt bekommen. Sie selbst verdient daran gar nichts. Aber ihre Arbeit dient als Vorlage. Ihr Können, für das sie Jahre ihres Lebens gebraucht hat, wird schamlos ausgenutzt.

Alleine das ist Grund für mich, solche Programme nicht zu nutzen, nicht zu empfehlen und deren Entwickler und die Unternehmen dahinter nicht zu unterstützen. Aber es geht noch weiter.

AI-Artists

So nennen sich Pseudokünstler, die auf der Basis von KI-Kunstwerken ihre eigenen erstellen, sprich höchstens noch geringe Nachbesserungsarbeiten – schärfen, filtern, retuschieren usw. – leisten, oder gleich ganz von der KI erstellen lassen. Es sind also Leute, die selbst zeichnerisch meist untalentiert sind und nur aufgrund von eingespeistem Talent anderer, „echter“ Künstler ihr Geld verdienen wollen. Dabei bleibt offen, ob deren Kundschaft über genau diesen Punkt ihres „Schaffens“ aufgeklärt ist.

Wenn ich hinginge und einen Künstler beauftrage, mir etwas zu zeichnen, geschähe das mit der Vorgabe, dass derjenige auch tunlichst selbst zeichnet. Ansonsten bräuchte ich diese Person ja gar nicht. Käme nachträglich heraus, dass eine KI mit im Spiel war und ich davon nichts wusste, weil ich zu keiner Zeit darüber aufgeklärt worden bin, wäre das Arglist und Kundentäuschung. Das ist hier in Deutschland auf jeden Fall vertragswidriges Gebaren und ahndungsfähig.

So ein Fall ist augenscheinlich auch Tiffany Roberts passiert. Bei Tiffany handelt es sich um das Pseudonym eines Autorenduos, wohnhaft in Middleton, Idaho (USA). (https://beacons.ai/authortiffanyroberts) Auf Facebook hat Tiffany Roberts den nachstehend ins dt. übersetzten Text gepostet:

„Normalerweise poste ich solche Dinge nicht oft, aber das muss gesagt werden, vor allem angesichts der ganzen KI-Arbeit: Autoren/Käufer aufgepasst.

Dieser Coverdesigner (Rainbow Danger Designs) teilte einige Covers, in denen sie behaupten, dass es sich um Originalabbildungen in Sie sind sogar auf ihrer Website, nachdem sie für 500 $ verkauft wurden. Darin heißt es: „Es beinhaltet das E-Book, die Druckfolie und die kommerziellen Rechte, die Illustration in der Ware Ihres Buches zu verwenden „.

Sie können keine Urheberrechte an KI generierte Arbeit haben. Und darüber zu lügen ist absolut falsch.

Jemand hat sich darüber auf dem Post mit dem Cover erkundigt und gefragt, ob es sich um KI handelt, und der Designer antwortete und sagte: „Ich habe es selbst mit meinem iPad gemalt. Ich benutze Photoshop auf dem endgültigen Bild für ein paar Farbwechselfilter und eine Schärfemaske „

Ich habe das dann auch in Frage gestellt, indem ich sagte, dass es für mich so aussah, als wäre es KI generiert, und fragte, ob sie den Prozess von Skizze bis Finale liefern könnten, denn Autoren wären diejenigen, die zur Verantwortung gezogen werden

Dieser Designer hat meinen Kommentar gelöscht und mich aus der Gruppe blockiert. Wenn das kein Beweis für ihre Schuld ist, dann… Ja. Ja. Ja.

Also Autoren/Käufer, aufgepasst und achtet darauf, was ihr kauft. Hab keine Angst, Fragen zu stellen. Fragen Sie nach ihrem Coverprozess. Und Designer, die das machen… Schämt euch, dass ihr Leute betrügt.“

https://www.facebook.com/tiffany.freund.5/posts/pfbid0Cp9CKycaoUu3vxXQDZp7tfQJ4BMVTcQrn6WM9jKzGPfw5u7kYNeAjS2YR7uNbcWMl

Fazit

Diese Kunst-KI mag eine Revolution in der Kunstszene ausgelöst haben. Aber sie schädigt die Künstler selbst. Nur auf Grundlage menschlicher Künstler ist die KI in der Lage, einen billigen Abklatsch dessen zu erzeugen, wofür ein wahrer Künstler Zeit und Können aufbringen muss. Entsprechend hochpreisig ist diese Kunst dann auch.

Wozu die KI aber nicht in der Lage ist, ist einen eigenen Stil zu entwickeln. Auch Menschen sind in der Lage, Stile zu kopieren, aber einen eigenen zu entwickeln, schaffen nur jene mit echtem Talent und die sollten gefördert und bewundert werden und nicht die, die auf Knopfdruck eine Kopie dessen erzeugen können.

Aufgrund des sehr hohen Missbrauchs an den Künstlern, der stattgefunden hat und noch immer stattfindet, kann ich jedem kunstliebenden Menschen nur abraten, solche „Produkte“, etwas anderes sind diese KI-Werke in meinen Augen nicht, in Auftrag zu geben und zu honorieren. Manche mögen hübsch anzusehen sein, aber sie untergraben die Existenzgrundlage „echter“ Künstler und bescheinigen der schaffenden Kunst, für ein Appel und ein Ei erhältlich zu sein. Es ist eine Entwertung künstlerischen Könnens.

Eure Rike Moor