So wissen Sie, ob Ihre Bilder ein KI-Modell trainiert haben (und wie Sie sich abmelden)

So wissen Sie, ob Ihre Bilder ein KI-Modell trainiert haben (und wie Sie sich abmelden)

Zum Unglauben vieler Menschen entdecken lebende Künstler, dass ihre Kunst ohne ihre Zustimmung zum Trainieren von KI-Modellen verwendet wurde. Mit einem Webtool namens „Have I Been Trained?“ können Sie in wenigen Minuten wissen, ob Ihre Bilder an Midjourney, NightCafe und andere beliebte KI-Bildgeneratoren gesendet wurden.

Wenn Sie Ihr Bild in einem der Datensätze finden, die zum Trainieren dieser KI-Systeme verwendet werden, verzweifeln Sie nicht. Einige Organisationen haben Möglichkeiten entwickelt, sich von dieser Praxis abzumelden und zu verhindern, dass Ihre Bilder aus dem Internet gelöscht und an KI-Unternehmen weitergegeben werden.

Wie KI-Bildgeneratoren überhaupt trainiert werden

Wenn Sie ein KI-System wie DALL-E bitten, ein Bild von einem „Hund mit Geburtstagsmütze“ zu erstellen, muss es zunächst wissen, wie ein Hund aussieht und wie eine Geburtstagsmütze aussieht. Es erhält diese Informationen aus riesigen Datensätzen, die Milliarden von Links zu Bildern im Internet sammeln.

Wie wir alle wissen, enthält das Internet so ziemlich jede Art von Bildern, die Sie sich vorstellen können, einschließlich aller Wahrscheinlichkeit Tonnen von Bildern eines „Hundes mit Geburtstagsmütze“. Mit genügend Daten wie diesen kann ein KI-Modell herausfinden, wie ein Bild so reproduziert werden kann, wie es trainiert wurde.

Aber was wäre, wenn diese Bilder ursprünglich urheberrechtlich geschützt wären? Und was wäre, wenn diese Bilder Künstlern, Fotografen oder normalen Menschen gehörten, die nicht wussten, dass ihre Bilder ein KI-System füttern?

Das Problem für Künstler

Viele KI-Bildgeneratoren haben eine kostenpflichtige Stufe, in der Benutzer Credits kaufen können, um mehr Bilder zu erstellen, wodurch sie einen Gewinn erzielen. Aber dieser Gewinn wird auf dem Rücken von nicht im Abspann aufgeführten Personen erzielt, deren Bilder überhaupt zum Trainieren des KI-Systems verwendet wurden.

Da immer mehr Künstler herausfinden, dass ihre Bilder zur Entwicklung von KI-Systemen verwendet wurden, ist klar, dass nicht jeder damit einverstanden ist. Zumindest wollen sie, dass KI-Unternehmen ihre Zustimmung einholen, bevor sie ihre Bilder verwenden.

Vier Bilder eines Hundes mit Hut im Stil von Henri Magritte, generiert mit DALL-E

Besonders wenn Sie ein beliebter, bekannter Künstler sind, können Bilder, die in Ihrem Stil erstellt wurden, Ihren Markt mit Fans oder potenziellen Kunden überfüllen, die nicht wissen, ob die Kunst von Ihnen geschaffen oder von KI nach Ihrem Vorbild repliziert wurde. Was noch schlimmer ist, Menschen können Kunstwerke in Ihrem Stil erstellen, um Werte zu unterstützen, an die Sie nicht glauben.

Dies ist kein neues Problem, Deepfakes gibt es schon seit Jahren und werden sich mit dem Aufstieg der KI möglicherweise noch verschlimmern. Heutzutage ist die Reproduktion von „gefälschter“ Kunst schnell, billig und einfach. Es gibt nur wenige Möglichkeiten, ein KI-generiertes Bild zu identifizieren, was es schwierig macht, das Originalbild von seinem KI-generierten Gegenstück zu unterscheiden.

Datensätze: Finden und Indizieren Ihrer Bilder

Wie bereits erwähnt, werden Bilddatensätze von KI-Unternehmen verwendet, um ihre Modelle zu trainieren. Diese Datensätze sehen aus wie eine riesige Excel-Tabelle mit einer Spalte, die einen Link zu einem Bild im Internet enthält, während eine andere die Bildunterschrift enthält.

Nicht alle KI-Unternehmen werden den von ihnen verwendeten Datensatz offenlegen, DALL-E ist ein Beispiel. Dies macht es schwierig zu wissen, worauf verwiesen wird, wenn es ein Bild generiert, und trägt zur allgemeinen Mystik von KI-Systemen bei.

Auf der anderen Seite hat Stable Diffusion, ein von Stability AI entwickeltes Modell, deutlich gemacht, dass es auf dem LAION-5B-Datensatz basiert , der kolossale 5,85 Milliarden CLIP-gefilterte Bild-Text-Paare enthält. Da es sich bei diesem Datensatz um Open Source handelt, kann jeder die von ihm indizierten Bilder anzeigen, weshalb er heftig kritisiert wurde.

Anfang 2023 verklagte Getty Images Stability AI, weil es Bilder von seiner Website verschrottet hatte, um seinen KI-Bildgenerator Stable Diffusion zu trainieren. Wenn Sie sich fragen, wer wiederum Stable Diffusion verwendet, wären das NightCafe, Midjourney und DreamStudio, einige der größten Anbieter auf diesem Gebiet.

So erkennen Sie, ob Ihre Bilder zum Trainieren eines KI-Modells verwendet wurden

Spawning wurde von einer Gruppe von Künstlern gegründet und ist ein Kollektiv, dessen Ziel es ist, Menschen dabei zu helfen, herauszufinden, ob sich ihre Bilder in Datensätzen wie LAION-5B befinden, die zum Trainieren von KI-Modellen verwendet werden. Ihre Web-Suchmaschine namens Have I Been Trained? können Sie einfach nach Schlüsselwörtern wie Ihrem Künstlernamen suchen.

Bin ich ausgebildet worden?

Habe ich die Homepage trainiert

Have I Been Trained funktioniert ähnlich wie eine Google-Bildsuche, außer dass Ihre Suche mit den Ergebnissen im LAION-5B-Datensatz abgeglichen wird. Sie haben die Möglichkeit, entweder nach Schlüsselwort oder nach Bild zu suchen, letzteres ist hilfreich, wenn Sie sehen möchten, ob ein genaues Bild verwendet wurde.

Suchergebnisse für Frida Kahlo auf Have I Been Trained?  Webseite

Wir haben den Namen der Künstlerin Frida Kahlo (1907-1954) zum Testen verwendet und eine Mischung aus historischen Fotografien und Fan-Art in Form von Kritzeleien, Gemälden, Kreuzstichen, Häkelarbeiten und Illustrationen gefunden.

Wenn Sie einer dieser Schöpfer sind, sind Sie einer der vielen nicht im Abspann aufgeführten Menschen, deren Kreativität die Existenz von KI-Bildgeneratoren ermöglicht hat. Und mit dieser Kraft kann jetzt jeder Frida-Bilder wie dieses bizarre Porträt von „Frida Kahlo beim Eisessen“ erstellen.

Ein KI-generiertes Bild von Frida Kahlo, das mit Night Cafe erstellt wurde

Versuchen Sie, Ihren eigenen Künstlernamen in die Suchleiste einzugeben, um zu sehen, ob Ihre Arbeit zum Trainieren eines KI-Modells verwendet wurde.

So deaktivieren Sie KI-Trainingsdatensätze

Das gleiche Team hinter der Website Have I Been Trained hat ein Tool entwickelt, mit dem sich Menschen für oder gegen KI-Kunstsysteme entscheiden können. Es ist eine Möglichkeit für Künstler, die Kontrolle und die Berechtigungen darüber zu behalten, wer ihre Kunst zu welchem ​​Zweck verwendet.

Andere Kunstplattformen beginnen nachzuziehen und derzeit bietet DeviantArt eine Option, um ihre Bilder von der Suche nach Bilddatensätzen auszuschließen.

Wurde ich geschult: KI-Opt-out-Tool

Sie können nicht nur nach Ihrem Bild suchen, sondern auch Bilder auswählen, um sich von den LAION-5B-Trainingsdaten abzumelden, indem Sie die Website Have I Been Trained verwenden.

Sie müssen zuerst ein Konto erstellen und anschließend mit der rechten Maustaste auf ein Bild klicken und dieses Bild abbestellen auswählen .

Menüoption zum Abmelden und Bild mit der Website Have I Been Trained?

Wenn Sie diese Option auswählen, wird dieses Bild Ihrer Abmeldeliste hinzugefügt, auf die Sie zugreifen können, indem Sie auf Ihr Kontosymbol in der oberen rechten Ecke der Seite klicken und dann Meine Listen auswählen . Um es aus Ihrer Liste zu entfernen, klicken Sie mit der rechten Maustaste auf das Bild und wählen Sie Von Opt-Out-Liste entfernen .

Galerieansicht von Bildern auf einer Abmeldeliste von Have I Been Trained

Wenn Sie ein produktiver Künstler sind, ist diese Methode mühsam und nicht ausreichend, um alle Ihre Bilder effizient abzulehnen. Leider gibt es zum Zeitpunkt des Schreibens keine bessere Alternative, aber es ist wahrscheinlich, dass in Zukunft Verbesserungen an diesem System vorgenommen werden.

Diese Opt-out-Listen werden dann an das Unternehmen hinter LAION-5B weitergegeben, das zugestimmt hat, diese Bilder aus seinem Datensatz zu entfernen.

DeviantArt Opt-Out-Präferenz

DeviantArt war bisher wegweisend für Kunst-Hosting-Plattformen, indem es Benutzern die Möglichkeit gab, ihre Kunst abzulehnen. Zunächst mussten Sie die Einstellung finden und das Opt-out-Kontrollkästchen aktivieren. Aber nach starkem Feedback von der DeviantArt-Community ist diese Option jetzt standardmäßig aktiviert.

Das bedeutet, dass kein auf DeviantArt gepostetes Bild für Bilddatensätze verfügbar gemacht wird, es sei denn, die Benutzer haben sich dafür entschieden. Obwohl nicht ganz narrensicher, beinhaltet der verwendete Mechanismus das Markieren eines Bildes mit einem „noai“-HTML-Tag. Dadurch wird den KI-Datensätzen mitgeteilt, dass das Bild nicht verwendet werden darf, und wenn dies der Fall ist, verstößt das Unternehmen gegen die Nutzungsbedingungen von DeviantArt .

Screenshot der Noai-Flag-Präferenz auf DeviantArt

Sie finden die Deaktivierungseinstellung, indem Sie mit der Maus über Ihr persönliches Kontosymbol fahren und auf Kontoeinstellungen klicken . Klicken Sie dann im Menü auf der linken Seite auf Allgemein und scrollen Sie nach unten, bis Sie die Überschrift Tell AI Datasets They Can’t Use Your Content sehen .

Respekt vor der Arbeit von Künstlern

Es wird Zeit brauchen, einen guten Kompromiss zwischen KI-Systemen und Künstlern zu finden, deren Arbeit hilft, sie zu trainieren. Wenn Sie ein Schöpfer sind, fühlen Sie sich nicht machtlos. Mit starken Reaktionen aus den Communitys, die Kunstplattformen wie DeviantArt verwenden, können Sie kontrollieren, wer Ihre Kunst verwendet.

Nicht jeder wird sich auch abmelden wollen, einige Leute haben kein Problem damit, dass ihre Bilder KI-Modelle trainieren. Aber das Wichtigste ist, dass KI-Unternehmen Zustimmung einholen und einen fairen und respektvollen Raum für KI-Modelle und Künstler schaffen, in dem sie zusammen existieren können.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert