Tool "Nightshade" sorgt für Verwirrung bei generativen KI-Tools
Die Verwendung von Künstlerwerken ohne Zustimmung bei der Entwicklung von Künstlicher Intelligenz und generativen KI-Tools hat zu Unmut bei Künstlern und Fotografen geführt. Ein neues Tool namens "Nightshade" könnte eine Lösung bieten, um die Trainingsmodelle dieser KI-Tools zu verwirren und fehlerhafte Bilder zu generieren.
"Nightshade" bringt KI-Trainingsmodelle durcheinander
Forscher haben nun "Nightshade" entwickelt, ein Tool, das KI-Trainingsmodelle durcheinanderbringen kann, indem es sogenannte vergiftete Bilder erzeugt, die Fehler enthalten. Diese "vergifteten" Bilder werden in die Modelle integriert und führen dazu, dass die KI fehlerhafte Bilder generiert, wenn sie entsprechenden Anfragen ausgesetzt ist. Beispielsweise könnten so Hunde als Katzen oder Autos als Kühe erscheinen.
Schutz für Künstler und Fotografen
Die Verwendung von urheberrechtlich geschützten Werken ohne Zustimmung oder Entschädigung durch KI-Unternehmen hat in letzter Zeit immer wieder zu rechtlichen Streitigkeiten geführt. "Nightshade" bietet Künstlern und Fotografen nun eine Möglichkeit, ihre Werke vor unautorisierter Nutzung zu schützen.
Open-Source-Veröffentlichung geplant
Das Forschungsteam hinter "Nightshade" hat das Tool zur Begutachtung eingereicht und plant, es als Open-Source-Software zu veröffentlichen. Dadurch könnte es für eine breite Anwendung verfügbar werden und die Rechte der Urheber weiter stärken.