Tool "Nightshade" sorgt für Verwirrung bei generativen KI-Tools

Die Verwendung von Künstlerwerken ohne Zustimmung bei der Entwicklung von Künstlicher Intelligenz und generativen KI-Tools hat zu Unmut bei Künstlern und Fotografen geführt. Ein neues Tool namens "Nightshade" könnte eine Lösung bieten, um die Trainingsmodelle dieser KI-Tools zu verwirren und fehlerhafte Bilder zu generieren.

"Nightshade" bringt KI-Trainingsmodelle durcheinander

Forscher haben nun "Nightshade" entwickelt, ein Tool, das KI-Trainingsmodelle durcheinanderbringen kann, indem es sogenannte vergiftete Bilder erzeugt, die Fehler enthalten. Diese "vergifteten" Bilder werden in die Modelle integriert und führen dazu, dass die KI fehlerhafte Bilder generiert, wenn sie entsprechenden Anfragen ausgesetzt ist. Beispielsweise könnten so Hunde als Katzen oder Autos als Kühe erscheinen.

Schutz für Künstler und Fotografen

Die Verwendung von urheberrechtlich geschützten Werken ohne Zustimmung oder Entschädigung durch KI-Unternehmen hat in letzter Zeit immer wieder zu rechtlichen Streitigkeiten geführt. "Nightshade" bietet Künstlern und Fotografen nun eine Möglichkeit, ihre Werke vor unautorisierter Nutzung zu schützen.

Open-Source-Veröffentlichung geplant

Das Forschungsteam hinter "Nightshade" hat das Tool zur Begutachtung eingereicht und plant, es als Open-Source-Software zu veröffentlichen. Dadurch könnte es für eine breite Anwendung verfügbar werden und die Rechte der Urheber weiter stärken.

Zurück
Zurück

Bosch und Lidl investieren 500 Millionen Dollar in deutsches KI-Startup Aleph Alpha

Weiter
Weiter

Internationales Treffen zur KI-Regulierung: Staaten suchen gemeinsame Lösungen