TEXT: Robert Brečević
Artikel för medlemssidorna i Konstnären nr 2 2024 av Robert Brečević om det senaste rörande applikationerna Glaze och Nightshade – applikationer som används för att ”maskera” digitala bilder så att de blir obrukbara vid träningen av AI-modeller.
Den 25 januari i år anordnade Konstnärernas Riksorganisation ett seminarium om generativ AI på Kulturhuset i Stockholm. En av de inbjudna föredragshållarna var professor Ben Zhao från Chicago University som presenterade arbetet bakom Glaze och Nightshade – applikationer som används för att ”maskera” digitala bilder så att de blir obrukbara vid träningen av AI-modeller.
Nightshade släpptes exakt sju dagar före seminariet i Stockholm och den utgör en aggressiv tillämpning av den förvrängningsrutin som lägger (osynliga) hinder i vägen för algoritmiska klassificeringar av digitala bilder. Professor Ben Zhao beskrev Nightshade som ett ”giftpiller” med förmågan att framkalla regelrätta hallucinationer hos en AI-modell.
Vad har hänt sedan dess? Här kommer några korta uppdateringar.
Glaze som lanserades 2022 har numera över 2 miljoner nerladdningar och en ny version, Glaze 2.0, lanserades den 14 april. Enligt specifikationerna har denna version blivit bättre på att skydda mot nya AI-modeller samt har ett uppgraderat skydd för bilder med täckande färgfält såsom manga och andra serieteckningsgenrer. Uppdateringen visar på mindre märkbara modifieringar av bilder samt en förbättrad beräkningseffektivitet på de flesta plattformar (~ 50% snabbare). Glaze finns dessutom som webbtjänst, WebGlaze.
Nightshade 1.0 å andra sidan är utformat som ett fristående verktyg. Det ger inte samma heltäckande skydd mot stilkopiering som Glaze och används snarare som ett offensivt tillägg för att störa AI-modeller som använder bilder utan samtycke. Så småningom kommer Nightshade släppas som ett tillägg till Webglaze.
På forum såsom Reddit efterfrågas lite hånfullt siffror på hur det går med det slutliga förgörandet av AI. Typ ”si och så många AI-modeller har sänkts av Nightshade”. Konsensus bland kommentatorerna, som i genomsnitt får förmodas vara AI-entusiastiska i något högre utsträckning, är att AI-modeller kontinuerligt säkerhetskopieras (skulle de bli ”förgiftade”) samt att AI-bolagen ändå har nerladdade bildarkiv från före 2024 då Nightshade introducerades, där bilderna är ”rena”.
Hur är det med rörlig bild?
I februari lanserades en uppmärksammad text-till-video-modell som heter Sora. Under en intervju med Washington Street Journal fick OpenAIs teknologichef Mira Murati frågan om vilken data som har använts för att träna Sora-modellen. ”Både offentligt tillgängliga data och licensierade data.” På följdfrågan huruvida detta inkluderar exempelvis YouTube-klipp svarade hon: ”Jag vet inte.” Med direkt hänvisning till denna intervju har forskningsledaren för Nightshade-projektet Shawn Shan sagt att de ska titta på att utöka Nightshade- och Glaze-skydden till att omfatta video och animationer.
Slutligen. Den 9 april framfördes ett lagförslag i den amerikanska kongressen som avser tvinga företag inom artificiell intelligens att redovisa för det upphovsrättsskyddade material de använder för att skapa sina generativa AI-modeller. Enligt Generative AI Copyright Disclosure Act ska en förteckning på träningsdata (namn, URL) lämnas in minst 30 dagar före offentliggörandet av den nya eller uppdaterade versionen av AI-modellen. Lagförslagets krav skulle gälla retroaktivt för tidigare AI-modeller.
Foto: Professor Ben Zhao, fotograferad av Geska Brečević på seminariet "Disrupting the Disruptors" på Kulturhuset den 25 januari 2024.
Välkommen att prenumerera på Konstnärernas Riksorganisations konstnärspolitiska nyhetsbrev. Nyhetsbrevet skickas ut cirka 4 gånger per år och ger dig en snabb översikt över aktuella politiska frågor som är viktiga för konstnärskåren. Det riktar sig i första hand till politiker eller tjänstepersoner med ansvar för kulturpolitiken på statlig, regional eller kommunal nivå.