Proste, darmowe narzędzie stworzone przez amerykańskich naukowców “ryje mózg” narzędziom do generowania obrazów opartym na sztucznej inteligencji, takim jak Stable Diffusion czy Midjourney. Autorzy chcą, aby chroniło artystów publikujących swoje dzieła w sieci.

Glaze nakłada “powłokę ochronną” na obraz, zdjęcie lub grafikę

Glaze to dzieło naukowców z University of Chicago. Działa w dość prosty, ale rzekomo niezwykle skuteczny sposób. Jak sugeruje już sama nazwa, oprogramowanie nakłada na istniejące zdjęcie, grafikę czy obraz pewną “polewę” – drugą warstwę praktycznie niewidoczną dla ludzkiego oka, ale bez problemu dostrzegalną dla AI.

Składa się na nią inna grafika, należąca jednak do zupełnie innego stylu. Ma to znaczenie, ponieważ przy analizie poszczególnych dzieł narzędzia AI szukają korelacji z innymi grafikami, aby znaleźć wzór wspólny dla danego stylu i później móc generować obrazy o podobnych cechach, aby wstrzelić się w dany gatunek.

Kiedy AI “widzi” dwa zupełnie różne style nałożone na siebie, nie jest w stanie wyodrębnić tego jednego, który faktycznie wykorzystuje twórca. Tak twórcy Glaze wyjaśnili, jak może to wyglądać w praktyce:

Dzisiaj Stable Diffusion może nauczyć się tworzyć obrazy w stylu Karli [Ortiz – dop. red.] po obejrzeniu zaledwie kilku oryginalnych dzieł Karli (zaczerpniętych z jej internetowego portfolio). Jeśli jednak Karla użyje naszego narzędzia do zamaskowania swojej grafiki, dodając drobne zmiany przed opublikowaniem ich w swoim portfolio online, Stable Diffusion nie nauczy się jej stylu artystycznego.

Zamiast tego model zinterpretuje swoją sztukę jako inny styl (np. Vincenta van Gogha). Ktoś, kto skłoniłby Stable Diffusion do wygenerowania „grafiki w stylu Karli Ortiz”, zamiast tego otrzymałby obrazy w stylu Van Gogha (lub jakiejś hybrydy). Chroni to styl Karli przed powielaniem go bez jej zgody.

Oczywiście, jeśli AI “nakarmiło się” już wcześniej grafikami niezabezpieczonymi przez Glaze, nie tak łatwo będzie następczo je oszukać.

karla ortiz Musa Victoriosa
Źródło: Glaze | Prawdziwe dzieło Karli Ortiz zabezpieczone przez Glaze.

Lepiej jednak późno niż wcale.

karla ortiz ai
Źródło: David Marx @DigThatData | Nie do końca udana próba skopiowania stylu Karli przez AI.

Kwestia AI generujących grafiki trafiła już nawet do sądu

Obie strony mają swoje argumenty. Artyści wskazują, że sztuczna inteligencja narusza ich prawa i kopiuje oryginalne style. Firmy tworzące AI do generowania obrazów podkreślają jednak, że istnieje reguła tzw. dozwolonego użytku.

Nie jest tak, że sztuczna inteligencja zbiera sobie dosłownie kawałki różnych prac i skleja je w całość. AI przerabia dane zebrane na podstawie analizy istniejących grafik na wyrażenia matematyczne i tworzy podobne prace od zera. Czy jednak to wystarczy, żeby uznano, iż nie doszło do naruszenia praw autorskich?

Ciężko przewidzieć, jak na sprawę spojrzą sądy. Trochę jednak jeszcze potrwa, zanim zapadną pierwsze wyroki. Jakiś czas temu grupa artystów pozwała twórców Midjourney, czyli popularnego AI do generowania obrazów, za rzekome naruszenie praw autorskich, praw do wizerunku i wielu innych przepisów – pozostaje czekać na rozstrzygnięcie.

Jak wspomniałam na wstępie, Glaze jest narzędziem zupełnie darmowym – można je pobrać tutaj. Twórcy nie mają planów na komercjalizację swojego rozwiązania. Podczas zabezpieczania grafik żadne dane nie są wysyłane do autorów oprogramowania, a wszystko dzieje się lokalnie, na urządzeniu artysty.

Dajcie znać w komentarzach, co o tym wszystkim sądzicie!


Redaktor naczelna TechPolska od 2019 roku. W przerwach między nabijaniem kolejnych setek godzin w Genshin Impact recenzuje każdy kawałek elektroniki, który wpadnie jej w ręce.

Udostępnij

WARTO PRZECZYTAĆ:

Sztuczna inteligencja nie zadowoliła Polaków. ,,Nowa” aplikacja z nawigacją nie przypadła im do gustu
Zaledwie kilka dni temu pisaliśmy, że kierowcy już nie usłyszą legendarnego głosu w najpopularniejszej aplikacji z nawigacją. Spodziewaliśmy się, że Polacy wypowiedzą wojnę Mapom Google,
radio off kraków konczy eksperyment Al jednak nie jest takie wspaniałe? Radio OFF Kraków kończy swój eksperyment
Po dużych rozmiarów internetowej awanturze Radio OFF Kraków postanowiło zakończyć swój kontrowersyjny eksperyment. Początkowo miał trwać aż kwartał, ale sztuczna inteligencja zniknęła już po zaledwie
googlemaps Al wkracza do Map Google. Już nie usłyszycie polskiego lektora
Jarosław Juszkiewicz, czyli dziennikarz, który był znany głównie z Map Google, stracił pracę. Chociaż po samych danych możecie nie wiedzieć, kim jest, na pewno słyszeliście

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *