Le AI, infatti, sfrutterebbero le loro opere per la creazione delle immagini, senza curarsi minimamente dei diritti di copyright. Software come Midjourney, DALL-E o simili sfruttano enormi database di fotografie, disegni e opere d’arte per addestrare i loro modelli Al. Durante l’addestramento, il modello apprende a estrarre e interpretare le caratteristiche rilevanti dalle immagini, come le forme, i colori e le texture.

Avveleniamo le foto

La soluzione trovata dagli artisti e Ben Zhao, professore all’università di Chicago, è quella di usare “Nightshade“. Si tratta di uno strumento che permette agli artisti di apportare modifiche ai pixel delle loro opere. Queste modifiche sono invisibili ad occhio nudo, ma non dalle Al, che vengono così ingannate.

Qui sotto si mostra un modello di Stable Diffusion alterato da 50, 100 e 300 samples “avvelenati” e come ciò vada a mutare drasticamente i risultati che l’Al restituisce. Ingannata dai pixel modificati, per Stable Diffusion un cane diventa un gatto, un’auto una mucca e un cappello una torta.

Poisoning_art_2
Esempi di samples avvelenati (MIT)

Il team di Zhao ha anche sviluppato Glaze, un altro strumento che permette agli artisti di “mascherare” il proprio stile personale per prevenirne l’utilizzo da parte delle aziende Al. Il concetto è simile al precedente ed è possibile alterare completamente un tema o uno stile (es: “Signore degli Anelli”) per ottenere risultati irriconoscibili.

La strada giusta?

Come sottolineato su MIT Technology Review (fonte di questa ricerca), tali strumenti rappresentano un passo importante nella lotta per il rispetto dei diritti degli artisti nell’era dell’intelligenza artificiale, ma si possono rivelare anche come delle potenti minacce ai set di addestramento per le Al se nelle mani sbagliate

Alcune fonti di questo articolo: