Stability AI обновила ИИ-генератор изображений по тексту Stable Diffusion, «ослабив» способность алгоритма создавать NSFW-контент и картинки в стиле конкретных художников. Это вызвало недовольство среди пользователей, пишет The Verge.
Обновление включает реинжиниринг ключевых компонентов модели и улучшение некоторых ее функций вроде масштабирования и контекстно-зависимого редактирования. Также оно ограничивает возможности ИИ-системы создавать иллюстрации, имитирующие чужой стиль и изображающие наготу, порнографию или знаменитостей.
«Они понерфили алгоритм», — прокомментировал обновление один из пользователей Reddit в разделе Stable Diffusion.
Другой разработчик на официальном сервере Discord назвал изменения «неприятным сюрпризом».
Также пользователи отметили неспособность модели генерировать изображения в стиле цифрового художника Грега Рутковски.
Созданные Stable Diffusion изображения по запросу «Тейлор Свифт в стиле Грега Рутковски» до обновления и после. Данные: Imgur.
По данным источника, многие деятели искусства «раздражены» тем, что алгоритмы вроде Stable Diffusion обучались на их работах без разрешения и теперь способны воспроизводить похожие картины.
Эксперты допустили, что тренировка нейросетей на данных, защищенных авторским правом, является законной. Однако некоторые варианты использования можно оспорить в суде, добавили они.
Сравнение способности Stable Diffusion генерировать изображения, напоминающие конкретных исполнителей, до и после обновления. Данные: lkewis.
Пользователи Stable Diffusion предположили, что Stability AI внесла эти изменения в модель, чтобы смягчить потенциальные юридические проблемы.
Основатель компании Эмад Мостак заявил, что разработчики не убирали картины художников из обучающих данных. Ограниченная способность модели имитировать стили является результатом изменений возможностей ПО кодировать и извлекать информацию.
Однако выяснилось, что инженеры удалили иллюстрации с наготой и порно из тренировочных датасетов. По словам Мастака, причиной фильтрации NSFW-контента стала возможность использования алгоритма для генерации изображений жестокого обращения с детьми.
Пользователь Reddit под ником ZeroCool22 заявил, что это изменение «противоречит духу философии сообщества открытого исходного кода».
«Решение создавать NSFW-контент или нет, должно оставаться в руках конечного пользователя, а не в ограниченной/цензурированной модели», — написал он.
Другие пользователи отметили, что так как Stable Diffusion распространяется с открытым исходным кодом, данные с наготой можно «легко» добавить в сторонние выпуски.
Некоторые разработчики похвали более глубокую функциональность алгоритма, включая способность системы создавать контент, соответствующий глубине исходного изображения.
First tests with the new @StableDiffusion V2 depth2image feature. This has potential...@EMostaque @StabilityAI #stablediffusionv2 pic.twitter.com/XZGng0w5HJ— Saad Ahmed (@microsaad) November 24, 2022
Также Discord-пользователи отметили улучшенную интерпретацию подсказок и генерацию связных фотографических изображений моделью.
Мостак заявил, что будущие версии Stable Diffusion начнут использовать обучающие датасеты, позволяющие художникам соглашаться или отказываться от включения их работ.
«Мы пытаемся быть максимально прозрачными, улучшая базовые модели и учитывая отзывы сообщества», — сказал он.
Напомним, в августе Stability AI предоставила более 1000 исследователям доступ к генератору изображений по тексту Stable Diffusion. Позже компания сделала алгоритм доступным для широкой аудитории.
В сентябре энтузиаст научил Stable Diffusion генерировать видео по запросу. Алгоритм базируется на программном коде ИИ-разработчика Андрея Карпати.
В октябре немецкий энтузиаст Фабиан Штельцер задействовал нейросеть Stable Diffusion для обработки селфи.
Подписывайтесь на новости ForkLog в Telegram: ForkLog AI — все новости из мира ИИ!