Художники защищаются от ИИ
Раз на законодательном уровне использование авторских материалов для обучения искусственного интеллекта пока не запрещается, художники решили взять дело в свои руки. Уникальный по своей сути инструмент Nightshade помогает иллюстраторам защитить свои работы от использования в целях обучения моделей ИИ.
Инструмент добавляет пиксели в изображение таким образом, что картинка не распознаётся моделями вроде DALL-E, Midjourney и Stable Diffusion. С помощью таких пикселей можно даже убедить ИИ, что собака, изображенная на картинке — это кошка. В итоге, использование «испорченных» Nightshade картинок искажает распознавание объектов.
Любопытно, что Nightshade — как и многие модели генеративного ИИ — продукт с открытым исходным кодом.
Nightshade пригодится художникам, которые хотят выставлять свои работы в интернет, но не желают, чтобы их интеллектуальная собственность использовалась в массивах данных для обучения ИИ. Пиксели, которые добавляет в изображение Nightshade, незаметны человеческому глазу — зато доставляют много неприятностей ИИ-моделям, приводя к сбоям в распознавании.
На картинке — результат работы Nightshade⤴️ Отравленные им изображения скармливали Stable Diffusion. В итоге нейросеть верила, что машина — это корова, сумка — тостер, шляпа — торт.
Такой саботаж в перспективе может серьёзно замедлить прогресс в генерации изображений, поскольку технологическим компаниям придётся кропотливо находить и удалять каждый поврежденный образец.
В теории, если производители ИИ-моделей не смогут придумать пути обхода, им придётся платить художникам за использование контента. Уж лучше купить проверенную базу, чем испортить всю модель «отравленными» материалами для обучения.
_______
Источник | #antidigital
@F_S_C_P
Комментариев нет:
Отправить комментарий