среда, 25 октября 2023 г.

Художники защищаются от ИИ

 Художники защищаются от ИИ


Раз на законодательном уровне использование авторских материалов для обучения искусственного интеллекта пока не запрещается, художники решили взять дело в свои руки. Уникальный по своей сути инструмент Nightshade помогает иллюстраторам защитить свои работы от использования в целях обучения моделей ИИ.

Инструмент добавляет пиксели в изображение таким образом, что картинка не распознаётся моделями вроде DALL-E, Midjourney и Stable Diffusion. С помощью таких пикселей можно даже убедить ИИ, что собака, изображенная на картинке — это кошка. В итоге, использование «испорченных» Nightshade картинок искажает распознавание объектов.

Любопытно, что Nightshade — как и многие модели генеративного ИИ — продукт с открытым исходным кодом.

Nightshade пригодится художникам, которые хотят выставлять свои работы в интернет, но не желают, чтобы их интеллектуальная собственность использовалась в массивах данных для обучения ИИ. Пиксели, которые добавляет в изображение Nightshade, незаметны человеческому глазу — зато доставляют много неприятностей ИИ-моделям, приводя к сбоям в распознавании.

На картинке — результат работы Nightshade⤴️ Отравленные им изображения скармливали Stable Diffusion. В итоге нейросеть верила, что машина — это корова, сумка — тостер, шляпа — торт.

Такой саботаж в перспективе может серьёзно замедлить прогресс в генерации изображений, поскольку технологическим компаниям придётся кропотливо находить и удалять каждый поврежденный образец.

В теории, если производители ИИ-моделей не смогут придумать пути обхода, им придётся платить художникам за использование контента. Уж лучше купить проверенную базу, чем испортить всю модель «отравленными» материалами для обучения.
_______
Источник | #antidigital
@F_S_C_P

Комментариев нет:

ad