Модели искусственного интеллекта выдают фотографии реальных людей и изображения, защищенные авторским правом

Stable Diffusion имеет открытый исходный код, что означает, что любой может анализировать и исследовать его. Imagen закрыт, но Google предоставил исследователям доступ. Сингх говорит, что эта работа является отличным примером того, насколько важно предоставить исследователям доступ к этим моделям для анализа, и он утверждает, что компании должны быть столь же прозрачными с другими моделями ИИ, такими как ChatGPT от OpenAI.

Однако, хотя результаты впечатляют, они сопровождаются некоторыми оговорками. Изображения, которые удалось извлечь исследователям, несколько раз появлялись в обучающих данных или были очень необычными по сравнению с другими изображениями в наборе данных, говорит Флориан Трамер, доцент кафедры компьютерных наук в ETH Zürich, который был частью группы.

По словам Трамера, люди, которые выглядят необычно или носят необычные имена, подвергаются большему риску запоминания.

Исследователи смогли извлечь лишь относительно небольшое количество точных копий фотографий людей из модели ИИ: по словам Вебстера, только одно из миллиона изображений было копией.

Но это все еще вызывает беспокойство, говорит Трамер: «Я очень надеюсь, что никто не взглянет на эти результаты и не скажет: «О, на самом деле, эти цифры не так уж плохи, если они всего лишь один на миллион».

«Важен тот факт, что они больше нуля», — добавляет он.

Последние статьи

Похожие истории