Open AI позволяет художникам исключить свои работы из баз для машинного обучения – но есть загвоздка.

Многие художники жаловались на то, что технологические гиганты используют их работы для глубокого обучения моделей на базе искусственного интеллекта. Некоторые даже подали судебные иски против OpenAI, Stability AI и других компаний за использование их работ в этих целях без разрешения.

 

Проблематичный процесс отказа

Теперь OpenAI предлагает художникам исключить использование своих творческих работ в обучающих данных DALL-E 3, новейшем генераторе изображений компании. Но есть и загвоздка: процесс настолько запутан, сложен и отнимает много времени, что художники назвали его «приводящим в ярость».

Это первый раз, когда OpenAI разрешил создателям удалять свои работы. Неудивительно, учитывая, что судебные иски продолжают поступать. Однако компания нашла способ, уменьшить число людей, которые, в конце концов, пойдут по этому пути.

Дело в том, что художники или правообладатели должны представлять каждую работу отдельно с подробными описаниями, если они хотят, чтобы она была исключена. Это уже достаточно утомительно для обычного творческого человека. Но представьте себе огромные организации, такие как музеи! У них хранятся тысячи работ, поэтому этот процесс кажется им почти нереальным.

Естественно, этот сложный метод вызвал дебаты. В художественном сообществе возникли подозрения по поводу того, был ли он специально разработан, чтобы сохраненить как можно большее количество данных для обучающих моделей OpenAI. Честно говоря, это выглядит именно так.

Другая проблема заключается в том, что это не распространяется на уже использованные работы. Другими словами, предоставленные запросы на отказ применимы только к будущим обучающим данным. Некоторые из работ, записанных на удаление, DALL-E 3 уже использовал для своего обучения.

Возможные последствия

Эта ситуация вызвала дискуссии в социальных сетях вокруг онлайн-контента и безопасности размещения творческих работ в Интернете. Так, Грег Мэдхер, ИТ-консультант и любитель фотографии, в своём аккаунте задался вопросом, «как теперь публиковать работы»,  учитывая, что технологические гиганты собирают онлайн-контент для обучения моделей ИИ. Художник Тоби Бартлетт назвал процесс сбора данных «возмутительным». По его мнению «художникам придется испортить свои работы водяными знаками эпических размеров в надежде, что их работа не будет использована… если это вообще сработает!»

Ответ OpenAI

Комментируя новый метод отказа, представитель OpenAI сказал: “Мы слышали от художников и владельцев креативного контента, что они не всегда хотят, чтобы их контент использовался для обучения, и поэтому мы предлагаем им возможность отказаться от использования своих изображений при дальнейшем обучении моделей».

Компания заявляет, что у нее также есть потенциальное решение для тех, у кого обширные творческие коллекции или «большое количество изображений, размещённых по определенному URL». Они советуют использовать Robots.txt для блокировки веб-сканера OpenAI GPTBot от доступа к таким URL. Однако эффективность этого решения сомнительна, поскольку требует, чтобы художники имели доступ и изменяли кодировку каждого веб-сайта, на котором размещают свои изображения. Собственно, еще одна почти невыполнимая задача!

Этот разворачивающийся сценарий усиливает и без того высокую напряженность между художниками и технологическими компаниями по поводу прав интеллектуальной собственности и несанкционированного использования авторского контента. Защита авторских прав в сфере искусственного интеллекта это все еще серая зона, но недовольство художников становится всё сильнее и сильнее. Это еще один случай, который заставляет срочно наводить порядок в сфере ИИ, создавать правила и решения, которые позволят художникам полностью контролировать свою работу.

Источник: DIYP

Источник: fotosky.ru