Сгенерированный нейросетями контент предложили маркировать водяными знаками
Ученый Калифорнийского университета предложил маркировать сгенерированный нейросетями контент. Это можно сделать с помощью водяных знаков со встроенным уникальным идентификатором. С маркировкой контента от искусственного интеллекта уже экспериментирует Open AI – создатель ChatGPT.
Сгенерированный нейросетями контент предложили маркировать водяными знаками Кирилл Билык
С предложением ввести маркировку всего контента, который создает искусственный интеллект, выступил профессор Калифорнийского университета Хани Фарид. Специализацией его работы является анализ цифровых изображений и выявление дипфейков.
Ученый считает, что при сохраняющихся темпах развития нейросетей уже в ближайшем будущем не составит труда сгенерировать видео, в котором, например, глава государства будет угрожать военными действиями, или руководитель компании объявит о падении прибыли. Такие манипуляции в итоге могут привести к шторму на рынке или геополитическому кризису, поясняет профессор.
Рядовому человеку сложно отличить подлинный контент от сгенерированного нейросетю. Поэтому созданные искусственным интеллектом аудио, видео или фотоматериалы нужно маркировать, считает Фарид. По его словам, это можно сделать с помощью водяного знака, который будет содержать уникальный идентификатор и доводить до сведения, что данный контент создала нейросеть.
С маркировкой контента уже экспериментирует компания OpenAI, которая является разработчиком популярной нейросети ChatGPT. Эксперименты заключаются в том, чтобы добавить в подлинный контент идентификатор уникальности, например, криптографическую подпись видео при записи, или маркировке результатов работы ChatGPT.
Подписывайтесь на наш Telegram-канал, чтобы быть в курсе последних новостей и событий!
Comments are closed.