Home Нейронные сети Почему планы Big Tech по нанесению водяных знаков являются хорошей новостью | DeepTech

Почему планы Big Tech по нанесению водяных знаков являются хорошей новостью | DeepTech

0
Почему планы Big Tech по нанесению водяных знаков являются хорошей новостью
 | DeepTech

6 февраля Meta заявила, что собирается маркировать изображения, созданные искусственным интеллектом в Facebook, Instagram и Threads. Когда кто-то использует инструменты искусственного интеллекта Meta для создания изображений, компания добавляет к изображению видимые маркеры, а также невидимые водяные знаки и метаданные в файл изображения. Компания заявляет, что ее стандарты соответствуют лучшим практикам, разработанным Партнерством по искусственному интеллекту, некоммерческой исследовательской организацией в области искусственного интеллекта.

Большие технологии также поддерживают многообещающий технический стандарт, который мог бы добавить «маркировку пищевой ценности» к изображениям, видео и аудио. Названный C2PA, это интернет-протокол с открытым исходным кодом, который использует криптографию для кодирования подробностей о происхождении части контента или того, что технологи называют информацией о происхождении. Разработчики C2PA часто сравнивают протокол с этикеткой пищевой ценности, но на ней указано, откуда взялся контент и кто — или что — создало его. Об этом подробнее здесь.

8 февраля Google объявлено она присоединится к другим технологическим гигантам, таким как Microsoft и Adobe, в руководящем комитете C2PA и будет включать свой водяной знак SynthID во все изображения, созданные искусственным интеллектом, в своих новых инструментах Gemini. Meta заявляет, что также участвует в C2PA. Наличие общеотраслевого стандарта облегчает компаниям обнаружение контента, созданного ИИ, независимо от того, с помощью какой системы он был создан.

OpenAI тоже анонсирован новые меры по происхождению контента на прошлой неделе. Компания заявляет, что добавит водяные знаки к метаданным изображений, созданных с помощью ChatGPT и DALL-E 3, искусственного интеллекта для создания изображений. OpenAI заявляет, что теперь будет включать видимую метку на изображения, сигнализирующую, что они были созданы с помощью ИИ.

Эти методы являются многообещающим началом, но они не являются надежными. Водяные знаки в метаданных легко обойти, сделав снимок экрана изображения и просто используя его, а визуальные метки можно обрезать или отредактировать. Возможно, больше надежды на невидимые водяные знаки, такие как SynthID от Google, который тонко изменяет пиксели изображения, так что компьютерные программы могут обнаружить водяной знак, а человеческий глаз – нет. Их сложнее подделать. Более того, не существует надежных способов маркировки и обнаружения видео, аудио или даже текста, созданного ИИ.

Но создание этих инструментов происхождения по-прежнему имеет ценность. Как сказал мне пару недель назад Генри Эйдер, эксперт по генеративному искусственному интеллекту, когда я брал у него интервью о том, как предотвратить дипфейковое порно, цель состоит в том, чтобы создать «извращенный путь клиента». Другими словами, добавьте барьеры и препятствия в конвейер дипфейков, чтобы максимально замедлить создание и распространение вредоносного контента. Решительный человек, вероятно, все равно сможет обойти эту защиту, но помогает каждая мелочь.

Есть также множество нетехнических исправлений, которые технологические компании могут внести для предотвращения таких проблем, как дипфейк-порно. Крупные поставщики облачных услуг и магазины приложений, такие как Google, Amazon, Microsoft и Apple, могут запретить сервисы, которые можно использовать для создания дипфейков обнаженной натуры без согласия. Водяные знаки должны быть включены во весь контент, создаваемый ИИ, даже в небольших стартапах, разрабатывающих эту технологию.

Что дает мне надежду, так это то, что наряду с этими добровольными мерами мы начинаем видеть обязательные правила, такие как Закон ЕС об искусственном интеллекте и Закон о цифровых услугах, которые требуют от технологических компаний раскрывать контент, созданный искусственным интеллектом, и быстрее удалять вредоносный контент. Среди американских законодателей также возобновился интерес к принятию некоторых обязательных правил в отношении дипфейков. А после сгенерированных искусственным интеллектом роботов-звонков президента Байдена, призывающих избирателей не голосовать, Федеральная комиссия по связи США объявлено На прошлой неделе он запретил использование ИИ в этих звонках.

LEAVE A REPLY

Please enter your comment!
Please enter your name here