В прошлом году огромная популярность генеративных моделей ИИ также повлекла за собой распространение созданных ИИ дипфейков, порно без согласия и нарушений авторских прав. Водяные знаки — метод, при котором вы скрываете сигнал в фрагменте текста или изображения, чтобы идентифицировать его как созданный искусственным интеллектом, — стал одной из самых популярных идей, предлагаемых для предотвращения такого вреда.
В июле Белый дом объявлено он получил добровольные обязательства от ведущих компаний, занимающихся искусственным интеллектом, таких как OpenAI, Google и Meta, по разработке инструментов нанесения водяных знаков в целях борьбы с дезинформацией и неправомерным использованием контента, созданного ИИ.
На ежегодной конференции Google I/O в мае генеральный директор Сундар Пичаи заявил, что компания строит свои модели, включающие в себя водяные знаки и другие методы с самого начала. Google DeepMind теперь является первой крупной технологической компанией, публично запустившей такой инструмент.
Традиционно изображения снабжались водяными знаками путем добавления к ним видимого наложения или добавления информации в их метаданные. Но этот метод «хрупок», и водяной знак может потеряться при обрезке, изменении размера или редактировании изображений, говорит Пушмит Кохли, вице-президент по исследованиям Google DeepMind.
SynthID создается с помощью двух нейронных сетей. Берется исходное изображение и создается другое изображение, которое выглядит почти идентично ему, но с небольшими изменениями некоторых пикселей. Это создает встроенный узор, невидимый человеческому глазу. Вторая нейронная сеть может обнаружить шаблон и сообщить пользователям, обнаруживает ли она водяной знак, подозревает, что изображение имеет водяной знак, или обнаруживает, что у него нет водяного знака. Кохли сказал, что SynthID спроектирован таким образом, что водяной знак все равно можно обнаружить, даже если изображение сделано в виде скриншота или отредактировано — например, путем его поворота или изменения размера.
Google DeepMind — не единственная компания, работающая над такого рода методами нанесения водяных знаков, — говорит Бен Чжао, профессор Чикагского университета, который работал над системами, предотвращающими сканирование изображений художников системами искусственного интеллекта. Подобные методы уже существуетт и являются используется в генератор изображений AI с открытым исходным кодом Stable Diffusion. Мета также имеет провел исследование по водяным знакам, хотя компания еще не запустила какие-либо публичные инструменты для создания водяных знаков.
Кохли утверждает, что водяной знак Google DeepMind более устойчив к несанкционированному вмешательству, чем предыдущие попытки создать водяные знаки для изображений, хотя все еще не является полностью защищенным.
Но Чжао настроен скептически. «Немногие или вообще отсутствуют водяные знаки, которые доказали свою надежность с течением времени», — говорит он. Ранние работы над водяными знаками для текста показали, что их легко сломать, обычно в течение нескольких месяцев.