Еще больше усложняет ситуацию то, что водяные знаки часто используются в качестве универсального термина для общего действия по раскрытию контента, хотя существует множество методов. Более внимательное прочтение Белого дома обязательства описывает другой метод раскрытия информации, известный как происхождение, который основан на криптографических подписях, а не на невидимых сигналах. Однако это часто описывается как водяной знак в популярной прессе. Если вы находите эту мешанину терминов сбивающей с толку, будьте уверены, что вы не единственный. Но ясность имеет значение: сектор ИИ не может применять последовательные и надежные меры прозрачности, если нет даже согласия о том, как мы относимся к различным методам.
Я придумал шесть первоначальных вопросов, которые могут помочь нам оценить полезность водяных знаков и других методов раскрытия информации для ИИ. Это должно помочь убедиться, что разные стороны обсуждают одно и то же, и что мы можем тщательно и последовательно оценить каждый метод.
Можно ли подделать сам водяной знак?
По иронии судьбы, технические сигналы рекламируются как полезные для определения того, откуда берется контент и как им манипулируют. иногда можно манипулировать собой. Хотя это сложно, как невидимые, так и видимые водяные знаки могут быть удалены или изменены, что сделает их бесполезными для определения того, что является синтетическим, а что нет. И, что особенно важно, легкость, с которой ими можно манипулировать, зависит от того, с каким типом контента вы имеете дело.
Одинакова ли долговечность водяного знака для разных типов контента?
В то время как невидимые водяные знаки часто рекламируются как широкое решение для работы с генеративным ИИ, такие встроенные сигналы гораздо легче манипулировать текстом, чем аудиовизуальным контентом. Это, вероятно, объясняет, почему в сводном документе Белого дома предполагается, что водяные знаки будут применяться ко всем типам ИИ, но в полном тексте стало ясно, что компании обязались раскрывать информацию только в отношении аудиовизуальных материалов. Поэтому разработка политики в области ИИ должна быть конкретной в отношении того, как методы раскрытия информации, такие как невидимые водяные знаки, различаются по своей долговечности и более широкой технической надежности для разных типов контента. Одно решение для раскрытия информации может быть отличным для изображений, но бесполезным для текста.
Кто может обнаружить эти невидимые сигналы?
Даже если сектор ИИ согласится внедрить невидимые водяные знаки, неизбежно возникнут более глубокие вопросы о том, кто способен обнаруживать эти сигналы и в конечном итоге делать авторитетные заявления на их основе. Кто решает, создан ли контент с помощью ИИ и, возможно, в качестве расширения, вводит ли он в заблуждение? Если каждый сможет обнаруживать водяные знаки, это может сделать их восприимчивыми к неправильное использование плохими актерами. С другой стороны, контролируемый доступ к обнаружению невидимых водяных знаков, особенно если он диктуется крупными компаниями, занимающимися искусственным интеллектом, может снизить открытость и усилить технический контроль. Внедрение таких методов раскрытия информации без понимания того, как они регулируются, может вызвать недоверие к ним и сделать их неэффективными. И если методы не получат широкого распространения, злоумышленники могут обратиться к технологиям с открытым исходным кодом, которые недостаток невидимые водяные знаки для создания вредоносного и вводящего в заблуждение контента.
Сохраняют ли водяные знаки конфиденциальность?
Как ключевая работа из Witness, правозащитной и технологической группы, ясно дает понять, что любая система отслеживания, которая перемещается с фрагментом контента с течением времени, также может создавать проблемы с конфиденциальностью для тех, кто создает контент. Сектор ИИ должен обеспечить, чтобы водяные знаки и другие методы раскрытия информации были разработаны таким образом, чтобы не включать идентифицирующую информацию, которая может подвергнуть создателей риску. Например, правозащитник может зафиксировать нарушения с помощью фотографий, на которых есть водяные знаки с идентифицирующей информацией, что делает человека легкой мишенью для авторитарного правительства. Даже знание того, что водяные знаки мог раскрытие личности активиста может оказать сдерживающее воздействие на самовыражение и речь. Директивные органы должны дать более четкие указания о том, как можно организовать раскрытие информации, чтобы сохранить конфиденциальность тех, кто создает контент, а также включить достаточно подробностей, чтобы они были полезными и практичными.
Помогают ли видимые раскрытия информации аудитории понять роль генеративного ИИ?
Даже если невидимые водяные знаки технически долговечны и сохраняют конфиденциальность, они могут не помочь аудитории интерпретировать контент. Хотя прямое раскрытие информации, такое как видимые водяные знаки, обладает интуитивной привлекательностью для обеспечения большей прозрачности, такое раскрытие информации не обязательно приводит к ожидаемому результату и часто может восприниматься как патерналистский, предвзятый и карательный, даже когда они ничего не говорят о правдивости части контента. Кроме того, зрители могут неверно истолковать прямое раскрытие информации. Участник моего 2021 исследование неправильно истолковал ярлык Твиттера «манипулируемые СМИ» как предположение, что институт «медиа» манипулировал им, а не то, что содержание конкретного видео было отредактировано, чтобы ввести в заблуждение. В то время как появляются исследования о том, как различные дизайны взаимодействия с пользователем влияют на интерпретацию раскрытия контента аудиторией, большая часть из них сосредоточены в крупных технологических компаниях и сосредоточены на различных контекстах, таких как выборы. Изучение эффективности прямого раскрытия информации и пользовательского опыта, а не просто опора на внутреннюю привлекательность маркировки контента, созданного ИИ, жизненно важно для эффективной разработки политики для повышения прозрачности.
Может ли визуальное нанесение водяных знаков на контент, созданный искусственным интеллектом, снизить доверие к «настоящему» контенту?
Возможно, самый сложный для общества вопрос, который необходимо оценить, заключается в том, насколько скоординированное прямое раскрытие информации повлияет на более широкое отношение к информации и потенциально снизит доверие к «настоящему» контенту. Если организации, использующие ИИ, и платформы социальных сетей просто обозначают тот факт, что контент создается или модифицируется ИИ, — как понятный, хотя и ограниченный способ избежать суждений о том, какие утверждения вводят в заблуждение или вредны, — как это влияет на то, как мы воспринимаем то, что мы видим онлайн?