Быстрый рост генеративного искусственного интеллекта приносит новые многообещающие инновации и в то же время ставит новые проблемы. Среди этих проблем есть некоторые, которые были распространены до появления генеративного ИИ, такие как предвзятость и объяснимость, а также новые, уникальные для моделей фундамента (FM), включая галлюцинации и токсичность. В AWS мы стремимся ответственно подходить к разработке генеративного ИИ, применяя ориентированный на людей подход, в котором приоритет отдается образованию, науке и нашим клиентам, чтобы интегрировать ответственный ИИ на протяжении всего жизненного цикла ИИ.
За последний год мы представили новые возможности в наших генеративных приложениях и моделях искусственного интеллекта, такие как встроенное сканирование безопасности в Amazon CodeWhisperer, обучение обнаружению и блокировке вредоносного контента в Amazon Titan и защита конфиденциальности данных в Amazon Bedrock. Наши инвестиции в безопасный, прозрачный и ответственный генеративный искусственный интеллект включают сотрудничество с мировым сообществом и политиками, поскольку мы поощряем и поддерживаем как Добровольные обязательства Белого дома в области искусственного интеллекта и Саммит по безопасности искусственного интеллекта в Великобритании. И мы продолжаем работать рука об руку с клиентами, чтобы внедрить ответственный ИИ с помощью специальных инструментов, таких как Amazon SageMaker Clarify, ML Governance с Amazon SageMaker и других.
Представляем новую ответственную инновацию в области искусственного интеллекта
По мере того как генеративный ИИ распространяется на новые отрасли, организации и варианты использования, этот рост должен сопровождаться устойчивыми инвестициями в ответственное развитие FM. Клиенты хотят, чтобы их FM создавались с учетом безопасности, справедливости и защищенности, чтобы они, в свою очередь, могли ответственно развертывать ИИ. На AWS re:Invent в этом году мы рады объявить о новых возможностях, способствующих ответственным генеративным инновациям в области искусственного интеллекта с использованием широкого набора возможностей с помощью новых встроенных инструментов, средств защиты клиентов, ресурсов для повышения прозрачности и инструментов для борьбы с дезинформацией. Мы стремимся предоставить клиентам информацию, необходимую им для оценки FM с точки зрения ключевых аспектов ответственного ИИ, таких как токсичность и надежность, а также ввести ограничения для применения мер безопасности на основе сценариев использования клиентов и политик ответственного ИИ. В то же время наши клиенты хотят быть лучше информированы о безопасности, справедливости, защите и других свойствах служб искусственного интеллекта и FM, когда они используют их в своей организации. Мы рады объявить о дополнительных ресурсах, которые помогут клиентам лучше понять наши сервисы AWS AI и обеспечить необходимую им прозрачность.
Реализация мер безопасности: ограждения для Amazon Bedrock
Безопасность является приоритетом, когда дело доходит до масштабного внедрения генеративного искусственного интеллекта. Организации хотят способствовать безопасному взаимодействию между своими клиентами и генеративными приложениями искусственного интеллекта, которые избегают вредных или оскорбительных выражений и соответствуют политике компании. Самый простой способ сделать это — внедрить последовательные меры безопасности во всей организации, чтобы каждый мог безопасно внедрять инновации. Вчера мы объявили о предварительной версии Guardrails для Amazon Bedrock — новой возможности, которая упрощает внедрение средств защиты для конкретных приложений на основе сценариев использования клиентов и ответственных политик искусственного интеллекта.
Ограждения обеспечивают согласованность в том, как FM на Amazon Bedrock реагируют на нежелательный и вредный контент в приложениях. Клиенты могут применять ограничения к большим языковым моделям на Amazon Bedrock, а также к точно настроенным моделям и в сочетании с агентами для Amazon Bedrock. Guardrails позволяет указать темы, которых следует избегать, а служба автоматически обнаруживает и предотвращает запросы и ответы, попадающие в ограниченные категории. Клиенты также могут настроить пороговые значения фильтрации контента по категориям, включая разжигание ненависти, оскорбления, сексуальную лексику и насилие, чтобы отфильтровать вредный контент до желаемого уровня. Например, приложение онлайн-банкинга можно настроить таким образом, чтобы избежать предоставления инвестиционных советов и ограничить нежелательный контент (например, разжигание ненависти, оскорбления и насилие). В ближайшем будущем клиенты также смогут редактировать личную информацию (PII) во вводимых пользователем данных и ответах FM, устанавливать фильтры ненормативной лексики и предоставлять список настраиваемых слов для блокировки при взаимодействии между пользователями и FM, улучшая соответствие нормативным требованиям и обеспечивая дальнейшее защита пользователей. С помощью Guardrails вы можете быстрее внедрять инновации с помощью генеративного искусственного интеллекта, сохраняя при этом защиту и гарантии в соответствии с политикой компании.
Определение лучшего FM для конкретного варианта использования: оценка модели в Amazon Bedrock
Сегодня организации имеют широкий спектр возможностей FM для поддержки своих генеративных приложений искусственного интеллекта. Чтобы найти правильный баланс точности и производительности для своего варианта использования, организации должны эффективно сравнивать модели и находить лучший вариант на основе ключевых ответственных показателей ИИ и качества, которые важны для них. Чтобы оценить модели, организации должны сначала потратить несколько дней на определение критериев, настройку инструментов оценки и проведение оценок, а все это требует глубоких знаний в области науки о данных. Кроме того, эти тесты бесполезны для оценки субъективных критериев (например, голоса бренда, актуальности и стиля), которые требуют оценки посредством утомительных, трудоемких рабочих процессов, требующих проверки человеком. Время, опыт и ресурсы, необходимые для этих оценок — для каждого нового варианта использования — затрудняют для организаций оценку моделей с точки зрения ответственных параметров ИИ и принятие осознанного выбора относительно того, какая модель обеспечит наиболее точную и безопасную работу для их клиентов.
Программа Model Evaluation на Amazon Bedrock, доступная теперь в предварительной версии, помогает клиентам оценивать, сравнивать и выбирать лучшие FM для их конкретного сценария использования на основе пользовательских показателей, таких как точность и безопасность, с использованием автоматических или человеческих оценок. В консоли Amazon Bedrock клиенты выбирают FM, которые они хотят сравнить для конкретной задачи, например ответов на вопросы или обобщения контента. Для автоматических оценок клиенты выбирают заранее определенные критерии оценки (например, точность, надежность и токсичность) и загружают собственный набор данных тестирования или выбирают из встроенных общедоступных наборов данных. Для субъективных критериев или тонкого контента, требующего суждения, клиенты могут легко настроить рабочие процессы оценки с участием человека всего за несколько щелчков мыши. Эти рабочие процессы используют собственную рабочую группу клиента или управляемую рабочую силу, предоставленную AWS, для оценки ответов модели. В ходе оценки с участием людей клиенты определяют метрики, специфичные для конкретного случая использования (например, релевантность, стиль и голос бренда). Как только клиенты завершат процесс настройки, Amazon Bedrock проводит оценку и создает отчет, благодаря чему клиенты могут легко понять, как модель работает по ключевым критериям безопасности и точности, и выбрать лучшую модель для своего варианта использования.
Эта возможность оценивать модели не ограничивается Amazon Bedrock. Клиенты также могут использовать оценку моделей в Amazon SageMaker Clarify, чтобы легко оценивать, сравнивать и выбирать лучший вариант FM по ключевым показателям качества и ответственности, таким как точность, надежность и токсичность, — по всем показателям. все ФМ.
Борьба с дезинформацией: водяные знаки в Amazon Titan
Сегодня мы анонсировали предварительную версию Amazon Titan Image Generator, которая позволяет клиентам быстро создавать и улучшать высококачественные изображения в больших масштабах. Мы учитывали ответственный ИИ на каждом этапе процесса разработки модели, включая выбор обучающих данных, создание возможностей фильтрации для обнаружения и удаления неподходящих пользовательских входных данных и выходных данных модели, а также улучшение демографического разнообразия выходных данных нашей модели. Все изображения, созданные Amazon Titan, по умолчанию содержат невидимый водяной знак, который призван помочь уменьшить распространение дезинформации, предоставляя незаметный механизм идентификации изображений, созданных ИИ. AWS является одним из первых поставщиков моделей, которые широко выпускают встроенные невидимые водяные знаки, которые интегрируются в выходные изображения и устойчивы к изменениям.
Укрепление доверия: поддержка наших моделей и приложений с возмещением ущерба
Укрепление доверия клиентов — основа AWS. Мы находимся в пути вместе с нашими клиентами с момента нашего основания, и с развитием генеративного искусственного интеллекта мы по-прежнему стремимся вместе создавать инновационные технологии. Чтобы клиенты могли использовать возможности нашего генеративного искусственного интеллекта, им необходимо знать, что они защищены. AWS предлагает покрытие авторских прав на результаты следующих сервисов генеративного искусственного интеллекта Amazon: Amazon Titan Text Express, Amazon Titan Text Lite, Amazon Titan Embeddings, Amazon Titan Multimodal Embeddings, Amazon CodeWhisperer Professional, AWS HealthScribe, Amazon Lex и Amazon Personalize. Это означает, что клиенты, ответственно использующие модели, защищены от претензий третьих сторон, утверждающих, что результаты, генерируемые этими службами, нарушают авторские права (см. раздел 50.10 Условий обслуживания). Кроме того, наше стандартное возмещение интеллектуальной собственности за использование сервисов защищает клиентов от претензий третьих сторон, утверждающих, что сервисы и данные, используемые для их обучения, нарушили права интеллектуальной собственности. Другими словами, если вы используете сервис Amazon с генеративным искусственным интеллектом, указанный выше, и кто-то подает на вас в суд за нарушение прав интеллектуальной собственности, AWS будет защищать этот иск, который включает в себя покрытие любых судебных решений против вас или затрат на урегулирование.
Мы поддерживаем наши генеративные услуги искусственного интеллекта и работаем над их постоянным улучшением. По мере того как AWS запускает новые сервисы и продолжает развиваться генеративный искусственный интеллект, AWS продолжит неустанно концентрироваться на завоевании и поддержании доверия клиентов.
Повышение прозрачности: сервисная карта AWS AI для Amazon Titan Text
На конференции re:Invent 2022 мы представили сервисные карты AWS AI в качестве ресурса прозрачности, который поможет клиентам лучше понять наши сервисы AWS AI. Карты обслуживания ИИ — это форма ответственной документации по ИИ, которая предоставляет клиентам единое место для поиска информации о предполагаемых вариантах использования и ограничениях, выборе ответственного дизайна ИИ, а также передовых методах развертывания и оптимизации производительности для наших услуг ИИ. Они являются частью комплексного процесса разработки, который мы предпринимаем для создания наших услуг ответственным образом, который обеспечивает справедливость, объяснимость, достоверность и надежность, управление, прозрачность, конфиденциальность и безопасность, безопасность и управляемость.
В этом году на re:Invent мы анонсируем новую сервисную карту AI для Amazon Titan Text, призванную повысить прозрачность базовых моделей. Мы также запускаем четыре новые сервисные карты AI, в том числе: Amazon Comprehend Detect PII, Amazon Transcribe Toxicity Detection, Amazon Rekognition Face Liveness и AWS HealthScribe. Вы можете изучить каждую из этих карт на веб-сайте AWS. Поскольку генеративный искусственный интеллект продолжает расти и развиваться, прозрачность того, как технологии разрабатываются, тестируются и используются, станет жизненно важным компонентом для завоевания доверия как организаций, так и их клиентов. В AWS мы стремимся продолжать предоставлять ресурсы прозрачности, такие как сервисные карты AI, более широкому сообществу, а также повторять и собирать отзывы о лучших путях продвижения вперед.
Инвестиции в ответственный ИИ на протяжении всего жизненного цикла генеративного ИИ
Мы воодушевлены новыми инновациями, анонсированными на re:Invent на этой неделе, которые дают нашим клиентам больше инструментов, ресурсов и встроенных средств защиты для безопасного создания и использования генеративного ИИ. От оценки модели до ограждений и водяных знаков — теперь клиенты могут быстрее внедрить генерирующий искусственный интеллект в свою организацию, одновременно снижая риски. Новые средства защиты клиентов, такие как страхование ответственности за интеллектуальную собственность, и новые ресурсы для повышения прозрачности, такие как дополнительные сервисные карты AI, также являются ключевыми примерами нашего стремления укреплять доверие между технологическими компаниями, политиками, общественными группами, учеными и многими другими. Мы продолжаем вкладывать значительные средства в ответственный ИИ на протяжении всего жизненного цикла базовой модели, чтобы помочь нашим клиентам масштабировать ИИ безопасным, надежным и ответственным способом.
Об авторах
Питер Халлинан возглавляет научные и практические инициативы в области ответственного ИИ в AWS AI вместе с командой ответственных экспертов в области ИИ. Он обладает глубокими знаниями в области искусственного интеллекта (доктор философии, Гарвард) и предпринимательства (Blindsight, продан Amazon). Его волонтерская деятельность включала работу профессором-консультантом в Медицинской школе Стэнфордского университета и президентом Американской торговой палаты на Мадагаскаре. Когда есть возможность, он ездит в горы со своими детьми: катается на лыжах, занимается скалолазанием, пешим туризмом и рафтингом.
Васи Филомин в настоящее время является вице-президентом по генеративному искусственному интеллекту в AWS. Он возглавляет проекты в области генеративного искусственного интеллекта, включая Amazon Bedrock, Amazon Titan и Amazon CodeWhisperer.