Генеративный искусственный интеллект (ИИ) меняет качество обслуживания клиентов в отраслях по всему миру. Клиенты создают генеративные приложения искусственного интеллекта, используя большие языковые модели (LLM) и другие базовые модели (FM), которые улучшают качество обслуживания клиентов, трансформируют операции, повышают производительность сотрудников и создают новые каналы дохода.
FM и приложения, созданные на их основе, представляют собой чрезвычайно ценные инвестиции для наших клиентов. Они часто используются с очень конфиденциальными бизнес-данными, такими как личные данные, данные о соответствии требованиям, операционные данные и финансовая информация, для оптимизации результатов модели. Наибольшее беспокойство, которое мы слышим от клиентов, когда они изучают преимущества генеративного искусственного интеллекта, заключается в том, как защитить свои высококонфиденциальные данные и инвестиции. Поскольку их данные и вес моделей невероятно ценны, клиенты требуют, чтобы они оставались защищенными, безопасными и конфиденциальными, будь то учетные записи их собственных администраторов, их клиентов, уязвимости в программном обеспечении, работающем в их собственных средах, или даже их поставщик облачных услуг от доступ.
В AWS нашим главным приоритетом является обеспечение безопасности и конфиденциальности рабочих нагрузок наших клиентов. Мы думаем о безопасности на трех уровнях нашего стека генеративного ИИ:
- Нижний слой – Предоставляет инструменты для создания и обучения LLM и других FM.
- Средний слой – Обеспечивает доступ ко всем моделям, а также инструментам, необходимым для создания и масштабирования генеративных приложений искусственного интеллекта.
- Верхний слой – Включает приложения, которые используют LLM и другие FM, чтобы облегчить работу за счет написания и отладки кода, создания контента, получения аналитической информации и принятия мер.
Каждый уровень важен для того, чтобы генеративный ИИ стал всеобъемлющим и преобразующим.
С помощью системы AWS Nitro мы представили первую в своем роде инновацию от имени наших клиентов. Система Nitro — это не имеющая аналогов вычислительная основа для AWS, в основе которой лежит безопасность и производительность. Его специализированное оборудование и связанное с ним встроенное ПО предназначены для обеспечения соблюдения ограничений, чтобы никто, включая сотрудников AWS, не мог получить доступ к вашим рабочим нагрузкам или данным, выполняющимся на ваших экземплярах Amazon Elastic Compute Cloud (Amazon EC2). Клиенты получили выгоду от такой конфиденциальности и изоляции от операторов AWS на всех инстансах EC2 на базе Nitro с 2017 года.
По замыслу у любого сотрудника Amazon нет механизма доступа к экземпляру Nitro EC2, который клиенты используют для выполнения своих рабочих нагрузок, или для доступа к данным, которые клиенты отправляют в ускоритель машинного обучения (ML) или графический процессор. Эта защита применяется ко всем инстансам на базе Nitro, включая инстансы с ускорителями машинного обучения, такими как AWS Inferentia и AWS Trainium, а также инстансы с графическими процессорами, такими как P4, P5, G5 и G6.
Система Nitro включает адаптер Elastic Fabric (EFA), который использует протокол связи AWS Scalable Reliable Datagram (SRD) для эластичного и крупномасштабного распределенного обучения в облачном масштабе, обеспечивая единственный всегда зашифрованный удаленный прямой доступ к памяти (RDMA). ) способная сеть. Вся связь через EFA шифруется с помощью шифрования VPC без какого-либо снижения производительности.
Конструкция системы Nitro была подтверждено Группой NCC, независимая фирма по кибербезопасности. AWS обеспечивает высокий уровень защиты рабочих нагрузок клиентов, и мы считаем, что именно такого уровня безопасности и конфиденциальности клиенты должны ожидать от своего поставщика облачных услуг. Этот уровень защиты настолько важен, что мы добавили его в Условия обслуживания AWS, чтобы предоставить дополнительную гарантию всем нашим клиентам.
Инновационные безопасные генеративные рабочие нагрузки искусственного интеллекта с использованием лучших в отрасли возможностей безопасности AWS.
С самого первого дня инфраструктура и сервисы AWS AI имели встроенные функции безопасности и конфиденциальности, позволяющие вам контролировать свои данные. Поскольку клиенты быстро переходят к внедрению генеративного ИИ в своих организациях, вам необходимо знать, что ваши данные безопасно обрабатываются на протяжении всего жизненного цикла ИИ, включая подготовку данных, обучение и формирование выводов. Безопасность весов модели — параметров, которые модель изучает во время обучения и которые имеют решающее значение для ее способности делать прогнозы, — имеет первостепенное значение для защиты ваших данных и поддержания целостности модели.
Вот почему для AWS крайне важно продолжать внедрять инновации от имени наших клиентов, чтобы поднять планку безопасности на каждом уровне генеративного стека ИИ. Мы считаем, что для этого необходимо обеспечить безопасность и конфиденциальность на каждом уровне стека генеративного ИИ. Вам необходимо иметь возможность защитить инфраструктуру для обучения LLM и других FM, безопасно создавать инструменты для запуска LLM и других FM и запускать приложения, использующие FM, со встроенными средствами безопасности и конфиденциальности, которым вы можете доверять.
В AWS безопасность инфраструктуры ИИ означает отсутствие доступа к конфиденциальным данным ИИ, таким как веса моделей ИИ и данные, обрабатываемые с помощью этих моделей, со стороны любого неавторизованного лица, будь то у оператора инфраструктуры или у клиента. Он состоит из трех ключевых принципов:
- Полная изоляция данных ИИ от оператора инфраструктуры – Оператор инфраструктуры не должен иметь возможности доступа к пользовательскому контенту и данным ИИ, таким как веса моделей ИИ и данные, обрабатываемые с помощью моделей.
- Возможность для клиентов изолировать данные ИИ от себя – Инфраструктура должна обеспечивать механизм, позволяющий загружать веса моделей и данные в оборудование, оставаясь при этом изолированной и недоступной для собственных пользователей и программного обеспечения клиентов.
- Защищенная инфраструктура связи – Связь между устройствами в инфраструктуре ускорителя машинного обучения должна быть защищена. Все доступные извне каналы связи между устройствами должны быть зашифрованы.
Система Nitro реализует первый принцип безопасной инфраструктуры искусственного интеллекта, изолируя ваши данные искусственного интеллекта от операторов AWS. Второй принцип дает вам возможность лишить ваших собственных пользователей и программного обеспечения административного доступа к вашим данным ИИ. AWS не только предлагает вам способ добиться этого, но мы также сделали его простым и практичным, инвестировав в создание интегрированного решения между анклавами AWS Nitro и службой управления ключами AWS (AWS KMS). С помощью Nitro Enclaves и AWS KMS вы можете зашифровать свои конфиденциальные данные ИИ с помощью ключей, которыми вы владеете и управляете, хранить эти данные в выбранном вами месте и безопасно передавать зашифрованные данные в изолированную вычислительную среду для анализа. На протяжении всего этого процесса конфиденциальные данные ИИ шифруются и изолируются от ваших собственных пользователей и программного обеспечения на вашем экземпляре EC2, и операторы AWS не могут получить доступ к этим данным. Случаи использования, которые получили выгоду от этого процесса, включают выполнение логических выводов LLM в анклаве. До сегодняшнего дня нитро-анклавы работают только в процессоре, что ограничивает возможности создания более крупных генеративных моделей ИИ и более сложной обработки.
Мы объявили о наших планах расширить этот поток сквозного шифрования Nitro, включив в него первоклассную интеграцию с ускорителями машинного обучения и графическими процессорами, выполняя третий принцип. Вы сможете расшифровывать и загружать конфиденциальные данные ИИ в ускоритель машинного обучения для обработки, обеспечивая при этом изоляцию от собственных операторов и проверку подлинности приложения, используемого для обработки данных ИИ. С помощью системы Nitro вы можете криптографически проверять свои приложения на AWS KMS и расшифровывать данные только после прохождения необходимых проверок. Это усовершенствование позволяет AWS предлагать сквозное шифрование ваших данных при их передаче через генеративные рабочие нагрузки ИИ.
Мы планируем предложить этот поток сквозного шифрования в предстоящем выпуске, разработанном AWS. Трейниум2 а также экземпляры графических процессоров на основе будущей архитектуры NVIDIA Blackwell, которые обеспечивают безопасную связь между устройствами — третий принцип безопасной инфраструктуры искусственного интеллекта. AWS и NVIDIA тесно сотрудничают, чтобы вывести на рынок совместное решение, в том числе новую платформу NVIDIA Blackwell GPU 21 от NVIDIA, которая объединяет решение NVIDIA GB200 NVL72 с системой Nitro и технологиями EFA, чтобы обеспечить ведущее в отрасли решение для безопасного создания и развертывания следующих технологий: поколение генеративных приложений искусственного интеллекта.
Продвигая будущее генеративной безопасности ИИ
Сегодня десятки тысяч клиентов используют AWS для экспериментов и внедрения в производство преобразующих генеративных приложений искусственного интеллекта. Рабочие нагрузки генеративного искусственного интеллекта содержат очень ценные и конфиденциальные данные, которые требуют уровня защиты со стороны ваших собственных операторов и поставщика облачных услуг. Клиенты, использующие инстансы EC2 на базе AWS Nitro, получили этот уровень защиты и изоляции от операторов AWS с 2017 года, когда мы запустили нашу инновационную систему Nitro.
В AWS мы продолжаем эти инновации, инвестируя в создание производительных и доступных возможностей, чтобы наши клиенты могли практично защищать свои рабочие нагрузки генеративного ИИ на трех уровнях стека генеративного ИИ, чтобы вы могли сосредоточиться на том, что вы делаете. лучшее: создание и распространение использования генеративного ИИ на большее количество областей. Узнайте больше здесь.
Об авторах
Энтони Лигуори — вице-президент AWS и заслуженный инженер EC2.
Колм Маккартай — вице-президент AWS и заслуженный инженер EC2.