В новом официальном документе исследуются модели и функции международных институтов, которые могут помочь управлять возможностями и снизить риски, связанные с передовым ИИ.
Растущая осведомленность о глобальном влиянии передового искусственного интеллекта (ИИ) вдохновила общественные дискуссии о необходимости структур международного управления, которые могли бы помочь управлять возможностями и снижать связанные с этим риски.
Многие дискуссии основывались на аналогиях с ИКАО (Международная организация гражданской авиации) в гражданской авиации; ЦЕРН (Европейская организация ядерных исследований) в области физики элементарных частиц; МАГАТЭ (Международное агентство по атомной энергии) в области ядерных технологий; а также межправительственные и многосторонние организации во многих других областях. И все же, хотя аналогии могут быть полезным началом, технологии, возникающие на основе ИИ, будут отличаться от авиации, физики элементарных частиц или ядерных технологий.
Чтобы добиться успеха в управлении ИИ, нам необходимо лучше понимать:
- Какими конкретными выгодами и рисками нам необходимо управлять на международном уровне?
- Каких функций управления требуют эти преимущества и риски.
- Какие организации могут лучше всего выполнять эти функции.
Наша последняя статьясовместно с сотрудниками Оксфордского университета, Университета Монреаля, Университета Торонто, Колумбийского университета, Гарвардского университета, Стэнфордского университета и OpenAI, рассматривает эти вопросы и исследует, как международные институты могут помочь справиться с глобальным воздействием передового развития ИИ и добиться уверены, что преимущества ИИ достигают всех сообществ.
Решающая роль международных и многосторонних институтов
Доступ к определенным технологиям искусственного интеллекта может значительно повысить процветание и стабильность, но преимущества этих технологий могут не быть равномерно распределены или сосредоточены на важнейших потребностях недостаточно представленных сообществ или развивающегося мира. Недостаточный доступ к интернет-услугам, вычислительным мощностям или доступности обучения или опыта в области машинного обучения также может помешать определенным группам людей в полной мере воспользоваться достижениями в области искусственного интеллекта.
Международное сотрудничество может помочь решить эти проблемы, поощряя организации разрабатывать системы и приложения, отвечающие потребностям малообеспеченных сообществ, а также уменьшая образовательные, инфраструктурные и экономические препятствия, мешающие таким сообществам в полной мере использовать технологии искусственного интеллекта.
Кроме того, могут потребоваться международные усилия для управления рисками, создаваемыми мощными возможностями искусственного интеллекта. Без адекватных мер безопасности некоторые из этих возможностей, такие как автоматизированная разработка программного обеспечения, исследования в области химии и синтетической биологии, а также создание текста и видео, могут быть использованы не по назначению и причинить вред. Передовые системы искусственного интеллекта также могут давать сбои, которые трудно предвидеть, создавая риски аварий с потенциально международными последствиями, если технология не будет использоваться ответственно.
Международные и многосторонние учреждения могли бы помочь в продвижении протоколов разработки и внедрения ИИ, которые минимизируют такие риски. Например, они могли бы способствовать глобальному консенсусу в отношении угроз, которые различные возможности ИИ представляют для общества, и установить международные стандарты в отношении идентификации и обращения с моделями с опасными возможностями. Международное сотрудничество в области исследований в области безопасности также повысит нашу способность делать системы надежными и устойчивыми к неправильному использованию.
Наконец, в ситуациях, когда у государств есть стимулы (например, в результате экономической конкуренции) подрывать нормативные обязательства друг друга, международные институты могут помочь поддержать и стимулировать лучшие практики и даже контролировать соблюдение стандартов.
Четыре потенциальные институциональные модели
Мы исследуем четыре взаимодополняющие институциональные модели для поддержки функций глобальной координации и управления:
- Межправительственное Комиссия по передовому искусственному интеллекту может достичь международного консенсуса о возможностях и рисках, связанных с передовым ИИ, и о том, как ими можно управлять. Это повысит осведомленность общественности и понимание перспектив и проблем ИИ, будет способствовать научно обоснованному анализу использования ИИ и снижению рисков, а также станет источником знаний для политиков.
- Межправительственный или многосторонний Организация управления продвинутым искусственным интеллектом может помочь интернационализировать и скоординировать усилия по устранению глобальных рисков, связанных с передовыми системами искусственного интеллекта, путем установления норм и стандартов управления и оказания помощи в их реализации. Он также может выполнять функции мониторинга соблюдения любого режима международного управления.
- А Frontier AI для совместной работы может способствовать доступу к передовому искусственному интеллекту в рамках международного государственно-частного партнерства. При этом это поможет малообеспеченным обществам извлечь выгоду из передовых технологий искусственного интеллекта и будет способствовать международному доступу к технологиям искусственного интеллекта для целей безопасности и управления.
- Ан Проект безопасности искусственного интеллекта может объединить ведущих исследователей и инженеров и предоставить им доступ к вычислительным ресурсам и передовым моделям искусственного интеллекта для исследования технических средств снижения рисков, связанных с искусственным интеллектом. Это будет способствовать исследованиям и разработкам в области безопасности ИИ за счет увеличения их масштаба, ресурсов и координации.
Операционные проблемы
Остается много важных открытых вопросов относительно жизнеспособности этих институциональных моделей. Например, Комиссия по передовому ИИ столкнется с серьезными научными проблемами, учитывая крайнюю неопределенность в отношении траекторий и возможностей ИИ, а также ограниченность научных исследований по проблемам передового ИИ на сегодняшний день.
Быстрые темпы прогресса в области ИИ и ограниченный потенциал государственного сектора в решении передовых проблем ИИ также могут затруднить внедрение передовой организацией управления ИИ стандартов, соответствующих ландшафту рисков. Многие трудности международной координации поднимают вопросы о том, как страны будут заинтересованы в принятии его стандартов или принятии его мониторинга.
Аналогичным образом, многочисленные препятствия на пути общества к полному использованию преимуществ передовых систем искусственного интеллекта (и других технологий) могут помешать Frontier AI Collaborative оптимизировать свое воздействие. Также может возникнуть трудное противоречие между разделением преимуществ ИИ и предотвращением распространения опасных систем.
А для проекта AI Safety Project будет важно тщательно рассмотреть, какие элементы исследований безопасности лучше всего проводить посредством сотрудничества, а не индивидуальных усилий компаний. Более того, Проекту может быть сложно обеспечить адекватный доступ к наиболее подходящим моделям для проведения исследований безопасности от всех соответствующих разработчиков.
Учитывая огромные глобальные возможности и проблемы, которые представляют собой системы ИИ на горизонте, правительствам и другим заинтересованным сторонам необходимо более активно обсуждать роль международных институтов и то, как их функции могут способствовать управлению и координации ИИ.
Мы надеемся, что это исследование будет способствовать расширению дискуссий в международном сообществе о способах обеспечения разработки передового ИИ на благо человечества.