Home Робототехника Модели искусственного интеллекта с открытым исходным кодом – что хочет, чтобы вы знали Национальный консультативный комитет по искусственному интеллекту США | DeepTech

Модели искусственного интеллекта с открытым исходным кодом – что хочет, чтобы вы знали Национальный консультативный комитет по искусственному интеллекту США | DeepTech

0
Модели искусственного интеллекта с открытым исходным кодом – что хочет, чтобы вы знали Национальный консультативный комитет по искусственному интеллекту США
 | DeepTech

Беспрецедентный рост искусственного интеллекта (ИИ) открыл возможности трансформации во всех сферах: от отраслей и экономики до общества в целом. Однако этот технологический скачок также создает ряд потенциальных проблем. На своем недавнем публичном заседании Национальный консультативный комитет по искусственному интеллекту (NAIAC)1который предоставляет президенту и Национальному офису инициатив в области ИИ рекомендации по конкурентоспособности искусственного интеллекта в США, науке об искусственном интеллекте и рабочей силе в области искусственного интеллекта, проголосовал за рекомендацию «Генераторный искусственный интеллект вдали от границ».2

Эта рекомендация направлена ​​на изложение рисков и предлагаемых рекомендаций по оценке и управлению внешними моделями ИИ, обычно относящимися к моделям с открытым исходным кодом. Подводя итог, можно сказать, что рекомендация NAIAC представляет собой дорожную карту для ответственного преодоления сложностей генеративного ИИ. Эта запись в блоге призвана пролить свет на эту рекомендацию и показать, как клиенты DataRobot могут активно использовать платформу для согласования своей адаптации ИИ с этой рекомендацией.

Пограничные и внеграничные модели

В рекомендации различие между передовыми и внешними моделями генеративного ИИ основано на их доступности и уровне развития. Модели Frontier представляют собой новейшие и наиболее передовые разработки в области технологий искусственного интеллекта. Это сложные системы с высокими возможностями, которые обычно разрабатываются и используются ведущими технологическими компаниями, исследовательскими институтами или специализированными лабораториями искусственного интеллекта (например, современные модели, такие как GPT-4 и Google Gemini). Из-за своей сложности и передового характера передовые модели обычно имеют ограниченный доступ – они не широко доступны и не доступны широкой публике.

С другой стороны, зарубежные модели обычно имеют неограниченный доступ — они представляют собой более широко доступные системы искусственного интеллекта, часто доступные с открытым исходным кодом. Возможно, они не обладают самыми передовыми возможностями искусственного интеллекта, но они важны из-за более широкого использования. Эти модели включают как собственные системы, так и системы искусственного интеллекта с открытым исходным кодом и используются более широким кругом заинтересованных сторон, включая небольшие компании, отдельных разработчиков и образовательные учреждения.

Это различие важно для понимания различных уровней рисков, потребностей в управлении и подходов к регулированию, необходимых для различных систем ИИ. В то время как передовые модели могут нуждаться в специализированном надзоре из-за их продвинутого характера, зарубежные модели создают другой набор проблем и рисков из-за их широкого использования и доступности.

Что охватывает рекомендация NAIAC

Рекомендация «Генераторный ИИ вдали от передовых границ», выпущенная NAIAC в октябре 2023 года, фокусируется на управлении и оценке рисков генеративных систем ИИ. В документе представлены две ключевые рекомендации по оценке рисков, связанных с генеративными системами искусственного интеллекта:

Для запатентованных моделей Off-Frontier: Он советует администрации Байдена-Харриса поощрять компании расширять добровольные обязательства.3 включить основанные на рисках оценки зарубежных генеративных систем искусственного интеллекта. Это включает в себя независимое тестирование, выявление рисков и обмен информацией о потенциальных рисках. Эта рекомендация особенно направлена ​​на то, чтобы подчеркнуть важность понимания и обмена информацией о рисках, связанных с моделями за рубежом.

Для сторонних моделей с открытым исходным кодом: Для генеративных систем ИИ с неограниченным доступом, таких как системы с открытым исходным кодом, Национальному институту стандартов и технологий (NIST) поручено сотрудничать с широким кругом заинтересованных сторон для определения соответствующих рамок для снижения рисков ИИ. В эту группу входят академические круги, гражданское общество, правозащитные организации и промышленность (если это позволяют юридические и технические возможности). Целью является разработка сред тестирования и анализа, систем измерения и инструментов для тестирования этих систем искусственного интеллекта. Это сотрудничество направлено на создание соответствующих методологий для выявления критических потенциальных рисков, связанных с этими более открыто доступными системами.

NAIAC подчеркивает необходимость понимать риски, связанные с широко доступными зарубежными генеративными системами искусственного интеллекта, которые включают как собственные системы, так и системы с открытым исходным кодом. Эти риски варьируются от получения вредоносной информации до нарушения конфиденциальности и создания вредоносного контента. В рекомендации признаются уникальные проблемы при оценке рисков в системах искусственного интеллекта с открытым исходным кодом из-за отсутствия фиксированной цели для оценки и ограничений на то, кто может тестировать и оценивать систему.

Более того, в нем подчеркивается, что исследования этих рисков требуют междисциплинарного подхода, включающего в себя идеи социальных наук, поведенческих наук и этики, для поддержки решений о регулировании или управлении. Признавая проблемы, в документе также отмечаются преимущества систем с открытым исходным кодом в демократизации доступа, стимулировании инноваций и расширении творческого самовыражения.

В отношении запатентованных систем искусственного интеллекта в рекомендации указывается, что, хотя компании могут осознавать риски, эта информация часто не передается внешним заинтересованным сторонам, включая политиков. Это требует большей прозрачности в этой области.

Регулирование генеративных моделей ИИ

В последнее время в дискуссиях о рисках ИИ доминирует дискуссия о катастрофических рисках ИИ, особенно в отношении генеративного ИИ. Это привело к призывам регулировать ИИ в попытке способствовать ответственной разработке и внедрению инструментов ИИ. Стоит изучить вариант регулирования в отношении генеративного ИИ. Есть две основные области, в которых политики могут регулировать ИИ: регулирование на уровне модели и регулирование на уровне вариантов использования.

В прогнозирующем ИИ, как правило, эти два уровня существенно перекрываются, поскольку узкий ИИ создается для конкретного варианта использования и не может быть обобщен на многие другие варианты использования. Например, модель, разработанная для выявления пациентов с высокой вероятностью повторной госпитализации, может использоваться только для этого конкретного случая использования и потребует входной информации, аналогичной той, на которой она обучалась. Однако единая модель большого языка (LLM), разновидность генеративных моделей искусственного интеллекта, может использоваться несколькими способами для обобщения карт пациентов, создания потенциальных планов лечения и улучшения общения между врачами и пациентами.

Как показано в приведенных выше примерах, в отличие от прогнозирующего ИИ, один и тот же LLM может использоваться в самых разных случаях. Это различие особенно важно при рассмотрении регулирования ИИ.

Наказание моделей ИИ на уровне разработки, особенно генеративных моделей ИИ, может помешать инновациям и ограничить полезные возможности технологии. Тем не менее, крайне важно, чтобы создатели генеративных моделей ИИ, как передовых, так и за рубежом, придерживались принципов ответственной разработки ИИ.

Вместо этого основное внимание следует уделять вреду таких технологий на уровне вариантов использования, особенно на более эффективном управлении использованием. DataRobot может упростить управление, предоставляя возможности, которые позволяют пользователям оценивать варианты использования ИИ на предмет рисков, связанных с предвзятостью и дискриминацией, токсичностью и вредом, производительностью и стоимостью. Эти функции и инструменты могут помочь организациям обеспечить ответственное использование систем искусственного интеллекта и их соответствие существующим процессам управления рисками, не подавляя инновации.

Управление и риски моделей с открытым и закрытым исходным кодом

Еще одна область, которая была упомянута в рекомендации и позже включена в недавно подписанный указ президента Байдена.4, является отсутствие прозрачности в процессе разработки модели. В системах с закрытым исходным кодом организация-разработчик может исследовать и оценивать риски, связанные с разработанными генеративными моделями ИИ. Однако информация о потенциальных рисках, результатах работы «красной команды» и внутренних оценках, как правило, не публикуется.

С другой стороны, модели с открытым исходным кодом по своей сути более прозрачны из-за их общедоступной конструкции, что облегчает выявление и исправление потенциальных проблем до развертывания. Однако обширные исследования потенциальных рисков и оценка этих моделей не проводились.

Отличительные и различающиеся характеристики этих систем подразумевают, что подходы к управлению моделями с открытым исходным кодом должны отличаться от подходов, применяемых к моделям с закрытым исходным кодом.

Избегайте переосмысления доверия между организациями

Учитывая проблемы адаптации ИИ, существует очевидная необходимость в стандартизации процесса управления ИИ, чтобы каждой организации не приходилось заново изобретать эти меры. Различные организации, включая DataRobot, разработали свою структуру для надежного ИИ.5. Правительство может помочь возглавить совместные усилия частного сектора, научных кругов и гражданского общества по разработке стандартизированных подходов к решению проблем и обеспечению надежных процессов оценки для обеспечения разработки и внедрения надежных систем искусственного интеллекта. Недавний указ о безопасной, надежной и заслуживающей доверия разработке и использовании ИИ предписывает NIST возглавить совместные усилия по разработке руководств и мер оценки для понимания и тестирования генеративных моделей ИИ. Билль о правах ИИ Белого дома и Система управления рисками ИИ NIST (RMF) могут служить основополагающими принципами и основами для ответственной разработки и внедрения ИИ. Возможности платформы DataRobot AI, согласованной с NIST AI RMF, могут помочь организациям внедрить стандартизированные практики доверия и управления. Организации могут использовать эти инструменты DataRobot для более эффективного и стандартизированного соответствия требованиям и управления рисками для генеративного и прогнозирующего ИИ.

Демо

Посмотрите платформу DataRobot AI в действии

Забронировать демо

1 Национальный консультативный комитет по искусственному интеллекту – AI.gov

2 РЕКОМЕНДАЦИИ: Генеративный ИИ вдали от передовых технологий

3 Указ о безопасной, надежной и надежной разработке и использовании искусственного интеллекта | Белый дом

4 https://www.datarobot.com/trusted-ai-101/

Об авторе

Хания Махмудян
Хания Махмудян

Глобальный специалист по этике искусственного интеллекта, DataRobot

Хания — глобальный специалист по этике искусственного интеллекта в команде DataRobot Trusted AI и член Национального консультативного комитета по искусственному интеллекту (NAIAC). Ее исследования сосредоточены на предвзятости, конфиденциальности, надежности и стабильности, а также этике в искусственном интеллекте и машинном обучении. Она имеет успешный опыт внедрения машинного обучения и искусственного интеллекта в различных отраслях и инициировала включение функций предвзятости и справедливости в продукт DataRobot. Она является идейным лидером в области предвзятости ИИ и этического ИИ. Хания имеет докторскую степень по астрономии и астрофизике, полученную в Рейнском университете имени Фридриха Вильгельма в Бонне.

Знакомьтесь, Хания Махмудиан

LEAVE A REPLY

Please enter your comment!
Please enter your name here