Исследовать
Язык и его роль в демонстрации и облегчении понимания (или интеллекта) являются фундаментальной частью человеческого бытия. Это дает людям возможность передавать мысли и концепции, выражать идеи, создавать воспоминания и укреплять взаимопонимание. Это основополагающие части социального интеллекта. Именно поэтому наши команды в DeepMind изучают аспекты обработки речи и коммуникации как у искусственных агентов, так и у людей.
Мы считаем, что в рамках более широкого портфеля исследований в области ИИ разработка и изучение более мощных языковых моделей – систем, которые предсказывают и генерируют текст – имеют огромный потенциал для создания передовых систем ИИ, которые можно безопасно и эффективно использовать для обобщения информации, предоставления экспертных знаний. советы и следуйте инструкциям на естественном языке. Разработка полезных языковых моделей требует исследования их потенциального воздействия, включая риски, которые они представляют. Это включает в себя сотрудничество между экспертами разного уровня подготовки для тщательного прогнозирования и решения проблем, которые могут создать алгоритмы обучения на существующих наборах данных.
Сегодня мы публикуем три статьи о языковых моделях, отражающих этот междисциплинарный подход. Они включают детальное изучение языковая модель преобразователя параметров с 280 миллиардами параметров, называемая Суслик, исследование этических и социальных рисков, связанных с большими языковыми моделямии документ, исследующий новую архитектуру с большей эффективностью обучения.
Gopher — языковая модель с 280 миллиардами параметров.
Стремясь исследовать языковые модели и разрабатывать новые, мы обучили серию языковых моделей-трансформеров разного размера: от 44 миллионов параметров до 280 миллиардов параметров (самую большую модель мы назвали Суслик).
В нашем исследовании изучались сильные и слабые стороны этих моделей разного размера, выявляя области, в которых увеличение масштаба модели продолжает повышать производительность — например, в таких областях, как понимание прочитанного, проверка фактов и выявление токсичного языка. Мы также выявляем результаты там, где масштаб модели не приводит к значительному улучшению результатов — например, в логических рассуждениях и задачах, основанных на здравом смысле.
В ходе нашего исследования мы обнаружили возможности Суслик превосходить существующие языковые модели для ряда ключевых задач. Сюда входит тест массового многозадачного понимания языка (MMLU), где Суслик демонстрирует значительный прогресс в области человеческой экспертной деятельности по сравнению с предыдущей работой.
А также количественная оценка Суслик, мы также исследовали модель посредством прямого взаимодействия. Среди наших ключевых выводов было то, что, когда Суслик склоняется к диалоговому взаимодействию (например, в чате), модель иногда может обеспечить удивительную связность.
Здесь Суслик может обсуждать клеточную биологию и давать правильную цитату, несмотря на отсутствие конкретной настройки диалога. Однако наше исследование также детализировало несколько режимов сбоя, которые сохраняются в моделях разных размеров, среди них тенденция к повторению, отражение стереотипных предубеждений и уверенное распространение неверной информации.
Этот тип анализа важен, потому что понимание и документирование режимов сбоя дает нам представление о том, как большие языковые модели могут привести к дальнейшему вреду, и показывает нам, на чем следует сосредоточить усилия по смягчению последствий в исследованиях для решения этих проблем.
Этические и социальные риски, связанные с моделями большого языка
В нашей второй статье мы предвидим возможные этические и социальные риски, связанные с языковыми моделями, и создаем комплексную классификацию этих рисков и способов отказа, основываясь на предыдущих исследованиях в этой области (Боммасани и др. 2021 г., Бендер и др. 2021 г., Паттерсон и др. 2021 г.). Этот систематический обзор является важным шагом на пути к пониманию этих рисков и снижению потенциального вреда. Мы представляем таксономию рисков, связанных с языковыми моделями, разбитых на шесть тематических областей, и подробно рассматриваем 21 риск.
Крайне важно иметь широкий взгляд на различные области риска: как мы показываем в статье, слишком узкое внимание к одному риску в отдельности может усугубить другие проблемы. Представленная нами таксономия служит основой для экспертов и более широкой общественной дискуссии, позволяющей составить общий обзор этических и социальных соображений языковых моделей, принять ответственные решения и обменяться подходами к борьбе с выявленными рисками.
Наше исследование показывает, что две области особенно требуют дальнейшей работы. Во-первых, нынешние инструменты сравнительного анализа недостаточны для оценки некоторых важных рисков, например, когда языковые модели выдают дезинформацию, а люди доверяют этой информации. Оценка подобных рисков требует более тщательного изучения взаимодействия человека и компьютера с языковыми моделями. В нашей статье мы перечисляем несколько рисков, которые также требуют новых или более междисциплинарных инструментов анализа. Во-вторых, необходима дополнительная работа по снижению рисков. Например, известно, что языковые модели воспроизводят вредные социальные стереотипы, но исследования этой проблемы все еще находятся на ранних стадиях, поскольку недавняя статья DeepMind показал.
Эффективное обучение с поиском информации в масштабе Интернета
Наша заключительная статья построена на основах Суслик и нашу таксономию этических и социальных рисков, предложив улучшенную архитектуру языковой модели, которая снижает затраты энергии на обучение и упрощает отслеживание результатов модели до источников в обучающем корпусе.
Преобразователь с улучшенным поиском (RETRO) предварительно обучен механизму поиска в масштабе Интернета. Вдохновленный тем, как мозг при обучении использует специальные механизмы памяти, RETRO эффективно запрашивает отрывки текста, чтобы улучшить свои прогнозы. Сравнивая сгенерированные тексты с отрывками, на которые опирался RETRO при генерации, мы можем понять, почему модель делает определенные прогнозы и откуда они взялись. Мы также видим, как модель достигает производительности, сравнимой с обычным Transformer с на порядок меньшим количеством параметров, и демонстрирует современную производительность в нескольких тестах языкового моделирования.
Идти вперед
Эти документы закладывают основу для дальнейших языковых исследований DeepMind, особенно в областях, которые будут иметь влияние на то, как эти модели оцениваются и используются. Решение этих проблем будет иметь решающее значение для обеспечения безопасного взаимодействия с агентами ИИ — от людей, сообщающих агентам, чего они хотят, до агентов, объясняющих людям свои действия. Исследования в более широком сообществе по использованию связи в целях безопасности включают в себя объяснения на естественном языке, использование коммуникации для уменьшения неопределенностии использовать язык для разделения сложных решений на части, такие как усиление, дебатыи рекурсивное моделирование вознаграждения – все критические области разведки.
Продолжая исследования языковых моделей, DeepMind будет оставаться осторожным и вдумчивым. Для этого необходимо сделать шаг назад, чтобы оценить ситуацию, в которой мы находимся, составить карту потенциальных рисков и изучить способы их смягчения. Мы будем стремиться быть прозрачными и открытыми в отношении ограничений наших моделей и будем работать над снижением выявленных рисков. На каждом этапе мы опираемся на обширный опыт наших многопрофильных команд, в том числе наших групп по языку, глубокому обучению, этике и безопасности. Этот подход является ключом к созданию крупных языковых моделей, которые служат обществу и способствуют реализации нашей миссии по решению проблемы интеллекта для развития науки и блага человечества.