Home Технологии Гофер, этические соображения и поиск | DeepTech

Гофер, этические соображения и поиск | DeepTech

0
Гофер, этические соображения и поиск
 | DeepTech

Язык и его роль в демонстрации и облегчении понимания — или интеллекта — является фундаментальной частью человека. Это дает людям возможность сообщать мысли и концепции, выражать идеи, создавать воспоминания и строить взаимопонимание. Это основные части социального интеллекта. Вот почему наши команды в DeepMind изучают аспекты обработки речи и общения как у искусственных агентов, так и у людей.

Мы считаем, что в рамках более широкого портфеля исследований в области ИИ разработка и изучение более мощных языковых моделей — систем, которые предсказывают и генерируют текст, — имеют огромный потенциал для создания передовых систем ИИ, которые можно безопасно и эффективно использовать для обобщения информации, предоставления экспертных знаний. советы и следуйте инструкциям на естественном языке. Разработка полезных языковых моделей требует исследования их потенциального воздействия, включая риски, которые они представляют. Это включает в себя сотрудничество между экспертами с разным опытом, чтобы вдумчиво предвидеть и решать проблемы, которые могут создавать алгоритмы обучения на существующих наборах данных.

Сегодня мы публикуем три статьи о языковых моделях, которые отражают этот междисциплинарный подход. Они включают детальное изучение языковая модель преобразователя с 280 миллиардами параметров, называемая суслик, изучение этических и социальных рисков, связанных с большими языковыми моделямии документ, исследующий новую архитектуру с большей эффективностью обучения.

Gopher — языковая модель с 280 миллиардами параметров.

Стремясь изучить языковые модели и разработать новые, мы обучили серию языковых моделей-преобразователей разного размера, от 44 миллионов параметров до 280 миллиардов параметров (самая большая модель, которую мы назвали суслик).

Наше исследование изучило сильные и слабые стороны этих моделей разного размера, выделив области, в которых увеличение масштаба модели продолжает повышать производительность, например, в таких областях, как понимание прочитанного, проверка фактов и выявление токсичного языка. Мы также обнаруживаем результаты там, где масштаб модели существенно не улучшает результаты — например, в логических рассуждениях и задачах на здравый смысл.

Производительность в тесте Massive Multitask Language Understanding (MMLU) с разбивкой по категориям. Gopher улучшает предыдущую работу в нескольких категориях.

В ходе нашего исследования мы обнаружили возможности суслик превзойти существующие языковые модели для ряда ключевых задач. Сюда входит тест Massive Multitask Language Understanding (MMLU), где суслик демонстрирует значительный прогресс в производительности человека-эксперта по сравнению с предыдущей работой.

А также количественная оценка суслик, мы также исследовали модель посредством прямого взаимодействия. Среди наших ключевых выводов было то, что, когда суслик побуждается к диалоговому взаимодействию (например, в чате), модель иногда может обеспечить удивительную согласованность.

Здесь суслик может обсуждать клеточную биологию и правильно цитировать, несмотря на то, что диалог не регулируется. Однако наше исследование также детализировало несколько режимов отказа, которые сохраняются в моделях разных размеров, среди них тенденция к повторению, отражение стереотипных предубеждений и уверенное распространение неверной информации.

Этот тип анализа важен, потому что понимание и документирование режимов отказа дает нам представление о том, как большие языковые модели могут привести к последующему вреду, и показывает нам, на чем следует сосредоточить усилия по смягчению последствий в исследованиях для решения этих проблем.

Этические и социальные риски, связанные с большими языковыми моделями

В нашей второй статье мы предвидим возможные этические и социальные риски, связанные с языковыми моделями, и создаем всестороннюю классификацию этих рисков и видов отказов, основываясь на предыдущих исследованиях в этой области (Боммасани и др., 2021 г., Бендер и др. 2021, Паттерсон и др., 2021 г.). Этот систематический обзор является важным шагом на пути к пониманию этих рисков и снижению потенциального вреда. Мы представляем таксономию рисков, связанных с языковыми моделями, сгруппированных по шести тематическим областям, и подробно останавливаемся на 21 риске.

Крайне важно иметь широкое представление о различных областях риска: как мы показываем в документе, слишком узкий фокус на отдельно взятом отдельно взятом риске может усугубить другие проблемы. Представленная нами таксономия служит основой для экспертов и более широкого общественного обсуждения для построения общего обзора этических и социальных соображений по языковым моделям, принятия ответственных решений и обмена подходами к работе с выявленными рисками.

Наше исследование показывает, что две области особенно требуют дальнейшей работы. Во-первых, существующих инструментов бенчмаркинга недостаточно для оценки некоторых важных рисков, например, когда языковые модели выдают дезинформацию, и люди доверяют этой информации. Оценка подобных рисков требует более тщательного изучения взаимодействия человека и компьютера с языковыми моделями. В нашей статье мы перечисляем несколько рисков, которые также требуют новых или более междисциплинарных инструментов анализа. Во-вторых, необходимо больше работать над снижением рисков. Например, известно, что языковые модели воспроизводят вредные социальные стереотипы, но исследования этой проблемы все еще находятся на ранних стадиях, т.к. недавняя статья DeepMind показал.

Эффективное обучение с поиском в Интернете

Наша итоговая статья основана на фундаменте суслик и наша таксономия этического и социального риска, предлагая улучшенную архитектуру языковой модели, которая снижает затраты энергии на обучение и упрощает отслеживание выходных данных модели до источников в учебном корпусе.

Retrieval-Enhanced Transformer (RETRO) предварительно обучен механизму поиска в масштабе Интернета. Вдохновленный тем, как мозг полагается на специальные механизмы памяти при обучении, RETRO эффективно запрашивает фрагменты текста, чтобы улучшить свои прогнозы. Сравнивая сгенерированные тексты с отрывками, на которые опирался RETRO при генерации, мы можем понять, почему модель делает определенные прогнозы и откуда они взялись. Мы также видим, как модель достигает производительности, сравнимой с обычным Transformer, с на порядок меньшим количеством параметров, и достигает современной производительности в нескольких тестах языкового моделирования.

Идти вперед

Эти статьи предлагают основу для дальнейшего изучения языка DeepMind, особенно в областях, которые будут иметь отношение к тому, как эти модели оцениваются и развертываются. Работа в этих областях будет иметь решающее значение для обеспечения безопасного взаимодействия с агентами ИИ — от людей, говорящих агентам, что они хотят, до агентов, объясняющих свои действия людям. Исследования в более широком сообществе по использованию коммуникации в целях безопасности включают: объяснения на естественном языке, использование коммуникации для уменьшения неопределенностиа также использование языка для разделения сложных решений на такие части, как усиление, дебатыи рекурсивное моделирование вознаграждения – все критические области разведки.

Пока мы продолжаем исследования языковых моделей, DeepMind будет оставаться осторожным и вдумчивым. Это требует отступления, чтобы оценить ситуацию, в которой мы оказались, наметить потенциальные риски и изучить способы их смягчения. Мы будем стремиться быть прозрачными и открытыми в отношении ограничений наших моделей и будем работать над снижением выявленных рисков. На каждом этапе мы опираемся на обширный опыт наших междисциплинарных команд, в том числе из наших групп по языку, глубокому обучению, этике и безопасности. Этот подход является ключом к созданию больших языковых моделей, которые служат обществу, продвигая нашу миссию решения интеллекта для развития науки и на благо человечества.

LEAVE A REPLY

Please enter your comment!
Please enter your name here