Беспристрастный чат-бот с искусственным интеллектом, основанный исключительно на фактах, — милая идея, но технически невозможная. (Маск еще не поделился какими-либо подробностями о том, что повлечет за собой его TruthGPT, вероятно, потому, что он слишком занят, думая о Икс и бои в клетке с Марком Цукербергом.) Чтобы понять почему, стоит прочитать историю, которую я только что опубликовал на новое исследование это проливает свет на то, как политическая предвзятость проникает в языковые системы ИИ. Исследователи провели тесты на 14 больших языковых моделях и обнаружили, что ChatGPT и GPT-4 от OpenAI были самыми левыми либертарианскими, а LLaMA от Meta — самыми правыми авторитарными.
«Мы считаем, что никакая языковая модель не может быть полностью свободна от политических предубеждений, — сказал мне Чан Парк, научный сотрудник Университета Карнеги-Меллона, участвовавший в исследовании. Подробнее здесь.
Один из самых распространенных мифы об ИИ заключается в том, что технология является нейтральной и беспристрастной. Это опасно продвигать, и это только усугубит проблему склонности людей доверять компьютерам, даже если компьютеры ошибаются. На самом деле, языковые модели ИИ отражают не только предубеждения в их обучающих данных, но и предубеждения людей, которые их создали и обучили.
И хотя хорошо известно, что данные, которые используются для обучения моделей ИИ, являются огромным источником этих предубеждений, исследование, о котором я писал, показывает, как предубеждения возникают практически на каждом этапе разработки модели, — говорит Соруш Восуги, доцент компьютерных наук. наук в Дартмутском колледже, который не участвовал в исследовании.
Предвзятость в языковых моделях ИИ — особенно сложная проблема, потому что мы не совсем понимаем, как они генерируют то, что они делают, и наши процессы для смягчения предвзятости не идеальны. Это, в свою очередь, отчасти потому, что предубеждения — это сложные социальные проблемы, не поддающиеся простому техническому решению.
Вот почему я твердо верю в честность как в лучшую политику. Подобные исследования могут побудить компании отслеживать и наносить на карту политические предубеждения в своих моделях и быть более откровенными со своими клиентами. Они могли бы, например, явно указать известные предубеждения, чтобы пользователи могли воспринимать результаты моделей с долей скептицизма.
В этом ключе ранее в этом году OpenAI сообщила мне, что разрабатывает настраиваемых чат-ботов, способных представлять различные политические взгляды и мировоззрения. Один из подходов — позволить людям персонализировать своих чат-ботов с искусственным интеллектом. Это то, на чем сосредоточилось исследование Восуги.
Как описано в рецензируемая статья, Восуги и его коллеги создали метод, похожий на алгоритм рекомендации YouTube, но для генеративных моделей. Они используют обучение с подкреплением, чтобы направлять выходные данные языковой модели ИИ, чтобы генерировать определенные политические идеологии или удалять язык ненависти.