Home Технологии Как мы можем воплотить человеческие ценности в ИИ? | DeepTech

Как мы можем воплотить человеческие ценности в ИИ? | DeepTech

0
Как мы можем воплотить человеческие ценности в ИИ?
 | DeepTech

Исследовать

Опубликовано
Авторы

Ясон Гэбриэл и Кевин Макки

Абстрактный заголовок трехмерных столбцов в синем градиенте.

Использование философии для определения справедливых принципов этического ИИ

Поскольку искусственный интеллект (ИИ) становится все более мощным и более глубоко интегрированным в нашу жизнь, вопросы о том, как он используется и развертывается, становятся все более важными. Какими ценностями руководствуется ИИ? Чьи это ценности? И как они выбираются?

Эти вопросы проливают свет на роль, которую играют принципы — основополагающие ценности, которые определяют большие и малые решения в области ИИ. Людям принципы помогают формировать образ жизни и наше понимание добра и зла. Что касается ИИ, они формируют его подход к ряду решений, требующих компромиссов, таких как выбор между приоритетом производительности или помощью тем, кто больше всего в ней нуждается.

В статья опубликована сегодня в Труды Национальной академии наук, мы черпаем вдохновение из философии, чтобы найти способы лучше определить принципы, определяющие поведение ИИ. В частности, мы исследуем, как концепция, известная как «завеса невежества» — мысленный эксперимент, призванный помочь выявить справедливые принципы групповых решений — может быть применена к ИИ.

В наших экспериментах мы обнаружили, что этот подход побуждал людей принимать решения, основанные на том, что они считали справедливым, независимо от того, приносило ли это им прямую выгоду или нет. Мы также обнаружили, что участники с большей вероятностью выбирали ИИ, который помогал тем, кто находился в наиболее неблагоприятном положении, когда рассуждали за завесой невежества. Эти идеи могут помочь исследователям и политикам выбрать принципы для помощника ИИ таким образом, чтобы это было справедливо для всех сторон.

Завеса незнания (справа) — метод поиска консенсуса по решению, когда в группе существуют разные мнения (слева).

Инструмент для более справедливого принятия решений

Ключевой целью исследователей ИИ было привести системы ИИ в соответствие с человеческими ценностями. Однако не существует единого набора человеческих ценностей или предпочтений для управления ИИ – мы живем в мире, где люди имеют различное происхождение, ресурсы и убеждения. Как нам следует выбирать принципы для этой технологии, учитывая столь разные мнения?

Хотя эта проблема возникла перед ИИ в последнее десятилетие, широкий вопрос о том, как принимать справедливые решения, имеет давнюю философскую историю. В 1970-х годах политический философ Джон Ролз предложил концепцию завесы невежества как решение этой проблемы. Ролз утверждал, что когда люди выбирают принципы справедливости для общества, им следует представлять, что они делают это, не зная своего конкретного положения в этом обществе, включая, например, свой социальный статус или уровень благосостояния. Без этой информации люди не могут принимать решения исходя из собственных интересов и вместо этого должны выбирать принципы, справедливые для всех участников.

Например, подумайте о том, чтобы попросить друга разрезать торт на вечеринке по случаю вашего дня рождения. Один из способов гарантировать, что размеры срезов достаточно пропорциональны, — не сообщать им, какой срез будет принадлежать им. Этот подход к сокрытию информации на первый взгляд прост, но имеет широкое применение в различных областях, от психологии до политики, помогая людям размышлять над своими решениями с менее корыстной точки зрения. Он использовался как метод достижения группового согласия по спорным вопросам, начиная от приговора и заканчивая налогообложением.

Опираясь на этот фундамент, предыдущие исследования DeepMind предположили, что беспристрастный характер завесы невежества может способствовать обеспечению справедливости в процессе приведения систем искусственного интеллекта в соответствие с человеческими ценностями. Мы разработали серию экспериментов, чтобы проверить влияние завесы невежества на принципы, которые люди выбирают для управления системой ИИ.

Максимизировать производительность или помочь наиболее обездоленным?

В онлайн-игре «сбор урожая» мы предложили участникам сыграть в групповую игру с тремя компьютерными игроками, где целью каждого игрока было собирать древесину, вырубая деревья на отдельных территориях. В каждой группе некоторым игрокам повезло, и они заняли выгодную позицию: деревья густо заселили их поле, что позволило им эффективно собирать древесину. Другие члены группы оказались в невыгодном положении: их поля были скудными, и для сбора деревьев требовалось больше усилий.

Каждой группе помогала одна система искусственного интеллекта, которая могла проводить время, помогая отдельным членам группы собирать деревья. Мы попросили участников выбрать один из двух принципов, которыми будет руководствоваться поведение ИИ-помощника. В соответствии с «принципом максимизации» помощник ИИ будет стремиться увеличить урожайность группы, концентрируясь преимущественно на более плотных полях. В соответствии с «принципом расстановки приоритетов» ИИ-помощник сосредоточится на помощи обездоленным членам группы.

Иллюстрация «игры по сбору урожая», в которой игроки (показаны красным) либо занимают густое поле, которое легче собирать (два верхних квадранта), либо разреженное поле, требующее больше усилий для сбора деревьев.

Мы поместили половину участников за завесу невежества: они столкнулись с выбором между различными этическими принципами, не зная, какая сфера деятельности будет их собственной – поэтому они не знали, насколько им выгодно или невыгодно. Остальные участники сделали выбор, зная, лучше им или хуже.

Поощрение справедливости в принятии решений

Мы обнаружили, что если участники не знали своей позиции, они последовательно отдавали предпочтение принципу расстановки приоритетов, когда ИИ-помощник помогал обездоленным членам группы. Эта закономерность последовательно проявлялась во всех пяти различных вариантах игры и пересекала социальные и политические границы: участники продемонстрировали тенденцию выбирать принцип расстановки приоритетов независимо от своей склонности к риску или своей политической ориентации. Напротив, участники, которые знали свою позицию, с большей вероятностью выбирали тот принцип, который приносил им наибольшую пользу, будь то принцип расстановки приоритетов или принцип максимизации.

Диаграмма, показывающая влияние завесы невежества на вероятность выбора принципа расстановки приоритетов, при котором помощник ИИ поможет тем, кто в худшем положении. Участники, которые не знали своей позиции, с гораздо большей вероятностью поддержали этот принцип управления поведением ИИ.

Когда мы спросили участников, почему они сделали свой выбор, те, кто не знал своей позиции, особенно склонны выражать обеспокоенность по поводу справедливости. Они часто объясняли, что для системы ИИ было правильно сосредоточиться на помощи людям, которым в группе было хуже. Напротив, участники, знающие свою позицию, гораздо чаще обсуждали свой выбор с точки зрения личной выгоды.

Наконец, после того, как игра по сбору урожая закончилась, мы предложили участникам гипотетическую ситуацию: если бы они играли в игру еще раз, на этот раз зная, что окажутся на другом поле, выбрали бы они тот же принцип, что и в первый раз. ? Нас особенно интересовали люди, которые ранее получали прямую выгоду от своего выбора, но не получили бы выгоды от того же выбора в новой игре.

Мы обнаружили, что люди, которые раньше делали выбор, не зная своей позиции, с большей вероятностью продолжали поддерживать свой принцип – даже когда знали, что он больше не будет благоприятствовать им в новой области. Это является дополнительным доказательством того, что завеса невежества способствует справедливости в принятии решений участниками, приводя их к принципам, которых они были готовы придерживаться, даже когда они больше не получали от них прямой выгоды.

Более справедливые принципы для ИИ

Технология искусственного интеллекта уже оказывает глубокое влияние на нашу жизнь. Принципы, лежащие в основе ИИ, определяют его влияние и то, как будут распределяться эти потенциальные выгоды.

В нашем исследовании рассматривался случай, когда влияние различных принципов было относительно очевидным. Так будет не всегда: ИИ применяется в ряде областей, которые часто опираются на большое количество правил, которые могут привести к сложным побочным эффектам. Тем не менее, завеса невежества потенциально может повлиять на выбор принципов, помогая гарантировать, что правила, которые мы выбираем, будут справедливы для всех сторон.

Чтобы гарантировать, что мы создаем системы искусственного интеллекта, которые принесут пользу всем, нам нужны обширные исследования с широким спектром входных данных, подходов и отзывов из разных дисциплин и общества. Завеса невежества может стать отправной точкой для выбора принципов, которым будет соответствовать ИИ. Он был эффективно развернут в других областях для выявить более беспристрастные предпочтения. Мы надеемся, что при дальнейшем исследовании и внимании к контексту это может помочь той же роли системам искусственного интеллекта, которые создаются и внедряются в обществе сегодня и в будущем.

Узнайте больше о подходе DeepMind к безопасность и этика.

LEAVE A REPLY

Please enter your comment!
Please enter your name here