Сет, который считает, что сознательный ИИ относительно маловероятен, по крайней мере, в обозримом будущем, тем не менее беспокоится о том, какое эмоциональное значение возможность существования ИИ может означать для людей. «Это изменит то, как мы распределяем наши ограниченные ресурсы заботы о вещах», — говорит он. Это может показаться проблемой будущего. Но восприятие сознания ИИ сейчас с нами: Блейк Лемуан пошел на личный риск ради ИИ, который, как он считал, был сознательным, и потерял работу. Сколько других готовы пожертвовать временем, деньгами и личными отношениями ради безжизненных компьютерных систем?
Даже простые чат-боты могут оказывать сверхъестественное воздействие: простая программа под названием ELIZA, созданная в 1960-х годах для имитации разговорной терапии, убедила многих пользователей в том, что она способна чувствовать и понимать. Восприятие сознания и реальность сознания плохо согласованы, и это несоответствие будет только усугубляться по мере того, как системы ИИ станут способны участвовать в более реалистичных разговорах. «Мы не сможем избежать восприятия их как сознательных переживаний, точно так же, как некоторые зрительные иллюзии когнитивно непроницаемы для нас», — говорит Сет. Точно так же, как знание того, что две линии в иллюзии Мюллера-Лайера имеют одинаковую длину, не мешает нам воспринимать одну как более короткую, чем другая, знание того, что GPT не осознается, не меняет иллюзии, что вы разговариваете с человеком. быть с точкой зрения, мнениями и личностью.
В 2015 году, за несколько лет до того, как эти опасения стали актуальными, философы Эрик Швицгебель и Мара Гарза сформулировали ряд рекомендаций, призванных защитить от подобных рисков. В одной из их рекомендаций, которую они назвали «Политикой проектирования эмоционального выравнивания», утверждалось, что любой бессознательный ИИ должен быть намеренно спроектирован так, чтобы пользователи не верили, что он сознателен. Компании предприняли несколько небольших шагов в этом направлении: ChatGPT выдает жестко запрограммированное отрицание, если вы спросите его, сознательно ли он это делает. Но такие ответы мало что могут разрушить общую иллюзию.
Швицгебель, профессор философии Калифорнийского университета в Риверсайде, хочет избегать любой двусмысленности. В своей статье 2015 года он и Гарза также предложили свою «политику исключенного среднего»: если неясно, будет ли система ИИ сознательной, эту систему не следует создавать. На практике это означает, что все соответствующие эксперты должны согласиться с тем, что будущий ИИ, скорее всего, не находится в сознании (их вердикт для нынешних LLM) или, скорее всего, находится в сознании. «Чего мы не хотим, так это запутывать людей», — говорит Швицгебель.
Избегание серой зоны спорного сознания аккуратно обходит как риски нанесения вреда сознательному ИИ, так и недостатки обращения с безжизненной машиной как с сознательной. Проблема в том, что сделать это может быть нереально. Многие исследователи, такие как Руфин Ван Руллен, директор по исследованиям французского Центра научных исследований, который недавно получил финансирование для создания ИИ с глобальным рабочим пространством, сейчас активно работают над тем, чтобы наделить ИИ потенциальной основой сознания.
Обратной стороной моратория на создание потенциально сознательных систем, по словам ВанРуллена, является то, что системы, подобные той, которую он пытается создать, могут быть более эффективными, чем нынешний ИИ. «Всякий раз, когда мы разочаровываемся в текущей производительности ИИ, это всегда потому, что он отстает от того, на что способен мозг», — говорит он. «Так что моей целью не обязательно будет создание сознательного ИИ — скорее, цель многих людей, занимающихся ИИ сейчас, — двигаться к этим продвинутым способностям рассуждения». Такие расширенные возможности могут принести реальную пользу: лекарства, разработанные с помощью ИИ, уже проходят клинические испытания. Не исключено, что ИИ в серой зоне может спасать жизни.
ВанРуллен чувствителен к рискам сознательного ИИ — он работал с Лонгом и Мудриком над официальным документом об обнаружении сознания в машинах. Но именно эти риски, по его словам, делают его исследование важным. Скорее всего, сознательный ИИ сначала не возникнет в результате такого видимого, финансируемого государством проекта, как его собственный; вполне возможно, что это может занять глубокие карманы таких компаний, как Google или OpenAI. Эти компании, говорит ВанРуллен, вряд ли приветствуют этические затруднения, которые может возникнуть в результате сознательной системы. «Означает ли это, что когда это происходит в лаборатории, они просто делают вид, что этого не произошло? Означает ли это, что мы об этом не узнаем?» он говорит. «Я нахожу это весьма тревожным».
По его словам, такие учёные, как он, могут помочь снизить этот риск, лучше понимая, как работает само сознание как у людей, так и у машин. Эти знания могут затем позволить регулирующим органам более эффективно контролировать компании, которые, скорее всего, начнут заниматься созданием искусственного разума. Чем лучше мы понимаем сознание, тем меньше становится эта опасная серая зона — и тем больше у нас шансов узнать, находимся ли мы в ней или нет.
Со своей стороны, Швицгебель предпочел бы, чтобы мы вообще держались подальше от серой зоны. Но, учитывая масштабы связанной с этим неопределенности, он признает, что эта надежда, вероятно, нереалистична, особенно если сознательный ИИ в конечном итоге окажется прибыльным. И как только мы окажемся в серой зоне – когда нам нужно будет серьезно относиться к интересам существ с дискуссионным сознанием – мы будем перемещаться по еще более сложной местности, сталкиваясь с моральными проблемами беспрецедентной сложности без четкой дорожной карты, как их решить. . Исследователям, от философов до нейробиологов и компьютерщиков, предстоит взять на себя сложную задачу составления этой карты.
Грейс Хакинс — научный писатель из Сан-Франциско.