Home Нейронные сети Почему будет сложно сказать, станет ли когда-нибудь ИИ сознательным | DeepTech

Почему будет сложно сказать, станет ли когда-нибудь ИИ сознательным | DeepTech

0
Почему будет сложно сказать, станет ли когда-нибудь ИИ сознательным
 | DeepTech

История богата примерами людей, пытающихся вдохнуть жизнь в неодушевленные предметы, а также людей, выдающих хаки и трюки за «магию». Но это самое человеческое желание верить в наличие сознания в машинах никогда не совпадало с реальностью.

Создание сознания в системах искусственного интеллекта — мечта многих технологов. Большие языковые модели являются последним примером наших поисков умных машин, и некоторые люди (спорно) утверждают, что видели проблески сознания в разговорах с ними. Дело в том, что машинное сознание — горячо обсуждаемая тема. Многие эксперты говорят, что она обречена навсегда остаться научной фантастикой, но другие утверждают, что она уже не за горами.

В последнем выпуске MIT Technology Review нейробиолог Грейс Хакинс исследует, что исследования человеческого сознания могут рассказать нам об ИИ, а также о моральных проблемах, которые поднимет сознание ИИ. Подробнее читайте здесь.

Мы не до конца понимаем человеческое сознание, но у нейробиологов есть некоторые подсказки о том, как это проявляется в мозге, пишет Грейс. Чтобы констатировать очевидное, системы искусственного интеллекта не имеют мозга, поэтому невозможно использовать традиционные методы измерения активности мозга для выявления признаков жизни. Но у нейробиологов есть разные теории о том, как может выглядеть сознание в системах ИИ. Некоторые рассматривают это как особенность «программного обеспечения» мозга, в то время как другие более тесно связывают его с физическим оборудованием.

Были даже попытки создать тесты на сознание ИИ. Сьюзан Шнайдер, директор Центра будущего разума в Атлантическом университете Флориды, и физик из Принстона Эдвин Тернер разработали концепцию, которая требует, чтобы агент ИИ был изолирован от любой информации о сознании, которую он мог получить во время обучения, прежде чем он будет протестирован. . Этот шаг важен для того, чтобы он не мог просто повторять человеческие утверждения о сознании, которые он уловил во время обучения, как это сделала бы большая языковая модель.

Затем тестер задает ИИ вопросы, на которые тот сможет ответить только в том случае, если он сам находится в сознании. Сможет ли он понять сюжет фильма «Чумовая пятница», где мать и дочь меняются телами, а их сознание отделяется от физического тела? Может ли он уловить концепцию сновидения или даже сообщить о самом сновидении? Может ли он представить себе реинкарнацию или загробную жизнь?

Конечно, этот тест не является надежным. Для этого требуется, чтобы субъект мог использовать язык, чтобы младенцы и животные — явно сознательные существа — не прошли тест. А модели искусственного интеллекта, основанные на языке, познакомятся с концепцией сознания в огромном объеме интернет-данных, на которых они обучались.

Так как же мы на самом деле узнаем, обладает ли система ИИ сознанием? Группа нейробиологов, философов и исследователей искусственного интеллекта, в том числе лауреат премии Тьюринга Йошуа Бенджио, опубликовала белая бумага который предлагает практические способы обнаружения сознания ИИ, основанные на множестве теорий из разных областей. Они предлагают своего рода табель оценок для различных показателей, таких как гибкое достижение целей и взаимодействие с внешней средой, которые будут указывать на сознание ИИ — если теории верны. Ни одна из сегодняшних систем не отвечает каким-либо требованиям, и неясно, будут ли они когда-либо реализованы.

Вот что мы знаем. Большие языковые модели чрезвычайно хорошо предсказывают, каким должно быть следующее слово в предложении. Они также очень хорошо умеют устанавливать связи между вещами — иногда способами, которые удивляют нас и позволяют легко поверить в иллюзию, что в этих компьютерных программах могут быть искры чего-то еще. Но мы знаем удивительно мало о внутренней работе языковых моделей ИИ. Пока мы не узнаем больше о том, как и почему эти системы приходят к таким выводам, трудно сказать, что результаты моделей — это не просто причудливая математика.

LEAVE A REPLY

Please enter your comment!
Please enter your name here