Home Технологии От моторного контроля к воплощенному интеллекту | DeepTech

От моторного контроля к воплощенному интеллекту | DeepTech

0

Использование движений человека и животных для обучения роботов ведению мяча и имитация гуманоидных персонажей для переноски коробок и игры в футбол.

Гуманоидный персонаж учится преодолевать полосу препятствий методом проб и ошибок, что может привести к своеобразным решениям. Хесс и др. «Появление локомоционного поведения в богатой среде» (2017).

Пять лет назад мы взяли на себя задачу научить полностью артикулированного гуманоидного персонажа преодолевать полосы препятствий. Это продемонстрировало, чего можно достичь с помощью обучения с подкреплением (RL) путем проб и ошибок, но также выявило две проблемы в решении воплощенный интеллект:

  1. Повторное использование ранее изученного поведения: Чтобы агент «оторвался от земли», требовался значительный объем данных. Без каких-либо начальных знаний о том, какую силу прикладывать к каждому из его суставов, агент начал с случайных подергиваний тела и быстрого падения на землю. Эту проблему можно решить, повторно используя ранее изученное поведение.
  2. Идиосинкразическое поведение: Когда агент, наконец, научился преодолевать полосу препятствий, он сделал это с неестественным (хотя и забавно) модели движения, которые были бы непрактичны для таких приложений, как робототехника.

Здесь мы описываем решение обеих проблем, называемых нейронно-вероятностными двигательными примитивами (NPMP), включающее управляемое обучение с моделями движений, полученными от людей и животных, и обсуждаем, как этот подход используется в нашей работе. Бумага гуманоидного футбола, опубликовано сегодня в журнале Science Robotics.

Мы также обсудим, как этот же подход позволяет манипулировать всем телом гуманоида с помощью зрения, например, гуманоид, несущий объект, и управлять роботом в реальном мире, например, роботом, ведущим мяч.

Преобразование данных в управляемые примитивы двигателя с использованием NPMP

NPMP — это модуль управления двигателем общего назначения, который преобразует моторные намерения короткого горизонта в управляющие сигналы низкого уровня. обучен в автономном режиме или через RL путем имитации данных захвата движения (MoCap), записанных с помощью трекеров на людях или животных, выполняющих интересующие движения.

Агент учится имитировать траекторию MoCap (показана серым цветом).

Модель состоит из двух частей:

  1. Кодер, который берет будущую траекторию и сжимает ее в моторное намерение.
  2. Низкоуровневый контроллер, производящий следующее действие с учетом текущего состояния агента и этого двигательного намерения.
Наша модель NPMP сначала преобразует эталонные данные в низкоуровневый контроллер (слева). Затем этот низкоуровневый контроллер можно использовать в качестве модуля управления двигателем по принципу plug-and-play для новой задачи (справа).

После обучения низкоуровневый контроллер можно повторно использовать для изучения новых задач, где высокоуровневый контроллер оптимизирован для непосредственного вывода двигательных намерений. Это обеспечивает эффективное исследование — поскольку последовательное поведение создается даже при случайно выбранных двигательных намерениях — и ограничивает окончательное решение.

Срочная командная координация в гуманоидном футболе

Футбол был давняя проблема для исследования воплощенного интеллекта, требующего индивидуальных навыков и скоординированной командной игры. В нашей последней работе мы использовали NPMP в качестве руководства для изучения двигательных навыков.

Результатом стала команда игроков, которые прошли путь от обучения навыкам преследования мяча до обучения координации. Раньше в а исследование с простыми вариантами, мы показали, что скоординированное поведение может возникнуть в командах, конкурирующих друг с другом. NPMP позволил нам наблюдать аналогичный эффект, но в сценарии, который требовал значительно более продвинутого управления двигателем.

Агенты сначала имитируют движения футболистов, чтобы изучить модуль NPMP (вверху). Затем с помощью NPMP агенты изучают специальные футбольные навыки (внизу).

Наши агенты приобрели навыки, включая быстрое передвижение, прохождение и разделение труда, о чем свидетельствует ряд статистических данных, включая показатели, используемые в реальная спортивная аналитика. Игроки демонстрируют как подвижный высокочастотный двигательный контроль, так и долгосрочное принятие решений, предполагающее поведение товарищей по команде, что приводит к скоординированной командной игре.

Агент учится соревновательно играть в футбол, используя мультиагентный RL.


Манипуляции со всем телом и когнитивные задачи с использованием зрения

Научиться взаимодействовать с объектами с помощью рук — еще одна сложная задача управления. NPMP также может включать этот тип манипуляций со всем телом. Имея небольшое количество данных MoCap о взаимодействии с коробками, мы можем научить агента нести коробку из одного места в другое, используя эгоцентрическое видение и лишь скудный сигнал вознаграждения:

С небольшим объемом данных MoCap (вверху) наш подход NPMP может решить задачу переноски коробки (внизу).

Точно так же мы можем научить агента ловить и бросать мячи:

Имитация гуманоида, ловящего и бросающего мяч.

С помощью NPMP мы также можем решить задания в лабиринте, связанные с передвижением, восприятием и памятью:

Имитация гуманоида, собирающего синие сферы в лабиринте.

Безопасное и эффективное управление реальными роботами

NPMP также может помочь управлять настоящими роботами. Наличие хорошо отрегулированного поведения имеет решающее значение для таких действий, как ходьба по пересеченной местности или обращение с хрупкими предметами. Нервные движения могут повредить самого робота или его окружение или, по крайней мере, разрядить его аккумулятор. Поэтому значительные усилия часто вкладываются в разработку целей обучения, которые заставляют робота делать то, что мы от него хотим, при этом ведя себя безопасным и эффективным образом.

В качестве альтернативы мы исследовали возможность использования априорные данные, полученные из биологического движения может дать нам хорошо упорядоченные, естественные и многоразовые навыки движения для роботов с ногами, такие как ходьба, бег и повороты, которые подходят для развертывания на реальных роботах.

Начав с данных MoCap от людей и собак, мы адаптировали подход NPMP для обучения навыкам и контроллерам в моделировании, которое затем можно развернуть на реальных человекоподобных (OP3) и четвероногих (ANYmal B) роботах соответственно. Это позволяло пользователю управлять роботами с помощью джойстика или вести мяч в нужное место естественным и надежным способом.

Навыки передвижения для робота ANYmal изучаются, имитируя собаку MoCap.
Затем навыки передвижения можно повторно использовать для контролируемой ходьбы и ведения мяча.

Преимущества использования нейронных вероятностных двигательных примитивов

Таким образом, мы использовали модель навыков NPMP для изучения сложных задач с гуманоидными персонажами в симуляции и с реальными роботами. NPMP упаковывает низкоуровневые двигательные навыки многократно используемым образом, облегчая изучение полезного поведения, которое было бы трудно обнаружить методом неструктурированных проб и ошибок. Используя захват движения в качестве источника предварительной информации, он смещает изучение моторного контроля в сторону естественного движения.

NPMP позволяет встроенным агентам быстрее обучаться с помощью RL; научиться более естественному поведению; научиться более безопасному, эффективному и стабильному поведению, подходящему для реальной робототехники; и сочетать двигательный контроль всего тела с более долгосрочными когнитивными навыками, такими как работа в команде и координация.

Узнайте больше о нашей работе:

LEAVE A REPLY

Please enter your comment!
Please enter your name here