Даже когда будут автономные роботы, все равно будет много обстоятельств, когда люди должны будут вмешаться и взять все под свой контроль. Новое программное обеспечение, разработанное учеными Университета Брауна, позволяет пользователям дистанционно управлять роботами с помощью виртуальной реальности. Это помогает пользователям погрузиться в окружение робота, несмотря на то, что они находятся далеко от них.
Программное обеспечение соединяет руки робота, а также его бортовые камеры и датчики с готовым оборудованием виртуальной реальности через Интернет. Используя карманные контроллеры, пользователи могут контролировать положение рук робота, просто двигая руками. Пользователи могут входить в металлическую оболочку робота и получать представление об окружающей среде от первого лица или ходить вокруг робота, чтобы осмотреть его — в зависимости от того, что захочет человек. Данные, передаваемые между роботом и блоком виртуальной реальности, достаточно компактны для отправки через Интернет с минимальным запаздыванием, что позволяет пользователям управлять роботами с больших расстояний.
Это может быть очень полезно в ситуациях, когда нужно сделать что-то опасное для человека. Например, использовать роботов для обезвреживания бомбы, в работе внутри поврежденного ядерного объекта, а также управлять роботизированным оружием на Международной космической станции.
Даже очень сложные роботы часто дистанционно управляются с использованием довольно простых средств: клавиатуры или что-то вроде контроллера видеоигр и двухмерного монитора.
Однако для таких вещей, как работа роботизированной руки с множеством степеней свободы, клавиатура и игровые контроллеры не очень интуитивны. Отображение трехмерной среды на двумерный экран может ограничить восприятие пространства, в котором обитает робот.
Виртуальная реальность может предложить более интуитивный и захватывающий вариант. Программное обеспечение объединяет исследовательский робот Baxter с HTC Vive, системой виртуальной
реальности, которая поставляется с ручными контроллерами. Программное обеспечение использует датчики робота для создания облачной модели самого робота и его окружения, который передается на удаленный компьютер, подключенный к Vive. Пользователи могут видеть это пространство в гарнитуре и практически ходить внутри него. В то же время пользователи видят живое видео высокой четкости с запястных камер робота для подробного просмотра задач манипуляции, которые необходимо выполнить.
Для их исследования исследователи показали, что они могут создать захватывающий опыт для пользователей, сохраняя при этом нагрузку на данные, достаточную для того, чтобы ее можно было переносить через Интернет без отвлекающего отставания. Например, пользователь из Providence, R.I., смог выполнить задачу манипулирования, укладку пластиковых стаканов один внутрь другого , используя робот в 41 милях в Кембридже, Массачусетс.
В дополнительных исследованиях 18 пользователей-новичков смогли выполнить задачу наложения чашек на 66 процентов быстрее в виртуальной реальности по сравнению с традиционным интерфейсом клавиатуры и монитора. Пользователи также сообщили, что больше захватывает виртуальный интерфейс.
В виртуальной реальности люди могут просто перемещать робота, подобно тому, как они двигают свои части тела, поэтому они могут это сделать интуитивно, на уровне своих инстинктов. Это позволяет людям сосредоточиться на проблеме или задаче, не пытаясь понять, как перемещать робота.
Исследователи планируют продолжить разработку системы. Они хотели бы попробовать более сложные задачи, а затем объединить манипуляции с навигацией. Они также хотели бы поэкспериментировать со смешанной автономией, когда робот выполняет некоторые задачи самостоятельно, а пользователь берет на себя другие задачи.