В университет Брауна, ученые в лаборатории Стефани Tellex’ы работают над тем, чтобы помочь роботам с искусственным интеллектом более точно взаимодействовать с людьми. При включении робота модель начинает путаться в интерактивной объект-выборке задач, чтобы лучше понять поступающую информацию, робот начинает задавать дополнительные вопросы
Например вы просите робота или человека принести вам предмет, это простая задача для выполнения, если объект (исполняющий) является уникальным в некотором роде, и более сложная задача для выполнения, если она включает в себя несколько подобных объектов. Скажем, вы механик, и вам нужен помощник, чтобы подать инструмент. Вы можете указывать на полку где лежит нужный инструмент и сказать: «принеси мне этот инструмент». Ваш помощник, если они человек, начнет смотреть туда, куда вы указываете, и если там немного инструментов, то он, вероятно, сможет определить, какой инструмент вы имеете в виду. Но если на полке большое количество разнообразных инструментов которые к тому же могут быть похожи, ваш помощник, возможно, не сможет точно определить, какой инструмент вам нужен, поэтому он попытается уточнить, возможно, указывая на инструмент, и говорить: «это тот инструмент, который тебе нужен?»
Чтобы быть полезным в таких ситуациях, ваш помощник должен иметь представление о неоднозначности и неопределенности: он должен быть в состоянии говорить, когда он обладает достаточной информации или когда информации для решения задачи недостаточно, а потом принять нужные меры. Для роботов-помощников, это значительно более сложная проблема, чем для человека помощника, связано это с социальными составляющими. Жесты, взгляд, язык и подсказки, это все приемы, которые люди используют для передачи информации, роботы, как правило, очень плохо передают информацию.
В университете Брауна, придумали систему под названием «Обратная связь для совместной передачи частично наблюдаемого процесса принятия решений Маркова» (FETCH-POMDP). Эта система в состоянии понять смысл простых жестов, и объединять эти значения с тем, какие жесты показывает человек, чтобы улучшить свое понимание того, чего от него хочет человек.
Чтобы проверить FETCH-POMDP систему, исследователи попросили людей, которые понятия не имеют, что происходит, попросить робота Бакстер подать какой-нибудь предмет. Треть времени, робот не задавал никаких вопросов; вторую треть времени, робот задавал уточняющие вопросы; и последнюю, треть. часть времени, робот только задавал вопросы, считая что нужны еще дополнительные вопросы. Исследователи ожидали, что робот не будет задавать так много вопросов. Это происходит потому, что взаимодействие человека и робота-это лажа: люди задают вопросы которые приводят к ошибкам транскрипции, например человек скажет «да», а робот услышит «рука», поэтому вопросы постоянно приводили робота к путанице.
В ходе разбирательств, многие Пользователи используют сложные предложения, чтобы описать предметы, такие как «дай мне ложку слева от чаши.» Хотя языковая модель в данном работе не учитывает ссылочные ключевые слова. Это объясняет, почему многие пользователи сообщали, что робот их не понимает. Есть методы, позволяющие интерпретировать референциальный язык, но проблемы в понимании все-таки происходят. Наша модель поможет исправить эти ошибки, независимо от конкретного метода оценивания состояния и понимания языка.
Исследователи планируют обновить свою модель, которая будет включать такие нововведения, как отслеживание глаз для улучшения точности.