RU2664841C2 - Система, способ и компьютерный программный продукт для обработки взаимодействия человекоподобного робота с человеком - Google Patents
Система, способ и компьютерный программный продукт для обработки взаимодействия человекоподобного робота с человеком Download PDFInfo
- Publication number
- RU2664841C2 RU2664841C2 RU2016144021A RU2016144021A RU2664841C2 RU 2664841 C2 RU2664841 C2 RU 2664841C2 RU 2016144021 A RU2016144021 A RU 2016144021A RU 2016144021 A RU2016144021 A RU 2016144021A RU 2664841 C2 RU2664841 C2 RU 2664841C2
- Authority
- RU
- Russia
- Prior art keywords
- robot
- stimulus
- humanoid robot
- person
- stimuli
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 230000003993 interaction Effects 0.000 title claims abstract description 37
- 238000012545 processing Methods 0.000 title claims description 27
- 230000008569 process Effects 0.000 claims abstract description 40
- 230000000694 effects Effects 0.000 claims abstract description 17
- 230000009471 action Effects 0.000 claims abstract description 6
- 230000033001 locomotion Effects 0.000 claims description 33
- 238000001514 detection method Methods 0.000 claims description 21
- 230000008447 perception Effects 0.000 claims description 10
- 230000004807 localization Effects 0.000 claims description 5
- 230000001953 sensory effect Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000001994 activation Methods 0.000 claims description 3
- 230000029058 respiratory gaseous exchange Effects 0.000 claims description 3
- 230000002085 persistent effect Effects 0.000 claims description 2
- 230000000704 physical effect Effects 0.000 claims description 2
- 230000016776 visual perception Effects 0.000 claims description 2
- 241000288105 Grus Species 0.000 abstract 1
- 239000000126 substance Substances 0.000 abstract 1
- 210000003128 head Anatomy 0.000 description 15
- 230000003213 activating effect Effects 0.000 description 9
- 230000006399 behavior Effects 0.000 description 8
- 230000008451 emotion Effects 0.000 description 7
- 238000012544 monitoring process Methods 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 5
- 241000282412 Homo Species 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 210000005069 ears Anatomy 0.000 description 2
- 210000003414 extremity Anatomy 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000013707 sensory perception of sound Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
- Toys (AREA)
Abstract
Изобретение относится к способу управления взаимодействием человекоподобного робота с человеком. Способ обеспечивает возможность систематического запоминания всех событий, обнаруженных в среде человекоподобного робота, и классификации их в качестве временных стимулов. Когда робот установлен с возможностью анализа событий, процесс обеспечивает возможность выбора одного предпочтительного стимула среди запомненных стимулов и в зависимости от текущей деятельности робота для робота генерируют одно или несколько действий. 3 н. и 12 з.п. ф-лы, 6 ил.
Description
ОБЛАСТЬ ТЕХНИКИ, К КОТОРОЙ ОТНОСИТСЯ ИЗОБРЕТЕНИЕ
Настоящее изобретение относится, в общем, к области программирования роботов и, более конкретно, к системе, способу и компьютерному программному продукту для обработки взаимодействия человекоподобного робота с человеком.
УРОВЕНЬ ТЕХНИКИ
Хотя робототехника давно применяется в промышленности и все больше становится неотъемлемой составной частью персональных услуг, человекоподобная робототехника все еще находится в начале своего развития, поскольку многие новые задачи должны быть решены для создания человекоподобных роботов, которые интегрируют человеческое поведение, чтобы стать роботами-товарищами.
Большинство известных человекоподобных роботов при взаимодействии с человеком кажутся довольно пассивными или статическими человекоподобными роботами. Они обычно отвечают стандартизированными реакциями на человеческую просьбу, имеют ограниченные упреждающие решения, что делает, в результате, взаимоотношения человек/робот менее привлекательными для пользователя.
Создание человекоподобного робота, имеющего более естественное взаимодействие с человеком, является сложной задачей, связанной с многочисленными техническими проблемами, несравнимыми с проблемами взаимодействия пользователей с обычными компьютерами общего назначения.
Среди этих проблем, неправильное восприятие человека и/или ложное обнаружение человека может привести к несоответствующим или даже опасным типам поведения робота, что, следовательно, ставит задачи обеспечения безопасности при взаимодействии человека и робота.
Таким образом, существует потребность в системах и способах, улучшающих взаимодействие человекоподобного робота с человеком. Настоящее изобретение предлагает решение для этой задачи.
СУЩНОСТЬ ИЗОБРЕТЕНИЯ
Таким образом, задачей настоящего изобретения является обеспечение системы и способа, обеспечивающих роботу возможность быть более скоординированным с человеком и действовать таким образом, как будто он/она имеет свою собственную информированность.
Для решения вышеупомянутой задачи, обеспечены система, способ и компьютерный программный продукт, дополнительно описанные в независимых пунктах 1, 13 и 14 приложенной формулы изобретения.
Конкретно, обеспечен способ, реализуемый в человекоподобном роботе, для обработки взаимодействия человекоподобного робота с человеком, причем способ содержит этапы:
- запоминания событий, обнаруживаемых в среде человекоподобного робота, в хранилище стимулов в качестве временных стимулов, по меньшей мере с указанием положения события;
- определения того, что один из временных стимулов соответствует человеческому стимулу;
- использования правил уместности для выбора одного стимула среди запомненных стимулов и упомянутого одного человеческого стимула;
- обработки упомянутого выбранного стимула в зависимости от текущей деятельности и режима контакта с человеком упомянутого человекоподобного робота; и
- в ответ на этап обработки, генерации одного или нескольких действий человекоподобного робота.
В одном варианте осуществления, события являются одним или несколькими из обнаружения перемещения, тактильного восприятия, локализации звука, обнаружения лиц, визуального восприятия, распознавания изображений.
Предпочтительно, временные стимулы сгруппированы согласно типу обнаруженного события по меньшей мере в группе стимулов перемещения, группе звуковых стимулов, группе сенсорных стимулов, группе человеческих стимулов.
В одном варианте осуществления, хранилище стимулов дополнительно содержит группу псевдостимулов для запоминания постоянных стимулов.
Предпочтительно, правила уместности используют приоритетные критерии в отношении групп стимулов и псевдостимулов.
Предпочтительно, этап определения состоит в использовании информации, обеспечиваемой двумерной камерой и/или трехмерной камерой.
В одном варианте осуществления, текущей деятельностью человекоподобного робота является отслеживание человека.
В другом варианте осуществления, этап обработки дополнительно содержит этап использования указания на положение события, соответствующего выбранному стимулу, для определения того, найден ли новый человек в области около направления стимула.
Предпочтительно, одно или несколько действий человекоподобного робота содержат активизацию элементов робота для отслеживания нового человека. Предпочтительно, одна из активизаций состоит в ориентировании датчиков в направлении положения обнаруженного стимула.
Кроме того, предпочтительно, способ дополнительно содержит этап обновления хранилища стимулов с использованием информации о положении найденного нового человека.
Предпочтительно, способ обеспечивает возможность поддержания человекоподобного робота в визуально активном состоянии, даже когда никакие стимулы не воспринимаются, посредством обеспечения возможности малых перемещений элементов робота, подобных дыханию, или использования светодиодов или воспроизведения звуков для демонстрации его/ее доступности для предстоящего взаимодействия.
Настоящее изобретение также обеспечивает систему для обработки взаимодействия человекоподобного робота с человеком. Эта система функционирует под управлением операционной системы и содержит по меньшей мере один процессор; и средство, связанное с процессором, для реализации этапов способа.
Настоящее изобретение может быть также обеспечено в виде компьютерного программного продукта, содержащего некратковременную компьютерно-читаемую запоминающую среду и программный код, запоминаемый в компьютерно-читаемой запоминающей среде и выполненный с возможностью, при исполнении, предписывать процессору выполнять этапы способа.
Дополнительные аспекты настоящего изобретения будут теперь описаны, посредством предпочтительной реализации и примеров, со ссылкой на сопутствующие чертежи.
КРАТКОЕ ОПИСАНИЕ ЧЕРТЕЖЕЙ
Вышеупомянутые и другие элементы, признаки и преимущества настоящего изобретения будут лучше понятны после прочтения нижеследующего более конкретного описания настоящего изобретения в сочетании с фигурами, в которых:
Фиг. 1 показывает общую среду для реализации системы настоящего изобретения;
Фиг. 2 является блок-схемой примерной системы взаимодействия, согласно одному варианту осуществления настоящего изобретения;
Фиг. 3 является подробной блок-схемой модуля обнаружения событий по фиг. 2, согласно одному варианту осуществления настоящего изобретения;
Фиг. 4а-4с являются блок-схемами последовательностей операций, иллюстрирующими основные этапы обработки взаимодействия с роботом согласно различным ситуациям контакта.
ПОДРОБНОЕ ОПИСАНИЕ ИЗОБРЕТЕНИЯ
Варианты осуществления настоящего изобретения описаны здесь с помощью примеров со ссылкой на сопутствующие фигуры и чертежи.
Со ссылкой сначала на фиг. 1, описана общая техническая среда для функционирования настоящего изобретения. Робот 130 содержит датчики и исполнительные механизмы. Логический модуль или «интеллектуальная логика» 100 реализована в роботе или связана с ним (например, удаленно) и содержит набор программных средств 110 и аппаратные компоненты 120.
Предпочтительный вариант осуществления человекоподобного робота для реализации настоящего изобретения полностью описан в заявке на патент, озаглавленной «Человекоподобный робот со способностью автономного функционирования» («Humanoid Robot With An Autonomous Life Capability»), поданной в тот же день Заявителем, причем интеллектуальная логика реализована в виде части операционной системы под названием NAOqi™ OS.
Робот 130 взаимодействует (посредством двунаправленных или двусторонних средств 140 связи, включающих в себя один или несколько диалоговых сеансов) с одним или несколькими пользователями 150. Упомянутые один или несколько пользователей могут осуществлять доступ к другим вычислительным устройствам 160 (например, персональному компьютеру, такому как переносной компьютер или смартфон или планшет), которые могут быть подключенными устройствами (могут иметь связь с облаком серверов и/или множеством других роботов или подключенных объектов и т.д.). Конкретно, подключенное устройство может быть переносным компьютером (например, часами, очками, шлемом с эффектом присутствия и т.д.).
Конкретный робот 130 на фигуре приведен только в качестве примера человекоподобного робота, в котором может быть реализовано настоящее изобретение. Нижняя конечность робота на фигуре не функциональна для ходьбы, но может перемещаться в любом направлении на своем основании, которое может катиться по поверхности, на которой оно находится. Настоящее изобретение может быть легко реализовано в роботе, который подходит для ходьбы.
В некоторых вариантах осуществления настоящего изобретения, робот может содержать различные виды датчиков. Некоторые из них используются для контроля положения и перемещений робота. Это имеет место в случае, например, инерциального блока, расположенного в туловище робота, содержащего трехосный гирометр и трехосный акселерометр. Робот может также включать в себя две двумерные цветные RGB-камеры на лбу робота (верхнюю и нижнюю). Трехмерный датчик может также находиться позади глаз робота. Робот может также необязательно содержать генераторы лазерных линий, например, в голове и в основании, для обеспечения возможности восприятия его относительного положения по отношению к объектам/существам в его среде. Робот может также включать в себя микрофоны для обеспечения возможности восприятия звуков в его среде. Робот настоящего изобретения может также включать в себя ультразвуковые датчики, которые могут быть расположены на передней части и на задней части его основания, для измерения расстояния до объектов/людей в его среде. Робот может также включать в себя тактильные датчики, на его голове и на его руках, для обеспечения возможности взаимодействия с людьми. Он может также включать в себя демпфер на своем основании для восприятия препятствий, которые он встречает на своем пути. Для передачи его эмоций и установления связи с людьми в его среде, робот настоящего изобретения может также включать в себя светодиоды, например, в его глазах, ушах и на его плечах, и громкоговорители (например, расположенные в его ушах). Робот может устанавливать связь с базовой станцией, с другими подключенными устройствами или с другими роботами, через различные сети (3G, 4G/LTE, Wifi, BLE, ячеистую сеть и т.д.). Робот содержит аккумуляторную батарею или источник энергии. Робот может осуществлять доступ к зарядной станции, соответствующей типу аккумуляторной батареи, которую он включает в себя. Положением/перемещениями роботов можно управлять посредством их двигателей, с использованием алгоритмов, которые активируют цепи, находящиеся в каждой конечности, и рабочие органы, находящие на конце каждой конечности, с учетом измерений датчиков.
В конкретном варианте осуществления, робот может иметь встроенный планшет, с помощью которого он может передавать сообщения (звуковые сообщения, видео, веб-страницы) в его среду или принимать вводы данных от пользователей через тактильный интерфейс планшета. В другом варианте осуществления, робот может не иметь встроенного или находящегося на нем экрана, но он может иметь видеопроектор, с помощью которого данные или информация могут быть спроецированы на поверхности вблизи робота. Упомянутые поверхности могут быть плоскими (например, пол) или неплоскими (например, деформации проекционных поверхностей могут быть скомпенсированы для получения, по существу, плоской проекции). В обоих вариантах осуществления (с экраном и/или с видеопроектором), варианты осуществления настоящего изобретения остаются допустимыми: заявленная модель взаимодействия дополняется или комплектуется только визуальным средством взаимодействия. В любом случае, независимо от того, будет ли графическое средство неисправно или будет деактивировано преднамеренно, останется диалоговый режим взаимодействия.
В одном варианте осуществления, робот не содержит такого средства графического пользовательского интерфейса. Существующие человекоподобные роботы обычно снабжены усовершенствованными речевыми возможностями но, обычно, не снабжены GUI. Все большие группы пользователей, вероятно, не будут использовать графическое средство (например, планшет, смартфон), даже в качестве дополнительного средства, для установления связи с роботом, по желанию и/или по необходимости (молодежь, инвалиды, в практической ситуации и т.д.).
Фиг. 2 обеспечивает блок-схему, которая иллюстрирует основные компоненты системы 200 обработки взаимодействия, согласно одному варианту осуществления настоящего изобретения. Система 200 обработки взаимодействия может быть выполнена с возможностью выполнения операций обработки взаимодействия человекоподобного робота с человеком в качестве реакции на обработку внешних событий, обнаруженных компонентом 202 обнаружения событий. Компонент обнаружения событий более подробно описан ниже со ссылкой на фиг. 3.
Система 200 обработки взаимодействия содержит хранилище 204 стимулов для запоминания стимулов, выданных компонентом 202 обнаружения событий. Система 200 обработки взаимодействия дополнительно содержит компонент 206 выбора стимула, связанный с базой 207 данных правил уместности, определяющей набор правил для выбора стимула, подлежащего обработке компонентом 210 обработки стимула.
Компонент 208 состояния робота связан с компонентом 210 обработки стимула для обеспечения дополнительной информации о состоянии робота, конкретно, о ситуации контакта робота. Выход компонента 210 обработки стимула связан с компонентом 212 активизации поведения робота. Компонент 212 активизации поведения робота обеспечивает возможность генерации поведения человекоподобного робота в качестве реакции на данные компонента 210 обработки стимула. Компонент 214 положения робота также является частью системы 200 для сервоуправления положением робота согласно перемещениям человека.
Как также показано на фиг. 2, система 200 обработки взаимодействия функционирует под управлением операционной системы 20 и по меньшей мере одного процессора 22. В предпочтительном варианте осуществления, операционная система является уже упомянутой NAOqi™ OS, где система обработки взаимодействия настоящего изобретения реализована в виде компонента под названием «Услуга базовой информированности», который связан с компонентом «Услуги средства извлечения». Компонент Базовой информированности конфигурируют на основе ситуации или конфигурируют посредством Непрерывной Деятельности, или он действует сам по себе.
Хранилище 204 стимулов обеспечивает возможность временного запоминания каждого стимула, который обеспечен компонентом 202 обнаружения событий, до тех пор, пока не подтвердится, что стимул исходит от человека. Для легкости описания, такой стимул, исходящий от человека, далее в настоящем описании именуется «человеческим стимулом», в то время как любой другой вид стимула именуется «нечеловеческим стимулом». Временные стимулы в хранилище организованы в группы согласно типу обнаруженного события. По существу, хранилище содержит группу стимулов перемещения, для группирования всех стимулов, принятых от любого из датчиков перемещения, группу звуковых стимулов, для группирования всех стимулов, принятых от любых звуковых датчиков, группу сенсорных стимулов, для группирования всех стимулов, принятых от любых тактильных датчиков, и группу человеческих стимулов, для группирования всех стимулов, принятых от детектора восприятия людей.
Дополнительные стимулы, которые не обеспечиваются детекторами напрямую, а являются сигналами стимулов с внутренней генерацией, также хранятся в хранилище стимулов и именуются далее «псевдостимулами». При выборе компонентом 206 выбора стимула, псевдостимул обрабатывается компонентом 210 обработки стимула.
Примерами таких псевдостимулов являются:
- «Индуцированный человеком» псевдостимул, обеспечивающий подобную информацию, что и человеческий стимул, но имеющий более высокий приоритет в правилах уместности;
- «Переустанавливающий голову» псевдостимул, используемый для переустановки головы робота в ее принимаемое по умолчанию положение. Этот псевдостимул имеет низкий приоритет в правилах уместности.
Предпочтительно, временные стимулы могут быть удалены из хранилища стимулов. В предпочтительном варианте осуществления, хранилище стимулов опустошают после обработки стимула. Однако, специалисты в данной области техники могут применить другие критерии, не выходя за рамки объема настоящего изобретения.
Компонент 206 выбора стимула обеспечивает возможность выбора стимула из хранилища стимулов, который, по всей вероятности, приведет к обнаружению человека. Правила уместности обеспечивают возможность определения более уместного стимула на основе, например, приоритетных критериев. Правила уместности могут быть предопределены или обновлены программистом в зависимости от контекста применения человекоподобного робота.
В предпочтительном варианте осуществления, приоритеты иерархически определены для групп стимулов, причем группы стимулов, связанные, по всей вероятности, с человеком, имеют более высокий приоритет, что приводит к следующему ранжированию стимулов: Индуцированный человеком стимул более высокого приоритета, далее группа человеческих стимулов, далее группа сенсорных стимулов, далее группа звуковых стимулов, далее группа стимулов перемещения, и Переустанавливающий голову стимул с низким приоритетом.
В то время как правила уместности предпочтительно определены для обнаружения человека в среде человекоподобного робота, специалисты в данной области техники могут легко разработать любые другие правила уместности, приспособленные для другого применения.
Компонент выбора стимула содержит подпрограмму программного обеспечения, основанную на правилах уместности, для сравнения стимулов одной группы и определения более уместного стимула в пределах группы. Это определение может быть основано на моменте времени, когда стимул запоминается в хранилище стимулов, или может, например, использовать последний стимул, запомненный в группе, такой как группа касаний, например. Однако, могут быть реализованы любые другие критерии определения. Например, обнаружение звука генерирует доверительный параметр, и выбор в пределах группы звуков выполняют посредством определения более высокого доверительного параметра и выбора соответствующего стимула. В качестве другого примера, определение для группы перемещений может быть основано на определении стимула перемещения, соответствующего наибольшей интересующей области.
Компонент 208 состояния робота обеспечивает возможность запоминания информации о текущем состоянии робота. Сначала, робот находится в неактивном состоянии и не осуществляет никакой деятельности. Всегда, когда робот начинает деятельность, компонент состояния робота собирает данные о текущих условиях, ситуации и контексте. Условия состояния робота в момент времени, когда выбранный стимул обрабатывается, запускают конкретный сценарий, подлежащий выполнению компонентом 210 обработки стимула и показанный в качестве примера ниже со ссылкой на фиг. 4а-4с.
Компонент 212 активизации поведения обеспечивает возможность управления физическими действиями робота для обеспечения, например:
- перемещения посредством активизации двигателей сочленений или основания робота;
- отслеживания для следования перемещению человека, находящегося в среде робота, для установления и поддержания зрительного контакта с человеком;
- включения светодиодов робота для передачи эмоций;
- динамической речи и комбинаций речи и жестов.
Вариантами поведения робота являются комбинации перемещений, слов, включений освещения, которые могут выражать эмоции робота и обеспечивать выполнение роботом сложных действий.
Как упомянуто выше, предпочтительно, настоящее изобретение обеспечивает возможность представления человекоподобного робота более интерактивным и активным, посредством модуляции положений робота, обращенных к говорящему человеку, для генерации большего интереса и убедительности во время диалога. Дополнительно, настоящее изобретение обеспечивает возможность сохранения порогового безопасного расстояния и ориентации робота для обеспечения безопасности человека. Настоящее изобретение повышает качество взаимодействия человек/человекоподобный робот и решает проблемы безопасности, возникающие между пользователем и роботом, находящимися в тесном взаимодействии, посредством обеспечения позиционирования в режиме реального времени и сохранения доверительного расстояния и направления между ними.
Для достижения этих целей, компонент 212 активизации поведения робота связан с компонентом 214 положения робота для обеспечения сервоуправления положением робота согласно перемещениям человека. Предпочтительно, человекоподобный робот способен не только следовать за перемещениями человека, но и способен принимать человеческие позы и положения, которые вызывают интерес и эмоции у человека, при сохранении в режиме реального времени безопасного расстояния и ориентации между роботом и человеком.
Компонент 214 положения робота вычисляет, в режиме реального времени, параметры положения (x,y) и ориентации (wz) человеческого тела (включая туловище и линию плеч) при взаимодействии с роботом. Компонент положения робота использует приобретение двумерных и трехмерных изображений относительно начала координат осей робота для получения ориентированного в трехмерном пространстве «двоичного объекта человека», представляющего человека, который находится во взаимодействии с роботом. Человекоподобный робот оперативно настраивает его/ее положение в режиме реального времени согласно перемещениям двоичного объекта, обеспечивая выбранное расстояние и ориентацию, которые соблюдаются с предохраняющими человека доверительными интервалами для ограничения колебаний. Доверительный интервал является порогом по амплитуде отслеживаемых перемещений, ниже которого робот может не перемещаться. Таким образом, робот будет следовать только за теми перемещениями, которые являются большими, чем пороговое значение. Обычно, порог 20 см определяют для перемещения основания робота, что означает, что человек должен переместиться по меньшей мере на 20 см для обеспечения того, чтобы робот также переместился.
Дополнительно, значения расстояния и/или ориентации и/или доверительные интервалы этих значений периодически обновляют для вынуждения робота изменять его положение в пространстве по отношению к человеку. Эти значения могут быть модифицированы либо случайным образом, либо относительно контекста текущего взаимодействия. Например, при диалоговой деятельности, посредством использования синтаксического анализа контекста диалога, эти значения адаптируют, что гарантирует, таким образом, естественные перемещения, связанные с контекстом диалога. Таким образом, человекоподобного робота регулярно приводят в движение либо в режиме функционирования с сервоуправлением в соответствии с перемещением человека, либо в вынужденном режиме, посредством изменения значений его относительного положения.
В предпочтительной реализации, принимаемые по умолчанию значения расстояния и ориентации робота при начале взаимодействия варьируются в диапазоне -65см +/- 10см вдоль оси X, 0см +/- 10см вдоль оси Y, и 0° +/- 10° Wz. Например, при использовании этих значений, при начале взаимодействия, человекоподобный робот может быть на расстоянии 62см перед человеком при угле 7° его тела относительно человека.
Еще в одном предпочтительном варианте осуществления, принимаемая по умолчанию частота изменения X-положения и/или Y-положения и/или Wz-ориентации и/или доверительных интервалов, может быть установлена равной 0,1 Гц или 0,2 Гц. По умолчанию, значение расстояния вдоль оси X может изменяться от -100см до -40см, +/-10см; значение расстояния вдоль оси Y может изменяться от -45см до +45см, +/-10см; значение ориентации может изменяться от -45° до +45° +/-10°; доверительные интервалы могут изменяться от 0,1см до 30см для расстояния, и от 0,1° до 30° для угла ориентации.
Специалисты в данной области техники могут легко разработать любые другие принимаемые по умолчанию значения, в зависимости от размеров человекоподобного робота.
Предпочтительно, режим функционирования с сервоуправлением человекоподобным роботом, посредством регулярной и непрерывной настройки положения робота относительно перемещений человека, обеспечивает возможность модуляции перемещений робота даже в непредсказуемом контексте.
Со ссылкой на фиг. 3, теперь будет описана подробная блок-схема компонента 202 обнаружения событий фиг. 2. Компонент 202 обнаружения событий содержит множество детекторов (302, 304, 306, 308, 310), обеспечивающих возможность обнаружения внешних событий в среде человекоподобного робота. Множество детекторов может быть снабжено датчиками, такими как камера, микрофон, тактильные и обонятельные датчики, например, для приема и восприятия изображений, звука, запаха, вкуса и т.д. Показания датчиков предварительно обрабатывают для извлечения уместных данных в отношении положения робота, идентификации объектов/ людей в его среде, расстояния до упомянутых объектов/ людей, слов, произнесенных людьми, или их эмоций.
Детектор 302 восприятия людей обеспечивает возможность обнаружения человека с использованием информации, обеспеченной трехмерной камерой 30 и/или двумерной камерой 32. Во время работы, изображение глубины, обеспеченное трехмерной камерой, обрабатывают для извлечения разных объектов в сцене. Результирующие объекты анализируют через последовательность фильтров для определения того, могут они или нет быть человеческими обликами. Предпочтительно, фильтры основаны на грубых геометрических характеристиках, таких как ширина и высота, или на том факте, что голова может быть отличена от тела, и т.д. Двумерную камеру (32) используют для выполнения обнаружения лиц на извлеченном объекте с использованием RGB-изображения. Выходные данные как двумерной, так и трехмерной камеры объединяют (34) в модуле слияния и обрабатывают (36) для определения того, является ли объект, извлеченный из изображения глубины, человеческим обликом. В предпочтительном варианте осуществления, фильтр Калмана используют для обработки выходных данных обеих камер. Когда достоверно обнаружено, что объект является человеком, этот объект добавляют в базу достоверных обнаружений, которые будут отслеживаться через некоторое время. Детектор восприятия людей генерирует стимулы восприятия людей, подлежащие запоминанию в группе стимулов восприятия людей в базе 204 данных стимулов.
Детектор 304 звуков обеспечивает возможность обнаружения звука около робота с использованием микрофонов, способных воспринимать звуки в его среде. После обнаружения звука, собирают подробную информацию о звуке, включающую в себя, например, уровень энергии, локализацию источника звука для обеспечения доверительного параметра в отношении точности локализации звука. Детектор звуков генерирует звуковые стимулы, подлежащие запоминанию в группе звуковых стимулов в базе 204 данных стимулов.
Тактильный детектор 306 обеспечивает возможность обнаружения удара или касания на поверхности робота с использованием тактильных датчиков. После обнаружения удара, собирают подробную информацию о природе удара. Тактильный детектор генерирует тактильные стимулы, подлежащие запоминанию в группе тактильных стимулов в базе 204 данных стимулов.
Детектор 308 перемещений обеспечивает возможность обнаружения перемещений около робота с использованием трехмерной камеры. После обнаружения перемещающегося объекта, собирают подробную информацию, включающую в себя, например, положение относительно робота, размер, и т.д. Детектор перемещений генерирует стимулы перемещения, подлежащие запоминанию в группе стимулов перемещения в базе 204 данных стимулов.
Компонент 202 обнаружения событий может содержать различные дополнительные детекторы 310 для восприятия множества событий, например, для анализа направления взгляда, лицевых характеристик (возраста, оценки половой принадлежности, «степени улыбки», положения головы, выражения лица и т.д.).
В результате, когда событие обнаружено, каждый детектор может выдать «соответствующий типу детектора» стимул с указанием на положение, из которого поступает стимул, и соответствующий стимул запоминают в соответствующей группе стимулов в базе 204 данных стимулов. Указание на положение события может быть положением, определяемым координатами (x,y,z) или может быть по меньшей мере аппроксимированным направлением на положение события с информацией об угловых координатах (тета/фи).
В предпочтительном варианте осуществления с использованием NAOqi™ OS, компонент 202 обнаружения событий является частью «Услуг средства извлечения» используемых для приема входных показаний от датчиков робота того типа, который описан в связи с фиг. 1. Некоторыми примерами Услуг средства извлечения являются: Восприятие людей, для восприятия присутствия людей вблизи робота, Обнаружение перемещения, для обнаружения перемещений этих людей, Локализация звука, для локализации звука, Обнаружение касаний, для интерпретирования касания на тактильном датчике робота, Распознавание речи, Распознавание эмоций, для идентификации эмоции, выражаемой человеком вблизи робота посредством его слов или жестов.
Фиг. 4а-4с показывают некоторые блок-схемы последовательностей операций, иллюстрирующие основные этапы различных сценариев взаимодействия, согласно разным состояниям робота.
Как упомянуто выше, сначала робот находится в неактивном состоянии. Когда он начинает отслеживать человека, говорят, что робот «контактирует» или находится в «ситуации контакта или режиме контакта» с найденным человеком - контактирующим человеком - которого он начал отслеживать. Предпочтительно, робота поддерживают в визуально активном состоянии, даже когда никакие стимулы не воспринимаются, посредством обеспечения возможности осуществления малых перемещений элементов робота, подобных дыханию, или возможности воспроизведения динамических включений светодиодов или звуков для демонстрации его/ее доступности для предстоящего взаимодействия.
Робот может прервать контакт посредством установления контакта с кем-либо еще, в зависимости от обработки стимула, или когда текущий контактирующий человек потерян. Робот может прервать его/ее текущий контакт, если обработка стимула приводит к обнаружению человека, при обработке человеческого стимула или нечеловеческого стимула в сочетании с Индуцированным человеком псевдостимулом.
В контексте настоящего изобретения, определены три режима контакта:
- режим «полного контакта»: когда робот является «полностью контактирующим», он прекращает перехват любых событий стимулов до тех пор, пока текущий контактирующий человек не будет потерян;
- режим «неконтакта»: робот может прервать текущую ситуацию контакта при обнаружении стимула;
- режим «частичного контакта»: робот все еще перехватывает стимулы, но не будет переключаться на другого человека. Если стимул перехвачен в этом режиме частичного контакта, то робот может даже просмотреть этот стимул, но всегда будет считать этот стимул недействительным и будет опять по-прежнему отслеживать контактирующего человека.
Фиг. 4а-4с показывают основные этапы обработки взаимодействия человек/человекоподобный робот, согласно разным режимам контакта. На этапе 402 инициализации, робот не отслеживает человека. Через некоторое время, робот может перейти в один из трех режимов контакта. На фиг. 4а описан режим неконтакта, и отличия от общих этапов для режимов полного контакта и частичного контакта обозначены следующим образом: «перейти на фиг. 4b или 4c», соответственно.
Этот процесс обеспечивает возможность определения на этапе 404 контента хранилища стимулов. Если хранилище является пустым (ветвь Да), то процесс обеспечивает роботу возможность ожидания первого стимула, обнаруживаемого на этапе 408, для продолжения процесса, иначе, если хранилище не является пустым (ветвь Нет), то процесс обеспечивает возможность перехода на этап 406 выбора наилучшего стимула среди стимулов в хранилище.
В зависимости от типа стимулов, выбранных либо из контента хранилища напрямую, либо из контента хранилища и из обнаруженного нового стимула, запускаются разные сценарии 410, в зависимости от текущего режима контакта робота.
Если выбран 410-1 Человеческий стимул, то процесс обеспечивает возможность определения текущего режима контакта робота:
- При нахождении в режиме неконтакта (фиг. 4а), означающем, что робот может быть отвлечен событием и может прервать свою текущую деятельность, процесс обеспечивает возможность входа в подпрограмму 412 наблюдения за положением человека. Подпрограмма наблюдения за положением человека обеспечивает возможность определения того, отслеживает ли уже робот человека или нет. Если да, то процесс обеспечивает возможность прекращения текущего отслеживания, просмотра положения нового человека посредством активизации перемещения головы и начала отслеживания 413 обнаруженного нового человека. Когда робот переходит в режим отслеживания, процесс, тогда, переходит с зацикливанием обратно к этапу 404, и, параллельно, запускается подпрограмма, которая обеспечивает возможность регулярной проверки 415 того, присутствует ли еще отслеживаемый в данный момент человек в среде робота. Если обнаружено, что этот человек больше там не находится и исчез, то подпрограмма отслеживания останавливается и Переустанавливающий голову стимул добавляется в хранилище стимулов.
- При нахождении в режиме полного контакта (фиг. 4b), означающем, что робот не может быть отвлечен никаким событием, процесс обеспечивает возможность определения 510 того, отслеживает ли уже робот человека или нет. Если да, то процесс возвращается обратно к этапу 404, иначе процесс продолжается этапом 412 с подпрограммой наблюдения за положением человека.
После выполнения подпрограммы 412, процесс обеспечивает возможность определения того, находится ли робот в режиме частичного контакта (фиг. 4с), означающем, что робот может быть отвлечен событием, но может быть привлечен обратно к своей предыдущей деятельности. Если робот уже отслеживает человека 520, то процесс продолжается на этапе 522 запуском Индуцированного человеком псевдостимула для вынуждения робота отслеживать текущего человека, и процесс переходит с зацикливанием обратно к этапу 404. Если робот уже отслеживает человека, то процесс продолжается этапом 413 посредством начала деятельности по отслеживанию обнаруженного нового человека, и процесс продолжается, как описано выше, этапами 415 и 426.
Если выбран 410-2 Нечеловеческий стимул, то процесс обеспечивает возможность определения текущего режима контакта робота:
- Если робот находится в режиме неконтакта (фиг. 4а), то процесс обеспечивает возможность входа в подпрограмму 414 наблюдения положения стимула, что обеспечивает, таким образом, ориентирование датчиков в направлении положения стимула. Подпрограмма наблюдения положения стимула обеспечивает возможность определения того, отслеживает ли уже робот человека или нет. Если да, то процесс обеспечивает возможность прекращения текущего отслеживания. Если нет, то процесс обеспечивает возможность использования указания на положение события нечеловеческого стимула посредством активизации перемещения головы для того, чтобы затем определить, найден ли человек в области около положения события.
- Если робот находится в режиме полного контакта (фиг. 4b), то процесс обеспечивает возможность определения 510 того, отслеживает ли уже робот человека или нет. Если да, то процесс переходит обратно к этапу 404, иначе процесс продолжается этапом 414 с подпрограммой наблюдения положения стимула.
После выполнения подпрограммы 414, процесс обеспечивает возможность определения того, находится ли робот в режиме частичного контакта (фиг. 4с). Если робот уже отслеживает человека 520, то процесс продолжается на этапе 522 запуском Индуцированного человеком псевдостимула для вынуждения робота отслеживать текущего человека, и процесс переходит с зацикливанием обратно к этапу 404. Если робот еще не отслеживает человека, то процесс продолжается этапом 417 посредством входа в подпрограмму проверки наличия человека в его среде.
Если человек найден 420, то процесс продолжается на этапе 422 запуском Индуцированного человеком псевдостимула для вынуждения робота отслеживать найденного нового человека, и Индуцированный человеком псевдостимул обновляют в хранилище стимулов с использованием данных вновь найденного человека. Затем, процесс переходит с зацикливанием обратно к этапу 404.
Если человек не найден на этапе 420, то процесс продолжается на этапе 424 определением того, занимался ли робот ранее деятельностью по отслеживанию. Если да, то процесс продолжается на этапе 425 запуском Индуцированного человеком псевдостимула для вынуждения робота отслеживать последнего человека, который ранее отслеживался. Индуцированные человеком псевдостимулы добавляют в хранилище стимулов с использованием данных последнего отслеженного человека. Если робот ранее не занимался деятельностью по отслеживанию, то процесс продолжается этапом 426 для запоминания Переустанавливающего голову псевдостимула в хранилище стимулов и переходит с зацикливанием обратно к этапу 404.
Альтернативно, псевдостимулы (410-3, 410-4) могут быть выбраны и обработаны для генерации действия робота.
Когда выбран Индуцированный человеком стимул 410-3, робот вынужден войти в подпрограмму 412 наблюдения за положением человека. Подпрограмма наблюдения за положением человека обеспечивает возможность определения того, отслеживает ли уже робот человека или нет. Если да, то процесс обеспечивает возможность прекращения текущего отслеживания, просмотра положения нового человека посредством активизации перемещения головы и начала новой деятельности 413 по отслеживанию обнаруженного нового человека. Если робот еще не отслеживает человека, то процесс обеспечивает роботу возможность наблюдения в направлении стимула и начала подпрограммы 413 отслеживания, как описано выше.
Когда выбран Переустанавливающий голову стимул 410-4, робот вынужден войти в подпрограмму 416 «Попытка переустановки головы», которая обеспечивает роботу возможность ожидания в течение некоторого времени, и, через некоторое время, если голова не перемещается и никакие стимулы не обработаны, то эта подпрограмма обеспечивает голове робота возможность переустановки в принимаемое по умолчанию положение. Процесс переходит с зацикливанием обратно к этапу 404.
Как описано выше, настоящее изобретение реализует информированное средство отслеживания внутри робота для обеспечения возможности более тесного взаимодействия с человеком.
Специалистам в данной области техники следует понимать, что данный вариант осуществления представлен с целью иллюстрации и описания и не претендует на исчерпывающий характер, а также не предназначен для ограничения настоящего изобретения раскрытой формой. Многие модификации и варианты будут очевидны специалистам в данной области техники. Данный вариант осуществления был выбран и описан для наилучшего разъяснения принципов настоящего изобретения, практического применения, а также для обеспечения специалистам в данной области техники возможности понимания настоящего изобретения для различных вариантов осуществления с различными модификациями, подходящими для предполагаемого конкретного применения.
Следует понимать, что хотя настоящее изобретение было конкретно показано и описано со ссылкой на предпочтительный вариант осуществления, различные изменения в форме и деталях могут быть выполнены, не выходя за рамки сущности и объема настоящего изобретения. Конкретно, настоящее изобретение хорошо подходит и легко применимо специалистами в данной области техники к роботам любых форм и размеров, которые допускают взаимодействие с человеком.
Настоящее изобретение может принимать форму компьютерного программного продукта, доступного из используемой компьютерами или компьютерно-читаемой среды, обеспечивающего программный код, используемый компьютером или любой системой исполнения команд или связанный с ними. Для целей этого описания, используемая компьютерами или компьютерно-читаемая среда может быть любым материальным устройством, которое может содержать, запоминать, передавать, распространять или транспортировать программу, используемую системой, аппаратом или устройством для исполнения команд, или связанную с ними. Эта среда может быть электронной, магнитной, оптической, электромагнитной, инфракрасной или полупроводниковой системой (или аппаратом или устройством) или средой распространения. Примеры компьютерно-читаемой среды включают в себя полупроводниковую или твердотельную память, магнитную ленту, съемную компьютерную дискету, память с произвольным доступом (RAM), постоянное запоминающее устройство (ROM), жесткий магнитный диск и оптический диск. Текущие примеры оптических дисков включают в себя компакт-диск - постоянное запоминающее устройство (CD-ROM), компакт-диск для считывания/записи (CD-R/W) и DVD.
Claims (24)
1. Способ управления взаимодействием человекоподобного робота с человеком, реализуемый в человекоподобном роботе, включающий этапы, на которых:
- обнаруживают из множества датчиков все события в окружении человекоподобного робота;
- обрабатывают каждое обнаруженное событие для запоминания события в хранилище стимулов в качестве временного стимула по меньшей мере с указанием положения события, причем временные стимулы группируются в хранилище стимулов согласно их типу, причем хранилище стимулов дополнительно запоминает постоянные стимулы, не обнаруженные посредством множества датчиков;
- обнаруживают, что человекоподобный робот входит в режим контакта, представляющий отношение отслеживания человекоподобного робота с человеком, причем текущий режим контакта является одним из режима полного контакта, режима частичного контакта и режима отсутствия контакта;
- при обнаружении нового события посредством одного из множества датчиков обрабатывают событие для определения того, исходит ли стимул от человека;
- если нет, то сохраняют человекоподобного робота в текущем режиме контакта, в ином случае:
- выбирают либо обнаруженный стимул, исходящий от человека, либо один временный или постоянный стимул, сохраненный в хранилище стимулов, в зависимости от текущего режима контакта человекоподобного робота и от правил применимости;
- обрабатывают упомянутый выбранный стимул посредством запуска подпрограммы программного обеспечения конкретного сценария, причем подпрограмма программного обеспечения зависит от текущего режима контакта человекоподобного робота и от текущей деятельности упомянутого человекоподобного робота; и
- в качестве реакции на этап обработки обновляют режим контакта человекоподобного робота посредством сохранения текущего режима контакта или входа в новый режим контакта; и
- генерируют одно или более действий человекоподобного робота в зависимости от обновленного режима контакта.
2. Способ по п. 1, в котором события, обнаруживаемые множеством датчиков, являются одним или несколькими из обнаружения перемещения, тактильного восприятия, локализации звука, обнаружения лиц, визуального восприятия, распознавания изображений.
3. Способ по п. 1 или 2, в котором временные стимулы сгруппированы согласно типу обнаруженного события по меньшей мере в группе стимулов перемещения, группе звуковых стимулов, группе сенсорных стимулов, группе человеческих стимулов.
4. Способ по п. 3, в котором правила применимости используют приоритетные критерии между временными стимулами и постоянными стимулами.
5. Способ по п. 1 или 2, в котором этап, на котором определяют, исходит ли новое событие от человека, состоит в использовании информации, обеспечиваемой двумерной камерой и/или трехмерной камерой.
6. Способ по п. 1 или 2, причем в режиме полного контакта человекоподобный робот прекращает перехват любых событий до тех пор, пока текущий контактирующий человек не будет потерян, что означает, что робот не может быть отвлечен никаким событием.
7. Способ по п. 1 или 2, причем в режиме отсутствия контакта человекоподобный робот может быть отвлечен событием и может прервать свою текущую деятельность.
8. Способ по п. 1 или 2, причем в режиме частичного контакта человекоподобный робот может быть отвлечен событием, но может быть привлечен обратно к своей предыдущей деятельности.
9. Способ по п. 1 или 2, в котором этап, на котором запускают подпрограмму программного обеспечения, дополнительно содержит этап использования указания на положение события, соответствующего выбранному стимулу, для определения того, найден ли новый человек в области около направления стимула.
10. Способ по п. 1 или 2, в котором одно или несколько физических действий человекоподобного робота содержат по меньшей мере активизацию элементов робота.
11. Способ по п. 10, в котором одна из активизаций состоит в ориентировании датчиков в направлении положения обнаруженного стимула.
12. Способ по п. 9, дополнительно содержащий этап обновления хранилища стимулов с использованием информации о положении найденного нового человека.
13. Способ по п. 1 или 2, дополнительно содержащий этап поддержания человекоподобного робота в визуально активном состоянии, даже когда никакие стимулы не воспринимаются, посредством обеспечения возможности малых перемещений элементов робота, подобных дыханию, или использования светодиодов, или воспроизведения звуков.
14. Система для управления взаимодействием человекоподобного робота с человеком, причем система функционирует под управлением операционной системы и содержит по меньшей мере один процессор для реализации этапов способа по любому из пп. 1-13.
15. Компьютерно-читаемый носитель данных, содержащий программный код, сохраненный на нем и выполненный с возможностью, при исполнении, предписывать по меньшей мере одному процессору выполнять этапы способа по любому из пп. 1-13.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14305577.0 | 2014-04-17 | ||
EP14305577.0A EP2933064A1 (en) | 2014-04-17 | 2014-04-17 | System, method and computer program product for handling humanoid robot interaction with human |
PCT/EP2015/058353 WO2015158876A1 (en) | 2014-04-17 | 2015-04-17 | System, method and computer program product for handling humanoid robot interaction with human |
Publications (3)
Publication Number | Publication Date |
---|---|
RU2016144021A3 RU2016144021A3 (ru) | 2018-05-17 |
RU2016144021A RU2016144021A (ru) | 2018-05-17 |
RU2664841C2 true RU2664841C2 (ru) | 2018-08-23 |
Family
ID=50628736
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2016144021A RU2664841C2 (ru) | 2014-04-17 | 2015-04-17 | Система, способ и компьютерный программный продукт для обработки взаимодействия человекоподобного робота с человеком |
Country Status (13)
Country | Link |
---|---|
US (1) | US10144135B2 (ru) |
EP (1) | EP2933064A1 (ru) |
JP (1) | JP6495331B2 (ru) |
KR (1) | KR102003588B1 (ru) |
CN (1) | CN106660205B (ru) |
AU (1) | AU2015248794C1 (ru) |
BR (1) | BR112016023925A2 (ru) |
CA (1) | CA2945896C (ru) |
MX (1) | MX2016013018A (ru) |
NZ (1) | NZ724839A (ru) |
RU (1) | RU2664841C2 (ru) |
SG (1) | SG11201608199UA (ru) |
WO (1) | WO2015158876A1 (ru) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017151517A (ja) * | 2016-02-22 | 2017-08-31 | 富士ゼロックス株式会社 | ロボット制御システム |
JP6726388B2 (ja) * | 2016-03-16 | 2020-07-22 | 富士ゼロックス株式会社 | ロボット制御システム |
DE112017001573B4 (de) * | 2016-03-28 | 2020-01-30 | Groove X, Inc. | Autonom agierender Roboter, der eine Begrüssungsaktion durchführt |
EP3450118A4 (en) * | 2016-04-28 | 2019-04-10 | Fujitsu Limited | ROBOT |
JP6761598B2 (ja) * | 2016-10-24 | 2020-09-30 | 富士ゼロックス株式会社 | 感情推定システム、感情推定モデル生成システム |
KR102616403B1 (ko) | 2016-12-27 | 2023-12-21 | 삼성전자주식회사 | 전자 장치 및 그의 메시지 전달 방법 |
US10678338B2 (en) | 2017-06-09 | 2020-06-09 | At&T Intellectual Property I, L.P. | Determining and evaluating data representing an action to be performed by a robot |
WO2018233856A1 (en) * | 2017-06-19 | 2018-12-27 | Zhongrui Funing Robotics (Shenyang) Co. Ltd | METHOD FOR CONTROLLING ACTIVITIES OF A ROBOT |
WO2019087484A1 (ja) * | 2017-10-30 | 2019-05-09 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2020017206A (ja) * | 2018-07-27 | 2020-01-30 | ソニー株式会社 | 情報処理装置、行動決定方法及びプログラム |
US10969763B2 (en) * | 2018-08-07 | 2021-04-06 | Embodied, Inc. | Systems and methods to adapt and optimize human-machine interaction using multimodal user-feedback |
JP7374581B2 (ja) * | 2018-10-01 | 2023-11-07 | カシオ計算機株式会社 | ロボット、画像処理方法及びプログラム |
US11557297B2 (en) | 2018-11-09 | 2023-01-17 | Embodied, Inc. | Systems and methods for adaptive human-machine interaction and automatic behavioral assessment |
JP6886130B2 (ja) * | 2019-08-12 | 2021-06-16 | 学校法人拓殖大学 | 感性情報を用いたリハビリテーション支援ロボット |
KR20190116190A (ko) * | 2019-09-23 | 2019-10-14 | 엘지전자 주식회사 | 로봇 |
CN115052717A (zh) * | 2020-02-17 | 2022-09-13 | 香港理工大学 | 便于老人训练和治疗的治疗机器人 |
CN113084814B (zh) * | 2021-04-13 | 2022-05-10 | 中国科学院自动化研究所 | 基于分布位置优化实现肌肉骨骼机器人运动控制的方法 |
KR20240148582A (ko) | 2023-04-04 | 2024-10-11 | 주식회사 렌쥴리에듀테인먼트 | 특정 프로그램으로 다종 인공지능 휴머노이드 로봇을 제어하는 시스템 및 그 운용방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040015265A1 (en) * | 2002-03-18 | 2004-01-22 | Yasuharu Asano | Robot apparatus and method for controlling the operation thereof |
US20040117063A1 (en) * | 2001-10-22 | 2004-06-17 | Kohtaro Sabe | Robot apparatus and control method thereof |
US20040199292A1 (en) * | 2003-04-01 | 2004-10-07 | Yoshiaki Sakagami | Apparatus, process, and program for controlling movable robot control |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3843740B2 (ja) * | 2001-03-09 | 2006-11-08 | 独立行政法人科学技術振興機構 | ロボット視聴覚システム |
US6967455B2 (en) * | 2001-03-09 | 2005-11-22 | Japan Science And Technology Agency | Robot audiovisual system |
JP4689107B2 (ja) * | 2001-08-22 | 2011-05-25 | 本田技研工業株式会社 | 自律行動ロボット |
JP4239635B2 (ja) * | 2003-03-20 | 2009-03-18 | ソニー株式会社 | ロボット装置、その動作制御方法、及びプログラム |
JP4048492B2 (ja) * | 2003-07-03 | 2008-02-20 | ソニー株式会社 | 音声対話装置及び方法並びにロボット装置 |
JP4244812B2 (ja) * | 2004-01-16 | 2009-03-25 | ソニー株式会社 | 行動制御システム及びロボット装置の行動制御方法 |
US8488023B2 (en) * | 2009-05-20 | 2013-07-16 | DigitalOptics Corporation Europe Limited | Identifying facial expressions in acquired digital images |
EP2281667B1 (en) * | 2005-09-30 | 2013-04-17 | iRobot Corporation | Companion robot for personal interaction |
US8849691B2 (en) * | 2005-12-29 | 2014-09-30 | Microsoft Corporation | Modeling user input and interaction in workflow based applications |
US8909370B2 (en) * | 2007-05-08 | 2014-12-09 | Massachusetts Institute Of Technology | Interactive systems employing robotic companions |
EP2031517A1 (en) * | 2007-08-28 | 2009-03-04 | Toyota Motor Europe NV | Methods and systems for data processing and their applications |
JP5751610B2 (ja) * | 2010-09-30 | 2015-07-22 | 学校法人早稲田大学 | 会話ロボット |
US8818556B2 (en) * | 2011-01-13 | 2014-08-26 | Microsoft Corporation | Multi-state model for robot and user interaction |
US9044863B2 (en) * | 2013-02-06 | 2015-06-02 | Steelcase Inc. | Polarized enhanced confidentiality in mobile camera applications |
JP6662773B2 (ja) * | 2013-08-02 | 2020-03-11 | ソウル マシーンズ リミティド | 神経行動学的アニメーションのためのシステム |
US9358685B2 (en) * | 2014-02-03 | 2016-06-07 | Brain Corporation | Apparatus and methods for control of robot actions based on corrective user inputs |
-
2014
- 2014-04-17 EP EP14305577.0A patent/EP2933064A1/en not_active Withdrawn
-
2015
- 2015-04-17 CA CA2945896A patent/CA2945896C/en not_active Expired - Fee Related
- 2015-04-17 RU RU2016144021A patent/RU2664841C2/ru not_active IP Right Cessation
- 2015-04-17 JP JP2016562751A patent/JP6495331B2/ja not_active Expired - Fee Related
- 2015-04-17 NZ NZ724839A patent/NZ724839A/en not_active IP Right Cessation
- 2015-04-17 BR BR112016023925A patent/BR112016023925A2/pt not_active IP Right Cessation
- 2015-04-17 MX MX2016013018A patent/MX2016013018A/es unknown
- 2015-04-17 US US15/129,401 patent/US10144135B2/en not_active Expired - Fee Related
- 2015-04-17 CN CN201580020082.9A patent/CN106660205B/zh not_active Expired - Fee Related
- 2015-04-17 AU AU2015248794A patent/AU2015248794C1/en not_active Ceased
- 2015-04-17 WO PCT/EP2015/058353 patent/WO2015158876A1/en active Application Filing
- 2015-04-17 KR KR1020167032128A patent/KR102003588B1/ko active IP Right Grant
- 2015-04-17 SG SG11201608199UA patent/SG11201608199UA/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040117063A1 (en) * | 2001-10-22 | 2004-06-17 | Kohtaro Sabe | Robot apparatus and control method thereof |
US20040015265A1 (en) * | 2002-03-18 | 2004-01-22 | Yasuharu Asano | Robot apparatus and method for controlling the operation thereof |
US20040199292A1 (en) * | 2003-04-01 | 2004-10-07 | Yoshiaki Sakagami | Apparatus, process, and program for controlling movable robot control |
Also Published As
Publication number | Publication date |
---|---|
AU2015248794C1 (en) | 2018-02-15 |
WO2015158876A1 (en) | 2015-10-22 |
US10144135B2 (en) | 2018-12-04 |
AU2015248794B2 (en) | 2017-11-16 |
CA2945896A1 (en) | 2015-10-22 |
CN106660205A (zh) | 2017-05-10 |
AU2015248794A1 (en) | 2016-10-20 |
CA2945896C (en) | 2019-01-15 |
MX2016013018A (es) | 2017-05-30 |
US20170100842A1 (en) | 2017-04-13 |
SG11201608199UA (en) | 2016-10-28 |
RU2016144021A3 (ru) | 2018-05-17 |
BR112016023925A2 (pt) | 2017-08-15 |
EP2933064A1 (en) | 2015-10-21 |
KR102003588B1 (ko) | 2019-07-24 |
NZ724839A (en) | 2018-01-26 |
JP6495331B2 (ja) | 2019-04-03 |
JP2017513724A (ja) | 2017-06-01 |
KR20170029409A (ko) | 2017-03-15 |
CN106660205B (zh) | 2019-12-06 |
RU2016144021A (ru) | 2018-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2664841C2 (ru) | Система, способ и компьютерный программный продукт для обработки взаимодействия человекоподобного робота с человеком | |
KR101982420B1 (ko) | 충돌 검출 | |
US10628714B2 (en) | Entity-tracking computing system | |
US11010601B2 (en) | Intelligent assistant device communicating non-verbal cues | |
US10583559B2 (en) | Humanoid robot with an autonomous life capability | |
US20170113348A1 (en) | Activity monitoring of a robot | |
EP3051810B1 (en) | Surveillance | |
US11154991B2 (en) | Interactive autonomous robot configured for programmatic interpretation of social cues | |
KR102071116B1 (ko) | 휴머노이드 로봇의 대기 모드 | |
KR102639904B1 (ko) | 공항용 로봇 및 그의 동작 방법 | |
WO2019088990A1 (en) | Control system for mobile robots | |
CN111919250B (zh) | 传达非语言提示的智能助理设备 | |
Latif et al. | Fusion of automation and teleoperation for person-following with mobile robots | |
CN118355354A (zh) | 人工现实设备头戴式装置戴上和脱下检测 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | The patent is invalid due to non-payment of fees |
Effective date: 20200418 |