JP6793905B2 - Robot behavior simulation device - Google Patents

Robot behavior simulation device Download PDF

Info

Publication number
JP6793905B2
JP6793905B2 JP2016061119A JP2016061119A JP6793905B2 JP 6793905 B2 JP6793905 B2 JP 6793905B2 JP 2016061119 A JP2016061119 A JP 2016061119A JP 2016061119 A JP2016061119 A JP 2016061119A JP 6793905 B2 JP6793905 B2 JP 6793905B2
Authority
JP
Japan
Prior art keywords
robot
behavior
human
simulation
agent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016061119A
Other languages
Japanese (ja)
Other versions
JP2017170584A (en
Inventor
神田 崇行
崇行 神田
聡 佐竹
聡 佐竹
ドラジェン ブルシュチッチ
ドラジェン ブルシュチッチ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2016061119A priority Critical patent/JP6793905B2/en
Publication of JP2017170584A publication Critical patent/JP2017170584A/en
Application granted granted Critical
Publication of JP6793905B2 publication Critical patent/JP6793905B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

この発明はロボットの行動シミュレーション装置に関し、特にたとえば、人共存環境において活動するロボットの行動シミュレーション装置に関する。 The present invention relates to a robot behavior simulation device, and more particularly to, for example, a robot behavior simulation device operating in a human coexistence environment.

従来のこの種のシミュレーション装置の一例が特許文献1に開示されている。この特許文献1には、人体の位置に応じて立ち入り禁止空間を設定できるようなロボットシミュレータが開示されている。 An example of a conventional simulation device of this type is disclosed in Patent Document 1. Patent Document 1 discloses a robot simulator that can set an off-limits space according to the position of a human body.

さらに、非特許文献1‐3でも、この種の従来のシミュレーション装置が開示されている。これらの非特許文献1‐3のシミュレーション装置では、シミュレータ内の人をキーボードで操作して動かす。 Further, Non-Patent Document 1-3 also discloses a conventional simulation device of this type. In these simulation devices of Non-Patent Documents 1-3, a person in the simulator is operated and moved by a keyboard.

特開2009-90400号[B25J 19/06、 13/08 G05B 19/4061、 19/18]Japanese Patent Application Laid-Open No. 2009-90400 [B25J 19/06, 13/08 G05B 19/4061, 19/18] G. Echeverria and N. Lassabe and A. Degroote and S. Lemaignan、 Modular OpenRobots Simulation Engine: MORSE、 Proceedings of the IEEE ICRA、 2011.G. Echeverria and N. Lassabe and A. Degroote and S. Lemaignan, Modular OpenRobots Simulation Engine: MORSE, Proceedings of the IEEE ICRA, 2011. G. Echeverria、 et al.、 Simulating Complex Robotic Scenarios with MORSE、 SIMPAR2012、 pp. 197-208、 2012.G. Echeverria, et al., Simulating Complex Robotic Scenarios with MORSE, SIMPAR2012, pp. 197-208, 2012. https://www.openrobots.org/wiki/morse/https://www.openrobots.org/wiki/morse/

特許文献1および非特許文献1‐3のいずれのロボットシミュレータにおいても、人は「ヒトの形をしたモノ」として扱われているだけで、人の行動は考慮されていないので、コミュニケーションロボットのような人共存環境で活動するロボットのシミュレーション装置としては不十分であった。 In both the robot simulators of Patent Document 1 and Non-Patent Document 1-3, human beings are treated only as "human-shaped objects" and human behavior is not considered, so they are like communication robots. It was insufficient as a simulation device for robots operating in a human coexistence environment.

それゆえに、この発明の主たる目的は、新規な、ロボットの行動シミュレーション装置を提供することである。 Therefore, the main object of the present invention is to provide a novel robot behavior simulation device.

この発明の他の目的は、人の行動を考慮する、ロボットの行動シミュレーション装置を提供することである。 Another object of the present invention is to provide a robot behavior simulation device that considers human behavior.

本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。 The present invention has adopted the following configuration in order to solve the above problems. The reference numerals and supplementary explanations in parentheses indicate the correspondence with the embodiments described later in order to help the understanding of the present invention, and do not limit the present invention in any way.

第1の発明は、コミニュケーションロボットのように人と共存する環境で活動するロボットの仮想シミュレーション空間における行動を、ロボット行動決定プログラムに従ってシミュレーションする、ロボットの行動シミュレーション装置であって、前記仮想シミュレーション空間における人エージェントの位置を示す位置データを提示する人エージェント位置提示部、前記仮想シミュレーション空間におけるロボットの位置を示す位置データを提示するロボット位置提示部、ロボットが視野に入ったとき人が執る行動パターンを予め設定している対ロボット行動パターンデータベース、前記人エージェント位置提示部で提示される人エージェントの位置データに従って、前記仮想シミュレーション空間内において1または複数の人エージェントを生成する人エージェント生成部、ロボット位置提示部で提示されるロボットの位置データに従った前記仮想シミュレーション空間における現在のロボットの位置、ならびに前記人エージェント位置提示部が提示する位置データに従った前記仮想シミュレーション空間における前記人エージェントの位置および前記対ロボット行動パターンデータベースが示す行動パターンのデータに基づいて、次のステップでの当該人エージェントの行動を決定する人エージェント行動決定部、および記仮想シミュレーション空間内における次のステップでの前記ロボットの行動を前記ロボット行動決定プログラムに従って決定するロボット行動シミュレーション部を備える、ロボットの行動シミュレーション装置である。 The first invention is a robot behavior simulation device that simulates behavior in a virtual simulation space of a robot that operates in an environment coexisting with humans, such as a communication robot, according to a robot behavior determination program, in the virtual simulation space. A human agent position presentation unit that presents position data indicating the position of a human agent, a robot position presentation unit that presents position data indicating the position of a robot in the virtual simulation space, and an action pattern that a person takes when the robot enters the field of view. A human agent generation unit and a robot position that generate one or more human agents in the virtual simulation space according to a preset anti-robot behavior pattern database and human agent position data presented by the human agent position presentation unit. The current robot position in the virtual simulation space according to the robot position data presented by the presentation unit , and the position of the person agent in the virtual simulation space according to the position data presented by the person agent position presentation unit. based on the data of the action pattern indicated by the pair robot behavior pattern database, the robot at the next step in the human agent action determining unit that determines the behavior of the person agent in the next step, and before Symbol virtual simulation space This is a robot behavior simulation device including a robot behavior simulation unit that determines the behavior of the robot according to the robot behavior determination program .

第1の発明では、シミュレーション装置(10:実施例において相当する部分を例示する参照符号。以下、同様。)は、人と共存する環境で活動するたとえばコミニュケーションロボットのようなロボットの仮想シミュレーション空間(200)における行動を、ロボット行動決定プログラムに従ってシミュレーションする。シミュレーション装置(10)は、仮想シミュレーション空間における人エージェントの位置を示す位置データを提示する人エージェント位置提示部(20)、仮想シミュレーション空間におけるロボットの位置を示す位置データを提示するロボット位置提示部(20)、およびロボットが視野に入ったとき人が執る行動パターンを予め設定している対ロボット行動パターンデータベース(16)を備える。人エージェント生成部(18、S3)を含み、この人エージェント生成部は、人エージェント位置提示部で提示される人エージェントの位置データに従って、仮想シミュレーション空間(200)内において1または複数の人エージェントを生成する。人エージェント行動決定部(18、S5)は、ロボット位置提示部で提示されるロボットの位置データに従った仮想シミュレーション空間における現在のロボットの位置、ならびに人エージェント位置提示部が提示する位置データに従った仮想シミュレーション空間における人エージェントの位置および対ロボット行動パターンデータベースが示す行動パターンのデータに基づいて、次のステップでの人エージェントの行動を決定する。ロボット行動シミュレーション部(22、S7)は、ロボット行動決定プログラム(24)に従って、仮想シミュレーション空間内における次のステップでのロボットの行動を決定する。そして、ロボット行動決定プログラム(24)は、必要な場合、シミュレーション装置(10)によるシミュレーション結果に従って手直しされる。 In the first invention, the simulation device (10: a reference code exemplifying a corresponding portion in the embodiment; the same applies hereinafter) is a virtual simulation space ( 10: a virtual simulation space of a robot such as a communication robot that operates in an environment coexisting with humans). The behavior in 200) is simulated according to the robot action determination program . The simulation device (10) includes a human agent position presentation unit (20) that presents position data indicating the position of the human agent in the virtual simulation space, and a robot position presentation unit (20) that presents position data indicating the position of the robot in the virtual simulation space. 20), and an anti-robot behavior pattern database (16) in which the behavior patterns that a person takes when the robot enters the field of view are preset. A human agent generation unit (18, S3) is included, and this human agent generation unit generates one or more human agents in the virtual simulation space (200) according to the position data of the human agent presented by the human agent position presentation unit. Generate. The human agent action determination unit (18, S5) follows the current robot position in the virtual simulation space according to the robot position data presented by the robot position presentation unit , and the position data presented by the human agent position presentation unit. Based on the position of the human agent in the virtual simulation space and the behavior pattern data shown by the robot behavior pattern database, the behavior of the human agent in the next step is determined. The robot behavior simulation unit (22, S7) determines the robot behavior in the next step in the virtual simulation space according to the robot behavior determination program (24). Then, the robot action determination program (24) is modified according to the simulation result by the simulation device (10), if necessary.

第1の発明によれば、仮想シミュレーション空間において、ロボットの周囲の人の行動を再現するようにシミュレーションを行うことにより、ロボットの行動をシミュレーションできるので、ロボットを実空間で実際に動かすことなく、ロボットの行動決定プログラムの開発を効率的に行うことができる。 According to the first invention, the behavior of the robot can be simulated by performing the simulation so as to reproduce the behavior of the people around the robot in the virtual simulation space, so that the robot does not actually move in the real space. It is possible to efficiently develop a robot action decision program.

第2の発明は、第1の発明に従属し、仮想シミュレーション空間に投入する人エージェントのための大人、子供、男性、女性などの人のパターンを予め登録した人パターンデータベースをさらに備え、人エージェント生成部は、人パターンデータベースから与えられた人パターンの人エージェントを生成する、ロボットの行動シミュレーション装置である。 The second invention is subordinate to the first invention, and further includes a person pattern database in which patterns of people such as adults, children, men, and women for a person agent to be input to the virtual simulation space are registered in advance, and the person agent. The generation unit is a robot behavior simulation device that generates a human agent with a human pattern given from a human pattern database.

第2の発明では、人パターンデータベース(14)は、人の形状、すなわち大人、子供、男性、女性などの人の形状(パターン)を予め設定している。このデータベース(14)から与えられる人パターンに従って、人エージェントを仮想シミュレーション空間内に生成する。 In the second invention, the person pattern database (14) presets the shape of a person, that is, the shape (pattern) of a person such as an adult, a child, a man, or a woman. A human agent is generated in the virtual simulation space according to the human pattern given from this database (14).

第2の発明によれば、仮想シミュレーション空間内に多様なパターンの人エージェントを投入することができる。 According to the second invention, various patterns of human agents can be introduced into the virtual simulation space.

第3の発明は、第1または第2の発明に従属し、物理的な法則に従って各エージェントの行動を実現する物理エンジン部をさらに備える、ロボットの行動シミュレーション装置である。 The third invention is a robot behavior simulation device that is subordinate to the first or second invention and further includes a physics engine unit that realizes the behavior of each agent according to a physical law.

第3の発明では、物理エンジン部(26)によって、物理的な法則、あるいは物理的な力に従って各エージェントの行動を実現する。たとえば、他の障害物、構造物や他のエージェントとの干渉が何もなければ、各エージェントは意図したとおりの行動を実現し、干渉が生じれば、物理学法則(力学法則)に従って各エージェントの実際の動きが処理される。 In the third invention, the physics engine unit (26) realizes the behavior of each agent according to a physical law or a physical force. For example, if there is no interference with other obstacles, structures or other agents, each agent will behave as intended, and if interference occurs, each agent will follow the laws of physics (law of mechanics). The actual movement of is processed.

第3の発明によれば、矛盾しないシミュレーション結果が得られる。
第4の発明は、第3の発明に従属し、物理エンジン部による各エージェントの行動に従って、仮想シミュレーション空間に配置されているセンサのシミュレーションを実行してセンサ値を保存するセンサ出力シミュレーション部をさらに備える、ロボットの行動シミュレーション装置である。
第4の発明では、センサ出力シミュレーション部(28)は、仮想シミュレーション空間(200)に配置されている画像センサや距離センサのシミュレーションを実行する。
According to the third invention, consistent simulation results can be obtained.
The fourth invention is subordinate to the third invention, and further comprises a sensor output simulation unit that executes a simulation of sensors arranged in a virtual simulation space and saves sensor values according to the actions of each agent by the physics engine unit. It is a robot behavior simulation device.
In the fourth invention, the sensor output simulation unit (28) executes simulation of an image sensor or a distance sensor arranged in the virtual simulation space (200).

この発明によれば、ロボットの周囲の人の行動を再現するようにシミュレーションを行うことにより、ロボットの行動をシミュレーションできるので、ロボットを実空間で実際に動かすことなく、人と共存する実空間で活動するロボットの行動決定プログラムの開発を効率的に行うことができる。 According to the present invention, the behavior of the robot can be simulated by simulating the behavior of the person around the robot, so that the robot does not actually move in the real space and coexists with the person in the real space. It is possible to efficiently develop an action decision program for an active robot.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above-mentioned object, other object, feature and advantage of the present invention will become more apparent from the detailed description of the following examples made with reference to the drawings.

図1はこの発明の一実施例のシミュレーション装置を示すブロック図である。FIG. 1 is a block diagram showing a simulation apparatus according to an embodiment of the present invention. 図2はこの発明が適用されるロボットの一例を示す図解図である。FIG. 2 is an illustrated diagram showing an example of a robot to which the present invention is applied. 図3は図2に示すロボットの電気的な構成を示すブロック図である。FIG. 3 is a block diagram showing an electrical configuration of the robot shown in FIG. 図4は人エージェントのロボットに対する行動モデルの一例を示す図解図である。FIG. 4 is an illustrated diagram showing an example of a human agent's behavior model for a robot. 図5は人エージェントのロボットに対する行動モデルの他の例を示す図解図である。FIG. 5 is a schematic diagram showing another example of a human agent's behavior model for a robot. 図6は図1実施例における仮想シミュレーション環境の一例を示す図解図である。FIG. 6 is an illustrated diagram showing an example of the virtual simulation environment in the embodiment of FIG. 図7は人エージェントの移動の一例を示す図解図である。FIG. 7 is an illustrated diagram showing an example of movement of a human agent. 図8は図1実施例のシミュレーション装置の動作を示すフロー図である。FIG. 8 is a flow chart showing the operation of the simulation device of the embodiment of FIG. 図9は図1実施例のシミュレーション装置においてロボットの性能を計測するときの動作の一例を示すフロー図である。FIG. 9 is a flow chart showing an example of an operation when measuring the performance of the robot in the simulation device of the embodiment of FIG.

図1を参照して、この実施例のシミュレーション装置10は、ASIC(特定用途向け集積回路)またはDSP(ディジタル信号プロセサ)のようなハードウエアで構成されるが、汎用コンピュータに組み込まれるプログラムのようなソフトウエアであってもよい。図1はそのようなシミュレーション装置10の機能ブロック図である。 With reference to FIG. 1, the simulation apparatus 10 of this embodiment is composed of hardware such as an ASIC (application specific integrated circuit) or a DSP (digital signal processor), but is like a program incorporated in a general-purpose computer. Software may be used. FIG. 1 is a functional block diagram of such a simulation device 10.

このシミュレーション装置10が対象としているロボットは、たとえば図2および図3に示すコミュニケーションロボットのように、人との共存環境で活動するロボット12である。このようなロボット12は環境の中に存在する人の行動に影響を受けるので、この実施例のシミュレーション装置10は、ロボット12の行動をロボットの行動決定プログラムに従ってシミュレーションする際に、人の行動をもシミュレーションすることによって、安全なロボット12のためのロボットの行動決定プログラムの開発を支援する。 The robot targeted by the simulation device 10 is a robot 12 that operates in a coexistence environment with humans, such as the communication robots shown in FIGS. 2 and 3. Since such a robot 12 is affected by the behavior of a person existing in the environment, the simulation device 10 of this embodiment simulates the behavior of the human according to the behavior determination program of the robot. Also by simulating, we support the development of robot behavior decision programs for safe robot 12.

ここで、シミュレーション装置10の説明に先立って、図2および図3を参照して、ロボット12の構成について説明する。ロボット12は台車30を含み、台車30の下面にはロボット12を自律移動させる2つの車輪32および1つの従輪34が設けられる。2つの車輪32は車輪モータ36(図3参照)によってそれぞれ独立に駆動され、台車30すなわちロボット12を前後左右の任意方向に動かすことができる。 Here, prior to the description of the simulation device 10, the configuration of the robot 12 will be described with reference to FIGS. 2 and 3. The robot 12 includes a carriage 30, and two wheels 32 and one trailing wheel 34 for autonomously moving the robot 12 are provided on the lower surface of the carriage 30. The two wheels 32 are independently driven by a wheel motor 36 (see FIG. 3), and the carriage 30, that is, the robot 12 can be moved in any direction in the front-rear, left-right, and left-right directions.

台車30の上には、円柱形のセンサ取り付けパネル38が設けられ、このセンサ取り付けパネル38には、多数の距離センサ40が取り付けられる。これらの距離センサ40は、たとえば赤外線や超音波などを用いてロボット12の周囲の物体(人や障害物など)との距離を測定するものである。 A cylindrical sensor mounting panel 38 is provided on the trolley 30, and a large number of distance sensors 40 are mounted on the sensor mounting panel 38. These distance sensors 40 measure the distance to an object (such as a person or an obstacle) around the robot 12 by using, for example, infrared rays or ultrasonic waves.

センサ取り付けパネル38の上には、胴体42が直立して設けられる。また、胴体42の前方中央上部(人の胸に相当する位置)には、上述した距離センサ40がさらに設けられ、ロボット12の前方の主として人との距離を計測する。また、胴体42には、その背面側上端部のほぼ中央から伸びる支柱44が設けられ、支柱44の上には、全方位カメラ46が設けられる。全方位カメラ46は、ロボット12の周囲を撮影するものであり、後述する眼カメラ70とは区別される。この全方位カメラ46としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。 A body 42 is provided upright on the sensor mounting panel 38. Further, the above-mentioned distance sensor 40 is further provided in the upper front center of the body 42 (position corresponding to the chest of a person), and measures the distance mainly to a person in front of the robot 12. Further, the body 42 is provided with a support column 44 extending from substantially the center of the upper end portion on the back surface side thereof, and an omnidirectional camera 46 is provided on the support column 44. The omnidirectional camera 46 captures the surroundings of the robot 12 and is distinguished from the eye camera 70 described later. As the omnidirectional camera 46, a camera using a solid-state image sensor such as a CCD or CMOS can be adopted.

胴体42の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節48Rおよび肩関節48Lによって、上腕50Rおよび上腕50Lが設けられる。図示は省略するが、肩関節48Rおよび肩関節48Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節48Rは、直交する3軸のそれぞれの軸廻りにおいて上腕50Rの角度を制御できる。肩関節48Rの或る軸(ヨー軸)は、上腕50Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節48Lは、直交する3軸のそれぞれの軸廻りにおいて上腕50Lの角度を制御できる。肩関節48Lの或る軸(ヨー軸)は、上腕50Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。 Upper arms 50R and upper arms 50L are provided at the upper ends of both side surfaces of the body 42 (positions corresponding to human shoulders) by the shoulder joints 48R and shoulder joints 48L, respectively. Although not shown, the shoulder joint 48R and the shoulder joint 48L each have three orthogonal degrees of freedom. That is, the shoulder joint 48R can control the angle of the upper arm 50R around each of the three orthogonal axes. One axis (yaw axis) of the shoulder joint 48R is an axis parallel to the longitudinal direction (or axis) of the upper arm 50R, and the other two axes (pitch axis and roll axis) are orthogonal to the axis from different directions. It is the axis to do. Similarly, the shoulder joint 48L can control the angle of the upper arm 50L around each of the three orthogonal axes. One axis (yaw axis) of the shoulder joint 48L is an axis parallel to the longitudinal direction (or axis) of the upper arm 50L, and the other two axes (pitch axis and roll axis) are orthogonal to the axis from different directions. It is the axis to do.

また、上腕50Rおよび上腕50Lのそれぞれの先端には、肘関節52Rおよび肘関節52Lが設けられる。図示は省略するが、肘関節52Rおよび肘関節52Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕54Rおよび前腕54Lの角度を制御できる。 Further, an elbow joint 52R and an elbow joint 52L are provided at the tips of the upper arm 50R and the upper arm 50L, respectively. Although not shown, the elbow joint 52R and the elbow joint 52L each have a degree of freedom of one axis, and the angles of the forearm 54R and the forearm 54L can be controlled around the axis of this axis (pitch axis).

前腕54Rおよび前腕54Lのそれぞれの先端には、人の手に相当するハンド56Rおよびハンド56Lがそれぞれ設けられる。これらのハンド56Rおよび56Lは、詳細な図示は省略するが、開閉可能に構成され、それによってロボット12は、ハンド56Rおよび56Lを用いて物体を把持または挟持することができる。ただし、ハンド56R、56Lの形状は実施例の形状に限らず、人の手に酷似した形状や機能を持たせるようにしてもよい。 A hand 56R and a hand 56L corresponding to a human hand are provided at the tips of the forearm 54R and the forearm 54L, respectively. These hands 56R and 56L are configured to be openable and closable, although detailed illustration is omitted, so that the robot 12 can grip or hold an object using the hands 56R and 56L. However, the shapes of the hands 56R and 56L are not limited to the shapes of the embodiments, and may have shapes and functions that closely resemble those of human hands.

また、図示は省略するが、台車30の前面、肩関節48Rと肩関節48Lとを含む肩に相当する部位、上腕50R、上腕50L、前腕54R、前腕54L、ハンド56Rおよびハンド56Lには、それぞれ、接触センサ58(図3で包括的に示す)が設けられる。台車30の前面の接触センサ58は、台車30への人間16や他の障害物の接触を検知する。したがって、ロボット12は、その自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪32の駆動を停止してロボット12の移動を急停止させることができる。また、その他の接触センサ58は、当該各部位に触れたかどうかを検知する。 Further, although not shown, the front surface of the trolley 30, the portion corresponding to the shoulder including the shoulder joint 48R and the shoulder joint 48L, the upper arm 50R, the upper arm 50L, the forearm 54R, the forearm 54L, the hand 56R and the hand 56L, respectively. , A contact sensor 58 (shown comprehensively in FIG. 3) is provided. The contact sensor 58 on the front surface of the trolley 30 detects the contact of a human 16 or another obstacle with the trolley 30. Therefore, when the robot 12 comes into contact with an obstacle during its own movement, the robot 12 can detect the contact and immediately stop driving the wheels 32 to suddenly stop the movement of the robot 12. In addition, the other contact sensor 58 detects whether or not the respective parts have been touched.

胴体42の中央上部(人の首に相当する位置)には首関節60が設けられ、さらにその上には頭部62が設けられる。図示は省略するが、首関節60は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット12の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。 A neck joint 60 is provided at the upper center of the body 42 (a position corresponding to a person's neck), and a head 62 is provided above the neck joint 60. Although not shown, the neck joint 60 has three degrees of freedom, and the angle can be controlled around each of the three axes. A certain axis (yaw axis) is an axis that goes directly above the robot 12 (vertically upward), and the other two axes (pitch axis, roll axis) are axes that are orthogonal to each other in different directions.

頭部62には、人の口に相当する位置に、スピーカ64が設けられる。スピーカ64は、ロボット12が、それの周辺の人に対して音声によってコミュニケーションをとるために用いられる。また、人の耳に相当する位置には、マイク66Rおよびマイク66Lが設けられる。以下、右のマイク66Rと左のマイク66Lとをまとめてマイク66ということがある。マイク66は、周囲の音、とりわけコミュニケーションを実行する対象である人の音声を取り込む。さらに、人の目に相当する位置には、右の眼球部68Rおよび左の眼球部68Lが設けられる。右の眼球部68Rおよび左の眼球部68Lは、それぞれ右の眼カメラ70Rおよび左の眼カメラ70Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがある。また、右の眼カメラ70Rと左の眼カメラ70Lとをまとめて眼カメラ70ということがある。 A speaker 64 is provided on the head 62 at a position corresponding to a person's mouth. The speaker 64 is used by the robot 12 to communicate with people around it by voice. Further, a microphone 66R and a microphone 66L are provided at positions corresponding to human ears. Hereinafter, the right microphone 66R and the left microphone 66L may be collectively referred to as a microphone 66. The microphone 66 captures ambient sounds, especially those of the person with whom communication is to be performed. Further, a right eyeball portion 68R and a left eyeball portion 68L are provided at positions corresponding to the human eye. The right eyeball portion 68R and the left eyeball portion 68L include a right eye camera 70R and a left eye camera 70L, respectively. Hereinafter, the right eyeball portion 68R and the left eyeball portion 68L may be collectively referred to as an eyeball portion 68. Further, the right eye camera 70R and the left eye camera 70L may be collectively referred to as an eye camera 70.

眼カメラ70は、ロボット12に接近した人の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。この実施例では、ロボット12は、この眼カメラ70からの映像信号によって、人の左右両目のそれぞれの視線方向(ベクトル)を検出する。その視線検出方法は具体的には、2つのカメラを用いる方法と、1つのカメラを用いる方法があるが、ここではその詳細は重要ではないので、詳しい説明は省略する。 The eye camera 70 captures a face of a person approaching the robot 12, other parts or objects, and captures a corresponding video signal. In this embodiment, the robot 12 detects the line-of-sight directions (vectors) of the left and right eyes of the person by the video signal from the eye camera 70. Specifically, the line-of-sight detection method includes a method using two cameras and a method using one camera, but since the details are not important here, detailed description thereof will be omitted.

また、眼カメラ70は、上述した全方位カメラ46と同様のカメラを用いることができる。たとえば、眼カメラ70は、眼球部68内に固定され、眼球部68は、眼球支持部(図示せず)を介して頭部62内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部62の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部62の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ70の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ64、マイク66および眼カメラ70の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。 Further, as the eye camera 70, the same camera as the omnidirectional camera 46 described above can be used. For example, the eye camera 70 is fixed in the eyeball portion 68, and the eyeball portion 68 is attached to a predetermined position in the head 62 via an eyeball support portion (not shown). Although not shown, the eyeball support portion has two degrees of freedom, and the angle can be controlled around each of these axes. For example, one of these two axes is an axis (yaw axis) in the upward direction of the head 62, and the other is orthogonal to one axis and orthogonal to the front side (face) of the head 62. This is the axis (pitch axis) in the direction of yaw. By rotating the eyeball support portion around each of these two axes, the tip (front) side of the eyeball portion 68 or the eye camera 70 is displaced, and the camera axis, that is, the line-of-sight direction is moved. The installation positions of the speaker 64, the microphone 66, and the eye camera 70 are not limited to the relevant parts, and may be provided at appropriate positions.

このように、この実施例のロボット12は、車輪32の独立2軸駆動、肩関節48の3自由度(左右で6自由度)、肘関節52の1自由度(左右で2自由度)、首関節60の3自由度および眼球支持部の2自由度(左右で4自由度)の合計17自由度を有する。 As described above, the robot 12 of this embodiment has independent 2-axis drive of the wheels 32, 3 degrees of freedom of the shoulder joint 48 (6 degrees of freedom on the left and right), 1 degree of freedom of the elbow joint 52 (2 degrees of freedom on the left and right). It has a total of 17 degrees of freedom, including 3 degrees of freedom for the neck joint 60 and 2 degrees of freedom for the eyeball support (4 degrees of freedom on the left and right).

図3はロボット12の電気的な構成を示すブロック図である。この図3を参照して、ロボット12は、CPU80を含む。CPU80は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス82を介して、メモリ84、モータ制御ボード86、センサ入力/出力ボード88および音声入力/出力ボード90に接続される。 FIG. 3 is a block diagram showing an electrical configuration of the robot 12. With reference to FIG. 3, the robot 12 includes a CPU 80. The CPU 80, also called a microcomputer or processor, is connected to a memory 84, a motor control board 86, a sensor input / output board 88, and a voice input / output board 90 via a bus 82.

メモリ84は、図示は省略をするが、ROM、HDDおよびRAMを含む。ROMおよびHDDには、ロボット12の動作を制御するためのロボットの行動決定プログラムが予め記憶される。ただし、このシミュレーション装置10においてシミュレーションするロボット12には、この種のロボットの行動決定プログラムは未だインストールされていない。つまり、シミュレーション装置10は、このようなロボット12のための最適の行動決定プログラムを開発、設計するための支援装置である。 The memory 84 includes a ROM, an HDD, and a RAM, although not shown. The robot action determination program for controlling the operation of the robot 12 is stored in the ROM and the HDD in advance. However, the action determination program of this type of robot has not yet been installed in the robot 12 simulated by the simulation device 10. That is, the simulation device 10 is a support device for developing and designing an optimum action determination program for such a robot 12.

モータ制御ボード86は、たとえばDSPで構成され、各腕や首関節60および眼球部68などの各軸モータの駆動を制御する。すなわち、モータ制御ボード86は、CPU80からの制御データを受け、右眼球部68Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ92」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、左眼球部68Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ94」と示す)の回転角度を制御する。 The motor control board 86 is composed of, for example, a DSP, and controls the drive of each axis motor such as each arm, neck joint 60, and eyeball portion 68. That is, the motor control board 86 receives control data from the CPU 80 and controls the angles of the two axes of the right eyeball portion 68R (in FIG. 3, collectively referred to as “right eyeball motor 92”). Control the rotation angle. Similarly, the motor control board 86 receives control data from the CPU 80 and controls the angles of the two axes of the left eyeball portion 68L (in FIG. 3, collectively referred to as “left eyeball motor 94”). ) Rotation angle is controlled.

また、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ96」と示す)の回転角度を制御する。同様にして、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ98」と示す)の回転角度を制御する。 Further, the motor control board 86 receives control data from the CPU 80, and includes three motors that control the angles of the three orthogonal axes of the shoulder joint 48R and one motor that controls the angles of the elbow joint 52R, for a total of four. The rotation angle of one motor (collectively referred to as "right arm motor 96" in FIG. 3) is controlled. Similarly, the motor control board 86 receives control data from the CPU 80, and has three motors that control the angles of the three orthogonal axes of the shoulder joint 48L and one motor that controls the angles of the elbow joint 52L. The rotation angles of a total of four motors (collectively referred to as "left arm motor 98" in FIG. 3) are controlled.

さらに、モータ制御ボード86は、CPU80からの制御データを受け、首関節60の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ100」と示す)の回転角度を制御する。そして、モータ制御ボード86は、CPU80からの制御データを受け、車輪32を駆動する2つのモータ(図3では、まとめて「車輪モータ36」と示す)の回転角度を制御する。 Further, the motor control board 86 receives control data from the CPU 80 and controls the angles of the three orthogonal axes of the neck joint 60 (in FIG. 3, collectively referred to as “head motor 100”). Control the rotation angle of. Then, the motor control board 86 receives the control data from the CPU 80 and controls the rotation angles of the two motors (collectively referred to as “wheel motor 36” in FIG. 3) for driving the wheels 32.

モータ制御ボード86にはさらにハンドアクチュエータ108が結合され、モータ制御ボード86は、CPU80からの制御データを受け、ハンド56R、56Lの開閉を制御する。 A hand actuator 108 is further coupled to the motor control board 86, and the motor control board 86 receives control data from the CPU 80 and controls the opening and closing of the hands 56R and 56L.

センサ入力/出力ボード88は、モータ制御ボード86と同様に、DSPで構成され、各センサからの信号を取り込んでCPU80に与える。すなわち、距離センサ40のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード88を通じてCPU80に入力される。また、全方位カメラ46からの映像信号が、必要に応じてセンサ入力/出力ボード88で所定の処理を施してからCPU80に入力される。眼カメラ70からの映像信号も、同様にして、CPU80に入力される。また、上述した複数の接触センサ58(図3では、まとめて「接触センサ58」と示す)からの信号がセンサ入力/出力ボード88を介してCPU80に与えられる。音声入力/出力ボード90もまた、同様に、DSPで構成され、CPU80から与えられる音声合成データに従った音声または声がスピーカ64から出力される。また、マイク66からの音声入力が、音声入力/出力ボード90を介してCPU80に与えられる。 Similar to the motor control board 86, the sensor input / output board 88 is composed of a DSP, and takes in signals from each sensor and gives them to the CPU 80. That is, data regarding the reflection time from each of the distance sensors 40 is input to the CPU 80 through the sensor input / output board 88. Further, the video signal from the omnidirectional camera 46 is input to the CPU 80 after performing predetermined processing on the sensor input / output board 88 as needed. The video signal from the eye camera 70 is also input to the CPU 80 in the same manner. Further, signals from the plurality of contact sensors 58 (collectively referred to as “contact sensor 58” in FIG. 3) described above are given to the CPU 80 via the sensor input / output board 88. Similarly, the voice input / output board 90 is also composed of a DSP, and a voice or a voice according to the voice synthesis data given from the CPU 80 is output from the speaker 64. Further, the voice input from the microphone 66 is given to the CPU 80 via the voice input / output board 90.

また、CPU80は、バス82を介して通信LANボード102に接続される。通信LANボード102は、たとえばDSPで構成され、CPU80から与えられた送信データを無線通信装置104に与え、無線通信装置104は送信データを、ネットワークを介してサーバ(図示せず)等に送信する。また、通信LANボード102は、無線通信装置104を介してデータを受信し、受信したデータをCPU80に与える。 Further, the CPU 80 is connected to the communication LAN board 102 via the bus 82. The communication LAN board 102 is composed of, for example, a DSP, and gives transmission data given by the CPU 80 to the wireless communication device 104, and the wireless communication device 104 transmits the transmission data to a server (not shown) or the like via a network. .. Further, the communication LAN board 102 receives data via the wireless communication device 104 and gives the received data to the CPU 80.

図1に戻って、シミュレーション装置10は、2つのデータベース14および16を含む。人パターンデータベース16は、シミュレーション装置10の仮想シミュレーション空間に投入する人エージェントのための、人の形状、すなわち大人、子供、男性、女性などの人の形状(パターン)を予め設定しているデータベースである。この4つの基本パターンに対してさらに、リュックサックを背負っている人の形状(パターン)や、カートを引いているときの人の形状などを追加することもできる。 Returning to FIG. 1, the simulation apparatus 10 includes two databases 14 and 16. The person pattern database 16 is a database in which the shape of a person, that is, the shape (pattern) of a person such as an adult, a child, a man, or a woman is preset for a person agent to be input to the virtual simulation space of the simulation device 10. is there. In addition to these four basic patterns, it is possible to add the shape (pattern) of a person carrying a rucksack, the shape of a person when pulling a cart, and the like.

なお、この人パターンデータベース14では、曜日や時間ごとに異なるデータセットを保持しておき、曜日や時間を指定してシミュレーションできるようにしてもよい。そうすれば、ある時間帯にロボットを動かすとどうなるのかなど、いろいろシミュレーションすることができる。 The person pattern database 14 may hold different data sets for each day of the week and time so that the simulation can be performed by designating the day of the week and time. Then, you can simulate various things such as what happens when you move the robot at a certain time.

対ロボット行動パターンデータベース16は、環境において人がロボットに対して行う行動パターンを予め設定しているデータベースである。つまり、人が実空間で実際に執り得る対ロボット行動パターンを登録している。 The anti-robot behavior pattern database 16 is a database in which behavior patterns that a person performs on a robot in an environment are preset. In other words, the anti-robot behavior patterns that a person can actually take in real space are registered.

たとえば、ロボットが自分の視野に入ったときに人が執る行動パターンとして、図4および図5に示す、ロボットと対話するパターンと、ロボットを観察するパターンを、一例として事前に登録している。 For example, as an action pattern that a person takes when the robot enters his / her field of view, a pattern of interacting with the robot and a pattern of observing the robot shown in FIGS. 4 and 5 are registered in advance as an example.

図4は、人(「i」で示す)が自分の視野内にロボット12を発見すると、ロボット12の回りに、ロボット12から停止距離Dstopを隔てて停止し、ロボット12と対話する行動パターンを図解している。 FIG. 4 shows an action pattern in which when a person (indicated by “i”) finds a robot 12 in his / her field of view, he / she stops around the robot 12 at a stop distance Dstop from the robot 12 and interacts with the robot 12. Illustrated.

図5は、人(「i」で示す)が自分の視野内にロボット12を発見すると、ロボット12の回りに、ロボット12から停止距離Dstopよりもやや大きい観察距離Dobserveを隔てて停止し、ロボット12を観察する行動パターンを図解している。 In FIG. 5, when a person (indicated by “i”) finds the robot 12 in his / her field of view, the robot stops around the robot 12 with an observation distance Dobserve slightly larger than the stop distance Dstop. The behavioral pattern of observing 12 is illustrated.

対ロボット行動パターンデータベース16には、このような行動パターンを含む多くの対ロボット行動パターンが、事前登録されている。シミュレーション装置10では、人エージェントがその登録しているどれかの行動パターンに従って行動するようにシミュレーションする。 In the anti-robot behavior pattern database 16, many anti-robot behavior patterns including such behavior patterns are pre-registered. The simulation device 10 simulates that the human agent behaves according to one of the registered behavior patterns.

たとえば図4、図5のような標準的な人々の対ロボット行動パターンだけでなく、変わった行動、難しい行動をする人エージェントの対ロボット行動パターンのデータをこのデータベース16に設定していてもよい。たとえば、ロボットの反応をためす(ぐるぐる回ってみるとか)、いじめる(しつこい行動)、ずっと話し込む、ロボットを見ると走ってくる、など、ありがちな難しい対ロボット行動パターンを設定して、適当な頻度でそのように特別な行動パターンに従ったシミュレーションをするようにしてもよい。 For example, in addition to the standard human behavior patterns against robots as shown in FIGS. 4 and 5, data on the behavior patterns of human agents who perform strange or difficult behaviors may be set in this database 16. .. For example, set a difficult anti-robot behavior pattern that is common, such as trying out the reaction of the robot (trying around), bullying (persistent behavior), talking all the time, running when you see the robot, etc. You may try to simulate according to such a special behavior pattern.

仮想シミュレーション空間内において、エージェントの行動は、他のエージェントから影響されて変化するが(たとえば、人同士がぶつからないように避ける、ロボットを見たら近づく、など)。 In the virtual simulation space, the behavior of agents changes under the influence of other agents (for example, avoiding people from colliding with each other, approaching robots when they see them, etc.).

たとえば図6に示すように、2人の人iおよびjは相互に影響して次のステップでの移動位置を決定する場合がある、人エージェントiは本来はdi,jの方向へ移動するのであるが、人エージェントjが人エージェントiに対して角度θi,jの方向に速度vi,jで移動しようとしているため、人エージェントiは、結局d’i,jの方向へ移動することになる。 For example, as shown in FIG. 6, two people i and j may influence each other to determine the movement position in the next step. Since the person agent i originally moves in the direction of di, j. However, since the human agent j is trying to move in the direction of the angle θi, j with respect to the human agent i at a velocity vi, j, the human agent i will eventually move in the direction of d'i, j. ..

さらに、人エージェントの対ロボット行動は、人エージェント同士のやりとりによって変化するように設定してもよい。たとえば、人エージェントがロボットと話していると他の人エージェントがロボットに近づく確率が増える、先行する人エージェントがロボットに影響されると(チラシをもらう、店に誘導される、など)、後続の人エージェントも影響される確率が増える、などのようにこのデータベース16に設定することも可能である。 Further, the human agent's behavior toward the robot may be set to change depending on the interaction between the human agents. For example, when a human agent talks to a robot, the probability that another human agent will approach the robot increases, and when the preceding human agent is influenced by the robot (getting a leaflet, being guided to a store, etc.), the subsequent person agent It is also possible to set in this database 16 so that the probability that the human agent is also affected increases.

人シミュレーション部18は、人パターンデータベース14から受け取った人パターンのデータ、対ロボット行動パターンデータベース16から受け取った行動パターンのデータおよび環境情報提示部20から受け取った仮想シミュレーション空間の地図データ、人やロボットの位置等のデータに従って、仮想シミュレーション空間(仮想空間)での人エージェントの次のステップでの行動をシミュレーションする。 The human simulation unit 18 includes human pattern data received from the human pattern database 14, behavior pattern data received from the robot behavior pattern database 16, map data of the virtual simulation space received from the environment information presentation unit 20, humans and robots. According to the data such as the position of, the behavior of the human agent in the virtual simulation space (virtual space) in the next step is simulated.

環境情報提示部20は、このように、ロボットの行動をシミュレーションするべき、仮想シミュレーション空間(仮想空間)を示す地図データ、その仮想シミュレーション空間内の人エージェントやロボットの位置など、ロボットの行動をシミュレーションするのに必要なデータを提示する。 In this way, the environment information presentation unit 20 simulates the behavior of the robot, such as map data indicating the virtual simulation space (virtual space) in which the behavior of the robot should be simulated, and the positions of human agents and the robot in the virtual simulation space. Present the data needed to do this.

図7は上述のような仮想シミュレーション環境(空間)の一例を示していて、仮想空間200は、入口204および出口206を設けた壁202で仕切られた閉空間を想定している。ただし、柱208や机210などは、障害物として地図データに書き込まれている。さらに、図7ではこの仮想空間を2次元で描いているが、実際には、3次元画像としてディスプレイ29(図1)で表示される。 FIG. 7 shows an example of the virtual simulation environment (space) as described above, and the virtual space 200 assumes a closed space partitioned by a wall 202 provided with an entrance 204 and an exit 206. However, the pillar 208, the desk 210, and the like are written in the map data as obstacles. Further, although this virtual space is drawn in two dimensions in FIG. 7, it is actually displayed as a three-dimensional image on the display 29 (FIG. 1).

ロボット行動シミュレーション部22は、環境情報提示部20から受け取ったロボットの位置等のデータに基づいて、ロボットの行動決定プログラム24に従ったロボットの次のステップでの行動をシミュレーションする。ここで、行動決定プログラム24は、図3で示すセンサ40、46、58、70などのセンサ入力に応じて、各モータ36、92‐106ならびにアクチュエータ108を制御してロボットの行動を決定するプログラムである。一例として、ロボットの行動決定プログラム24は、たとえば図7において、入口204からロボット12が仮想空間200に入り、出口206から出るまで、移動経路212に従って移動させるように設定されている。なお、図7において参照符号214が、シミュレーションのためにこの仮想空間200に投入された人エージェントを示す。 The robot behavior simulation unit 22 simulates the behavior of the robot in the next step according to the robot behavior determination program 24 based on the data such as the position of the robot received from the environment information presentation unit 20. Here, the action determination program 24 is a program that determines the behavior of the robot by controlling the motors 36, 92-106 and the actuator 108 in response to the sensor inputs of the sensors 40, 46, 58, 70 and the like shown in FIG. Is. As an example, the robot action determination program 24 is set to move according to the movement path 212 from the entrance 204 until the robot 12 enters the virtual space 200 and exits the exit 206, for example, in FIG. 7. In FIG. 7, reference numeral 214 indicates a human agent put into the virtual space 200 for simulation.

物理エンジン26は、物理的な力や法則などに基づいて、各エージェントがどのような移動経路をたどるかを計算する。詳しくいうと、物理エンジン26は、各エージェント(ロボット含む)が意図した動きを、仮想シミュレーション空間200(図7)で実施する処理を実行する。このとき、他の障害物、構造物や他のエージェントとの干渉が何もなければ、意図したとおりの動きを生成する。しかしながら、干渉がある場合、物理学法則(力学法則)に従って、各エージェントの実際の動きを処理する。 The physics engine 26 calculates what kind of movement path each agent follows based on physical forces, laws, and the like. More specifically, the physics engine 26 executes a process of executing the movement intended by each agent (including the robot) in the virtual simulation space 200 (FIG. 7). At this time, if there is no interference with other obstacles, structures or other agents, the intended movement is generated. However, if there is interference, it processes the actual movement of each agent according to the laws of physics (laws of mechanics).

センサ出力シミュレーション部28は、仮想シミュレーション空間200内に配置されているカメラのような画像センサやレーザレンジファインダ(LRF)のような距離センサのシミュレーションを実行する。カメラ画像の場合には、カメラ視点からの光学的な計算を行い、カメラ視点毎の画像情報を生成する。距離センサの場合には、レーザによるスキャンを模して、センサから各方位へ距離計測を行い、その結果をセンサ値として保存する。 The sensor output simulation unit 28 executes simulation of an image sensor such as a camera or a distance sensor such as a laser range finder (LRF) arranged in the virtual simulation space 200. In the case of a camera image, optical calculation is performed from the camera viewpoint to generate image information for each camera viewpoint. In the case of a distance sensor, the distance is measured from the sensor in each direction by imitating a scan by a laser, and the result is saved as a sensor value.

シミュレーション装置10には、ディスプレイ29が設けられていて、このディスプレイ29によって、たとえば図7に示すような仮想シミュレーション空間の画像が表示される。 The simulation device 10 is provided with a display 29, and the display 29 displays an image of a virtual simulation space as shown in FIG. 7, for example.

図8を参照して、図1に示すシミュレーション装置10は、まず、最初のステップS1において、一例として図7に示す移動経路212上を移動するように設定されている、ロボットの行動決定プログラム24を読み込むとともに、環境情報提示部20から、ロボット12の行動をシミュレーションする図7のような仮想シミュレーション空間の地図データ、仮想シミュレーション空間に投入する人エージェントの生成に関するパラメータ(出現頻度、移動経路、グループ人数、大人子供や男女の比率、背の高さなど)および各エージェント(ロボット12を含む)の位置データなどを読み込む。 With reference to FIG. 8, the simulation apparatus 10 shown in FIG. 1 is set to move on the movement path 212 shown in FIG. 7 as an example in the first step S1, the robot action determination program 24. From the environment information presentation unit 20, the map data of the virtual simulation space as shown in FIG. 7 that simulates the behavior of the robot 12, and the parameters (appearance frequency, movement route, group) related to the generation of the human agent to be input to the virtual simulation space. The number of people, the ratio of adults and children and men and women, height, etc.) and the position data of each agent (including the robot 12) are read.

次のステップS3では、環境情報提示部20が提示する人エージェントの生成に関する上述のパラメータおよび人パターンデータベース14からの人パターンのデータに従って、仮想シミュレーション空間内で、1または複数の人エージェントを生成して配置する。人パターンデータベース14には多様な内パターンを登録していて、そこから与えられる人パターンに基づいて仮想シミュレーション空間内に人エージェントを生成するので、多様な人エージェントを生成することができる。 In the next step S3, one or more human agents are generated in the virtual simulation space according to the above-mentioned parameters regarding the generation of the human agent presented by the environment information presentation unit 20 and the human pattern data from the human pattern database 14. And place it. Since various internal patterns are registered in the human pattern database 14 and human agents are generated in the virtual simulation space based on the human patterns given from the internal patterns, various human agents can be generated.

なお、このステップS3での人エージェントの生成に関するパラメータは、実際の観測データに基づいて設定されるようにしてもよい。 The parameters related to the generation of the human agent in step S3 may be set based on the actual observation data.

ステップS5で人シミュレーション部16は、環境情報提示部20が示す現在の人エージェントおよびロボット12の位置に基づいて、そして対ロボット行動パターンデータベース16が示す対ロボット行動パターンに基づいて、人エージェントの次のステップでの行動を決定する。なお、ここでのロボット12への働きかけの行動の種類や頻度は、実際の観測データに基づいて設定するようにしてもよい。対ロボット行動パターンデータベース16に登録している行動パターンは、人が実空間で実際に執り得る対ロボット行動パターンであり、このような行動パターンに従ってシミュレーションするので、シミュレーションの結果が妥当な結果となる。 In step S5, the human simulation unit 16 is next to the human agent based on the current positions of the human agent and the robot 12 indicated by the environmental information presentation unit 20, and based on the anti-robot behavior pattern indicated by the anti-robot behavior pattern database 16. Determine what to do in the steps. The type and frequency of actions that act on the robot 12 here may be set based on actual observation data. The behavior pattern registered in the anti-robot behavior pattern database 16 is an anti-robot behavior pattern that a person can actually take in real space, and the simulation is performed according to such an behavior pattern, so that the simulation result is a valid result. ..

ステップS7でロボット行動シミュレーション部22は、環境情報提示部20が示す現在の人エージェントおよびロボット12の位置に基づいて、ロボットの行動決定プログラム24に従って、次のステップでのロボット12の行動を決定する。 In step S7, the robot behavior simulation unit 22 determines the behavior of the robot 12 in the next step according to the robot behavior determination program 24 based on the current positions of the human agent and the robot 12 indicated by the environment information presentation unit 20. ..

具体的には、ステップS7では、ロボット12がたとえば搬送ロボットや搭乗型ロボットのように目的地に向かうことが主目的のロボットである場合、他の人々の現在の位置や移動速度から、なるべく他人の移動に干渉しないような移動経路を計算する処理を行う。また、ロボット12が人々にサービス提供することが目的のロボットである場合には、たとえば、ロボットに興味がありそうな人に接近するために、単純な場合では、ロボットの近傍で止まっている人を選択して、その人に向かって進む、また、人々が集まりがちな場所を選んでそのような場所でやってくる人を待ち受ける、また、混雑を起こさないように過度に人々が通る場所には近づかないようにする、といった処理を行ったりする。 Specifically, in step S7, when the robot 12 is a robot whose main purpose is to go to the destination, such as a transfer robot or a boarding robot, it is possible to consider another person from the current position and movement speed of other people. Performs a process of calculating a movement route that does not interfere with the movement of the robot. Further, when the robot 12 is a robot whose purpose is to provide services to people, for example, a person who is stopped near the robot in a simple case in order to approach a person who may be interested in the robot. Choose to go towards that person, choose a place where people tend to gather, wait for people to come in such a place, or get too close to a place where people pass so as not to cause congestion. It performs processing such as preventing it from occurring.

このステップS7の場合、ステップS5での人の次のステップでの行動を決定しているので、それを考慮して、上述の処理を実行する。そのため、人と共存する実空間で活動するロボットの行動決定プログラムの当否を、仮想シミュレーション空間内で判断することができる。 In the case of this step S7, since the action of the person in the next step in step S5 is determined, the above-mentioned process is executed in consideration of it. Therefore, it is possible to judge in the virtual simulation space whether or not the action determination program of the robot that operates in the real space coexisting with humans is appropriate.

その後ステップS9で、物理エンジン26において、各エージェントの行動を実現する。詳しくいうと、ステップS9では、先に説明したように、各エージェント(ロボット含む)が意図した動きを仮想空間200内で実施する処理が行われ、他の障害物、構造物や他のエージェントとの干渉が何もなければ、各エージェントは意図したとおりに動く。たとえば、エージェントが1歩前進しようとした場合、その意図通り、エージェントが1歩前進する。 After that, in step S9, the action of each agent is realized in the physics engine 26. More specifically, in step S9, as described above, the process of executing the movement intended by each agent (including the robot) in the virtual space 200 is performed, and the process is performed with other obstacles, structures, and other agents. Without any interference, each agent works as intended. For example, if the agent tries to take one step forward, the agent takes one step forward as intended.

ところが、干渉がある場合、物理学法則(力学法則)に従って各エージェントの実際の動きが処理される。単純な場合、たとえば壁に向かって進もうとすると、壁に衝突し、それ以上前進できないし、一定の反発係数に従って反力を受ける。エージェント同士の衝突の場合、前進する動きと、反力による移動が重なり合って、たとえば、単純な例を考えると、前進中にたとえば側方から衝突すると、斜め前方へと実際には動くことになる。 However, when there is interference, the actual movement of each agent is processed according to the laws of physics (law of mechanics). In a simple case, for example, if you try to move toward a wall, it will collide with the wall, you will not be able to move forward any further, and you will receive a reaction force according to a constant coefficient of restitution. In the case of a collision between agents, the forward movement and the movement due to the reaction force overlap, for example, considering a simple example, if a collision occurs from the side while moving forward, it will actually move diagonally forward. ..

次のステップS11で、センサシミュレーション部24は、上述したように、環境情報やセンサの出力情報などを更新する。 In the next step S11, the sensor simulation unit 24 updates the environmental information, the output information of the sensor, and the like as described above.

そして、ステップS13でシミュレーションを終了するかどうか判断し、シミュレーションを続行するなら再び先のステップS3に戻り、たとえば行動決定プログラムが終了するなどした場合“YES”が判断され、シミュレーションを終了する。 Then, it is determined whether or not to end the simulation in step S13, and if the simulation is to be continued, the process returns to the previous step S3 again.

この実施例においては、ロボットの周囲の人の行動を再現するようにシミュレーションを行うことにより、ロボットの行動をシミュレーションしているので、ロボットを実空間で実際に動かすことなく、人と共存する実空間で活動するロボットの行動決定プログラム24の開発を効率的に行うことができる。 In this embodiment, the behavior of the robot is simulated by simulating the behavior of the person around the robot, so that the robot coexists with the person without actually moving it in the real space. It is possible to efficiently develop an action determination program 24 for a robot that operates in space.

なお、上述のステップS5における人エージェントのロボットへの働きかけ行動は、ロボットの見かけや振る舞いに依存する。その依存関係を、あらかじめデータベースとして持っていてもよい(例:色が白いと、人が2倍の頻度で近づいてくる、など)。また、このパラメータをエディットして、もしロボットが人を2倍呼び寄せるようになったら(つまり、そのようにデザインを変えることができたら)何が起きるのか(売り上げ増えるか、混みすぎるか、安全か、など)、シミュレーションできてもよい。 The action of the human agent acting on the robot in step S5 described above depends on the appearance and behavior of the robot. The dependency may be stored in advance as a database (eg, when the color is white, people approach twice as often). Also, by editing this parameter, what would happen if the robot could double the number of people (that is, if the design could be changed that way) (sales increase, overcrowding, or safety? , Etc.), may be able to simulate.

さらに、上述の実施例ではロボット12は1台だけが仮想シミュレーション空間内を移動するものとしたが、ロボットは複数台が同時に動いてもよい。この場合各ロボットはそれぞれ異なる行動決定プログラム24に従って行動する。 Further, in the above-described embodiment, only one robot 12 moves in the virtual simulation space, but a plurality of robots may move at the same time. In this case, each robot acts according to a different action determination program 24.

上述の実施例では、各人エージェントはステップS3およびS5で人シミュレーション部18が自動的に次のステップでの位置を決定したが、多数の人エージェントがシミュレーションされる場合、その中の1人(または複数人)は、シミュレーション装置10を操作する者が操作して動かしてもよい。また、実際の環境で人が動いた結果として起きるセンサデータを(合成して)入力するようにしてもよい。たとえば、自分が動いた結果を仮想シミュレーションにデバッグすることができる。 In the above embodiment, each person agent is automatically determined by the person simulation unit 18 in the next step in steps S3 and S5, but when a large number of person agents are simulated, one of them ( Alternatively, the person who operates the simulation device 10 may operate and move the simulation device 10. In addition, sensor data generated as a result of human movement in an actual environment may be input (synthesized). For example, you can debug the result of your movement in a virtual simulation.

なお、上述のシミュレーション装置10におけるセンサ出力シミュレーション部28でシミュレーションしたセンサデータの一部、たとえば、ユーザの発話する音声などは、実際に計測したセンサデータを再生して再現してもよい。 A part of the sensor data simulated by the sensor output simulation unit 28 in the simulation device 10 described above, for example, a voice spoken by the user, may be reproduced by reproducing the actually measured sensor data.

この実施例のシミュレーション装置10では、仮想シミュレーション空間内の人エージェントについては、予め人の形状(パターン)モデルを登録した人パターンデータベース14を設け、そこから、大人子供、男女、などの属性が合うデータを仮想シミュレーション空間内に投入したが、このデータを、たとえば、リュックを持っている人が多い、冬服夏服、などのように、実際に計測した人のデータに置き換えるような仕組みを設けてもよい。 In the simulation device 10 of this embodiment, for the human agent in the virtual simulation space, a human pattern database 14 in which a human shape (pattern) model is registered in advance is provided, and attributes such as adults and children, men and women, etc. are matched from the human pattern database 14. The data was put into the virtual simulation space, but a mechanism was set up to replace this data with the data of the people who actually measured it, for example, many people have a backpack, winter clothes, summer clothes, etc. May be good.

シミュレーション装置10の出力として、様々なパターン認識に役立つデータ(センサデータとラベル付きのデータ)を出力するようにしてもよい。たとえば、ロボットの距離画像センサの視野内に人がいるかどうか、大量のデータを出力すると、ディープラーニング(Deep learning)等の手法により、人を検出する認識プログラムを実現可能である。 As the output of the simulation device 10, data (sensor data and labeled data) useful for various pattern recognition may be output. For example, if a large amount of data is output as to whether or not there is a person in the field of view of the robot's range image sensor, it is possible to realize a recognition program that detects the person by a method such as deep learning.

なお、上述の実施例ではロボットの行動決定プログラム24は、仮想シミュレーション空間内におけるロボット12の一連の行動をすべてプログラムしているものとして説明したが、一連の行動の一部のみをシミュレーションする場合にも、このシミュレーション装置10は使える。つまり、ロボットの行動決定プログラム24は、ロボットの少なくとも1つの行動を決定するプログラムであればよく、このシミュレーション装置10はそのようなプログラムの良否を判断する指標を与えてくれる。 In the above embodiment, the robot action determination program 24 has been described as programming all the series of actions of the robot 12 in the virtual simulation space, but when only a part of the series of actions is simulated. However, this simulation device 10 can be used. That is, the robot action determination program 24 may be a program that determines at least one action of the robot, and the simulation device 10 gives an index for determining the quality of such a program.

実施例のシミュレーション装置10は、ロボット12の性能を計測するために利用することもできる。図9には一例として、ロボット12が仮想シミュレーション空間200のA地点(たとえば、入口202)からB地点(たとえば、出口204)(いずれも図7参照)まで移動する際の移動効率(平均速度)を計測する(1000回シミュレーションして平均を求める場合、N=1000)場合のシミュレーション装置10の動作を示している。 The simulation device 10 of the embodiment can also be used to measure the performance of the robot 12. As an example in FIG. 9, the movement efficiency (average speed) when the robot 12 moves from the point A (for example, the entrance 202) to the point B (for example, the exit 204) of the virtual simulation space 200 (see FIG. 7). The operation of the simulation device 10 in the case of measuring (N = 1000 when simulating 1000 times to obtain the average) is shown.

図9の最初のステップS21では、シミュレーション回数をカウントする変数nおよび合計速度を示すv_sumを初期化する(n=0、v_sum=0)。ただし、シミュレーション回数は別途設けたカウンタ(図示せず)でカウントされ、合計速度v_sumは、別途設けたバッファ(図示せず)で累積される。 In the first step S21 of FIG. 9, the variable n for counting the number of simulations and v_sum indicating the total velocity are initialized (n = 0, v_sum = 0). However, the number of simulations is counted by a separately provided counter (not shown), and the total speed v_sum is accumulated by a separately provided buffer (not shown).

そして、次のステップS23で、シミュレーション回数nが規定回数Nに達したかどうか判断する(n>N?)。 Then, in the next step S23, it is determined whether or not the number of simulations n has reached the predetermined number of times N (n> N?).

ステップS23で“NO”ならステップS25に進み、シミュレーション装置10に初期値を設定する。現在時刻をt0と設定し、ロボット12の位置をA地点(入口202)に設定する。そして、シミュレーション回数をインクリメントする(n=n+1)。 If "NO" in step S23, the process proceeds to step S25, and the initial value is set in the simulation device 10. The current time is set to t0, and the position of the robot 12 is set to point A (entrance 202). Then, the number of simulations is incremented (n = n + 1).

ステップS27で、ロボット12がB地点(出口204)に到達するまで、シミュレーションを実行する。 In step S27, the simulation is executed until the robot 12 reaches the point B (exit 204).

ステップS29では、シミュレーション装置10内でのシミュレーション終了時刻t1から、この回のシミュレーションにおけるロボット12の移動速度v=AB/(t1-t0)を計算する。ただし、ABは地点Aから地点Bまでの距離である。 In step S29, the moving speed v = AB / (t1-t0) of the robot 12 in this simulation is calculated from the simulation end time t1 in the simulation device 10. However, AB is the distance from point A to point B.

ステップS31では、バッファに合計速度v_sumを更新する(v_sum+v)。 In step S31, the total velocity v_sum is updated in the buffer (v_sum + v).

そして、ステップS23において、シミュレーション回数nが規定回数Nに達したと判断したら、次のステップS33において、平均速度v_avgを計算する(v_avg=v_sum/N)。このようにしてシミュレーションしたロボット12の地点Aから地点Bまでの移動効率(平均移動速度)は、人共存環境におけるロボット12の安全な運用のための指標となり得る。 Then, in step S23, when it is determined that the number of simulations n has reached the specified number of times N, the average velocity v_avg is calculated in the next step S33 (v_avg = v_sum / N). The moving efficiency (average moving speed) of the robot 12 simulated in this way from the point A to the point B can be an index for the safe operation of the robot 12 in the human coexistence environment.

実施例のシミュレーション装置10を用いれば、上述の平均移動速度の他に、安全に関する指標として、ロボットが人に接触してしまった回数、ロボットから一定距離以内(たとえば50cm)に人が近づいてしまった回数、性能に関する指標として、ロボットに話しかけた人の人数や、ロボットの宣伝を聞いて来店した人の人数なども利用できる。 If the simulation device 10 of the embodiment is used, in addition to the above-mentioned average moving speed, as an index related to safety, the number of times the robot has touched a person and the person approaches within a certain distance (for example, 50 cm) from the robot. As an index related to the number of times and performance, the number of people who talked to the robot and the number of people who visited the store after hearing the advertisement of the robot can also be used.

なお、このシミュレーション装置10が行動をシミュレーションできるロボットは実施例で説明した図3および図4に示すロボット12に限定されるものではない。他の形式、構造のコミュニケーションロボットにもこのシミュレーション装置は適用可能である。 The robot capable of simulating the behavior of the simulation device 10 is not limited to the robot 12 shown in FIGS. 3 and 4 described in the embodiment. This simulation device can also be applied to communication robots of other types and structures.

10 …シミュレーション装置
12 …(コミュニケーション)ロボット
14 …人パターンデータベース
16 …対ロボット行動パターンデータベース
18 …人シミュレーション部
20 …ロボットの行動シミュレーション部
22 …環境情報提示部
24 …ロボットの行動決定プログラム
26 …物理エンジン
28 …センサ出力シミュレーション部
10 ... Simulation device 12 ... (Communication) Robot 14 ... Human pattern database 16 ... Anti-robot behavior pattern database 18 ... Human simulation department 20 ... Robot behavior simulation department 22 ... Environmental information presentation department 24 ... Robot behavior decision program 26 ... Physics Engine 28 ... Sensor output simulation unit

Claims (4)

コミニュケーションロボットのように人と共存する環境で活動するロボットの仮想シミュレーション空間における行動を、ロボット行動決定プログラムに従ってシミュレーションする、ロボットの行動シミュレーション装置であって、
前記仮想シミュレーション空間における人エージェントの位置を示す位置データを提示する人エージェント位置提示部、
前記仮想シミュレーション空間におけるロボットの位置を示す位置データを提示するロボット位置提示部、
ロボットが視野に入ったとき人が執る行動パターンを予め設定している対ロボット行動パターンデータベース、
前記人エージェント位置提示部で提示される人エージェントの位置データに従って、前記仮想シミュレーション空間内において1または複数の人エージェントを生成する人エージェント生成部、
ロボット位置提示部で提示されるロボットの位置データに従った前記仮想シミュレーション空間における現在のロボットの位置、ならびに前記人エージェント位置提示部が提示する位置データに従った前記仮想シミュレーション空間における前記人エージェントの位置および前記対ロボット行動パターンデータベースが示す行動パターンのデータに基づいて、次のステップでの当該人エージェントの行動を決定する人エージェント行動決定部、および
前記仮想シミュレーション空間内における次のステップでの前記ロボットの行動を前記ロボット行動決定プログラムに従って決定するロボット行動シミュレーション部を備える、ロボットの行動シミュレーション装置。
A robot behavior simulation device that simulates behavior in a virtual simulation space of a robot that operates in an environment that coexists with humans, such as a communication robot, according to a robot behavior determination program.
A person agent position presentation unit that presents position data indicating the position of a person agent in the virtual simulation space.
A robot position presentation unit that presents position data indicating the position of a robot in the virtual simulation space.
An anti-robot behavior pattern database that presets the behavior patterns that a person takes when a robot enters the field of view,
A human agent generation unit that generates one or more human agents in the virtual simulation space according to the position data of the human agent presented by the human agent position presentation unit.
The current position of the robot in the virtual simulation space according to the robot position data presented by the robot position presentation unit, and the human agent in the virtual simulation space according to the position data presented by the human agent position presentation unit. The human agent behavior determination unit that determines the behavior of the human agent in the next step based on the position and the behavior pattern data indicated by the robot behavior pattern database, and the said in the next step in the virtual simulation space. A robot behavior simulation device including a robot behavior simulation unit that determines a robot's behavior according to the robot behavior determination program.
前記仮想シミュレーション空間に投入する人エージェントのための大人、子供、男性、女性などの人のパターンを予め登録した人パターンデータベースをさらに備え、前記人エージェント生成部は、前記人パターンデータベースから与えられた人パターンの人エージェントを生成する、請求項1記載のロボットの行動シミュレーション装置。 A human pattern database in which patterns of adults, children, men, women, etc. for human agents to be input to the virtual simulation space are registered in advance is further provided, and the human agent generation unit is given from the human pattern database. The robot behavior simulation device according to claim 1, which generates a human agent with a human pattern. 物理的な法則に従って各エージェントの行動を実現する物理エンジン部をさらに備える、請求項1または2記載のロボットの行動シミュレーション装置。 The robot behavior simulation device according to claim 1 or 2, further comprising a physics engine unit that realizes the behavior of each agent according to a physical law. 前記物理エンジン部による各エージェントの行動に従って、前記仮想シミュレーション空間内に配置されているセンサのシミュレーションを実行してセンサ値を保存するセンサ出力シミュレーション部をさらに備える、請求項3記載のロボットの行動シミュレーション装置。 The behavior simulation of the robot according to claim 3 , further comprising a sensor output simulation unit that executes a simulation of sensors arranged in the virtual simulation space and saves sensor values according to the behavior of each agent by the physics engine unit. apparatus.
JP2016061119A 2016-03-25 2016-03-25 Robot behavior simulation device Active JP6793905B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016061119A JP6793905B2 (en) 2016-03-25 2016-03-25 Robot behavior simulation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016061119A JP6793905B2 (en) 2016-03-25 2016-03-25 Robot behavior simulation device

Publications (2)

Publication Number Publication Date
JP2017170584A JP2017170584A (en) 2017-09-28
JP6793905B2 true JP6793905B2 (en) 2020-12-02

Family

ID=59971609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016061119A Active JP6793905B2 (en) 2016-03-25 2016-03-25 Robot behavior simulation device

Country Status (1)

Country Link
JP (1) JP6793905B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6702284B2 (en) 2017-09-05 2020-06-03 株式会社デンソー Liquid crystal panel drive circuit and liquid crystal display device
CN108153310B (en) * 2017-12-22 2020-11-13 南开大学 Mobile robot real-time motion planning method based on human behavior simulation
KR101956504B1 (en) * 2018-06-14 2019-03-08 강의혁 Method, system and non-transitory computer-readable recording medium for providing robot simulator
JP7133840B2 (en) * 2018-09-03 2022-09-09 株式会社国際電気通信基礎技術研究所 ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD
JP7125745B2 (en) * 2018-09-14 2022-08-25 学校法人早稲田大学 ENVIRONMENTAL ADAPTABILITY REINFORCEMENT SYSTEM OF AUTONOMOUS WORK SUPPORT ROBOT, OPERATION SIMULATION DEVICE, AND THEREOF PROGRAM
JP6858434B1 (en) * 2020-02-14 2021-04-14 株式会社ロボマインド Artificial intelligence systems and programs
WO2023127096A1 (en) * 2021-12-28 2023-07-06 川崎重工業株式会社 Simulation system, simulation method, and simulation program
CN115861582B (en) * 2023-02-22 2023-05-12 武汉创景可视技术有限公司 Virtual reality engine system based on multiple intelligent agents and implementation method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004066367A (en) * 2002-08-05 2004-03-04 Mitsubishi Heavy Ind Ltd Action pattern formation device, action pattern formation method, and action pattern formation program
JP5502348B2 (en) * 2009-03-12 2014-05-28 ファナック株式会社 Simulation method
JP5414465B2 (en) * 2009-11-06 2014-02-12 株式会社日立製作所 Simulation system
JP5764795B2 (en) * 2011-01-05 2015-08-19 株式会社国際電気通信基礎技術研究所 Mobile robot, mobile robot learning system, and mobile robot behavior learning method

Also Published As

Publication number Publication date
JP2017170584A (en) 2017-09-28

Similar Documents

Publication Publication Date Title
JP6793905B2 (en) Robot behavior simulation device
JP6809705B2 (en) Simulation system
JP7407919B2 (en) Video processing method, video processing device, computer program and electronic equipment
JP5318623B2 (en) Remote control device and remote control program
Yang et al. Appgan: Generative adversarial networks for generating robot approach behaviors into small groups of people
KR20190104490A (en) Artificial intelligence apparatus and method for recognizing utterance voice of user
JP2012139798A (en) Mobile robot, learning system for the same, and method of learning action of the same
JP6893630B2 (en) Service provision robot system
WO2019138619A1 (en) Information processing device, information processing method and program
JP6150429B2 (en) Robot control system, robot, output control program, and output control method
JP6134895B2 (en) Robot control system, robot control program, and explanation robot
JP2023095918A (en) Robot, method for controlling robot, and program
JP6134894B2 (en) Robot control system and robot
Grzeskowiak et al. Toward virtual reality-based evaluation of robot navigation among people
JP7335084B2 (en) Simulation device and program
JP7139643B2 (en) Robot, robot control method and program
CN113056315B (en) Information processing apparatus, information processing method, and program
JP6713637B2 (en) Service provision robot system
Lo et al. Realization of sign language motion using a dual-arm/hand humanoid robot
JP7258426B2 (en) Simulation system, simulation program and learning device
JP6925013B2 (en) Simulation system
JP6908257B2 (en) Robots and robot control programs
JP6707255B2 (en) Service provision robot system
JP2018144118A (en) Guide robot
Xiao et al. Wawa: A tumbler-like household robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201020

R150 Certificate of patent or registration of utility model

Ref document number: 6793905

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250