JP2012110996A - Movement control system of robot, movement control program of the robot, and movement control method of the robot - Google Patents
Movement control system of robot, movement control program of the robot, and movement control method of the robot Download PDFInfo
- Publication number
- JP2012110996A JP2012110996A JP2010261900A JP2010261900A JP2012110996A JP 2012110996 A JP2012110996 A JP 2012110996A JP 2010261900 A JP2010261900 A JP 2010261900A JP 2010261900 A JP2010261900 A JP 2010261900A JP 2012110996 A JP2012110996 A JP 2012110996A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- movement
- role
- data
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000009471 action Effects 0.000 claims abstract description 119
- 230000006399 behavior Effects 0.000 claims description 117
- 238000004364 calculation method Methods 0.000 claims description 14
- 241000282412 Homo Species 0.000 claims description 4
- 230000008569 process Effects 0.000 description 26
- 210000005252 bulbus oculi Anatomy 0.000 description 19
- 238000004891 communication Methods 0.000 description 18
- 238000001514 detection method Methods 0.000 description 16
- 210000001508 eye Anatomy 0.000 description 15
- 210000000323 shoulder joint Anatomy 0.000 description 13
- 230000006870 function Effects 0.000 description 10
- 210000002310 elbow joint Anatomy 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 210000000245 forearm Anatomy 0.000 description 6
- 210000003128 head Anatomy 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 238000010276 construction Methods 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 238000009434 installation Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 2
- 241000280258 Dyschoriste linearis Species 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Abstract
Description
この発明は、ロボットの移動制御システム、ロボットの移動制御プログラムおよびロボットの移動制御方法に関し、特にたとえば、ロボットの移動行動を決定する、ロボットの移動制御システム、ロボットの移動制御プログラムおよびロボットの移動制御方法に関する。 The present invention relates to a robot movement control system, a robot movement control program, and a robot movement control method, and more particularly to, for example, a robot movement control system, a robot movement control program, and a robot movement control that determine a robot movement action. Regarding the method.
非特許文献1に開示されている、環境情報構造化システムは、大量に蓄積された人々の行動から、環境の意味や行動を理解し、人々の大局行動を予測する。そして、予測された結果を利用して、ロボットは、特定の大局行動を行う人間に対して、サービスを提供することができる。
ところが、大量に蓄積された人々の行動を利用して、ロボットの移動行動を決定するようなシステムは存在しなかった。 However, there has been no system that determines the movement behavior of a robot using the behavior of people accumulated in large quantities.
それゆえに、この発明の主たる目的は、新規な、ロボットの移動制御システム、ロボットの移動制御プログラムおよびロボットの移動制御方法を提供することである。 Therefore, a main object of the present invention is to provide a novel robot movement control system, a robot movement control program, and a robot movement control method.
この発明の他の目的は、役割が設定されたロボットの移動行動を決定することができる、ロボットの移動制御システム、ロボットの移動制御プログラムおよびロボットの移動制御方法を提供することである。 Another object of the present invention is to provide a robot movement control system, a robot movement control program, and a robot movement control method capable of determining the movement behavior of a robot with a role set.
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。 The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.
第1の発明は、役割を持った複数の人間の移動行動データから構成されるデータベースおよび役割が設定されるロボットを含む、ロボットの移動制御システムであって、ロボットに設定された役割に基づいてデータベースから移動行動データを選択する選択手段、選択手段によって選択された移動行動データからロボットの複数の移動行動を予測する第1予測手段、第1予測手段によって予測された複数の移動行動のそれぞれの発生確率を算出する算出手段、および算出手段によって算出された複数の発生確率に基づいて、ロボットに移動行動を指示する指示手段を備える、ロボットの移動制御システムである。 A first invention is a robot movement control system including a database composed of a plurality of human movement behavior data having a role and a robot to which a role is set, based on the role set in the robot Selection means for selecting movement behavior data from the database, first prediction means for predicting a plurality of movement behaviors of the robot from the movement behavior data selected by the selection means, and each of the plurality of movement behaviors predicted by the first prediction means A robot movement control system comprising: calculation means for calculating an occurrence probability; and instruction means for instructing the robot to move based on a plurality of occurrence probabilities calculated by the calculation means.
第1の発明では、移動制御システム(100:実施例において対応する部分を例示する参照符号。以下、同じ。)は、複数の移動行動データから構成されるデータベース(20)およびロボット(14)を含む。また、移動行動データは役割を持った人間の移動軌跡および行動を含み、ロボットには人間が持つ役割が設定される。たとえば、ロボットに「話しかけやすい警備員」の役割が設定されていれば、選択手段(16,S47)は、「話しかけやすい警備員」の移動行動データがデータベースから選択される。第1予測手段(16,S49)は、役割が設定されたロボットの複数の移動行動を、選択された移動行動データに基づいて予測する。算出手段(16,S57,S59)は、予測された複数の移動行動のそれぞれの発生確率を算出する。そして、指示手段(16,S61,S63)は、たとえば、算出された発生確率が最も高い移動行動を、ロボットに指示する。 In the first invention, the movement control system (100: reference numerals exemplifying corresponding parts in the embodiment, hereinafter the same) includes a database (20) and a robot (14) composed of a plurality of movement behavior data. Including. Also, the movement behavior data includes the movement trajectory and behavior of a human having a role, and the role that the human has is set for the robot. For example, if the role of “easy to talk” is set for the robot, the selection means (16, S47) selects the movement behavior data of “easy to talk” from the database. The first predicting means (16, S49) predicts a plurality of movement behaviors of the robot having the role set based on the selected movement behavior data. The calculating means (16, S57, S59) calculates the occurrence probability of each of the predicted plurality of moving actions. Then, the instruction means (16, S61, S63), for example, instructs the robot to move behavior with the highest occurrence probability.
第1の発明によれば、ロボットと同じ役割を持った人間の移動行動データに基づいて、ロボットの移動行動を決定することができる。そのため、役割が設定されたロボットを、同じ役割を持った人間と同じように動作させることができる。 According to the first invention, the movement behavior of the robot can be determined based on the movement behavior data of the human having the same role as the robot. Therefore, a robot with a set role can be operated in the same way as a human having the same role.
第2の発明は、第1の発明に従属し、ロボットの移動軌跡を取得する移動軌跡取得手段をさらに備え、選択手段は、移動軌跡取得手段によって取得された移動軌跡、ロボットに設定された役割および各移動行動データに含まれる移動軌跡に基づいて、データベースから移動行動データを選択する。 A second invention is according to the first invention, further comprising movement trajectory acquisition means for acquiring a movement trajectory of the robot, wherein the selection means is a movement trajectory acquired by the movement trajectory acquisition means, a role set in the robot And based on the movement locus | trajectory contained in each movement action data, movement action data are selected from a database.
第2の発明では、移動軌跡取得手段(16,S45)は、たとえば、LRF(12)によって連続して取得されたロボットの現在位置を、ロボットの移動軌跡として取得する。そして、ロボットの移動軌跡役割および各移動行動データに含まれる移動軌跡に基づいて、データベースから移動行動データが選択される。 In the second invention, the movement trajectory acquisition means (16, S45) acquires, for example, the current position of the robot continuously acquired by the LRF (12) as the movement trajectory of the robot. Then, the movement behavior data is selected from the database based on the movement locus role of the robot and the movement locus included in each movement behavior data.
第2の発明によれば、ロボットの現在位置やそれまでの移動を考慮して、ロボットの移動行動を決めることができる。 According to the second invention, it is possible to determine the movement behavior of the robot in consideration of the current position of the robot and the movement so far.
第3の発明は、第1の発明または第2の発明に従属し、第1予測手段によって予測された移動行動は、ロボットの将来位置を含み、ロボットの周囲に人間が存在するとき、人間の将来位置を予測する第2予測手段をさらに備え、算出手段は、第2予測手段によって予測された人間の将来位置を除いたロボットの将来位置に基づいて、複数の移動行動の発生確率を算出する。 A third invention is dependent on the first invention or the second invention, and the movement behavior predicted by the first prediction means includes a future position of the robot, and when a human is present around the robot, Second prediction means for predicting the future position is further provided, and the calculation means calculates the occurrence probability of a plurality of movement actions based on the future position of the robot excluding the human future position predicted by the second prediction means. .
第3の発明では、第1予測手段は、ロボットの移動行動として、ロボットの将来位置も予測する。第2予測手段(16,S55)は、たとえばロボットと人間とが同じ領域(E)に存在する場合、人間の将来位置を予測する。また、第2予測手段は、役割に関係なく蓄積された移動行動データに基づいて人間の将来位置を予測する。そして、算出手段は、予測された人間の将来位置が除かれたロボットの将来位置に基づいて、複数の移動行動の発生確率を算出する。 In the third invention, the first prediction means also predicts the future position of the robot as the movement behavior of the robot. The second predicting means (16, S55) predicts the future position of the human when, for example, the robot and the human are in the same region (E). Further, the second predicting means predicts the future position of the person based on the movement behavior data accumulated regardless of the role. Then, the calculation means calculates the occurrence probability of a plurality of movement actions based on the predicted future robot position from which the predicted future human position is removed.
第3の発明によれば、人間が居る位置にはロボットは進むことができないため、人間の将来位置ではロボットの移動行動が予測されないようにできる。 According to the third invention, since the robot cannot move to the position where the person is present, the movement behavior of the robot can be prevented from being predicted at the future position of the person.
第4の発明は、中央制御装置(10)、役割を持った複数の人間の移動行動データから構成されるデータベース(20)および役割が設定されるロボット(14)を含む、ロボットの移動制御システム(100)であって、中央制御装置のプロセッサ(16)を、ロボットに設定された役割に基づいてデータベースから移動行動データを選択する選択手段(S47)、選択手段によって選択された移動行動データからロボットの複数の移動行動を予測する予測手段(S49)、予測手段によって予測された複数の移動行動のそれぞれの発生確率を算出する算出手段(S57,S59)、および算出手段によって算出された複数の発生確率に基づいて、ロボットに移動行動を指示する指示手段(S61,S63)として機能させる、ロボットの移動制御プログラムである。 A fourth invention is a robot movement control system including a central control device (10), a database (20) composed of a plurality of human movement behavior data having roles, and a robot (14) in which roles are set. (100), the processor (16) of the central control unit selects the moving action data from the database based on the role set in the robot (S47), from the moving action data selected by the selecting means Prediction means (S49) for predicting a plurality of movement behaviors of the robot, calculation means (S57, S59) for calculating the respective occurrence probabilities of the plurality of movement behaviors predicted by the prediction means, and a plurality of calculations calculated by the calculation means Based on the probability of occurrence, let the robot function as instruction means (S61, S63) for instructing the movement action. It is a dynamic control program.
第4の発明でも、第1の発明と同様、ロボットと同じ役割を持った人間の移動行動データに基づいて、ロボットの移動行動を決定することができる。そのため、役割が設定されたロボットを、同じ役割を持った人間と同じように動作させることができる。 In the fourth invention, similarly to the first invention, the movement behavior of the robot can be determined based on the movement behavior data of the human having the same role as the robot. Therefore, a robot with a set role can be operated in the same way as a human having the same role.
第5の発明は、役割を持った複数の人間の移動行動データから構成されるデータベース(20)および役割が設定されるロボット(14)を含む、ロボットの移動制御システム(100)のロボットの移動制御方法であって、ロボットに設定された役割に基づいてデータベースから移動行動データを選択し(S47)、選択された移動行動データからロボットの複数の移動行動を予測し(S49)、予測された複数の移動行動のそれぞれの発生確率を算出し(S57,S59)、そして算出された複数の発生確率に基づいて、ロボットに移動行動を指示する(S61,S63)、ロボットの移動制御方法である。 The fifth invention provides a robot movement of a robot movement control system (100) including a database (20) composed of a plurality of human movement behavior data having roles and a robot (14) to which roles are set. According to the control method, the movement behavior data is selected from the database based on the role set in the robot (S47), and the plurality of movement behaviors of the robot are predicted from the selected movement behavior data (S49). The robot movement control method calculates the occurrence probability of each of the plurality of movement actions (S57, S59), and instructs the robot on the movement action based on the calculated occurrence probabilities (S61, S63). .
第5の発明でも、第1の発明と同様、ロボットと同じ役割を持った人間の移動行動データに基づいて、ロボットの移動行動を決定することができる。そのため、役割が設定されたロボットを、同じ役割を持った人間と同じように動作させることができる。 In the fifth invention as well, similar to the first invention, the movement behavior of the robot can be determined based on the movement behavior data of the human having the same role as the robot. Therefore, a robot with a set role can be operated in the same way as a human having the same role.
この発明によれば、ロボットと同じ役割を持った人間の移動行動データに基づいて、ロボットの移動行動が決まる。そのため、システムの管理者は、役割が設定されたロボットを、同じ役割を持った人間と同じように動作させることができる。 According to this invention, the movement behavior of the robot is determined based on the movement behavior data of the human having the same role as the robot. Therefore, the system administrator can operate a robot with a role set in the same way as a human having the same role.
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この実施例のロボットの移動制御システム100は、LRF12a,12bを含む数台のLRFを有する中央制御装置10および自律移動ロボット(以下、単に「ロボット」と言う。)14を備える。LRF12a,12bは、人間が任意に移動することができる場所(環境)に設置される。なお、人間が任意に行動する場所は、会社のフロア、博物館、ショッピングモールまたはアトラクション会場などであり、LRF12a,12bは様々な場所に設置される。
Referring to FIG. 1, a robot
中央制御装置10は、LRF12a,12bによって、任意に移動する人間の移動軌跡を検出する。また、中央制御装置10は、LRF12a,12bなどによって取得された移動軌跡およびその移動軌跡が示す移動態様(行動)から構成される移動行動データを、データベースに蓄積する。さらに、中央制御装置10は、ネットワーク200を介して、ロボット14に役割を設定したり、役割に応じた移動行動の動作命令をロボット14に付与したりする。なお、移動態様、つまり行動は、後述する空間グリッド内における移動速度に基づいて求めることができる。
The
ロボット14は、システムの管理者によって役割が設定され、中央制御装置10が付与する動作命令に基づいて動作する。また、ロボット14は、相互作用指向のロボット(コミュニケーションロボット)でもあり、人間のようなコミュニケーションの対象(コミュニケーション対象)との間で、身振り手振りのような身体動作および音声の少なくとも一方を含むコミュニケーション行動を実行する機能を備えている。
The role of the
なお、図1では簡単のため人間は1人しか示していないが、中央制御装置10は2人以上の位置を同時に検出することができる。さらに、ロボット14も同様に1台しか示していないが、中央制御装置10は2台以上のロボット14を同時に管理することができる。
In FIG. 1, only one person is shown for simplicity, but the
図2はこの実施例のロボット14の外観を示す正面図である。図2を参照して、ロボット14は台車30を含み、台車30の下面にはロボット14を自律移動させる2つの車輪32および1つの従輪34が設けられる。2つの車輪32は車輪モータ36(図3参照)によってそれぞれ独立に駆動され、台車30すなわちロボット14を前後左右の任意方向に動かすことができる。また、従輪34は車輪32を補助する補助輪である。したがって、ロボット14は、配置された空間内を自律制御によって移動可能である。
FIG. 2 is a front view showing the appearance of the
台車30の上には、円柱形のセンサ取り付けパネル38が設けられ、このセンサ取り付けパネル38には、多数の赤外線距離センサ40が取り付けられる。これらの赤外線距離センサ40は、センサ取り付けパネル38すなわちロボット14の周囲の物体(人間や障害物など)との距離を測定するものである。
A cylindrical
なお、この実施例では、距離センサとして、赤外線距離センサを用いるようにしてあるが、赤外線距離センサに代えて、小型のLRFや、超音波距離センサおよびミリ波レーダなどを用いることもできる。 In this embodiment, an infrared distance sensor is used as the distance sensor, but a small LRF, an ultrasonic distance sensor, a millimeter wave radar, or the like can be used instead of the infrared distance sensor.
センサ取り付けパネル38の上には、胴体42が直立するように設けられる。また、胴体42の前方中央上部(人の胸に相当する位置)には、上述した赤外線距離センサ40がさらに設けられ、ロボット14の前方の主として人間との距離を計測する。また、胴体42には、その側面側上端部のほぼ中央から伸びる支柱44が設けられ、支柱44の上には、全方位カメラ46が設けられる。全方位カメラ46は、ロボット14の周囲を撮影するものであり、後述する眼カメラ70とは区別される。この全方位カメラ46としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ40および全方位カメラ46の設置位置は、当該部位に限定されず適宜変更され得る。
A
胴体42の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節48Rおよび肩関節48Lによって、上腕50Rおよび上腕50Lが設けられる。図示は省略するが、肩関節48Rおよび肩関節48Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節48Rは、直交する3軸のそれぞれの軸廻りにおいて上腕50Rの角度を制御できる。肩関節48Rの或る軸(ヨー軸)は、上腕50Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節48Lは、直交する3軸のそれぞれの軸廻りにおいて上腕50Lの角度を制御できる。肩関節48Lの或る軸(ヨー軸)は、上腕50Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。
An
また、上腕50Rおよび上腕50Lのそれぞれの先端には、肘関節52Rおよび肘関節52Lが設けられる。図示は省略するが、肘関節52Rおよび肘関節52Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕54Rおよび前腕54Lの角度を制御できる。
In addition, an elbow joint 52R and an elbow joint 52L are provided at the respective distal ends of the
前腕54Rおよび前腕54Lのそれぞれの先端には、人の手に相当する球体56Rおよび球体56Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人間の手の形をした「手」を用いることも可能である。また、図示は省略するが、台車30の前面、肩関節48Rと肩関節48Lとを含む肩に相当する部位、上腕50R、上腕50L、前腕54R、前腕54L、球体56Rおよび球体56Lには、それぞれ、接触センサ58(図3で包括的に示す)が設けられる。台車30の前面の接触センサ58は、台車30への人間や他の障害物の接触を検知する。したがって、ロボット14は、自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪32の駆動を停止してロボット14の移動を急停止させることができる。また、その他の接触センサ58は、当該各部位に触れたかどうかを検知する。なお、接触センサ58の設置位置は、当該部位に限定されず、適宜な位置(人の胸、腹、脇、背中および腰に相当する位置)に設けられてもよい。
A
胴体42の中央上部(人の首に相当する位置)には首関節60が設けられ、さらにその上には頭部62が設けられる。図示は省略するが、首関節60は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット14の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。
A neck joint 60 is provided at the upper center of the body 42 (a position corresponding to a person's neck), and a
頭部62には、人の口に相当する位置に、スピーカ64が設けられる。スピーカ64は、ロボット14が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、人の耳に相当する位置には、マイク66Rおよびマイク66Lが設けられる。以下、右のマイク66Rと左のマイク66Lとをまとめてマイク66と言うことがある。マイク66は、周囲の音、とりわけコミュニケーションを実行する対象である人間の音声を取り込む。さらに、人の目に相当する位置には、眼球部68Rおよび眼球部68Lが設けられる。眼球部68Rおよび眼球部68Lは、それぞれ眼カメラ70Rおよび眼カメラ70Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68と言うことがある。また、右の眼カメラ70Rと左の眼カメラ70Lとをまとめて眼カメラ70と言うことがある。
The
眼カメラ70は、ロボット14に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。また、眼カメラ70は、上述した全方位カメラ46と同様のカメラを用いることができる。たとえば、眼カメラ70は、眼球部68内に固定され、眼球部68は、眼球支持部(図示せず)を介して頭部62内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部62の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部62の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ70の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ64、マイク66および眼カメラ70の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。
The
このように、この実施例のロボット14は、車輪32の独立2軸駆動、肩関節48の3自由度(左右で6自由度)、肘関節52の1自由度(左右で2自由度)、首関節60の3自由度および眼球支持部の2自由度(左右で4自由度)の合計17自由度を有する。
As described above, the
図3はロボット14の電気的な構成を示すブロック図である。この図3を参照して、ロボット14は、CPU80を含む。CPU80は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス82を介して、メモリ84、モータ制御ボード86、センサ入力/出力ボード88および音声入力/出力ボード90に接続される。
FIG. 3 is a block diagram showing an electrical configuration of the
メモリ84は、図示は省略をするが、ROMおよびRAMを含む。ROMには、ロボット14の動作を制御するための制御プログラムが予め記憶される。たとえば、各センサの出力(センサ情報)を検知するための検知プログラムや、外部コンピュータ(中央制御装置10)との間で必要なデータやコマンドを送受信するための通信プログラムなどが記録される。また、RAMは、CPU80のワークメモリやバッファメモリとして用いられる。
The
モータ制御ボード86は、たとえばDSPで構成され、各腕や首関節および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード86は、CPU80からの制御データを受け、右眼球部68Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ92」と示す)の回転角度を制御する。同様に、モータ制御ボード86は、CPU80からの制御データを受け、左眼球部68Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ94」と示す)の回転角度を制御する。
The
また、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ96」と示す)の回転角度を制御する。同様に、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ98」と示す)の回転角度を制御する。
The
さらに、モータ制御ボード86は、CPU80からの制御データを受け、首関節60の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ110」と示す)の回転角度を制御する。そして、モータ制御ボード86は、CPU80からの制御データを受け、車輪32を駆動する2つのモータ(図3では、まとめて「車輪モータ36」と示す)の回転角度を制御する。なお、この実施例では、車輪モータ36を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ36と同様に直流モータを用いるようにしてもよい。また、ロボット14の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更されてもよい。たとえば、他の実施例では、エアアクチュエータなどが適用されてもよい。
Further, the
センサ入力/出力ボード88は、モータ制御ボード86と同様に、DSPで構成され、各センサからの信号を取り込んでCPU80に与える。すなわち、赤外線距離センサ40のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード88を通じてCPU80に入力される。また、全方位カメラ46からの映像信号が、必要に応じてセンサ入力/出力ボード88で所定の処理を施してからCPU80に入力される。眼カメラ70からの映像信号も、同様に、CPU80に入力される。また、上述した複数の接触センサ58(図3では、まとめて「接触センサ58」と示す)からの信号がセンサ入力/出力ボード88を介してCPU80に与えられる。音声入力/出力ボード90もまた、同様に、DSPで構成され、CPU80から与えられる音声合成データに従った音声または声がスピーカ64から出力される。また、マイク66からの音声入力が、音声入力/出力ボード90を介してCPU80に与えられる。
Similar to the
また、CPU80は、バス82を介して通信LANボード112に接続される。通信LANボード112は、たとえばDSPで構成され、CPU80から与えられた送信データを無線通信装置114に与え、無線通信装置114は送信データを、ネットワーク200を介して外部コンピュータ(中央制御装置10)に送信する。また、通信LANボード112は、無線通信装置114を介してデータを受信し、受信したデータをCPU80に与える。たとえば、送信データとしては、全方位カメラ46および目カメラ70によって撮影された周囲の映像データであったりする。
The
図4は中央制御装置10の電気的な構成を示すブロック図である。図4を参照して、中央制御装置10は、LRF12a−12fおよびCPU16などを含む。CPU16は、マイクロコンピュータ或いはプロセッサとも呼ばれる。また、CPU16には、先述したLRF12aおよびLRF12bに加えて、LRF12c,LRF12d,LRF12eおよびLRF12fも接続される。さらに、CPU16には、メモリ18、役割データベース20、予測用データベース22および通信LANボード24も接続される。
FIG. 4 is a block diagram showing an electrical configuration of the
なお、LRF12a−12fを区別する必要がない場合には、まとめて「LRF12」と言う。 In addition, when it is not necessary to distinguish LRF12a-12f, it is collectively called "LRF12."
LRF12は、レーザーを照射し、物体(人間も含む)に反射して戻ってくるまでの時間から当該物体までの距離を計測するものである。たとえば、トランスミッタ(図示せず)から照射したレーザーを回転ミラー(図示せず)で反射させて、前方を扇状に一定角度(たとえば、0.5度)ずつスキャンする。ここで、LRF12としては、SICK社製のレーザーレンジファインダ(型式 LMS200)を用いることができる。このレーザーレンジファインダを用いた場合には、距離8mを±15mm程度の誤差で計測可能である。
The
メモリ18は、図示は省略をするが、ROM,HDDおよびRAMを含み、ROMおよびHDDには、中央制御装置10の動作を制御するための制御プログラムが予め記憶される。たとえば、LRF12による人間の検出に必要なプログラムなどが記録される。また、RAMは、CPU16のワークメモリやバッファメモリとして用いられる。
Although not shown, the
役割データベース20は、役割を持つ複数の人間の移動行動データから構成されるデータベースである。また、予測用データベース22は、人間の役割に関係なく、移動行動データが一定期間(たとえば、1週間)蓄積されたデータベースである。そして、本実施例では、役割データベース20を利用してロボット14の移動が制御され、予測用データベース22を利用して空間に存在する人間の将来位置などが予測される。
The
通信LANボード24は、たとえばDSPで構成され、CPU16から与えられた送信データを無線通信装置26に与え、無線通信装置24は送信データを、ネットワーク200を介してロボット14に送信する。たとえば、送信データとしては、ロボット14に指示する動作命令の信号(コマンド)であったりする。また、通信LANボード24は、無線通信装置26を介してデータを受信し、受信したデータをCPU16に与える。
The
次に、LRF12について詳細に説明する。図5を参照して、LRF12の計測範囲は、半径r(r≒8m)の半円形状(扇形)で示される。つまり、LRF12は、その正面方向を中心とした場合に、左右90度の方向を所定の距離(r)以内で計測可能である。
Next, the
また、使用しているレーザーは、日本工業規格 JIS C 6802「レーザー製品の安全基準」におけるクラス1レーザーであり、人の眼に対して影響を及ぼさない安全なレベルである。また、この実施例では、LRF12のサンプリングレートを37Hzとした。これは、歩行するなどにより移動する人間の位置を連続して検出するためである。
The laser used is a
さらに、LRF12の各々は、検出領域が重なるように配置され、図示は省略するが、床面から約90cmの高さに固定される。この高さは、被験者の胴体と腕(両腕)とを検出可能とするためであり、たとえば、日本人の成人の平均身長から算出される。したがって、中央制御装置10を設ける場所(地域ないし国)や被験者の年齢ないし年代(たとえば、子供,大人)に応じて、LRF12を固定する高さを適宜変更するようにしてよい。なお、本実施例では、設定されるLRF12は6台としたが、2台以上であれば、任意の台数のLRF12が設置されてもよい。
Further, each of the
このような構成の中央制御装置10では、CPU16がLRF12からの出力(距離データ)に基づいて、パーティクルフィルタを用いて、人間の現在位置の変化を推定する。そして、推定された現在位置の変化は移動軌跡として記録される。
In the
たとえば、図6を参照して、LRF12a,12bは互いに向い合せに設置され、LRF12a,12bの計測範囲が重なる範囲は斜線が付されて示される。斜線が付された範囲は検出領域Eとされ、この検出領域E内では人間の現在位置が連続的に検出される。そして、連続的に検出された現在位置の変化が移動軌跡tとなる。なお、検出領域E内は、X−Y座標が設定され、人間の位置は(X,Y)の座標で示すことができる。
For example, referring to FIG. 6,
役割データベース20について詳細に説明する。役割データベース20は、図7(A)に示す役割テーブルと、図7(B)に示す代表移動行動データテーブルとを含む。
The
図7(A)を参照して、役割テーブルは、役割ID、代表移動行動IDおよび平均移動速度の列から構成される。また、代表移動行動IDの列は、n(nは自然数)個の代表移動行動IDのそれぞれに対応する複数の列を含む。 Referring to FIG. 7A, the role table is composed of columns of role ID, representative moving action ID, and average moving speed. The representative movement action ID column includes a plurality of columns corresponding to n (n is a natural number) representative movement action IDs.
役割IDの列には、役割を識別するためのIDとして、「a」−「e」が記録されている。たとえば、役割ID「a」は「話しかけやすい警備員」を表す。また、役割IDの列に「a」と記録されている行では、代表移動行動IDの各列には、代表移動行動ID「Ta1」、「Ta2」および「Tan」などが記録され、平均移動速度の列には「700mm/sec」が記録される。したがって、「話しかけやすい警備員」は、約700mm/secの速度で、代表移動行動ID「Ta1」、「Ta2」または「Tan」などによって示される移動軌跡(図9(A),(B)参照)を描くように移動していることが分かる。 In the role ID column, “a”-“e” are recorded as IDs for identifying roles. For example, the role ID “a” represents “an easy-to-talk guard”. In the row where “a” is recorded in the role ID column, the representative movement action IDs “Ta1”, “Ta2”, “Tan”, and the like are recorded in each column of the representative movement action ID, and the average movement In the speed column, “700 mm / sec” is recorded. Therefore, the “security guard who is easy to talk” moves at a speed of about 700 mm / sec, and the movement trajectory indicated by the representative movement action ID “Ta1”, “Ta2” or “Tan” (see FIGS. 9A and 9B). You can see that it is moving like drawing.
役割ID「b」は「話しかけにくい警備員」を表す。また、役割IDの列に「b」と記録されている行では、代表移動行動IDの各列には、代表移動行動ID「Tb1」、「Tb2」および「Tbn」などが記録され、平均移動速度の列には「1200mm/sec」が記録される。したがって、「話しかけにくい警備員」は、約1200mm/secの速度で、代表移動行動ID「Tb1」、「Tb2」または「Tbn」などによって示される移動軌跡(図9(C),(D)参照)を描くように移動していることが分かる。 The role ID “b” represents “a guard who is difficult to talk to”. In the row where “b” is recorded in the role ID column, the representative movement behavior IDs “Tb1”, “Tb2”, “Tbn”, and the like are recorded in each column of the representative movement behavior ID, and the average movement In the speed column, “1200 mm / sec” is recorded. Therefore, the “security guard who is difficult to talk” moves at a speed of about 1200 mm / sec at the speed of the movement trajectory indicated by the representative movement action ID “Tb1”, “Tb2” or “Tbn” (see FIGS. 9C and 9D). You can see that it is moving like drawing.
また、役割ID「c」は「清掃員」を表し、役割ID「d」は「あまり動かない監視員」を表し、役割ID「d」は「受付係」を表す。また、これらの役割IDが記録される行の代表移動行動IDの列については、役割ID「a」または役割ID「b」が記録される行と略同じ構成であるため、詳細な説明は省略する。そして、平均移動速度の列では、役割ID「c」に対応して「600mm/sec」が記録され、役割ID「d」に対応して「100mm/sec」が記録され、役割ID「e」に対応して「0mm/sec」が記録される。 Further, the role ID “c” represents “cleaner”, the role ID “d” represents “monitorer who does not move so much”, and the role ID “d” represents “acceptor”. In addition, the column of the representative movement action ID in the row in which these role IDs are recorded has substantially the same configuration as the row in which the role ID “a” or the role ID “b” is recorded, and thus detailed description thereof is omitted. To do. In the average moving speed column, “600 mm / sec” is recorded corresponding to the role ID “c”, “100 mm / sec” is recorded corresponding to the role ID “d”, and the role ID “e” is recorded. Corresponding to “0 mm / sec” is recorded.
また、図7(B)を参照して、代表移動行動データテーブルは、代表移動行動IDの列および移動行動データの列から構成される。代表移動行動IDの列には、役割テーブルに記録される代表移動行動IDと同じIDが記録される。また、移動行動データの列には、移動軌跡を構成する座標(X,Y)と、その座標で行われた行動(A)とから表される移動行動データが記録される。 Also, referring to FIG. 7B, the representative movement behavior data table includes a column of representative movement behavior IDs and a column of movement behavior data. In the column of the representative movement action ID, the same ID as the representative movement action ID recorded in the role table is recorded. In addition, in the column of movement action data, movement action data represented by coordinates (X, Y) constituting the movement locus and actions (A) performed at the coordinates are recorded.
たとえば、代表移動行動ID「Ta1」に対応して、移動行動データの列には「(Xa1,Ya1,Aa1),(Xa2,Ya2,Aa2),…」が記録される。また、代表移動行動ID「Tb1」に対応して、移動行動データの列には「(Xb1,Yb1,Ab1),(Xb2,Yb2,Ab2),…」が記録される。そして、代表移動行動ID「Tc1」、「Td1」および「Te1」のそれぞれにも、対応する移動行動データが記録される。 For example, “(Xa1, Ya1, Aa1), (Xa2, Ya2, Aa2),...” Is recorded in the movement behavior data column corresponding to the representative movement behavior ID “Ta1”. Corresponding to the representative movement action ID “Tb1”, “(Xb1, Yb1, Ab1), (Xb2, Yb2, Ab2),...” Is recorded in the movement action data column. Corresponding movement action data is also recorded in each of the representative movement action IDs “Tc1”, “Td1”, and “Te1”.
このようにして、役割データベース20には、役割に対応する移動行動データが記録される。また、代表移動行動データが読み出される場合、役割テーブルが参照された後に、ロボット14に設定された役割に対応する移動行動データが読みされる。
In this way, the movement database corresponding to the role is recorded in the
なお、これらの5つの役割は、街角で活動する人々を想定して決められたものだが、他の実施例では場所や状況に応じて他の役割が付加されてもよい。たとえば、他の実施例では、数分は一か所で静止し、その後、少し身体の向きを変えたり移動したりする「あまり移動しない警備員」の役割が追加されてもよい。 These five roles are determined on the assumption of people who are active on street corners, but in other embodiments, other roles may be added depending on the location and circumstances. For example, in another embodiment, the role of “a guard that does not move very much” may be added, which will remain stationary in one place for a few minutes and then turn or move slightly.
次に、移動行動データに含まれる移動軌跡および行動について説明する。図8を参照して、検出領域Eが25cm四方で空間グリッド化され、その検出領域Eを人間が移動すると、人間の移動軌跡Htが得られる。また、グリッド毎に移動速度が算出され、グリッド毎に行動(A)が求められる。 Next, the movement trajectory and behavior included in the movement behavior data will be described. Referring to FIG. 8, when detection area E is formed into a spatial grid in a 25 cm square, and a person moves in detection area E, human movement trajectory Ht is obtained. Further, the moving speed is calculated for each grid, and the action (A) is obtained for each grid.
たとえば、或るグリッドにおける移動速度が第1閾値(たとえば、10mm/sec)以下であれば、そのグリッド内の行動は「立ち止まる」となる。また、移動速度が第1閾値よりも大きく第2閾値(800mm/sec)以下であれば、グリッド内の行動は「ゆっくり直進」となる。さらに、移動速度が第2閾値よりも大きければ、グリッド内の移動速度は「早歩きで直進」となる。そして、図8では、行動が「立ち止まる」と判断されたグリッドは黄色(図面では水玉模様)に彩色され、行動が「ゆっくり直進」と判断されたグリッドは青色(図面では横縞模様)に彩色され、行動が「早歩きで直進」と判断されたグリッドは赤色(図面では縦縞模様)に彩色される。なお、本実施例における移動行動とは、上記した行動を伴う移動を意味する。 For example, if the moving speed in a certain grid is equal to or lower than a first threshold (for example, 10 mm / sec), the action in the grid is “stopped”. Further, if the moving speed is greater than the first threshold and less than or equal to the second threshold (800 mm / sec), the action in the grid is “slowly going straight”. Furthermore, if the moving speed is greater than the second threshold, the moving speed in the grid is “straight forward and go straight”. In FIG. 8, the grid for which the action is determined to be “stop” is colored yellow (polka dot pattern in the drawing), and the grid for which the action is determined to be “slowly straight” is colored blue (horizontal stripe pattern in the drawing). The grid for which the action is determined to be “walk fast and go straight” is colored red (vertical stripe pattern in the drawing). In addition, the movement action in a present Example means the movement accompanying an above-described action.
これらのことを踏まえて、「話しかけやすい警備員」および「話しかけにくい警備員」の代表移動行動データについて説明する。まず、図9(A)の代表移動行動ID「Ta1」の移動行動データは、「話しかけやすい警備員」が中央付近をうろうろするように「ゆっくり直進」していることを表す。また、図9(B)の代表移動行動ID「Ta2」の移動行動データは、「話しかけやすい警備員」が空間の中央付近で円を描くように「ゆっくり直進」していることを表す。そして、これらの代表移動行動データから、「話しかけやすい警備員」は目的を持っていないかのように、中央付近をゆっくりと移動していることが分かる。 Based on these facts, the representative movement behavior data for “easy to speak security guards” and “hard to talk security guards” will be described. First, the movement action data of the representative movement action ID “Ta1” in FIG. 9A represents that “a security guard who is easy to talk” is “slowly going straight” so as to walk around the center. Further, the movement action data of the representative movement action ID “Ta2” in FIG. 9B represents that “a security guard who is easy to talk” is “slowly going straight” so as to draw a circle near the center of the space. From these representative movement behavior data, it can be seen that “the security guard who is easy to talk” slowly moves around the center as if it had no purpose.
これに対して、図9(C)の代表移動行動ID「Tb1」の移動行動データは、「話しかけにくい警備員」が「早歩きで直進」しながら空間の縁に沿って空間内を一周していることを表す。また、図9(D)の代表移動行動ID「Tb2」の移動行動データは、「話しかけにくい警備員」が空間の右と上の淵を「早歩きで直進」していることを表す。そして、これらの代表移動行動データから、「話しかけにくい警備員」は目的を持っているかのように、素早く移動していることが分かる。 On the other hand, the movement data of the representative movement action ID “Tb1” in FIG. 9 (C) travels around the space along the edge of the space while the “security guard who is difficult to talk to” “walks straight ahead”. Represents that Further, the movement action data of the representative movement action ID “Tb2” in FIG. 9D indicates that the “security guard who is difficult to talk” is “straightly walking straight” on the right and upper fences of the space. From these representative movement behavior data, it can be seen that the “security guard who is difficult to talk to” moves quickly as if having a purpose.
そして、本実施例では、ロボット14に役割が設定されると、ロボット14の役割などに基づいて代表移動行動データが選択され、選択された代表移動行動データに基づいてロボット14の移動行動が制御される。
In this embodiment, when a role is set for the
まず、代表移動行動データを選択するために、DPマッチングを利用するため、ロボット14の移動軌跡が状態列に変換される。また、役割テーブルにおいて、ロボット14に設定されている役割を示す、代表移動行動IDの行に基づいて、複数の代表移動行動データが読み出され、複数の代表移動行動データのそれぞれに含まれる移動軌跡が状態列に変換される。さらに、ロボット14の状態列と各代表移動行動データの状態列それぞれとの類似度がDPマッチングによって算出される。そして、算出された類似度に基づいて、役割データベース20から代表移動行動データが選択される。なお、DPマッチングを利用して移動軌跡を比較する手法については、非特許文献1で開示されているため、詳細な説明は省略する。
First, in order to use the DP matching to select the representative movement action data, the movement trajectory of the
このように、ロボット14の移動軌跡を利用して代表移動行動データを選択することができるため、ロボット14の現在位置やそれまでの移動を考慮して、ロボット14の移動行動を決めることができる。
Thus, since the representative movement behavior data can be selected using the movement locus of the
また、代表移動行動データが選択されると、ロボット14の現在位置において、複数の将来位置および複数の将来位置における行動が予測される。さらに、予測された行動のそれぞれは発生確率が算出され、算出された各発生確率に基づいて、ロボットの14の移動行動が決められる。そして、中央制御装置10は、このようにして決められた移動行動に対応する動作命令を、ロボット14に付与する。
When representative movement behavior data is selected, behaviors at a plurality of future positions and a plurality of future positions are predicted at the current position of the
たとえば、図10に示す状態では、ロボット10は左から右への移動軌跡を描きながら移動しており、そのロボット14に「話しかけにくい警備員」が設定されている。この場合、ロボット14の役割および移動軌跡などに基づいて、代表移動行動ID「b」の行が参照され、代表移動行動ID「Tb1」の移動行動データ(図9(C)参照)が選択される。
For example, in the state shown in FIG. 10, the
そして、図11(A)を参照して、ロボット14の将来位置および行動として、ロボット14の右のグリッドに「早歩きで直進」、同じグリッドで「立ち止まる」、左のグリッドに「早歩きで直進」が予測される。さらに、予測された行動のそれぞれは発生確率が算出され、ロボット14の移動先は、発生確率が最も高い行動が求められたグリッドに決められる。ここでは、右のグリッドに「早歩きで直進」の発生確率が最も高いため、図11(B)に示すように、ロボット14は「早歩きで直進」して右側のグリッドに移動する。
Then, referring to FIG. 11A, as the future position and action of the
さらに、図11(C),(D)を参照して、移動した先のグリッドにおいても、ロボット14の将来位置および行動は予測され、右へ移動し続ける。つまり、ロボット14は、代表移動行動ID「Tb1」の移動行動データに含まれる移動軌跡と同じように移動する。
Further, with reference to FIGS. 11C and 11D, the future position and action of the
たとえば、「話しかけやすい警備員」は、検出領域Eの中央付近をうろうろするような振る舞いが多くなる。そのため、ロボット14に「話しかけやすい警備員」の役割が設定されている場合、検出領域Eの中央付近では、うろうろするような移動行動の発生確率が高くなる。一方、検出領域Eの縁などでは、中央付近に移動する移動行動の発生確率が高くなる。また、他の実施例において「あまり移動しない警備員」の役割がロボット14に設定されていれば、数分は静止する移動行動の発生確率が高くなり、数分後には移動に関する移動行動の発生確率が高くなる。
For example, a “security guard who is easy to talk to” has a lot of behavior that hangs around the center of the detection area E. Therefore, when the role of “an easy-to-talk guard” is set for the
このように、役割を持った人間の移動行動データを蓄積することで、データを蓄積した同一の空間では、管理者は、役割を持った人間と同じようにロボット14を動作させることができる。
As described above, by accumulating the movement behavior data of the person having the role, the administrator can operate the
なお、図11(A)−(D)において、グリッドの模様(色)は、発生確率によって濃度が変化する。たとえば、縦縞模様(赤色)または横縞模様(青色)の場合、発生確率が高くなるにつれて縞の密度(色の濃度)が高くなる。また、水玉模様(黄色)の場合、発生確率が高くなるにつれて水玉の密度(色の濃度)が高くなる。また、上記した色の濃度は、他の図面でも同じように表現されることが有る。 11A to 11D, the density of the grid pattern (color) varies depending on the occurrence probability. For example, in the case of a vertical stripe pattern (red) or a horizontal stripe pattern (blue), the stripe density (color density) increases as the generation probability increases. In the case of a polka dot pattern (yellow), the density of the polka dots (color density) increases as the probability of occurrence increases. The color density described above may be expressed in the same way in other drawings.
ここで、ロボット14の周囲に人間Hが存在する場合について説明する。まず、図12(A)−図12(C)を参照して、「話しかけやすい警備員」が設定されたロボット14は、代表移動行動ID「Ta1」の移動行動データに含まれる移動軌跡と同じように移動する。また、図12(D)で示される時刻に、検出領域E内で人間Hが検出されると、次の時刻では、その人間Hの将来位置および行動が、ロボット14の将来位置および行動よりも先に予測される。そして、図12(E),(F)を参照して、ロボット14の将来位置および行動は、人間Hの将来位置(点線で囲われた範囲)を除いたグリッドにおいて予測される。つまり、人間が進む位置にはロボット14は進むことができないため、人間の将来位置ではロボット14の将来位置および行動は予測されないように出来る。
Here, the case where the human H exists around the
なお、他の実施例では、検出領域E内で、複数の人間が同時に検出されてもよい。この場合、複数の人間のそれぞれに対して将来位置が予測される。 In another embodiment, a plurality of people may be detected in the detection area E at the same time. In this case, a future position is predicted for each of a plurality of humans.
図13は図4に示す中央制御装置10におけるメモリ18のメモリマップ300の一例を示す図解図である。図13が示すように、メモリ18はプログラム記憶領域302およびデータ記憶領域304を含む。プログラム記憶領域302には、中央制御装置10を動作させるためのプログラムとして、役割データベース構築プログラム310、役割設定プログラム312および移動制御プログラム314などが記憶される。
FIG. 13 is an illustrative view showing one example of a memory map 300 of the
役割データベース構築プログラム310は、新しい移動行動データを役割データベース20に追加するためのプログラムである。役割設定プログラム312は、ロボット14に役割を設定するためのプログラムである。移動制御プログラム314は、役割が設定されたロボット14の移動行動を制御するためのプログラムである。
The role
なお、図示は省略するが、中央制御装置10を動作させるためのプログラムには、ロボット14との無線通信を確立するためのプログラムなども含まれる。
Although not shown, the program for operating the
また、データ記憶領域304には、移動軌跡バッファ330、移動行動予測バッファ332、代表移動行動バッファ334および発生確率バッファ336が設けられる。また、データ記憶領域304には、地図データ338および役割データ340が記憶される。
The
移動軌跡バッファ330には、LRF12によって検出された人間およびロボット14の移動軌跡が一時的に記憶される。移動行動予測バッファ332には、ロボット14および人間の予測された複数の将来位置および行動が一時的に記憶される。たとえば、移動行動予測バッファ332には、複数の将来位置を示す座標およびその座標に対応付けられた行動を示す代表移動行動IDが記憶される。代表移動行動バッファ334には、役割データベース20から選択された代表移動行動データが一時的に記憶される。発生確率バッファ336には、移動行動予測バッファ332に格納されている、予測された行動の発生確率が一時的に記憶される。
The
地図データ338は、検出領域Eを示す地図の画像データであり、たとえば図8に示すように空間がグリッドに分けられた地図である。役割データ340は、ロボット14に設定された役割を示すデータである。
The
なお、図示は省略するが、データ記憶領域304には、様々な計算の結果を一時的に格納するバッファなどが設けられると共に、中央制御装置10の動作に必要な他のカウンタやフラグなども設けられる。
Although not shown, the
以下、中央制御装置10のCPU16によって実行されるプログラムについて説明する。図14のフロー図は役割データベース構築プログラム310による処理を示し、図15のフロー図は役割設定プログラム312による処理を示し、図16および図17のフロー図は移動制御プログラム314による処理を示す。
Hereinafter, a program executed by the
図14は役割データベース構築処理のフロー図である。たとえば、管理者が役割を持つ人間の移動行動データを新たに追加する操作を行うと、中央制御装置10のCPU16は、ステップS1で開始操作がされたか否かを判断する。つまり、人間の移動軌跡および行動の蓄積を開始する操作がされたか否かを判断する。ステップS1で“NO”であれば、つまり開始する操作がされなければ、ステップS1の処理が繰り返し実行される。また、ステップS1で“YES”であれば、つまり開始する操作がされると、ステップS3で移動軌跡および行動を蓄積する。つまり、LRF12によって検出された移動軌跡とその移動軌跡が示す行動とが移動軌跡バッファ330に格納される。
FIG. 14 is a flowchart of the role database construction process. For example, when the administrator performs an operation of newly adding human movement behavior data with a role, the
続いて、ステップS5では、所定時間(たとえば、60秒)が経過したか否かを判断する。つまり、移動行動を予測するに十分な移動軌跡および行動が蓄積されたか否かを判断する。ステップS5で“NO”であれば、つまり所定時間が経過していなければ、ステップS3に戻る。一方、ステップS5で“YES”であれば、つまり所定時間が経過すれば、ステップS7でラベル付け操作がされたか否かを判断する。たとえば、蓄積した移動軌跡および行動に対して、「話しかけやすい警備員」などのラベルを付ける操作がされたか否かを判断する。ステップS7で“NO”であれば、つまりラベルを付ける操作がされなければステップS7の処理が繰り返し実行される。 Subsequently, in step S5, it is determined whether or not a predetermined time (for example, 60 seconds) has elapsed. That is, it is determined whether or not the movement trajectory and behavior sufficient to predict the movement behavior are accumulated. If “NO” in the step S5, that is, if the predetermined time has not elapsed, the process returns to the step S3. On the other hand, if “YES” in the step S5, that is, if a predetermined time elapses, it is determined whether or not a labeling operation is performed in a step S7. For example, it is determined whether or not an operation of attaching a label such as “an easy-to-talk guard” to the accumulated movement trajectory and action is performed. If “NO” in the step S7, that is, if a labeling operation is not performed, the process in the step S7 is repeatedly executed.
また、ステップS7で“YES”であれば、つまりラベルを付ける操作がされると、ステップS9で蓄積した移動軌跡および行動に、代表移動行動IDを付けて、役割データベースに追加する。たとえば、「話しかけやすい警備員」のラベルが付ける操作がされると、蓄積した移動軌跡および行動に対して、「話しかけやすい警備員」の代表移動行動IDを付けて、代表移動行動データテーブルに追加する。なお、ステップS9の処理を実行するCPU16は追加手段として機能する。 If “YES” in the step S7, that is, if a labeling operation is performed, a representative movement action ID is added to the movement trajectory and action accumulated in the step S9 and added to the role database. For example, when an operation for labeling “easy to talk” is performed, a representative movement behavior ID of “easy to speak” is added to the accumulated movement trajectory and action and added to the representative movement behavior data table. To do. In addition, CPU16 which performs the process of step S9 functions as an addition means.
続いて、ステップS11では、終了操作がされたか否かが判断される。つまり、役割データベース構築処理を終了する操作がされた否かを判断する。ステップS11で“NO”であれば、つまり終了操作がされなければ、ステップS1に戻る。一方、ステップS11で“YES”であれば、つまり終了操作がされると、役割データベース構築処理が終了する。 Subsequently, in step S11, it is determined whether or not an end operation has been performed. That is, it is determined whether or not an operation for ending the role database construction process has been performed. If “NO” in the step S11, that is, if the end operation is not performed, the process returns to the step S1. On the other hand, if “YES” in the step S11, that is, if an end operation is performed, the role database construction process is ended.
図15は役割設定処理のフロー図である。たとえば、管理者がロボット14に役割を設定するための処理を行うと、CPU16はステップS21で、役割が選択されたか否かを判断する。たとえば、「話しかけやすい警備員」、「話しかけにくい警備員」、「清掃員」、「あまり動かない監視員」および「受付係」の中から1つの役割が選択されたか否かを判断する。ステップS21で“NO”であれば、つまり役割が選択されなければ、ステップS21の処理が繰り返し実行される。また、ステップS21で“YES”であれば、つまり役割が選択されると、ステップS23でロボット14に選択された役割を設定し、役割設定処理を終了する。
FIG. 15 is a flowchart of role setting processing. For example, when the administrator performs a process for setting a role in the
たとえば、「話しかけやすい警備員」が選択されていた場合、ステップS23では、ロボット14には「話しかけやすい警備員」が設定される。また、設定された役割は、役割データ340としてメモリ18に記憶される。なお、ステップS23の処理を実行するCPU16は、役割手段として機能する。
For example, if “easy to talk” is selected, in step S <b> 23, “easy to talk” is set for the
図16および図17は移動制御処理のフロー図である。たとえば、中央制御装置10の電源がオンにされると、CPU16はステップS41で、ロボット14に設定された役割を取得する。つまり、役割データ340からロボット14に設定されている役割が取得される。続いて、ステップS43で終了操作か否かを判断する。つまり、移動制御処理を終了するための操作がされたか否かを判断する。ステップS43で“NO”であれば、終了操作がされなければ、ステップS45でロボットの現在位置および移動軌跡を取得する。つまり、移動軌跡バッファ330に格納されている移動軌跡を読み出し、移動軌跡の最後の位置を現在位置として取得する。なお、ステップS45の処理を実行するCPU16は移動軌跡取得手段として機能する。
16 and 17 are flowcharts of the movement control process. For example, when the
続いて、ステップS47でロボット14の役割、現在位置および移動軌跡に基づいて、代表移動行動データを選択する。まず、CPU16は、ロボット14の役割を示す役割IDの行から各代表移動行動IDを読み出す。次に、CPU16は、各代表移動行動IDが示す移動行動データに含まれる移動軌跡とロボット14の移動軌跡とを状態列に変換して、DPマッチングによって類似度を算出する。そして、類似度が最も高い代表移動行動データを、役割データベース20の代表移動行動データテーブルから選択する。また、選択された代表移動行動データは、代表移動行動バッファ334に格納される。なお、ステップS47の処理を実行するCPU16は選択手段として機能する。
In step S47, representative movement action data is selected based on the role of the
続いて、ステップS49でロボット14の将来位置および行動を予測する。つまり、選択された代表移動行動データに基づいて、次の時刻における複数の将来位置および行動を予測する。なお、ステップS49の処理を実行するCPU16は第1予測手段として機能する。
Subsequently, the future position and behavior of the
続いて、ステップS51で人間が周囲に存在するか否かを判断する。つまり、検出領域E内で人間が検出されているか否かを判断する。ステップS51で“YES”であれば、つまり検出領域Eに人間が存在していれば、ステップS53で人間の移動軌跡を取得する。つまり、移動軌跡バッファ330から人間の移動軌跡を取得する。続いて、ステップS55で人間の移動軌跡に基づいて人間の将来位置を予測する。つまり、ロボット14の将来位置を予測する場合と同じように、予測用データベース22から人間の移動軌跡と類似する移動軌跡を選択する。そして、選択された移動軌跡に基づいて、次の時刻における人間の将来位置を予測する。なお、ステップS55の処理を実行するCPU16は第2予測手段として機能する。
Subsequently, in step S51, it is determined whether or not a human is present around. That is, it is determined whether or not a person is detected in the detection area E. If “YES” in the step S51, that is, if a human is present in the detection area E, a moving locus of the human is acquired in a step S53. That is, a human movement trajectory is acquired from the
続いて、ステップS57では、人間の将来位置を除き、予測された行動の発生確率を算出する。たとえば、図12(E)のように、人間の将来位置を除いて、ロボット14の各将来位置において、ロボット14の行動の発生確率が算出される。そして、算出された発生確率は、将来位置を示す座標と対応付けられて発生確率バッファ336に格納される。
Subsequently, in step S57, the occurrence probability of the predicted action is calculated excluding the human future position. For example, as shown in FIG. 12E, the probability of occurrence of the action of the
また、周囲に人間がいなければ、ステップS51で“NO”と判断され、ステップS59で予測された行動の発生確率が算出される。たとえば、図11(A)に示すように、ロボット14の将来位置において行動の発生確率が算出される。
If no person is present in the vicinity, “NO” is determined in step S51, and the occurrence probability of the behavior predicted in step S59 is calculated. For example, as shown in FIG. 11A, the occurrence probability of the action at the future position of the
なお、ステップS57またはステップS59の処理を実行するCPU16は算出手段として機能する。 In addition, CPU16 which performs the process of step S57 or step S59 functions as a calculation means.
続いて、ステップS61では、算出された発生確率に基づいて、次の移動行動を決定する。たとえば、図11(A)のように発生確率が算出された場合、ロボット14の右側のグリッドにおける行動の発生確率が最も高いため、「右側のグリッドへ早歩きで直進する」という移動行動がステップS61の処理によって決められる。続いて、ステップS63では、ロボット14に移動行動を指示して、ステップS43に戻る。つまり、ステップS61で決められた移動行動の動作命令が、ロボット14に付与される。
Subsequently, in step S61, the next moving action is determined based on the calculated occurrence probability. For example, when the occurrence probability is calculated as shown in FIG. 11A, since the action occurrence probability in the right grid of the
なお、ステップS43で“YES”であれば、つまり終了操作がされると、移動制御処理が終了する。 If “YES” in the step S43, that is, if an end operation is performed, the movement control process is ended.
以上のことから、移動制御システム100は、役割データベース20を備える中央制御装置10および役割が設定されたロボット14を有する。また、役割データベース20は、役割を持った人間の代表移動行動データから構成される。たとえば、ロボット14に「話しかけやすい警備員」の役割が設定されている場合、「話しかけやすい警備員」の代表移動行動データが役割データベース20から選択される。また、中央制御装置10では、役割が設定されたロボット14の複数の将来位置および各将来位置における行動が代表移動行動データに基づいて予測され、予測された複数の行動のそれぞれの発生確率が算出される。そして、ロボット14には、算出された発生確率に基づいて移動行動が指示される。
From the above, the
したがって、ロボット14と同じ役割を持った人間の移動行動データに基づいて、ロボット14の移動行動が決まる。そのため、システムの管理者は、役割が設定されたロボットを、同じ役割を持った人間と同じように動作させることができる。
Therefore, the movement behavior of the
なお、ロボット14が移動しておらず、移動軌跡が存在しない場合、DPマッチングを利用せずに、ロボット14の現在位置に近い座標を含む代表移動行動データが選択される。また、他の実施例では、DPマッチングとは異なる手法を利用して、代表移動行動が選択されてもよい。
If the
また、本実施例では、最も発生確率が高い行動が選択されたが、他の実施例では発生確率が80%を超える上位3つの行動からランダムに選択されてもよい。 In the present embodiment, the action having the highest occurrence probability is selected, but in other embodiments, the action may be selected at random from the top three actions having an occurrence probability exceeding 80%.
また、他の実施例では、「立ち止まってから、身体の向きを変える」や「後進する」などの行動が移動軌跡から検出されてもよい。 In another embodiment, an action such as “change the direction of the body after stopping” or “reverse” may be detected from the movement trajectory.
また、人間の位置を検出するためにLRF12を用いたが、LRF12に代えて超音波距離センサやミリ波レーダなどを用いて、人間の位置が検出されてもよい。さらに、人間が所持する携帯通信端末の電波強度を利用して、人間の位置および移動軌跡が検出されてもよい。
Further, although the
また、本実施例では、役割データベースを構成する代表移動行動は管理者の操作によって追加されているが、他の実施例では移動行動データが自動的に追加されてもよい。たとえば、人間の移動速度、行動範囲および移動軌跡の形状が所定条件を満たす場合に、その人間の移動行動データが役割データベース20に追加される。この場合、役割を持った人間の移動軌跡は携帯通信端末の電波強度を利用して検出し、その他の人間の移動軌跡はLRF12によって検出されてもよい。
Further, in this embodiment, the representative movement behavior configuring the role database is added by the operation of the administrator, but in other embodiments, movement behavior data may be automatically added. For example, when the movement speed, the action range, and the shape of the movement locus of a person satisfy predetermined conditions, the person's movement action data is added to the
また、他の実施例では、複数の役割データベース20を用意しておき、季節、イベントおよび時間帯などによって使い分けてもよい。
In another embodiment, a plurality of
また、「機能的に同じ場所」であれば、役割データベースを構成した場所とは異なる場所で、その役割データベース20を利用してロボットの移動制御システム100を動作させてもよい。そして、「機能的に同じ場所」とは、空間の面積、空間の形、利用目的および内部と外部とに設置される設備などが同じ場所のことを表す。たとえば、幅および長さが略同じであり、内部と外部とに何も設備が設置されていない、2つの廊下は「機能的に同じ場所」と言うことができる。
Further, if it is “functionally the same place”, the robot
また、役割データベース構築プログラム310、役割設定プログラム312および移動制御プログラム314は、データ配信用のサーバのHDDに記憶され、ネットワークを介して本実施例と同等の構成のシステムにおける中央制御装置などに配信されてもよい。また、CD, DVD, BD (Blu-ray Disc)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体にこれらのプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、役割データベース構築プログラム310、役割設定プログラム312および移動制御プログラム314が、本実施例と同等の構成のシステムにおける中央制御装置にインストールされた場合、本実施例と同等の効果が得られる。
Further, the role
そして、本明細書中で挙げた、自由度、距離、一定期間、半径、角度、周波数、平均移動速度、第1閾値、第2閾値および所定時間などの具体的な数値は、いずれも単なる一例であり、製品の仕様などの必要に応じて適宜変更可能である。 The specific numerical values such as degrees of freedom, distance, fixed period, radius, angle, frequency, average moving speed, first threshold value, second threshold value, and predetermined time given in this specification are merely examples. Therefore, it can be appropriately changed according to necessity such as product specifications.
10 …中央制御装置
12a−12f …LRF
14 …ロボット
16 …CPU
18 …メモリ
20 …役割データベース
100 …移動制御システム
200 …ネットワーク
10 ...
14 ...
18 ...
Claims (5)
前記ロボットに設定された役割に基づいて前記データベースから移動行動データを選択する選択手段、
前記選択手段によって選択された移動行動データから前記ロボットの複数の移動行動を予測する第1予測手段、
前記第1予測手段によって予測された複数の移動行動のそれぞれの発生確率を算出する算出手段、および
前記算出手段によって算出された複数の発生確率に基づいて、前記ロボットに移動行動を指示する指示手段を備える、ロボットの移動制御システム。 A robot movement control system including a database composed of movement data of a plurality of humans having roles and a robot to which roles are set,
Selection means for selecting movement behavior data from the database based on a role set in the robot;
First prediction means for predicting a plurality of movement actions of the robot from the movement action data selected by the selection means;
Calculation means for calculating the occurrence probability of each of the plurality of movement actions predicted by the first prediction means, and instruction means for instructing the robot of the movement action based on the plurality of occurrence probabilities calculated by the calculation means A robot movement control system comprising:
前記選択手段は、前記移動軌跡取得手段によって取得された移動軌跡、前記ロボットに設定された役割および各移動行動データに含まれる移動軌跡に基づいて、前記データベースから移動行動データを選択する、請求項1記載の移動行動決定システム。 It further comprises movement trajectory acquisition means for acquiring the movement trajectory of the robot,
The selection means selects movement behavior data from the database based on a movement locus acquired by the movement locus acquisition means, a role set for the robot, and a movement locus included in each movement behavior data. The moving action determination system according to 1.
前記ロボットの周囲に人間が存在するとき、人間の将来位置を予測する第2予測手段をさらに備え、
前記算出手段は、前記第2予測手段によって予測された人間の将来位置を除いた前記ロボットの将来位置に基づいて、複数の移動行動の発生確率を算出する、請求項1または2記載の移動行動決定システム。 The movement behavior predicted by the first prediction means includes the future position of the robot,
A second predicting means for predicting the future position of the human when a human is present around the robot;
3. The movement behavior according to claim 1, wherein the calculation unit calculates a probability of occurrence of a plurality of movement behaviors based on a future position of the robot excluding a human future position predicted by the second prediction unit. Decision system.
前記中央制御装置のプロセッサを、
前記ロボットに設定された役割に基づいて前記データベースから移動行動データを選択する選択手段、
前記選択手段によって選択された移動行動データから前記ロボットの複数の移動行動を予測する予測手段、
前記予測手段によって予測された複数の移動行動のそれぞれの発生確率を算出する算出手段、および
前記算出手段によって算出された複数の発生確率に基づいて、前記ロボットに移動行動を指示する指示手段として機能させる、ロボットの移動制御プログラム。 A robot movement control system including a central control device, a database composed of movement behavior data of a plurality of persons having roles, and a robot in which roles are set,
A processor of the central control unit;
Selection means for selecting movement behavior data from the database based on a role set in the robot;
Prediction means for predicting a plurality of movement behaviors of the robot from the movement behavior data selected by the selection means;
Function as calculation means for calculating the occurrence probability of each of the plurality of movement actions predicted by the prediction means, and instruction means for instructing the robot on the movement action based on the plurality of occurrence probabilities calculated by the calculation means A robot movement control program.
前記ロボットに設定された役割に基づいて前記データベースから移動行動データを選択し、
選択された移動鼓動データから前記ロボットの複数の移動行動を予測し、
予測された複数の移動行動のそれぞれの発生確率を算出し、そして
算出された複数の発生確率に基づいて、前記ロボットに移動行動を指示する、ロボットの移動制御方法。 A robot movement control method of a robot movement control system, including a database composed of a plurality of human movement behavior data having a role and a robot to which a role is set,
Select mobile behavior data from the database based on the role set for the robot,
Predicting a plurality of moving behaviors of the robot from the selected moving heartbeat data;
A robot movement control method for calculating an occurrence probability of each of a plurality of predicted movement behaviors, and instructing the robot of the movement behavior based on the calculated occurrence probabilities.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010261900A JP5552710B2 (en) | 2010-11-25 | 2010-11-25 | Robot movement control system, robot movement control program, and robot movement control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010261900A JP5552710B2 (en) | 2010-11-25 | 2010-11-25 | Robot movement control system, robot movement control program, and robot movement control method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2012110996A true JP2012110996A (en) | 2012-06-14 |
JP2012110996A5 JP2012110996A5 (en) | 2013-10-24 |
JP5552710B2 JP5552710B2 (en) | 2014-07-16 |
Family
ID=46495764
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010261900A Active JP5552710B2 (en) | 2010-11-25 | 2010-11-25 | Robot movement control system, robot movement control program, and robot movement control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5552710B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014004640A (en) * | 2012-06-21 | 2014-01-16 | Honda Motor Co Ltd | Behavior control system |
CN105904463A (en) * | 2016-04-21 | 2016-08-31 | 谢奇峰 | Robot |
JP2016192040A (en) * | 2015-03-31 | 2016-11-10 | 株式会社日本総合研究所 | Self-propelled traveling device, management device, and walking obstacle place determination system |
JP2018073008A (en) * | 2016-10-26 | 2018-05-10 | 株式会社クボタ | Travel route generation device |
CN109153127A (en) * | 2016-03-28 | 2019-01-04 | Groove X 株式会社 | The autonomous humanoid robot of the behavior of behavior is met in execution |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005138225A (en) * | 2003-11-06 | 2005-06-02 | Ntt Docomo Inc | Control program selecting system and control program selecting method |
JP2006055931A (en) * | 2004-08-18 | 2006-03-02 | Inst Of Systems Information Technologies Kyushu | Robot device |
JP2006088251A (en) * | 2004-09-22 | 2006-04-06 | Toshiba Corp | User behavior inducing system and method thereof |
-
2010
- 2010-11-25 JP JP2010261900A patent/JP5552710B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005138225A (en) * | 2003-11-06 | 2005-06-02 | Ntt Docomo Inc | Control program selecting system and control program selecting method |
JP2006055931A (en) * | 2004-08-18 | 2006-03-02 | Inst Of Systems Information Technologies Kyushu | Robot device |
JP2006088251A (en) * | 2004-09-22 | 2006-04-06 | Toshiba Corp | User behavior inducing system and method thereof |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014004640A (en) * | 2012-06-21 | 2014-01-16 | Honda Motor Co Ltd | Behavior control system |
JP2016192040A (en) * | 2015-03-31 | 2016-11-10 | 株式会社日本総合研究所 | Self-propelled traveling device, management device, and walking obstacle place determination system |
CN109153127A (en) * | 2016-03-28 | 2019-01-04 | Groove X 株式会社 | The autonomous humanoid robot of the behavior of behavior is met in execution |
CN105904463A (en) * | 2016-04-21 | 2016-08-31 | 谢奇峰 | Robot |
JP2018073008A (en) * | 2016-10-26 | 2018-05-10 | 株式会社クボタ | Travel route generation device |
US10884427B2 (en) | 2016-10-26 | 2021-01-05 | Kubota Corporation | Travel route generating device and method for generating travel route |
Also Published As
Publication number | Publication date |
---|---|
JP5552710B2 (en) | 2014-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102348041B1 (en) | Control method of robot system including a plurality of moving robots | |
CN112739244B (en) | Mobile robot cleaning system | |
JP5318623B2 (en) | Remote control device and remote control program | |
CN112367887B (en) | Multiple robot cleaner and control method thereof | |
JP5963372B2 (en) | How to make a mobile robot follow people | |
JP5366048B2 (en) | Information provision system | |
US20190332119A1 (en) | Mobile robot and method of controlling the same | |
JP5324286B2 (en) | Network robot system, robot control apparatus, robot control method, and robot control program | |
US20190351558A1 (en) | Airport robot and operation method therefor | |
JP5768273B2 (en) | A robot that predicts a pedestrian's trajectory and determines its avoidance behavior | |
US20210346557A1 (en) | Robotic social interaction | |
JP5764795B2 (en) | Mobile robot, mobile robot learning system, and mobile robot behavior learning method | |
JP5552710B2 (en) | Robot movement control system, robot movement control program, and robot movement control method | |
JP2004299025A (en) | Mobile robot control device, mobile robot control method and mobile robot control program | |
US20180329409A1 (en) | Portable mobile robot and operation thereof | |
KR102560462B1 (en) | Moving robot | |
JP2021171905A (en) | Robot control device, method, and program | |
US20200189107A1 (en) | Artificial intelligence moving robot and method for controlling the same | |
JP2012208782A (en) | Move prediction apparatus, robot control device, move prediction program and move prediction method | |
JP2015066624A (en) | Robot control system, robot control program, and explanation robot | |
KR20180098040A (en) | Moving robot and control method thereof | |
JP5470516B2 (en) | Radio communication apparatus for operating mobile unit, communication control program, and mobile unit | |
JP7317436B2 (en) | ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD | |
JP2020004182A (en) | Robot, robot control program and robot control method | |
JP7258438B2 (en) | ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130905 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130905 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140423 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140509 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5552710 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |