JP2012110996A - Movement control system of robot, movement control program of the robot, and movement control method of the robot - Google Patents

Movement control system of robot, movement control program of the robot, and movement control method of the robot Download PDF

Info

Publication number
JP2012110996A
JP2012110996A JP2010261900A JP2010261900A JP2012110996A JP 2012110996 A JP2012110996 A JP 2012110996A JP 2010261900 A JP2010261900 A JP 2010261900A JP 2010261900 A JP2010261900 A JP 2010261900A JP 2012110996 A JP2012110996 A JP 2012110996A
Authority
JP
Japan
Prior art keywords
robot
movement
role
data
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010261900A
Other languages
Japanese (ja)
Other versions
JP5552710B2 (en
JP2012110996A5 (en
Inventor
Masahiro Shiomi
昌裕 塩見
Takayuki Kanda
崇行 神田
Kotaro Hayashi
宏太郎 林
Norihiro Hagita
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2010261900A priority Critical patent/JP5552710B2/en
Publication of JP2012110996A publication Critical patent/JP2012110996A/en
Publication of JP2012110996A5 publication Critical patent/JP2012110996A5/ja
Application granted granted Critical
Publication of JP5552710B2 publication Critical patent/JP5552710B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide the movement control system of a robot, the movement control program of the robot, and the movement control method of the robot by which the manager of a system can make a robot 14 to which a role is set operate in the same way as a human having the same role.SOLUTION: The movement control system 100 includes a central control unit 10 having a role database (20) and the robot 14 to which a role is set. The role database (20) is configured of representative moving action data of the human having the role. For example, when a role of a "guard easy to talk to" is set to the robot 14, the representative moving action data of the "guard easy to talk to" is selected from the role database (20). In the central control unit 10, actions of the robot 14 with the role set thereto at a plurality of future positions and actions at the respective future positions are predicted on the basis of the representative moving action data, and the occurrence provability of each of the plurality of the predicted actions is calculated. The moving action is instructed to the robot 14 on the basis of the calculated occurrence provability.

Description

この発明は、ロボットの移動制御システム、ロボットの移動制御プログラムおよびロボットの移動制御方法に関し、特にたとえば、ロボットの移動行動を決定する、ロボットの移動制御システム、ロボットの移動制御プログラムおよびロボットの移動制御方法に関する。   The present invention relates to a robot movement control system, a robot movement control program, and a robot movement control method, and more particularly to, for example, a robot movement control system, a robot movement control program, and a robot movement control that determine a robot movement action. Regarding the method.

非特許文献1に開示されている、環境情報構造化システムは、大量に蓄積された人々の行動から、環境の意味や行動を理解し、人々の大局行動を予測する。そして、予測された結果を利用して、ロボットは、特定の大局行動を行う人間に対して、サービスを提供することができる。
Takayuki Kanda, Dylan F. Glas, Masahiro Shiomi, Hiroshi Ishiguro and Norihiro Hagita, Who will be the customer?: A social robot that anticipates people’s behavior from their trajectories, Tenth International Conference on Ubiquitous Computing (UbiComp 2008), pp.380-389, 2008
The environmental information structuring system disclosed in Non-Patent Document 1 understands the meaning and behavior of the environment from the behavior of people accumulated in large quantities, and predicts the global behavior of people. Then, using the predicted result, the robot can provide a service to a person who performs a specific global action.
Takayuki Kanda, Dylan F. Glas, Masahiro Shiomi, Hiroshi Ishiguro and Norihiro Hagita, Who will be the customer ?: A social robot that anticipates people's behavior from their trajectories, Tenth International Conference on Ubiquitous Computing (UbiComp 2008), pp.380- 389, 2008

ところが、大量に蓄積された人々の行動を利用して、ロボットの移動行動を決定するようなシステムは存在しなかった。   However, there has been no system that determines the movement behavior of a robot using the behavior of people accumulated in large quantities.

それゆえに、この発明の主たる目的は、新規な、ロボットの移動制御システム、ロボットの移動制御プログラムおよびロボットの移動制御方法を提供することである。   Therefore, a main object of the present invention is to provide a novel robot movement control system, a robot movement control program, and a robot movement control method.

この発明の他の目的は、役割が設定されたロボットの移動行動を決定することができる、ロボットの移動制御システム、ロボットの移動制御プログラムおよびロボットの移動制御方法を提供することである。   Another object of the present invention is to provide a robot movement control system, a robot movement control program, and a robot movement control method capable of determining the movement behavior of a robot with a role set.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、役割を持った複数の人間の移動行動データから構成されるデータベースおよび役割が設定されるロボットを含む、ロボットの移動制御システムであって、ロボットに設定された役割に基づいてデータベースから移動行動データを選択する選択手段、選択手段によって選択された移動行動データからロボットの複数の移動行動を予測する第1予測手段、第1予測手段によって予測された複数の移動行動のそれぞれの発生確率を算出する算出手段、および算出手段によって算出された複数の発生確率に基づいて、ロボットに移動行動を指示する指示手段を備える、ロボットの移動制御システムである。   A first invention is a robot movement control system including a database composed of a plurality of human movement behavior data having a role and a robot to which a role is set, based on the role set in the robot Selection means for selecting movement behavior data from the database, first prediction means for predicting a plurality of movement behaviors of the robot from the movement behavior data selected by the selection means, and each of the plurality of movement behaviors predicted by the first prediction means A robot movement control system comprising: calculation means for calculating an occurrence probability; and instruction means for instructing the robot to move based on a plurality of occurrence probabilities calculated by the calculation means.

第1の発明では、移動制御システム(100:実施例において対応する部分を例示する参照符号。以下、同じ。)は、複数の移動行動データから構成されるデータベース(20)およびロボット(14)を含む。また、移動行動データは役割を持った人間の移動軌跡および行動を含み、ロボットには人間が持つ役割が設定される。たとえば、ロボットに「話しかけやすい警備員」の役割が設定されていれば、選択手段(16,S47)は、「話しかけやすい警備員」の移動行動データがデータベースから選択される。第1予測手段(16,S49)は、役割が設定されたロボットの複数の移動行動を、選択された移動行動データに基づいて予測する。算出手段(16,S57,S59)は、予測された複数の移動行動のそれぞれの発生確率を算出する。そして、指示手段(16,S61,S63)は、たとえば、算出された発生確率が最も高い移動行動を、ロボットに指示する。   In the first invention, the movement control system (100: reference numerals exemplifying corresponding parts in the embodiment, hereinafter the same) includes a database (20) and a robot (14) composed of a plurality of movement behavior data. Including. Also, the movement behavior data includes the movement trajectory and behavior of a human having a role, and the role that the human has is set for the robot. For example, if the role of “easy to talk” is set for the robot, the selection means (16, S47) selects the movement behavior data of “easy to talk” from the database. The first predicting means (16, S49) predicts a plurality of movement behaviors of the robot having the role set based on the selected movement behavior data. The calculating means (16, S57, S59) calculates the occurrence probability of each of the predicted plurality of moving actions. Then, the instruction means (16, S61, S63), for example, instructs the robot to move behavior with the highest occurrence probability.

第1の発明によれば、ロボットと同じ役割を持った人間の移動行動データに基づいて、ロボットの移動行動を決定することができる。そのため、役割が設定されたロボットを、同じ役割を持った人間と同じように動作させることができる。   According to the first invention, the movement behavior of the robot can be determined based on the movement behavior data of the human having the same role as the robot. Therefore, a robot with a set role can be operated in the same way as a human having the same role.

第2の発明は、第1の発明に従属し、ロボットの移動軌跡を取得する移動軌跡取得手段をさらに備え、選択手段は、移動軌跡取得手段によって取得された移動軌跡、ロボットに設定された役割および各移動行動データに含まれる移動軌跡に基づいて、データベースから移動行動データを選択する。   A second invention is according to the first invention, further comprising movement trajectory acquisition means for acquiring a movement trajectory of the robot, wherein the selection means is a movement trajectory acquired by the movement trajectory acquisition means, a role set in the robot And based on the movement locus | trajectory contained in each movement action data, movement action data are selected from a database.

第2の発明では、移動軌跡取得手段(16,S45)は、たとえば、LRF(12)によって連続して取得されたロボットの現在位置を、ロボットの移動軌跡として取得する。そして、ロボットの移動軌跡役割および各移動行動データに含まれる移動軌跡に基づいて、データベースから移動行動データが選択される。   In the second invention, the movement trajectory acquisition means (16, S45) acquires, for example, the current position of the robot continuously acquired by the LRF (12) as the movement trajectory of the robot. Then, the movement behavior data is selected from the database based on the movement locus role of the robot and the movement locus included in each movement behavior data.

第2の発明によれば、ロボットの現在位置やそれまでの移動を考慮して、ロボットの移動行動を決めることができる。   According to the second invention, it is possible to determine the movement behavior of the robot in consideration of the current position of the robot and the movement so far.

第3の発明は、第1の発明または第2の発明に従属し、第1予測手段によって予測された移動行動は、ロボットの将来位置を含み、ロボットの周囲に人間が存在するとき、人間の将来位置を予測する第2予測手段をさらに備え、算出手段は、第2予測手段によって予測された人間の将来位置を除いたロボットの将来位置に基づいて、複数の移動行動の発生確率を算出する。   A third invention is dependent on the first invention or the second invention, and the movement behavior predicted by the first prediction means includes a future position of the robot, and when a human is present around the robot, Second prediction means for predicting the future position is further provided, and the calculation means calculates the occurrence probability of a plurality of movement actions based on the future position of the robot excluding the human future position predicted by the second prediction means. .

第3の発明では、第1予測手段は、ロボットの移動行動として、ロボットの将来位置も予測する。第2予測手段(16,S55)は、たとえばロボットと人間とが同じ領域(E)に存在する場合、人間の将来位置を予測する。また、第2予測手段は、役割に関係なく蓄積された移動行動データに基づいて人間の将来位置を予測する。そして、算出手段は、予測された人間の将来位置が除かれたロボットの将来位置に基づいて、複数の移動行動の発生確率を算出する。   In the third invention, the first prediction means also predicts the future position of the robot as the movement behavior of the robot. The second predicting means (16, S55) predicts the future position of the human when, for example, the robot and the human are in the same region (E). Further, the second predicting means predicts the future position of the person based on the movement behavior data accumulated regardless of the role. Then, the calculation means calculates the occurrence probability of a plurality of movement actions based on the predicted future robot position from which the predicted future human position is removed.

第3の発明によれば、人間が居る位置にはロボットは進むことができないため、人間の将来位置ではロボットの移動行動が予測されないようにできる。   According to the third invention, since the robot cannot move to the position where the person is present, the movement behavior of the robot can be prevented from being predicted at the future position of the person.

第4の発明は、中央制御装置(10)、役割を持った複数の人間の移動行動データから構成されるデータベース(20)および役割が設定されるロボット(14)を含む、ロボットの移動制御システム(100)であって、中央制御装置のプロセッサ(16)を、ロボットに設定された役割に基づいてデータベースから移動行動データを選択する選択手段(S47)、選択手段によって選択された移動行動データからロボットの複数の移動行動を予測する予測手段(S49)、予測手段によって予測された複数の移動行動のそれぞれの発生確率を算出する算出手段(S57,S59)、および算出手段によって算出された複数の発生確率に基づいて、ロボットに移動行動を指示する指示手段(S61,S63)として機能させる、ロボットの移動制御プログラムである。   A fourth invention is a robot movement control system including a central control device (10), a database (20) composed of a plurality of human movement behavior data having roles, and a robot (14) in which roles are set. (100), the processor (16) of the central control unit selects the moving action data from the database based on the role set in the robot (S47), from the moving action data selected by the selecting means Prediction means (S49) for predicting a plurality of movement behaviors of the robot, calculation means (S57, S59) for calculating the respective occurrence probabilities of the plurality of movement behaviors predicted by the prediction means, and a plurality of calculations calculated by the calculation means Based on the probability of occurrence, let the robot function as instruction means (S61, S63) for instructing the movement action. It is a dynamic control program.

第4の発明でも、第1の発明と同様、ロボットと同じ役割を持った人間の移動行動データに基づいて、ロボットの移動行動を決定することができる。そのため、役割が設定されたロボットを、同じ役割を持った人間と同じように動作させることができる。   In the fourth invention, similarly to the first invention, the movement behavior of the robot can be determined based on the movement behavior data of the human having the same role as the robot. Therefore, a robot with a set role can be operated in the same way as a human having the same role.

第5の発明は、役割を持った複数の人間の移動行動データから構成されるデータベース(20)および役割が設定されるロボット(14)を含む、ロボットの移動制御システム(100)のロボットの移動制御方法であって、ロボットに設定された役割に基づいてデータベースから移動行動データを選択し(S47)、選択された移動行動データからロボットの複数の移動行動を予測し(S49)、予測された複数の移動行動のそれぞれの発生確率を算出し(S57,S59)、そして算出された複数の発生確率に基づいて、ロボットに移動行動を指示する(S61,S63)、ロボットの移動制御方法である。   The fifth invention provides a robot movement of a robot movement control system (100) including a database (20) composed of a plurality of human movement behavior data having roles and a robot (14) to which roles are set. According to the control method, the movement behavior data is selected from the database based on the role set in the robot (S47), and the plurality of movement behaviors of the robot are predicted from the selected movement behavior data (S49). The robot movement control method calculates the occurrence probability of each of the plurality of movement actions (S57, S59), and instructs the robot on the movement action based on the calculated occurrence probabilities (S61, S63). .

第5の発明でも、第1の発明と同様、ロボットと同じ役割を持った人間の移動行動データに基づいて、ロボットの移動行動を決定することができる。そのため、役割が設定されたロボットを、同じ役割を持った人間と同じように動作させることができる。   In the fifth invention as well, similar to the first invention, the movement behavior of the robot can be determined based on the movement behavior data of the human having the same role as the robot. Therefore, a robot with a set role can be operated in the same way as a human having the same role.

この発明によれば、ロボットと同じ役割を持った人間の移動行動データに基づいて、ロボットの移動行動が決まる。そのため、システムの管理者は、役割が設定されたロボットを、同じ役割を持った人間と同じように動作させることができる。   According to this invention, the movement behavior of the robot is determined based on the movement behavior data of the human having the same role as the robot. Therefore, the system administrator can operate a robot with a role set in the same way as a human having the same role.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1はこの発明の一実施例のロボットの移動制御システムの概要を示す図解図である。FIG. 1 is an illustrative view showing an outline of a robot movement control system according to an embodiment of the present invention. 図2は図1に示すロボットの外観を正面から見た図解図である。FIG. 2 is an illustrative view showing the appearance of the robot shown in FIG. 1 from the front. 図3は図1に示すロボットの電気的な構成を示すブロック図である。FIG. 3 is a block diagram showing an electrical configuration of the robot shown in FIG. 図4は図1に示す中央制御装置の電気的な構成を示すブロック図である。FIG. 4 is a block diagram showing an electrical configuration of the central controller shown in FIG. 図5は図1および図4に示すLRFの計測領域を示す図解図である。FIG. 5 is an illustrative view showing a measurement region of the LRF shown in FIGS. 1 and 4. 図6は図1および図4に示すLRFを利用して検出された移動軌跡の一例を示す図解図である。FIG. 6 is an illustrative view showing one example of a movement locus detected using the LRF shown in FIGS. 1 and 4. 図7は図4に示す役割データベースに含まれるテーブルの一例を示す図解図である。FIG. 7 is an illustrative view showing one example of a table included in the role database shown in FIG. 図8は図1に示す中央制御措置によって検出された移動行動データの一例を示す図解図である。FIG. 8 is an illustrative view showing one example of movement behavior data detected by the central control measure shown in FIG. 図9は図4に示す役割データベースに含まれる代表移動行動データの一例を示す図解図である。FIG. 9 is an illustrative view showing one example of representative movement behavior data included in the role database shown in FIG. 図10は図1に示すロボットが移動している様子の一例を示す図解図である。FIG. 10 is an illustrative view showing one example of a state in which the robot shown in FIG. 1 is moving. 図11は図1に示すロボットの移動が制御されている様子の一例を示す図解図である。FIG. 11 is an illustrative view showing one example of a state in which the movement of the robot shown in FIG. 1 is controlled. 図12は図1に示すロボットの移動が制御されている様子の他の一例を示す図解図である。FIG. 12 is an illustrative view showing another example of a state in which the movement of the robot shown in FIG. 1 is controlled. 図13は図4に示すメモリのメモリマップの一例を示す図解図である。FIG. 13 is an illustrative view showing one example of a memory map of the memory shown in FIG. 図14は図4に示すCPUの役割データベース構築処理を示すフロー図である。FIG. 14 is a flowchart showing the role database construction process of the CPU shown in FIG. 図15は図4に示すCPUの役割設定処理を示すフロー図である。FIG. 15 is a flowchart showing the role setting process of the CPU shown in FIG. 図16は図4に示すCPUの移動制御処理の一部を示すフロー図である。FIG. 16 is a flowchart showing a part of the movement control process of the CPU shown in FIG. 図17は図4に示すCPUの移動制御処理の一部であって、図16に後続するフロー図である。FIG. 17 is a part of the movement control process of the CPU shown in FIG. 4 and is a flowchart subsequent to FIG.

図1を参照して、この実施例のロボットの移動制御システム100は、LRF12a,12bを含む数台のLRFを有する中央制御装置10および自律移動ロボット(以下、単に「ロボット」と言う。)14を備える。LRF12a,12bは、人間が任意に移動することができる場所(環境)に設置される。なお、人間が任意に行動する場所は、会社のフロア、博物館、ショッピングモールまたはアトラクション会場などであり、LRF12a,12bは様々な場所に設置される。   Referring to FIG. 1, a robot movement control system 100 according to this embodiment includes a central control device 10 and autonomous mobile robots (hereinafter simply referred to as “robots”) 14 having several LRFs including LRFs 12a and 12b. Is provided. LRF12a, 12b is installed in the place (environment) where a human can move arbitrarily. A place where a human can act arbitrarily is a company floor, a museum, a shopping mall, an attraction venue, or the like, and the LRFs 12a and 12b are installed in various places.

中央制御装置10は、LRF12a,12bによって、任意に移動する人間の移動軌跡を検出する。また、中央制御装置10は、LRF12a,12bなどによって取得された移動軌跡およびその移動軌跡が示す移動態様(行動)から構成される移動行動データを、データベースに蓄積する。さらに、中央制御装置10は、ネットワーク200を介して、ロボット14に役割を設定したり、役割に応じた移動行動の動作命令をロボット14に付与したりする。なお、移動態様、つまり行動は、後述する空間グリッド内における移動速度に基づいて求めることができる。   The central controller 10 detects the movement trajectory of a human who moves arbitrarily by using the LRFs 12a and 12b. In addition, the central control device 10 accumulates in the database movement behavior data including movement trajectories acquired by the LRFs 12a and 12b and the movement modes (behaviors) indicated by the movement trajectories. Furthermore, the central control apparatus 10 sets a role for the robot 14 via the network 200 and gives the robot 14 an operation command for a movement action according to the role. In addition, a movement aspect, ie, action, can be calculated | required based on the moving speed in the space grid mentioned later.

ロボット14は、システムの管理者によって役割が設定され、中央制御装置10が付与する動作命令に基づいて動作する。また、ロボット14は、相互作用指向のロボット(コミュニケーションロボット)でもあり、人間のようなコミュニケーションの対象(コミュニケーション対象)との間で、身振り手振りのような身体動作および音声の少なくとも一方を含むコミュニケーション行動を実行する機能を備えている。   The role of the robot 14 is set by a system administrator, and the robot 14 operates based on an operation command given by the central controller 10. The robot 14 is also an interaction-oriented robot (communication robot), and communication behavior including at least one of body movements such as gestures and voices with a communication target (communication target) such as a human being. It has a function to execute.

なお、図1では簡単のため人間は1人しか示していないが、中央制御装置10は2人以上の位置を同時に検出することができる。さらに、ロボット14も同様に1台しか示していないが、中央制御装置10は2台以上のロボット14を同時に管理することができる。   In FIG. 1, only one person is shown for simplicity, but the central control device 10 can simultaneously detect the positions of two or more persons. Furthermore, although only one robot 14 is shown, the central controller 10 can simultaneously manage two or more robots 14.

図2はこの実施例のロボット14の外観を示す正面図である。図2を参照して、ロボット14は台車30を含み、台車30の下面にはロボット14を自律移動させる2つの車輪32および1つの従輪34が設けられる。2つの車輪32は車輪モータ36(図3参照)によってそれぞれ独立に駆動され、台車30すなわちロボット14を前後左右の任意方向に動かすことができる。また、従輪34は車輪32を補助する補助輪である。したがって、ロボット14は、配置された空間内を自律制御によって移動可能である。   FIG. 2 is a front view showing the appearance of the robot 14 of this embodiment. Referring to FIG. 2, the robot 14 includes a carriage 30, and two wheels 32 and one slave wheel 34 for moving the robot 14 autonomously are provided on the lower surface of the carriage 30. The two wheels 32 are independently driven by a wheel motor 36 (see FIG. 3), and the carriage 30, that is, the robot 14, can be moved in any direction, front, rear, left, and right. The slave wheel 34 is an auxiliary wheel that assists the wheel 32. Therefore, the robot 14 can move in the arranged space by autonomous control.

台車30の上には、円柱形のセンサ取り付けパネル38が設けられ、このセンサ取り付けパネル38には、多数の赤外線距離センサ40が取り付けられる。これらの赤外線距離センサ40は、センサ取り付けパネル38すなわちロボット14の周囲の物体(人間や障害物など)との距離を測定するものである。   A cylindrical sensor attachment panel 38 is provided on the carriage 30, and a large number of infrared distance sensors 40 are attached to the sensor attachment panel 38. These infrared distance sensors 40 measure the distance from the sensor mounting panel 38, that is, the object (human being, obstacle, etc.) around the robot 14.

なお、この実施例では、距離センサとして、赤外線距離センサを用いるようにしてあるが、赤外線距離センサに代えて、小型のLRFや、超音波距離センサおよびミリ波レーダなどを用いることもできる。   In this embodiment, an infrared distance sensor is used as the distance sensor, but a small LRF, an ultrasonic distance sensor, a millimeter wave radar, or the like can be used instead of the infrared distance sensor.

センサ取り付けパネル38の上には、胴体42が直立するように設けられる。また、胴体42の前方中央上部(人の胸に相当する位置)には、上述した赤外線距離センサ40がさらに設けられ、ロボット14の前方の主として人間との距離を計測する。また、胴体42には、その側面側上端部のほぼ中央から伸びる支柱44が設けられ、支柱44の上には、全方位カメラ46が設けられる。全方位カメラ46は、ロボット14の周囲を撮影するものであり、後述する眼カメラ70とは区別される。この全方位カメラ46としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ40および全方位カメラ46の設置位置は、当該部位に限定されず適宜変更され得る。   A body 42 is provided on the sensor mounting panel 38 so as to stand upright. In addition, the above-described infrared distance sensor 40 is further provided at the front upper center of the body 42 (a position corresponding to a human chest), and measures the distance mainly to the human in front of the robot 14. Further, the body 42 is provided with a support column 44 extending from substantially the center of the upper end of the side surface, and an omnidirectional camera 46 is provided on the support column 44. The omnidirectional camera 46 photographs the surroundings of the robot 14 and is distinguished from an eye camera 70 described later. As this omnidirectional camera 46, for example, a camera using a solid-state imaging device such as a CCD or a CMOS can be adopted. In addition, the installation positions of the infrared distance sensor 40 and the omnidirectional camera 46 are not limited to the portions, and can be changed as appropriate.

胴体42の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節48Rおよび肩関節48Lによって、上腕50Rおよび上腕50Lが設けられる。図示は省略するが、肩関節48Rおよび肩関節48Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節48Rは、直交する3軸のそれぞれの軸廻りにおいて上腕50Rの角度を制御できる。肩関節48Rの或る軸(ヨー軸)は、上腕50Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節48Lは、直交する3軸のそれぞれの軸廻りにおいて上腕50Lの角度を制御できる。肩関節48Lの或る軸(ヨー軸)は、上腕50Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。   An upper arm 50R and an upper arm 50L are provided at upper end portions on both sides of the torso 42 (position corresponding to a human shoulder) by a shoulder joint 48R and a shoulder joint 48L, respectively. Although illustration is omitted, each of the shoulder joint 48R and the shoulder joint 48L has three orthogonal degrees of freedom. That is, the shoulder joint 48R can control the angle of the upper arm 50R around each of three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 48R is an axis parallel to the longitudinal direction (or axis) of the upper arm 50R, and the other two axes (pitch axis and roll axis) are orthogonal to the axes from different directions. It is an axis to do. Similarly, the shoulder joint 48L can control the angle of the upper arm 50L around each of three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 48L is an axis parallel to the longitudinal direction (or axis) of the upper arm 50L, and the other two axes (pitch axis and roll axis) are orthogonal to the axes from different directions. It is an axis to do.

また、上腕50Rおよび上腕50Lのそれぞれの先端には、肘関節52Rおよび肘関節52Lが設けられる。図示は省略するが、肘関節52Rおよび肘関節52Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕54Rおよび前腕54Lの角度を制御できる。   In addition, an elbow joint 52R and an elbow joint 52L are provided at the respective distal ends of the upper arm 50R and the upper arm 50L. Although illustration is omitted, each of the elbow joint 52R and the elbow joint 52L has one degree of freedom, and the angle of the forearm 54R and the forearm 54L can be controlled around the axis (pitch axis).

前腕54Rおよび前腕54Lのそれぞれの先端には、人の手に相当する球体56Rおよび球体56Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人間の手の形をした「手」を用いることも可能である。また、図示は省略するが、台車30の前面、肩関節48Rと肩関節48Lとを含む肩に相当する部位、上腕50R、上腕50L、前腕54R、前腕54L、球体56Rおよび球体56Lには、それぞれ、接触センサ58(図3で包括的に示す)が設けられる。台車30の前面の接触センサ58は、台車30への人間や他の障害物の接触を検知する。したがって、ロボット14は、自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪32の駆動を停止してロボット14の移動を急停止させることができる。また、その他の接触センサ58は、当該各部位に触れたかどうかを検知する。なお、接触センサ58の設置位置は、当該部位に限定されず、適宜な位置(人の胸、腹、脇、背中および腰に相当する位置)に設けられてもよい。   A sphere 56R and a sphere 56L corresponding to a human hand are fixedly provided at the tips of the forearm 54R and the forearm 54L, respectively. However, when a finger or palm function is required, a “hand” in the shape of a human hand can be used. Although not shown, the front surface of the carriage 30, the portion corresponding to the shoulder including the shoulder joint 48R and the shoulder joint 48L, the upper arm 50R, the upper arm 50L, the forearm 54R, the forearm 54L, the sphere 56R, and the sphere 56L, A contact sensor 58 (shown generically in FIG. 3) is provided. A contact sensor 58 on the front surface of the carriage 30 detects contact of a person or another obstacle with the carriage 30. Therefore, the robot 14 can detect that there is a contact with an obstacle during its movement, and can immediately stop the driving of the wheel 32 and suddenly stop the movement of the robot 14. Further, the other contact sensors 58 detect whether or not the respective parts are touched. In addition, the installation position of the contact sensor 58 is not limited to the said site | part, and may be provided in an appropriate position (position corresponding to a person's chest, abdomen, side, back, and waist).

胴体42の中央上部(人の首に相当する位置)には首関節60が設けられ、さらにその上には頭部62が設けられる。図示は省略するが、首関節60は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット14の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。   A neck joint 60 is provided at the upper center of the body 42 (a position corresponding to a person's neck), and a head 62 is further provided thereon. Although illustration is omitted, the neck joint 60 has a degree of freedom of three axes, and the angle can be controlled around each of the three axes. A certain axis (yaw axis) is an axis directed directly above (vertically upward) of the robot 14, and the other two axes (pitch axis and roll axis) are axes orthogonal to each other in different directions.

頭部62には、人の口に相当する位置に、スピーカ64が設けられる。スピーカ64は、ロボット14が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、人の耳に相当する位置には、マイク66Rおよびマイク66Lが設けられる。以下、右のマイク66Rと左のマイク66Lとをまとめてマイク66と言うことがある。マイク66は、周囲の音、とりわけコミュニケーションを実行する対象である人間の音声を取り込む。さらに、人の目に相当する位置には、眼球部68Rおよび眼球部68Lが設けられる。眼球部68Rおよび眼球部68Lは、それぞれ眼カメラ70Rおよび眼カメラ70Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68と言うことがある。また、右の眼カメラ70Rと左の眼カメラ70Lとをまとめて眼カメラ70と言うことがある。   The head 62 is provided with a speaker 64 at a position corresponding to a human mouth. The speaker 64 is used for the robot 14 to communicate with a person around it by voice or sound. A microphone 66R and a microphone 66L are provided at a position corresponding to a human ear. Hereinafter, the right microphone 66R and the left microphone 66L may be collectively referred to as a microphone 66. The microphone 66 captures ambient sounds, in particular, the voices of humans who are subjects of communication. Furthermore, an eyeball part 68R and an eyeball part 68L are provided at positions corresponding to human eyes. The eyeball portion 68R and the eyeball portion 68L include an eye camera 70R and an eye camera 70L, respectively. Hereinafter, the right eyeball portion 68R and the left eyeball portion 68L may be collectively referred to as the eyeball portion 68. Further, the right eye camera 70R and the left eye camera 70L may be collectively referred to as an eye camera 70.

眼カメラ70は、ロボット14に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。また、眼カメラ70は、上述した全方位カメラ46と同様のカメラを用いることができる。たとえば、眼カメラ70は、眼球部68内に固定され、眼球部68は、眼球支持部(図示せず)を介して頭部62内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部62の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部62の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ70の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ64、マイク66および眼カメラ70の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。   The eye camera 70 captures a human face approaching the robot 14, other parts or objects, and captures a corresponding video signal. The eye camera 70 can be the same camera as the omnidirectional camera 46 described above. For example, the eye camera 70 is fixed in the eyeball unit 68, and the eyeball unit 68 is attached to a predetermined position in the head 62 via an eyeball support unit (not shown). Although illustration is omitted, the eyeball support portion has two degrees of freedom, and the angle can be controlled around each of these axes. For example, one of the two axes is an axis (yaw axis) in a direction toward the top of the head 62, and the other is orthogonal to the one axis and goes straight in a direction in which the front side (face) of the head 62 faces. It is an axis (pitch axis) in the direction to be. By rotating the eyeball support portion around each of these two axes, the tip (front) side of the eyeball portion 68 or the eye camera 70 is displaced, and the camera axis, that is, the line-of-sight direction is moved. Note that the installation positions of the speaker 64, the microphone 66, and the eye camera 70 described above are not limited to those portions, and may be provided at appropriate positions.

このように、この実施例のロボット14は、車輪32の独立2軸駆動、肩関節48の3自由度(左右で6自由度)、肘関節52の1自由度(左右で2自由度)、首関節60の3自由度および眼球支持部の2自由度(左右で4自由度)の合計17自由度を有する。   As described above, the robot 14 of this embodiment has independent two-axis driving of the wheels 32, three degrees of freedom of the shoulder joint 48 (6 degrees of freedom on the left and right), one degree of freedom of the elbow joint 52 (2 degrees of freedom on the left and right), It has a total of 17 degrees of freedom, 3 degrees of freedom for the neck joint 60 and 2 degrees of freedom for the eyeball support (4 degrees of freedom on the left and right).

図3はロボット14の電気的な構成を示すブロック図である。この図3を参照して、ロボット14は、CPU80を含む。CPU80は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス82を介して、メモリ84、モータ制御ボード86、センサ入力/出力ボード88および音声入力/出力ボード90に接続される。   FIG. 3 is a block diagram showing an electrical configuration of the robot 14. With reference to FIG. 3, the robot 14 includes a CPU 80. The CPU 80 is also called a microcomputer or a processor, and is connected to the memory 84, the motor control board 86, the sensor input / output board 88 and the audio input / output board 90 via the bus 82.

メモリ84は、図示は省略をするが、ROMおよびRAMを含む。ROMには、ロボット14の動作を制御するための制御プログラムが予め記憶される。たとえば、各センサの出力(センサ情報)を検知するための検知プログラムや、外部コンピュータ(中央制御装置10)との間で必要なデータやコマンドを送受信するための通信プログラムなどが記録される。また、RAMは、CPU80のワークメモリやバッファメモリとして用いられる。   The memory 84 includes a ROM and a RAM (not shown). In the ROM, a control program for controlling the operation of the robot 14 is stored in advance. For example, a detection program for detecting the output (sensor information) of each sensor, a communication program for transmitting / receiving necessary data and commands to / from an external computer (central control device 10), and the like are recorded. The RAM is used as a work memory or buffer memory for the CPU 80.

モータ制御ボード86は、たとえばDSPで構成され、各腕や首関節および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード86は、CPU80からの制御データを受け、右眼球部68Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ92」と示す)の回転角度を制御する。同様に、モータ制御ボード86は、CPU80からの制御データを受け、左眼球部68Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ94」と示す)の回転角度を制御する。   The motor control board 86 is composed of, for example, a DSP, and controls driving of each axis motor such as each arm, neck joint, and eyeball. That is, the motor control board 86 receives control data from the CPU 80, and controls two motors (collectively indicated as “right eyeball motor 92” in FIG. 3) that control the angles of the two axes of the right eyeball portion 68R. Control the rotation angle. Similarly, the motor control board 86 receives two control data from the CPU 80 and controls two angles of the two axes of the left eyeball portion 68L (in FIG. 3, collectively referred to as “left eyeball motor 94”). Control the rotation angle.

また、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Rの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ96」と示す)の回転角度を制御する。同様に、モータ制御ボード86は、CPU80からの制御データを受け、肩関節48Lの直交する3軸のそれぞれの角度を制御する3つのモータと肘関節52Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ98」と示す)の回転角度を制御する。   The motor control board 86 receives control data from the CPU 80, and includes a total of four motors including three motors for controlling the angles of the three orthogonal axes of the shoulder joint 48R and one motor for controlling the angle of the elbow joint 52R. The rotation angle of two motors (collectively indicated as “right arm motor 96” in FIG. 3) is controlled. Similarly, the motor control board 86 receives control data from the CPU 80, and includes a total of three motors for controlling the angles of the three orthogonal axes of the shoulder joint 48L and one motor for controlling the angle of the elbow joint 52L. The rotation angles of four motors (collectively indicated as “left arm motor 98” in FIG. 3) are controlled.

さらに、モータ制御ボード86は、CPU80からの制御データを受け、首関節60の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ110」と示す)の回転角度を制御する。そして、モータ制御ボード86は、CPU80からの制御データを受け、車輪32を駆動する2つのモータ(図3では、まとめて「車輪モータ36」と示す)の回転角度を制御する。なお、この実施例では、車輪モータ36を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ36と同様に直流モータを用いるようにしてもよい。また、ロボット14の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更されてもよい。たとえば、他の実施例では、エアアクチュエータなどが適用されてもよい。   Further, the motor control board 86 receives control data from the CPU 80, and controls three motors for controlling the angles of the three orthogonal axes of the neck joint 60 (in FIG. 3, collectively indicated as “head motor 110”). Control the rotation angle. The motor control board 86 receives control data from the CPU 80 and controls the rotation angles of the two motors (collectively indicated as “wheel motor 36” in FIG. 3) that drive the wheels 32. In this embodiment, a motor other than the wheel motor 36 uses a stepping motor (that is, a pulse motor) in order to simplify the control. However, a DC motor may be used similarly to the wheel motor 36. In addition, the actuator that drives the body part of the robot 14 is not limited to a motor that uses current as a power source, and may be changed as appropriate. For example, in another embodiment, an air actuator or the like may be applied.

センサ入力/出力ボード88は、モータ制御ボード86と同様に、DSPで構成され、各センサからの信号を取り込んでCPU80に与える。すなわち、赤外線距離センサ40のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード88を通じてCPU80に入力される。また、全方位カメラ46からの映像信号が、必要に応じてセンサ入力/出力ボード88で所定の処理を施してからCPU80に入力される。眼カメラ70からの映像信号も、同様に、CPU80に入力される。また、上述した複数の接触センサ58(図3では、まとめて「接触センサ58」と示す)からの信号がセンサ入力/出力ボード88を介してCPU80に与えられる。音声入力/出力ボード90もまた、同様に、DSPで構成され、CPU80から与えられる音声合成データに従った音声または声がスピーカ64から出力される。また、マイク66からの音声入力が、音声入力/出力ボード90を介してCPU80に与えられる。   Similar to the motor control board 86, the sensor input / output board 88 is composed of a DSP, and takes in signals from each sensor and gives them to the CPU 80. That is, data relating to the reflection time from each of the infrared distance sensors 40 is input to the CPU 80 through the sensor input / output board 88. The video signal from the omnidirectional camera 46 is input to the CPU 80 after being subjected to predetermined processing by the sensor input / output board 88 as necessary. Similarly, the video signal from the eye camera 70 is also input to the CPU 80. Further, signals from the plurality of contact sensors 58 described above (collectively indicated as “contact sensors 58” in FIG. 3) are provided to the CPU 80 via the sensor input / output board 88. Similarly, the voice input / output board 90 is also constituted by a DSP, and a voice or voice according to voice synthesis data given from the CPU 80 is outputted from the speaker 64. In addition, voice input from the microphone 66 is given to the CPU 80 via the voice input / output board 90.

また、CPU80は、バス82を介して通信LANボード112に接続される。通信LANボード112は、たとえばDSPで構成され、CPU80から与えられた送信データを無線通信装置114に与え、無線通信装置114は送信データを、ネットワーク200を介して外部コンピュータ(中央制御装置10)に送信する。また、通信LANボード112は、無線通信装置114を介してデータを受信し、受信したデータをCPU80に与える。たとえば、送信データとしては、全方位カメラ46および目カメラ70によって撮影された周囲の映像データであったりする。   The CPU 80 is connected to the communication LAN board 112 via the bus 82. The communication LAN board 112 is composed of, for example, a DSP, and sends transmission data given from the CPU 80 to the wireless communication device 114. The wireless communication device 114 sends the transmission data to an external computer (central control device 10) via the network 200. Send. The communication LAN board 112 receives data via the wireless communication device 114 and gives the received data to the CPU 80. For example, the transmission data may be surrounding video data captured by the omnidirectional camera 46 and the eye camera 70.

図4は中央制御装置10の電気的な構成を示すブロック図である。図4を参照して、中央制御装置10は、LRF12a−12fおよびCPU16などを含む。CPU16は、マイクロコンピュータ或いはプロセッサとも呼ばれる。また、CPU16には、先述したLRF12aおよびLRF12bに加えて、LRF12c,LRF12d,LRF12eおよびLRF12fも接続される。さらに、CPU16には、メモリ18、役割データベース20、予測用データベース22および通信LANボード24も接続される。   FIG. 4 is a block diagram showing an electrical configuration of the central controller 10. Referring to FIG. 4, central controller 10 includes LRFs 12a-12f, CPU 16, and the like. The CPU 16 is also called a microcomputer or a processor. In addition to LRF 12a and LRF 12b described above, LRF 12c, LRF 12d, LRF 12e, and LRF 12f are also connected to CPU 16. Further, a memory 18, a role database 20, a prediction database 22, and a communication LAN board 24 are also connected to the CPU 16.

なお、LRF12a−12fを区別する必要がない場合には、まとめて「LRF12」と言う。   In addition, when it is not necessary to distinguish LRF12a-12f, it is collectively called "LRF12."

LRF12は、レーザーを照射し、物体(人間も含む)に反射して戻ってくるまでの時間から当該物体までの距離を計測するものである。たとえば、トランスミッタ(図示せず)から照射したレーザーを回転ミラー(図示せず)で反射させて、前方を扇状に一定角度(たとえば、0.5度)ずつスキャンする。ここで、LRF12としては、SICK社製のレーザーレンジファインダ(型式 LMS200)を用いることができる。このレーザーレンジファインダを用いた場合には、距離8mを±15mm程度の誤差で計測可能である。   The LRF 12 measures the distance to the object from the time it takes to irradiate the laser, reflect off the object (including a human being), and return. For example, a laser beam emitted from a transmitter (not shown) is reflected by a rotating mirror (not shown), and the front is scanned in a fan shape by a certain angle (for example, 0.5 degrees). Here, as the LRF 12, a laser range finder (model LMS200) manufactured by SICK can be used. When this laser range finder is used, a distance of 8 m can be measured with an error of about ± 15 mm.

メモリ18は、図示は省略をするが、ROM,HDDおよびRAMを含み、ROMおよびHDDには、中央制御装置10の動作を制御するための制御プログラムが予め記憶される。たとえば、LRF12による人間の検出に必要なプログラムなどが記録される。また、RAMは、CPU16のワークメモリやバッファメモリとして用いられる。   Although not shown, the memory 18 includes a ROM, an HDD, and a RAM, and a control program for controlling the operation of the central control device 10 is stored in advance in the ROM and the HDD. For example, a program necessary for human detection by the LRF 12 is recorded. The RAM is used as a work memory or buffer memory for the CPU 16.

役割データベース20は、役割を持つ複数の人間の移動行動データから構成されるデータベースである。また、予測用データベース22は、人間の役割に関係なく、移動行動データが一定期間(たとえば、1週間)蓄積されたデータベースである。そして、本実施例では、役割データベース20を利用してロボット14の移動が制御され、予測用データベース22を利用して空間に存在する人間の将来位置などが予測される。   The role database 20 is a database composed of movement behavior data of a plurality of persons having roles. The prediction database 22 is a database in which mobile behavior data is accumulated for a certain period (for example, one week) regardless of the role of a person. In this embodiment, the movement of the robot 14 is controlled using the role database 20, and the future position of a person existing in the space is predicted using the prediction database 22.

通信LANボード24は、たとえばDSPで構成され、CPU16から与えられた送信データを無線通信装置26に与え、無線通信装置24は送信データを、ネットワーク200を介してロボット14に送信する。たとえば、送信データとしては、ロボット14に指示する動作命令の信号(コマンド)であったりする。また、通信LANボード24は、無線通信装置26を介してデータを受信し、受信したデータをCPU16に与える。   The communication LAN board 24 is configured by a DSP, for example, and provides transmission data given from the CPU 16 to the wireless communication device 26, and the wireless communication device 24 transmits the transmission data to the robot 14 via the network 200. For example, the transmission data may be an operation command signal (command) instructing the robot 14. The communication LAN board 24 receives data via the wireless communication device 26 and provides the received data to the CPU 16.

次に、LRF12について詳細に説明する。図5を参照して、LRF12の計測範囲は、半径r(r≒8m)の半円形状(扇形)で示される。つまり、LRF12は、その正面方向を中心とした場合に、左右90度の方向を所定の距離(r)以内で計測可能である。   Next, the LRF 12 will be described in detail. Referring to FIG. 5, the measurement range of LRF 12 is indicated by a semicircular shape (fan shape) having a radius r (r≈8 m). That is, the LRF 12 can measure the direction of 90 degrees left and right within a predetermined distance (r) when the front direction is the center.

また、使用しているレーザーは、日本工業規格 JIS C 6802「レーザー製品の安全基準」におけるクラス1レーザーであり、人の眼に対して影響を及ぼさない安全なレベルである。また、この実施例では、LRF12のサンプリングレートを37Hzとした。これは、歩行するなどにより移動する人間の位置を連続して検出するためである。   The laser used is a class 1 laser in Japanese Industrial Standard JIS C 6802 “Safety Standard for Laser Products”, which is a safe level that does not affect human eyes. In this embodiment, the sampling rate of the LRF 12 is 37 Hz. This is because the position of a person who moves by walking or the like is continuously detected.

さらに、LRF12の各々は、検出領域が重なるように配置され、図示は省略するが、床面から約90cmの高さに固定される。この高さは、被験者の胴体と腕(両腕)とを検出可能とするためであり、たとえば、日本人の成人の平均身長から算出される。したがって、中央制御装置10を設ける場所(地域ないし国)や被験者の年齢ないし年代(たとえば、子供,大人)に応じて、LRF12を固定する高さを適宜変更するようにしてよい。なお、本実施例では、設定されるLRF12は6台としたが、2台以上であれば、任意の台数のLRF12が設置されてもよい。   Further, each of the LRFs 12 is arranged so that the detection regions overlap with each other, and although not shown, is fixed to a height of about 90 cm from the floor surface. This height is for enabling detection of the body and arms (both arms) of the subject, and is calculated from, for example, the average height of Japanese adults. Therefore, the height at which the LRF 12 is fixed may be appropriately changed according to the location (region or country) where the central controller 10 is provided and the age or age of the subject (for example, children, adults). In this embodiment, six LRFs 12 are set, but any number of LRFs 12 may be installed as long as the number is two or more.

このような構成の中央制御装置10では、CPU16がLRF12からの出力(距離データ)に基づいて、パーティクルフィルタを用いて、人間の現在位置の変化を推定する。そして、推定された現在位置の変化は移動軌跡として記録される。   In the central controller 10 having such a configuration, the CPU 16 estimates a change in the current position of the human using a particle filter based on the output (distance data) from the LRF 12. The estimated change in the current position is recorded as a movement locus.

たとえば、図6を参照して、LRF12a,12bは互いに向い合せに設置され、LRF12a,12bの計測範囲が重なる範囲は斜線が付されて示される。斜線が付された範囲は検出領域Eとされ、この検出領域E内では人間の現在位置が連続的に検出される。そして、連続的に検出された現在位置の変化が移動軌跡tとなる。なお、検出領域E内は、X−Y座標が設定され、人間の位置は(X,Y)の座標で示すことができる。   For example, referring to FIG. 6, LRFs 12a and 12b are installed facing each other, and a range where the measurement ranges of LRFs 12a and 12b overlap is indicated by hatching. A hatched range is a detection area E, and the current position of the person is continuously detected in the detection area E. And the change of the present position detected continuously becomes the movement locus t. In the detection area E, XY coordinates are set, and the human position can be indicated by coordinates (X, Y).

役割データベース20について詳細に説明する。役割データベース20は、図7(A)に示す役割テーブルと、図7(B)に示す代表移動行動データテーブルとを含む。   The role database 20 will be described in detail. The role database 20 includes a role table shown in FIG. 7A and a representative movement behavior data table shown in FIG.

図7(A)を参照して、役割テーブルは、役割ID、代表移動行動IDおよび平均移動速度の列から構成される。また、代表移動行動IDの列は、n(nは自然数)個の代表移動行動IDのそれぞれに対応する複数の列を含む。   Referring to FIG. 7A, the role table is composed of columns of role ID, representative moving action ID, and average moving speed. The representative movement action ID column includes a plurality of columns corresponding to n (n is a natural number) representative movement action IDs.

役割IDの列には、役割を識別するためのIDとして、「a」−「e」が記録されている。たとえば、役割ID「a」は「話しかけやすい警備員」を表す。また、役割IDの列に「a」と記録されている行では、代表移動行動IDの各列には、代表移動行動ID「Ta1」、「Ta2」および「Tan」などが記録され、平均移動速度の列には「700mm/sec」が記録される。したがって、「話しかけやすい警備員」は、約700mm/secの速度で、代表移動行動ID「Ta1」、「Ta2」または「Tan」などによって示される移動軌跡(図9(A),(B)参照)を描くように移動していることが分かる。   In the role ID column, “a”-“e” are recorded as IDs for identifying roles. For example, the role ID “a” represents “an easy-to-talk guard”. In the row where “a” is recorded in the role ID column, the representative movement action IDs “Ta1”, “Ta2”, “Tan”, and the like are recorded in each column of the representative movement action ID, and the average movement In the speed column, “700 mm / sec” is recorded. Therefore, the “security guard who is easy to talk” moves at a speed of about 700 mm / sec, and the movement trajectory indicated by the representative movement action ID “Ta1”, “Ta2” or “Tan” (see FIGS. 9A and 9B). You can see that it is moving like drawing.

役割ID「b」は「話しかけにくい警備員」を表す。また、役割IDの列に「b」と記録されている行では、代表移動行動IDの各列には、代表移動行動ID「Tb1」、「Tb2」および「Tbn」などが記録され、平均移動速度の列には「1200mm/sec」が記録される。したがって、「話しかけにくい警備員」は、約1200mm/secの速度で、代表移動行動ID「Tb1」、「Tb2」または「Tbn」などによって示される移動軌跡(図9(C),(D)参照)を描くように移動していることが分かる。   The role ID “b” represents “a guard who is difficult to talk to”. In the row where “b” is recorded in the role ID column, the representative movement behavior IDs “Tb1”, “Tb2”, “Tbn”, and the like are recorded in each column of the representative movement behavior ID, and the average movement In the speed column, “1200 mm / sec” is recorded. Therefore, the “security guard who is difficult to talk” moves at a speed of about 1200 mm / sec at the speed of the movement trajectory indicated by the representative movement action ID “Tb1”, “Tb2” or “Tbn” (see FIGS. 9C and 9D). You can see that it is moving like drawing.

また、役割ID「c」は「清掃員」を表し、役割ID「d」は「あまり動かない監視員」を表し、役割ID「d」は「受付係」を表す。また、これらの役割IDが記録される行の代表移動行動IDの列については、役割ID「a」または役割ID「b」が記録される行と略同じ構成であるため、詳細な説明は省略する。そして、平均移動速度の列では、役割ID「c」に対応して「600mm/sec」が記録され、役割ID「d」に対応して「100mm/sec」が記録され、役割ID「e」に対応して「0mm/sec」が記録される。   Further, the role ID “c” represents “cleaner”, the role ID “d” represents “monitorer who does not move so much”, and the role ID “d” represents “acceptor”. In addition, the column of the representative movement action ID in the row in which these role IDs are recorded has substantially the same configuration as the row in which the role ID “a” or the role ID “b” is recorded, and thus detailed description thereof is omitted. To do. In the average moving speed column, “600 mm / sec” is recorded corresponding to the role ID “c”, “100 mm / sec” is recorded corresponding to the role ID “d”, and the role ID “e” is recorded. Corresponding to “0 mm / sec” is recorded.

また、図7(B)を参照して、代表移動行動データテーブルは、代表移動行動IDの列および移動行動データの列から構成される。代表移動行動IDの列には、役割テーブルに記録される代表移動行動IDと同じIDが記録される。また、移動行動データの列には、移動軌跡を構成する座標(X,Y)と、その座標で行われた行動(A)とから表される移動行動データが記録される。   Also, referring to FIG. 7B, the representative movement behavior data table includes a column of representative movement behavior IDs and a column of movement behavior data. In the column of the representative movement action ID, the same ID as the representative movement action ID recorded in the role table is recorded. In addition, in the column of movement action data, movement action data represented by coordinates (X, Y) constituting the movement locus and actions (A) performed at the coordinates are recorded.

たとえば、代表移動行動ID「Ta1」に対応して、移動行動データの列には「(Xa1,Ya1,Aa1),(Xa2,Ya2,Aa2),…」が記録される。また、代表移動行動ID「Tb1」に対応して、移動行動データの列には「(Xb1,Yb1,Ab1),(Xb2,Yb2,Ab2),…」が記録される。そして、代表移動行動ID「Tc1」、「Td1」および「Te1」のそれぞれにも、対応する移動行動データが記録される。   For example, “(Xa1, Ya1, Aa1), (Xa2, Ya2, Aa2),...” Is recorded in the movement behavior data column corresponding to the representative movement behavior ID “Ta1”. Corresponding to the representative movement action ID “Tb1”, “(Xb1, Yb1, Ab1), (Xb2, Yb2, Ab2),...” Is recorded in the movement action data column. Corresponding movement action data is also recorded in each of the representative movement action IDs “Tc1”, “Td1”, and “Te1”.

このようにして、役割データベース20には、役割に対応する移動行動データが記録される。また、代表移動行動データが読み出される場合、役割テーブルが参照された後に、ロボット14に設定された役割に対応する移動行動データが読みされる。   In this way, the movement database corresponding to the role is recorded in the role database 20. When representative movement action data is read, the movement action data corresponding to the role set in the robot 14 is read after the role table is referred to.

なお、これらの5つの役割は、街角で活動する人々を想定して決められたものだが、他の実施例では場所や状況に応じて他の役割が付加されてもよい。たとえば、他の実施例では、数分は一か所で静止し、その後、少し身体の向きを変えたり移動したりする「あまり移動しない警備員」の役割が追加されてもよい。   These five roles are determined on the assumption of people who are active on street corners, but in other embodiments, other roles may be added depending on the location and circumstances. For example, in another embodiment, the role of “a guard that does not move very much” may be added, which will remain stationary in one place for a few minutes and then turn or move slightly.

次に、移動行動データに含まれる移動軌跡および行動について説明する。図8を参照して、検出領域Eが25cm四方で空間グリッド化され、その検出領域Eを人間が移動すると、人間の移動軌跡Htが得られる。また、グリッド毎に移動速度が算出され、グリッド毎に行動(A)が求められる。   Next, the movement trajectory and behavior included in the movement behavior data will be described. Referring to FIG. 8, when detection area E is formed into a spatial grid in a 25 cm square, and a person moves in detection area E, human movement trajectory Ht is obtained. Further, the moving speed is calculated for each grid, and the action (A) is obtained for each grid.

たとえば、或るグリッドにおける移動速度が第1閾値(たとえば、10mm/sec)以下であれば、そのグリッド内の行動は「立ち止まる」となる。また、移動速度が第1閾値よりも大きく第2閾値(800mm/sec)以下であれば、グリッド内の行動は「ゆっくり直進」となる。さらに、移動速度が第2閾値よりも大きければ、グリッド内の移動速度は「早歩きで直進」となる。そして、図8では、行動が「立ち止まる」と判断されたグリッドは黄色(図面では水玉模様)に彩色され、行動が「ゆっくり直進」と判断されたグリッドは青色(図面では横縞模様)に彩色され、行動が「早歩きで直進」と判断されたグリッドは赤色(図面では縦縞模様)に彩色される。なお、本実施例における移動行動とは、上記した行動を伴う移動を意味する。   For example, if the moving speed in a certain grid is equal to or lower than a first threshold (for example, 10 mm / sec), the action in the grid is “stopped”. Further, if the moving speed is greater than the first threshold and less than or equal to the second threshold (800 mm / sec), the action in the grid is “slowly going straight”. Furthermore, if the moving speed is greater than the second threshold, the moving speed in the grid is “straight forward and go straight”. In FIG. 8, the grid for which the action is determined to be “stop” is colored yellow (polka dot pattern in the drawing), and the grid for which the action is determined to be “slowly straight” is colored blue (horizontal stripe pattern in the drawing). The grid for which the action is determined to be “walk fast and go straight” is colored red (vertical stripe pattern in the drawing). In addition, the movement action in a present Example means the movement accompanying an above-described action.

これらのことを踏まえて、「話しかけやすい警備員」および「話しかけにくい警備員」の代表移動行動データについて説明する。まず、図9(A)の代表移動行動ID「Ta1」の移動行動データは、「話しかけやすい警備員」が中央付近をうろうろするように「ゆっくり直進」していることを表す。また、図9(B)の代表移動行動ID「Ta2」の移動行動データは、「話しかけやすい警備員」が空間の中央付近で円を描くように「ゆっくり直進」していることを表す。そして、これらの代表移動行動データから、「話しかけやすい警備員」は目的を持っていないかのように、中央付近をゆっくりと移動していることが分かる。   Based on these facts, the representative movement behavior data for “easy to speak security guards” and “hard to talk security guards” will be described. First, the movement action data of the representative movement action ID “Ta1” in FIG. 9A represents that “a security guard who is easy to talk” is “slowly going straight” so as to walk around the center. Further, the movement action data of the representative movement action ID “Ta2” in FIG. 9B represents that “a security guard who is easy to talk” is “slowly going straight” so as to draw a circle near the center of the space. From these representative movement behavior data, it can be seen that “the security guard who is easy to talk” slowly moves around the center as if it had no purpose.

これに対して、図9(C)の代表移動行動ID「Tb1」の移動行動データは、「話しかけにくい警備員」が「早歩きで直進」しながら空間の縁に沿って空間内を一周していることを表す。また、図9(D)の代表移動行動ID「Tb2」の移動行動データは、「話しかけにくい警備員」が空間の右と上の淵を「早歩きで直進」していることを表す。そして、これらの代表移動行動データから、「話しかけにくい警備員」は目的を持っているかのように、素早く移動していることが分かる。   On the other hand, the movement data of the representative movement action ID “Tb1” in FIG. 9 (C) travels around the space along the edge of the space while the “security guard who is difficult to talk to” “walks straight ahead”. Represents that Further, the movement action data of the representative movement action ID “Tb2” in FIG. 9D indicates that the “security guard who is difficult to talk” is “straightly walking straight” on the right and upper fences of the space. From these representative movement behavior data, it can be seen that the “security guard who is difficult to talk to” moves quickly as if having a purpose.

そして、本実施例では、ロボット14に役割が設定されると、ロボット14の役割などに基づいて代表移動行動データが選択され、選択された代表移動行動データに基づいてロボット14の移動行動が制御される。   In this embodiment, when a role is set for the robot 14, representative movement behavior data is selected based on the role of the robot 14, and the movement behavior of the robot 14 is controlled based on the selected representative movement behavior data. Is done.

まず、代表移動行動データを選択するために、DPマッチングを利用するため、ロボット14の移動軌跡が状態列に変換される。また、役割テーブルにおいて、ロボット14に設定されている役割を示す、代表移動行動IDの行に基づいて、複数の代表移動行動データが読み出され、複数の代表移動行動データのそれぞれに含まれる移動軌跡が状態列に変換される。さらに、ロボット14の状態列と各代表移動行動データの状態列それぞれとの類似度がDPマッチングによって算出される。そして、算出された類似度に基づいて、役割データベース20から代表移動行動データが選択される。なお、DPマッチングを利用して移動軌跡を比較する手法については、非特許文献1で開示されているため、詳細な説明は省略する。   First, in order to use the DP matching to select the representative movement action data, the movement trajectory of the robot 14 is converted into a state sequence. Further, in the role table, a plurality of representative movement behavior data is read based on the row of the representative movement behavior ID indicating the role set in the robot 14, and the movement included in each of the plurality of representative movement behavior data. The trajectory is converted to a state sequence. Further, the similarity between the state sequence of the robot 14 and each state sequence of each representative movement action data is calculated by DP matching. Then, representative movement action data is selected from the role database 20 based on the calculated similarity. In addition, since the method of comparing a movement locus | trajectory using DP matching is disclosed by the nonpatent literature 1, detailed description is abbreviate | omitted.

このように、ロボット14の移動軌跡を利用して代表移動行動データを選択することができるため、ロボット14の現在位置やそれまでの移動を考慮して、ロボット14の移動行動を決めることができる。   Thus, since the representative movement behavior data can be selected using the movement locus of the robot 14, the movement behavior of the robot 14 can be determined in consideration of the current position of the robot 14 and the movement so far. .

また、代表移動行動データが選択されると、ロボット14の現在位置において、複数の将来位置および複数の将来位置における行動が予測される。さらに、予測された行動のそれぞれは発生確率が算出され、算出された各発生確率に基づいて、ロボットの14の移動行動が決められる。そして、中央制御装置10は、このようにして決められた移動行動に対応する動作命令を、ロボット14に付与する。   When representative movement behavior data is selected, behaviors at a plurality of future positions and a plurality of future positions are predicted at the current position of the robot 14. Furthermore, the probability of occurrence of each predicted action is calculated, and the 14 movement actions of the robot are determined based on the calculated occurrence probabilities. Then, the central control device 10 gives an operation command corresponding to the moving action determined in this way to the robot 14.

たとえば、図10に示す状態では、ロボット10は左から右への移動軌跡を描きながら移動しており、そのロボット14に「話しかけにくい警備員」が設定されている。この場合、ロボット14の役割および移動軌跡などに基づいて、代表移動行動ID「b」の行が参照され、代表移動行動ID「Tb1」の移動行動データ(図9(C)参照)が選択される。   For example, in the state shown in FIG. 10, the robot 10 moves while drawing a movement trajectory from left to right, and a “guard who is difficult to talk to” is set for the robot 14. In this case, based on the role of the robot 14 and the movement trajectory, the row of the representative movement action ID “b” is referred to, and the movement action data (see FIG. 9C) of the representative movement action ID “Tb1” is selected. The

そして、図11(A)を参照して、ロボット14の将来位置および行動として、ロボット14の右のグリッドに「早歩きで直進」、同じグリッドで「立ち止まる」、左のグリッドに「早歩きで直進」が予測される。さらに、予測された行動のそれぞれは発生確率が算出され、ロボット14の移動先は、発生確率が最も高い行動が求められたグリッドに決められる。ここでは、右のグリッドに「早歩きで直進」の発生確率が最も高いため、図11(B)に示すように、ロボット14は「早歩きで直進」して右側のグリッドに移動する。   Then, referring to FIG. 11A, as the future position and action of the robot 14, the robot 14 “runs straight forward” on the right grid, “stops” on the same grid, and “walks fast” on the left grid. "Straight" is predicted. Furthermore, the occurrence probability is calculated for each predicted action, and the movement destination of the robot 14 is determined to be a grid where the action having the highest occurrence probability is obtained. Here, since the probability of occurrence of “straight forward by fast walking” is the highest in the right grid, the robot 14 moves straight to the right grid as shown in FIG. 11B.

さらに、図11(C),(D)を参照して、移動した先のグリッドにおいても、ロボット14の将来位置および行動は予測され、右へ移動し続ける。つまり、ロボット14は、代表移動行動ID「Tb1」の移動行動データに含まれる移動軌跡と同じように移動する。   Further, with reference to FIGS. 11C and 11D, the future position and action of the robot 14 are predicted and continue to move to the right in the grid that has moved. That is, the robot 14 moves in the same manner as the movement locus included in the movement action data of the representative movement action ID “Tb1”.

たとえば、「話しかけやすい警備員」は、検出領域Eの中央付近をうろうろするような振る舞いが多くなる。そのため、ロボット14に「話しかけやすい警備員」の役割が設定されている場合、検出領域Eの中央付近では、うろうろするような移動行動の発生確率が高くなる。一方、検出領域Eの縁などでは、中央付近に移動する移動行動の発生確率が高くなる。また、他の実施例において「あまり移動しない警備員」の役割がロボット14に設定されていれば、数分は静止する移動行動の発生確率が高くなり、数分後には移動に関する移動行動の発生確率が高くなる。   For example, a “security guard who is easy to talk to” has a lot of behavior that hangs around the center of the detection area E. Therefore, when the role of “an easy-to-talk guard” is set for the robot 14, the probability of the wandering moving action increases near the center of the detection area E. On the other hand, at the edge of the detection region E, the probability of occurrence of a moving action that moves near the center is high. In another embodiment, if the role of the “guard who does not move so much” is set in the robot 14, the probability of occurrence of a stationary moving action increases for a few minutes, and the occurrence of a moving action related to movement occurs after a few minutes. Probability increases.

このように、役割を持った人間の移動行動データを蓄積することで、データを蓄積した同一の空間では、管理者は、役割を持った人間と同じようにロボット14を動作させることができる。   As described above, by accumulating the movement behavior data of the person having the role, the administrator can operate the robot 14 in the same space where the data is accumulated, as in the case of the person having the role.

なお、図11(A)−(D)において、グリッドの模様(色)は、発生確率によって濃度が変化する。たとえば、縦縞模様(赤色)または横縞模様(青色)の場合、発生確率が高くなるにつれて縞の密度(色の濃度)が高くなる。また、水玉模様(黄色)の場合、発生確率が高くなるにつれて水玉の密度(色の濃度)が高くなる。また、上記した色の濃度は、他の図面でも同じように表現されることが有る。   11A to 11D, the density of the grid pattern (color) varies depending on the occurrence probability. For example, in the case of a vertical stripe pattern (red) or a horizontal stripe pattern (blue), the stripe density (color density) increases as the generation probability increases. In the case of a polka dot pattern (yellow), the density of the polka dots (color density) increases as the probability of occurrence increases. The color density described above may be expressed in the same way in other drawings.

ここで、ロボット14の周囲に人間Hが存在する場合について説明する。まず、図12(A)−図12(C)を参照して、「話しかけやすい警備員」が設定されたロボット14は、代表移動行動ID「Ta1」の移動行動データに含まれる移動軌跡と同じように移動する。また、図12(D)で示される時刻に、検出領域E内で人間Hが検出されると、次の時刻では、その人間Hの将来位置および行動が、ロボット14の将来位置および行動よりも先に予測される。そして、図12(E),(F)を参照して、ロボット14の将来位置および行動は、人間Hの将来位置(点線で囲われた範囲)を除いたグリッドにおいて予測される。つまり、人間が進む位置にはロボット14は進むことができないため、人間の将来位置ではロボット14の将来位置および行動は予測されないように出来る。   Here, the case where the human H exists around the robot 14 will be described. First, referring to FIG. 12A to FIG. 12C, the robot 14 to which the “easy to talk” guard is set is the same as the movement trajectory included in the movement action data of the representative movement action ID “Ta1”. To move. When the person H is detected in the detection area E at the time shown in FIG. 12D, the future position and action of the person H are higher than the future position and action of the robot 14 at the next time. Predicted first. 12E and 12F, the future position and action of the robot 14 are predicted in a grid excluding the future position of the human H (range surrounded by a dotted line). That is, since the robot 14 cannot move to the position where the person advances, the future position and behavior of the robot 14 can be prevented from being predicted at the future position of the person.

なお、他の実施例では、検出領域E内で、複数の人間が同時に検出されてもよい。この場合、複数の人間のそれぞれに対して将来位置が予測される。   In another embodiment, a plurality of people may be detected in the detection area E at the same time. In this case, a future position is predicted for each of a plurality of humans.

図13は図4に示す中央制御装置10におけるメモリ18のメモリマップ300の一例を示す図解図である。図13が示すように、メモリ18はプログラム記憶領域302およびデータ記憶領域304を含む。プログラム記憶領域302には、中央制御装置10を動作させるためのプログラムとして、役割データベース構築プログラム310、役割設定プログラム312および移動制御プログラム314などが記憶される。   FIG. 13 is an illustrative view showing one example of a memory map 300 of the memory 18 in the central controller 10 shown in FIG. As shown in FIG. 13, the memory 18 includes a program storage area 302 and a data storage area 304. The program storage area 302 stores a role database construction program 310, a role setting program 312, a movement control program 314, and the like as programs for operating the central controller 10.

役割データベース構築プログラム310は、新しい移動行動データを役割データベース20に追加するためのプログラムである。役割設定プログラム312は、ロボット14に役割を設定するためのプログラムである。移動制御プログラム314は、役割が設定されたロボット14の移動行動を制御するためのプログラムである。   The role database construction program 310 is a program for adding new movement behavior data to the role database 20. The role setting program 312 is a program for setting a role for the robot 14. The movement control program 314 is a program for controlling the movement behavior of the robot 14 with the role set.

なお、図示は省略するが、中央制御装置10を動作させるためのプログラムには、ロボット14との無線通信を確立するためのプログラムなども含まれる。   Although not shown, the program for operating the central control device 10 includes a program for establishing wireless communication with the robot 14.

また、データ記憶領域304には、移動軌跡バッファ330、移動行動予測バッファ332、代表移動行動バッファ334および発生確率バッファ336が設けられる。また、データ記憶領域304には、地図データ338および役割データ340が記憶される。   The data storage area 304 is provided with a movement trajectory buffer 330, a movement action prediction buffer 332, a representative movement action buffer 334, and an occurrence probability buffer 336. In the data storage area 304, map data 338 and role data 340 are stored.

移動軌跡バッファ330には、LRF12によって検出された人間およびロボット14の移動軌跡が一時的に記憶される。移動行動予測バッファ332には、ロボット14および人間の予測された複数の将来位置および行動が一時的に記憶される。たとえば、移動行動予測バッファ332には、複数の将来位置を示す座標およびその座標に対応付けられた行動を示す代表移動行動IDが記憶される。代表移動行動バッファ334には、役割データベース20から選択された代表移動行動データが一時的に記憶される。発生確率バッファ336には、移動行動予測バッファ332に格納されている、予測された行動の発生確率が一時的に記憶される。   The movement locus buffer 330 temporarily stores the movement locus of the human and the robot 14 detected by the LRF 12. The movement behavior prediction buffer 332 temporarily stores a plurality of predicted future positions and behaviors of the robot 14 and humans. For example, the movement behavior prediction buffer 332 stores coordinates indicating a plurality of future positions and representative movement behavior IDs indicating behaviors associated with the coordinates. The representative movement action buffer 334 temporarily stores representative movement action data selected from the role database 20. In the occurrence probability buffer 336, the occurrence probability of the predicted action stored in the movement action prediction buffer 332 is temporarily stored.

地図データ338は、検出領域Eを示す地図の画像データであり、たとえば図8に示すように空間がグリッドに分けられた地図である。役割データ340は、ロボット14に設定された役割を示すデータである。   The map data 338 is image data of a map indicating the detection area E, and is a map in which the space is divided into grids as shown in FIG. 8, for example. The role data 340 is data indicating a role set for the robot 14.

なお、図示は省略するが、データ記憶領域304には、様々な計算の結果を一時的に格納するバッファなどが設けられると共に、中央制御装置10の動作に必要な他のカウンタやフラグなども設けられる。   Although not shown, the data storage area 304 is provided with a buffer for temporarily storing the results of various calculations and other counters and flags necessary for the operation of the central controller 10. It is done.

以下、中央制御装置10のCPU16によって実行されるプログラムについて説明する。図14のフロー図は役割データベース構築プログラム310による処理を示し、図15のフロー図は役割設定プログラム312による処理を示し、図16および図17のフロー図は移動制御プログラム314による処理を示す。   Hereinafter, a program executed by the CPU 16 of the central controller 10 will be described. The flowchart of FIG. 14 shows processing by the role database construction program 310, the flowchart of FIG. 15 shows processing by the role setting program 312, and the flowcharts of FIGS. 16 and 17 show processing by the movement control program 314.

図14は役割データベース構築処理のフロー図である。たとえば、管理者が役割を持つ人間の移動行動データを新たに追加する操作を行うと、中央制御装置10のCPU16は、ステップS1で開始操作がされたか否かを判断する。つまり、人間の移動軌跡および行動の蓄積を開始する操作がされたか否かを判断する。ステップS1で“NO”であれば、つまり開始する操作がされなければ、ステップS1の処理が繰り返し実行される。また、ステップS1で“YES”であれば、つまり開始する操作がされると、ステップS3で移動軌跡および行動を蓄積する。つまり、LRF12によって検出された移動軌跡とその移動軌跡が示す行動とが移動軌跡バッファ330に格納される。   FIG. 14 is a flowchart of the role database construction process. For example, when the administrator performs an operation of newly adding human movement behavior data with a role, the CPU 16 of the central control device 10 determines whether or not a start operation has been performed in step S1. That is, it is determined whether or not an operation for starting accumulation of human movement trajectory and behavior has been performed. If “NO” in the step S1, that is, if an operation to start is not performed, the process in the step S1 is repeatedly executed. If “YES” in the step S1, that is, if an operation to start is performed, the movement locus and the action are accumulated in a step S3. That is, the movement locus detected by the LRF 12 and the action indicated by the movement locus are stored in the movement locus buffer 330.

続いて、ステップS5では、所定時間(たとえば、60秒)が経過したか否かを判断する。つまり、移動行動を予測するに十分な移動軌跡および行動が蓄積されたか否かを判断する。ステップS5で“NO”であれば、つまり所定時間が経過していなければ、ステップS3に戻る。一方、ステップS5で“YES”であれば、つまり所定時間が経過すれば、ステップS7でラベル付け操作がされたか否かを判断する。たとえば、蓄積した移動軌跡および行動に対して、「話しかけやすい警備員」などのラベルを付ける操作がされたか否かを判断する。ステップS7で“NO”であれば、つまりラベルを付ける操作がされなければステップS7の処理が繰り返し実行される。   Subsequently, in step S5, it is determined whether or not a predetermined time (for example, 60 seconds) has elapsed. That is, it is determined whether or not the movement trajectory and behavior sufficient to predict the movement behavior are accumulated. If “NO” in the step S5, that is, if the predetermined time has not elapsed, the process returns to the step S3. On the other hand, if “YES” in the step S5, that is, if a predetermined time elapses, it is determined whether or not a labeling operation is performed in a step S7. For example, it is determined whether or not an operation of attaching a label such as “an easy-to-talk guard” to the accumulated movement trajectory and action is performed. If “NO” in the step S7, that is, if a labeling operation is not performed, the process in the step S7 is repeatedly executed.

また、ステップS7で“YES”であれば、つまりラベルを付ける操作がされると、ステップS9で蓄積した移動軌跡および行動に、代表移動行動IDを付けて、役割データベースに追加する。たとえば、「話しかけやすい警備員」のラベルが付ける操作がされると、蓄積した移動軌跡および行動に対して、「話しかけやすい警備員」の代表移動行動IDを付けて、代表移動行動データテーブルに追加する。なお、ステップS9の処理を実行するCPU16は追加手段として機能する。   If “YES” in the step S7, that is, if a labeling operation is performed, a representative movement action ID is added to the movement trajectory and action accumulated in the step S9 and added to the role database. For example, when an operation for labeling “easy to talk” is performed, a representative movement behavior ID of “easy to speak” is added to the accumulated movement trajectory and action and added to the representative movement behavior data table. To do. In addition, CPU16 which performs the process of step S9 functions as an addition means.

続いて、ステップS11では、終了操作がされたか否かが判断される。つまり、役割データベース構築処理を終了する操作がされた否かを判断する。ステップS11で“NO”であれば、つまり終了操作がされなければ、ステップS1に戻る。一方、ステップS11で“YES”であれば、つまり終了操作がされると、役割データベース構築処理が終了する。   Subsequently, in step S11, it is determined whether or not an end operation has been performed. That is, it is determined whether or not an operation for ending the role database construction process has been performed. If “NO” in the step S11, that is, if the end operation is not performed, the process returns to the step S1. On the other hand, if “YES” in the step S11, that is, if an end operation is performed, the role database construction process is ended.

図15は役割設定処理のフロー図である。たとえば、管理者がロボット14に役割を設定するための処理を行うと、CPU16はステップS21で、役割が選択されたか否かを判断する。たとえば、「話しかけやすい警備員」、「話しかけにくい警備員」、「清掃員」、「あまり動かない監視員」および「受付係」の中から1つの役割が選択されたか否かを判断する。ステップS21で“NO”であれば、つまり役割が選択されなければ、ステップS21の処理が繰り返し実行される。また、ステップS21で“YES”であれば、つまり役割が選択されると、ステップS23でロボット14に選択された役割を設定し、役割設定処理を終了する。   FIG. 15 is a flowchart of role setting processing. For example, when the administrator performs a process for setting a role in the robot 14, the CPU 16 determines whether or not a role has been selected in step S21. For example, it is determined whether or not one role has been selected from among “security guards that are easy to talk to”, “security guards that are difficult to talk to”, “cleaners”, “supervisors that do not move much”, and “receptionists”. If “NO” in the step S21, that is, if a role is not selected, the process of the step S21 is repeatedly executed. If “YES” in the step S21, that is, if a role is selected, the role selected in the robot 14 is set in a step S23, and the role setting process is ended.

たとえば、「話しかけやすい警備員」が選択されていた場合、ステップS23では、ロボット14には「話しかけやすい警備員」が設定される。また、設定された役割は、役割データ340としてメモリ18に記憶される。なお、ステップS23の処理を実行するCPU16は、役割手段として機能する。   For example, if “easy to talk” is selected, in step S <b> 23, “easy to talk” is set for the robot 14. Further, the set role is stored in the memory 18 as role data 340. In addition, CPU16 which performs the process of step S23 functions as a role means.

図16および図17は移動制御処理のフロー図である。たとえば、中央制御装置10の電源がオンにされると、CPU16はステップS41で、ロボット14に設定された役割を取得する。つまり、役割データ340からロボット14に設定されている役割が取得される。続いて、ステップS43で終了操作か否かを判断する。つまり、移動制御処理を終了するための操作がされたか否かを判断する。ステップS43で“NO”であれば、終了操作がされなければ、ステップS45でロボットの現在位置および移動軌跡を取得する。つまり、移動軌跡バッファ330に格納されている移動軌跡を読み出し、移動軌跡の最後の位置を現在位置として取得する。なお、ステップS45の処理を実行するCPU16は移動軌跡取得手段として機能する。   16 and 17 are flowcharts of the movement control process. For example, when the central controller 10 is turned on, the CPU 16 acquires the role set in the robot 14 in step S41. That is, the role set for the robot 14 is acquired from the role data 340. Subsequently, in step S43, it is determined whether or not the end operation is performed. That is, it is determined whether or not an operation for ending the movement control process has been performed. If “NO” in the step S43, if the end operation is not performed, the current position and movement locus of the robot are acquired in a step S45. That is, the movement locus stored in the movement locus buffer 330 is read, and the last position of the movement locus is acquired as the current position. In addition, CPU16 which performs the process of step S45 functions as a movement locus | trajectory acquisition means.

続いて、ステップS47でロボット14の役割、現在位置および移動軌跡に基づいて、代表移動行動データを選択する。まず、CPU16は、ロボット14の役割を示す役割IDの行から各代表移動行動IDを読み出す。次に、CPU16は、各代表移動行動IDが示す移動行動データに含まれる移動軌跡とロボット14の移動軌跡とを状態列に変換して、DPマッチングによって類似度を算出する。そして、類似度が最も高い代表移動行動データを、役割データベース20の代表移動行動データテーブルから選択する。また、選択された代表移動行動データは、代表移動行動バッファ334に格納される。なお、ステップS47の処理を実行するCPU16は選択手段として機能する。   In step S47, representative movement action data is selected based on the role of the robot 14, the current position, and the movement locus. First, the CPU 16 reads each representative movement action ID from the role ID line indicating the role of the robot 14. Next, the CPU 16 converts the movement trajectory included in the movement behavior data indicated by each representative movement behavior ID and the movement trajectory of the robot 14 into a state sequence, and calculates the similarity by DP matching. Then, the representative movement behavior data having the highest similarity is selected from the representative movement behavior data table of the role database 20. The selected representative movement behavior data is stored in the representative movement behavior buffer 334. The CPU 16 that executes the process of step S47 functions as a selection unit.

続いて、ステップS49でロボット14の将来位置および行動を予測する。つまり、選択された代表移動行動データに基づいて、次の時刻における複数の将来位置および行動を予測する。なお、ステップS49の処理を実行するCPU16は第1予測手段として機能する。   Subsequently, the future position and behavior of the robot 14 are predicted in step S49. That is, based on the selected representative movement action data, a plurality of future positions and actions at the next time are predicted. In addition, CPU16 which performs the process of step S49 functions as a 1st prediction means.

続いて、ステップS51で人間が周囲に存在するか否かを判断する。つまり、検出領域E内で人間が検出されているか否かを判断する。ステップS51で“YES”であれば、つまり検出領域Eに人間が存在していれば、ステップS53で人間の移動軌跡を取得する。つまり、移動軌跡バッファ330から人間の移動軌跡を取得する。続いて、ステップS55で人間の移動軌跡に基づいて人間の将来位置を予測する。つまり、ロボット14の将来位置を予測する場合と同じように、予測用データベース22から人間の移動軌跡と類似する移動軌跡を選択する。そして、選択された移動軌跡に基づいて、次の時刻における人間の将来位置を予測する。なお、ステップS55の処理を実行するCPU16は第2予測手段として機能する。   Subsequently, in step S51, it is determined whether or not a human is present around. That is, it is determined whether or not a person is detected in the detection area E. If “YES” in the step S51, that is, if a human is present in the detection area E, a moving locus of the human is acquired in a step S53. That is, a human movement trajectory is acquired from the movement trajectory buffer 330. Subsequently, in step S55, the future position of the person is predicted based on the movement locus of the person. That is, a movement trajectory similar to a human movement trajectory is selected from the prediction database 22 in the same manner as when predicting the future position of the robot 14. Based on the selected movement locus, the future position of the human at the next time is predicted. In addition, CPU16 which performs the process of step S55 functions as a 2nd prediction means.

続いて、ステップS57では、人間の将来位置を除き、予測された行動の発生確率を算出する。たとえば、図12(E)のように、人間の将来位置を除いて、ロボット14の各将来位置において、ロボット14の行動の発生確率が算出される。そして、算出された発生確率は、将来位置を示す座標と対応付けられて発生確率バッファ336に格納される。   Subsequently, in step S57, the occurrence probability of the predicted action is calculated excluding the human future position. For example, as shown in FIG. 12E, the probability of occurrence of the action of the robot 14 is calculated at each future position of the robot 14 except for the future position of the human. The calculated occurrence probability is stored in the occurrence probability buffer 336 in association with the coordinates indicating the future position.

また、周囲に人間がいなければ、ステップS51で“NO”と判断され、ステップS59で予測された行動の発生確率が算出される。たとえば、図11(A)に示すように、ロボット14の将来位置において行動の発生確率が算出される。   If no person is present in the vicinity, “NO” is determined in step S51, and the occurrence probability of the behavior predicted in step S59 is calculated. For example, as shown in FIG. 11A, the occurrence probability of the action at the future position of the robot 14 is calculated.

なお、ステップS57またはステップS59の処理を実行するCPU16は算出手段として機能する。   In addition, CPU16 which performs the process of step S57 or step S59 functions as a calculation means.

続いて、ステップS61では、算出された発生確率に基づいて、次の移動行動を決定する。たとえば、図11(A)のように発生確率が算出された場合、ロボット14の右側のグリッドにおける行動の発生確率が最も高いため、「右側のグリッドへ早歩きで直進する」という移動行動がステップS61の処理によって決められる。続いて、ステップS63では、ロボット14に移動行動を指示して、ステップS43に戻る。つまり、ステップS61で決められた移動行動の動作命令が、ロボット14に付与される。   Subsequently, in step S61, the next moving action is determined based on the calculated occurrence probability. For example, when the occurrence probability is calculated as shown in FIG. 11A, since the action occurrence probability in the right grid of the robot 14 is the highest, the moving action “walk straight to the right grid” is performed. It is determined by the process of S61. Subsequently, in step S63, the robot 14 is instructed to move, and the process returns to step S43. That is, the movement command of the movement action determined in step S61 is given to the robot 14.

なお、ステップS43で“YES”であれば、つまり終了操作がされると、移動制御処理が終了する。   If “YES” in the step S43, that is, if an end operation is performed, the movement control process is ended.

以上のことから、移動制御システム100は、役割データベース20を備える中央制御装置10および役割が設定されたロボット14を有する。また、役割データベース20は、役割を持った人間の代表移動行動データから構成される。たとえば、ロボット14に「話しかけやすい警備員」の役割が設定されている場合、「話しかけやすい警備員」の代表移動行動データが役割データベース20から選択される。また、中央制御装置10では、役割が設定されたロボット14の複数の将来位置および各将来位置における行動が代表移動行動データに基づいて予測され、予測された複数の行動のそれぞれの発生確率が算出される。そして、ロボット14には、算出された発生確率に基づいて移動行動が指示される。   From the above, the movement control system 100 includes the central controller 10 including the role database 20 and the robot 14 in which the roles are set. The role database 20 is composed of representative mobile behavior data of a person who has a role. For example, when the role of “easy to talk” is set for the robot 14, representative movement behavior data of “easy to talk” is selected from the role database 20. Further, the central controller 10 predicts a plurality of future positions of the robot 14 to which the role is set and actions at each future position based on the representative movement action data, and calculates the occurrence probability of each of the predicted plurality of actions. Is done. Then, the robot 14 is instructed to move based on the calculated occurrence probability.

したがって、ロボット14と同じ役割を持った人間の移動行動データに基づいて、ロボット14の移動行動が決まる。そのため、システムの管理者は、役割が設定されたロボットを、同じ役割を持った人間と同じように動作させることができる。   Therefore, the movement behavior of the robot 14 is determined based on the movement behavior data of the human having the same role as the robot 14. Therefore, the system administrator can operate a robot with a role set in the same way as a human having the same role.

なお、ロボット14が移動しておらず、移動軌跡が存在しない場合、DPマッチングを利用せずに、ロボット14の現在位置に近い座標を含む代表移動行動データが選択される。また、他の実施例では、DPマッチングとは異なる手法を利用して、代表移動行動が選択されてもよい。   If the robot 14 is not moving and there is no movement locus, representative movement action data including coordinates close to the current position of the robot 14 is selected without using DP matching. In another embodiment, the representative movement behavior may be selected using a method different from DP matching.

また、本実施例では、最も発生確率が高い行動が選択されたが、他の実施例では発生確率が80%を超える上位3つの行動からランダムに選択されてもよい。   In the present embodiment, the action having the highest occurrence probability is selected, but in other embodiments, the action may be selected at random from the top three actions having an occurrence probability exceeding 80%.

また、他の実施例では、「立ち止まってから、身体の向きを変える」や「後進する」などの行動が移動軌跡から検出されてもよい。   In another embodiment, an action such as “change the direction of the body after stopping” or “reverse” may be detected from the movement trajectory.

また、人間の位置を検出するためにLRF12を用いたが、LRF12に代えて超音波距離センサやミリ波レーダなどを用いて、人間の位置が検出されてもよい。さらに、人間が所持する携帯通信端末の電波強度を利用して、人間の位置および移動軌跡が検出されてもよい。   Further, although the LRF 12 is used to detect the human position, the human position may be detected using an ultrasonic distance sensor or a millimeter wave radar instead of the LRF 12. Furthermore, the position and movement trajectory of a person may be detected using the radio wave intensity of a mobile communication terminal that the person has.

また、本実施例では、役割データベースを構成する代表移動行動は管理者の操作によって追加されているが、他の実施例では移動行動データが自動的に追加されてもよい。たとえば、人間の移動速度、行動範囲および移動軌跡の形状が所定条件を満たす場合に、その人間の移動行動データが役割データベース20に追加される。この場合、役割を持った人間の移動軌跡は携帯通信端末の電波強度を利用して検出し、その他の人間の移動軌跡はLRF12によって検出されてもよい。   Further, in this embodiment, the representative movement behavior configuring the role database is added by the operation of the administrator, but in other embodiments, movement behavior data may be automatically added. For example, when the movement speed, the action range, and the shape of the movement locus of a person satisfy predetermined conditions, the person's movement action data is added to the role database 20. In this case, the movement trajectory of a person who has a role may be detected using the radio wave intensity of the mobile communication terminal, and other human movement trajectories may be detected by the LRF 12.

また、他の実施例では、複数の役割データベース20を用意しておき、季節、イベントおよび時間帯などによって使い分けてもよい。   In another embodiment, a plurality of role databases 20 may be prepared and used depending on the season, event, time zone, and the like.

また、「機能的に同じ場所」であれば、役割データベースを構成した場所とは異なる場所で、その役割データベース20を利用してロボットの移動制御システム100を動作させてもよい。そして、「機能的に同じ場所」とは、空間の面積、空間の形、利用目的および内部と外部とに設置される設備などが同じ場所のことを表す。たとえば、幅および長さが略同じであり、内部と外部とに何も設備が設置されていない、2つの廊下は「機能的に同じ場所」と言うことができる。   Further, if it is “functionally the same place”, the robot movement control system 100 may be operated using the role database 20 in a place different from the place where the role database is configured. The “functionally the same place” means a place where the area of the space, the shape of the space, the purpose of use, and the equipment installed inside and outside are the same. For example, two corridors having substantially the same width and length and no equipment installed inside and outside can be said to be “functionally the same place”.

また、役割データベース構築プログラム310、役割設定プログラム312および移動制御プログラム314は、データ配信用のサーバのHDDに記憶され、ネットワークを介して本実施例と同等の構成のシステムにおける中央制御装置などに配信されてもよい。また、CD, DVD, BD (Blu-ray Disc)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体にこれらのプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、役割データベース構築プログラム310、役割設定プログラム312および移動制御プログラム314が、本実施例と同等の構成のシステムにおける中央制御装置にインストールされた場合、本実施例と同等の効果が得られる。   Further, the role database construction program 310, the role setting program 312 and the movement control program 314 are stored in the HDD of the data distribution server and distributed to the central control device in the system having the same configuration as that of the present embodiment via the network. May be. Further, the storage medium may be sold or distributed in a state where these programs are stored in a storage medium such as an optical disk such as a CD, a DVD, or a BD (Blu-ray Disc), a USB memory, and a memory card. Then, when the role database construction program 310, the role setting program 312 and the movement control program 314 downloaded through the server and storage medium described above are installed in the central control device in the system having the same configuration as the present embodiment, The same effect as in this embodiment can be obtained.

そして、本明細書中で挙げた、自由度、距離、一定期間、半径、角度、周波数、平均移動速度、第1閾値、第2閾値および所定時間などの具体的な数値は、いずれも単なる一例であり、製品の仕様などの必要に応じて適宜変更可能である。   The specific numerical values such as degrees of freedom, distance, fixed period, radius, angle, frequency, average moving speed, first threshold value, second threshold value, and predetermined time given in this specification are merely examples. Therefore, it can be appropriately changed according to necessity such as product specifications.

10 …中央制御装置
12a−12f …LRF
14 …ロボット
16 …CPU
18 …メモリ
20 …役割データベース
100 …移動制御システム
200 …ネットワーク
10 ... Central controller 12a-12f ... LRF
14 ... Robot 16 ... CPU
18 ... Memory 20 ... Role database 100 ... Mobility control system 200 ... Network

Claims (5)

役割を持った複数の人間の移動行動データから構成されるデータベースおよび役割が設定されるロボットを含む、ロボットの移動制御システムであって、
前記ロボットに設定された役割に基づいて前記データベースから移動行動データを選択する選択手段、
前記選択手段によって選択された移動行動データから前記ロボットの複数の移動行動を予測する第1予測手段、
前記第1予測手段によって予測された複数の移動行動のそれぞれの発生確率を算出する算出手段、および
前記算出手段によって算出された複数の発生確率に基づいて、前記ロボットに移動行動を指示する指示手段を備える、ロボットの移動制御システム。
A robot movement control system including a database composed of movement data of a plurality of humans having roles and a robot to which roles are set,
Selection means for selecting movement behavior data from the database based on a role set in the robot;
First prediction means for predicting a plurality of movement actions of the robot from the movement action data selected by the selection means;
Calculation means for calculating the occurrence probability of each of the plurality of movement actions predicted by the first prediction means, and instruction means for instructing the robot of the movement action based on the plurality of occurrence probabilities calculated by the calculation means A robot movement control system comprising:
前記ロボットの移動軌跡を取得する移動軌跡取得手段をさらに備え、
前記選択手段は、前記移動軌跡取得手段によって取得された移動軌跡、前記ロボットに設定された役割および各移動行動データに含まれる移動軌跡に基づいて、前記データベースから移動行動データを選択する、請求項1記載の移動行動決定システム。
It further comprises movement trajectory acquisition means for acquiring the movement trajectory of the robot,
The selection means selects movement behavior data from the database based on a movement locus acquired by the movement locus acquisition means, a role set for the robot, and a movement locus included in each movement behavior data. The moving action determination system according to 1.
前記第1予測手段によって予測された移動行動は、前記ロボットの将来位置を含み、
前記ロボットの周囲に人間が存在するとき、人間の将来位置を予測する第2予測手段をさらに備え、
前記算出手段は、前記第2予測手段によって予測された人間の将来位置を除いた前記ロボットの将来位置に基づいて、複数の移動行動の発生確率を算出する、請求項1または2記載の移動行動決定システム。
The movement behavior predicted by the first prediction means includes the future position of the robot,
A second predicting means for predicting the future position of the human when a human is present around the robot;
3. The movement behavior according to claim 1, wherein the calculation unit calculates a probability of occurrence of a plurality of movement behaviors based on a future position of the robot excluding a human future position predicted by the second prediction unit. Decision system.
中央制御装置、役割を持った複数の人間の移動行動データから構成されるデータベースおよび役割が設定されるロボットを含む、ロボットの移動制御システムであって、
前記中央制御装置のプロセッサを、
前記ロボットに設定された役割に基づいて前記データベースから移動行動データを選択する選択手段、
前記選択手段によって選択された移動行動データから前記ロボットの複数の移動行動を予測する予測手段、
前記予測手段によって予測された複数の移動行動のそれぞれの発生確率を算出する算出手段、および
前記算出手段によって算出された複数の発生確率に基づいて、前記ロボットに移動行動を指示する指示手段として機能させる、ロボットの移動制御プログラム。
A robot movement control system including a central control device, a database composed of movement behavior data of a plurality of persons having roles, and a robot in which roles are set,
A processor of the central control unit;
Selection means for selecting movement behavior data from the database based on a role set in the robot;
Prediction means for predicting a plurality of movement behaviors of the robot from the movement behavior data selected by the selection means;
Function as calculation means for calculating the occurrence probability of each of the plurality of movement actions predicted by the prediction means, and instruction means for instructing the robot on the movement action based on the plurality of occurrence probabilities calculated by the calculation means A robot movement control program.
役割を持った複数の人間の移動行動データから構成されるデータベースおよび役割が設定されるロボットを含む、ロボットの移動制御システムのロボットの移動制御方法であって、
前記ロボットに設定された役割に基づいて前記データベースから移動行動データを選択し、
選択された移動鼓動データから前記ロボットの複数の移動行動を予測し、
予測された複数の移動行動のそれぞれの発生確率を算出し、そして
算出された複数の発生確率に基づいて、前記ロボットに移動行動を指示する、ロボットの移動制御方法。
A robot movement control method of a robot movement control system, including a database composed of a plurality of human movement behavior data having a role and a robot to which a role is set,
Select mobile behavior data from the database based on the role set for the robot,
Predicting a plurality of moving behaviors of the robot from the selected moving heartbeat data;
A robot movement control method for calculating an occurrence probability of each of a plurality of predicted movement behaviors, and instructing the robot of the movement behavior based on the calculated occurrence probabilities.
JP2010261900A 2010-11-25 2010-11-25 Robot movement control system, robot movement control program, and robot movement control method Active JP5552710B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010261900A JP5552710B2 (en) 2010-11-25 2010-11-25 Robot movement control system, robot movement control program, and robot movement control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010261900A JP5552710B2 (en) 2010-11-25 2010-11-25 Robot movement control system, robot movement control program, and robot movement control method

Publications (3)

Publication Number Publication Date
JP2012110996A true JP2012110996A (en) 2012-06-14
JP2012110996A5 JP2012110996A5 (en) 2013-10-24
JP5552710B2 JP5552710B2 (en) 2014-07-16

Family

ID=46495764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010261900A Active JP5552710B2 (en) 2010-11-25 2010-11-25 Robot movement control system, robot movement control program, and robot movement control method

Country Status (1)

Country Link
JP (1) JP5552710B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014004640A (en) * 2012-06-21 2014-01-16 Honda Motor Co Ltd Behavior control system
CN105904463A (en) * 2016-04-21 2016-08-31 谢奇峰 Robot
JP2016192040A (en) * 2015-03-31 2016-11-10 株式会社日本総合研究所 Self-propelled traveling device, management device, and walking obstacle place determination system
JP2018073008A (en) * 2016-10-26 2018-05-10 株式会社クボタ Travel route generation device
CN109153127A (en) * 2016-03-28 2019-01-04 Groove X 株式会社 The autonomous humanoid robot of the behavior of behavior is met in execution

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005138225A (en) * 2003-11-06 2005-06-02 Ntt Docomo Inc Control program selecting system and control program selecting method
JP2006055931A (en) * 2004-08-18 2006-03-02 Inst Of Systems Information Technologies Kyushu Robot device
JP2006088251A (en) * 2004-09-22 2006-04-06 Toshiba Corp User behavior inducing system and method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005138225A (en) * 2003-11-06 2005-06-02 Ntt Docomo Inc Control program selecting system and control program selecting method
JP2006055931A (en) * 2004-08-18 2006-03-02 Inst Of Systems Information Technologies Kyushu Robot device
JP2006088251A (en) * 2004-09-22 2006-04-06 Toshiba Corp User behavior inducing system and method thereof

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014004640A (en) * 2012-06-21 2014-01-16 Honda Motor Co Ltd Behavior control system
JP2016192040A (en) * 2015-03-31 2016-11-10 株式会社日本総合研究所 Self-propelled traveling device, management device, and walking obstacle place determination system
CN109153127A (en) * 2016-03-28 2019-01-04 Groove X 株式会社 The autonomous humanoid robot of the behavior of behavior is met in execution
CN105904463A (en) * 2016-04-21 2016-08-31 谢奇峰 Robot
JP2018073008A (en) * 2016-10-26 2018-05-10 株式会社クボタ Travel route generation device
US10884427B2 (en) 2016-10-26 2021-01-05 Kubota Corporation Travel route generating device and method for generating travel route

Also Published As

Publication number Publication date
JP5552710B2 (en) 2014-07-16

Similar Documents

Publication Publication Date Title
KR102348041B1 (en) Control method of robot system including a plurality of moving robots
CN112739244B (en) Mobile robot cleaning system
JP5318623B2 (en) Remote control device and remote control program
CN112367887B (en) Multiple robot cleaner and control method thereof
JP5963372B2 (en) How to make a mobile robot follow people
JP5366048B2 (en) Information provision system
US20190332119A1 (en) Mobile robot and method of controlling the same
JP5324286B2 (en) Network robot system, robot control apparatus, robot control method, and robot control program
US20190351558A1 (en) Airport robot and operation method therefor
JP5768273B2 (en) A robot that predicts a pedestrian&#39;s trajectory and determines its avoidance behavior
US20210346557A1 (en) Robotic social interaction
JP5764795B2 (en) Mobile robot, mobile robot learning system, and mobile robot behavior learning method
JP5552710B2 (en) Robot movement control system, robot movement control program, and robot movement control method
JP2004299025A (en) Mobile robot control device, mobile robot control method and mobile robot control program
US20180329409A1 (en) Portable mobile robot and operation thereof
KR102560462B1 (en) Moving robot
JP2021171905A (en) Robot control device, method, and program
US20200189107A1 (en) Artificial intelligence moving robot and method for controlling the same
JP2012208782A (en) Move prediction apparatus, robot control device, move prediction program and move prediction method
JP2015066624A (en) Robot control system, robot control program, and explanation robot
KR20180098040A (en) Moving robot and control method thereof
JP5470516B2 (en) Radio communication apparatus for operating mobile unit, communication control program, and mobile unit
JP7317436B2 (en) ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD
JP2020004182A (en) Robot, robot control program and robot control method
JP7258438B2 (en) ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130905

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140509

R150 Certificate of patent or registration of utility model

Ref document number: 5552710

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250