JP2011224737A - Guide robot, guide method, and program for controlling guide - Google Patents

Guide robot, guide method, and program for controlling guide Download PDF

Info

Publication number
JP2011224737A
JP2011224737A JP2010097664A JP2010097664A JP2011224737A JP 2011224737 A JP2011224737 A JP 2011224737A JP 2010097664 A JP2010097664 A JP 2010097664A JP 2010097664 A JP2010097664 A JP 2010097664A JP 2011224737 A JP2011224737 A JP 2011224737A
Authority
JP
Japan
Prior art keywords
gesture
arm
data
arm unit
performs
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010097664A
Other languages
Japanese (ja)
Inventor
Masayuki Takashima
雅之 高島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2010097664A priority Critical patent/JP2011224737A/en
Publication of JP2011224737A publication Critical patent/JP2011224737A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To carry out an action of indicating a target with a proper arm, and also to reduce a data capacity.SOLUTION: A first gesture data 21 configured to adapt to a shaft configuration of a first arm 14 is stored, wherein the data prescribes at least a rotation direction and rotation of a joint mechanism for performing a first gesture which includes the action of indicating the target in accordance with output of guide information. Which the first gesture is performed with the first arm 14 or a second arm 15 is determined on the basis of a positional relation and a moving direction of an arm in the first gesture. The first gesture data 21 is reversed as a mirror image when the second arm 15 performs the first gesture.

Description

本発明は、自律的に動作するロボットを利用して展示物等の案内を行うための技術に関する。   The present invention relates to a technique for guiding exhibits and the like using a robot that operates autonomously.

近年、展示場、企業内ロビー等において、自律的に動作するロボットを利用して、展示物、商品等の案内を行う技術が開発されている。このようなロボットは、展示物の説明等を行う案内動作に伴って、各種ジェスチャを行う。このようなジェスチャの一つとして、ロボットのアームで前記展示物を指し示すジェスチャがある。   2. Description of the Related Art In recent years, techniques have been developed for guiding exhibits, products, etc. using autonomously operating robots in exhibition halls, corporate lobbies, and the like. Such a robot performs various gestures along with a guidance operation for explaining an exhibit or the like. As one of such gestures, there is a gesture that points to the exhibit with a robot arm.

特許文献1において、商品情報を提示するロボットであって、顧客を識別し、顧客に合った商品を案内しこれを指し示す動作を行うことが開示されている。   Patent Document 1 discloses a robot that presents product information, and performs an operation of identifying a customer, guiding a product suitable for the customer, and pointing to the product.

特許文献2において、商品のICタグから情報を読み出して案内するロボットであって、当該案内を商品を指し示しながら行うことが開示されている。   Patent Document 2 discloses a robot that reads and guides information from an IC tag of a product, and performs the guidance while pointing to the product.

特許文献3において、人を目的地近くまで誘導するロボットであって、最適な経路に沿って人を誘導し、到達地点で目的地を指差すことが開示されている。   Patent Document 3 discloses a robot that guides a person to the vicinity of the destination, guiding the person along an optimum route, and pointing to the destination at the arrival point.

特許文献4において、来客者の識別、混雑度等に応じて対応を変化させるロボットが開示されている。   Patent Document 4 discloses a robot that changes the response according to the identification of a visitor, the degree of congestion, and the like.

特許文献5において、展示物について移動しながら説明を行うロボットであって、展示物と人との位置関係から最適な位置に移動することが開示されている。   Patent Document 5 discloses a robot that explains an exhibit while moving, and moves to an optimal position from the positional relationship between the exhibit and a person.

特開2005−293052号公報JP 2005-293052 A 特開2007−225941号公報JP 2007-225941 A 特開2007−260822号公報JP 2007-260822 A 特開2008−055578号公報JP 2008-055578 A 特開2009−285818号公報JP 2009-285818 A

通常、人型のロボットは、左右一対のアームを有している。そのため、上記のような指し示すジェスチャを左右どちらのアームで行うかを決定する処理が必要となる。例えば、一方のアームを外側に広げるように移動させ、最終的に当該アームの先端が前記展示物の方向を向くようにする動作がある。このような動作の場合、当該アームが左アームである場合には、前記ロボットは前記展示物の右側に位置することが必要となる。しかしながら、前記ロボットの可動領域、周囲の障害物等の問題により、前記ロボットが上記位置まで移動できない場合がある。このような場合、上記ジェスチャは不自然な動作となる。   Usually, a humanoid robot has a pair of left and right arms. For this reason, it is necessary to determine whether to perform the above pointing gesture with either the left or right arm. For example, there is an operation in which one arm is moved so as to spread outward, and finally the tip of the arm faces the direction of the exhibit. In such an operation, when the arm is a left arm, the robot needs to be positioned on the right side of the exhibit. However, the robot may not be able to move to the above position due to problems such as the movable area of the robot and surrounding obstacles. In such a case, the gesture is unnatural.

上記のような問題に対処する方法として、前記ジェスチャを実現するためのアームの関節機構の動きを規定するデータを、左右のアームの関節機構にそれぞれ適合するかたちで2つ保有し、両データを前記ロボットと前記展示物との位置関係の認識結果に応じて使い分ける方法が考えられる。また、前記位置関係に応じてその都度適したジェスチャの軌道を生成することも可能である。しかしながら、これらの対処法によると、データ容量の増大、演算処理に掛かる負荷の増大等の問題が生ずる。   As a method for dealing with the above-described problems, the data for defining the movement of the joint mechanism of the arm for realizing the gesture is held in a manner that matches the joint mechanism of the left and right arms, and both data are stored. There can be considered a method of properly using the robot according to the recognition result of the positional relationship between the robot and the exhibit. It is also possible to generate a suitable trajectory for the gesture in accordance with the positional relationship. However, according to these countermeasures, problems such as an increase in data capacity and an increase in load on arithmetic processing occur.

また、上記特許文献1〜3において、案内の対象をロボットが指し示すことが開示されているが、上記のような左右のアームに係る問題に言及するものはない。   Further, in the above Patent Documents 1 to 3, it is disclosed that the robot indicates the guidance target, but there is nothing to mention the problems related to the left and right arms as described above.

そこで、本発明は、案内動作を行う対象を指し示す動作を適切なアームで行うと共に、データ容量の削減、演算処理の軽減を図ることを課題とする。   In view of the above, an object of the present invention is to perform an operation for pointing an object on which a guidance operation is performed with an appropriate arm, and to reduce data capacity and arithmetic processing.

本発明の一態様は、自律的に移動する移動手段と、一対の腕の一方に相当し、複数の関節機構を有する第1のアーム部と、前記一対の腕の他方に相当し、前記第1のアーム部と同一の軸構成を含む複数の関節機構を有する第2のアーム部と、領域内に存在する1又は複数の対象に対応する案内情報を出力する案内情報出力手段と、前記対象と自己との位置関係を認識する位置認識手段と、前記案内情報の出力に合わせて前記対象を指し示す動作を含む第1のジェスチャを行うための前記関節機構の少なくとも回転方向及び回転量を規定するデータであって、前記第1のアーム部の軸構成に適合するように構成された第1のジェスチャデータを記憶する記憶手段と、前記位置関係と前記第1のジェスチャにおける前記アーム部の移動方向とに基づいて、前記第1のジェスチャを前記第1のアーム部又は前記第2のアーム部のどちらで実行するかを決定する動作アーム決定手段と、前記第2のアーム部が前記第1のジェスチャを行う場合に、前記第1のジェスチャデータを鏡像反転させるデータ反転手段と、前記第1のアーム部が前記第1のジェスチャを実行する場合に、前記第1のジェスチャデータに基づいて前記第1のアーム部を制御し、前記第2のアーム部が前記第1のジェスチャを実行する場合に、前記鏡像反転された第1のジェスチャデータに基づいて前記第2のアーム部を制御する動作指令手段とを有するものである。   One embodiment of the present invention corresponds to a moving means that autonomously moves, one of a pair of arms, a first arm portion having a plurality of joint mechanisms, and the other of the pair of arms. A second arm portion having a plurality of joint mechanisms including the same axis configuration as that of one arm portion, guidance information output means for outputting guidance information corresponding to one or a plurality of targets existing in the region, and the target A position recognizing means for recognizing a positional relationship between the robot and itself, and at least a rotation direction and a rotation amount of the joint mechanism for performing a first gesture including an operation of pointing the target in accordance with the output of the guidance information Storage means for storing first gesture data configured to match the axial configuration of the first arm unit, and the positional relationship and the movement direction of the arm unit in the first gesture And based And an operating arm determining unit that determines whether the first gesture is performed by the first arm unit or the second arm unit, and the second arm unit performs the first gesture. In this case, the data inverting means for mirror inverting the first gesture data and the first arm based on the first gesture data when the first arm unit executes the first gesture. An operation command means for controlling the second arm unit based on the first gesture data that is mirror-inverted when the second arm unit executes the first gesture. It is what you have.

上記態様によれば、前記対象と前記案内ロボットとの位置関係により前記第2のアーム部が前記第1のジェスチャを行うことが望ましい場合には、前記第1のジェスチャデータが鏡像反転され、前記第2のアーム部の制御に使用される。これにより、前記第2のアーム部に適合したジェスチャデータを保持していなくても、前記第2のアーム部により前記対象を正しく指し示す動作を実行させることができる。   According to the above aspect, when it is desirable that the second arm unit performs the first gesture according to the positional relationship between the target and the guide robot, the first gesture data is mirror-inverted, Used to control the second arm part. Thereby, even if the gesture data suitable for the second arm portion is not held, the second arm portion can perform an operation of correctly pointing the object.

また、前記記憶手段は、前記案内情報の出力に合わせて前記対象を指し示す動作を含まない第2のジェスチャを行うための前記関節機構の少なくとも回転方向及び回転量を規定するデータであって、前記第2のアーム部の軸構成に適合するように構成された第2のジェスチャデータを更に記憶し、前記動作アーム決定手段は、前記第1のジェスチャを行う前記アーム部とは反対側のアーム部を前記第2のジェスチャを行うアーム部として設定し、前記データ反転手段は、前記第1のアーム部が前記第2のジェスチャを行う場合に、前記第2のジェスチャデータを鏡像反転させ、前記動作司令手段は、前記第2のアーム部が前記第2のジェスチャを実行する場合に、前記第2のジェスチャデータに基づいて前記第2のアーム部を制御し、前記第1のアーム部が前記第2のジェスチャを実行する場合に、前記鏡像反転された第2のジェスチャデータに基づいて前記第1のアーム部を制御することが好ましい。   The storage means is data defining at least a rotation direction and a rotation amount of the joint mechanism for performing a second gesture that does not include an operation of pointing to the target in accordance with the output of the guidance information, Second gesture data configured to conform to the axis configuration of the second arm unit is further stored, and the operating arm determination means is an arm unit opposite to the arm unit that performs the first gesture. Is set as an arm unit that performs the second gesture, and the data reversing unit reverses the second gesture data as a mirror image when the first arm unit performs the second gesture, and performs the operation. The command means controls the second arm unit based on the second gesture data when the second arm unit executes the second gesture, and When the arm portions of executing the second gesture, it is preferable to control the first arm portion based on the second gesture data reversed the mirror image.

このように、前記第1のジェスチャを行うアーム部とは反対側のアーム部により実行される前記第2のジェスチャについても、適宜鏡像反転させることにより、一つのデータで両アーム部の制御を行うことができる。   As described above, the second gesture executed by the arm portion opposite to the arm portion that performs the first gesture is also appropriately mirror-inverted to control both arm portions with one data. be able to.

また、前記位置認識手段は、前記領域内に存在する人、前記対象、及び自己の位置関係を認識し、前記移動手段は、前記人と前記対象とが所定の距離内にある場合に当該人又は当該対象に近接し、前記動作アーム決定手段は、前記接近時における当該対象と自己との位置関係に基づいて前記第1のジェスチャを行うアーム部を決定することが好ましい。   The position recognizing means recognizes the positional relationship between the person, the object, and the self existing in the area, and the moving means recognizes the person when the person and the object are within a predetermined distance. Alternatively, it is preferable that the moving arm determination unit determines an arm unit that performs the first gesture based on a positional relationship between the target and itself when approaching the target.

これにより、ある人がある対象に興味を持って立ち止まっているような状況において、前記案内ロボットを当該人及び対象の近傍まで移動させ、当該対象の説明等を行うことが可能となる。   As a result, in a situation where a certain person is interested in a certain object and stops, the guidance robot can be moved to the vicinity of the person and the object to explain the object.

また、前記第1のジェスチャは、前記アーム部を外側に動かす動作であり、前記動作アーム決定手段は、前記対象に近い方の前記アーム部を、前記第1のジェスチャを行うアーム部とすることが好ましい。   Further, the first gesture is an operation of moving the arm portion outward, and the operation arm determining means sets the arm portion closer to the target as the arm portion that performs the first gesture. Is preferred.

逆に、前記第1のジェスチャが前記アーム部を内側に動かす動作である場合には、前記対象から遠い方の前記アーム部を前記第1のジェスチャを行うアーム部とすればよい。   On the contrary, when the first gesture is an operation of moving the arm part inward, the arm part far from the target may be an arm part that performs the first gesture.

また、本願発明の他の態様は、領域内を自律的に移動する手段と、 前記領域内に存在する対象についての案内情報を出力する手段と、前記対象と自己との位置関係を認識する手段と、一対の腕の一方に相当し、複数の関節機構を有する第1のアーム部と、前記一対の腕の他方に相当し、前記第1のアーム部と同一の軸構成を含む複数の関節機構を有する第2のアーム部と、前記案内情報の出力に合わせて前記第1のアーム部又は前記第2のアーム部に前記対象を指し示す動作を含む第1のジェスチャを実行させる手段と、前記第1のジェスチャを実行させるための前記関節機構の少なくとも回転方向及び回転量を規定するデータであって、前記第1のアーム部の軸構成に適合するように構成された第1のジェスチャデータを記憶する手段とを有するロボットを利用した案内方法であって、前記位置関係と前記第1のジェスチャにおける前記アーム部の移動方向とに基づいて、前記第1のジェスチャを前記第1のアーム部又は前記第2のアーム部のどちらで実行するかを決定するステップと、前記第2のアーム部が前記第1のジェスチャを行う場合に、前記第1のジェスチャデータを鏡像反転させるステップと、前記第1のアーム部が前記第1のジェスチャを実行する場合に、前記第1のジェスチャデータに基づいて前記第1のアーム部を制御するステップと、前記第2のアーム部が前記第1のジェスチャを実行する場合に、前記鏡像反転された第1のジェスチャデータに基づいて前記第2のアーム部を制御するステップとを有するものである。   In another aspect of the present invention, there are provided means for autonomously moving in an area, means for outputting guidance information about an object existing in the area, and means for recognizing a positional relationship between the object and itself. A first arm portion corresponding to one of the pair of arms and having a plurality of joint mechanisms, and a plurality of joints corresponding to the other of the pair of arms and including the same axial configuration as the first arm portion A second arm unit having a mechanism, and means for causing the first arm unit or the second arm unit to perform a first gesture including an operation of pointing the target in accordance with the output of the guide information, Data defining at least a rotation direction and a rotation amount of the joint mechanism for executing the first gesture, the first gesture data configured to be adapted to the axial configuration of the first arm unit. Means to memorize and A guidance method using a robot having a first gesture unit or a second arm based on the positional relationship and the movement direction of the arm unit in the first gesture. A step of deciding which one to execute, a step of reversing a mirror image of the first gesture data when the second arm unit performs the first gesture, and the first arm unit When performing the first gesture, controlling the first arm unit based on the first gesture data, and when the second arm unit performs the first gesture, Controlling the second arm unit based on the first gesture data that has been mirror-inverted.

また、本願発明の他の態様は、領域内を自律的に移動する手段と、前記領域内に存在する対象についての案内情報を出力する手段と、前記対象と自己との位置関係を認識する手段と、一対の腕の一方に相当し、複数の関節機構を有する第1のアーム部と、前記一対の腕の他方に相当し、前記第1のアーム部と同一の軸構成を含む複数の関節機構を有する第2のアーム部と、前記案内情報の出力に合わせて前記第1のアーム部又は前記第2のアーム部に前記対象を指し示す動作を含む第1のジェスチャを実行させる手段と、前記第1のジェスチャを実行させるための前記関節機構の少なくとも回転方向及び回転量を規定するデータであって、前記第1のアーム部の軸構成に適合するように構成された第1のジェスチャデータを記憶する手段とを有するロボットを制御する案内制御用プログラムであって、コンピュータに、前記位置関係と前記第1のジェスチャにおける前記アーム部の移動方向とに基づいて、前記第1のジェスチャを前記第1のアーム部又は前記第2のアーム部のどちらで実行するかを決定する処理と、前記第2のアーム部が前記第1のジェスチャを行う場合に、前記第1のジェスチャデータを鏡像反転させる処理と、前記第1のアーム部が前記第1のジェスチャを実行する場合に、前記第1のジェスチャデータに基づいて前記第1のアーム部を制御する処理と、前記第2のアーム部が前記第1のジェスチャを実行する場合に、前記鏡像反転された第1のジェスチャデータに基づいて前記第2のアーム部を制御する処理とを実行させるものである。   In another aspect of the present invention, means for autonomously moving in an area, means for outputting guidance information about an object existing in the area, and means for recognizing a positional relationship between the object and itself A first arm portion corresponding to one of the pair of arms and having a plurality of joint mechanisms, and a plurality of joints corresponding to the other of the pair of arms and including the same axial configuration as the first arm portion A second arm unit having a mechanism, and means for causing the first arm unit or the second arm unit to perform a first gesture including an operation of pointing the target in accordance with the output of the guide information, Data defining at least a rotation direction and a rotation amount of the joint mechanism for executing the first gesture, the first gesture data configured to be adapted to the axial configuration of the first arm unit. The means to remember A guidance control program for controlling a robot that performs the first gesture on the computer based on the positional relationship and the movement direction of the arm in the first gesture. A process for determining which one of the second arm sections is to be executed; a process for inverting the first gesture data when the second arm section performs the first gesture; When one arm unit executes the first gesture, a process of controlling the first arm unit based on the first gesture data, and the second arm unit performs the first gesture. When executing, the second arm unit is controlled based on the first gesture data with the mirror image inverted.

上記案内方法及び案内プログラムに係る態様は、上記案内ロボットに係る態様と同様の技術思想に基づくものである。   The aspect related to the guidance method and the guidance program is based on the same technical idea as the aspect related to the guidance robot.

本発明によれば、前記対象を指し示す動作を含む前記第1のジェスチャを前記ロボットと前記対象との位置関係に応じて、適切な方の前記アーム部で行うことが可能となる。また、前記第1のジェスチャを実行させるための前記第1のジェスチャデータを必要に応じて鏡像反転して使用することにより、片方のアーム部に適合した1つのジェスチャデータを用意すれば足りる。更に、前記第1のジェスチャを行うアーム部とは反対側のアーム部により行われる前記対象を指し示す動作を含まない前記第2のジェスチャデータについても同様に、適宜鏡像反転させることにより片方のアーム部に適合した1つのジェスチャデータを用意すれば足りる。これにより、鏡像反転に要する軽微な負荷のみで、記憶手段に格納されるデータ容量を大幅に削減することができる。   According to the present invention, it is possible to perform the first gesture including the operation of pointing to the target with the appropriate arm unit according to the positional relationship between the robot and the target. Further, it is sufficient to prepare one piece of gesture data suitable for one arm portion by using the first gesture data for executing the first gesture with mirror image reversal as necessary. Further, similarly to the second gesture data that does not include the operation of pointing to the object performed by the arm portion on the opposite side to the arm portion that performs the first gesture, one arm portion is appropriately mirror-reversed. It is sufficient to prepare one piece of gesture data suitable for. As a result, the data capacity stored in the storage means can be significantly reduced with only a slight load required for mirror image inversion.

更にまた、ある対象の前に人が立ち止まっているような状況に対応することができるので、来訪者の興味に対応した高度な案内動作を実行することが可能となる。   Furthermore, since it is possible to cope with a situation where a person is stopped in front of a certain target, it is possible to execute an advanced guidance operation corresponding to the interest of the visitor.

本発明の実施の形態1に係る案内ロボットの機能的な構成を示す図である。It is a figure which shows the functional structure of the guidance robot which concerns on Embodiment 1 of this invention. 実施の形態1に係る案内ロボットの外観を例示する図である。It is a figure which illustrates the external appearance of the guidance robot which concerns on Embodiment 1. FIG. 図2に示す案内ロボットの案内行動に伴うジェスチャを例示する図である。It is a figure which illustrates the gesture accompanying the guidance action of the guidance robot shown in FIG. 実施の形態1に係る案内ロボットの両アームの軸構成を示す図である。It is a figure which shows the axial structure of the both arms of the guide robot which concerns on Embodiment 1. FIG. 第1のジェスチャを実行するための第1のジェスチャデータを例示する表図である。It is a table | surface figure which illustrates the 1st gesture data for performing a 1st gesture. 第2のジェスチャを実行するための第2のジェスチャデータを例示する表図である。It is a table | surface figure which illustrates the 2nd gesture data for performing a 2nd gesture. 左アームが第1のジェスチャを行うと共に右アームが第2のジェスチャを行う状況を例示する図である。It is a figure which illustrates the condition where a left arm performs a 1st gesture and a right arm performs a 2nd gesture. 右アームが第1のジェスチャを行うと共に左アームが第2のジェスチャを行う状況を例示する図である。It is a figure which illustrates the condition where a right arm performs a 1st gesture and a left arm performs a 2nd gesture. 図5に示す第1のジェスチャデータを鏡像反転させたデータを示す表図である。FIG. 6 is a table showing data obtained by mirror-inversion of the first gesture data shown in FIG. 5. 図6に示す第2のジェスチャデータを鏡像反転させたデータを示す表図である。It is a table | surface figure which shows the data which mirror-inverted the 2nd gesture data shown in FIG. 実施の形態1に係る案内ロボットによる案内行動の流れを示すフローチャートである。4 is a flowchart showing a flow of guidance behavior by the guidance robot according to the first embodiment. 実施の形態1により得られる有利な効果を示す図である。It is a figure which shows the advantageous effect obtained by Embodiment 1. FIG. 本発明の実施の形態2に係る案内ロボットが使用される状況を例示する図である。It is a figure which illustrates the condition where the guidance robot which concerns on Embodiment 2 of this invention is used. 図13に示す状況において案内ロボットが所定の距離内にある人又は対象に近接した状況を例示する図である。It is a figure which illustrates the condition where the guidance robot approached the person or object in the predetermined distance in the condition shown in FIG. 図14に示す位置関係において行われる案内ロボットのジェスチャを示す図である。It is a figure which shows the gesture of the guidance robot performed in the positional relationship shown in FIG. 実施の形態2に係る案内ロボットが使用される状況の他の例を示す図である。It is a figure which shows the other example of the condition where the guidance robot which concerns on Embodiment 2 is used. 図16に示す状況において案内ロボットが所定の距離内にある人又は対象に近接した状況を例示する図である。It is a figure which illustrates the condition where the guidance robot approached the person or object which exists in the predetermined distance in the condition shown in FIG. 図17に示す位置関係において行われる案内ロボットのジェスチャを示す図である。It is a figure which shows the gesture of the guidance robot performed in the positional relationship shown in FIG.

実施の形態1
以下、図面を参照して本発明の実施の形態について説明する。図1は、本発明の実施の形態1に係る案内ロボット(以下、ロボットと略記する)1の機能的な構成を示している。図2は、前記ロボット1の外観を例示している。
Embodiment 1
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows a functional configuration of a guide robot (hereinafter abbreviated as robot) 1 according to Embodiment 1 of the present invention. FIG. 2 illustrates the appearance of the robot 1.

前記ロボット1は、展示場、企業内ロビー等の領域において、展示物、商品等(以下、対象と称する)に関する情報を来訪者に対して説明等する(以下、案内行動と称する)ものである。前記ロボット1は、駆動機構11、センサ12、出力装置13、左アーム14、右アーム15、及び電子制御ユニット16を有する。   The robot 1 explains information about exhibits, products, etc. (hereinafter referred to as objects) in a region such as an exhibition hall or a corporate lobby (hereinafter referred to as guidance behavior). . The robot 1 includes a drive mechanism 11, a sensor 12, an output device 13, a left arm 14, a right arm 15, and an electronic control unit 16.

前記駆動機構11は、前記電子制御ユニット16の制御により前記ロボット1を自律的に移動させるものである。前記駆動機構11としては、複数の車輪、モータ等からなる車両タイプ、複数の脚型マニピュレータ等からなる歩行タイプのものが周知である。   The drive mechanism 11 autonomously moves the robot 1 under the control of the electronic control unit 16. As the drive mechanism 11, a vehicle type composed of a plurality of wheels, motors, etc., and a walking type composed of a plurality of leg manipulators, etc. are well known.

前記センサ12は、前記ロボット1周辺に存在する物体の位置、動き、形状的特徴等を検知するためのデータを収集するものである。前記センサ12としては、超音波、赤外線、撮像装置等を利用した各種の周知技術を適用することができるが、特にレーザ光の反射を利用して周囲環境を計測するLRF(Laser Range Finder)が好適である。   The sensor 12 collects data for detecting the position, movement, shape characteristics, and the like of objects existing around the robot 1. As the sensor 12, various well-known techniques using ultrasonic waves, infrared rays, imaging devices, and the like can be applied. In particular, an LRF (Laser Range Finder) that measures the surrounding environment using reflection of laser light is used. Is preferred.

前記出力装置13は、前記対象の説明情報等を来訪者に伝達するものであり、スピーカ、ディスプレイ等が好適である。   The output device 13 is for transmitting explanatory information of the object to visitors, and a speaker, a display, or the like is preferable.

前記左アーム14及び前記右アーム15は、複数の関節機構を有し、前記電子制御ユニット16によりその動作が制御される。本実施の形態に係る両アーム14,15は、前記案内行動に伴うジェスチャを実行する。図3は、前記案内行動に伴うジェスチャを例示している。この例では、前記左アーム14が前記対象を指し示す動作を含む第1のジェスチャを行い、前記右アーム15が前記対象を指し示す動作を含まない第2のジェスチャを行っている。   The left arm 14 and the right arm 15 have a plurality of joint mechanisms, and their operations are controlled by the electronic control unit 16. Both arms 14 and 15 concerning this embodiment perform gesture accompanying the above-mentioned guidance action. FIG. 3 illustrates a gesture associated with the guidance action. In this example, the left arm 14 performs a first gesture including a motion indicating the target, and the right arm 15 performs a second gesture not including a motion indicating the target.

図4は、前記両アーム14,15の軸構成を例示している。前記左アーム14は、肩から手先へ順に、1軸L1、2軸L2、3軸L3、4軸L4、5軸L5、6軸L6、及び7軸L7を有している。前記右アーム15も同様に、肩から手先へ順に、1軸R1、2軸R2、3軸R3、4軸R4、5軸R5、6軸R6、及び7軸R7を有している。本実施の形態に係る前記両アーム14,15は、同一の7軸構成を有している。   FIG. 4 illustrates the shaft configuration of the arms 14 and 15. The left arm 14 has one axis L1, two axes L2, three axes L3, four axes L4, five axes L5, six axes L6, and seven axes L7 in order from the shoulder to the hand. Similarly, the right arm 15 has one axis R1, two axes R2, three axes R3, four axes R4, five axes R5, six axes R6, and seven axes R7 in order from the shoulder to the hand. The arms 14 and 15 according to the present embodiment have the same 7-axis configuration.

図5は、前記第1のジェスチャを実行するための第1のジェスチャデータ21を例示している。図6は、前記第2のジェスチャを実行するための第2のジェスチャデータ22を例示している。前記両ジェスチャデータ21,22において1〜7軸の下欄に記載された各値(rad)は、それらの左欄に記載された時間0.008(s)の経過時における前記1〜7軸L1〜L7,R1〜R7の回転方向及び回転量を示している。前記第1のジェスチャデータ21は、前記左アーム12の軸L1〜L7に適合している。前記第2のジェスチャデータ22は、前記右アーム13の軸R1〜R7に適合している。   FIG. 5 exemplifies first gesture data 21 for executing the first gesture. FIG. 6 exemplifies the second gesture data 22 for executing the second gesture. In each of the gesture data 21 and 22, each value (rad) described in the lower column of the first to seventh axes is the first to seventh axes when the time 0.008 (s) described in the left column is elapsed. The rotation directions and rotation amounts of L1 to L7 and R1 to R7 are shown. The first gesture data 21 is adapted to the axes L1 to L7 of the left arm 12. The second gesture data 22 is adapted to the axes R1 to R7 of the right arm 13.

前記電子制御ユニット16(図1参照)は、中央処理装置、記憶装置17、入出力装置等からなり、各種演算処理及び制御処理を実行する。本実施の形態に係る電子制御ユニット10は、案内情報出力部30、位置認識部31、動作アーム決定部32、データ反転部33、及び動作司令部34として機能する。前記記憶装置17には、制御プログラム20、前記第1のジェスチャデータ21、前記第2のジェスチャデータ22、前記領域の形状、前記対象の位置等を示すマップデータ23、前記各対象を説明する音声、テキスト、画像等の案内データ24等が格納される。   The electronic control unit 16 (see FIG. 1) includes a central processing unit, a storage device 17, an input / output device, and the like, and executes various arithmetic processes and control processes. The electronic control unit 10 according to the present embodiment functions as a guidance information output unit 30, a position recognition unit 31, an operation arm determination unit 32, a data inversion unit 33, and an operation command unit 34. In the storage device 17, the control program 20, the first gesture data 21, the second gesture data 22, the map data 23 indicating the shape of the region, the position of the object, etc., and the sound for explaining each object In addition, guidance data 24 such as text and images is stored.

前記案内情報出力部30は、前記各対象に対応する情報を前記案内データ24から抽出し、前記出力装置13から音声、表示等により出力する。   The guidance information output unit 30 extracts information corresponding to each object from the guidance data 24 and outputs the information from the output device 13 by voice, display, or the like.

前記位置認識部31は、前記センサ12により取得されたデータと前記マップデータ23とに基づいて前記対象と前記ロボット1との位置関係を認識する。例えば、前記LRFにより取得されたデータと前記マップデータ23とに基づいてSLAM(Simultaneously Localization and Mapping)技術を用いることにより、自己及び前記対象の位置を特定することができる。   The position recognition unit 31 recognizes the positional relationship between the target and the robot 1 based on the data acquired by the sensor 12 and the map data 23. For example, by using SLAM (Simultaneously Localization and Mapping) technology based on the data acquired by the LRF and the map data 23, the position of the subject and the object can be specified.

前記動作アーム決定部32は、前記第1のジェスチャ及び前記第2のジェスチャをそれぞれ前記左アーム14又は前記右アーム15のどちらで実行するかを決定する。この決定は、前記対象と前記ロボット1との位置関係、及び前記第1のジェスチャにおける前記アーム部の移動方向に基づいて行うことができる。本実施の形態におけるこの移動方向は、図3に示すように、アームを外側に広げる方向である。   The operation arm determination unit 32 determines whether the left arm 14 or the right arm 15 performs the first gesture and the second gesture, respectively. This determination can be made based on the positional relationship between the object and the robot 1 and the moving direction of the arm unit in the first gesture. This moving direction in the present embodiment is a direction in which the arm is spread outward as shown in FIG.

図7は、前記左アーム14が前記第1のジェスチャを行うと共に前記右アーム15が前記第2のジェスチャを行う状況を例示している。図8は、前記右アーム15が前記第1のジェスチャを行うと共に前記左アーム14が前記第2のジェスチャを行う状況を例示している。図7に示すように、前記ロボット1より左側に前記対象40がある場合には、前記左アーム14が前記第1のジェスチャを行い、前記右アーム15が前記第2のジェスチャを行う。一方、図8に示すように、前記ロボット1より右側に前記対象40がある場合には、前記右アーム15が前記第1のジェスチャを行い、前記左アーム14が前記第2のジェスチャを行う。   FIG. 7 illustrates a situation in which the left arm 14 performs the first gesture and the right arm 15 performs the second gesture. FIG. 8 illustrates a situation where the right arm 15 performs the first gesture and the left arm 14 performs the second gesture. As shown in FIG. 7, when the target 40 is on the left side of the robot 1, the left arm 14 performs the first gesture, and the right arm 15 performs the second gesture. On the other hand, as shown in FIG. 8, when the target 40 is on the right side of the robot 1, the right arm 15 performs the first gesture and the left arm 14 performs the second gesture.

前記データ反転部33(図1参照)は、前記右アーム15が前記第1のジェスチャを行う場合に、前記第1のジェスチャデータ21の前記回転軸L1〜L7の動きを規定する値を鏡像反転させる。即ち、前記左アーム14による前記第1のジェスチャに対して、前記ロボット1の縦方向の中心面(図7及び図8における面A)を対象面として鏡像対称性を有するように、前記第1のジェスチャデータ21の一部の値を反転させる。図9は、図5に示す前記第1のジェスチャデータ21を鏡像反転させたデータ21'を示している。この例においては、2,3,5,7軸についての回転方向が反転するように値が変換されている。また、前記データ反転部33は、前記左アーム14が前記第2のジェスチャを行う場合に、上記と同様に、前記第2のジェスチャデータ22を鏡像反転させる。図10は、図6に示す前記第2のジェスチャデータ22を鏡像反転させたデータ22'を示している。この例においても、2,3,5,7軸についての回転方向が反転するように値が変換されている。   The data reversing unit 33 (see FIG. 1) mirror-inverts a value defining the movement of the rotation axes L1 to L7 of the first gesture data 21 when the right arm 15 performs the first gesture. Let That is, with respect to the first gesture by the left arm 14, the first gesture is mirror-symmetric with respect to the vertical center plane (plane A in FIGS. 7 and 8) of the robot 1 as a target plane. The value of a part of the gesture data 21 is inverted. FIG. 9 shows data 21 ′ obtained by mirror-inversion of the first gesture data 21 shown in FIG. In this example, the values are converted so that the rotation directions about the 2, 3, 5, and 7 axes are reversed. Further, when the left arm 14 performs the second gesture, the data reversing unit 33 mirrors the second gesture data 22 in the same manner as described above. FIG. 10 shows data 22 ′ obtained by mirror-inversion of the second gesture data 22 shown in FIG. Also in this example, the values are converted so that the rotation directions about the axes 2, 3, 5, and 7 are reversed.

前記動作司令部34(図1参照)は、前記左アーム14が前記第1のジェスチャを実行する場合に、前記第1のジェスチャデータ21に基づいて生成された制御信号を前記左アーム14に出力する。また、前記右アーム15が前記第1のジェスチャを実行する場合に、前記鏡像反転された第1のジェスチャデータ21'に基づいて生成された制御信号を前記右アーム15に出力する。更に、前記右アーム15が前記第2のジェスチャを実行する場合に、前記第2のジェスチャデータ22に基づいて生成された制御信号を前記右アーム15に出力する。更にまた、前記左アーム14が前記第2のジェスチャを実行する場合に、前記鏡像反転された第2のジェスチャデータ22'に基づいて生成された制御信号を前記左アーム14に出力する。   The operation command unit 34 (see FIG. 1) outputs a control signal generated based on the first gesture data 21 to the left arm 14 when the left arm 14 executes the first gesture. To do. When the right arm 15 executes the first gesture, the control signal generated based on the mirror-inverted first gesture data 21 ′ is output to the right arm 15. Further, when the right arm 15 executes the second gesture, the control signal generated based on the second gesture data 22 is output to the right arm 15. Furthermore, when the left arm 14 executes the second gesture, the control signal generated based on the mirror-inverted second gesture data 22 ′ is output to the left arm 14.

図11は、前記ロボット1による案内行動の流れを例示している。先ず、前記センサ12により取得されたデータと前記マップデータ23とを照合させることにより、前記ロボット1の現在位置を認識し(S101)、前記対象の位置を認識する(S102)。次いで、前記ロボット1からみて前記対象が左右どちらに存在するかを判定する(S103)。   FIG. 11 illustrates the flow of guidance behavior by the robot 1. First, the current position of the robot 1 is recognized by collating the data acquired by the sensor 12 with the map data 23 (S101), and the target position is recognized (S102). Next, it is determined whether the target exists on the left or right as viewed from the robot 1 (S103).

前記ステップS103において、前記対象が左側にある場合(CASE1)には、前記左アーム14が前記第1のジェスチャを実行すると共に、前記右アーム15が前記第2のジェスチャを実行することを決定する(S104)。次いで、前記第1のジェスチャデータ21をそのまま前記左アーム14の制御に使用すると共に、前記第2のジェスチャデータ22をそのまま前記右アーム15の制御に使用し、前記対象に対応する音声データ等を再生する(S105)。   In the step S103, when the object is on the left side (CASE 1), it is determined that the left arm 14 executes the first gesture and the right arm 15 executes the second gesture. (S104). Next, the first gesture data 21 is used as it is for the control of the left arm 14, and the second gesture data 22 is used as it is for the control of the right arm 15, and voice data corresponding to the object is used. Playback is performed (S105).

一方、前記ステップS103において、前記対象が右側にある場合(CASE2)には、前記右アーム15が前記第1のジェスチャを実行すると共に、前記左アーム14が前記第2のジェスチャを実行することを決定する(S106)。次いで、前記第1のジェスチャデータ21及び前記第2のジェスチャデータ22をそれぞれ前記鏡像変換する(S107)。そして、前記鏡像変換された第1のジェスチャデータ21'を前記右アーム15の制御に使用すると共に、前記鏡像変換された第2のジェスチャデータ22'を前記左アーム14の制御に使用し、前記対象に対応する音声データ等を再生する(S105)。   On the other hand, when the target is on the right side (CASE 2) in step S103, the right arm 15 performs the first gesture and the left arm 14 performs the second gesture. Determine (S106). Next, the first gesture data 21 and the second gesture data 22 are respectively mirror-image converted (S107). The mirror image converted first gesture data 21 ′ is used for controlling the right arm 15, and the mirror image converted second gesture data 22 ′ is used for controlling the left arm 14. Audio data or the like corresponding to the object is reproduced (S105).

上記構成によれば、前記第1のジェスチャデータ21及び前記第2のジェスチャデータ22をそれぞれ1つずつ保有していれば、前記左アーム14が前記第1のジェスチャを行うと共に前記右アーム15が前記第2のジェスチャを行う場合にも、前記左アーム14が前記第2のジェスチャを行うと共に前記右アーム15が前記第1のジェスチャを行う場合にも対応することができる。   According to the above configuration, if each of the first gesture data 21 and the second gesture data 22 is held one by one, the left arm 14 performs the first gesture and the right arm 15 The case where the second gesture is performed can also correspond to the case where the left arm 14 performs the second gesture and the right arm 15 performs the first gesture.

図12は、上記実施の形態1により得られる有利な効果を示している。従来の記憶装置100には、前記両アーム14,15に前記第1又は第2のジェスチャを実行させるためのデータとして、前記対象が左側にある場合の左アーム用ジェスチャデータ101、前記対象が左側にある場合の右アーム用ジェスチャデータ102、前記対象が右側にある場合の左アーム用ジェスチャデータ103、及び前記対象が右側にある場合の右アーム用ジェスチャデータ104が格納されている必要であった。しかしながら、本実施の形態に係る記憶装置17には、前記第1のジェスチャデータ21及び前記第2のジェスチャデータ22が格納されていれば足りる。従って、データ容量を大幅に削減することが可能となる。   FIG. 12 shows the advantageous effects obtained by the first embodiment. In the conventional storage device 100, as data for causing the arms 14 and 15 to execute the first or second gesture, left arm gesture data 101 when the target is on the left side, the target is on the left side. The right arm gesture data 102 when the object is on the right side, the left arm gesture data 103 when the object is on the right side, and the right arm gesture data 104 when the object is on the right side must be stored. . However, it is sufficient if the storage device 17 according to the present embodiment stores the first gesture data 21 and the second gesture data 22. Therefore, the data capacity can be greatly reduced.

尚、前記案内動作においては、前記第2のジェスチャは付随的なものと言える。従って、少なくとも、前記記憶装置17に前記第1のジェスチャデータ21が格納され、前記データ反転部33が前記鏡像反転された第1のジェスチャデータ21'を生成すれば、前記案内動作を成立させることが可能である。   In the guidance operation, the second gesture can be said to be incidental. Therefore, at least if the first gesture data 21 is stored in the storage device 17 and the data reversing unit 33 generates the first gesture data 21 ′ with the mirror image reversed, the guidance operation is established. Is possible.

実施の形態2
図13は、本発明の実施の形態2に係る案内ロボット(以下、ロボットと略記する)51が使用される状況を例示している。前記ロボット51は、図1に示す前記電子制御ユニット16と同様の内部構成を有するが、前記位置認識部31及び前記動作司令部34が、上記実施の形態1に係る処理に加えて、以下のような処理を行う。
Embodiment 2
FIG. 13 illustrates a situation where a guide robot (hereinafter abbreviated as a robot) 51 according to Embodiment 2 of the present invention is used. The robot 51 has the same internal configuration as that of the electronic control unit 16 shown in FIG. 1, but the position recognition unit 31 and the operation command unit 34 include the following in addition to the processing according to the first embodiment. Perform the following process.

実施の形態2に係る前記位置認識部31は、前記領域内に存在する人52〜54、前記対象60〜66、及び前記ロボット51の自己位置の位置関係を認識する。例えば、前記センサ12により検知された物体の形状的特徴と、予め登録された人体の形状的特徴とを比較することにより、前記領域内における前記人52〜54の位置、動作、及び前記対象60〜66との位置関係を認識することができる。そして、前記位置認識部31、この認識結果に基づいて、前記人52〜54と前記対象60〜66とが所定の距離内にあるか否かを判定することができる。図13に示す例では、前記人52と前記対象60とが前記所定の距離内にある。   The position recognizing unit 31 according to the second embodiment recognizes the positional relationship among the persons 52 to 54, the objects 60 to 66, and the self position of the robot 51 existing in the region. For example, by comparing the shape characteristics of the object detected by the sensor 12 with the shape characteristics of the human body registered in advance, the positions, movements, and the object 60 of the persons 52 to 54 in the region are compared. ˜66 can be recognized. And based on the said position recognition part 31 and this recognition result, it can be determined whether the said persons 52-54 and the said objects 60-66 are in a predetermined distance. In the example shown in FIG. 13, the person 52 and the object 60 are within the predetermined distance.

実施の形態2に係る前記動作司令部34は、前記所定の距離内にあると判定された前記人52又は前記対象60に、前記ロボット51を近接させる制御を行う。図14は、図13に示す状況において前記ロボット51が前記所定の距離内にある前記人52又は前記対象60に近接した状況を例示している。   The operation command unit 34 according to the second embodiment performs control to bring the robot 51 close to the person 52 or the target 60 determined to be within the predetermined distance. FIG. 14 illustrates a situation where the robot 51 approaches the person 52 or the object 60 within the predetermined distance in the situation shown in FIG.

そして、前記動作アーム決定部32は、図14に示す状況における前記対象60と自己との位置関係に基づいて、上記実施の形態1と同様に、前記第1のジェスチャ(及び前記第2のジェスチャ)を実行する前記アーム14,15を決定する。図15は、図14に示す位置関係において行われる前記ロボット51のジェスチャを示している。この状況では、前記対象60が前記ロボット51の左側にあるため、前記左アーム14が前記第1のジェスチャを実行し、前記右アーム15が前記第2のジェスチャを実行する。   Then, the operating arm determination unit 32 performs the first gesture (and the second gesture) in the same manner as in the first embodiment based on the positional relationship between the target 60 and itself in the situation shown in FIG. ) Is determined. FIG. 15 shows the gesture of the robot 51 performed in the positional relationship shown in FIG. In this situation, since the target 60 is on the left side of the robot 51, the left arm 14 performs the first gesture and the right arm 15 performs the second gesture.

また、図16は、前記ロボット51が使用される状況の他の例を示している。この例においては、人55と前記対象66とが前記所定の距離内にある。図17は、図16に示す状況において前記ロボット51が前記所定の距離内にある前記人55又は前記対象66に近接した状況を例示している。図18は、図17に示す位置関係において行われる前記ロボット51のジェスチャを示している。この状況では、前記対象66が前記ロボット55の右側にあるため、前記右アーム15が前記第1のジェスチャを実行し、前記左アーム14が前記第2のジェスチャを実行する。   FIG. 16 shows another example of the situation where the robot 51 is used. In this example, the person 55 and the object 66 are within the predetermined distance. FIG. 17 illustrates a situation where the robot 51 is close to the person 55 or the object 66 within the predetermined distance in the situation shown in FIG. FIG. 18 shows the gesture of the robot 51 performed in the positional relationship shown in FIG. In this situation, since the object 66 is on the right side of the robot 55, the right arm 15 performs the first gesture and the left arm 14 performs the second gesture.

上記構成によれば、来訪者の存在も考慮に入れた高度な案内動作を実行することができる。例えば、来訪者がある展示物に興味を持ち、当該展示物の前に立ち止まっている場合に、前記ロボット51がこの状況を検知し、当該展示物及び当該来訪者の位置まで移動して、当該展示物の案内情報を出力することが可能となる。このように、来訪者が興味を持つ特定の展示物に対して優先的に前記案内動作を実行することが可能となる。   According to the above configuration, it is possible to execute an advanced guidance operation that takes into account the presence of visitors. For example, when a visitor is interested in a certain exhibit and stops in front of the exhibit, the robot 51 detects this situation and moves to the location of the exhibit and the visitor. It is possible to output the guide information of the exhibit. In this way, it is possible to preferentially execute the guidance operation for a specific exhibit that the visitor is interested in.

尚、本発明は上記実施の形態に限られるものではなく、趣旨を逸脱しない範囲で適宜変更することが可能なものである。   Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention.

1,51 案内ロボット
11 移動機構
12 センサ
13 出力装置
14 左アーム
15 右アーム
16 電子制御ユニット
17 記憶装置
20 制御プログラム
21 第1のジェスチャデータ
22 第2のジェスチャデータ
23 マップデータ
24 案内データ
30 案内情報出力部
31 位置認識部
32 動作アーム決定部
33 データ反転部
34 電子司令部
40,60,61,62,63,64,65,66 対象
52,53,54,55 人
DESCRIPTION OF SYMBOLS 1,51 Guide robot 11 Moving mechanism 12 Sensor 13 Output device 14 Left arm 15 Right arm 16 Electronic control unit 17 Storage device 20 Control program 21 First gesture data 22 Second gesture data 23 Map data 24 Guide data 30 Guide information Output unit 31 Position recognition unit 32 Operation arm determination unit 33 Data inversion unit 34 Electronic command unit 40, 60, 61, 62, 63, 64, 65, 66 Target 52, 53, 54, 55

Claims (12)

自律的に移動する移動手段と、
一対の腕の一方に相当し、複数の関節機構を有する第1のアーム部と、
前記一対の腕の他方に相当し、前記第1のアーム部と同一の軸構成を含む複数の関節機構を有する第2のアーム部と、
領域内に存在する1又は複数の対象に対応する案内情報を出力する案内情報出力手段と、
前記対象と自己との位置関係を認識する位置認識手段と、
前記案内情報の出力に合わせて前記対象を指し示す動作を含む第1のジェスチャを行うための前記関節機構の少なくとも回転方向及び回転量を規定するデータであって、前記第1のアーム部の軸構成に適合するように構成された第1のジェスチャデータを記憶する記憶手段と、
前記位置関係と前記第1のジェスチャにおける前記アーム部の移動方向とに基づいて、前記第1のジェスチャを前記第1のアーム部又は前記第2のアーム部のどちらで実行するかを決定する動作アーム決定手段と、
前記第2のアーム部が前記第1のジェスチャを行う場合に、前記第1のジェスチャデータを鏡像反転させるデータ反転手段と、
前記第1のアーム部が前記第1のジェスチャを実行する場合に、前記第1のジェスチャデータに基づいて前記第1のアーム部を制御し、前記第2のアーム部が前記第1のジェスチャを実行する場合に、前記鏡像反転された第1のジェスチャデータに基づいて前記第2のアーム部を制御する動作指令手段と、
を有する案内ロボット。
A vehicle that moves autonomously;
A first arm portion corresponding to one of the pair of arms and having a plurality of joint mechanisms;
A second arm portion corresponding to the other of the pair of arms and having a plurality of joint mechanisms including the same axial configuration as the first arm portion;
Guidance information output means for outputting guidance information corresponding to one or more objects existing in the area;
Position recognition means for recognizing a positional relationship between the object and the self;
Data defining at least a rotation direction and a rotation amount of the joint mechanism for performing a first gesture including an operation of pointing the target in accordance with an output of the guidance information, and a shaft configuration of the first arm unit Storage means for storing first gesture data configured to conform to
Based on the positional relationship and the moving direction of the arm part in the first gesture, an operation for determining whether the first gesture is executed by the first arm part or the second arm part. Arm determination means;
Data inverting means for inverting the first gesture data when the second arm portion performs the first gesture;
When the first arm unit performs the first gesture, the first arm unit is controlled based on the first gesture data, and the second arm unit controls the first gesture. An operation command means for controlling the second arm unit based on the first gesture data that has been mirror-inverted when performing the mirror image;
A guide robot having
前記記憶手段は、前記案内情報の出力に合わせて前記対象を指し示す動作を含まない第2のジェスチャを行うための前記関節機構の少なくとも回転方向及び回転量を規定するデータであって、前記第2のアーム部の軸構成に適合するように構成された第2のジェスチャデータを更に記憶し、
前記動作アーム決定手段は、前記第1のジェスチャを行う前記アーム部とは反対側のアーム部を前記第2のジェスチャを行うアーム部として設定し、
前記データ反転手段は、前記第1のアーム部が前記第2のジェスチャを行う場合に、前記第2のジェスチャデータを鏡像反転させ、
前記動作司令手段は、前記第2のアーム部が前記第2のジェスチャを実行する場合に、前記第2のジェスチャデータに基づいて前記第2のアーム部を制御し、前記第1のアーム部が前記第2のジェスチャを実行する場合に、前記鏡像反転された第2のジェスチャデータに基づいて前記第1のアーム部を制御する、
請求項1に記載の案内ロボット。
The storage means is data defining at least a rotation direction and a rotation amount of the joint mechanism for performing a second gesture that does not include an operation of pointing to the target in accordance with the output of the guidance information, Further storing second gesture data configured to match the axis configuration of the arm portion of
The operating arm determination means sets an arm part opposite to the arm part that performs the first gesture as an arm part that performs the second gesture,
The data reversing means reverses the second gesture data as a mirror image when the first arm portion performs the second gesture.
When the second arm unit executes the second gesture, the operation command means controls the second arm unit based on the second gesture data, and the first arm unit When executing the second gesture, the first arm unit is controlled based on the mirror-inverted second gesture data.
The guide robot according to claim 1.
前記位置認識手段は、前記領域内に存在する人、前記対象、及び自己の位置関係を認識し、
前記移動手段は、前記人と前記対象とが所定の距離内にある場合に当該人又は当該対象に近接し、
前記動作アーム決定手段は、前記接近時における当該対象と自己との位置関係に基づいて前記第1のジェスチャを行うアーム部を決定する、
請求項1又は2に記載の案内ロボット。
The position recognizing means recognizes the positional relationship between the person, the object, and the self existing in the area;
The moving means is close to the person or the object when the person and the object are within a predetermined distance,
The operating arm determination means determines an arm unit that performs the first gesture based on a positional relationship between the target and the self at the time of approach.
The guidance robot according to claim 1 or 2.
前記第1のジェスチャは、前記アーム部を外側に動かす動作であり、
前記動作アーム決定手段は、前記対象に近い方の前記アーム部を、前記第1のジェスチャを行うアーム部とする、
請求項1〜3のいずれか1つに記載の案内ロボット。
The first gesture is an operation of moving the arm portion outward;
The operating arm determining means sets the arm portion closer to the object as an arm portion that performs the first gesture.
The guidance robot according to any one of claims 1 to 3.
領域内を自律的に移動する手段と、
前記領域内に存在する対象についての案内情報を出力する手段と、
前記対象と自己との位置関係を認識する手段と、
一対の腕の一方に相当し、複数の関節機構を有する第1のアーム部と、
前記一対の腕の他方に相当し、前記第1のアーム部と同一の軸構成を含む複数の関節機構を有する第2のアーム部と、
前記案内情報の出力に合わせて前記第1のアーム部又は前記第2のアーム部に前記対象を指し示す動作を含む第1のジェスチャを実行させる手段と、
前記第1のジェスチャを実行させるための前記関節機構の少なくとも回転方向及び回転量を規定するデータであって、前記第1のアーム部の軸構成に適合するように構成された第1のジェスチャデータを記憶する手段と、
を有するロボットを利用した案内方法であって、
前記位置関係と前記第1のジェスチャにおける前記アーム部の移動方向とに基づいて、前記第1のジェスチャを前記第1のアーム部又は前記第2のアーム部のどちらで実行するかを決定するステップと、
前記第2のアーム部が前記第1のジェスチャを行う場合に、前記第1のジェスチャデータを鏡像反転させるステップと、
前記第1のアーム部が前記第1のジェスチャを実行する場合に、前記第1のジェスチャデータに基づいて前記第1のアーム部を制御するステップと、
前記第2のアーム部が前記第1のジェスチャを実行する場合に、前記鏡像反転された第1のジェスチャデータに基づいて前記第2のアーム部を制御するステップと、
を有する案内方法。
Means to move autonomously within the area;
Means for outputting guidance information about an object existing in the area;
Means for recognizing a positional relationship between the object and the self;
A first arm portion corresponding to one of the pair of arms and having a plurality of joint mechanisms;
A second arm portion corresponding to the other of the pair of arms and having a plurality of joint mechanisms including the same axial configuration as the first arm portion;
Means for causing the first arm unit or the second arm unit to perform a first gesture including an operation of pointing the target in accordance with the output of the guidance information;
Data defining at least the rotation direction and the amount of rotation of the joint mechanism for executing the first gesture, the first gesture data configured to match the axial configuration of the first arm unit Means for storing
A guidance method using a robot having
Determining whether to execute the first gesture by the first arm unit or the second arm unit based on the positional relationship and the moving direction of the arm unit in the first gesture. When,
Reversing a mirror image of the first gesture data when the second arm portion performs the first gesture;
Controlling the first arm unit based on the first gesture data when the first arm unit performs the first gesture;
Controlling the second arm unit based on the mirror-inverted first gesture data when the second arm unit performs the first gesture;
A guide method.
前記ロボットは、前記案内情報の出力に合わせて前記対象を指し示す動作を含まない第2のジェスチャを行うための前記関節機構の少なくとも回転方向及び回転量を規定するデータであって、前記第2のアーム部の軸構成に適合するように構成された第2のジェスチャデータを記憶する手段を更に備え、
前記第1のジェスチャを行う前記アーム部とは反対側のアーム部を前記第2のジェスチャを行うアーム部として設定するステップと、
前記第1のアーム部が前記第2のジェスチャを行う場合に、前記第2のジェスチャデータを鏡像反転させるステップと、
前記第2のアーム部が前記第2のジェスチャを実行する場合に、前記第2のジェスチャデータに基づいて前記第2のアーム部を制御するステップと、
前記第1のアーム部が前記第2のジェスチャを実行する場合に、前記鏡像反転された第2のジェスチャデータに基づいて前記第1のアーム部を制御するステップと、
を更に有する請求項5に記載の案内方法。
The robot is data defining at least a rotation direction and a rotation amount of the joint mechanism for performing a second gesture that does not include an operation of pointing the target in accordance with the output of the guidance information, Means for storing second gesture data configured to conform to the axial configuration of the arm portion;
Setting an arm part opposite to the arm part for performing the first gesture as an arm part for performing the second gesture;
Reversing a mirror image of the second gesture data when the first arm portion performs the second gesture;
Controlling the second arm unit based on the second gesture data when the second arm unit performs the second gesture;
When the first arm unit performs the second gesture, controlling the first arm unit based on the mirror image inverted second gesture data;
The guide method according to claim 5, further comprising:
前記領域内に存在する人、前記対象、及び自己の位置関係を認識するステップと、
前記人と前記対象とが所定の距離内にある場合に当該人又は当該対象に近接するステップと、
前記接近時における当該対象と自己との位置関係に基づいて前記第1のジェスチャを行うアーム部を決定するステップと、
を更に備える請求項5又は6に記載の案内方法。
Recognizing the position of the person, the object, and the self existing in the region;
Approaching the person or the subject when the person and the subject are within a predetermined distance;
Determining an arm unit to perform the first gesture based on a positional relationship between the target and the self at the time of approach;
The guide method according to claim 5 or 6, further comprising:
前記第1のジェスチャは、前記アーム部を外側に動かす動作であり、
前記対象に近い方の前記アーム部を、前記第1のジェスチャを行うアーム部とする、
請求項5〜7のいずれか1つに記載の案内方法。
The first gesture is an operation of moving the arm portion outward;
The arm part closer to the object is an arm part that performs the first gesture.
The guidance method according to any one of claims 5 to 7.
領域内を自律的に移動する手段と、
前記領域内に存在する対象についての案内情報を出力する手段と、
前記対象と自己との位置関係を認識する手段と、
一対の腕の一方に相当し、複数の関節機構を有する第1のアーム部と、
前記一対の腕の他方に相当し、前記第1のアーム部と同一の軸構成を含む複数の関節機構を有する第2のアーム部と、
前記案内情報の出力に合わせて前記第1のアーム部又は前記第2のアーム部に前記対象を指し示す動作を含む第1のジェスチャを実行させる手段と、
前記第1のジェスチャを実行させるための前記関節機構の少なくとも回転方向及び回転量を規定するデータであって、前記第1のアーム部の軸構成に適合するように構成された第1のジェスチャデータを記憶する手段と、
を有するロボットを制御する案内制御用プログラムであって、
コンピュータに、
前記位置関係と前記第1のジェスチャにおける前記アーム部の移動方向とに基づいて、前記第1のジェスチャを前記第1のアーム部又は前記第2のアーム部のどちらで実行するかを決定する処理と、
前記第2のアーム部が前記第1のジェスチャを行う場合に、前記第1のジェスチャデータを鏡像反転させる処理と、
前記第1のアーム部が前記第1のジェスチャを実行する場合に、前記第1のジェスチャデータに基づいて前記第1のアーム部を制御する処理と、
前記第2のアーム部が前記第1のジェスチャを実行する場合に、前記鏡像反転された第1のジェスチャデータに基づいて前記第2のアーム部を制御する処理と、
を実行させる案内制御用プログラム。
Means to move autonomously within the area;
Means for outputting guidance information about an object existing in the area;
Means for recognizing a positional relationship between the object and the self;
A first arm portion corresponding to one of the pair of arms and having a plurality of joint mechanisms;
A second arm portion corresponding to the other of the pair of arms and having a plurality of joint mechanisms including the same axial configuration as the first arm portion;
Means for causing the first arm unit or the second arm unit to perform a first gesture including an operation of pointing the target in accordance with the output of the guidance information;
Data defining at least the rotation direction and the amount of rotation of the joint mechanism for executing the first gesture, the first gesture data configured to match the axial configuration of the first arm unit Means for storing
A guidance control program for controlling a robot having
On the computer,
A process for determining whether to execute the first gesture by the first arm unit or the second arm unit based on the positional relationship and the moving direction of the arm unit in the first gesture. When,
When the second arm unit performs the first gesture, a process of reversing a mirror image of the first gesture data;
When the first arm unit executes the first gesture, a process of controlling the first arm unit based on the first gesture data;
When the second arm unit performs the first gesture, a process of controlling the second arm unit based on the first image data that is mirror-inverted;
Guide control program to execute
前記ロボットは、前記案内情報の出力に合わせて前記対象を指し示す動作を含まない第2のジェスチャを行うための前記関節機構の少なくとも回転方向及び回転量を規定するデータであって、前記第2のアーム部の軸構成に適合するように構成された第2のジェスチャデータを記憶する手段を更に備え、
前記コンピュータに、
前記第1のジェスチャを行う前記アーム部とは反対側のアーム部を前記第2のジェスチャを行うアーム部として設定する処理と、
前記第1のアーム部が前記第2のジェスチャを行う場合に、前記第2のジェスチャデータを鏡像反転させる処理と、
前記第2のアーム部が前記第2のジェスチャを実行する場合に、前記第2のジェスチャデータに基づいて前記第2のアーム部を制御する処理と、
前記第1のアーム部が前記第2のジェスチャを実行する場合に、前記鏡像反転された第2のジェスチャデータに基づいて前記第1のアーム部を制御する処理と、
を更に実行させる請求項9に記載の案内制御用プログラム。
The robot is data defining at least a rotation direction and a rotation amount of the joint mechanism for performing a second gesture that does not include an operation of pointing the target in accordance with the output of the guidance information, Means for storing second gesture data configured to conform to the axial configuration of the arm portion;
In the computer,
A process of setting an arm part opposite to the arm part for performing the first gesture as an arm part for performing the second gesture;
When the first arm unit performs the second gesture, a process of reversing a mirror image of the second gesture data;
A process of controlling the second arm unit based on the second gesture data when the second arm unit performs the second gesture;
When the first arm unit executes the second gesture, a process of controlling the first arm unit based on the mirror-inverted second gesture data;
The program for guidance control according to claim 9 which further executes.
前記コンピュータに、
前記領域内に存在する人、前記対象、及び前記ロボットの位置関係を認識する処理と、
前記人と前記対象とが所定の距離内にある場合に前記ロボットを当該人又は当該対象に近接させる処理と、
前記接近時における当該対象と前記ロボットとの位置関係に基づいて前記第1のジェスチャを行うアーム部を決定する処理と、
を更に実行させる請求項9又は10に記載の案内制御用プログラム。
In the computer,
Processing for recognizing the positional relationship between the person, the object, and the robot existing in the area;
A process of bringing the robot close to the person or the object when the person and the object are within a predetermined distance;
A process of determining an arm unit that performs the first gesture based on a positional relationship between the target and the robot at the time of the approach;
The program for guidance control according to claim 9 or 10 which performs further.
前記第1のジェスチャは、前記アーム部を外側に動かす動作であり、
前記対象に近い方の前記アーム部を、前記第1のジェスチャを行うアーム部とする、
請求項9〜11のいずれか1つに記載の案内プログラム。
The first gesture is an operation of moving the arm portion outward;
The arm part closer to the object is an arm part that performs the first gesture.
The guidance program according to any one of claims 9 to 11.
JP2010097664A 2010-04-21 2010-04-21 Guide robot, guide method, and program for controlling guide Pending JP2011224737A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010097664A JP2011224737A (en) 2010-04-21 2010-04-21 Guide robot, guide method, and program for controlling guide

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010097664A JP2011224737A (en) 2010-04-21 2010-04-21 Guide robot, guide method, and program for controlling guide

Publications (1)

Publication Number Publication Date
JP2011224737A true JP2011224737A (en) 2011-11-10

Family

ID=45040743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010097664A Pending JP2011224737A (en) 2010-04-21 2010-04-21 Guide robot, guide method, and program for controlling guide

Country Status (1)

Country Link
JP (1) JP2011224737A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014061142A1 (en) * 2012-10-18 2014-04-24 株式会社安川電機 Guiding assistance system and guiding assistance method
JP2015066621A (en) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 Robot control system, robot, output control program and output control method
US9517559B2 (en) 2013-09-27 2016-12-13 Honda Motor Co., Ltd. Robot control system, robot control method and output control method
JP2019000970A (en) * 2017-06-20 2019-01-10 株式会社日立ビルシステム Robot management system and robot management method
JP2020203339A (en) * 2019-06-17 2020-12-24 株式会社日立ビルシステム Guide robot
US20210023704A1 (en) * 2018-04-10 2021-01-28 Sony Corporation Information processing apparatus, information processing method, and robot apparatus
WO2024037658A1 (en) * 2023-01-03 2024-02-22 之江实验室 Method and apparatus for controlling pointing action of robot, and electronic device and storage medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014061142A1 (en) * 2012-10-18 2014-04-24 株式会社安川電機 Guiding assistance system and guiding assistance method
JPWO2014061142A1 (en) * 2012-10-18 2016-09-05 株式会社安川電機 Guidance support system and guidance support method
JP2015066621A (en) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 Robot control system, robot, output control program and output control method
US9517559B2 (en) 2013-09-27 2016-12-13 Honda Motor Co., Ltd. Robot control system, robot control method and output control method
JP2019000970A (en) * 2017-06-20 2019-01-10 株式会社日立ビルシステム Robot management system and robot management method
US20210023704A1 (en) * 2018-04-10 2021-01-28 Sony Corporation Information processing apparatus, information processing method, and robot apparatus
JP2020203339A (en) * 2019-06-17 2020-12-24 株式会社日立ビルシステム Guide robot
JP7174673B2 (en) 2019-06-17 2022-11-17 株式会社日立ビルシステム Guide robot
WO2024037658A1 (en) * 2023-01-03 2024-02-22 之江实验室 Method and apparatus for controlling pointing action of robot, and electronic device and storage medium

Similar Documents

Publication Publication Date Title
US9744672B2 (en) Systems and methods for communicating robot intentions to human beings
US7653458B2 (en) Robot device, movement method of robot device, and program
JP2011224737A (en) Guide robot, guide method, and program for controlling guide
US9517559B2 (en) Robot control system, robot control method and output control method
JP5764795B2 (en) Mobile robot, mobile robot learning system, and mobile robot behavior learning method
JP5429462B2 (en) Communication robot
JP4849244B2 (en) Mobile robot and moving speed estimation method
JP5392028B2 (en) Autonomous mobile robot
JP2018147337A (en) Autonomous Mobile Robot, Autonomous Mobile Robot Control Method and Control Program
US20190184569A1 (en) Robot based on artificial intelligence, and control method thereof
WO2004052597A1 (en) Robot control device, robot control method, and robot control program
JP2007260822A (en) Guide robot
JP6134895B2 (en) Robot control system, robot control program, and explanation robot
JP6150429B2 (en) Robot control system, robot, output control program, and output control method
JP6134894B2 (en) Robot control system and robot
JP2017170584A (en) Robot action simulation device
US9211644B1 (en) System and method for instructing a device
JP2009151419A (en) Method and apparatus for specifying target
WO2022247325A1 (en) Navigation method for walking-aid robot, and walking-aid robot and computer-readable storage medium
JP2017170568A (en) Service providing robot system
JP6142307B2 (en) Attention target estimation system, robot and control program
JP5324956B2 (en) Road guidance robot
SHARMA et al. Human following robot
JP5115886B2 (en) Road guidance robot
Vahrenkamp et al. Planning and execution of grasping motions on a humanoid robot