JP4517086B2 - Communication robot system and robot controller - Google Patents
Communication robot system and robot controller Download PDFInfo
- Publication number
- JP4517086B2 JP4517086B2 JP2005023959A JP2005023959A JP4517086B2 JP 4517086 B2 JP4517086 B2 JP 4517086B2 JP 2005023959 A JP2005023959 A JP 2005023959A JP 2005023959 A JP2005023959 A JP 2005023959A JP 4517086 B2 JP4517086 B2 JP 4517086B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- information
- communication
- action
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
この発明はコミュニケーションロボットシステムおよびロボット制御装置に関し、特にたとえば、人間との間でコミュニケーション行動を行うコミュニケーションロットを制御する、コミュニケーションロボットシステムおよびロボット制御装置に関する。 The present invention relates to a communication robot system and a robot control device, and more particularly, to a communication robot system and a robot control device that control a communication lot that performs communication behavior with a human.
本件出願人は、特許文献1に代表されるように、人間と相互作用するコミュニケーションロボットを提案してきた。
背景技術のコミュニケーションロボットを用いて、コミュニケーション中の人間の身体動作と当該コミュニケーションロボットの身体動作とを互いに関連づけて記録しておき、人間の身体動作で、任意のコミュニケーションロボットの行動を呼び出し、実行させることが考えられる。 Using the communication robot of the background technology, record the human body motion during communication and the body motion of the communication robot in association with each other, and call and execute the behavior of any communication robot with the human body motion It is possible.
しかし、人間の身体動作とコミュニケーションロボットの行動とを単純に対応付けることはできない。なぜなら、人間の身体動作(行動)には2通りの可能性があるからである。1つは、コミュニケーションロボットの行動に対する行動(たとえば、コミュニケーションロボットが握手を求めてきたら、人間も握手し返す。)であり、もう1つは、コミュニケーションロボットの行動を検索する行動(人間がコミュニケーションロボットと握手するために、コミュニケーションロボットに手を差し出す。)である。したがって、人間の行動とコミュニケーションロボットの行動との対応関係を単純に記録すると、上記2つの行動が混ざってしまうのである。 However, it is not possible to simply associate human body movements with communication robot actions. This is because there are two possibilities for human body movement (behavior). One is an action with respect to the behavior of the communication robot (for example, when the communication robot asks for a handshake, the person also shakes and returns), and the other is an action for searching for the behavior of the communication robot (a human being the communication robot). (In order to shake hands, hand out to the communication robot.) Therefore, if the correspondence between human behavior and communication robot behavior is simply recorded, the two behaviors are mixed.
それゆえに、この発明の主たる目的は、新規な、コミュニケーションロボットシステムを提供することである。 Therefore, the main object of the present invention is to provide a novel communication robot system.
この発明の他の目的は、人間の身体動作に応じたコミュニケーション行動を実行できる、コミュニケーションロボットシステムを提供することである。 Another object of the present invention is to provide a communication robot system capable of executing communication behavior according to human body movement.
請求項1の発明は、コミュニケーションロボットとこのコミュニケーションロボットを制御する制御装置とを備えるコミュニケーションロボットシステムであって、コミュニケーションロボットは、人間の身体動作に拘わらず自発的にコミュニケーション行動を取る通常状態または人間の身体動作に起因してコミュニケーション行動を取る割り込み状態で、行動情報に従ってコミュニケーション行動を実行するコミュニケーション行動実行手段、行動情報とコミュニケーション行動を実行したときの通常状態または割り込み状態を示す状態情報とを含むロボット情報を制御装置に送信する送信手段、および制御装置からの割り込み指示を受信する割り込み指示受信手段を備え、制御装置は、人間の身体動作についての動作情報を検出する動作情報検出手段、コミュニケーションロボットから送信されるロボット情報を検出するロボット情報検出手段、同時刻における、動作情報とロボット情報とを対応づけて記憶する記憶手段、動作情報検出手段によって検出された現在の動作情報と記憶手段に記憶された過去の動作情報とを比較する比較手段、比較手段による比較結果が少なくとも類似を示す過去の動作情報が存在するとき、当該過去の動作情報に対応するロボット情報に含まれる状態情報が通常状態を示すか割り込み状態を示すかを判別する状態判別手段、および状態判別手段によって通常状態を示すことが判別されたとき、現在の動作情報に少なくとも類似する過去の動作情報に対応するロボット情報に含まれる行動情報を読み出し、または、状態判別手段によって割り込み状態を示すことが判別されたとき、現在の動作情報に少なくとも類似する過去の動作情報の時間的に次の過去の動作情報に対応するロボット情報に含まれる行動情報を読み出し、コミュニケーションロボットに当該行動情報に従うコミュニケーション行動の実行の割り込み指示を送信する割り込み指示送信手段を備える、コミュニケーションロボットシステムである。
The invention of
請求項1の発明では、コミュニケーションロボットシステムは、コミュニケーションロボットと、このコミュニケーションロボットを制御する制御装置とを備える。コミュニケーションロボットは、コミュニケーション行動実行手段、送信手段および割り込み指示受信手段を備える。コミュニケーション行動実行手段は、人間の身体動作に拘わらず自発的にコミュニケーション行動を取る通常状態または人間の身体動作に起因してコミュニケーション行動を取る割り込み状態で、行動情報(行動モジュール)に従ってコミュニケーション行動を実行する。たとえば、人間の身体動作に拘わらずコミュニケーションロボットが人間に手を差し出す(握手する)行動(通常状態)と、人間が差し出した手を握るように、コミュニケーションロボットが人間に手を差し出す(握手する)行動(割り込み状態)とが区別される。送信手段は、行動情報とコミュニケーション行動を実行したときの通常状態または割り込み状態を示すコミュニケーションロボットの状態情報とを含むロボット情報を制御装置に送信する。また、割り込み指示受信手段は、制御装置からの割り込み指示を受信する。一方、制御装置は、動作情報検出手段、ロボット情報検出手段、記憶手段、比較手段、状態判別手段、および割り込み指示送信手段を備える。動作情報検出手段は、コミュニケーションロボットとコミュニケーションを行う人間の身体動作についての動作情報を検出する。ロボット情報検出手段は、コミュニケーションロボットから送信されるロボット情報を検出する。記憶手段は、同時刻における、動作情報とロボット情報とを対応づけて記憶する。つまり、人間の身体動作とロボットのコミュニケーション行動との対応関係が記憶される。比較手段は、現在の動作情報と記憶手段に記憶された過去の動作情報とを比較する。状態判別手段は、比較手段による比較結果が少なくとも類似を示す過去の動作情報が存在するとき、当該過去の動作情報に対応するロボット情報に含まれる状態情報が通常状態を示すか割り込み状態を示すかを判別する。割り込み指示送信手段は、状態判別手段によって通常状態を示すことが判別されたとき、現在の動作情報に少なくとも類似する過去の動作情報に対応するロボット情報に含まれる行動情報を読み出し、または、状態判別手段によって割り込み状態を示すことが判別されたとき、現在の動作情報に少なくとも類似する過去の動作情報の時間的に次の過去の動作情報に対応するロボット情報に含まれる行動情報を読み出し、コミュニケーションロボットに当該行動情報に従うコミュニケーション行動の実行の割り込み指示を送信する。 According to a first aspect of the present invention, a communication robot system includes a communication robot and a control device that controls the communication robot. The communication robot includes communication action execution means, transmission means, and interrupt instruction reception means. The communication action execution means executes the communication action according to the action information (behavior module) in the normal state in which the communication action is spontaneously taken regardless of the human body movement or in the interruption state in which the communication action is taken due to the human body movement. To do. For example, a communication robot pushes a hand to a human (shakes a hand) regardless of the human body movement (normal state), and a communication robot pushes a hand to a human (shakes a hand) so that the human holds the hand. A distinction is made from behavior (interrupt state). The transmission means transmits the robot information including the behavior information and the state information of the communication robot indicating the normal state or the interrupt state when the communication behavior is executed to the control device. Further, the interrupt instruction receiving means receives an interrupt instruction from the control device. On the other hand, the control device includes motion information detection means, robot information detection means, storage means, comparison means, state determination means, and interrupt instruction transmission means. The operation information detection means detects the operation information about the human body operation for communication robot and communication. The robot information detecting means detects robot information transmitted from the communication robot. The storage means stores the operation information and the robot information in association with each other at the same time. That is, the correspondence between the human body motion and the robot communication behavior is stored. The comparison unit compares the current operation information with the past operation information stored in the storage unit. Whether the state information included in the robot information corresponding to the past motion information indicates a normal state or an interrupt state when there is past motion information indicating that the comparison result by the comparison unit is at least similar. Is determined. When it is determined that the normal state is indicated by the state determination unit , the interrupt instruction transmission unit reads the behavior information included in the robot information corresponding to the past movement information at least similar to the current movement information, or the state determination When it is determined that the interruption state is indicated by the means, the behavior information included in the robot information corresponding to the past motion information that is temporally next to the past motion information that is at least similar to the current motion information is read, and the communication robot An interruption instruction for execution of the communication action in accordance with the action information is transmitted.
請求項1の発明によれば、人間の身体動作とコミュニケーションロボットのコミュニケーション動作との対応関係を記憶しておき、人間の現在の身体動作に基づいてコミュニケーションロボットにコミュニケーション動作を割り込みで実行させるので、人間の身体動作でコミュニケーションロボットの行動を引き出すことができる。すなわち、人間の身体動作に応じたコミュニケーション行動を、コミュニケーションロボットに実行させることができる。 According to the first aspect of the present invention, since the correspondence relationship between the human body motion and the communication motion of the communication robot is stored, the communication robot is caused to execute the interrupting communication operation based on the current human body motion. The action of the communication robot can be extracted by human body movement. That is, it is possible to cause the communication robot to execute communication behaviors according to human body movements.
請求項2の発明は請求項1に従属し、割り込み指示送信手段は、コミュニケーションロボットが割り込みでコミュニケーション行動を行っているときには、新たな割り込み指示を送信しない。
The invention of
請求項2の発明では、割り込み指示送信手段は、コミュニケーションロボットが割り込みでコミュニケーション行動を行っているときには、新たな割り込み指示を送信しない。つまり、連続して割り込み指示を送信しない。 According to the second aspect of the present invention, the interrupt instruction transmitting means does not transmit a new interrupt instruction when the communication robot is performing an interrupting communication action. That is, interrupt instructions are not transmitted continuously.
請求項2の発明によれば、連続して割り込み指示を送信しないため、コミュニケーションロボットが同じコミュニケーション行動を繰り返し実行するような不都合を回避することができる。
According to the invention of
請求項3の発明は請求項1または2に従属し、割り込み指示送信手段は、読み出した行動情報が前回割り込みで実行を指示した行動情報と一致するときには、新たな割り込み指示を送信しない。
The invention of
請求項3の発明では、割り込み指示送信手段は、読み出した行動情報が前回割り込みで実行を指示した行動情報と一致するときには、新たな割り込み指示を送信しない。つまり、前回の行動情報と同じ行動情報についての割り込み指示は行われない。
In the invention of
請求項3の発明においても、請求項2の発明と同様に、コミュニケーションロボットが同じコミュニケーション行動を繰り返し実行するような不都合を回避することができる。
Oite to the invention of
請求項4の発明は、人間の身体動作に拘わらず自発的にコミュニケーション行動を取る通常状態または人間の身体動作に起因してコミュニケーション行動を取る割り込み状態で、行動情報に従って当該コミュニケーション行動を実行するコミュニケーションロボットを制御するロボット制御装置であって、人間の身体動作についての動作情報を検出する動作情報検出手段、コミュニケーションロボットから送信されるロボット情報を検出するロボット情報検出手段、同時刻における、動作情報とロボット情報とを対応づけて記憶する記憶手段、動作情報検出手段によって検出された現在の動作情報と記憶手段に記憶された過去の動作情報とを比較する比較手段、比較手段による比較結果が少なくとも類似を示す過去の動作情報が存在するとき、当該過去の動作情報に対応するロボット情報に含まれる状態情報が通常状態を示すか割り込み状態を示すかを判別する状態判別手段、および状態判別手段によって通常状態を示すことが判別されたとき、現在の動作情報に少なくとも類似する過去の動作情報に対応するロボット情報に含まれる行動情報を読み出し、または、状態判別手段によって割り込み状態を示すことが判別されたとき、現在の動作情報に少なくとも類似する過去の動作情報の時間的に次の過去の動作情報に対応するロボット情報に含まれる行動情報を読み出し、コミュニケーションロボットに当該行動情報に従うコミュニケーション行動の実行の割り込み指示を送信する割り込み指示送信手段を備える、ロボット制御装置である。
The invention according to
このロボット制御装置の発明によれば、コミュニケーションロボットシステムの発明と同様に、人間の身体動作に応じたコミュニケーション行動をコミュニケーションロボットに実行させることができる。 According to the invention of the robot control device, the communication robot can be caused to execute a communication action in accordance with a human body motion, similarly to the invention of the communication robot system.
この発明によれば、人間の身体動作とコミュンケーションロボットのコミュニケーション行動との対応関係を記憶しておき、現在の身体動作に基づいてコミュニケーション行動を実行させるので、人間の身体動作に応じたコミュニケーション行動をコミュニケーションロボットに実行させることができる。 According to the present invention, since the correspondence between the human body motion and the communication behavior of the communication robot is stored and the communication behavior is executed based on the current body motion, the communication corresponding to the human body motion is performed. Actions can be performed by communication robots.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この実施例のコミュニケーションロボットシステム(以下、単に「システム」という。)10は、コミュニケーションロボット(以下、単に「ロボット」という。)12を含む。このロボット12は、人間14との間で、身振り手振りのような身体動作ないし行動(以下、「コミュニケーション行動」ということがある。)を取ることができる。ただし、コミュニケーション行動としては、ロボット12と人間14との間における会話が含まれる場合もある。
Referring to FIG. 1, a communication robot system (hereinafter simply referred to as “system”) 10 of this embodiment includes a communication robot (hereinafter simply referred to as “robot”) 12. The
ロボット12は、人間のような身体を有し、その身体を用いてコミュニケーションのために必要な複雑な身体動作を生成する。具体的には、図2を参照して、ロボット12は台車32を含み、この台車32の下面には、このロボット12を自律移動させる車輪34が設けられる。この車輪34は、車輪モータ(ロボット12の内部構成を示す図3において参照番号「36」で示す。)によって駆動され、台車32すなわちロボット12を前後左右任意の方向に動かすことができる。
The
なお、図2では示さないが、この台車32の前面には、衝突センサ(図3において参照番号「38」で示す。)が取り付けられ、この衝突センサ38は、台車32への人や他の障害物の接触を検知する。そして、ロボット12の移動中に障害物との接触を検知すると、直ちに車輪34の駆動を停止してロボット12の移動を急停止させる。
Although not shown in FIG. 2, a collision sensor (indicated by reference numeral “38” in FIG. 3) is attached to the front surface of the
また、ロボット12の背の高さは、この実施例では、人、特に子供に威圧感を与えることがないように、100cm程度とされている。ただし、この背の高さは任意に変更可能である。
In this embodiment, the height of the
台車32の上には、多角形柱のセンサ取付パネル40が設けられ、このセンサ取付パネル40の各面には、超音波距離センサ42が取り付けられる。この超音波距離センサ42は、取付パネル40すなわちロボット12の周囲の主として人との間の距離を計測するものである。
A polygonal column
台車32の上には、さらに、ロボット12の胴体が、その下部が上述の取付パネル40に囲まれて、直立するように取り付けられる。この胴体は下部胴体44と上部胴体46とから構成され、これら下部胴体44および上部胴体46は、連結部48によって連結される。連結部48には、図示しないが、昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体46の高さすなわちロボット12の高さを変化させることができる。昇降機構は、後述のように、腰モータ(図3において参照番号「50」で示す。)によって駆動される。上で述べたロボット12の身長100cmは、上部胴体46をそれの最下位置にしたときの値である。したがって、ロボット12の身長は100cm以上にすることができる。
Further, the body of the
上部胴体46のほぼ中央には、1つの全方位カメラ52と、1つのマイク16とが設けられる。全方位カメラ52は、ロボット12の周囲を撮影するもので、後述の眼カメラ54と区別される。マイク16は、周囲の音、とりわけ人の声を取り込む。
One
上部胴体46の両肩には、それぞれ、肩関節56Rおよび56Lによって、上腕58Rおよび58Lが取り付けられる。肩関節56Rおよび56Lは、それぞれ3軸の自由度を有する。すなわち、右肩関節56Rは、X軸,Y軸およびZ軸の各軸廻りにおいて上腕58Rの角度を制御できる。Y軸は、上腕58Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に、それぞれ異なる方向から直交する軸である。左肩関節56Lは、A軸,B軸およびC軸の各軸廻りにおいて上腕58Lの角度を制御できる。B軸は、上腕58Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に、それぞれ異なる方向から直交する軸である。
上腕58Rおよび58Lのそれぞれの先端には、肘関節60Rおよび60Lを介して、前腕62Rおよび62Lが取り付けられる。肘関節60Rおよび60Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕62Rおよび62Lの角度を制御できる。
なお、上腕58Rおよび58Lならびに前腕62Rおよび62L(いずれも図3)の変位を制御するX,Y,Z,W軸およびA,B,C,D軸では、「0度」がホームポジションであり、このホームポジションでは、上腕58Rおよび58Lならびに前腕62Rおよび62Lは下方向に向けられる。
In the X, Y, Z, W axes and the A, B, C, D axes that control the displacement of the
また、図3では示さないが、上部胴体46の肩関節56Rおよび56Lを含む肩の部分や上述の上腕58Rおよび58Lならびに前腕62Rおよび62Lを含む腕の部分には、それぞれ、タッチセンサ(図3において参照番号64で包括的に示す。)が設けられていて、これらのタッチセンサ64は、人がロボット12のこれらの部位に接触したかどうかを検知する。
Although not shown in FIG. 3, a touch sensor (FIG. 3) is provided on the shoulder portion including the
前腕62Rおよび62Lのそれぞれの先端には、手に相当する球体66Rおよび66Lがそれぞれ固定的に取り付けられる。なお、この球体66Rおよび66Lに代えて、この実施例のロボット12と異なり指の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
上部胴体46の中央上方には、首関節68を介して、頭部70が取り付けられる。この首関節68は、3軸の自由度を有し、S軸,T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上に向かう軸であり、T軸およびU軸は、それぞれ、このS軸に対して異なる方向で直交する軸である。頭部70には、人の口に相当する位置に、スピーカ72が設けられる。スピーカ72は、ロボット12が、それの周囲の人に対して音声または声によってコミュニケーションを図るために用いられる。ただし、スピーカ72は、ロボット12の他の部位たとえば胴体に設けられてもよい。
A
また、頭部70には、目に相当する位置に眼球部74Rおよび74Lが設けられる。眼球部74Rおよび74Lは、それぞれ眼カメラ54Rおよび54Lを含む。なお、右の眼球部74Rおよび左の眼球部74Lをまとめて眼球部74といい、右の眼カメラ54Rおよび左の眼カメラ54Lをまとめて眼カメラ54ということもある。眼カメラ54は、ロボット12に接近した人の顔や他の部分ないし物体等を撮影してその映像信号を取り込む。
The
なお、上述の全方位カメラ52および眼カメラ54のいずれも、たとえばCCDやCMOSのような固体撮像素子を用いるカメラであってよい。
Note that each of the
たとえば、眼カメラ54は眼球部74内に固定され、眼球部74は眼球支持部(図示せず)を介して頭部70内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部70に対して設定される軸であり、α軸は頭部70の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部70の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部70がホームポジションにあるとき、α軸はS軸に平行し、β軸はU軸に平行するように設定されている。このような頭部70において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部74ないし眼カメラ54の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。
For example, the
なお、眼カメラ54の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図3に示すように、眼カメラ54のカメラ軸は頭部70の正面側(顔)が向く方向に向けられ、視線は正視状態となる。
In the α axis and β axis that control the displacement of the
図3には、ロボット12の内部構成を示すブロック図が示される。この図3に示すように、ロボット12は、全体の制御のためにマイクロコンピュータまたはCPU76を含み、このCPU76には、バス78を通して、メモリ80,モータ制御ボード82,センサ入力/出力ボード84および音声入力/出力ボード86が接続される。
FIG. 3 is a block diagram showing the internal configuration of the
メモリ80は、図示しないが、ROMやHDD、RAM等を含み、ROMまたはHDDにはこのロボット12の制御プログラムおよびデータ等が予め格納されている。CPU76は、このプログラムに従って処理を実行する。具体的には、ロボット12の身体動作を制御するための複数のプログラム(行動モジュールと呼ばれる。)が記憶される。たとえば、行動モジュールが示す身体動作としては、「握手」、「抱っこ」、「万歳」…などがある。行動モジュールが示す身体動作が「握手」である場合には、当該行動モジュールを実行すると、ロボット12は、たとえば、右手を前に差し出す。また、行動モジュールが示す身体動作が「抱っこ」である場合には、当該行動モジュールを実行すると、ロボット12は、たとえば、両手を前に差し出す。さらに、行動モジュールが示す身体動作が「万歳」である場合には、当該行動モジュールを実行すると、ロボット12は、たとえば、両手を数回(たとえば、2回)上下させる。また、RAMは、一時記憶メモリとして用いられるとともに、ワーキングメモリとして利用され得る。
Although not shown, the
モータ制御ボード82は、たとえばDSP(Digital Signal Processor)で構成され、右腕、左腕、頭および眼等の身体部位を駆動するためのモータを制御する。すなわち、モータ制御ボード82は、CPU76からの制御データを受け、右肩関節56RのX,YおよびZ軸のそれぞれの角度を制御する3つのモータと右肘関節60Rの軸Wの角度を制御する1つのモータを含む計4つのモータ(図4ではまとめて、「右腕モータ」として示す。)88の回転角度を調節する。また、モータ制御ボード82は、左肩関節56LのA,BおよびC軸のそれぞれの角度を制御する3つのモータと左肘関節60LのD軸の角度を制御する1つのモータとを含む計4つのモータ(図4ではまとめて、「左腕モータ」として示す。)90の回転角度を調節する。モータ制御ボード82は、また、首関節68のS,TおよびU軸のそれぞれの角度を制御する3つのモータ(図4ではまとめて、「頭部モータ」として示す。)92の回転角度を調節する。モータ制御ボード82は、また、腰モータ50、および車輪34を駆動する2つのモータ(図4ではまとめて、「車輪モータ」として示す。)36を制御する。さらに、モータ制御ボード82は、右眼球部74Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図4ではまとめて、「右眼球モータ」として示す。)94の回転角度を調節し、また、左眼球部74Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図4ではまとめて、「左眼球モータ」として示す。)96の回転角度を調節する。
The
なお、この実施例の上述のモータは、車輪モータ36を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ36と同様に、直流モータであってよい。
The above-described motors of this embodiment are stepping motors or pulse motors for simplifying the control except for the
センサ入力/出力ボード84も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU76に与える。すなわち、超音波距離センサ42の各々からの反射時間に関するデータがこのセンサ入力/出力ボード84を通して、CPU76に入力される。また、全方位カメラ52からの映像信号が、必要に応じてこのセンサ入力/出力ボード84で所定の処理が施された後、CPU76に入力される。眼カメラ54からの映像信号も、同様にして、CPU76に与えられる。また、タッチセンサ64からの信号がセンサ入力/出力ボード84を介してCPU76に与えられる。
Similarly, the sensor input /
スピーカ72には音声入力/出力ボード86を介して、CPU76から、合成音声データが与えられ、それに応じて、スピーカ72からはそのデータに従った音声または声が出力される。また、マイク24からの音声入力が、音声入力/出力ボード86を介してCPU76に取り込まれる。
Synthetic voice data is given to the
また、CPU76には、バス78を通して、通信LANボード98が接続される。この通信LANボード98も、同様に、DSPで構成され、CPU76から与えられた送信データを無線通信装置100に与え、無線通信装置100から送信データを送信させる。また、通信LANボード98は無線通信装置100を介してデータを受信し、受信データをCPU76に与える。
Further, a
図1に戻って、システム10はまた、制御装置(ロボット制御装置)としてのコンピュータ20を含み、このコンピュータ20としては、パーソナルコンピュータ(PC)或いはワークステーション(WS)を用いることができる。周知のとおり、コンピュータ20は、CPU、ROM、RAMおよびHDD等を備えている。また、コンピュータ20には、モーションキャプチャシステム22およびデータベース24が接続される。さらに、上述したロボット12は、たとえば、HUB(図示せず)に接続されたアクセスポイント(図示せず)を介して無線LANによってコンピュータ20に接続される。
Returning to FIG. 1, the
モーションキャプチャシステム(3次元動作計測装置)22としては、公知のモーションキャプチャシステムが適用される。たとえば、VICON社(http://www.vicon.com/)の光学式のモーションキャプチャシステムを用いることができる。図示は省略するが、モーションキャプチャシステム22は、PC或いはWSのようなコンピュータを含み、このコンピュータとコンピュータ20とが、たとえばHUBを介して有線または無線LANによって互いに接続される。このモーションキャプチャシステム22は、人間14の身体動作に関する数値データ(動作情報)を検出して、コンピュータ20に送信する。コンピュータ20は、モーションキャプチャシステム22から送信される数値データを後述するデータベース24に記憶(蓄積)する。
A known motion capture system is applied as the motion capture system (three-dimensional motion measurement device) 22. For example, an optical motion capture system of VICON (http://www.vicon.com/) can be used. Although illustration is omitted, the
図4を用いて具体的に説明すると、モーションキャプチャシステム22においては、複数(少なくとも3つ)の赤外線照射機能を有するカメラ22aが、人間14に対して異なる方向に配置される。人間14には、複数(この実施例では、10個)の赤外線反射マーカ30が取り付けられる。具体的には、図4からも分かるように、赤外線反射マーカ30は、人間14の頭頂、眼の上(額)、胸、肩、肘、手先(手首)のように、人間14の身体動作を特徴づける特徴点すなわち人間14の身体動作を特定可能な部分(部位)に取り付けられる。
Specifically, with reference to FIG. 4, in the
モーションキャプチャシステム22のコンピュータは、カメラ22aから画像データをたとえば60Hz(1秒間に60フレーム)で取得し、画像データの画像処理によって、その計測時の全ての画像データにおける各マーカ30の2次元位置を抽出する。そして、コンピュータは、画像データにおける各マーカ30の2次元位置に基づいて、実空間における各マーカ30の3次元位置を算出し、算出した3次元位置の座標データ(数値データ)を3次元動作データとして、コンピュータ20に送信する。
The computer of the
コンピュータ20は、モーションキャプチャシステム22から1フレーム(1/60秒)毎に送信される3次元動作データを取得(検出)し、データベース(3次元動作DB)24に入力(記憶)する。また、コンピュータ20は、ロボット12から送信されるロボット情報(後述する、コミュニケーション行動についての情報および行動ステータス)を検出し、3次元動作データに対応づけて3次元動作DB24に記憶する。ただし、ロボット12は、ロボット情報を、当該ロボット情報に含まれるコミュニケーション行動についての情報(行動情報:この実施例では、行動モジュール)が示すコミュニケーション行動を実行したときに、一度だけコンピュータ20に送信する。このため、コンピュータ20は、ロボット情報を受信すると、次のロボット情報を受信するまで、今回受信したロボット情報を、1フレーム毎に検出される3次元動作データに対応づけるようにしてある。
The
たとえば、ロボット12は、自身のコンピュータ(CPU76)の指示に従う行動モジュールが示す行動すなわち身体動作を行う(通常状態の動作)。このとき、CPU76は、メモリ80に記憶された行動モジュールをランダムまたは所定のルールに従って読み出して、実行する。また、ロボット12は、コンピュータ20から行動モジュールの名称ないし識別子を指示されると、当該行動モジュールが示す身体動作を行う(割り込み状態の動作)。ただし、通常状態の動作(通常動作)では、ロボット12は人間14の身体動作等に拘わらず、自発的に行う。一方、割り込み状態の動作(割り込み行動)では、ロボット12は人間14の身体動作に起因した動作を行う。
For example, the
上述したように、ロボット12のロボット情報(後述する、行動モジュールおよび行動ステータス)と人間14の3次元動作データとを対応づけて記憶しておくので、人間14の過去の身体動作と人間14の現在の身体動作とを比較し、類似または一致する過去の身体動作に対応づけられたロボット12の身体動作(ロボット情報に含まれる行動情報が示す動作)を引き出すことができる。ただし、同じ人間14が同じ身体動作を行った場合であっても3次元動作データが完全に一致することはほとんど有り得ないため、実際には、類似する過去の身体動作に対応づけられたロボット12の身体動作を引き出すようにしてある。
As described above, since the robot information (behavior module and action status described later) of the
ただし、人間14の身体動作(行動)には、2通りの可能性があるため、ロボット12の行動と人間14の行動との対応関係を記録しておき、現在の人間14の行動に類似する過去の行動に対応づけられた行動を単にロボット12に実行させた場合には、2通りの行動が混ざってしまうのである。1つは、ロボット12の行動に対する行動(たとえば、ロボット14が握手を求めてきたら、人間12も握手し返す。)であり、もう1つは、ロボット12の行動を検索する行動(人間14がロボット12と握手するために、ロボット12に手を差し出す。)である。
However, since there are two possibilities for the body motion (behavior) of the human 14, the correspondence relationship between the behavior of the
そこで、この実施例では、ロボット12が行動するときの状態(行動ステータス)もロボット情報に含めて記憶しておき、人間14の現在の身体動作に類似する過去の身体動作を検索する場合に、行動ステータスを考慮することにより、上述したような2つの行動を分別して、適切なコミュニケーション行動を実行できるようにしてある。
Therefore, in this embodiment, the state when the
具体的には、コンピュータ20は、ロボット12が自ら行動を取る状態(通常状態)または人間14の行動に対する行動を取る状態(割り込み状態)を示すフラグをメモリ80(RAM)に設けておき、当該フラグのオン/オフを考慮して現在の身体動作に類似する身体動作を検索し、ロボット12に割り込みによるコミュニケーション行動(割り込み行動)を実行させるようにしてある。
Specifically, the
図5(A)、(B)、(C)は、それぞれ、ロボット12のコミュニケーション行動と人間14の身体動作との例を示す図解図である。図5(A)は、ロボット12と人間14とが握手している様子を示している。図5(B)では、ロボット12は、人間14に対して抱っこ(ハグ)しようとしている。一方、人間14は、両手を上に上げている。図5(C)では、ロボット12は万歳をしようとしている。一方、人間14は、図面では分かり難いが、左手を振っている。
FIGS. 5A, 5 </ b> B, and 5 </ b> C are illustrative views showing examples of the communication behavior of the
このように、コミュニケーションを行っているロボット12のロボット情報と人間14の3次元動作データとを対応づけて3次元動作DB24に記憶しておき、人間14がロボット12に対して何らかの身体動作を行ったときに、当該身体動作を過去の身体動作と比較して、もっとも近似(類似)する身体動作に対応して記録されたロボット12のコミュニケーション行動を実行するようにしてある。したがって、ロボット12が人間14に対して何らかのコミュニケーション行動を取るだけでなく、人間14がロボット12に対して行動(身体動作)を取ることができる。
As described above, the robot information of the communicating
ただし、コンピュータ20は、DB24にデータが或る程度蓄積されるまでは、人間14との間でコミュニケーションを行う場合であっても、ロボット12に割り込み実行させるコミュニケーション行動の検索を実行しない。言うまでもなく、コミュニケーションを開始した当初では、3次元動作データおよびロボット情報がDB24に十分蓄積されておらず、人間14の身体動作に対する正しいコミュニケーション行動をロボット12に実行させることができないためである。この実施例では、ロボット12と人間14との間で、一定時間(たとえば、10分)コミュニケーションを行うまでは、コンピュータ20は検索を実行しない。したがって、この一定時間においては、ロボット12は、通常状態でのみコミュニケーション行動を行うことになる。
However, until a certain amount of data is accumulated in the
図6に示すように、コンピュータ20は、同時刻における、3次元動作データと、行動モジュールおよび行動ステータスとを対応付けて3次元動作DB24に記憶する。図6の(1)で示す期間においては、行動モジュールが「握手」であり、そのときの行動ステータスが「通常」であり、それらに対応して、当該期間における3次元動作データが記憶される。また、図6の(2)に示す期間においては、行動モジュールが「抱っこ」であり、そのときの行動ステータスが「通常」であり、それらに対応して、当該期間における3次元動作データが記憶される。さらに、図6の(3)に示す期間においては、行動モジュールが「万歳」であり、そのときの行動ステータスが「通常」であり、それらに対応して、当該期間における3次元動作データが記憶される。
As illustrated in FIG. 6, the
ただし、上述したように、人間14には複数のマーカ30が取り付けられるため、3次元動作データは多次元となるが、つまり波形は複数現れるが、分かり易く示すために、図6では、或る1つのマーカ30を観測した場合に得られる1の波形のみを示してある。以下、同様である。
However, as described above, since a plurality of
また、図示は省略するが、後述するように、検索によるコミュニケーション行動が実行される場合には、つまり割り込み行動が実行される場合には、行動ステータスとして「割り込み(インタラプト)」が記憶されることになる。 Although illustration is omitted, as described later, when a communication action by search is executed, that is, when an interrupt action is executed, “interrupt (interrupt)” is stored as the action status. become.
したがって、図7に示すように、3次元動作DB24には、時系列に従って、3次元動作データとこれに対応する行動モジュールおよび行動ステータスとが順次記憶される。ただし、3次元動作データは、上述したように、時系列に従う数値データの集合である。
Therefore, as shown in FIG. 7, the three-
このように、DB24には、データが蓄積されるが、上述したように、一定時間が経過すると、コンピュータ20は検索行動処理を実行し、人間14の現在の身体動作に類似する過去の身体動作を検出し、検出した身体動作に対応して記憶された行動モジュールに従う行動をロボット12に割り込みで実行させる。
As described above, the data is accumulated in the
なお、後述するように、コンピュータ20はデータを蓄積する処理(ログ保存処理)と検索行動処理とを並列的に実行する。
Note that, as will be described later, the
具体的には、検索処理では、現在取得した3次元動作データ(以下、「現3次元動作データ」という。)をクエリとして、DB24に蓄積された3次元動作データ(以下、「前3次元動作データ」という。)と順次比較する。図8に示すように、この実施例では、クエリは、現在時刻を含む過去Lフレーム分の3次元動作データである。また、前3次元動作データと現3次元動作データすなわちクエリとを比較する場合には、図8に示すように、Lフレーム単位で1フレームずつずらすようにして、DB24に記憶されたすべての3次元動作データと比較される。比較する手法としては、文字列比較によく用いられる手法(LCSS:Longest Common Subsequence)が適用される。たとえば、ユークリッド距離による方法も考えられるが、時間的な伸縮を許さないため、同一人物が同じ行動を行ったとしても時間的な長さや速さが異なる人間14の身体動作を比較するのには適していない。また、DTW(Dynamic Time Warping)による方法も考えられるが、現3次元動作データに含まれるすべての点を前3次元動作データのいずれかの点に必ず対応づけるようにするため、3次元動作データの一部が欠落している場合であってもいずれかのデータに対応づけようとするため、比較結果の信頼性に欠けてしまう。
Specifically, in the search process, the currently acquired 3D motion data (hereinafter referred to as “current 3D motion data”) is used as a query, and the 3D motion data stored in the DB 24 (hereinafter referred to as “previous 3D motion data”). Data is referred to sequentially. As shown in FIG. 8, in this embodiment, the query is three-dimensional motion data for the past L frames including the current time. Further, when comparing the previous three-dimensional motion data with the current three-dimensional motion data, that is, the query, as shown in FIG. Compared with dimension motion data. As a method for comparison, a method (LCSS: Longest Common Subsequence) often used for character string comparison is applied. For example, although a method based on the Euclidean distance is also conceivable, since it does not allow temporal expansion and contraction, even if the same person performs the same action, in order to compare the body movements of
そこで、この実施例では、LCSSを適用して、各マーカ30についての前3次元動作データと現3次元動作データとを比較して、つまり、3次元座標同士を比較して、類似度が求められる。各マーカ30の類似度の総和が人間14の身体動作同士の類似度に決定される。ただし、類似するか否かを判断するための閾値(条件)は、予め試験等により経験的に得られた値に設定される。
Therefore, in this embodiment, by applying LCSS, the previous three-dimensional motion data and the current three-dimensional motion data for each
ここで、図9(A)に示すように、たとえば、クエリ(現3次元動作データ)とa1の期間における前3次元動作データとを比較した結果、互いに類似していると判断されたと仮定する。このとき、図9(A)のa1およびa2で示す期間におけるロボット12の行動ステータスは「通常」であるため、コンピュータ20は、類似するa1に示す期間における前3次元動作データが示す身体動作とロボット12の「握手」の動作とが対応していると判断し、「握手」についてのカウント値を1加算する。
Here, as shown in FIG. 9A, for example, it is assumed that, as a result of comparing the query (current three-dimensional motion data) with the previous three-dimensional motion data in the period a1, it is determined that they are similar to each other. . At this time, since the behavior status of the
しかし、図9(B)に示すように、b2で示す期間におけるロボット12の行動ステータスが「割り込み」である場合には、コンピュータ20は、b1で示す期間における3次元動作データが示す身体動作はb2で示す期間におけるロボット12の「抱っこ」の動作と対応していると判断し、「抱っこ」についてのカウント値を1加算する。
However, as shown in FIG. 9B, when the action status of the
なお、図9(B)においても、クエリ(現3次元動作データ)とb1の期間における前3次元動作データとが類似していると判断されたことを前提としてある。 In FIG. 9B, it is assumed that the query (current three-dimensional motion data) and the previous three-dimensional motion data in the period b1 are determined to be similar.
このように、行動ステータスが「割り込み」である場合には、人間14の身体動作と同時刻におけるロボット12のコミュニケーション行動の次のコミュニケーション行動とが対応していると判断するようにしてある。これは、割り込みでコミュニケーション行動を実行している場合の人間14の身体動作をクエリとしないためである。たとえば、人間14が過去にロボット12に握手してもらい、もう一度握手してもいたくて、過去と同じ身体動作をしたとする。このとき、検索結果が握手するというコミュニケーション行動になり、人間14はロボット12にしてもらいたい行動が出たので、ロボット12と握手する。すると、このときの人間14の握手するという身体動作がクエリになってしまうと、再度ロボット12に握手するという割り込みが入ってしまい、延々と握手が続いてしまうことになるのを防止するためである。
Thus, when the action status is “interrupt”, it is determined that the physical action of the human 14 corresponds to the communication action next to the communication action of the
このようにして、コンピュータ20は、クエリとすべての前3次元動作データとを比較し、クエリと類似している3次元動作データに対応すると考えられるロボット12の行動情報をカウントし、最もカウント値が大きい行動情報が示す行動をロボット12に割り込み実行させる。つまり、コンピュータ20は、カウント値が最も大きい行動情報(行動モジュール)が示す行動の割り込み実行の指示をロボット12に送信する。ただし、現在、ロボット12が割り込みでコミュニケーション行動を実行中である場合には、コンピュータ20は、割り込み実行の指示を送信しない。また、カウント値が最も大きい行動情報(行動モジュール)が前回割り込み実行を指示した行動情報と同じである場合にも、コンピュータ20は、割り込み実行の指示を送信しない。これは、同じコミュニケーション行動が繰り返し実行されるのを回避するためである。
In this way, the
図10はコンピュータ20のログ保存処理を示すフロー図である。この図10を参照して、コンピュータ20はログ保存処理を開始すると、ステップS1で、モーションキャプチャシステム22からのキャプチャデータすなわち3次元動作データをメモリ(たとえば、HDDに設けられる仮想メモリ。以下同じ。)に保存(一時保存)する。続く、ステップS3では、ロボット12から送信されたロボット情報すなわち行動モジュール(行動情報)および実行ステータスをメモリに保存(一時保存)する。そして、ステップS5で、同時刻における、キャプチャデータ(3次元動作データ)と、行動モジュールおよび行動ステータスとを対応付けてDB24に保存して、ログ保存処理を終了する。
FIG. 10 is a flowchart showing log storage processing of the
このログ保存処理は、一定時間毎に実行され、ロボット12のコミュニケーション行動と人間14の身体動作とがDB24に記録される。ただし、DB24が一杯になると、最も古いデータに上書きするように、DB24は更新される。
This log storage process is executed at regular intervals, and the communication behavior of the
図11〜図13は、コンピュータ20の検索行動処理を示すフロー図である。この検索行動処理は、上述したように、一定時間が経過した後に、ログ保存処理と並列的に実行される。図11を参照して、コンピュータ20は検索行動処理を開始すると、ステップS11で、モーションキャプチャシステム22からのキャプチャデータすなわち3次元動作データをメモリ80に保存(一時保存)する。次に、ステップS13では、現在時刻Cを保存(記憶)し、ステップS15で、変数(時刻)Tに0を代入する。続くステップS17では、時刻T(フレーム)からLフレーム分のキャプチャデータ(3次元動作データ)をDB24から取得し、メモリ80にコピーする。そして、ステップS19で、入力されたキャプチャデータすなわち現3次元動作データ(クエリ)とDB24からコピーしたキャプチャデータすなわち前3次元動作データとが類似するかどうかを判断する。
11 to 13 are flowcharts showing the search action process of the
ステップS19で“NO”であれば、つまり2つのキャプチャデータが類似していなければ、そのまま図13に示すステップS37に進む。しかし、ステップS19で“YES”であれば、つまり2つのキャプチャデータが類似していれば、図12に示すステップS21で、時刻T+L+1のロボット12のコミュニケーション行動が存在するかどうかを判断する。ステップS21で“NO”であれば、つまり時刻T+L+1のロボット12のコミュニケーション行動が存在しなければ、そのままステップS25に進む。一方、ステップS21で“YES”であれば、つまり時刻T+L+1のロボット12のコミュニケーション行動が存在すれば、ステップS23で、時刻T+L+1のロボット12の行動ステータスが「割り込み」であるかどうかを判断する。
If “NO” in the step S19, that is, if the two capture data are not similar, the process proceeds to a step S37 shown in FIG. 13 as it is. However, if “YES” in the step S19, that is, if the two capture data are similar, it is determined whether or not there is a communication action of the
ステップS23で“NO”であれば、つまり時刻T+L+1のロボット12の行動ステータスが「通常」であれば、ステップS25で、時刻Tのロボットの行動(行動モジュール)をメモリ80に読込み、ステップS29に進む。しかし、ステップS23で“YES”であれば、つまり時刻T+L+1のロボット12の行動ステータスが「割り込み」であれば、ステップS27で、時刻T+L+1のロボット12の行動モジュールをメモリ80に読込み、ステップS29に進む。
If “NO” in the step S23, that is, if the action status of the
ステップS29では、メモリ80に作成された表(図示せず)に当該行動(行動モジュール)が記述されているかどうかを判断する。ステップS29で“YES”であれば、つまりステップS25またはS27で読み込まれた行動がメモリ80の表に存在すれば、ステップS31で、当該行動の行動カウンタを1加算(インクリメント)して、図13に示すステップS37に進む。一方、ステップS29で“NO”であれば、つまりステップS25またはS27で読み込まれた行動がメモリ80の表に存在しなければ、ステップS33で、メモリ80の表に当該行動の欄を設け、ステップS35で、当該行動に対応する行動カウンタを0に設定し、ステップS31に進む。ただし、検索行動処理を開始した当初では、表自体が作成されていないため、ステップS33では、表が作成されるとともに、該当する行動の欄が設けられる。
In step S29, it is determined whether or not the action (behavior module) is described in a table (not shown) created in the
図13に示すように、ステップS37では、現在時刻C−Lと時刻T+Lとが一致する(C−L=T+L)かどうかを判断する。つまり、クエリとDB24に保存されているすべての3次元動作データとの類似度を判定し、ロボット12に割り込み実行させるコミュニケーション行動の検索を終了したかどうかを判断している。ステップS37で“NO”であれば、つまり現在時刻C−Lと時刻T+Lとが一致しなければ、ステップS39で、時刻Tに1フレーム加算する。一方、ステップS37で“YES”であれば、つまり現在時刻C−Lと時刻T+Lとが一致すれば、ステップS41で、現在ロボット12が割り込み実行中かどうかを判断する。図示は省略したが、コンピュータ20はロボット12が割り込み実行中か否かを示すフラグ(割り込み中フラグ)を記憶しており、当該フラグのオン/オフに基づいて、ロボット12が割り込み実行中であるかどうかを判断する。ただし、割り込み中フラグは、コンピュータ20から割り込みによるコミュニケーション行動の実行を指示したときにオンされ、ロボット12から送信される行動ステータスが通常状態に変化するとオフされる。
As shown in FIG. 13, in step S37, it is determined whether or not the current time CL and the time T + L match (CL = T + L). That is, the similarity between the query and all the three-dimensional motion data stored in the
ステップS41で“YES”であれば、つまり現在ロボット12が割り込み実行中であれば、そのまま検索行動処理を終了する。一方、ステップS41で“NO”であれば、つまり現在ロボット12が通常実行中であれば、ステップS43で、カウント値が最大の行動カウンタに対応する行動(行動モジュール)を特定し、ステップS45で、特定した行動が前回実行した行動と同じであるかどうかを判断する。ステップS45で“YES”であれば、つまり特定した行動が前回実行した行動と同じであれば、同じ行動が繰り返し実行されるのを回避すべく、そのまま検索行動処理を終了する。一方、ステップS45で“NO”であれば、つまり特定した行動が前回実行した行動と異なれば、ステップS47で、特定した行動(行動モジュール)の実行をロボット12に命令(指示)して、検索行動処理を終了する。
If “YES” in the step S41, that is, if the
この実施例によれば、コミュニケーションを行う人間の行動を記録するとともに、ロボットの行動およびそのときのステータスを記憶するので、ロボットに通常行動および検索行動を実行させることができる。つまり、人間の行動からロボットの行動を引き出すことができる。 According to this embodiment, since the behavior of the person who performs communication is recorded and the behavior of the robot and the status at that time are stored, the robot can execute the normal behavior and the retrieval behavior. In other words, the robot's behavior can be derived from the human behavior.
また、この実施例では、コミュニケーション行動を行う人間の動作を記憶しておき、それを用いて当該人間に対する行動をロボットに実行させるので、各人間に応じたコミュニケーションを取ることができる。したがって、たとえば、ロボット12が人物Aとコミュニケーション行動を終了した後に、人物Bとのコミュニケーション行動を実行する場合には、コンピュータ20は、たとえば、3次元動作DB24を消去するようにすればよい。
Further, in this embodiment, since the movement of a human performing a communication action is stored and the robot is caused to execute the action for the human being, it is possible to communicate according to each person. Therefore, for example, when the communication action with the person B is executed after the
なお、この実施例では、ロボットが特定の1人の人間との間でコミュニケーションを取る場合について説明したが、時間帯が異なれば、2人以上の人間との間でコミュニケーションを取ることも可能である。かかる場合には、各人間14を識別可能にしておき、人間14毎の3次元動作DBを設け、ロボット12とコミュニケーションを行っている人間14を特定し、特定した人間14の身体動作に応じて、特定した人間14についての3次元動作DBを検索して、ロボット12の行動を引き出すようにすればよい。各人間14は、映像や識別情報により、識別可能である。映像での識別は、たとえば、各人間14に異なる色や異なるマークの付された服を着させておき、これをCCDカメラ等のカメラで撮影して得られる画像データを解析することにより実現可能である。識別情報での識別は、各人間14に識別情報の異なるタグを所持または装着しておき、タグが発信する識別情報を解析することにより実現可能である。
In this embodiment, the case where the robot communicates with one specific person has been described, but it is also possible to communicate with two or more persons if the time zone is different. is there. In such a case, each human 14 is made identifiable, a three-dimensional motion DB is provided for each human 14, the human 14 communicating with the
10 …コミュニケーションロボットシステム
12 …コミュニケーションロボット
16 …マイク
20 …コンピュータ
22 …モーションキャプチャシステム
24 …データベース
38 …衝突センサ
42 …超音波距離センサ
52 …全方位カメラ
54 …眼カメラ
64 …タッチセンサ
76 …CPU
80 …メモリ
82 …モータ制御ボード
84 …センサ入力/出力ボード
86 …音声入力/出力ボード
88−96 …モータ
98 …通信LANボード
100 …無線通信装置
DESCRIPTION OF
DESCRIPTION OF
Claims (4)
コミュニケーションロボットは、
人間の身体動作に拘わらず自発的にコミュニケーション行動を取る通常状態または人間の身体動作に起因してコミュニケーション行動を取る割り込み状態で、行動情報に従ってコミュニケーション行動を実行するコミュニケーション行動実行手段、
前記行動情報と前記コミュニケーション行動を実行したときの前記通常状態または前記割り込み状態を示す状態情報とを含むロボット情報を前記制御装置に送信する送信手段、および
前記制御装置からの割り込み指示を受信する割り込み指示受信手段を備え、
前記制御装置は、
前記人間の前記身体動作についての動作情報を検出する動作情報検出手段、
前記コミュニケーションロボットから送信されるロボット情報を検出するロボット情報検出手段、
同時刻における、前記動作情報と前記ロボット情報とを対応づけて記憶する記憶手段、
前記動作情報検出手段によって検出された現在の動作情報と前記記憶手段に記憶された過去の動作情報とを比較する比較手段、
前記比較手段による比較結果が少なくとも類似を示す過去の動作情報が存在するとき、当該過去の動作情報に対応するロボット情報に含まれる状態情報が通常状態を示すか割り込み状態を示すかを判別する状態判別手段、および
前記状態判別手段によって前記通常状態を示すことが判別されたとき、前記現在の動作情報に少なくとも類似する前記過去の動作情報に対応する前記ロボット情報に含まれる前記行動情報を読み出し、または、前記状態判別手段によって前記割り込み状態を示すことが判別されたとき、前記現在の動作情報に少なくとも類似する前記過去の動作情報の時間的に次の前記過去の動作情報に対応する前記ロボット情報に含まれる前記行動情報を読み出し、前記コミュニケーションロボットに当該行動情報に従うコミュニケーション行動の実行の割り込み指示を送信する割り込み指示送信手段を備える、コミュニケーションロボットシステム。 A communication robot system comprising a communication robot and a control device for controlling the communication robot,
Communication robot
A communication action execution means for executing a communication action according to action information in a normal state in which the communication action is spontaneously taken regardless of the human body movement or in an interrupt state in which the communication action is taken due to the human body movement ;
Transmitting means for transmitting robot information including the behavior information and state information indicating the normal state or the interrupt state when the communication behavior is executed, and an interrupt for receiving an interrupt instruction from the control device Comprising an instruction receiving means;
The controller is
Operation information detecting means for detecting operation information about the body movements of the human,
Robot information detecting means for detecting robot information transmitted from the communication robot;
Storage means for storing the motion information and the robot information in association with each other at the same time ;
Comparison means for comparing current motion information detected by the motion information detection means with past motion information stored in the storage means ;
A state for determining whether state information included in the robot information corresponding to the past motion information indicates a normal state or an interrupt state when there is past motion information indicating that the comparison result by the comparison means is at least similar Discrimination means, and
When the state determining means determines that the normal state is indicated, the action information included in the robot information corresponding to the past motion information at least similar to the current motion information is read, or the state When it is determined by the determining means that the interrupt state is indicated, the robot information corresponding to the past motion information that is temporally next to the past motion information that is at least similar to the current motion information is included in the robot information. A communication robot system comprising: interrupt instruction transmission means for reading action information and transmitting an interrupt instruction for executing a communication action according to the action information to the communication robot.
前記人間の前記身体動作についての動作情報を検出する動作情報検出手段、
前記コミュニケーションロボットから送信されるロボット情報を検出するロボット情報検出手段、
同時刻における、前記動作情報と前記ロボット情報とを対応づけて記憶する記憶手段、
前記動作情報検出手段によって検出された現在の動作情報と前記記憶手段に記憶された過去の動作情報とを比較する比較手段、
前記比較手段による比較結果が少なくとも類似を示す過去の動作情報が存在するとき、当該過去の動作情報に対応するロボット情報に含まれる状態情報が通常状態を示すか割り込み状態を示すかを判別する状態判別手段、および
前記状態判別手段によって前記通常状態を示すことが判別されたとき、前記現在の動作情報に少なくとも類似する前記過去の動作情報に対応する前記ロボット情報に含まれる前記行動情報を読み出し、または、前記状態判別手段によって前記割り込み状態を示すことが判別されたとき、前記現在の動作情報に少なくとも類似する前記過去の動作情報の時間的に次の前記過去の動作情報に対応する前記ロボット情報に含まれる前記行動情報を読み出し、前記コミュニケーションロボットに当該行動情報に従うコミュニケーション行動の実行の割り込み指示を送信する割り込み指示送信手段を備える、ロボット制御装置。 A robot controller for controlling a communication robot that executes a communication action according to action information in a normal state in which communication action is voluntarily performed regardless of human body movement or in an interruption state in which communication action is caused due to human body movement Because
Operation information detecting means for detecting operation information about the body movements of the human,
Robot information detecting means for detecting robot information transmitted from the communication robot;
Storage means for storing the motion information and the robot information in association with each other at the same time ;
Comparison means for comparing current motion information detected by the motion information detection means with past motion information stored in the storage means ;
A state for determining whether state information included in the robot information corresponding to the past motion information indicates a normal state or an interrupt state when there is past motion information indicating that the comparison result by the comparison means is at least similar Discrimination means, and
When the state determining means determines that the normal state is indicated, the action information included in the robot information corresponding to the past motion information at least similar to the current motion information is read, or the state When it is determined by the determining means that the interrupt state is indicated, the robot information corresponding to the past motion information that is temporally next to the past motion information that is at least similar to the current motion information is included in the robot information. A robot control device comprising: an interrupt instruction transmitting unit that reads out action information and transmits an interrupt instruction for executing a communication action according to the action information to the communication robot.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005023959A JP4517086B2 (en) | 2005-01-31 | 2005-01-31 | Communication robot system and robot controller |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005023959A JP4517086B2 (en) | 2005-01-31 | 2005-01-31 | Communication robot system and robot controller |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006205343A JP2006205343A (en) | 2006-08-10 |
JP4517086B2 true JP4517086B2 (en) | 2010-08-04 |
Family
ID=36962706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005023959A Expired - Fee Related JP4517086B2 (en) | 2005-01-31 | 2005-01-31 | Communication robot system and robot controller |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4517086B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5109098B2 (en) * | 2007-06-14 | 2012-12-26 | 本田技研工業株式会社 | Motion control system, motion control method, and motion control program |
JP6393991B2 (en) | 2014-01-24 | 2018-09-26 | トヨタ自動車株式会社 | Robot and control method thereof |
EP2933065A1 (en) | 2014-04-17 | 2015-10-21 | Aldebaran Robotics | Humanoid robot with an autonomous life capability |
JP6419585B2 (en) | 2015-01-13 | 2018-11-07 | 株式会社小松製作所 | Excavation machine, excavation machine control method and excavation system |
US11220008B2 (en) * | 2017-07-18 | 2022-01-11 | Panasonic Intellectual Property Management Co., Ltd. | Apparatus, method, non-transitory computer-readable recording medium storing program, and robot |
JP2020082246A (en) * | 2018-11-20 | 2020-06-04 | 大日本印刷株式会社 | Posture data generation device, learning tool, computer program, learning data, posture data generation method and learning model generation method |
CN109693251B (en) * | 2018-12-18 | 2020-12-08 | 航天时代电子技术股份有限公司 | Robot control system and method based on motion capture |
KR102315362B1 (en) * | 2020-08-21 | 2021-10-20 | 네이버랩스 주식회사 | Evaluation method and system for robot |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000105605A (en) * | 1998-09-28 | 2000-04-11 | Toyoda Mach Works Ltd | Robot controller |
JP2001246580A (en) * | 2000-03-03 | 2001-09-11 | Sony Corp | Information communication robot device, information communication method, and information communication robot system |
JP2003181784A (en) * | 2001-12-19 | 2003-07-02 | Sanyo Electric Co Ltd | Automatic answering robot |
JP2004227276A (en) * | 2003-01-23 | 2004-08-12 | Advanced Telecommunication Research Institute International | Human communication behavior recording system and method |
-
2005
- 2005-01-31 JP JP2005023959A patent/JP4517086B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000105605A (en) * | 1998-09-28 | 2000-04-11 | Toyoda Mach Works Ltd | Robot controller |
JP2001246580A (en) * | 2000-03-03 | 2001-09-11 | Sony Corp | Information communication robot device, information communication method, and information communication robot system |
JP2003181784A (en) * | 2001-12-19 | 2003-07-02 | Sanyo Electric Co Ltd | Automatic answering robot |
JP2004227276A (en) * | 2003-01-23 | 2004-08-12 | Advanced Telecommunication Research Institute International | Human communication behavior recording system and method |
Also Published As
Publication number | Publication date |
---|---|
JP2006205343A (en) | 2006-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4517086B2 (en) | Communication robot system and robot controller | |
JP5186723B2 (en) | Communication robot system and communication robot gaze control method | |
JP4822319B2 (en) | Communication robot and attention control system using the same | |
JP5120745B2 (en) | Communication robot | |
JP5429462B2 (en) | Communication robot | |
JP5318623B2 (en) | Remote control device and remote control program | |
JP4599522B2 (en) | Communication robot | |
JP4386367B2 (en) | Communication robot improvement system | |
JP4014044B2 (en) | Communication robot and communication system using the same | |
JP2007190641A (en) | Communication robot | |
JP5145569B2 (en) | Object identification method and apparatus | |
CN105930775B (en) | Facial orientation recognition methods based on sensitivity parameter | |
JP6134895B2 (en) | Robot control system, robot control program, and explanation robot | |
JP4399603B2 (en) | Communication robot | |
JP2005131713A (en) | Communication robot | |
JP3974098B2 (en) | Relationship detection system | |
JP2006185109A (en) | Image measurement device and image measurement method | |
JP2007160427A (en) | Robot control system | |
JP4798581B2 (en) | Robot system | |
JP4617428B2 (en) | Motion generation system | |
KR20140009900A (en) | Apparatus and method for controlling robot | |
JP2007130691A (en) | Communication robot | |
WO2021005878A1 (en) | Information processing device, information processing method, and information processing program | |
JP4613284B2 (en) | Communication robot and motion identification system using the same | |
JP2004227276A (en) | Human communication behavior recording system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090709 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090714 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090903 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100406 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100408 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130528 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140528 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |