JP4997419B2 - Robot motion conversion system - Google Patents

Robot motion conversion system Download PDF

Info

Publication number
JP4997419B2
JP4997419B2 JP2005322140A JP2005322140A JP4997419B2 JP 4997419 B2 JP4997419 B2 JP 4997419B2 JP 2005322140 A JP2005322140 A JP 2005322140A JP 2005322140 A JP2005322140 A JP 2005322140A JP 4997419 B2 JP4997419 B2 JP 4997419B2
Authority
JP
Japan
Prior art keywords
robot
human
motion
trajectory
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005322140A
Other languages
Japanese (ja)
Other versions
JP2007125670A5 (en
JP2007125670A (en
Inventor
一彦 篠沢
敬宏 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005322140A priority Critical patent/JP4997419B2/en
Publication of JP2007125670A publication Critical patent/JP2007125670A/en
Publication of JP2007125670A5 publication Critical patent/JP2007125670A5/ja
Application granted granted Critical
Publication of JP4997419B2 publication Critical patent/JP4997419B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明はロボット用動作変換システムに関し、特にたとえば、人間の表現動作をロボットの表現動作に変換し、それによってロボットに人間の表現動作と類似の表現動作を行わせることができる、新規なロボット用動作変換システムに関する。   The present invention relates to a robot motion conversion system, and in particular, for example, for a novel robot capable of converting a human expression motion into a robot motion and thereby causing the robot to perform a similar motion to the human motion. The present invention relates to a motion conversion system.

モーションキャプチャシステムのようなこの種の表現動作変換システムは、非特許文献1-3に示すように、主として、人間の表現動作(ジェスチャ)をそのまま表現できる3次元CGでのキャラクタの動作に変換するものであった。
http://www.vicon.com/products/bodybuilder.html http://www.vicon.com/products/polygon.html http://www.crescentvideo.co.jp/vicon/mx/software/index.shtml
This type of expression motion conversion system such as a motion capture system mainly converts human motions (gestures) into 3D CG character motions as shown in Non-Patent Documents 1-3. It was a thing.
http://www.vicon.com/products/bodybuilder.html http://www.vicon.com/products/polygon.html http://www.crescentvideo.co.jp/vicon/mx/software/index.shtml

人間の動作を表現するために多くの自由度を必要とするが、上述の様な3次元CG(Computer Graphics)キャラクタは自在に変形できるので、モーションキャプチャで取得した人間の動作を3次元CGキャラクタの動作に変換するに当たって大きな困難はない。しかしながら、少ない自由度しか持たないロボットでは、人間の動作を正確になぞると言うことは不可能であり、従来、そのようなロボットのための有用な動作変換システムは存在しなかった。   Although many degrees of freedom are required to express human motions, the 3D CG (Computer Graphics) character as described above can be freely transformed, so that the 3D CG character can be used to capture human motions obtained by motion capture. There is no great difficulty in converting to the operation. However, it is impossible to accurately trace human movements with a robot having only a small degree of freedom, and there has conventionally been no useful motion conversion system for such robots.

それゆえに、この発明の主たる目的は、新規な、ロボット用動作変換システムを提供することである。   Therefore, a main object of the present invention is to provide a novel robot motion conversion system.

この発明の他の目的は、人間の動作をロボットに可及的正確に再現させることができる、ロボット用動作変換システムを提供することである。   Another object of the present invention is to provide a robot motion conversion system that enables a robot to reproduce a human motion as accurately as possible.

請求項1の発明は、人間の動作を表現する部位である注目対象の動作をその注目対象に対応するロボットの制御対象の動作に変換する、ロボット用動作変換システムであって、人間の動作に伴う各部位の位置データを入力する位置データ入力手段、人間の頭部,左手,右手および胴体のうちの1つの部位を注目座標系とし、残りの1つの部位を基準座標系として、位置データに基づいて、基準座標系における注目座標系における位置および向きの時間変化を軌跡として記述する人間動作記述手段、および人間動作記述手段で記述した人間の注目対象の軌跡を、ロボットの制御対象の軌跡に近似する近似手段を備える、ロボット用動作変換システムである。 The invention according to claim 1 is a robot motion conversion system that converts a motion of a target object, which is a part expressing a human motion, into a control target motion of the robot corresponding to the target motion. Position data input means for inputting the position data of each part involved, one part among the human head, left hand, right hand and torso as the target coordinate system, and the remaining one part as the reference coordinate system Based on this, the human motion description means describing the time change of the position and orientation in the reference coordinate system in the reference coordinate system as a trajectory , and the trajectory of the human attention target described by the human motion description means as the trajectory of the robot control target. A robot motion conversion system including approximation means for approximation.

請求項1の発明では、たとえばモーションキャプチャ(102)のような位置データ入力手段が、人間の動作に伴う各部位の位置データを入力する。実施例の動作変換コンピュータ(104)で構成される人間動作記述手段(S5)が、入力された位置データに基づいて、人間の注目対象の軌跡(Hp,Hr)を頭部,左手,右手および胴体のうちの2つの相対位置関係で記述する。同じく実施例の動作変換コンピュータ(104)で構成される近似手段(S13,S17)が、その人間の注目対象の軌跡を、ロボットの注目対象の頭部,左手,右手および胴体のうちの2つの相対位置関係で記述した軌跡に近似する。したがって、その近似した軌跡に基づいてロボットを制御すれば、人間の動作をロボットに再現させることができる。   In the invention of claim 1, for example, position data input means such as a motion capture (102) inputs position data of each part associated with human movement. The human motion description means (S5) composed of the motion conversion computer (104) of the embodiment converts the trajectory (Hp, Hr) of the target of human attention to the head, left hand, right hand and It is described by the relative positional relationship between two of the fuselage. Similarly, the approximating means (S13, S17) constituted by the motion conversion computer (104) of the embodiment takes the trajectory of the attention target of the human as two of the head, left hand, right hand, and torso of the robot's attention target. Approximate the trajectory described in relative positional relationship. Therefore, if the robot is controlled based on the approximated trajectory, the robot can reproduce the human motion.

請求項1の発明によれば、人間の動作に伴う位置データを入力するだけで、人間よりはるかに少ない自由度のロボットにその人間の動作に近似した動作を行わせることができる。   According to the first aspect of the present invention, it is possible to cause a robot having a much lower degree of freedom than that of a human to perform an operation similar to that of the human by simply inputting position data associated with the human operation.

請求項2の発明は、人間動作記述手段で記述した前記軌跡を、位置および向きを個々に正規化することによって、正規化する正規化手段を備え、近似手段は正規化手段で正規化した人間の注目対象の軌跡をロボットの制御対象の軌跡に近似するようにした、請求項1記載のロボット用動作変換システムである。 The invention of claim 2 includes normalizing means for normalizing the locus described by the human action description means by individually normalizing the position and orientation, and the approximating means is a human being normalized by the normalizing means. The robot motion conversion system according to claim 1, wherein the target object trajectory is approximated to a robot control target trajectory.

請求項2の発明では、実施例では動作変換コンピュータ(104)からなる正規化手段(S7)が人間の動作軌跡を正規化することによって、人間とロボットとのサイズの相違を解消する。   According to the invention of claim 2, in the embodiment, the normalization means (S7) comprising the motion conversion computer (104) normalizes the human motion trajectory, thereby eliminating the size difference between the human and the robot.

請求項3の発明は、ロボットは制御対象の位置および向きを制御する複数の関節を有し、さらに近似手段によって近似したロボットの注目対象の軌跡に基づいて複数の関節の制御データを設定する制御データ設定手段をさらに備える、請求項2記載のロボット用動作変換システムである。
請求項4の発明は、ロボットの関節角度範囲内で、近似した軌跡を実現できるかどうか判断する判断手段をさらに備え、近似手段は、判断手段が否定的な判断をしたとき人間の注目対象の軌跡を主成分分析することによって、注目対象の軌跡に最大限似ている制御対象の軌跡のための関節角度を求める、請求項3記載のロボット用動作変換システムである。
According to a third aspect of the present invention, the robot has a plurality of joints for controlling the position and orientation of the controlled object, and further sets control data for the plurality of joints based on the locus of the target of interest of the robot approximated by the approximating means. The robot motion conversion system according to claim 2, further comprising data setting means .
The invention according to claim 4 further comprises a judging means for judging whether or not an approximated trajectory can be realized within the joint angle range of the robot, and the approximating means is a target of human attention when the judging means makes a negative judgment. 4. The robot motion conversion system according to claim 3, wherein a joint angle for the locus of the control target that is maximally similar to the locus of interest is obtained by principal component analysis of the locus.

求項4の発明では、主成分分析によって必要なデータだけを利用して軌跡を近似するので、最低限の類似度で、ロボットの動作を人間の動作に近似させることができる。 In the invention Motomeko 4, since approximating the trajectory using only data required by the principal component analysis, with minimal similarity, it is possible to approximate the operation of the robot to the human operation.

請求項5の発明は、近似手段によって近似したロボットの注目対象の軌跡に基づいてロボットの制御データを設定する制御データ設定手段をさらに備える、請求項記載のロボット用動作変換システムである。 The invention of claim 5, further comprising a control data setting means for setting the control data of the robot based on the trajectory of the object of interest of the robot approximated by approximating means, a motion conversion system for robot according to claim 1.

請求項の発明では、たとえば実施例の動作変換コンピュータ(104)のような制御データ設定手段(S27)が、得られた近似軌跡に基づいて、ロボットのたとえば関節角度のような制御データを設定する。 In the invention of claim 5 , for example, the control data setting means (S27) such as the motion conversion computer (104) of the embodiment sets control data such as the joint angle of the robot based on the obtained approximate locus. To do.

この発明によれば、多くの自由度を有する人間の表現動作を、少ない自由度しか持たないロボットの表現動作に自動的に変換できる。したがって、人間の動作をたとえばモーションキャプチャで入力するだけで、その人間の動作に近似したロボットの動作を再現できる。   According to the present invention, it is possible to automatically convert a human expression operation having many degrees of freedom into a robot expression operation having only a few degrees of freedom. Therefore, by simply inputting a human motion by, for example, motion capture, it is possible to reproduce the robot motion approximate to the human motion.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1に示すこの発明の一実施例の動作変換システム100は、モーションキャプチャ102で検知した人間(図示せず)の動作を、動作変換コンピュータ104によって、ロボット10によって再現させるためのシステムである。つまり、動作変換コンピュータ104は、モーションキャプチャ102で取得した人間の動作に関する各位置の3次元データに基づいて、その動作を再現するためのロボット10の各軸の制御データに変換する。   A motion conversion system 100 according to an embodiment of the present invention shown in FIG. 1 is a system for causing a robot 10 to reproduce a human (not shown) motion detected by a motion capture 102 by a motion conversion computer 104. That is, the motion conversion computer 104 converts the control data of each axis of the robot 10 to reproduce the motion based on the three-dimensional data of each position related to the human motion acquired by the motion capture 102.

ただし、図1に示すロボットデータベース106は、実施例の動作変換システム100を適用できるロボットの種類とそれぞれのロボットの軸配置を予め設定または登録しておくものである。なお、軸配置としては、後述の図3に示すようなスケルトン図の形式で登録されていてもよい。   However, the robot database 106 shown in FIG. 1 sets or registers in advance the types of robots to which the motion conversion system 100 of the embodiment can be applied and the axis arrangement of each robot. Note that the shaft arrangement may be registered in the form of a skeleton diagram as shown in FIG.

この実施例では、人間の動作を、一例として、図2に示すような外観を有するヒューマノイドロボット(以下、単に「ロボット」ともいう。)10の動作に変換するので、ここで、必要な範囲で、このロボット10を説明する。   In this embodiment, human motion is converted into motion of a humanoid robot (hereinafter simply referred to as “robot”) 10 having an appearance as shown in FIG. 2 as an example. The robot 10 will be described.

図3はこのロボット10をモデル表記したスケルトン図である。図3を参照して、この実施例のロボット10は、垂直方向または縦方向に間隔を隔てて設けられる2つの横杆12および14を含み、この上下横杆12および14の間には、胴体16が形成される。   FIG. 3 is a skeleton diagram representing the robot 10 as a model. Referring to FIG. 3, the robot 10 of this embodiment includes two recumbent arms 12 and 14 that are spaced apart in the vertical direction or the longitudinal direction, and between the upper and lower recumbent surfaces 12 and 14, 16 is formed.

胴体16の上部には、胸の自由度を形成する1つのヨー(Yaw)軸関節18が設けられ、その下方には腰の自由度を形成する1つのピッチ(Pitch)軸関節20が設けられる。なお、よく知られているように、ヨー軸とは鉛直回転軸(Z軸)であり、ピッチ軸とはこのヨー軸に直行する2つの軸の一方、たとえばX軸であり、そして、後述のロール(Roll)軸がヨー軸に直行する2つの軸の他方、たとえばY軸である。X軸(ピッチ軸)は図2の紙面に平行な方向に延びる回転軸であり、Y軸(ロール軸)は図2の紙面に直行する方向に延びる回転軸である。   One yaw shaft joint 18 that forms the degree of freedom of the chest is provided on the upper portion of the body 16, and one pitch shaft joint 20 that forms the degree of freedom of the waist is provided below the body 16. . As is well known, the yaw axis is a vertical rotation axis (Z axis), the pitch axis is one of two axes perpendicular to the yaw axis, for example, the X axis, and will be described later. The roll axis is the other of the two axes perpendicular to the yaw axis, for example, the Y axis. The X axis (pitch axis) is a rotation axis extending in a direction parallel to the paper surface of FIG. 2, and the Y axis (roll axis) is a rotation axis extending in a direction perpendicular to the paper surface of FIG.

上横杆12の両端には、腕22Rおよび22Lがそれぞれ取り付けられる。これら左右の腕22Rおよび22Lは同じ構成である。なお、右左を区別する必要があるときは、右を示す「R」または左を表す「L」を付し、また区別する必要がないときはこの「R」や「L」を付けないで示すようにして、重複する説明はできるだけ省く。このことは、後述の足についても同様である。   Arms 22 </ b> R and 22 </ b> L are attached to both ends of the upper horizontal arm 12, respectively. These left and right arms 22R and 22L have the same configuration. When it is necessary to distinguish between right and left, “R” indicating right or “L” representing left is added, and when it is not necessary to distinguish, “R” or “L” is not added. In this way, duplicate descriptions are omitted as much as possible. The same applies to the feet described later.

腕22は、肩の自由度を形成するロール軸関節24を含み、この肩関節24によって上
横杆12に、ロール軸周りに回転可能に取り付けられる。この肩関節24の先には、それぞれ1つずつのピッチ軸関節26、ヨー軸関節28、およびロール軸関節30の直列接続が設けられる。したがって、この実施例のロボット10の場合、腕22は、4自由度であり、左右で8自由度である。
The arm 22 includes a roll shaft joint 24 that forms a degree of freedom of the shoulder, and is attached to the upper lateral reed 12 by the shoulder joint 24 so as to be rotatable around the roll shaft. In front of the shoulder joint 24, one pitch shaft joint 26, one yaw shaft joint 28, and one roll shaft joint 30 are connected in series. Therefore, in the robot 10 of this embodiment, the arm 22 has 4 degrees of freedom and 8 degrees of freedom on the left and right.

また、下横杆14の両端には、足32Rおよび32Lがそれぞれ取り付けられる。足32は、股関節の自由度を形成する1つのロール軸関節34によって下横杆14に取り付けられ、この股関節32から先の下端方向には、連続する3つのピッチ軸関節36、38および40、および1つのロール軸関節42、さらには1つのヨー軸関節44の直列接続が取り付けられる。したがって、この実施例のロボット10の場合、足32は、6自由度であり、左右で12自由度である。   In addition, legs 32R and 32L are attached to both ends of the lower lying heel 14, respectively. The foot 32 is attached to the lower recumbent joint 14 by one roll shaft joint 34 that forms a degree of freedom of the hip joint. In the lower end direction from the hip joint 32, three pitch shaft joints 36, 38 and 40, which are continuous, And a series connection of one roll shaft joint 42 and one yaw shaft joint 44 is attached. Therefore, in the case of the robot 10 of this embodiment, the foot 32 has 6 degrees of freedom and 12 degrees of freedom on the left and right.

このロボット10の電気的構成が図4のブロック図に示される。図4に示すように、このロボット10は、全体の制御のためにマイクロコンピュータまたはCPU(ロボットコンピュータ)48を含み、このロボットコンピュータ48には、バス50を通して、メモリ52,モータ制御ボード54,およびセンサ入力/出力ボード56が接続される。   The electrical configuration of the robot 10 is shown in the block diagram of FIG. As shown in FIG. 4, the robot 10 includes a microcomputer or CPU (robot computer) 48 for overall control. The robot computer 48 is connected to a memory 52, a motor control board 54, and a bus 50 through a bus 50. A sensor input / output board 56 is connected.

メモリ52は、図示しないが、ROMやRAMを含み、ROMにはこのロボット10の制御プログラムおよびデータが予め書き込まれていて、RAMは、一時記憶メモリとして用いられるとともにワーキングメモリとして利用され得る。   Although not shown, the memory 52 includes a ROM and a RAM, in which a control program and data for the robot 10 are written in advance. The RAM can be used as a temporary storage memory and a working memory.

センサ入力/出力ボード56には、図3の胴体16に設けられる1つの2軸加速度センサ58と、関節角度センサ60とが接続される。なお、関節角度センサ60は1つのブロックで示すが、実際には、上で説明した22個の関節にそれぞれ個別に設けられ、それぞれの関節角を検出する22個の関節角度センサを含む。2軸加速度センサ58は、ロボット10の前後方向および左右方向の2軸で加速度を検出することができる。この2軸加速度センサ58の出力を用いて、ロボットコンピュータ48は、ロボット10の2足歩行や反動起き上がり等を制御する。   To the sensor input / output board 56, one biaxial acceleration sensor 58 provided on the body 16 of FIG. 3 and a joint angle sensor 60 are connected. The joint angle sensor 60 is shown as one block, but actually includes 22 joint angle sensors that are individually provided for the 22 joints described above and detect the respective joint angles. The biaxial acceleration sensor 58 can detect acceleration with two axes in the front-rear direction and the left-right direction of the robot 10. Using the output of the biaxial acceleration sensor 58, the robot computer 48 controls the bipedal walking, reaction rise, and the like of the robot 10.

モータ制御ボード54は、たとえばDSP(Digital Signal Processor) で構成され、
各腕、各足、胸、腰の各関節軸モータ62を制御する。図4では図の簡略化のために、関節軸モータ62は1つのブロックで示すが、実際には、上で説明した22個の関節のそれぞれに1つのモータ(サーボモータ)が設けられ、それぞれの関節角度を制御する22個のモータを含む。
The motor control board 54 is composed of, for example, a DSP (Digital Signal Processor),
Each arm, each leg, chest and waist joint shaft motor 62 is controlled. In FIG. 4, the joint shaft motor 62 is shown as one block for simplification of the drawing, but in reality, one motor (servo motor) is provided for each of the 22 joints described above. It includes 22 motors that control the joint angle.

図1実施例の動作変換システム100が適用できるロボット10は、上で説明したように、かなり多い22個の自由度を持つものであるが、それでも人間の持つ自由度には到底及ばないので、このロボット10で人間の動作をそのまま真似させることはできない。一方、この発明が適用可能なロボットは上述のロボット10に限られる訳ではなく、そのようなロボットの中にはもっと自由度の少ないロボットもある。そこで、この実施例では、人間のジェスチャ(表現動作)を頭部,左手,右手および胴体の4つの部位の関係で記述することによって、自由度の少ないロボットにも適用できるようにした。   The robot 10 to which the motion conversion system 100 of FIG. 1 embodiment can be applied has a considerably large number of 22 degrees of freedom as described above, but it still does not reach the degree of freedom that humans have. The robot 10 cannot imitate human movements as they are. On the other hand, the robot to which the present invention can be applied is not limited to the robot 10 described above, and there is a robot with a lower degree of freedom among such robots. Therefore, in this embodiment, the human gesture (expression operation) is described by the relationship of the four parts of the head, the left hand, the right hand, and the torso, so that it can be applied to a robot with less flexibility.

なお、殆どの人間の動作(ジェスチャ)を頭部,左手,右手および胴体の4つの部位の関係だけで記述できることは、発明者等が、たとえばジェスチャ辞典などを解析することによって獲得した知見であり、この発明はそのような知見に基づいてなされたものである。   The fact that most human movements (gestures) can be described only by the relationship between the four parts of the head, left hand, right hand, and torso is a finding that the inventors have acquired by analyzing, for example, a gesture dictionary. The present invention has been made based on such knowledge.

図5のフロー図の最初のステップS1では、動作変換コンピュータ104(図1)は、図6に示す第1設定画面108を表示する。この設定画面108は図8に示す第2設定画面110と同様に、コンピュータ104のユーザに入力や選択動作を行わせるためのGUI(Graphical User Interface)である。   In the first step S1 of the flowchart of FIG. 5, the behavior conversion computer 104 (FIG. 1) displays the first setting screen 108 shown in FIG. This setting screen 108 is a GUI (Graphical User Interface) for allowing the user of the computer 104 to perform input and selection operations, similarly to the second setting screen 110 shown in FIG.

第1設定画面108はユーザがロボット動作への変換を希望する、人間の動作と、その動作を記述する2つの座標系を設定するためのGUIである。そのために、この設定画面108には、動作入力部112および、基準座標系入力部114および注目座標系入力部116が設けられる。動作入力部112では、いわゆるプルダウンメニューの形式で、変換したい動作、たとえば「手を振る」,「右を見る」,「左を見る」,「うなずく」などを選択的に入力できる。また、注目座標系とは、その動作を表現するために頭部,左手,右手および胴体の4つの座標系のうちどの座標系に注目するのかを示すもので、その動作を表現する部位(注目対象または制御対象)の座標系が選択される。ただし、その注目座標系だけでその中の位置を特定できるものではなく、基準となる座標系の中の位置との相対的な関係でのみ記述できるのであり、その基準となる座標系のことを基準座標系と呼ぶ。ただし、2つの座標系はいずれも、この実施例では3つの軸X,Y,Zを有する直交座標系である。そして、実施例では、上述のように、人間の動作を頭部,左手,右手および胴体の関係で記述するように簡素化しているため、これら2つの座標系入力部114および116では、いずれも、頭部,左手,右手および胴体の4つの座標系のいずれか1つを選択的に入力することになる。   The first setting screen 108 is a GUI for setting a human motion that the user desires to convert to a robot motion and two coordinate systems describing the motion. For this purpose, the setting screen 108 is provided with an operation input unit 112, a reference coordinate system input unit 114, and a target coordinate system input unit 116. The operation input unit 112 can selectively input an operation to be converted, for example, “waving hand”, “looking right”, “looking left”, “nodding”, in a so-called pull-down menu format. The attention coordinate system indicates which one of the four coordinate systems of the head, the left hand, the right hand, and the trunk is to be expressed in order to express the motion. The coordinate system of the target or control target) is selected. However, it is not possible to specify the position in the target coordinate system alone, it can be described only in the relative relationship with the position in the reference coordinate system. This is called a reference coordinate system. However, the two coordinate systems are both orthogonal coordinate systems having three axes X, Y, and Z in this embodiment. In the embodiment, as described above, since the human motion is simplified so as to describe the relationship between the head, left hand, right hand, and torso, these two coordinate system input units 114 and 116 are both Any one of the four coordinate systems of the head, the left hand, the right hand, and the torso is selectively input.

たとえば、「手を振る」という動作が選択されたとすると、注目対象または制御対象は右手か左手である。したがって、注目座標系としては「右手」または「左手」を設定するが、それの基準となる座標系は「胴体」しかないので、基準座標系としては「胴体」を選択する。たとえば、「うなずく」という動作を選択したときには、注目(制御)対象の座標系は当然「頭部」であり、それに対する基準座標系「胴体」となる。 For example, if the action of “waving hand” is selected, the attention object or the control object is the right hand or the left hand. Therefore, although “right hand” or “left hand” is set as the attention coordinate system, since the coordinate system that is the reference for it is only “body”, “body” is selected as the reference coordinate system. For example, when the operation “nodding” is selected, the coordinate system of interest (control) is naturally “head”, and the reference coordinate system for it is “body”.

そして、ステップS3で上のように動作や座標系がすべて選択または設定されたかどうか判断し、“NO”なら入力されるまで待ち、“YES”なら、次のステップS5に進む。   Then, in step S3, it is determined whether or not all the movements and coordinate systems have been selected or set. If “NO”, the process waits for input, and if “YES”, the process proceeds to next step S5.

ステップS5では、設定画面108の動作入力部112で設定された人間の動作を、基準座標系における注目座標系の位置Hpおよび向きHrの時間変化に変換する。したがって、位置Hp(t)および向きHr(t)によって、人間の注目対象部位の軌跡を表現することができ、このステップS5は、人間動作記述手段として機能する。   In step S5, the human motion set by the motion input unit 112 of the setting screen 108 is converted into temporal changes in the position Hp and the direction Hr of the target coordinate system in the reference coordinate system. Therefore, the locus of the target region of human attention can be expressed by the position Hp (t) and the direction Hr (t), and this step S5 functions as a human action description means.

基準座標系と注目座標系とが図7のように設定されているとすると、位置Hpとは、基準座標系の原点からみた注目座標系の原点の位置のことであり、3つの軸X,Y,Zの時間t(t=1,2,…n)ごとの位置xt,yt,ztとして、数1のように表現される。また、向きHrとは、基準座標系の向きをどのように変化させればその時間t毎の注目座標系の向きになるかを3つの角度φt,θt,γtとして、数1のように記述される。ただし、一例として、角度φは、たとえば鉛直回転軸(Z軸)に対する角度であり、角度θは、この鉛直軸に直行する2つの軸の一方(X軸)に対する角度であり、角度γは、他方の軸(Y軸)に対する角度である。   If the reference coordinate system and the target coordinate system are set as shown in FIG. 7, the position Hp is the position of the origin of the target coordinate system viewed from the origin of the reference coordinate system, and the three axes X, The position xt, yt, zt for each time t (t = 1, 2,..., N) of Y and Z is expressed as shown in Equation 1. Further, the direction Hr is described as shown in Equation 1, with three angles φt, θt, and γt indicating how the direction of the reference coordinate system is changed to become the direction of the target coordinate system for each time t. Is done. However, as an example, the angle φ is, for example, an angle with respect to the vertical rotation axis (Z axis), the angle θ is an angle with respect to one of the two axes (X axis) perpendicular to the vertical axis, and the angle γ is It is an angle with respect to the other axis (Y axis).

Figure 0004997419
Figure 0004997419

数1の位置Hpおよび向きHrはともに3次元ベクトルの時系列である。ステップS7では、人間のサイズとロボットのサイズとを揃えるために、数2に示すように、位置Hpと向きHrとを個々に「1」に正規化する。つまり、ステップS7は正規化手段として機能する。   Both the position Hp and the direction Hr in Equation 1 are time series of three-dimensional vectors. In step S 7, the position Hp and the direction Hr are individually normalized to “1” as shown in Equation 2 in order to match the human size and the robot size. That is, step S7 functions as normalization means.

Figure 0004997419
Figure 0004997419

dp0は最大移動量を表わす。ただし、数2におけるmax(xt)は、t1-tnまでの各時間毎の位置のうちの最大のxの値であることを意味していて、同様に、min(xt)は、t1-tnまでの各時間毎の位置のうちの最小のxの値であることを意味している。これはy値およびz値に付いても同様である。そして、最大角度dr0=πと設定しているのは、人間の関節は180°以上曲がらないので、その範囲に収めるためである。さらに、Mlは、人間の基準座標系のおよび注目座標系の原点間の最大の距離であり、いわば、人間が手を一番伸ばしたときその手が届く範囲(つまり、手の長さ)を表わす。   dp0 represents the maximum movement amount. However, max (xt) in Equation 2 means that it is the maximum value of x among the positions for each time up to t1-tn. Similarly, min (xt) is t1-tn. It means that it is the minimum value of x in the position for each time until. The same applies to the y value and the z value. The reason why the maximum angle dr0 = π is set is that the human joint does not bend by 180 ° or more, so that it falls within that range. Furthermore, Ml is the maximum distance between the origins of the human reference coordinate system and the coordinate system of interest, so to speak, the range that the hand can reach when the human reaches the maximum (that is, the length of the hand). Represent.

なお、正規化の方法は、数2による他、たとえば標準偏差を用いる方法でもよい。   The normalization method may be a method using standard deviation, for example, in addition to Equation 2.

続いて、ステップS9では、図8に示す第2設定画面110を表示する。この設定画面110は人間の動作をシミュレートすべきロボットとそのロボットにおいて設定すべき基準座標系と注目座標系とを設定または入力するためのGUIである。そのために設定画面110にはロボット入力部118およびスケルトン表示部120が形成される。ロボット入力部118では、変換動作を適用すべきロボットを、たとえばプルダウンメニューの形式で、たとえば「ロボビーM」(商品名),「ロボビーIV」(商品名),…の中から選択的に入力できる。先に説明した図1のロボットデータベース106の中には、このようなロボットの種類(型)毎にその軸配置すなわちスケルトンが登録されているので、スケルトン表示部120では、このロボットデータベース106から読み出したスケルトン図を表示する。そして、ユーザまたはオペレータは、そこに表示されたスケルトン上の位置をたとえばマウスやタッチパネルのようなポインティングデバイスで指示することによって、シミュレーションするロボットにおける注目座標系とそれのための基準座標系とを設定する。   Subsequently, in step S9, the second setting screen 110 shown in FIG. 8 is displayed. This setting screen 110 is a GUI for setting or inputting a robot to simulate human motion, a reference coordinate system to be set in the robot, and a target coordinate system. For this purpose, a robot input unit 118 and a skeleton display unit 120 are formed on the setting screen 110. The robot input unit 118 can selectively input the robot to which the conversion operation is applied, for example, in the form of a pull-down menu, for example, from “Roboby M” (product name), “Roboby IV” (product name),. . In the robot database 106 of FIG. 1 described above, the axis arrangement, that is, the skeleton is registered for each type (type) of such robot, so that the skeleton display unit 120 reads out from the robot database 106. Display a skeleton diagram. Then, the user or operator sets the attention coordinate system and the reference coordinate system for the robot to be simulated by indicating the position on the skeleton displayed there with a pointing device such as a mouse or a touch panel. To do.

そして、ステップS11では、これらのロボット上の2つの座標系が設定されルーチンまで待ち、それらが設定されると“YES”を判断して次のステップS13に進む。   In step S11, two coordinate systems on these robots are set and wait until the routine. If they are set, "YES" is determined and the process proceeds to the next step S13.

ステップS13では、数3に従って、正規化した人間の動作、すなわち人間の注目座標系の軌跡He(=Hpe,Hre)をロボットの動作、すなわちロボットの注目座標系(または制御対象)の軌跡Re(=Rpe,Rre)(Rpは位置、Rrは向き)に近似する。つまり、ステップS13は近似手段として機能する。   In step S13, the normalized human motion, that is, the trajectory He (= Hpe, Hre) of the human attention coordinate system is converted into the robot motion, that is, the trajectory Re ( = Rpe, Rre) (Rp is position, Rr is direction). That is, step S13 functions as an approximation means.

Figure 0004997419
Figure 0004997419

数3において、Rptは時間毎の注目座標系の位置であり、Rpt*はRptの重心であり、f,gは、ロボットの関節角度からロボットの注目座標系の位置(基準座標系からみた相対座標)へ変換する関数であり、ロボットの軸配置からきまるものである。このようにして、人間の動作すなわち注目対象の軌跡Heをロボットの注目対象の動作すなわち軌跡Reに近似する。   In Equation 3, Rpt is the position of the attention coordinate system for each time, Rpt * is the center of gravity of Rpt, and f and g are the positions of the robot's attention coordinate system based on the joint angle of the robot (relative to the reference coordinate system). This is a function to convert to (coordinates), and is derived from the robot axis arrangement. In this way, the human motion, ie, the trajectory He of interest, is approximated to the attention of the robot, ie, the trajectory Re.

そして、ステップS15において、αを正の実数で十分小さい数としたときに、最小2乗法を示す数4を満足する関節角度(φ1t,φ2t,…φnt)(t=1,2,…tn)があるかどうか判断する。 In step S15, when α is a positive real number that is sufficiently small, joint angles (φ 1t , φ 2t ,... Φ nt ) (t = 1, 2, ... tn) is determined.

Figure 0004997419
Figure 0004997419

ステップS15で“YES”が判断されるということは、ステップS13でした、人間動作Heのロボット動作Reへの近似が正しかったことを意味する。しかしながら、ステップS15で“NO”ということは数4の解が存在しなかったことを意味している。したがって、この場合には、別の方法でロボットの関節角度を決定してやる必要がある。   The determination of “YES” in step S15 means that the approximation of the human motion He to the robot motion Re in step S13 was correct. However, “NO” in step S15 means that the solution of Equation 4 does not exist. Therefore, in this case, it is necessary to determine the joint angle of the robot by another method.

そこで、ステップS17において、人間動作の軌跡Heを主成分分析する。
(a)まず、Heの共分散行列をAとし、その共分散行列Aの固有値(λi(i=1,…6),|λ1|>|λ2|>…>|λ6|))と対応する固有ベクトル(ψi(i=1,…6))を求める。
(b)ついで、すべての次数Ni(1≦Ni≦6)において、数5を最小にする角度(φ1t,Ni,φ2t,Ni,…φnt,Ni)と、最小値εNiとを求める。
In step S17, the human motion trajectory He is subjected to principal component analysis.
(A) First, let A be the covariance matrix of He and correspond to the eigenvalues (λi (i = 1,... 6), | λ1 |> | λ2 |>...> | λ6 |) of the covariance matrix A. The eigenvector (ψi (i = 1,... 6)) is obtained.
(B) Next, in all orders Ni (1 ≦ Ni ≦ 6), an angle (φ 1t, Ni , φ 2t, Ni ,... Φ nt, Ni ) that minimizes Formula 5 and a minimum value εNi are obtained. .

Figure 0004997419
Figure 0004997419

(c)そして、数6を満たす最大の次数Niを選び、角度(φ1t,Ni,φ2t,Ni,…φnt,Ni)を、ロボット動作に変換されたときの角度とする。つまり、人間動作Heに最大限似ている次数Nでのロボット動作Reのための関節角度を求める。 (C) Then, the maximum order Ni satisfying Equation 6 is selected, and the angles (φ 1t, Ni , φ 2t, Ni ,..., Φ nt, Ni ) are set as angles when converted into robot motion. That is, the joint angle for the robot motion Re at the order N that is maximally similar to the human motion He is obtained.

Figure 0004997419
Figure 0004997419

このようにして、ステップS13でうまく近似できなかった場合には、ステップS17において、人間動作Heの主成分分析を経て、必要なところだけを残した可能な限り類似するロボット動作Reのための関節角度を決定する。したがって、このステップS17もまた近似手段と呼ぶことができる。   In this way, when the approximation cannot be performed well in step S13, in step S17, the joint for the robot motion Re that is similar as much as possible is left through the principal component analysis of the human motion He. Determine the angle. Therefore, this step S17 can also be called an approximation means.

ステップS13でうまく近似できた場合でも、ステップS17で可及的近似した場合でも、関節可動範囲を表わすロボットの作業領域内に、その近似した軌跡Reがはいっているかどうか、つまり、その近似に従った関節角度φでロボットが動作し得るのかどうか、調べる。そのためには、コンピュータ104は、ロボットデータベース106からそのロボットの軸配置読み出して計算した関節角度φを代入してシミュレーションすればよい。そして、ステップS21でそのシミュレーションの過程をCG(Computer Graphics)ロボットを用いたアニメーションで表示し、可動範囲を越えた場所があればたとえばハイライト表示することによって、ユーザないしオペレータに注意を促す。 Whether the approximation is possible in step S13 or the approximation as possible in step S17, whether or not the approximated locus Re is in the work area of the robot representing the joint movable range, that is, according to the approximation. It is checked whether the robot can operate at the joint angle φ. To that end, the computer 104 may be simulated by substituting the joint angle φ calculated by reading the axis arrangement of the robot from the robot database 106. In step S21, the simulation process is displayed as an animation using a CG (Computer Graphics) robot, and if there is a place beyond the movable range, for example, highlighting is displayed to alert the user or operator.

そして、ステップS23において、図示しない適宜の調整用GUIを表示し、問題がある場合、たとえばステップS21でハイライト表示があったような場合、そのGUIを用いて部分的に調整できるようにしてもよい。たとえば、上記CGロボットの問題の箇所をドラックするなどしてハイライト表示を消す。   Then, in step S23, an appropriate adjustment GUI (not shown) is displayed, and if there is a problem, for example, if there is a highlight display in step S21, it is possible to make partial adjustment using the GUI. Good. For example, the highlight display is turned off by dragging the problematic part of the CG robot.

ただし、そのような部分的な調整で収まらない場合には、ステップS25で“NO”が判断され、プロセスは先のステップS9に戻され、たとえば、注目座標系および/または基準座標系を選び直して、ステップS9-S23繰り返すことになる。たとえば、人間では「右手を振る」という動作であったが、それがロボットの右手の動作として近似できなかったようなときは、ロボットの制御対象(注目対象)を左手に変更することによって近似できることがあるかも知れない。   However, if the partial adjustment does not fit, “NO” is determined in step S25, and the process returns to step S9, for example, to reselect the attention coordinate system and / or the reference coordinate system. Steps S9 to S23 are repeated. For example, if it was a human's action of shaking the right hand, but it could not be approximated as a robot's right hand movement, it could be approximated by changing the robot's control target (target object) to the left hand There may be.

そして、ステップS25の完成後は、ステップS27において、近似手段として機能するステップS13またはS17で求めかつ必要に応じてステップS23で調整した関節角度φをロボットの制御データとして設定することによって、ロボットの特定の部位(注目対象または制御対象)で人間の動作を再現させることができる。   After step S25 is completed, in step S27, the joint angle φ obtained in step S13 or S17 functioning as an approximation means and adjusted in step S23 as necessary is set as robot control data. Human motion can be reproduced at a specific part (attention target or control target).

具体的に図2に示すロボット10で「左手を振る」という動作を再現するためには、注目対象は左手の手のひらであり、図3に示すピッチ軸関節26L、ヨー軸関節28L、およびロール軸関節30Lのそれぞれの関節角度を、その左手の手のひらを制御するための関節角度φとしてステップS13またはステップS17で求めればよい。   Specifically, in order to reproduce the operation of “waving the left hand” with the robot 10 shown in FIG. 2, the target of attention is the palm of the left hand, and the pitch axis joint 26L, the yaw axis joint 28L, and the roll axis shown in FIG. What is necessary is just to obtain | require each joint angle of the joint 30L by step S13 or step S17 as joint angle (phi) for controlling the palm of the left hand.

図1はこの発明の一実施例の動作変換システムの構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a behavior conversion system according to an embodiment of the present invention. 図2はこの実施例に適用可能なロボットの一例を示す外観図である。FIG. 2 is an external view showing an example of a robot applicable to this embodiment. 図3は図2に示すロボットの軸配置(スケルトン)を示す図解図である。FIG. 3 is an illustrative view showing an axis arrangement (skeleton) of the robot shown in FIG. 図4は図2に示すロボットの電気的な構成を示すブロック図である。FIG. 4 is a block diagram showing an electrical configuration of the robot shown in FIG. 図5はこの実施例の動作を示すフロー図である。FIG. 5 is a flowchart showing the operation of this embodiment. 図6は第1設定画面の一例を示す図解図である。FIG. 6 is an illustrative view showing one example of a first setting screen. 図7は基準座標系と注目座標系との関係およびHpならびにHrを図解する図解図である。FIG. 7 is an illustrative view illustrating the relationship between the reference coordinate system and the target coordinate system, and Hp and Hr. 図8は第2設定画面の一例を示す図解図である。FIG. 8 is an illustrative view showing one example of a second setting screen.

符号の説明Explanation of symbols

10 …ロボット
100 …動作変換システム
102 …モーションキャプチャ
104 …動作変換コンピュータ
106 …ロボットデータベース
108 …第1設定画面
110 …第2設定画面
DESCRIPTION OF SYMBOLS 10 ... Robot 100 ... Motion conversion system 102 ... Motion capture 104 ... Motion conversion computer 106 ... Robot database 108 ... First setting screen 110 ... Second setting screen

Claims (5)

人間の動作を表現する部位である注目対象の動作をその注目対象に対応するロボットの制御対象の動作に変換する、ロボット用動作変換システムであって、
人間の動作に伴う各部位の位置データを入力する位置データ入力手段、
人間の頭部,左手,右手および胴体のうちの1つの部位を注目座標系とし、残りの1つの部位を基準座標系として、前記位置データに基づいて、前記基準座標系における前記注目座標系における位置および向きの時間変化を軌跡として記述する人間動作記述手段、および
前記人間動作記述手段で記述した前記人間の注目対象の軌跡を、前記ロボットの制御対象の軌跡に近似する近似手段を備える、ロボット用動作変換システム。
A robot motion conversion system that converts a motion of a target object that represents a human motion into a control target motion of a robot corresponding to the target target,
Position data input means for inputting position data of each part accompanying human movement,
Based on the position data, one part of the human head, left hand, right hand, and torso is used as a target coordinate system, and the remaining one part is used as a reference coordinate system in the reference coordinate system in the reference coordinate system. A robot comprising human motion description means for describing a temporal change in position and orientation as a trajectory , and approximating means for approximating the trajectory of the target of attention described by the human motion description means to the trajectory of the control target of the robot Motion conversion system.
前記人間動作記述手段で記述した前記軌跡を、前記位置および前記向きを個々に正規化することによって、正規化する正規化手段を備え、
前記近似手段は前記正規化手段で正規化した前記人間の注目対象の軌跡を前記ロボットの制御対象の軌跡に近似するようにした、請求項1記載のロボット用動作変換システム。
Normalizing means for normalizing the locus described by the human motion description means by normalizing the position and the orientation individually ;
The robot motion conversion system according to claim 1, wherein the approximating unit approximates the trajectory of the target of human attention normalized by the normalizing unit to the trajectory of the control target of the robot.
前記ロボットは前記制御対象の位置および向きを制御する複数の関節を有し、さらに
前記近似手段によって近似した前記ロボットの注目対象の軌跡に基づいて前記複数の関節の制御データを設定する制御データ設定手段をさらに備える、請求項2記載のロボット用動作変換システム。
The robot has a plurality of joints for controlling the position and orientation of the controlled object , and
The robot motion conversion system according to claim 2, further comprising control data setting means for setting control data for the plurality of joints based on the locus of attention of the robot approximated by the approximating means .
前記ロボットの関節角度範囲内で、前記近似した軌跡を実現できるかどうか判断する判断手段をさらに備え、
前記近似手段は、前記判断手段が否定的な判断をしたとき前記人間の注目対象の軌跡を主成分分析することによって、前記注目対象の軌跡に最大限似ている前記制御対象の軌跡のための関節角度を求める、請求項3記載のロボット用動作変換システム。
A judgment means for judging whether or not the approximate locus can be realized within a joint angle range of the robot;
The approximating means performs a principal component analysis of the trajectory of the human attention object when the determination means makes a negative determination, thereby obtaining a control object trajectory that is maximally similar to the trajectory of the attention object. The robot motion conversion system according to claim 3, wherein the joint angle is obtained .
前記近似手段によって近似した前記ロボットの注目対象の軌跡に基づいて前記ロボットの制御データを設定する制御データ設定手段をさらに備える、請求項記載のロボット用動作変換システム。 Further comprising motion conversion system for robot according to claim 1, wherein the control data setting means for the setting control data for the robot based on the trajectory of the object of interest of the robot approximated by said approximating means.
JP2005322140A 2005-11-07 2005-11-07 Robot motion conversion system Active JP4997419B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005322140A JP4997419B2 (en) 2005-11-07 2005-11-07 Robot motion conversion system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005322140A JP4997419B2 (en) 2005-11-07 2005-11-07 Robot motion conversion system

Publications (3)

Publication Number Publication Date
JP2007125670A JP2007125670A (en) 2007-05-24
JP2007125670A5 JP2007125670A5 (en) 2008-05-15
JP4997419B2 true JP4997419B2 (en) 2012-08-08

Family

ID=38148759

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005322140A Active JP4997419B2 (en) 2005-11-07 2005-11-07 Robot motion conversion system

Country Status (1)

Country Link
JP (1) JP4997419B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100995933B1 (en) * 2008-09-01 2010-11-22 한국과학기술연구원 A method for controlling motion of a robot based upon evolutionary computation and imitation learning
JP5465129B2 (en) * 2010-08-16 2014-04-09 本田技研工業株式会社 Robot and behavior control system
JP5737191B2 (en) * 2012-01-05 2015-06-17 トヨタ自動車株式会社 Biological motion assist device, control method thereof, and control program
WO2015020134A1 (en) * 2013-08-08 2015-02-12 国立大学法人京都大学 Method for generating control command based on body motion, and control command generation device
WO2016181959A1 (en) 2015-05-13 2016-11-17 国立研究開発法人産業技術総合研究所 Robot behavior generation method
US20230046827A1 (en) * 2020-03-05 2023-02-16 Fanuc Corporation Robot programming device and robot programming method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10133733A (en) * 1996-10-31 1998-05-22 Kokoro:Kk Method and device for teaching operation of amusement robot

Also Published As

Publication number Publication date
JP2007125670A (en) 2007-05-24

Similar Documents

Publication Publication Date Title
JP6678832B2 (en) Remote control manipulator system and control device
CN108762495B (en) Virtual reality driving method based on arm motion capture and virtual reality system
Riley et al. Enabling real-time full-body imitation: a natural way of transferring human movement to humanoids
Liu et al. High-fidelity grasping in virtual reality using a glove-based system
JP4997419B2 (en) Robot motion conversion system
WO2011065035A1 (en) Method of creating teaching data for robot, and teaching system for robot
WO2017199619A1 (en) Robot operation evaluation device, robot operation evaluation method, and robot system
JP2009276996A (en) Information processing apparatus, and information processing method
US11422625B2 (en) Proxy controller suit with optional dual range kinematics
KR20130090119A (en) Controlling apparatus and method for robot
JP7000253B2 (en) Force visualization device, robot and force visualization program
Maycock et al. Robust tracking of human hand postures for robot teaching
JP3559335B2 (en) 3D image processing device
JP2009087161A (en) Image processor and image processing method
JP4798581B2 (en) Robot system
KR20120048106A (en) Motion control system and method for robot
Ji et al. Motion trajectory of human arms based on the dual quaternion with motion tracker
JP2007011460A (en) Method for simulating displacement of object, device for simulating displacement of object, and inner force sense presentation device
KR101469851B1 (en) Multi-objective optimization-based approach for human posture prediction
Amir et al. Sensor based human arm motion and gesture replication system using MATLAB
CN117251058B (en) Control method of multi-information somatosensory interaction system
Grzejszczak et al. Selection of Methods for Intuitive, Haptic Control of the Underwater Vehicle’s Manipulator
KR101378752B1 (en) Mannequin robot and control method thereof
KR20190001842A (en) Performance evaluation system of multi-joint haptic device and performance evaluation method using the same
Yang et al. Online Retargeting for Multi-lateral teleoperation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080327

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120327

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120409

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4997419

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150525

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250