JP5141876B2 - 軌道探索装置 - Google Patents
軌道探索装置 Download PDFInfo
- Publication number
- JP5141876B2 JP5141876B2 JP2007236561A JP2007236561A JP5141876B2 JP 5141876 B2 JP5141876 B2 JP 5141876B2 JP 2007236561 A JP2007236561 A JP 2007236561A JP 2007236561 A JP2007236561 A JP 2007236561A JP 5141876 B2 JP5141876 B2 JP 5141876B2
- Authority
- JP
- Japan
- Prior art keywords
- trajectory
- motion
- trajector
- primitive
- primitives
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Manipulator (AREA)
Description
関連する先行技術文献として、以下の非特許文献が挙げられる。
Iwahashi, N.: Robots That Learn Language: Developmental Approach to Human-Machine Conversations, Symbol Grounding and Beyound: Proceedings of the Third International Workshop on the Emergence and Evolution of Linguistic Communication (Vogt, P. et al.(eds.)), Springer, pp 143-167 (2006). 羽岡哲郎, 岩橋直人:「言語獲得のための参照点に依存した空間的移動の概念の学習」, 信学技報, PRMU2000-105, pp.39-46 (2000). Tokuda,K., Kobayashi, T. and Imai, S. Speech parameter generation from HMM using dynamic features,Procceedings of International Conference in Acoustics, Speech, and Signal Processing, pp.660-663 (1995).
例えば、工場内で多数の部品を種別毎に仕分けして所望の宛先の生産ラインに送り出すという作業をロボットに学習させて自動化を図る場合、そのような配送には様々なパターンが存在するため、ユーザは多数の動作プリミティブを学習させておく必要があり、個々の作業についてカメラの前で実演を行うという手間で、多くの工数が発生する。これでは、日々に厳しい生産スケジュールに追われる生産現場において、実用化は不可能であり、見真似学習の応用はせいぜいおもちゃや遊戯施設のアトラクション程度に限られてしまう。結果として応用範囲が閉ざされてしまうという問題がある。
前記尤度が最大となる軌道で表される動作を、前記駆動装置が行う前に、ユーザに確認を求め、ユーザが同意しなかった場合には前記軌道を出力しないとすることができる。軌道探索装置が探索した最尤軌道を駆動装置に動作させる前に、ユーザに確認させることにより、意図せぬ危険な動作を事前に防ぐことができる。
各モードの構成の具体的説明に入る前に、本明細書で用いられる用語等の概念を説明しておく。
ロボットが行う動作には、「歩く」、「飛ぶ」、「回る」のように物を操作しない動作と、図2の(a)「ペンをあげる」、(b)「ペンを箱にのせる」、(c)「ペンに箱をとびこえさせる」のように物を操作する動作とがある。実際に、ロボットに何か仕事をさせることを考えると、物を操作しない動作よりも物を操作する動作の方がはるかに有用であるので、ここでは、物を操作する動作を学習させることを考える。認知言語学では、外部世界を解釈する主体のプロセスにおいて焦点化される存在のうち、相対的に際立って認知される対象をトラジェクタ、これを背景的に位置付けるオブジェクトをランドマークと呼ぶ。物を操作する動作においては、動作の対象となり移動する物がトラジェクタ、それ以外の物がランドマークとなる。図2の例では、「ペン」がトラジェクタであり、「箱」がランドマークである。
《学習モードの構成》
本節では、マニピュレータ制御システムの学習モードの構成について説明する。
動作の学習は、ユーザが命令を発し、ロボットに行って欲しい動作を何度も実演することでなされる。例えば、「のせる」という動作を学習させる場合、「ペンを箱にのせる」、「人形を棚にのせる」、「赤い箱を青い箱にのせる」など「のせる」動作を何度も見せ、ロボットはそれらの動作を一般化することで学習する。これは、入力映像から、トラジェクタの運動および静止オブジェクトの位置を抽出し、トラジェクタの運動を一般化するように座標軸とその原点を探索し、トラジェクタの運動を与える確率モデルを決定することでなされる。
「緑の箱を赤い箱にのせる」という動作を実演した例である。どちらも「のせる」という動作の実演ではあるが、目標位置、動きの方向に違いがある。しかし、どちらも動きの方向は目標位置に近付ける方向であるという点では共通している。
〈確率モデル〉
ここで、動作の確率モデルによる表現について説明しておく。動作は、トラジェクタの運動であり、トラジェクタの位置、速度、加速度の時間的変化で表すことができる。しかし、動作をトラジェクタの位置、速度、加速度の時間的変化で特定してしまうと、動作のもつ曖昧さが失われてしまう。例えば、人は「ペンをあげる」という動作を行う場合、「ペン」の座標の鉛直成分が時間とともに大きくなるような軌跡を描くが、途中のある時刻に必ず特定の位置まで上昇していなければならいという制約はないし、水平方向に多少のぶれがあっても、「あげる」という動作の範疇を越えることにならない。このような曖昧さを加味して、ある時刻にトラジェクタがある位置を中心とするある範囲内の状態に存在している確率と、状態間の遷移確率を与えることで、トラジェクタの運動を表現したモデルが確率モデルである。
図5は、確率モデルλのデータ構造を示した図である。確率モデルλは、各時刻t_sに状態sにある確率分布を与えるパラメータの列と、状態間の遷移確率とで定義されている。各時刻t_sにおけるパラメータは、位置x_s、速度x'_s、加速度x''_sのそれぞれについての平均Eおよび分散Vで構成されている。位置の平均を(p,q,r)、速度の平均を(v_p,v_q,v_r)、加速度の平均を(a_p,a_q,a_r)、位置の分散を(V_p,V_q,V_r)、速度の分散を(V'_p,V'_q,V'_r)、加速度の分散を(V''_p,V''_q,V''_r)とおく。これらのパラメータのうち、位置に関しては、図4の楕円体で示した通りである。
〈軌道探索装置300の学習モードにおける内部構成〉
図6は、本実施形態の軌道探索装置300の学習モードにおける内部構成を示す図である。本実施形態の軌道探索装置300は、入出力インターフェース1、データベース格納部2、プロセッサ3、ワークメモリ4、プログラム格納部5から構成される。データベース格納部2は学習結果を記憶するためのハードディスク等の記録装置であり、ワークメモリ4は演算を行うためのRAMであり、プログラム格納部5は学習プログラムおよび軌道探索プログラムを記録したROMである。
〈確率モデルを用いた動作の学習の定式化〉
本節では、学習の定式化について説明する。
トラジェクタの軌道を数値化するためには、座標系の原点と座標軸の向きを決めることが必要である。座標系の原点は、軌道を数値化する上での基準となるので、参照点と呼ぶ。参照点はランドマークの中から選ばれる。ランドマークは、静止オブジェクトの位置集合O_i、および、トラジェクタの初期位置x_0、映像の中心位置からなる集合をL_i={l^(i)_1,l^(i)_2,...,l^(i)_M_i}である。ここで、M_iは、映像V_iにおけるランドマークの数である。座標軸の向きkは、予め用意されたK種類の候補から選択する。座標軸の具体的なとり方については後述する。
この問題は、例えば、確率モデルとしてHMMを用いることで解くことができる。解法の詳細は、非特許文献2に示されている。
《動作プリミティブの学習》
本節では、いくつかの動作プリミティブを学習させたときの学習結果の具体例を示す。学習させた動作プリミティブは、「あげる」、「ちかづける」、「はなす」、「まわす」、「のせる」、「さげる」、「とびこえさせる」の7種類である。座標系のとり方としては、次のK=3種類を採用した。
k_1:ランドマークを原点とし、鉛直下向きにy軸、水平方向にx軸をとり、トラジェクタの初期位置のx座標が負になるようにx軸の向きを決めた座標系。
k_3:トラジェクタの初期位置を原点とし、鉛直下向きにy軸、水平方向にx軸をとった座標系。
図7に、それぞれの動作プリミティブを学習させたときにユーザが実演した動作の軌道と、そのときに選択された座標系kおよび、参照点lを示す。図7における(a)から(g)は、上の7種類のそれぞれの動作プリミティブごとの学習結果を示している。
《軌道探索モードの構成》
本節では、本実施形態の軌道探索装置300の軌道探索モードにおける内部構成について説明する。
図8は、本実施形態の軌道探索装置300の軌道探索モードにおける内部構成である。これは、図6で示した学習モードのおける構成と基本的に同じであるが、プロセッサ3が実行するプログラムが異なるため、入出力されるデータ、および、ワークメモリ4で展開される演算内容が異なる。
〈確率モデルの結合〉
本節では、学習した動作プリミティブを表す確率モデルを結合し、結合確率モデルの下で軌道を探索する方法の具体的処理内容ついて説明する。
1.トラジェクタの初期位置x_0と目標位置x_nを入力として、最も尤度の高い〈動作プリミティブ、ランドマーク〉の組の列からなる動作列A*と軌道Y*を探索する。
2.トラジェクタと〈動作プリミティブ、ランドマーク〉の組の列からなら動作列Aを入力として、最も尤度の高い軌道Y*を探索する。
軌道探索法1は、「ペンをここにもってくる」のように、ユーザがトラジェクタと目標位置を指定して命令した場合に採用される。トラジェクタの初期位置は、トラジェクタを指定すれば画像認識エンジン200によって特定される。この場合は、動作列と軌道の両方の探索を行う。
動作プリミティブの学習では、各動作プリミティブごとに座標系が決められるので、異なる動作プリミティブを結合するにあたって座標系を統一する必要がある。例えば、図9のように、「あげる」という動作プリミティブと、「ちかづける」という動作プリミティブを結合し、「ぬいぐるみ」を「だるま」の左上位置に近付ける動作を生成する場合を考える。図9(a)は、「あげる」という動作プリミティブを表す確率モデルλ_1を示しており、これは、トラジェクタの初期位置を参照点とし、水平方向にx軸、鉛直上向きにy軸をとった座標系で定義されている。図9(b)は、「ちかづける」という動作プリミティブを表す確率モデルλ_2を示しており、これは、トラジェクタを近付ける対象となるランドマークの位置を参照点とし、参照点からトラジェクタの初期位置に向かう方向にx軸、それに直交する方向にy軸をとった座標系で定義されている。この2つの動作プリミティブから、「あげてから、ちかづける」という結合動作を生成するためには、図9(c)のように、「あげる」という動作プリミティブの終点が「ちかづける」という動作プリミティブの始点に一致し、「ちかづける」という動作プリミティブの終点が「だるま」の左上位置に一致するように座標変換するように、「ちかづける」という動作プリミティブの定義されている座標系を座標変換する必要がある。
今、動作列Aがn個の動作プリミティブを結合することで生成され、それぞれの動作プリミティブは確率モデルλ_i(i=1,2,...,n)で表されるものとする。動作列Aに含まれる動作プリミティブのそれぞれの座標系で定義された確率モデルの列をΛ=(λ_1,λ_2,...,λ_n)と書く。
〈平均の結合〉
まず、平均の結合について説明する。
次に分散の結合について説明する。分散は平均からのばらつきを示すパラメータであり、トラジェクタが描く軌道のゆらぎを与える。複数の動作プリミティブを結合するにあたって、各動作プリミティブが静止オブジェクトに対して相対的な動作かそうでないかによって、軌道のゆらぎの許容範囲は変わる。すなわち、静止オブジェクトに対して相対的な動作の場合は、静止オブジェクトとの位置関係をある程度正確に保つ必要があるのに対して、そうでない動作の場合は、多少軌道の位置がずれていても問題になることはない。このような理由から、分散の結合においては、結合する動作が静止オブジェクトに依存していない場合は、位置に関する分散を拡大するように結合する。こうすることで、結合動作による滑らかな軌道を生成することができる。
〈確率モデルの結合〉
上述した確率モデルの結合を模式的に表すと図10から図12のようになる。
〈最尤軌道の探索〉
最尤軌道の探索は、結合確率モデルΛ'の下で、トラジェクタが軌道Yを描く確率を尤度P(Y;Λ')とし、その対数尤度が最大となるように、確率モデルΛ'*と軌道Y*を決定することでなされる。これを式で表すと、(数8)である。この解は、非特許文献3で提案されている最適化法によって求めることができる。
《目標位置を指定した移動指示》
図16は、目標位置を指定してトラジェクタの移動を指示した場合に、本実施形態の軌道探索装置により探索された最尤軌道の例をいくつか示してある。この場合は、軌道探索法1に従い、最尤軌道と最尤動作列を探索する。図16において、トラジェクタは1であり、2から5の静止オブジェクトがある空間において、(a)から(g)で示した目標位置に移動するよう指示した場合に、探索された最尤軌道がそれぞれ点線で示されている。図17は、これらの最尤軌道を与える動作列を示している。
《動作列を指定した移動指示》
図18は、動作列を指定してトラジェクタの移動を指示した場合に、本実施形態の軌道探索装置により探索された最尤軌道の例をいくつか示してある。この場合は、軌道探索法2に従い、与えられた動作列を表す結合確率モデルの下で、最尤軌道の探索を行う。図18(a)は、「オブジェクト1を、オブジェクト2をとびこえさせてから、さげて、オブジェクト4にちかづける」と命じた場合に探索された最尤軌道である。図18(b)は、「オブジェクト2を、オブジェクト1をとびこえさせ、再びオブジェクト1をとびこえさせ、オブジェクト5にのせる」と命じた場合に探索された最尤軌道である。
《マニピュレータ制御システムの動作》
本節では、本実施形態の軌道探索装置を用いたマニピュレータ制御システムの軌道探索モードにおける動作を、図19のフローチャートを参照しながら説明する。
《確率モデルの結合方法》
本節では、本実施形態の軌道探索装置の軌道探索モードにおける確率モデルの結合方法を、図20のフローチャートを参照しながら説明する。
まず、位置に関する平均および分散の初期値として、E_x_S_0(λ_0)=x_0、V_x_S_0(λ_0)=0とする(ステップS201)。ここで、x_0はトラジェクタの初期状態における位置である。
状態を示すインデックスsが、処理中の確率モデルλ_jで表される動作プリミティブの最終状態を示すインデックスS_jより大きくなければ(ステップS210 N)、sをインクリメントして(ステップS211)、ステップS208に戻る。状態を示すインデックスsが、処理中の確率モデルλ_jで表される動作プリミティブの最終状態を示すインデックスS_jより大きければ(ステップS210 Y)、状態に関するループを抜け、ステップS212に進む。
以上が、本実施形態の軌道探索装置の軌道探索モードにおける確率モデルの結合方法である。
200:画像認識エンジン
300:軌道探索装置
400:制御装置
500:マニピュレータ
1:入出力インターフェース
2:データベース格納部
3:プロセッサ
4:ワークメモリ
5:プログラム格納部
Claims (9)
- トラジェクタを移動するための軌道の探索を行う軌道探索装置であって、
トラジェクタを移動するための駆動装置が行い得る動作プリミティブを含んだトラジェクタの移動指示をユーザから受け付ける受付手段と、
前記受付手段で受け付けたユーザからの指示に含まれる動作プリミティブからなる動作列を生成して、生成された動作列の範囲内で、最尤軌道の探索を行う探索手段とを備え、
駆動装置が行い得る各々の動作プリミティブは、ロボットが行い得る基本的動作であり、ユーザの実演によるトラジェクタの軌跡をキャプチャして、その軌跡を確率モデルによってモデル化することで生成され、
前記確率モデルは、トラジェクタの状態が時間経過と共にどのように遷移すべきかを、時点毎の確率分布と状態間の遷移確率を用いて定義したモデルであり、
前記探索手段による軌道探索は、
前記動作列について、動作プリミティブを表す確率モデルの結合を行い、結合により得られた結合確率モデルの下で、尤度が最大となる軌道の探索を行い、
前記トラジェクタの移動指示は、動作プリミティブの動作名とランドマークの組みを複数含み、前記探索手段による確率モデルの結合の対象となる動作プリミティブは、移動指示に含まれる複数の動作名に対応した動作プリミティブである
ことを特徴とする軌道探索装置。 - 動作プリミティブを表す確率モデルの結合は、
動作列の2番目以降に実行すべき動作プリミティブの各状態におけるトラジェクタの位置、速度、加速度の平均を、その状態におけるトラジェクタの位置、速度、加速度の平均と、その動作プリミティブの初期状態におけるトラジェクタの位置の平均と、直前の動作プリミティブの最終状態における位置の平均とを用いて算出される
ことを特徴とする請求項1記載の軌道探索装置。 - 前記軌道探索装置は、
トラジェクタの軌道をキャプチャするキャプチャ手段と、
駆動装置が動作する空間に配置されている静止オブジェクトの認識を行う認識手段とを備え、
動作プリミティブを表す確率モデルの結合は、
結合の対象となる動作プリミティブの基準となる参照点が、認識した静止オブジェクトの位置の何れかに合致するか否かの判定を行い、
動作プリミティブの基準となる参照点が、認識した静止オブジェクトの位置の何れかに合致すれば、前記結合において、動作列の2番目以降に実行すべき動作プリミティブの各状態における分散を、その動作プリミティブの各状態における分散とし、
動作プリミティブの基準となる参照点が、認識した静止オブジェクトの位置の何れにも合致しなければ、前記結合において、動作列の2番目以降に実行すべき動作プリミティブの各状態における分散を、その動作プリミティブの各状態における分散と、その直前の動作プリミティブの最終状態における分散との和とすることでなされる
ことを特徴とする請求項1記載の軌道探索装置。 - トラジェクタの移動指示には、トラジェクタの初期位置と目標位置とを含み、
前記探索手段は、トラジェクタの初期位置から目標位置までの経路に対応する動作プリミティブの動作列を複数生成して、それらの動作列毎に、確率モデルの結合を行う
ことを特徴とする請求項1記載の軌道探索装置。 - トラジェクタの移動指示は、動作プリミティブの動作名とランドマークの組みを複数含み、
前記探索手段による確率モデルの結合の対象となる動作プリミティブは、
移動指示に含まれる複数の動作名に対応した動作プリミティブである
ことを特徴とする請求項1記載の軌道探索装置。 - 前記結合において、
結合対象となる2つの確率モデルが定義されている座標系を統一するように座標変換を行う
ことを特徴とする請求項2記載の軌道探索装置。 - 前記座標変換は、
直前の動作プリミティブを表す確率モデルが定義されている座標系に対して、当該動作プリミティブを表す確率モデルが定義されている座標系をアフィン変換することでなされる
ことを特徴とする請求項6記載の軌道探索装置。 - 前記動作プリミティブを表す確率モデルは、
ユーザが実演した動作に基づいて決定される
ことを特徴とする請求項1記載の軌道探索装置。 - 前記尤度が最大となる軌道で表される動作を、前記駆動装置が行う前に、ユーザに確認を求め、
ユーザが同意しなかった場合には前記軌道を出力しない
ことを特徴とする請求項1記載の軌道探索装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007236561A JP5141876B2 (ja) | 2007-09-12 | 2007-09-12 | 軌道探索装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007236561A JP5141876B2 (ja) | 2007-09-12 | 2007-09-12 | 軌道探索装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009066692A JP2009066692A (ja) | 2009-04-02 |
JP5141876B2 true JP5141876B2 (ja) | 2013-02-13 |
Family
ID=40603498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007236561A Expired - Fee Related JP5141876B2 (ja) | 2007-09-12 | 2007-09-12 | 軌道探索装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5141876B2 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5489965B2 (ja) | 2009-12-24 | 2014-05-14 | 本田技研工業株式会社 | 行動制御システムおよびロボット |
EP2637594A4 (en) * | 2010-11-11 | 2015-05-06 | Univ Johns Hopkins | ROBOT SYSTEMS FOR HUMAN MACHINE COLLABORATION |
JP5908350B2 (ja) * | 2012-06-21 | 2016-04-26 | 本田技研工業株式会社 | 行動制御システム |
JP6908286B2 (ja) * | 2016-09-06 | 2021-07-21 | 国立大学法人電気通信大学 | 情報処理装置、情報処理方法およびプログラム |
JP6705977B2 (ja) * | 2017-01-31 | 2020-06-03 | 株式会社安川電機 | ロボットパス生成装置及びロボットシステム |
JP6933167B2 (ja) * | 2018-03-14 | 2021-09-08 | オムロン株式会社 | ロボットの制御装置 |
JP7132761B2 (ja) * | 2018-06-13 | 2022-09-07 | 株式会社トヨタプロダクションエンジニアリング | 動作素片作成装置、動作素片作成方法、及び動作素片作成プログラム |
WO2020136704A1 (en) * | 2018-12-25 | 2020-07-02 | Nec Corporation | Information processing apparatus, method, and program |
JP2021094677A (ja) * | 2019-12-19 | 2021-06-24 | 本田技研工業株式会社 | ロボット制御装置、ロボット制御方法、プログラム及び学習モデル |
DE102020207085A1 (de) * | 2020-06-05 | 2021-12-09 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum steuern eines roboters und robotersteuereinheit |
CN112276947B (zh) * | 2020-10-21 | 2021-06-15 | 乐聚(深圳)机器人技术有限公司 | 一种机器人动作模仿方法、装置、设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4463120B2 (ja) * | 2005-01-17 | 2010-05-12 | 独立行政法人理化学研究所 | 身まねロボットシステムとその身まね動作制御方法 |
-
2007
- 2007-09-12 JP JP2007236561A patent/JP5141876B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009066692A (ja) | 2009-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5141876B2 (ja) | 軌道探索装置 | |
KR20210057611A (ko) | 이미지 데이터에 포함된 객체를 인식하는 인공 지능 장치 및 그 방법 | |
Fujii et al. | Gesture recognition system for human-robot interaction and its application to robotic service task | |
CN114516060A (zh) | 用于控制机器人装置的设备和方法 | |
Rickert et al. | Integrating language, vision and action for human robot dialog systems | |
Zhou et al. | Advanced robot programming: A review | |
Bischoff et al. | Integrating vision, touch and natural language in the control of a situation-oriented behavior-based humanoid robot | |
Zhang et al. | A two-arm situated artificial communicator for human-robot cooperative assembly | |
Liu et al. | Vision AI-based human-robot collaborative assembly driven by autonomous robots | |
CN113927593B (zh) | 基于任务分解的机械臂操作技能学习方法 | |
Bommi et al. | Speech and gesture recognition interactive robot | |
Kulecki | Intuitive robot programming and interaction using RGB-D perception and CNN-based objects detection | |
CN113326876A (zh) | 一种通过强化学习训练书法机器人的方法 | |
Lu et al. | System of robot learning from multi-modal demonstration and natural language instruction | |
Vanc et al. | Controlling robotic manipulations via bimanual gesture sequences | |
Sofge et al. | Collaborating with humanoid robots in space | |
Halder et al. | Natural Interaction Modalities for Human-CPS Interaction in Construction Progress Monitoring | |
KR102644164B1 (ko) | 단위행동 딥러닝 모델의 학습 방법과 이를 이용한 로봇 제어 방법 | |
CN118744425A (zh) | 一种基于多模态大模型的工业机器人装配方法与系统 | |
WO2021171558A1 (ja) | 制御装置、制御方法及び記録媒体 | |
Nakajo et al. | Acquisition of viewpoint transformation and action mappings via sequence to sequence imitative learning by deep neural networks | |
WO2024219466A1 (ja) | ロボットシステム、ロボット制御方法、ロボット制御プログラム、およびプログラム生成システム | |
Priyadarshana et al. | Voice Controlled Robot Manipulator for Industrial Applications | |
Neo et al. | A natural language instruction system for humanoid robots integrating situated speech recognition, visual recognition and on-line whole-body motion generation | |
US20240300096A1 (en) | System and Method for Controlling a Robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100729 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20100729 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120319 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120327 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120501 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121016 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121106 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151130 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5141876 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |