JP5092711B2 - 物体認識装置およびロボット装置 - Google Patents
物体認識装置およびロボット装置 Download PDFInfo
- Publication number
- JP5092711B2 JP5092711B2 JP2007303501A JP2007303501A JP5092711B2 JP 5092711 B2 JP5092711 B2 JP 5092711B2 JP 2007303501 A JP2007303501 A JP 2007303501A JP 2007303501 A JP2007303501 A JP 2007303501A JP 5092711 B2 JP5092711 B2 JP 5092711B2
- Authority
- JP
- Japan
- Prior art keywords
- vertex
- model
- corresponding point
- group
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
(1)頂点の三次元位置と頂点間を結び物体の表面を表す情報からなる三次元形状データを読み込み、モデルの頂点に対して物体の局所的な表面形状を表す特徴量を作成するモデル入力手段と、
(2)実際の環境をセンサで計測して距離データを取得し、物体の表面情報を作成するシーン計測手段と、
(3)シーン頂点に対して物体の局所的な表面形状を表す特徴量を作成し、シーン頂点の特徴量とモデル頂点の特徴量の類似度を算出し、類似度がしいき値よりも高いペアが存在したら、それらシーン頂点とモデル頂点を対応点ペアCi(iは、初期値1、最大値nの自然数)とする対応点ペア作成手段と、
(4)対応点ペアCiを含むグループGi(iは、初期値1、最大値nの自然数)を作成し、グループGiに含まれている全ての対応点ペアとの関係で幾何学的一貫性を有する他の対応点ペアをグループGiに追加する処理を繰り返し、全ての対応点ペアを基準にグループを作成するグループ化手段と、
(5)グループGiに含まれる対応点ペアに基づき、モデルとシーンの対応点間の距離を最小にする座標変換式Tiを算出し、座標変換式Tiにしたがってモデルを移動させた結果をグループGiが示す物体の初期位置姿勢とし、グループGiに含まれるモデル頂点に隣接するモデル頂点に対して、最近傍のシーン頂点を見つけ、そのモデル頂点とシーン頂点の間の距離がしきい値以下ならば、その対応点ペアをグループGiに追加する処理を繰り返し、繰り返した後にグループ内の対応点ペアの数がしきい値よりも多ければグループGiから得られる位置姿勢に物体が存在すると判定し、この処理を全てのグループGiに対して実行して計測データ内に存在する0個以上の物体の位置姿勢を決定する一致度検証手段、を備えることにある。
「モデル」とは、認識すべき対象物体の三次元形状データを言う。三次元位置を持った点群と、点を結び物体の表面を表す三角メッシュから構成される。
「シーン」とは、実際の環境をサンプリングした三次元形状データを言う。距離センサによる計測データから生成される。モデルと同様に点群と三角メッシュから構成される。
「スピンイメージ」とは、三次元形状データの表面の任意の点で生成可能な、その点の周辺の三次元形状特徴を表す特徴量である。
本発明において、自己位置とは、計測位置を意味し、例えば、3Dセンサ41の外界における6自由度の位置と姿勢を意味する。
図示しないが、本発明において、距離センサ(3Dセンサ)以外のオドメータ、カメラ、GPS、姿勢センサを、必要に応じてオプションとして用いても良い。以下、距離センサを用いた例を説明する。
外部記憶装置33は、ハードディスク、フロッピー(登録商標)ディスク、磁気テープ、コンパクトディスク等である。外部記憶装置33は、環境モデルのサイズが大きく後述する内部記憶装置34に入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の全体を保持できない場合には、環境モデルの一部範囲または全体範囲に対する、入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の一部または全体を記憶し、かつ本発明の方法を実行するためのプログラムを記憶する。また、外部記憶装置33は、後述するCADモデルデータを記憶する。
内部記憶装置34は、例えばRAM,ROM等であり、環境モデルの一部範囲または全体範囲に対する、入力された三次元形状上の座標値、ボクセル位置、及び代表点とその誤差分布の一部または全体を保管し、かつ演算情報を保管する。
中央処理装置35(CPU)は、モデル入力手段、シーン計測手段、対応点ペア作成手段、グループ化手段、一致度検証手段として機能し、演算や入出力等を集中的に処理し、内部記憶装置34と共に、プログラムを実行する。
ロボット制御部45は、物体認識処理部42から受け取る物体の位置や姿勢に基づいてロボットのアームやハンドの動きを制御する。
まず、スピンイメージについて説明する。
スピンイメージとは、三次元形状データの表面の任意の点で生成可能な、その点の周辺の三次元形状特徴を表す、回転不変な特徴量である。
図3に、CADデータとスピンイメージの例を示す。三角メッシュで構成されるデータのスピンイメージを生成する際は、三角メッシュの頂点ごとに生成する。
モデルの頂点Aのスピンイメージと、シーンの頂点Bのスピンイメージが似ているということは、その周辺の表面形状が似ていることを意味している。これは、モデルとシーンを照合する際、点Aと点Bが対応する可能性があることを示している。
三角メッシュで構成されるデータの頂点Pのスピンイメージを作成する場合、まず、頂点Pの法線を中心軸とした円筒座標系を考える。円筒座標系では、法線までの距離をα、法線方向の変移をβとする。
図4に円筒座標系のイメージを示す。頂点Pの周辺の頂点をα、βの二次元平面(スピンマップと呼ぶ)にプロットすることでスピンイメージを作成する。その際、α、βをある分解能で量子化し、枠内に存在する頂点数を輝度に変換する。
[1.2]類似度算出
スピンイメージは回転不変なデジタル二次元画像として表されるので、正規化相関などの画像比較手段により、類似性を評価できる。
ただし、シーンのスピンイメージを作成する場合、物体の隠れにより本来値が存在する画素の値がゼロとなることや、乱雑な背景により本来値がゼロとなる画素に値が入力されてしまうことがある。したがって、2つのスピンイメージを比較する際、共通して値がゼロでない画素(以下、「重なりがある画素」と表現する。)を比較するよう制限する。
スピンイメージPとQの類似度C(P,Q)を算出するために、まず、正規化相関係数R(P,Q)を算出する。
数1に正規化相関係数R(P,Q)の算出式を示す。ただし、この正規化相関において対象となるのは、重なりがある画素のみである。
pi:スピンイメージPのi番目の画素の値
qi:スピンイメージQのi番目の画素の値
単純にこの正規化相関係数R(P,Q)を類似度としてしまうと、重なりが少ないほど類似度が高くなってしまう。例えば、PとQで重なりがある画素が1画素しかない場合、その画素の値が一致すれば、類似度は最高値となってしまう。そこで、重なりがある画素が多いほど類似度が高くなるよう、重み付けを行うことが妥当である。
(1)モデル入力:ステップS10
認識対象物体のモデルを読み込み、モデルのスピンイメージを作成するなどの事前準備を実施する。本処理は、計測のたびに実施する必要はない。例えば対象物体が決まっている場合は、システム起動時に一回だけモデル入力を行うことになる。
実際の環境をセンサで計測して距離データを取得し、三角メッシュ作成処理や法線算出処理を行い、シーンを作成する。
モデルとシーンのスピンイメージの類似度から、モデル頂点とシーン頂点のペアである対応点ペアを複数作成する。
複数ある対応点ペアの中から、同時に成立することが可能な対応点ペアをまとめ、一つのグループとする。全ての可能なグループを作成する。
グループごとに座標変換を行ったとき、モデルとシーンの表面がどの程度一致するかを評価して、グループの検証を行う。
一連の物体認識処理(オンライン処理)を実施した後、得られた物体の位置姿勢を外部機器に通知する。例えば、ロボットアームを対象物体の把持位置に移動させる、などの処理を行う。
[モデル入力]
図6に本発明の実施形態に係るモデル入力処理フローを示す。
対象物体の三次元形状データを入力する。例えば、三次元形状データ表現形式の一つであるPLY形式のファイルを読み込む。PLYファイルは、頂点の三次元位置と、頂点間を結び物体の表面を表す三角メッシュ情報から成る。
図7に本発明の実施形態に係るPLY形式のファイルの例を示す。
図8に本発明の実施形態に係るPLYファイルをCADソフトで表示した例を示す。
スピンイメージ作成時の円筒座標設定に各頂点の法線情報が必要となるため、ここで作成する。頂点の法線は、その頂点を含む三角メッシュの法線の平均を単位ベクトル化したものである。
図9に本発明の実施形態に係る法線算出手順を示す。
頂点ごとに円筒座標を設定してその周辺の頂点をスピンマップにプロットすることで、各頂点のスピンイメージを作成する。スピンイメージ生成手順の詳細は後述する。
図10に本発明の実施形態に係るシーン計測処理フローを示す。以下、各ステップについて説明する。
距離センサを用いて、0個〜n個の対象物体やそれ以外の物体が存在する実際の環境を計測し、三次元点群データを得る。使用する距離センサは、可能な限り密に等間隔で距離データが得られるものが望ましい。
計測した点群から、物体の表面を表す三角メッシュを生成する。三角メッシュの作成方法として、(a)正方格子分割し対角線を結ぶ方法や、(b)ドロネー三角形分割法がある。(a)正方格子分割は、点群を平面正方格子に投影し、格子ごとに代表点を決定し、隣り合う代表点を決まった形で結んで三角形を形成する手法である。(b)ドロネー三角形分割は、点群を三角形分割したとき、最小角度が最大になるよう分割する方法である。以下ではより精密な三角メッシュが得られる(b)ドロネー三角形分割法を用いる。
計測データを平面に投影し、平面上の点をドロネー三角形分割し、点群を三次元空間に戻したときに辺の長さがしきい値より大きい三角形を除去する、という手順でメッシュ生成を行う。
スピンイメージ作成時の円筒座標設定条件として、各頂点の法線情報が必要となるため、ここで作成する。
対応点ペア作成処理では、モデルとシーンの対応点ペアを複数作成する。
図11に本発明の実施形態に係る対応点ペア作成処理フローを示す。以下、各ステップについて説明する。
シーンの頂点を一つ選択し、その頂点に関するスピンイメージを作成する。シーンの頂点を一つ選択する際、ランダムピックアップを行っているが、他に、これまで選んだ頂点との距離の最小値が最大になる位置の頂点を選ぶ方法や、法線の精度が良い(周辺の頂点が多く、三角メッシュの辺が集中している)頂点を選ぶ方法などが考えられる。
作成したシーンの頂点と、モデルの各頂点のペアで、スピンイメージとの類似度を数1を用いて算出する。
例えば、モデルの頂点数が1000個の場合、1つのシーン頂点と1000個のモデル頂点の各ペアでそれぞれ類似度を算出し、1000個の類似度が算出される。
前述した例で言うところの1000個のペアの中に、他と比較して特に類似度が高いペアがあれば、選択したシーン頂点とモデル頂点で対応点ペアCi(Si,Mi)を作成する。Siはシーン頂点を、Miはモデル頂点を示す。
この結果、シーン頂点とモデル頂点を結びつける対応点ペアCi(Si,Mi)が複数生成される。
図12に本発明の実施形態に係るモデルとシーンの対応点ペアのイメージを示す。同図は、シーンとして動物の玩具を並べた環境を計測し、モデルとしてブタを使用して対応点ペアを検出した結果である。
グループ化処理では、同時に成立することが可能な対応点ペアを一つのグループとする処理を繰り返し、複数のグループを作成する。
図13に本発明の実施形態に係るグループ化処理フローを示す。以下、各ステップについて説明する。
最初に、シーン頂点Siとモデル頂点Miを結びつける対応点ペアCi(Si,Mi)を、グループGiに追加する。この時点では、グループには基準となる一つの対応点ペアしか含まれていない。つまり、Gi={Ci}。
Gi内に含まれている対応点ペアと同時に成り立つことができる新たな対応点ペアCjを決定する。同時に成り立つことができるかどうかの基準として、幾何学的一貫性を用いる。幾何学的一貫性の概念について説明する。対応点ペアC1(S1,M1)とC2(S2,M2)が同時に成り立つ場合、S1からS2までの距離と、M1からM2までの距離は同じで、かつS1法線とS2法線とベクトルS1→S2が成す3つの角の角度と、M1法線とM2法線とベクトルM1→M2が成す3つの角の角度は等しくなるはずである。この一致度合いから、対応点ペアC1とC2が幾何学的一貫性を持っているかどうかを判定することができる。
図14に本発明の実施形態に係る幾何学的一貫性の概念図を示す。
例えば、G1={C1,C4,C8}に対してC9を追加できるか評価する際、C1−C9,C4−C9,C8−C9の全てにおいて幾何学的一貫性が成り立てば、G1にC9を追加できると言える。
CjをGiに追加してもGiが幾何学的一貫性を維持可能な場合、CjをGiに追加する。CjをGiに追加するとGiが幾何学的一貫性を維持不可能な場合、Giに対する追加処理は終了する。
全ての対応点ペアを基準にグループを作成した後、グループ内の対応点ペアが多い順にグループを並び替える。
図15(A)及び(B)に本発明の実施形態に係るグループ化された対応点ペアの例を示す。
一致度の検証処理では、モデルとシーンの表面がどの程度一致するかを評価して、各グループが物体の位置姿勢候補として適切かどうかを検証する。
図16に本発明の実施形態に係る一致度の検証処理フローを示す。以下、各ステップについて説明する。
後の対応点ペア拡張処理の高速化のために、ここでシーン頂点のKDツリーを作成しておく。仮に入力データ点数がN点、参照データ点数がM点のときに、近傍点探索処理量が全探索でO(MN)であるのに対して、KDツリーを作成しておくことでO(NlogM)に削減できる。
グループGiに含まれる対応点ペアに基づき、モデルとシーンの対応点間の距離を最小にするような座標変換式Tiを算出する。Tiは3×3の回転行列Rと3×1の並進ベクトルtを含む、4×4の剛体変換式である。この変換式にしたがってモデルを移動させた結果を、グループGiが示す物体の初期位置姿勢とする。
グループGiに含まれるモデル頂点に隣接するモデル頂点に対して、最近傍のシーン頂点をKDツリー探索によって見つけ、そのモデル頂点とシーン頂点の間の6次元距離(法線方向のずれも考慮に入れた距離)がしきい値以下ならば、その対応点ペアをグループGiに追加する。この処理を、対応点ペアが追加できなくなるまで繰り返す。
図17図に本発明の実施形態に係る対応点ペア拡張処理の例を示す。同図(A)は拡張前を示し、同図(B)は拡張後を示す。
初期位置姿勢が正しく、モデルとシーンの表面が一致していれば、対応点ペアの拡張処理によりグループ内の対応点ペアの数は大幅に増加するはずである。グループ内の対応点ペアの数がしきい値(モデルの頂点数のβ%)より多ければ、このグループは対象物を捉えている可能性が高いとして、位置姿勢候補に残す。そうでなければ、このグループを除外する。
グループGiの対応点ペアの数がしきい値より多ければ、Giを位置姿勢候補G’に追加する。その際、Giに含まれているシーン頂点は、以後の対応点ペア拡張処理に使えないようにする。これにより、位置姿勢候補が重なり合って出現することを防いでいる。
全てのグループで一致度の検証処理を行い、位置姿勢候補G’を作成した後、対応点ペアが多い順にG’を並び替える。
33 外部記憶装置
34 内部記憶装置
35 中央処理装置
40 物体認識装置
41 3Dセンサ
42 物体認識処理部
43 モデルデータベース部
45 ロボット制御部
46 ロボット
Claims (4)
- 物体の位置姿勢を認識する物体認識装置であって、
頂点の三次元位置と頂点間を結び物体の表面を表す情報からなる三次元形状データを読み込み、モデルの頂点に対して物体の局所的な表面形状を表す特徴量を作成するモデル入力手段と、
実際の環境をセンサで計測して距離データを取得し、物体の表面情報を作成するシーン計測手段と、
シーン頂点に対して物体の局所的な表面形状を表す特徴量を作成し、シーン頂点の特徴量とモデル頂点の特徴量の類似度を算出し、類似度がしいき値よりも高いペアが存在したら、前記シーン頂点と前記モデル頂点を対応点ペアCiとする対応点ペア作成手段と、
前記対応点ペアCiを含むグループGiを作成し、前記グループGiに含まれている全ての対応点ペアとの関係で幾何学的一貫性を有する他の対応点ペアを前記グループGiに追加する処理を繰り返し、全ての対応点ペアを基準にグループを作成するグループ化手段と、
前記グループGiに含まれる対応点ペアに基づき、モデルとシーンの対応点間の距離を最小にする座標変換式Tiを算出し、座標変換式Tiにしたがってモデルを移動させた結果を前記グループGiが示す物体の初期位置姿勢とし、前記グループGiに含まれるモデル頂点に隣接するモデル頂点に対して、最近傍のシーン頂点を見つけ、そのモデル頂点とシーン頂点の間の距離がしきい値以下ならば、その対応点ペアを前記グループGiに追加する処理を繰り返し、繰り返した後にグループ内の対応点ペアの数がしきい値よりも多ければ前記グループGiから得られる位置姿勢に物体が存在すると判定し、この処理を全てのグループGiに対して実行して計測データ内に存在する0個以上の物体の位置姿勢を決定する一致度検証手段、を備えることを特徴とする物体認識装置。 - 前記特徴量がスピンイメージであることを特徴とする請求項1に記載の物体認識装置。
- 前記三次元形状データが3D−CADデータであることを特徴とする請求項1又は2に記載の物体認識装置。
- 請求項1記載の物体認識装置と、
前記物体認識装置から出力される前記位置姿勢情報に基づいてロボットの作業位置を制御する制御手段を備えることを特徴とするロボット装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007303501A JP5092711B2 (ja) | 2007-11-22 | 2007-11-22 | 物体認識装置およびロボット装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007303501A JP5092711B2 (ja) | 2007-11-22 | 2007-11-22 | 物体認識装置およびロボット装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009128191A JP2009128191A (ja) | 2009-06-11 |
JP5092711B2 true JP5092711B2 (ja) | 2012-12-05 |
Family
ID=40819270
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007303501A Active JP5092711B2 (ja) | 2007-11-22 | 2007-11-22 | 物体認識装置およびロボット装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5092711B2 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5104248B2 (ja) * | 2007-11-22 | 2012-12-19 | 株式会社Ihi | 物体認識装置およびロボット装置 |
JP5046133B2 (ja) * | 2009-07-09 | 2012-10-10 | 独立行政法人産業技術総合研究所 | 3次元曲面認識方法及びマニピュレーションシステム |
JP4855547B1 (ja) * | 2011-06-30 | 2012-01-18 | 日本ジタン株式会社 | 定形体群の立体配置状況解析方法 |
JP2013101045A (ja) | 2011-11-08 | 2013-05-23 | Fanuc Ltd | 物品の3次元位置姿勢の認識装置及び認識方法 |
JP5642738B2 (ja) | 2012-07-26 | 2014-12-17 | ファナック株式会社 | バラ積みされた物品をロボットで取出す装置及び方法 |
JP5897624B2 (ja) | 2014-03-12 | 2016-03-30 | ファナック株式会社 | ワークの取出工程をシミュレーションするロボットシミュレーション装置 |
JP6117901B1 (ja) * | 2015-11-30 | 2017-04-19 | ファナック株式会社 | 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム |
CN106269548A (zh) * | 2016-09-27 | 2017-01-04 | 深圳市创科智能技术有限公司 | 一种物体自动分拣方法及其装置 |
CN106552772B (zh) * | 2016-10-25 | 2019-01-22 | 北京京东尚科信息技术有限公司 | 视觉识别系统和使用所述视觉识别系统的分类分拣系统 |
CN112183429B (zh) * | 2020-10-12 | 2024-01-19 | 苏州晴森模具有限公司 | 3d手势识别系统及方法 |
JP2023041200A (ja) | 2021-09-13 | 2023-03-24 | トヨタ自動車株式会社 | ワーク保持装置、ワーク保持方法、プログラム、及び制御装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11134518A (ja) * | 1997-11-04 | 1999-05-21 | Minolta Co Ltd | 3次元形状データ処理装置 |
SE529377C2 (sv) * | 2005-10-18 | 2007-07-24 | Morphic Technologies Ab Publ | Metod och arrangemang för att lokalisera och plocka upp föremål från en bärare |
WO2008056777A1 (fr) * | 2006-11-10 | 2008-05-15 | Konica Minolta Holdings, Inc. | Système d'authentification et procédé d'authentification |
JP4900204B2 (ja) * | 2007-11-22 | 2012-03-21 | 株式会社Ihi | 物体認識方法 |
-
2007
- 2007-11-22 JP JP2007303501A patent/JP5092711B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009128191A (ja) | 2009-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5092711B2 (ja) | 物体認識装置およびロボット装置 | |
JP5251080B2 (ja) | 物体認識方法 | |
JP4900204B2 (ja) | 物体認識方法 | |
US11565407B2 (en) | Learning device, learning method, learning model, detection device and grasping system | |
CN110648361B (zh) | 一种三维目标物体的实时位姿估计方法及定位抓取系统 | |
US10684116B2 (en) | Position and orientation measuring apparatus, information processing apparatus and information processing method | |
US8792726B2 (en) | Geometric feature extracting device, geometric feature extracting method, storage medium, three-dimensional measurement apparatus, and object recognition apparatus | |
JP5671281B2 (ja) | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム | |
JP5677798B2 (ja) | 3次元シーンにおける3次元物体の認識及び位置姿勢決定方法 | |
JP6004809B2 (ja) | 位置姿勢推定装置、情報処理装置、情報処理方法 | |
JP4785880B2 (ja) | 三次元オブジェクト認識のためのシステムおよび方法 | |
US9467682B2 (en) | Information processing apparatus and method | |
US9118823B2 (en) | Image generation apparatus, image generation method and storage medium for generating a target image based on a difference between a grip-state image and a non-grip-state image | |
JP5627325B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
JP5104248B2 (ja) | 物体認識装置およびロボット装置 | |
CN110992427B (zh) | 一种形变物体的三维位姿估计方法及定位抓取系统 | |
JP4766269B2 (ja) | 物体検出方法、物体検出装置、及びそれを備えたロボット | |
CN111079565A (zh) | 视图二维姿态模板的构建方法及识别方法、定位抓取系统 | |
Hu et al. | Pipe pose estimation based on machine vision | |
WO2008032375A1 (fr) | Dispositif et procédé de correction d'image, et programme informatique | |
JP2021086432A (ja) | 情報処理装置、情報処理方法、コンピュータプログラム、計測装置、システムおよび物品の製造方法 | |
JP5083715B2 (ja) | 三次元位置姿勢計測方法および装置 | |
JP5462662B2 (ja) | 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム | |
Gemme et al. | 3D reconstruction of environments for planetary exploration | |
Li et al. | Pose estimation of metal workpieces based on RPM-Net for robot grasping from point cloud |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100927 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120815 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120821 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120903 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5092711 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150928 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |