JP6044293B2 - 3次元物体認識装置および3次元物体認識方法 - Google Patents

3次元物体認識装置および3次元物体認識方法 Download PDF

Info

Publication number
JP6044293B2
JP6044293B2 JP2012253023A JP2012253023A JP6044293B2 JP 6044293 B2 JP6044293 B2 JP 6044293B2 JP 2012253023 A JP2012253023 A JP 2012253023A JP 2012253023 A JP2012253023 A JP 2012253023A JP 6044293 B2 JP6044293 B2 JP 6044293B2
Authority
JP
Japan
Prior art keywords
shape model
dimensional shape
dimensional
unit
dimensional object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012253023A
Other languages
English (en)
Other versions
JP2014102608A (ja
Inventor
俊寛 林
俊寛 林
周平 江本
周平 江本
光治 曽根原
光治 曽根原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2012253023A priority Critical patent/JP6044293B2/ja
Priority to EP13855733.5A priority patent/EP2922023A4/en
Priority to PCT/JP2013/080661 priority patent/WO2014077272A1/ja
Priority to RU2015123211A priority patent/RU2628217C2/ru
Priority to CA2890717A priority patent/CA2890717C/en
Publication of JP2014102608A publication Critical patent/JP2014102608A/ja
Priority to US14/703,946 priority patent/US9652864B2/en
Application granted granted Critical
Publication of JP6044293B2 publication Critical patent/JP6044293B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/66Arrangements or adaptations of apparatus or instruments, not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G3/00Observing or tracking cosmonautic vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • G06T7/231Analysis of motion using block-matching using full search
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Geometry (AREA)
  • Data Mining & Analysis (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Astronomy & Astrophysics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、3次元物体を認識する3次元物体認識装置および3次元物体認識方法に関する。
近年、宇宙開発を進めていく上で、目的を終えた状態で地球の衛星軌道上を周回している人工物体であるスペースデブリの増加が問題となっている。かかるスペースデブリは移動制御および姿勢制御されていない非協力体であるため、タンブリング運動等の複雑な姿勢運動をしている可能性がある。そのため、スペースデブリを除去するための除去衛星がスペースデブリに近づく際には、スペースデブリの位置や姿勢を正確に把握しなければならない。
したがって、除去装置においては、スペースデブリを撮像部(カメラ)で撮像し、撮像された画像中で確認できるスペースデブリの部位から、スペースデブリと除去衛星との相対的な位置関係を示す位置関係情報および相対的な姿勢関係を示す姿勢関係情報(以下、合わせて単に「状態情報」という)を把握しなければならない。このような状態情報の解法として因子分解法が提案されている。また、非特許文献1には、因子分解法におけるParaperspectiveモデルについて記載され、重み付因子分解法も説明されている。
"A Paraperspective Factorization Method for Shape and Motion Recovery"、IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLGENCE、VOL.19、NO.3、MARTCH 1997、p206-218
除去衛星がフライアラウンドによってスペースデブリを周回する場合、スペースデブリの姿勢によっては、撮像された画像から特徴点の数を十分に得られない場合がある。例えば、スペースデブリと除去衛星と太陽との相対位置関係やスペースデブリの姿勢によっては、スペースデブリの表面において太陽光の当たっている部分が少なく、影となってしまう部分が多くなることがある。そのため、特徴点を十分得ることができず、スペースデブリ本体と、スペースデブリに対応する3次元形状モデルとを正しくパターンマッチングできないおそれがある。
また、スペースデブリは移動しつつ姿勢も変化するので、上記の非特許文献1の技術を用いただけでは、マッチングした際の特徴点の移動を、スペースデブリの移動と姿勢変化とに分解できず、実際の運動と誤差が生じることがあった。
さらに、スペースデブリに対するパターンマッチングでは、パターンマッチングの対象となる範囲が大きく、また、スペースデブリの表面は単純な構造をしており画像パターンが近似している部位が多いので、パターンマッチングに失敗することもある。すると、本来等しい特徴点同士を異なる特徴点であると判断したり、異なる特徴点同士を等しい特徴点であると判断することがあった。
また、このようなマッチングの結果を、3次元形状モデルの形成(モデルの形状を示す点の更新または追加)に利用している場合、一度、誤った情報で更新されると、その誤った情報によって誤ったマッチングが実行されてしまい、最終的なマッチング結果に影響を及ぼすことがあった。
本発明は、このような課題に鑑み、特徴点の情報を十分に得ることができない状況であっても、3次元物体と3次元形状モデルとのマッチングの精度を高め、3次元物体の状態情報を高精度に導出することが可能な3次元物体認識装置および3次元物体認識方法を提供することを目的としている。
上記課題を解決するために、本発明の3次元物体認識装置は、探索領域を撮像し、画像データを生成する撮像部と、画像データに基づく画像中の3次元物体と、3次元物体に対応する3次元形状モデルとを比較し、パターンマッチングによって相関のある特徴点同士を対応付けるマッチング部と、マッチング部が対応付けた特徴点を3次元に復元し、3次元形状モデルの位置および姿勢を更新するモデル更新部と、モデル更新部が更新した3次元形状モデルの位置姿勢履歴から3次元物体の運動を推定し、将来の任意の時点の3次元形状モデルの位置および姿勢を推定する運動推定部と、マッチング部が対応付けた特徴点と、運動推定部が推定した3次元形状モデルとを比較し、正当であると判定した特徴点のみによってモデル更新部に3次元形状モデルを更新させる正当性判定部と、を備えることを特徴とする。
上記課題を解決するために、本発明の他の3次元物体認識装置は、探索領域を撮像し、画像データを生成する撮像部と、画像データに基づく画像中の3次元物体と、3次元物体に対応する3次元形状モデルとを比較し、パターンマッチングによって相関のある特徴点同士を対応付けるマッチング部と、マッチング部が対応付けた特徴点を3次元に復元し、3次元形状モデルの位置および姿勢を更新するモデル更新部と、モデル更新部が更新した3次元形状モデルの位置姿勢履歴から3次元物体の運動を推定し、将来の任意の時点の3次元形状モデルの位置および姿勢を推定する運動推定部と、を備え、マッチング部は、将来の任意の時点において、3次元物体と、運動推定部が推定した3次元形状モデルとを比較することを特徴とする。
運動推定部は、3次元形状モデルの位置および姿勢を一体的に推定してもよい。
運動推定部は、3次元形状モデルの位置および姿勢を細分化した特徴点毎に推定してもよい。
運動推定部は、拡張カルマンフィルタを用いて運動を推定してもよい。
上記課題を解決するために、本発明の3次元物体認識方法は、探索領域を撮像し、画像データを生成し、画像データに基づく画像中の3次元物体と、3次元物体に対応する3次元形状モデルとを比較し、パターンマッチングによって相関のある特徴点同士を対応付け、対応付けされた特徴点と、推定された3次元形状モデルとを比較し、正当であると判定した特徴点のみを抽出し、抽出された特徴点を3次元に復元し、3次元形状モデルの位置および姿勢を更新し、更新された3次元形状モデルの位置姿勢履歴から3次元物体の運動を推定し、将来の任意の時点の3次元形状モデルの位置および姿勢を推定することを特徴とする。
上記課題を解決するために、本発明の他の3次元物体認識方法は、探索領域を撮像し、画像データを生成し、画像データに基づく画像中の3次元物体と、3次元物体に対応する3次元形状モデルとを比較し、パターンマッチングによって相関のある特徴点同士を対応付け、対応付けられた特徴点を3次元に復元し、3次元形状モデルの位置および姿勢を更新し、更新された3次元形状モデルの位置姿勢履歴から3次元物体の運動を推定し、将来の任意の時点の3次元形状モデルの位置および姿勢を推定し、将来の任意の時点のパターンマッチングに用いさせることを特徴とする。
本発明によれば、特徴点の情報を十分に得ることができない状況であっても、3次元物体と3次元形状モデルとのマッチングの精度を高め、3次元物体の状態情報を高精度に導出することが可能となる。
スペースデブリと除去衛星との相対位置関係を示した説明図である。 スペースデブリの追尾を説明するための説明図である。 3次元物体認識装置の概略的な構成を示した機能ブロック図である。 特徴点抽出部の動作を説明するための説明図である。 マッチング部の動作を説明するための説明図である。 3次元物体認識方法の処理の流れを示したフローチャートである。 他の実施形態における3次元物体認識方法の処理の流れを示したフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。
(除去衛星10)
図1は、スペースデブリ12と除去衛星10との相対位置関係を示した説明図である。図1を参照すると、スペースデブリ12が地球14を中心に低軌道混雑軌道16を周回し、除去衛星10がスペースデブリ12を周回する。ここでは、認識対象である3次元物体として、廃棄された大型のロケットの上段部分に相当するスペースデブリ12を想定している。
例えば、除去衛星10は、スペースデブリ12を周回する軌道に遷移すると、フライアラウンドしつつ、スペースデブリ12を撮像装置を通じて撮像し、スペースデブリ12の除去衛星10に対する相対的な位置関係情報および姿勢関係情報(状態情報)を導出する。そして、除去衛星10は、捕獲手段を通じて対象となるスペースデブリ12を捕獲する。このように、除去衛星10がフライアラウンドによってスペースデブリ12を周回する場合、除去衛星10から見たスペースデブリ12の向きによっては、撮像された画像から十分な数の特徴点を得られない場合がある。
例えば、フライアラウンドでスペースデブリ12を周回する際、スペースデブリ12と除去衛星10と太陽との相対位置関係やスペースデブリ12の姿勢によっては、撮像した画像中のスペースデブリ12の表面において、太陽光の当たっている部分が多く、影となってしまう部分が少ない場合と、太陽光の当たっている部分が少なく、影となってしまう部分が多くなる場合がある。そのため、後者の場合、特徴点を十分得ることができず、スペースデブリ12本体と、スペースデブリ12に対応する3次元形状モデルとを正しくパターンマッチングできないおそれがある。また、スペースデブリ12は移動しつつ姿勢も変化するので、位置関係情報および姿勢関係情報を正確に特定しにくく、パターンマッチングの対象となる範囲も大きいので、正しいパターンマッチングが行われないこともあり、対象物であるスペースデブリ12の追尾に失敗したり、途中で見失うといった事態を招くこととなる。
図2は、スペースデブリ12の追尾を説明するための説明図である。図2では、横軸に時間を、縦軸にスペースデブリ12の軸周りの回転角度を示している。ここで、スペースデブリ12が、時間の経過に伴い、図2(a)中一点鎖線で示す回転角度で回転していたとする(回転角度の真値)。しかし、除去衛星10側でマッチングした際の特徴点の移動を、スペースデブリ12の移動と姿勢変化とに分解できないので、図2(a)中実線で示したように、回転角度の測定値は、真値と異なる軌跡を辿る。例えば、図2(a)を参照すると、本来は真値のように追尾されるべき特徴点が、回転角度の誤差が大きくなったところで見失われ、また、ある程度時間が経過した後、新たな特徴点として追加される。
そこで、本実施形態では、対象の3次元物体であるスペースデブリ12の追尾処理に、スペースデブリ12の運動を推定する運動推定処理を併用することで、スペースデブリ12と3次元形状モデルとのマッチングの精度を高める。このようにスペースデブリ12の運動を推定することで、特徴点がどこに移動したかを高精度に特定することができ、図2(b)中実線で示すように、回転角度の測定値を、図2(b)中一点鎖線で示した回転角度の真値に近づけることができる。
具体的に、本実施形態では、3次元物体(ここではスペースデブリ12)の追尾処理と3次元復元処理が並行して遂行される。追尾処理では2次元の画像上の特徴点と3次元形状モデルの特徴点との対応付け(パターンマッチング)により、撮像部に対するスペースデブリ12の状態情報を求める。このとき、移動した特徴点や新たに抽出された特徴点は3次元復元処理に用いられる。3次元復元処理では、移動した特徴点や新たに抽出された特徴点を用いてバンドル調整の原理を用いた3次元復元を行い、3次元形状モデルを更新する。そして、復元された3次元形状モデルを用いて運動推定を行い、推定された3次元形状モデルを利用してマッチングの精度を高める。
以下、除去衛星10において、このような追尾処理や3次元復元処理を実現する3次元物体認識装置100について具体的な構成を述べ、その後、フローチャートに基づいて3次元物体認識方法の処理の流れを説明する。
(3次元物体認識装置100)
図3は、3次元物体認識装置100の概略的な構成を示した機能ブロック図である。3次元物体認識装置100は、撮像部110と、保持部112と、中央制御部114とを含んで構成される。
撮像部110は、CCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を含んで構成され、探索領域を撮像し、画像データを生成する。本実施形態では、かかる画像データに基づく画像中にスペースデブリ12が存在していることを前提としている。
探索領域中に存在するスペースデブリ12の当該撮像部110に対する相対的な位置関係情報および姿勢関係情報である状態情報を求めるためには、レーザレーダ等の測距装置を用いることもできるが、本実施形態では、撮像部110を用いる。撮像部110は、小型かつ軽量であり、安価に状態情報を取得できるからである。また、撮像部110を用いた場合、上述したように、撮像した画像から十分な特徴点を得られない場合もあるが、本実施形態では、運動推定処理を併用することによって、撮像部110による画像であっても、3次元物体の状態情報を高精度に特定することができる。状態情報が導出されると、スペースデブリ12または撮像部110のいずれか一方の絶対位置や絶対姿勢を特定すれば、他方の特定も行うことが可能となる。
また、撮像部110によって生成される画像データは2次元の画像を示すものの、スペースデブリ12と撮像部110との相対的な位置関係を異ならせ、例えば、撮像部110をずらして、複数の異なる視点(角度)で画像データを生成することで、画像データ中の平面で表された物体を3次元で捉えることができる。
また、1つの撮像部110によって異なる複数の視点からの画像データを生成する代わりに、位置および撮像方向が相異なる複数の撮像部110で一度に異なる複数の視点からの画像データを生成してもよい。こうすることで、複数の視点による情報からスペースデブリ12の3次元形状を特定することができるので、処理時間の短縮および特定精度の向上を図ることができる。
保持部112は、SRAM、DRAM、フラッシュメモリ、HDD(Hard Disk Drive)等で構成され、撮像部110で生成された画像データや、スペースデブリ12の3次元形状モデルが一時的に保持される。
中央制御部114は、中央処理装置(CPU)や信号処理装置(DSP:Digital Signal Processor)、プログラム等が格納されたROMやメモリ、ワークエリアとしてのRAM等を含む半導体集積回路により、3次元物体認識装置100全体を管理および制御する。また、本実施形態において、中央制御部114は、画像処理部120、特徴点抽出部122、マッチング部124、正当性判定部126、モデル更新部128、運動推定部130としても機能する。
画像処理部120は、本実施形態の追尾処理の前段階として、撮像部110で生成された画像データに基づく画像に対し、撮像部110のレンズの歪み補正やホワイトバランスの調整等の画像処理を遂行する。
特徴点抽出部122は、画像処理部120によって画像処理がなされた画像から特徴点を抽出する。
図4は、特徴点抽出部122の動作を説明するための説明図である。撮像部110は、スペースデブリ12を撮像し、画像データを生成する。特徴点抽出部122は、画像処理後の画像データに基づく2次元の画像150から頂点(角)を抽出し、その画像パターンを特徴点152として保持する。
抽出方法としては、Harris法を利用することができる。Harris法は、画像の濃淡の差がある物体のコーナー等の検出に向いている。かかるHarris法は既存の技術であるため、ここでは、その詳細な説明を省略する。
マッチング部124は、画像データに基づく画像150中のスペースデブリ12と、スペースデブリ12の3次元形状モデルとを比較し、パターンマッチングによって相関のある特徴点同士を対応付ける。
図5は、マッチング部124の動作を説明するための説明図である。まず、3次元形状モデル160と画像の特徴点とを比較すべく、後述するモデル更新部128が更新した3次元形状モデル160を平面投影し、2次元画像162を生成する。そして、マッチング部124は、特徴点抽出部122が抽出したスペースデブリ12の特徴点152それぞれと、3次元形状モデル160を平面投影した2次元画像162とを比較し、3次元形状モデル160を平面投影した2次元画像162から特徴点と相関のある特徴点(ブロック)164を導出する。
本実施形態では、比較対象となる3次元形状モデル160は、前回の状態情報が反映されているので、すなわち、前回撮像時の位置関係および姿勢関係となっているので、画像データに基づく画像150および2次元画像162で同一部位を示す特徴点同士が相対的に近くに位置することとなる。そこで、マッチング部124は、パターンマッチングの対象となる範囲を所定の範囲に限定し、その範囲内のみで特徴点と相関のある特徴点164を特徴点として導出する。例えば、画像データに基づく画像150中の任意の特徴点152aとパターンマッチングを実行する範囲は、2次元画像162中の範囲166に限られる。
このように構成することで、特徴点152を3次元形状モデル160の全範囲と相関をとる場合と比較し、処理負荷を極めて軽くすることが可能となり、また、画像パターンが近似している部位が多いスペースデブリ12において、他の画像パターンを対象から除外することができる。したがって、マッチングに失敗し、本来等しい特徴点同士を異なる特徴点であると判断したり、異なる特徴点同士を等しい特徴点であると判断するといった事態を回避することが可能となる。
なお、本実施形態では、画像データに基づく画像150から特徴点152を抽出し、その特徴点152と3次元形状モデル160を平面投影した2次元画像162とを比較しているが、3次元形状モデル160の点群から特徴点164を抽出し、その特徴点164と画像データに基づく画像150とを比較してもよい。こうすることで、処理の手順によっては、処理負荷の低減を図ることができる。
正当性判定部126は、マッチング部124が対応付けた特徴点164と、後述する運動推定部130が推定した3次元形状モデルとを比較し、その特徴点164の正当性を判定する。
上述したように、本実施形態ではマッチング部124によるマッチングの結果(特徴点164)を、3次元形状モデルの形成に利用する。しかし、一度、誤った情報で3次元形状モデル160が更新されると、その誤った情報によって誤ったマッチングが実行されてしまい、最終的なマッチング結果に影響を及ぼしてしまう。そこで、本実施形態では、マッチング部124で導出された特徴点164が、3次元形状モデル160に反映するにふさわしい(正当性がある)か否かを判定する。そして、3次元形状モデル160に反映するにふさわしい特徴点164のみ残し、その他は排除することで、適切な3次元形状モデル160を形成する。
ここで、正当性判定部126による正当性判定は、以下のようにして行う。まず、後述する運動推定部130により、スペースデブリ12の運動を推定し、前回の撮像時において特定された3次元形状モデル160が、今回の撮像時において、どのような状態情報となっているか導出させる。そして、正当性判定部126は、その推定された3次元モデルを平面投影した2次元画像162とマッチング部124で相関の得られた複数の特徴点164とを比較し、各特徴点164と、推定された位置、姿勢の状態情報とが近似しているか否か判定する。正当性判定部126は、かかる運動パラメータが、想定される所定の範囲に含まれれば、その特徴点164を正当性のある特徴点として認識する。かかる正当性判定は後程詳述する。
モデル更新部128は、正当性判定部126が正当であると判定した複数の特徴点164を、前回の撮像時に生成した3次元形状モデル160の状態情報を参照して、3次元に復元し、新たに今回の撮像に基づく3次元形状モデル160として更新する。このように、導出された正当性のある特徴点164の位置関係をさらに3次元に戻すことで、3次元形状モデル160の並進、回転を求め、誤差を最小化させることができる。
また、3次元形状モデル160の更新には、バンドル調整が用いられる。バンドル調整は、複数の2次元画像から3次元形状モデルを復元する方法である。かかるバンドル調整は、既存の技術であるため、ここでは、詳細な説明を省略する。
運動推定部130は、モデル更新部128が更新した3次元形状モデル160の位置姿勢履歴から3次元物体の運動を推定し、将来の任意の時点の3次元形状モデルを推定する。本実施形態では、モデル更新部128が生成した3次元形状モデル160の時間推移を用い、拡張カルマンフィルタによってスペースデブリ12の運動を推定する。
このように、パターンマッチングに加え、特徴点164の運動を把握して移動や姿勢変化を推定することで、特徴点164の特定精度を向上し、正しく推定された特徴点との正しいマッチングと、マッチングされた正しい特徴点164とによって正しい3次元形状モデル160の復元とを繰り返し、その相互作用によって、スペースデブリ12と3次元形状モデル160とのマッチングの精度を高め、スペースデブリ12の状態情報を高精度に導出することが可能となる。
(拡張カルマンフィルタの説明)
以下、運動推定部130が実行する拡張カルマンフィルタについて説明する。ここでは、拡張カルマンフィルタを用いてスペースデブリ12の状態量Xを推定する。
Figure 0006044293
…(数式1)
ここで、Pはスペースデブリ12の位置、Qはスペースデブリ12の4元数の姿勢、Vはスペースデブリ12の速度、Wはスペースデブリ12の角速度を示し、各パラメータは以下の数式2で定義される。
Figure 0006044293
…(数式2)
ここで、状態量Xの時間変化を状態遷移方程式fで定義すると、以下の数式3を得ることができる。
Figure 0006044293
…(数式3)
数式3で示した状態遷移方程式は、除去衛星10に対するスペースデブリ12の相対運動を、等速直線運動と等角速度回転運動の組み合わせと仮定している。ここで、画像認識によって得られる観測値は、位置Pと姿勢Qである。この観測値から、拡張カルマンフィルタによって、速度V、角速度Wが推定される。推定された速度V、角速度Wを利用することで、数式3の状態遷移方程式を通じて任意の時刻におけるスペースデブリ12の状態情報を推定することが可能となる。かかる推定値は、スペースデブリ12を捕獲するための軌道生成など、除去衛星10の制御に用いることができる。
運動推定部130は、上述したように、3次元形状モデル160を一体的に推定するが、3次元形状モデル160を細分化した、例えば、特徴点毎に推定してもよい。こうすることで、細分化された特徴点毎に運動推定処理を実行することが可能となり、より高精度に特徴点164を特定することが可能となる。
また、上述したように、本実施形態では、運動推定した結果である3次元形状モデル160を正当性判定にフィードバックすることで、3次元形状モデル160の更新に誤認識の影響を与えないようにした。
具体的に、運動推定部130が、数式3の状態遷移方程式によって次回の3次元形状モデルの位置関係および姿勢関係を推定すると、次回の撮像時には、その推定した結果を利用して、正当性判定を行う。正当性判定部126は、姿勢Qの観測値Qmeaと、次回の撮影時における姿勢の推定値Qpreとを比較し、正当性を判定する。ここでは、数式4に示した指標値Mを算出する。
Figure 0006044293
…(数式4)
ただし、CovQは、拡張カルマンフィルタによって計算される推定値Qpreの誤差分散期待値であり、指標値Mは、マハラノビス距離と呼ばれる、観測値Qmeaが推定された3次元形状モデルから、どの程度外れているかを示す指標値である。
本実施形態では、指標値Mが特異的に増加または減少した場合に、その特徴点164を誤認識(正当性がない)と判定し、排除する。誤認識と判定するか否かの閾値は、例えば、誤認識が起こらない代表的な画像データを用いて事前に試験した際の、指標値Mの推移等に基づいて一意に設定される。誤認識と判定した場合は、3次元形状モデル160の更新や、観測値を使った推定処理にその特徴点164を利用しない。したがって、誤認識があっても正しい3次元形状モデル160が維持されるため、光学条件が良好になり、視認できなくなっていた特徴点164が見えるようになると、直ちに再認識が可能となる。その結果、位置関係および姿勢関係の計測精度が向上し、運動推定の精度向上にもつながる。
上述したマッチング部124によって遂行される処理が上記追尾処理に相当し、モデル更新部128によって3次元形状モデル160を生成する処理が上記3次元復元処理に相当する。
また、コンピュータによって3次元物体認識装置100として機能するプログラムや、当該プログラムを記憶した記憶媒体も提供される。さらに、当該プログラムは、記憶媒体から読み取られてコンピュータに取り込まれてもよいし、通信ネットワークを介して伝送されてコンピュータに取り込まれてもよい。
(3次元物体認識方法)
図6は、3次元物体認識方法の処理の流れを示したフローチャートである。ここでは、所定の周期で実行される割込処理において当該3次元物体認識方法が実行される。まず、3次元物体認識装置100の撮像部110は、探索領域を撮像し、画像データを生成し(S200)、特徴点抽出部122は、画像処理部120によって画像処理がなされた画像から特徴点を抽出し(S202)、マッチング部124は、特徴点抽出部122が抽出した特徴点と、スペースデブリ12に対応する3次元形状モデルとを比較し、パターンマッチングによって相関のある特徴点同士を対応付ける(S204)。
そして、正当性判定部126は、対応付けされた特徴点と、推定された3次元形状モデルとを比較し、正当であると判定した特徴点のみを抽出し(S206)、モデル更新部128は、抽出された特徴点によって3次元形状モデルを更新する(S208)。また、運動推定部130は、更新された3次元形状モデルの位置姿勢履歴から3次元物体の運動を推定し、将来の任意の時点の3次元形状モデルを推定する(S210)。かかる推定された3次元形状モデルは正当性判定で用いられる。こうして、特徴点の情報を十分に得ることができない状況であっても、3次元物体と3次元形状モデルとのマッチングの精度を高め、3次元物体の状態情報を高精度に導出することが可能となる。
(効果の検証)
フライアラウンド時の観測条件を反映して、シミュレーションを行ったところ、回転角度が標準偏差0.7度以内でスペースデブリ12の運動を推定できた。ただし、撮像によってスペースデブリ12の一部の画像が得られない時間が続いた場合、誤差は最大で7度まで増加したが、再び画像が得られると、真値に迅速に収束した。
(他の実施形態)
上述した実施形態では、運動推定部130による運動推定の結果を、正当性判定部126が利用する例を挙げて説明したが、運動推定の結果をマッチング部124で利用することもできる。例えば、運動推定部130は、モデル更新部128が更新した3次元形状モデル160の位置姿勢履歴から3次元物体の運動を推定し、将来の任意の時点(次回の撮像時)の3次元形状モデルを推定する。そして、マッチング部124は、画像データに基づく画像150中の3次元物体と、運動推定部130が推定した3次元形状モデルとを比較し、パターンマッチングによって相関のある特徴点同士を対応付ける。
かかる構成では、比較対象となる推定された3次元形状モデル160は、前回の状態情報が反映され、かつ、運動推定処理がなされているので、画像データに基づく画像150および2次元画像162で同一部位を示す特徴点同士の位置がほぼ等しくなる。したがって、画像データに基づく画像150中の任意の特徴点152aとパターンマッチングを実行する範囲を、上述した実施形態よりさらに小さく定めることで、正当性のない特徴点は自動的に排除される。したがって、正当性判定部126も不要となる。
図7は、当該他の実施形態における3次元物体認識方法の処理の流れを示したフローチャートである。まず、3次元物体認識装置100の撮像部110は、探索領域を撮像し、画像データを生成し(S300)、特徴点抽出部122は、画像処理部120によって画像処理がなされた画像150から特徴点152を抽出し(S302)、マッチング部124は、特徴点抽出部122が抽出した特徴点152と、スペースデブリ12に対応する3次元形状モデルとを比較し、パターンマッチングによって相関のある特徴点同士を対応付ける(S304)。
そして、モデル更新部128は、抽出された特徴点によって3次元形状モデル160を更新する(S306)。また、運動推定部130は、モデル更新部128が更新した3次元形状モデル160の位置姿勢履歴から3次元物体の運動を推定し、将来の任意の時点の3次元形状モデルを推定し、将来の任意の時点のパターンマッチングに用いさせる(S308)。こうして、特徴点の情報を十分に得ることができない状況であっても、3次元物体と3次元形状モデルとのマッチングの精度を高め、3次元物体の状態情報を高精度に導出することが可能となる。
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
例えば、上述した実施形態においては、3次元物体としてスペースデブリ12を挙げたが、3次元物体として現存する様々な物を対象とすることができる。また、上述した実施形態では、宇宙空間を前提としているが、かかる場合に限らず、地球上の、あらゆる領域で適用することができる。
なお、本明細書の3次元物体認識方法における各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。
本発明は、3次元物体を認識する3次元物体認識装置および3次元物体認識方法に利用することができる。
10 …除去衛星
12 …スペースデブリ
100 …3次元物体認識装置
110 …撮像部
122 …特徴点抽出部
124 …マッチング部
126 …正当性判定部
128 …モデル更新部
130 …運動推定部
160 …3次元形状モデル

Claims (7)

  1. 探索領域を撮像し、画像データを生成する撮像部と、
    前記画像データに基づく画像中の3次元物体と、該3次元物体に対応する3次元形状モデルとを比較し、パターンマッチングによって相関のある特徴点同士を対応付けるマッチング部と、
    前記マッチング部が対応付けた特徴点を3次元に復元し、前記3次元形状モデルの位置および姿勢を更新するモデル更新部と、
    前記モデル更新部が更新した前記3次元形状モデルの位置姿勢履歴から前記3次元物体の運動を推定し、将来の任意の時点の3次元形状モデルの位置および姿勢を推定する運動推定部と、
    前記マッチング部が対応付けた特徴点と、前記運動推定部が推定した3次元形状モデルとを比較し、正当であると判定した特徴点のみによって前記モデル更新部に前記3次元形状モデルを更新させる正当性判定部と、
    を備えることを特徴とする3次元物体認識装置。
  2. 探索領域を撮像し、画像データを生成する撮像部と、
    前記画像データに基づく画像中の3次元物体と、該3次元物体に対応する3次元形状モデルとを比較し、パターンマッチングによって相関のある特徴点同士を対応付けるマッチング部と、
    前記マッチング部が対応付けた特徴点を3次元に復元し、前記3次元形状モデルの位置および姿勢を更新するモデル更新部と、
    前記モデル更新部が更新した前記3次元形状モデルの位置姿勢履歴から前記3次元物体の運動を推定し、将来の任意の時点の3次元形状モデルの位置および姿勢を推定する運動推定部と、
    を備え、
    前記マッチング部は、将来の任意の時点において、前記3次元物体と、前記運動推定部が推定した3次元形状モデルとを比較することを特徴とする3次元物体認識装置。
  3. 前記運動推定部は、前記3次元形状モデルの位置および姿勢を一体的に推定することを特徴とする請求項1または2に記載の3次元物体認識装置。
  4. 前記運動推定部は、前記3次元形状モデルの位置および姿勢を細分化した特徴点毎に推定することを特徴とする請求項1または2に記載の3次元物体認識装置。
  5. 前記運動推定部は、拡張カルマンフィルタを用いて運動を推定することを特徴とする請求項1から4に記載の3次元物体認識装置。
  6. 探索領域を撮像し、画像データを生成し、
    前記画像データに基づく画像中の3次元物体と、該3次元物体に対応する3次元形状モデルとを比較し、パターンマッチングによって相関のある特徴点同士を対応付け、
    前記対応付けされた特徴点と、推定された3次元形状モデルとを比較し、正当であると判定した特徴点のみを抽出し、
    前記抽出された特徴点を3次元に復元し、前記3次元形状モデルの位置および姿勢を更新し、
    前記更新された3次元形状モデルの位置姿勢履歴から前記3次元物体の運動を推定し、将来の任意の時点の3次元形状モデルの位置および姿勢を推定することを特徴とする3次元物体認識方法。
  7. 探索領域を撮像し、画像データを生成し、
    前記画像データに基づく画像中の3次元物体と、該3次元物体に対応する3次元形状モデルとを比較し、パターンマッチングによって相関のある特徴点同士を対応付け、
    前記対応付けられた特徴点を3次元に復元し、前記3次元形状モデルの位置および姿勢を更新し、
    前記更新された前記3次元形状モデルの位置姿勢履歴から前記3次元物体の運動を推定し、将来の任意の時点の3次元形状モデルの位置および姿勢を推定し、該将来の任意の時点のパターンマッチングに用いさせることを特徴とする3次元物体認識方法。
JP2012253023A 2012-11-19 2012-11-19 3次元物体認識装置および3次元物体認識方法 Active JP6044293B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2012253023A JP6044293B2 (ja) 2012-11-19 2012-11-19 3次元物体認識装置および3次元物体認識方法
EP13855733.5A EP2922023A4 (en) 2012-11-19 2013-11-13 THREE-DIMENSIONAL OBJECT RECOGNITION DEVICE AND THREE-DIMENSIONAL OBJECT RECOGNITION METHOD
PCT/JP2013/080661 WO2014077272A1 (ja) 2012-11-19 2013-11-13 3次元物体認識装置および3次元物体認識方法
RU2015123211A RU2628217C2 (ru) 2012-11-19 2013-11-13 Устройство распознавания трехмерного объекта и способ распознавания трехмерного объекта
CA2890717A CA2890717C (en) 2012-11-19 2013-11-13 Three-dimensional object recognition device and three-dimensional object recognition method
US14/703,946 US9652864B2 (en) 2012-11-19 2015-05-05 Three-dimensional object recognition device and three-dimensional object recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012253023A JP6044293B2 (ja) 2012-11-19 2012-11-19 3次元物体認識装置および3次元物体認識方法

Publications (2)

Publication Number Publication Date
JP2014102608A JP2014102608A (ja) 2014-06-05
JP6044293B2 true JP6044293B2 (ja) 2016-12-14

Family

ID=50731183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012253023A Active JP6044293B2 (ja) 2012-11-19 2012-11-19 3次元物体認識装置および3次元物体認識方法

Country Status (6)

Country Link
US (1) US9652864B2 (ja)
EP (1) EP2922023A4 (ja)
JP (1) JP6044293B2 (ja)
CA (1) CA2890717C (ja)
RU (1) RU2628217C2 (ja)
WO (1) WO2014077272A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10311595B2 (en) * 2013-11-19 2019-06-04 Canon Kabushiki Kaisha Image processing device and its control method, imaging apparatus, and storage medium
CN104748750B (zh) * 2013-12-28 2015-12-02 华中科技大学 一种模型约束下的在轨三维空间目标姿态估计方法及系统
CN104318552B (zh) * 2014-10-15 2017-07-14 北京理工大学 基于凸包投影图匹配的模型配准方法
EP3247638A1 (en) * 2015-01-20 2017-11-29 Politecnico Di Torino Method and system for measuring the angular velocity of a body orbiting in space
US20160259980A1 (en) * 2015-03-03 2016-09-08 Umm Al-Qura University Systems and methodologies for performing intelligent perception based real-time counting
JP6348093B2 (ja) 2015-11-06 2018-06-27 ファナック株式会社 入力データから検出対象物の像を検出する画像処理装置および方法
US9898822B2 (en) * 2016-02-03 2018-02-20 Mitsubishi Electric Research Laboratories, Inc. Method and system for reconstructing scenes as 3D models from sequences of images using constraint satisfaction
JP6894685B2 (ja) * 2016-09-29 2021-06-30 株式会社カブク 情報処理装置、情報処理方法及びプログラム
FR3057950B1 (fr) * 2016-10-24 2018-10-19 Nexter Systems Procede d'aide a la localisation d'un objectif et dispositif d'observation permettant la mise en oeuvre de ce procede
JP2018081410A (ja) * 2016-11-15 2018-05-24 セイコーエプソン株式会社 コンピュータープログラム
WO2018230016A1 (ja) * 2017-06-13 2018-12-20 株式会社Ihi 移動体観測方法
CN109308438B (zh) * 2017-07-28 2020-11-27 上海形趣信息科技有限公司 动作识别库的建立方法、电子设备、存储介质
US11164015B2 (en) * 2018-05-08 2021-11-02 Ford Global Technologies, Llc Simultaneous diagnosis and shape estimation from a perceptual system derived from range sensors
EP3690816B1 (de) * 2019-01-31 2022-08-17 Airbus Defence and Space GmbH Schätzen einer relativen position und lage eines zielobjekts in bezug auf ein ausgangsobjekt
WO2020202221A1 (en) * 2019-04-04 2020-10-08 Lovely Professional University A method and system for detecting and modeling objects in space using lidar
CN115760984B (zh) * 2022-11-23 2024-09-10 南京理工大学 一种立方星基于单目视觉的非合作目标位姿测量方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3663645B2 (ja) * 1994-11-18 2005-06-22 ソニー株式会社 動画像処理装置とその方法
JPH08149458A (ja) * 1994-11-18 1996-06-07 Sony Corp 動画像処理装置
AU7412998A (en) * 1996-11-27 1998-06-22 Princeton Video Image, Inc. Motion tracking using imagetexture templates
US6492986B1 (en) * 1997-06-02 2002-12-10 The Trustees Of The University Of Pennsylvania Method for human face shape and motion estimation based on integrating optical flow and deformable models
JP2001005973A (ja) * 1999-04-20 2001-01-12 Atr Media Integration & Communications Res Lab カラー画像による人物の3次元姿勢推定方法および装置
EP1297691A2 (en) * 2000-03-07 2003-04-02 Sarnoff Corporation Camera pose estimation
US6535114B1 (en) * 2000-03-22 2003-03-18 Toyota Jidosha Kabushiki Kaisha Method and apparatus for environment recognition
US7558402B2 (en) * 2003-03-07 2009-07-07 Siemens Medical Solutions Usa, Inc. System and method for tracking a global shape of an object in motion
US7072494B2 (en) * 2004-02-20 2006-07-04 Siemens Corporate Research, Inc. Method and system for multi-modal component-based tracking of an object using robust information fusion
SE528068C2 (sv) * 2004-08-19 2006-08-22 Jan Erik Solem Med Jsolutions Igenkänning av 3D föremål
US20070098221A1 (en) * 2005-10-27 2007-05-03 Charles Florin Method for detection and tracking of deformable objects using adaptive time-varying autoregressive model
JP4715539B2 (ja) * 2006-02-15 2011-07-06 トヨタ自動車株式会社 画像処理装置、その方法、および画像処理用プログラム
US8335666B2 (en) * 2006-09-01 2012-12-18 Intelligent Manufacturing Systems International Three-dimensional model data generating method, and three dimensional model data generating apparatus
US8098889B2 (en) * 2007-01-18 2012-01-17 Siemens Corporation System and method for vehicle detection and tracking
US8107735B2 (en) * 2007-04-10 2012-01-31 Denso Corporation Three dimensional shape reconstitution device and estimation device
GB2455313B (en) * 2007-12-04 2012-06-13 Sony Corp Apparatus and method for estimating orientation
RU2009104869A (ru) * 2009-02-13 2010-08-20 Государственное образовательное учреждение высшего профессионального образования Курский государственный технический университет (R Способ распознавания трехмерных объектов по единственному двумерному изображению и устройство для его реализации
JP5290864B2 (ja) * 2009-05-18 2013-09-18 キヤノン株式会社 位置姿勢推定装置及び方法
JP2011043419A (ja) * 2009-08-21 2011-03-03 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
TWI393074B (zh) * 2009-12-10 2013-04-11 Ind Tech Res Inst 移動物體偵測裝置與方法
JP5460341B2 (ja) * 2010-01-06 2014-04-02 キヤノン株式会社 3次元計測装置及びその制御方法
JP5618569B2 (ja) * 2010-02-25 2014-11-05 キヤノン株式会社 位置姿勢推定装置及びその方法
JP5393531B2 (ja) * 2010-02-25 2014-01-22 キヤノン株式会社 位置姿勢推定装置、位置姿勢推定方法、プログラム、記憶媒体
JP5600043B2 (ja) * 2010-09-10 2014-10-01 株式会社Ihi スペースデブリ検出方法
JP5863440B2 (ja) * 2010-12-28 2016-02-16 キヤノン株式会社 情報処理装置および方法

Also Published As

Publication number Publication date
WO2014077272A1 (ja) 2014-05-22
US20150235380A1 (en) 2015-08-20
JP2014102608A (ja) 2014-06-05
CA2890717A1 (en) 2014-05-22
US9652864B2 (en) 2017-05-16
EP2922023A4 (en) 2016-11-16
RU2628217C2 (ru) 2017-08-15
RU2015123211A (ru) 2017-01-10
EP2922023A1 (en) 2015-09-23
CA2890717C (en) 2018-03-06

Similar Documents

Publication Publication Date Title
JP6044293B2 (ja) 3次元物体認識装置および3次元物体認識方法
CN110349213B (zh) 基于深度信息的位姿确定方法、装置、介质与电子设备
JP7326720B2 (ja) 移動体位置推定システムおよび移動体位置推定方法
US10059002B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
US10109104B2 (en) Generation of 3D models of an environment
JP4985516B2 (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
EP2153409B1 (en) Camera pose estimation apparatus and method for augmented reality imaging
KR101926563B1 (ko) 카메라 추적을 위한 방법 및 장치
JP2014169990A (ja) 位置姿勢計測装置及び方法
JP7556388B2 (ja) 測位装置、推定方法、及びプログラム
JP2009237848A (ja) 情報処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP6905390B2 (ja) 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム
JP2007249592A (ja) 3次元物体認識システム
CN111665512A (zh) 基于3d激光雷达和惯性测量单元的融合的测距和绘图
CN103017676A (zh) 三维扫描装置和三维扫描方法
JP2006252275A (ja) カメラ運動及び物体形状の復元システム
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
US20180191951A1 (en) Imaging apparatus and imaging condition setting method and program
CN110825079A (zh) 一种地图构建方法及装置
CN117351140B (zh) 融合全景相机和激光雷达的三维重建方法、装置及设备
CN113920196A (zh) 视觉定位方法、装置及计算机设备
KR102084756B1 (ko) Slam 공간 지도의 완성도 판단 방법
JP6548789B2 (ja) 位置姿勢計測装置及び方法
JP2019020218A (ja) データ間引き装置、測量装置、測量システム及びデータ間引き方法
Jaw et al. Line feature correspondence between object space and image space

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161031

R151 Written notification of patent or utility model registration

Ref document number: 6044293

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250