JP4912388B2 - 2次元見え方およびマルチキュー奥行き推定を使用する実世界の物体の視覚的追跡方法 - Google Patents

2次元見え方およびマルチキュー奥行き推定を使用する実世界の物体の視覚的追跡方法

Info

Publication number
JP4912388B2
JP4912388B2 JP2008314454A JP2008314454A JP4912388B2 JP 4912388 B2 JP4912388 B2 JP 4912388B2 JP 2008314454 A JP2008314454 A JP 2008314454A JP 2008314454 A JP2008314454 A JP 2008314454A JP 4912388 B2 JP4912388 B2 JP 4912388B2
Authority
JP
Japan
Prior art keywords
depth
camera
dimensional
time
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008314454A
Other languages
English (en)
Other versions
JP2009146406A (ja
Inventor
ジュリアン・エガート
スヴェン・レバン
ヴォルカー・ウィラート
チェン・チャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Research Institute Europe GmbH
Original Assignee
Honda Research Institute Europe GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Research Institute Europe GmbH filed Critical Honda Research Institute Europe GmbH
Publication of JP2009146406A publication Critical patent/JP2009146406A/ja
Application granted granted Critical
Publication of JP4912388B2 publication Critical patent/JP4912388B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、カメラシステム、2次元画像形成、およびカメラからの物体の距離の異なる測定値の組合せを用いて、経時的に実世界物体の動的状態を推定するための方法を記載する。本発明はまた、カメラ手段およびプログラムされたコンピューティング手段を有する追跡装置にも関する。
技術的システムにとって、視覚的追跡は、動的環境で物体を解析するために必要な1つの重要な特徴であり、この数十年の集中的な研究の対象であり、例えば監視、衝突防止、および軌跡評価の分野における用途を導いてきた。
Toward Robot Learning of Tool Manipulation from Human Demonstration, Aaron Edsinger and Charles C. Kemp 1 Computer Science and Artificial Intelligence Laboratory Massachusetts Institute of Technology Cambridge, Massachusetts(特に図1および10を参照されたい)に詳述されている通り、ロボット分野では、カメラ手段の位置および向きを適応させるためのアクチュエータを制御することによって、カメラ手段の入力視野内の追跡される物体の位置および向きを制御するビジュアルサーボユニットに、視覚的追跡の結果を転送することができる。
ビジュアルサーボは、1つ以上のカメラおよびコンピュータビジョンシステムを使用して、ワーク(追跡される物体)に対するロボットのエンドエフェクタ(マニピュレータ)の位置を制御することを含む。
技術的追跡システムの主な問題は、それらがしばしば、追跡されている物体の正確な内部モデルを必要とすることにある。一例として、交通場面では、これらは例えば自動車の3次元モデル(それらの正確な物理的大きさについての知識を含め、ボリュメトリックまたはサーフェスモデルのいずれか)とすることができ、それらは次いで、カメラシステムによって感受される刺激と一致するように適合される。代替的に、多くの技術的追跡システムは、物体の色のような物体の見え方に関する特定の知識によって、物体を見つける。しかし、一般的な場合、追跡すべき物体は事前には分からないので、正確な3次元モデルまたは他の特定的な知識は利用できない。この場合、追跡システムは、幾つかの異なるキューおよび測定値の組合せを使用する、物体の3次元位置および3次元速度の推定に頼らなければならない。
先行技術
視覚的追跡とは、カメラ手段によって供給される信号を使用して、経時的に実世界物体を、その動的パラメータ(位置、速度等)およびカメラにおけるその2次元見え方が変化するにも関わらず、視覚的に識別しかつ追従する能力である。カメラの見え方は、実世界3次元物体の視覚的特性の2次元スクリーンへの透視投影の性格を成すので、本質的に2次元である。それは、(外部光スペクトル、光源の位置の変更、反射率、および日陰効果のような)変わりやすい外部条件によって生じる様々な表面効果のため、物体の変形のような内部特性のため、または単に物体が回転して奥行きの位置が変わったために、かなり変化することがあるので、透視投影は、捕捉された画像における物体の異なる2次元見え方を導く。
さらに詳しくは、視覚的追跡は通常、経時的な物体の動的制約付き探索を定義する。これは、物体の動的状態(その位置、速度等)およびさらなる変換パラメータの推定を含み、両タイプの動的パラメータは通常、内部に格納された見え方モデルと、物体の現在の実際の見え方をもたらす刺激との間の一致を最大化しようと試みる、対応探索によって得られる。最大化は、物体の仮説的動的パラメータに応じて内部見え方モデルを変化させることによって、実現される。次いで最良の一致は、物体のさらなる追跡のために使用される真のパラメータの新しい推定値を得るために、処理される。追跡メカニズムの研究は、非特許文献1に見ることができる。
視覚的追跡のための先行技術として、以下が挙げられる。
1.幾つかの公知の追跡システムは、2次元「テンプレート」を使用して、物体パラメータとして例えばその2次元位置、速度、および加速度を推定して、純粋に2次元ベースの追跡を取り扱う。例として、テンプレートと入力との間のユークリッド差分費用関数を使用する視覚入力における物体の相関ベースの探索、ヒストグラムベースの費用関数(非特許文献2、3)を使用する平均場技術、およびユークリッド費用関数の線形化バージョンを構成する差分法(例えばLucas−Kanadeまたは「KLT」アルゴリズム)のような特別なアルゴリズムが挙げられる。以下で、これらの技術のいずれかに従って働くモジュールを「2次元トラッカ」と呼ぶ。
2.テンプレートマッチング技術を使用して、回転、スケーリング、および剪断を含む幾何学的2次元変換のような、より複雑な追跡の物体パラメータを推定することができる。例として再び、アフィン変換の推定のために特殊な変形を施した、「KLT」アルゴリズムが挙げられる(非特許文献4〜6)。以下で、この技術を「2次元変換推定」と呼ぶ。
3.奥行きは通常、別個のキューから得られる追加的な「測定値」として含まれる。現状技術では、視差の計算を可能にする両眼/立体視システムが使用され、その結果として、追跡される物体の奥行き推定が得られる(非特許文献7)。奥行きは、物体の状態に付加されるが、自律的に実行される2次元ベースの追跡に影響を及ぼさない。視差ベースの奥行き計算は、信頼性の点でかなりの限界を有し、ベースライン長(2つのカメラ間の水平距離)によって制限される狭い奥行き範囲でのみ有効であるので、例えば人間は、数メートルの範囲でしかそれを使用することができない。以下で、この技術を「視差ベースの奥行き測定」と呼ぶ。
4.2次元トラッカの代わりに、3次元トラッカは時々、物体の正確な内部3次元モデルを使用する(物体を他の手段で測定するか、または事前に承知していなければならない)(非特許文献8、9)。この場合、内部3次元モデルの変換投影バージョンとカメラ入力との正確な一致を見出すことができれば、網膜上のそのサイズから、その奥行きに関する結論を引き出すことが可能である。
5.別のタイプの両眼3次元トラッカは、内部状態として3次元座標を直接使用して始動し、両方のカメラで特定の物体の見え方を見つけようとする。この場合、2次元見え方一致計算および奥行き推定は、3次元座標、および左右のカメラの2次元座標へのそれらの投影を介して、自動的に結合される。これらのトラッカはしばしば、(特殊な事例として、カルマンフィルタを含む)動的ベイジアンネットワークを使用して実現されるので、推定が経時的に得られかつ改善される。
6.公知のマルチキュートラッカは、同一タイプのパラメータの推定のために複数のキューを統合し、それらの信頼性に従ってそれらを組み合わせるか、または最も信頼できるキューを選択して、これらのみに基づいて推定を行なう。
7.一般的に、動的ベイジアン推定器はまさしく、追跡中に生じる状態変数の時間的推定および統合のための研究分野である。我々は、その変形の粒子フィルタおよびカルマンフィルタを含むこの先行技術を公知であると考える(非特許文献10〜12)。
8.視界のための頑健かつ高密度の3次元信号を提供する、例えば飛行時間信号を利用した奥行き検知カメラ技術(特許文献1を参照されたい)を使用する、多数の視覚的追跡システムが存在する。通常、これらのシステムは、3次元データに頼って物体を検出し追跡する。すなわち、物体は奥行きデータを用いて「切り取られる」。しかし、本発明で追求する方法は標準的な可視カメラおよび見え方ベースの追跡に依存するので、a)追跡される物体はその3次元データからセグメント化可能である必要が無く、かつb)特殊な検知ハードウェアが不要である。それにも関わらず、そのような検知技術からのデータを、まさしく核心的な意味で、追加的奥行き測定値として我々のシステムに組み込むことができる。
WO2004/107266A1
Yilmaz, A., Javed, O., Shah, M. "Object tracking: A survey". ACM Comput. Surv. 38(4) (2006) 13 Comaniciu, D., Ramesh, V., Meer, P. "Real-time tracking of non-rigid objects using mean-shift". Computer Vision and Pattern Recognition, 02:2142, 2000 Comaniciu, V., Meer, P. "Kernel-based object tracking", 2003 Lucas, B.D., Kanade, T. "An iterative image registration technique with an application to stereo vision". In International Joint Conference on Artificial Intelligence (IJCAI81), pages 674-679, 1981. Tomasi, C., Kanade, T. "Detection and tracking of point features". Technical Report CMU-CS-91-132, Carnegie Mellon University, April 1991. Shi, J., Tomasi, C. "Good features to track". In IEEE Conference on Computer Vision and Pattern Recognition (CVPR’94), pages 593-600, Seattle, June 1994. Qian, N. "Binocular disparity and the perception of depth". Neuron 18(3): 359-368, March 1997. Lou, J., Tan, T., Hu, W., Yang, H., Maybank, S.J. "3-D Model-Based Vehicle Tracking", IEEE Transactions on Image Processing, Volume 14, pp. 1561-1569, Oct. 2005. Krahnstoever, N., Sharma, R. "Appearance Mangement and Cue Fusion for 3D Model-Based Tracking", IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Volume 2, pp. 249-254, 2003. Giebel, J., Gavrila, D., Schnorr, C. "A Bayesian for multicue 3D object tracking". In Proceedings of European Conference on Computer Vision, 2004. Ristic, B. "Beyond the Kalman Filter: Particle Filters for Tracking Applications". Artech House Publishers, February 2004. Arulampalam, S., Maskell, S., Gordon, N.J., Clapp, T. "A Tutorial on Particle Filters for On-line Non-linear/Non-Gaussian Bayesian Tracking". In IEEE Transactions of Signal Processing, Vol. 50(2), pages 174-188, February 2002.
本発明は、事前に正確な物体モデルを必要としないが、それにも関わらず、物体の2次元見え方の解析および奥行き推定のための幾つかの視覚的キューの統合に依存して、物体の3次元位置および3次元速度を推定することのできる視覚的追跡システムを目標とする。
この能力は、独立請求項の特徴によって達成される。従属請求項は、本発明の中心的概念をさらに展開する。
本発明の第1態様は、2次元見え方ヒントおよびマルチキュー奥行き推定を使用して、任意の実世界物体の3次元位置および3次元速度を推定することによって、該実世界物体を追跡するための方法に関する。該方法は、以下のステップを含む。
(1.1)時間tに計測されるカメラ画像を撮影するステップ。
(1.2)時間tの入力特徴を得るために一連のキューを使用して、時間tのカメラ画像のうちの追跡される物体が予想される部分領域を前処理するステップ。
(1.3)時間tの視覚的入力の領域であって、(セグメント化アルゴリズムのような)追加的アルゴリズム、または(カメラによって送達される画像の位置および領域を指示する)ユーザインタラクションのいずれかにより得られた領域を、外部手段を用いて指示することによって、時間tの入力特徴を使用してトラッカのテンプレートを初期化するステップ。この時間ステップで、選択された領域は重み付けマスクの形で格納され、物体の内部状態は、(例えば、そのセントロイド、その重心、または重み付けマスクを用いて積分されたその平均位置を使用して)該領域から導出される位置に初期化される。
(1.4)時間t+dtに次のカメラ画像を撮影するステップ。
(1.5)時間t+dtのカメラ画像の部分領域をステップ1.2と同様に前処理するステップ。
(1.6)時間tおよびt+dtの入力特徴に2次元トラッカを使用して、カメラ画像の2次元座標における物体の見え方の2次元位置および2次元速度の推定値を得るステップ。
(1.7)視覚をベースにすることができるが、必ずしもそうする必要の無い追加的キューから、時間tの物体の奥行き(カメラシステムからのその距離)の概算推定を使用するステップ。2つの連続的時間ステップtおよびt+dtで計測され、これは奥行き変化の概算として役立つ。実際には、奥行き計測は、双眼カメラシステムの場合のように、例えば第2カメラからの入力が関係するかもしれない。
(1.8)時間tおよびt+dtのカメラ画像および/または選択された入力特徴に2次元変換推定を使用して、追跡される物体のスケール/サイズの相対的変化を抽出するステップ。
(1.9)剛性物体の場合、サイズの縮小または拡大がそれぞれ物体の奥行きの増加または減少のヒントになるという意味で、ステップ1.7からの物体の奥行きおよび奥行き変化の概算推定を、ステップ1.8からのスケール/サイズの変化と結合して、物体の奥行き推定を改善するステップ。
(1.10)(カメラ座標における)ステップ1.6からの追跡される物体の2次元位置および2次元速度を、ステップ1.9からの奥行きおよび奥行き変化の推定と結合し、カメラ位置決め情報を使用することによってそれをグローバル3次元座標に変換して、追跡される物体のグローバル座標を得るステップ。
(1.11)3次元位置を使用して、物体の大まかな物理的サイズを計算するステップ。
(1.12)物体を見失うまで(それは例えば入力とテンプレートとの間のマッチングから何らかの信頼性基準によって検出することができる)、物体を追跡しながらステップ1.4〜1.11を繰り返すステップ。
(1.13)再びステップ1.1から始め、同一物体または新しい物体を追跡する。
該方法はさらに、
(2.1)グローバル空間におけるカメラの位置および向きの変化を考慮に入れて、カメラおよび/またはそれが搭載されたプラットフォームの動きを補償するステップ、
を含む。
ステップ1.6および1.7による物体の推定、および/またはステップ1.9による結合に確率論的方法を使用することによって、不確実性を考慮に入れることができる。
ステップ1.7からの奥行きおよび奥行き変化/奥行き速度の概算推定は、例えば動的ベイジアンフィルタ/カルマンフィルタ等を使用するときのように、結果を時間で積分することによって増分的に行なうことができる。
単一の概算奥行き推定の代わりに、異なるキューおよび/または測定技術に基づく一連の奥行き推定を使用することができ、次いでそれらは再び、ステップ1.9の場合と同様に、スケール/サイズの変化推定で2次元変化と結合される。
2つの推定ステップ1.7および1.8は、次の意味で、相互に影響を及ぼすことがある。
a)ステップ1.8からの2次元変換の推定は、ステップ1.7からの予想される奥行き変化/奥行き速度を考慮に入れることによって行なわれる。すなわち、奥行きの増加/減少によって生じる予想されるサイズの増減が、変換探索手順で考慮される。
b)ステップ1.7からの物体の奥行き推定は、ステップ1.11で計算された物理的サイズから導出される予想奥行き、およびステップ1.8からの追跡対象物体のスケール/サイズの予想変化に関する事前の情報を使用することによって行なわれる。
物体の状態パラメータのより高次の導関数に同じ原理を適用することができるので、例えば物体の位置またはサイズまたは向きの加速度が推定され、追跡手順に使用される。
本発明のさらなる特徴、特性、および利点は、本発明の好適な実施形態の以下の詳細な説明を、添付する図面の図と併せて読んだときに、当業者には明らかになるであろう。
本発明を実現するためのシステムの概要を示す。 物体の奥行き、物体の物理的サイズ、およびその2次元見え方サイズの間の数学的関係の図解を示す。
図1は、本発明を実現するためのシステムの概要を示す。
該システムは、幾つかのモジュールを備える。
1.物体の2次元見え方に基づいて働き、その位置および速度を推定する2次元トラッカモジュール。これは、追跡される物体の正確な事前のモデルを必要とすることなく行なわれる。代わりに、追跡テンプレート(すなわち、今から追跡すべき場面の原型的部分)を、第1ステップとして入力画像から直接抽出することができる。これは、物体の見え方および物体クラス/タイプに対する事前の制限無く、一般的な任意の物体を追跡することを可能にする。
2.そのスケールおよびスケール変化率を含め、テンプレートと入力との間の最良の一致を見出すことを可能にする、幾つかの変換パラメータを推定する、幾何学的2次元変換推定モジュール。例として、2つの追跡時間ステップ間のスケール変化が0.1である場合、それは、追跡される物体の2次元見え方(すなわち、カメラシステムによって送達されるときのその見え方)は、サイズが10%増大することを意味する。
3.物体の奥行き(すなわち、カメラシステムから物体までの距離)の独立測定値を提供する1つ以上のモジュール。しかし、これらの測定値はあまり信頼できないかもしれない。我々の例示的な場合では、a)左右のカメラ間のローカルパッチの比較に基づく高密度双眼視差ベースの奥行き測定システム、およびb)左右のカメラ画像内で物体を見つけ出そうとし、2つの一致間のずれから追跡される物体の単一の奥行き値を計算する、よりグローバルに作用する双眼システムを使用する。
4.座標をカメラ座標系からグローバル座標系に変換しかつ元に戻すための手段。この場合、各ポイントの「完全な」3次元カメラ座標は、2次元カメラ座標プラス奥行き値から構成される。カメラ画像は、一種の「ピンホールカメラ」として取り扱うことができるように、レンズ歪みを考慮するように修正することができると想定し、グローバル空間におけるカメラの位置および向きが分かると、幾何学的考察を介して座標変換を容易に求めることができる。その場合、1つの座標系から他の座標系への完全な変換は、平行移動、直交投影、および透視投影の観点から説明することができる。
5.システムと共にカメラシステムの動きを定量化することができるように、グローバル空間におけるカメラの位置および向きの変化を測定または推定する手段。これは、例えばビジョンシステムを搭載した動く自動車またはロボットのような、カメラを搭載したまま自律的に移動するプラットフォームの場合に特に有利である。
システムは、場合により可動であるプラットフォームに取り付けられたカメラから、w*h画素のサイズの2次元入力画像を受信する。グローバルに固定された座標系に対するプラットフォームの位置および向き、ならびにプラットフォームに対するカメラ(または、物体奥行き測定が双眼視差によって供給される場合、2つのカメラ)の位置および向きは、いつでも大まかに分かっているものと想定される。これにより、グローバル3次元座標系とカメラに固定されそれとアライメントさせた3次元座標系との間で座標の変換が可能である。
さらに、カメラの3次元座標からカメラの2次元入力座標への投影およびその逆が分かっているものと想定される。その結果、グローバル3次元座標系と2次元カメラ入力座標との間で、座標をいつでも変換することができる。
次に、本発明に係る処理について説明する。
第1ステップとして、2次元カメラ入力は、一連のn個のキューを使用して前処理され、n個1組の画像を導く。キューは、向き、コントラスト、または色抽出フィルタを入力画像に適用するような、単純な前処理方法によって得ることができるが、その期待される色のような、特定の物体に特異的な、より洗練された指標をも含むことができる。キューの厳密な選択は、それらが前処理されたカメラ画像を用いて物体を追跡することを可能にする充分な情報を含む限り、本発明の関連事項ではない。理想的な場合では、1つのキューからの追跡障害が他のキューによって補償され、プロセス全体が入力の変動に対して頑健となるように、様々なキューが、物体に関して非相関的な情報を伝達する。以下のステップのほとんどは、前処理された入力画像から抽出されたn個のキューを使用し、以下ではそれらを「n個の入力特徴」と呼ぶ。
処理資源を節約するために、前処理を2次元カメラ視野の制限された部分領域に制限することが可能である。部分領域は、例えば、追跡すべき物体の推定される位置、サイズ、および速度から決定することができる。ひとたび追跡が開始されると、これらのパラメータは全て、追跡システムによって連続的に推定されるので、それらは容易に利用可能であり、各時間ステップで部分領域をそれに応じて調整することができる。
まず、手始めに、システムは、追跡すべき物体がどのように見えるか、おおよその概念を必要とする。この目的のために、システムに、入力特徴と同一空間で作用する2次元見え方テンプレートを供給しなければならない。実際には、これは、システムがそのようなテンプレートをユーザインタラクションもしくはここに記載しない他の(以前に記録された見え方テンプレートを供給することのできるメモリモジュールのような)モジュールから得ること、または再びユーザインタラクションからまたは他のモジュールから位置およびエリア情報を得て、現在の入力特徴を使用して、独力で2次元見え方テンプレートを抽出することを意味する。詳しくは、テンプレートを抽出するには、直接供給されるかまたは2次元カメラ入力座標に変換することのできる、位置およびエリアの指示を必要とする。システム内で物体の2次元見え方を説明するために使用される物体の内部状態は、テンプレート、2次元カメラ座標における位置、および指示されたエリアから得られる重み付けマスクから構成される。最終的に、例えば位置が3次元座標で供給された場合、想定される速度、サイズ等のような補助情報のみならず、3次元位置も物体の状態の一部となる。
ひとたびトラッカが初期化されると、2次元見え方テンプレートと入力特徴との間の一致が大きい視覚的場面の部分を見つけることによって、その後の画像で物体を探索することができる。これは2次元トラッカによって達成され、それは、我々の特別な場合では、増分的にかつ統計的に動作する最先端のマルチキュー動的ベイジアントラッカとして実現される。このモジュールから得られる結果は、追跡される物体が現在何か特定の2次元カメラ入力位置および速度を有している確率を示す、確率マップである。
物体の2次元見え方が経時的にかなり変化する場合、2次元見え方テンプレートおよび/または物体特定的なキューのパラメータを再調整する、キューおよびテンプレート適応ステップを、追跡手順に組み込むことが有用である。
さらなるステップとして、物体とカメラとの間の3次元距離を意味する、奥行きがここで推定される。本発明の中心的概念は、全く異なるキューに作用しかつ各々の単一推定の弱点を相互に補い合うように相補的に機能する、2つの特定の(以下で説明する)奥行き推定を結合するというものである。1)それらの1つは、双眼視を利用するような従来の技術を使用した、直接奥行き推定である。本質的に、この直接奥行き推定は、相互にすでに統合された幾つかの異なる方法の組合せとすることができる。2)第2の技術は、単一のカメラの物体の2次元見え方のサイズの変化を観察することから抽出できる奥行き変化推定である。基本原理は、カメラまでの距離が増加または減少する物体が、2次元見え方のサイズの減少または増加をそれぞれ生じるということである。物体奥行きおよび奥行き速度が分かると、物体の2次元見え方の予想サイズ変化を推定することができる。逆に、物体奥行きおよびその2次元見え方サイズの変化が分かると、奥行き速度を推定することができる。したがって2つの奥行き推定(すなわち、直接推定および2次元サイズ変化の推定に基づくもの)は、密接に結び付けられ、これら2つの特性の組合せを利用する方法で3次元追跡システムを設計することは合理的である。そのようなシステムは、物体自体の正確な3次元モデル無しで、主に物体の2次元見え方および2次元見え方変化に頼って、任意の物体を安定的に容易に3次元追跡することが可能である。
特に、双眼技術と組み合わせて、2つの異なる奥行き推定法を結合することにより、3次元物体追跡システムの利点がもたらされる。双眼システムは、カメラのベースライン長に応じて、カメラからの近接距離でよく機能する。しかし、追跡される物体のサイズ変化の観察による奥行き推定は、より大きい範囲の距離に対してよく機能することができる。したがって両方の方法は相互にブートストラップすることができる。例として、その奥行きが近接距離範囲で正確に測定される物体は、それが双眼システムの正確な3次元推定の範囲外に移動したときには、そのサイズ変化を奥行き測定して追跡することができる。
物体の2次元見え方のサイズ変化は、このシステムで、先行技術の要点2に記載した、2次元変換推定と呼ばれるテンプレートマッチング手順を使用して、抽出される。我々の場合では、システムは、2次元見え方テンプレートと入力画像との間の最良の一致を提供するアフィン変換Aを探索する。各時間ステップtで、現在の変換状態A(t)は、「現在追跡される物体が、特定の量だけ変換された、例えば5度回転されかつ10%スケーリングされた、2次元見え方テンプレートのように見える」という意味で、テンプレートに対する追跡される物体の現在の2次元見え方の最良の表現を表わす。次いで次の時間ステップtk+1の変換状態A(tk+1)は、変換状態A(t)を未来に波及させ、かつそこから新しいテンプレートマッチングをベースとする変換推定探索を開始することによって、推定される。各アフィン変換状態から、サイズλは、次のようにそれをスケーリングおよび回転の合成として近似することによって抽出される。
Figure 0004912388
これは、スケールλが、変換状態行列の決定から直接計算することができることを意味する。次いで、2つの連続時間ステップからの結果を減算して、2次元見え方のサイズ変化を定量化する変換変化、例えば2つの時間ステップ間のスケール変換変化Δλを計算することができる。
双眼入力に基づく直接奥行き推定は、我々の場合では、標準視差ベースの高密度(すなわち画素単位)奥行き測定(先行技術の要点3を参照されたい)の後に、物体重み付けマスクを用いて、(例えば、高密度奥行き測定とマスクの空間積分によって)追跡される物体全体の単一のおおよその奥行きを抽出するものであった。再びこれらの測定値を、動的ベイジアン推定器を用いて時間で積分した。我々がシステムに組み込んだ追加の第2の双眼奥行き測定は、第1カメラから抽出された2次元見え方テンプレートを、例えば相互相関または先行技術の要点2に記載されたテンプレートマッチング技術を用いて、第2カメラで直接探索するものである。左側のカメラでテンプレートが見られる位置と右側のカメラで見られる位置との間の相対ずれから、奥行き測定のベースとしても使用することのできる視差が抽出される。
直接奥行き測定は、しばしば信頼できない物体の奥行きに関して、幾つかのヒントを提供する。連続時間ステップからの奥行きを使用して、観察者/カメラプラットフォームに対して移動する物体の奥行きの速度を抽出することもできる。カメラプラットフォーム自体が移動しており、かつこの動きのパラメータが既知である場合には、例えばカメラ位置および動きを物体パラメータから減算して、絶対座標の物体パラメータを得ることによって、この作用を補償することができる。
直接奥行き測定に加えて、システムは説明した通り、2次元見え方サイズ変化測定値を送達する。略剛性の物体の場合、較正済みのカメラシステムでは、その物理的サイズλph、その2次元見え方サイズλ、および奥行きzの間の関係は、次の通りである(cは、カメラの焦点距離、2次元スクリーンサイズ、および追跡テンプレートサイズのような、幾つかのシステムパラメータを圧縮する定数である)。
Figure 0004912388
これは、2次元見え方サイズλおよび奥行きzが相互に反比例することが予想されることを表わす。つまり、同一の物理的サイズの場合、カメラからより遠い/により近い物体はカメラシステムではより小さく/より大きく見える。
図2は、物体奥行き、物体の物理的サイズ、およびその2次元見え方サイズの間の数学的関係の図解を示す。
本発明に係るシステムでは、数式2は直接奥行き測定を、2次元見え方サイズ変化による奥行き推論と結合する。内部では、我々はとりわけ速度のような、パラメータλph、λ、および{x,y,z}を含む状態によって追跡される物体を表わす。直接奥行き測定は、各時間ステップでzの新しい推定値をもたらす。2次元見え方変化測定は、各時間ステップで、λの新しい推定値をもたらす。2次元位置追跡は奥行きと共に、各時間ステップで物体のグローバル位置{x,y,z}の新しい推定値をもたらす。物理的サイズλphは、他の感覚測定、または代替的に特定の物体の物理的サイズに関する事前の知識、または対話する人間からの管理入力等のような、その状態に関する追加ヒントを他のソースから受け取ることのできるシステムの内部パラメータである。
ここで追跡システムのタスクは、現在の状態パラメータλph(t)、λ(t)、および{x,y,z}(t)を取り、それらを使用して、状態パラメータの何らかの動的モデル(例えば物体の物理的サイズが一定であり、物体が一定の奥行き速度で移動しており、かつ2次元見え方サイズが数式2に従って変化するようなモデル)に基づいて、次の時間ステップの予想状態パラメータ
Figure 0004912388
および
Figure 0004912388
を推定し、これを(2次元サイズ推定からの)λ、(直接奥行き推定からの)z、および(2次元位置推定からの){x,y}の新しい測定推定値と結合して、全て数式2の制約の下で新しい状態パラメータλph(tk+1)、λ(tk+1)、および{x,y,z}(tk+1)の更新推定値を得ることである。(図1で、新しい測定推定値は、それらを「真」の測定値と区別するために、表記法
Figure 0004912388
および
Figure 0004912388
を受け取る。)
これを行なうための直接的方法は、少なくとも考慮する状態パラメータ
Figure 0004912388
を含む確率密度に対し、動的ベイジアン推定器/再帰的ベイジアンフィルタ/確率動力学的推定器の予測−確認枠組のような確率論的方法を使用し、過去の全ての直接奥行き測定および2次元見え方サイズ変化測定を前提として、経時的にそれを改善して、状態パラメータの最良の推定を得ることである。この枠組では、新しい測定推定値は、確率論的尤度に対応する。現在の確率密度から、追跡される物体の状況を最もよく記述する最確パラメータλph、λ、およびzを抽出することができる(例えば最大確率点を選択することによって;しかしこれを達成する異なる方法が存在する)。言うまでもなく、物体の(カメラ座標における)2次元位置および速度のようなさらなる物体パラメータが、見え方ベースの2次元追跡システムによって送達される(モジュール1)。次いでサイズおよび奥行きパラメータと共に、追跡される物体の3次元位置および速度を決定することができる(モジュール4)。さらに、3次元追跡とカメラの位置および向きの追跡の維持とを組み合わせることにより(モジュール5)、エゴモーション(egomotion)作用を補償することができるので、たとえカメラシステムがその位置を変えても、物体を確実に追跡することができる。特に、これは、ロボット/自動車自体が移動しながら、物体の信頼できる3次元追跡を行なうことが、視覚的場面の一貫した表現を構築するために必要な能力である、他の交通関与者の監視用のカメラを搭載した視覚的に案内されるロボットまたは自動車に関係する用途に、有意義である。

Claims (7)

  1. 2次元見え方ヒントおよびマルチキュー奥行き推定を使用して、実世界物体の3次元位置および3次元速度を推定することによって、実世界物体を視覚的に追跡するためのコンピュータにより実行される方法であって、
    (1.1)時間tに計測されるカメラ画像を撮影するステップと、
    (1.2)時間tの入力特徴を得るために一連のキューを使用して、時間tのカメラ画像のうちの追跡される物体が予想される部分領域を前処理するステップと、
    (1.3)時間tの視覚的入力の領域が追加的アルゴリズムまたはユーザインタラクションのいずれかにより指示されることに応答して、前記時間tの入力特徴を使用してトラッカのテンプレートを初期化するステップと、
    (1.4)時間t+dtに次のカメラ画像を撮影するステップと、
    (1.5)時間t+dtのカメラ画像の部分領域をステップ1.2と同様に前処理するステップと、
    (1.6)時間tおよびt+dtの入力特徴に2次元トラッカを使用して、カメラ画像の2次元座標における物体の見え方の2次元位置および2次元速度の推定値を得るステップと、
    (1.7)2つの連続時間ステップtおよびt+dtで測定された、追加的キューからの時間tの前記物体の奥行きの推定値を使用して奥行き変化を概算するステップと、
    (1.8)時間tおよびt+dtのカメラ画像または選択された入力特徴に2次元変換推定を使用して、追跡される物体のスケール/サイズの相対的変化を抽出するステップと、
    (1.9)ステップ1.7からの前記物体の奥行きおよび奥行き変化の概算値およびステップ1.8からのスケール/サイズの相対的変化に基づいて、前記物体の奥行きおよび奥行き変化を求めるステップと、
    (1.10)カメラ座標におけるステップ1.6からの追跡される物体の2次元位置および2次元速度、ならびにステップ1.9からの奥行きおよび奥行き変化の推定値を使用して、前記物体の3次元座標を求めるステップと、
    (1.11)前記3次元座標を使用して、前記物体の大まかな物理的サイズを計算するステップと、
    (1.12)停止基準が満たされるまで、物体を追跡しながらステップ1.4〜1.11を繰り返すステップと、
    を含む方法。
  2. (2.1)グローバル空間におけるカメラの位置および向きの変化を考慮に入れて、カメラおよび/または前記カメラが搭載されたプラットフォームの動きを補償するステップ、をさらに含む、請求項1に記載の方法。
  3. (3.1)ステップ1.6、1.7、またはステップ1.9に確率論的方法を使用する、請求項1または2に記載の方法。
  4. (5.1)単一の概算奥行き推定の代わりに、異なるキューおよび/または測定技術に基づく一連の奥行き推定が使用され、次いでそれらが再び、ステップ1.9の場合と同様にスケール/サイズの変化推定で2次元変化と結合される、請求項1ないし3のいずれか1項に記載の方法。
  5. (6.1)ステップ1.8からの2次元変換の推定が、ステップ1.7からの予想される奥行き変化/奥行き速度を考慮に入れることによって行なわれ、すなわち、奥行きの増加/減少によって生じる予想されるサイズの増減が、変換探索手順で考慮され、
    (6.2)ステップ1.7からの物体の奥行き推定が、ステップ1.11で計算された物理的サイズから導出される予想奥行き、およびステップ1.8からの追跡対象物体のスケール/サイズの予想変化に関する事前の情報を使用することによって行なわれる、という意味で、2つの推定ステップ1.7および1.8が相互に影響を及ぼす、請求項1ないし4に記載の方法。
  6. カメラ手段の位置および向きを適応させるためのアクチュエータを制御することによって、カメラ手段の入力視野内の追跡される物体の位置および向きを制御するビジュアルサーボユニットに、ステップ1.12の結果が転送される、請求項1ないし5のいずれか1項に記載の方法。
  7. コンピューティング装置で実行したときに請求項1ないし6のいずれか1項に記載の方法を実現する、コンピュータソフトウェアプログラム。
JP2008314454A 2007-12-11 2008-12-10 2次元見え方およびマルチキュー奥行き推定を使用する実世界の物体の視覚的追跡方法 Expired - Fee Related JP4912388B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP07122829A EP2071515A1 (en) 2007-12-11 2007-12-11 Visually tracking an object in real world using 2D appearance and multicue depth estimations
EP07122829.0 2007-12-11

Publications (2)

Publication Number Publication Date
JP2009146406A JP2009146406A (ja) 2009-07-02
JP4912388B2 true JP4912388B2 (ja) 2012-04-11

Family

ID=39365416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008314454A Expired - Fee Related JP4912388B2 (ja) 2007-12-11 2008-12-10 2次元見え方およびマルチキュー奥行き推定を使用する実世界の物体の視覚的追跡方法

Country Status (3)

Country Link
US (1) US8711221B2 (ja)
EP (1) EP2071515A1 (ja)
JP (1) JP4912388B2 (ja)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9736368B2 (en) 2013-03-15 2017-08-15 Spatial Cam Llc Camera in a headframe for object tracking
US10896327B1 (en) 2013-03-15 2021-01-19 Spatial Cam Llc Device with a camera for locating hidden object
US10585344B1 (en) 2008-05-19 2020-03-10 Spatial Cam Llc Camera system with a plurality of image sensors
US11119396B1 (en) 2008-05-19 2021-09-14 Spatial Cam Llc Camera system with a plurality of image sensors
US10354407B2 (en) 2013-03-15 2019-07-16 Spatial Cam Llc Camera for locating hidden objects
ES2400708T3 (es) * 2008-08-27 2013-04-11 Saab Ab Utilización de un sensor de imágenes y de un filtro de seguimiento de tiempo restante para evitar colisiones en vuelo
DE102009028742A1 (de) * 2009-08-20 2011-02-24 Robert Bosch Gmbh Verfahren und Steuergerät zur Bestimmung einer Bewegungsinformation eines Objekts
TWI425445B (zh) * 2009-09-29 2014-02-01 Nat Univ Tsing Hua 用於判斷一移動平台之自我運動量的方法以及偵測系統
US8988432B2 (en) 2009-11-05 2015-03-24 Microsoft Technology Licensing, Llc Systems and methods for processing an image for target tracking
KR101251184B1 (ko) * 2010-08-05 2013-04-08 서울대학교산학협력단 구동 명령을 이용한 비젼 트래킹 시스템 및 방법
KR101450491B1 (ko) * 2010-08-27 2014-10-13 인텔 코오퍼레이션 원격 제어형 장치들의 트랜스코더 가능 클라우드
CN102069821B (zh) * 2010-11-22 2013-07-10 南京大学 非接触式钢轨中垂面的测量方法
US8520895B2 (en) * 2010-12-29 2013-08-27 Honeywell International Inc. System and method for range and velocity estimation in video data as a function of anthropometric measures
WO2013012335A1 (en) * 2011-07-21 2013-01-24 Ziv Attar Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene
US9198737B2 (en) * 2012-11-08 2015-12-01 Navigate Surgical Technologies, Inc. System and method for determining the three-dimensional location and orientation of identification markers
US11304777B2 (en) 2011-10-28 2022-04-19 Navigate Surgical Technologies, Inc System and method for determining the three-dimensional location and orientation of identification markers
CN102622767B (zh) * 2012-03-05 2014-07-30 广州乐庚信息科技有限公司 双目非标定空间定位方法
US20140198977A1 (en) * 2012-03-21 2014-07-17 Texas Instruments Incorporated Enhancement of Stereo Depth Maps
JP5727969B2 (ja) * 2012-06-15 2015-06-03 株式会社東芝 位置推定装置、方法、及びプログラム
TWI471814B (zh) * 2012-07-18 2015-02-01 Pixart Imaging Inc 降低背景干擾的手勢判斷方法及其裝置
TWI496090B (zh) * 2012-09-05 2015-08-11 Ind Tech Res Inst 使用深度影像的物件定位方法與裝置
US9336597B2 (en) * 2012-11-08 2016-05-10 Navigate Surgical Technologies, Inc. System and method for determining the three-dimensional location and orienation of identification markers
US9111348B2 (en) * 2013-03-15 2015-08-18 Toyota Motor Engineering & Manufacturing North America, Inc. Computer-based method and system of dynamic category object recognition
JP5847117B2 (ja) * 2013-05-28 2016-01-20 東芝テック株式会社 認識辞書作成装置及び認識辞書作成プログラム
EP3011737A4 (en) 2013-06-20 2017-02-22 Thomson Licensing Method and device for detecting an object
US9742974B2 (en) * 2013-08-10 2017-08-22 Hai Yu Local positioning and motion estimation based camera viewing system and methods
US9483829B2 (en) 2013-09-04 2016-11-01 International Business Machines Corporation Efficient visual surface finding
US9679369B2 (en) 2013-09-12 2017-06-13 Ventana 3D Llc Depth key compositing for video and holographic projection
DE102013017895B4 (de) 2013-10-29 2018-06-28 Rwth Aachen Verfahren zur kontinuierlichen Ermittlung der 3D-Positionen und Trajektorie der Bewegung eines dynamischen Fertigungsgegenstandes
US9189689B2 (en) * 2013-10-30 2015-11-17 Nec Laboratories America, Inc. Robust scale estimation in real-time monocular SFM for autonomous driving
JP6186072B2 (ja) * 2014-02-20 2017-08-23 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. 単一カメラを用いた3dでの移動物体の位置測定
JP6317618B2 (ja) * 2014-05-01 2018-04-25 キヤノン株式会社 情報処理装置およびその方法、計測装置、並びに、作業装置
US9539944B2 (en) * 2014-06-11 2017-01-10 GM Global Technology Operations LLC Systems and methods of improving driver experience
CN113256730B (zh) * 2014-09-29 2023-09-05 快图有限公司 用于阵列相机的动态校准的系统和方法
US9792664B2 (en) 2015-01-29 2017-10-17 Wipro Limited System and method for mapping object coordinates from a video to real world coordinates using perspective transformation
CN104680556A (zh) * 2015-02-16 2015-06-03 燕山大学 基于视差的鱼类运动三维轨迹跟踪方法
CN104865896A (zh) * 2015-03-18 2015-08-26 贵州翰凯斯智能技术有限公司 一种工业机器人个性化作图方法
US10198954B2 (en) * 2015-12-30 2019-02-05 Motorola Solutions, Inc. Method and apparatus for positioning an unmanned robotic vehicle
KR102529119B1 (ko) * 2016-06-27 2023-05-04 삼성전자주식회사 객체의 깊이 정보를 획득하는 방법, 디바이스 및 기록매체
US20180091797A1 (en) * 2016-09-27 2018-03-29 The Boeing Company Apparatus and method of compensating for relative motion of at least two aircraft-mounted cameras
US10318826B2 (en) 2016-10-07 2019-06-11 Ford Global Technologies, Llc Rear obstacle detection and distance estimation
JP7071054B2 (ja) * 2017-01-20 2022-05-18 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
IT201700009585A1 (it) * 2017-01-30 2018-07-30 The Edge Company S R L Metodo per il riconoscimento di oggeti per motori di realta' aumentata mediante un dispositivo elettronico
US10552691B2 (en) 2017-04-25 2020-02-04 TuSimple System and method for vehicle position and velocity estimation based on camera and lidar data
JP2019015553A (ja) * 2017-07-05 2019-01-31 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法および個体撮像装置
US11303877B2 (en) * 2019-08-13 2022-04-12 Avigilon Corporation Method and system for enhancing use of two-dimensional video analytics by using depth data
EP3786889A1 (en) 2019-08-30 2021-03-03 Tata Consultancy Services Limited Method and system for tracking motion of subjects in three dimensional scene
CN112325767B (zh) * 2020-10-16 2022-07-26 华中科技大学鄂州工业技术研究院 一种融合机器视觉和飞行时间测量的空间平面尺寸测量方法
WO2023076709A1 (en) * 2021-11-01 2023-05-04 Brookhurst Garage, Inc. Thin object detection and avoidance in aerial robots
CN117140539B (zh) * 2023-11-01 2024-01-23 成都交大光芒科技股份有限公司 基于空间坐标变换矩阵的机器人三维协同巡检方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3651745B2 (ja) * 1998-03-17 2005-05-25 株式会社東芝 物体領域追跡装置および物体領域追跡方法
JP2002157599A (ja) * 2000-11-17 2002-05-31 Nippon Telegr & Teleph Corp <Ntt> 物体検出認識方法,物体検出認識プログラムを記録した記録媒体および物体監視追跡装置
US6829384B2 (en) * 2001-02-28 2004-12-07 Carnegie Mellon University Object finder for photographic images
US8599266B2 (en) * 2002-07-01 2013-12-03 The Regents Of The University Of California Digital processing of video images
JP4355341B2 (ja) 2003-05-29 2009-10-28 本田技研工業株式会社 深度データを用いたビジュアルトラッキング
US8896725B2 (en) * 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
JP4140567B2 (ja) * 2004-07-14 2008-08-27 松下電器産業株式会社 物体追跡装置および物体追跡方法
US7333634B2 (en) * 2004-07-21 2008-02-19 University Of South Florida Method and apparatus for a velocity detection system using optical growth rate
JP2006172064A (ja) * 2004-12-15 2006-06-29 Nissan Motor Co Ltd 物体追跡装置、および方法
JP4859205B2 (ja) * 2005-02-04 2012-01-25 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US7869649B2 (en) * 2006-05-08 2011-01-11 Panasonic Corporation Image processing device, image processing method, program, storage medium and integrated circuit
US8184159B2 (en) * 2007-03-26 2012-05-22 Trw Automotive U.S. Llc Forward looking sensor system

Also Published As

Publication number Publication date
JP2009146406A (ja) 2009-07-02
EP2071515A1 (en) 2009-06-17
US20090213219A1 (en) 2009-08-27
US8711221B2 (en) 2014-04-29

Similar Documents

Publication Publication Date Title
JP4912388B2 (ja) 2次元見え方およびマルチキュー奥行き推定を使用する実世界の物体の視覚的追跡方法
EP2948927B1 (en) A method of detecting structural parts of a scene
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
Gemeiner et al. Simultaneous motion and structure estimation by fusion of inertial and vision data
Scherer et al. Using depth in visual simultaneous localisation and mapping
Lee et al. Two-frame structure from motion using optical flow probability distributions for unmanned air vehicle obstacle avoidance
Tamjidi et al. 6-DOF pose estimation of a portable navigation aid for the visually impaired
Theodorou et al. Visual SLAM algorithms and their application for AR, mapping, localization and wayfinding
Herghelegiu et al. Robust ground plane detection and tracking in stereo sequences using camera orientation
Dao et al. Visual navigation for indoor mobile robots using a single camera
Zhou et al. The chameleon-like vision system
Rogez et al. Monocular 3-D gait tracking in surveillance scenes
Barth et al. Vehicle tracking at urban intersections using dense stereo
Jung et al. A model-based 3-D tracking of rigid objects from a sequence of multiple perspective views
Martínez et al. Driving assistance system based on the detection of head-on collisions
Mair et al. Efficient camera-based pose estimation for real-time applications
Yang et al. Moving target tracking and measurement with a binocular vision system
Franke et al. Towards optimal stereo analysis of image sequences
Vestena et al. A weighted closed-form solution for RGB-D data registration
Einhorn et al. Monocular detection and estimation of moving obstacles for robot navigation
Liu et al. Cascaded particle filter for real-time tracking using RGB-D sensor
Schubert et al. Towards camera based navigation in 3d maps by synthesizing depth images
Riecický et al. Optical-inertial Synchronization of MoCap Suit with Single Camera Setup for Reliable Position Tracking.
Martínez et al. A closed-loop approach for tracking a humanoid robot using particle filtering and depth data
Koutlemanis et al. Foreground detection with a moving RGBD camera

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100929

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20101216

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20101221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110517

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120117

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150127

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

LAPS Cancellation because of no payment of annual fees