JP5035035B2 - 対象物追跡方法、対象物追跡装置および対象物追跡プログラム - Google Patents

対象物追跡方法、対象物追跡装置および対象物追跡プログラム Download PDF

Info

Publication number
JP5035035B2
JP5035035B2 JP2008057801A JP2008057801A JP5035035B2 JP 5035035 B2 JP5035035 B2 JP 5035035B2 JP 2008057801 A JP2008057801 A JP 2008057801A JP 2008057801 A JP2008057801 A JP 2008057801A JP 5035035 B2 JP5035035 B2 JP 5035035B2
Authority
JP
Japan
Prior art keywords
tracking
trajectory
candidate
position candidate
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008057801A
Other languages
English (en)
Other versions
JP2008250999A (ja
Inventor
宏 斉藤
直輝 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2008057801A priority Critical patent/JP5035035B2/ja
Publication of JP2008250999A publication Critical patent/JP2008250999A/ja
Application granted granted Critical
Publication of JP5035035B2 publication Critical patent/JP5035035B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、動画像中の追跡対象物を追跡する技術に関する。
従来より、動画像中から人の顔などを追跡(トラッキング)する技術が利用されている。このようなトラッキング技術には、動画像の毎フレームについて顔検出をしてその履歴をつなげることでトラッキング結果を求める手法と、前フレームのトラッキング結果を用いて現フレームにおいて顔らしい領域を1つ選択することで初期フレームから現フレームまでのトラッキング結果を求める手法とが存在する。
前フレームのトラッキング結果を用いて現フレームにおける顔の位置を取得する方法は、現フレームにおいて顔を探索する領域を限定することができるため、毎回顔検出を行う方法に比べて高速かつ高信頼度で顔の追跡を行うことができる。
しかし、一度追跡を誤ると以降のフレームにおいても追跡を誤ってしまうという問題点が存在する。例えば、追跡中の顔が顔に似た物体と交差する場合に、顔に似た物体の方を追跡対象物と認識してしまうと、それ以降のフレームではその物体の方を追跡してしまうことになり、誤動作につながる。この誤動作は「のりうつり」と呼ばれる。
例えば、図15のように、人の顔が車両の車輪と交差する場合を例に説明する。図15の例では、図15(a)に検出した顔の追跡をしている最中に、図15(d)で顔と車輪が重なっている。ここで、図15(e)において車輪の方を顔であると誤認識してしまうと、図15(f)以降のフレームで車輪の方を追跡してしまう。したがって、図16に示すように、本来の顔とは異なるルートを顔の軌跡であると判定してしまうことになる。
このような問題点を解消するために、動画像の各フレームから特徴点を検出し、これら特徴点の時系列的な対応付けを複数通り列挙して、その中から最も合理的な対応付け結果をトラッキング結果として得る手法が提案されている(特許文献1)。ここで、特徴点の対応付けは、対応する特徴点における特徴量の類似度や、移動経路(軌跡)が一定であるか否かなどを考慮して決定される。このような手法によれば、動画像の途中段階で生じる特徴点の対応付けの中断あるいは一時的な誤対応に影響されることなく、時間的に好適な特徴点追跡を実現することができる。
特開2004−5089号公報
しかしながら、特許文献1に記載の手法は、毎フレームの全画像領域から特徴点検出を行うものであり、前フレームまでのトラッキング結果を利用して現フレームまでのトラッキング結果を求める手法のメリットを十分に得ることができない。
本発明は、前フレームまでの追跡結果を利用して現フレームにおける対象物の位置を取得することで追跡対象物の軌跡を取得する対象物追跡処理において、追跡精度を向上することを目的とする。
上記目的を達成するために本発明に係る対象物追跡方法は、前フレームにおける追跡対象物の位置候補に対応する現フレームにおける追跡対象物の位置候補を取得するステップ
を繰り返すことによって、動画像における追跡対象物の軌跡を決定する対象物追跡方法であって、前フレームにおける1つの位置候補に対応する現フレームの位置候補を1または複数取得し、前フレームに複数の位置候補がある場合は、それぞれの位置候補について対応する現フレームの位置候補を取得することによって、追跡対象物の軌跡候補を複数取得し、取得された複数の軌跡候補のうちから、前記追跡対象物の軌跡を決定することを特徴とする。
すなわち、本発明に係る対象物追跡方法は、追跡対象物の軌跡を1つに限定することなく、途中で分岐することを許して複数の軌跡候補を取得しておき、これら複数の軌跡候補のうちから追跡対象物の軌跡を選択するものである。
このような構成によれば、追跡対象物が該追跡対象物に似た物体(以下、類似物という)と交差する場合などに、軌跡候補を分岐させその両方について追跡が行われることになる。そして、両方の軌跡候補に対して追跡を実行した後に対象物の軌跡を決定するので、追跡対象物と類似物が交差する場合であっても、「のりうつり」による誤検出を防止することができる。
また、本発明に係る対象物追跡方法は、前フレームの位置候補に対応する現フレームの所定の領域に追跡対象物が存在する確からしさである信頼度を算出し、算出された信頼度が所定の閾値以上である場合に、その領域を現フレームにおける追跡対象物の位置候補として取得するとよい。
ここで、信頼度はテンプレートマッチングによる検出スコアとして求めることができる。また、行動予測を行って前フレームまでの追跡対象物の移動方向に基づいて信頼度を算出(補正)しても良い。また、色ヒストグラムや照合技術などを用いて信頼度を算出しても良い。すなわち、信頼度は、前フレームの位置候補に基づいて、現フレームにおける位置候補を求める既存のどのような技術によって算出されても構わない。
このような構成によれば、現フレームにおける追跡対象物の位置候補を、高速かつ信頼性高く取得することが可能となる。また、追跡対象物が類似物などと交差して軌跡候補が分岐した場合には、類似物に対する分岐は誤りであったことが後から判明する(周囲に追跡対象物らしい領域が存在しないことが判明する)ので、類似物に対する追跡を打ち切ることが可能となる。
また、本発明に係る対象物追跡方法は、各フレームにおいて追跡対象物の位置候補における信頼度を記憶し、軌跡候補に係る信頼度に基づいて、追跡対象物の軌跡を決定することが好適である。
軌跡の決定は、軌跡候補に係る信頼度に基づいて行われれば、どのような具体的な方法によって行われても良い。例えば、各軌跡候補における信頼度(フレームごとに変化する)の最小値を求め、この最小値が最も大きい軌跡候補を追跡対象物の軌跡として決定することができる。また、各軌跡候補における信頼度の平均値や累積値を求め、この値が大きい軌跡候補を追跡対象物の軌跡として決定することができる。また、軌跡候補における信頼度が一度でも所定の閾値以下になった軌跡候補は除外したり、軌跡候補における信頼度が所定の閾値以上になった軌跡候補の中から選択するようにしたりしても良い。その他、軌跡候補における信頼度の最大値や分散値や標準偏差などに基づいて軌跡を決定しても良い。また、ここで説明した手法を組み合わせて利用しても良い。
このような構成によれば、「のりうつり」などが発生し軌跡候補が分岐した場合であっても、類似物を追跡する軌跡候補に係る信頼度は時間の経過とともに低くなるので、複数
の軌跡候補の中から正しい軌跡を選択することが可能となる。
また、本発明に係る対象物追跡方法は、前フレームの複数の位置候補に対応する現フレームの位置候補が同じである場合は、以降のフレームにおいては、これら複数の位置候補のうちから1つの位置候補について追跡を行うことが好ましい。
このような構成によれば、軌跡候補が分岐した後に、分岐した軌跡候補が再び合流した場合には、複数の位置候補に対して追跡を行わなくてもよくなるので、処理が高速化される。
また、本発明に係る対象物追跡方法は、追跡する位置候補の数に上限値が定められており、現フレームにおいて取得された位置候補が上限値を超える場合は、取得された位置候補に係る信頼度に基づいて、以降のフレームで追跡する位置候補を選択することが好ましい。
このような構成によれば、追跡する軌跡候補の数を絞り込むことで処理の高速化が期待できる。
また、本発明に係る対象物追跡方法は、動画像から追跡対象物を検出し、以降のフレームにおいて、検出された追跡対象物を追跡することが好ましい。
このような構成によれば、動画像の途中から現れた追跡対象物を追跡することが可能となる。また、複数の追跡対象物を同時に追跡することが可能となる。
また、本発明における追跡対象方法は、検出された追跡対象物の位置が、すでに追跡対象となっている追跡対象物の現フレームにおける位置候補と等しい場合には、検出された追跡対象物をすでに追跡対象となっている追跡対象物とみなして、新たな追跡は行わないことが好ましい。
このような構成によれば、動画像から追跡対象物を検出して検出された対象物を追跡する手法を採用した場合に、すでに追跡中の対象物が検出されても、重複して追跡をすることを防止できるので処理を効率化することができる。
なお、本発明に係る対象物追跡方法は、種々の物体を対象物として追跡することが可能である。例えば、追跡対象物として、人の顔を採用することができる。また、追跡対象物として、人の他の部位(頭部や、目や鼻)や全身などを採用することができる。また、追跡対象物は、任意の物体であって構わない。
また、本発明は、上記処理の少なくとも一部を含む対象物追跡方法、または、かかる方法を実現するためのプログラムとして捉えることもできる。また、本発明は、上記方法を実行する対象物追跡装置として捉えることもできる。上記手段および処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。
たとえば、本発明の一態様としての対象物追跡装置は、動画像の入力を受け付ける動画像入力手段と、前フレームにおける追跡対象物の位置候補に対応する、現フレームにおける追跡対象物の位置候補を取得する位置候補探索手段であって、前フレームにおける1つの位置候補に対して現フレームの位置候補を1または複数取得し、前フレームにおいて複数の位置候補がある場合はそれぞれの位置候補について対応する現フレームの位置候補を取得する位置候補探索手段を用いて、追跡対象物の軌跡候補を複数取得する軌跡候補取得手段と、取得された複数の軌跡候補のうちから前記追跡対象物の軌跡を決定する軌跡決定
手段と、を有することを特徴とする。
また、本発明に係る対象物追跡装置において、前記位置候補探索手段は、前フレームの位置候補に対応する現フレームの所定の領域に追跡対象物が存在する確からしさである信頼度を算出し、算出された信頼度が所定の閾値以上である場合に、前記領域を現フレームにおける追跡対象物の位置候補として取得することが好ましい。
また、本発明に係る対象物追跡装置において、前記軌跡候補取得手段は、各フレームおいて追跡対象物の位置候補における前記信頼度を記憶し、前記軌跡決定手段は、前記軌跡候補に係る前記信頼度に基づいて、前記追跡対象物の軌跡を決定することが好ましい。
また、本発明に係る対象物追跡装置において、前記追跡対象物は人の顔であることが好ましい。
また、本発明の一態様としての対象物追跡プログラムは、前フレームにおける追跡対象物の位置候補に対応する現フレームにおける追跡対象物の位置候補を取得するステップを情報処理装置に繰り返させることによって、動画像における追跡対象物を決定するための対象物追跡プログラムであって、情報処理装置に、前フレームにおける1つの位置候補に対応する現フレームの位置候補を1または複数取得させ、前フレームに複数の位置候補がある場合は、それぞれの位置候補について対応する現フレームの位置候補を取得させることによって、前記追跡対象物の軌跡候補を複数取得させ、取得された複数の軌跡候補の中から、前記追跡対象物の軌跡を決定させることを特徴とする。
また、本発明に係る対象物追跡プログラムにおいて、前フレームの位置候補に対応する現フレームの所定の領域に追跡対象物が存在する確からしさである信頼度を算出させ、算出された信頼度が所定の閾値以上である場合に、前記領域を現フレームにおける追跡対象物の位置候補として取得させることが好ましい。
また、本発明に係る対象物追跡プログラムにおいて、各フレームにおいて追跡対象物の位置候補における前記信頼度を記憶し、前記軌跡候補に係る信頼度に基づいて、前記追跡対象物の軌跡を決定させることが好ましい。
また、本発明に係る対象物追跡プログラムにおいて、前記追跡対象物は人の顔であることが好ましい。
本発明によれば、前フレームまでの追跡結果を利用して現フレームにおける対象物の位置を取得することで追跡対象物の軌跡を決定する対象物追跡処理において、追跡精度を向上することが可能となる。
以下に図面を参照して、この発明の好適な実施の形態を例示的に詳しく説明する。なお、以下の実施形態の説明では追跡対象物を人の顔とした顔追跡装置を例に説明するが、追跡対象物は人の顔以外であっても構わない。
(第1の実施形態)
第1の実施形態に係る顔追跡装置は、入力される動画像の全てのフレームについて追跡処理を行ってから、顔の移動軌跡を求めるものである。
<構成>
本実施形態に係る顔追跡装置1は、ハードウェア的には、バスを介して接続されたCPU(中央演算処理装置)、主記憶装置(RAM)、補助記憶装置などを備える通常のコンピュータ(情報処理装置)によって構成される。この場合、プログラムがCPUに実行されることによって、顔追跡装置1が実現される。
図1は、顔追跡装置1の機能ブロック例を示す図である。顔追跡装置1は、補助記憶装置に記憶された各種のプログラム(OS,アプリケーション等)が主記憶装置にロードされCPUにより実行されることによって、動画像入力部2、顔検出部3、軌跡候補取得部4、位置情報DB5、軌跡情報DB6、軌跡決定部7および画像合成・出力部8として機能する。また、顔追跡装置1の全部または一部は、専用のチップとして構成されても良い。
次に、顔追跡装置1が含む各機能部について説明する。
動画像入力部2は、動画像のデータを顔追跡装置1へ入力するためのインタフェースとして機能する。動画像入力部2は、顔追跡装置1へ動画像のデータを入力するための既存のどのような技術を用いて構成されても良い。
例えば、ネットワーク(LANやインターネット)などを介して顔画像のデータが顔追跡装置1へ入力されても良い。また、デジタルビデオカメラや記録装置(例えば、ハードディスクドライブや、CD−ROM,DVD−ROMや各種フラッシュメモリ)等から動画像が顔追跡装置1へ入力されても良い。また、顔追跡装置1がデジタルビデオカメラ等の撮像装置または、デジタルビデオカメラ等の撮像装置を備える各種装置の内部に含まれ、撮像された動画像が顔追跡装置1へと入力されても良い。
顔検出部3は、入力された動画像の1フレームから顔を検出する。顔検出部3は、例えば、顔全体の輪郭に対応した基準テンプレートを用いたテンプレートマッチングによって顔を検出するように構成されても良い。また、顔検出部3は、顔の構成要素(目、鼻、耳など)に基づくテンプレートマッチングによって顔を検出するように構成されても良い。また、顔検出部3は、ニューラルネットワークを使って教師信号による学習を行い、探索領域内に顔があるか検出するように構成されても良い。顔検出部3は、その他既存のどのような技術が適用されることによって実現されても良い。
顔検出部3によって検出された顔は、軌跡候補取得部4に入力され、追跡の対象となる。なお、以下では、顔検出部3によって検出された顔のことを「基本顔」と呼ぶ。
軌跡候補取得部4は、位置候補探索部41を含む。位置候補探索部41は、前フレームの顔の位置候補に対応する、現フレームでの顔の位置候補を、テンプレートマッチングなどの統計的パターン認識手法を用いて取得する。位置候補探索部41は、前フレームにおける顔の位置候補の周辺領域にあらかじめ複数の探索領域を設定しておき、この中から現フレームにおける顔の位置候補を統計的パターン認識手法によって取得する。
図2に示すように、前フレームの顔の位置候補Acおよびその周辺に、複数の探索領域Asがあらかじめ定められている。なお、探索領域Asの数や配置は任意であって構わない。位置候補探索部41は、前フレームの顔位置候補Ac内の画像をテンプレート画像ベクトルμとして用い、カレントフレームの探索領域内の画像ベクトルxとテンプレート画像ベクトルμとの間の距離dを算出して、探索領域As内に顔があるか否か判断する。探索画像ベクトルxとテンプレート画像ベクトルμとの距離dは、以下の式にしたがって算出する。
Figure 0005035035
そして、探索領域画像ベクトルxと前フレームの候補領域のテンプレート画像ベクトルμとの距離dが、所定の閾値よりも小さい探索領域を、カレントフレームにおける候補領域とする。
なお、探索画像ベクトルxとテンプレート画像ベクトルμの距離の値が小さいほど、探索画像がテンプレートと一致する確率が高い。つまり、探索画像ベクトルxとテンプレート画像ベクトルμの距離dは、探索画像とテンプレートとの類似度あるいは、探索画像とテンプレートが一致する確率(信頼度)として捉えることができる。
上記の説明では、テンプレート画像ベクトルμとして前フレームの画像を用いているが、直前のフレーム以外の画像(例えば、最初に顔が検出されたときの画像)や、ヒトの顔の平均画像などを使っても構わない。
位置候補探索部41による位置候補探索では、前フレームの1つの位置候補に対して、2つ以上の位置候補を取得可能に構成される。つまり、探索画像ベクトルxとテンプレート画像ベクトルμの距離が閾値以下(あるいは、類似度または信頼度が閾値以上)の探索領域が複数ある場合は、それら全ての探索領域を現フレームにおける位置情報として取得する。また、前フレームに複数の位置候補がある場合には、それぞれに対応する位置候補を現フレームから取得する。
軌跡候補取得部4は、位置候補探索部41による顔の追跡を、入力される動画像の各フレームに対して適用することで、顔検出部3によって検出された顔の軌跡を取得することができる。ここで、位置候補探索部41は現フレームにおいて複数の位置候補を取得することがあるので、軌跡候補取得部4は顔の軌跡として複数の軌跡候補を取得することになる。
位置情報DB5には、位置候補探索部41によって取得された顔の位置候補に関する情報が格納される(例えば、図8(b)参照)。位置情報DB5には、各位置候補に関する情報として、位置候補ID51、フレーム番号52、X座標53、Y座標54、信頼度55が格納される。位置候補ID51は、位置候補を識別する識別子である。フレーム番号52は、その位置候補がどのフレームにおける位置候補であるかを表す。X座標53、Y座標54は、その位置候補のフレーム内での位置を表す。信頼度55は、位置候補が顔である確からしさ(位置候補の領域に顔が存在する確からしさ)を表す。
軌跡情報DB6には、軌跡候補取得部4によって取得された顔の軌跡候補に関する情報が格納される(例えば、図8(c)参照)。軌跡情報DB6には、軌跡ID61,基本顔ID62およびパス63が格納される。軌跡ID61は、軌跡候補を識別する識別子である。基本顔ID62は、その軌跡の始点となる基本顔を識別する識別子である。パス63は、各フレームにおける軌跡の位置を示すものであり、位置情報DB5に格納されている位置候補の位置候補IDをつなげたデータが格納される。
軌跡決定部7は、軌跡候補取得部4によって取得された複数の軌跡候補のうちから、いずれの軌跡がもっともらしいかを判断して、顔の軌跡を1つに決定する。複数の軌跡候補の中からいずれの軌跡を選択するかは、各探索時における信頼度に基づいて決定される。
例えば、各探索時における信頼度の平均値が最も高い軌跡候補を、トラッキング結果として選択することができる。すなわち、confを時刻iにおける信頼度として、次式で表される平均値Aveconfが最大となるルートを求める。
Figure 0005035035
例えば、図3のように2つの軌跡候補が取得され、各探索時における信頼度が図に示される値をとるとき、ルートAについては信頼度の平均は645となり、ルートBについては753となる。したがって、図3の場合はルートBの方が高い信頼度を持つので、ルートBがトラッキング結果として選択されることになる。
なお、上記の説明では信頼度の平均値が最も高い軌跡候補をトラッキング結果として選択しているが、その他の方法によって選択しても構わない。例えば、軌跡内における信頼度の最大値や最小値に基づいて(つまり、最大値や最小値が最も大きい軌跡を)トラッキング結果として選択したり、移動方向などを用いた統計的識別方法による選択を行ったりしても良い。
画像合成・出力部8は、軌跡決定部7によって決定された軌跡を強調する表示を入力された画像に合成し、追跡結果として出力する。
<動作例>
以下、本実施形態に係る顔追跡装置1の動作例にしたがって、各機能部が行う処理の詳細について説明する。
図4は、顔追跡装置1の動作例を示すフローチャートである。図4のフローチャートは、動画像から顔が検出された後の処理を示す。
[顔検出時の初期処理]
動画像から顔が検出された場合には、以下の初期処理が行われる(S10)。図5(a)に示すように、動画像から新たに顔が検出された場合には、その顔の位置に関する情報が位置情報DB5に格納される。図5(b)は、位置情報DB5の内容を示す図であり、新たに検出された顔の位置などが格納される。顔らしさを表す信頼度55は、顔検出部3によって検出された顔なので1000点(最大値)としてある。また、顔が新たに検出されたので、その顔についての軌跡を求めるために、軌跡情報DB6に新たなレコードが追加される。新たに追加されるレコードのパス(軌跡)63には、検出位置の一点のみの情報が格納される。
初期処理が終了すると、次のフレームを処理の対象として(S11)、そのフレームにおける顔の位置候補を取得する処理を実行する。
[現フレームにおける顔の位置候補の取得処理]
具体的には、まず、位置候補探索部41は、前フレームにおける位置候補を1つ取得する(S12〜S13)。前フレームにおける位置候補は、位置情報DB5において、フレーム番号52が前フレームであるものを検索することによって取得することができる。
次に、位置候補探索部41が、S13で取得された、前フレームにおける1つの位置候補に対応する、現フレームの位置候補を取得する(S14)。位置候補探索部41は、具体的には、現フレームにおける顔の位置候補を次のようにして取得する。
まず、図6に示すように、前フレームにおける顔の候補の位置に応じて、現フレームにおける探索領域があらかじめ定められている。図6に示す例では、前フレームにおける顔の候補と同じ領域401、および、その周囲の8つの領域402〜409の合計9つの探索領域が定義されている。もっとも、探索領域の定義の方法は種々の方法を採用することができる。
位置候補探索部41は、これらの探索領域のそれぞれについて、領域内に顔が存在する確からしさである信頼度を算出する。ここで、信頼度の算出の際には、前フレームまでの移動方向を重視する動き予測による補正を行っても良い。また、顔照合技術や、顔周囲の色ヒストグラムを考慮した補正を行っても良い。その他、前フレームにおける顔の位置に基づいて、現フレームにおいてその周囲から顔を探索するための既存のどのような技術が適用されても良い。
そして、算出された信頼度が所定の閾値(たとえば、500)以上の領域を、現フレームにおける顔の位置候補として取得する。信頼度が閾値以上の領域を顔の位置候補とするので、前フレームの1つの顔の候補に対して、複数の顔の位置候補が取得される場合もあれば、顔の位置候補が1つも取得されない場合もある。
次に、位置候補探索部41によって、いくつの位置候補が取得されたか判定する(S15)。すなわち、信頼度が閾値以上である探索領域がいくつあったかを判定する。ここで、いくつの位置候補が取得されたかによって、位置情報DB5および軌跡情報DB6の更新処理が変わる。
[位置情報DB・軌跡情報DBの更新処理]
1.位置候補が1つの場合
位置候補探索部41によって取得される位置候補が1つの場合は、S16へ進み、位置情報DB5に新たな位置候補の情報が追加される。そして、軌跡情報DB6のパス63に、新たな位置候補が追加される。
図5に示す状態が前フレームであり、図5の顔位置候補に対する現フレームの顔の位置候補が1つのみ取得された場合の例を図7に示す。図7(b)に示すように、位置情報DB5に現フレーム(f)における顔の位置候補に関する情報(位置候補ID:2)が追加される(S16)。また、図7(c)に示すように、軌跡候補のパス63に新たに追加された位置候補(の位置候補ID)が追加される。このように、軌跡情報DB6において軌跡が延長される(S17)。
2.位置候補が2つ以上の場合
位置候補探索部41によって取得される位置候補が2つ以上の場合は、S18へ進み、位置情報DB5にこれら複数の位置候補の情報が追加される。そして、軌跡情報DB6の更新が行われる(S19)。ここで、現フレームにおいて位置候補が複数取得されたので、軌跡候補に分岐が発生することになる。そこで、軌跡情報DB6の軌跡情報を複製した後に、それぞれの軌跡のパス63に新たな位置候補をそれぞれ追加する。
図7に示す状態が前フレームであり、図7の顔位置に対する現フレームの顔位置が2つ取得された場合の例を図8に示す。図8(b)に示すように、位置情報DB5に現フレーム(f)における、2つの顔の位置候補に関する情報(位置候補ID:3,4)が追加
される。また、図8(c)に示すように、軌跡候補が2つに複製され、それぞれの軌跡のパス63に新たに追加された位置候補が追加される。
3.位置候補がない場合
現フレームにおいて、前フレームの位置候補に対応する位置候補が存在しない場合は、軌跡が途切れることになる。この場合、現フレームにおける対応する位置候補が存在しないので、位置情報DB5の更新は行わない。そして、軌跡が終了するので、軌跡情報DB6を更新して、対応する軌跡に軌跡が終了したことを示すマーク(フラグ)を付して、軌跡が途切れたことを記憶する(S20)。
以上の、データベース更新処理が終了したら、S21に進み、前フレームにおける顔候補全てについて、上記の処理が終了したか判断する。前フレームの全ての顔候補について上記の処理が終了していない場合には、S13へ進み、次の顔候補について上記の処理を行う。一方、全ての顔候補について処理が終了している場合には、S22へ進む。
S22では、現フレームに顔候補が1つ以上存在するか判断する。現フレームに顔候補が存在する場合には、顔の追跡を続行する必要があるので、S11へ進み、次のフレームに対して上記と同様の処理を実行する。現フレームに顔候補が存在しない場合には、動画像中から顔が存在しなくなったことになるので、S23へ進み、もっとも確からしい顔の軌跡を決定する。
[軌跡決定処理]
以下、S23における軌跡決定処理の詳細について説明する。ここでは、上記の軌跡候補取得部4によって、図9Aに示すように3つの軌跡候補が取得された場合を例に説明する。図9Aは各軌跡候補の軌跡を示し、図9Bは位置情報DB5の内容を示し、図9Cは軌跡情報DB6の内容を示す。図9Aに示すように、フレームfで検出された顔のフレームfにおける位置候補が2つ検出されている。さらに、一方の軌跡では、フレームfで検出された位置候補に対応するフレームfの位置候補が2つ検出されている。したがって、フレームfで検出された顔に対して、3つの軌跡候補が得られる。
ここでは、軌跡決定部7は、複数の軌跡のそれぞれについて、信頼度(顔らしさ)の平均値を算出し、信頼度の平均値が最も高い軌跡を顔の軌跡であると決定する。図9A〜Cに示すような状況では、各軌跡について、信頼度の時間変化は図10のようになる。各軌跡について、信頼度の平均値を求めると、全てのフレームで平均した場合は、軌跡1の平均値が最も大きくなるので、軌跡決定部7は軌跡1を顔の軌跡であるとして決定する。
なお、軌跡の決定方法は、例えば、信頼度の最小値が最も大きい軌跡を選択することによって決定しても良い。また、信頼度の累積値が最も大きい軌跡を選択することによって決定しても良い。その他、分散値や標準偏差などの統計量を用いて判断しても良い。また、全てのフレームを対象として統計量だけでなく、直近の数フレームのみを対象とした統計量を用いて軌跡を決定しても良く、最終フレームのみの信頼度を用いて軌跡を決定しても良い。
<本実施形態の効果>
本実施形態に係る顔追跡装置1によれば、前フレームの顔に対応する顔が現フレームにおいて複数取得された場合には、軌跡を分岐させてそれぞれについて追跡を行っている。したがって、追跡対象の顔が顔に似た物体と交差する場合などに、その時点で軌跡を決定することなく、とりあえず両方について追跡を行い、後からいずれの軌跡が正しいか判断することができる。例えば、図9A〜Cおよび図10に示すような状況で、分岐を許さず常に最も高い信頼度の顔を追跡する場合には、A点(図10参照)において軌跡2を対象
として顔を追跡することになる。しかしながら、その後の経過から判断すると、軌跡2は誤りであり軌跡1の方が正しいことが判明する。本実施形態に係る顔追跡装置によれば、分岐を許して複数の軌跡を追跡しているので、軌跡1を正しい追跡結果として得ることができる。すなわち、本実施形態に係る顔追跡装置によれば、信頼性高く顔追跡を行うことができる。
(第2の実施形態)
上記第1の実施形態では、入力された動画像の全フレームに対して追跡処理が終了してから、軌跡を1つに決定してトラッキング結果とする構成を採用していた。本実施形態においては、動画像の入力を受け付け、毎フレームごとに1つの軌跡を決定する。このような構成によれば、動画像の入力を受け付けながら、リアルタイムに顔の追跡結果を出力することができる。
図11は、本実施形態における顔追跡処理の流れを示すフローチャートである。第1の実施形態における顔追跡処理との違いは、ステップS22とS23の順序が入れ替わった点のみである。このように、本実施形態においては、毎フレームで複数の軌跡候補のうちどの軌跡候補がもっともらしいかを判断してトラッキング結果として取得しているので、リアルタイムにトラッキング結果を得ることができる。
なお、本実施形態によれば、時間の経過によって、トラッキング結果として採用される分岐が変わることがあり、このような場合はその時点において出力されるトラッキング結果が変更されることになる。例えば、図9A〜C、図10のような動画が入力される場合、図10の時点Aから時点Bまでの間は軌跡2がトラッキング結果として出力される。そして、時点Bをすぎた後は、軌跡1がトラッキング結果として取得されることになる。したがって、このように軌跡候補の切り替わりによって、トラッキング結果が大きく変更されることがある。
具体的に、図15のような状況を例にとって説明する。また、図12(a)〜(d)は図15の(e)〜(h)に対応する。図12(a)の時点では、数式2にしたがって算出した信頼度の平均は、ルートA(車輪)が725、ルートB(顔)が717となり、ルートAの方が信頼度が高く算出される。したがって、図12(a)においては、ルートAの方がトラッキング結果として表示される。ただし、この時点ではルートBの方のトラッキングも続行される。
次に、図12(b)の時点で、数式2にしたがって信頼度の平均を算出すると、ルートBの方が信頼度が高く算出される。したがって、図12(b)においては、ルートBの方がトラッキング結果として表示される。そして、これ以降の図12(c)(d)においても、ルートBの方の信頼度が高く算出されるので、正しくトラッキング結果が得られることになる。
本実施形態によれば、リアルタイムにトラッキング結果を出力しつつ、のりうつりなどにより誤トラッキングが生じた場合(図10の時点A〜Bでは、軌跡2が選択されてしまう)にも、誤トラッキングから回復して正しいトラッキング結果を得ることができる(図10で時点B以降は軌跡1を選択できる)。このように、本実施形態に係る顔追跡装置によれば、信頼性高くリアルタイムに顔追跡を行うことができる。
(第3の実施形態)
上記の実施形態においては、いったん分岐した複数の軌跡候補が合流した場合に、追跡する位置候補を減らす処理を行う。上記の実施形態においては、軌跡に分岐が発生した場合には、それぞれの軌跡について追跡処理を行っていた。しかしながら、一度分岐した軌
跡の次フレームにおける顔の位置が、同じ領域となる場合がある。このような場合、これら複数の軌跡候補はそれ以降のフレームにおいて同じ軌跡を取ることになる。したがって、重複して追跡せずに合流させることによって追跡する軌跡の数を減らすことができる。これによって処理効率の向上が見込める。
図13は、いったん分岐した2つの軌跡が合流する例を説明した図である。図13では、位置候補2で分岐した軌跡が位置候補7で合流している。このように、複数の位置候補(5と6)に対応する次のフレームの位置候補が同じになる場合に、以降のフレームにおいては一方の位置候補のみの追跡を行う。
2つの軌跡が位置候補7で合流したとき、軌跡情報DB6には、1−2−3−5−7という軌跡と、1−2−4−6−7という2つの軌跡が格納されている。これら2つの軌跡の取り扱いについては、以下の2通りの方法が考えられる。
1つ目の方法は、次フレーム以降に位置候補が取得された場合に、これらの軌跡を同時に更新する方法である。例えば、次のフレームで位置候補7に対応して位置候補8が取得された場合、2つの軌跡が更新されて、1−2−3−5−7−8という軌跡と1−2−4−6−7−8という軌跡が軌跡情報DB6に格納される。2つ目の方法は、これら2つの軌跡が合流した時に、いずれの軌跡候補の方がもっともらしい軌跡であるかを判断して、もっともらしい軌跡以外の軌跡候補を軌跡情報DB6から削除する方法である。
本実施形態に係る顔追跡装置によれば、処理の高速化を実現できる。
(第4の実施形態)
本実施形態では、分岐数に上限を設ける。すなわち、取得された位置候補が、上限値を超える場合には、上限値を超える位置候補については以降のフレームにおいて追跡を行わない。すなわち、次フレームでその分岐は途切れるものとして扱う。
現フレームにおいて上限値を超える数の位置候補が取得された場合は、次フレーム以降において追跡する位置候補を信頼度に基づいて選択することができる。例えば、位置候補探索部41によって取得された現フレームでの信頼度(位置情報DB5の信頼度55)が高いものを優先的に選択する方法を採用できる。また、例えば、軌跡決定部7による軌跡決定処理と同様に、軌跡に係る信頼度(軌跡の各フレームにおける信頼度の平均値や最小値や最大値など)に基づいて、どの軌跡(位置候補)を選択するか決定しても良い。
本実施形態に係る顔追跡装置によれば、追跡する位置候補の上限値を定め、信頼度に基づいて追跡する軌跡を選択しているので、追跡精度の大幅な低下を招くことなく処理の高速化を実現できる。
(第5の実施形態)
上記の実施形態の説明においては、動画像中で1つの顔を追跡する場合を例に説明したが、顔追跡装置1は動画像中から複数の顔を同時に追跡することができる。すなわち、顔検出部3が、入力される動画像から、毎フレームあるいは所定のフレームおきに顔を検出し、検出された顔のそれぞれに対して、図4に示した顔追跡処理を実行することで、複数の顔の同時追跡が実現できる。
ここで問題になりうるのは、すでに追跡中の顔を顔検出部3が検出した場合に、同じ顔に対して二重に顔追跡が行われてしまうことである。この問題点は、上記第4の実施形態と同様の手法によって回避することができる。以下、顔を検出した際の処理の詳細を説明しつつ、上記問題点を回避する方法についても説明する。
図14は、顔検出部3によって顔が検出された時の処理を示すフローチャートである。まず、入力された動画像から顔検出部3が顔の検出を行う(S101)。顔検出部3が顔を検出した場合(S102−YES)は、顔検出結果と顔位置候補とのマージ処理を行う。具体的には、顔検出部3によって検出された顔の位置と、位置候補探索部41によって取得された顔候補の位置とが、一致するか判断し(S103)、一致する場合(S103−YES)には検出された顔をすでに追跡中の顔と同一とみなして新たな追跡処理を行わない。顔検出部3によって検出された顔が、すでに追跡中の顔と一致しない場合(S103−NO)は、位置情報DBと軌跡情報DBを更新する(S104)。より具体的には、検出された顔の位置を位置情報DB5に格納するとともに、軌跡情報DB6に新しい基本顔の軌跡のレコードを1つ追加する初期化処理を行う。そして、その顔に対して追跡処理(図4のフローチャート)を開始する(S105)。
本実施形態によれば、動画像から顔を検出しつつ検出された複数の顔について顔追跡が行えるとともに、すでに追跡中の顔を二重に追跡してしまうことを防止できる。
なお、上記の各実施形態は本発明の具体例を例示したものにすぎない。本発明の範囲は上記実施形態に限られるものではなく、その技術思想の範囲内で種々の変形が可能である。
顔追跡装置の機能ブロックを示す図である。 顔検出処理における探索領域を説明する図である。 軌跡候補と各探索時における信頼度を説明する図である。 顔追跡処理の流れを示すフローチャートである。 新しく顔が検出されたときの、位置情報DBと軌跡情報DBの更新処理を説明する図である。 前フレームの顔位置候補に対応する現フレームの顔位置を探索するための、周辺領域について説明した図である。 前フレームの顔位置候補に対して、1つの顔位置候補が現フレームにおいて取得されたときの、位置情報DBと軌跡情報と軌跡情報DBの更新処理を説明する図である。 前フレームの顔位置候補に対して、2つの顔位置候補が現フレームにおいて取得されたときの、位置情報DBと軌跡情報と軌跡情報DBの更新処理を説明する図である。 軌跡が分岐して、複数の軌跡候補が取得されたときの、各軌跡候補を示す図である。 図9Aに対応する、位置情報DBの内容を示す図である。 図9Aに対応する、軌跡情報DBの内容を示す図である。 複数の軌跡候補に係る信頼度の時間変化の例を示した図である。 リアルタイムに追跡結果を出力する場合の、顔追跡処理の流れを示すフローチャートである。 リアルタイムに追跡結果を出力する場合の、各探索時におけるそれぞれの軌跡候補について信頼度を説明する図である。 分岐した2つの軌跡候補が合流する例を示す図である。 複数の顔を同時に追跡する場合の顔検出時の処理の流れを示す図である。 従来技術による顔追跡処理を表す図である。 従来技術による顔追跡処理の検出結果を表す図である。
符号の説明
1 顔追跡装置
2 動画像入力部
3 顔検出部
4 軌跡候補取得部
41 位置候補探索部
5 位置情報DB
6 軌跡情報DB
7 軌跡決定部
8 画像合成・出力部

Claims (12)

  1. 前フレームにおける追跡対象物の位置候補に対応する現フレームにおける追跡対象物の位置候補を取得するステップを繰り返すことによって、動画像における追跡対象物の軌跡を取得する対象物追跡方法であって、
    前フレームの位置候補に対応する現フレームの所定の領域に追跡対象物が存在する確からしさである信頼度を算出し、算出された信頼度が所定の閾値以上である場合に、前記領域を現フレームにおける追跡対象物の位置候補として1つまたは複数取得し、
    前フレームに複数の位置候補がある場合は、それぞれの位置候補について対応する現フレームの位置候補を取得することによって、前記追跡対象物の軌跡候補を複数取得し、
    前記軌跡候補と関連付けて各フレームでの追跡対象物の位置候補における前記信頼度を記憶し、
    記憶された、前記軌跡候補に係る複数の信頼度のうち少なくともいずれか一つに基づいて、前記追跡対象物の軌跡を決定する
    ことを特徴とする対象物追跡方法。
  2. 前記軌跡候補に係る複数の信頼度の最大値または最小値に基づいて、前記追跡対象物の軌跡を決定する
    ことを特徴とする請求項1に記載の対象物追跡方法。
  3. 前記軌跡候補に係る複数の信頼度の平均値に基づいて、前記追跡対象物の軌跡を決定する
    ことを特徴とする請求項1に記載の対象物追跡方法。
  4. 前フレームの複数の位置候補に対応する現フレームの位置候補が同じである場合は、以降のフレームにおいては、該複数の位置候補のうちから1つの位置候補について追跡を行う
    ことを特徴とする請求項1〜3のいずれかに記載の対象物追跡方法。
  5. 追跡する位置候補の数に上限値が定められており、
    現フレームにおいて取得された位置候補が前記上限値を超える場合は、取得された位置
    候補に係る信頼度に基づいて、以降のフレームで追跡する位置候補を選択する
    ことを特徴とする請求項1〜4のいずれかに記載の対象物追跡方法。
  6. 動画像から追跡対象物を検出し、
    以降のフレームにおいて、検出された追跡対象物を追跡する
    ことを特徴とする請求項1〜5のいずれかに記載の対象物追跡方法。
  7. 検出された追跡対象物の位置が、すでに追跡対象となっている追跡対象物の現フレームにおける位置候補と等しい場合には、該検出された追跡対象物をすでに追跡対象となっている追跡対象物とみなして、新たな追跡は行わない
    ことを特徴とする請求項6に記載の対象物追跡方法。
  8. 前記追跡対象物は人の顔であることを特徴とする請求項1〜7のいずれかに記載の対象物追跡方法。
  9. 動画像の入力を受け付ける動画像入力手段と、
    前フレームにおける追跡対象物の位置候補に対応する、現フレームにおける追跡対象物の位置候補を取得する位置候補探索手段であって、前フレームにおける1つの位置候補に対して現フレームの位置候補を1つまたは複数取得し、前フレームにおいて複数の位置候補がある場合はそれぞれの位置候補について対応する現フレームの位置候補を取得する位置候補探索手段を用いて、追跡対象物の軌跡候補を複数取得する軌跡候補取得手段と、
    取得された複数の軌跡候補のうちから前記追跡対象物の軌跡を決定する軌跡決定手段と、
    を有し、
    前記位置候補探索手段は、前フレームの位置候補に対応する現フレームの所定の領域に追跡対象物が存在する確からしさである信頼度を算出し、算出された信頼度が所定の閾値以上である場合に、前記領域を現フレームにおける追跡対象物の位置候補として取得し、
    前記軌跡候補取得手段は、前記軌跡候補と関連付けて各フレームでの追跡対象物の位置候補における前記信頼度を記憶し、
    前記軌跡決定手段は、記憶された、前記軌跡候補に係る複数の信頼度のうち少なくともいずれか一つに基づいて、前記追跡対象物の軌跡を決定する
    ことを特徴とする対象物追跡装置。
  10. 前記追跡対象物は人の顔であることを特徴とする請求項9に記載の対象物追跡装置。
  11. 前フレームにおける追跡対象物の位置候補に対応する現フレームにおける追跡対象物の位置候補を取得するステップを情報処理装置に繰り返させることによって、動画像における追跡対象物の軌跡を取得するための対象物追跡プログラムであって、
    情報処理装置に、
    前フレームの位置候補に対応する現フレームの所定の領域に追跡対象物が存在する確からしさである信頼度を算出させ、算出された信頼度が所定の閾値以上である場合に、前記領域を現フレームにおける追跡対象物の位置候補として1つまたは複数取得させ、
    前フレームに複数の位置候補がある場合は、それぞれの位置候補について対応する現フレームの位置候補を取得させることによって、前記追跡対象物の軌跡候補を複数取得させ、
    前記軌跡候補と関連付けて各フレームでの追跡対象物の位置候補における前記信頼度を記憶させ、
    記憶された、前記軌跡候補に係る複数の信頼度のうち少なくともいずれか一つに基づいて、前記追跡対象物の軌跡を決定させる
    ことを特徴とする対象物追跡プログラム。
  12. 前記追跡対象物は人の顔であることを特徴とする請求項11に記載の対象物追跡プログラム。
JP2008057801A 2007-03-08 2008-03-07 対象物追跡方法、対象物追跡装置および対象物追跡プログラム Active JP5035035B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008057801A JP5035035B2 (ja) 2007-03-08 2008-03-07 対象物追跡方法、対象物追跡装置および対象物追跡プログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007058428 2007-03-08
JP2007058428 2007-03-08
JP2008057801A JP5035035B2 (ja) 2007-03-08 2008-03-07 対象物追跡方法、対象物追跡装置および対象物追跡プログラム

Publications (2)

Publication Number Publication Date
JP2008250999A JP2008250999A (ja) 2008-10-16
JP5035035B2 true JP5035035B2 (ja) 2012-09-26

Family

ID=39975803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008057801A Active JP5035035B2 (ja) 2007-03-08 2008-03-07 対象物追跡方法、対象物追跡装置および対象物追跡プログラム

Country Status (1)

Country Link
JP (1) JP5035035B2 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010165052A (ja) * 2009-01-13 2010-07-29 Canon Inc 画像処理装置及び画像処理方法
JP5355446B2 (ja) * 2010-02-19 2013-11-27 株式会社東芝 移動物体追跡システムおよび移動物体追跡方法
WO2011102416A1 (ja) * 2010-02-19 2011-08-25 株式会社 東芝 移動物体追跡システムおよび移動物体追跡方法
JP5702960B2 (ja) * 2010-07-12 2015-04-15 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP5642619B2 (ja) 2011-05-12 2014-12-17 富士フイルム株式会社 医療装置システム及び医療装置システムの作動方法
JP6000809B2 (ja) * 2012-11-06 2016-10-05 キヤノン株式会社 追尾装置、追尾方法及びプログラム
JP5693670B2 (ja) * 2013-07-09 2015-04-01 キヤノン株式会社 画像処理装置及び画像処理方法
WO2017064838A1 (ja) * 2015-10-14 2017-04-20 パナソニックIpマネジメント株式会社 顔検出装置およびこれを備えた顔検出システムならびに顔検出方法
CN109388132B (zh) * 2017-08-03 2024-03-19 罗伯特·博世有限公司 用于轨迹跟踪的方法、装置和设备以及控制单元和机器可读介质
JP6412998B1 (ja) 2017-09-29 2018-10-24 株式会社Qoncept 動体追跡装置、動体追跡方法、動体追跡プログラム
JP7003628B2 (ja) * 2017-12-19 2022-01-20 富士通株式会社 物体追跡プログラム、物体追跡装置、及び物体追跡方法
JP6579727B1 (ja) * 2019-02-04 2019-09-25 株式会社Qoncept 動体検出装置、動体検出方法、動体検出プログラム
CN112991485B (zh) * 2019-12-13 2023-06-20 浙江宇视科技有限公司 轨迹绘制方法、装置、可读存储介质及电子设备
CN111784730B (zh) * 2020-07-01 2024-05-03 杭州海康威视数字技术股份有限公司 一种对象跟踪方法、装置、电子设备及存储介质
CN112492196B (zh) * 2020-10-29 2022-01-07 贝壳技术有限公司 一种直播进行中主播跟踪方法、装置及系统
CN117455958B (zh) * 2023-12-22 2024-03-08 武汉以彼古罗咨询服务有限公司 一种面向精子识别的轨迹追踪方法和装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2414614A (en) * 2004-05-28 2005-11-30 Sony Uk Ltd Image processing to determine most dissimilar images

Also Published As

Publication number Publication date
JP2008250999A (ja) 2008-10-16

Similar Documents

Publication Publication Date Title
JP5035035B2 (ja) 対象物追跡方法、対象物追跡装置および対象物追跡プログラム
JP6759411B2 (ja) 物体追跡方法および装置
JP4934220B2 (ja) ラベル割当を用いた手サイン認識
US20180211104A1 (en) Method and device for target tracking
EP1742169B1 (en) Tracking apparatus
Billah et al. Recognizing distractions for assistive driving by tracking body parts
JP4951498B2 (ja) 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体
JP2007042072A (ja) 追跡装置
JP5166102B2 (ja) 画像処理装置及びその方法
CN102456135A (zh) 图像处理设备、方法和程序
US11836944B2 (en) Information processing apparatus, information processing method, and storage medium
JP7438684B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN112597850B (zh) 一种身份识别方法及装置
JP7065557B2 (ja) 人物を追跡する映像解析装置、プログラム及び方法
JP2010039788A (ja) 画像処理装置及びその方法並びに画像処理プログラム
JP6844230B2 (ja) 画像処理プログラム、画像処理装置および画像処理方法
CN113269008B (zh) 一种行人轨迹预测方法、装置、电子设备及存储介质
US20230177703A1 (en) Tracking multiple surgical tools in a surgical video
JP2007510994A (ja) ビデオ画像内でのオブジェクトトラッキング
JP5829155B2 (ja) 歩行者検出装置及びプログラム
JP2007334810A (ja) 画像領域追跡装置及びその方法
WO2023243095A1 (ja) 情報処理プログラム、情報処理方法及び情報処理装置
JP2023051196A (ja) 対象物追跡装置
US20230298336A1 (en) Video-based surgical skill assessment using tool tracking
CN116863541B (zh) 动态手势识别方法、装置及相关设备、手写识别方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120605

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120618

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150713

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5035035

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250