JP5345109B2 - 画像における物体の変位可能な特徴を正規化するための方法 - Google Patents

画像における物体の変位可能な特徴を正規化するための方法 Download PDF

Info

Publication number
JP5345109B2
JP5345109B2 JP2010144048A JP2010144048A JP5345109B2 JP 5345109 B2 JP5345109 B2 JP 5345109B2 JP 2010144048 A JP2010144048 A JP 2010144048A JP 2010144048 A JP2010144048 A JP 2010144048A JP 5345109 B2 JP5345109 B2 JP 5345109B2
Authority
JP
Japan
Prior art keywords
feature
location
descriptor
image
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010144048A
Other languages
English (en)
Other versions
JP2011022996A5 (ja
JP2011022996A (ja
Inventor
ファティー・エム・ポリクリ
モハメド・イー・フセイン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2011022996A publication Critical patent/JP2011022996A/ja
Publication of JP2011022996A5 publication Critical patent/JP2011022996A5/ja
Application granted granted Critical
Publication of JP5345109B2 publication Critical patent/JP5345109B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Description

本発明は、包括的には、コンピュータビジョンに関し、より詳細には、特徴ベースの画像の処理に関する。
物体の検出、認識、分類、及び追跡等の多くのコンピュータビジョンアプリケーションは、物体の有意な特徴に依拠している。例えば、顔認識では、目、鼻、及び口に関連付けられた特徴が最も関連している。人等の関節物体の追跡では、重要な特徴は、胴体部、四肢、及び頭部に関連付けられている。通常、特徴は、そのサイズ、ロケーション、及び記述子によって定義される。特徴の外観は、照明、動き、テクスチャ、姿勢変動、及びオクルージョンに応じて大幅に変化する可能性があるので、特徴ベースのモデルは、多くの場合、処理を改良するように構築される。画像は、異なる視点から取得される可能性もある。視点が異なることにより、物体は、画像における物体の位置及び視点の特性に応じて、サイズ及び速度等、異なる特性を有するように見える、
物体の任意の画像の処理を容易にするために、2つの正規化前処理ステップが、通例、実行される。
画像正規化
第1に、画像が正規化される。画像正規化は、ピクセル数及びアスペクト比をすべての画像で同じにするものであり、例えば、顔については40×40とされ、身体については128×64にされる。ピクセル輝度値の範囲も、コントラストストレッチング及びダイナミックレンジ拡大によって、例えば0〜255に調整することができる。色も調整することができる。
物体正規化
第2に、物体が、正規化された画像に適合するように正規化される。これは、物体のサイズ、ロケーション、及び配向をすべての画像で一致させることによって行うことができる。これは、スケーリング、平行移動、及び回転によって行うことができる。
しかしながら、たとえ、特徴が、従来技術の画像正規化及び物体正規化中に再配置するように見える場合であっても、画像又は物体内の特徴の、互いに対する相対ロケーション及び記述は固定されたままである。
変形可能物体及び関節物体
代替的な解決法は、変形可能物体又は関節物体を複数の物体にセグメント化するものである。例えば、人間の身体の場合、物体は、胴体部の物体、頭部の物体、及び四肢の物体にセグメント化される。同様に、顔は、目の物体、鼻の物体、及び口の物体にセグメント化することができる。それらの方法は、次に、各物体における固定された特徴に操作を行い、物体内での特徴の変位は問題ではない。すなわち、物体の特徴は、所定の位置に固定されたままである。要するに、物体セグメント全体が、通例、特徴として扱われる。これについては、非特許文献1及び非特許文献2を参照されたい。実際上、各セグメント化された物体における特徴は、物体における特徴と同じである。これについては、非特許文献3及び非特許文献4を参照されたい。
すべての場合において、従来技術の特徴は、物体内で固定されているだけでなく、セグメント化された物体内でも固定されている。いくつかの場合には、物体が特徴である。特徴は、本明細書で定義されるように、物体内でもセグメント化された物体内でも変位可能ではない。
固定された特徴は、物体の物理的な特徴、例えば顔の場合の目が、同じ相対的な物理ロケーション及びサイズを占有するときはうまく機能する。しかしながら、物体が変形可能であるか、又は特徴が関節物体のように別の方法で変位される場合、問題ははるかに困難になる。実際に、物体検出は、特徴が固定されているときにしか扱いやすくなく、そうでない場合には、探索空間は問題を含むことになる。
Mikolajczyk他の「Human detection based on a probabilistic assembly of robust part detectors」, Proc. European Conf. on Computer Vision, volume 1, pages 69-81, 2004 Mohan他の「Example-based object detection in images by components」, IEEE Trans. Pattern Anal. Machine Intell., 23(4);349-360, 2001 Felzenszwalb他の「Pictorial structures for object recognition」, Intl. J. of Computer Vision, volume 61, 2005 Felzenszwalb他の「A discriminatively trained, multiscale, deformable part model」, Proc. IEEE Conf. on Computer Vision, 2008
したがって、物体内の変位可能な特徴及び記述子を正規化することが望まれている。
多くの従来技術の画像処理方法では、物体の特徴からモデルが構築される。そのコンテキストでは、物体の特徴は、物体の画像ウィンドウに対して固定された相対ロケーション及び固定されたサイズを有する領域として定義される。例えば、顔の検出及び認識では、目、鼻、及び口等の特徴は、固定された相対ロケーション及びサイズを有するものと仮定される。同じことは、人間の頭部の検出についても言える。頭部は胴体部の上にあると一般に仮定される。しかしながら、これは、常に正しいとは限らない。
したがって、本発明は、変位可能な特徴を正規化する。変位可能とは「物理的に所定の位置をはずれて移動すること」を表す「明白な意味」が使用される。すなわち、特徴は、それら特徴がそこにあると予想される場所に常にあるとは限らない。変位可能な特徴は、さまざまな画像において、その相対ロケーション及びサイズを動的に変化させることができる。
変位可能な特徴は、本発明の実施形態に従って正規化されるとき、特に物体の検出及び認識等のタスクでは、従来技術におけるような従来の固定された特徴よりも良好に機能する。
物体の有意な特徴に依拠する物体の検出、認識、分類、及び追跡等のコンピュータビジョンアプリケーションを改良するのに使用できる変位可能な特徴を説明した。従来の固定された特徴を上回る、変位可能な特徴の利点は、小さな近傍において、特徴のモデルに最も適合する特徴の最良のロケーションを選択できるということである。加えて、部品モデルのように固定された個数を選択するのではなく、動的な個数の特徴を選択することができる。また、特徴モデルは、グラフィック処理ユニットにおける並列実施にもよく適している。
本発明の特性によって、本発明の変位可能な特徴が、固定されたロケーションの特徴よりも、複雑な物体構造及び変形に効果的なものになると考える。
画像における物体の変位可能な特徴を正規化するための方法のブロック図である。 本発明の実施形態による特徴の最良のロケーションを探索するためのプロセッサのブロック図である。 本発明の実施形態による特徴を直接変位させるためのブロック図である。
変位可能な特徴
本発明の実施形態は、変位可能な特徴を正規化するための方法を提供する。再び、変位可能とは「物理的に所定の位置をはずれて移動すること」を表す明白な意味が使用されることを強調しておく。すなわち、特徴は、固定された相対ロケーションを有するのではなく、それどころか、特徴は、互いに対して物理的に所定の位置をはずれて移動することができる。その結果、画像において観察されるように、特徴を物体において変位させることができる。より具体的には、特徴を変位させることができる変位ゾーンZが物体内に定義される。この変位ゾーンは、相似変換、アフィン変換、及び遠近運動変換(perspective motion transformation)を含む変換パラメータによって定義することができる。
正規化された変位可能な特徴によって、物体の検出、認識、分類、及び追跡等の一般的なビジョンアプリケーションが改良される。本発明の方法は、複数の部分を有するあらゆる一般的な変形可能物体又は関節物体の特徴に適用できることが理解されるべきである。
変位した特徴を正規化する2つの実施形態を提供することにする。第1の実施形態は、反復的な探索プロセス及びコスト関数を使用して最良のロケーションを求めるものである。第2の実施形態は、直接マッピングを使用して、最良のロケーションに特徴を変位させるものである。
本発明の変位可能な特徴ベースのモデルの主な利点は、代表的な特徴の自動選択である。基礎となる物理的特徴が何であるのかを知る必要はない。したがって、本発明の特徴のグラウンドトゥルース注釈(ground truth annotation)が利用可能であると仮定されない。それゆえに、変位可能な特徴のモデルは、トレーニングデータで利用可能な情報にのみ基づいてトレーニングされる。
図1は、本発明の実施形態による画像xにおける物体(車両)101の特徴(車輪)111を正規化するための方法を示す。この方法のステップは、プロセッサ100において実行される。プロセッサは、この技術分野で知られているようにメモリ及び入出力インターフェースを含む。本明細書で説明するこれらの画像の例は2次元であるが、ボリュームデータ及び医療用スキャン等の3次元画像も使用できることが理解される。
変位可能な特徴(車輪)111が、画像xから抽出される(110)。本発明の目的においては、車輪が移動(回転)できるということは無関係である。関心があるのは、車輪が、車両の下部に沿った変位ゾーンZの或る場所に配置されているが、任意の画像における、車両の前部、後部、及び下部に対する車輪の相対変位105が変化する可能性があるこということだけである。
特徴111F=(s,z,Z)は、サイズs、ロケーションz、及びこの特徴を変位させることが可能とされる変位ゾーンZを有する。変位ゾーンZのサイズは、双方の次元において特徴のサイズの約2倍であり、境界は、特徴から最大16ピクセル離れている。
変位ゾーンZのロケーションzにおける、画像xにおける特徴の関連付けられた記述子が、Δ(x,z)として求められる(121)。
この好ましい実施形態では、特徴の勾配配向ヒストグラム(HOG(histogram of oriented gradient))が記述子に使用される。各ヒストグラムは、配向方向の9つの範囲を表すビンを含む。各ピクセルは、ヒストグラムの2つのビン間の勾配の大きさを双一次補間によって分割することによってそれら2つのビンに寄与する。各ピクセルは、双一次補間で4つの四分円にも寄与する。記述子は、積分ヒストグラム及びカーネル積分画像を使用することによって求めることができる。これについては、例えば、米国特許出願第20070237387号を参照されたい。この米国特許出願は、参照により本明細書に援用される。他の外観ベースの記述子には、エッジ、ライン、ピクセルワイズフィルタ応答、領域テンプレート、並びに領域共分散、輝度ヒストグラム、及び共起を含む統計的記述子が含まれる。一実施形態では、記述子は正規化される。
本発明の記述子では、スケール不変特徴変換(SIFT)が使用される。SIFT特徴は、ローカルであり、特定のロケーションにおける物体の外観に基づいており、画像のスケール及び回転に不変である。SIFT特徴は、照明の変化、雑音、及び視点における軽微な変化の影響を受けない。これらの特性に加えて、SIFT特徴は、極めて特有であり、抽出が比較的容易であり、低い不一致確率で正しい物体識別を可能にする。以下では、簡単にするために、変数xを省略することにする。
反復的探索によるデータ駆動型変位
図2に示すように、特徴を変位させる(130)ことができる1つの方法は、コスト関数θ201の値を求めることによって、変位ゾーンZにおける最良のロケーションzを探索することによるものである。この実施形態では、トレーニングされた画像のセット202がさまざまなロケーションにおける特徴と共に使用される。各ロケーションは、対応する記述子を有する。コスト関数は、トレーニング画像の対応する記述子及び変位ゾーンのロケーションzにおける特徴Fに関連付けられた記述子Δを使用して値が求められる。
コスト関数θ(Δ,z)は、所与のトレーニング画像の或るロケーションにおける記述子がロケーションzにおける特徴Fの記述子と一致する尤度を測定する。換言すれば、コスト関数は、画像における物体がトレーニング画像に対応する物体のクラスに存在する尤度を測定する。最良のロケーションは、尤度スコアを最大にする。尤度スコアによって、変位ベクトルδ203分だけロケーションzから離れることが必要とされる場合がある。コスト関数θは、記述子Δ(z)及びロケーションzに基づいているので、たとえΔがzの関数であっても、ロケーションzの事前確率が一様でないケースをモデル化することができる。確率的な設定において、これは、特徴のロケーションの最大事前推定値(maximum a priori estimate)を見つけることと等価である。反復は、連続した推定値の差分が所定のしきい値未満であるとき又は所定の反復回数の後に終了することができる。
コスト関数の初期近似値θは、特徴がすべてのトレーニング画像においてロケーションzに位置していると仮定するものである。したがって、初期スコアリング関数θは、特徴の近似した外観をモデル化すると予想される。探索は、期待値最大化(EM)手順を使用する。この期待値最大化(EM)手順は、推定ステップ及び最大化ステップ
Figure 0005345109
を交互に行う。
このプロセスは、コスト関数を最大することによって最良のロケーションzを突き止める。
各方向で4つのステップが使用されて、最良のロケーションが探索される。実際には、これは、非常に多くの時間を要する可能性がある。
マッピング関数によるパラメトリック直接変位
この実施形態では、図3に示すように、変位ベクトルδ=z−zを使用して最良のロケーションへ直接移動が行われる。変位可能な特徴を最良のロケーションへ直接移動させるために、トレーニング画像202上の最良の特徴ロケーションの推定が利用され、
z’=z+Φ(Δ(z))
θ’=θ(Δ(z’))
を使用して、ロケーションにおける記述子Δ(z)から変位ベクトルδへのマッピング関数Φ301が求められる(305)。ここで、z’は、マッピング関数を使用して得られた最良のロケーションであり、θ’は、その新しいロケーションにおける新しいスコアリング関数の結果である。マッピング関数は、特徴のロケーションを最良のロケーションに直接マッピングする回帰関数として特徴付けることができる。
変位可能な特徴の正規化分類器のトレーニング
ブースト分類器において、弱分類器及び強分類器は、専門用語であり、それらの一般的な意味にあるように、不明確となるように意図されたものではない。弱分類器は、真の分類とわずかにしか相関していない一方、強分類器は、真の分類と適宜十分に相関している。ほとんどのブーストは、分類される特徴の分布に関して弱相関器を反復的に学習すること、及び弱相関器を追加して強相関器を形成することを処理する。弱分類器は、その分類精度に応じて重み付けされる。或る既知のブースト分類器は、AdaBoost(エイダブースト)である。AdaBoostは、後続の弱分類器が、前に追加された分類器により誤って分類された特徴が優先されるように重み付けされるという意味で適応的である。
本発明の分類器は、上述したような変位可能な特徴と共に使用されるように設計することができる。
ブーストのいくつかの変形が使用される。この変形には、2値しきい値処理された弱分類器応答を集めること、及び同一の重み及び確率をトレーニング画像のセットの各画像に割り当てることによってスカラー値関数をトレーニング画像に適合させることが含まれる。
トレーニング中、各トレーニング画像における変位ゾーンにおいて変位可能な特徴のセットが選択される。これらの特徴は、任意の形状及びサイズを有することができる。各変位可能な特徴は、上述したように、そのロケーション及び記述子に従って正規化される。
最良の正規化された変位可能な特徴を選択するために、残差最小化スコアの点から特徴が評価される。各特徴について、重み付き最小二乗回帰を使用して応答及び重みが求められる。重みは、現在の特徴の確率を使用して求められ、応答は、重みによってスケーリングされたラベル近似項(label approximation term)である。次に、スコアリング関数値が求められ、特徴ロケーションの重み付き最小二乗回帰によって関数が適合される。
セットの各正規化された変位可能な特徴について、分類器の性能の改良を示す残差が求められる。最も低い残差、すなわち最も高い集約された検出スコア、を有する特徴が選択される。次に、前に選択された、正規化された変位可能な特徴の個々の応答を累算する分類器応答関数が更新され、各トレーニング特徴の確率が修正される。変位可能な特徴の選択は、所望の性能に達するまで続く。
その後のオペレーション中、各正規化された変位可能な特徴について、分類器の応答が求められる。分類器の応答の符号が、検出結果として割り当てられる。
本発明を、好ましい実施形態の例として説明してきたが、本発明の精神及び範囲内で他のさまざまな適合及び変更を行えることが理解されるべきである。したがって、本発明の真の精神及び範囲内に入るすべての変形及び変更を包含することが、添付の特許請求の範囲の目的である。

Claims (18)

  1. 画像における物体の特徴を正規化するための方法であって、該方法は、プロセッサによって実行され、
    前記画像から前記物体の前記特徴を抽出することであって、前記特徴は、前記物体における変位ゾーン内で変位可能であり、前記特徴は、前記変位ゾーン内のロケーションを有する、抽出すること、
    前記特徴の関連付けられた記述を求めること、及び
    前記変位ゾーンにおける最良のロケーションに前記特徴を変位させることであって、それによって、正規化された特徴を作成する、変位させること、
    を含み、
    前記最良のロケーションを求めて反復的にトレーニング画像のセットを探索することをさらに含み、前記探索することはコスト関数を使用し、
    前記特徴はF=(s,z,Z)であり、前記特徴のサイズはsであり、前記ロケーションはzであり、前記変位ゾーンはZであり、前記記述についての記述子はΔ(x,z)であり、前記コスト関数θ(Δ,z)は、所与のトレーニング画像の一ロケーションにおける記述子が前記ロケーションzにおける前記特徴Fの前記記述子と一致する尤度を測定し、ここで、xは、前記記述子が抽出された画像である
    方法。
  2. 前記変位可能な特徴は、前記物体の検出、認識、分類、又は追跡に使用される、請求項1に記載の方法。
  3. 前記物体は、硬質なもの、変形可能なもの、又は関節のあるものである、請求項1に記載の方法。
  4. マッピング関数を適用することであって、それによって、前記特徴を前記最良のロケーションに直接変位させる、適用すること、をさらに含む、請求項1に記載の方法。
  5. 前記特徴は、サイズs、ロケーションz、及び変位ゾーンZを有するF=(s,z,Z)である、請求項1に記載の方法。
  6. 前記変位ゾーンは、相似変換、アフィン変換、遠近運動変換を含む変換パラメータによって定義される、請求項1に記載の方法。
  7. 前記記述についての記述子は、Δ(x,z)であり、ここで、xは、該記述子が抽出される前記画像である、請求項5に記載の方法。
  8. 前記記述についての記述子は、前記特徴の勾配方向ヒストグラムを使用する、請求項1に記載の方法。
  9. 前記コスト関数は、尤度スコアを最大にする、請求項1に記載の方法。
  10. 前記マッピング関数は、変位ベクトルδ=z−zを求め、ここで、zは、前記最良のロケーションであり、zは、前記特徴の前記ロケーションである、請求項4に記載の方法。
  11. 前記コスト関数θは、前記画像における前記物体が、前記トレーニング画像に対応する物体のクラスに存在する尤度を測定する、請求項1に記載の方法。
  12. 各トレーニング画像について前記記述子Δ(x,z)を求めること、
    をさらに含む、請求項1に記載の方法。
  13. 前記反復は、前記コスト関数の連続した推定値の差分が所定のしきい値未満であるときに終了する、請求項1に記載の方法。
  14. 前記反復は、所定の反復回数の後に終了する、請求項1に記載の方法。
  15. 前記画像は3次元である、請求項1に記載の方法。
  16. トレーニング画像のセットから前記マッピング関数を求めること、
    をさらに含む、請求項4に記載の方法。
  17. 前記記述についての記述子を正規化すること、
    をさらに含む、請求項1に記載の方法。
  18. 前記記述についての記述子は、エッジ、ライン、ピクセルワイズフィルタ応答、領域テンプレート、並びに領域共分散、輝度ヒストグラム、及び共起を含む統計的記述子を含む外観ベースの記述子を使用する、請求項1に記載の方法。
JP2010144048A 2009-07-16 2010-06-24 画像における物体の変位可能な特徴を正規化するための方法 Expired - Fee Related JP5345109B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/504,407 2009-07-16
US12/504,407 US8224072B2 (en) 2009-07-16 2009-07-16 Method for normalizing displaceable features of objects in images

Publications (3)

Publication Number Publication Date
JP2011022996A JP2011022996A (ja) 2011-02-03
JP2011022996A5 JP2011022996A5 (ja) 2013-05-23
JP5345109B2 true JP5345109B2 (ja) 2013-11-20

Family

ID=43465329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010144048A Expired - Fee Related JP5345109B2 (ja) 2009-07-16 2010-06-24 画像における物体の変位可能な特徴を正規化するための方法

Country Status (2)

Country Link
US (1) US8224072B2 (ja)
JP (1) JP5345109B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140369567A1 (en) * 2006-04-04 2014-12-18 Cyclops Technologies, Inc. Authorized Access Using Image Capture and Recognition System
US20140369566A1 (en) * 2006-04-04 2014-12-18 Cyclops Technologies, Inc. Perimeter Image Capture and Recognition System
US20130163823A1 (en) * 2006-04-04 2013-06-27 Cyclops Technologies, Inc. Image Capture and Recognition System Having Real-Time Secure Communication
US20130163822A1 (en) * 2006-04-04 2013-06-27 Cyclops Technologies, Inc. Airborne Image Capture and Recognition System
US8285719B1 (en) * 2008-08-08 2012-10-09 The Research Foundation Of State University Of New York System and method for probabilistic relational clustering
JP4970381B2 (ja) * 2008-08-08 2012-07-04 株式会社東芝 特徴抽出装置、特徴抽出方法、画像処理装置、及び、プログラム
CN102414720B (zh) * 2010-03-19 2015-08-19 松下电器(美国)知识产权公司 特征量计算装置、特征量计算方法
US10356651B2 (en) * 2014-07-17 2019-07-16 Cirrent, Inc. Controlled connection of a wireless device to a network
US9171352B1 (en) 2014-12-04 2015-10-27 Google Inc. Automatic processing of images
CN109558886B (zh) * 2017-09-27 2021-02-02 浙江宇视科技有限公司 检测方法及装置
US11908212B2 (en) * 2019-07-22 2024-02-20 Nec Corporation Matching position output system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4606779B2 (ja) * 2004-06-07 2011-01-05 グローリー株式会社 画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラム
US20070237387A1 (en) 2006-04-11 2007-10-11 Shmuel Avidan Method for detecting humans in images
US8111923B2 (en) * 2008-08-14 2012-02-07 Xerox Corporation System and method for object class localization and semantic class based image segmentation

Also Published As

Publication number Publication date
US8224072B2 (en) 2012-07-17
US20110013804A1 (en) 2011-01-20
JP2011022996A (ja) 2011-02-03

Similar Documents

Publication Publication Date Title
JP5345109B2 (ja) 画像における物体の変位可能な特徴を正規化するための方法
Alp Guler et al. Densereg: Fully convolutional dense shape regression in-the-wild
Jia et al. Visual tracking via adaptive structural local sparse appearance model
Antonakos et al. Feature-based lucas–kanade and active appearance models
Cristinacce et al. Boosted regression active shape models.
Wu et al. Simultaneous object detection and segmentation by boosting local shape feature based classifier
Wang et al. Transferring visual prior for online object tracking
US8811726B2 (en) Method and system for localizing parts of an object in an image for computer vision applications
Sukno et al. Active shape models with invariant optimal features: Application to facial analysis
CN110909618B (zh) 一种宠物身份的识别方法及装置
US11138464B2 (en) Image processing device, image processing method, and image processing program
Cheung et al. On deformable models for visual pattern recognition
Spiller Object Localization Using Deformable Templates
Zarbakhsh et al. Low-rank sparse coding and region of interest pooling for dynamic 3D facial expression recognition
Adoram et al. IRUS: image retrieval using shape
Waheed et al. Exploiting Human Pose and Scene Information for Interaction Detection
Krüger et al. Statistical appearance models based on probabilistic correspondences
Anjomshoae et al. Enhancement of template-based method for overlapping rubber tree leaf identification
Elsayed et al. Hand gesture recognition based on dimensionality reduction of histogram of oriented gradients
Akbas et al. Low-level hierarchical multiscale segmentation statistics of natural images
Allili et al. Object of interest segmentation and tracking by using feature selection and active contours
Scharfenberger et al. Salient region detection using self-guided statistical non-redundancy in natural images
Zheng et al. Enhanced active shape model for facial feature localization
Wu et al. Independent Gabor analysis of discriminant features fusion for face recognition
Wu et al. Learning distance metric for object contour tracking

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130415

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130415

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20130415

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20130501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130813

R150 Certificate of patent or registration of utility model

Ref document number: 5345109

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees