JP5345109B2 - 画像における物体の変位可能な特徴を正規化するための方法 - Google Patents
画像における物体の変位可能な特徴を正規化するための方法 Download PDFInfo
- Publication number
- JP5345109B2 JP5345109B2 JP2010144048A JP2010144048A JP5345109B2 JP 5345109 B2 JP5345109 B2 JP 5345109B2 JP 2010144048 A JP2010144048 A JP 2010144048A JP 2010144048 A JP2010144048 A JP 2010144048A JP 5345109 B2 JP5345109 B2 JP 5345109B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- location
- descriptor
- image
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/32—Normalisation of the pattern dimensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Description
第1に、画像が正規化される。画像正規化は、ピクセル数及びアスペクト比をすべての画像で同じにするものであり、例えば、顔については40×40とされ、身体については128×64にされる。ピクセル輝度値の範囲も、コントラストストレッチング及びダイナミックレンジ拡大によって、例えば0〜255に調整することができる。色も調整することができる。
第2に、物体が、正規化された画像に適合するように正規化される。これは、物体のサイズ、ロケーション、及び配向をすべての画像で一致させることによって行うことができる。これは、スケーリング、平行移動、及び回転によって行うことができる。
代替的な解決法は、変形可能物体又は関節物体を複数の物体にセグメント化するものである。例えば、人間の身体の場合、物体は、胴体部の物体、頭部の物体、及び四肢の物体にセグメント化される。同様に、顔は、目の物体、鼻の物体、及び口の物体にセグメント化することができる。それらの方法は、次に、各物体における固定された特徴に操作を行い、物体内での特徴の変位は問題ではない。すなわち、物体の特徴は、所定の位置に固定されたままである。要するに、物体セグメント全体が、通例、特徴として扱われる。これについては、非特許文献1及び非特許文献2を参照されたい。実際上、各セグメント化された物体における特徴は、物体における特徴と同じである。これについては、非特許文献3及び非特許文献4を参照されたい。
本発明の実施形態は、変位可能な特徴を正規化するための方法を提供する。再び、変位可能とは「物理的に所定の位置をはずれて移動すること」を表す明白な意味が使用されることを強調しておく。すなわち、特徴は、固定された相対ロケーションを有するのではなく、それどころか、特徴は、互いに対して物理的に所定の位置をはずれて移動することができる。その結果、画像において観察されるように、特徴を物体において変位させることができる。より具体的には、特徴を変位させることができる変位ゾーンZが物体内に定義される。この変位ゾーンは、相似変換、アフィン変換、及び遠近運動変換(perspective motion transformation)を含む変換パラメータによって定義することができる。
図2に示すように、特徴を変位させる(130)ことができる1つの方法は、コスト関数θ201の値を求めることによって、変位ゾーンZにおける最良のロケーションz*を探索することによるものである。この実施形態では、トレーニングされた画像のセット202がさまざまなロケーションにおける特徴と共に使用される。各ロケーションは、対応する記述子を有する。コスト関数は、トレーニング画像の対応する記述子及び変位ゾーンのロケーションz0における特徴Fに関連付けられた記述子ΔFを使用して値が求められる。
この実施形態では、図3に示すように、変位ベクトルδ=z*−z0を使用して最良のロケーションへ直接移動が行われる。変位可能な特徴を最良のロケーションへ直接移動させるために、トレーニング画像202上の最良の特徴ロケーションの推定が利用され、
z’=z0+Φ(ΔF(z0))
θ’=θ(ΔF(z’))
を使用して、ロケーションにおける記述子ΔF(z)から変位ベクトルδへのマッピング関数Φ301が求められる(305)。ここで、z’は、マッピング関数を使用して得られた最良のロケーションであり、θ’は、その新しいロケーションにおける新しいスコアリング関数の結果である。マッピング関数は、特徴のロケーションを最良のロケーションに直接マッピングする回帰関数として特徴付けることができる。
ブースト分類器において、弱分類器及び強分類器は、専門用語であり、それらの一般的な意味にあるように、不明確となるように意図されたものではない。弱分類器は、真の分類とわずかにしか相関していない一方、強分類器は、真の分類と適宜十分に相関している。ほとんどのブーストは、分類される特徴の分布に関して弱相関器を反復的に学習すること、及び弱相関器を追加して強相関器を形成することを処理する。弱分類器は、その分類精度に応じて重み付けされる。或る既知のブースト分類器は、AdaBoost(エイダブースト)である。AdaBoostは、後続の弱分類器が、前に追加された分類器により誤って分類された特徴が優先されるように重み付けされるという意味で適応的である。
Claims (18)
- 画像における物体の特徴を正規化するための方法であって、該方法は、プロセッサによって実行され、
前記画像から前記物体の前記特徴を抽出することであって、前記特徴は、前記物体における変位ゾーン内で変位可能であり、前記特徴は、前記変位ゾーン内のロケーションを有する、抽出すること、
前記特徴の関連付けられた記述を求めること、及び
前記変位ゾーンにおける最良のロケーションに前記特徴を変位させることであって、それによって、正規化された特徴を作成する、変位させること、
を含み、
前記最良のロケーションを求めて反復的にトレーニング画像のセットを探索することをさらに含み、前記探索することはコスト関数を使用し、
前記特徴はF=(s,z0,Z)であり、前記特徴のサイズはsであり、前記ロケーションはz0であり、前記変位ゾーンはZであり、前記記述についての記述子はΔF(x,z0)であり、前記コスト関数θ(ΔF,z)は、所与のトレーニング画像の一ロケーションにおける記述子が前記ロケーションz0における前記特徴Fの前記記述子と一致する尤度を測定し、ここで、xは、前記記述子が抽出された画像である
方法。 - 前記変位可能な特徴は、前記物体の検出、認識、分類、又は追跡に使用される、請求項1に記載の方法。
- 前記物体は、硬質なもの、変形可能なもの、又は関節のあるものである、請求項1に記載の方法。
- マッピング関数を適用することであって、それによって、前記特徴を前記最良のロケーションに直接変位させる、適用すること、をさらに含む、請求項1に記載の方法。
- 前記特徴は、サイズs、ロケーションz0、及び変位ゾーンZを有するF=(s,z0,Z)である、請求項1に記載の方法。
- 前記変位ゾーンは、相似変換、アフィン変換、遠近運動変換を含む変換パラメータによって定義される、請求項1に記載の方法。
- 前記記述についての記述子は、ΔF(x,z0)であり、ここで、xは、該記述子が抽出される前記画像である、請求項5に記載の方法。
- 前記記述についての記述子は、前記特徴の勾配方向ヒストグラムを使用する、請求項1に記載の方法。
- 前記コスト関数は、尤度スコアを最大にする、請求項1に記載の方法。
- 前記マッピング関数は、変位ベクトルδ=z*−z0を求め、ここで、z*は、前記最良のロケーションであり、z0は、前記特徴の前記ロケーションである、請求項4に記載の方法。
- 前記コスト関数θは、前記画像における前記物体が、前記トレーニング画像に対応する物体のクラスに存在する尤度を測定する、請求項1に記載の方法。
- 各トレーニング画像について前記記述子ΔF(x,z0)を求めること、
をさらに含む、請求項1に記載の方法。 - 前記反復は、前記コスト関数の連続した推定値の差分が所定のしきい値未満であるときに終了する、請求項1に記載の方法。
- 前記反復は、所定の反復回数の後に終了する、請求項1に記載の方法。
- 前記画像は3次元である、請求項1に記載の方法。
- トレーニング画像のセットから前記マッピング関数を求めること、
をさらに含む、請求項4に記載の方法。 - 前記記述についての記述子を正規化すること、
をさらに含む、請求項1に記載の方法。 - 前記記述についての記述子は、エッジ、ライン、ピクセルワイズフィルタ応答、領域テンプレート、並びに領域共分散、輝度ヒストグラム、及び共起を含む統計的記述子を含む外観ベースの記述子を使用する、請求項1に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/504,407 | 2009-07-16 | ||
US12/504,407 US8224072B2 (en) | 2009-07-16 | 2009-07-16 | Method for normalizing displaceable features of objects in images |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011022996A JP2011022996A (ja) | 2011-02-03 |
JP2011022996A5 JP2011022996A5 (ja) | 2013-05-23 |
JP5345109B2 true JP5345109B2 (ja) | 2013-11-20 |
Family
ID=43465329
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010144048A Expired - Fee Related JP5345109B2 (ja) | 2009-07-16 | 2010-06-24 | 画像における物体の変位可能な特徴を正規化するための方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8224072B2 (ja) |
JP (1) | JP5345109B2 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140369567A1 (en) * | 2006-04-04 | 2014-12-18 | Cyclops Technologies, Inc. | Authorized Access Using Image Capture and Recognition System |
US20140369566A1 (en) * | 2006-04-04 | 2014-12-18 | Cyclops Technologies, Inc. | Perimeter Image Capture and Recognition System |
US20130163823A1 (en) * | 2006-04-04 | 2013-06-27 | Cyclops Technologies, Inc. | Image Capture and Recognition System Having Real-Time Secure Communication |
US20130163822A1 (en) * | 2006-04-04 | 2013-06-27 | Cyclops Technologies, Inc. | Airborne Image Capture and Recognition System |
US8285719B1 (en) * | 2008-08-08 | 2012-10-09 | The Research Foundation Of State University Of New York | System and method for probabilistic relational clustering |
JP4970381B2 (ja) * | 2008-08-08 | 2012-07-04 | 株式会社東芝 | 特徴抽出装置、特徴抽出方法、画像処理装置、及び、プログラム |
CN102414720B (zh) * | 2010-03-19 | 2015-08-19 | 松下电器(美国)知识产权公司 | 特征量计算装置、特征量计算方法 |
US10356651B2 (en) * | 2014-07-17 | 2019-07-16 | Cirrent, Inc. | Controlled connection of a wireless device to a network |
US9171352B1 (en) | 2014-12-04 | 2015-10-27 | Google Inc. | Automatic processing of images |
CN109558886B (zh) * | 2017-09-27 | 2021-02-02 | 浙江宇视科技有限公司 | 检测方法及装置 |
US11908212B2 (en) * | 2019-07-22 | 2024-02-20 | Nec Corporation | Matching position output system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4606779B2 (ja) * | 2004-06-07 | 2011-01-05 | グローリー株式会社 | 画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラム |
US20070237387A1 (en) | 2006-04-11 | 2007-10-11 | Shmuel Avidan | Method for detecting humans in images |
US8111923B2 (en) * | 2008-08-14 | 2012-02-07 | Xerox Corporation | System and method for object class localization and semantic class based image segmentation |
-
2009
- 2009-07-16 US US12/504,407 patent/US8224072B2/en not_active Expired - Fee Related
-
2010
- 2010-06-24 JP JP2010144048A patent/JP5345109B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US8224072B2 (en) | 2012-07-17 |
US20110013804A1 (en) | 2011-01-20 |
JP2011022996A (ja) | 2011-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5345109B2 (ja) | 画像における物体の変位可能な特徴を正規化するための方法 | |
Alp Guler et al. | Densereg: Fully convolutional dense shape regression in-the-wild | |
Jia et al. | Visual tracking via adaptive structural local sparse appearance model | |
Antonakos et al. | Feature-based lucas–kanade and active appearance models | |
Cristinacce et al. | Boosted regression active shape models. | |
Wu et al. | Simultaneous object detection and segmentation by boosting local shape feature based classifier | |
Wang et al. | Transferring visual prior for online object tracking | |
US8811726B2 (en) | Method and system for localizing parts of an object in an image for computer vision applications | |
Sukno et al. | Active shape models with invariant optimal features: Application to facial analysis | |
CN110909618B (zh) | 一种宠物身份的识别方法及装置 | |
US11138464B2 (en) | Image processing device, image processing method, and image processing program | |
Cheung et al. | On deformable models for visual pattern recognition | |
Spiller | Object Localization Using Deformable Templates | |
Zarbakhsh et al. | Low-rank sparse coding and region of interest pooling for dynamic 3D facial expression recognition | |
Adoram et al. | IRUS: image retrieval using shape | |
Waheed et al. | Exploiting Human Pose and Scene Information for Interaction Detection | |
Krüger et al. | Statistical appearance models based on probabilistic correspondences | |
Anjomshoae et al. | Enhancement of template-based method for overlapping rubber tree leaf identification | |
Elsayed et al. | Hand gesture recognition based on dimensionality reduction of histogram of oriented gradients | |
Akbas et al. | Low-level hierarchical multiscale segmentation statistics of natural images | |
Allili et al. | Object of interest segmentation and tracking by using feature selection and active contours | |
Scharfenberger et al. | Salient region detection using self-guided statistical non-redundancy in natural images | |
Zheng et al. | Enhanced active shape model for facial feature localization | |
Wu et al. | Independent Gabor analysis of discriminant features fusion for face recognition | |
Wu et al. | Learning distance metric for object contour tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130415 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130415 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20130415 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20130501 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130514 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130529 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130716 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130813 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5345109 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |