JP2018507494A - 特徴抽出方法及び装置 - Google Patents
特徴抽出方法及び装置 Download PDFInfo
- Publication number
- JP2018507494A JP2018507494A JP2017552214A JP2017552214A JP2018507494A JP 2018507494 A JP2018507494 A JP 2018507494A JP 2017552214 A JP2017552214 A JP 2017552214A JP 2017552214 A JP2017552214 A JP 2017552214A JP 2018507494 A JP2018507494 A JP 2018507494A
- Authority
- JP
- Japan
- Prior art keywords
- image
- sparse
- vector
- block
- cells
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2136—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on sparsity criteria, e.g. with an overcomplete basis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/469—Contour-based spatial representations, e.g. vector-coding
- G06V10/473—Contour-based spatial representations, e.g. vector-coding using gradient analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/513—Sparse representations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
【課題】HOG特徴抽出方法において、パターン認識における検出率及び正確度が低いという問題を解決する。【解決手段】画像を複数のセルを含む複数のブロックに区分することと、サンプル画像に反復的アルゴリズムを用いて計算し得られた辞書Dを用いて、各セルに対してスパース信号分解を行い、各セルにそれぞれ対応するスパースベクトルを取得することと、スパースベクトルに基づき、画像の勾配方向ヒストグラムHOG特徴を抽出することと、を含む特徴抽出方法を提供する。【選択図】図1
Description
本発明は画像処理技術分野に関し、特に特徴抽出方法及び装置に関する。
本発明は出願番号201510829071.7であり、出願日2015年11月25日である中国特許出願に基づいて提出され、該中国特許出願の優先権を主張し、該中国特許出願の全ての内容はここで参考として本発明に引用される。
本発明は出願番号201510829071.7であり、出願日2015年11月25日である中国特許出願に基づいて提出され、該中国特許出願の優先権を主張し、該中国特許出願の全ての内容はここで参考として本発明に引用される。
画像検出及び認識はコンピュータビジョンにおける一つの重要な研究分野である。画像検出及び認識技術において最もよく使われる方法は、画像におけるある特徴を抽出することにより、画像に対して検出及び認識を行う。
関わる技術において、画像のHOG(Histogram of Oriented Gradient、勾配方向ヒストグラム)特徴を抽出することにより、画像に対して検出及び認識を行う。HOG特徴抽出方法は、画像における各画素の勾配を計算することと、画像を複数の画素を含む複数のセルに区分し、各隣接するn個のセルを一つのブロックに形成することと、各セルにおける全ての画素の勾配ヒストグラムを統計し、各ブロックにおける全てのセルの勾配ヒストグラムに基づき、各ブロックのHOG特徴を取得することと、画像における全てのブロックのHOG特徴を統計し画像のHOG特徴を取得することと、を含む。
関わる技術に存在した問題を解決するために、本発明は特徴抽出方法及び装置を提供する。前記技術的解決手段は以下のとおりである。
本発明の実施例の第1様態によれば、画像を複数のセルを含む複数のブロックに区分することと、サンプル画像に反復的アルゴリズムを用いて計算し得られた辞書Dを用いて、各セルに対してスパース信号分解を行い、各セルにそれぞれ対応するスパースベクトルを取得することと、スパースベクトルに基づき、画像の勾配方向ヒストグラムHOG特徴を抽出することと、を含む特徴抽出方法を提供する。
好ましい実施例において、該方法は、さらに、複数の種類の画像集を含むサンプル画像を取得することと、下記の式を用いて、反復により得られた最適な辞書を所定の辞書Dとすることと、を含み、
R=[r1,r2,…,rc]はC個のサンプル画像のスパース係数行列、Yは全ての種類のサンプル画像、
は一つのベクトルにおける非ゼロ要素の数を計算すること、T0は予め与えられたスパースの上限、
はベクトルの各要素の平方和を計算してから平方根を計算することを示す。
好ましい実施例において、所定の辞書Dを用いて、各セルに対してスパース信号分解を行い、各セルにそれぞれ対応するスパースベクトルを取得することは、各セルにおける画素をn*1次元のベクトルに調整することと、下記の式を用いて、所定の辞書Dにおいて、各セルにおけるベクトルに対してスパース信号分解を行い、対応するスパースベクトルを取得することと、を含み、
yは各セルにおけるベクトルであり、xは所定の辞書Dにおいてyをスパース化して得られたスパースベクトルであり、
はスパースベクトルxの各列の絶対値の和を求めることを示し、各スパースベクトルはm*1次元のベクトルであり、所定の辞書Dはn*mの行列である。
好ましい実施例において、スパースベクトルに基づき、画像の勾配方向ヒストグラムHOG特徴を抽出することは、スパースベクトルに基づき、各セルの勾配の大きさと勾配方向を計算し、各セルの記述子を取得することと、各ブロックにおける各記述子を統計し、各ブロックのHOG特徴を取得することと、画像における各ブロックのHOG特徴を統計し、画像のHOG特徴を取得することと、を含む。
好ましい実施例において、画像における各ブロックのHOG特徴を統計し、画像のHOG特徴を取得することは、画像における各ブロックのHOG特徴を一つの列として一つの行列に直列接続し、画像のHOG特徴を取得することを含む。
好ましい実施例において、画像における各ブロックのHOG特徴を統計し、画像のHOG特徴を取得することは、画像における、M*N個の画像を含む各ブロックのHOG特徴を初期のL*1次元のベクトルからM*Nの行列(L=M*N)に調整することと、各ブロックの調整後のHOG特徴と画像における各ブロックの対応的な位置に基づき、画像のHOG特徴を取得することと、を含む。
好ましい実施例において、該方法は、さらに、画像に対して正規化処理を行い、所定のサイズの画像を取得することを含む。
本発明の実施例の第2様態によれば、画像を複数のセルを含む複数のブロックに区分するように配置された区分モジュールと、サンプル画像に反復的アルゴリズムを用いて計算し得られた辞書Dを用いて、各セルに対してスパース信号分解を行い、各セルにそれぞれ対応するスパースベクトルを取得するように配置された区分モジュールと、スパースベクトルに基づき、画像の勾配方向ヒストグラムHOG特徴を抽出するように配置された抽出モジュールと、を含む特徴抽出装置を提供している。
好ましい実施例において、該装置は、さらに、複数の種類の画像集を含むサンプル画像を取得するように配置された取得モジュールと、下記の式を用いて、反復により得られた最適な辞書を所定の辞書Dとするように配置された反復モジュールと、を含み、
R=[r1,r2,…,rc]はC個のサンプル画像のスパース係数行列、Yは全ての種類のサンプル画像、
は一つのベクトルにおける非ゼロ要素の数を計算すること、T0は予め与えられたスパースの上限、
はベクトルの各要素の平方和を計算してから平方根を計算することを示す。
好ましい実施例において、分解モジュールは、各セルにおける画素をn*1次元のベクトルに調整するように配置された第1調整サブモジュールと、下記の式を用いて、所定の辞書Dにおいて、各セルにおけるベクトルに対してスパース信号分解を行い、対応するスパースベクトルを取得するように配置された信号分解サブモジュールと、
yは各セルにおけるベクトルであり、xは所定の辞書Dにおいてyをスパース化して得られたスパースベクトルであり、
スパースベクトルxの各列の絶対値の和を求めることを示し、各スパースベクトルはm*1次元のベクトルであり、所定の辞書Dはn*mの行列である。
好ましい実施例において、抽出モジュールは、スパースベクトルに基づき、各セルの勾配の大きさと勾配方向を計算し、各セルの記述子を取得するように配置された計算サブモジュールと、各ブロックにおける各記述子を統計し、各ブロックのHOG特徴を取得するように配置された第1統計サブモジュールと、画像における各ブロックのHOG特徴を統計し、画像のHOG特徴を取得するように配置された第2統計サブモジュールと、を含む。
好ましい実施例において、第2統計サブモジュールは、画像における各ブロックのHOG特徴を一つの列として一つの行列に直列接続し、画像のHOG特徴を取得するように配置される。
好ましい実施例において、第2統計サブモジュールは、画像における、M*N個の画素を含む各ブロックのHOG特徴を初期のL*1次元ベクトルからM*Nの行列(L=M*N)に調整するように配置された第2調整サブモジュールと、各ブロックの調整後のHOG特徴と前記画像における各前記ブロックの対応的な位置に基づき、画像のHOG特徴を取得するように配置された特徴抽出サブモジュールとを含む。
好ましい実施例において、該装置は、さらに、画像に対して正規化処理を行い、所定のサイズの画像を取得するように配置された処理モジュールを含む。
本発明の実施例の第3様態によれば、画像を複数のセルを含む複数のブロックに区分し、サンプル画像に反復的アルゴリズムを用いて計算し得られた辞書Dを用いて、各セルに対してスパース信号分解を行い、各セルにそれぞれ対応するスパースベクトルを取得し、スパースベクトルに基づき、画像の勾配方向ヒストグラムHOG特徴を抽出するように配置された、プロセッサと、前記プロセッサの実行可能なコマンドを記憶するメモリと、を含む特徴抽出装置を提供している。
本発明の実施例により提供される技術的解決手段は以下の好適な効果を含むことができる。画像を複数のセルを含む複数のブロックに区分し、サンプル画像に反復的アルゴリズムを用いて計算し得られた辞書Dを用いて、各セルに対してスパース信号分解を行い、各セルにそれぞれ対応するスパースベクトルを取得し、スパースベクトルに基づき、画像の勾配方向ヒストグラムHOG特徴を抽出することにより、HOG特徴の抽出過程における画像の空間領域に対して直接的に計算して取得することによるパターン認識における検出率及び正確度が低いという問題を解決する。周波数領域における画像のHOG特徴の抽出を実現し、パターン認識における検出率及び正確度を向上させる効果を達成している。
理解すべきことは、以上の一般的な説明と後の詳細な説明は例示的なものに過ぎず、本発明を限定するものではない。
ここの図面は明細書に合わせ本明細書の一部を構成し、本発明本発明に適合する実施例を示し、明細書と共に本発明の原理を解釈するのに用いられる。
一例示的な実施例により示された特徴抽出方法のフローチャートである。
別の一例示的な実施例により示された特徴抽出方法のフローチャートである。
一例示的な実施例により示された画像区分の概略図である。
別の一例示的な実施例により示された画像区分の概略図である。
一例示的な実施例により示されたセルの画素調整の概略図である。
一例示的な実施例により示されたブロックにおけるHOG特徴の概略図である。
一例示的な実施例により示された特徴抽出方法のフローチャートである。
一例示的実施例により示された画像HOG特徴を統計する概略図である。
一例示的な実施例により示された特徴抽出装置のブロック図である。
別の一例示的な実施例により示された特徴抽出装置のブロック図である。
一例示的な実施例により示された特徴抽出装置のサブモジュールのブロック図である。
別の一例示的実施例により示された特徴抽出装置のブロック図である。
ここで例示的な実施例について詳しく説明し、その実例は図面に示す通りである。下記の説明が図面に関わる時、別途に表示されない限り、異なる図面における同じ数字は同じ又は類似する要素を表示する。以下の例示的な実施例に説明される実施形態は本発明と一致する全ての実施形態を代表するわけではない。逆に、それらは添付の特許請求の範囲に詳細に記載された本発明の一部の態様と一致する装置と方法の例に過ぎない。
図1は一例示的な実施例により示された特徴抽出方法のフローチャートであり、図1に示すように、本実施例は該方法をパターン認識のハードウェアに用いることを例として説明し、該方法は下記ステップを含むことができる。
ステップ102において、画像を複数のセルを含む複数のブロックに区分する。ステップ104において、サンプル画像に反復的アルゴリズムを用いて計算し得られた辞書Dを用いて、各セルに対して、所与の観測信号を所定の辞書Dに従って複数の要素の値が0であるスパースベクトルに変換するスパース信号分解を行い、各セルにそれぞれ対応するスパースベクトルを取得する。
本実施例において、各セルにおける画素を所与の観測信号とし、各セルにおける画素を所定の辞書Dに従って対応するスパースベクトルに変換し、よって各セルにそれぞれ対応するスパースベクトルを取得する。
ステップ106において、スパースベクトルに基づき、画像のHOG特徴を抽出する。得られたスパース信号分解後のスパースベクトルに基づき、画像のHOG特徴を抽出する。
上に述べたように、本発明の実施例により提供される特徴抽出方法は、画像を複数のセルを含む複数のブロックに区分し、サンプル画像に反復的アルゴリズムを用いて計算し得られた辞書Dを用いて、各セルに対してスパース信号分解を行い、各セルにそれぞれ対応するスパースベクトルを取得し、スパースベクトルに基づき、画像の勾配方向ヒストグラムHOG特徴を抽出し、HOG特徴の抽出過程における画像の空間領域に対して直接的に計算して取得することによるパターン認識における検出率及び正確度が低いという問題を解決する。周波数領域における画像のHOG特徴の抽出を実現し、パターン認識における検出率及び正確度の効果を向上させる効果を達成している。
図2Aは別の一例示的な実施例により示された特徴抽出方法のフローチャートであり、図2Aに示すように、本実施例は該方法をパターン認識のハードウェアに用いることを例として説明し、該方法は下記ステップを含むことができる。
ステップ201において、画像に対して正規化処理を行い、所定のサイズの画像を取得する。パターン認識において、一般的に複数の画像から特徴を抽出することに関し、画像に対する統一処理が便利であるように、画像に対して特徴抽出を行う前、まず端末により画像に対して正規化処理を行い、異なるサイズの画像を所定のサイズの画像に処理する。
ステップ202において、複数の種類の画像集を含むサンプル画像を取得する。端末はサンプル画像ライブラリにより、例えば、顔の種類、人体の種類又は車両の種類などである複数の種類の画像集が含まれているサンプル画像を取得し、本実施例はそれを限定しない。
好ましくは、端末はサンプル画像を取得した後、画像に対する統一処理が便利であるように、サンプル画像に対して正規化処理を行い、異なるサイズの画像を所定のサイズの画像に処理する。
ステップ203において、下記の式を用いて、反復により得られた最適な辞書を所定の辞書Dとする。
R=[r1,r2,…,rc]はC個のサンプル画像のスパース係数行列、Yは全ての種類のサンプル画像、
は一つのベクトルにおける非ゼロ要素の数を計算すること、T0は予め与えられたスパースの上限、
はベクトルの各要素の平方和を計算してから平方根を計算することを示す。上記の式は、即ち、K−SVD(K−means Singular Value Decomposition、K−平均値特異値分解)アルゴリズムである。
K−SVDアルゴリズムは反復的過程を通じて辞書のサンプル画像における学習を実現し、スパース表現係数を用いて辞書における原子を更新し、連続的反復によって、最後に画像特徴を反映できる、原子が辞書における要素である辞書原子集合、即ち、サンプル画像の学習により得られた最適な辞書である所定の辞書Dを取得する。
K−SVDアルゴリズムの反復的過程は以下のとおりである。総計X類のサンプル画像があると仮定し、i番目種類に対して、Ni個のサンプル画像を与える。行列Yi=[yil,…,yiNi]を用いて、i番目に属する全てのサンプル画像を表示し、Y=[Yl,…,Yx]を用いて、全ての種類のサンプル画像を表示する。上記の式を用いて、サンプル画像において学習し、最後に最適な所定の辞書Dを取得する。
ステップ204において、画像を複数のセルを含む複数のブロックに区分する。好ましくは、端末が正規化処理後の画像を区分することは、画像を複数のブロックに区分し、各ブロックを複数のセルに区分することを含む。
好ましくは、端末が正規化処理後の画像を区分することは、画像を複数のセルに区分し、接続されたセルを複数のセルを含む一つのブロックに組み合わせ、例えば、二つずつ隣接する四つの田字状に配列されたセルを一つのブロックに組み合わせることを含む。
本実施例において、画像区分過程において、ブロックの区分とセルの区分の順序を詳しく限定せず、ブロックを区分してからセルを区分してもよく、セルを区分してからブロックに組み合わせてもよい。
本実施例において、画像が区分されたブロックの間には重複領域が存在するか否かを詳しく限定せず、ブロックの間には重複領域が存在しても、存在しなくてもよい。例えば、図2Bに示すように、まず128画素*128画素の画像20を互いに重なっていない16画素*16画素のブロック21に区分し、さらに16画素*16画素の各ブロック21を8画素*8画素のセル22に区分する場合、画像には8個*8個=64個の互いに重なっていないブロック21が含まれ、各ブロックには2個*2個=4個のセルが含まれている。
例えば、図2Cに示すように、まず128画素*128画素の画像20を重複領域が存在する16画素*16画素のブロック23に区分し、さらに16画素*16画素の各ブロック23を8画素*8画素のセル24に区分する場合、画像には16個*16個=256個の重複領域が存在するブロック23が含まれ、各ブロックには2個*2個=4個のセルが含まれている。
ステップ205において、各セルにおける画素をn*1次元のベクトルに調整する。画像を区分した後、各セルにおける画素を一つの行列と考えてもよく、各セルにおける画素に対応する行列をn*1次元のベクトルに調整する。行列調整過程において、図2D示すように、画素に対応する行列25の第2列K227を第1列K126の下方に直列接続し、画素に対応する行列25の第3列(図示せず)を直列接続された第2列K227の下方に直列接続し、これによって類推し、各セルにおける画素に対応する行列25をn*1次元のベクトル28に調整する。
ステップ206において、下記の式を用いて、各セルにおけるベクトルに対してスパース信号分解を行い、対応するスパースベクトルを取得する。
yは各セルにおけるベクトルであり、xは所定の辞書Dにおいてyをスパース化して得られたスパースベクトルであり、
はスパースベクトルxの各列の絶対値の和を求めることを示し、各スパースベクトルはm*1次元のベクトルであり、所定の辞書Dはn*mの行列である。
画像における各セルに対して、端末は反復的計算により最適な所定の辞書Dを取得し、各セルにおけるベクトルを所与の観測信号yとする場合、上記の式によって計算して各セルにおけるベクトルの最適な辞書Dにおけるスパースベクトルを取得する。各セルにおける調整後のベクトルはn*1次元であり、端末が反復的計算により得られた所定の辞書Dはn*mの行列であるため、上記の式によって計算して得られた各セルにおけるベクトルに対応するスパースベクトルはm*1次元である。
ステップ207において、スパースベクトルに基づき、各セルの勾配の大きさと勾配方向を計算し、各セルの記述子を取得する。端末は勾配演算子を用いて、スパース信号分解後の各セルにおける各画素の横方向勾配と縦方向勾配を計算する。
即ち、勾配演算子を用いて、各セルに対応するスパースベクトルにおける各画素に対して横方向勾配と縦方向勾配を計算する。例示的に、一般的な勾配演算子は下記テーブル1に示すようである。
本実施例において、各セルにおける画素の勾配の大きさを計算する時、テーブル1におけるいずれかの勾配演算子を選択してもよく、他の勾配演算子を選択してもよく、本実施例において勾配演算子の選択を詳しく限定しない。
スパースベクトルにおける要素の横方向勾配はH(x,y)と、縦方向勾配はV(x,y)と仮定する場合、該要素に対応する勾配方向と勾配ゲインを下記の式(1)と式(2)で計算する。
θ(x,y)はスパースベクトルにおける要素(x,y)の勾配方向であり、m(x,y)は要素(x,y)の勾配の大きさである。
θ(x,y)はスパースベクトルにおける要素(x,y)の勾配方向であり、m(x,y)は要素(x,y)の勾配の大きさである。
勾配方向θ(x,y)の値の範囲は−90度から90度までであり、勾配方向θ(x,y)をz個の部分に均等に区分し、各セルに対応するスパースベクトルにおける全ての要素に対して重み付けm(x,y)に従って勾配方向に区分された各部分を統計し、最後に各セルはz次元のベクトル、即ち、各セルに対応する記述子を取得する。
例えば、勾配方向θ(x,y)を9部分に均等に区分し、各部分に対応する角度は20度であり、各セルに対応するスパースベクトルにおける全ての要素を重み付けm(x,y)に従って20度ごとに統計し、最後に各セルに対応して9次元のベクトルを取得する。
本実施例において、勾配方向を何個の部分に区分するかを詳しく限定しない。ステップ208において、各ブロックにおける各記述子を統計し、各ブロックのHOG特徴を取得する。
端末は各ブロックに含まれている各セルにおける計算により取得された記述子を統計し、各ブロックのHOG特徴を取得する。各セルおける計算により取得された記述子を統計する時、端末は各セルに対応する記述子を直列接続し、各ブロックのHOG特徴が一つのベクトルであるようにして、該ベクトルの次元が該ブロックに含まれているセルに対応する記述子の次元のk倍である。
例えば、各セルにおける記述子は9次元のベクトルであり、各ブロックに4個のセルが含まれている場合、4個のセルにおける9次元の記述子を直列接続し、36次元のベクトルを形成し、該36次元のベクトルを対応するブロックのHOG特徴とする。
ステップ209において、画像における各ブロックのHOG特徴を統計し、画像のHOG特徴を取得する。端末が画像における各ブロックのHOG特徴を統計し、画像のHOG特徴を取得する。画像における各ブロックのHOG特徴を一つの列として一つの行列に直列接続し、画像のHOG特徴を取得する。
例えば、図2Eに示すように、画像にはHOG特徴がKiであるK個のブロックが含まれている場合、Ki個のHOG特徴を一つの行列250に直列接続し、K1を直列接続された行列の第1列260に置き、K2を直列接続された行列の第2列270に置き、これによって類推する。
上に述べたように、本発明の実施例により提供される特徴抽出方法は、複数の種類の画像集を含むサンプル画像を取得し、式を用いて、反復により得られた最適な辞書を所定の辞書Dとし、画像を複数のセルを含む複数のブロックに区分し、各セルにおける画素をn*1次元のベクトルに調整し、式を用いて、各セルにおけるベクトルに対してスパース信号分解を行い、対応するスパースベクトルを取得し、スパースベクトルに基づき、各セルの勾配の大きさと勾配方向を計算し、各セルの記述子を取得し、各ブロックにおける各記述子を統計し、各ブロックのHOG特徴を取得し、画像における各ブロックのHOG特徴を統計し、画像のHOG特徴を取得することにより、HOG特徴の抽出過程における画像の空間領域に対して直接的に計算して取得することによるパターン認識における検出率及び正確度が低いという問題を解決する。周波数領域における画像のHOG特徴の抽出を実現し、パターン認識における検出率及び正確度を向上させる効果を達成している。
図2Aにより示された好ましい実施例において、画像における各ブロックのHOG特徴を統計し画像のHOG特徴を取得する過程において、画像における対応的な位置に従うように配列することができる。図3Aに示すようにステップ209を下記ステップ209a及び209bで代替する。
ステップ209aにおいて、画像における、M*N個の画像を含む各ブロックのHOG特徴を初期のL*1次元のベクトルからM*Nの行列(L=M*N)に調整する。各ブロックのHOG特徴は各セルに対応する記述子を直列接続してL*1次元のベクトルを取得して、端末がL*1次元のベクトルをM*Nの行列に調整するものであり、即ち、各ブロックにおけるL*1次元のベクトルを含まれているセルに従って、各列が一つのセルの記述子である対応する行列に調整し、各セルの記述子を対応する画素に従って調整し、得られた調整後の行列の各列は対応するブロックにおける対応する列の画素に対応するHOG特徴である。
ステップ209bにおいて、各ブロックの調整後のHOG特徴と画像における各前記ブロックの対応的な位置に基づき、画像のHOG特徴を取得する。各ブロックの調整後のHOG特徴と画像における各ブロックの対応的な位置に基づき、画像における画素位置に対応するHOG特徴を取得する。
例えば、図3Bに示すように、画像にHOG特徴がKiであるK個のブロックが含まれている場合、Ki個のHOG特徴をM*Nの行列に調整し、K1の調整後の行列31を画像における第1のブロック32の対応的な位置に置き、K2の調整後の行列33を画像における第2のブロック34の対応的な位置に置き、これによって類推し、行列MNを画像における最後のブロックMNの対応的な位置に置く。
上に述べたように、本実施例により提供される特徴抽出方法は、画像における、M*N個の画素を含むブロックのHOG特徴を初期のL*1次元のベクトルをM*Nの行列(L=M*N)に調整し、各ブロックの調整後のHOG特徴と画像における各ブロックの対応的な位置に基づき、画像のHOG特徴を取得することにより、抽出後の画像のHOG特徴は画像における各ブロックの対応的な位置に対応し、画像における各ブロックの特徴をより良く強調することができる。
以下は本発明に関わる装置の実施例であり、本発明に関わる方法の実施例を実行するのに用いることができる。本発明に関わる装置の実施例に開示されていない詳細については、本発明に関わる方法の実施例を参照する。
図4は一例示的な実施例により示された特徴抽出装置のブロック図であり、図4に示すように、該特徴抽出装置は、区分モジュール420と、分解モジュール440と、抽出モジュール460とを含むがそれに限定されない。
前記区分モジュール420は、画像を複数のセルを含む複数のブロックに区分するように配置される。前記分解モジュール440は、サンプル画像に反復的アルゴリズムを用いて計算し得られた所定の辞書Dを用いて、各セルに対して、所与の観測信号を所定の辞書Dに従って複数の要素の値が0であるスパースベクトルに変換するスパース信号分解を行い、各セルにそれぞれ対応するスパースベクトルを取得するように配置される。
本実施例において、各セルにおける画素を所与の観測信号とし、各セルにおける画素を所定の辞書Dに従って対応するスパースベクトルに変換し、よって各セルにそれぞれ対応するスパースベクトルを取得する。
前記抽出モジュール460は、スパースベクトルに基づき、画像の勾配方向ヒストグラムHOG特徴を抽出するように配置される。スパース信号分解後の得られたスパースベクトルに基づき、画像のHOG特徴を抽出する。
上に述べたように、本発明の実施例により提供される特徴抽出装置は、画像を複数のセルを含む複数のブロックに区分し、サンプル画像に反復的アルゴリズムを用いて計算し得られた所定の辞書Dを用いて、各セルに対してスパース信号分解を行い、各セルにそれぞれ対応するスパースベクトルを取得し、スパースベクトルに基づき、画像の勾配方向ヒストグラムHOG特徴を抽出することにより、HOG特徴の抽出過程における画像の空間領域に対して直接的に計算して取得することによるパターン認識における検出率及び正確度が低いという問題を解決する。周波数領域における画像のHOG特徴の抽出を実現し、パターン認識における検出率及び正確度を向上させる効果を達成している。
図5は別の一例示的な実施例により示された特徴抽出装置のブロック図であり、図5に示すように、該特徴抽出装置は、処理モジュール510と、取得モジュール520と、反復モジュール530と、区分モジュール540と、分解モジュール550と、抽出モジュール560とを含むがそれに限定されない。
前記処理モジュール510は、画像に対して正規化処理を行い、所定のサイズの画像を取得するように配置される。パターン認識において、一般的に複数の画像を特徴抽出することが多い。
画像に対する統一処理が便利であるように、画像に対して特徴抽出を行う前、処理モジュール410は、画像に対して正規化処理を行い、異なるサイズの画像を所定サイズの画像に処理する。
前記取得モジュール520は、複数の種類の画像集を含むサンプル画像を取得するように配置される、サンプル画像ライブラリにより、取得モジュール520は、例えば、顔の種類、人体の種類又は車両の種類などである複数の種類の画像集を含むサンプル画像を取得する。
前記反復モジュール530は、下記の式を用いて、反復により得られた最適な辞書を所定の辞書Dとするように配置される。
R=[r1,r2,…,rc]はC個のサンプル画像のスパース係数行列、Yは全ての種類のサンプル画像、
は一つのベクトルにおける非ゼロ要素の数を計算すること、T0は予め与えられたスペースの上限、
はベクトルの各要素の平方和を計算してから平方根を計算することを示す。
K−SVDアルゴリズムは反復的過程を通じてサンプル画像における辞書の学習を実現し、スパース表現係数を用いて辞書における原子を更新し、最後に画像特徴を反映できる、原子が辞書における要素である辞書原子集合、即ち、サンプル画像の学習における画像特徴をよく反映できる最適な辞書である所定の辞書Dを取得する。
K−SVDアルゴリズムの反復的過程は以下のとおりである。総計X類のサンプル画像があると仮定し、i番目の種類に対して、Ni個のサンプル画像を与える。行列Yi=[yil,…,yiNi]を用いて、i番目の種類に属する全てのサンプル画像を表示し、Y=[Yl,…,Yx]を用いて、全ての種類のサンプル画像を表示する。上記の式を用いて、サンプル画像において学習し、最後に最適な所定の辞書Dを取得する。
前記区分モジュール540は、画像を複数のセルを含む複数のブロックに区分するように配置される。好ましくは、区分モジュール540が正規化処理後の画像を区分することは、画像を複数のブロックに区分し、各ブロックを複数のセルに区分することを含む。
好ましくは、区分モジュール540が正規化処理後の画像を区分することは、画像を複数のセルに区分し、接続されたセルを複数のセルを含む一つのブロックに組み合わせ、例えば、二つずつ隣接する四つの田字状に配列されたセルを一つのブロックに組み合わせることを含む。
本実施例において、区分モジュール540は画像区分過程に、ブロックの区分とセルの区分の順序を詳しく限定せず、ブロックを区分してからセルを区分してもよく、セルを区分してからブロックに組み合わせてもよい。
本実施例において、区分モジュール540は画像が区分されたブロックの間に重複領域が存在するか否かを詳しく限定せず、ブロックの間には重複領域が存在してもよく、存在しなくてもよい。
前記分解モジュール550は、サンプル画像に反復的アルゴリズムを用いて計算し得られた所定の辞書Dを用いて、各セルに対して、所与の観測信号を所定の辞書Dに従って多くの要素の値が0であるスパースベクトルに変換するスパース信号分解を行い、各セルにそれぞれ対応するスパースベクトルを取得するように配置される。
本実施例において、各セルにおける画素を所与の観測信号とし、各セルにおける画素を所定の辞書Dに従って対応するスパースベクトルに変換し、よって各セルにそれぞれ対応するスパースベクトルを取得する。
本実施例において、区分ジュール550は、第1調整サブモジュール551と、信号分解サブモジュール552とを含むことができる。前記第1調整サブモジュール551は、各セルにおける画素をn*1次元のベクトルに調整するように配置される。
画像を区分した後、各セルにおける画素を一つの行列と考えてもよく、各セルにおける画素に対応する行列をn*1次元のベクトルに調整する。
前記信号分解サブモジュール552は、下記の式を用いて、所定の辞書Dにおいて、各セルにおけるベクトルに対してスパース信号分解を行い、対応するスパースベクトルを取得するように配置される。
yは各セルにおけるベクトルであり、xは所定の辞書Dにおいてyをスパース化して得られたスパースベクトルであり、
はスパースベクトルxの各列の絶対値の和を求めることを示し、各スパースベクトルはm*1次元のベクトルであり、所定の辞書Dはn*mの行列である。
画像における各セルに対して、反復モジュール530によって、計算により最適な所定の辞書Dを取得し、信号分解サブモジュール552は、各セルにおけるベクトルを所与の観測信号yとする場合、上記の式の計算により各セルにおけるベクトルの最適な辞書Dにおけるスパースベクトルxを取得する。各セルにおける調整後のベクトルはn*1次元であり、反復モジュール530は反復的計算により取得された所定の辞書Dはn*mの行列であるため、上記の式によって計算して取得された各セルにおけるベクトルに対応するスパースベクトルはm*1次元である。
前記抽出モジュール560は、スパースベクトルに基づき、画像の勾配方向ヒストグラムHOG特徴を抽出するように配置される。スパース信号分解により得られたスパースベクトルに基づき、画像のHOG特徴を抽出する。
本実施例において、抽出モジュールは、計算サブモジュール561と、第1統計サブモジュール562と、第2統計サブモジュール563とを含むことができる。前記計算サブモジュール561は、スパースベクトルに基づき、各セルの勾配の大きさと勾配方向を計算し、各セルの記述子を取得するように配置される。
計算サブモジュール561は、勾配演算子を用いて、スパース信号分解後の各セルにおける各画素の横方向勾配と縦方向勾配を計算する。
即ち、勾配演算子を用いて、計算サブモジュール561は各セルに対応するスパースベクトルにおける各画素に対して横方向勾配と縦方向勾配を計算する。本実施例は勾配演算子の選択を詳しく限定しない。
スパースベクトルにおける要素の横方向勾配はH(x,y)、縦方向勾配はV(x,y)であると仮定する場合、該要素に対応する勾配方向と勾配ゲインを下記の式(1)と式(2)で計算する。
θ(x,y)はスパースベクトルにおける要素(x,y)の勾配方向であり、m(x,y)は(x,y)の勾配の大きさである。
θ(x,y)はスパースベクトルにおける要素(x,y)の勾配方向であり、m(x,y)は(x,y)の勾配の大きさである。
勾配方向θ(x,y)の値の範囲は−90度から90度までであり、勾配方向θ(x,y)をz個の部分に均等に区分し、各セルに対応するスパースベクトルにおける全ての要素に対して重み付けm(x,y)に従って勾配方向に区分された各部分を統計し、最後に各セルは一つのz次元のベクトル、即ち、各セルに対応する記述子を取得する。
第1統計サブモジュール562は、各ブロックにおける各記述子を統計し、各ブロックのHOG特徴を取得するように配置される。第1統計サブモジュール562は、各ブロックに含まれている各セルにおける計算により取得された記述子を統計し、各ブロックのHOG特徴を取得する。
各セルにおける計算により取得された記述子を統計する時、第1統計サブモジュール562は各セルに対応する記述子を直列接続し、各ブロックのHOG特徴が一つのベクトルであるようにして、該ベクトルの次元が該ブロックに含まれているセルに対応する記述子の次元のk倍である。前記第2統計サブモジュール563は、画像における各ブロックのHOG特徴を統計し、画像のHOG特徴を取得するように配置される。
第2統計サブモジュール563は、画像における各ブロックのHOG特徴を統計し、画像のHOG特徴を取得する。好ましくは、第2統計サブモジュール563は、画像における各ブロックのHOG特徴を一つの列として一つの行列に直列接続し、画像のHOG特徴を取得するように配置される。
上に述べたように、本発明の実施例により提供される特徴抽出装置は、複数の種類の画像集を含むサンプル画像を取得し、式を用いて、反復により得られた最適な辞書を所定の辞書Dとし、画像を複数のセルを含む複数のブロックに区分し、各セルにおける画素をn*1次元のベクトルに調整し、式を用いて、各セルにおけるベクトルに対してスパース信号分解を行い、対応するスパースベクトルを取得し、スパースベクトルに基づき、各セルの勾配の大きさと勾配方向を計算し、各セルの記述子を取得し、各ブロックにおける各記述子を統計し、各ブロックのHOG特徴を取得し、画像における各ブロックのHOG特徴を統計し、画像のHOG特徴を取得することにより、HOG特徴の抽出過程における画像の空間領域に対して直接的に計算して取得することによるパターン認識における検出率及び正確度が低いという問題を解決する。周波数領域における画像のHOG特徴の抽出を実現し、パターン認識における検出率及び正確度を向上させる効果を達成している。
図5により示された好ましい実施例において、図6に示すように、第2統計サブモジュール563は、第2調整サブモジュール610と、特徴抽出サブモジュール620とを含むことができる。前記第2調整サブモジュール610は、画像における、M*N個の画素を含む各ブロックのHOG特徴を初期のL*1次元ベクトルからM*Nの行列(L=M*N)に調整するように配置される。
各ブロックのHOG特徴は各セルに対応する記述子を直列接続してL*1次元のベクトルを取得して、調整サブモジュール610はL*1次元のベクトルをM*Nの行列に調整し、即ち、各ブロックにおけるL*1次元のベクトルを含まれているセルに従って、各列が一つのセルの記述子である対応する行列に調整し、各セルの記述子を対応する画素に従って調整し、得られた調整後の行列の各列は対応するブロックにおける対応する列の画素に対応するHOG特徴である。
前記特徴抽出サブモジュール620は、各ブロックの調整後のHOG特徴と前記画像における各ブロックの対応的な位置に基づき、画像のHOG特徴を取得するように配置される。
特徴抽出サブモジュール620は、各ブロックの調整後のHOG特徴と画像における各ブロックの対応的な位置に基づき、画像における画素位置に対応するHOG特徴を取得する。
上に述べたように、本実施例により提供される特徴抽出装置は、画像における、M*N個の画素を含むブロックのHOG特徴を初期のL*1次元のベクトルをM*Nの行列(L=M*N)に調整することにより、各ブロックの調整後のHOG特徴と画像における各ブロックの対応的な位置に基づき、画像のHOG特徴を取得し、抽出後の画像のHOG特徴は画像における各ブロックに対応的な位置に対応し、画像における各ブロックの特徴をより良く強調することができる。
上記実施例における装置について、各モジュールの操作を実行する具体的な形態は、すでに該方法に関する実施例において詳しく説明されたため、ここで詳細な説明を省略する。
本発明の一例示的な実施例は特徴抽出装置を提供し、本発明により提供される特徴抽出方法を実現することができ、該特徴抽出装置は、画像を複数のセルを含む複数のブロックに区分し、サンプル画像に反復的アルゴリズムを用いて計算し得られた所定の辞書Dを用いて、各セルスパース信号分解を行い、各セルにそれぞれ対応するスパースベクトルを取得し、前記スパースベクトルに基づき、前記画像の勾配方向ヒストグラムのHOG特徴を抽出するように配置された、プロセッサと、プロセッサの実行可能なコマンドを記憶するメモリと、を含む。
図7は一例示的な実施例により示された特徴抽出装置のブロック図である。例えば、装置700は、携帯電話、コンピュータ、デジタル放送端末、メッセージ送受信装置、ゲームコンソール、タブレット型装置、医療機器、フィットネス装置、パーソナルデジタルアシスタントなどであってもよい。
図11に示すように、装置700は、処理部1102、メモリ1104、電源部1106、マルチメディア部1108、音声部1110、入力/出力(I/O)のインタフェース1112、センサー部1114、及び通信部1116のうちの一つ又は複数の部材を含むことができる。
処理部702は、一般的に装置700の全体的操作、例えば、表示、電話呼び出し、データ通信、カメラ操作及び記録操作に関する操作を制御する。処理部702は、上記方法の全部又は一部のステップを完成するために、一つ又は複数のプロセッサ720を含んでコマンドを実行してもよい。さらに、処理部702は、その他のモジュールとのインタラクションを便利にするように、一つ又は複数のモジュールを含んでもよい。例えば、処理部702は、マルチメディア部708と処理部702とのインタラクションを便利にするように、マルチメディアモジュールを含んでもよい。
メモリ704は、装置700の操作をサポートするために、様々な種類のデータを記憶するように配置される。これらのデータの実例は、装置700において操作される如何なるアプリケーション又は方法のコマンド、連絡先データ、電話帳データ、メッセージ、画像、ビデオなどを含む。メモリ704は、如何なる種類の揮発性又は不揮発性メモリ又はそれらの組合せ、例えば、スタティックランダムアクセスメモリ(SRAM)、電気的消去可能なプログラマブル読み取り専用メモリ(EEPROM)、消去可能なプログラマブル読み取り専用メモリ(EPROM)、プログラマブル読み取り専用メモリ(PROM)、読み取り専用メモリ(ROM)、磁気メモリ、フラッシュメモリ、磁気ディスク又は光ディスクにより実現することができる。
電源部706は、装置700の様々な部材のために電力を供給する。電源部706は、電源管理システム、一つ又は複数の電源、及びその他の装置700のための電力の生成、管理及び供給に関連する部材を含むことができる。
マルチメディア部708は、前記装置700とユーザーの間の一つの出力インタフェースを提供するスクリーンを含む。一部の実施例において、スクリーンは液晶ディスプレイ(LCD)とタッチパネル(TP)を含んでもよい。スクリーンにタッチパネルが含まれる場合、スクリーンはユーザーからの入力信号を受信するために、タッチスクリーンに実現されることができる。タッチパネルは、タッチ、スワイプ及びタッチパネルにおけるジェスチャーを感知するために、一つ又は複数のタッチセンサを含む。前記タッチセンサは、タッチ又はスワイプ動作の境界を感知するとともに、前記タッチ又はスワイプ動作に関わる持続時間及び圧力を検出することができる。一部の実施例において、マルチメディア部708は、フロントカメラ及び/又はバックカメラを含む。装置700が操作モードである場合、例えば、撮影モード又はビデオモードである場合、フロントカメラ及び/又はバックカメラは外部のマルチメディアデータを受信することができる。各フロントカメラ及びバックカメラは、固定された光学レンズシステムであってもよく、又は焦点距離と光学ズーム能力を有する。
音声部710は、音声信号を出力及び/又は入力するように配置される。例えば、音声部710は、マイクロホン(MIC)を含み、装置700が操作モードである場合、例えば、呼び出しモード、記録モード及び音声認識モードである場合、マイクロホンは外部の音声信号を受信するように配置される。受信された音声信号は、さらにメモリ704に記憶され、又は通信部716を介して送信される。一部の実施例において、音声部710は、さらに音声信号を出力するスピーカーを含む。
I/Oインタフェース712は、処理部702と周辺インターフェース部との間にインタフェースを提供し、上記周辺インターフェース部は、キーボード、クリックホイール、ボタンなどであってもよい。これらのボタンは、ホームボタン、ボリュームボタン、スタートボタン及びホールドボタンを含むことができるが、それに限定されない。
センサー部714は、一つ又は複数のセンサを含み、装置700に各方面の状態評価を提供するためである。例えば、センサー部714は、装置700のオン/オフ状態、部材の相対的位置決めを検出することができ、例えば、前記部材が装置700のディスプレイ及びキーパッドであり、センサー部714は、さらに装置700又は装置700の一つの部材の位置変化、ユーザーと装置700との接触の有無、装置700の方角又は加速/減速及び装置700の温度変化を検出することができる。センサー部714は、近接センサを含むことができ、如何なる物理的接触がない時、近傍物体の存在を検出するように配置される。センサー部714は、さらに光学センサ、例えば、CMOS又はCCDイメージセンサを含むことができ、イメージングアプリケーションに用いられる。一部の実施例において、該センサー部714は、さらに加速度センサ、ジャイロセンサ、磁気センサ、圧力センサ又は温度センサを含むことができる。
通信部716は、装置700とその他の装置との有線又は無線方式による通信を便利にするように配置される。装置700は、通信標準に基づく無線ネットワーク、例えば、Wi−Fi、2G又は3G、又はそれらの組み合わせにアクセスすることができる。一例示的な実施例において、通信部716は、放送チャネルを介して外部放送管理システムからの放送信号又は放送関連情報を受信する。一例示的な実施例において、通信部716は、狭域通信を促進するために、さらに近距離無線通信(NFC)モジュールを含む。例えば、NFCモジュールにおいて、無線周波数認識(RFID)技術、赤外線データ協会(IrDA)技術、超広帯域(UWB)技術、ブルートゥース(BT)及びその他の技術に基づいて実現することができる。
例示的な実施例において、装置700は、一つ又は複数の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理装置(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサ又はその他の電子部品により実現することができ、上記特徴抽出方法を実行するのに用いられる。
例示的な実施例において、さらに、コマンドを含む非一時的コンピュータ可読記憶媒体、例えば、コマンドを含むメモリ704を提供し、上記方法を完成するために、上記コマンドは装置700のプロセッサ720により実行することができる。例えば、前記非一時的なコンピュータ可読記憶媒体は、ROM、ランダムアクセスメモリ(RAM)、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク及び光データ記憶装置などであってもよい。
当業者であれば、明細書を考慮しここに開示された発明を実践した後、本発明のその他の実施様態を容易に想到できる。本発明は、本発明の如何なる変形、用途又は適応的変化を含むためのものであり、これらの変形、用途又は適応的変化は本発明の一般的な原理に準じ、本発明の開示されていない当該技術分野における一般的知識又は慣用の技術手段を含む。明細書と実施例は例示的なものに過ぎず、本発明の実際の範囲と精神は下記特許請求の範囲により与えられる。
理解すべきことは、本発明は既に上記のように説明され、図面に示された正確な構造に限定されず、その範囲を逸脱しない限りにおいて様々な修正や変更を行うことができる。本発明の範囲は特許請求の範囲のみにより限定される。
Claims (15)
- 特徴抽出方法であって、
画像を複数のセルを含む複数のブロックに区分することと、
サンプル画像に反復的アルゴリズムを用いて計算し得られた辞書Dを用いて、各前記セルに対してスパース信号分解を行い、各前記セルにそれぞれ対応するスパースベクトルを取得することと、
前記スパースベクトルに基づき、前記画像の勾配方向ヒストグラムHOG特徴を抽出することと、
を含むことを特徴とする方法。 - 前記方法は、さらに、
複数の種類の画像集を含む前記サンプル画像を取得することと、
下記の式を用いて、反復により得られた最適な辞書を前記所定の辞書Dとすることと、を含み、
- 前記所定の辞書Dを用いて、各前記セルに対してスパース信号分解を行い、各前記セルにそれぞれ対応するスパースベクトルを取得することは、
各前記セルにおける画素をn*1次元のベクトルに調整することと、
下記の式を用いて、前記所定の辞書Dにおいて、各前記セルにおける前記ベクトルに対してスパース信号分解を行い、対応するスパースベクトルを取得することと、を含み、
- 前記スパースベクトルに基づき、前記画像の勾配方向ヒストグラムHOG特徴を抽出することは、
前記スパースベクトルに基づき、各前記セルの勾配の大きさと勾配方向を計算し、各前記セルの記述子を取得することと、
各前記ブロックにおける各前記記述子を統計し、各前記ブロックのHOG特徴を取得することと、
前記画像における各前記ブロックのHOG特徴を統計し、前記画像のHOG特徴を取得することと、
を含むことを特徴とする請求項1に記載の方法。 - 前記画像における各前記ブロックのHOG特徴を統計し、前記画像のHOG特徴を取得することは、
前記画像における各前記ブロックのHOG特徴を一つの列として一つの行列に直列接続し、前記画像のHOG特徴を取得することを含むことを特徴とする請求項4に記載の方法。 - 前記画像における各前記ブロックのHOG特徴を統計し、前記画像のHOG特徴を取得することは、
前記画像における、M*N個の画像を含む各前記ブロックのHOG特徴を初期のL*1次元のベクトルからM*Nの行列(L=M*N)に調整することと、
各前記ブロックの調整後の前記HOG特徴と前記画像における各前記ブロックの対応的な位置に基づき、前記画像のHOG特徴を取得することと、
を含むことを特徴とする請求項4に記載の方法。 - 前記方法は、さらに、
前記画像正規化処理を行い、所定のサイズの前記画像を取得することを含むことを特徴とする請求項1〜6のいずれかに記載の方法。 - 特徴抽出装置であって、
画像を複数のセルを含む複数のブロックに区分するように配置された区分モジュールと、
サンプル画像に反復的アルゴリズムを用いて計算し得られた辞書Dを用いて、各前記セルに対してスパース信号分解を行い、各前記セルにそれぞれ対応するスパースベクトルを取得するように配置された分解モジュールと、
前記スパースベクトルに基づき、前記画像の勾配方向ヒストグラムHOG特徴を抽出するように配置された抽出モジュールと、
を含むことを特徴とする装置。 - 前記装置は、さらに、
複数の種類の画像集を含むサンプル画像を取得するように配置された取得モジュールと、
下記の式を用いて、反復により得られた最適な辞書を前記所定の辞書Dとするように配置された反復モジュールと、を含み、
- 前記区分モジュールは、
各前記セルにおける画素をn*1次元のベクトルに調整するように配置された第1調整サブモジュールと、
下記の式を用いて、前記所定の辞書Dにおいて、各前記セルにおける前記ベクトルに対してスパース信号分解を行い、対応するスパースベクトルを取得するように配置された信号分解サブモジュールと、を含み、
- 前記抽出モジュールは、
前記スパースベクトルに基づき、各前記セルの勾配の大きさと勾配方向を計算し、各前記セルの記述子を取得するように配置された計算サブモジュールと、
各前記ブロックにおける各前記記述子を統計し、各前記ブロックのHOG特徴を取得するように配置された第1統計サブモジュールと、
前記画像における各前記ブロックのHOG特徴を統計し、前記画像のHOG特徴を取得するように配置された第2統計サブモジュールと、
を含むことを特徴とする請求項8に記載の装置。 - 前記第2統計サブモジュールは、
前記画像における各前記ブロックのHOG特徴を一つの列として一つの行列に直列接続し、前記画像のHOG特徴を取得するように配置されたことを特徴とする請求項11に記載の装置。 - 前記第2統計サブモジュールは、
前記画像における、M*N個の画素を含む各前記ブロックのHOG特徴を初期のL*1次元ベクトルからM*Nの行列(L=M*N)に調整するように配置された第2調整サブモジュールと、
各前記ブロックの調整後の前記HOG特徴と前記画像における各前記ブロックの対応的な位置に基づき、前記画像のHOG特徴を取得するように配置された特徴抽出サブモジュールと、
を含むことを特徴とする請求項11に記載の装置。 - 前記装置は、さらに、
前記画像に対して正規化処理を行い、所定のサイズの前記画像を取得するように配置された処理モジュールを含むことを特徴とする請求項8〜13のいずれかに記載の装置。 - 特徴抽出装置であって、
画像を複数のセルを含む複数のブロックに区分し、
サンプル画像に反復的アルゴリズムを用いて計算し得られた辞書Dを用いて、各前記セルに対してスパース信号分解を行い、各前記セルにそれぞれ対応するスパースベクトルを取得し、
前記スパースベクトルに基づき、前記画像の勾配方向ヒストグラムHOG特徴を抽出するように配置されたプロセッサと、
前記プロセッサの実行可能なコマンドを記憶するメモリと、
を含むことを特徴とする装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510829071.7A CN105654094B (zh) | 2015-11-25 | 2015-11-25 | 特征提取方法及装置 |
CN201510829071.7 | 2015-11-25 | ||
PCT/CN2015/099309 WO2017088248A1 (zh) | 2015-11-25 | 2015-12-29 | 特征提取方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018507494A true JP2018507494A (ja) | 2018-03-15 |
Family
ID=56481854
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017552214A Pending JP2018507494A (ja) | 2015-11-25 | 2015-12-29 | 特徴抽出方法及び装置 |
Country Status (8)
Country | Link |
---|---|
US (1) | US20170147896A1 (ja) |
EP (1) | EP3173977A1 (ja) |
JP (1) | JP2018507494A (ja) |
KR (1) | KR101792961B1 (ja) |
CN (1) | CN105654094B (ja) |
MX (1) | MX360694B (ja) |
RU (1) | RU2644516C2 (ja) |
WO (1) | WO2017088248A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105654092B (zh) * | 2015-11-25 | 2019-08-30 | 小米科技有限责任公司 | 特征提取方法及装置 |
CN106875546B (zh) * | 2017-02-10 | 2019-02-05 | 大连海事大学 | 一种增值税发票的识别方法 |
CN108520248A (zh) * | 2018-04-17 | 2018-09-11 | 成都乐动信息技术有限公司 | 运动模式识别方法及装置 |
CN110866131A (zh) * | 2018-08-21 | 2020-03-06 | 北京京东尚科信息技术有限公司 | 图像去重方法、装置、介质及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014016710A (ja) * | 2012-07-06 | 2014-01-30 | Toyota Central R&D Labs Inc | 対象物検出装置及びプログラム |
JP2015125662A (ja) * | 2013-12-27 | 2015-07-06 | 株式会社リコー | 物体識別プログラム及び装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001037220A1 (en) * | 1999-11-18 | 2001-05-25 | Info Assets, Inc. | Rendering image data |
US7725484B2 (en) * | 2005-11-18 | 2010-05-25 | University Of Kentucky Research Foundation (Ukrf) | Scalable object recognition using hierarchical quantization with a vocabulary tree |
JP2008283573A (ja) * | 2007-05-11 | 2008-11-20 | Olympus Corp | 画像処理装置 |
CN103338365B (zh) * | 2007-06-29 | 2017-04-12 | 夏普株式会社 | 图像编码装置、图像编码方法、图像译码装置、图像译码方法 |
US8625861B2 (en) * | 2008-05-15 | 2014-01-07 | International Business Machines Corporation | Fingerprint representation using gradient histograms |
RU2484531C2 (ru) * | 2009-01-22 | 2013-06-10 | Государственное научное учреждение центральный научно-исследовательский и опытно-конструкторский институт робототехники и технической кибернетики (ЦНИИ РТК) | Устройство обработки видеоинформации системы охранной сигнализации |
CN102609681B (zh) * | 2012-01-12 | 2014-04-30 | 北京大学 | 基于字典学习模型的人脸识别方法 |
CN102891999B (zh) * | 2012-09-26 | 2014-11-26 | 南昌大学 | 一种基于压缩感知的联合图像压缩/加密方法 |
JP6351240B2 (ja) * | 2013-11-20 | 2018-07-04 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
CN103903238B (zh) * | 2014-03-21 | 2017-06-20 | 西安理工大学 | 图像特征的显著结构和相关结构融合方法 |
CN104123538B (zh) * | 2014-07-04 | 2018-11-06 | 西安理工大学 | 一种基于视觉词袋的网络不良图像检测方法 |
CN104239872A (zh) * | 2014-09-26 | 2014-12-24 | 南开大学 | 异态汉字识别方法 |
CN104657717B (zh) * | 2015-02-12 | 2018-02-02 | 合肥工业大学 | 一种基于分层核稀疏表示的行人检测方法 |
CN104850852B (zh) * | 2015-04-27 | 2018-06-12 | 小米科技有限责任公司 | 特征向量计算方法和装置 |
-
2015
- 2015-11-25 CN CN201510829071.7A patent/CN105654094B/zh active Active
- 2015-12-29 WO PCT/CN2015/099309 patent/WO2017088248A1/zh active Application Filing
- 2015-12-29 RU RU2016110146A patent/RU2644516C2/ru active
- 2015-12-29 JP JP2017552214A patent/JP2018507494A/ja active Pending
- 2015-12-29 KR KR1020167005589A patent/KR101792961B1/ko active IP Right Grant
- 2015-12-29 MX MX2016003579A patent/MX360694B/es active IP Right Grant
-
2016
- 2016-11-18 EP EP16199669.9A patent/EP3173977A1/en not_active Ceased
- 2016-11-23 US US15/360,021 patent/US20170147896A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014016710A (ja) * | 2012-07-06 | 2014-01-30 | Toyota Central R&D Labs Inc | 対象物検出装置及びプログラム |
JP2015125662A (ja) * | 2013-12-27 | 2015-07-06 | 株式会社リコー | 物体識別プログラム及び装置 |
Non-Patent Citations (2)
Title |
---|
小林 拓也、外2名: ""Histograms of Oriented Gradientsを用いた対象識別での特徴選択"", 電子情報通信学会技術研究報告, vol. 106, no. 606, JPN6018008724, 9 March 2007 (2007-03-09), JP, pages 119 - 124, ISSN: 0003755398 * |
竹村 和将、宮城 茂幸: ""統計的形状モデリングによる図上から撮影された距離画像中の歩行者検出"", FIT2013 第12回情報科学技術フォーラム 講演論文集 第3分冊 査読付き論文・一般論文, JPN6018008727, 20 August 2013 (2013-08-20), JP, pages 125 - 128, ISSN: 0003755399 * |
Also Published As
Publication number | Publication date |
---|---|
MX2016003579A (es) | 2017-07-14 |
MX360694B (es) | 2018-11-14 |
RU2016110146A (ru) | 2017-09-28 |
RU2644516C2 (ru) | 2018-02-12 |
CN105654094A (zh) | 2016-06-08 |
US20170147896A1 (en) | 2017-05-25 |
KR20170074213A (ko) | 2017-06-29 |
KR101792961B1 (ko) | 2017-11-02 |
WO2017088248A1 (zh) | 2017-06-01 |
EP3173977A1 (en) | 2017-05-31 |
CN105654094B (zh) | 2019-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6378453B2 (ja) | 特徴抽出方法及び装置 | |
CN108121952B (zh) | 人脸关键点定位方法、装置、设备及存储介质 | |
WO2020135529A1 (zh) | 位姿估计方法及装置、电子设备和存储介质 | |
JP6134446B2 (ja) | 画像分割方法、画像分割装置、画像分割デバイス、プログラム及び記録媒体 | |
US9959484B2 (en) | Method and apparatus for generating image filter | |
TW202113756A (zh) | 圖像處理方法及裝置、電子設備、儲存媒體和電腦程式 | |
JP2018507495A (ja) | 特徴抽出方法及び装置 | |
TW202113757A (zh) | 目標對象匹配方法及目標對象匹配裝置、電子設備和電腦可讀儲存媒介 | |
CN107463903B (zh) | 人脸关键点定位方法及装置 | |
WO2017049794A1 (zh) | 指令生成方法及装置 | |
JP2016531362A (ja) | 肌色調整方法、肌色調整装置、プログラム及び記録媒体 | |
JP6170626B2 (ja) | 構図変更方法、構図変更装置、端末、プログラム及び記録媒体 | |
JP2018507494A (ja) | 特徴抽出方法及び装置 | |
CN105574834B (zh) | 图像处理方法及装置 | |
TW202036476A (zh) | 圖像處理方法及裝置、電子設備和儲存介質 | |
CN106503682A (zh) | 视频数据中的关键点定位方法及装置 | |
CN107292901B (zh) | 边缘检测方法及装置 | |
CN108053372A (zh) | 处理深度图像的方法和装置 | |
JP2023519755A (ja) | 画像レジストレーション方法及び装置 | |
CN109376588B (zh) | 一种人脸测光点选取方法、装置和拍摄设备 | |
US20140301651A1 (en) | Method and device for performing spatial filtering process on image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180309 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180605 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180629 |